Ilura vs Ollama: Yerel LLM Runtime mı, Agent Tezgâhı mı?
Ollama vs Ilura
TLDR
| Profil | Tercih |
|---|---|
| Geliştirici, sadece yerel LLM REST API gerek | Ollama |
| Agent yetiştirme + KVKK çerçevesi + ekip | Ilura |
| Birlikte: Ollama altta engine, Ilura üstte tezgah | Her ikisi |
Hangisi sana göre?
”Ben geliştiriciyim, kendi script’imde yerel LLM kullanıyorum”
Ollama. CLI + REST API ile her dilde entegrasyon. Açık kaynak (MIT), ücretsiz, hafif.
”Yetişen agent + ekip yönetimi + KVKK paneli istiyorum”
Ilura. Ollama bir engine; Ilura tezgah. Bayesian profil, LoRA fine-tune döngüsü, audit chain, KVKK panel — Ollama’da yok.
”İkisi birlikte”
Çoğu Ilura kurulumu altta Ollama kullanır. Eğer Ollama zaten kuruluysa Tezgah otomatik kullanır. Ollama’nın engine gücü + Ilura’nın tezgah özellikleri = bütün.
Ollama nedir?
Ollama 2023’te çıkmış açık kaynak (MIT) yerel LLM runtime’ı. Ana özellikler:
- Model yönetimi —
ollama pull llama3.1:8bile indir,ollama listile gör. - REST API —
localhost:11434üzerinde her dilden çağrılabilir. - Multi-platform — macOS, Windows, Linux. Apple Silicon + NVIDIA + AMD GPU desteği.
- Modelfile — Dockerfile gibi; model + system prompt + parametre kombinasyonu.
- GGUF + llama.cpp tabanlı — bellek-verimli inference.
Ollama’nın gücü basit ve hızlı. Bir komut, model çalışıyor. Ama o kadar — yetiştirme, hafıza, ekip, denetim Ollama’nın işi değil.
Tezgah vs engine — fark
| Katman | Ollama | Ilura |
|---|---|---|
| Yerel LLM çalıştırma | ✓ Çekirdek | ✓ (Ollama/mlx/llama.cpp seçilebilir) |
| Model yönetimi | ✓ CLI | ✓ UI |
| Chat UI | Üçüncü-parti (Open WebUI vs.) | ✓ Native |
| Agent kavramı | Yok | ✓ Native |
| Bayesian profil | Yok | ✓ Native |
| LoRA fine-tune döngüsü | Manuel | ✓ Otomatik (haftalık seans) |
| Politika motoru | Yok | ✓ Native |
| Audit chain | Yok | ✓ SHA-256 + ECDSA |
| Ekip yönetimi | Manuel REST share | ✓ Girişimci planı |
| KVKK çerçevesi paneli | Yok | ✓ Native |
| MCP server | Yok | ✓ Stdio + SSE |
Ollama’da olan her şey Ilura’da var (üstte). Ollama’da olmayan çoğu üretken iş Ilura’da var.
Birlikte çalışma deseni
[Ilura Tezgah]
├─ React UI (kullanıcı)
├─ Rust backend
│ ├─ Politika motoru
│ ├─ Audit chain
│ ├─ Bayesian profil
│ ├─ MCP server
│ └─ Inference bridge
│ └─ Ollama REST API çağrısı
│ ↓
│ [Ollama]
│ └─ Llama 3.1 8B (GGUF)
Ilura runtime soyutlamasında Ollama bir “backend”. Aynı soyutlamada mlx (Apple Silicon) veya llama.cpp direkt de var. Donanıma + senin tercihine göre Tezgah seçer.
Tek başına Ollama vs Ilura — kim ne yapar?
Ollama tek başına yeterli senaryolar:
- IDE’inde Continue.dev veya Cursor ile yerel kod tamamlama
- Kendi script’ine yerel LLM çağrısı eklemek (
requests.post('http://localhost:11434/...')) - LangChain ile yerel chain kurmak (LangChain Ollama integration)
- Quick experiment, no-state generation
Ilura tezgah gerekli senaryolar:
- Şirkette pilot agent (yetiştirilen, hatırlayan)
- KVKK denetlenebilir kanıt zinciri
- Ekipte agent paylaşımı + per-user profil
- Onay/red akışı + LoRA fine-tune döngüsü
- Agent’ı bulutta yayınlama (api.ilura.com.tr)
- Politika motoru ile zero-trust dosya/komut erişimi
Fiyat
Ollama:
- Tamamen ücretsiz, açık kaynak (MIT)
- Donanım maliyeti (M-serisi Mac veya RTX GPU)
- Modelin disk alanı (her biri 2-40 GB)
Ilura:
- Kâşif: ücretsiz, kart gerekmiyor — kişisel kullanım için
- Geliştirici: €24.99/ay — bulut yayını + BYOK eğitmen
- Girişimci: €49.99/ay — 5 seat dahil, ek seat €5/ay
Ilura Kâşif ile çoğu Ollama özelliği zaten var (yerel LLM + agent + politika + audit). Ek bulut eğitmen + ekip için ödenir.
”Ollama şu durumda daha iyi”
- Geliştirici experimentation. REST API üzerinden hızlı entegrasyon, açık kaynak, kendi pipeline’inde özelleştirme. Ilura tezgah olduğu için bu UX’i sunmuyor.
- Sadece yerel LLM gerek, agent kavramı overkill. Yerel ChatGPT alternatifi olarak Ollama + Open WebUI yeterli. Bayesian profile, LoRA döngüsü gerekmiyor.
- Headless server / Docker container — Ollama Linux server’da daemon olarak çalışır. Ilura masaüstü uygulaması olduğu için bu senaryo uymuyor.
Sona
Ollama bir engine; Ilura tezgah. Çoğu Ilura kurulumu altta Ollama kullanır — bu yüzden “Ollama vs Ilura” yanlış soru. Doğru soru: “Sadece engine mi, yoksa tezgah mı gerek?” Geliştirici experimentation için engine. Şirkette uzun-vadeli agent için tezgah.