karşılaştırma

Ilura vs Ollama: Yerel LLM Runtime mı, Agent Tezgâhı mı?

Ollama vs Ilura

Eksen
Ollama
Ilura
Çekirdek
Yerel LLM runtime + REST API
Agent yetiştirme tezgâhı
UX
CLI + (opsiyonel) chat UI
Native masaüstü uygulaması (Tauri)
Yetiştirme
Yok — base model kullanırsın
LoRA fine-tune + bayesian profil + VRL
Hafıza
Yok (her çağrı stateless)
8-katmanlı kalıcı bellek
Politika motoru
Yok
Native (her IPC'de zero-trust)
Audit chain
Yok
SHA-256 chain + ECDSA imza
Ekip paylaşımı
Manuel REST API endpoint paylaşırsın
Tezgah Girişimci planı: 5 seat, KVKK panel
Fiyat
Ücretsiz (açık kaynak, MIT)
Kâşif ücretsiz; Geliştirici €24.99; Girişimci €49.99

TLDR

ProfilTercih
Geliştirici, sadece yerel LLM REST API gerekOllama
Agent yetiştirme + KVKK çerçevesi + ekipIlura
Birlikte: Ollama altta engine, Ilura üstte tezgahHer ikisi

Hangisi sana göre?

”Ben geliştiriciyim, kendi script’imde yerel LLM kullanıyorum”

Ollama. CLI + REST API ile her dilde entegrasyon. Açık kaynak (MIT), ücretsiz, hafif.

”Yetişen agent + ekip yönetimi + KVKK paneli istiyorum”

Ilura. Ollama bir engine; Ilura tezgah. Bayesian profil, LoRA fine-tune döngüsü, audit chain, KVKK panel — Ollama’da yok.

”İkisi birlikte”

Çoğu Ilura kurulumu altta Ollama kullanır. Eğer Ollama zaten kuruluysa Tezgah otomatik kullanır. Ollama’nın engine gücü + Ilura’nın tezgah özellikleri = bütün.

Ollama nedir?

Ollama 2023’te çıkmış açık kaynak (MIT) yerel LLM runtime’ı. Ana özellikler:

  • Model yönetimiollama pull llama3.1:8b ile indir, ollama list ile gör.
  • REST APIlocalhost:11434 üzerinde her dilden çağrılabilir.
  • Multi-platform — macOS, Windows, Linux. Apple Silicon + NVIDIA + AMD GPU desteği.
  • Modelfile — Dockerfile gibi; model + system prompt + parametre kombinasyonu.
  • GGUF + llama.cpp tabanlı — bellek-verimli inference.

Ollama’nın gücü basit ve hızlı. Bir komut, model çalışıyor. Ama o kadar — yetiştirme, hafıza, ekip, denetim Ollama’nın işi değil.

Tezgah vs engine — fark

KatmanOllamaIlura
Yerel LLM çalıştırma✓ Çekirdek✓ (Ollama/mlx/llama.cpp seçilebilir)
Model yönetimi✓ CLI✓ UI
Chat UIÜçüncü-parti (Open WebUI vs.)✓ Native
Agent kavramıYok✓ Native
Bayesian profilYok✓ Native
LoRA fine-tune döngüsüManuel✓ Otomatik (haftalık seans)
Politika motoruYok✓ Native
Audit chainYok✓ SHA-256 + ECDSA
Ekip yönetimiManuel REST share✓ Girişimci planı
KVKK çerçevesi paneliYok✓ Native
MCP serverYok✓ Stdio + SSE

Ollama’da olan her şey Ilura’da var (üstte). Ollama’da olmayan çoğu üretken iş Ilura’da var.

Birlikte çalışma deseni

[Ilura Tezgah]
  ├─ React UI (kullanıcı)
  ├─ Rust backend
  │   ├─ Politika motoru
  │   ├─ Audit chain
  │   ├─ Bayesian profil
  │   ├─ MCP server
  │   └─ Inference bridge
  │       └─ Ollama REST API çağrısı
  │           ↓
  │       [Ollama]
  │         └─ Llama 3.1 8B (GGUF)

Ilura runtime soyutlamasında Ollama bir “backend”. Aynı soyutlamada mlx (Apple Silicon) veya llama.cpp direkt de var. Donanıma + senin tercihine göre Tezgah seçer.

Tek başına Ollama vs Ilura — kim ne yapar?

Ollama tek başına yeterli senaryolar:

  • IDE’inde Continue.dev veya Cursor ile yerel kod tamamlama
  • Kendi script’ine yerel LLM çağrısı eklemek (requests.post('http://localhost:11434/...'))
  • LangChain ile yerel chain kurmak (LangChain Ollama integration)
  • Quick experiment, no-state generation

Ilura tezgah gerekli senaryolar:

  • Şirkette pilot agent (yetiştirilen, hatırlayan)
  • KVKK denetlenebilir kanıt zinciri
  • Ekipte agent paylaşımı + per-user profil
  • Onay/red akışı + LoRA fine-tune döngüsü
  • Agent’ı bulutta yayınlama (api.ilura.com.tr)
  • Politika motoru ile zero-trust dosya/komut erişimi

Fiyat

Ollama:

  • Tamamen ücretsiz, açık kaynak (MIT)
  • Donanım maliyeti (M-serisi Mac veya RTX GPU)
  • Modelin disk alanı (her biri 2-40 GB)

Ilura:

  • Kâşif: ücretsiz, kart gerekmiyor — kişisel kullanım için
  • Geliştirici: €24.99/ay — bulut yayını + BYOK eğitmen
  • Girişimci: €49.99/ay — 5 seat dahil, ek seat €5/ay

Ilura Kâşif ile çoğu Ollama özelliği zaten var (yerel LLM + agent + politika + audit). Ek bulut eğitmen + ekip için ödenir.

”Ollama şu durumda daha iyi”

  1. Geliştirici experimentation. REST API üzerinden hızlı entegrasyon, açık kaynak, kendi pipeline’inde özelleştirme. Ilura tezgah olduğu için bu UX’i sunmuyor.
  2. Sadece yerel LLM gerek, agent kavramı overkill. Yerel ChatGPT alternatifi olarak Ollama + Open WebUI yeterli. Bayesian profile, LoRA döngüsü gerekmiyor.
  3. Headless server / Docker container — Ollama Linux server’da daemon olarak çalışır. Ilura masaüstü uygulaması olduğu için bu senaryo uymuyor.

Sona

Ollama bir engine; Ilura tezgah. Çoğu Ilura kurulumu altta Ollama kullanır — bu yüzden “Ollama vs Ilura” yanlış soru. Doğru soru: “Sadece engine mi, yoksa tezgah mı gerek?” Geliştirici experimentation için engine. Şirkette uzun-vadeli agent için tezgah.

Sıkça sorulanlar

Ilura altta Ollama kullanıyor mu?
Evet — Ilura yerel inference için Ollama'yı destekler (mlx, llama.cpp da seçenekler). Eğer Ollama zaten kuruluysa Tezgah onu otomatik bulur. Ollama bir 'engine'; Ilura onun üstünde tezgah.
Sadece Ollama yetmiyor mu?
Yetiyor — yerel LLM çalıştırmak için. Ama agent yetiştirme (LoRA, bayesian, VRL), kalıcı bellek, politika motoru, audit chain, ekip yönetimi, KVKK paneli — bunlar Ollama'da yok. Ollama bir altyapı parçası; Ilura tam tezgah.
Ollama'yı kendi başına nasıl kullanırım?
Ollama indir, `ollama pull llama3.1:8b`, sonra `ollama run llama3.1` ile chat veya `curl http://localhost:11434/api/generate` ile API. CLI tabanlı; geliştirici kitlesine uygun.
Ollama Türkçe yetkin mi?
Ollama bir runtime — model kendisi değil. Llama 3.1 8B / Qwen 2.5 7B Türkçe iyi; Mistral 7B orta. Ollama hangi modeli yüklediğine göre dil performansı değişir.
Ollama vs Ilura'da fine-tune?
Ollama'da fine-tune dolaylı — kendi LoRA adapter'ını eğitip Ollama'ya yüklersin (Modelfile). Süreç manuel. Ilura tezgah otomatik LoRA döngüsü çalıştırır: onay/red → DPO/VRL → adapter → yerel modele uygulama.
KVKK farkı?
Ollama yerel çalışır; veri makinen dışına çıkmaz (eğer kendi script'in bulut çağrısı yapmıyorsa). Ilura aynı yerel-öncelikli mimaride + ek olarak audit chain ve KVKK çerçevesi paneli sunar (denetlenebilir kanıt zinciri).