Ilura ve yerel LLM (Ollama, LM Studio) — fark nerede?
Yerel LLM (Ollama / LM Studio) vs Ilura
Tek cümle özet
Ollama ve LM Studio yerel LLM çalıştırıcılar — kullanıcıya bir model verir. Ilura agent yaşam döngüsü tezgâhıdır — modeli alır, agent’ını yetiştirir, denetler, yayınlar. Çoğu Ilura kurulumu altta Ollama veya MLX’i engine olarak kullanıyor; iki ürün rakip değil, paralel.
İki ürün ne yapar?
Yerel LLM (Ollama / LM Studio)
Ollama ve LM Studio yerel LLM çalıştırıcılar. Ollama 2023’te çıkmış açık kaynak (MIT) — ollama pull llama3.1:8b ile model indir, ollama run ile chat veya localhost:11434/api/generate REST endpoint çağır. CLI tabanlı, geliştirici kitlesine uygun. Apple Silicon + NVIDIA + AMD GPU desteği yerli; GGUF + llama.cpp tabanlı; Modelfile ile system prompt + parametre kombinasyonu paketleyebiliyor. LM Studio kapalı kaynak GUI uygulaması — model arama, indirme, chat UI, OpenAI-compatible API server. MLX backend Apple Silicon’da Ollama’dan daha hızlı; ama ticari kullanımda ek lisans gerekiyor. İki ürünün ortak görevi: kullanıcıya bir model çalıştırma ortamı vermek. Agent kavramı, yetiştirme, hafıza, denetim, yayınlama — bunlar Ollama’nın veya LM Studio’nun işi değil. Geliştirici kendi script’inde, kendi LangChain pipeline’ında, kendi RAG kurulumunda yerel modeli çağırır. Yerel inference + KVKK iyi noktada (veri makineden çıkmıyor); ama agent yaşam döngüsü için ek katman gerek. Continue.dev, Open WebUI, Aider gibi araçlar yerel LLM’i kullanan tüketici/IDE arayüzleri — ama hiçbiri agent yetiştirme kategorisinde değil. Geliştirici kitlesine sınırlı kalan bir ekosistem; KOBİ sahibi veya hekim için doğrudan kullanılabilir bir ürün değil.
Ilura
Ilura, kullanıcının kendi agent’larını masaüstünde yetiştirdiği zero-trust tezgâh. Forge-Train-Yayınla halkası: agent tanımlanır, görev yaparken her kararı kullanıcıyla denetlenir, onay-red akışı Bayesian profil + LoRA fine-tune + voice profile katmanlarına yazılır. Ilura model üretmez — Ollama, mlx, llama.cpp, ayrıca Anthropic/OpenAI/Gemini BYOK olarak bulut sağlayıcılar bağlanabilir. Kullanıcı yerel student modeli seçer (Llama 3.1 8B veya Qwen 2.5 7B), eğitmen olarak bulut model ekleyebilir. Veri yerelde — agent’ın hafızası, eğitim örnekleri, audit kanıt zinciri kullanıcının makinesinde. PolicyEngine her dosya/komut/API isteğini risk seviyesine göre filtreliyor (low/medium/high/critical), audit chain SHA-256 hash zinciriyle her kararı imzalıyor. Olgunlaşan agent Ilura bulut runtime’a yayınlanır (api.ilura.com.tr); kullanıcı kendi ürününden API çağırır. Yaşayan tether sayesinde her üretim çağrısı geri öğreniyor. 8 katmanlı agent memory envelope (episodik, semantik, prosedürel, ilişkisel katmanlar) Bayesian profil ile birlikte agent’ın “kişiliğini” oluşturuyor — bunlar Ollama veya LM Studio’da yok, kullanıcının kendi yazılımında kurması gereken katmanlar. Ilura’nın çekirdek tezi: model çalıştırmak işin %5’i; agent yaşam döngüsünü kurmak %95’i. Tezgâh bu %95’i hazır sunuyor.
Hangi özellik kimde nasıl?
KVKK ve veri yerleşimi farkı
Ollama ve LM Studio yerel çalışıyor — veri makineden çıkmıyor, KVKK madde 9 sınır ötesi aktarım sorunu doğmuyor. Bu yerel-öncelikli yaklaşım KVKK için iyi bir başlangıç noktası. Ama madde 12 kapsamında “uygun teknik ve idari tedbirler” denetlenebilir kanıt isteyen bir kavram — model ne yaptı, hangi karar alındı, kim onayladı kayıt altında olmalı. Ollama veya LM Studio bu denetim katmanını sunmuyor; kullanıcı kendi audit log’unu yazmak zorunda. Pratikte denetleyici sorduğunda “modelimiz yerel çalışıyor” demek yeterli olmuyor — somut kayıt + cryptographic doğrulama bekleniyor. Ollama bir engine; engine işin sadece bir kısmı.
Ilura aynı yerel-öncelikli mimaride çalışır + üstüne audit chain ekler. Her IPC çağrısı, her tool kullanımı, her dosya erişimi SHA-256 hash zinciriyle imzalanıyor; sonradan değiştirilirse zincir kopuyor — denetleyiciye doğrudan kanıt sunulabilir. PolicyEngine ile risk seviyeleri (low auto-approve, medium kullanıcı onayı, high zorunlu onay, critical biyometrik) her işlemi sınıflandırıyor. Bulut yayını yapıldığında runtime EU bölgede (Azure West Europe). Tezgâh içindeki “KVKK paneli” tek tıkla denetleyiciye verilebilecek bir kanıt paketi üretiyor — son 6 aylık kararlar, hash zinciri doğrulaması, agent versiyon geçmişi, onay-red oranları. Sağlık kuruluşu, hukuk bürosu, finansal hizmetler gibi düzenlemeli sektörlerde bu kanıt zinciri zorunlu denetim çıktısı olarak kabul edilebilir.
KVKK derinlik için KVKK uyumlu yapay zeka ve Türkiye’de AI agent kullanımı sayfalarına bakman faydalı olur.
Pratik bir not: Ollama kullanan bir hekim “veri makineden çıkmıyor, KVKK uyumlu” dediğinde teknik olarak doğru söylüyor — ama denetleyici “bu agent’ın aldığı her kararın kayıt zincirini görmek istiyorum” dediğinde Ollama log’ları yetersiz kalıyor. KVKK madde 12 “veri sorumlusu uygun teknik ve idari tedbirleri almakla yükümlüdür” diyor; bu tedbirlerin somut kanıtı denetlenebilir kayıt anlamına geliyor. Ilura aynı yerel-öncelikli mimaride duruyor + üstüne tezgâh + audit chain ekliyor; bu eklenti tam olarak madde 12 uyumu için tasarlanmış.
Hangi durumda hangisi?
Ollama ve LM Studio şu durumlarda yeterli: geliştirici olarak kendi script’inde yerel LLM çağırıyorsun (Python, Node, Rust); IDE’inde Continue.dev veya Cursor ile yerel kod tamamlama yapıyorsun; LangChain ile yerel chain kuruyorsun; quick experiment, no-state generation. Agent kavramı, yetiştirme, denetim gerek değil — sadece “yerel ChatGPT” duygusu yeterli. Ücretsiz + açık kaynak (Ollama) avantaj.
Ilura şu durumlarda daha iyi: agent’ı haftalarca aynı işin başında tutup yetiştirmek istiyorsan; KVKK denetlenebilir kanıt zinciri gerek; ekipte 3+ kişi aynı agent’ı paylaşacak; agent’ı kendi ürününe API olarak taşıyacaksan; PolicyEngine ile zero-trust dosya/komut erişimi gerek. KOBİ sahibi, hekim, avukat, e-ticaretçi gibi profesyonellerde Ilura tezgâh yaklaşımı daha uygun çünkü yetiştirme + denetim + yayınlama hazır geliyor — sıfırdan kurmaya gerek yok. Ollama + LangChain + kendi vector DB + kendi audit log + kendi politika motoru kombinasyonu ile aynı işlevi kurmaya çalışmak haftalar/aylar süren bir yazılım projesi; Ilura bu katmanları hazır sunuyor.
İki ürün rakip değil; çoğu Ilura kurulumu altta Ollama’yı engine olarak kullanıyor. “Ollama vs Ilura” yanlış soru — doğru soru “Sadece engine mi yeter, yoksa tezgâh mı gerek?”. Geliştirici experimentation için engine yeterli; şirkette uzun vadeli agent için tezgâh gerek. Ollama bir altyapı parçası; Ilura tam tezgâh.
Pratik bir karar matrisi: geliştiricisin, kendi pipeline’ını tasarlıyorsun, deneylerin hızlı dönecek — Ollama veya LM Studio yeterli. Bir agent’ı 6+ ay boyunca aynı işin başında tutacak, KVKK denetlenebilir kanıt zinciri zorunlu, ekipte 3+ kişi aynı agent’ı paylaşacak — Ilura tezgâh. Ortada bir senaryo varsa (geliştirici + agent yetiştirmek istiyor) — ikisi paralel: Ollama altta engine, Ilura üstte tezgâh.
Migration: Yerel LLM’den Ilura’ya
Ollama yerelinde + Ilura üstünde — agent yaşam döngüsü ekleme. Pratik yol: önce Ollama veya LM Studio kurulu olduğundan emin ol; modeli çek (Llama 3.1 8B veya Qwen 2.5 7B). Ilura’yı indirip aç; Tezgâh otomatik yerel inference engine’ini buluyor. Eğer manuel ayar gerekiyorsa Settings > Sağlayıcılar > Yerel sekmesinden Ollama URL’ini (varsayılan localhost:11434) veya LM Studio URL’ini gir.
Migration aslında “ekleme”; mevcut Ollama kurulumun bozulmuyor, üstüne Ilura tezgâhı ekleniyor. Bu açıdan diğer karşılaştırmalardan farklı — Ollama’yı silmek zorunda değilsin, Ollama yine kendi başına çağırılabiliyor (geliştirici script’lerin çalışmaya devam ediyor). Ilura sadece agent yetiştirme işini üstleniyor; engine işini Ollama’ya bırakıyor. Bu ayrım tezgâh + engine ayrımının kullanıcı için somut karşılığı.
Donanım planlaması açısından bir not: Ollama’yı tek başına kullandığında modeli yükledikçe RAM tüketimi artıyor. Ilura tezgâh ek olarak agent memory envelope (SQLite + vektör), audit chain, voice profile katmanlarını yönetiyor — bunlar hafif (toplam 100-300 MB RAM ek yük), ama disk alanı agent başına 1-3 GB civarı (eğitim verisi + LoRA adapter + audit DB). 5-10 agent yetiştiren bir ekipte toplam 10-30 GB disk planlama; orta segment SSD için sorun değil. CPU tarafında LoRA seansı haftalık ~30-60 dakika; M2 Pro 16GB veya RTX 3060 üstü yeterli.
Sonra ilk agent tanımı: Tezgâh > Yeni Agent. Purpose alanına agent’ın işini yaz (örnek: “müşteri e-postalarını sınıflandırıp önerilen yanıt taslağı üreten asistan”). Tools alanına gerekli MCP server’ları ekle (e-posta okuma, dosya yazma vs.). İlk yetiştirme oturumunda agent her kararını sana soruyor — onay-red akışı Bayesian profil + voice profile katmanlarına yazılıyor.
Eğer önceden LangChain veya kendi Python pipeline’ında bir agent kurmuşsan, Ilura’da yeniden kurmak zorundasın — direkt göç yok. LangChain’deki tool tanımları Ilura MCP server formatına çevriliyor; memory katmanı (vector DB veya SQLite) Ilura’nın 8 katmanlı envelope’una taşınıyor. Hafıza notlarını manuel olarak sözlük import ekranından yükle.
Maliyet hesabı: Ollama ücretsiz; Ilura Kâşif planı ücretsiz. Yani çekirdek kurulum için ek ücret yok. Bulut yayını veya BYOK bulut eğitmen istiyorsan Geliştirici planına geçiyorsun (24.99 EUR/ay). Eğitmen olarak Anthropic/OpenAI/Gemini API key girersen token kullanımı kendi hesabında.
İlk hafta beklenti: agent her kararını soruyor, “yetersiz” hissi olabilir. 2-3 hafta sonra Bayesian profil olgunlaşıyor, basit kararları öğreniyor. 4. haftada otonomi başlıyor. Yerel model olduğu için Claude/GPT-4o kadar akıcı değil; ama LoRA fine-tune döngüsü senin ses tonuna ayarladıkça fark daralıyor. Olgunlaşan agent Ilura bulut runtime’a yayınlanıyor — sıradan Ollama API endpoint’ten çıkamayan bir adım.
Donanım notları: Ollama tarafında zaten Apple Silicon (M1/M2/M3/M4) veya 16GB+ RAM + RTX/AMD GPU varsa Ilura sorunsuz çalışıyor — aynı modelleri aynı engine üzerinden kullanıyor. 8B model için ~6GB RAM yeterli; daha büyük modeller (Llama 3.1 70B veya Qwen 2.5 32B) için 32GB+ RAM gerekiyor. Ilura kullanıcının donanımına göre default model önerisi sunuyor; kullanıcı dilerse bulut eğitmen ekleyerek hibrit çalıştırıyor. Mac mini M2 Pro 16GB RAM gibi orta segment cihaz çoğu agent için yeterli; ekibe sunucu kurarken Linux + RTX 4090 yeterli kapasite.
Somut bir örnek üzerinden gidelim. Bir geliştirici Ollama + Continue.dev kullanıyor — IDE’inde yerel Llama 3.1 8B ile kod tamamlama yapıyor. Aynı geliştirici şirketi için bir müşteri destek agent’ı kurmak istiyor. Continue.dev müşteri destek için tasarlanmamış; LangChain ile kendi agent’ını kurması haftalar alır. Bu noktada Ilura tezgâh devreye giriyor: Continue.dev IDE’de yerel kod tamamlama için kalıyor (geliştirici workflow’u), Ilura masaüstünde müşteri destek agent’ını kuruyor (KOBİ workflow’u). İki ürün paralel; aynı Ollama altta engine olarak çalışıyor. Geliştirici hem kendi geliştirici aletini hem de şirketinin ürün agent’ını yönetmiş oluyor.
Bir başka örnek hekim. Klinik LM Studio kurmuş; doktor günlük dosya özetleme için yerel model çalıştırıyor. LM Studio’nun chat UI’ı işi görüyor ama klinik birden fazla doktor için ayrı agent ister; her doktorun kendi ses tonunu öğrenecek yapı gerek. LM Studio’da bu yok — tek model + tek chat. Ilura’da her doktor için ayrı agent; aynı yerel modeli paylaşıyorlar ama Bayesian profil + voice profile farklı. Klinik ek olarak KVKK denetimi için kanıt zinciri zorunlu — LM Studio yok, Ilura audit chain hazır. Hibrit kurulum: LM Studio sadece model çalıştırma engine’i (ya da Ollama), Ilura tezgâh agent yaşam döngüsünü yönetiyor.
Eğitmen modeli seçimi pratik bir karar. Ücretsiz kalmak istiyorsan eğitmen olarak yine yerel daha büyük model kullanabilirsin (örn. Qwen 2.5 32B); donanım yeterse hibrit hep yerel kalıyor. Bulut eğitmen istiyorsan Anthropic Claude Sonnet veya OpenAI GPT-4o önerilen seçimler; haftalık LoRA seansı için ortalama 10-30 USD API kullanımı. KVKK çerçevesinde bulut eğitmen sorgusu açık rıza ile gidiyor; PII-mask katmanı kişi isimlerini, T.C. kimlik numaralarını, dosya numaralarını placeholder’a çeviriyor. Yani eğitmen Claude’a giden veri kullanılabilir formda PII içermiyor.
Maliyet karşılaştırması: Ollama açık kaynak ücretsiz; LM Studio kişisel ücretsiz, ticari ek lisans. Ilura Kâşif planı ücretsiz (yerel-only); Geliştirici 24.99 EUR/ay (bulut yayını + BYOK eğitmen); Girişimci 49.99 EUR/ay (5 seat). Yerel-only kalıyorsan Kâşif yeterli; bulut yayını + ekip ekleyince Geliştirici/Girişimci. Ollama veya LM Studio tek başına agent yetiştirme için yetersiz olduğu için kıyas anlamlı değil — Ilura tezgâh ek katman, ek değer.
Geçişin ardındaki en sık duyulan endişe “yerel modelin akıcılığı yetmez” şeklinde. Bu kısmen doğru — Llama 3.1 8B Türkçe akıcılığı Claude/GPT-4o seviyesinde değil. Ama agent yetiştirme bağlamında akıcılık tek değil; tutarlılık + bağlam hatırlama + ses tonu uyumu birlikte daha önemli. Yerel student model 4-6 hafta LoRA döngüsü ile bu üç alanda Claude’a yaklaşıyor; çünkü senin ses tonunda eğitiliyor, senin tercihlerini içselleştiriyor. Claude generic akıllı; Ilura’da yetiştirilen yerel model senin için akıllı. Karar matrisi: “her şey için akıllı” generic asistan istiyorsan Claude.ai; “benim ekibim/şirketim için akıllı” özelleşmiş agent istiyorsan Ilura.