Ilura ve Ollama
Ollama bir model runtime'ıdır — modeli indirir ve çalıştırır. Ilura agent yaşam döngüsü platformudur — agent'ı yetiştirir, eğitir, API olarak yayınlar, denetler. İkisi rakip değil; Ilura, Ollama'yı birinci sınıf öğrenci modeli olarak kullanır. Tek başına yerel inference istiyorsan Ollama; agent inşa edip ürünleştirmek istiyorsan Ilura (Ollama üstünde).
Ollama yerel LLM runtime'ı: açık ağırlıklı modelleri (Llama, Mistral, Qwen, vb.) komut satırından indirir, yerel makinede çalıştırır, OpenAI uyumlu API sunar. 2026 itibarıyla ücretsiz yerel kullanım + Pro $20/ay + Max $100/ay bulut tier'ları.
01Ilura ne zaman daha iyi?
- Agent mantığı + araç çağrısı + audit gerekiyorsa. Ollama tek bir LLM endpoint'i sunar; tool calling orkestrasyonu, policy engine, audit chain Ilura tarafında.
- Eğitim dataset hazırlamak istemiyorsan. Ilura teacher-student akışında onay/red kararların LoRA adapter'a otomatik yazılır. Ollama tek başına fine-tune yapmaz; manual pipeline kurman gerekir (Unsloth/Axolotl + dataset).
- Agent'ı bir API olarak yayınlamak istiyorsan. Ilura cloud runtime üretim trafiğini policy + monitoring + tether ile sarar. Ollama Pro/Max planları model inference sunar; agent endpoint'i değil.
- Birden fazla LLM provider arasında geçiş yapacaksan. Ilura Claude, GPT, Gemini, Mistral ve Ollama'yı tek tezgâhta yönetir; kullanıcı geçmişi sağlayıcı bağımsız korunur.
02Ollama ne zaman daha iyi?
- Sadece yerel model çalıştırmak istiyorsan. "Llama 3.2 indir, port 11434'te servise sun" — Ollama saniyeler içinde halleder. Ilura'nın bu basit kullanım için fazla.
- Mevcut bir uygulaman OpenAI API formatı kullanıyorsa. Ollama OpenAI uyumlu endpoint sunar — tek satır base_url değişikliği.
- Agent ihtiyacın yoksa. Tek prompt, tek cevap kullanım — örnek bir chatbot, basit RAG. Agent yaşam döngüsü gereksiz overhead.
- Tamamen offline çalışmak zorundaysan. Ollama 100% local mod sunar. Ilura desktop tarafı da yereldir ama yayın akışı bulut runtime ister.
03Temel farklar
| Eksen | Ilura | Ollama |
|---|---|---|
| Kategori | Agent yaşam döngüsü platformu | Yerel LLM runtime |
| Tool calling / agent orchestration | PolicyEngine + approval bridge + audit chain | Yok (model API'si — orchestration kullanıcının üstünde) |
| Eğitim | Teacher-student + LoRA + DPO, kullanım = eğitim | Yok (model dosyası kullanır, fine-tune external) |
| Yayın/API | api.ilura.com.tr endpoint, BYOK desteği, plan bazlı rate limit | Pro/Max bulut tier'ları model inference; agent endpoint yok |
| Audit/güvenlik | SHA-256 hash chain + ECDSA imza + zero-trust policy | Standart HTTP API; uygulama katmanı kullanıcının sorumluluğunda |
| Yetenek bağlama | MCP gateway (Claude Desktop, Cursor, vb.) + native tool'lar | OpenAI uyumlu API — tool calling sınırlı |
| Fiyat (2026 Mayıs) | Kâşif ücretsiz · Geliştirici €24.99/ay (yıllık €249.99) · Girişimci €49.99/ay (yıllık €499.99) | Yerel kullanım ücretsiz · Pro $20/ay · Max $100/ay |
| İlişki | Ollama'yı birinci sınıf öğrenci modeli olarak kullanır | Bağımsız runtime, Ilura ile birlikte çalışır |
04Sık sorulan sorular
Ollama varken Ilura'ya neden ihtiyaç duyarım?
Ollama bir motordur — model dosyasını çalıştırır, sana endpoint verir. Ilura ise agent çevresini kurar: amaç, araçlar, sınırlar, eğitim, audit, yayın. Bir araba motoruna karşı bir araba: ikisi de gereklidir, biri diğerinin yerine geçmez.
Ilura sadece Ollama ile mi çalışır?
Hayır. Ilura LLM-agnostiktir: Claude (Anthropic), GPT (OpenAI), Gemini (Google), Mistral, ve Ollama. Ollama yerel öğrenci modeli olarak öne çıkar; öğretmen modelin Claude veya GPT olabilir.
Ollama'da fine-tune yapabilir miyim?
Doğrudan Ollama bunu yapmaz. Sen Unsloth, Axolotl gibi araçlarla fine-tune yapar, çıkan modeli Ollama'ya import edersin. Ilura bu zinciri kapatır: kullanım sırasında verdiğin onay/red kararları LoRA adapter'a yazılır, manuel dataset hazırlığı yok.
Veriler nerede kalır?
İkisi de yerel-öncelikli. Ollama tamamen offline çalışabilir; Ilura desktop tarafı yerel SQLite'ta tutar — yalnızca yayınlanmış agent'ın üretim trafiği bulut runtime'a iner.
Ilura macOS'ta Apple Silicon'da hızlı mı?
Ilura'nın eğitim katmanı MLX (Apple Silicon'a özel) ve Ollama Metal backend'i kullanır. M-serisi cihazlarda LoRA eğitimi dakikalar mertebesinde tamamlanır.
yanındayım — Ilura