Ollama
Diğer adlandırmalar: Ollama LLM , yerel LLM çalıştırıcı
Tanım
Ollama, yerel makinende büyük dil modeli’ni indirip çalıştırmanı sağlayan açık kaynak bir araç. 2023’te çıktı; 2026 itibariyle yerel LLM dünyasının fiili standardı.
İki şey yapar:
- Model indirme — Llama, Mistral, Qwen, DeepSeek ve onlarcası tek komutla.
- Model çalıştırma — yerel HTTP server, OpenAI uyumlu API.
Ilura altta Ollama kullanır; sen Ollama’nın varlığını görmezsin.
Ollama + Ilura
Ilura’nın yerel model altyapısı Ollama üzerine kurulu:
[Tezgah arayüzü]
↓
[Ollama runtime]
├─ Llama 3.1 8B
├─ Qwen 2.5 14B
└─ Embedding modeli (nomic)
↓
[Yerel HTTP server :11434]
↓
[Agent yetiştirme akışı]
Ilura’nın değer kattığı: agent katmanı (bellek + audit + Bayesian profil + UI). Ollama sadece motor.
Hangi modeller?
Ollama kütüphanesinde 200+ model var:
- Llama 3 (Meta) — genel amaçlı, çok dilli
- Mistral (Mistral AI) — Avrupa açık model, sade
- Qwen 2.5 (Alibaba) — Türkçe destek iyi
- Phi (Microsoft) — küçük, hızlı, sınırlı
- DeepSeek (Çin) — kod görevlerinde güçlü
- Gemma (Google) — bağlam takibi iyi
- CodeLlama, StarCoder, Codestral — kod özel
Tezgah donanımına göre öneri yapar. Sen seçim üstüne ekleyebilirsin.
Niye Ollama tercih edildi?
İki alternatif vardı: llama.cpp doğrudan veya MLX (Apple özel). Ollama tercihi:
- Çapraz platform (Mac/Win/Linux)
- Kolay model yönetimi (yükle/sil/güncelle)
- OpenAI uyumlu API (kolay entegrasyon)
- Aktif topluluk
MLX Apple Silicon’da daha hızlı, ama yalnızca macOS. Ilura cross-platform kalmak istediği için Ollama.
Yaygın yanılgılar
“Ollama LLM’dir.” — Hayır. Ollama bir çalıştırıcı. LLM’ler ayrı (Llama, Mistral, vb.).
“Ollama bulut servisi.” — Hayır. Tamamen yerel. İnternet sadece model indirirken gerekir, çalıştırma offline.
“Ollama yavaş.” — Donanıma bağlı. Apple Silicon M2+ üzerinde Llama 3.1 8B’yi saniyede ~30 token. GPU’lu Linux’ta daha hızlı.