sözlük girişi O · ollama 4 dk okuma

Ollama

Diğer adlandırmalar: Ollama LLM , yerel LLM çalıştırıcı

Tanım

Ollama, yerel makinende büyük dil modeli’ni indirip çalıştırmanı sağlayan açık kaynak bir araç. 2023’te çıktı; 2026 itibariyle yerel LLM dünyasının fiili standardı.

İki şey yapar:

  1. Model indirme — Llama, Mistral, Qwen, DeepSeek ve onlarcası tek komutla.
  2. Model çalıştırma — yerel HTTP server, OpenAI uyumlu API.

Ilura altta Ollama kullanır; sen Ollama’nın varlığını görmezsin.

Ollama + Ilura

Ilura’nın yerel model altyapısı Ollama üzerine kurulu:

[Tezgah arayüzü]

[Ollama runtime]
    ├─ Llama 3.1 8B
    ├─ Qwen 2.5 14B
    └─ Embedding modeli (nomic)

[Yerel HTTP server :11434]

[Agent yetiştirme akışı]

Ilura’nın değer kattığı: agent katmanı (bellek + audit + Bayesian profil + UI). Ollama sadece motor.

Hangi modeller?

Ollama kütüphanesinde 200+ model var:

  • Llama 3 (Meta) — genel amaçlı, çok dilli
  • Mistral (Mistral AI) — Avrupa açık model, sade
  • Qwen 2.5 (Alibaba) — Türkçe destek iyi
  • Phi (Microsoft) — küçük, hızlı, sınırlı
  • DeepSeek (Çin) — kod görevlerinde güçlü
  • Gemma (Google) — bağlam takibi iyi
  • CodeLlama, StarCoder, Codestral — kod özel

Tezgah donanımına göre öneri yapar. Sen seçim üstüne ekleyebilirsin.

Niye Ollama tercih edildi?

İki alternatif vardı: llama.cpp doğrudan veya MLX (Apple özel). Ollama tercihi:

  • Çapraz platform (Mac/Win/Linux)
  • Kolay model yönetimi (yükle/sil/güncelle)
  • OpenAI uyumlu API (kolay entegrasyon)
  • Aktif topluluk

MLX Apple Silicon’da daha hızlı, ama yalnızca macOS. Ilura cross-platform kalmak istediği için Ollama.

Yaygın yanılgılar

“Ollama LLM’dir.” — Hayır. Ollama bir çalıştırıcı. LLM’ler ayrı (Llama, Mistral, vb.).

“Ollama bulut servisi.” — Hayır. Tamamen yerel. İnternet sadece model indirirken gerekir, çalıştırma offline.

“Ollama yavaş.” — Donanıma bağlı. Apple Silicon M2+ üzerinde Llama 3.1 8B’yi saniyede ~30 token. GPU’lu Linux’ta daha hızlı.

Sıkça sorulanlar

Ollama ücretsiz mi?
Evet. Açık kaynak (MIT lisans). Modeller de çoğunlukla açık ağırlıklı (Llama, Mistral, Qwen). Sadece donanım + elektrik maliyetin var.
Ollama hangi platformlar?
macOS, Linux, Windows. Apple Silicon'da en hızlı (M1/M2/M3/M4 GPU otomatik kullanılır). NVIDIA GPU varsa Linux/Windows'da CUDA aktif.
Tezgah Ollama'yı otomatik yönetir mi?
Evet. Ilura kuruldukda Ollama da yüklenir, model indirme/güncelleme/değiştirme Tezgah arayüzünden. Komut satırı bilmek gerekmez.