Agent ve LLM — fark nerede?
LLM vs Agent
Tanım
LLM (büyük dil modeli) bir motor. Agent ise o motorun üstüne kurulmuş bir araç. Aralarındaki fark bir piston ile bir araba arasındaki kadar büyük.
LLM sana bir cümle verir. Agent o cümlenin arkasında bir kararla, hatırayla ve sonraki günle ilgilenir.
Mimarinin farkı
LLM çağrısı:
[Kullanıcı] "Şu PDF'ten tarihi çıkar."
↓
[LLM API call]
↓
[Cevap] "12.03.2025"
↓
[Bağlantı kapanır]
Tek seferlik. Ne hatırlar, ne eyler, ne hesap verir.
Agent çağrısı:
[Kullanıcı] "Şu faturayı kayda geçir."
↓
[Agent]
├─ Bellekten benzer faturalara bakar
├─ PDF'i tarar
├─ LLM'e bağlam verir, anlam çıkarır
├─ Risk değerlendirir
├─ "Tarih formatı belirsiz, sana sorayım mı?"
├─ Onay alırsa SAP'a kaydeder
├─ Audit log'a yazar
└─ Belleğe yeni örneği ekler
↓
[Sonraki güne kadar uyur]
Çoklu adım. Hatırar, eyler, hesap verir.
Tablo
| Eksen | LLM | Agent |
|---|---|---|
| Yapı | Tek model çağrısı | Model + bellek + araçlar + kişilik |
| Bellek | Bağlam penceresi (oturum içi) | Kalıcı, oturumlar arası |
| Eylem | Sadece metin döndürür | Tool çağırır, eyler |
| Karar | Soruya cevap verir | Risk değerlendirir, danışır |
| Süreklilik | Çağrı bitti, unuttu | Yarın da ilgilenecek |
| Yetiştirme | Ön-eğitim + fine-tune | Çağrım + bellek + onay/red |
Beş katman: LLM ile Agent arası
LLM ile Agent arasında bir gradient değil — bir stack var. Aralarındaki katmanlar:
- LLM — Llama 3.1, Claude Sonnet, GPT-4o. Sadece motor.
- LLM + System prompt — Custom GPT, Anthropic Projects. Kişilik var ama bellek yok.
- LLM + Memory — ChatGPT Memory, Mistral Le Chat. Bellek var ama eylem zayıf.
- LLM + Tools — Function calling, Anthropic Tools. Eylem var ama hesap verebilirlik zayıf.
- Agent — yukarıdaki dördü + audit log + Bayesian profil + yaşayan bağ. Eşik geçildi.
Çoğu ürün katman 2-4 arasında. Ilura katman 5 — agent ürünü.
Çağrı sayısı
Bir agent kararı için kaç LLM çağrısı?
- Basit yanıt — 1 (yerel model yeter).
- Karmaşık karar — 3-7 (planlama → araç çağrısı → doğrulama → cevap).
- Eğitim seansı — haftada 1, eğitmen modele toplu örnek.
- Sabah özet — 1 (özetleme).
Ortalama Ilura kullanıcısı için günde 30-100 LLM çağrısı. Çoğu yerel, küçük kısmı bulut. Maliyet ay sonu $5-50 arası.
Yetiştirme — temel fark
LLM’i geliştirenler fine-tune ile uyarlar:
- Veri toplanır
- Ön-eğitim ağırlıkları üzerinde gradient descent
- Saat-gün süren bir hesaplama
- Sonuçta yeni model dosyası
Agent’ı kullanıcı yetiştirir:
- Ürün açılır, agent çalışmaya başlar
- Her karar onaylanır/reddedilir
- Bayesian profil incelir
- Çağrım kütüphanesi büyür
- Bir ay sonra senin gibi karar verir
İki süreç aynı şey değil. Fine-tune teknik; yetiştirme ilişkisel.
Daha derinlemesine: Agent yetiştirme — Forge halkası kılavuzu.
Yaygın yanılgılar
“GPT-5 çıkınca agent gerek kalmayacak.” — Daha iyi LLM, daha iyi agent demek; ama agent yapıdır, model değil. LLM’in akıllılaşması bellek, eylem, audit ihtiyacını ortadan kaldırmaz.
“LLM’i biraz prompt-engineering ile agent yaparım.” — Sadece kişilik kurarsın. Bellek + eylem + kalıcılık eksikse, kullanıcı için agent değil — sofistike chatbot.
“Agent = LLM + RAG.” — Yakın ama yetersiz. RAG (notlara bakma) bir araç — agent’ın araç kutusunda biri. Bellek (kalıcı), eylem (tool), hesap verebilirlik birlikte agent’ı yapar.