Girişimci · eğitmen entegrasyonu · 7 dk okuma
Claude'u İşine Nasıl Entegre Edersin? — Eğitmen Model Olarak Ilura'da
Anthropic Claude'u (Sonnet 4.6, Opus 4.6, Haiku 4.5) Ilura'da eğitmen model olarak bağla — kendi API anahtarınla. Yerel agent'ı senin tarzında yetiştirir; Türkçe nüansları için en güçlü tercih.
Adım adım
- 1
Anthropic Console'da API anahtarı oluştur
console.anthropic.com → Settings → API Keys → 'Create Key'. Anahtar bir kez gösterilir; güvenli yerde sakla. Aylık limit ayarı Workspaces → Limits altında — beklenmedik fatura olmasın.
- 2
Ilura'da Ayarlar → Eğitmen Anahtarları
Tezgah'ı aç → Ayarlar → Eğitmen modelleri sekmesi. Anthropic satırına anahtarı yapıştır. Anahtar OS keyring'inde şifreli saklanır; config dosyasına yazılmaz.
- 3
Eğitmen modeli seç
Açılır menüden Claude Sonnet 4.6 (önerilen — denge), Claude Opus 4.6 (en güçlü, daha pahalı) veya Claude Haiku 4.5 (en hızlı + ucuz, basit görevler). Sonnet çoğu girişimci için doğru tercih.
- 4
Yerel modelle agent yarat
Üç soruyla agent tanımla. Tezgah donanımına göre yerel model önerir (Llama 3.1 8B / Mistral 7B / Qwen 2.5 7B). Yerel model günlük çalışmayı yapar.
- 5
Onay/red akışıyla örnek topla
İlk hafta agent kararlarını sen onaylar/düzeltirsin. Tezgah bu kararları yerel sqlite'ta saklar — bulut'a göndermez. Türkçe düzeltmelerin nüansları kayda alınır.
- 6
Haftalık eğitim seansı tetikle
Tipik 50-100 örnek toplandığında Tezgah sorar: 'Eğitmene gönderelim mi?'. Sen onaylarsın; özetleme + PII maskeleme adımı otomatik. Anonimleştirilmiş örnek Claude'a gider.
- 7
Adapter'ı yerel modele uygula
Claude tercih çiftleri ve yönlendirme cümleleri üretir. Tezgah bunları LoRA adapter'a çevirir (~5 dk); senin onayınla yerel modele uygular. Yerel agent biraz daha 'senin tarzında'.
Kısa cevap
Anthropic Claude’u (Sonnet 4.6 önerilen, Opus veya Haiku da seçenek) Ilura’da eğitmen model olarak bağlarsın. Senin Anthropic API anahtarın → Tezgah Ayarlar → eğitmen olarak seç. Günlük çalışma yerel modelde (Llama/Mistral/Qwen) yapılır; haftalık eğitim seansında Claude senin onay/red kararlarını okur, yerel modele LoRA adapter üretir. Türkçe nüanslarda Claude öne çıkar.
Niye Claude eğitmen?
Üç gerçek:
1. Türkçe ton
Claude Sonnet 4.6 Türkçe nüansları yakalama açısından şu an en güçlü frontier modellerden biri. Resmi-samimi geçişleri, hitap tercihleri, mesleki jargon ile günlük dil dengeleri — bu inceliklerin LoRA adapter’a aktarılması Sonnet ile daha kaliteli çıkıyor.
2. Uzun bağlam
Claude Sonnet 4.6 ve Opus 4.6 200K+ token bağlam penceresine sahip. Tezgah haftalık 150-200 örneği tek seansta Claude’a verebiliyor; Claude tüm örüntüyü bütün halinde görüp tutarlı yönlendirme üretiyor.
ChatGPT GPT-4o (128K context) veya Gemini’de örnekler bazen birden fazla parçaya bölünür — desen yakalama biraz daha az tutarlı olabiliyor.
3. Sözleşmesel taahhüt
Anthropic commercial license’ında açık: API verisi modelin eğitimine kullanılmaz. Web sürümü (claude.ai) farklı politikaya tabi — API’de varsayılan opt-out, sözleşmeli.
Anthropic API anahtarı — adım adım
1. Anahtarı oluştur
console.anthropic.com → giriş yap → Settings → API Keys → “Create Key”. Anahtar bir kez gösterilir; güvenli yerde sakla.
2. Aylık limit belirle
Workspaces → Limits → “Set workspace limit”. Tipik girişimci için:
- Hard limit: $50/ay
- Soft limit (uyarı): $30/ay
Beklenmedik faturalar bu sınırla engellenir.
3. Modeli seç
Eğitmen olarak üç seçenek:
| Model | Token fiyatı (input/output) | Kullanım |
|---|---|---|
| Claude Sonnet 4.6 | $3/M / $15/M | Önerilen — kalite + maliyet dengesi |
| Claude Opus 4.6 | $15/M / $75/M | Yüksek-değer agent (hukuk, sağlık, finans) |
| Claude Haiku 4.5 | $1/M / $5/M | Bütçe odaklı, basit görevler |
Sonnet 4.6 çoğu girişimci için doğru tercih. Yüksek-incelikli alanlarda (hukuk, tıp) Opus kayda değer fark yaratıyor; rutin görevlerde Haiku yeterli.
Tezgah’ta eğitmen anahtarını bağla
Adımlar:
- Tezgah’ı aç
- Ayarlar (sağ üst, dişli)
- Eğitmen modelleri sekmesi
- Anthropic satırı → “Anahtar ekle” → API anahtarını yapıştır
- Test bağlantısı → “Bağlantı tamam ✓” mesajı
- Eğitmen olarak Claude Sonnet 4.6 seç → Kaydet
Anahtar OS keyring’inde şifreli saklanır.
Haftalık eğitim seansında neler oluyor?
Diyelim ki Sera adlı agent’ın bir hafta boyunca e-posta triyajı yaptı. 92 onay, 28 düzeltme, 6 ertele = 126 örnek topladı.
Cuma akşamı Tezgah sorar:
“Bu hafta 126 örnek topladık. Eğitmene gönderelim mi?”
Sen “evet” dersin. Arka planda olan:
1. Özetleme
Her örnek tam metin değil, yapısal iskelet halinde:
[Örnek 67]
Görev tipi: müşteri e-posta yanıtı
Konu kategorisi: iade talebi
Sahibinin yanıtı: önerilen taslağı düzeltti
Düzeltme yönü: "tonun çok özür tarzında — biz değer önermesi sunarız"
Gerçek müşteri e-postası yok. Sadece yapı ve düzeltme yönü.
2. PII maskeleme
Eğer örnekte kişisel veri kalmışsa otomatik maskelenir:
- Telefon:
[TEL] - E-posta:
[EMAIL] - TC:
[TC] - IBAN:
[IBAN] - İsim:
[KİŞİ]
Maskeleme öncesi insan-okunabilir önizleme gösterir; sen “tamam” dersen gönderilir.
3. Claude’a istek
Anonim örnekler Sonnet 4.6’ya verilir:
“Bu kullanıcı yerel modelin önerdiği yanıtların %X’ini düzeltti. Düzeltmelerin hangi örüntülerini tespit ediyorsun? Yerel modele tercih çiftleri olarak hangi yönlendirmeleri verebiliriz?”
Claude Sonnet:
- Düzeltme örüntülerini gruplar (ton, kelime seçimi, yapı, kapsam)
- Her örüntü için tercih çifti üretir (kötü örnek → düzeltilmiş örnek)
- Türkçe nüanslarına özel yönlendirme cümleleri yazar
4. LoRA adapter
Tercih çiftleri DPO formatında yerel modele küçük bir adapter olarak uygulanır. Adapter ~50-200 MB; yerel model ağırlıklarına minimal ince-ayar.
5. Yerel modele uygula
Sen “uygula” dersin. Yerel model artık:
- Senin tonunu daha iyi yakalıyor
- Önceki düzeltme örüntülerini tekrar etmiyor
- Sera’nın “iade talebi → değer önermesi” tarz tercihini öğrendi
Sonraki hafta agent kararlarına bu adapter yerleşir; rutinin %5-10’u daha az düzeltme gerektiriyor.
VRL — iki sinyalli ödül
Tezgah sadece “kullanıcı onayladı/düzeltti” sinyalini değil, iki katmanlı ödül kullanır:
- Kullanıcı onayı — sen ne dedin?
- Sonuç ne oldu? — mail gönderildi mi, müşteri yanıtladı mı, dosya açıldı mı?
İki sinyal birleşince gerçek dünya çıktısı ödül olur. Claude bu iki katmanı görerek daha incelikli yönlendirme üretiyor — “yanıt iyi göründü ama müşteri 2 gün sessiz” gibi belirsiz sinyalleri tespit edip düzeltiyor.
Hibrit kullanım deseni
Pratik yaklaşım:
| İş | Araç |
|---|---|
| Genel taslak yazma (kişisel) | Claude.ai web sürümü |
| Şirket agent’ının günlük çalışması | Yerel model (Llama/Mistral/Qwen) |
| Şirket agent’ının haftalık eğitimi | Anthropic API → Tezgah eğitmen |
| Hassas veri (KVKK §6) | Pod izole, eğitmen yok, tüm öğrenme yerel |
İki tüketim şekli paralel: kendi kullanımın için Claude.ai web, şirket agent’ı için Anthropic API eğitmen.
Tipik üç-aylık Claude eğitmen maliyeti
Bir agent için (Sera örneği, Sonnet 4.6):
| Ay | Haftalık seans | Tipik token | Maliyet |
|---|---|---|---|
| Ay 1 | 4 | 200K-500K (yoğun başlangıç) | $4-12 |
| Ay 2 | 4 | 100K-300K (azalır) | $2-6 |
| Ay 3 | 4 | 50K-200K (incelikli düzeltmeler) | $1.50-4 |
Üç aylık toplam: $8-22 — çoğu girişimci için kayda değer olmayan rakam.
Opus seçilirse rakam ~5x; Haiku seçilirse ~/5.
Claude Sonnet vs Opus — ne zaman fark yaratır?
Sonnet 4.6 yetiyor: rutin görevler, müşteri hizmetleri, içerik triyajı, e-posta yönetimi, fatura okuma, basit özetleme.
Opus 4.6 fark yaratıyor:
- Hukuk dosyası ön-incelemesi (Naci agent gibi)
- Sağlık anamnez analizi (Lokman agent — ayrıca KVKK §6 nedeniyle pod izolasyon zorunlu)
- Yüksek-değer finansal karar (Murat agent gibi)
- Çok dilli içerik (TR + EN + FR vs.)
Opus’un kayda değer farkı incelikli karar gerektiren alanlarda. Rutin görevde Sonnet ile aynı sonucu verir; fiyat farkı boşa gider.
KVKK çerçevesi — eğitmen entegrasyonunda
1. Veri sahibi rıza
Müşteri etkileşimleri eğitime giderken (özetli + maskeli) Aydınlatma Metni’ne ekle. Tipik formül:
“Müşteri etkileşimleri, yapay zeka modelimizin Türkçe yanıt kalitesini iyileştirmek amacıyla anonimleştirilmiş ve yapısal özet halinde işlenir. Hiçbir kişisel veri yapay zeka eğitmenine açık metin olarak gönderilmez.”
2. Yurt dışı aktarım
Anthropic ABD’de — datacenter’lar AWS us-east + EU-central. Maskeleme sonrası gönderilen veri kişisel veri tanımı dışında olabilir; ama emin olmak için süreci şirket DPO’sunla doğrula. Anthropic DPA imzalanabiliyor.
3. KVKK §6 (özel nitelikli)
Sağlık, biyometrik, ceza kayıtları için pod izolasyonu. O agent’ın haftalık seansı tetiklenmez; tüm öğrenme yerel kalır. Detay: KVKK uyumlu yapay zeka.
Yaygın yanılgılar
“Claude.ai aboneliğim eğitmen olmak için yetiyor.” Hayır — Pro abonelik web sürümü için. Eğitmen olarak API anahtarı gerek (console.anthropic.com). Pro aboneliği API kullanımını kapsamıyor; ayrı pay-as-you-go faturalanır.
“Opus her zaman daha iyi.” Yanlış — rutin görevde Sonnet ile aynı sonuç, beş kat fiyat. Opus’u sadece incelikli karar alanlarında kullan.
“Claude verilerimi eğitime kullanır.” API tarafında varsayılan opt-out, Anthropic sözleşmesinde açık. Web ücretsiz tier’ında durum farklı; API güvenli.
“Tek eğitmen yetmez, üçünü de bağlamalıyım.” Yetiyor. Tek eğitmenle (genelde Sonnet 4.6 veya GPT-4o) çoğu agent yetişir. Birden fazla eğitmen sadece A/B karşılaştırma + yedek için.
Sona
Claude’u eğitmen model olarak bağlamak: API anahtarı al, Tezgah Ayarlar’a yapıştır, eğitmen seç. Günlük çalışma yerel modelde, haftalık eğitim Claude ile. Türkçe nüanslarda öne çıkar; uzun bağlam haftalık örüntüyü tutarlı yakalar. Anahtar sende, fatura sana, KVKK çerçevesi mimaride.
Aynı çerçeveyi ChatGPT ve Gemini için de uygulayabilirsin; A/B karşılaştırma yaparsan agent için en iyi eğitmeni seçebilirsin.