Girişimci · eğitmen entegrasyonu · 7 dk okuma

Claude'u İşine Nasıl Entegre Edersin? — Eğitmen Model Olarak Ilura'da

Anthropic Claude'u (Sonnet 4.6, Opus 4.6, Haiku 4.5) Ilura'da eğitmen model olarak bağla — kendi API anahtarınla. Yerel agent'ı senin tarzında yetiştirir; Türkçe nüansları için en güçlü tercih.

Adım adım

  1. 1

    Anthropic Console'da API anahtarı oluştur

    console.anthropic.com → Settings → API Keys → 'Create Key'. Anahtar bir kez gösterilir; güvenli yerde sakla. Aylık limit ayarı Workspaces → Limits altında — beklenmedik fatura olmasın.

  2. 2

    Ilura'da Ayarlar → Eğitmen Anahtarları

    Tezgah'ı aç → Ayarlar → Eğitmen modelleri sekmesi. Anthropic satırına anahtarı yapıştır. Anahtar OS keyring'inde şifreli saklanır; config dosyasına yazılmaz.

  3. 3

    Eğitmen modeli seç

    Açılır menüden Claude Sonnet 4.6 (önerilen — denge), Claude Opus 4.6 (en güçlü, daha pahalı) veya Claude Haiku 4.5 (en hızlı + ucuz, basit görevler). Sonnet çoğu girişimci için doğru tercih.

  4. 4

    Yerel modelle agent yarat

    Üç soruyla agent tanımla. Tezgah donanımına göre yerel model önerir (Llama 3.1 8B / Mistral 7B / Qwen 2.5 7B). Yerel model günlük çalışmayı yapar.

  5. 5

    Onay/red akışıyla örnek topla

    İlk hafta agent kararlarını sen onaylar/düzeltirsin. Tezgah bu kararları yerel sqlite'ta saklar — bulut'a göndermez. Türkçe düzeltmelerin nüansları kayda alınır.

  6. 6

    Haftalık eğitim seansı tetikle

    Tipik 50-100 örnek toplandığında Tezgah sorar: 'Eğitmene gönderelim mi?'. Sen onaylarsın; özetleme + PII maskeleme adımı otomatik. Anonimleştirilmiş örnek Claude'a gider.

  7. 7

    Adapter'ı yerel modele uygula

    Claude tercih çiftleri ve yönlendirme cümleleri üretir. Tezgah bunları LoRA adapter'a çevirir (~5 dk); senin onayınla yerel modele uygular. Yerel agent biraz daha 'senin tarzında'.

Kısa cevap

Anthropic Claude’u (Sonnet 4.6 önerilen, Opus veya Haiku da seçenek) Ilura’da eğitmen model olarak bağlarsın. Senin Anthropic API anahtarın → Tezgah Ayarlar → eğitmen olarak seç. Günlük çalışma yerel modelde (Llama/Mistral/Qwen) yapılır; haftalık eğitim seansında Claude senin onay/red kararlarını okur, yerel modele LoRA adapter üretir. Türkçe nüanslarda Claude öne çıkar.

Niye Claude eğitmen?

Üç gerçek:

1. Türkçe ton

Claude Sonnet 4.6 Türkçe nüansları yakalama açısından şu an en güçlü frontier modellerden biri. Resmi-samimi geçişleri, hitap tercihleri, mesleki jargon ile günlük dil dengeleri — bu inceliklerin LoRA adapter’a aktarılması Sonnet ile daha kaliteli çıkıyor.

2. Uzun bağlam

Claude Sonnet 4.6 ve Opus 4.6 200K+ token bağlam penceresine sahip. Tezgah haftalık 150-200 örneği tek seansta Claude’a verebiliyor; Claude tüm örüntüyü bütün halinde görüp tutarlı yönlendirme üretiyor.

ChatGPT GPT-4o (128K context) veya Gemini’de örnekler bazen birden fazla parçaya bölünür — desen yakalama biraz daha az tutarlı olabiliyor.

3. Sözleşmesel taahhüt

Anthropic commercial license’ında açık: API verisi modelin eğitimine kullanılmaz. Web sürümü (claude.ai) farklı politikaya tabi — API’de varsayılan opt-out, sözleşmeli.

Anthropic API anahtarı — adım adım

1. Anahtarı oluştur

console.anthropic.com → giriş yap → Settings → API Keys → “Create Key”. Anahtar bir kez gösterilir; güvenli yerde sakla.

2. Aylık limit belirle

Workspaces → Limits → “Set workspace limit”. Tipik girişimci için:

  • Hard limit: $50/ay
  • Soft limit (uyarı): $30/ay

Beklenmedik faturalar bu sınırla engellenir.

3. Modeli seç

Eğitmen olarak üç seçenek:

ModelToken fiyatı (input/output)Kullanım
Claude Sonnet 4.6$3/M / $15/MÖnerilen — kalite + maliyet dengesi
Claude Opus 4.6$15/M / $75/MYüksek-değer agent (hukuk, sağlık, finans)
Claude Haiku 4.5$1/M / $5/MBütçe odaklı, basit görevler

Sonnet 4.6 çoğu girişimci için doğru tercih. Yüksek-incelikli alanlarda (hukuk, tıp) Opus kayda değer fark yaratıyor; rutin görevlerde Haiku yeterli.

Tezgah’ta eğitmen anahtarını bağla

Adımlar:

  1. Tezgah’ı aç
  2. Ayarlar (sağ üst, dişli)
  3. Eğitmen modelleri sekmesi
  4. Anthropic satırı → “Anahtar ekle” → API anahtarını yapıştır
  5. Test bağlantısı → “Bağlantı tamam ✓” mesajı
  6. Eğitmen olarak Claude Sonnet 4.6 seç → Kaydet

Anahtar OS keyring’inde şifreli saklanır.

Haftalık eğitim seansında neler oluyor?

Diyelim ki Sera adlı agent’ın bir hafta boyunca e-posta triyajı yaptı. 92 onay, 28 düzeltme, 6 ertele = 126 örnek topladı.

Cuma akşamı Tezgah sorar:

“Bu hafta 126 örnek topladık. Eğitmene gönderelim mi?”

Sen “evet” dersin. Arka planda olan:

1. Özetleme

Her örnek tam metin değil, yapısal iskelet halinde:

[Örnek 67]
Görev tipi: müşteri e-posta yanıtı
Konu kategorisi: iade talebi
Sahibinin yanıtı: önerilen taslağı düzeltti
Düzeltme yönü: "tonun çok özür tarzında — biz değer önermesi sunarız"

Gerçek müşteri e-postası yok. Sadece yapı ve düzeltme yönü.

2. PII maskeleme

Eğer örnekte kişisel veri kalmışsa otomatik maskelenir:

  • Telefon: [TEL]
  • E-posta: [EMAIL]
  • TC: [TC]
  • IBAN: [IBAN]
  • İsim: [KİŞİ]

Maskeleme öncesi insan-okunabilir önizleme gösterir; sen “tamam” dersen gönderilir.

3. Claude’a istek

Anonim örnekler Sonnet 4.6’ya verilir:

“Bu kullanıcı yerel modelin önerdiği yanıtların %X’ini düzeltti. Düzeltmelerin hangi örüntülerini tespit ediyorsun? Yerel modele tercih çiftleri olarak hangi yönlendirmeleri verebiliriz?”

Claude Sonnet:

  • Düzeltme örüntülerini gruplar (ton, kelime seçimi, yapı, kapsam)
  • Her örüntü için tercih çifti üretir (kötü örnek → düzeltilmiş örnek)
  • Türkçe nüanslarına özel yönlendirme cümleleri yazar

4. LoRA adapter

Tercih çiftleri DPO formatında yerel modele küçük bir adapter olarak uygulanır. Adapter ~50-200 MB; yerel model ağırlıklarına minimal ince-ayar.

5. Yerel modele uygula

Sen “uygula” dersin. Yerel model artık:

  • Senin tonunu daha iyi yakalıyor
  • Önceki düzeltme örüntülerini tekrar etmiyor
  • Sera’nın “iade talebi → değer önermesi” tarz tercihini öğrendi

Sonraki hafta agent kararlarına bu adapter yerleşir; rutinin %5-10’u daha az düzeltme gerektiriyor.

VRL — iki sinyalli ödül

Tezgah sadece “kullanıcı onayladı/düzeltti” sinyalini değil, iki katmanlı ödül kullanır:

  1. Kullanıcı onayı — sen ne dedin?
  2. Sonuç ne oldu? — mail gönderildi mi, müşteri yanıtladı mı, dosya açıldı mı?

İki sinyal birleşince gerçek dünya çıktısı ödül olur. Claude bu iki katmanı görerek daha incelikli yönlendirme üretiyor — “yanıt iyi göründü ama müşteri 2 gün sessiz” gibi belirsiz sinyalleri tespit edip düzeltiyor.

Hibrit kullanım deseni

Pratik yaklaşım:

İşAraç
Genel taslak yazma (kişisel)Claude.ai web sürümü
Şirket agent’ının günlük çalışmasıYerel model (Llama/Mistral/Qwen)
Şirket agent’ının haftalık eğitimiAnthropic API → Tezgah eğitmen
Hassas veri (KVKK §6)Pod izole, eğitmen yok, tüm öğrenme yerel

İki tüketim şekli paralel: kendi kullanımın için Claude.ai web, şirket agent’ı için Anthropic API eğitmen.

Tipik üç-aylık Claude eğitmen maliyeti

Bir agent için (Sera örneği, Sonnet 4.6):

AyHaftalık seansTipik tokenMaliyet
Ay 14200K-500K (yoğun başlangıç)$4-12
Ay 24100K-300K (azalır)$2-6
Ay 3450K-200K (incelikli düzeltmeler)$1.50-4

Üç aylık toplam: $8-22 — çoğu girişimci için kayda değer olmayan rakam.

Opus seçilirse rakam ~5x; Haiku seçilirse ~/5.

Claude Sonnet vs Opus — ne zaman fark yaratır?

Sonnet 4.6 yetiyor: rutin görevler, müşteri hizmetleri, içerik triyajı, e-posta yönetimi, fatura okuma, basit özetleme.

Opus 4.6 fark yaratıyor:

  • Hukuk dosyası ön-incelemesi (Naci agent gibi)
  • Sağlık anamnez analizi (Lokman agent — ayrıca KVKK §6 nedeniyle pod izolasyon zorunlu)
  • Yüksek-değer finansal karar (Murat agent gibi)
  • Çok dilli içerik (TR + EN + FR vs.)

Opus’un kayda değer farkı incelikli karar gerektiren alanlarda. Rutin görevde Sonnet ile aynı sonucu verir; fiyat farkı boşa gider.

KVKK çerçevesi — eğitmen entegrasyonunda

1. Veri sahibi rıza

Müşteri etkileşimleri eğitime giderken (özetli + maskeli) Aydınlatma Metni’ne ekle. Tipik formül:

“Müşteri etkileşimleri, yapay zeka modelimizin Türkçe yanıt kalitesini iyileştirmek amacıyla anonimleştirilmiş ve yapısal özet halinde işlenir. Hiçbir kişisel veri yapay zeka eğitmenine açık metin olarak gönderilmez.”

2. Yurt dışı aktarım

Anthropic ABD’de — datacenter’lar AWS us-east + EU-central. Maskeleme sonrası gönderilen veri kişisel veri tanımı dışında olabilir; ama emin olmak için süreci şirket DPO’sunla doğrula. Anthropic DPA imzalanabiliyor.

3. KVKK §6 (özel nitelikli)

Sağlık, biyometrik, ceza kayıtları için pod izolasyonu. O agent’ın haftalık seansı tetiklenmez; tüm öğrenme yerel kalır. Detay: KVKK uyumlu yapay zeka.

Yaygın yanılgılar

“Claude.ai aboneliğim eğitmen olmak için yetiyor.” Hayır — Pro abonelik web sürümü için. Eğitmen olarak API anahtarı gerek (console.anthropic.com). Pro aboneliği API kullanımını kapsamıyor; ayrı pay-as-you-go faturalanır.

“Opus her zaman daha iyi.” Yanlış — rutin görevde Sonnet ile aynı sonuç, beş kat fiyat. Opus’u sadece incelikli karar alanlarında kullan.

“Claude verilerimi eğitime kullanır.” API tarafında varsayılan opt-out, Anthropic sözleşmesinde açık. Web ücretsiz tier’ında durum farklı; API güvenli.

“Tek eğitmen yetmez, üçünü de bağlamalıyım.” Yetiyor. Tek eğitmenle (genelde Sonnet 4.6 veya GPT-4o) çoğu agent yetişir. Birden fazla eğitmen sadece A/B karşılaştırma + yedek için.

Sona

Claude’u eğitmen model olarak bağlamak: API anahtarı al, Tezgah Ayarlar’a yapıştır, eğitmen seç. Günlük çalışma yerel modelde, haftalık eğitim Claude ile. Türkçe nüanslarda öne çıkar; uzun bağlam haftalık örüntüyü tutarlı yakalar. Anahtar sende, fatura sana, KVKK çerçevesi mimaride.

Aynı çerçeveyi ChatGPT ve Gemini için de uygulayabilirsin; A/B karşılaştırma yaparsan agent için en iyi eğitmeni seçebilirsin.

Sıkça sorulanlar

Claude'u niye eğitmen olarak seçeyim?
Üç gerçek: (1) Türkçe ton ve incelik — Claude Sonnet 4.6 nüansları diğer frontier modellerden bir adım daha iyi yakalıyor. (2) Uzun bağlam (200K+ token) — bütün haftalık örnekleri tek seferde okuyup desen çıkarabiliyor. (3) Anthropic'in Sözleşmesel taahhüdü — API verisi training'e kullanılmaz.
Hangi Claude modelini seçmeliyim?
Sonnet 4.6 doğru orta yol — kalite + maliyet dengesi. Opus 4.6 yüksek-değer agent (hukuk, sağlık, finans gibi yüksek-incelikli görevler) için. Haiku 4.5 basit görevler veya bütçe sıkıysa — token başına 5-10x daha ucuz.
Claude verilerimi eğitime kullanır mı?
Hayır — Anthropic API kullanımı varsayılan training opt-out tutar. Bu sözleşmeli — Anthropic'in commercial license'ında açık. Ek olarak Tezgah örnekleri özetleyip PII'leri maskeler; ham veri zaten gitmiyor.
Claude tek başına yeter mi, ChatGPT/Gemini de mi gerek?
Bir eğitmen yeterli. Çoğu girişimci tek eğitmenle başlar (Sonnet 4.6 yaygın seçim). İleride birden fazla eğitmen ekleyip A/B karşılaştırma yapabilirsin. Tezgah hangi eğitmenin senin agent'ının tarzına daha yakın çıktığını gösterir.
Anthropic hesabımdan ne kadar harcanır?
Sonnet 4.6 ile tipik haftalık eğitim seansı $1-5; aylık ortalama agent başına $5-20. Opus için x5 fiyat (haftalık $5-25, aylık $25-100). Haiku için /5 fiyat. Anthropic Console panelinde token sayacı anlık görünür.
Claude'un context window'u eğitim seansında avantaj mı?
Evet. Tezgah haftalık 100-200 örneği tek bir seansta Claude'a verebiliyor — bütün örüntüyü tek seferde görüp tutarlı yönlendirme üretiyor. ChatGPT'nin daha küçük context'inde örnekler birden fazla seansa bölünebiliyor — desen yakalama biraz daha az tutarlı.
API anahtarımı nasıl koruyorsunuz?
Anahtar OS keyring'inde (macOS Keychain, Windows Credential Manager, Linux Secret Service) şifreli saklanır. Config dosyasına yazılmaz. Tezgah'ı silsen anahtar sistem keyring'inde kalır — manuel silmek gerek.