Pillar · ürün manzarası · 7 dk okuma
Masaüstü Yapay Zeka Asistanı: Bulut Yerine Cihazında AI
Masaüstü AI asistanları — Mac, Windows, Linux'ta native uygulama olarak çalışır. Bulut ChatGPT'den farkı veri gizliliği, çevrimdışı erişim, KVKK uyumu, düşük gecikme. Bugünün manzarası.
Tarayıcıdan çıktığında işlerin daha hızlı, verin daha güvende olur.
Kısa cevap
Masaüstü yapay zeka asistanı, tarayıcıda değil — Mac, Windows veya Linux cihazında native uygulama olarak çalışan AI aracıdır. ChatGPT’nin web sürümünden farkı: dosyalara doğrudan erişir, çevrimdışı çalışabilir, gecikme düşük, veri tarayıcı sandbox’ından geçmez. Yerel modelle birleşince KVKK uyumu mimaride sağlanır.
Masaüstü vs bulut AI
| Eksen | Masaüstü AI | Bulut AI (web) |
|---|---|---|
| Erişim | Native uygulama | Tarayıcı sekmesi |
| Dosya | Direkt OS API | Drag-drop, sınırlı |
| Çevrimdışı | Çalışır (yerel model varsa) | Çalışmaz |
| Gecikme | 10-50 ms (yerel) | 200-500 ms |
| Bellek | 200 MB-1 GB (uygulama) | Tarayıcı sekmesi başına ~100 MB |
| Veri | Senin makinende | Sağlayıcı sunucusu |
| OS entegrasyonu | Bildirim, kısayol, tray, sistem dosyası | Yok |
Tarayıcı AI hızlı başlar; masaüstü AI iş akışına gömülür. CRM, IDE, Notion, Slack — masaüstü uygulaman yanıt verir; tarayıcı sekmesi sadece bir cevap kutusu.
Mac, Windows, Linux — kim ne sunuyor
macOS
- ChatGPT for Mac (OpenAI) — Apple Silicon + Intel. Cmd+Space tarzı kısayol. Bulut OpenAI’ye gider.
- Claude for Mac (Anthropic) — beta. Bulut tabanlı.
- LM Studio — yerel model çalıştırma + chat UI. macOS native.
- Ollama — terminal-bazlı yerel runtime + Mac UI uygulaması.
- Tezgah (Ilura) — yerel model + bulut eğitmen + agent yetiştirme.
Windows
- Microsoft Copilot — Windows 11 derinden entegre. Bulut OpenAI/Microsoft.
- ChatGPT for Windows — bulut.
- LM Studio — Windows + GPU desteği.
- Ollama for Windows — Linux gibi terminal.
- Tezgah (Ilura) — RTX 3060+ GPU önerilir.
Linux
- Ollama — Linux’un yerleşik AI runtime’ı; CLI + REST API.
- LM Studio — Linux build var.
- AnythingLLM — açık kaynak chat UI.
- Tezgah (Ilura) — .AppImage tek dosya.
Native masaüstü AI alanı 2024’ten bu yana hızla genişliyor. Türkçe yetkin + KVKK uyumlu kategoride Ilura öne çıkıyor; Avrupa/Türkiye veri yerleşimi mimaride.
Veri gizliliği avantajı
Tarayıcı ChatGPT veriyi şu yola gönderir:
Senin tuş → Tarayıcı tab → JavaScript runtime
→ HTTPS yükle → OpenAI sunucusu
→ GPT-4 → cevap → tarayıcı → ekran
Native masaüstü uygulaması (yerel model ile):
Senin tuş → Native UI → Yerel inference (RAM)
→ cevap → ekran
Bulut çağrısı sıfır. Veri makineden hiç çıkmaz. KVKK §9 (yurt dışı aktarım), GDPR Art. 44 — bunlar mimaride çözülür.
Yerel yapay zeka bu kararın detaylı anatomisi.
Performans — yerel inference + buluta giderken
Modern masaüstü AI uygulaması iki katmanlı:
- Yerel inference — günlük iş. 10-50 ms gecikme, sınırsız çağrı, veri makinende.
- Bulut frontier — yüksek-değer karar (sen onaylarsın). 200-500 ms gecikme, token başına ücret, özetli + maskeli veri.
Tezgah’ın ölçümleri (Apple Silicon M2 Mac, 16 GB RAM, Llama 3.1 8B):
| Görev | Gecikme | Token/saniye |
|---|---|---|
| Kısa cevap (100 token) | 1.2 s | 90 |
| Uzun yazı (500 token) | 5.5 s | 95 |
| Kod tamamlama (50 token) | 0.6 s | 95 |
| Belge özetleme (1000 in / 200 out) | 4 s | 60 |
Bulut Claude Sonnet eşit görevde:
| Görev | Gecikme | Maliyet |
|---|---|---|
| Kısa cevap | 2 s | $0.0003 |
| Uzun yazı | 6 s | $0.0015 |
| Kod tamamlama | 1 s | $0.0001 |
| Belge özetleme | 8 s | $0.0040 |
Yerel her zaman daha hızlı (network yok). Bulut bazı görevlerde daha kaliteli — denge senin önceliklerine bağlı.
Tauri vs Electron — Ilura’nın seçimi
Native masaüstü AI uygulamasının altyapı kararı önemli. Ilura Tauri 2 (Rust) üzerinde — Electron değil. Karşılaştırma:
| Eksen | Tauri (Ilura) | Electron (eski standart) |
|---|---|---|
| İndirme boyutu | ~25 MB | ~120-180 MB |
| Bellek (boşta) | ~80 MB | ~300-450 MB |
| Açılış süresi | <1 s | 2-3 s |
| Backend dili | Rust (async, fast) | Node.js |
| OS entegrasyonu | Native (AXUIElement, UIA, AT-SPI) | WebView’a sınırlı |
| Güvenlik modeli | Zero-trust (her IPC çağrısı politika motorunda) | Çoğu Electron uygulaması: ham Node erişimi |
Ürün hikayesi olarak detay: Tauri v2 ve Rust ile Yerel AI Agent Geliştirmek.
Ilura’nın masaüstü mimarisi
Tezgah üç katmandan oluşur:
┌─────────────────────────────────┐
│ React UI (Mantine + Tabler) │ ← kullanıcı
├─────────────────────────────────┤
│ IPC (specta — type-safe) │ ← bridge
├─────────────────────────────────┤
│ Rust backend (tokio async) │ ← agent + politika + audit
│ ├─ Yerel model runtime │
│ ├─ MCP server (Stdio + SSE) │
│ ├─ Politika motoru │
│ ├─ Audit (SHA-256 chain) │
│ └─ Bulut köprüsü │
├─────────────────────────────────┤
│ OS (macOS / Windows / Linux) │
└─────────────────────────────────┘
Her katman tek-yön: kullanıcı ↔ React, React ↔ Rust IPC, Rust ↔ OS. React’te iş mantığı yok — sadece görüntü. Backend’de tüm güvenlik kararları.
Üç imzalı paket çıkar — .dmg (Mac), .msi (Windows), .AppImage (Linux). Native imza:
- macOS: Apple Developer ID + notarize
- Windows: Trusted Signing (Microsoft)
- Linux: GPG + AppImage runtime
Sona
Masaüstü yapay zeka asistanı, AI’ı tarayıcıdan çıkartıp iş akışına yerleştirir. Yerel model ile veri gizliliği, native API ile OS entegrasyonu, KVKK çerçevesi mimaride. Tezgah Tauri 2 üzerine kurulu — küçük indirme, düşük bellek, derin OS entegrasyonu.
Tarayıcıdan çıktığında işlerin daha hızlı, verin daha güvende olur.