Pillar · ürün manzarası · 7 dk okuma

Masaüstü Yapay Zeka Asistanı: Bulut Yerine Cihazında AI

Masaüstü AI asistanları — Mac, Windows, Linux'ta native uygulama olarak çalışır. Bulut ChatGPT'den farkı veri gizliliği, çevrimdışı erişim, KVKK uyumu, düşük gecikme. Bugünün manzarası.

Tarayıcıdan çıktığında işlerin daha hızlı, verin daha güvende olur.

Kısa cevap

Masaüstü yapay zeka asistanı, tarayıcıda değil — Mac, Windows veya Linux cihazında native uygulama olarak çalışan AI aracıdır. ChatGPT’nin web sürümünden farkı: dosyalara doğrudan erişir, çevrimdışı çalışabilir, gecikme düşük, veri tarayıcı sandbox’ından geçmez. Yerel modelle birleşince KVKK uyumu mimaride sağlanır.

Masaüstü vs bulut AI

EksenMasaüstü AIBulut AI (web)
ErişimNative uygulamaTarayıcı sekmesi
DosyaDirekt OS APIDrag-drop, sınırlı
ÇevrimdışıÇalışır (yerel model varsa)Çalışmaz
Gecikme10-50 ms (yerel)200-500 ms
Bellek200 MB-1 GB (uygulama)Tarayıcı sekmesi başına ~100 MB
VeriSenin makinendeSağlayıcı sunucusu
OS entegrasyonuBildirim, kısayol, tray, sistem dosyasıYok

Tarayıcı AI hızlı başlar; masaüstü AI iş akışına gömülür. CRM, IDE, Notion, Slack — masaüstü uygulaman yanıt verir; tarayıcı sekmesi sadece bir cevap kutusu.

Mac, Windows, Linux — kim ne sunuyor

macOS

  • ChatGPT for Mac (OpenAI) — Apple Silicon + Intel. Cmd+Space tarzı kısayol. Bulut OpenAI’ye gider.
  • Claude for Mac (Anthropic) — beta. Bulut tabanlı.
  • LM Studio — yerel model çalıştırma + chat UI. macOS native.
  • Ollama — terminal-bazlı yerel runtime + Mac UI uygulaması.
  • Tezgah (Ilura) — yerel model + bulut eğitmen + agent yetiştirme.

Windows

  • Microsoft Copilot — Windows 11 derinden entegre. Bulut OpenAI/Microsoft.
  • ChatGPT for Windows — bulut.
  • LM Studio — Windows + GPU desteği.
  • Ollama for Windows — Linux gibi terminal.
  • Tezgah (Ilura) — RTX 3060+ GPU önerilir.

Linux

  • Ollama — Linux’un yerleşik AI runtime’ı; CLI + REST API.
  • LM Studio — Linux build var.
  • AnythingLLM — açık kaynak chat UI.
  • Tezgah (Ilura) — .AppImage tek dosya.

Native masaüstü AI alanı 2024’ten bu yana hızla genişliyor. Türkçe yetkin + KVKK uyumlu kategoride Ilura öne çıkıyor; Avrupa/Türkiye veri yerleşimi mimaride.

Veri gizliliği avantajı

Tarayıcı ChatGPT veriyi şu yola gönderir:

Senin tuş    → Tarayıcı tab → JavaScript runtime
             → HTTPS yükle  → OpenAI sunucusu
             → GPT-4         → cevap → tarayıcı → ekran

Native masaüstü uygulaması (yerel model ile):

Senin tuş    → Native UI    → Yerel inference (RAM)
             → cevap → ekran

Bulut çağrısı sıfır. Veri makineden hiç çıkmaz. KVKK §9 (yurt dışı aktarım), GDPR Art. 44 — bunlar mimaride çözülür.

Yerel yapay zeka bu kararın detaylı anatomisi.

Performans — yerel inference + buluta giderken

Modern masaüstü AI uygulaması iki katmanlı:

  1. Yerel inference — günlük iş. 10-50 ms gecikme, sınırsız çağrı, veri makinende.
  2. Bulut frontier — yüksek-değer karar (sen onaylarsın). 200-500 ms gecikme, token başına ücret, özetli + maskeli veri.

Tezgah’ın ölçümleri (Apple Silicon M2 Mac, 16 GB RAM, Llama 3.1 8B):

GörevGecikmeToken/saniye
Kısa cevap (100 token)1.2 s90
Uzun yazı (500 token)5.5 s95
Kod tamamlama (50 token)0.6 s95
Belge özetleme (1000 in / 200 out)4 s60

Bulut Claude Sonnet eşit görevde:

GörevGecikmeMaliyet
Kısa cevap2 s$0.0003
Uzun yazı6 s$0.0015
Kod tamamlama1 s$0.0001
Belge özetleme8 s$0.0040

Yerel her zaman daha hızlı (network yok). Bulut bazı görevlerde daha kaliteli — denge senin önceliklerine bağlı.

Tauri vs Electron — Ilura’nın seçimi

Native masaüstü AI uygulamasının altyapı kararı önemli. Ilura Tauri 2 (Rust) üzerinde — Electron değil. Karşılaştırma:

EksenTauri (Ilura)Electron (eski standart)
İndirme boyutu~25 MB~120-180 MB
Bellek (boşta)~80 MB~300-450 MB
Açılış süresi<1 s2-3 s
Backend diliRust (async, fast)Node.js
OS entegrasyonuNative (AXUIElement, UIA, AT-SPI)WebView’a sınırlı
Güvenlik modeliZero-trust (her IPC çağrısı politika motorunda)Çoğu Electron uygulaması: ham Node erişimi

Ürün hikayesi olarak detay: Tauri v2 ve Rust ile Yerel AI Agent Geliştirmek.

Ilura’nın masaüstü mimarisi

Tezgah üç katmandan oluşur:

┌─────────────────────────────────┐
│  React UI (Mantine + Tabler)    │  ← kullanıcı
├─────────────────────────────────┤
│  IPC (specta — type-safe)       │  ← bridge
├─────────────────────────────────┤
│  Rust backend (tokio async)     │  ← agent + politika + audit
│  ├─ Yerel model runtime         │
│  ├─ MCP server (Stdio + SSE)    │
│  ├─ Politika motoru             │
│  ├─ Audit (SHA-256 chain)       │
│  └─ Bulut köprüsü               │
├─────────────────────────────────┤
│  OS (macOS / Windows / Linux)    │
└─────────────────────────────────┘

Her katman tek-yön: kullanıcı ↔ React, React ↔ Rust IPC, Rust ↔ OS. React’te iş mantığı yok — sadece görüntü. Backend’de tüm güvenlik kararları.

Üç imzalı paket çıkar — .dmg (Mac), .msi (Windows), .AppImage (Linux). Native imza:

  • macOS: Apple Developer ID + notarize
  • Windows: Trusted Signing (Microsoft)
  • Linux: GPG + AppImage runtime

Sona

Masaüstü yapay zeka asistanı, AI’ı tarayıcıdan çıkartıp iş akışına yerleştirir. Yerel model ile veri gizliliği, native API ile OS entegrasyonu, KVKK çerçevesi mimaride. Tezgah Tauri 2 üzerine kurulu — küçük indirme, düşük bellek, derin OS entegrasyonu.

Tarayıcıdan çıktığında işlerin daha hızlı, verin daha güvende olur.

Sıkça sorulanlar

Masaüstü AI tarayıcı ChatGPT'den nasıl farklı?
Native uygulama: cihaz dosyalarına direkt erişir, tarayıcı kısıtları yok, çevrimdışı çalışabilir, gecikme düşük. Veri tarayıcı sandbox'ından geçmez. Tezgah gibi araçlarda ek olarak yerel model + KVKK çerçevesi mimaride.
Hangi işletim sistemlerinde çalışır?
Tezgah üçünde de native: macOS (Apple Silicon + Intel — .dmg), Windows 10/11 (x64 — .msi), Linux (x86_64 + ARM64 — .AppImage). Tek kod tabanı, üç imzalı paket.
İndirme boyutu ne kadar?
Tezgah ~25 MB (Tauri sayesinde). Modeller (Llama 8B 4.7 GB, Mistral 7B 4.4 GB) ilk açılışta opsiyonel olarak iner. Toplam: 30-40 GB tipik kurulum.
Çevrimdışı çalışır mı?
Yerel model işleri evet — tamamen offline. Bulut eğitmenine internet gerekir (haftada bir, sen onaylarsın). Offline modda agent günlük görevini yapar; eğitim seansı internet bağlandığında tetiklenir.
Bilgisayarımı yavaşlatır mı?
Apple Silicon Mac'te (M1+) Llama 3.1 8B modeli 8-12 GB RAM kullanır; arka planda boşken 0.1% CPU. Windows + RTX GPU'da yerel inference VRAM kullanır, CPU minimum. Düşük donanımda Tezgah küçük model önerir.
Native vs Electron — farkı ne?
Tezgah Tauri (Rust) üzerinde — Electron değil. Bellek kullanımı ~1/3, indirme boyutu ~1/10, açılış ~3x daha hızlı. Native API'lere doğrudan erişim, frame'siz pencere desteği, OS entegrasyonu daha derin.