Kapatmak için ESC'ye basın

Kripto-Anarşi ve Yerel LLM'ler: Verileri OpenAI Olmadan Şifreleyin

"Bilgisayarım kalemdir" ifadesinin yeni ve dijital bir anlam kazandığı bir çağa hoş geldiniz. ChatGPT veya Claude'a gönderdiğiniz her kelimenin kurumsal modelleri eğitmek için bir yakıt (ve veritabanlarında potansiyel bir kanıt) haline geldiği bir dünyada, kripto-anarşi kavramı ana akıma geri dönüyor.

Timothy May, "Kripto Anarşist Manifestosu"nda, şifreleme teknolojilerinin bireylerin devletlerin ve şirketlerin kontrolü olmadan iletişim kurmasına ve ticaret yapmasına izin vereceği bir dünya öngörmüştü. Bugün, bu denkleme Yapay Zekayı ekliyoruz.

Bu neden "dün" önemliydi?

Bulut tabanlı bir LLM'den "bu metni şifrelemeye yardım etmesini" veya "bir akıllı sözleşme kodunu doğrulamasını" istediğinizde, bir Veri Sızıntısı (Data Leakage) gerçekleştirmiş olursunuz. Ücretli bir hesabınız olsa bile, verileriniz sağlayıcının altyapısından geçer. Kripto-anarşi bağlamında bu kabul edilemez. Çözüm: yerel dil modelleri (Local LLMs).

Bölüm 1. Egemenlik Araç Seti

Yapay zekanızın Kaliforniya'daki sunuculara "ispiyonculuk" yapmasını önlemek için, onun kendi donanımınızda yaşaması gerekir. 2026 yılında, giriş eşiği minimuma inmiştir.

Yerel Çalıştırma İçin En İyi Araçlar (2026 Güncel):

  • Ollama: Terminal için altın standart. Tek bir komut ve model sizindir.
  • LM Studio: Konsol sevmeyenler için en iyi grafik arayüz (GUI). Modelin kuantizasyon (sıkıştırma) seviyesini görsel olarak seçmenize olanak tanır.
  • Jan: Uzantı desteğine sahip, tamamen çevrimdışı bir ChatGPT klonu.
  • LocalAI: Eğer bir geliştiriciyseniz ve kendi Docker konteynerinizde çalışan, OpenAI ile tam uyumlu bir API'ye ihtiyacınız varsa.

Hangi modeli seçmeli?

Şifreleme ve güvenlik görevleri için devasa modellere ihtiyacınız yok. Talimatları takip etmedeki hassasiyet anahtardır:

  • Llama 4 (8B/70B): Çok amaçlı bir asker.
  • Qwen 3 Coder: Şifreleme betikleri yazmak için ideal.
  • VaultGemma 1B: Google'dan düşük güçlü cihazlarda gizli verilerle çalışmak üzere optimize edilmiş ultra hafif bir model (açık ağırlıklar).

Bölüm 2. Uygulama: Aracısız Şifreleme

Yerel bir LLM sadece bir sohbet robotu değildir; o sizin kişisel kriptografınızdır. Benzersiz algoritmalar üretebilir veya anahtar yönetiminde yardımcı olabilir.

Vaka Çalışması: "One-Time Pad" (Tek Seferlik Bloknot) Oluşturma

Bu, teorik olarak kırılması imkansız olan tek şifreleme yöntemidir. Yerel modelden bu tür anahtarları dağıtmak için bir sistem oluşturmanıza yardım etmesini isteyebilirsiniz.

Ollama üzerinden yerel Llama 4'e örnek istek:

"Metnimle aynı uzunlukta bir anahtar oluşturmak için /dev/urandom kullanan ve XOR şifrelemesi yapan bir Python betiği yaz. Betik ara verileri dosyalara kaydetmemeli, sadece sonucu HEX formatında çıktı olarak vermelidir."

Kod Örneği: Yerel Kripto Asistanı

Mesajları doğrudan terminalde "anında" şifrelemek için Ollama'yı iş akışınıza entegre edebilirsiniz.

# Linux/macOS üzerinde curl aracılığıyla örnek kullanım
curl http://localhost:11434/api/generate -d '{
  "model": "qwen3-coder",
  "prompt": "cryptography kütüphanesini kullanarak AES-256 dize şifrelemesi için bir Python fonksiyonu yaz. Bir paroladan anahtar oluşturmak için PBKDF2 kullan.",
  "stream": false
}'

Bölüm 3. Gelişmiş Anonimlik: Tails veya Whonix İçinde Yapay Zeka

Eğer gerçek bir dijital göçebeyseniz, sadece yerel çalıştırma yeterli değildir. LLM'leri izole ortamlarda çalıştırabilirsiniz.

  • Tails OS: USB bellek üzerinde canlı bir sistem. Kapatıldıktan sonra RAM'deki veriler silinir (Cold Boot Attack'a karşı koruma). Ollama'yı Kalıcı Depolama'ya (Persistent Storage) kurmak, sistemle birlikte "yok olan" bir yapay zeka kriptografına sahip olmanızı sağlar.
  • Whonix: Sistemi bir Ağ Geçidi (Tor) ve bir İş İstasyonu olarak ikiye ayırır. LLM'yi İş İstasyonunda çalıştırmak, modelde bir "sıfırıncı gün" (zero-day) açığı bulunsa bile gerçek IP'nizin gizli kalmasını garanti eder.

Az bilinen bir gerçek: 2026 yılında Model Stealing (GPU güç tüketimini analiz ederek model ağırlıklarını çalma) yöntemleri ortaya çıktı. Eğer gerçekten kritik verilerle çalışıyorsanız, LLM çalışırken grafik kartınızın kare hızını ve güç tüketimini sınırlayın.

Bölüm 4. Paranoya Otomasyonu

Yerel LLM'ler "sansürcü" rolünde mükemmeldir. Giden mesajlarınızı ağa göndermeden önce hassas bilgiler (şifreler, koordinatlar, isimler) açısından kontrol eden bir boru hattı (pipeline) kurabilirsiniz.

Senaryo:

  1. Bir mesaj yazarsınız.
  2. Yerel model (örneğin, Gemma 3 1B) metni "hassas varlıklar" için tarar.
  3. Bunları takma adlarla değiştirmeyi veya belirli blokları şifrelemeyi önerir.
  4. Ancak ondan sonra metin mesajlaşma uygulamasına gönderilir.

Bölüm 5. Stenografi ve Yapay Zeka: Verileri "Beyaz Gürültü" İçinde Gizlemek

Kripto-anarşi dünyasında, şifrelenmiş bir dosyanın varlığı bile istenmeyen dikkatleri üzerine çekebilir. İşte burada LLM stenografisi devreye girer. Geleneksel stenografi verileri resim piksellerine gizlerken, modern bir yerel LLM verileri ilk bakışta sıradan görünen bir metnin içine gizleyebilir.

"Semantik Değiştirme" Yöntemi

Yerel modele sıkıcı bir metin (örneğin bir kek tarifi) ve gizli anahtarınızı verirsiniz. Model, cümleleri öyle bir şekilde yeniden kurar ki; eş anlamlı kelime seçimleri veya cümle yapısı bilgi bitlerini (0 veya 1) kodlar.

Örnek: "Şekeri ekleyin ve karıştırın" = 0. "Şekeri ekledikten sonra karıştırın" = 1. Sonuç: Otomatik gözetleme sistemlerinde şüphe uyandırmayan bir "tarif" gönderirsiniz, ancak aynı yerel modele ve anahtara sahip olan alıcı bu veriyi kolayca geri çıkarır.

Pratik Kod Örneği (Python Konsepti)

Yerel olarak transformers kütüphanesini kullanarak, gizli anahtara dayalı token seçimini şu şekilde gerçekleştirebilirsiniz:

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer

# Hafif bir model yükleyin (örneğin Phi-3 veya Gemma)
model_name = "microsoft/Phi-3-mini-4k-instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

def encode_bit(bit, context_tokens):
    outputs = model(context_tokens)
    next_token_logits = outputs.logits[:, -1, :]
    # En olası ilk 2 kelimeyi seçiyoruz
    top_k_indices = torch.topk(next_token_logits, 2).indices[0]
    
    # Gizli bit, bu iki kelimeden hangisini seçeceğimizi belirler
    selected_token = top_k_indices[bit]
    return selected_token

# Bu yöntem, bir yapay zeka saçmalaması gibi görünen ama 
# aslında ikili kod (binary) taşıyan metinler üretmenizi sağlar.

Bölüm 6. Parmak İzi Analizine Karşı "Gürültü Üreteci" Olarak Modeller

Yazım stiliniz, sizin dijital parmak izinizdir (stilometrik parmak izi). Metin analiz sistemleri, kelime kullanım sıklığınız ve cümle uzunluğunuzdan yola çıkarak yazarı yüksek doğrulukla tespit edebilir. Kripto-anarşist yaklaşım: Yerel LLM'yi bir "Stilistik Vekil" (Stylistic Proxy) olarak kullanın.

  1. Metninizi yazarsınız.
  2. Yerel model bu metni "Viktoryen bir beyefendi" veya "80'lerin IBM teknik dokümantasyonu" tarzında yeniden yazar.
  3. Sizden çıkan tüm trafik, sanki farklı insanlar tarafından yazılmış gibi görünür.

İpucu: Yeniden yazım sırasında temperature parametresini 1.2'nin üzerine çıkarın. Bu, analiz algoritmalarının kimliğinizi deşifre etmesini zorlaştıran bir "rastgelelik" ekler.

Bölüm 6. Model Sertleştirme (Model Hardening)

Eğer bilgisayarınıza fiziksel erişim sağlanırsa, saldırgan yerel sohbet geçmişinizi görebilir. Kripto-anarşi bağlamında bu tam bir başarısızlıktır.

Yerel kurulumunuzu nasıl güvenli hale getirebilirsiniz:

  • RAM-only Execution: Model ağırlıklarını bir RAM disk üzerinden çalıştırın. Güç kesildiğinde model ve tüm geçici bağlamlar geri dönülemez şekilde yok olur.
  • Bağlam Silme: Oturum bittikten sonra ~/.cache/huggingface klasörünü veya Ollama geçici dosyalarını temizleyen betikler kullanın.
  • Gizleme Yöntemi Olarak Kuantizasyon: Standart dışı eşlemeye sahip GGUF gibi özel kuantizasyon yöntemleri kullanmak, model ağırlıklarını sizin kurulum parametrelerinizi bilmeyen biri için işe yaramaz hale getirir.

Bölüm 7. Az Bilinen Vektör: Veri Koruması İçin "Adversarial" Saldırılar

Yerel LLM'ler "çekişmeli desenler" (adversarial perturbations) üretebilir. Modelden, metninize veya resminize insanlar için görünmez olan ancak bulut tabanlı analiz sistemlerinin (sansür filtreleri veya yüz tanıma gibi) hata vermesine veya yanlış sonuç döndürmesine neden olan mikro değişiklikler eklemesini isteyebilirsiniz.

Örnek: Servis sağlayıcı tarafındaki büyük sansür modellerinde halüsinasyonlara veya çökmelere neden olabilecek spesifik token'lar (örneğin solidgoldmagikarp) içeren metin eklemeleri oluşturmak.

Sonuç: Sizin Yapay Zekanız, Sizin Seçiminiz

Yapay zeka çağında kripto-anarşi, teknolojiyi reddetmekle ilgili değil, onu evcilleştirmekle ilgilidir. Yerel bir LLM, "cebinizdeki casus"tan şu işlevleri gören güçlü bir kalkana dönüşür:

  • Verileri şahitler olmadan şifreler.
  • Yazım stilinizi gizler.
  • Otomatik sansürü aşmanıza yardımcı olur.

Unutmayın: Bilginin güç olduğu bir dünyada, yerel hesaplama yapma hakkı, özgürlük hakkıdır.

Oleg Filatov

As the Chief Technology Officer at EXMON Exchange, I focus on building secure, scalable crypto infrastructure and developing systems that protect user assets and privacy. With over 15 years in cybersecurity, blockchain, and DevOps, I specialize in smart contract analysis, threat modeling, and secure system architecture.

At EXMON Academy, I share practical insights from real-world experi...

...

Leave a comment

Your email address will not be published. Required fields are marked *