React Flow mini map
🧠 ML Temelleriileri18 dk

Model Yorumlanabilirliği (XAI)

Kara kutuyu açmak — SHAP ve LIME

Derin öğrenme modelleri inanılmaz tahminler yapıyor — ama neden o kararı verdi? Bir doktorun teşhis koyarken gerekçe sunması gibi, modellerimizin de açıklama yapabilmesi gerekiyor. XAI (Explainable AI), kara kutuyu bir cam kutuya dönüştürme sanatıdır.

**Yorumlanabilirlik (Interpretability)**: Modelin doğası gereği anlaşılır olması. Karar ağ…

Doğal Yorumlanabilir Modeller

  • ·Karar ağaçları: if-else kuralları görünür
  • ·Lojistik regresyon: katsayılar özellik etkisini verir
  • ·Basit, düşük kapasite
  • ·Düzenleyici uyumluluk kolaylığı

Post-hoc Açıklama Gerektiren

  • ·Derin sinir ağları: milyonlarca parametre
  • ·Ensemble modeller: yüzlerce ağacın birleşimi
  • ·Yüksek performans, düşük şeffaflık
  • ·SHAP, LIME, Grad-CAM ile açıklanır

SHAP (SHapley Additive exPlanations), Nobel ödüllü Shapley değerlerini makine öğrenmesine …

φᵢ = Σ [|S|!(n-|S|-1)!/n!] · [f(S∪{i}) - f(S)]

Shapley değeri formülü: i özelliğinin katkısı, tüm S alt kümelerinde i'nin eklenmesiyle oluşan farkların ağırlıklı ortalamasıdır. Hesaplama maliyeti yüksek olduğundan TreeSHAP, KernelSHAP gibi yaklaşıklıklar kullanılır.

SHAP ile Random Forest özellik açıklaması

Python
1import shap
2from sklearn.ensemble import RandomForestClassifier
3from sklearn.datasets import load_iris
4
5# Model eğit
6X, y = load_iris(return_X_y=True)
7model = RandomForestClassifier(n_estimators=100)
8model.fit(X, y)
9
10# SHAP açıklayıcı
11explainer = shap.TreeExplainer(model)
12shap_values = explainer.shap_values(X)
13
14# Tek bir tahmin için waterfall plot
15shap.plots.waterfall(explainer(X)[0])

LIME (Local Interpretable Model-agnostic Explanations), karmaşık modeli **lokal** olarak b…

🗺️LIME Metaforu: Şehir Haritası

Dünya yuvarlak ama mahalleni düz haritayla çizebilirsin — yeteri kadar yakınlaştırınca eğrilik önemsizleşir. LIME de aynı mantık: global olarak karmaşık model, tek bir tahmin çevresinde doğrusal yaklaşımla açıklanabilir.

Transformer modellerinde self-attention ağırlıkları hangi tokenlerin birbiriyle ilişkilend…

⚠️Attention ≠ Açıklama! Araştırmalar gösteriyor ki attention ağırlıkları her zaman modelin gerçek karar mekanizmasını yansıtmaz. Gradient-based yöntemler daha güvenilir olabilir.

Grad-CAM (Gradient-weighted Class Activation Mapping), CNN'in **nereye baktığını** görsell…

Lᶜ = ReLU(Σₖ αₖᶜ · Aᵏ)

Grad-CAM formülü: c sınıfı için, k'ıncı özellik haritası Aᵏ'nın ağırlıklı toplamı alınır. αₖᶜ ağırlıkları, gradyanların global average pooling'iyle hesaplanır. ReLU sadece pozitif katkıları gösterir.

💡Grad-CAM++ ve Score-CAM gibi gelişmiş versiyonlar daha hassas lokalizasyon sağlar. Özellikle birden fazla nesne içeren görüntülerde tercih edilir.

✦ Quiz

Bir banka kredi başvurusu için 'red' kararı verdi. Hangi XAI yöntemi bu kararın yasal gerekçesini en adil şekilde sunar?

✦ Quiz

LIME neden 'model agnostik' olarak adlandırılır?

ℹ️GDPR Madde 22, otomatik karar alma süreçlerinde 'anlamlı bilgi' hakkı tanır. XAI yöntemleri bu yasal gerekliliği karşılamak için kritik öneme sahiptir.

✦ Quiz

Grad-CAM hangi katmanın çıktısını kullanır?

Bağlantılı Konular