Kara kutuyu açmak — SHAP ve LIME
Derin öğrenme modelleri inanılmaz tahminler yapıyor — ama neden o kararı verdi? Bir doktorun teşhis koyarken gerekçe sunması gibi, modellerimizin de açıklama yapabilmesi gerekiyor. XAI (Explainable AI), kara kutuyu bir cam kutuya dönüştürme sanatıdır.
**Yorumlanabilirlik (Interpretability)**: Modelin doğası gereği anlaşılır olması. Karar ağ…
Doğal Yorumlanabilir Modeller
Post-hoc Açıklama Gerektiren
SHAP (SHapley Additive exPlanations), Nobel ödüllü Shapley değerlerini makine öğrenmesine …
φᵢ = Σ [|S|!(n-|S|-1)!/n!] · [f(S∪{i}) - f(S)]Shapley değeri formülü: i özelliğinin katkısı, tüm S alt kümelerinde i'nin eklenmesiyle oluşan farkların ağırlıklı ortalamasıdır. Hesaplama maliyeti yüksek olduğundan TreeSHAP, KernelSHAP gibi yaklaşıklıklar kullanılır.
SHAP ile Random Forest özellik açıklaması
| 1 | import shap |
| 2 | from sklearn.ensemble import RandomForestClassifier |
| 3 | from sklearn.datasets import load_iris |
| 4 | |
| 5 | # Model eğit |
| 6 | X, y = load_iris(return_X_y=True) |
| 7 | model = RandomForestClassifier(n_estimators=100) |
| 8 | model.fit(X, y) |
| 9 | |
| 10 | # SHAP açıklayıcı |
| 11 | explainer = shap.TreeExplainer(model) |
| 12 | shap_values = explainer.shap_values(X) |
| 13 | |
| 14 | # Tek bir tahmin için waterfall plot |
| 15 | shap.plots.waterfall(explainer(X)[0]) |
LIME (Local Interpretable Model-agnostic Explanations), karmaşık modeli **lokal** olarak b…
🗺️LIME Metaforu: Şehir Haritası
Dünya yuvarlak ama mahalleni düz haritayla çizebilirsin — yeteri kadar yakınlaştırınca eğrilik önemsizleşir. LIME de aynı mantık: global olarak karmaşık model, tek bir tahmin çevresinde doğrusal yaklaşımla açıklanabilir.
Transformer modellerinde self-attention ağırlıkları hangi tokenlerin birbiriyle ilişkilend…
⚠️Attention ≠ Açıklama! Araştırmalar gösteriyor ki attention ağırlıkları her zaman modelin gerçek karar mekanizmasını yansıtmaz. Gradient-based yöntemler daha güvenilir olabilir.
Grad-CAM (Gradient-weighted Class Activation Mapping), CNN'in **nereye baktığını** görsell…
Lᶜ = ReLU(Σₖ αₖᶜ · Aᵏ)Grad-CAM formülü: c sınıfı için, k'ıncı özellik haritası Aᵏ'nın ağırlıklı toplamı alınır. αₖᶜ ağırlıkları, gradyanların global average pooling'iyle hesaplanır. ReLU sadece pozitif katkıları gösterir.
💡Grad-CAM++ ve Score-CAM gibi gelişmiş versiyonlar daha hassas lokalizasyon sağlar. Özellikle birden fazla nesne içeren görüntülerde tercih edilir.
✦ Quiz
Bir banka kredi başvurusu için 'red' kararı verdi. Hangi XAI yöntemi bu kararın yasal gerekçesini en adil şekilde sunar?
✦ Quiz
LIME neden 'model agnostik' olarak adlandırılır?
ℹ️GDPR Madde 22, otomatik karar alma süreçlerinde 'anlamlı bilgi' hakkı tanır. XAI yöntemleri bu yasal gerekliliği karşılamak için kritik öneme sahiptir.
✦ Quiz
Grad-CAM hangi katmanın çıktısını kullanır?
Bağlantılı Konular