React Flow mini map
🧠 ML Temelleriorta12 dk

Gradyen Azalma: Minimuma Doğru Adım Adım

Öğrenme hızı, momentum ve optimizasyon algoritmaları

Gradyen azalma, kayıp fonksiyonunu minimize etmek için parametreleri adım adım güncelleyen temel optimizasyon algoritmasıdır. Tüm derin öğrenme sistemi bu basit güncelleme kuralının üzerine inşa edilmiştir.

Sisi olan bir dağda gözleriniz kapalı. Her adımda ayaklarınızın altındaki eğimi hissediyor…

w ← w - η · ∇L(w)

Parametre güncelleme kuralı: w mevcut parametre, η öğrenme hızı, ∇L(w) kayıp fonksiyonunun gradyanıdır. Gradyan, kayıp fonksiyonunun en hızlı arttığı yönü gösterir; biz tersi yönde adım atarız.

**Çok küçük η:** Yavaş yakınsama, çok uzun eğitim.…

⚡ İnteraktif Playground

Batch GD

  • ·Tüm veriyi kullanır
  • ·Kararlı gradyan tahmini
  • ·Her adım yavaş (büyük veri)
  • ·Daha az gürültülü

Mini-batch SGD

  • ·Küçük örneklem grubu
  • ·Gürültülü ama genellenebilir
  • ·Her adım hızlı
  • ·Pratikte standart yaklaşım

💡Adam optimizer, adaptif öğrenme hızı kullanarak hem momentum hem de RMSProp fikirlerini birleştirir. Pratikte çoğu derin öğrenme modelinde SGD'ye tercih edilir.

🚀 Tam Sandbox'u Aç

Bağlantılı Konular