Gradient Descent

θₜ₊₁ = θₜ − α · ∇L(θₜ)  |  Kayıp fonksiyonu: L(θ) = θ²

θₜ₊₁ = θₜ − α · ∇L(θₜ)  |  Kayıp fonksiyonu: L(θ) = θ²

0/-1
Adım 0
θ-2.8000
L(θ)7.8400
∇L-5.6000
Öğrenme Hızı (α)0.15
Başlangıç θ₀-2.8
Maksimum adım20
💡 α > 1.0 ise ıraksama gözlemle. Optimum θ = 0, L(0) = 0.