İçeriğe geç

Stokastik Gradyan İnişi

Her güncellemede tüm veri yerine tekil örnekler veya küçük parçalar kullanarak parametreleri güncelleyen optimizasyon yaklaşımı.

Stokastik gradyan inişi, klasik gradyan inişinin daha pratik ve daha ölçeklenebilir bir varyasyonudur. Tüm veri kümesini her adımda kullanmak yerine, tekil örnekler veya küçük alt kümeler üzerinden güncelleme yapılır. Bu yöntem eğitim sürecini hızlandırır ve büyük veri kümelerinde hesaplama yükünü önemli ölçüde azaltır. Ayrıca eklediği rastlantısallık bazı durumlarda yüzey üzerinde daha iyi bölgelerin bulunmasına yardımcı olabilir. Bununla birlikte gürültülü güncellemeler nedeniyle daha kararsız davranabilir. Bu yüzden SGD hem güçlü hem de dikkatli ayar gerektiren bir yöntemdir.