Kavram SözlüğüDerin Öğrenme
Checkpointed Backpropagation
Bellek kullanımını azaltmak için bazı ara aktivasyonları saklamayıp gerektiğinde yeniden hesaplayan eğitim tekniği.
Checkpointed backpropagation, özellikle çok derin veya çok büyük modellerin eğitiminde bellek sınırlarını aşmak için kullanılır. Her katmanın aktivasyonunu saklamak yerine yalnızca bazı kontrol noktaları tutulur, geri yayılım sırasında eksik ara değerler yeniden hesaplanır. Bu yaklaşım hesaplama süresini artırabilir ancak bellek maliyetini anlamlı biçimde düşürür. Büyük model eğitiminde klasik hız-bellek takaslarından birini temsil eder.
İlginizi Çekebilir
Yapay zeka yolculuğunuza devam etmek için bu kavramlara da göz atabilirsiniz.
