Kavram SözlüğüDerin Öğrenme
Attention Mask
Modelin dikkat hesaplamasında hangi konumları görebileceğini veya göremeyeceğini belirleyen kontrol yapısı.
Attention mask, dikkat mekanizmasının bağlam erişimini kurallı hale getirir. Padding tokenlarını yok saymak, geleceği gizlemek veya belirli bölgeleri sınırlandırmak için kullanılır. Bu yapı olmadan model gereksiz veya yasak bilgiye odaklanabilir. Özellikle Transformer eğitiminde doğru maskeleme, mimarinin semantik doğruluğu için temel gerekliliktir.
İlginizi Çekebilir
Yapay zeka yolculuğunuza devam etmek için bu kavramlara da göz atabilirsiniz.
