İçeriğe geç
Kavram SözlüğüBilgisayarlı Görü

Görüde Knowledge Distillation

Büyük ve güçlü bir görsel modelin bilgisini daha küçük ve verimli bir modele aktarma yaklaşımı.

Knowledge distillation, yüksek performanslı fakat ağır görsel modelleri daha hafif sistemlere dönüştürmek için kullanılır. Öğrenci model, yalnızca sert etiketlerden değil, öğretmen modelin yumuşak karar yapısından da öğrenir. Bu sayede mobil cihazlar, edge sistemler ve düşük gecikmeli üretim ortamlarında daha uygun modeller elde edilebilir. Performans-verimlilik dengesi açısından kritik bir teknik ailesidir.