İçeriğe geç
Kavram SözlüğüÜretken Yapay Zekâ ve LLM

Mixture of Experts

Her girdide modelin yalnızca ilgili uzman alt ağlarını etkinleştirerek ölçek ve verimlilik sağlaması yaklaşımı.

Mixture of Experts, çok büyük model kapasitesini tüm parametreleri her adımda kullanmadan ölçeklemeyi mümkün kılar. Bu mimari, etkin parametre sayısını düşürürken toplam bilgi kapasitesini yüksek tutabilir. Ancak yönlendirme kararlılığı, uzman dengesi ve eğitim karmaşıklığı bu yapının temel zorluklarıdır.