İçeriğe geç
Kavram SözlüğüÜretken Yapay Zekâ ve LLM

Hallucination

Modelin akıcı ama gerçekte desteklenmeyen veya yanlış içerik üretmesi durumu.

Hallucination, üretken yapay zekâ sistemlerinin en kritik güvenilirlik sorunlarından biridir. Çıktı dilsel olarak ikna edici olabilir ancak kaynak, gerçeklik veya hesaplama açısından yanlış olabilir. Bu nedenle özellikle kurumsal, tıbbi, hukuki ve finansal uygulamalarda doğrudan risk oluşturur.