İçeriğe geç

Jensen-Shannon Divergence

İki dağılım arasındaki farkı daha simetrik ve daha kararlı biçimde ölçen bilgi teorisi ayrışma metriği.

Jensen-Shannon Divergence, KL Divergence’ın daha dengeli ve simetrik bir varyasyonu olarak düşünülebilir. İki dağılım arasındaki farkı ölçerken daha kararlı bir davranış sergiler ve her iki yönü birlikte değerlendirir. Bu nedenle dağılım karşılaştırma, generative modeling ve benzerlik analizi açısından kullanışlıdır. Özellikle teorik yorumlama ve pratik hesaplama arasında iyi bir denge sunar. Bilgi teorisinde “iki dağılım ne kadar farklı?” sorusuna daha yumuşak ve daha yorumlanabilir bir yanıt verir.