Skip to content

Catching Hallucination and Verifying Sources

You can't eliminate hallucination but you can catch it. Systematize verification of Claude output with 6 techniques.

Şükrü Yusuf KAYA
12 min read
Intermediate
Doğrulama pipeline: iddia → kaynak → kontrol → güven

6 Doğrulama Tekniği

text
<rules>
- Her iddiaya 0.0-1.0 confidence ekle.
- Kaynak alıntısı yoksa confidence 0.5'i geçmesin.
- Tarih, sayı, alıntı içeren iddiada kaynak zorunludur.
- Bilmiyorsan: {"answer": "bilmiyorum", "needs_lookup": [...]}.
</rules>
 
<output_schema>
{
"answer": "...",
"claims": [
{"text":"...", "confidence": 0.0-1.0, "source": {"url":"...", "quote":"..."}}
],
"needs_human_review": false
}
</output_schema>
Doğrulama disiplinli prompt çıktısı.

Hallüsinasyon işaretleri#

  • Spesifik istatistik, kaynak yok
  • Çok rahat verilmiş niş alıntı
  • Gerçek olduğu iddia edilen URL parçaları
  • "[Yazar adı, Yıl]" gibi otomatik atıf görünümlü ama doğrulanamaz pasajlar
  • Yer / şirket / tarih kombinasyonlarında küçük tutarsızlık

Sağlıklı belirsizlik işaretleri#

  • "Bilmiyorum"
  • "Doğrulanması gereken"
  • Confidence < 0.7
  • "Kaynak: yok" + boş alıntı
  • "Bu konuda eğitim verim sınırlı"
Boşluk doldur · text
Hallüsinasyonu sıfırlayamazsın ama _____ . Modeli sadece senin verdiğin belgelere bağlamak _____ olarak adlandırılır. Düşük güvenli iddiaları otomatik _____ moderasyonuna yolla.
Quiz

Bu modülü değerlendirme zamanı

Buraya kadar öğrendiklerini quiz ile pekiştir. Süreli, puanlı ve geri bildirimli bir değerlendirmedir.

Quiz'e başla

Frequently Asked Questions

Practically no. RAG + constraints + evals + human moderation reduce it dramatically, but assume a non-zero rate as part of your error budget.

Yorumlar & Soru-Cevap

(0)
Yorum yazmak için giriş yap.
Yorumlar yükleniyor...

Related Content