Self-Consistency, Tree-of-Thoughts, Graph-of-Thoughts
CoT'nin gelişmiş türevleri: aynı soruyu N kez çalıştırıp majority voting yapan self-consistency, ağaç arama benzeri ToT, ve grafsal GoT.
Şükrü Yusuf KAYA
11 min read
IntermediateCoT'nin Gelişmiş Türevleri
CoT'yi sıradan kabul edersek, bu tekniklerin hepsi onu bir adım öteye taşır.
1. Self-Consistency#
Fikir: Aynı soruyu N kez (T=0.7) çalıştır, majority voting yap.
python
# Self-consistency — N=5import osfrom collections import Counterfrom anthropic import Anthropicfrom dotenv import load_dotenvload_dotenv() client = Anthropic(api_key=os.getenv("ANTHROPIC_API_KEY")) def ask_once(question: str) -> str: r = client.messages.create( model="claude-haiku-4-5-20251001", max_tokens=400, temperature=0.8, # ÖNEMLİ: çeşitlilik için messages=[{"role": "user", "content": question + "\n\nAdım adım düşün, sonra <answer>X</answer> formatında final cevap ver."}], ) text = r.content[0].text # Çok basit parse: if "<answer>" in text: return text.split("<answer>")[1].split("</answer>")[0].strip() return text.strip()[:30] def self_consistency(question: str, n: int = 5) -> str: answers = [ask_once(question) for _ in range(n)] print("Tüm cevaplar:", answers) return Counter(answers).most_common(1)[0][0] q = "8 işçi 6 saatte 1 duvar örüyor. 4 işçi aynı duvarı kaç saatte örer?"print("Final:", self_consistency(q, n=5)) 5 farklı çözüm → majority. Tek seferde yanılma riski azalır.
Maliyet: Self-consistency 5x daha pahalı (5 çağrı). Ama hata maliyeti yüksek görevlerde (mali hesap, hukuk) buna değer.
2. Tree-of-Thoughts (ToT)#
Fikir: Düşünce ağacı — her adımda birden fazla alternatif düşün, en umut vereni seç, devam et.
Algoritma:
- Sorudan k farklı yaklaşım üret
- Her birini skor (LLM-judge ile)
- En yüksek skorlu olanları derinleştir
- Yaprak düğümde final cevap üret
- Yaprakları skorla, kazananı al
Kod karmaşıklığı: ~150 satır. LangChain/LangGraph implement eder.
Kullan: Karmaşık problem çözme, planning. Maliyet: 10-30x.
3. Graph-of-Thoughts (GoT)#
ToT'nin grafik versiyonu — düşünceler birbirini referans alabilir, döngü olabilir.
Pratik kullanımı az; daha çok araştırma alanı.
Pratik Karar Çerçevesi#
Görev → Teknik#
| Görev | Önerilen |
|---|---|
| Basit math/logic | CoT |
| Kritik karar (irreversible) | Self-consistency N=5 |
| Multi-step planning | ToT (k=3, depth=3) |
| Open-ended creative | ToT (k=5, depth=2) |
| Genel chatbot | CoT (zero-shot) |
| Code debug | Self-consistency N=3 |
Maliyet Sıralaması#
🟢 CoT → 1x
🟡 Self-consistency → N x
🟠 ToT → 5-30x
🔴 GoT → 10-50x
ROI hesabı yap. Çoğu zaman CoT yeterli, sadece edge case'lerde ToT.
Yorumlar & Soru-Cevap
(0)Yorum yazmak için giriş yap.
Yorumlar yükleniyor...
Related Content
1. Temeller — Yapay Zekâ ve LLM'lere Giriş
Bu Eğitim Hakkında ve Verimli Çalışma Yöntemi
Start Learning1. Temeller — Yapay Zekâ ve LLM'lere Giriş
Yapay Zekâ → Üretken AI → LLM: Bağlamsal Harita
Start Learning1. Temeller — Yapay Zekâ ve LLM'lere Giriş