İçeriğe geç

Major Modellerin Long-Context Altyapıları

Claude 200K-1M, GPT 128K-1M, Gemini 1M-2M, Llama 128K, MiniMax 4M. Hangi model hangi tekniği nasıl kullanıyor? Pricing ve quality karakteristikleri.

Şükrü Yusuf KAYA
14 dakikalık okuma
Orta

Major Modellerin Uzun-Context Altyapıları

Her major model long-context için farklı yaklaşım. Pratik ihtiyaca göre seçim için bu karşılaştırma.
Sonnet 4.6: 200K standart Opus 4.7: 1M (rather expensive)
Teknik tahmini: Hybrid sparse + RoPE scaling. Constitutional AI eğitiminde long-context optimization.
Pricing (Sonnet 4.6):
  • Input: $3/M (200K dahil)
  • Cache write/read: 3.75/M/3.75/M / 0.30/M
Pricing (Opus 4.7 1M):
  • Input: $15/M (200K'a kadar)
  • 200K+ sorgu: $30/M (premium tier)
  • Cache: $1.50/M read
NIAH benchmark: %95 @ 200K, %88 @ 1M
Kullanım önerisi: 200K altı: Sonnet ideal. 200K-1M: Opus, ama maliyetli — Gemini alternatifini değerlendir.

Tablo Özeti#

ModelMax ContextNIAH @ 200KPricing $/MCachingQuality (Genel)
Claude Sonnet 4.6200K%95$3ExcellentA+
Claude Opus 4.71M%92$15+ExcellentA+
GPT-4o128K%96$2.5Auto, ~%50A
GPT-4.11M%90$2-4AutoA
Gemini 2.5 Pro2M%96$1.25Explicit, %75A
Gemini 2.5 Flash1M%92$0.30Explicit, %75B+
Llama 3.1 70B128K%85$0.7 (provider)Provider'a göreB
MiniMax-014M%94$0.3SınırlıB (yenide)

Karar Akışı#

✓ Pekiştir#

Bir Sonraki Derste#

Context rot — uzun context'te quality neden düşer, hangi metrikler kullanılır?

Yorumlar & Soru-Cevap

(0)
Yorum yazmak için giriş yap.
Yorumlar yükleniyor...

İlgili İçerikler