Major Modellerin Long-Context Altyapıları
Claude 200K-1M, GPT 128K-1M, Gemini 1M-2M, Llama 128K, MiniMax 4M. Hangi model hangi tekniği nasıl kullanıyor? Pricing ve quality karakteristikleri.
Şükrü Yusuf KAYA
14 min read
IntermediateMajor Modellerin Uzun-Context Altyapıları
Her major model long-context için farklı yaklaşım. Pratik ihtiyaca göre seçim için bu karşılaştırma.
Sonnet 4.6: 200K standart
Opus 4.7: 1M (rather expensive)
Teknik tahmini: Hybrid sparse + RoPE scaling. Constitutional AI eğitiminde long-context optimization.
Pricing (Sonnet 4.6):
- Input: $3/M (200K dahil)
- Cache write/read: 0.30/M
Pricing (Opus 4.7 1M):
- Input: $15/M (200K'a kadar)
- 200K+ sorgu: $30/M (premium tier)
- Cache: $1.50/M read
NIAH benchmark: %95 @ 200K, %88 @ 1M
Kullanım önerisi: 200K altı: Sonnet ideal. 200K-1M: Opus, ama maliyetli — Gemini alternatifini değerlendir.
Tablo Özeti#
| Model | Max Context | NIAH @ 200K | Pricing $/M | Caching | Quality (Genel) |
|---|---|---|---|---|---|
| Claude Sonnet 4.6 | 200K | %95 | $3 | Excellent | A+ |
| Claude Opus 4.7 | 1M | %92 | $15+ | Excellent | A+ |
| GPT-4o | 128K | %96 | $2.5 | Auto, ~%50 | A |
| GPT-4.1 | 1M | %90 | $2-4 | Auto | A |
| Gemini 2.5 Pro | 2M | %96 | $1.25 | Explicit, %75 | A |
| Gemini 2.5 Flash | 1M | %92 | $0.30 | Explicit, %75 | B+ |
| Llama 3.1 70B | 128K | %85 | $0.7 (provider) | Provider'a göre | B |
| MiniMax-01 | 4M | %94 | $0.3 | Sınırlı | B (yenide) |
Karar Akışı#
✓ Pekiştir#
Bir Sonraki Derste#
Context rot — uzun context'te quality neden düşer, hangi metrikler kullanılır?
Yorumlar & Soru-Cevap
(0)Yorum yazmak için giriş yap.
Yorumlar yükleniyor...
Related Content
1. Temeller — Context Penceresi Ekonomisi
Bu Eğitim Hakkında ve Prompt Caching Neden Önemli?
Start Learning1. Temeller — Context Penceresi Ekonomisi
Token Ekonomisi 101: Input vs Output Cost Asimetrisi
Start Learning1. Temeller — Context Penceresi Ekonomisi