Skip to content

Context Engineering Nedir? Prompt Engineering'in Ötesi

Andrej Karpathy'nin 2024'te ortaya attığı 'context engineering' terimi neyi tanımlıyor? Prompt engineering'den farkı, neden ayrı disiplin, ve bir AI mühendisinin bilmesi gereken temel mantık.

Şükrü Yusuf KAYA
12 min read
Intermediate

Context Engineering: Yeni Bir Disiplin

2024'ün Eylül'ünde Andrej Karpathy bir tweet attı:
"+1 for 'context engineering' over 'prompt engineering'. People associate prompts with short task descriptions you'd give an LLM. In every industrial-strength LLM app, context engineering is the delicate art and science of filling the context window with just the right information for the next step."
Bu tweet bir paradigma değişimini ilan etti. Bugün context engineering, AI Engineer pozisyonlarında yetkinlik listesinde standart bir kalem.
Bu modülde caching merceğinden zoom out, "tüm context window'u nasıl tasarlayacağına" geçiyoruz. Caching, context engineering'in bir aracı; ama bütün resim daha geniş.

Tanım#

Context engineering = LLM context window'una hangi bilgileri, hangi sırada, hangi yapıda koyacağını mühendislik disiplini olarak tasarlamak.
Ne içerir:
  • Token budget allocation — context window'un her tokenı kıymetli; hangi katmana ne kadar tahsis edersin?
  • Pozisyonel tasarım — bilgiyi context'in başına mı, ortasına mı, sonuna mı koyarsın?
  • Compression — büyük bilgiyi küçültme (summarization, extraction, RAG)
  • Layer separation — system / tools / RAG / history / query katmanlarının ayrımı
  • Caching strategy — hangi katmanları cache'lersin?
  • Dynamic context selection — sorguya göre hangi bilgileri çekersin?

Prompt Engineering vs Context Engineering#

Prompt Engineering#

Odak: Modeli doğru yanıta yönlendirme
Birim: Cümleler, talimatlar
Teknikler:
  • Few-shot examples
  • Chain-of-Thought
  • Persona
  • Output format zorlamaları
  • Specific instructions
Sahip: Genelde domain expert Çıktı: Bir prompt template
Soru sorduğu: "Ne yazayım ki model doğru cevap versin?"

Context Engineering#

Odak: Modele doğru bilgiyi sunma
Birim: Tokenlar, bütçeler, katmanlar
Teknikler:
  • RAG architecture
  • Prompt caching
  • Token budget allocation
  • Position engineering
  • Context compression
  • Dynamic context selection
Sahip: AI Engineer Çıktı: Bir sistem mimarisi
Soru sorduğu: "Hangi bilgiyi nereye koyayım ki model doğru çalışsın?"
Tamamlayıcı Disiplinler
İkisi rakip değil, tamamlayıcı. Modern bir LLM uygulaması her ikisini de gerektirir. Ama farklı becerilere ihtiyaç duyarlar.

Neden Ayrı Disiplin?#

2022-2023'te LLM uygulamaları küçüktü:
  • Context window 4K-8K
  • System prompt birkaç paragraf
  • Tek kullanıcı sorgusu
2024-2026'da uygulamalar:
  • Context window 200K-2M
  • System "prompt" 50K-500K token
  • Tool definitions 10K-30K
  • Conversation history 5K-100K
  • RAG retrievals 10K-50K
  • User query 100-2K
Bu kadar büyük context'i tasarlamak prompt engineering değil mühendislik. Disiplin ayrımı doğal.

Bu Modülün Yol Haritası#

Sonraki 7 derste:
  1. Context'in 6 katmanı — bir LLM context'i tam neyi içerir
  2. Token budget allocation — context window'un bütçesini dağıt
  3. Lost in the middle — context'te bilgi pozisyonu neden önemli
  4. Attention sinks — ilk tokenların gizli rolü
  5. Pratik lab — needle-in-a-haystack: bilgi pozisyonu testi
  6. Context compression — bilgiyi küçültme teknikleri
  7. Modül bitirme
Caching ve context engineering iç içe geçecek — her ders'in pratik kazanımı caching kararlarını etkileyecek.

✓ Pekiştir#

Bir Sonraki Derste#

Bir LLM uygulamasının context'inin 6 standart katmanını çıkaracağız. Bu, sonraki tüm derslerin haritası.

Frequently Asked Questions

AI Engineer, ML Engineer, Backend Engineer (AI features), Tech Lead. Şu an iş ilanlarında 'prompt engineering' yazıyor ama görüşmelerde context engineering soruluyor. Bu eğitim bittiğinde her ikisinin de cevabı sende.

Yorumlar & Soru-Cevap

(0)
Yorum yazmak için giriş yap.
Yorumlar yükleniyor...

Related Content

Connected pillar topics

Pillar topics this article maps to