GitHub Copilot Workspace: Long-Context Code Strategy
GitHub Copilot Workspace, OpenAI tabanlı, 'plan then code' yaklaşımıyla çalışıyor. Long-context caching'i nasıl kullanıyor?
Şükrü Yusuf KAYA
11 dakikalık okuma
OrtaGitHub Copilot Workspace
2024'te tanıtılan Copilot Workspace klasik Copilot'tan farklı: plan-and-execute paradigması (Modül 9 Ders 60).
Akış:
- User issue açar
- Workspace planlar (ne yapacağı adım adım)
- User onaylar
- Workspace kodu yazar
- PR açar
Caching Layers (Inferred)#
GitHub kapalı kaynak ama paterni şöyle:
- Repo embedding cache — tüm repo embed'lenmiş, vector DB
- Issue + relevant files cache — issue context + ilgili dosyalar
- Plan cache — plan üretildi, execution sırasında re-use
OpenAI underneath olduğu için automatic caching avantajından yararlanıyor.
Plan-and-Execute İçin Caching#
Modül 9'da gördük: planner ve executor ayrı call'lar.
Planner cache:
- System prompt: "Sen bir plan üreticisin..."
- Repo context: dosya listesi + relevant files
- Issue text
- → Plan üret
Executor cache (per step):
- System: "Sen executor'sın, plan'a göre kod yaz"
- Aynı plan + repo context her execution call'da → ortak cache
- Step description (dinamik)
Multi-User Workload#
GitHub muhtemelen batch processing + shared cache pattern kullanıyor:
- Çoğu repo PR Q&A için aynı pattern
- "Aynı issue type, aynı plan" → cache hit
- Reuse with light personalization
Bu, GitHub'ın enterprise scale'de Copilot'u ekonomik tutmasının ana sırrı.
✓ Pekiştir#
Bir Sonraki Derste#
Perplexity — search + LLM hybrid'ın caching mimarisi.
Yorumlar & Soru-Cevap
(0)Yorum yazmak için giriş yap.
Yorumlar yükleniyor...
İlgili İçerikler
1. Temeller — Context Penceresi Ekonomisi
Bu Eğitim Hakkında ve Prompt Caching Neden Önemli?
Öğrenmeye Başla1. Temeller — Context Penceresi Ekonomisi
Token Ekonomisi 101: Input vs Output Cost Asimetrisi
Öğrenmeye Başla1. Temeller — Context Penceresi Ekonomisi