İçeriğe geç

GitHub Copilot Workspace: Long-Context Code Strategy

GitHub Copilot Workspace, OpenAI tabanlı, 'plan then code' yaklaşımıyla çalışıyor. Long-context caching'i nasıl kullanıyor?

Şükrü Yusuf KAYA
11 dakikalık okuma
Orta

GitHub Copilot Workspace

2024'te tanıtılan Copilot Workspace klasik Copilot'tan farklı: plan-and-execute paradigması (Modül 9 Ders 60).
Akış:
  1. User issue açar
  2. Workspace planlar (ne yapacağı adım adım)
  3. User onaylar
  4. Workspace kodu yazar
  5. PR açar

Caching Layers (Inferred)#

GitHub kapalı kaynak ama paterni şöyle:
  1. Repo embedding cache — tüm repo embed'lenmiş, vector DB
  2. Issue + relevant files cache — issue context + ilgili dosyalar
  3. Plan cache — plan üretildi, execution sırasında re-use
OpenAI underneath olduğu için automatic caching avantajından yararlanıyor.

Plan-and-Execute İçin Caching#

Modül 9'da gördük: planner ve executor ayrı call'lar.
Planner cache:
  • System prompt: "Sen bir plan üreticisin..."
  • Repo context: dosya listesi + relevant files
  • Issue text
  • → Plan üret
Executor cache (per step):
  • System: "Sen executor'sın, plan'a göre kod yaz"
  • Aynı plan + repo context her execution call'da → ortak cache
  • Step description (dinamik)

Multi-User Workload#

GitHub muhtemelen batch processing + shared cache pattern kullanıyor:
  • Çoğu repo PR Q&A için aynı pattern
  • "Aynı issue type, aynı plan" → cache hit
  • Reuse with light personalization
Bu, GitHub'ın enterprise scale'de Copilot'u ekonomik tutmasının ana sırrı.

✓ Pekiştir#

Bir Sonraki Derste#

Perplexity — search + LLM hybrid'ın caching mimarisi.

Yorumlar & Soru-Cevap

(0)
Yorum yazmak için giriş yap.
Yorumlar yükleniyor...

İlgili İçerikler