Modern AI: LLM'ler, Transformerlar ve Agentic Sistemler
ChatGPT'den (Kasım 2022) bugüne yapay zekânın yüzü değişti. Bu derste modern üretken AI'nin temel taşı olan transformer mimarisini, LLM'lerin nasıl eğitildiğini, prompt engineering ile RAG'in pratiğini, fine-tuning ne zaman doğru seçim olduğunu ve 2025-2026'nın ana akımı haline gelen agentic sistemleri uçtan uca öğreneceksiniz.
Neden 2022-2026 her şeyi değiştirdi?#
-
Mimari — Transformer (Vaswani et al., 2017) RNN/LSTM'leri devre dışı bıraktı. Self-attention sayesinde modeller paralel eğitilebilir, uzun bağlamı ezbersiz tutabilir hale geldi.
-
Ölçek — "Scaling laws" (Kaplan et al., 2020; Hoffmann et al., 2022 — Chinchilla) gösterdi ki model parametresi + veri + hesap birlikte arttıkça performans tahmin edilebilir şekilde iyileşiyor. GPT-2 (2019, 1.5B) → GPT-3 (2020, 175B) → GPT-4 (2023, ~1.8T MoE iddiası) → günümüzde 4-5 trilyon parametreli MoE modelleri.
-
Hizmet katmanı — RLHF (Reinforcement Learning from Human Feedback, Christiano et al., 2017; Ouyang et al., 2022) ham bir LLM'i kullanışlı, güvenli ve insan tercihiyle hizalı bir asistan haline getirdi. Bu olmadan ChatGPT olmazdı.
🇹🇷 Türkçe LLM Ekosistemi — Açık Modeller, Türk Yapımı#
- Mimari: UL2 encoder-decoder
- Parametre: 1.1B
- Veri: OSCAR + OPUS + Wikipedia ~10GB
- Lisans: açık kaynak (HuggingFace: )
boun-tabi-LMG/turna_3b - Güçlü yan: hem NLU hem NLG; encoder-decoder olarak çeviri/özet için ideal
- Mimari: GPT-J tabanlı, decoder-only
- Parametre: 2B
- Lisans: açık kaynak (HuggingFace: )
asafaya/kanarya-2b
- Mimari: GPT-2 tabanlı monolingual Türkçe
- Akademik nature; monolingual eğitim deneyi (sadece Türkçe ile)
- Eğitim verisi büyütülmüş varyant
Transformer mimarisi: 30 saniyede özü#
- Q (Query) — "ben neye bakmalıyım?"
- K (Key) — "ben nasıl anahtarlanırım?"
- V (Value) — "seçilirsem hangi içeriği taşırım?"
- — key boyutu, softmax'in sayısal stabilitesi için ölçeklenir.

Bir LLM nasıl üretilir? — 3 aşamalı pipeline#
LLM eğitim pipeline'ını görselleştir#
| Aşama | Süre | Veri Hacmi | Tahmini Maliyet | Çıktı |
|---|---|---|---|---|
| Pre-training | haftalar-aylar | trilyonlarca token | 200M+ | Base model |
| SFT | günler | 10K-1M çift | 100K | Instruct model |
| RLHF/DPO | haftalar | 100K-10M tercih | 1M+ | Production asistan |
Context window: LLM'in "kısa süreli belleği"#
| Model (örn.) | Context window | Yaklaşık karşılığı |
|---|---|---|
| GPT-3 (2020) | 4K token | ~3 sayfa |
| GPT-3.5 (2022) | 16K | ~12 sayfa |
| GPT-4 Turbo (2023) | 128K | ~96 sayfa / kısa kitap |
| Claude 3 (2024) | 200K | 150 sayfa |
| Gemini 1.5 Pro (2024) | 1M – 2M | bütün roman serisi |
| Claude Sonnet 4 (2025) | 1M | bütün kod tabanı |
🔁 Pratikte: Kötü Prompt vs İyi Prompt#
müşteriye bir e-posta yaz
Sen 10 yıl deneyimli bir B2B SaaS satış müdürüsün. Aşağıda bir müşteri vakası var: <vaka> - Müşteri: Orta ölçekli e-ticaret şirketi (~50 kişi) - Durum: Aylık planımıza geçtiler 3 ay önce. Geçen ay ödeme yapmadılar. - Bilinen: CTO Murat Bey, fiyat hassas ama servisi seviyor. - Hedef: Ödemenin yapılmasını sağla, gücendir </vaka> Murat Bey'e Türkçe bir e-posta yaz. Şu kurallara uy: - Profesyonel ama sıcak ton - 150 kelimeyi geçme - Sonuna concrete call-to-action: "Bu hafta 15 dakika görüşelim mi?" - Tehdit/agresif ifade YOK - Sadece e-posta gövdesini ver (konu satırı ve imza ayrı)
RAG akışı — sistem mimarisi olarak#
| Soru | Tipik tercih |
|---|---|
| Chunk boyutu? | 200-800 token; teknik içerik için 500, sohbet için 200 |
| Overlap? | %10-20 (kavramların kesilmemesi için) |
| Embedding modeli? | OpenAI text-embedding-3-small (ucuz) veya BGE-M3 (açık) |
| Vector DB? | <10M vektör → pgvector; >10M → Pinecone/Qdrant |
| Top-K? | 3-5 (kalite) veya 10-20 (kapsam) |
| Re-ranker? | Kalite kritikse mutlaka (Cohere Rerank veya BGE Reranker) |
| Query rewriting? | Sohbet bağlamı için zorunlu (HyDE, multi-query) |
# Minimal RAG iskeleti — psödo kodimport openaifrom numpy import dotfrom numpy.linalg import norm # 1) İndeksleme aşaması (offline, bir kez)def index_documents(docs): chunks = [c for d in docs for c in chunk(d, size=500, overlap=50)] vectors = openai.embeddings.create( model="text-embedding-3-small", input=[c.text for c in chunks] ).data db.upsert([{"id": c.id, "vec": v.embedding, "text": c.text} for c, v in zip(chunks, vectors)]) # 2) Sorgu zamanı (online, her istek)def answer(question: str, k: int = 5) -> str: q_vec = openai.embeddings.create( model="text-embedding-3-small", input=question ).data[0].embedding # cosine similarity ile top-k hits = sorted( db.all(), key=lambda d: dot(q_vec, d["vec"]) / (norm(q_vec) * norm(d["vec"])), reverse=True, )[:k] context = "\n\n".join(f"[{i}] {h['text']}" for i, h in enumerate(hits)) prompt = f"""Aşağıdaki kaynaklara dayanarak soruyu yanıtla.Kaynak dışı bilgi kullanma, atıf numarasıyla [N] göster. KAYNAKLAR:{context} SORU: {question} YANIT (atıflarla):""" return openai.chat.completions.create( model="gpt-4o-mini", messages=[{"role": "user", "content": prompt}], ).choices[0].message.content RAG mi, Fine-tuning mi? — Karar matrisi#
📚 RAG'i seç#
- ✅ Veriniz sık değişiyor (haftalık, aylık)
- ✅ Doküman havuzu büyük (yüz binlerce sayfa)
- ✅ Citation / kaynak gösterme zorunlu
- ✅ Bütçe sınırlı (eğitim maliyeti yok, sadece embed + retrieval)
- ✅ Hassas veriler ağırlıklara sızmasın isteniyor
- ✅ Hızlı prototip — günler/haftalar içinde
- ❌ Modelin temel davranışı / tonu değişmesi gerekiyorsa yetersiz
🎯 Fine-tuning'i seç#
- ✅ Belirli bir stil / ton / format öğretmek istiyoruz (markalı yazım, kod stili)
- ✅ Görev çok dar ve kararlı (sürekli aynı tip iş)
- ✅ Latency kritik — RAG retrieval gecikmesi kabul edilemez
- ✅ Çıkarım maliyetini düşük tutmak lazım (küçük fine-tuned model > büyük genel model + RAG)
- ✅ Off-the-shelf modelin yetmediği niş alan (tıbbi rapor, hukuki sözleşme dili)
- ❌ Veri sürekli değişiyorsa her seferinde yeniden eğitim maliyetli ve yavaş
Anladığını test edelim#
Agentic AI: LLM'den ajanlara#
Bir ajan'ın anatomi'si#
- Thought: "Kullanıcı NYSE'de Apple'ın bugünkü kapanış fiyatını sordu. Web araması yapmam gerek."
- Action:
web_search(query="AAPL stock price today") - Observation:
{"price": 178.32, "as_of": "2026-05-09 16:00 ET"} - Thought: "Bilgiye ulaştım. Şimdi formatlı yanıt yazayım."
- Action:
final_answer("AAPL bugün 178.32 dolardan kapandı...")
🌀 Hallucination — Neden olur, nasıl azaltılır?#
- RAG (en güçlü çözüm) — model "ezberinden" değil, sağlanan kaynaktan üretir
- Model'in eğitim tarihini bil: "Cutoff'umdan sonraki olayları bilmiyorum" diyebilen sistem prompt'u
- Retrieval-as-first-action: ajan, cevap vermeden önce her zaman web/doc araması yapar
Hallucination'a karşı defense-in-depth (üretim sistemi)#
LLM tabanlı bir uygulamayı nasıl değerlendirirsin?#
| Yöntem | Açıklama | Maliyet |
|---|---|---|
| Manuel review | İnsan etiketçi N örneği değerlendirir | Yüksek; altın standart |
| LLM-as-judge | Bir başka LLM (genelde daha güçlü) yanıtları puanlar | Orta; yaygınlaşan kalıp |
| Ground-truth eval | Bilinen doğru cevapla karşılaştır (accuracy, ROUGE, BLEU) | Düşük; sadece kapalı uçlu görevlerde işe yarar |
| A/B testing | Production'da iki sürüm canlıda kıyaslanır (CTR, satisfaction, retention) | Zaman alıcı; en gerçekçi |
| Red teaming | Adversarial girdi havuzu (jailbreak, prompt injection, bias triggers) | Orta; güvenlik için zorunlu |
"Eğer ölçemiyorsan, iyileştiremezsin. LLM uygulamaları için bu Eval altyapısı kuruluştan önemlidir."
🇹🇷 Türkiye'de AI'ya devam etmek isteyenler için pratik harita#
- Türkiye Yapay Zeka İnisiyatifi (turkiye.ai) — sivil toplum/akademi/şirket çatısı
- AI Safety Türkiye — etik ve güvenlik odağı
- ODTÜ Yapay Zeka Topluluğu (ODTÜYZT) — öğrenci/yeni mezun ağı
- deepLearning Türkiye, Veri Bilimi İstanbul (meetup, Discord)
- TBV (Türkiye Bilişim Vakfı) AI çalışma grupları
- BTK Akademi — devletin ücretsiz Türkçe AI/ML kursları, sertifikalı
- TÜBİTAK BİLGEM eğitimleri — kamu çalışanlarına ve üniversitelere açık
- Patika.dev, kodluyoruz, acikhack — bootcamp/topluluk öğrenme
- Boğaziçi Lifelong Learning, ODTÜ Sürekli Eğitim — kısa kurslar
- Teknofest Yapay Zeka kategorileri (her yıl)
- Kaggle Turkey topluluğu — yerel takım kurma
- DeepLearning Türkiye Atlas yarışmaları
- Trendyol, Getir, Hepsiburada, Yemeksepeti, GittiGidiyor, n11 — e-ticaret & lojistik
- Garanti BBVA, İş Bankası, Akbank, Yapı Kredi — bankacılık AI
- Turkcell, Türk Telekom, Vodafone TR — telekom AI
- Doğuş Teknoloji, Logo Yazılım, Pranga — kurumsal yazılım
- ASELSAN, HAVELSAN, ROKETSAN — savunma sanayi AI
- VNGRS, Sestek, Vispera, Ladybug — AI uzmanı şirketler
- Junior ML Engineer: 80-150K ₺/ay
- Mid-level ML Engineer: 150-300K ₺/ay
- Senior AI Engineer: 300-600K ₺/ay (yurt dışı remote 6-15K USD/ay yaygın)
- Research Scientist (PhD): 250-500K ₺/ay + bonus
Bu derste neler öğrendik?#
Frequently Asked Questions
Yorumlar & Soru-Cevap
(0)Related Content
Connected pillar topics
Pillar topics this article maps to
Pillar Topic
RAG (Retrieval-Augmented Generation) Architecture
RAG (Retrieval-Augmented Generation) is an architecture that grounds large-language-model answers in chunks retrieved from the organization's own documents or data sources, providing both freshness and citations.
Pillar Topic
Agentic AI and Autonomous Systems
Agentic AI is the architecture in which a large language model — instead of producing a single answer — autonomously completes multi-step tasks by combining planning, tool use, memory and feedback loops.
Pillar Topic
Prompt and Context Engineering
Prompt engineering is the applied discipline of designing instructions, examples, context and output controls so that an LLM produces consistent, accurate and cost-efficient outputs.