Modern AI: LLM'ler, Transformerlar ve Agentic Sistemler
ChatGPT'den (Kasım 2022) bugüne yapay zekânın yüzü değişti. Bu derste modern üretken AI'nin temel taşı olan transformer mimarisini, LLM'lerin nasıl eğitildiğini, prompt engineering ile RAG'in pratiğini, fine-tuning ne zaman doğru seçim olduğunu ve 2025-2026'nın ana akımı haline gelen agentic sistemleri uçtan uca öğreneceksiniz.
Neden 2022-2026 her şeyi değiştirdi?#
-
Mimari — Transformer (Vaswani et al., 2017) RNN/LSTM'leri devre dışı bıraktı. Self-attention sayesinde modeller paralel eğitilebilir, uzun bağlamı ezbersiz tutabilir hale geldi.
-
Ölçek — "Scaling laws" (Kaplan et al., 2020; Hoffmann et al., 2022 — Chinchilla) gösterdi ki model parametresi + veri + hesap birlikte arttıkça performans tahmin edilebilir şekilde iyileşiyor. GPT-2 (2019, 1.5B) → GPT-3 (2020, 175B) → GPT-4 (2023, ~1.8T MoE iddiası) → günümüzde 4-5 trilyon parametreli MoE modelleri.
-
Hizmet katmanı — RLHF (Reinforcement Learning from Human Feedback, Christiano et al., 2017; Ouyang et al., 2022) ham bir LLM'i kullanışlı, güvenli ve insan tercihiyle hizalı bir asistan haline getirdi. Bu olmadan ChatGPT olmazdı.
🇹🇷 Türkçe LLM Ekosistemi — Açık Modeller, Türk Yapımı#
- Mimari: UL2 encoder-decoder
- Parametre: 1.1B
- Veri: OSCAR + OPUS + Wikipedia ~10GB
- Lisans: açık kaynak (HuggingFace: )
boun-tabi-LMG/turna_3b - Güçlü yan: hem NLU hem NLG; encoder-decoder olarak çeviri/özet için ideal
- Mimari: GPT-J tabanlı, decoder-only
- Parametre: 2B
- Lisans: açık kaynak (HuggingFace: )
asafaya/kanarya-2b
- Mimari: GPT-2 tabanlı monolingual Türkçe
- Akademik nature; monolingual eğitim deneyi (sadece Türkçe ile)
- Eğitim verisi büyütülmüş varyant
Transformer mimarisi: 30 saniyede özü#
- Q (Query) — "ben neye bakmalıyım?"
- K (Key) — "ben nasıl anahtarlanırım?"
- V (Value) — "seçilirsem hangi içeriği taşırım?"
- — key boyutu, softmax'in sayısal stabilitesi için ölçeklenir.

Bir LLM nasıl üretilir? — 3 aşamalı pipeline#
LLM eğitim pipeline'ını görselleştir#
| Aşama | Süre | Veri Hacmi | Tahmini Maliyet | Çıktı |
|---|---|---|---|---|
| Pre-training | haftalar-aylar | trilyonlarca token | 200M+ | Base model |
| SFT | günler | 10K-1M çift | 100K | Instruct model |
| RLHF/DPO | haftalar | 100K-10M tercih | 1M+ | Production asistan |
Context window: LLM'in "kısa süreli belleği"#
| Model (örn.) | Context window | Yaklaşık karşılığı |
|---|---|---|
| GPT-3 (2020) | 4K token | ~3 sayfa |
| GPT-3.5 (2022) | 16K | ~12 sayfa |
| GPT-4 Turbo (2023) | 128K | ~96 sayfa / kısa kitap |
| Claude 3 (2024) | 200K | 150 sayfa |
| Gemini 1.5 Pro (2024) | 1M – 2M | bütün roman serisi |
| Claude Sonnet 4 (2025) | 1M | bütün kod tabanı |
🔁 Pratikte: Kötü Prompt vs İyi Prompt#
müşteriye bir e-posta yaz
Sen 10 yıl deneyimli bir B2B SaaS satış müdürüsün. Aşağıda bir müşteri vakası var: <vaka> - Müşteri: Orta ölçekli e-ticaret şirketi (~50 kişi) - Durum: Aylık planımıza geçtiler 3 ay önce. Geçen ay ödeme yapmadılar. - Bilinen: CTO Murat Bey, fiyat hassas ama servisi seviyor. - Hedef: Ödemenin yapılmasını sağla, gücendir </vaka> Murat Bey'e Türkçe bir e-posta yaz. Şu kurallara uy: - Profesyonel ama sıcak ton - 150 kelimeyi geçme - Sonuna concrete call-to-action: "Bu hafta 15 dakika görüşelim mi?" - Tehdit/agresif ifade YOK - Sadece e-posta gövdesini ver (konu satırı ve imza ayrı)
RAG akışı — sistem mimarisi olarak#
| Soru | Tipik tercih |
|---|---|
| Chunk boyutu? | 200-800 token; teknik içerik için 500, sohbet için 200 |
| Overlap? | %10-20 (kavramların kesilmemesi için) |
| Embedding modeli? | OpenAI text-embedding-3-small (ucuz) veya BGE-M3 (açık) |
| Vector DB? | <10M vektör → pgvector; >10M → Pinecone/Qdrant |
| Top-K? | 3-5 (kalite) veya 10-20 (kapsam) |
| Re-ranker? | Kalite kritikse mutlaka (Cohere Rerank veya BGE Reranker) |
| Query rewriting? | Sohbet bağlamı için zorunlu (HyDE, multi-query) |
# Minimal RAG iskeleti — psödo kodimport openaifrom numpy import dotfrom numpy.linalg import norm # 1) İndeksleme aşaması (offline, bir kez)def index_documents(docs): chunks = [c for d in docs for c in chunk(d, size=500, overlap=50)] vectors = openai.embeddings.create( model="text-embedding-3-small", input=[c.text for c in chunks] ).data db.upsert([{"id": c.id, "vec": v.embedding, "text": c.text} for c, v in zip(chunks, vectors)]) # 2) Sorgu zamanı (online, her istek)def answer(question: str, k: int = 5) -> str: q_vec = openai.embeddings.create( model="text-embedding-3-small", input=question ).data[0].embedding # cosine similarity ile top-k hits = sorted( db.all(), key=lambda d: dot(q_vec, d["vec"]) / (norm(q_vec) * norm(d["vec"])), reverse=True, )[:k] context = "\n\n".join(f"[{i}] {h['text']}" for i, h in enumerate(hits)) prompt = f"""Aşağıdaki kaynaklara dayanarak soruyu yanıtla.Kaynak dışı bilgi kullanma, atıf numarasıyla [N] göster. KAYNAKLAR:{context} SORU: {question} YANIT (atıflarla):""" return openai.chat.completions.create( model="gpt-4o-mini", messages=[{"role": "user", "content": prompt}], ).choices[0].message.content RAG mi, Fine-tuning mi? — Karar matrisi#
📚 RAG'i seç#
- ✅ Veriniz sık değişiyor (haftalık, aylık)
- ✅ Doküman havuzu büyük (yüz binlerce sayfa)
- ✅ Citation / kaynak gösterme zorunlu
- ✅ Bütçe sınırlı (eğitim maliyeti yok, sadece embed + retrieval)
- ✅ Hassas veriler ağırlıklara sızmasın isteniyor
- ✅ Hızlı prototip — günler/haftalar içinde
- ❌ Modelin temel davranışı / tonu değişmesi gerekiyorsa yetersiz
🎯 Fine-tuning'i seç#
- ✅ Belirli bir stil / ton / format öğretmek istiyoruz (markalı yazım, kod stili)
- ✅ Görev çok dar ve kararlı (sürekli aynı tip iş)
- ✅ Latency kritik — RAG retrieval gecikmesi kabul edilemez
- ✅ Çıkarım maliyetini düşük tutmak lazım (küçük fine-tuned model > büyük genel model + RAG)
- ✅ Off-the-shelf modelin yetmediği niş alan (tıbbi rapor, hukuki sözleşme dili)
- ❌ Veri sürekli değişiyorsa her seferinde yeniden eğitim maliyetli ve yavaş
Anladığını test edelim#
Agentic AI: LLM'den ajanlara#
Bir ajan'ın anatomi'si#
- Thought: "Kullanıcı NYSE'de Apple'ın bugünkü kapanış fiyatını sordu. Web araması yapmam gerek."
- Action:
web_search(query="AAPL stock price today") - Observation:
{"price": 178.32, "as_of": "2026-05-09 16:00 ET"} - Thought: "Bilgiye ulaştım. Şimdi formatlı yanıt yazayım."
- Action:
final_answer("AAPL bugün 178.32 dolardan kapandı...")
🌀 Hallucination — Neden olur, nasıl azaltılır?#
- RAG (en güçlü çözüm) — model "ezberinden" değil, sağlanan kaynaktan üretir
- Model'in eğitim tarihini bil: "Cutoff'umdan sonraki olayları bilmiyorum" diyebilen sistem prompt'u
- Retrieval-as-first-action: ajan, cevap vermeden önce her zaman web/doc araması yapar
Hallucination'a karşı defense-in-depth (üretim sistemi)#
LLM tabanlı bir uygulamayı nasıl değerlendirirsin?#
| Yöntem | Açıklama | Maliyet |
|---|---|---|
| Manuel review | İnsan etiketçi N örneği değerlendirir | Yüksek; altın standart |
| LLM-as-judge | Bir başka LLM (genelde daha güçlü) yanıtları puanlar | Orta; yaygınlaşan kalıp |
| Ground-truth eval | Bilinen doğru cevapla karşılaştır (accuracy, ROUGE, BLEU) | Düşük; sadece kapalı uçlu görevlerde işe yarar |
| A/B testing | Production'da iki sürüm canlıda kıyaslanır (CTR, satisfaction, retention) | Zaman alıcı; en gerçekçi |
| Red teaming | Adversarial girdi havuzu (jailbreak, prompt injection, bias triggers) | Orta; güvenlik için zorunlu |
"Eğer ölçemiyorsan, iyileştiremezsin. LLM uygulamaları için bu Eval altyapısı kuruluştan önemlidir."
🇹🇷 Türkiye'de AI'ya devam etmek isteyenler için pratik harita#
- Türkiye Yapay Zeka İnisiyatifi (turkiye.ai) — sivil toplum/akademi/şirket çatısı
- AI Safety Türkiye — etik ve güvenlik odağı
- ODTÜ Yapay Zeka Topluluğu (ODTÜYZT) — öğrenci/yeni mezun ağı
- deepLearning Türkiye, Veri Bilimi İstanbul (meetup, Discord)
- TBV (Türkiye Bilişim Vakfı) AI çalışma grupları
- BTK Akademi — devletin ücretsiz Türkçe AI/ML kursları, sertifikalı
- TÜBİTAK BİLGEM eğitimleri — kamu çalışanlarına ve üniversitelere açık
- Patika.dev, kodluyoruz, acikhack — bootcamp/topluluk öğrenme
- Boğaziçi Lifelong Learning, ODTÜ Sürekli Eğitim — kısa kurslar
- Teknofest Yapay Zeka kategorileri (her yıl)
- Kaggle Turkey topluluğu — yerel takım kurma
- DeepLearning Türkiye Atlas yarışmaları
- Trendyol, Getir, Hepsiburada, Yemeksepeti, GittiGidiyor, n11 — e-ticaret & lojistik
- Garanti BBVA, İş Bankası, Akbank, Yapı Kredi — bankacılık AI
- Turkcell, Türk Telekom, Vodafone TR — telekom AI
- Doğuş Teknoloji, Logo Yazılım, Pranga — kurumsal yazılım
- ASELSAN, HAVELSAN, ROKETSAN — savunma sanayi AI
- VNGRS, Sestek, Vispera, Ladybug — AI uzmanı şirketler
- Junior ML Engineer: 80-150K ₺/ay
- Mid-level ML Engineer: 150-300K ₺/ay
- Senior AI Engineer: 300-600K ₺/ay (yurt dışı remote 6-15K USD/ay yaygın)
- Research Scientist (PhD): 250-500K ₺/ay + bonus
Bu derste neler öğrendik?#
Sık Sorulan Sorular
Yorumlar & Soru-Cevap
(0)İlgili İçerikler
Bağlantılı Pillar Konular
Bu yazının bağlandığı pillar konular
Pillar Konusu
RAG Çözüm Mimarisi
RAG (Retrieval-Augmented Generation), büyük dil modellerinin cevaplarını organizasyonun kendi belge / veri kaynaklarından alınan parçalar (chunks) ile zenginleştirerek hem güncellik hem de kaynak izi (citation) sağlayan bir mimari yaklaşımdır.
Pillar Konusu
Agentic AI ve Otonom Sistemler
Agentic AI, büyük dil modelinin tek bir cevap vermek yerine; planlama, araç çağırma (tool use), bellek (memory) ve geri bildirim döngüleri ile çok adımlı görevleri otonom biçimde tamamladığı yapay zeka mimarisidir.
Pillar Konusu
Prompt ve Bağlam Mühendisliği
Prompt mühendisliği; büyük dil modelinden tutarlı, doğru ve maliyet-verimli çıktı almak için talimatların, örneklerin, bağlamın ve format kontrolünün bilimsel olarak tasarlandığı uygulamalı disiplindir.