# What is Claude? The New Generation of AI Assistants

> Source: https://sukruyusufkaya.com/en/learn/claude-ustaligi/claude-nedir
> Updated: 2026-05-13T18:49:29.356Z
> Category: Claude Ustalığı
> Module: 1. Foundations — Welcome to Claude
**TLDR:** Learn from scratch what Claude is, how it differs from traditional chatbots, and how it will reshape your daily workflow.

> **Bu derste neler öğreneceksin?**
>
> • Claude'un ne olduğunu ve neden klasik bir 'chatbot' olmadığını
> • LLM (Büyük Dil Modeli) zihinsel modelini
> • Claude'un öne çıkan özelliklerini (uzun bağlam, akıl yürütme, araç kullanımı)
> • Hangi senaryolarda Claude'a, hangi senaryolarda klasik araçlara dönmen gerektiğini

# Claude Nedir?

Claude, **Anthropic** tarafından geliştirilen bir yapay zekâ asistanıdır. Yüzeyde sohbet eden bir uygulama gibi görünür ama altında çalışan şey, **Büyük Dil Modeli** (Large Language Model — LLM) adı verilen ve yüz milyarlarca parametreyle insan dilini anlayıp üreten bir sinir ağıdır.

Claude'u "akıllı arama motoru" ya da "süslü autocomplete" olarak düşünmek yetersizdir. Modern Claude şunları aynı anda yapabilir:

- **Akıl yürütme:** Çok adımlı problemleri parçalara ayırıp her adımı sırayla çözme.
- **Geniş bağlam:** Tek seferde 200.000 token'a kadar (yaklaşık 500 sayfa) belgeyle çalışma; gelişmiş sürümlerinde 1 milyon token'a uzanır.
- **Araç kullanımı:** Bir hesaplayıcı, bir veritabanı sorgusu, bir kod yorumlayıcısı veya senin yazdığın özel fonksiyonları kendi başına çağırma.
- **Görsel anlama:** Bir ekran görüntüsünü, grafiği veya el yazısı bir notu okuma.
- **Kod üretme ve çalıştırma:** Yazdığı kodu sandbox'ta çalıştırıp çıktısını görme, gerekirse düzeltme.

Bu yetenekleri tek bir asistanda birleştirmek, "soru-cevap" deneyimini "**iş arkadaşı**" deneyimine dönüştürür.

![Claude'un girdi ve çıktı çeşitliliği: metin, kod, görsel, PDF, ses ve araç çağrıları](/images/learn/claude-ustaligi/diagram-claude-overview.svg)

_Claude tek bir asistanda metin, kod, görsel ve araç çağrılarını birleştirir._

## LLM Nedir? Üç Cümlede Özet

Bir **Büyük Dil Modeli**, devasa miktarda metin üzerinde "bir sonraki kelimeyi tahmin etme" görevini öğrenmiş bir sinir ağıdır. Eğitim sırasında dilin istatistiğini, kavramları, dünya bilgisini ve hatta belli bir mantık yürütme alışkanlığını içselleştirir. Sen ona bir prompt verdiğinde, model bu istatistik üzerinde *koşullu olasılık* dağılımıyla en olası sürdürmeyi adım adım üretir.

Şu denklem zihninde durması gereken bütün matematiktir:

$$
P(\text{cevap} \mid \text{prompt}) = \prod_{t=1}^{T} P(x_t \mid x_{<t}, \theta)
$$

Bu basit denklemde gizli iki gerçek şudur:

1. Modelin **kendine ait belleği yoktur**; her şey aynı pencerenin içine yazılı olmalıdır.
2. Cevap üretimi **olasılıksaldır**; aynı prompt iki farklı kez aynı cevabı üretmeyebilir (sıcaklık parametresi 0'a yakın değilse).

### Geleneksel Arama
- Anahtar kelime eşleşmesi yapar
- Kaynak listesi döner
- Senin sentezlemen gerekir
- Bağlamı hatırlamaz
- Zayıf akıl yürütme
- Kod üretmez, sadece bulur
- Tablo / belge analizi yapamaz

---

### Claude
- Niyetini anlar
- Doğrudan sentez sunar
- Çok adımlı düşünür
- Konuşma boyu hatırlar
- Akıl yürütür ve gerekçelendirir
- Kod yazar, çalıştırır, düzeltir
- Belge, görsel, tabloyu anlar

### Detay: Bir LLM nasıl eğitilir?

Claude'un eğitimi üç ana fazda gerçekleşir:

**1. Pre-training:** Trilyonlarca token'lık metin üzerinde "sonraki token'ı tahmin et" hedefiyle modelin temeli atılır. Bu fazda model dili, dünya bilgisini ve genel mantığı kazanır.

**2. Supervised Fine-Tuning (SFT):** İnsan eğitmenler tarafından hazırlanmış yüksek kalite örnekler ile modele "iyi bir asistan nasıl davranır" öğretilir.

**3. RLHF / RLAIF (Constitutional AI):** Yardımseverlik, dürüstlük ve zararsızlığı dengeleyen ödül sinyalleriyle model insanların tercihlerine hizalanır. Anthropic bu adımda kendine has yöntemler kullanır.

Her faz, modelin sonraki adımdaki davranışını şekillendirir; bunu bir öğrencinin önce kitapları okuması, sonra örnek çözmesi, son olarak da geri bildirim alması gibi düşünebilirsin.

### Detay: 'Bağlam penceresi' tam olarak nedir?

Bağlam penceresi, modelin tek seferde "görebildiği" toplam token miktarıdır. Bu pencere senin prompt'unu, sistem mesajını, geçmiş konuşmayı ve modelin ürettiği cevabı toplam olarak kapsar.

Bir Türkçe karakter ortalama 1.2-1.6 token tutar. 200.000 token yaklaşık **500 sayfalık** bir kitabı, 1.000.000 token ise yaklaşık **2.500 sayfalık** bir kitabı temsil eder.

Pencere ne kadar büyükse Claude o kadar uzun belgelerle çalışabilir; ancak ne kadar metin doldurursan o kadar pahalı ve yavaş olur. Her zaman gerekli olan bağlamı dahil et, gereksizleri çıkar.

### Detay: Claude'u GPT, Gemini ve Llama'dan ayıran şey nedir?

Modern LLM'lerin hepsi temelde aynı transformer mimarisinden türese de gerçek dünya kullanımında farklılaşırlar:

- **Claude (Anthropic):** Akıl yürütme zincirleri, uzun bağlam sadakati, talimat takibi ve güvenli davranış konusunda öne çıkar. Kodlama benchmark'larında ve karmaşık çok adımlı görevlerde güçlüdür.
- **GPT (OpenAI):** Yaratıcı yazım ve geniş eklenti ekosistemi.
- **Gemini (Google):** Doğrudan Google ürünleriyle entegrasyon ve çok modlu güçler.
- **Llama (Meta):** Açık ağırlıklı, kendi sunucunda çalıştırabilirsin.

Hangi modeli seçeceğin görev tipine, gizlilik gereksinimlerine ve maliyete bağlıdır. Bu eğitim Claude odaklıdır ama prensiplerin çoğu diğer LLM'lere de uyarlanır.

> **İlk mesaj için altın kural**
>
> Claude'a bir görev verirken **kim olduğunu, ne istediğini ve çıktı formatını** tek seferde söyle. 'Bana bir e-posta yaz' yerine 'B2B SaaS müşterisi için, soğuk satış e-postası, 120 kelime, profesyonel ama samimi ton, kapanışta belirgin bir CTA olsun' yaz.

**Boşluk doldurma egzersizi (text):**
```text
Claude'u geliştiren şirketin adı _____. Claude'un mimarisinin temelinde _____ adı verilen sinir ağı türü bulunur. Modelin tek seferde işleyebildiği toplam metin miktarına _____ denir.
```

**Sıralama egzersizi:**
- `Senin yazdığın prompt token'lara ayrılır.`
- `Token'lar transformer'a girer ve gizli temsillere dönüşür.`
- `Model bir sonraki en olası token'ı tahmin eder.`
- `Tahmin edilen token cevaba eklenir ve adım tekrarlanır.`
- `Stop token üretilince Claude cevabı sana döner.`

> **Yaygın yanılgı**
>
> Claude 'internete bağlı bir bilgi tabanı' değildir. Cevapları **eğitim verisindeki** bilgiden ve sana ilettiğin **prompt'taki bağlamdan** üretir. Bilgi kesim tarihinden sonraki olaylar için ya senin kaynak vermen ya da Claude'un web aramaya yetkilendirilmiş bir versiyonu (Claude Code, Claude in Chrome) gerekir.

> ✋ Kontrol noktası: `q-101-mc1`

## Bir Sonraki Derse Geçmeden

Bu noktada Claude'un *ne olduğunu* ve LLM'lerin temel mantığını anlamış olmalısın. Bir sonraki derste **Anthropic'in güvenlik felsefesine** ve Constitutional AI yaklaşımına bakacağız — çünkü Claude'un nasıl davrandığı, neyi reddettiği ve neyi kendiliğinden ekleyeceği bu felsefeyle doğrudan ilgilidir.