Connectionism vs Symbolic: Bitmeyen Tartışmanın 60 Yılı ve LLM'lerin Yeri
Symbolic AI (LISP, expert systems, mantık programlama) ile connectionism (neural networks) arasındaki 60 yıllık felsefi savaş. Bitter Lesson (Sutton 2019), neuro-symbolic hibridler, chain-of-thought ve tool use'un symbolic manipülasyon mu olduğu, LLM reasoning'in geleceği.
Şükrü Yusuf KAYA
50 dakikalık okuma
Orta🤔 'AI'nın hangi yöne gittiği' sorusu
60 yıldır AI topluluğu iki kampa bölündü: 'Düşünmek mantık manipülasyonudur' diyenler (symbolic) ve 'Düşünmek sinir ağı pattern matching'idir' diyenler (connectionist). Bu tartışma akademik mi? Değil — LLM'lerin niye bazı şeylerde mükemmel ama bazılarında saçma olduğunu anlamak için bu çerçeveye ihtiyacın var. 50 dakika sonra: GPT'nin matematik yapması, plan yapması, kod yazması — hangisi connectionism, hangisi gizli symbolic?
Ders Haritası#
- Symbolic AI (1956-1990): mantık programlama, expert systems
- Connectionism (1958-): neural networks, distributed representation
- GOFAI vs scruffy AI — kültürel ayrım
- 1980'ler hibrit denemeler — fail
- 2019: Sutton'ın Bitter Lesson
- Marcus & Davis vs Hinton: 2020s tartışma
- LLM'lerde reasoning: connectionist mi symbolic mi?
- Chain-of-Thought: sembol manipülasyonu mu pattern?
- Tool use: connectionism'in symbolic'e geri dönüşü?
- Neuro-symbolic hybridler — gerçekten yapılabilir mi?
- Gelecek: AGI nereden gelecek?
1. Symbolic AI — "İnsanlar Mantıkla Düşünür"#
Dartmouth 1956: AI Doğuşu#
John McCarthy "AI" terimini icat etti. Dartmouth Conference'da Newell, Simon, McCarthy, Minsky bir araya gelip "thinking machines"in 20 yıl içinde olacağını öngördüler.
Felsefi temel: "Bilgi = semboller. Düşünme = sembol manipülasyonu."
Bir köpeği anlamak için:
köpek = {tip: hayvan, ayak_sayısı: 4, ses: havlamak, ...}
LISP (1958) ve Prolog (1972)#
LISP (LISt Processing): McCarthy'nin yarattığı dil. Liste yapıları, lambda kalkülüs. AI araştırmacılarının dili 1960-2000.
Prolog: mantık programlama. Sen kuralı yazarsın, sistem kendisi çıkarım yapar.
parent(tom, bob). parent(bob, alice). grandparent(X, Z) :- parent(X, Y), parent(Y, Z). ?- grandparent(tom, alice). % yes
Expert Systems (1970-1990)#
MYCIN (Stanford 1972) — bakteriyel enfeksiyon tanı, bilgi şeklinde insan uzman bilgisi:
IF infection is bacterial AND organism Gram-negative AND patient compromised THEN suggestion ciprofloxacin (cf 0.7)
Endüstride başarı: R1 (Digital Equipment) yıllık $40M tasarruf. DENDRAL (kimya), CADUCEUS (tıp).
1980'ler Japan'ın 5. Generation Project#
Japonya 1982'de "Beşinci Nesil Bilgisayar Projesi" — Prolog-based AI computer. $500 milyon yatırım. 10 yıl sonra başarısız.
Symbolic AI'ın güçlü yanları#
- İnterpretable: her kural okunabilir
- Compositionality: kuralları birleştirebilirsin
- Logical reasoning: provable correctness
- Veri açlığı yok: kural yazarsın, dataset gerek değil
Zayıf yanları#
- Knowledge bottleneck: insan uzmandan kuralları çıkartmak çok yavaş
- Brittleness: yeni durumda çuvallıyor
- Pattern recognition zayıf: görüntü, ses zor
- Unaware of uncertainty: belirsizliği handle etmek zor
2. Connectionism — "Beyin Bir Nöron Ağıdır"#
Felsefi temel#
İnsan zekâsı bilinçli sembol manipülasyonundan değil, paralel + distributed nöral hesaplamadan ortaya çıkar. Bilgi tek bir yerde değil, ağ boyunca yayılmış.
Bir köpeği anlamak için:
köpek = [0.23, -0.45, 0.91, 0.05, ...] # 4096-d vektör
Tek bir component "köpeklik" değil, vektör bütün olarak köpek'i temsil ediyor.
Distributed representation#
Symbolic'te bir kavram = bir sembol (atomic). Connectionism'de bir kavram = pattern (distributed).
Avantajlar:
- Otomatik öğrenme: data + gradient = bilgi
- Robust: birkaç nöron öldüğünde sistem devam eder
- Generalization: benzer pattern'ler benzer çıktılar
- Multi-modal: aynı framework hem görüntü hem dil
PDP Group ve 1986 Revival#
David Rumelhart, James McClelland (San Diego) Parallel Distributed Processing (PDP) ekolü kurdu. 1986 ikilemmesi "Parallel Distributed Processing: Explorations in the Microstructure of Cognition" — connectionism manifesto.
1990'lar pratik başarılar#
- LeCun'un ZIP-code reader (1989) — endüstride NN
- Sejnowski'nin NETtalk (1986) — text-to-speech NN
- LSTM (1997) — sequence modeling
Connectionism'in güçlü yanları#
- Pattern recognition champion: vision, speech, NLP
- Soft knowledge: belirsizlik native handle edilir
- End-to-end learnable: feature engineering az
- Universal approximator (Cybenko 1989)
Zayıf yanları#
- Black box: hangi parametre niye o değerde — bilmiyoruz
- Veri açlığı: milyonlarca örnek gerek
- Compositional generalization zayıf: yeni kombinasyonlarda saçmalar
- Reasoning sınırlı: birden çok adım planlama zor
3. GOFAI vs Scruffy AI — Kültürel Ayrım#
GOFAI = "Good Old-Fashioned AI" = symbolic camp. Adı Haugeland 1985'ten.
Neats: matematiksel olarak temiz, formal, provable. SAT solver, MIT, McCarthy.
Scruffies: empirik, hack-friendly, "it works" odaklı. ML, Stanford, Hinton.
Bu ayrım kültürel ve metodolojik:
| Neats (Symbolic) | Scruffies (Connectionist) | |
|---|---|---|
| Yöntem | Formal, mantık | Empirik, deney |
| Validation | Proof | Benchmark |
| Conference | AAAI | NeurIPS, ICML |
| Felsefi grup | Rationalist | Empiricist |
| Türkiye'de örnek | TÜBİTAK ULAKBİM, klasik MS programları | Modern ML kursları, endüstri |
1980'lerde scruffies azınlıkta, neats baskın. 2012 AlexNet sonrası scruffies kazandı. 2020s'te dengeler tekrar hareketleniyor.
4. 1980'ler Hibrit Denemeler#
1980'lerde "iki kampı birleştirme" denemeleri:
CYC Project (Lenat, 1984)#
"İnsan common-sense bilgisini elle kodlayalım" — milyonlarca fact, kural. 30+ yıl, $200M+ yatırım. Practical olarak başarısız: bilgi yeterince hızlı tüketilmedi.
Connectionist Cognitive Modeling#
Smolensky'nin "Tensor Product Representations" — distributed temsile yapı eklemek için math. Niche kaldı.
Hybrid Expert Systems + NN#
1990'lar başında bazı pratik uygulamalar (fraud detection — NN pattern + symbolic rule). Niche, mainstream değil.
Niye 1980'ler hibrit başarısız?#
- Compute yetersiz: ne tam NN ne tam symbolic ölçeklenmiyor
- Veri az: NN için
- İdeolojik kavga: araştırmacılar bir tarafta
- Tooling fragmented: ortak framework yok
5. 2019 — Sutton'ın Bitter Lesson#
Richard Sutton (Alberta, RL'in babalarından) Mart 2019'da kısa bir blog yazısı yayınladı: "The Bitter Lesson".
"70 yıllık AI araştırmasından çıkardığımız en büyük ders: genel yöntemler ki compute'tan yararlanan, sonunda diğer tüm yaklaşımları geride bırakır. Bunu kabullenmek acı verici çünkü araştırmacılar 'insanın bilgisini' modele koymak istiyor — ama uzun vadede yalnızca search ve learning ölçeklenebiliyor."
Kanıtlar Sutton'ın listesinde#
-
Satranç: 50 yıl human-knowledge based engine'ler vardı. Sonra Deep Blue (1997) brute-force search ile Kasparov'u yendi. Sonra AlphaZero (2017) hiç human game görmeden saatler içinde Stockfish'i geçti.
-
Go: AlphaGo (2016) "human pro game'lerden öğrenmek" + RL. AlphaZero (2017) human game'siz, sadece self-play, daha iyi.
-
Speech recognition: 1970-2010 phonetic features + HMM (human knowledge). 2010+ neural acoustic models, end-to-end. Çok daha iyi.
-
Computer vision: 1990-2012 hand-engineered features (SIFT, HOG). 2012+ CNN learning. AlexNet patladı.
-
Çeviri: 1990-2014 phrase-based statistical MT. 2014+ neural seq2seq. Şimdi LLM'ler.
Sutton'ın iddiası#
Strong claim: "Genel yöntemler + compute > özel bilgi". İnsanın domain bilgisini modele yerleştirmek kısa vadede çalışır ama uzun vadede compute'a yenilir.
Eleştiriler#
- Domain bias: Sutton RL'cidir, RL self-play ile çalışır → bitter lesson RL için doğru olabilir, her şey için değil.
- Tautology: "compute ölçeklenen şey kazanıyor" çünkü öyle tanımladık.
- Selection bias: Compute artmadıysa human-knowledge approach gelebilir.
Pratik mesaj#
Compute ucuzlaşmaya devam ettikçe (Moore yavaşlasa bile), end-to-end learning yöntemleri giderek daha çok kazanır. Bunu mevcut tasarım kararlarına yansıt.
6. Marcus & Davis vs Hinton — 2020s Tartışması#
Gary Marcus (NYU, sembolik camp) ve Ernie Davis 2019'da "Rebooting AI" kitabını yayınladılar. İddia: "Deep learning yetersiz; symbolic reasoning eklenmeli."
Marcus'un argümanları:
- LLM'ler distribution-shift'te çuvallar (in-domain harika, out-of-domain berbat)
- Compositional generalization zayıf — yeni kombinasyonlarda saçma
- Causal reasoning yok — sadece correlational
- Symbol grounding problemi (Searle'nin Chinese Room argümanı)
Geoffrey Hinton'un cevabı (2022, çeşitli konferanslarda):
- LLM'ler distributed representationsı tam olarak böyle yapıyor zaten
- Compositional ability ölçek ile artıyor (GPT-3 → GPT-4 → GPT-5)
- "Symbolic reasoning is just neural reasoning at scale"
- Marcus "yanlış yolda kaldı, 30 yıl önce"
Şimdi (2026) kim haklı?#
Hibrit cevap:
- Marcus haklı: GPT-4 hâlâ basit aritmetik yapamıyor consistently, hallucinate ediyor.
- Hinton haklı: o1, GPT-5 reasoning model'ları scale + RL ile bu problemleri büyük ölçüde çözüyor.
Sutton'ın bitter lesson'ı kazanıyor görünüyor — ama tam değil. Birazdan "neuro-symbolic" altında görüyoruz.
7. LLM'lerde Reasoning — Hangi Tarafta?#
LLM'ler "düşünüyor" mu? Bu sorunun cevabı hâlâ tartışmalı.
LLM'in "düşünme" özellikleri#
- Chain-of-thought (Wei 2022): "Let's think step by step" derken, modelin arasırasal hesapları out-of-distribution iyileştiriyor
- In-context learning: birkaç örnekle yeni görev öğrenme
- Few-shot reasoning: math olympiad, code generation
- Tool use: calculator, search, code execution çağırma
Bu reasoning sembolik mi connectionist mi?#
Connectionist görüş: hepsi pattern matching. Eğitim verisinde benzer pattern gördü, üretiyor. Gerçek reasoning değil, "stochastic parrot" (Bender 2021).
Symbolic görüş: Chain-of-thought aslında dış sembolik manipülasyon. Model bir scratchpad yazıyor, sonra okuyup operations yapıyor.
Hibrit görüş (Anthropic'in 2024 interpretability work'ü): LLM'lerin içinde emergent symbolic-like structures var. Geometrik temsiller (head'lerin function'ları, circuit'ler) sembolik gibi davranıyor.
DeepSeek-R1 Aha Moment#
DeepSeek-R1 paper'ı (2025) interestingly: model RL ile train edilirken "aha" momentleri öğreniyor — yanlış reasoning yolda, "Wait, let me reconsider..." diyor. Bu yeniden değerlendirme emergent.
Bu scaled connectionism'in symbolic-like davranış üretebileceğini gösteriyor — Hinton'ın iddiasını destekliyor.
8. Tool Use — Connectionism'in Symbolic'e Dönüşü mü?#
Modern LLM'ler tool use yapıyor: calculator çağır, web ara, kod çalıştır.
Bu hibrit mi?#
Bir bakıma evet:
- LLM (connectionist) → "calculator çağır" karar veriyor
- Calculator (symbolic) → tam hesap yapıyor
- Sonuç LLM'e dönüyor → cevap üretiyor
İki paradigma birbirini tamamlıyor. LLM'in zayıflığı (math) symbolic tool ile tamamlanıyor.
Bu yeni mi?#
Hayır — 1980'lerde "expert systems + uncertainty handling NN" denenmişti. Fark: 2024'te bu doğal dil arayüzü ile yapılıyor, kullanıcı dostu.
Agentic AI#
2024-2026 trend: LLM'ler çok adımlı tool kullanımı yapıyor (agent). Browser kontrol, dosya okuma/yazma, API çağrıları.
Felsefi soru: bir LLM agent symbolic AI'dan ne kadar farklı? Symbolic AI da plan yapıp tool çağırırdı. Fark: planning kuralları öğrenilmiş (connectionist) değil el ile kodlanmış.
9. Neuro-Symbolic Hibridler — Gerçek mi Hype mi?#
Neuro-symbolic AI terimi 2010'lardan beri var. Gerçek araştırma alanı:
Yaklaşımlar#
-
Symbolic regularization: NN train ederken sembolik kuralları loss'a ek olarak ver. Örn. "kız + erkek = insan" gibi.
-
Symbolic post-processing: NN'in çıktısını sembolik verifier kontrol ediyor. Örn. theorem prover doğrulama.
-
Hybrid architectures: katmanların bazıları NN, bazıları symbolic (örn. Neural Turing Machines).
-
Tool-augmented LLMs (bizim "tool use") — modern, başarılı.
Başarılı pratik örnekler#
- AlphaGeometry (DeepMind 2024): LLM + symbolic geometry engine → IMO seviye geometri problemleri çözüyor.
- AlphaProof (DeepMind 2024): LLM + Lean theorem prover → matematik kanıtları.
- Tool-using LLM agents (ChatGPT plugins, Claude tools, MCP).
Hâlâ niş#
Pure NN'ler (LLM) hâlâ baskın. Neuro-symbolic frontier'a yakın ama mainstream değil. 2026'da: hibrit görüşümü ilginç, ama dominant trend hâlâ "scale connectionism + tools".
10. AGI Sorusu — Nereden Gelecek?#
Şu an AGI (Artificial General Intelligence) hâlâ tartışmalı. İki kamp:
Kamp 1: Scale → AGI (Connectionist Extreme)#
- "Daha çok parametre + daha çok data + daha çok RL" = AGI
- OpenAI, Anthropic, DeepMind majority bu felsefe
- 2025 frontier model'larındaki reasoning progress destekliyor
Kamp 2: Hibrit gerekli (Neuro-Symbolic)#
- "LLM'ler temel oluşturuyor ama causal reasoning, planning için symbolic gerekli"
- Marcus, Yann LeCun (kısmen), bazı academic figürler
- AlphaGeometry gibi başarılar destek
Karpathy'nin görüşü (2024-2025)#
"LLM'ler agent OS'in temeli olacak — düşünme katmanı. Symbolic tooling çevre olarak gelecek (calculator, code interpreter, web). Bu birleşim AGI'ya en yakın yol."
Türkçe perspektif#
TÜBİTAK Cosmos, Trendyol-LLM gibi yerel modellerin trend: scale + Türkçe RLHF. Dominant paradigma scale-based. Neuro-symbolic Türkiye'de akademik niş.
11. Bu Tartışma Sana Ne Anlatır?#
Mühendisin pratik perspektifi#
Symbolic ve connectionist arasındaki tartışma pratik mühendisi etkiliyor:
-
Tool use mimarisi: Agent yaparken hangi parçayı LLM'e bırak, hangisi kod (symbolic)? Math → calculator. Reasoning → CoT. Search → search engine. Bu tasarım kararları felsefi pozisyonu yansıtıyor.
-
RAG vs fine-tuning karar: RAG bir tür "symbolic" retrieval. Fine-tuning pure connectionist. Hibrit Modül 41'de detayda.
-
Eval design: LLM'i nasıl test edersin? Pattern match'i mi gerçek reasoning'i mi ölçüyorsun? Out-of-distribution test'ler kritik.
-
Production safety: Pure connectionist → unpredictable. Symbolic guardrails (Llama Guard, NeMo) ekle. Modül 56'da detayda.
Felsefi rahatlık#
Bu kursta öğreneceğin çoğu teknik scaled connectionism. Ama symbolic refleksleri ihmal etme: code interpreter, calculator, verifier, structured output enforce — bunlar eski symbolic AI'ın yeni hayatı.
12. Mini Egzersizler#
-
Symbolic vs connectionist görev: Bir LLM'e "1245 × 9876 hesapla" sorduğunda hata yapıyor. Çözüm tool use. Bu Marcus haklı mı Hinton haklı mı kanıtı?
-
Bitter Lesson Türkiye'ye uygulansa: Türkçe LLM yapmak istiyoruz. Sutton bize "Türkçe-spesifik bilgi koyma, daha çok data + compute" der mi? Kararın ne?
-
Symbol grounding: GPT-5 "kedi" derken neyi anlıyor? Symbolic tradition'ın klasik sorusu. Cevabın?
-
Chain-of-thought: Model "Step 1: ... Step 2: ..." derken aslında ne yapıyor? Pattern matching mi yoksa real reasoning mi? Argumentin?
-
Neuro-symbolic ürün: Türk hukuk firması için bir AI ürünü yapacaksın. Pure LLM mi, hybrid mi? Hangi parçaları sembolik (rule-based), hangisi NN?
Bu Derste Neler Öğrendik?#
✓ Symbolic AI (1956-): LISP, Prolog, expert systems, mantık programlama
✓ Connectionism (1958-): nöral ağlar, distributed representation
✓ GOFAI vs Scruffy AI — kültürel ayrım
✓ Sutton'ın Bitter Lesson (2019) — scale kazanır
✓ Marcus vs Hinton tartışması — 2020s'in odağı
✓ LLM reasoning: hibrit (pattern + emergent symbolic-like)
✓ Tool use = connectionism + symbolic hibrit
✓ Neuro-symbolic araştırma — başarılı niş örnekler (AlphaGeometry, AlphaProof)
✓ AGI question: hangi yön baskın
Sıradaki Ders#
3.3 — İlk Başarılar: ImageNet, AlexNet, ResNet — Vision'da Big Bang
2012-2016 vision devrimi: AlexNet, VGG, Inception, ResNet, BatchNorm. Bu paper'lar transformer için zemin hazırladı. ResNet'in skip connection'ı modern her LLM'in temeli.
Sık Sorulan Sorular
Kısmen geçerli, kısmen güncel değil. 2021 paper'ında Bender'ın iddiası: 'LLM'ler training corpus'unun istatistiksel pattern'lerini tekrar ediyor, anlamıyor.' **Bugün eleştirisi**: (1) Out-of-distribution'da hâlâ zayıf — geçerli. (2) 'Anlamıyor' iddiası — felsefi, çünkü 'anlamak' nedir tartışmalı. (3) **Reasoning model'lar** (o1, R1) pattern tekrarından öteye geçmiş gibi görünüyor — eleştiri kısmen güncelliğini kaybetti. Bender hâlâ kritik bir ses ama mainstream LLM araştırması ondan yana değil.
Yorumlar & Soru-Cevap
(0)Yorum yazmak için giriş yap.
Yorumlar yükleniyor...
İlgili İçerikler
Modül 0: Kurs Çerçevesi ve Atölye Kurulumu
LLM Engineer Kimdir? Junior'dan Staff'a Yapay Zekâ Mühendisliği Kariyer Haritası
Öğrenmeye BaşlaModül 0: Kurs Çerçevesi ve Atölye Kurulumu
Kurs Felsefesi: Neden Bu Yol, Neden Bu Sıra — 8 Aylık Müfredatın İskeleti
Öğrenmeye BaşlaModül 0: Kurs Çerçevesi ve Atölye Kurulumu