Skip to content

Connectionism vs Symbolic: 60 Years of an Unending Debate and Where LLMs Fit

The 60-year philosophical battle between Symbolic AI (LISP, expert systems, logic programming) and connectionism (neural networks). Bitter Lesson (Sutton 2019), neuro-symbolic hybrids, whether chain-of-thought and tool use are symbolic manipulation, the future of LLM reasoning.

Şükrü Yusuf KAYA
50 min read
Intermediate
Connectionism vs Symbolic: Bitmeyen Tartışmanın 60 Yılı ve LLM'lerin Yeri
🤔 'AI'nın hangi yöne gittiği' sorusu
60 yıldır AI topluluğu iki kampa bölündü: 'Düşünmek mantık manipülasyonudur' diyenler (symbolic) ve 'Düşünmek sinir ağı pattern matching'idir' diyenler (connectionist). Bu tartışma akademik mi? Değil — LLM'lerin niye bazı şeylerde mükemmel ama bazılarında saçma olduğunu anlamak için bu çerçeveye ihtiyacın var. 50 dakika sonra: GPT'nin matematik yapması, plan yapması, kod yazması — hangisi connectionism, hangisi gizli symbolic?

Ders Haritası#

  1. Symbolic AI (1956-1990): mantık programlama, expert systems
  2. Connectionism (1958-): neural networks, distributed representation
  3. GOFAI vs scruffy AI — kültürel ayrım
  4. 1980'ler hibrit denemeler — fail
  5. 2019: Sutton'ın Bitter Lesson
  6. Marcus & Davis vs Hinton: 2020s tartışma
  7. LLM'lerde reasoning: connectionist mi symbolic mi?
  8. Chain-of-Thought: sembol manipülasyonu mu pattern?
  9. Tool use: connectionism'in symbolic'e geri dönüşü?
  10. Neuro-symbolic hybridler — gerçekten yapılabilir mi?
  11. Gelecek: AGI nereden gelecek?

1. Symbolic AI — "İnsanlar Mantıkla Düşünür"#

Dartmouth 1956: AI Doğuşu#

John McCarthy "AI" terimini icat etti. Dartmouth Conference'da Newell, Simon, McCarthy, Minsky bir araya gelip "thinking machines"in 20 yıl içinde olacağını öngördüler.
Felsefi temel: "Bilgi = semboller. Düşünme = sembol manipülasyonu."
Bir köpeği anlamak için:
köpek = {tip: hayvan, ayak_sayısı: 4, ses: havlamak, ...}

LISP (1958) ve Prolog (1972)#

LISP (LISt Processing): McCarthy'nin yarattığı dil. Liste yapıları, lambda kalkülüs. AI araştırmacılarının dili 1960-2000.
Prolog: mantık programlama. Sen kuralı yazarsın, sistem kendisi çıkarım yapar.
parent(tom, bob). parent(bob, alice). grandparent(X, Z) :- parent(X, Y), parent(Y, Z). ?- grandparent(tom, alice). % yes

Expert Systems (1970-1990)#

MYCIN (Stanford 1972) — bakteriyel enfeksiyon tanı, bilgi şeklinde insan uzman bilgisi:
IF infection is bacterial AND organism Gram-negative AND patient compromised THEN suggestion ciprofloxacin (cf 0.7)
Endüstride başarı: R1 (Digital Equipment) yıllık $40M tasarruf. DENDRAL (kimya), CADUCEUS (tıp).

1980'ler Japan'ın 5. Generation Project#

Japonya 1982'de "Beşinci Nesil Bilgisayar Projesi" — Prolog-based AI computer. $500 milyon yatırım. 10 yıl sonra başarısız.

Symbolic AI'ın güçlü yanları#

  • İnterpretable: her kural okunabilir
  • Compositionality: kuralları birleştirebilirsin
  • Logical reasoning: provable correctness
  • Veri açlığı yok: kural yazarsın, dataset gerek değil

Zayıf yanları#

  • Knowledge bottleneck: insan uzmandan kuralları çıkartmak çok yavaş
  • Brittleness: yeni durumda çuvallıyor
  • Pattern recognition zayıf: görüntü, ses zor
  • Unaware of uncertainty: belirsizliği handle etmek zor

2. Connectionism — "Beyin Bir Nöron Ağıdır"#

Felsefi temel#

İnsan zekâsı bilinçli sembol manipülasyonundan değil, paralel + distributed nöral hesaplamadan ortaya çıkar. Bilgi tek bir yerde değil, ağ boyunca yayılmış.
Bir köpeği anlamak için:
köpek = [0.23, -0.45, 0.91, 0.05, ...] # 4096-d vektör
Tek bir component "köpeklik" değil, vektör bütün olarak köpek'i temsil ediyor.

Distributed representation#

Symbolic'te bir kavram = bir sembol (atomic). Connectionism'de bir kavram = pattern (distributed).
Avantajlar:
  • Otomatik öğrenme: data + gradient = bilgi
  • Robust: birkaç nöron öldüğünde sistem devam eder
  • Generalization: benzer pattern'ler benzer çıktılar
  • Multi-modal: aynı framework hem görüntü hem dil

PDP Group ve 1986 Revival#

David Rumelhart, James McClelland (San Diego) Parallel Distributed Processing (PDP) ekolü kurdu. 1986 ikilemmesi "Parallel Distributed Processing: Explorations in the Microstructure of Cognition" — connectionism manifesto.

1990'lar pratik başarılar#

  • LeCun'un ZIP-code reader (1989) — endüstride NN
  • Sejnowski'nin NETtalk (1986) — text-to-speech NN
  • LSTM (1997) — sequence modeling

Connectionism'in güçlü yanları#

  • Pattern recognition champion: vision, speech, NLP
  • Soft knowledge: belirsizlik native handle edilir
  • End-to-end learnable: feature engineering az
  • Universal approximator (Cybenko 1989)

Zayıf yanları#

  • Black box: hangi parametre niye o değerde — bilmiyoruz
  • Veri açlığı: milyonlarca örnek gerek
  • Compositional generalization zayıf: yeni kombinasyonlarda saçmalar
  • Reasoning sınırlı: birden çok adım planlama zor

3. GOFAI vs Scruffy AI — Kültürel Ayrım#

GOFAI = "Good Old-Fashioned AI" = symbolic camp. Adı Haugeland 1985'ten.
Neats: matematiksel olarak temiz, formal, provable. SAT solver, MIT, McCarthy. Scruffies: empirik, hack-friendly, "it works" odaklı. ML, Stanford, Hinton.
Bu ayrım kültürel ve metodolojik:
Neats (Symbolic)Scruffies (Connectionist)
YöntemFormal, mantıkEmpirik, deney
ValidationProofBenchmark
ConferenceAAAINeurIPS, ICML
Felsefi grupRationalistEmpiricist
Türkiye'de örnekTÜBİTAK ULAKBİM, klasik MS programlarıModern ML kursları, endüstri
1980'lerde scruffies azınlıkta, neats baskın. 2012 AlexNet sonrası scruffies kazandı. 2020s'te dengeler tekrar hareketleniyor.

4. 1980'ler Hibrit Denemeler#

1980'lerde "iki kampı birleştirme" denemeleri:

CYC Project (Lenat, 1984)#

"İnsan common-sense bilgisini elle kodlayalım" — milyonlarca fact, kural. 30+ yıl, $200M+ yatırım. Practical olarak başarısız: bilgi yeterince hızlı tüketilmedi.

Connectionist Cognitive Modeling#

Smolensky'nin "Tensor Product Representations" — distributed temsile yapı eklemek için math. Niche kaldı.

Hybrid Expert Systems + NN#

1990'lar başında bazı pratik uygulamalar (fraud detection — NN pattern + symbolic rule). Niche, mainstream değil.

Niye 1980'ler hibrit başarısız?#

  1. Compute yetersiz: ne tam NN ne tam symbolic ölçeklenmiyor
  2. Veri az: NN için
  3. İdeolojik kavga: araştırmacılar bir tarafta
  4. Tooling fragmented: ortak framework yok

5. 2019 — Sutton'ın Bitter Lesson#

Richard Sutton (Alberta, RL'in babalarından) Mart 2019'da kısa bir blog yazısı yayınladı: "The Bitter Lesson".
"70 yıllık AI araştırmasından çıkardığımız en büyük ders: genel yöntemler ki compute'tan yararlanan, sonunda diğer tüm yaklaşımları geride bırakır. Bunu kabullenmek acı verici çünkü araştırmacılar 'insanın bilgisini' modele koymak istiyor — ama uzun vadede yalnızca search ve learning ölçeklenebiliyor."

Kanıtlar Sutton'ın listesinde#

  1. Satranç: 50 yıl human-knowledge based engine'ler vardı. Sonra Deep Blue (1997) brute-force search ile Kasparov'u yendi. Sonra AlphaZero (2017) hiç human game görmeden saatler içinde Stockfish'i geçti.
  2. Go: AlphaGo (2016) "human pro game'lerden öğrenmek" + RL. AlphaZero (2017) human game'siz, sadece self-play, daha iyi.
  3. Speech recognition: 1970-2010 phonetic features + HMM (human knowledge). 2010+ neural acoustic models, end-to-end. Çok daha iyi.
  4. Computer vision: 1990-2012 hand-engineered features (SIFT, HOG). 2012+ CNN learning. AlexNet patladı.
  5. Çeviri: 1990-2014 phrase-based statistical MT. 2014+ neural seq2seq. Şimdi LLM'ler.

Sutton'ın iddiası#

Strong claim: "Genel yöntemler + compute > özel bilgi". İnsanın domain bilgisini modele yerleştirmek kısa vadede çalışır ama uzun vadede compute'a yenilir.

Eleştiriler#

  • Domain bias: Sutton RL'cidir, RL self-play ile çalışır → bitter lesson RL için doğru olabilir, her şey için değil.
  • Tautology: "compute ölçeklenen şey kazanıyor" çünkü öyle tanımladık.
  • Selection bias: Compute artmadıysa human-knowledge approach gelebilir.

Pratik mesaj#

Compute ucuzlaşmaya devam ettikçe (Moore yavaşlasa bile), end-to-end learning yöntemleri giderek daha çok kazanır. Bunu mevcut tasarım kararlarına yansıt.

6. Marcus & Davis vs Hinton — 2020s Tartışması#

Gary Marcus (NYU, sembolik camp) ve Ernie Davis 2019'da "Rebooting AI" kitabını yayınladılar. İddia: "Deep learning yetersiz; symbolic reasoning eklenmeli."
Marcus'un argümanları:
  1. LLM'ler distribution-shift'te çuvallar (in-domain harika, out-of-domain berbat)
  2. Compositional generalization zayıf — yeni kombinasyonlarda saçma
  3. Causal reasoning yok — sadece correlational
  4. Symbol grounding problemi (Searle'nin Chinese Room argümanı)
Geoffrey Hinton'un cevabı (2022, çeşitli konferanslarda):
  • LLM'ler distributed representationsı tam olarak böyle yapıyor zaten
  • Compositional ability ölçek ile artıyor (GPT-3 → GPT-4 → GPT-5)
  • "Symbolic reasoning is just neural reasoning at scale"
  • Marcus "yanlış yolda kaldı, 30 yıl önce"

Şimdi (2026) kim haklı?#

Hibrit cevap:
  • Marcus haklı: GPT-4 hâlâ basit aritmetik yapamıyor consistently, hallucinate ediyor.
  • Hinton haklı: o1, GPT-5 reasoning model'ları scale + RL ile bu problemleri büyük ölçüde çözüyor.
Sutton'ın bitter lesson'ı kazanıyor görünüyor — ama tam değil. Birazdan "neuro-symbolic" altında görüyoruz.

7. LLM'lerde Reasoning — Hangi Tarafta?#

LLM'ler "düşünüyor" mu? Bu sorunun cevabı hâlâ tartışmalı.

LLM'in "düşünme" özellikleri#

  • Chain-of-thought (Wei 2022): "Let's think step by step" derken, modelin arasırasal hesapları out-of-distribution iyileştiriyor
  • In-context learning: birkaç örnekle yeni görev öğrenme
  • Few-shot reasoning: math olympiad, code generation
  • Tool use: calculator, search, code execution çağırma

Bu reasoning sembolik mi connectionist mi?#

Connectionist görüş: hepsi pattern matching. Eğitim verisinde benzer pattern gördü, üretiyor. Gerçek reasoning değil, "stochastic parrot" (Bender 2021).
Symbolic görüş: Chain-of-thought aslında dış sembolik manipülasyon. Model bir scratchpad yazıyor, sonra okuyup operations yapıyor.
Hibrit görüş (Anthropic'in 2024 interpretability work'ü): LLM'lerin içinde emergent symbolic-like structures var. Geometrik temsiller (head'lerin function'ları, circuit'ler) sembolik gibi davranıyor.

DeepSeek-R1 Aha Moment#

DeepSeek-R1 paper'ı (2025) interestingly: model RL ile train edilirken "aha" momentleri öğreniyor — yanlış reasoning yolda, "Wait, let me reconsider..." diyor. Bu yeniden değerlendirme emergent.
Bu scaled connectionism'in symbolic-like davranış üretebileceğini gösteriyor — Hinton'ın iddiasını destekliyor.

8. Tool Use — Connectionism'in Symbolic'e Dönüşü mü?#

Modern LLM'ler tool use yapıyor: calculator çağır, web ara, kod çalıştır.

Bu hibrit mi?#

Bir bakıma evet:
  • LLM (connectionist) → "calculator çağır" karar veriyor
  • Calculator (symbolic) → tam hesap yapıyor
  • Sonuç LLM'e dönüyor → cevap üretiyor
İki paradigma birbirini tamamlıyor. LLM'in zayıflığı (math) symbolic tool ile tamamlanıyor.

Bu yeni mi?#

Hayır — 1980'lerde "expert systems + uncertainty handling NN" denenmişti. Fark: 2024'te bu doğal dil arayüzü ile yapılıyor, kullanıcı dostu.

Agentic AI#

2024-2026 trend: LLM'ler çok adımlı tool kullanımı yapıyor (agent). Browser kontrol, dosya okuma/yazma, API çağrıları.
Felsefi soru: bir LLM agent symbolic AI'dan ne kadar farklı? Symbolic AI da plan yapıp tool çağırırdı. Fark: planning kuralları öğrenilmiş (connectionist) değil el ile kodlanmış.

9. Neuro-Symbolic Hibridler — Gerçek mi Hype mi?#

Neuro-symbolic AI terimi 2010'lardan beri var. Gerçek araştırma alanı:

Yaklaşımlar#

  1. Symbolic regularization: NN train ederken sembolik kuralları loss'a ek olarak ver. Örn. "kız + erkek = insan" gibi.
  2. Symbolic post-processing: NN'in çıktısını sembolik verifier kontrol ediyor. Örn. theorem prover doğrulama.
  3. Hybrid architectures: katmanların bazıları NN, bazıları symbolic (örn. Neural Turing Machines).
  4. Tool-augmented LLMs (bizim "tool use") — modern, başarılı.

Başarılı pratik örnekler#

  • AlphaGeometry (DeepMind 2024): LLM + symbolic geometry engine → IMO seviye geometri problemleri çözüyor.
  • AlphaProof (DeepMind 2024): LLM + Lean theorem prover → matematik kanıtları.
  • Tool-using LLM agents (ChatGPT plugins, Claude tools, MCP).

Hâlâ niş#

Pure NN'ler (LLM) hâlâ baskın. Neuro-symbolic frontier'a yakın ama mainstream değil. 2026'da: hibrit görüşümü ilginç, ama dominant trend hâlâ "scale connectionism + tools".

10. AGI Sorusu — Nereden Gelecek?#

Şu an AGI (Artificial General Intelligence) hâlâ tartışmalı. İki kamp:

Kamp 1: Scale → AGI (Connectionist Extreme)#

  • "Daha çok parametre + daha çok data + daha çok RL" = AGI
  • OpenAI, Anthropic, DeepMind majority bu felsefe
  • 2025 frontier model'larındaki reasoning progress destekliyor

Kamp 2: Hibrit gerekli (Neuro-Symbolic)#

  • "LLM'ler temel oluşturuyor ama causal reasoning, planning için symbolic gerekli"
  • Marcus, Yann LeCun (kısmen), bazı academic figürler
  • AlphaGeometry gibi başarılar destek

Karpathy'nin görüşü (2024-2025)#

"LLM'ler agent OS'in temeli olacak — düşünme katmanı. Symbolic tooling çevre olarak gelecek (calculator, code interpreter, web). Bu birleşim AGI'ya en yakın yol."

Türkçe perspektif#

TÜBİTAK Cosmos, Trendyol-LLM gibi yerel modellerin trend: scale + Türkçe RLHF. Dominant paradigma scale-based. Neuro-symbolic Türkiye'de akademik niş.

11. Bu Tartışma Sana Ne Anlatır?#

Mühendisin pratik perspektifi#

Symbolic ve connectionist arasındaki tartışma pratik mühendisi etkiliyor:
  1. Tool use mimarisi: Agent yaparken hangi parçayı LLM'e bırak, hangisi kod (symbolic)? Math → calculator. Reasoning → CoT. Search → search engine. Bu tasarım kararları felsefi pozisyonu yansıtıyor.
  2. RAG vs fine-tuning karar: RAG bir tür "symbolic" retrieval. Fine-tuning pure connectionist. Hibrit Modül 41'de detayda.
  3. Eval design: LLM'i nasıl test edersin? Pattern match'i mi gerçek reasoning'i mi ölçüyorsun? Out-of-distribution test'ler kritik.
  4. Production safety: Pure connectionist → unpredictable. Symbolic guardrails (Llama Guard, NeMo) ekle. Modül 56'da detayda.

Felsefi rahatlık#

Bu kursta öğreneceğin çoğu teknik scaled connectionism. Ama symbolic refleksleri ihmal etme: code interpreter, calculator, verifier, structured output enforce — bunlar eski symbolic AI'ın yeni hayatı.

12. Mini Egzersizler#

  1. Symbolic vs connectionist görev: Bir LLM'e "1245 × 9876 hesapla" sorduğunda hata yapıyor. Çözüm tool use. Bu Marcus haklı mı Hinton haklı mı kanıtı?
  2. Bitter Lesson Türkiye'ye uygulansa: Türkçe LLM yapmak istiyoruz. Sutton bize "Türkçe-spesifik bilgi koyma, daha çok data + compute" der mi? Kararın ne?
  3. Symbol grounding: GPT-5 "kedi" derken neyi anlıyor? Symbolic tradition'ın klasik sorusu. Cevabın?
  4. Chain-of-thought: Model "Step 1: ... Step 2: ..." derken aslında ne yapıyor? Pattern matching mi yoksa real reasoning mi? Argumentin?
  5. Neuro-symbolic ürün: Türk hukuk firması için bir AI ürünü yapacaksın. Pure LLM mi, hybrid mi? Hangi parçaları sembolik (rule-based), hangisi NN?

Bu Derste Neler Öğrendik?#

Symbolic AI (1956-): LISP, Prolog, expert systems, mantık programlama ✓ Connectionism (1958-): nöral ağlar, distributed representation ✓ GOFAI vs Scruffy AI — kültürel ayrım ✓ Sutton'ın Bitter Lesson (2019) — scale kazanır ✓ Marcus vs Hinton tartışması — 2020s'in odağı ✓ LLM reasoning: hibrit (pattern + emergent symbolic-like) ✓ Tool use = connectionism + symbolic hibrit ✓ Neuro-symbolic araştırma — başarılı niş örnekler (AlphaGeometry, AlphaProof) ✓ AGI question: hangi yön baskın

Sıradaki Ders#

3.3 — İlk Başarılar: ImageNet, AlexNet, ResNet — Vision'da Big Bang 2012-2016 vision devrimi: AlexNet, VGG, Inception, ResNet, BatchNorm. Bu paper'lar transformer için zemin hazırladı. ResNet'in skip connection'ı modern her LLM'in temeli.

Frequently Asked Questions

Partially valid, partially outdated. Bender's 2021 claim: 'LLMs repeat statistical patterns from training corpus, don't understand.' **Today**: (1) Still weak out-of-distribution — valid. (2) 'Don't understand' claim — philosophical, since 'understanding' is contested. (3) **Reasoning models** (o1, R1) seem to go beyond pattern repetition — critique partially outdated. Bender remains a critical voice but mainstream LLM research disagrees.

Yorumlar & Soru-Cevap

(0)
Yorum yazmak için giriş yap.
Yorumlar yükleniyor...

Related Content