AI Mühendisi İçin Matematik Rehberi 2026: Hangi Konular, Ne Derinlik, Nasıl Öğrenilir?
AI/ML mühendisliği için gerekli matematik bilgisi detaylı rehberi: 5 ana alan (Lineer Cebir, Calculus, Olasılık + İstatistik, Optimization, Bilgi Teorisi), her alan için iş tipi'ne göre gereken derinlik (AI Engineer / ML Engineer / Research Scientist farklı), 50+ kavram detayı (vektör/matris/türev/gradient/eigenvalue/SVD/lambda/expected value/MLE/MAP/Adam/Lagrange/KL divergence), Türkçe + İngilizce öğrenme kaynakları (3Blue1Brown / Gilbert Strang / Khan Academy / BTK Akademi), Andrew Ng vs Andrej Karpathy yaklaşımı farkı, 6 aylık matematik öğrenme planı, hangi formülleri ezberlemek hangileri sezgi ile yeterli, AI mühendisliği için praktik matematik vs teorik akademi matematik, mühendislik mülakatında sorulan matematik soruları, sıfırdan başlayanlar için ders sırası, sıralı kitap önerileri.
Tek cümlelik cevap: AI mühendisi için matematik 5 alan ama derinlik iş tipine bağlı — AI Engineer için %30 sezgi, Research için %95 rigor. 6 ayda sıfırdan yeterli temel.
- AI mühendisliği için matematik 5 ana alan: (1) Lineer Cebir (vektör, matris, eigenvalue, SVD), (2) Calculus (türev, gradient, chain rule), (3) Olasılık + İstatistik (dağılımlar, expected value, Bayes), (4) Optimization (gradient descent, Adam, convex optimization), (5) Bilgi Teorisi (entropy, KL divergence, cross-entropy).
- Gerekli derinlik İŞ TİPİNE BAĞLI: AI Engineer (LLM/RAG/agent) için %30 (sezgi yeterli), ML Engineer için %60 (orta), Research Scientist için %95 (matematiksel rigor + paper okuma).
- ANDREW NG yaklaşımı: pratik sezgi + 'görseller', formul ezber min, ML/DL uygulamasına direkt geçiş. ANDREJ KARPATHY yaklaşımı: derinden anlama, scratch'tan implement, matematik biraz daha çok.
- Sıfırdan 6 aylık matematik planı: Ay 1-2 Lineer Cebir, Ay 3 Calculus, Ay 4-5 Olasılık + İstatistik, Ay 6 Optimization + Bilgi Teorisi. Günde 1-2 saat haftada 7-14 saat.
- En İYİ kaynaklar: 3Blue1Brown YouTube (sezgi şampiyonu, Türkçe altyazı), Khan Academy (interactive practice), Gilbert Strang MIT 18.06 (Lineer Cebir klasik), Mathematics for Machine Learning kitabı (Deisenroth, Faisal, Ong — ücretsiz PDF), İngilizce zorlananlar için BTK Akademi Lineer Cebir + Olasılık dersleri.
- Ezber vs sezgi: Çoğu formul EZBERLEMEYE GEREK YOK — Python kütüphaneleri (numpy.linalg, scipy.optimize) işi yapar. Sezgi (NE yapar, NEDEN yapar) önemli.
- Mühendislik mülakatlarında matematik: temel ML kavramlar (bias-variance, regularization, gradient descent), %5'lik soru. Research scientist mülakat: derin matematik %50+ soru.
1. Giriş: Matematik Sorusu — Türk AI Toplumunun En Yaygın Sorusu
"AI mühendisi olmak için ne kadar matematik bilmem lazım?" Türk öğrenci ve yazılım mühendislerinin en sık sorduğu soru. Cevap iş tipine bağlı.
2. 5 Ana Matematik Alanı
2.1 Lineer Cebir
- Lineer Cebir (Linear Algebra)
- Vektör, matris ve onlarla yapılan işlemlerin teorisi. AI/ML'in BİRİNCİ matematik alanı. Tüm neural network'ler, embeddings, transformer attention, PCA, SVD lineer cebir üzerine kuruludur. Türkçe bazen 'Doğrusal Cebir' olarak da geçer.
AI/ML için kritik konular:
<comparison-table data-caption="Lineer Cebir — AI/ML Konuları" data-headers="["Konu","Ne için Lazım","Önem"]" data-rows='[{"feature":"Vektör + skaler işlemler","values":["Embedding, feature vector","Çok yüksek"]},{"feature":"Vektör norm (L1, L2)","values":["Regularization, distance","Çok yüksek"]},{"feature":"Dot product","values":["Similarity, attention scores","Çok yüksek"]},{"feature":"Cross product","values":["Az kullanılır AI/ML'de","Düşük"]},{"feature":"Matrix multiplication","values":["NN forward pass — TEMEL","Çok yüksek"]},{"feature":"Transpose","values":["Backprop, attention","Yüksek"]},{"feature":"Identity matrix","values":["Linear algebra temel","Orta"]},{"feature":"Inverse + determinant","values":["Lineer denklem çözümü, Cramer","Orta"]},{"feature":"Rank","values":["Veri boyutu, dimensionality reduction","Yüksek"]},{"feature":"Eigenvalue + eigenvector","values":["PCA, spectral clustering","Yüksek"]},{"feature":"SVD (Singular Value Decomposition)","values":["PCA, recommendation systems, LoRA","Çok yüksek"]},{"feature":"Orthogonality","values":["Linear independence, Gram-Schmidt","Orta"]},{"feature":"Trace","values":["Matrix calculus, KL divergence","Orta"]},{"feature":"Positive definite matrices","values":["Covariance, optimization","Orta"]},{"feature":"Matrix decomposition (LU, QR, Cholesky)","values":["Numerical methods (Python yapıyor)","Düşük"]},{"feature":"Tensor (>2D matrix)","values":["Multi-dimensional NN (image, video)","Çok yüksek"]}]'>
Pratik AI'da nasıl kullanılır:
- Vektör: Word embedding 768 boyutlu vektör (BERT). Cosine similarity ile semantic search.
- Matrix multiplication: Neural network'te
output = activation(W @ input + b). Tek satır = milyonlarca işlem. - Eigenvalue: PCA için covariance matrix'in eigenvalue/eigenvector'ları bulunur.
- SVD: LoRA fine-tuning'in ARKASINDA — büyük matris low-rank approximation ile değişir.
- Tensor: PyTorch'ta her şey tensor. 4D tensor (batch, channel, height, width) görsel verisi.
2.2 Calculus (Diferansiyel + İntegral)
- Calculus
- Türev (rate of change) ve integral (accumulation) teorisi. AI/ML'de OPTIMIZATION'un temeli — neural network eğitimi (backpropagation) calculus uygulamasıdır. Türkçe karşılığı 'Matematik Analiz' veya 'Diferansiyel Hesap'.
AI/ML için kritik konular:
| Konu | Ne için Lazım | Önem |
|---|---|---|
| Türev (derivative) | Gradient — neural network eğitiminin TEMELI | Çok yüksek |
| Partial derivative | Multi-variable function — NN parametreleri | Çok yüksek |
| Gradient (∇) | Steepest ascent direction | Çok yüksek |
| Chain rule | Backpropagation TEMEL formülü | Çok yüksek |
| Jacobian | Vector-valued function derivative | Yüksek |
| Hessian | Second-order optimization (Newton method) | Orta |
| Limit | Sezgi düzeyinde | Düşük |
| Integral | Probability density, expected value | Orta |
| Multiple integrals | Multi-variable probability | Düşük |
| Taylor series | Approximation, optimization analysis | Orta |
| Lagrange multipliers | Constrained optimization (SVM) | Orta |
| Differential equations | Çok özel uygulamalar | Çok düşük |
Pratik AI'da nasıl kullanılır:
- Gradient descent: Loss function'ın gradient'ini hesapla, ters yöne git. AI eğitiminin tek paradigması.
- Chain rule: Backpropagation = neural network'ün her katmanından gradient'i geriye doğru chain rule ile yaymak.
- Jacobian: Multi-output function (neural network'ün çıktısı) gradient'i Jacobian matrix.
2.3 Olasılık + İstatistik
- Olasılık + İstatistik (Probability + Statistics)
- Belirsizlik altında karar verme matematiği. AI/ML'de İKİNCİ büyük alan: tüm probabilistic models, Bayes inference, sampling, hypothesis testing bu alandadır.
AI/ML için kritik konular:
| Konu | Ne için Lazım | Önem |
|---|---|---|
| Olasılık aksiyomları | Temel sezgi | Çok yüksek |
| Conditional probability + Bayes | Bayesian inference, classification | Çok yüksek |
| Independence | Naive Bayes, feature independence | Yüksek |
| Random variable | ML modelleri probabilistic | Çok yüksek |
| PDF + CDF | Distribution sampling | Yüksek |
| Expected value (E[X]) | Loss function (cross-entropy E[log p]) | Çok yüksek |
| Variance + std | Uncertainty, regularization | Çok yüksek |
| Covariance + correlation | Feature relationship, PCA | Yüksek |
| Normal dağılım | Çok yaygın ML modellerinde | Çok yüksek |
| Bernoulli + Binomial | Binary classification | Yüksek |
| Multinomial | Multi-class classification | Yüksek |
| Poisson | Sayma verisi, Poisson regression | Orta |
| Exponential | Survival analysis | Düşük |
| Beta + Gamma | Conjugate priors | Orta (Bayesian) |
| Maximum Likelihood Estimation (MLE) | Tüm probabilistic model eğitimi | Çok yüksek |
| MAP (Maximum a Posteriori) | MLE + prior (regularization) | Yüksek |
| Hipotez testi | A/B testing | Yüksek (Data Scientist için) |
| Confidence interval | Belirsizlik tahmini | Orta-yüksek |
| p-value | İstatistiksel anlamlılık | Yüksek (DS) |
| Cohens d / effect size | Pratik anlamlılık | Orta |
| Type 1 / Type 2 hatası | Hipotez testi yorumlama | Yüksek |
| Central Limit Theorem | Sampling teorisi | Yüksek |
| Markov chain | MCMC, language models | Orta |
| Bayesian networks | Probabilistic graphical models | Düşük (specialized) |
2.4 Optimization
- Optimization (En İyileme)
- Bir function'ı (loss function) minimize veya maximize eden parametreleri bulma matematiği. Neural network eğitimi BÜYÜK ölçekte optimization problem'dir. Türkçe karşılığı 'En İyileme' veya 'Optimizasyon'.
AI/ML için kritik konular:
| Konu | Ne için Lazım | Önem |
|---|---|---|
| Convex vs Non-convex | Function özellikleri, local vs global minimum | Yüksek |
| Gradient Descent (vanilla) | Temel NN eğitim algoritması | Çok yüksek |
| SGD (Stochastic GD) | Mini-batch eğitim | Çok yüksek |
| Momentum | Hızlandırılmış GD | Yüksek |
| Adam optimizer | Modern NN için varsayılan | Çok yüksek |
| AdamW | Adam + weight decay | Yüksek |
| Learning rate scheduling | Cosine, step decay | Yüksek |
| Newton method | Second-order optimization | Düşük (pratik kullanım) |
| L-BFGS | Quasi-Newton | Düşük (pratik) |
| Constrained optimization | SVM, linear programming | Düşük |
| Lagrange multipliers | SVM kernel trick | Orta |
| Convex optimization | Linear/logistic regression | Orta |
| Stochastic optimization | Reinforcement learning | Düşük (RL specialized) |
2.5 Bilgi Teorisi (Information Theory)
- Bilgi Teorisi (Information Theory)
- Claude Shannon'un 1948'de kurduğu, bilginin sayısal ölçümü ile ilgili matematik dalı. AI/ML'de loss function'ların temeli (cross-entropy) ve information bottleneck gibi modern AI kavramları için kritik.
AI/ML için kritik konular:
| Konu | Ne için Lazım | Önem |
|---|---|---|
| Entropy (H(X)) | Belirsizlik ölçümü | Yüksek |
| Cross-entropy | Classification loss function | Çok yüksek |
| KL divergence | Distribution farkı, VAE, GAN | Çok yüksek |
| JS divergence | KL'in simetrik versiyonu | Orta |
| Mutual information | Feature selection | Orta |
| Conditional entropy | Decision tree, info gain | Orta |
| Information gain | Decision tree splitting | Orta |
| Channel capacity | Akademik, az pratik | Düşük |
3. İş Tipine Göre Matematik Derinliği
3.1 AI Engineer Matematik Gereksinimi (%30)
3.2 ML Engineer Matematik Gereksinimi (%60)
3.3 Research Scientist Matematik Gereksinimi (%95)
4. Sıfırdan 6 Aylık Matematik Planı
4.1 Ay 1-2: Lineer Cebir
| Hafta | Konu | Kaynak |
|---|---|---|
| Hafta 1 | Vektör + skaler + operations | 3Blue1Brown 'Essence of Linear Algebra' Chapters 1-3 (TR altyazı) + Khan Academy |
| Hafta 2 | Matrix multiplication | 3Blue1Brown Ch 4-5 + Gilbert Strang MIT 18.06 Lecture 1-3 |
| Hafta 3 | Inverse, determinant | Khan Academy + Gilbert Strang Lecture 4-7 |
| Hafta 4 | Vector space, basis | 3Blue1Brown Ch 6-7 + Strang Lecture 8-10 |
| Hafta 5 | Eigenvalue + eigenvector | 3Blue1Brown Ch 10-11 + Khan Academy |
| Hafta 6 | SVD | 3Blue1Brown Ch 14 + 'Mathematics for ML' kitabı Ch 4 |
| Hafta 7 | Orthogonality, projections | Strang Lecture 15-17 |
| Hafta 8 | PCA pratik (uygulama) | Coursera Andrew Ng ML — PCA bölümü |
Ay 1-2 milestone: PCA scratch'tan numpy ile implement (Iris veri seti üzerinde) — GitHub'a push.
4.2 Ay 3: Calculus
| Hafta | Konu | Kaynak |
|---|---|---|
| Hafta 9 | Türev temel | 3Blue1Brown 'Essence of Calculus' Ch 1-3 + Khan Academy |
| Hafta 10 | Partial derivative + gradient | 3Blue1Brown Multivariable Calculus + Khan Academy |
| Hafta 11 | Chain rule + backpropagation | Andrej Karpathy 'micrograd' YouTube + paper okuma |
| Hafta 12 | Multi-variable optimization | Mathematics for ML Ch 5 |
Ay 3 milestone: micrograd-tarzı autograd engine scratch'tan implement (Python). Backprop derinden anlama.
4.3 Ay 4-5: Olasılık + İstatistik
| Hafta | Konu | Kaynak |
|---|---|---|
| Hafta 13 | Olasılık temel + conditional | Khan Academy Statistics + Probability |
| Hafta 14 | Bayes theorem | StatQuest YouTube Bayesian playlist (TR altyazı) |
| Hafta 15 | Distributions (Normal, Binomial, Poisson) | Khan Academy + StatQuest |
| Hafta 16 | Expected value, variance | StatQuest + 'Think Stats' kitabı (ücretsiz) |
| Hafta 17 | MLE + MAP | StatQuest MLE + MAP videos |
| Hafta 18 | Hypothesis testing | Khan Academy + 'Think Stats' |
| Hafta 19 | A/B testing | Coursera 'A/B Testing' (Google) + Eppo blog |
| Hafta 20 | Bayesian inference temel | 'Bayesian Statistics: The Fun Way' kitabı |
Ay 4-5 milestone: Naive Bayes classifier scratch'tan implement + spam detection projesi.
4.4 Ay 6: Optimization + Bilgi Teorisi
| Hafta | Konu | Kaynak |
|---|---|---|
| Hafta 21 | Gradient descent + SGD | Mathematics for ML Ch 7 |
| Hafta 22 | Adam optimizer + momentum | Andrew Ng Deep Learning Specialization (optim bölümü) |
| Hafta 23 | Entropy + cross-entropy | StatQuest Information Theory + Andrew Ng |
| Hafta 24 | KL divergence | StatQuest KL + paper okuma (VAE'de KL) |
Ay 6 milestone: Logistic regression + neural network scratch'tan implement, cross-entropy loss + SGD ile eğit. Math'in NN'de nasıl çalıştığını derinden anla.
5. En İyi Kaynaklar — Detaylı
5.1 YouTube Kanalları
| Kanal | Konu | Dil | Özelliği |
|---|---|---|---|
| 3Blue1Brown (Grant Sanderson) | Lineer cebir, calculus, ML | İngilizce (TR altyazı) | Sezgi şampiyonu, görsel |
| StatQuest (Josh Starmer) | İstatistik, ML algoritmaları | İngilizce | Şarkı + sezgi |
| Khan Academy (Sal Khan) | Genel matematik | İngilizce + TR | Interactive exercises |
| Andrej Karpathy | Neural network deep | İngilizce | Scratch implementation |
| MIT OpenCourseWare (Strang) | Lineer Cebir 18.06 | İngilizce | Akademik klasik |
| Yannic Kilcher | AI paper okumaları | İngilizce | Modern paper analysis |
| Two Minute Papers | AI/ML paper özetleri | İngilizce | Kısa pratik |
| BTK Akademi (Türk) | Matematik temel | Türkçe | Tam ücretsiz |
| Atıl Samancıoğlu | Python + AI | Türkçe | Türkçe AI eğitim |
5.2 Ücretsiz Online Kurslar
| Kurs | Platform | Süre |
|---|---|---|
| Mathematics for Machine Learning Specialization | Coursera (Imperial College) | 3 ay (Financial Aid free) |
| Linear Algebra for ML | DeepLearning.AI Coursera | 1 ay |
| Calculus for ML and Data Science | DeepLearning.AI | 1 ay |
| Probability and Statistics for ML | DeepLearning.AI | 1 ay |
| MIT 18.06 Linear Algebra | MIT OCW | 12 hafta |
| MIT 18.01 Single Variable Calculus | MIT OCW | 12 hafta |
| Khan Academy Statistics & Probability | Khan Academy | Self-paced |
| BTK Akademi Lineer Cebir | BTK | Türkçe ücretsiz |
5.3 Kitaplar — Sıralı Tavsiye
| Kitap | Yazar | Seviye | Ücret |
|---|---|---|---|
| Mathematics for Machine Learning | Deisenroth, Faisal, Ong | Başlangıç-Orta | ÜCRETSİZ PDF (mml-book.github.io) |
| Linear Algebra Done Right | Sheldon Axler | Orta | $45 |
| The Matrix Cookbook | Petersen, Pedersen | Reference | ÜCRETSİZ PDF |
| Think Stats | Allen Downey | Başlangıç | ÜCRETSİZ PDF |
| Pattern Recognition and Machine Learning | Bishop | Orta-İleri | $80 (klasik) |
| Deep Learning | Goodfellow, Bengio, Courville | İleri | ÜCRETSİZ (deeplearningbook.org) |
| Convex Optimization | Boyd, Vandenberghe | İleri | ÜCRETSİZ PDF |
| Bayesian Statistics: The Fun Way | Will Kurt | Başlangıç | $25 |
| Statistical Rethinking | Richard McElreath | Orta | $80 + ÜCRETSİZ video |
| Elements of Statistical Learning | Hastie, Tibshirani, Friedman | İleri | ÜCRETSİZ PDF |
5.4 Türkçe Kaynaklar
6. Andrew Ng vs Andrej Karpathy — İki Yaklaşım
İki ünlü AI eğitmen, iki farklı pedagojik yaklaşım:
| Boyut | Andrew Ng | Andrej Karpathy |
|---|---|---|
| Felsefe | Pratik sezgi + minimum formul | Derinlik + scratch implementation |
| Matematik derinlik | Orta — yeterli minimum | Yüksek — her detay |
| Hedef öğrenci | AI Engineer, ML Engineer | Research Scientist, ML Engineer derinleşen |
| İlk kurs | Coursera ML Specialization | YouTube Zero to Hero serisi |
| Süre | 3 ay (120 saat) | 12+ saat (yoğun) |
| Format | Slide + lecture + quiz + lab | Live coding + paper deep-dive |
| Dil | İngilizce + TR altyazı | İngilizce |
| Avantaj | Yapılandırılmış müfredat | Derinden anlama, scratch çalışma |
| Dezavantaj | Bazı detay kaçırılır | Steep learning curve |
6.1 Önerilen Hibrit Yol
7. Ezber vs Sezgi — Pratik Tavsiye
8. Mülakat Matematik Soruları
8.1 AI Engineer Mülakatı (Matematik %5)
Tipik sorular:
- "Bias-variance tradeoff anlat"
- "Cosine similarity ne, neden L2 yerine?"
- "Overfitting nasıl tespit edilir?"
Bu seviyede sezgi yeterli, derin formul yok.
8.2 ML Engineer Mülakatı (Matematik %20-30)
Tipik sorular:
- "Gradient descent vanishing gradient problemini nasıl çözer?"
- "Adam optimizer vs SGD momentum farkı"
- "L1 vs L2 regularization geometrik yorumu"
- "Cross-entropy vs MSE neden classification için CE?"
- "Logistic regression hangi loss'u minimize eder?"
- "Random forest neden overfitting'e dirençli?"
Orta derinlik gerek, formul detay gerek değil.
8.3 Research Scientist Mülakatı (Matematik %50+)
Tipik sorular:
- "Transformer attention formülünü derive et + complexity analizi"
- "VAE KL divergence + reparameterization trick"
- "Convergence proof gradient descent for convex function"
- "Information bottleneck principle"
PhD-seviyesi, paper okuma + derive etme.
8.4 Pratik Mülakat Hazırlık
ML Mülakat Matematik Hazırlık
- 1
Pattern Recognition and Machine Learning (Bishop) Ch 1-3 oku
Klasik ML temelleri — linear models, probability
- 2
100-page ML Book (Burkov) oku
Hızlı özet referans
- 3
StatQuest 'Bias-Variance Tradeoff' + 'Cross-Validation' izle
İki kritik kavram
- 4
Karpathy 'micrograd' implement
Backprop derinden anlama
- 5
Andrew Ng DL Specialization Quiz'ler
Math sorularla pratik
- 6
Glassdoor Trendyol/Getir mülakat soruları
Türk şirket mülakat tarz
- 7
Mock interview
Arkadaşla pratik (Pramp, interviewing.io platformları)
9. Sık Sorulan Matematik Sorusu Cevapları
9.1 "Bias-Variance Tradeoff Nedir?"
9.2 "Gradient Descent Nasıl Çalışır?"
9.3 "Backpropagation Nasıl Çalışır?"
9.4 "L1 vs L2 Regularization Farkı?"
10. Sık Sorulanlar
Soru: Matematik olmadan AI öğrenebilir miyim?
Soru: Calculus ne kadar derin öğrenmeliyim?
Türev + gradient + chain rule sezgi şart. Hessian (second derivative) opsiyonel. Integration (integral) AI/ML'de az lazım. Multivariable calculus orta. Real analysis (proof) gerek yok.
Soru: PhD'siz Research Scientist olabilir miyim?
Çok zor. Big tech research labs (DeepMind, OpenAI, Anthropic) çoğunlukla PhD ister. Industry research (Meta, Microsoft Research) MS + güçlü paper olabilir. AI Engineer / ML Engineer için PhD gerek değil.
Soru: Lineer cebir mi calculus mu önce?
Lineer cebir önce. Matrix multiplication + eigenvalue temel olmadan calculus ML'de zor. 3Blue1Brown sırasında: Linear Algebra → Calculus.
Soru: Matematik öğrenmek için Python lazım mı?
Hayır ama beraber öğrenmek FAYDALI. NumPy ile matrix mult'u implement et — sezgi pekişir.
Soru: Türkçe matematik kaynakları İngilizce kadar iyi mi?
3Blue1Brown Türkçe altyazılı — İngilizce ile eşdeğer. Khan Academy Türkçe tam aynı. BTK Akademi Türkçe iyi. İngilizce kaynaklar bol; Türkçe kaynaklarla başlayıp İngilizce'ye geç.
Soru: Mathematics for ML kitabı yeterli mi?
Evet, AI Engineer / ML Engineer için %80 yeterli. 400 sayfa, ücretsiz PDF. Research için ek olarak Bishop, Goodfellow, Strang.
Soru: Lise matematik bilgim zayıf — başlangıç ne?
Khan Academy'de Algebra 1 + Algebra 2 + Pre-Calculus + Calculus 1 sırasıyla. 3-6 ay temel matematik refresh. Sonra AI matematik.
Soru: AI matematik öğrenirken Coursera Plus mı ücretsiz mi?
Coursera Financial Aid (Türkiye onaylar) DeepLearning.AI Math for ML serisini ücretsiz veriyor. Önce başvur, kabul edilirse 6 ay ücretsiz erişim.
Soru: Karpathy Zero to Hero ne kadar zor?
İlk video kolay (1 saat) AMA derinlemesine. Backprop derive ediyor. 6 saatlik tüm seri yoğun. Andrew Ng DL Specialization tamamlandıktan sonra zaten önerilir.
Soru: AI mülakatlarında "tahtaya yaz" matematik var mı?
Türk şirketlerinde nadir. ABD top tier'da var (Google, Meta research roles). Tahtaya backprop derive etmek istenebilir. AI Engineer için yok, ML Engineer için bazen.
Soru: Matematik öğrenmeyi sevmiyorum — kariyer mümkün mü?
AI Engineer rolünde mümkün. LangChain + prompt engineering + API odaklı. Matematik %30 sezgi yeterli. Ama uzun vadede senior olmak için en azından temel sezgi şart.
11. Sonuç ve 30 Günlük Eylem Planı
3 ana çıkarım:
- AI matematik gereksinimi iş tipine bağlı: AI Engineer %30, ML Engineer %60, Research %95.
- 6 ay disiplinli matematik öğrenme yeterli — günde 1-2 saat + doğru kaynaklar (3Blue1Brown + Mathematics for ML + Karpathy).
- EZBERLEMEYE GEREK YOK — sezgi + Python kütüphaneleri yeterli. Çoğu formul numpy/PyTorch yapar.
30 günlük başlangıç planı:
Gün 1-7:
- 3Blue1Brown "Essence of Linear Algebra" Bölüm 1-7 (TR altyazı)
- Her gün 1 video + notes
- Mathematics for ML kitabı PDF indir
Gün 8-14:
- 3Blue1Brown "Essence of Linear Algebra" Bölüm 8-15
- Khan Academy Lineer Cebir practice problems
- Numpy ile matrix multiplication + eigenvalue scratch
Gün 15-21:
- 3Blue1Brown "Essence of Calculus" Bölüm 1-7
- Andrew Ng ML Specialization başla (Week 1-2)
- Her hafta GitHub'a notebook push
Gün 22-30:
- 3Blue1Brown Calculus Bölüm 8-12
- Andrew Ng ML Week 3-4
- StatQuest Bias-Variance + Cross-validation
6. ay sonu hedef: AI matematik %30 (AI Engineer için yeterli) + ilk ML proje GitHub'da + Kaggle Titanic submission.
Kaynaklar
- Mathematics for Machine Learning (ücretsiz PDF) — Deisenroth, Faisal, Ong, Cambridge University Press ·
- 3Blue1Brown — Grant Sanderson, YouTube ·
- Khan Academy Math — Khan Academy, Khan Academy ·
- MIT 18.06 Linear Algebra — Gilbert Strang, MIT OCW ·
- StatQuest with Josh Starmer — Josh Starmer, YouTube ·
- Andrej Karpathy YouTube — Andrej Karpathy, YouTube ·
- DeepLearning.AI Math for ML Specialization — Luis Serrano, Coursera ·
- BTK Akademi — BTK, T.C. Cumhurbaşkanlığı ·
- Pattern Recognition and Machine Learning — Christopher Bishop, Springer ·
- Think Stats — Allen Downey, Green Tea Press ·
- Deep Learning Book — Goodfellow, Bengio, Courville, MIT Press ·
- Convex Optimization — Boyd, Vandenberghe, Cambridge ·
Danismanlik Baglantilari
Bu yazıya en yakın consulting sayfaları
Bu içerikten sonraki mantıklı adım için en ilgili solution, role ve industry landing'lerini burada görebilirsin.
E-Ticaret icin Arama, Oneri ve Destek Asistanlari
Urun kesfi, destek operasyonu ve icerik sureclerini yapay zeka ile guclendirerek gelir ve memnuniyet artisi saglayan sistemler.
Kurumsal RAG Sistemleri Gelistirme
Sirket ici bilgiye kaynakli, guvenli ve denetlenebilir erisim saglayan uretim seviyesinde RAG mimarileri.
AI Agent ve Workflow Otomasyonu
Tek adimli chatbot'larin otesine gecen; arac, kural ve insan onayi ile ilerleyen AI destekli is akislarina gecis.