İçeriğe geç
Yapay Zeka·26 dk·13 Mayıs 2026·10

AI Mühendisi İçin Matematik Rehberi 2026: Hangi Konular, Ne Derinlik, Nasıl Öğrenilir?

AI/ML mühendisliği için gerekli matematik bilgisi detaylı rehberi: 5 ana alan (Lineer Cebir, Calculus, Olasılık + İstatistik, Optimization, Bilgi Teorisi), her alan için iş tipi'ne göre gereken derinlik (AI Engineer / ML Engineer / Research Scientist farklı), 50+ kavram detayı (vektör/matris/türev/gradient/eigenvalue/SVD/lambda/expected value/MLE/MAP/Adam/Lagrange/KL divergence), Türkçe + İngilizce öğrenme kaynakları (3Blue1Brown / Gilbert Strang / Khan Academy / BTK Akademi), Andrew Ng vs Andrej Karpathy yaklaşımı farkı, 6 aylık matematik öğrenme planı, hangi formülleri ezberlemek hangileri sezgi ile yeterli, AI mühendisliği için praktik matematik vs teorik akademi matematik, mühendislik mülakatında sorulan matematik soruları, sıfırdan başlayanlar için ders sırası, sıralı kitap önerileri.

SYK
Şükrü Yusuf KAYA
AI Expert · Kurumsal AI Danışmanı
Özet (TL;DR)

Tek cümlelik cevap: AI mühendisi için matematik 5 alan ama derinlik iş tipine bağlı — AI Engineer için %30 sezgi, Research için %95 rigor. 6 ayda sıfırdan yeterli temel.

  • AI mühendisliği için matematik 5 ana alan: (1) Lineer Cebir (vektör, matris, eigenvalue, SVD), (2) Calculus (türev, gradient, chain rule), (3) Olasılık + İstatistik (dağılımlar, expected value, Bayes), (4) Optimization (gradient descent, Adam, convex optimization), (5) Bilgi Teorisi (entropy, KL divergence, cross-entropy).
  • Gerekli derinlik İŞ TİPİNE BAĞLI: AI Engineer (LLM/RAG/agent) için %30 (sezgi yeterli), ML Engineer için %60 (orta), Research Scientist için %95 (matematiksel rigor + paper okuma).
  • ANDREW NG yaklaşımı: pratik sezgi + 'görseller', formul ezber min, ML/DL uygulamasına direkt geçiş. ANDREJ KARPATHY yaklaşımı: derinden anlama, scratch'tan implement, matematik biraz daha çok.
  • Sıfırdan 6 aylık matematik planı: Ay 1-2 Lineer Cebir, Ay 3 Calculus, Ay 4-5 Olasılık + İstatistik, Ay 6 Optimization + Bilgi Teorisi. Günde 1-2 saat haftada 7-14 saat.
  • En İYİ kaynaklar: 3Blue1Brown YouTube (sezgi şampiyonu, Türkçe altyazı), Khan Academy (interactive practice), Gilbert Strang MIT 18.06 (Lineer Cebir klasik), Mathematics for Machine Learning kitabı (Deisenroth, Faisal, Ong — ücretsiz PDF), İngilizce zorlananlar için BTK Akademi Lineer Cebir + Olasılık dersleri.
  • Ezber vs sezgi: Çoğu formul EZBERLEMEYE GEREK YOK — Python kütüphaneleri (numpy.linalg, scipy.optimize) işi yapar. Sezgi (NE yapar, NEDEN yapar) önemli.
  • Mühendislik mülakatlarında matematik: temel ML kavramlar (bias-variance, regularization, gradient descent), %5'lik soru. Research scientist mülakat: derin matematik %50+ soru.

1. Giriş: Matematik Sorusu — Türk AI Toplumunun En Yaygın Sorusu

"AI mühendisi olmak için ne kadar matematik bilmem lazım?" Türk öğrenci ve yazılım mühendislerinin en sık sorduğu soru. Cevap iş tipine bağlı.

2. 5 Ana Matematik Alanı

2.1 Lineer Cebir

Tanım
Lineer Cebir (Linear Algebra)
Vektör, matris ve onlarla yapılan işlemlerin teorisi. AI/ML'in BİRİNCİ matematik alanı. Tüm neural network'ler, embeddings, transformer attention, PCA, SVD lineer cebir üzerine kuruludur. Türkçe bazen 'Doğrusal Cebir' olarak da geçer.

AI/ML için kritik konular:

<comparison-table data-caption="Lineer Cebir — AI/ML Konuları" data-headers="["Konu","Ne için Lazım","Önem"]" data-rows='[{"feature":"Vektör + skaler işlemler","values":["Embedding, feature vector","Çok yüksek"]},{"feature":"Vektör norm (L1, L2)","values":["Regularization, distance","Çok yüksek"]},{"feature":"Dot product","values":["Similarity, attention scores","Çok yüksek"]},{"feature":"Cross product","values":["Az kullanılır AI/ML'de","Düşük"]},{"feature":"Matrix multiplication","values":["NN forward pass — TEMEL","Çok yüksek"]},{"feature":"Transpose","values":["Backprop, attention","Yüksek"]},{"feature":"Identity matrix","values":["Linear algebra temel","Orta"]},{"feature":"Inverse + determinant","values":["Lineer denklem çözümü, Cramer","Orta"]},{"feature":"Rank","values":["Veri boyutu, dimensionality reduction","Yüksek"]},{"feature":"Eigenvalue + eigenvector","values":["PCA, spectral clustering","Yüksek"]},{"feature":"SVD (Singular Value Decomposition)","values":["PCA, recommendation systems, LoRA","Çok yüksek"]},{"feature":"Orthogonality","values":["Linear independence, Gram-Schmidt","Orta"]},{"feature":"Trace","values":["Matrix calculus, KL divergence","Orta"]},{"feature":"Positive definite matrices","values":["Covariance, optimization","Orta"]},{"feature":"Matrix decomposition (LU, QR, Cholesky)","values":["Numerical methods (Python yapıyor)","Düşük"]},{"feature":"Tensor (>2D matrix)","values":["Multi-dimensional NN (image, video)","Çok yüksek"]}]'>

Pratik AI'da nasıl kullanılır:

  • Vektör: Word embedding 768 boyutlu vektör (BERT). Cosine similarity ile semantic search.
  • Matrix multiplication: Neural network'te output = activation(W @ input + b). Tek satır = milyonlarca işlem.
  • Eigenvalue: PCA için covariance matrix'in eigenvalue/eigenvector'ları bulunur.
  • SVD: LoRA fine-tuning'in ARKASINDA — büyük matris low-rank approximation ile değişir.
  • Tensor: PyTorch'ta her şey tensor. 4D tensor (batch, channel, height, width) görsel verisi.

2.2 Calculus (Diferansiyel + İntegral)

Tanım
Calculus
Türev (rate of change) ve integral (accumulation) teorisi. AI/ML'de OPTIMIZATION'un temeli — neural network eğitimi (backpropagation) calculus uygulamasıdır. Türkçe karşılığı 'Matematik Analiz' veya 'Diferansiyel Hesap'.

AI/ML için kritik konular:

Calculus — AI/ML Konuları
KonuNe için LazımÖnem
Türev (derivative)Gradient — neural network eğitiminin TEMELIÇok yüksek
Partial derivativeMulti-variable function — NN parametreleriÇok yüksek
Gradient (∇)Steepest ascent directionÇok yüksek
Chain ruleBackpropagation TEMEL formülüÇok yüksek
JacobianVector-valued function derivativeYüksek
HessianSecond-order optimization (Newton method)Orta
LimitSezgi düzeyindeDüşük
IntegralProbability density, expected valueOrta
Multiple integralsMulti-variable probabilityDüşük
Taylor seriesApproximation, optimization analysisOrta
Lagrange multipliersConstrained optimization (SVM)Orta
Differential equationsÇok özel uygulamalarÇok düşük

Pratik AI'da nasıl kullanılır:

  • Gradient descent: Loss function'ın gradient'ini hesapla, ters yöne git. AI eğitiminin tek paradigması.
  • Chain rule: Backpropagation = neural network'ün her katmanından gradient'i geriye doğru chain rule ile yaymak.
  • Jacobian: Multi-output function (neural network'ün çıktısı) gradient'i Jacobian matrix.

2.3 Olasılık + İstatistik

Tanım
Olasılık + İstatistik (Probability + Statistics)
Belirsizlik altında karar verme matematiği. AI/ML'de İKİNCİ büyük alan: tüm probabilistic models, Bayes inference, sampling, hypothesis testing bu alandadır.

AI/ML için kritik konular:

Olasılık + İstatistik — AI/ML Konuları
KonuNe için LazımÖnem
Olasılık aksiyomlarıTemel sezgiÇok yüksek
Conditional probability + BayesBayesian inference, classificationÇok yüksek
IndependenceNaive Bayes, feature independenceYüksek
Random variableML modelleri probabilisticÇok yüksek
PDF + CDFDistribution samplingYüksek
Expected value (E[X])Loss function (cross-entropy E[log p])Çok yüksek
Variance + stdUncertainty, regularizationÇok yüksek
Covariance + correlationFeature relationship, PCAYüksek
Normal dağılımÇok yaygın ML modellerindeÇok yüksek
Bernoulli + BinomialBinary classificationYüksek
MultinomialMulti-class classificationYüksek
PoissonSayma verisi, Poisson regressionOrta
ExponentialSurvival analysisDüşük
Beta + GammaConjugate priorsOrta (Bayesian)
Maximum Likelihood Estimation (MLE)Tüm probabilistic model eğitimiÇok yüksek
MAP (Maximum a Posteriori)MLE + prior (regularization)Yüksek
Hipotez testiA/B testingYüksek (Data Scientist için)
Confidence intervalBelirsizlik tahminiOrta-yüksek
p-valueİstatistiksel anlamlılıkYüksek (DS)
Cohens d / effect sizePratik anlamlılıkOrta
Type 1 / Type 2 hatasıHipotez testi yorumlamaYüksek
Central Limit TheoremSampling teorisiYüksek
Markov chainMCMC, language modelsOrta
Bayesian networksProbabilistic graphical modelsDüşük (specialized)

2.4 Optimization

Tanım
Optimization (En İyileme)
Bir function'ı (loss function) minimize veya maximize eden parametreleri bulma matematiği. Neural network eğitimi BÜYÜK ölçekte optimization problem'dir. Türkçe karşılığı 'En İyileme' veya 'Optimizasyon'.

AI/ML için kritik konular:

Optimization — AI/ML Konuları
KonuNe için LazımÖnem
Convex vs Non-convexFunction özellikleri, local vs global minimumYüksek
Gradient Descent (vanilla)Temel NN eğitim algoritmasıÇok yüksek
SGD (Stochastic GD)Mini-batch eğitimÇok yüksek
MomentumHızlandırılmış GDYüksek
Adam optimizerModern NN için varsayılanÇok yüksek
AdamWAdam + weight decayYüksek
Learning rate schedulingCosine, step decayYüksek
Newton methodSecond-order optimizationDüşük (pratik kullanım)
L-BFGSQuasi-NewtonDüşük (pratik)
Constrained optimizationSVM, linear programmingDüşük
Lagrange multipliersSVM kernel trickOrta
Convex optimizationLinear/logistic regressionOrta
Stochastic optimizationReinforcement learningDüşük (RL specialized)

2.5 Bilgi Teorisi (Information Theory)

Tanım
Bilgi Teorisi (Information Theory)
Claude Shannon'un 1948'de kurduğu, bilginin sayısal ölçümü ile ilgili matematik dalı. AI/ML'de loss function'ların temeli (cross-entropy) ve information bottleneck gibi modern AI kavramları için kritik.

AI/ML için kritik konular:

Bilgi Teorisi — AI/ML Konuları
KonuNe için LazımÖnem
Entropy (H(X))Belirsizlik ölçümüYüksek
Cross-entropyClassification loss functionÇok yüksek
KL divergenceDistribution farkı, VAE, GANÇok yüksek
JS divergenceKL'in simetrik versiyonuOrta
Mutual informationFeature selectionOrta
Conditional entropyDecision tree, info gainOrta
Information gainDecision tree splittingOrta
Channel capacityAkademik, az pratikDüşük

3. İş Tipine Göre Matematik Derinliği

3.1 AI Engineer Matematik Gereksinimi (%30)

3.2 ML Engineer Matematik Gereksinimi (%60)

3.3 Research Scientist Matematik Gereksinimi (%95)

4. Sıfırdan 6 Aylık Matematik Planı

4.1 Ay 1-2: Lineer Cebir

Ay 1-2 Lineer Cebir Planı
HaftaKonuKaynak
Hafta 1Vektör + skaler + operations3Blue1Brown 'Essence of Linear Algebra' Chapters 1-3 (TR altyazı) + Khan Academy
Hafta 2Matrix multiplication3Blue1Brown Ch 4-5 + Gilbert Strang MIT 18.06 Lecture 1-3
Hafta 3Inverse, determinantKhan Academy + Gilbert Strang Lecture 4-7
Hafta 4Vector space, basis3Blue1Brown Ch 6-7 + Strang Lecture 8-10
Hafta 5Eigenvalue + eigenvector3Blue1Brown Ch 10-11 + Khan Academy
Hafta 6SVD3Blue1Brown Ch 14 + 'Mathematics for ML' kitabı Ch 4
Hafta 7Orthogonality, projectionsStrang Lecture 15-17
Hafta 8PCA pratik (uygulama)Coursera Andrew Ng ML — PCA bölümü

Ay 1-2 milestone: PCA scratch'tan numpy ile implement (Iris veri seti üzerinde) — GitHub'a push.

4.2 Ay 3: Calculus

Ay 3 Calculus Planı
HaftaKonuKaynak
Hafta 9Türev temel3Blue1Brown 'Essence of Calculus' Ch 1-3 + Khan Academy
Hafta 10Partial derivative + gradient3Blue1Brown Multivariable Calculus + Khan Academy
Hafta 11Chain rule + backpropagationAndrej Karpathy 'micrograd' YouTube + paper okuma
Hafta 12Multi-variable optimizationMathematics for ML Ch 5

Ay 3 milestone: micrograd-tarzı autograd engine scratch'tan implement (Python). Backprop derinden anlama.

4.3 Ay 4-5: Olasılık + İstatistik

Ay 4-5 Plan
HaftaKonuKaynak
Hafta 13Olasılık temel + conditionalKhan Academy Statistics + Probability
Hafta 14Bayes theoremStatQuest YouTube Bayesian playlist (TR altyazı)
Hafta 15Distributions (Normal, Binomial, Poisson)Khan Academy + StatQuest
Hafta 16Expected value, varianceStatQuest + 'Think Stats' kitabı (ücretsiz)
Hafta 17MLE + MAPStatQuest MLE + MAP videos
Hafta 18Hypothesis testingKhan Academy + 'Think Stats'
Hafta 19A/B testingCoursera 'A/B Testing' (Google) + Eppo blog
Hafta 20Bayesian inference temel'Bayesian Statistics: The Fun Way' kitabı

Ay 4-5 milestone: Naive Bayes classifier scratch'tan implement + spam detection projesi.

4.4 Ay 6: Optimization + Bilgi Teorisi

Ay 6 Plan
HaftaKonuKaynak
Hafta 21Gradient descent + SGDMathematics for ML Ch 7
Hafta 22Adam optimizer + momentumAndrew Ng Deep Learning Specialization (optim bölümü)
Hafta 23Entropy + cross-entropyStatQuest Information Theory + Andrew Ng
Hafta 24KL divergenceStatQuest KL + paper okuma (VAE'de KL)

Ay 6 milestone: Logistic regression + neural network scratch'tan implement, cross-entropy loss + SGD ile eğit. Math'in NN'de nasıl çalıştığını derinden anla.

5. En İyi Kaynaklar — Detaylı

5.1 YouTube Kanalları

AI Matematik YouTube Kanalları
KanalKonuDilÖzelliği
3Blue1Brown (Grant Sanderson)Lineer cebir, calculus, MLİngilizce (TR altyazı)Sezgi şampiyonu, görsel
StatQuest (Josh Starmer)İstatistik, ML algoritmalarıİngilizceŞarkı + sezgi
Khan Academy (Sal Khan)Genel matematikİngilizce + TRInteractive exercises
Andrej KarpathyNeural network deepİngilizceScratch implementation
MIT OpenCourseWare (Strang)Lineer Cebir 18.06İngilizceAkademik klasik
Yannic KilcherAI paper okumalarıİngilizceModern paper analysis
Two Minute PapersAI/ML paper özetleriİngilizceKısa pratik
BTK Akademi (Türk)Matematik temelTürkçeTam ücretsiz
Atıl SamancıoğluPython + AITürkçeTürkçe AI eğitim

5.2 Ücretsiz Online Kurslar

Ücretsiz AI Matematik Kursları
KursPlatformSüre
Mathematics for Machine Learning SpecializationCoursera (Imperial College)3 ay (Financial Aid free)
Linear Algebra for MLDeepLearning.AI Coursera1 ay
Calculus for ML and Data ScienceDeepLearning.AI1 ay
Probability and Statistics for MLDeepLearning.AI1 ay
MIT 18.06 Linear AlgebraMIT OCW12 hafta
MIT 18.01 Single Variable CalculusMIT OCW12 hafta
Khan Academy Statistics & ProbabilityKhan AcademySelf-paced
BTK Akademi Lineer CebirBTKTürkçe ücretsiz

5.3 Kitaplar — Sıralı Tavsiye

AI Matematik Kitapları (Sıralı)
KitapYazarSeviyeÜcret
Mathematics for Machine LearningDeisenroth, Faisal, OngBaşlangıç-OrtaÜCRETSİZ PDF (mml-book.github.io)
Linear Algebra Done RightSheldon AxlerOrta$45
The Matrix CookbookPetersen, PedersenReferenceÜCRETSİZ PDF
Think StatsAllen DowneyBaşlangıçÜCRETSİZ PDF
Pattern Recognition and Machine LearningBishopOrta-İleri$80 (klasik)
Deep LearningGoodfellow, Bengio, CourvilleİleriÜCRETSİZ (deeplearningbook.org)
Convex OptimizationBoyd, VandenbergheİleriÜCRETSİZ PDF
Bayesian Statistics: The Fun WayWill KurtBaşlangıç$25
Statistical RethinkingRichard McElreathOrta$80 + ÜCRETSİZ video
Elements of Statistical LearningHastie, Tibshirani, FriedmanİleriÜCRETSİZ PDF

5.4 Türkçe Kaynaklar

6. Andrew Ng vs Andrej Karpathy — İki Yaklaşım

İki ünlü AI eğitmen, iki farklı pedagojik yaklaşım:

Ng vs Karpathy Yaklaşımı
BoyutAndrew NgAndrej Karpathy
FelsefePratik sezgi + minimum formulDerinlik + scratch implementation
Matematik derinlikOrta — yeterli minimumYüksek — her detay
Hedef öğrenciAI Engineer, ML EngineerResearch Scientist, ML Engineer derinleşen
İlk kursCoursera ML SpecializationYouTube Zero to Hero serisi
Süre3 ay (120 saat)12+ saat (yoğun)
FormatSlide + lecture + quiz + labLive coding + paper deep-dive
Dilİngilizce + TR altyazıİngilizce
AvantajYapılandırılmış müfredatDerinden anlama, scratch çalışma
DezavantajBazı detay kaçırılırSteep learning curve

6.1 Önerilen Hibrit Yol

7. Ezber vs Sezgi — Pratik Tavsiye

8. Mülakat Matematik Soruları

8.1 AI Engineer Mülakatı (Matematik %5)

Tipik sorular:

  • "Bias-variance tradeoff anlat"
  • "Cosine similarity ne, neden L2 yerine?"
  • "Overfitting nasıl tespit edilir?"

Bu seviyede sezgi yeterli, derin formul yok.

8.2 ML Engineer Mülakatı (Matematik %20-30)

Tipik sorular:

  • "Gradient descent vanishing gradient problemini nasıl çözer?"
  • "Adam optimizer vs SGD momentum farkı"
  • "L1 vs L2 regularization geometrik yorumu"
  • "Cross-entropy vs MSE neden classification için CE?"
  • "Logistic regression hangi loss'u minimize eder?"
  • "Random forest neden overfitting'e dirençli?"

Orta derinlik gerek, formul detay gerek değil.

8.3 Research Scientist Mülakatı (Matematik %50+)

Tipik sorular:

  • "Transformer attention formülünü derive et + complexity analizi"
  • "VAE KL divergence + reparameterization trick"
  • "Convergence proof gradient descent for convex function"
  • "Information bottleneck principle"

PhD-seviyesi, paper okuma + derive etme.

8.4 Pratik Mülakat Hazırlık

Nasıl Yapılır

ML Mülakat Matematik Hazırlık

  1. 1

    Pattern Recognition and Machine Learning (Bishop) Ch 1-3 oku

    Klasik ML temelleri — linear models, probability

  2. 2

    100-page ML Book (Burkov) oku

    Hızlı özet referans

  3. 3

    StatQuest 'Bias-Variance Tradeoff' + 'Cross-Validation' izle

    İki kritik kavram

  4. 4

    Karpathy 'micrograd' implement

    Backprop derinden anlama

  5. 5

    Andrew Ng DL Specialization Quiz'ler

    Math sorularla pratik

  6. 6

    Glassdoor Trendyol/Getir mülakat soruları

    Türk şirket mülakat tarz

  7. 7

    Mock interview

    Arkadaşla pratik (Pramp, interviewing.io platformları)

9. Sık Sorulan Matematik Sorusu Cevapları

9.1 "Bias-Variance Tradeoff Nedir?"

9.2 "Gradient Descent Nasıl Çalışır?"

9.3 "Backpropagation Nasıl Çalışır?"

9.4 "L1 vs L2 Regularization Farkı?"

10. Sık Sorulanlar

Soru: Matematik olmadan AI öğrenebilir miyim?

Soru: Calculus ne kadar derin öğrenmeliyim?

Türev + gradient + chain rule sezgi şart. Hessian (second derivative) opsiyonel. Integration (integral) AI/ML'de az lazım. Multivariable calculus orta. Real analysis (proof) gerek yok.

Soru: PhD'siz Research Scientist olabilir miyim?

Çok zor. Big tech research labs (DeepMind, OpenAI, Anthropic) çoğunlukla PhD ister. Industry research (Meta, Microsoft Research) MS + güçlü paper olabilir. AI Engineer / ML Engineer için PhD gerek değil.

Soru: Lineer cebir mi calculus mu önce?

Lineer cebir önce. Matrix multiplication + eigenvalue temel olmadan calculus ML'de zor. 3Blue1Brown sırasında: Linear Algebra → Calculus.

Soru: Matematik öğrenmek için Python lazım mı?

Hayır ama beraber öğrenmek FAYDALI. NumPy ile matrix mult'u implement et — sezgi pekişir.

Soru: Türkçe matematik kaynakları İngilizce kadar iyi mi?

3Blue1Brown Türkçe altyazılı — İngilizce ile eşdeğer. Khan Academy Türkçe tam aynı. BTK Akademi Türkçe iyi. İngilizce kaynaklar bol; Türkçe kaynaklarla başlayıp İngilizce'ye geç.

Soru: Mathematics for ML kitabı yeterli mi?

Evet, AI Engineer / ML Engineer için %80 yeterli. 400 sayfa, ücretsiz PDF. Research için ek olarak Bishop, Goodfellow, Strang.

Soru: Lise matematik bilgim zayıf — başlangıç ne?

Khan Academy'de Algebra 1 + Algebra 2 + Pre-Calculus + Calculus 1 sırasıyla. 3-6 ay temel matematik refresh. Sonra AI matematik.

Soru: AI matematik öğrenirken Coursera Plus mı ücretsiz mi?

Coursera Financial Aid (Türkiye onaylar) DeepLearning.AI Math for ML serisini ücretsiz veriyor. Önce başvur, kabul edilirse 6 ay ücretsiz erişim.

Soru: Karpathy Zero to Hero ne kadar zor?

İlk video kolay (1 saat) AMA derinlemesine. Backprop derive ediyor. 6 saatlik tüm seri yoğun. Andrew Ng DL Specialization tamamlandıktan sonra zaten önerilir.

Soru: AI mülakatlarında "tahtaya yaz" matematik var mı?

Türk şirketlerinde nadir. ABD top tier'da var (Google, Meta research roles). Tahtaya backprop derive etmek istenebilir. AI Engineer için yok, ML Engineer için bazen.

Soru: Matematik öğrenmeyi sevmiyorum — kariyer mümkün mü?

AI Engineer rolünde mümkün. LangChain + prompt engineering + API odaklı. Matematik %30 sezgi yeterli. Ama uzun vadede senior olmak için en azından temel sezgi şart.

11. Sonuç ve 30 Günlük Eylem Planı

3 ana çıkarım:

  1. AI matematik gereksinimi iş tipine bağlı: AI Engineer %30, ML Engineer %60, Research %95.
  2. 6 ay disiplinli matematik öğrenme yeterli — günde 1-2 saat + doğru kaynaklar (3Blue1Brown + Mathematics for ML + Karpathy).
  3. EZBERLEMEYE GEREK YOK — sezgi + Python kütüphaneleri yeterli. Çoğu formul numpy/PyTorch yapar.

30 günlük başlangıç planı:

Gün 1-7:

  • 3Blue1Brown "Essence of Linear Algebra" Bölüm 1-7 (TR altyazı)
  • Her gün 1 video + notes
  • Mathematics for ML kitabı PDF indir

Gün 8-14:

  • 3Blue1Brown "Essence of Linear Algebra" Bölüm 8-15
  • Khan Academy Lineer Cebir practice problems
  • Numpy ile matrix multiplication + eigenvalue scratch

Gün 15-21:

  • 3Blue1Brown "Essence of Calculus" Bölüm 1-7
  • Andrew Ng ML Specialization başla (Week 1-2)
  • Her hafta GitHub'a notebook push

Gün 22-30:

  • 3Blue1Brown Calculus Bölüm 8-12
  • Andrew Ng ML Week 3-4
  • StatQuest Bias-Variance + Cross-validation

6. ay sonu hedef: AI matematik %30 (AI Engineer için yeterli) + ilk ML proje GitHub'da + Kaggle Titanic submission.

Kaynaklar

  1. , Cambridge University Press ·
  2. , YouTube ·
  3. , Khan Academy ·
  4. , MIT OCW ·
  5. , YouTube ·
  6. , YouTube ·
  7. , Coursera ·
  8. , T.C. Cumhurbaşkanlığı ·
  9. , Springer ·
  10. , Green Tea Press ·
  11. , MIT Press ·
  12. , Cambridge ·

Danismanlik Baglantilari

Bu yazıya en yakın consulting sayfaları

Bu içerikten sonraki mantıklı adım için en ilgili solution, role ve industry landing'lerini burada görebilirsin.

Yorumlar

Yorumlar