Sistem Tasarımı + Kod + Davranışsal + Maaş Görüşmesi
AI mülakatının pratik kısımları: 5 sistem tasarımı vakası (Türkçe RAG, recommendation, fraud detection, LLM cost optimization, multi-tenant platform), 5 kod sorusu (numpy/pandas/sklearn/PyTorch/LangChain), 10 davranışsal STAR senaryosu ve Türkiye + remote pazarı için maaş görüşmesi taktikleri.
Şükrü Yusuf KAYA
40 dakikalık okuma
Orta🎯 Mülakatın 'pratik' yarısı
Ders 11 konsept bilgisi içindi. Bu derste gerçek mülakat formatlarını uygulayacağız: sistem tasarımı (whiteboard tarzı), kod (LeetCode + ML-spesifik), davranışsal (STAR), maaş görüşmesi. Bu format'ları 5+ kez mock interview ile pratik etmeden mülakata girme — ne kadar bilgili olursan ol, format'a hâkim olmazsan elenirsin.
🏗️ Bölüm 1: Sistem Tasarımı (5 Vaka)#
Format: 45-60 dakika, beyaz tahta (online ise Excalidraw/whiteboard.io), tek/iki mülakatçı.
Doğru yaklaşım:
Önemli: Mülakatçı sürekli sorular sorar — diyaloga gir, monoloğa girme. Açık soru, varsayım belirt.
Soru: Trendyol için Türkçe müşteri hizmetleri RAG asistanı tasarla. 5M ürün, 100K aktif kullanıcı, ortalama 50K eş zamanlı oturum.
1. Clarify (5dk):
- Soru tipleri: ürün soruları, iade/şikayet, sipariş takip, genel sorular?
- Dil: sadece Türkçe yoksa TR+EN+AR multimodel?
- Latency hedefi: <2sn first token, <10sn complete?
- Doğruluk: hallucination tolere etmek istemiyoruz; iadeler kritik
- Maliyet bütçesi: kullanıcı başına $0.10-0.50 makul?
2. High-level (10dk):
3. Deep dive (20dk):
Indexing pipeline (offline):
- 5M ürün × 5 chunk/ürün = 25M chunk
- Embedding: (1024 dim)
intfloat/multilingual-e5-large - Storage: pgvector (HNSW index, 25M × 1024 × 4byte = 100GB; uygun)
- Update: SKU değişikliği webhook → 5-15dk içinde reindex
Online flow:
- 50K eş zamanlı session × peak 5 req/min = 4K RPS
- Router LLM (Haiku, ~50ms): %80 sorular küçük modele yönlendirilir → maliyet 5x azalır
- RAG retrieval: top-20 → BGE re-rank → top-5
- Generation: Claude Opus 4, streaming, temp=0
- Citation validator: cevap içindeki iddialar kaynak chunk'larda var mı (LLM-as-judge)
4. Failure modes:
- LLM API down: graceful degradation → human escalation
- pgvector down: read-only cache; reads from replica
- Maliyet patlaması: rate limit per user (50 mesaj/saat) + alarm
5. Cost + alternative:
- Aylık: ~50K'ya düş
- Alternatif: Self-host Trendyol-LLM-70B → aylık $30K compute ama %15-20 kalite düşüşü
- A/B test ile geçiş kararı
Mülakatçı tipik takip soruları:
- "Yeni ürün eklendiğinde indeksleme ne kadar sürer?"
- "Bir kullanıcı yıllar öncesi sözleşme detayını soruyorsa?" → context window strategy
- "Hallucination yüzünden müşteriye yanlış iade vaadi verildi, ne yaparsın?" → guardrail + insan onayı
💻 Bölüm 2: Kod Soruları (5 Örnek)#
Format: Coderpad / HackerRank / Whiteboard, 30-60 dakika her soru.
Doğru yaklaşım:
- Soruyu anla (3 dk) — örnek input/output netleştir
- Brute force çöz (5 dk) — bir şey çalışıyor olsun
- Optimize et (15 dk) — time/space complexity tartış
- Test et (5 dk) — edge case'leri kafanda çalıştır
Sesli düşün — sessiz çözmek mülakatçıya güvensizlik verir.
Soru: Bir query vektör (1024 dim) ve 10M doc vektör matrisi (10M × 1024) verildi. Top-K (K=10) en benzer doc'u verimli bul.
Naif çözüm (yavaş):
def naive_topk(query, docs, k=10): sims = [] for doc in docs: # 10M iterasyon sim = np.dot(query, doc) / (np.linalg.norm(query) * np.linalg.norm(doc)) sims.append(sim) return np.argsort(sims)[-k:]
Karmaşıklık: O(N × D) = O(10^10) — Python loop ile dakikalarca.
Vectorized çözüm (hızlı):
def topk_cosine(query, docs, k=10): # Önceden L2 normalize edilmiş olduğunu varsay (production'da bir kez yap) query_norm = query / np.linalg.norm(query) docs_norm = docs / np.linalg.norm(docs, axis=1, keepdims=True) # Tek matrix multiply — BLAS hızlandırması sims = docs_norm @ query_norm # shape (10M,) # np.argpartition O(N) — argsort O(N log N)'den hızlı top_k_idx = np.argpartition(sims, -k)[-k:] return top_k_idx[np.argsort(sims[top_k_idx])][::-1]
Karmaşıklık: O(N × D) ama BLAS'la dakika değil saniye.
Production optimization:
- Pre-normalize docs (offline): cache et
docs_norm - Batch query: 100 query × 10M doc → single matmul (100 × 1024) @ (1024 × 10M) = (100 × 10M)
- ANN (FAISS, HNSW): O(log N) yaklaşık arama; %99 recall ile 100x daha hızlı
Mülakatçı takip soruları:
- "10M vektör belleğe sığmazsa?" → mmap, FAISS disk index
- "Online sürekli yeni doc ekleniyor?" → incremental HNSW (FAISS, hnswlib)
- "GPU varsa?" → cuBLAS ile 10-100x hızlanma
Zayıf cevap tuzakları:
- Brute force ile bitirmek (optimization göstermemek)
- BLAS'ı bilmemek
- ANN konseptini atlamak
🎭 Bölüm 3: Davranışsal (STAR) Senaryolar (10 Adet)#
STAR formatı:
- S — Situation (30s): Bağlam — şirket, takım, durum
- T — Task (15s): Senin sorumluluğun
- A — Action (60s): Sen ne yaptın (takım değil — sen)
- R — Result (30s): Ölçülebilir sonuç + öğrendiklerin
Süre toplam ~90-120 saniye — uzun cevap suiştir; kısa cevap detaysız kalır.
Niye sorulur: Self-awareness + büyüme zihniyeti testi.
Tuzaklar: "Aslında başarısızlık değil de..." (kaçma); başarısızlığı başkasına atmak; ders çıkarmamış görünmek.
Örnek STAR cevap:
S: 2024'te Trendyol'da kişisel öneri sistemi için yeni bir Two-Tower model deploy ettim. Offline metric'lerde +%8 CTR iyileşmesi gösterdi.T: A/B test'i ben yürütüyordum, deployment kararı bana aitti.A: Offline metric'lere güvenip %20'lik trafikle canary deploy ettim. Ama production'da CTR aslında -%3 düştü. Hemen rollback yapmadım — bir gün daha bekledim, hata "noise'tır" diye düşünerek. İkinci gün GMV de düştü; o zaman rollback yaptım. Sonra root cause analysis: feature pipeline'da training ile serving arasında bir tutarsızlık vardı — training'de bir feature normalize edilmişti, serving'de ham değer veriliyordu (training-serving skew).R: 24 saatlik gecikme bize yaklaşık ₺400K kayıp ettirdi. Çıkardığım dersler: (1) Offline-online metric divergence olduğunda anında rollback yap, inceleme sonra. (2) Feature pipeline parity için CI testi yazdık. (3) Shadow deployment'ı production öncesi standart haline getirdik. Bir sonraki deploy'da aynı tuzağı yakaladık — şimdi tüm ekibimiz bu süreç takip ediyor.
Neden iyi cevap:
- Sahiplenme (suç atmama)
- Net sayı (₺400K, 24 saat)
- Yapılandırılmış ders çıkarma (3 madde)
- Ders'in eylemlere dönüştüğünü göstermek (CI test, shadow deploy)
Bu senaryo türü mülakatçının duymak istediği: "Sahiplendiğin bir hata + net çıkarım + eyleme dökme".
💰 Bölüm 4: Maaş Görüşmesi — Türkiye Pazarı & Remote#
Çıplak gerçek: Doğru yapılmış bir maaş görüşmesi senin kariyer maaşlarının kümülatif değerini ₺2-5M artırır. Bu beceri teknik beceriden bazen daha değerli.
Görüşmeye girmeden önce:
Türkiye için kaynaklar (2026):
- Coderspace Maaş Raporu (yıllık, açık)
- yazilimcimaaslari.org (community-driven)
- Glassdoor TR (gerçek deneyimler)
- LinkedIn Salary Insights (network'ünden gerçek veri)
- Türkiye Yapay Zeka İnisiyatifi Discord — anonim sorular sorabilirsin
Remote için:
- Levels.fyi (FAANG + büyük tech)
- AI Hardware compensation database (özelleştirilmiş)
- HackerNews Hiring threads
Senin için 3 sayı belirle:
- Walk-away (alt sınır): bu rakamın altına asla razı olma
- Hedef: makul olarak isteyebileceğin
- Aspirational: piyasada ALL-TIME üst, deneme
Örnek (2026 Mid-level AI Engineer İstanbul):
- Walk-away: ₺200K/ay (TC + base + benefits)
- Hedef: ₺250-280K/ay
- Aspirational: ₺350K/ay (Trendyol senior band)
Bu 3 sayıyı yazıya dök. Görüşmede duyduklarına göre ezilme — referansa dön.
🎓 Kursun Sonu — Şimdi Ne Yapacaksın?#
Tebrikler! AI Mülakat Hazırlığı modülünü ve Yapay Zeka'ya Giriş kursunu tamamladın.
Bu 12 derste neyi başardık?#
✓ 9 temel ders — AI/ML/DL temelleri + modern LLM + güvenlik + Türkçe AI + glossary
✓ 3 mülakat dersi — süreç + 50 soru + sistem tasarımı + kod + davranışsal + maaş
✓ Toplam ~340 dakika (5.7 saat) yoğun içerik
✓ 191 + 56 = ~247 blok öğretim materyali
✓ 32 sorulu final quiz (100dk, %70 ile sertifika)
Yol haritan (kursun sonrası)#
0-30 gün:
- Final sınavını ver, sertifikayı al
- CV'ni güncelle (Ders 10'daki şablon)
- LinkedIn'i optimize et + hedef şirket listesi yap
30-60 gün:
4. Bir kişisel proje yayımla (Türkçe RAG asistanı, fine-tune denemesi, vb.)
5. 5+ mock interview pratik
6. 30 başvuru gönder (Tier 3 → Tier 2 → Tier 1)
60-90 gün:
7. Aktif mülakat süreçleri
8. Counter-offer + maaş görüşmesi
9. Karar ver — en uygun teklifi al
Son söz#
AI alanı hızlı değişiyor — öğrenmek bitmiyor. Bu kurs sana temeli verdi. Üstüne ne inşa edeceğini sen seçeceksin.
Tek istek: Bu kursu beğendiysen, bir başkasına öner. Türkiye'de güçlü Türkçe içerik az; her referans değerli.
İletişim: sukruyusufkaya.com üzerinden ulaşabilirsin. Mülakat tecrübelerini paylaşırsan, gelecek versiyonların içeriğini sen şekillendirmiş olursun.
Başarılar. 🚀
Sık Sorulan Sorular
Bu 5 vaka **en sık çıkan AI sistem tasarımı kalıplarını** kapsar (RAG, recommendation, fraud, cost optimization, multi-tenant). **Daha fazla**: (1) Alex Xu'nun 'ML System Design Interview' kitabı (15 vaka, derinlemesine). (2) Chip Huyen 'Designing Machine Learning Systems' — daha üst seviye. (3) Pramp / interviewing.io mock interview'da gerçek system design pratik. (4) Şirketin engineering blog'larından **gerçek mimarileri** oku (Trendyol Tech, Getir Tech blog, Hepsiburada Tech).
Yorumlar & Soru-Cevap
(0)Yorum yazmak için giriş yap.
Yorumlar yükleniyor...