İçeriğe geç

AI Etiği ve Sorumlu Yapay Zeka: Güçle Gelen Sorumluluk

AI etiğinin neden önemli olduğunu, ünlü vakaları (COMPAS, Amazon recruiting), düzenleyici çerçeveleri (EU AI Act, NIST RMF, OECD ilkeleri) ve sorumlu AI inşa etmek için pratik kontrol listelerini öğrenin.

Şükrü Yusuf KAYA
20 dakikalık okuma
Başlangıç
AI Etiği ve Sorumlu Yapay Zeka: Güçle Gelen Sorumluluk
🚨 AI gücüyle gelen sorumluluk
Bir AI modeli milyonlarca kararı saniyede üretir. Yanlış bir karar bir kişinin işsiz kalmasına, kredi alamamasına, hatta hapse girmesine sebep olabilir. Bu derste neyin yanlış gidebileceğini ve nasıl önleyeceğimizi göreceğiz.

AI etiği neden hızla yükseldi?#

AI bugün şu kararları otomatik veriyor veya etkiliyor:
  • 🏦 Kredi başvurusu kabul/red
  • 👮 Yüz tanıma ile suçlu tespiti
  • 🏥 Tıbbi tanı önerisi
  • 📰 Haber/içerik kişiselleştirme
  • 🚗 Otonom araç manevraları
  • ⚖️ Mahkûm tahliye risk skorlaması (yes, gerçek bir vaka)
Her birinde hatanın bedeli insan. Bu yüzden:
  1. Bias — model adil mi?
  2. Açıklanabilirlik — kararı izleyebiliyor muyuz?
  3. Mahremiyet — kişisel veri korunuyor mu?
  4. Güvenlik — hacklenir mi, manipüle edilir mi?
  5. Hesap verebilirlik — bir şey yanlış giderse kim sorumlu?
soruları kritik.
AI ve adalet kavramı görseli
AI, eğitildiği veriden bias'ı öğrenir. Veri tarihsel olarak adil değilse, model de adil değildir.

5 Ünlü AI Etik Vakası#

Gerçek dünyada AI'nın ne kadar yanlış gidebileceğini gösteren 5 olay. Açtıkça detaylar göreceksin.
Bağlam: ABD ceza adalet sisteminde COMPAS adlı bir AI, mahkûmların yeniden suç işleme riskini skorluyor. Hâkimler bu skoru kefalet ve tahliye kararlarında kullanıyor.
Sorun: ProPublica'nın 2016 araştırması: COMPAS, siyahi sanıkları beyaz sanıklara göre 2 kat daha sık 'yüksek risk' olarak yanlış sınıflandırıyor. Aslında suç işlemeyen siyahi mahkûmların %45'i high-risk olarak işaretlenirken, beyazlarda bu oran %23.
Ders: "Adil" tek bir tanım değil. Equal precision ile equal recall aynı anda mümkün olmayabilir (impossibility theorem).
Yürürlük takvimi:
  • 2 Ağustos 2024 — Yasa yürürlüğe girdi
  • 2 Şubat 2025 — Yasaklı uygulamalar (Article 5) yürürlükte: sosyal skorlama, biyometrik kategorizasyon, duygu tanıma (işyeri/eğitim), web'den yüz tarama, kamuda gerçek-zamanlı biyometri (sıkı istisnalarla)
  • 2 Ağustos 2025 — General-Purpose AI (GPAI) sağlayıcıları için şeffaflık ve telif uyumu zorunlulukları
  • 2 Ağustos 2026 — High-risk sistemler için tam uyum (CE markaj, conformity assessment, post-market monitoring)
  • 2 Ağustos 2027 — High-risk gömülü ürünler (otomobil, tıbbi cihaz)
4 risk seviyesi:
  • Unacceptable — yasaklı
  • High-risk — sıkı denetim (işe alım, kredi, eğitim, kritik altyapı, sınır kontrol, adalet)
  • Limited-risk — şeffaflık ("AI ile konuşuyorsun", deepfake etiketi)
  • Minimal-risk — serbest
Ceza: Yasaklı uygulama için 35M EUR veya global cironun %7'si (hangisi yüksekse). GPAI ihlali için 15M EUR / %3. GDPR'dan sert.
Etki: Türkiye'de mukim şirketler de tabidir eğer AB pazarına ürün koyuyor veya AB sakinine hizmet veriyorsa. "Brussels Effect" — küresel standart hâline geliyor.
⛔ Asla yapma listesi
(1) Cinsiyet/ırk/yaş özniteliklerini test etmeden modele ver. (2) Bias testini sadece accuracy ile yap. (3) Eğitim verisinin kaynağını dokümante etmeden production'a al. (4) Kullanıcılara LLM çıktısının doğru olduğunu garanti et. (5) AI'nın 'kara kutu olduğunu' öne sürerek sorumluluktan kaç. (6) Çocuklarla ilgili kararları AI'ya tek başına bırak.

🚨 Yaygın Sorunlar#

  • Veri bias'ı: Tarihsel veri tarafsız değil
  • Proxy bias: "Posta kodu" → ırk vekili
  • Feedback loop: Modelin önerisi gerçeği etkiler
  • Hallucination (LLM): Uydurma bilgi
  • Adversarial attacks: Modelin manipüle edilmesi
  • Privacy leak: Eğitim verisinin sızdırılması
  • Concept drift: Dünya değişir, model güncellenmez

✅ Pratik Çözümler#

  • Bias audit: Demografi bazlı performans
  • Fairness metrikleri: equal opportunity, demographic parity
  • Drift monitoring: Production'da metric tracking
  • Human-in-the-loop: Kritik kararlarda insan onayı
  • Model cards: Yetenek + sınırlamalar dökümante
  • DPIA: Data Protection Impact Assessment
  • Red teaming: Adversarial test ekibi

🛡️ AI Güvenliği: Etikten ayrı, daha somut bir disiplin#

AI etiği "doğru olanı yapmak" — adalet, açıklanabilirlik, mahremiyet. AI güvenliği ise "kötü niyetli aktörlere karşı sağlamlık" — bir saldırgan modeli nasıl kandırır, çalar veya zehirler? Bu iki kavram örtüşür ama aynı şey değildir.
NIST'in 2025 başında yayımladığı NIST AI 100-2e2025 ("Adversarial Machine Learning: A Taxonomy and Terminology") bu alanı 4 büyük saldırı kategorisine ayırır. Bunları tanımak Türkiye'de bir AI mühendisi için de zorunlu hale gelmiştir — özellikle finans, sağlık ve kamu projelerinde.
Saldırı: Girdiye insan gözüyle fark edilmeyen küçük bir 'gürültü' (perturbation) eklenir; model yanlış tahmin yapar.
Klasik örnek: Goodfellow et al. (2014) — bir panda fotoğrafına özel olarak hesaplanmış noise eklenince model %99 güvenle "gibon" der. İnsan gözünde fark sıfır.
Gerçek dünya örnekleri:
  • Trafik tabelalarına etiket yapıştırılarak Tesla autopilot'un "STOP"u "45 mph hız limiti" sanması (2020 araştırması)
  • Yüz tanıma sistemlerini yanıltan "adversarial glasses" (Sharif et al., 2016)
  • Spam filtreleri için Unicode homoglyph saldırıları (
    a
    yerine Kiril
    а
    )
Savunmalar:
  1. Adversarial training — eğitim verisine kasıtlı adversarial örnekler ekle
  2. Input preprocessing — JPEG sıkıştırma, denoising, randomized smoothing
  3. Ensemble defense — birden çok modelin çoğunluk oyu
  4. Certified robustness — matematiksel olarak garantili sağlamlık çevresi (örn. randomized smoothing ile L2 yarıçap garantisi)
Bilmen gereken: Mükemmel savunma yok. Defense-in-depth gerekir.
🚨 AI güvenliği üretim öncesi kontrol listesi
(1) Modelimi red-team ettirdim mi? (2) Eğitim verisi provenance'ı dokümante mi? (3) Modelim safetensors formatında mı yüklü? (4) API'm rate-limited mi, anormal sorgu desenleri loglanıyor mu? (5) Çıktıda PII filter var mı? (6) Adversarial örneklere karşı input validation katmanım var mı? (7) Production model'i shadow A/B testi ile gözlemliyorum, drift ve performans düşüşü için alarm kuruyorum mu? (8) Model card ve güvenlik notları yayımlandı mı? (9) Türk projelerinde: KVKK ve TBMM AI Yasa Teklifi'nin (önümüzdeki dönem yürürlük) gerekleri haritalandı mı? Bu listenin tamamına ✓ koymadan production'a alma.

AI Supply Chain — Saldırı yüzeyini gör#

Her ok bir saldırı yüzeyidir. Defense-in-depth = her okun üzerine doğrulama/imza/izleme katmanı kurmak.

Açıklanabilirlik (XAI — Explainable AI)#

"Model şunu önerdi" yetmez. Neden önerdiğini de söyleyebilmek regülasyonel bir zorunluluk (EU AI Act high-risk için).
XAI teknikleri:
  • SHAP (Shapley values) — her özniteliğin tahmine katkısı
  • LIME (Local Interpretable Model-agnostic Explanations) — yerel basit yaklaşım
  • Decision Tree visualizations — doğrudan ağaç çıkarma
  • Attention weights (transformers için) — model neye odaklandı
  • Counterfactual explanations — "hangi özelliği değiştirseydim cevap değişirdi"
"Modelimi anlayamıyorum" bir mühendislik özrü değildir. Üretim öncesi açıklanabilirlik yatırımı yap.
python
# SHAP ile açıklanabilirlik örneği
import shap
from sklearn.ensemble import RandomForestClassifier
from sklearn.datasets import load_iris
 
iris = load_iris()
model = RandomForestClassifier(random_state=42)
model.fit(iris.data, iris.target)
 
# Her tahminin nasıl üretildiğini açıkla
explainer = shap.TreeExplainer(model)
shap_values = explainer.shap_values(iris.data[0:5])
 
# Hangi öznitelik kararı ne kadar etkiledi?
shap.summary_plot(shap_values, iris.data, feature_names=iris.feature_names)
SHAP, her tahmini özellik bazında parçalara ayırır.
🇹🇷 Güncel: Türkiye'nin AI Yasa Süreci (Mayıs 2026)
24 Haziran 2024: İlk Kanun Teklifi TBMM'ye sunuldu (HDP Mv. Gergerlioğlu). 5 Ekim 2024: TBMM Yapay Zeka Araştırma Komisyonu kuruldu (oybirliği). Eylül 2025: 2. Teklif geldi (MHP Mv. Öztürk, 11 madde) — deepfake etiketleme zorunluluğu, ayrımcı veri yasakları, BTK'ya seçim güvenliği için acil müdahale yetkisi. Beklenti: 2026 sonunda yasalaşma. Yasa, EU AI Act'i yakın model alıyor (risk-bazlı, yasaklı uygulamalar, yüksek-risk denetimi). Halihazırda uygulanan: KVKK Madde 11+22 muadili otomatik karar itiraz hakkı, Anayasa Mahkemesi 2023-2024 emsal kararları. Pratik etki: Türk şirketi olsan da EU pazarına ürün koyuyorsan (veya EU sakinine hizmet veriyorsan) EU AI Act zaten seni bağlıyor — Brussels Effect.
🎓 Senin için sıradaki adımlar
(1) Andrew Ng's Machine Learning Specialization (Coursera) — klasik temel. (2) Hands-On ML with Scikit-Learn, Keras, TensorFlow (Aurélien Géron) — kitap. (3) Fast.ai Course — uygulamalı DL. (4) Kaggle'da bir kompetisyona katıl. (5) Bir model için model card yaz — sorumlu AI alışkanlığını edin.

Etik dersi sonu — son ders kaldı#

Buraya kadar:
AI'nın ne olduğunu ve ne olmadığını öğrendin. ✓ AI ⊃ ML ⊃ DL hiyerarşisini kavradın. ✓ 3 ML paradigmasını tanıdın. ✓ İlk modelini eğittin — Iris classifier. ✓ AI etiğinin neden ihmal edilemez olduğunu gördün.
Son ders bekliyor: "Modern AI: LLM'ler, Transformerlar ve Agentic Sistemler" — 2022'den bugüne AI peyzajını değiştiren her şey: Transformer mimarisi, RLHF, prompt engineering, RAG, fine-tuning, ajan sistemleri. Ardından final sınavı (12 soru, 40 dakika, sertifika).

Sık Sorulan Sorular

Evet. Final sınavını ilk denemende %70+ ile geçersen sistem otomatik LessonCertificate üretir. /learn/certificates sayfasından göreceksin.

Yorumlar & Soru-Cevap

(0)
Yorum yazmak için giriş yap.
Yorumlar yükleniyor...

İlgili İçerikler

Bağlantılı Pillar Konular

Bu yazının bağlandığı pillar konular