İçeriğe geç

Türkçe Vaka: Bankacılık Knowledge Assistant + KVKK

Türk bankacılık sektöründe (Akbank/Garanti/Yapı Kredi benzeri) LLM tabanlı asistan. BDDK, KVKK, PCI-DSS şartları altında caching mimarisi.

Şükrü Yusuf KAYA
14 dakikalık okuma
İleri

Türkçe Vaka: Bankacılık Asistanı

Senaryo: Türk bir banka (Akbank/Garanti/Yapı Kredi tarzı). Müşteri hizmetleri için LLM asistan. Düzenleyici şartlar:
  • BDDK — bankacılık düzenlemesi
  • KVKK — kişisel veri koruma
  • PCI-DSS — kart verisi güvenliği
  • Türkiye Cumhuriyet Merkez Bankası — finansal düzenleme
Caching mimarisi bu şartlara nasıl uyar?

Mimari: On-Prem + Cache Pattern#

Provider değil, self-hosted. Sebep: BDDK + KVKK kombinasyonu, müşteri verisi yurt dışına çıkamaz.

Niçin Self-Hosted?#

Provider Avantajları#

  • Setup kolay
  • Operasyon overhead'i yok
  • En modern modeller
  • Auto-scale
Veri yurt dışında

Self-Hosted Avantajları#

  • Veri on-prem (Türkiye'de)
  • BDDK ve KVKK garantili
  • Tam audit kontrolü
  • Network izolasyonu
Bankacılık için zorunlu

Mimari Bileşenler#

1. On-Prem vLLM Cluster#

  • 4× H100 80GB (Llama 3.1 70B fp16)
  • Prefix caching enabled
  • TLS within bank network
  • No internet egress

2. Cache Pool (Internal Redis)#

  • Tüm cache veri Türk veri merkezinde
  • Encryption at rest
  • Per-user cache isolation

3. Audit Layer#

Her sorgu loglanır:
{ "timestamp": "2026-04-01T10:34:21Z", "user_id_hashed": "sha256:abc...", "query_hash": "sha256:def...", "cache_hit": true, "response_hash": "sha256:ghi...", "compliance_flags": ["pii_redacted"] }
BDDK denetlemesi için audit log saklanır 10 yıl.

PII Handling#

Bankacılıkta PII katmanlı:
VeriRiskCaching
Müşteri adıDüşükRedact + cache OK
TCKNYüksekAsla cache, redact pre-LLM
Hesap noYüksekAsla cache, tool ile sorgula
Kart noÇok yüksekLLM'e hiç gönderme, tool only
BakiyeÇok yüksekLLM'e gönderme, tool sonucu user'a
def safe_query(user_query, user_session): # 1. PII redact clean_query = redact_pii(user_query) # 2. Yüksek riskli pattern'leri tool'a yönlendir if "bakiye" in clean_query.lower(): balance = banking_tool.get_balance(user_session.account_id) # balance'ı LLM'e gönderme; doğrudan user'a göster return f"Bakiyeniz: {balance:.2f} TL" # 3. LLM call (redacted, sadece KB ile) return llm.query(clean_query)

Cache Hit Rate Hedef#

Bankacılıkta sorular standart:
  • "Kart limitimi nasıl artırırım?"
  • "Şubem nerede?"
  • "Faiz oranı ne?"
  • "Sözleşme nasıl iptal edilir?"
Cache hit rate hedef: %96+ (sorular template'lere uyduğu için).
Müşteri hizmetleri call-center yükünü %60-70 azaltıyor.
Açıklanabilirlik
BDDK 2024 yönergesinde AI sistemler için "açıklanabilirlik" şartı geldi. LLM cevapları için "neden bu cevap?" açıklaması (citations) cache'lenmiş context'ten çekilmeli.

Cost Modeli (On-Prem)#

vLLM 4× H100 cluster:
  • GPU maliyeti: 2030K(satınalma)veya20-30K (satın alma) veya 5K/ay (kira)
  • Operasyon: 1 ML engineer + 1 DevOps yarı zamanlı
Karşılaştırma: Aynı sorgu hacmi (3M/ay) provider'da $48K/ay tutardı.
Break-even: ~7-12 ay. Bankacılık scale'inde self-hosted ekonomik + compliance.

✓ Pekiştir#

Bir Sonraki Derste#

Modül 13 bitirme sınavı.

Yorumlar & Soru-Cevap

(0)
Yorum yazmak için giriş yap.
Yorumlar yükleniyor...

İlgili İçerikler

Bağlantılı Pillar Konular

Bu yazının bağlandığı pillar konular