Türkçe Vaka: Bankacılık Knowledge Assistant + KVKK
Türk bankacılık sektöründe (Akbank/Garanti/Yapı Kredi benzeri) LLM tabanlı asistan. BDDK, KVKK, PCI-DSS şartları altında caching mimarisi.
Şükrü Yusuf KAYA
14 min read
AdvancedTürkçe Vaka: Bankacılık Asistanı
Senaryo: Türk bir banka (Akbank/Garanti/Yapı Kredi tarzı). Müşteri hizmetleri için LLM asistan. Düzenleyici şartlar:
- BDDK — bankacılık düzenlemesi
- KVKK — kişisel veri koruma
- PCI-DSS — kart verisi güvenliği
- Türkiye Cumhuriyet Merkez Bankası — finansal düzenleme
Caching mimarisi bu şartlara nasıl uyar?
Mimari: On-Prem + Cache Pattern#
Provider değil, self-hosted. Sebep: BDDK + KVKK kombinasyonu, müşteri verisi yurt dışına çıkamaz.
Niçin Self-Hosted?#
Provider Avantajları#
- Setup kolay
- Operasyon overhead'i yok
- En modern modeller
- Auto-scale
❌ Veri yurt dışında
Self-Hosted Avantajları#
- Veri on-prem (Türkiye'de)
- BDDK ve KVKK garantili
- Tam audit kontrolü
- Network izolasyonu
✅ Bankacılık için zorunlu
Mimari Bileşenler#
1. On-Prem vLLM Cluster#
- 4× H100 80GB (Llama 3.1 70B fp16)
- Prefix caching enabled
- TLS within bank network
- No internet egress
2. Cache Pool (Internal Redis)#
- Tüm cache veri Türk veri merkezinde
- Encryption at rest
- Per-user cache isolation
3. Audit Layer#
Her sorgu loglanır:
{ "timestamp": "2026-04-01T10:34:21Z", "user_id_hashed": "sha256:abc...", "query_hash": "sha256:def...", "cache_hit": true, "response_hash": "sha256:ghi...", "compliance_flags": ["pii_redacted"] }
BDDK denetlemesi için audit log saklanır 10 yıl.
PII Handling#
Bankacılıkta PII katmanlı:
| Veri | Risk | Caching |
|---|---|---|
| Müşteri adı | Düşük | Redact + cache OK |
| TCKN | Yüksek | Asla cache, redact pre-LLM |
| Hesap no | Yüksek | Asla cache, tool ile sorgula |
| Kart no | Çok yüksek | LLM'e hiç gönderme, tool only |
| Bakiye | Çok yüksek | LLM'e gönderme, tool sonucu user'a |
def safe_query(user_query, user_session): # 1. PII redact clean_query = redact_pii(user_query) # 2. Yüksek riskli pattern'leri tool'a yönlendir if "bakiye" in clean_query.lower(): balance = banking_tool.get_balance(user_session.account_id) # balance'ı LLM'e gönderme; doğrudan user'a göster return f"Bakiyeniz: {balance:.2f} TL" # 3. LLM call (redacted, sadece KB ile) return llm.query(clean_query)
Cache Hit Rate Hedef#
Bankacılıkta sorular standart:
- "Kart limitimi nasıl artırırım?"
- "Şubem nerede?"
- "Faiz oranı ne?"
- "Sözleşme nasıl iptal edilir?"
Cache hit rate hedef: %96+ (sorular template'lere uyduğu için).
Müşteri hizmetleri call-center yükünü %60-70 azaltıyor.
Açıklanabilirlik
BDDK 2024 yönergesinde AI sistemler için "açıklanabilirlik" şartı geldi. LLM cevapları için "neden bu cevap?" açıklaması (citations) cache'lenmiş context'ten çekilmeli.
Cost Modeli (On-Prem)#
vLLM 4× H100 cluster:
- GPU maliyeti: 5K/ay (kira)
- Operasyon: 1 ML engineer + 1 DevOps yarı zamanlı
Karşılaştırma: Aynı sorgu hacmi (3M/ay) provider'da $48K/ay tutardı.
Break-even: ~7-12 ay. Bankacılık scale'inde self-hosted ekonomik + compliance.
✓ Pekiştir#
Bir Sonraki Derste#
Modül 13 bitirme sınavı.
Yorumlar & Soru-Cevap
(0)Yorum yazmak için giriş yap.
Yorumlar yükleniyor...
Related Content
1. Temeller — Context Penceresi Ekonomisi
Bu Eğitim Hakkında ve Prompt Caching Neden Önemli?
Start Learning1. Temeller — Context Penceresi Ekonomisi
Token Ekonomisi 101: Input vs Output Cost Asimetrisi
Start Learning1. Temeller — Context Penceresi Ekonomisi
Context Window Evrimi: 4K'dan 1M'a 5 Yılda Ne Oldu?
Start LearningConnected pillar topics