# Autoregressive Decoding ve O(n²) → O(n) Sihri

> Source: https://sukruyusufkaya.com/en/learn/prompt-caching-context-engineering/pcce-08-autoregressive-on2
> Updated: 2026-05-14T14:48:46.415Z
> Category: Prompt Caching & Context Engineering
> Module: 2. KV Cache Anatomisi — Caching'in Matematiksel Temeli
**TLDR:** LLM'ler tokenları teker teker üretir. Her yeni token için tüm geçmişe attention atılır. Naif yaklaşım O(n²) — patlama. KV cache trick'i bunu O(n)'e indirir. Bu dersi bitirince LLM inference'ın 'asıl optimizasyon noktası'nı göreceksin.

