Unit Economics Vocabulary: COGS, Gross Margin, $/User, Contribution Margin — 9 Financial Concepts Every AI Engineer Must Know
9 financial concepts you need to calculate an AI product's real cost: COGS, Gross Margin, $/Request, $/User, $/MAU, Contribution Margin, CAC, LTV, Payback Period. Each with concrete LLM examples.
Şükrü Yusuf KAYA
25 min read
Beginner🎯 Bu derste ne öğreneceksin
Mühendisken patronun (veya CFO'nun) ofisine girip "AI maliyetimiz neden yüksek?" sorusuna finans dilinde cevap verebilmen için 9 kavram. Her kavramı önce 1 cümlede tanımlayacağım, sonra LLM dünyasından gerçek bir örnekle göstereceğim, sonra bir Python hesap fonksiyonu vereceğim.
Neden mühendisin finans diline ihtiyacı var?#
Klasik mühendislik kariyerinde "finans işi, finansçının işi" diye bir savunma var. AI dünyasında bu savunma yıkıldı. Sebebi basit: AI feature'larında COGS doğrudan kodunla belirleniyor.
Bir veritabanı sorgusunun COGS'u çok küçük ve sabit. Ama bir LLM çağrısının COGS'u 0.01 da. Senin yazdığın prompt belirliyor. Bu yüzden mühendis ile finansçı arasındaki sözlük açığı kapanmak zorunda.
Bu ders, açığı 25 dakikada kapatma rehberi.
1️⃣ COGS — Cost of Goods Sold (Satılan Malın Maliyeti)#
Tanım: Bir birim ürünü/hizmeti müşteriye teslim etmenin doğrudan değişken maliyeti.
Geleneksel SaaS'ta COGS = sunucu maliyeti + ödeme komisyonu + müşteri hizmetleri. Genelde gelirin %10-20'si.
AI SaaS'ta COGS = LLM API çağrıları + vector DB + GPU saat + bunların hepsi. Bu yüzden bir AI feature'da brüt marjlar %50'nin altına kolayca düşebilir.
LLM örneği#
Bir doküman özetleme ürününün bir kullanımının COGS'u:
python
def calculate_request_cogs(input_tokens: int, output_tokens: int) -> dict: """Bir Sonnet 4.6 doküman özetleme çağrısının COGS'u.""" INPUT_PRICE_PER_1M = 3.00 # $/M input tokens OUTPUT_PRICE_PER_1M = 15.00 # $/M output tokens llm_cost = (input_tokens / 1_000_000) * INPUT_PRICE_PER_1M + \ (output_tokens / 1_000_000) * OUTPUT_PRICE_PER_1M # Yandaki katkı kalemleri: embedding_cost = 0.0002 # bir embedding sorgusu vector_db_cost = 0.0001 # bir Pinecone query server_cost = 0.0003 # FastAPI processing time total_cogs = llm_cost + embedding_cost + vector_db_cost + server_cost return { "llm_cost": round(llm_cost, 5), "infra_cost": round(embedding_cost + vector_db_cost + server_cost, 5), "total_cogs": round(total_cogs, 5), "llm_share_pct": round(llm_cost / total_cogs * 100, 1), } # Tipik: 4K input + 600 output tokensprint(calculate_request_cogs(4000, 600))# {'llm_cost': 0.021, 'infra_cost': 0.0006, 'total_cogs': 0.02160, 'llm_share_pct': 97.2}Bir Sonnet 4.6 özetleme çağrısının COGS hesabı. LLM toplam maliyetin %97'sini oluşturuyor.
💡 Anahtar içgörü
AI SaaS'larda LLM toplam COGS'un %85-99'unu oluşturuyor. Bu yüzden 'sunucu maliyetini optimize edelim' demek anlamsız — gerçek savaş prompt token sayısında.
2️⃣ Gross Margin (Brüt Kâr Marjı)#
Tanım:
Gross Margin = (Gelir - COGS) / Gelir × 100Yatırımcı için SaaS'ın kalite göstergesi. Klasik SaaS'larda hedef %75-85. Sektör ortalaması: %72 (Public SaaS Index 2025).
AI SaaS'ta tarihte ilk kez %50-65 band normalleşti. OpenAI'ın 2024 sonu raporlanan gross margin'i %25 civarındaydı (sebebi: GPU maliyeti). Anthropic'in 2025 sonu raporlanan margin'i ~%55. ChatGPT Plus'ın asıl margin'i %50'lerin altında.
Bu yüzden bir AI ürün kurarken hedefin minimum %70 gross margin olmalı. Bu kursun amaçlarından biri bunu mümkün kılmak.
Hesap örneği#
Kullanıcı ayda 0.0216 (yukarıdaki örnek):
Aylık gelir/kullanıcı = $20.00 Aylık COGS/kullanıcı = 100 × $0.0216 = $2.16 Gross Margin = ($20 - $2.16) / $20 = 89.2% ✅ harika
Ya kullanıcı 1000 sorgu yapsa?
Aylık gelir/kullanıcı = $20.00 Aylık COGS/kullanıcı = 1000 × $0.0216 = $21.60 Gross Margin = ($20 - $21.60) / $20 = -8% ❌ kayıp
Power user'lar margin'i öldürür. Bu yüzden modül 15'te "soft cap, hard cap, throttle" konusunu derinlemesine konuşacağız.
3️⃣ $/Request (İstek Başına Maliyet)#
Tanım: Bir LLM çağrısının ortalama maliyeti.
Mühendislik perspektifinden en kullanışlı metrik. Çünkü:
- Doğrudan prompt'una bağlı
- Doğrudan kullandığın modele bağlı
- Optimizasyonun tek seferde gözlenebilir etkisi var
Hedef: $/Request'i kaliteyi düşürmeden minimize etmek. Bu kursun tüm 2-12. modülleri bu metriği aşağı çekme tekniklerine ayrılmış.
İyi vs kötü baseline#
- Bir basit chatbot mesajı: $0.001-0.005 iyi
- Bir RAG cevabı: $0.01-0.05 iyi
- Bir agent araştırması: $0.10-0.50 kabul edilebilir
- Bir capacity-document analysis: $1-5 kabul edilebilir
Eğer chatbot mesajın $0.05'e mal oluyorsa bir yerlerde sorun var.
4️⃣ $/User (Kullanıcı Başına Maliyet)#
Tanım:
$/User = Σ $/Request × ortalama istek sayısıBu, SaaS modelinin can damarı. Sabit ücretli (/User abonelik fiyatından çok küçük olmalı.
Tipik dağılım:
- %10 power user kullanıcının %60 token harcamasını yapar
- %50 light user sadece %15 harcar
- %40 mid user %25 harcar
Bu, "free tier" tasarımının niye karmaşık olduğunu açıklıyor. Modül 16'da bu dağılımı ekonomik olarak nasıl yöneteceğini göstereceğim.
Hesap fonksiyonu#
python
def cost_per_user_per_month( daily_requests_avg: float, avg_input_tokens: int, avg_output_tokens: int, input_price_per_1m: float = 3.0, output_price_per_1m: float = 15.0,) -> dict: monthly_requests = daily_requests_avg * 30 cost_per_req = (avg_input_tokens / 1_000_000) * input_price_per_1m + \ (avg_output_tokens / 1_000_000) * output_price_per_1m monthly_cost = cost_per_req * monthly_requests return { "monthly_requests": int(monthly_requests), "cost_per_req_usd": round(cost_per_req, 5), "monthly_cost_usd": round(monthly_cost, 2), } # 3 kullanıcı tipi karşılaştırma:light = cost_per_user_per_month(2, 2_000, 400)mid = cost_per_user_per_month(15, 3_000, 600)power = cost_per_user_per_month(80, 5_000, 1200) print("Light:", light) # ~$1.4/ayprint("Mid:", mid) # ~$13/ayprint("Power:", power) # ~$130/ay ⚠️ subscription'ı yiyorAynı $20/ay subscription'da 3 kullanıcı tipinin aylık maliyeti — power user şirketi zarara sokar.
5️⃣ $/MAU (Aylık Aktif Kullanıcı Başına Maliyet)#
Tanım: Toplam aylık AI gideri ÷ Monthly Active Users.
Investor pitch deck'lerinin baş köşesinde sevilen metrik. Çünkü ürün-pazar uyumunu maliyet boyutuyla gösteriyor.
İyi benchmark'lar (2026):
- Tüketici AI app (Cursor, Perplexity tipi): $1.50-4 / MAU
- B2B AI feature (Notion AI, Slack AI tipi): $3-12 / MAU
- Enterprise agent (Sierra, Glean tipi): $40-200 / MAU
Eğer freemium modelin varsa, $/MAU DAU bazında değil MAU bazında ölçülmeli — çünkü bütün aktif kullanıcılar para ödemez.
6️⃣ Contribution Margin (Katkı Marjı)#
Tanım:
Contribution Margin = Revenue per User - Variable Costs per UserGross Margin'in birim bazında halı. Yani: bir kullanıcı işime $X kâr getiriyor (sabit maliyetler hariç).
Neden ayrı bir metrik? Çünkü iki feature'ın aynı gross margin'i olabilir ama contribution margin'leri çok farklı olabilir. Stratejik karar (özelliği büyütmeli mi?) bu seviyede verilir.
LLM çerçevesinde#
| Feature | Revenue/User | Variable Cost/User | Contribution Margin |
|---|---|---|---|
| Smart Search | $5 | $0.30 | $4.70 (94%) |
| AI Summary | $5 | $1.80 | $3.20 (64%) |
| AI Agent | $5 | $4.50 | $0.50 (10%) |
Üç feature da aynı $5 fiyatla satılıyor ama "AI Agent" feature'ı şirkete neredeyse hiç kâr getirmiyor. Fiyatlandırmayı revize etmen veya feature'ı pahalı kullanıcıdan tahsil etmen lazım.
7️⃣ CAC — Customer Acquisition Cost (Müşteri Kazanım Maliyeti)#
Tanım: Bir yeni ödeme yapan müşteriyi getirmek için harcanan pazarlama + satış gideri.
LLM'le ne ilgisi var? Çünkü AI ürünleri tipik olarak ya çok hızlı yayılır (low CAC) ya da uzun satış sürecine takılır (high CAC). Bu, fiyatlandırma stratejini etkiler.
- B2C AI ürünleri: CAC genelde $5-30
- B2B SaaS AI: CAC genelde $200-2000
- Enterprise AI: CAC genelde $5K-50K
CAC vs $/User#
CAC, kazanım maliyeti. $/User ise hizmet maliyeti. İkisi farklı muhasebe kovaları.
8️⃣ LTV — Lifetime Value (Yaşam Boyu Değer)#
Tanım: Bir müşterinin ömrü boyunca getireceği toplam kâr.
Basit formül:
LTV = (Average Revenue per User × Gross Margin) / Churn Rate
Örnek (B2C AI app, aylık $20, %85 gross margin, aylık %5 churn):
LTV = ($20 × 0.85) / 0.05 = $340
LTV / CAC oranı#
- 3+ sağlıklı
- <1 ölümcül (kazanmak için daha çok harcıyorsun)
- >5 muhtemelen yeterince pazarlamaya harcamıyorsun
AI ürünlerinde churn yüksek olduğu için LTV kolay düşer. Bu yüzden gross margin'i yüksek tutmak çift kat kritik.
9️⃣ Payback Period (Geri Ödeme Süresi)#
Tanım: CAC'i geri kazanmak için kaç ay geçer?
Payback (months) = CAC / (Revenue × Gross Margin)
Hedef:
- <12 ay B2B SaaS için iyi
- <6 ay B2C için iyi
- >24 ay yatırımcının kaçacağı bölge
AI ürünlerinde gross margin düşük olduğu için payback uzar. Örnek:
Bir B2B AI ürünü 1.200, gross margin %50:
Payback = $1200 / ($50 × 0.50) = 48 ay ⚠️ kötü
Aynı ürün gross margin'i %80'e çıkarınca:
Payback = $1200 / ($50 × 0.80) = 30 ay ✅ kabul edilebilir
Gross margin'i artırmak payback'i de doğrudan kısaltır. Bu yüzden CFO senin LLM optimizasyonunu sevecek — payback'i kısaltıyorsun.
📌 Özet: Mühendis-CFO ortak sözlüğü
COGS = sana mal oluyor · Gross Margin = ne kadar kalıyor · /User = ürünün ekonomik bağlamı · $/MAU = ürün-pazar uyumu maliyetinin göstergesi · Contribution Margin = strateji kararını verdiğin yer · CAC = pazarlama harcaman · LTV = müşterinin sana getirdiği toplam kâr · Payback = CAC'i kazanma süren. Bu 9 kelime, bütün AI birim ekonomisi konuşmalarının A-Z'si.
Mini Lab (5 dk)#
Aşağıdaki bilgileri kullanarak aşağıdaki soruları çöz:
Veriler:
- Bir B2C AI yazma asistanı satıyorsun: aylık $15
- Ortalama kullanıcı: günde 25 istek
- Ortalama istek: 1500 input tokens + 400 output tokens (Sonnet 4.6 ile)
- Aylık churn: %8
- CAC: $25
Sorular:
- Aylık $/User ne?
- Gross Margin ne?
- LTV ne?
- LTV/CAC ne?
- Payback period ne?
- Bu ürünü açmalı mıyım?
(Cevapları kendin hesapla. Bir sonraki derste hesap fonksiyonunu Python'da yazacağız ve cevapları doğrulayacağız.)
▶️ Sıradaki ders
0.3 — Atölyemizin Aletleri: tiktoken'dan Langfuse'a. Kurs boyunca kullanacağımız 11 ana aracı tanıyalım, ne işe yaradıklarını ve hangi modülde devreye gireceklerini görelim.
Frequently Asked Questions
The first 2-3 months are the 'baseline measurement' phase. Track $/Request and $/User daily. 30 days of data becomes the reference point against which every future optimization will be validated. We'll walk through baseline setup in Module 3.
Yorumlar & Soru-Cevap
(0)Yorum yazmak için giriş yap.
Yorumlar yükleniyor...
Related Content
Module 0: Why Cost, Why Now?
The AI Cost Explosion: Why Token Prices Fell 96% from 2022 to 2026 — Yet Bills Grew 40×
Start LearningModule 0: Why Cost, Why Now?
Workshop Toolkit: A Quick Tour of the 11 Tools We'll Use Throughout the Course
Start LearningModule 0: Why Cost, Why Now?