Telemetry Araçları Tam Karşılaştırma: Langfuse vs Helicone vs LangSmith vs Phoenix vs OTel
5 ana LLM observability aracını yan yana koyup karşılaştırıyoruz: feature setleri, fiyatlar, self-host opsiyonları, KVKK uyum, entegrasyon kolaylığı. Karar matrisiyle 'hangisini benim case'imde kullanmalıyım' sorusunun cevabı.
Şükrü Yusuf KAYA
22 dakikalık okuma
Orta🎛 Karar matrisi geliyor
5 araç, 12 kriter. Bu ders sonunda kendi context'in (cloud vs self-host, KVKK, budget, ekosistem) için doğru aracın hangisi olduğunu bileceksin.
1️⃣ Langfuse — Açık Kaynak, En Esnek#
Founder: Berliner Lab (2023)
Felsefe: Açık kaynak, self-hostable, kapsamlı eval entegrasyonu
Feature seti#
- ✅ Tracing (full request/response capture)
- ✅ Cost tracking (provider-aware pricing built-in)
- ✅ Prompt management (versioning, A/B test)
- ✅ Eval framework (LLM-as-judge, custom scorers)
- ✅ Dataset & playground
- ✅ Sessions & users (cost attribution)
- ✅ Self-host (Docker Compose)
- ❌ Built-in alerting (Grafana/Slack webhook gerekli)
Fiyatlandırma#
| Tier | Fiyat | Limit |
|---|---|---|
| Hobby (cloud) | $0 | 50K observations/ay |
| Pro | $59/ay | 250K observations |
| Team | $499/ay | 2M observations |
| Enterprise | Custom | unlimited |
| Self-host | $0 (infra hariç) | sınırsız |
Entegrasyon#
from langfuse.openai import openai # drop-in replace # veya from langfuse import Langfuse langfuse = Langfuse() @langfuse.trace() def my_function(...): ...
Türkiye için#
✅ Self-host KVKK uyumu için ideal — Docker Compose ile VPC içinde çalıştır
✅ Açık kaynak (MIT license) — değiştirebilir, fork edebilirsin
✅ EU cloud option (eu.cloud.langfuse.com) → AB data residency
✅ Bu kursta default seçim
2️⃣ Helicone — Proxy Tabanlı, Sıfır Kod#
Founder: Y Combinator W23 startup
Felsefe: Proxy yaklaşımı — zero code, zero SDK
Feature seti#
- ✅ Tracing (otomatik, proxy üzerinden)
- ✅ Cost tracking
- ✅ Caching (built-in semantic cache)
- ✅ Rate limiting
- ✅ Custom properties (cost attribution)
- ⚠️ Eval framework sınırlı
- ⚠️ Prompt management basit
- ✅ Self-host (Docker)
Fiyatlandırma#
| Tier | Fiyat | Limit |
|---|---|---|
| Free | $0 | 100K req/ay |
| Pro | $25/ay (kullanıcı başına) | 2M req/ay |
| Team | 0.001/req over 50M | scaling |
| Enterprise | Custom | unlimited |
Entegrasyon#
API URL'i değiştir:
client = OpenAI( api_key="sk-...", base_url="https://oai.helicone.ai/v1", default_headers={ "Helicone-Auth": f"Bearer {HELICONE_KEY}", "Helicone-User-Id": "user_42", "Helicone-Property-Feature": "smart_search", }, )
Avantaj/Dezavantaj#
✅ Hiç SDK değişikliği yok — config bazlı geçiş
✅ Multi-language (Python, JS, Ruby, Go — fark etmez)
✅ Cache built-in (Modül 7'de detay)
❌ Proxy = +50-100ms latency
❌ Provider-specific quirks (vision detail mode) bazen yakalanmıyor
3️⃣ LangSmith — LangChain'in Resmi Observability'si#
Founder: LangChain ekibi
Felsefe: LangChain ile birinci-sınıf entegrasyon
Feature seti#
- ✅ Tracing (LangChain chain'leri otomatik yakalanır)
- ✅ Cost tracking
- ✅ Datasets & eval (LangChain ecosystem)
- ✅ Prompt hub
- ✅ Annotation queue (human-in-the-loop eval)
- ❌ Self-host (henüz)
- ⚠️ LangChain dışı entegrasyon limited
Fiyatlandırma#
| Tier | Fiyat | Limit |
|---|---|---|
| Developer | $0 | 5K trace/ay |
| Plus | $39/ay | 10K trace + ek $0.005/trace |
| Enterprise | Custom | self-host opsiyon |
Avantaj/Dezavantaj#
✅ LangChain kullanıyorsan en kolay setup
✅ Eval framework çok güçlü
❌ LangChain dışı framework'lere zayıf
❌ Self-host enterprise-only
❌ Fiyat per-trace olduğu için yüksek-volume'da pahalı
4️⃣ Phoenix (Arize AI) — ML Observability Geçmişli#
Founder: Arize AI (ML observability oyuncusu)
Felsefe: ML + LLM evaluation birleşik
Feature seti#
- ✅ Tracing (OTel-native)
- ✅ Cost tracking
- ✅ Eval framework (LLM-as-judge, embeddings drift)
- ✅ Datasets
- ✅ Self-host (Docker Compose)
- ❌ Prompt management zayıf
- ⚠️ Cloud version Arize'ın paid tier'ı
Fiyatlandırma#
- Phoenix open-source: $0, self-host
- Arize AX cloud: $0/free (limited), custom paid
Avantaj/Dezavantaj#
✅ OpenTelemetry-native (vendor-neutral spans)
✅ Eval framework (drift detection, semantic similarity)
✅ Self-host kolay
❌ Cloud version ekosistem küçük
❌ Cost attribution feature'ları sınırlı
5️⃣ OpenTelemetry GenAI — Vendor-Neutral Standard#
Founder: OpenTelemetry community + CNCF
Felsefe: Standardize spans, herhangi backend'e gönder
Feature seti#
- ✅ Span semantics (gen_ai.* attributes)
- ✅ Vendor-neutral (Jaeger, Tempo, Datadog, Honeycomb, vs.)
- ✅ Cost tracking (manual span attribute)
- ❌ Built-in dashboard yok
- ❌ Eval framework yok
- ✅ Tüm major backend'lerle entegre
Entegrasyon#
from opentelemetry.instrumentation.openai import OpenAIInstrumentor OpenAIInstrumentor().instrument() # OpenAI çağrıları otomatik Jaeger/Tempo/Honeycomb'a span gönderir
Avantaj/Dezavantaj#
✅ Vendor lock-in yok — backend'ini istediğin zaman değiştirebilirsin
✅ Mevcut observability altyapına (Datadog, Honeycomb) entegre
❌ "Out of the box" dashboard yok — kendin kuracaksın
❌ LLM-spesifik UI'lardan eksik
Karar Matrisi#
| Senaryon | Tavsiye |
|---|---|
| Hızlı başlangıç, KVKK önemli değil | Langfuse cloud (free tier) |
| KVKK uyum, EU data, açık kaynak | Langfuse EU cloud veya self-host |
| Multi-language stack (Node + Python + Go) | Helicone (proxy) |
| LangChain ekosistem | LangSmith |
| Mevcut Datadog/Honeycomb yatırımı | OTel GenAI |
| ML + LLM observability birleşik | Phoenix |
| Maksimum kontrol + zero vendor lock | OTel + ClickHouse + Grafana (Modül 3.5) |
| Cost attribution + virtual keys + budget | Helicone + LiteLLM combo |
Bu kursun seçimi#
Lab'lar için Langfuse cloud free tier. Production örnekleri için Langfuse self-host veya Helicone + LiteLLM. Reasoning'i ileriki derslerde tekrarlayacağız.
KVKK Uyumu — Hangi Araç Hangi Düzeyde?#
| Araç | EU Data Residency | DPA Available | Self-Host Opsiyonu |
|---|---|---|---|
| Langfuse cloud | ✅ EU region | ✅ | ✅ Docker Compose |
| Langfuse self-host | N/A | N/A | ✅ tam kontrol |
| Helicone cloud | US only (default) | ✅ enterprise | ✅ Docker |
| LangSmith cloud | US default, EU enterprise | ✅ enterprise | ❌ enterprise-only |
| Phoenix self-host | N/A | N/A | ✅ Docker |
| OTel + backend | Backend'ine bağlı | Backend'ine bağlı | ✅ |
Türkiye kurumsal için pratik öneri#
- Geliştirme/test: Langfuse cloud free tier (test data, prod data değil)
- Production: Langfuse self-host (VPC içinde, Docker Compose) veya Vertex AI built-in observability (Google ekosistem)
🧪 Lab 3 — Yaklaşıyor
Bir sonraki dersten sonra (custom dashboard kurulumu) Lab 3'ü yapacağız: Bir Next.js + LiteLLM uygulamasına Langfuse entegre etmek ve gerçek /user, $/feature dashboard'unu kurmak. Hazırlık olarak şimdi kendi Langfuse cloud hesabına bağlanıp 'teki 'Hello World' örneğinin trace'lerini incele.
Modul 0.4▶️ Sıradaki ders
3.5 — Self-Hosted ClickHouse + Grafana. Üçüncü-parti araca güvenmek istemiyorsan: ham veriyi ClickHouse'a yaz, Grafana ile görselleştir. Tam kontrol, KVKK uyumu, sınırsız ölçek.
Sık Sorulan Sorular
Evet. LiteLLM bunu kolaylaştırıyor — birden çok callback ekleyebiliyorsun. Genelde production'da "primary" (Langfuse) + "infra" (Datadog APM, latency tracking için) çift katman çalıştırılıyor. Fakat double-logging tek başına bir maliyet — gerekli mi sorgula.
Yorumlar & Soru-Cevap
(0)Yorum yazmak için giriş yap.
Yorumlar yükleniyor...
İlgili İçerikler
Modül 0: Neden Maliyet, Neden Şimdi?
AI Maliyet Patlaması: 2022'den 2026'ya Token Fiyatları Neden %96 Düştü Ama Faturalar Neden 40 Kat Arttı?
Öğrenmeye BaşlaModül 0: Neden Maliyet, Neden Şimdi?
Birim Ekonomisi Sözlüğü: COGS, Gross Margin, $/User, Contribution Margin — Mühendisin Bilmesi Gereken 9 Finansal Kavram
Öğrenmeye BaşlaModül 0: Neden Maliyet, Neden Şimdi?
Atölyemizin Aletleri: Kurs Boyunca Kullanacağımız 11 Aracın Hızlı Turu
Öğrenmeye BaşlaBağlantılı Pillar Konular