Full Telemetry Tools Comparison: Langfuse vs Helicone vs LangSmith vs Phoenix vs OTel
We compare the 5 main LLM observability tools side-by-side: feature sets, pricing, self-host options, KVKK compliance, integration ease. Decision matrix for 'which one should I use in my case'.
Şükrü Yusuf KAYA
22 min read
Intermediate🎛 Karar matrisi geliyor
5 araç, 12 kriter. Bu ders sonunda kendi context'in (cloud vs self-host, KVKK, budget, ekosistem) için doğru aracın hangisi olduğunu bileceksin.
1️⃣ Langfuse — Açık Kaynak, En Esnek#
Founder: Berliner Lab (2023)
Felsefe: Açık kaynak, self-hostable, kapsamlı eval entegrasyonu
Feature seti#
- ✅ Tracing (full request/response capture)
- ✅ Cost tracking (provider-aware pricing built-in)
- ✅ Prompt management (versioning, A/B test)
- ✅ Eval framework (LLM-as-judge, custom scorers)
- ✅ Dataset & playground
- ✅ Sessions & users (cost attribution)
- ✅ Self-host (Docker Compose)
- ❌ Built-in alerting (Grafana/Slack webhook gerekli)
Fiyatlandırma#
| Tier | Fiyat | Limit |
|---|---|---|
| Hobby (cloud) | $0 | 50K observations/ay |
| Pro | $59/ay | 250K observations |
| Team | $499/ay | 2M observations |
| Enterprise | Custom | unlimited |
| Self-host | $0 (infra hariç) | sınırsız |
Entegrasyon#
from langfuse.openai import openai # drop-in replace # veya from langfuse import Langfuse langfuse = Langfuse() @langfuse.trace() def my_function(...): ...
Türkiye için#
✅ Self-host KVKK uyumu için ideal — Docker Compose ile VPC içinde çalıştır
✅ Açık kaynak (MIT license) — değiştirebilir, fork edebilirsin
✅ EU cloud option (eu.cloud.langfuse.com) → AB data residency
✅ Bu kursta default seçim
2️⃣ Helicone — Proxy Tabanlı, Sıfır Kod#
Founder: Y Combinator W23 startup
Felsefe: Proxy yaklaşımı — zero code, zero SDK
Feature seti#
- ✅ Tracing (otomatik, proxy üzerinden)
- ✅ Cost tracking
- ✅ Caching (built-in semantic cache)
- ✅ Rate limiting
- ✅ Custom properties (cost attribution)
- ⚠️ Eval framework sınırlı
- ⚠️ Prompt management basit
- ✅ Self-host (Docker)
Fiyatlandırma#
| Tier | Fiyat | Limit |
|---|---|---|
| Free | $0 | 100K req/ay |
| Pro | $25/ay (kullanıcı başına) | 2M req/ay |
| Team | 0.001/req over 50M | scaling |
| Enterprise | Custom | unlimited |
Entegrasyon#
API URL'i değiştir:
client = OpenAI( api_key="sk-...", base_url="https://oai.helicone.ai/v1", default_headers={ "Helicone-Auth": f"Bearer {HELICONE_KEY}", "Helicone-User-Id": "user_42", "Helicone-Property-Feature": "smart_search", }, )
Avantaj/Dezavantaj#
✅ Hiç SDK değişikliği yok — config bazlı geçiş
✅ Multi-language (Python, JS, Ruby, Go — fark etmez)
✅ Cache built-in (Modül 7'de detay)
❌ Proxy = +50-100ms latency
❌ Provider-specific quirks (vision detail mode) bazen yakalanmıyor
3️⃣ LangSmith — LangChain'in Resmi Observability'si#
Founder: LangChain ekibi
Felsefe: LangChain ile birinci-sınıf entegrasyon
Feature seti#
- ✅ Tracing (LangChain chain'leri otomatik yakalanır)
- ✅ Cost tracking
- ✅ Datasets & eval (LangChain ecosystem)
- ✅ Prompt hub
- ✅ Annotation queue (human-in-the-loop eval)
- ❌ Self-host (henüz)
- ⚠️ LangChain dışı entegrasyon limited
Fiyatlandırma#
| Tier | Fiyat | Limit |
|---|---|---|
| Developer | $0 | 5K trace/ay |
| Plus | $39/ay | 10K trace + ek $0.005/trace |
| Enterprise | Custom | self-host opsiyon |
Avantaj/Dezavantaj#
✅ LangChain kullanıyorsan en kolay setup
✅ Eval framework çok güçlü
❌ LangChain dışı framework'lere zayıf
❌ Self-host enterprise-only
❌ Fiyat per-trace olduğu için yüksek-volume'da pahalı
4️⃣ Phoenix (Arize AI) — ML Observability Geçmişli#
Founder: Arize AI (ML observability oyuncusu)
Felsefe: ML + LLM evaluation birleşik
Feature seti#
- ✅ Tracing (OTel-native)
- ✅ Cost tracking
- ✅ Eval framework (LLM-as-judge, embeddings drift)
- ✅ Datasets
- ✅ Self-host (Docker Compose)
- ❌ Prompt management zayıf
- ⚠️ Cloud version Arize'ın paid tier'ı
Fiyatlandırma#
- Phoenix open-source: $0, self-host
- Arize AX cloud: $0/free (limited), custom paid
Avantaj/Dezavantaj#
✅ OpenTelemetry-native (vendor-neutral spans)
✅ Eval framework (drift detection, semantic similarity)
✅ Self-host kolay
❌ Cloud version ekosistem küçük
❌ Cost attribution feature'ları sınırlı
5️⃣ OpenTelemetry GenAI — Vendor-Neutral Standard#
Founder: OpenTelemetry community + CNCF
Felsefe: Standardize spans, herhangi backend'e gönder
Feature seti#
- ✅ Span semantics (gen_ai.* attributes)
- ✅ Vendor-neutral (Jaeger, Tempo, Datadog, Honeycomb, vs.)
- ✅ Cost tracking (manual span attribute)
- ❌ Built-in dashboard yok
- ❌ Eval framework yok
- ✅ Tüm major backend'lerle entegre
Entegrasyon#
from opentelemetry.instrumentation.openai import OpenAIInstrumentor OpenAIInstrumentor().instrument() # OpenAI çağrıları otomatik Jaeger/Tempo/Honeycomb'a span gönderir
Avantaj/Dezavantaj#
✅ Vendor lock-in yok — backend'ini istediğin zaman değiştirebilirsin
✅ Mevcut observability altyapına (Datadog, Honeycomb) entegre
❌ "Out of the box" dashboard yok — kendin kuracaksın
❌ LLM-spesifik UI'lardan eksik
Karar Matrisi#
| Senaryon | Tavsiye |
|---|---|
| Hızlı başlangıç, KVKK önemli değil | Langfuse cloud (free tier) |
| KVKK uyum, EU data, açık kaynak | Langfuse EU cloud veya self-host |
| Multi-language stack (Node + Python + Go) | Helicone (proxy) |
| LangChain ekosistem | LangSmith |
| Mevcut Datadog/Honeycomb yatırımı | OTel GenAI |
| ML + LLM observability birleşik | Phoenix |
| Maksimum kontrol + zero vendor lock | OTel + ClickHouse + Grafana (Modül 3.5) |
| Cost attribution + virtual keys + budget | Helicone + LiteLLM combo |
Bu kursun seçimi#
Lab'lar için Langfuse cloud free tier. Production örnekleri için Langfuse self-host veya Helicone + LiteLLM. Reasoning'i ileriki derslerde tekrarlayacağız.
KVKK Uyumu — Hangi Araç Hangi Düzeyde?#
| Araç | EU Data Residency | DPA Available | Self-Host Opsiyonu |
|---|---|---|---|
| Langfuse cloud | ✅ EU region | ✅ | ✅ Docker Compose |
| Langfuse self-host | N/A | N/A | ✅ tam kontrol |
| Helicone cloud | US only (default) | ✅ enterprise | ✅ Docker |
| LangSmith cloud | US default, EU enterprise | ✅ enterprise | ❌ enterprise-only |
| Phoenix self-host | N/A | N/A | ✅ Docker |
| OTel + backend | Backend'ine bağlı | Backend'ine bağlı | ✅ |
Türkiye kurumsal için pratik öneri#
- Geliştirme/test: Langfuse cloud free tier (test data, prod data değil)
- Production: Langfuse self-host (VPC içinde, Docker Compose) veya Vertex AI built-in observability (Google ekosistem)
🧪 Lab 3 — Yaklaşıyor
Bir sonraki dersten sonra (custom dashboard kurulumu) Lab 3'ü yapacağız: Bir Next.js + LiteLLM uygulamasına Langfuse entegre etmek ve gerçek /user, $/feature dashboard'unu kurmak. Hazırlık olarak şimdi kendi Langfuse cloud hesabına bağlanıp 'teki 'Hello World' örneğinin trace'lerini incele.
Modul 0.4▶️ Sıradaki ders
3.5 — Self-Hosted ClickHouse + Grafana. Üçüncü-parti araca güvenmek istemiyorsan: ham veriyi ClickHouse'a yaz, Grafana ile görselleştir. Tam kontrol, KVKK uyumu, sınırsız ölçek.
Frequently Asked Questions
Yes. LiteLLM makes it easy — you can add multiple callbacks. Typically in production, 'primary' (Langfuse) + 'infra' (Datadog APM for latency tracking) runs as a dual layer. But double-logging has its own cost — question whether you need it.
Yorumlar & Soru-Cevap
(0)Yorum yazmak için giriş yap.
Yorumlar yükleniyor...
Related Content
Module 0: Why Cost, Why Now?
The AI Cost Explosion: Why Token Prices Fell 96% from 2022 to 2026 — Yet Bills Grew 40×
Start LearningModule 0: Why Cost, Why Now?
Unit Economics Vocabulary: COGS, Gross Margin, $/User, Contribution Margin — 9 Financial Concepts Every AI Engineer Must Know
Start LearningModule 0: Why Cost, Why Now?
Workshop Toolkit: A Quick Tour of the 11 Tools We'll Use Throughout the Course
Start LearningConnected pillar topics