Skip to content

Full Telemetry Tools Comparison: Langfuse vs Helicone vs LangSmith vs Phoenix vs OTel

We compare the 5 main LLM observability tools side-by-side: feature sets, pricing, self-host options, KVKK compliance, integration ease. Decision matrix for 'which one should I use in my case'.

Şükrü Yusuf KAYA
22 min read
Intermediate
Telemetry Araçları Tam Karşılaştırma: Langfuse vs Helicone vs LangSmith vs Phoenix vs OTel
🎛 Karar matrisi geliyor
5 araç, 12 kriter. Bu ders sonunda kendi context'in (cloud vs self-host, KVKK, budget, ekosistem) için doğru aracın hangisi olduğunu bileceksin.

1️⃣ Langfuse — Açık Kaynak, En Esnek#

Founder: Berliner Lab (2023) Felsefe: Açık kaynak, self-hostable, kapsamlı eval entegrasyonu

Feature seti#

  • ✅ Tracing (full request/response capture)
  • ✅ Cost tracking (provider-aware pricing built-in)
  • ✅ Prompt management (versioning, A/B test)
  • ✅ Eval framework (LLM-as-judge, custom scorers)
  • ✅ Dataset & playground
  • ✅ Sessions & users (cost attribution)
  • ✅ Self-host (Docker Compose)
  • ❌ Built-in alerting (Grafana/Slack webhook gerekli)

Fiyatlandırma#

TierFiyatLimit
Hobby (cloud)$050K observations/ay
Pro$59/ay250K observations
Team$499/ay2M observations
EnterpriseCustomunlimited
Self-host$0 (infra hariç)sınırsız

Entegrasyon#

from langfuse.openai import openai # drop-in replace # veya from langfuse import Langfuse langfuse = Langfuse() @langfuse.trace() def my_function(...): ...

Türkiye için#

Self-host KVKK uyumu için ideal — Docker Compose ile VPC içinde çalıştır ✅ Açık kaynak (MIT license) — değiştirebilir, fork edebilirsin ✅ EU cloud option (eu.cloud.langfuse.com) → AB data residency ✅ Bu kursta default seçim

2️⃣ Helicone — Proxy Tabanlı, Sıfır Kod#

Founder: Y Combinator W23 startup Felsefe: Proxy yaklaşımı — zero code, zero SDK

Feature seti#

  • ✅ Tracing (otomatik, proxy üzerinden)
  • ✅ Cost tracking
  • ✅ Caching (built-in semantic cache)
  • ✅ Rate limiting
  • ✅ Custom properties (cost attribution)
  • ⚠️ Eval framework sınırlı
  • ⚠️ Prompt management basit
  • ✅ Self-host (Docker)

Fiyatlandırma#

TierFiyatLimit
Free$0100K req/ay
Pro$25/ay (kullanıcı başına)2M req/ay
Team25/seat+25/seat + 0.001/req over 50Mscaling
EnterpriseCustomunlimited

Entegrasyon#

API URL'i değiştir:
client = OpenAI( api_key="sk-...", base_url="https://oai.helicone.ai/v1", default_headers={ "Helicone-Auth": f"Bearer {HELICONE_KEY}", "Helicone-User-Id": "user_42", "Helicone-Property-Feature": "smart_search", }, )

Avantaj/Dezavantaj#

Hiç SDK değişikliği yok — config bazlı geçiş ✅ Multi-language (Python, JS, Ruby, Go — fark etmez) ✅ Cache built-in (Modül 7'de detay) ❌ Proxy = +50-100ms latency ❌ Provider-specific quirks (vision detail mode) bazen yakalanmıyor

3️⃣ LangSmith — LangChain'in Resmi Observability'si#

Founder: LangChain ekibi Felsefe: LangChain ile birinci-sınıf entegrasyon

Feature seti#

  • ✅ Tracing (LangChain chain'leri otomatik yakalanır)
  • ✅ Cost tracking
  • ✅ Datasets & eval (LangChain ecosystem)
  • ✅ Prompt hub
  • ✅ Annotation queue (human-in-the-loop eval)
  • ❌ Self-host (henüz)
  • ⚠️ LangChain dışı entegrasyon limited

Fiyatlandırma#

TierFiyatLimit
Developer$05K trace/ay
Plus$39/ay10K trace + ek $0.005/trace
EnterpriseCustomself-host opsiyon

Avantaj/Dezavantaj#

✅ LangChain kullanıyorsan en kolay setup ✅ Eval framework çok güçlü ❌ LangChain dışı framework'lere zayıf ❌ Self-host enterprise-only ❌ Fiyat per-trace olduğu için yüksek-volume'da pahalı

4️⃣ Phoenix (Arize AI) — ML Observability Geçmişli#

Founder: Arize AI (ML observability oyuncusu) Felsefe: ML + LLM evaluation birleşik

Feature seti#

  • ✅ Tracing (OTel-native)
  • ✅ Cost tracking
  • ✅ Eval framework (LLM-as-judge, embeddings drift)
  • ✅ Datasets
  • ✅ Self-host (Docker Compose)
  • ❌ Prompt management zayıf
  • ⚠️ Cloud version Arize'ın paid tier'ı

Fiyatlandırma#

  • Phoenix open-source: $0, self-host
  • Arize AX cloud: $0/free (limited), custom paid

Avantaj/Dezavantaj#

OpenTelemetry-native (vendor-neutral spans) ✅ Eval framework (drift detection, semantic similarity) ✅ Self-host kolay ❌ Cloud version ekosistem küçük ❌ Cost attribution feature'ları sınırlı

5️⃣ OpenTelemetry GenAI — Vendor-Neutral Standard#

Founder: OpenTelemetry community + CNCF Felsefe: Standardize spans, herhangi backend'e gönder

Feature seti#

  • ✅ Span semantics (gen_ai.* attributes)
  • ✅ Vendor-neutral (Jaeger, Tempo, Datadog, Honeycomb, vs.)
  • ✅ Cost tracking (manual span attribute)
  • ❌ Built-in dashboard yok
  • ❌ Eval framework yok
  • ✅ Tüm major backend'lerle entegre

Entegrasyon#

from opentelemetry.instrumentation.openai import OpenAIInstrumentor OpenAIInstrumentor().instrument() # OpenAI çağrıları otomatik Jaeger/Tempo/Honeycomb'a span gönderir

Avantaj/Dezavantaj#

Vendor lock-in yok — backend'ini istediğin zaman değiştirebilirsin ✅ Mevcut observability altyapına (Datadog, Honeycomb) entegre ❌ "Out of the box" dashboard yok — kendin kuracaksın ❌ LLM-spesifik UI'lardan eksik

Karar Matrisi#

SenaryonTavsiye
Hızlı başlangıç, KVKK önemli değilLangfuse cloud (free tier)
KVKK uyum, EU data, açık kaynakLangfuse EU cloud veya self-host
Multi-language stack (Node + Python + Go)Helicone (proxy)
LangChain ekosistemLangSmith
Mevcut Datadog/Honeycomb yatırımıOTel GenAI
ML + LLM observability birleşikPhoenix
Maksimum kontrol + zero vendor lockOTel + ClickHouse + Grafana (Modül 3.5)
Cost attribution + virtual keys + budgetHelicone + LiteLLM combo

Bu kursun seçimi#

Lab'lar için Langfuse cloud free tier. Production örnekleri için Langfuse self-host veya Helicone + LiteLLM. Reasoning'i ileriki derslerde tekrarlayacağız.

KVKK Uyumu — Hangi Araç Hangi Düzeyde?#

AraçEU Data ResidencyDPA AvailableSelf-Host Opsiyonu
Langfuse cloud✅ EU region✅ Docker Compose
Langfuse self-hostN/AN/A✅ tam kontrol
Helicone cloudUS only (default)✅ enterprise✅ Docker
LangSmith cloudUS default, EU enterprise✅ enterprise❌ enterprise-only
Phoenix self-hostN/AN/A✅ Docker
OTel + backendBackend'ine bağlıBackend'ine bağlı

Türkiye kurumsal için pratik öneri#

  1. Geliştirme/test: Langfuse cloud free tier (test data, prod data değil)
  2. Production: Langfuse self-host (VPC içinde, Docker Compose) veya Vertex AI built-in observability (Google ekosistem)
🧪 Lab 3 — Yaklaşıyor
Bir sonraki dersten sonra (custom dashboard kurulumu) Lab 3'ü yapacağız: Bir Next.js + LiteLLM uygulamasına Langfuse entegre etmek ve gerçek /request,/request, /user, $/feature dashboard'unu kurmak. Hazırlık olarak şimdi kendi Langfuse cloud hesabına bağlanıp
Modul 0.4
'teki 'Hello World' örneğinin trace'lerini incele.
▶️ Sıradaki ders
3.5 — Self-Hosted ClickHouse + Grafana. Üçüncü-parti araca güvenmek istemiyorsan: ham veriyi ClickHouse'a yaz, Grafana ile görselleştir. Tam kontrol, KVKK uyumu, sınırsız ölçek.

Frequently Asked Questions

Yes. LiteLLM makes it easy — you can add multiple callbacks. Typically in production, 'primary' (Langfuse) + 'infra' (Datadog APM for latency tracking) runs as a dual layer. But double-logging has its own cost — question whether you need it.

Yorumlar & Soru-Cevap

(0)
Yorum yazmak için giriş yap.
Yorumlar yükleniyor...

Related Content

Connected pillar topics

Pillar topics this article maps to