Cloud Account Atlas: HuggingFace, OpenAI, Anthropic, Together, Modal, Runpod, Lambda — Which One and Why?
An LLM engineer juggles 12+ cloud accounts over 8 months. Which one and why, pricing models, API key security, free credit hunting, multi-provider strategy, Türkiye-specific payment and tax practices.
Şükrü Yusuf KAYA
35 min read
Beginner☁️ Bu derste 12 cloud hesabını açacaksın
Kursun sonuna kadar şu hesapların hepsi kullanışlı olacak: HuggingFace, OpenAI, Anthropic, Together, Modal, Runpod, Lambda Labs, Google Colab, Replicate, Groq, OpenRouter, GitHub. Toplam ücretsiz kredi: $400+ (doğru başvurularla). Bu dersi bitirince hepsinin API anahtarları .env dosyanda, güvenli şekilde, bütçe alarmları kurulu olacak.
Neden Bu Kadar Çok Sağlayıcı?#
LLM mühendisliği, dağıtık ekonomidir. Hiçbir tek sağlayıcı her senaryoda en iyisi değil:
| İhtiyaç | En İyi Sağlayıcı(lar) | Neden? |
|---|---|---|
| Model + Dataset hub | HuggingFace | Sektör standardı, ücretsiz, açık-kaynak |
| En kaliteli closed LLM | OpenAI (GPT-5, o3), Anthropic (Claude) | Frontier kalitesi, agentic, multimodal |
| Open-source LLM inference | Together, Fireworks, Groq | Llama, Qwen, Mistral'ı 5-10x ucuza çalıştırıyor |
| Hızlı inference | Groq (LPU), Cerebras (WSE) | Token/saniye'de OpenAI'ye 10x üstün |
| Serverless GPU | Modal, Replicate, Beam | Sunucu yönetme yok, kullandığın kadar |
| Bare-metal GPU kiralama | Runpod, Lambda, Vast.ai | Pre-training/big fine-tune için saatlik H100 |
| Reserved GPU | Lambda, CoreWeave | Uzun süreli projelerde %40 indirim |
| Ücretsiz GPU (kısıtlı) | Google Colab, Kaggle | Hızlı deneme, eğitim |
| Aggregated API | OpenRouter | 200+ modeli tek API anahtarı |
| Vector DB | Pinecone, Qdrant Cloud, Weaviate | RAG için |
| Observability | Langfuse, Helicone, Phoenix | Logs, traces, metrics |
Önemli prensip: Bir LLM Engineer asla tek sağlayıcıya kilitlenmez. Senin işin "doğru iş için doğru araç". Bu derste ana 8 sağlayıcıyı detaylı işleyeceğiz.
8 Ana Sağlayıcı Derinlemesine#
Her sağlayıcı için 6 başlık altında bakacağız:
- Ne için? (kullanım senaryoları)
- Pricing modeli
- Ücretsiz kredi / tier
- Türkiye'den ödeme
- API key alma + güvenlik
- Yaygın gotcha'lar
Ne için? Model indirme/yükleme (Llama, Qwen, BERT, ...), dataset, Spaces (Gradio app hosting), Inference Endpoints (serverless), AutoTrain, transformers/datasets/peft/trl kütüphanelerinin evi.
Bu kursta: Her capstone'un model çıktısı HuggingFace Hub'a yüklenecek. Datasetler de.
Pricing:
- Free tier: Sınırsız public model/dataset upload. Spaces 16GB RAM, 2 CPU ücretsiz (CPU-only).
- **PRO (0.60/saat), priority support, dataset viewer hızlı.
- Enterprise: Özel CDN, audit log, SAML SSO.
Inference Endpoints ücretleri (saatlik, GPU üzerinden):
| GPU | $/saat | İdeal kullanım |
|---|---|---|
| CPU (4 vCPU) | $0.06 | Embedding, küçük model |
| T4 (16GB) | $0.60 | 7B FP16, küçük inference |
| L4 (24GB) | $0.80 | 13B Q4, daha hızlı |
| A10G (24GB) | $1.30 | 13B FP16 |
| A100 40GB | $4.00 | 30-40B Q4, multi-LoRA |
| A100 80GB | $6.50 | 70B Q4, fine-tune |
Ücretsiz kredi: Yeni hesap için yok. Ama "Inference API" (serverless, kotalı) — saatte ~30 istek ücretsiz.
Türkiye'den ödeme: USD, Visa/Mastercard kabul. KVK Visa Premium çalışıyor; iş bankası ihracat kontrolüne takılırsa banka ile aç. PayPal opsiyonel.
API key: huggingface.co/settings/tokens → "New token" → veya veya (scoped). Token'ı asla repo'ya commit etme — .env'e ya da ile keyring'e.
readwritefine-grainedhuggingface-cli loginGotcha'lar:
- Llama 3.3 ve bazı modeller için "License accept" gerekli. Hesap → Settings → Gated repos.
- çağrılarında
huggingface-cliortam değişkeni cache lokasyonunu kontrol eder.HF_HOME - Spaces GPU'su kullanmadığında otomatik durur ama uyandırma 30-60 saniye sürer (cold start).
- Model upload sırasında lazım:
Git LFSunutma.git lfs install
bash
# HuggingFace CLI ile login (token'ı keyring'e güvenli saklar)uv pip install huggingface_hubhuggingface-cli login# Token'ı yapıştır → ENTER # Testhuggingface-cli whoami# Senin kullanıcı adın # Bir modeli indir (gated değilse)huggingface-cli download Qwen/Qwen2.5-7B-Instruct --local-dir ./models/qwen-7bHuggingFace login + ilk model indirme.
python
# .env# OPENAI_API_KEY=sk-... # Pythonimport osfrom openai import OpenAI client = OpenAI(api_key=os.environ["OPENAI_API_KEY"]) resp = client.chat.completions.create( model="gpt-5-mini", messages=[{"role": "user", "content": "Bir LLM Engineer'ın 3 günlük rutinini özetle."}], max_tokens=300,)print(resp.choices[0].message.content)print(f"Maliyet (tahmini): ${(resp.usage.prompt_tokens * 0.25 + resp.usage.completion_tokens * 2.00) / 1_000_000:.6f}")OpenAI API'sini ilk kullanım — maliyeti hesaplı.
python
# Together AI — OpenAI uyumlufrom openai import OpenAIimport os client = OpenAI( api_key=os.environ["TOGETHER_API_KEY"], base_url="https://api.together.xyz/v1",) resp = client.chat.completions.create( model="meta-llama/Llama-3.3-70B-Instruct-Turbo", messages=[{"role": "user", "content": "1+1 kaç eder?"}],)print(resp.choices[0].message.content)# Maliyet: GPT-5'in ~%10'uTogether AI — OpenAI uyumlu, sadece base_url değiştir.
python
# llama_inference.py — Modal'da H100'de Llama 3.3 70B çalıştırimport modal image = ( modal.Image.debian_slim() .pip_install("vllm==0.6.4", "huggingface_hub") .env({"HF_HUB_ENABLE_HF_TRANSFER": "1"})) app = modal.App("llm-muh-llama-70b") @app.function( image=image, gpu="H100", timeout=600, secrets=[modal.Secret.from_name("hf-token")],)def generate(prompt: str) -> str: from vllm import LLM, SamplingParams llm = LLM( model="meta-llama/Llama-3.3-70B-Instruct", quantization="awq", max_model_len=4096, ) out = llm.generate([prompt], SamplingParams(max_tokens=200)) return out[0].outputs[0].text @app.local_entrypoint()def main(): print(generate.remote("LLM mühendisliği nedir?")) # Kullanım:# $ modal run llama_inference.py# H100 üzerinde Llama 70B AWQ ile inference — toplam maliyet ~$0.20Modal ile 5 dakikada Llama 70B serverless inference.
Diğer Önemli Sağlayıcılar (kısa)#
- Replicate — Model deployment, "predict.replicate.com" API ile. Yaratıcı use case'lerde popüler.
- Groq — LPU (Language Processing Unit), Llama 3.3'ü saniyede 500+ token üretiyor. Llama API ücretsiz tier var, hızlı.
- Cerebras Inference — WSE chip, en hızlısı. 70B'yi 1000 t/s üretebiliyor.
cerebras.ai - Fireworks AI — Open-source LLM serving, Together AI rakibi. Fonksiyon çağırma + serverless fine-tune.
- OpenRouter — 200+ modeli tek API. OpenAI, Anthropic, Together, Fireworks, Mistral, vb. üzerinden route ediyor. Geliştirme için süper.
- Mistral La Plateforme — Mistral'ın kendi API'si (Codestral, Mistral Large).
- Vast.ai — Pikamine/Bitcoin tarzı GPU marketplace, çok ucuz ama kararlılığı belirsiz.
- CoreWeave / Crusoe / Lambda Cluster — Enterprise/scale-up cluster sağlayıcıları.
- Vercel AI SDK — Frontend deployment + LLM stream (Next.js dünyası).
Senaryo Bazlı Karar Matrisi#
"Bu senaryoda hangi sağlayıcı?" tablosu:
| Senaryom | İlk Tercih | Yedek | Neden |
|---|---|---|---|
| GPT-4 alternatifi ihtiyacım var, ekonomik | Together (Llama 3.3 70B) | Fireworks | %90 ucuz, açık-kaynak |
| Coding agent yapacağım | Claude 4.7 Sonnet | GPT-5 | Coding benchmark'ında üstün |
| Saniyede 500+ token lazım (chat UX) | Groq | Cerebras | LPU hızı |
| Bir 7B modeli fine-tune edeceğim | Modal (H100, $4.56/saat) | Together Fine-Tune | LoRA için 2 saat = $10 |
| 70B modeli pretrain'e devam edeceğim | Lambda (reserved) | Runpod Secure | Stabilite |
| Gradio demo paylaşacağım | HuggingFace Spaces | Modal | Tek tıkla paylaşım |
| RAG için embedding | OpenAI text-embedding-3-small | Voyage-3 | Kalite/maliyet |
| Multimodal görsel anlama | GPT-5 + Claude 4.7 | Qwen-VL on Together | Kapalı modeller hâlâ üstün |
| Türkçe konuşma (sesli) | OpenAI Realtime | ElevenLabs + LLM | Latency |
| Üretim sunucusunda model | vLLM on Runpod | Modal | Self-hosted ekonomi |
API Anahtarı Güvenliği — Profesyonel Hijyen#
API key'lerini güvensiz tutmak yaygın bir hata. 2024'te bir GitHub leak'iyle bir startup'ın OpenAI hesabı $48,000 faturayla bitmişti. Senin böyle bir hikayen olmaması için 6 kural:
Yanlış:
client = OpenAI(api_key="sk-proj-abc123...") # ❌ kodda hardcoded
Doğru:
import os client = OpenAI(api_key=os.environ["OPENAI_API_KEY"]) # ✓ env'den
.env.gitignoregit-secrets: Bir araç kur ki kaza ile commit edemeyesin: veya . Pre-commit hook'unda çalışır.
brew install git-secretspip install detect-secretsbash
# .env (örnek şablon — kursta kullanacağın anahtarlar)# 🔒 BU DOSYAYI GIT'E COMMIT ETME — .gitignore'da olmalı # === Model Hub ===HF_TOKEN=hf_... # === Closed LLM API ===OPENAI_API_KEY=sk-proj-...ANTHROPIC_API_KEY=sk-ant-... # === Open-source LLM Inference ===TOGETHER_API_KEY=...FIREWORKS_API_KEY=...GROQ_API_KEY=... # === Compute ===MODAL_TOKEN_ID=ak-...MODAL_TOKEN_SECRET=as-...RUNPOD_API_KEY=...LAMBDA_API_KEY=... # === Aggregator (geliştirme için pratik) ===OPENROUTER_API_KEY=sk-or-... # === Observability ===LANGFUSE_PUBLIC_KEY=pk-lf-...LANGFUSE_SECRET_KEY=sk-lf-...LANGFUSE_HOST=https://cloud.langfuse.com # === Vector DB (RAG capstone'da) ===QDRANT_URL=https://...QDRANT_API_KEY=...PINECONE_API_KEY=... # === Diğer ===SERPER_API_KEY=... # Web searchTAVILY_API_KEY=... # Agentic searchKursta kullanacağın tüm API anahtarları için .env şablonu.
Ücretsiz Kredi Avı: $400+ Toplama Rehberi#
Doğru başvurularla 8 ay boyunca neredeyse ücretsiz çalışabilirsin. İşte mevcut programlar (2026 başı, değişebilir — kontrol et):
| Program | Kredi | Şart |
|---|---|---|
| Anthropic API | $5 | Telefon doğrulama |
| Together AI | 25 referral | Hesap aç + referral kullan |
| Modal Labs | 360 | Hesap aç (otomatik) |
| Replicate | İlk birkaç görsel/saniye ücretsiz | Otomatik |
| Groq | Sınırsız (kotalı) | Hesap aç |
| Fireworks | $1 ilk dakika için | Otomatik |
| OpenRouter | $1 ücretsiz | Hesap aç |
| GitHub Student Pack | $200+ farklı kredi | Öğrencisen |
| Google Cloud | $300 yeni hesap | İlk 90 gün |
| AWS Activate | $1000-100k (startup) | Şirket kurulu |
| NVIDIA Inception | DLI kursları + hardware promo | Startup'larda |
| Microsoft for Startups | $150K Azure | Erken aşama startup |
| Lambda Labs Promo | $500-2000 startup | Email atılarak |
Toplam ulaşılabilir: 1000+ (startup kurmuşsan).
💡 Akıllı kredi yönetimi
Krediyi tasarruflu kullan — bittiği gün ek başvuru yok. Bu strateji: ilk ay sadece Modal (50-100** ile bu kursu bitirebilirsin.
Türkiye'den Ödeme: Pratik Notlar#
Cloud hesapların hepsi USD bazlı. Türkiye'den ödeme yaparken yaygın sorunlar ve çözümler:
🇹🇷 Banka kartı sorunları#
Sorun: "International transaction declined" hatası.
Çözüm:
- Bankanı ara — "yurtdışı online ödemeleri" aktif et
- Garanti BBVA, Yapı Kredi, İş Bankası — genelde aktiftir
- Halkbank, Vakıfbank — bazen kısıtlı
- Premium kartlar (Worldcard, Maximum) daha rahat
💳 Dijital bankalar#
- Wise — TR mobil app ile USD/EUR balance, sanal kart. Çoğu cloud kabul ediyor.
- Revolut — bazı ülke kısıtları, TR'de 2025'te full erişim açıldı.
- N26 (Almanya) — TR'de yaşayıp Avrupa kart isteyenler için.
🪙 Crypto opsiyonu#
Runpod, Vast.ai, bazı küçük sağlayıcılar USDC/USDT kabul ediyor. TR'de kraken/binance üzerinden USDC alıp doğrudan ödeme.
📑 Vergi/fatura#
Şirketin var ise yurtdışı yazılım/hizmet alımı stopaj + KDV2 muhasebe konusu. Bireysel hesap kullanıyorsan vergi yok ama gider olarak yazamazsın. Şirket için: SaaS faturalarını dikkatli sakla, mali müşavirinle paylaş.
Bu Derste Neler Öğrendik?#
✓ 8 ana sağlayıcı: HF, OpenAI, Anthropic, Together, Modal, Runpod, Lambda, Colab
✓ Pricing modelleri ve ücretsiz kredi olanakları
✓ Senaryo bazlı karar matrisi — hangi sağlayıcı niye
✓ API key güvenliği — 6 kural (no commit, .env, scoped, budget, rotation, secret manager)
✓ Türkiye'den ödeme pratikleri ve crypto/Wise alternatifleri
✓ $400+ ücretsiz kredi avı rehberi
Sıradaki Ders#
0.5 — Maliyet ve Etik Sözleşmesi
Kursun toplam tahmini maliyeti (3 senaryo), token economics 101, AI mühendisinin etik sözleşmesi: telif, KVKK, EU AI Act, akademik dürüstlük, sürdürülebilirlik. Bu son ders Modül 0'ı tamamlıyor; Modül 1'e geçmeye hazır olacaksın.
Frequently Asked Questions
For Modules 0-5, HuggingFace + Modal + Colab suffice. For Module 6+, add at least one of OpenAI or Anthropic (for evals). For Module 13+, add Together AI. For Module 17+, Runpod or Lambda. We're not saying 'open them all today' — just get used to writing API keys in your .env template. Each takes ~5 minutes.
Yorumlar & Soru-Cevap
(0)Yorum yazmak için giriş yap.
Yorumlar yükleniyor...
Related Content
Module 0: Course Framework & Workshop Setup
Who Is an LLM Engineer? The AI Engineering Career Ladder from Junior to Staff
Start LearningModule 0: Course Framework & Workshop Setup
Course Philosophy: Why This Path, Why This Order — The Skeleton of an 8-Month Curriculum
Start LearningModule 0: Course Framework & Workshop Setup