Skip to content
Hero Background
İleri Seviye4 Gün

Self-Hosted AI Sistemleri: Ollama, vLLM ve Inference Sunumu Eğitimi

Kurumsal şirketler için Ollama ile lokal prototipleme, vLLM ile yüksek performanslı inference serving, quantization, private deployment, güvenlik, observability ve runtime işletimini birlikte ele alan ileri seviye self-hosted AI eğitimi.

Eğitim Hakkında

Bu eğitim, açık kaynak büyük dil modellerini şirket içinde güvenli, yönetilebilir ve performanslı biçimde çalıştırmak isteyen teknik ekipler için tasarlanmıştır. Programın merkezinde şu yaklaşım bulunur: self-hosted AI sistemleri kurmak, yalnızca modeli bir sunucuya indirip çalıştırmak değildir. Gerçek kurumsal değer; doğru model ailesini seçmek, geliştirici deneyimi ile production-grade inference ihtiyacını ayırmak, doğru serving motorunu belirlemek, quantization ve bellek optimizasyonunu iş yüküne göre ayarlamak, private network içinde güvenli erişim sınırları oluşturmak ve sistemi sürdürülebilir bir runtime işletim modeline bağlamakla oluşur. Bu nedenle eğitim; model, inference, deployment, güvenlik, gözlemlenebilirlik ve operasyon katmanlarını birlikte ele alır.

Eğitim boyunca katılımcılar, self-hosted AI kararını teknik deneme düzeyinden çıkarıp mimari ve operasyonel zeminde değerlendirmeyi öğrenir. Her kullanım problemi için modeli kurum içinde çalıştırmak en doğru tercih değildir; bazı senaryolarda veri mahremiyeti, regülasyon veya gecikme hedefleri private deployment kararını güçlendirirken, bazı senaryolarda bakım yükü, donanım maliyeti veya operasyonel karmaşıklık hibrit ya da kontrollü bulut çözümlerini daha mantıklı kılabilir. Bu nedenle program, self-hosted AI yaklaşımını romantik bir teknoloji tercihi değil; use case, risk ve işletim modeliyle birlikte değerlendirilmesi gereken kurumsal bir karar olarak konumlandırır.

Programın güçlü yönlerinden biri Ollama ve vLLM'i farklı ihtiyaç katmanlarında konumlandırmasıdır. Katılımcılar; Ollama'nın geliştirici dostu, hızlı kurulum ve yerel API deneyimi sayesinde prototipleme, demo geliştirme, local testing ve küçük ölçekli iç kullanım senaryolarında neden güçlü olduğunu; vLLM'in ise yüksek throughput, verimli batching, daha ciddi serving topolojileri ve production-grade inference ihtiyaçlarında neden daha güçlü bir rol üstlendiğini görür. Böylece eğitim, araçları birbirine rakip gibi anlatmak yerine, doğru iş yükü için doğru runtime yaklaşımını seçmeyi öğretir.

Programın ikinci önemli ekseni inference stack ve quantization katmanıdır. Katılımcılar; bir modelin yalnızca çalışıyor olmasının yeterli olmadığını, asıl kritik farkın hangi inference motoruyla, hangi API katmanıyla, hangi GPU ve bellek hedefleriyle, hangi quantization düzeyiyle ve hangi concurrency beklentisiyle işletileceğinde ortaya çıktığını öğrenir. Bu kapsamda quantization mantığı, performans-kalite dengesi, tek GPU ve çoklu GPU senaryoları, tek node ile ölçekli serving farkı, adapter veya fine-tuned model sunumu, batch davranışı ve latency baskısı sistematik biçimde ele alınır. Böylece self-hosted deployment kararları deneme-yanılma yerine mühendislik temelli hale gelir.

Program ayrıca deployment topolojisini kurumsal ölçekte ele alır. Katılımcılar; geliştirici makinesi, tek sunuculu veri merkezi kurulumu, GPU havuzu, container tabanlı servis, Kubernetes üzerinde ölçekleme, izole ağ segmentleri ve air-gapped ortamlar gibi farklı deployment desenlerini use case bazlı değerlendirmeyi öğrenir. Bu sayede lokalde çalışan bir demonun neden kurumsal üretim sistemiyle aynı şey olmadığı netleşir. Eğitim, deployment topolojisini yalnızca altyapı tercihi değil; güvenlik, bakım, versiyonlama, gözlemlenebilirlik ve ekip yapısı kararı olarak ele alır.

Bir diğer güçlü boyut güvenlik ve işletim modelidir. Katılımcılar; private API sınırları, erişim kontrolü, secret yönetimi, model ağırlıklarının korunması, auditability, güvenli loglama, model ve adapter versiyonlama, release kontrolü, rollback, runtime politika katmanları ve bakım operasyonları gibi başlıkları öğrenir. Böylece self-hosted AI sistemleri yalnızca çalışan kurulumlar değil; kurum içinde güvenli ve denetlenebilir biçimde yönetilen üretim servisleri haline gelir.

Programın son önemli odağı observability ve runtime optimizasyonudur. Katılımcılar; token kullanımı, latency, throughput, GPU verimliliği, concurrency, error rate, degraded mode, request lifecycle, release gözlemi ve incident response gibi sinyallerin self-hosted AI ortamında nasıl yorumlanacağını değerlendirir. Bu sayede self-hosted AI yapıları yalnızca kurulan değil, işletilen, izlenen, optimize edilen ve sürekli iyileştirilen sistemlere dönüşür. Bu yönüyle eğitim, geliştirici masasında çalışan bir AI prototipi ile kurumsal ölçekte sürdürülebilir inference servisi arasındaki farkı açık biçimde görünür hale getirir.

Eğitim Metodolojisi

Ollama ile lokal prototipleme, vLLM ile production-grade inference serving, quantization, private deployment ve observability katmanlarını tek programda birleştiren ileri seviye self-hosted AI yapısı

Salt model kurulumunun ötesine geçerek serving mimarisi, güvenlik, bakım ve runtime işletimi odaklı yaklaşım

Gerçek kurumsal use case'ler, on-prem deployment senaryoları, GPU darboğazları ve inference serving ihtiyaçları üzerinden uygulamalı anlatım

Local runtime ile production runtime farkını, tek node ile ölçekli serving mimarisini ve API standardizasyonunu sistematik biçimde ele alan metodoloji

Veri mahremiyeti, erişim kontrolü, private networking, restricted environment ve governance ihtiyaçlarını mimari tasarımın doğal parçası haline getiren yaklaşım

Ekip içinde tekrar kullanılabilir self-hosted AI blueprint'leri, serving karar çerçeveleri, deployment şablonları ve runtime operasyon modelleri üretmeye uygun öğrenme modeli

Kimler İçindir?

Ollama, vLLM veya açık kaynak LLM tabanlı self-hosted AI projeleri geliştiren teknik ekipler
AI Engineer, ML Engineer, Platform Engineer, DevOps, SRE ve Applied AI ekipleri
Backend, altyapı, ürün geliştirme ve teknik liderlik ekipleri
Veri mahremiyetini koruyarak kurum içinde AI servisleri kurmak isteyen şirketler
Lokal prototipleri production-grade inference serving katmanına taşımak isteyen ekipler
Kendi AI servis katmanını, inference platformunu veya iç AI runtime mimarisini kurmak isteyen kurumlar

Neden Bu Eğitim?

1

Self-hosted AI kararlarını yalnızca kurulum değil, mimari, güvenlik ve runtime işletimi problemi olarak ele almayı öğretir.

2

Şirketlerin geliştirici dostu lokal prototipleme ile kurumsal üretim serving ihtiyaçlarını birbirinden ayırmasına yardımcı olur.

3

Ollama ve vLLM'i doğru bağlamlarda konumlandırarak araç seçiminde daha rasyonel karar verilmesini sağlar.

4

Teknik ekiplerin inference stack, quantization, API katmanı ve deployment topolojisi konusunda ortak bir mühendislik dili kurmasına katkı sağlar.

5

Maliyet, performans, veri mahremiyeti, bakım yükü ve güvenlik dengelerini görünür hale getirir.

6

Katılımcıların yalnızca çalışan lokal kurulumlar değil, sürdürülebilir self-hosted AI platformları tasarlamasını hedefler.

Kazanımlar

Self-hosted AI ihtiyacını use case bazlı analiz edebilirsiniz.
Ollama ve vLLM tabanlı mimarileri doğru bağlamda konumlandırabilirsiniz.
Model ve inference stack seçimini daha rasyonel yapabilirsiniz.
Quantization ve serving kararlarını donanım-maliyet-performans dengesi içinde verebilirsiniz.
Güvenlik ve erişim sınırlarını mimariye daha erken entegre edebilirsiniz.
Açık kaynak LLM tabanlı sistemleri prototipten production-grade serving katmanına taşıyabilecek daha olgun bir mühendislik yaklaşımı geliştirebilirsiniz.

Gereksinimler

Python programlama konusunda uygulama yapabilecek düzeyde bilgi
Linux, container mantığı, API yapıları ve temel altyapı kavramlarına aşinalık
LLM, model serving veya backend sistemleri hakkında temel farkındalık
Teknik dokümantasyon okuyabilme ve sistem tasarımı tartışmalarına katılabilme
Uygulama atölyelerine aktif katılım ve kurumsal self-hosted AI use case'leri üzerinden düşünmeye açıklık

Eğitim Müfredatı

60 Ders
01
Modül 1: Self-Hosted AI'e Giriş ve Kurumsal Karar Çerçevesi6 Ders
02
Modül 2: Açık Kaynak Model Seçimi ve Donanım Uyumlandırması6 Ders
03
Modül 3: Ollama ile Lokal Prototipleme, Geliştirici Deneyimi ve Hızlı Iterasyon6 Ders
04
Modül 4: vLLM ile Production-Grade Inference Serving ve API Standardizasyonu6 Ders
05
Modül 5: Quantization, GPU Planlama ve Inference Performans Optimizasyonu6 Ders
06
Modül 6: Deployment Topolojileri – Single Node, Multi-GPU, Container ve Kubernetes6 Ders
07
Modül 7: Fine-Tuned ve Adapter Tabanlı Modellerin Sunumu6 Ders
08
Modül 8: Security, Access Control ve Private Inference Governance6 Ders
09
Modül 9: Observability, Runtime Telemetry ve Operasyonel Dayanıklılık6 Ders
10
Modül 10: Capstone – Ollama, vLLM ve Self-Hosted Inference Blueprint'i6 Ders

Eğitmen

Şükrü Yusuf KAYA

Şükrü Yusuf KAYA

Yapay Zeka Mimarı | Kurumsal AI & LLM Eğitimleri | Stanford University | Yazılım & Teknoloji Danışmanı

Şükrü Yusuf KAYA, yapay zekâ teknolojilerinin küresel iş dünyasına entegrasyonuna öncülük eden, uluslararası deneyime sahip bir Yapay Zekâ Danışmanı ve Teknoloji Stratejistidir. 6 farklı ülkede faaliyet gösteren KAYA, teknolojinin teorik sınırları ile pratik iş ihtiyaçları arasındaki boşluğu doldurarak, bankacılık, e-ticaret, perakende ve lojistik gibi veri açısından kritik sektörlerde uçtan uca yapay zekâ projelerini yönetmektedir. Özellikle Üretken Yapay Zekâ ve Büyük Dil Modelleri (LLM) alanındaki teknik uzmanlığını derinleştiren KAYA, kuruluşların kısa vadeli çözümlere güvenmek yerine geleceği şekillendiren mimariler oluşturmasını sağlamaktadır. Karmaşık algoritmaları ve gelişmiş sistemleri, kurumsal büyüme hedefleriyle uyumlu somut iş değerine dönüştürmeye yönelik vizyoner yaklaşımı, onu sektörde aranan bir çözüm ortağı haline getirmiştir. Danışmanlık ve proje yönetimi kariyerinin yanı sıra eğitmenlik rolüyle de öne çıkan Şükrü Yusuf KAYA, "Yapay Zekâyı herkes için erişilebilir ve uygulanabilir hale getirmek" mottosuyla hareket etmektedir. Teknik ekiplerden üst düzey yöneticilere kadar geniş bir yelpazedeki profesyoneller için tasarlanmış kapsamlı eğitim programları aracılığıyla, kuruluşların yapay zeka okuryazarlığını artırmaya ve sürdürülebilir bir teknolojik dönüşüm kültürü oluşturmaya öncelik veriyor.

Sıkça Sorulan Sorular

Self-Hosted AI Sistemleri: Ollama, vLLM ve Inference Sunumu Eğitimi | Şükrü Yusuf KAYA