Self-Hosted AI Sistemleri: Ollama, vLLM ve Inference Sunumu Eğitimi
Kurumsal şirketler için Ollama ile lokal prototipleme, vLLM ile yüksek performanslı inference serving, quantization, private deployment, güvenlik, observability ve runtime işletimini birlikte ele alan ileri seviye self-hosted AI eğitimi.
Eğitim Hakkında
Eğitim boyunca katılımcılar, self-hosted AI kararını teknik deneme düzeyinden çıkarıp mimari ve operasyonel zeminde değerlendirmeyi öğrenir. Her kullanım problemi için modeli kurum içinde çalıştırmak en doğru tercih değildir; bazı senaryolarda veri mahremiyeti, regülasyon veya gecikme hedefleri private deployment kararını güçlendirirken, bazı senaryolarda bakım yükü, donanım maliyeti veya operasyonel karmaşıklık hibrit ya da kontrollü bulut çözümlerini daha mantıklı kılabilir. Bu nedenle program, self-hosted AI yaklaşımını romantik bir teknoloji tercihi değil; use case, risk ve işletim modeliyle birlikte değerlendirilmesi gereken kurumsal bir karar olarak konumlandırır.
Programın güçlü yönlerinden biri Ollama ve vLLM'i farklı ihtiyaç katmanlarında konumlandırmasıdır. Katılımcılar; Ollama'nın geliştirici dostu, hızlı kurulum ve yerel API deneyimi sayesinde prototipleme, demo geliştirme, local testing ve küçük ölçekli iç kullanım senaryolarında neden güçlü olduğunu; vLLM'in ise yüksek throughput, verimli batching, daha ciddi serving topolojileri ve production-grade inference ihtiyaçlarında neden daha güçlü bir rol üstlendiğini görür. Böylece eğitim, araçları birbirine rakip gibi anlatmak yerine, doğru iş yükü için doğru runtime yaklaşımını seçmeyi öğretir.
Programın ikinci önemli ekseni inference stack ve quantization katmanıdır. Katılımcılar; bir modelin yalnızca çalışıyor olmasının yeterli olmadığını, asıl kritik farkın hangi inference motoruyla, hangi API katmanıyla, hangi GPU ve bellek hedefleriyle, hangi quantization düzeyiyle ve hangi concurrency beklentisiyle işletileceğinde ortaya çıktığını öğrenir. Bu kapsamda quantization mantığı, performans-kalite dengesi, tek GPU ve çoklu GPU senaryoları, tek node ile ölçekli serving farkı, adapter veya fine-tuned model sunumu, batch davranışı ve latency baskısı sistematik biçimde ele alınır. Böylece self-hosted deployment kararları deneme-yanılma yerine mühendislik temelli hale gelir.
Program ayrıca deployment topolojisini kurumsal ölçekte ele alır. Katılımcılar; geliştirici makinesi, tek sunuculu veri merkezi kurulumu, GPU havuzu, container tabanlı servis, Kubernetes üzerinde ölçekleme, izole ağ segmentleri ve air-gapped ortamlar gibi farklı deployment desenlerini use case bazlı değerlendirmeyi öğrenir. Bu sayede lokalde çalışan bir demonun neden kurumsal üretim sistemiyle aynı şey olmadığı netleşir. Eğitim, deployment topolojisini yalnızca altyapı tercihi değil; güvenlik, bakım, versiyonlama, gözlemlenebilirlik ve ekip yapısı kararı olarak ele alır.
Bir diğer güçlü boyut güvenlik ve işletim modelidir. Katılımcılar; private API sınırları, erişim kontrolü, secret yönetimi, model ağırlıklarının korunması, auditability, güvenli loglama, model ve adapter versiyonlama, release kontrolü, rollback, runtime politika katmanları ve bakım operasyonları gibi başlıkları öğrenir. Böylece self-hosted AI sistemleri yalnızca çalışan kurulumlar değil; kurum içinde güvenli ve denetlenebilir biçimde yönetilen üretim servisleri haline gelir.
Programın son önemli odağı observability ve runtime optimizasyonudur. Katılımcılar; token kullanımı, latency, throughput, GPU verimliliği, concurrency, error rate, degraded mode, request lifecycle, release gözlemi ve incident response gibi sinyallerin self-hosted AI ortamında nasıl yorumlanacağını değerlendirir. Bu sayede self-hosted AI yapıları yalnızca kurulan değil, işletilen, izlenen, optimize edilen ve sürekli iyileştirilen sistemlere dönüşür. Bu yönüyle eğitim, geliştirici masasında çalışan bir AI prototipi ile kurumsal ölçekte sürdürülebilir inference servisi arasındaki farkı açık biçimde görünür hale getirir.
Eğitim Metodolojisi
Ollama ile lokal prototipleme, vLLM ile production-grade inference serving, quantization, private deployment ve observability katmanlarını tek programda birleştiren ileri seviye self-hosted AI yapısı
Salt model kurulumunun ötesine geçerek serving mimarisi, güvenlik, bakım ve runtime işletimi odaklı yaklaşım
Gerçek kurumsal use case'ler, on-prem deployment senaryoları, GPU darboğazları ve inference serving ihtiyaçları üzerinden uygulamalı anlatım
Local runtime ile production runtime farkını, tek node ile ölçekli serving mimarisini ve API standardizasyonunu sistematik biçimde ele alan metodoloji
Veri mahremiyeti, erişim kontrolü, private networking, restricted environment ve governance ihtiyaçlarını mimari tasarımın doğal parçası haline getiren yaklaşım
Ekip içinde tekrar kullanılabilir self-hosted AI blueprint'leri, serving karar çerçeveleri, deployment şablonları ve runtime operasyon modelleri üretmeye uygun öğrenme modeli
Kimler İçindir?
Neden Bu Eğitim?
Self-hosted AI kararlarını yalnızca kurulum değil, mimari, güvenlik ve runtime işletimi problemi olarak ele almayı öğretir.
Şirketlerin geliştirici dostu lokal prototipleme ile kurumsal üretim serving ihtiyaçlarını birbirinden ayırmasına yardımcı olur.
Ollama ve vLLM'i doğru bağlamlarda konumlandırarak araç seçiminde daha rasyonel karar verilmesini sağlar.
Teknik ekiplerin inference stack, quantization, API katmanı ve deployment topolojisi konusunda ortak bir mühendislik dili kurmasına katkı sağlar.
Maliyet, performans, veri mahremiyeti, bakım yükü ve güvenlik dengelerini görünür hale getirir.
Katılımcıların yalnızca çalışan lokal kurulumlar değil, sürdürülebilir self-hosted AI platformları tasarlamasını hedefler.
Kazanımlar
Gereksinimler
Eğitim Müfredatı
60 DersEğitmen

Şükrü Yusuf KAYA
Yapay Zeka Mimarı | Kurumsal AI & LLM Eğitimleri | Stanford University | Yazılım & Teknoloji Danışmanı
Şükrü Yusuf KAYA, yapay zekâ teknolojilerinin küresel iş dünyasına entegrasyonuna öncülük eden, uluslararası deneyime sahip bir Yapay Zekâ Danışmanı ve Teknoloji Stratejistidir. 6 farklı ülkede faaliyet gösteren KAYA, teknolojinin teorik sınırları ile pratik iş ihtiyaçları arasındaki boşluğu doldurarak, bankacılık, e-ticaret, perakende ve lojistik gibi veri açısından kritik sektörlerde uçtan uca yapay zekâ projelerini yönetmektedir. Özellikle Üretken Yapay Zekâ ve Büyük Dil Modelleri (LLM) alanındaki teknik uzmanlığını derinleştiren KAYA, kuruluşların kısa vadeli çözümlere güvenmek yerine geleceği şekillendiren mimariler oluşturmasını sağlamaktadır. Karmaşık algoritmaları ve gelişmiş sistemleri, kurumsal büyüme hedefleriyle uyumlu somut iş değerine dönüştürmeye yönelik vizyoner yaklaşımı, onu sektörde aranan bir çözüm ortağı haline getirmiştir. Danışmanlık ve proje yönetimi kariyerinin yanı sıra eğitmenlik rolüyle de öne çıkan Şükrü Yusuf KAYA, "Yapay Zekâyı herkes için erişilebilir ve uygulanabilir hale getirmek" mottosuyla hareket etmektedir. Teknik ekiplerden üst düzey yöneticilere kadar geniş bir yelpazedeki profesyoneller için tasarlanmış kapsamlı eğitim programları aracılığıyla, kuruluşların yapay zeka okuryazarlığını artırmaya ve sürdürülebilir bir teknolojik dönüşüm kültürü oluşturmaya öncelik veriyor.
Sıkça Sorulan Sorular
Eğitime Başvur
Sınırlı kontenjan ile butik eğitim.
Gelecek Gruplara Kayıt
Sıradaki grup açıldığında öncelikli bilgi almak için kaydınızı bırakın.
Birebir Danışmanlık
Eğitmen ile özel görüşme planlayın.