Skip to content
Hero Background
İleri Seviye4 Gün

Fine-Tuning, PEFT ve LoRA ile LLM Özelleştirme Eğitimi

Kurumsal şirketler için fine-tuning stratejisi, PEFT, LoRA/QLoRA, veri hazırlama, evaluation, adapter deployment ve model yaşam döngüsü katmanlarını birlikte ele alan ileri seviye LLM özelleştirme eğitimi.

Eğitim Hakkında

Bu eğitim, büyük dil modellerini yalnızca genel amaçlı kullanmak yerine, kurumsal ihtiyaçlara göre özelleştirmek isteyen teknik ekipler için tasarlanmıştır. Programın merkezinde şu yaklaşım yer alır: bir modeli özelleştirmek, yalnızca eğitime veri vermek değil; hangi problemin gerçekten tuning gerektirdiğini, hangi durumda prompting veya retrieval ile ilerlenmesinin daha doğru olduğunu, hangi veri yapısının hangi eğitim yaklaşımına uygun olduğunu, eğitim sürecinin hangi kalite sinyalleriyle izleneceğini ve özelleştirilmiş modelin nasıl üretime alınacağını birlikte düşünmeyi gerektirir. Bu nedenle eğitim; strateji, veri, PEFT, LoRA/QLoRA, evaluation, deployment ve governance katmanlarını bir bütün olarak ele alır.

Eğitim boyunca katılımcılar, fine-tuning gereksinimini problem sınıfı üzerinden değerlendirmeyi öğrenir. Her tutarsız model davranışının tuning ihtiyacı doğurmadığını; bazı problemlerde daha iyi prompt tasarımı, bazı problemlerde structured output yaklaşımı, bazı problemlerde retrieval, bazı problemlerde ise iş akışı yeniden tasarımıyla daha etkili sonuç alınabileceğini görür. Bu nedenle program, tuning'i modaya uygun bir teknik tercih değil, dikkatle verilmesi gereken bir ürün ve mühendislik kararı olarak konumlandırır. Böylece katılımcılar, tuning yapılacak use case ile tuning yapılmaması gereken use case'i daha sağlıklı ayırabilir.

Programın güçlü yönlerinden biri PEFT ve LoRA katmanını çok boyutlu ele almasıdır. Katılımcılar; parameter-efficient fine-tuning mantığını, neden çoğu kurumsal senaryoda tam fine-tuning'e göre daha yönetilebilir olduğunu, LoRA adapter mantığını, rank ve alpha gibi konfigürasyonların etkisini, target module seçiminin kalite ve maliyet üzerindeki sonuçlarını, adapter sayısı arttıkça model yaşam döngüsünün nasıl karmaşıklaştığını ve QLoRA gibi daha verimli yaklaşımların hangi altyapı ve maliyet koşullarında anlamlı hale geldiğini öğrenir. Böylece eğitim, yalnızca teknik terimleri tanıtmakla kalmaz; bu yöntemleri kurumsal kararlar açısından okunabilir hale getirir.

Programın ikinci önemli odağı veri mühendisliği ve eğitim veri seti tasarımıdır. Katılımcılar; instruction tuning verisinin nasıl hazırlanacağını, örnek kalitesinin model kalitesini neden doğrudan etkilediğini, yanlış etiketli veya dengesiz veri setlerinin tuning projelerini nasıl boşa çıkarabildiğini, pairwise preference veri yapılarının ne zaman anlamlı olduğunu, train-validation-test ayrımının neden tuning projelerinde kritik olduğunu ve veri curation sürecinin aslında model performansının temel belirleyicilerinden biri olduğunu görür. Böylece fine-tuning, yalnızca model eğitimi değil; veri kalitesine dayanan bir mühendislik süreci olarak ele alınır.

Bir diğer güçlü eksen evaluation ve kalite güvencesidir. Katılımcılar; tuning öncesi ve sonrası performans karşılaştırmasını nasıl yapacaklarını, overfitting ve catastrophic forgetting risklerini nasıl fark edeceklerini, benchmark setlerini nasıl kurgulayacaklarını, task success, format compliance, style alignment, preference quality ve domain correctness gibi başlıkları nasıl değerlendireceklerini öğrenir. Bu sayede eğitim, tuning sürecini yalnızca eğitim loss'unu düşürmeye çalışan bir yaklaşım olmaktan çıkarıp, iş çıktısına etkisi ölçülebilen bir kalite sürecine dönüştürür.

Program ayrıca deployment ve model işletimi boyutunu da ele alır. Adapter serving, adapter merge, multi-adapter stratejileri, inference routing, adapter versiyonlama, rollback, release kontrolü ve özelleştirilmiş modellerin güvenli biçimde işletilmesi gibi başlıklar detaylandırılır. Böylece katılımcılar, bir LoRA checkpoint üretmenin yeterli olmadığını; asıl değerin bu özelleştirmenin kurumsal ürün yaşam döngüsüne nasıl bağlandığında ortaya çıktığını görür. Bu yönüyle eğitim, yalnızca tuning eğitimi değil; kurumsal LLM özelleştirme yaşam döngüsü eğitimi niteliği taşır.

Eğitim Metodolojisi

Fine-tuning stratejisi, PEFT, LoRA/QLoRA, veri hazırlama, evaluation ve deployment katmanlarını tek programda birleştiren ileri seviye LLM özelleştirme yapısı

Salt eğitim komutu çalıştırmanın ötesine geçerek problem-çözüm fit ve tuning kararı odaklı yaklaşım

Gerçek kurumsal use case'ler, veri kalitesi darboğazları, tuning maliyeti ve üretime alma senaryoları üzerinden uygulamalı anlatım

Instruction tuning, preference verisi, adapter konfigürasyonu ve model yaşam döngüsünü sistematik biçimde ele alan metodoloji

Kalite-maliyet-altyapı dengesi, evaluation ve adapter serving ihtiyaçlarını sistem tasarımının doğal parçası haline getiren yaklaşım

Ekip içinde tekrar kullanılabilir veri hazırlama çerçeveleri, tuning karar ağaçları, evaluation setleri ve release şablonları üretmeye uygun öğrenme modeli

Kimler İçindir?

LLM, GenAI ve kurumsal model özelleştirme projeleri geliştiren teknik ekipler
AI Engineer, ML Engineer, Applied AI, Platform ve MLOps/LLMOps ekipleri
Backend, ürün geliştirme ve teknik liderlik ekipleri
Kurumsal dil, stil, uzmanlık veya görev performansını model seviyesinde özelleştirmek isteyen şirketler
Prompting ve RAG ile sınıra gelmiş, tuning kararını daha bilinçli vermek isteyen ekipler
Özelleştirilmiş modelleri üretime taşımak isteyen kurumlar

Neden Bu Eğitim?

1

Kurumsal LLM özelleştirmeyi yalnızca eğitim süreci değil, strateji, veri, kalite ve işletim modeli problemi olarak ele almayı öğretir.

2

Şirketlerin prompting, RAG ve tuning arasında doğru karar verememesi nedeniyle yaşadığı verimsizlikleri görünür hale getirir.

3

PEFT ve LoRA tabanlı özelleştirmeyi tam fine-tuning'e göre daha uygulanabilir kurumsal çerçevede konumlandırır.

4

Teknik ekiplerin tuning projelerinde ortak bir mühendislik dili kurmasına yardımcı olur.

5

Veri kalitesi, evaluation eksikliği ve maliyet kontrolü nedeniyle başarısız olan tuning projelerinin kritik darboğazlarını görünür kılar.

6

Katılımcıların yalnızca adapte edilmiş model değil, sürdürülebilir ve yönetilebilir özelleştirme yaşam döngüsü kurmasını hedefler.

Kazanımlar

LLM özelleştirme ihtiyacını daha doğru analiz edebilirsiniz.
Fine-tuning ile alternatif çözüm desenlerini daha sağlıklı ayırt edebilirsiniz.
PEFT ve LoRA tabanlı özelleştirme projelerini use case bazlı tasarlayabilirsiniz.
Veri hazırlama ve evaluation katmanlarını daha bilinçli kurabilirsiniz.
Eğitim maliyeti ile model kalitesi arasındaki dengeyi daha iyi yönetebilirsiniz.
Özelleştirilmiş modeller için adapter tabanlı deployment ve yaşam döngüsü yaklaşımı geliştirebilirsiniz.

Gereksinimler

Python programlama konusunda uygulama yapabilecek düzeyde bilgi
Temel makine öğrenmesi, derin öğrenme ve LLM kavramlarına aşinalık
API, veri akışı, deney takibi ve model yaşam döngüsü hakkında temel farkındalık
Teknik dokümantasyon okuyabilme ve model tasarım tartışmalarına katılabilme
Uygulama atölyelerine aktif katılım ve kurumsal use case'ler üzerinden düşünmeye açıklık

Eğitim Müfredatı

60 Ders
01
Modül 1: LLM Özelleştirmeye Giriş ve Problem-Çözüm Uygunluğu6 Ders
02
Modül 2: Full Fine-Tuning, PEFT ve Adapter Tabanlı Yaklaşımların Karşılaştırılması6 Ders
03
Modül 3: LoRA, QLoRA ve PEFT Konfigürasyon Mühendisliği6 Ders
04
Modül 4: Veri Mühendisliği, Instruction Tuning Verisi ve Preference Data Tasarımı6 Ders
05
Modül 5: Training Pipeline, Deney Tasarımı ve Öğrenme Dinamikleri6 Ders
06
Modül 6: Evaluation Engineering – Tuning Öncesi/Sonrası Kalite Karşılaştırması6 Ders
07
Modül 7: Preference Tuning, Alignment ve Kurumsal Stil/Uyum Özelleştirmesi6 Ders
08
Modül 8: Adapter Deployment, Serving, Versioning ve Model İşletimi6 Ders
09
Modül 9: Security, Governance ve Özelleştirilmiş Modellerde Risk Yönetimi6 Ders
10
Modül 10: Capstone – Kurumsal LLM Özelleştirme Stratejisi, Tuning Blueprint’i ve Üretime Geçiş6 Ders

Eğitmen

Şükrü Yusuf KAYA

Şükrü Yusuf KAYA

Yapay Zeka Mimarı | Kurumsal AI & LLM Eğitimleri | Stanford University | Yazılım & Teknoloji Danışmanı

Şükrü Yusuf KAYA, yapay zekâ teknolojilerinin küresel iş dünyasına entegrasyonuna öncülük eden, uluslararası deneyime sahip bir Yapay Zekâ Danışmanı ve Teknoloji Stratejistidir. 6 farklı ülkede faaliyet gösteren KAYA, teknolojinin teorik sınırları ile pratik iş ihtiyaçları arasındaki boşluğu doldurarak, bankacılık, e-ticaret, perakende ve lojistik gibi veri açısından kritik sektörlerde uçtan uca yapay zekâ projelerini yönetmektedir. Özellikle Üretken Yapay Zekâ ve Büyük Dil Modelleri (LLM) alanındaki teknik uzmanlığını derinleştiren KAYA, kuruluşların kısa vadeli çözümlere güvenmek yerine geleceği şekillendiren mimariler oluşturmasını sağlamaktadır. Karmaşık algoritmaları ve gelişmiş sistemleri, kurumsal büyüme hedefleriyle uyumlu somut iş değerine dönüştürmeye yönelik vizyoner yaklaşımı, onu sektörde aranan bir çözüm ortağı haline getirmiştir. Danışmanlık ve proje yönetimi kariyerinin yanı sıra eğitmenlik rolüyle de öne çıkan Şükrü Yusuf KAYA, "Yapay Zekâyı herkes için erişilebilir ve uygulanabilir hale getirmek" mottosuyla hareket etmektedir. Teknik ekiplerden üst düzey yöneticilere kadar geniş bir yelpazedeki profesyoneller için tasarlanmış kapsamlı eğitim programları aracılığıyla, kuruluşların yapay zeka okuryazarlığını artırmaya ve sürdürülebilir bir teknolojik dönüşüm kültürü oluşturmaya öncelik veriyor.

Sıkça Sorulan Sorular

Fine-Tuning, PEFT ve LoRA ile LLM Özelleştirme Eğitimi | Şükrü Yusuf KAYA