Ana içeriğe atla

2026 İçin En İyi 35 Makine Öğrenimi Mülakat Sorusu

Mülakatınıza, temel kavramlar ve algoritmalardan ileri ve role özel konulara kadar her şeyi kapsayan bu kapsamlı makine öğrenimi soru rehberiyle hazırlanın.
Güncel 16 Nis 2026  · 15 dk. oku

Bu yazıda, sektörde bir role başvururken veya bir adayı mülakata alırken karşınıza çıkabilecek en yaygın makine öğrenimi mülakat sorularından bazılarını derledik. Bu soruları pratik etmek ve yanıtlar hazırlamak, mülakatın sorunsuz geçmesine yardımcı olabilir. 

Yapay Zeka Uygulamaları Geliştirin

OpenAI API'sını kullanarak AI uygulamaları oluşturmayı öğrenin.
Ücretsiz olarak beceri geliştirmeye başlayın

Temel Makine Öğrenimi Mülakat Soruları

Temel sorular terminoloji, algoritmalar ve yöntemlerle ilgilidir. Mülakatçılar, adayın teknik bilgisini değerlendirmek için bu soruları sorar.

Yarı denetimli makine öğrenimi nedir?

Yarı denetimli öğrenme, denetimli ve denetimsiz öğrenmenin bir harmanıdır. Algoritma, etiketli ve etiketsiz verilerin bir karışımı üzerinde eğitilir. Genellikle, çok küçük bir etiketli veri kümesi ve büyük bir etiketsiz veri kümesi olduğunda kullanılır. 

Basitçe söylemek gerekirse, denetimsiz algoritma kümeler oluşturur ve mevcut etiketli veriler kullanılarak geri kalan etiketsiz veriler etiketlenir. Yarı denetimli bir algoritma süreklilik varsayımı, küme varsayımı ve manifold varsayımı yapar.

Genellikle etiketli veri edinme maliyetini düşürmek için kullanılır. Örneğin, protein dizisi sınıflandırma, otomatik konuşma tanıma ve otonom araçlar.  

Bir veri kümesi için hangi algoritmayı kullanacağınızı nasıl seçersiniz?

Veri kümesine ek olarak, bir iş kullanım durumu veya uygulama gereksinimleri gerekir. Aynı veriye denetimli ve denetimsiz öğrenme uygulayabilirsiniz. 

Genel olarak:

  • Denetimli öğrenme algoritmaları etiketli veri gerektirir.
    • Regresyon algoritmaları sürekli sayısal hedefler gerektirir
    • Sınıflandırma algoritmaları kategorik hedefler gerektirir
  • Denetimsiz öğrenme algoritmaları etiketsiz veri gerektirir.
  • Yarı denetimli öğrenme, etiketli ve etiketsiz veri kümelerinin birleşimini gerektirir. 
  • Pekiştirmeli öğrenme algoritmaları çevre, ajan, durum ve ödül verileri gerektirir. 

Makine öğrenimi algoritma seçimi

Görsel: thecleverprogrammer

Kursumuzu alarak makine öğrenimi temellerini öğrenin. 

K En Yakın Komşu algoritmasını açıklayın.

K En Yakın Komşu (KNN), denetimli bir öğrenme sınıflandırıcısıdır. Etiketleri sınıflandırmak veya tek tek veri noktalarının gruplandırmasını tahmin etmek için yakınlığı kullanır. Regresyon ve sınıflandırma için kullanılabilir. KNN algoritması parametrik olmayan bir yapıya sahiptir; yani veri dağılımı hakkında örtük bir varsayımda bulunmaz. 

KNN sınıflandırıcısında:

  • Beyaz noktaya en yakın K komşusunu buluruz. Aşağıdaki örnekte k=5 seçtik. 
  • Beş en yakın komşuyu bulmak için, beyaz nokta ile diğerleri arasındaki Öklid uzaklığını hesaplarız. Ardından, beyaz noktaya en yakın 5 noktayı seçeriz. 
  • K=5 için üç kırmızı ve iki yeşil nokta vardır. Çoğunluk kırmızı olduğundan, ona kırmızı etiket atarız. 

K En Yakın Komşu görselleştirmesi.

Görsel: Codesigner's Dev Story 

Kısa bir kurs alarak denetimli öğrenme sınıflandırma ve regresyon modelleri hakkında her şeyi öğrenin. 

Makine öğreniminde özellik önemi (feature importance) nedir ve nasıl belirlenir?

Özellik önemi, hedef değişkeni tahmin etmede ne kadar faydalı olduklarına göre girdi özelliklerine bir puan atayan teknikleri ifade eder. Verinin temel yapısını, modelin davranışını anlamada ve modeli daha yorumlanabilir hale getirmede kritik bir rol oynar.

Özellik önemini belirlemek için çeşitli yöntemler vardır:

  1. Modele dayalı önem: Karar Ağaçları ve Rastgele Ormanlar gibi bazı algoritmalar, özellik önemini değerlendirmek için yerleşik yöntemler sağlar. Örneğin, Rastgele Ormanlar, düğüm safsızlığındaki azalmayı o düğüme ulaşma olasılığına göre ağırlıklandırarak ve tüm ağaçlar üzerinde ortalamasını alarak hesaplar.
  2. Permütasyon önemi: Doğrulama setindeki tekil değişkenleri karıştırıp model performansındaki etkiyi gözlemlemeyi içerir. Model performansında belirgin bir düşüş yüksek öneme işaret eder.
  3. SHAP (SHapley Additive exPlanations): Bu yaklaşım, karmaşık bir modelde her özelliğin tahmine katkısını ölçmek için oyun teorisini kullanır. SHAP değerleri, modelin davranışına derin bir içgörü sağlar ve özellikle gradyan artırmalı makineler veya sinir ağları gibi karmaşık modeller için kullanışlıdır.
  4. Korelasyon katsayıları: Pearson veya Spearman gibi basit istatistiksel ölçüler, her özellik ile hedef değişken arasındaki doğrusal ilişki hakkında içgörü sağlayabilir.

Özellik önemini anlamak, modeli optimize etmek, bilgi taşımayan özellikleri çıkararak aşırı uyum riskini azaltmak ve özellikle modelin karar sürecini anlamanın kritik olduğu alanlarda modelin yorumlanabilirliğini artırmak için çok önemlidir.

Makine öğreniminde aşırı uyum (overfitting) nedir ve nasıl önlenir?

Aşırı uyum, bir model eğitim verisinde iyi performans gösterip, altta yatan örüntüleri öğrenmek yerine eğitim verisini ezberlediği için görülmemiş veriye genelleyemediğinde ortaya çıkar. Şunlarla önlenebilir:

  • Çapraz doğrulama tekniklerini kullanmak.
  • Düzenlileştirme uygulamak (L1, L2).
  • Model karmaşıklığını azaltmak.
  • Daha fazla eğitim verisi toplamak veya veri artırma kullanmak.

Denetimli ve denetimsiz öğrenme arasındaki fark nedir?

  • Denetimli Öğrenme: Model, hedef değişkenin bilindiği etiketli veriler üzerinde eğitilir. Örneklere sınıflandırma ve regresyon dahildir.
  • Denetimsiz Öğrenme: Model, desenler veya gruplamalar bulmak için etiketsiz veriler üzerinde eğitilir. Örneklere kümeleme ve boyut indirgeme dahildir.

Karmaşıklık matrisi (confusion matrix) nedir ve neden kullanışlıdır?

Karmaşıklık matrisi, bir sınıflandırma modelinin performansını değerlendirmek için kullanılan bir tablodur. Doğru pozitif, doğru negatif, yanlış pozitif ve yanlış negatif sayılarını gösterir. Doğruluk, kesinlik (precision), duyarlılık (recall) ve F1 skoru gibi metriklerin hesaplanması için kullanışlıdır.

Parametrik ve parametrik olmayan modeller arasındaki fark nedir?

Parametrik Modeller: Verinin temel dağılımı hakkında varsayımlar yapar ve sabit sayıda parametreye sahiptir (ör. Doğrusal Regresyon).

Parametrik Olmayan Modeller: Veri dağılımı hakkında varsayım yapmaz ve daha fazla veri eklendikçe karmaşıklığa uyum sağlayabilir (ör. K-En Yakın Komşu).

Makine öğreniminde önyargı-varyans dengesi (bias-variance tradeoff) nedir?

Önyargı-varyans dengesi, bir modelin karmaşık örüntüleri yakalama yeteneği (düşük önyargı) ile eğitim verisindeki dalgalanmalara duyarlılığı (düşük varyans) arasındaki dengeyi ifade eder. İyi bir model, hem önyargıyı hem varyansı en aza indirerek aşırı ve yetersiz uyumu önleyecek bir denge sağlar.

Makine Öğrenimi Teknik Mülakat Soruları

Teknik mülakat oturumu, süreçler hakkındaki bilginizi ve belirsizlikle başa çıkma becerinizi değerlendirmeye yöneliktir. İşe alım uzmanı, veri işleme, model eğitimi ve doğrulama ile ileri algoritmalar hakkında makine öğrenimi mülakat soruları soracaktır.

Özellik değerleri büyük ölçüde değiştiğinde bunları ölçeklendirmemiz gerektiği doğru mu?

Evet. Algoritmaların çoğu, veri noktaları arasındaki Öklid uzaklığını kullanır ve özellik değeri çok farklılık gösterirse sonuçlar oldukça farklı olur. Çoğu durumda aykırı değerler, makine öğrenimi modellerinin test veri kümesinde daha kötü performans göstermesine neden olur. 

Ayrıca, yakınsama süresini azaltmak için özellik ölçeklendirme yaparız. Özellikler normalize edilmediğinde, gradyan inişinin yerel minimuma ulaşması daha uzun sürer. 

Ölçekleme olmadan ve ölçekleme ile gradyan

Ölçekleme olmadan ve ölçekleme ile gradyan | Quora

Özellik mühendisliği becerileri yüksek talep görüyor. Python ile Makine Öğrenimi için Özellik Mühendisliği gibi bir DataCamp kursu alarak konu hakkında her şeyi öğrenebilirsiniz.  

Eğittiğiniz modelin önyargısı düşük, varyansı yüksek. Bunu nasıl ele alırsınız?

Düşük önyargı, modelin gerçek değere yakın tahminler yaptığı durumlarda görülür. Eğitim veri setini taklit eder. Modelin genelleme yeteneği yoktur; yani model görülmemiş veride test edildiğinde zayıf sonuç verir. 

Düşük önyargı ve yüksek varyans

Düşük önyargı ve yüksek varyans | Yazar

Bu sorunları gidermek için, veri setini rastgele örnekleme ile alt kümelere bölen torbalama (bagging) algoritmalarını kullanırız. Ardından, bu örneklerle tek bir algoritma kullanarak model setleri üretiriz. Sonrasında, model tahminlerini oylama sınıflandırması veya ortalama alma ile birleştiririz.

Yüksek varyans için düzenlileştirme teknikleri kullanabiliriz. Daha yüksek model katsayılarını cezalandırarak model karmaşıklığını düşürür. Ayrıca, özellik önem grafiğinden en iyi özellikleri seçip modeli yeniden eğitebiliriz. 

Model Sürüklenmesi (Model Drift) nedir ve üretimde nasıl tespit edilir?

Model sürüklenmesi, gerçek dünya verileri eğitim verileriyle karşılaştırıldığında değiştiği için bir modelin performansının zamanla bozulmasıdır. İki ana türü vardır:

  • Veri sürüklenmesi (Kovaryat kayması): Girdi veri dağılımı değişir (ör. kullanıcılar gündüz yerine gece görüntü yüklemeye başlar). Bunu, eğitim ve üretim özellik dağılımları arasındaki istatistiksel mesafeyi (KL Divergence gibi) izleyerek tespit edersiniz.
  • Kavram sürüklenmesi: Girdiler ile çıktılar arasındaki ilişki değişir (ör. "spam" tanımları zamanla değişir). Bunu, aşağı akış iş metriklerini (tıklanma oranı gibi) ya da mevcutsa gerçek doğruluk değerini izleyerek tespit edersiniz.

Zaman serisi veri kümesi için hangi çapraz doğrulama tekniğini önerirsiniz ve neden?

Çapraz doğrulama, model performansını sağlam bir şekilde değerlendirmek ve aşırı uyumu önlemek için kullanılır. Genel olarak çapraz doğrulama teknikleri, verilerden rastgele örnekler seçip bunları eğitim ve test veri setlerine böler. Bölme sayısı K değerine bağlıdır. 

Örneğin K = 5 ise, eğitim için dört, test için bir kat vardır. Modelin ayrı katlardaki performansını ölçmek için bu işlem beş kez tekrarlanır.  

Bunu zaman serisi veri kümesiyle yapamayız çünkü gelecekteki bir değeri kullanarak geçmişin değerini tahmin etmek mantıklı değildir. Gözlemler arasında zamansal bir bağımlılık vardır ve verileri yalnızca tek yönde bölebiliriz; böylece test veri setinin değerleri, eğitim setinin sonrasında kalır. 

Şema, zaman serisi verilerinde k katlı bölmenin tek yönlü olduğunu gösterir. Mavi noktalar eğitim setidir, kırmızı nokta test setidir, beyaz ise kullanılmayan veridir. Her yinelemede eğitim setiyle ileriye doğru hareket ederken, test setinin eğitim setinin önünde kaldığını ve rastgele seçilmediğini gözlemleyebiliriz. 

Zaman serisi çapraz doğrulama

Zaman serisi çapraz doğrulama | UC Business Analytics R Programlama Rehberi

Python ile Zaman Serileri alarak zaman serisi veri manipülasyonu, analizi, görselleştirme ve modelleme hakkında bilgi edinin.

Bilgisayarlı Görü Mühendisliği Mülakat Soruları

LinkedIn, Glassdoor ve Indeed'de sunulan makine öğrenimi işlerinin çoğu role özeldir. Bu nedenle mülakatta role özel sorulara odaklanılır. Bilgisayarlı görü mühendisliği rolü için işe alım uzmanı görüntü işleme sorularına yoğunlaşacaktır. 

Bilgisayarlı görü problemlerinde girdiler neden çok büyük olabilir? Bir örnekle açıklayın. 

250 X 250 boyutunda bir görsel ve 1000 gizli birime sahip tam bağlı bir ilk gizli katman hayal edin. Bu görsel için girdi özellikleri 250 X 250 X 3 = 187.500'dür ve ilk gizli katmandaki ağırlık matrisi 187.500 X 1000 boyutlu olacaktır. Bu sayılar depolama ve hesaplama açısından çok büyüktür ve bu sorunu çözmek için evrişim (convolution) işlemlerini kullanırız. 

Kısa bir Python ile Görüntü İşleme kursu alarak görüntü işlemeyi öğrenin

Küçük bir veri kümeniz olduğunda, bir evrişimli sinir ağını eğitmek için bir yol önerin.  

Bir evrişimli sinir ağını eğitmek için yeterli veriniz yoksa, transfer öğrenimi kullanarak modelinizi eğitebilir ve son teknoloji sonuçlar elde edebilirsiniz. Daha genel ancak daha büyük bir veri kümesi üzerinde eğitilmiş önceden eğitilmiş bir modele ihtiyacınız vardır. Sonrasında, modelin son katmanlarını eğiterek yeni veriler üzerinde ince ayar yaparsınız. 

Transfer öğrenimi, veri bilimcilerin daha az kaynak, hesaplama ve depolama kullanarak küçük veriler üzerinde model eğitmesini sağlar. Çeşitli kullanım durumları için açık kaynaklı önceden eğitilmiş modelleri kolayca bulabilirsiniz ve çoğu ticari lisansa sahiptir; bu da onları uygulamanızı oluşturmak için kullanabileceğiniz anlamına gelir. 

Transfer öğrenimi

Transfer Öğrenimi, purnasai gudikandula

Güncel nesne tespiti algoritması YOLO nedir ve mimarisi son dönemde nasıl evrildi?

YOLO, evrişimli sinir ağlarına dayalı bir nesne tespiti algoritmasıdır ve gerçek zamanlı sonuçlar sağlayabilir. YOLO algoritması, nesneyi tanımak için CNN üzerinden tek bir ileri geçiş gerektirir. Hem çeşitli sınıf olasılıklarını hem de sınırlayıcı kutuları tahmin eder. 

Model, çeşitli nesneleri tespit etmek üzere eğitilmiştir ve şirketler, otonom sürüş, yaban hayatını koruma ve güvenlik gibi modern uygulamalar için yeni veriler üzerinde ince ayar yapmak amacıyla transfer öğrenimini kullanmaktadır. 

YOLOv10 model mimarisi

YOLOv10 model mimarisi | researchgate

NLP Mühendisliği Mülakat Soruları

Doğal Dil İşleme (NLP), modern yapay zekâ uygulamalarının temel taşlarından biridir. Mülakatlarda, dilbilim kuramıyla pratik uygulama arasındaki köprüyü kurmanızı, klasik teknikler ile modern derin öğrenme yaklaşımlarını kullanarak yapılandırılmamış metin verisini işleme, analiz etme ve anlam çıkarma becerinizi sınayan sorular bekleyin.

Sözdizimsel Analiz nedir?

Sözdizimsel Analiz, diğer adıyla sözdizimi analizi veya Ayrıştırma (Parsing), bir cümlenin ya da cümlenin bir bölümünün arkasındaki mantıksal anlamı ortaya koyan metin analizidir. Sözcükler arasındaki ilişkilere ve cümlelerin dilbilgisel yapısına odaklanır. Doğal dili dilbilgisel kurallarla analiz etme süreci olarak da ifade edilebilir. 

Sözdizimsel Analiz

Sözdizimsel Analiz | researchgate

Gövdeleme (Stemming) ve Sözlükleme (Lemmatization) nedir?

Gövdeleme ve sözlükleme, bir cümledeki sözcüklerin yapısal çeşitliliğini en aza indirmek için kullanılan bir normalleştirme tekniğidir. 

Gövdeleme, sözcüğe eklenen ekleri kaldırır ve onu kök hâline getirir. Örneğin, Changing → Chang. 

Arama motorları tarafından depolama optimizasyonu için yaygın olarak kullanılır. Sözcüklerin tüm biçimlerini depolamak yerine yalnızca gövdeleri depolar. 

Sözlükleme, sözcüğü lemma biçimine dönüştürür. Çıktı, gövde yerine kök (sözlükte yer alan) sözcüktür. Sözlüklemeden sonra anlamlı geçerli bir sözcük elde ederiz. Örneğin, Changing → Change.

Gövdeleme vs. Sözlükleme

Gövdeleme vs. Sözlükleme | Yazar

Üretimde LLM çıkarım hızını optimize etmek için modern teknikler nelerdir?

Büyük dönüştürücüleri optimize etmek, hem bellek bant genişliği hem de hesaplama darboğazlarını ele almayı gerektirir:

  • Kantizasyon: Model ağırlıklarını FP16 (16 bit)ten INT8 veya INT4'e indirerek asgari doğruluk kaybıyla daha büyük modelleri daha küçük GPU belleğine sığdırma.​
  • PagedAttention (vLLM): KV (Anahtar-Değer) önbelleğini sanal bellek sayfaları gibi ele alan, bellek parçalanmasını ortadan kaldırarak 2-4 kat daha yüksek verim sağlayan bir bellek yönetimi tekniği.​
  • Spekülatif çözümleme: Küçük bir "taslak" modelin bir sonraki birkaç belirteci hızlıca tahmin etmesi ve bunların büyük model tarafından paralel şekilde doğrulanması. Bu, tekil belirteçler için bellek okuma/yazmanın genellikle hesaplamadan yavaş olmasından yararlanır.

Python ile Doğal Dil İşleme yetkinlik yolunu tamamlayarak NLP temellerini öğrenin. 

LLM Mühendisliği Mülakat Soruları

LLM'ler günümüz yapay zekâ dünyasına hâkim oldukça, mülakatçılar onları etkili şekilde devreye almayı bilen adaylara öncelik veriyor. Bu bölüm, 2026'nın en büyük pratik mühendislik zorluklarına odaklanır.

LLM bağlam penceresi (context window) nedir ve modelin bir seferde alabileceğinden daha fazla bağlam gerektiren görevleri nasıl ele alırsınız?

Bir LLM'in bağlam penceresi, modelin bir yanıt üretirken bir seferde dikkate alabileceği metnin (belirteç cinsinden) azami miktarıdır ve modelin etkili "çalışma belleğini" doğrudan sınırlar.

Büyük bağlam pencereleri yaygınlaşsa bile performans ve maliyet doğrusal ölçeklenmez: uzun istemler gecikmeyi artırır ve ilgili bilgi bağlamın ortalarında gömülü kaldığında hâlâ güvenilirlik sorunlarına yol açabilir.

Mülakatlarda, uzun belge görevleri için pratik stratejileri açıklayarak yanıt veririm:

  • Parçalama (chunking) kullanın (belgeleri anlamsal olarak anlamlı bölümlere ayırın) ve belirli bir soru için yalnızca en ilgili parçaları alın.​
  • Her seferinde tüm belgeyi göndermek yerine, doğru temellendirme ve hedefli geri getirme gerektiğinde Geri Getirme Artırmalı Üretim (RAG)'ı tercih edin; bu maliyeti azaltabilir ve "ortada kaybolma" davranışını önleyebilir.
  • Küresel bir bakış gerektiğinde özetleme veya hiyerarşik notlar kullanın (bölümlerin özeti → özetlerin özeti) ve ayrıntıları talep üzerine geri getirin.​

Büyük Dil Modellerinde halüsinasyonları nasıl azaltırsınız?

Halüsinasyonlar, bir LLM'in makul görünen ancak gerçek dışı bilgiler üretmesiyle ortaya çıkar. 2026'da azaltım çok katmanlı bir yaklaşım gerektirir:

  • Geri Getirme Artırmalı Üretim (RAG): Modeli, yalnızca güvenilir bir bilgi tabanından getirilen belgelere dayanarak yanıt vermeye zorlayarak temellendirmek.
  • İstem mühendisliği: Düşünce Zinciri (Chain-of-Thought) (modelden akıl yürütmesini adım adım açıklamasını istemek) ve Az Örnekli İsteme (Few-Shot) (doğrulanmış örnekler sağlamak) gibi teknikler hataları önemli ölçüde azaltır.
  • Güven puanlama ve öz-tutarlılık: Aynı istem için birden çok yanıt üretip en tutarlı olanı seçmek veya modelden yanıtlamadan önce kendi güvenini puanlamasını istemek.​
  • Korkuluklar (Guardrails): Çıktıları, kullanıcıya göstermeden önce tanımlı kurallara göre olgusal doğrulama yapan (NeMo Guardrails gibi) son işlem katmanları uygulamak.

RAG'i ne zaman İnce Ayar (Fine-Tuning) yerine seçmelisiniz?

Bu klasik bir "denge" sorusudur. Karar, verinin güncelliği ve alan özgüllüğüne bağlıdır:

  • Şu durumlarda RAG'i seçin: Modelin güncel bilgilere (ör. hisse fiyatları, güncel haberler) veya sık değişen özel veriye erişmesi gerekir. RAG daha ucuzdur ve bağlamda tam yanıtı sağladığı için halüsinasyonları azaltır.​
  • Şu durumlarda İnce Ayarı seçin: Modelin belirli bir davranışı, tarzı veya formatı öğrenmesi gerekir (ör. korsan gibi konuşmak ya da tescilli bir iç dilde kod yazmak). İnce ayar bilgiyi ağırlıklara işler ancak "bilgi kesim tarihi" sorununu çözmez.
  • Hibrit yaklaşım: Birçok üretim sisteminde, alan-özgü jargonu anlaması için model ince ayarlandıktan sonra en güncel gerçekleri beslemek için RAG kullanılır.

Soru, RAG vs Fine-Tuning blogumuzda daha ayrıntılı tartışılmaktadır.

Pekiştirmeli Öğrenme Mühendisliği Mülakat Soruları

Pekiştirmeli Öğrenme (RL), bir ajanın sabit veri kümeleri yerine bir çevreyle etkileşerek öğrendiği problemleri ele alır. RL'nin nasıl çalıştığını tartışmaya ve politika (policy) gibi temel kavramları açıklamaya hazır olun.

Tipik bir Pekiştirmeli Öğrenme algoritmasında yer alan adımlar nelerdir?

Pekiştirmeli öğrenme, hedeflere deneme-yanılma yoluyla ulaşır. Hedef odaklı bir algoritmadır ve toplam ödülü maksimize etmek için doğru adımları atarak çevreden öğrenir. 

Tipik pekiştirmeli öğrenmede:

  1. Başlangıçta, ajan çevreden sıfır durumunu alır
  2. Duruma bağlı olarak, ajan bir eylem alır
  3. Durum değişir ve ajan çevrede yeni bir konuma gelir.
  4. Ajan doğru hamleyi yaptıysa ödül alır.
  5. Süreç, ajan hedefe ulaşmak için en iyi yolu toplam ödülleri maksimize ederek öğrenene kadar tekrarlanır.

Pekiştirmeli Öğrenme Çerçevesi

Pekiştirmeli Öğrenme Çerçevesi | Yazar

Off-Policy ve On-Policy Öğrenme arasındaki fark nedir?

On-Policy öğrenme algoritmaları, aynı politikayı hem eyleme dökmek hem de güncellemek üzere değerlendirir ve iyileştirir. Başka bir deyişle, güncelleme için kullanılan politika ile eylem almak için kullanılan politika aynıdır. 

Hedef Politika == Davranış Politikası

On-policy algoritmalara Sarsa, On-Policy için Monte Carlo, Değer Yineleme (Value Iteration) ve Politika Yineleme (Policy Iteration) örnek verilebilir

Off-Policy Öğrenme algoritmaları ise tamamen farklıdır; güncellenen politika, davranış politikasından farklıdır. Örneğin Q-öğrenmede, ajan, açgözlü (greedy) bir politikanın yardımıyla optimal bir politikadan öğrenir ve eylemi diğer politikaları kullanarak alır. 

Hedef Politika != Davranış Politikası

On-policy vs. Off-policy durumu

On-policy vs. Off-policy durumu | Artificial Intelligence Stack Exchange

Neden "Derin" Q öğrenmeye ihtiyaç duyarız?

Basit Q öğrenme harikadır. Küçük ölçekte sorunu çözer, ancak büyük ölçekte başarısız olur. 

Çevrenin 1000 durumu ve durum başına 1000 eylemi olduğunu hayal edin. Milyonlarca hücrelik bir Q tablosuna ihtiyaç duyarız. Satranç ve Go oyunları daha da büyük tablolar gerektirir. İşte bu noktada Derin Q-öğrenme imdada yetişir. 

Q değer fonksiyonunu yaklaştırmak için bir sinir ağı kullanır. Sinir ağı, durumları girdi olarak alır ve tüm olası eylemlerin Q-değerlerini çıktı olarak verir. 

Otonom sürüş için Derin Q-ağı

Otonom sürüş için Derin Q-ağı | researchgate

FAANG Makine Öğrenimi Mühendisi Soruları

Aşağıda, en iyi teknoloji şirketlerindeki mülakatlarda size sorulabilecek bazı olası soruları özetledik: 

ROC eğrisi altındaki alan (AUC) nasıl yorumlanır?

Alıcı işletim karakteristikleri (ROC), duyarlılık ve özgüllük arasındaki dengeyi gösterir. 

  • Duyarlılık (Sensitivity): gerçek değer de pozitifken modelin pozitif sonucu tahmin etme olasılığıdır. 
  • Özgüllük (Specificity): gerçek değer de negatifken modelin negatif sonucu tahmin etme olasılığıdır.

Eğri, Yanlış pozitif oranı (FP/(TN + FP)) ve doğru pozitif oranı (TP/(TP + FN)) kullanılarak çizilir

ROC eğrisi altındaki alan (AUC), model performansını gösterir. ROC eğrisi altındaki alan 0,5 ise modelimiz tamamen rastgele demektir. AUC'si 1'e yakın olan model daha iyidir.

  ROC eğrisi

ROC eğrisi, Hadrien Jean

Tek bir "gerçek değer"in olmadığı Üretken Yapay Zekâ (GenAI) modellerini nasıl değerlendirirsiniz?

Sınıflandırmanın (cevabın doğru ya da yanlış olduğu) aksine, GenAI çoğunlukla insan değerlendirmesi veya "Hakem Olarak LLM" çerçeveleri gerektirir:

  • Referanssız metrikler: Daha güçlü bir model (GPT-4 gibi) kullanarak daha küçük bir modelin yanıtını "yardımcılık", "güvenlik" ve "tutarlılık" gibi ölçütlerde notlandırmak.
  • RAGAS (Retrieval Augmented Generation Assessment): Özellikle "sadakat"i (yanıt bağlamdan mı geldi?) ve "yanıt ilgililiği"ni (kullanıcının sorusunu yanıtladı mı?) ölçen standart bir çerçeve.​
  • İnsan değerlendirmesi (Elo Dereceleri): Nihai doğrulama için, iki model çıktısını yan yana karşılaştırmak (A/B testi) ve LMArena sıralamasına benzer bir Elo derecesi hesaplamak.

Boyut indirgeme yöntemleri nelerdir?

Boyut indirgeme için özellik seçimi veya özellik çıkarımı yöntemlerini kullanabiliriz. 

Özellik seçimi, en uygun özellikleri seçme ve ilgisiz özellikleri eleme sürecidir. Filtre, Sarmalayıcı (Wrapper) ve Gömülü (Embedded) yöntemleri kullanarak özellik önemini analiz eder ve daha az önemli özellikleri kaldırarak model performansını iyileştiririz. 

Özellik çıkarımı, çok boyutlu uzayı daha az boyuta dönüştürür. Süreç sırasında bilgi kaybı olmaz ve veriyi işlemek için daha az kaynak kullanır. En yaygın çıkarım teknikleri Doğrusal Ayrım Analizi (LDA), Çekirdek PCA ve Kuadratik Ayrım Analizi'dir.

Bir sınıflandırıcı için eşik değerlerini nasıl bulursunuz?

Bir spam sınıflandırıcı örneğinde, lojistik regresyon modeli olasılık döndürecektir. 0,8999 olasılığını kullanabilir veya bir eşik değeriyle sınıfa (Spam/Spam Değil) dönüştürebiliriz. 

Genellikle sınıflandırıcının eşiği 0,5'tir; ancak bazı durumlarda doğruluğu artırmak için bunu ince ayarlamak gerekir. 0,5 eşiği, olasılık 0,5'e eşit veya daha yüksekse spam, daha düşükse spam değil olduğu anlamına gelir.  

Eşiği bulmak için Kesinlik-Duyarlılık (Precision-Recall) eğrileri ve ROC eğrileri, ızgara araması ve daha iyi ÇD (çapraz doğrulama) değeri elde etmek için değeri elle değiştirerek yöntemleri kullanabiliriz.  

Python ile Makine Öğrenimi Bilimcisi kariyer yolunu tamamlayarak profesyonel bir makine öğrenimi mühendisi olun. 

Doğrusal regresyonun varsayımları nelerdir?

Doğrusal regresyon, özellikler (X) ile hedef (y) arasındaki ilişkiyi anlamak için kullanılır. Modeli eğitmeden önce birkaç varsayımı sağlamamız gerekir:

  1. Artıklar bağımsızdır 
  2. X bağımsız değişkeni ile y bağımlı değişkeni arasında doğrusal bir ilişki vardır. 
  3. X'in her seviyesinde artık varyansı sabittir
  4. Artıklar normal dağılımlıdır. 

Not: Doğrusal regresyonda artıklar, gerçek ve tahmin edilen değerler arasındaki farktır. 

Bir find_bigrams fonksiyonu yazarak bir string alıp tüm ikilileri (bigram) liste olarak döndürün.

Kodlama mülakatlarında sizden makine öğrenimi sorunları istenecektir, ancak bazı durumlarda genel Python soruları sorarak Python becerilerinizi de değerlendirirler. Python Programcısı kariyer yolunu alarak uzman bir Python programcısı olun. 

Bir bigram fonksiyonu oluşturmak oldukça kolaydır. zip fonksiyonuyla iki döngü kullanmanız gerekir. 

  1. bigram fonksiyonunda, girdi olarak cümle listesini alıyoruz
  2. Tek bir cümleye erişmek için döngü oluşturma
  3. Cümleyi küçültüp sözcük listesine ayırma
  4. zip kullanarak önceki sözcük ve sonraki sözcüğün kombinasyonunu oluşturma
  5. Çıktıyı sonuca ekleme 
  6. Sonuçları yazdırma.

Problemi parçalara ayırıp zip fonksiyonlarını kullanırsanız oldukça kolaydır. 

def bigram(text_list:list):
    result = []
    for ls in text_list:
        words = ls.lower().split()
        for bi in zip(words, words[1:]):
            result.append(bi)
    return result
text = ["Data drives everything", "Get the skills you need for the future of work"]
print(bigram(text))

Sonuçlar: 

[('Data', 'drives'), ('drives', 'everything'), ('Get', 'the'), ('the', 'skills'), ('skills', 'you'), ('you', 'need'), ('need', 'for'), ('for', 'the'), ('the', 'future'), ('future', 'of'), ('of', 'work')]

Makine Öğreniminde aktivasyon fonksiyonu nedir?

Aktivasyon fonksiyonu, sinir ağlarında doğrusal olmayan bir dönüşümdür. Girdiyi bir sonraki katmana geçirmeden önce aktivasyon fonksiyonundan geçiririz. 

Net giriş değeri -sonsuz ile +sonsuz arasında olabilir ve nöron bu değerleri sınırlamayı bilmediği için ateşleme desenine karar veremez. Aktivasyon fonksiyonu, nöronun etkinleşip etkinleşmeyeceğine karar vererek net giriş değerlerini sınırlar.  

En yaygın Aktivasyon Fonksiyonları:

  • Basamak (Step) Fonksiyonu
  • Sigmoid Fonksiyon
  • ReLU
  • Leaky ReLU 

Facebook'ta bir restoran öneri sistemi nasıl kurardınız?

Cevap tamamen size bağlı. Ancak yanıtlamadan önce, bir performans metriği belirlemek için hangi iş hedefini gerçekleştirmek istediğinizi ve veriyi nasıl edineceğinizi düşünmeniz gerekir. 

Tipik bir makine öğrenimi sistem tasarımında:

  • Veriyi toplar, temizler ve analiz ederiz.
  • Özellik mühendisliği yaparız
  • Bir yöntem, algoritma veya makine öğrenimi modeli seçeriz
  • Modeli test ve doğrulama veri kümelerinde eğitir ve değerlendiririz.
  • Süreçleri yalınlaştırır ve modeli üretime alırız.

Teoriden veya model mimarisinden ziyade tasarıma odaklandığınızdan emin olun. Model çıkarımından bahsedin ve bunu iyileştirmenin toplam geliri nasıl artıracağını anlatın. 

Ayrıca, neden belirli bir yöntemi diğerine tercih ettiğinize dair genel bir bakış verin. 

DataCamp'te bir kurs alarak öneri sistemleri oluşturma hakkında daha fazla bilgi edinin.

İki A ve B string'i verildiğinde, A'nın, B elde edilecek şekilde belli sayıda kaydırılıp kaydırılamayacağını döndüren bir can_shift fonksiyonu yazın.

Kodlama zorluklarını çözmek ve Python becerileriniz üzerinde çalışmak, kodlama mülakatı aşamasını geçme şansınızı artıracaktır. 

Bir problemi çözmeye başlamadan önce soruyu anlamanız gerekir. Basitçe, B stringindeki harfleri kaydırarak A string'ini elde edip edemeyeceğinizi True döndüren bir boolean fonksiyon oluşturmanız gerekir.  

A = 'abid'
B = 'bida'
can_shift(A, B) == True
  • String uzunlukları benzer değilse false döndürün. 
  • A String'inin uzunluğu aralığında döngü yapın
  • A String'ini kullanarak çeşitli karakter kombinasyonları oluşturmak için mut_a oluşturun
  • Döngü sırasında, mut_a B String'ine eşitse True, değilse False döndürün.  
def can_shift(a, b):

    if len(a) != len(b):
        return False

    for i in range(len(a)):
        mut_a = a[i:] + a[:i]
        if mut_a == b:
            return True

    return False


A = 'abid'
B = 'bida'
print(can_shift(A, B))
>>> True

Topluluk (Ensemble) öğrenme nedir?

Topluluk öğrenme, doğruluk ve performans metriklerini iyileştirmek için birden fazla makine öğrenimi modelinin içgörülerini birleştirmede kullanılır. 

Basit topluluk yöntemleri:

  • Ortalama/alma: birden fazla yüksek performanslı modelin tahminlerinin ortalamasını alırız.
  • Ağırlıklı ortalama: performansa göre makine öğrenimi modellerine farklı ağırlıklar atar ve ardından birleştiririz.  

İleri topluluk yöntemleri:

  • Torbalama (bagging), varyans hatalarını en aza indirmek için kullanılır. Eğitim verisinin alt kümelerini rastgele oluşturur ve modeller üzerinde eğitir. Modellerin birleşimi varyansı azaltır ve tek bir modele kıyasla daha güvenilir hale getirir. 
  • Artırma (boosting), önyargı hatalarını azaltmak ve üstün öngörücü modeller üretmek için kullanılır. Son sınıflandırmaya göre ağırlıkları ayarlayan yinelemeli bir topluluk tekniğidir. Artırma algoritmaları, önceki modelin yanlış tahmin ettiği gözlemlere daha fazla ağırlık verir.

Torbalama ve Artırma

Torbalama ve Artırma, Fernando López

Averajlama, torbalama, istifleme (stacking) ve artırma hakkında daha fazla bilgi edinmek için Python'da Topluluk Yöntemleri kursunu tamamlayın. 

Sonuç

Temel makine öğrenimi mülakat sorularını incelememizi tamamlarken, bu tür mülakatlarda başarılı olmanın, kuramsal bilgi, pratik beceriler ve alandaki en son trendler ile teknolojilerden haberdar olmanın bir bileşimini gerektirdiği açıktır. Yarı denetimli öğrenme ve algoritma seçimi gibi temel kavramları anlamaktan, KNN gibi belirli algoritmaların karmaşıklıklarına dalmaya ve NLP, bilgisayarlı görü veya pekiştirmeli öğrenme gibi role özgü zorluklarla başa çıkmaya kadar kapsam geniştir.

İster alana girmeyi hedefleyen bir başlangıç, ister daha da ilerlemeyi amaçlayan deneyimli bir uygulayıcı olun, sürekli öğrenme ve pratik yapmak anahtardır. DataCamp, becerilerinizi yapılandırılmış ve derinlemesine geliştirmenin bir yolu olan kapsamlı Python ile Makine Öğrenimi Bilimcisi yolunu sunar.

SSS

Bir makine öğrenimi mülakatı nasıldır?

Genellikle, makine öğrenimi teknik mülakatları birden fazla bölüme ayrılır:

  1. Kodlama mülakatı
  2. Algoritmalar ve Veri işleme
  3. Role özel mülakat
  4. ML sistem tasarımı mülakatı
  5. Makine öğrenimi operasyonları ve en iyi uygulamalar

Teknik olmayan veya yerinde mülakatlar da makine öğrenimi mülakat sürecinin parçasıdır, ancak daha genel ve şirkete özeldir.

Amazon'da makine öğrenimi mülakatlarını geçmek kolay mı?

Hayır, mülakatın çeşitli aşamalarına hazırlanmanız gerekir. Çevrimiçi değerlendirme testi, işe alım görevlisi telefon görüşmesi, teknik telefon görüşmesi ve yerinde mülakata hazırlanmalısınız. Her aşama beceri ve bilginizi test eder.

Makine öğrenimi mühendislerinin kodlama mülakatları olur mu?

Evet. Python ile problem çözme becerilerinizi ve SQL ile veri analizi becerilerinizi test eder. Ayrıca makine öğrenimi araçları hakkında sorular sorulacaktır. DataCamp değerlendirme testleri gibi kodlama zorluklarını çözerek pratik yapmak daha iyidir. 

Bir AI/ML mühendisi tarafından gerçekleştirilen ana görevler nelerdir?

Genel olarak, AI/ML mühendisleri makine öğrenimi sistemlerini araştırır, tasarlar ve geliştirir; ancak işten işe ve şirketten şirkete değişir. 

Ayrıca:

  • Veriyi temizler, veri doğrulama yapar ve model eğitimi için veriyi artırırlar. 
  • Daha iyi sonuçlar için model mimarisi ve hiperparametreleri ayarlarlar.
  • İşi ve veri erişilebilirliğini anlarlar.
  • Performans metrikleri, algoritmalar ve dağıtım stratejisi. 
  • Bazen bulut bilişim ve geliştirme operasyonlarına da dahil olurlar.

Bir makine öğrenimi mülakatına nasıl hazırlanırım?

Şirket ve iş sorumlulukları hakkında bilgi edinin, kodlama zorluklarını çözün, önceki projeleri gözden geçirin, uçtan uca makine öğrenimi yaşam döngüsünü tasarlayın ve öğrenin, deneme mülakat sorularını pratik edin ve AI/ML alanındaki en son gelişmeleri okuyun. Bu, ister makine öğrenimi mühendisi olmaya yeni başlıyor olun, ister yıllardır profesyonel olarak makine öğrenimi alanında çalışıyor olun, önemlidir.

Konular

Makine Öğrenimi Kursları

Kurs

Machine Learning for Finance in Python

4 sa
32.7K
Learn to model and predict stock data values using linear models, decision trees, random forests, and neural networks.
Ayrıntıları GörRight Arrow
Kursa Başla
Devamını GörRight Arrow
İlgili

blog

2026’da En Popüler 40 Yazılım Mühendisi Mülakat Sorusu

Algoritmalar, sistem tasarımı ve davranışsal senaryoları kapsayan bu temel sorularla teknik mülakat sürecine hakim olun. Uzman cevapları, kod örnekleri ve kanıtlanmış hazırlık stratejileri edinin.
Dario Radečić's photo

Dario Radečić

15 dk.

blog

Hızlı Sevkiyat İçin Pratik Vibe Kodlama Teknoloji Yığını

Ön uç, arka uç, veritabanları, kimlik doğrulama, depolama, e-posta, test, dağıtım ve izleme için en iyi araçları keşfedin.
Abid Ali Awan's photo

Abid Ali Awan

14 dk.

Eğitim

Python'da Listeyi String'e Nasıl Dönüştürürsünüz

Bu hızlı eğitimde, Python'da bir listeyi string'e nasıl dönüştüreceğinizi öğrenin.
Adel Nehme's photo

Adel Nehme

Eğitim

.gitignore Nasıl Kullanılır: Örneklerle Pratik Bir Giriş

Git deponuzu temiz tutmak için .gitignore’u nasıl kullanacağınızı öğrenin. Bu eğitim; temelleri, yaygın kullanım durumlarını ve başlamanıza yardımcı olacak pratik örnekleri kapsar!
Kurtis Pykes 's photo

Kurtis Pykes

Devamını GörDevamını Gör