Program
Agentic AI kini dengan cepat diadopsi di berbagai industri, dan banyak perusahaan baru sedang mencari para ahli di bidang ini. Artikel ini memuat pertanyaan nyata dari wawancara kerja tingkat pemula dan menengah, beberapa yang saya susun sendiri, dan lainnya yang memberikan pemahaman umum tentang bidang ini.
Perlu diingat bahwa dalam wawancara sebenarnya, Anda mungkin diminta terlebih dahulu menyelesaikan latihan praktis. Anda juga bisa diminta menjelaskan pendekatan Anda terhadap tugas semacam itu, jadi pastikan untuk mempersiapkannya.
Beberapa pertanyaan di sini menyentuh topik yang lebih luas, memberi Anda area tambahan untuk dipelajari. Saya juga menyarankan agar Anda bersikap tulus selama wawancara—kadang, bahkan dengan semua pengalaman yang tepat, sama pentingnya untuk sudah memikirkan jawaban Anda sebelumnya.
Pertanyaan Wawancara Agentic AI Dasar
Kita akan mulai dengan beberapa pertanyaan dasar yang memberikan definisi dan membangun nada artikel. Beberapa di antaranya juga menyertakan kiat tentang apa yang perlu dipersiapkan sebelumnya.
Aplikasi AI apa saja yang pernah Anda kerjakan?
Pewawancara ingin mendengar pengalaman Anda secara personal dan rinci. Mereka tidak hanya mencari daftar proyek—karena kemungkinan sudah melihatnya di CV Anda—tetapi juga menilai seberapa jelas Anda dapat menjelaskan setiap proyek dan peran spesifik Anda di dalamnya.
Pastikan untuk menyiapkan jawaban Anda terlebih dahulu dan benar-benar memahami pekerjaan Anda sebelumnya. Berlatih dengan teman atau menuliskannya dapat membantu Anda mengatur alur pikir.
Library, framework, dan alat apa saja yang pernah Anda gunakan? Library lain apa yang Anda ketahui?
Mirip dengan pertanyaan sebelumnya, pewawancara ingin mendengar lebih dari sekadar apa yang tercantum di CV Anda. Bersiaplah untuk menguraikan setiap proyek yang pernah Anda kerjakan dan menjelaskan semua teknologi yang digunakan.
Perlu diingat Anda mungkin akan mendapat banyak pertanyaan lanjutan pada tahap ini. Penting bagi pemberi kerja untuk memahami keterampilan Anda secara presisi. Pastikan untuk meninjau atau mengenali library seperti LlamaIndex atau LangChain, karena ini adalah library pengembangan tingkat tinggi yang paling umum digunakan. Selain itu, biasakan diri dengan penyedia model seperti Huggingface atau Ollama.
Apa itu agentic AI, dan bagaimana perbedaannya dari AI tradisional?
Agentic AI merujuk pada sistem kecerdasan buatan yang dapat bertindak secara otonom, menetapkan tujuannya sendiri, dan beradaptasi dengan lingkungan yang berubah. Sebaliknya, AI tradisional biasanya beroperasi berdasarkan aturan yang telah ditentukan, menerima masukan dan menghasilkan keluaran.
Untuk contoh, Anda bisa membahas proyek Anda sendiri atau menyebutkan aplikasi agentic AI lain yang pernah Anda gunakan atau dengar. Untuk penjelasan yang lebih mendalam, saya sarankan membaca artikel berikut tentang agentic AI.
Apa yang membuat Anda antusias bekerja dengan agentic AI?
Ini adalah pertanyaan umum yang dirancang untuk memahami motivasi dan minat Anda. Biasanya sangat terbuka, memberi Anda keleluasaan untuk membahas arah mana pun dan berbicara dengan tulus kepada pewawancara.
Siapkan kisah atau penjelasan yang baik untuk ini, pastikan Anda antusias, spesifik, dan coba kaitkan dengan peran yang dilamar. Jika Anda kesulitan menyebutkan hal yang spesifik, cobalah membahas produk yang Anda gunakan dan mengapa itu menarik atau penting.
Bisakah Anda memberi contoh aplikasi agentic AI dan membahas komponennya?
Sebagai contoh, mari bahas mobil swa-kemudi. Pertama, pertimbangkan tujuan yang perlu dicapai mobil tersebut: harus mampu berkendara dan menavigasi jalan secara otonom, menyusun rute optimal, menghindari rintangan, dan yang terpenting, menjaga keselamatan penumpang.
Setelah tujuan ditetapkan, kita bisa melihat bagaimana aplikasi disusun. Model utama bisa bertanggung jawab untuk mengemudikan mobil, menerima masukan secara kontinu atau sesuai permintaan dari model-model yang lebih kecil yang menangani tugas seperti optimasi rute atau pengambilan informasi lingkungan.
Selama wawancara, Anda dapat menggali lebih dalam tiap komponen ini. Jangan ragu untuk membuat contoh Anda sendiri juga.
LLM mana saja yang telah Anda gunakan sejauh ini?
Bersiaplah untuk membahas secara rinci model tertentu yang pernah Anda gunakan. Pemberi kerja ingin tahu seberapa baik Anda memahami model secara internal. Misalnya, bersiaplah membahas model open-source seperti Llama atau model GPT yang proprieter.
Ini juga kesempatan baik untuk menyebutkan model baru dan menunjukkan bahwa Anda mengikuti perkembangan. Anda misalnya bisa membahas Deepseek R1 dan model penalaran lainnya.
Sejauh mana pengalaman Anda menggunakan LLM melalui API?
Pertanyaan ini tentang menggunakan LLM melalui API alih-alih jendela chat. Bersiaplah membahas proyek Anda jika menggunakan API. Pastikan meninjau penggunaan API, pembuatan dan penyimpanan secret key, pemantauan biaya, serta beragam penyedia model. Ini juga tempat yang baik untuk membahas pengalaman rekayasa Anda.
Jika Anda belum cukup berpengalaman menggunakan LLM melalui API, pertimbangkan sumber berikut:
- Tutorial API GPT-4.5: Memulai dengan API OpenAI
- DeepSeek API: Panduan dengan Contoh dan Perhitungan Biaya
- Mistral OCR: Panduan dengan Contoh Praktis
Apakah Anda pernah menggunakan model penalaran?
Dengan munculnya model penalaran seperti OpenAI o3 dan DeepSeek-R1, pemberi kerja ingin mengetahui pengalaman dan keterbiasaan Anda dengannya. Ini melampaui sekadar memilih model berbeda dalam aplikasi atau panggilan API, karena model-model ini menghasilkan thinking token dan sering memerlukan pola penggunaan yang berbeda.
Anda bisa memberikan kesan baik jika Anda tahu cara melakukan fine-tuning dan menjalankan model open-source secara lokal, karena ini mungkin dibutuhkan perusahaan tempat Anda melamar. Untuk latihan, pertimbangkan melakukan fine-tuning DeepSeek-R1 dan menjalankannya secara lokal:
- Fine-Tuning DeepSeek R1 (Model Penalaran)
- Cara Menyiapkan dan Menjalankan DeepSeek-R1 Secara Lokal dengan Ollama
Apakah Anda menggunakan LLM dalam alur kerja harian Anda? Jika ya, untuk apa?
Jika Anda menggunakan LLM dalam alur kerja, ini bisa menjadi kesempatan untuk menunjukkan keahlian Anda. Anda dapat membahas alat yang pernah digunakan, apa yang Anda sukai atau tidak sukai, dan hal-hal yang Anda nantikan. Pertimbangkan menyebutkan alat populer seperti Cursor, NotebookLM, Lovable, Replit, Claude Artifacts, Manus AI, dan sebagainya.
Sumber apa saja yang Anda gunakan untuk tetap mengikuti perkembangan agentic AI?
Beberapa pemberi kerja ingin tahu seberapa mutakhir Anda dalam bidang AI. Sumber yang bisa Anda sebutkan antara lain konferensi AI, forum, buletin email, dan sebagainya.
Seberapa nyaman Anda membaca dan memahami paper serta dokumentasi?
Membaca literatur, paper, dan dokumentasi adalah bagian dari hampir semua pekerjaan AI. Anda mungkin juga ditanya tentang pendekatan umum Anda dalam belajar atau mendapatkan informasi. Ada baiknya untuk tidak terkesan terlalu bergantung pada chatbot dalam jawaban Anda.
Bersiaplah untuk membahas paper terbaru yang Anda baca—misalnya, Anda bisa membahas Titans Architecture dari Google.
Pertanyaan Wawancara Agentic AI Menengah
Sekarang, setelah pertanyaan dasar, kita bisa menggali sedikit lebih dalam dan membahas beberapa pertanyaan menengah yang mungkin ditanyakan atau berguna sebagai referensi.
Bagaimana pandangan Anda tentang etika peran ini dan agentic AI secara umum?
Menurut saya ini pertanyaan yang cukup jarang, tetapi tetap baik untuk dipikirkan, bahkan secara umum dan tidak khusus untuk wawancara. Anda bisa memikirkan gagasan yang bersinggungan dengan peran yang Anda lamar atau ide yang lebih umum seperti aplikasi AI yang membuat keputusan yang memengaruhi kehidupan manusia. Pertanyaan ini jelas tidak memiliki jawaban yang benar dan umumnya hanya untuk melihat seberapa peduli Anda atau seberapa jauh Anda telah memikirkan bidang ini.
Risiko keamanan apa yang perlu dipertimbangkan saat menerapkan agen AI otonom?
Ada beberapa perhatian keamanan yang perlu diingat saat menerapkan agen AI otonom. Salah satu risikonya adalah model mungkin memiliki akses ke alat internal atau basis data sensitif. Jika model tidak di-sandbox atau diberi izin dengan benar, pengguna berbahaya bisa menggunakan prompt injection atau masukan adversarial untuk mengekstrak data privat atau memicu tindakan yang tidak diinginkan.
Risiko lain melibatkan manipulasi perilaku model melalui prompt atau masukan eksternal yang disusun dengan cermat. Penyerang dapat membuat model mengabaikan batasan keamanan, meningkatkan hak akses, atau berperilaku menyimpang dari fungsi yang dimaksudkan.
Ada juga kemungkinan serangan bergaya denial-of-service—di mana model dibanjiri permintaan atau diakali untuk menghentikan operasinya sendiri. Jika agen mengendalikan infrastruktur kritis atau alur kerja otomatis, ini bisa menyebabkan gangguan yang lebih besar.
Untuk mengurangi risiko ini, penting menerapkan prinsip dari keamanan perangkat lunak tradisional: least privilege, validasi input yang ketat, pemantauan, pembatasan laju, dan red-teaming berkelanjutan terhadap perilaku agen.
Pekerjaan manusia apa yang menurut Anda akan segera digantikan oleh aplikasi agentic AI dan mengapa?
Pewawancara mungkin menanyakan ini untuk memahami sejauh mana Anda mengerti kapabilitas agentic AI saat ini. Mereka tidak hanya mencari daftar, tetapi juga penjelasan yang matang mengenai alasan Anda.
Sebagai contoh, secara pribadi saya tidak berpikir dokter akan segera digantikan—terutama mereka yang keputusannya langsung memengaruhi kehidupan manusia—dan ini berkaitan dengan etika. Ada banyak hal untuk dieksplorasi di sini, dan Anda bahkan bisa membahas apakah menurut Anda penggantian pekerjaan tertentu oleh AI itu baik atau buruk.
Bisakah Anda jelaskan beberapa tantangan yang pernah Anda hadapi saat mengerjakan aplikasi AI?
Meskipun ini pertanyaan tentang “Anda”, saya menaruhnya di bagian menengah karena cukup umum dan pewawancara cenderung memberi bobot besar. Anda benar-benar perlu menyiapkan contoh yang solid—jangan mencoba mengarang di tempat.
Jika Anda belum menghadapi tantangan besar, setidaknya coba bahas situasi teoretis dan bagaimana Anda akan menanganinya.
Pertanyaan Wawancara Agentic AI Lanjutan
Terakhir, mari bahas beberapa pertanyaan yang lebih maju dan teknis. Saya akan mencoba tetap umum, meski dalam wawancara nyata pertanyaan bisa lebih spesifik. Misalnya, alih-alih menanyakan indexing secara umum, Anda mungkin ditanya tentang metode indexing berbeda yang didukung Langchain atau Llama-Index.
Apa perbedaan antara system prompt dan user prompt?
System prompt dan user prompt sama-sama masukan yang diberikan ke model bahasa, tetapi berperan berbeda dan biasanya memiliki tingkat pengaruh yang berbeda.
System prompt adalah instruksi tersembunyi yang menetapkan perilaku atau persona keseluruhan model. Ini tidak terlihat langsung oleh pengguna selama percakapan, tetapi berperan mendasar. Misalnya, system prompt dapat mengarahkan model untuk bertindak seperti asisten yang membantu, ahli matematika, atau perencana perjalanan. Ia menetapkan nada, gaya, dan batasan untuk interaksi.
Sebaliknya, user prompt adalah masukan yang diketik langsung oleh pengguna—seperti pertanyaan atau permintaan. Inilah yang direspons model secara real time.
Dalam banyak pengaturan, system prompt memiliki bobot lebih besar, membantu menjaga konsistensi perilaku lintas sesi, sementara user prompt mendorong konten spesifik dari tiap balasan.
Bagaimana Anda memprogram sistem agentic AI untuk memprioritaskan tujuan atau tugas yang saling bersaing?
Sistem agentic AI biasanya diprogram dengan mendefinisikan tujuan yang jelas, menetapkan alat yang tepat, dan menyusun logika yang menentukan bagaimana agen memprioritaskan tugas saat terjadi konflik tujuan. Ini sering melibatkan kombinasi prompt, pemanggilan fungsi, dan orkestrasi logika—kadang lintas beberapa model atau subsistem.
Salah satu pendekatan adalah mendefinisikan hierarki tujuan dan menetapkan bobot atau aturan yang membimbing agen memilih tugas mana yang dikerjakan saat konflik muncul. Beberapa sistem juga menggunakan komponen perencanaan atau langkah penalaran perantara (seperti reflection loop atau scratchpad) untuk mengevaluasi trade-off sebelum bertindak.
Jika Anda baru dalam hal ini, saya sarankan memulai dengan artikel Anthropic tentang pola desain agen. Di sana ada contoh konkret dan arsitektur umum yang digunakan dalam sistem dunia nyata. Banyak konsep akan terasa familier jika Anda memiliki latar belakang rekayasa perangkat lunak, terutama terkait desain modular, manajemen state, dan eksekusi tugas asinkron.
Seberapa nyaman Anda dengan prompting dan prompt engineering? Pendekatan apa yang pernah Anda dengar atau gunakan?
Prompt engineering adalah komponen utama dari sistem agentic AI, namun topik ini sering mengundang stereotip—jadi penting untuk menghindari pernyataan samar tentang pentingnya dan fokus pada detail teknis cara Anda menerapkannya.
Berikut contoh jawaban yang saya anggap baik:
Saya cukup nyaman dengan prompting dan prompt engineering, dan saya telah menggunakan beberapa teknik baik dalam pekerjaan proyek maupun tugas sehari-hari. Misalnya, saya secara rutin menggunakan few-shot prompting untuk mengarahkan model ke format atau nada tertentu dengan memberi contoh. Saya juga menggunakan chain-of-thought prompting saat saya membutuhkan model melakukan penalaran langkah demi langkah—ini sangat berguna untuk tugas seperti coding, teka-teki logika, atau perencanaan.
Dalam aplikasi yang lebih terstruktur, saya telah bereksperimen dengan prompt tuning dan prompt compression, terutama saat bekerja dengan API yang menagih berdasarkan jumlah token atau memerlukan kontrol ketat atas keluaran. Teknik ini melibatkan penyulingan prompt ke komponen paling esensial sambil mempertahankan maksud dan kinerja.
Karena bidang ini berkembang cepat, saya membiasakan membaca paper terbaru, repo GitHub, dan pembaruan dokumentasi—mengikuti teknik seperti function calling, retrieval-augmented prompting, dan prompt chaining modular.
Apa itu context window? Mengapa ukurannya terbatas?
Context window mengacu pada jumlah informasi maksimum—diukur dalam token—yang dapat diproses model bahasa sekaligus. Ini mencakup prompt saat ini, riwayat percakapan sebelumnya, dan instruksi tingkat sistem. Setelah batas context window tercapai, token yang lebih lama dapat dipotong atau diabaikan.
Alasan context window terbatas berkaitan dengan kendala komputasi dan arsitektur. Dalam model berbasis transformer, mekanisme attention memerlukan perhitungan relasi antara semua token dalam konteks, yang berkembang kuadratik seiring jumlah token. Ini membuat pemrosesan konteks yang sangat panjang menjadi mahal dan lambat, terutama pada perangkat keras saat ini. Model sebelumnya seperti RNN tidak memiliki batas konteks yang ketat dengan cara yang sama, tetapi kesulitan mempertahankan ketergantungan jarak jauh secara efektif.
Apa itu retrieval-augmented generation (RAG)?
Retrieval-augmented generation (RAG) adalah teknik yang meningkatkan model bahasa dengan memungkinkan mereka mengambil informasi relevan dari sumber eksternal sebelum menghasilkan respons. Alih-alih hanya mengandalkan apa yang dipelajari selama pelatihan, sistem RAG dapat mengakses data terbaru atau spesifik domain saat inferensi.
Pengaturan RAG khas memiliki dua komponen utama: sebuah retriever, yang mencari konteks relevan dalam basis data atau koleksi dokumen berdasarkan kueri masukan, dan sebuah generator, yang menggunakan informasi yang diambil untuk menghasilkan respons yang lebih akurat dan terinformasi. Pendekatan ini sangat berguna untuk tugas yang memerlukan ketepatan faktual, memori jangka panjang, atau pengetahuan spesifik domain.
Arsitektur LLM apa lagi yang Anda ketahui selain transformer?
Meskipun transformer adalah arsitektur dominan dalam AI saat ini, ada beberapa tipe model lain yang layak diketahui. Misalnya, xLSTM membangun arsitektur LSTM dengan peningkatan yang memperbaiki performa pada urutan panjang sambil mempertahankan efisiensi.
Mamba adalah arsitektur menjanjikan lainnya—ia menggunakan selective state space models untuk menangani pemrosesan konteks panjang secara lebih efisien daripada transformer, terutama untuk tugas yang tidak memerlukan attention penuh pada setiap token.
Arsitektur Titans dari Google juga patut ditelusuri. Ia dirancang untuk mengatasi beberapa keterbatasan utama transformer, seperti kurangnya memori persisten dan biaya komputasi yang tinggi.
Arsitektur alternatif ini bertujuan membuat model lebih efisien, skalabel, dan mampu menangani masukan yang lebih panjang atau kompleks tanpa memerlukan sumber daya perangkat keras yang masif.
Apa itu penggunaan alat (tool use) dan function calling dalam LLM?
Tool dan function calling memungkinkan model bahasa besar berinteraksi dengan sistem eksternal, seperti API, basis data, atau fungsi kustom. Alih-alih hanya mengandalkan pengetahuan pra-latih, model dapat mengenali kapan suatu tugas memerlukan informasi terbaru atau spesialis dan merespons dengan memanggil alat yang sesuai.
Sebagai contoh, jika Anda bertanya kepada model yang memiliki akses ke API cuaca, “Bagaimana cuaca di London?”, model bisa memutuskan memanggil API tersebut di latar belakang dan mengembalikan data waktu nyata alih-alih menghasilkan jawaban generik atau usang. Pendekatan ini membuat model lebih berguna dan andal, terutama untuk tugas yang melibatkan data live, komputasi, atau aksi di luar kapabilitas internal model.
Apa itu chain-of-thought (CoT), dan mengapa penting dalam aplikasi agentic AI?
Chain-of-thought (CoT) adalah teknik prompting yang membantu model bahasa menguraikan masalah kompleks menjadi penalaran langkah demi langkah sebelum menghasilkan jawaban akhir. Ini memungkinkan model menghasilkan langkah penalaran perantara, yang meningkatkan akurasi dan transparansi, terutama untuk tugas yang melibatkan logika, matematika, atau pengambilan keputusan multi-langkah.
CoT banyak digunakan dalam sistem agentic AI. Misalnya, ketika model bertindak sebagai juri dalam evaluasi, Anda dapat memintanya menjelaskan jawabannya langkah demi langkah untuk lebih memahami proses keputusannya. CoT juga menjadi teknik inti dalam model berfokus penalaran seperti OpenAI o1, di mana model terlebih dahulu menghasilkan token penalaran sebelum menggunakannya untuk memproduksi keluaran akhir. Proses berpikir terstruktur ini membuat perilaku agen lebih dapat diinterpretasi dan andal.
Apa itu tracing? Apa itu span?
Tracing adalah proses merekam dan memvisualisasikan rangkaian peristiwa yang terjadi selama satu kali run atau pemanggilan aplikasi. Dalam konteks aplikasi LLM, sebuah trace menangkap seluruh linimasa interaksi—seperti banyak panggilan model, penggunaan alat, atau titik keputusan—dalam satu alur eksekusi.
Span adalah satu peristiwa atau operasi dalam trace tersebut. Misalnya, panggilan model, pemanggilan fungsi, atau langkah retrieval masing-masing akan dicatat sebagai span individual. Secara bersama-sama, span membantu Anda memahami struktur dan perilaku aplikasi.
Tracing dan span sangat penting untuk debugging dan optimalisasi sistem agentic. Keduanya memudahkan menemukan kegagalan, bottleneck latensi, atau perilaku yang tidak diinginkan. Alat seperti Arize Phoenix dan lainnya menyediakan antarmuka visual untuk menelusuri trace dan span secara detail.
Apa itu evals? Bagaimana Anda mengevaluasi kinerja dan ketangguhan sistem agentic AI?
Evals pada dasarnya adalah unit test dalam rekayasa agentic AI. Evals memungkinkan pengembang menilai seberapa baik sistem berkinerja di berbagai skenario dan kasus tepi. Ada beberapa jenis evals yang umum digunakan saat ini. Salah satu pendekatan adalah menggunakan dataset ground-truth buatan tangan untuk membandingkan keluaran model dengan jawaban yang sudah diketahui benar.
Pendekatan lain adalah menggunakan LLM sebagai juri untuk menilai kualitas, akurasi, atau penalaran di balik respons model. Beberapa evals menguji keberhasilan tugas secara keseluruhan, sementara lainnya fokus pada komponen individual seperti penggunaan alat, perencanaan, atau konsistensi. Menjalankannya secara rutin membantu mengidentifikasi regresi, mengukur peningkatan, dan memastikan sistem tetap andal seiring perkembangannya. Untuk pendalaman, saya sarankan melihat panduan evaluasi LLM ini.
Bisakah Anda membahas arsitektur transformer dan signifikansinya bagi agentic AI?
Arsitektur transformer diperkenalkan dalam paper berpengaruh tahun 2017 “Attention Is All You Need.” Jika Anda belum membacanya, layak untuk ditelaah—paper ini menjadi fondasi bagi hampir semua model bahasa besar modern.
Sejak dirilis, banyak variasi dan peningkatan telah dikembangkan, namun sebagian besar model yang digunakan dalam sistem agentic AI masih berbasis pada bentuk transformer.
Salah satu keunggulan utama transformer adalah mekanisme attention, yang memungkinkan model menghitung relevansi setiap token dalam urutan masukan terhadap setiap token lainnya, selama semuanya masih dalam context window. Ini memungkinkan performa kuat pada tugas yang memerlukan pemahaman ketergantungan jarak jauh atau penalaran lintas banyak masukan.
Secara khusus untuk agentic AI, fleksibilitas dan paralelisme transformer membuatnya sangat cocok menangani tugas kompleks seperti penggunaan alat, perencanaan, dan dialog multi-giliran—perilaku inti di sebagian besar sistem agentic saat ini.
Apa itu observabilitas LLM, dan mengapa itu penting?
Observabilitas LLM mengacu pada kemampuan memantau, menganalisis, dan memahami perilaku sistem model bahasa besar secara real time. Ini adalah istilah payung yang mencakup alat seperti trace, span, dan evals, yang membantu pengembang memperoleh visibilitas tentang cara kerja internal sistem.
Karena LLM sering dianggap sebagai “kotak hitam”, observabilitas sangat penting untuk debugging, peningkatan performa, dan memastikan keandalan. Observabilitas memungkinkan Anda menelusuri bagaimana model saling berinteraksi dan dengan alat eksternal, mengidentifikasi titik kegagalan, serta menangkap perilaku tak terduga sejak dini. Dalam sistem agentic AI, di mana banyak langkah dan keputusan dirangkai, observabilitas sangat krusial untuk menjaga kepercayaan dan kendali.
Bisakah Anda menjelaskan model fine-tuning dan distilasi model?
Fine-tuning model adalah proses mengambil model pra-latih dan melatihnya lebih lanjut pada dataset baru, biasanya untuk mengkhususkan pada domain atau tugas tertentu. Ini memungkinkan model menyesuaikan perilaku dan respons berdasarkan pengetahuan yang lebih terfokus atau mutakhir.
Distilasi model adalah teknik terkait di mana model yang lebih kecil atau kurang mampu dilatih pada keluaran model yang lebih besar dan lebih kuat. Tujuannya adalah mentransfer pengetahuan dan perilaku dari model besar ke model kecil, seringkali menghasilkan model yang lebih cepat dan efisien dengan performa sebanding. Misalnya, sejak rilis Deepseek R1, banyak model lebih kecil telah didistilasi berdasarkan responsnya dan mencapai kualitas yang mengesankan relatif terhadap ukurannya.
Apa itu tugas prediksi token berikutnya, dan mengapa itu penting? Apa itu model asisten?
Prediksi token berikutnya, juga dikenal sebagai pemodelan bahasa autoregresif, adalah tugas pelatihan inti di balik sebagian besar model bahasa besar. Model dilatih untuk memprediksi token berikutnya dalam sebuah urutan berdasarkan semua token sebelumnya. Tujuan sederhana ini memungkinkan model mempelajari tata bahasa, fakta, pola penalaran, dan bahkan sebagian kemampuan perencanaan. Hasil dari fase pelatihan awal ini disebut base model.
Model asisten adalah base model yang kemudian di-fine-tune lebih lanjut agar berperilaku lebih membantu, aman, atau konversasional. Fine-tuning ini biasanya melibatkan teknik seperti supervised instruction tuning dan reinforcement learning with human feedback (RLHF), yang membimbing model untuk merespons lebih seperti asisten alih-alih sekadar melengkapi teks.
Apa itu pendekatan human-in-the-loop (HITL)?
Pendekatan human-in-the-loop (HITL) mengacu pada keterlibatan manusia dalam pelatihan, evaluasi, atau penggunaan real-time dari sistem LLM atau agentic AI. Masukan manusia dapat terjadi pada berbagai tahap—saat pelatihan model (misalnya, pelabelan data, meranking respons), saat fine-tuning (seperti pada RLHF), atau bahkan saat eksekusi, di mana manusia dapat membimbing atau menyetujui tindakan agen.
Sebagai contoh, jika chatbot meminta Anda memilih mana dari dua respons yang lebih baik, Anda berpartisipasi aktif dalam proses HITL. Pendekatan ini membantu meningkatkan kualitas, keamanan, dan keselarasan model dengan memasukkan penilaian manusia di tempat di mana otomatisasi saja mungkin kurang memadai.
Kesimpulan
Dalam artikel ini, kita membahas beragam pertanyaan wawancara yang mungkin muncul dalam wawancara agentic AI, beserta strategi untuk memikirkannya, menelitinya, dan menjawabnya secara efektif. Untuk studi lanjutan, saya sarankan menelusuri referensi yang disebutkan sepanjang artikel dan melihat kursus AI DataCamp untuk pembelajaran yang lebih terstruktur.

