Leerpad
Agentische AI wordt razendsnel omarmd in verschillende sectoren, en veel nieuwe bedrijven zijn op zoek naar experts op dit gebied. Dit artikel bevat echte vragen uit sollicitatiegesprekken voor junior- en mediorfuncties, enkele van mijzelf, en andere die een algemeen begrip van het vakgebied bieden.
Houd er rekening mee dat je in een echt gesprek eerst een praktische opdracht kunt krijgen. Je kunt ook worden gevraagd om je aanpak bij zulke taken uit te leggen, dus bereid je daarop voor.
Sommige vragen raken bredere onderwerpen en bieden extra studiegebieden. Ik raad ook aan om tijdens het gesprek authentiek te zijn—soms is het, zelfs met de juiste ervaring, net zo belangrijk dat je je antwoorden vooraf hebt doordacht.
Basisvragen voor interviews over agentische AI
We beginnen met enkele basisvragen die definities geven en de toon zetten voor het artikel. Een paar bevatten ook tips over wat je vooraf kunt voorbereiden.
Aan welke AI-toepassingen heb je gewerkt?
Interviewers willen je ervaring persoonlijk en gedetailleerd horen. Ze zoeken niet alleen een lijst met projecten—die hebben ze waarschijnlijk al via je cv—maar beoordelen hoe helder je elk project en jouw specifieke rol daarin kunt uitleggen.
Zorg dat je je antwoord vooraf voorbereidt en een duidelijk beeld hebt van je eerdere werk. Oefenen met een vriend of het uitschrijven helpt om je gedachten te ordenen.
Met welke libraries, frameworks en tools heb je ervaring? Van welke andere libraries heb je gehoord?
Net als bij de vorige vraag willen interviewers meer horen dan wat er op je cv staat. Wees klaar om elk project dat je hebt gedaan uit te splitsen en alle gebruikte technologieën toe te lichten.
Houd er rekening mee dat je op dit punt veel vervolgvragen kunt krijgen. Voor een werkgever is het belangrijk om je precieze skillset te begrijpen. Zorg dat je libraries als LlamaIndex of LangChain nog eens bekijkt, omdat dit de meest gebruikte high-level ontwikkellibraries zijn. Maak je daarnaast vertrouwd met modelproviders zoals Huggingface of Ollama.
Wat is agentische AI, en hoe verschilt het van traditionele AI?
Agentische AI verwijst naar AI-systemen die autonoom kunnen handelen, eigen doelen kunnen stellen en zich kunnen aanpassen aan veranderende omgevingen. Traditionele AI werkt daarentegen meestal op basis van vooraf gedefinieerde regels, waarbij het input ontvangt en output produceert.
Voor voorbeelden kun je je eigen projecten bespreken of andere agentische AI-toepassingen noemen die je hebt gebruikt of waarvan je hebt gehoord. Voor een diepgaandere uitleg raad ik het volgende artikel over agentische AI aan.
Wat vind je het leukst aan werken met agentische AI?
Dit is een veelvoorkomende vraag om je motivatie en interesses te begrijpen. Meestal heel open, zodat je elk pad kunt inslaan en echt het gesprek aan kunt gaan met de interviewer.
Heb hier een goed verhaal of uitleg klaar; wees enthousiast, specifiek en koppel het aan de rol. Als je niets concreets kunt noemen, praat dan over een product dat je gebruikt en waarom dat spannend of interessant is.
Kun je een voorbeeld geven van een agentische AI-toepassing en de onderdelen ervan toelichten?
Laten we bijvoorbeeld een zelfrijdende auto nemen. Bekijk eerst de doelen die de auto moet bereiken: autonoom rijden en navigeren, optimale routes bepalen, obstakels vermijden en—het belangrijkst—de passagiers veilig houden.
Zodra de doelen zijn vastgesteld, kunnen we kijken naar de mogelijke structuur van de applicatie. Een hoofdmodel kan verantwoordelijk zijn voor het rijden, met continue of on-demand input van kleinere modellen die taken afhandelen zoals route-optimalisatie of het ophalen van omgevingsinformatie.
Tijdens het gesprek kun je dieper ingaan op elk van deze componenten. Voel je vrij om ook je eigen voorbeelden te geven.
Met welke LLM’s heb je tot nu toe gewerkt?
Wees klaar om specifieke modellen waarmee je hebt gewerkt in detail te bespreken. Werkgevers willen weten hoe goed je het model intern begrijpt. Wees bijvoorbeeld klaar om opensourcemodellen zoals Llama of propriëtaire GPT-modellen te bespreken.
Dit is ook een goed moment om nieuwe modellen te noemen en te laten zien dat je bij de tijd blijft. Je kunt bijvoorbeeld praten over Deepseek R1 en andere redeneermodellen.
Wat is je ervaring met het gebruiken van LLM’s via de API?
Deze vraag gaat over het gebruiken van LLM’s via de API in plaats van via een chatvenster. Wees klaar om over je projecten te praten als die API’s gebruiken. Herhaal hoe je met API’s werkt, geheime sleutels genereert en opslaat, kosten monitort en met verschillende modelproviders omgaat. Dit is ook een goed moment om je engineeringervaring te benoemen.
Als je nog niet veel ervaring hebt met LLM’s via de API, bekijk dan deze bronnen:
- GPT-4.5 API-tutorial: aan de slag met de API van OpenAI
- DeepSeek API: een gids met voorbeelden en kostencalculaties
- Mistral OCR: een gids met praktische voorbeelden
Heb je redeneermodellen gebruikt?
Nu redeneermodellen zoals OpenAI o3 en DeepSeek-R1 opkomen, willen werkgevers weten wat je ervaring en vertrouwdheid daarmee is. Het gaat verder dan simpelweg een ander model kiezen in een applicatie of API-call, omdat deze modellen denk-tokens produceren en vaak een ander gebruikspatroon vereisen.
Je kunt een goede indruk maken als je weet hoe je een opensourcemodel kunt fine-tunen en lokaal draaien, omdat dit iets kan zijn wat het bedrijf nodig heeft. Oefen bijvoorbeeld met het fine-tunen van DeepSeek-R1 en het lokaal draaien ervan:
Gebruik je LLM’s in je dagelijkse workflow? Zo ja, waarvoor?
Als je LLM’s in je workflow gebruikt, is dit je kans om je expertise te laten zien. Je kunt praten over tools die je hebt gebruikt, wat je er goed of minder goed aan vond en waar je naar uitkijkt. Overweeg populaire tools te noemen zoals Cursor, NotebookLM, Lovable, Replit, Claude Artifacts, Manus AI, enz.
Welke bronnen gebruik je om bij te blijven met agentische AI?
Sommige werkgevers willen weten hoe up-to-date je bent of kunt blijven met AI. Bronnen die je in je antwoord kunt opnemen zijn AI-conferenties, fora, nieuwsbrieven, enzovoort.
Hoe comfortabel ben je met het lezen en begrijpen van papers en documentatie?
Het lezen van literatuur, papers en documentatie hoort bij vrijwel elke AI-functie. Je kunt ook worden gevraagd naar je algemene aanpak van leren of het opzoeken van informatie. Het is verstandig om niet over te komen als iemand die te afhankelijk is van chatbots in je antwoord.
Wees voorbereid om te praten over een recent paper dat je hebt gelezen—bijvoorbeeld Google’s Titans-architectuur.
Gevorderde basisvragen over agentische AI
Nu de basisvragen behandeld zijn, kunnen we iets dieper graven en enkele tussenliggende vragen bespreken die gesteld kunnen worden of als goed naslagwerk dienen.
Wat zijn je opvattingen over de ethiek van deze rol en agentische AI in het algemeen?
Ik denk dat dit een vrij zeldzame vraag is, maar nog steeds goed om over na te denken—misschien zelfs los van het interview. Je kunt nadenken over ideeën die raken aan de rol waarvoor je solliciteert of algemenere ideeën zoals AI-toepassingen die beslissingen nemen die mensen raken. De vraag heeft zeker geen goed of fout antwoord en dient vooral om te peilen hoeveel je geeft om of hebt nagedacht over het vakgebied.
Welke beveiligingsrisico’s moet je overwegen bij het uitrollen van autonome AI-agents?
Er zijn verschillende beveiligingszorgen om in gedachten te houden bij het uitrollen van autonome AI-agents. Eén risico is dat het model toegang kan hebben tot gevoelige interne tools of databases. Als het model niet goed is gesandboxed of van de juiste rechten is voorzien, kan een kwaadwillende gebruiker via prompt-injectie of adversariële input privégegevens ontfutselen of onbedoelde acties uitlokken.
Een ander risico betreft manipulatie van het gedrag van het model via zorgvuldig geformuleerde prompts of externe input. Een aanvaller kan het model ertoe brengen om veiligheidsbeperkingen te negeren, privileges te verhogen of af te wijken van de beoogde functie.
Er is ook de mogelijkheid van denial-of-service-achtige aanvallen—waarbij het model wordt overspoeld met verzoeken of wordt misleid om zichzelf stil te leggen. Als een agent kritieke infrastructuur of geautomatiseerde workflows aanstuurt, kan dit tot grotere verstoringen leiden.
Om deze risico’s te beperken, is het belangrijk om principes uit traditionele softwarebeveiliging toe te passen: least privilege, rigoureuze invoervalidatie, monitoring, rate limiting en doorlopend red-teamen van het gedrag van de agent.
Welke banen voor mensen denk je dat binnenkort worden vervangen door agentische AI-toepassingen en waarom?
Interviewers kunnen deze vraag stellen om te peilen hoe goed je de capaciteiten van agentische AI van vandaag begrijpt. Ze zoeken niet alleen een lijst, maar een doordachte uitleg van je redenering.
Zelf denk ik bijvoorbeeld niet dat artsen snel vervangen zullen worden—zeker niet degenen wier beslissingen direct van invloed zijn op mensenlevens—en dat raakt weer aan ethiek. Er is hier veel te verkennen, en je kunt ook bespreken of je het goed of slecht vindt dat bepaalde banen door AI worden vervangen.
Kun je enkele uitdagingen beschrijven waarmee je te maken kreeg bij het werken aan een AI-toepassing?
Hoewel dit een “jij”-vraag is, zet ik hem in de tussenliggende sectie omdat hij vrij vaak voorkomt en interviewers er veel waarde aan hechten. Je moet zeker een solide voorbeeld klaar hebben—probeer niet ter plekke iets te verzinnen.
Als je nog geen grote uitdagingen hebt meegemaakt, probeer dan in elk geval te praten over een theoretische situatie en hoe je die zou aanpakken.
Geavanceerde interviewvragen over agentische AI
Tot slot bespreken we enkele meer geavanceerde en technische vragen. Ik probeer zo algemeen mogelijk te blijven, al zullen vragen in een echt gesprek vaak specifieker zijn. In plaats van bijvoorbeeld algemeen naar indexeren te vragen, kun je worden gevraagd naar verschillende indexeringsmethoden die LangChain of Llama-Index ondersteunen.
Wat is het verschil tussen de systeem- en de gebruikersprompt?
Systeem- en gebruikersprompts zijn beide invoer voor een taalmodel, maar ze vervullen verschillende rollen en hebben doorgaans een verschillend gewicht.
De systeemprompt is een verborgen instructie die het algemene gedrag of de persona van het model bepaalt. Het is niet direct zichtbaar voor de gebruiker tijdens een gesprek, maar speelt een fundamentele rol. Zo kan de systeemprompt het model instrueren om te handelen als een behulpzame assistent, een wiskundige of een reisplanner. Het definieert de toon, stijl en beperkingen van de interactie.
De gebruikersprompt is daarentegen de invoer die de gebruiker direct typt—zoals een vraag of verzoek. Hierop reageert het model in real time.
In veel setups weegt de systeemprompt zwaarder en helpt die om consistent gedrag over sessies heen te behouden, terwijl de gebruikersprompt de specifieke inhoud van elk antwoord aanstuurt.
Hoe programmeer je een agentisch AI-systeem om concurrerende doelen of taken te prioriteren?
Agentische AI-systemen programmeer je doorgaans door duidelijke doelstellingen te definiëren, passende tools toe te wijzen en de logica te structureren die bepaalt hoe de agent taken prioriteert wanneer doelen botsen. Dit omvat vaak een combinatie van prompts, functieaanroepen en orkestratielogica—soms over meerdere modellen of subsystemen heen.
Eén aanpak is om een hiërarchie van doelen te definiëren en gewichten of regels toe te wijzen die de agent sturen bij conflicten. Sommige systemen gebruiken ook planningscomponenten of tussenliggende redeneerstappen (zoals reflectielussen of scratchpads) om afwegingen te evalueren vóórdat ze handelen.
Als dit nieuw voor je is, raad ik aan te beginnen met Anthropic’s artikel over agent-ontwerppatronen. Het biedt concrete voorbeelden en gangbare architecturen die in praktijksystemen worden gebruikt. Veel concepten zullen vertrouwd aanvoelen als je een achtergrond hebt in software-engineering, vooral rond modulair ontwerp, state management en asynchrone taakuitvoering.
Hoe vertrouwd ben je met prompten en prompt engineering? Welke aanpakken heb je gehoord of gebruikt?
Prompt engineering is een belangrijk onderdeel van een agentisch AI-systeem, maar het is ook een onderwerp dat snel tot clichés leidt—vermijd dus vage uitspraken over het belang ervan en focus op de technische details van hoe je het toepast.
Dit zou ik een goed antwoord vinden:
Ik ben vrij vertrouwd met prompten en prompt engineering, en ik heb verschillende technieken gebruikt in projecten en dagelijkse taken. Zo gebruik ik regelmatig few-shot prompting om modellen te sturen naar een specifiek formaat of toon door voorbeelden te geven. Ook gebruik ik chain-of-thought prompting wanneer ik wil dat het model stap voor stap redeneert—vooral nuttig bij taken als coderen, logische puzzels of plannen.
In meer gestructureerde toepassingen heb ik geëxperimenteerd met prompt tuning en promptcompressie, zeker bij API’s die per token rekenen of strakke controle over output vereisen. Deze technieken draaien om het destilleren van prompts tot hun essentie, met behoud van intentie en prestaties.
Omdat het vakgebied snel evolueert, lees ik consequent recente papers, GitHub-repo’s en documentatie-updates—waarbij ik op de hoogte blijf van technieken als function calling, retrieval-augmented prompting en modulaire prompt chaining.
Wat is een contextvenster? Waarom is de grootte beperkt?
Een contextvenster is de maximale hoeveelheid informatie—gemeten in tokens—die een taalmodel in één keer kan verwerken. Dit omvat de huidige prompt, eerdere gespreksgeschiedenis en systeeminstructies. Zodra de limiet van het contextvenster is bereikt, kunnen oudere tokens worden afgekapt of genegeerd.
De beperking van het contextvenster komt neer op computationele en architecturale grenzen. In transformergebaseerde modellen vereisen attentiemechanismen het berekenen van relaties tussen alle tokens in de context, wat kwadratisch toeneemt met het aantal tokens. Dit maakt het verwerken van zeer lange contexten duur en traag, zeker op huidige hardware. Eerdere modellen zoals RNN’s hadden niet op dezelfde manier een strikte contextlimiet, maar hadden moeite met het vasthouden van lange-afstandsafhankelijkheden.
Wat is retrieval-augmented generation (RAG)?
Retrieval-augmented generation (RAG) is een techniek die taalmodellen verbetert door ze relevante informatie uit externe bronnen te laten ophalen voordat ze een antwoord genereren. In plaats van uitsluitend te vertrouwen op wat het model tijdens training heeft geleerd, kunnen RAG-systemen tijdens inferentie toegang krijgen tot actuele of domeinspecifieke data.
Een typische RAG-setup heeft twee hoofcomponenten: een retriever, die in een database of documentencollectie zoekt naar relevante context op basis van de inputquery, en een generator, die die opgehaalde informatie gebruikt om een nauwkeuriger en beter onderbouwd antwoord te produceren. Deze aanpak is vooral nuttig voor taken die feitelijke juistheid, langetermijngeheugen of domeinspecifieke kennis vereisen.
Welke andere LLM-architecturen ken je naast de transformer?
Hoewel de transformer vandaag de dominante architectuur in AI is, zijn er verschillende andere modeltypes die het kennen waard zijn. Zo bouwt xLSTM voort op de LSTM-architectuur met verbeteringen die prestaties op lange reeksen verhogen en toch efficiënt blijven.
Mamba is een andere veelbelovende architectuur—die gebruikt selectieve state space-modellen om lange context efficiënter te verwerken dan transformers, vooral voor taken die geen volledige aandacht over elke token vereisen.
Google’s Titans-architectuur is ook het bekijken waard. Die is ontworpen om enkele belangrijke beperkingen van transformers aan te pakken, zoals het ontbreken van persistent geheugen en hoge rekenkosten.
Deze alternatieve architecturen streven ernaar modellen efficiënter en schaalbaarder te maken, en beter om te gaan met langere of complexere input zonder enorme hardwarebronnen te vereisen.
Wat zijn tool use en function calling in LLM’s?
Tool- en functieaanroepen stellen grote taalmodellen in staat om met externe systemen te interageren, zoals API’s, databases of aangepaste functies. In plaats van alleen op voorgetrainde kennis te vertrouwen, kan het model herkennen wanneer een taak actuele of gespecialiseerde informatie vereist en een passende tool aanroepen.
Als je een model met toegang tot een weer-API bijvoorbeeld vraagt: “Wat is het weer in Londen?”, dan kan het op de achtergrond die API aanroepen en realtime data teruggeven in plaats van een algemeen of verouderd antwoord te genereren. Deze aanpak maakt modellen nuttiger en betrouwbaarder, vooral voor taken met live data, berekeningen of acties buiten de interne capaciteiten van het model.
Wat is chain-of-thought (CoT), en waarom is het belangrijk in agentische AI-toepassingen?
Chain-of-thought (CoT) is een promptingtechniek die taalmodellen helpt complexe problemen op te breken in stapsgewijze redenering voordat ze een eindantwoord geven. Het laat het model tussenliggende redeneerstappen genereren, wat nauwkeurigheid en transparantie verbetert—vooral bij taken met logica, wiskunde of meerstapsbesluitvorming.
CoT wordt veel gebruikt in agentische AI-systemen. Wanneer een model bijvoorbeeld als ‘rechter’ in een evaluatie optreedt, kun je het vragen om zijn antwoord stap voor stap uit te leggen om het besluitvormingsproces beter te begrijpen. CoT is ook een kerntechniek in redeneermodellen zoals OpenAI o1, waar het model eerst redeneertokens genereert en die vervolgens gebruikt om de uiteindelijke output te produceren. Dit gestructureerde denkproces maakt agentgedrag beter interpreteerbaar en betrouwbaarder.
Wat is tracing? Wat zijn spans?
Tracing is het vastleggen en visualiseren van de reeks gebeurtenissen die plaatsvinden tijdens één run of aanroep van een applicatie. In de context van LLM-toepassingen legt een trace de volledige tijdlijn van interacties vast—zoals meerdere modelaanroepen, toolgebruik of beslismomenten—binnen één uitvoeringsflow.
Een span is één gebeurtenis of bewerking binnen die trace. Een modelaanroep, een functieaanroep of een retrievalstap worden bijvoorbeeld elk als afzonderlijke spans vastgelegd. Samen helpen spans je de structuur en het gedrag van je applicatie te begrijpen.
Tracing en spans zijn essentieel voor het debuggen en optimaliseren van agentische systemen. Ze maken het makkelijker om fouten, latentieknelpunten of onbedoelde gedragingen te ontdekken. Tools zoals Arize Phoenix en andere bieden visuele interfaces om traces en spans in detail te inspecteren.
Wat zijn evals? Hoe evalueer je de prestaties en robuustheid van een agentisch AI-systeem?
Evals zijn in wezen de unittests van agentische AI-engineering. Ze stellen ontwikkelaars in staat te beoordelen hoe goed het systeem presteert over verschillende scenario’s en randgevallen. Er zijn tegenwoordig verschillende typen evals. Eén aanpak is het gebruik van een handmatig samengestelde groundtruth-dataset om de modeluitvoer te vergelijken met bekende correcte antwoorden.
Een andere aanpak is een LLM als ‘rechter’ gebruiken om de kwaliteit, juistheid of redenering achter de modelantwoorden te beoordelen. Sommige evals testen het algehele taaksucces, terwijl andere zich richten op individuele componenten zoals toolgebruik, planning of consistentie. Door deze regelmatig te draaien, kun je regressies opsporen, verbeteringen meten en zorgen dat het systeem betrouwbaar blijft terwijl het evolueert. Voor meer diepgang raad ik deze LLM-evaluatiegids aan.
Kun je de transformerarchitectuur toelichten en het belang ervan voor agentische AI?
De transformerarchitectuur werd geïntroduceerd in de invloedrijke paper uit 2017 “Attention Is All You Need.” Als je hem nog niet hebt gelezen, is het de moeite waard—het legde de basis voor vrijwel alle moderne grote taalmodellen.
Sindsdien zijn veel variaties en verbeteringen ontwikkeld, maar de meeste modellen die in agentische AI-systemen worden gebruikt, zijn nog steeds gebaseerd op een vorm van de transformer.
Een belangrijk voordeel van de transformer is het attentiemechanisme, waarmee het model de relevantie van elke token in de invoerreeks kan berekenen ten opzichte van elke andere token, zolang alles binnen het contextvenster past. Dit maakt sterke prestaties mogelijk bij taken die begrip van lange-afstandsafhankelijkheden of redeneren over meerdere inputs vereisen.
Specifiek voor agentische AI maken de flexibiliteit en paralleliteit van de transformer hem zeer geschikt voor complexe taken zoals toolgebruik, planning en meerstapsdialogen—kerngedragingen in de meeste agentische systemen van vandaag.
Wat is LLM-observeerbaarheid, en waarom is het belangrijk?
LLM-observeerbaarheid is het vermogen om het gedrag van systemen met grote taalmodellen in realtime te monitoren, analyseren en begrijpen. Het is een parapluterm die tools omvat zoals traces, spans en evals, die ontwikkelaars zicht geven op de interne werking van het systeem.
Omdat LLM’s vaak als “black boxes” worden gezien, is observeerbaarheid essentieel voor debuggen, prestatieverbetering en betrouwbaarheid. Het stelt je in staat om te volgen hoe modellen met elkaar en met externe tools interageren, faalpunten te identificeren en onverwachte gedragingen vroegtijdig te detecteren. In agentische AI-systemen, waar meerdere stappen en beslissingen aan elkaar zijn geregen, is observeerbaarheid cruciaal om vertrouwen en controle te behouden.
Kun je model fine-tuning en modeldistillatie uitleggen?
Model fine-tuning is het verder trainen van een voorgetraind model op een nieuwe dataset, meestal om het te specialiseren voor een specifiek domein of taak. Dit laat het model zijn gedrag en antwoorden aanpassen op basis van gefocuste of actuele kennis.
Modeldistillatie is een verwante techniek waarbij een kleiner of minder capabel model wordt getraind op de output van een groter, krachtiger model. Het doel is om kennis en gedrag van het grotere model over te dragen naar het kleinere, wat vaak resulteert in snellere en efficiëntere modellen met vergelijkbare prestaties. Sinds de release van Deepseek R1 zijn bijvoorbeeld veel kleinere modellen gedistilleerd op zijn antwoorden en hebben ze indrukwekkende kwaliteit bereikt in verhouding tot hun grootte.
Wat is de next token prediction-taak, en waarom is die belangrijk? Wat zijn assistant-modellen?
Next token prediction, ook wel autoregressieve taalmodellering genoemd, is de kerntaak waarop de meeste grote taalmodellen worden getraind. Het model wordt getraind om de volgende token in een reeks te voorspellen op basis van alle voorgaande tokens. Deze eenvoudige doelstelling stelt het model in staat grammatica, feiten, redeneerpatronen en zelfs enige planningsvaardigheden te leren. Het resultaat van deze initiële trainingsfase heet een basismodel.
Assistant-modellen zijn basismodellen die verder zijn gefinetuned om behulpzamer, veiliger of meer conversational te zijn. Deze fine-tuning omvat meestal technieken zoals supervised instruction tuning en reinforcement learning met menselijke feedback (RLHF), die het model sturen om meer als een assistent te reageren in plaats van alleen tekst aan te vullen.
Wat is de human-in-the-loop (HITL)-aanpak?
De human-in-the-loop (HITL)-aanpak betekent dat mensen worden betrokken bij de training, evaluatie of realtime inzet van een LLM- of agentisch AI-systeem. Menselijke input kan op verschillende momenten plaatsvinden—tijdens modeltraining (bijv. data labelen, antwoorden rangschikken), tijdens fine-tuning (zoals bij RLHF), of zelfs tijdens uitvoering, waarbij een mens de acties van een agent kan sturen of goedkeuren.
Als een chatbot je bijvoorbeeld vraagt om de betere van twee antwoorden te kiezen, neem je actief deel aan een HITL-proces. Deze aanpak helpt de kwaliteit, veiligheid en alignment van modellen te verbeteren door menselijke oordeelsvorming in te brengen waar automatisering tekort kan schieten.
Conclusie
In dit artikel hebben we een reeks vragen behandeld die kunnen langskomen in een gesprek over agentische AI, samen met strategieën om erover na te denken, onderzoek te doen en effectief te antwoorden. Voor verdere studie raad ik aan de verwijzingen door het artikel heen te verkennen en eens te kijken naar DataCamp’s AI-cursussen voor meer gestructureerd leren.

