Ga naar hoofdinhoud

Wat is Mixture of Experts (MoE)? Hoe het werkt, use-cases & meer

Mixture of Experts (MoE) is een machinelearningtechniek waarbij meerdere gespecialiseerde modellen (experts) samenwerken, met een gating-netwerk dat voor elke input de beste expert kiest.
Bijgewerkt 16 apr 2026  · 8 min lezen

Het trainen van large language models (LLM's) vergt vaak veel rekenkracht, wat voor veel organisaties en onderzoekers een drempel kan zijn.

De mixture of experts (MoE)-techniek pakt deze uitdaging aan door grote modellen op te splitsen in kleinere, gespecialiseerde netwerken.

Het concept MoE komt uit het paper uit 1991 Adaptive Mixture of Local Experts. Sindsdien zijn MoE's ingezet in modellen met biljoenen parameters, zoals de opensource Switch Transformers met 1,6 biljoen parameters.

In dit artikel geef ik een diepgaande verkenning van MoE, inclusief toepassingen, voordelen en uitdagingen.

Wat is een Mixture of Experts (MoE)?

Stel je een AI-model voor als een team van specialisten, elk met een eigen expertise. Een mixture of experts (MoE)-model werkt volgens dit principe door een complexe taak op te delen in kleinere, gespecialiseerde netwerken die “experts” worden genoemd.

Elke expert richt zich op een specifiek aspect van het probleem, waardoor het model de taak efficiënter en nauwkeuriger kan aanpakken. Het is vergelijkbaar met een arts voor medische kwesties, een monteur voor autoproblemen en een chef voor koken—elke expert doet waar hij of zij het beste in is.

Door samen te werken kunnen deze specialisten een breder scala aan problemen effectiever oplossen dan één generalist.

Kijk eens naar het diagram hieronder—we leggen het zo uit.

Onderdelen van mixture of experts (MoE)

Laten we de componenten van dit diagram uiteenzetten:

  • Input: Dit is het probleem of de data die je door de AI wilt laten verwerken.
  • Experts: Dit zijn kleinere AI-modellen, elk getraind om heel goed te zijn in een specifiek deel van het totale probleem. Zie ze als de verschillende specialisten in je team.
  • Gating-netwerk: Dit is als een manager die beslist welke expert het beste geschikt is voor elk deel van het probleem. Het bekijkt de input en bepaalt wie wat moet doen.
  • Output: Dit is het eindantwoord of de oplossing die het AI-model oplevert nadat de experts hun werk hebben gedaan.

De voordelen van MoE zijn:

  • Efficiëntie: Alleen de experts die goed zijn in een bepaald deel worden ingezet, wat tijd en rekenkracht bespaart.
  • Flexibiliteit: Je kunt eenvoudig meer experts toevoegen of hun specialisaties aanpassen, waardoor het systeem zich kan aanpassen aan verschillende problemen.
  • Betere resultaten: Doordat elke expert doet waar die goed in is, is de totale oplossing meestal nauwkeuriger en betrouwbaarder.

Laten we iets dieper ingaan op expertnetwerken en gating-netwerken.

Expertnetwerken

Zie de "expertnetwerken" in een MoE-model als een team van specialisten. In plaats van één AI-model dat alles doet, focust elke expert op een bepaald type taak of data.

In een MoE-model zijn deze experts als afzonderlijke neurale netwerken, elk getraind op verschillende datasets of taken.

Ze zijn ontworpen om schaars te zijn: slechts enkele zijn op een willekeurig moment actief, afhankelijk van de aard van de input. Dit voorkomt dat het systeem overbelast raakt en zorgt dat de meest relevante experts aan het probleem werken.

Maar hoe weet het model welke experts het moet kiezen? Daar komt het gating-netwerk om de hoek kijken.

Gating-netwerken

Het gating-netwerk (de router) is een ander type neuraal netwerk dat leert de inputdata te analyseren (zoals een zin om te vertalen) en te bepalen welke experts daar het best bij passen.

Het doet dit door een "gewicht" of belangrijkheidsscore aan elke expert toe te kennen op basis van de kenmerken van de input.  De experts met de hoogste gewichten worden vervolgens geselecteerd om de data te verwerken.

Er zijn verschillende manieren ("routing-algoritmen") waarop het gating-netwerk de juiste experts kan selecteren. Enkele gangbare zijn:

  1. Top-k routing: Dit is de eenvoudigste methode. Het gating-netwerk kiest de top-'k' experts met de hoogste affiniteitsscores en stuurt de inputdata naar hen.
  2. Expert choice routing: In deze methode kiezen niet de data de experts, maar bepalen de experts zelf welke data zij het best aankunnen. Deze strategie is gericht op optimale load balancing en maakt een gevarieerde mapping van data naar experts mogelijk.
  3. Sparse routing: Deze aanpak activeert slechts enkele experts per datapunt, waardoor een schaars netwerk ontstaat. Sparse routing gebruikt minder rekenkracht dan dense routing, waarbij alle experts voor elk datapunt actief zijn.

Tijdens de voorspellingsfase combineert het model de outputs van de experts, volgens hetzelfde proces waarmee het taken aan de experts toekende. Voor één taak kunnen meerdere experts nodig zijn, afhankelijk van hoe complex en gevarieerd het probleem is.

Laten we nu begrijpen hoe een MoE werkt.

Hoe Mixture of Experts (MoE) werkt

MoE werkt in twee fasen:

  1. De trainingsfase
  2. De inferentiefase

Trainingsfase

Net als bij andere machinelearningmodellen begint MoE met trainen op een dataset. De training wordt echter niet op het hele model toegepast, maar afzonderlijk op de componenten uitgevoerd.

Training van experts

Elke component van een MoE-raamwerk wordt getraind op een specifieke subset van data of taken. Het doel is dat elke component zich richt op een bepaald aspect van het bredere probleem.

Die focus wordt bereikt door elke component data te geven die relevant is voor zijn toegewezen taak. Bij een taalverwerkingstaak kan één component zich bijvoorbeeld op syntaxis richten en een andere op semantiek.

De training van elke component volgt een standaard trainingsproces voor neurale netwerken, waarbij het model leert de verliesfunctie voor zijn specifieke datasubset te minimaliseren.

Training van het gating-netwerk

Het gating-netwerk heeft als taak te leren de meest geschikte expert voor een gegeven input te selecteren.

Tijdens de training van het gating-netwerk wordt het samen met de expertnetwerken getraind. Het ontvangt dezelfde input als de experts en leert een kansverdeling over de experts te voorspellen. Deze verdeling geeft aan welke expert het best geschikt is voor de huidige input.

Het gating-netwerk wordt doorgaans getraind met optimalisatiemethoden die zowel de nauwkeurigheid van het gating-netwerk als de prestaties van de geselecteerde experts meenemen.

Gezamenlijke training

In de fase van gezamenlijke training wordt het hele MoE-systeem, dus zowel de expertmodellen als het gating-netwerk, samen getraind.

Deze strategie zorgt ervoor dat het gating-netwerk en de experts optimaal in harmonie werken. De verliesfunctie in gezamenlijke training combineert de verliezen van de individuele experts en het gating-netwerk, wat een collaboratieve optimalisatieaanpak stimuleert.

De gecombineerde verliesgradiënten worden vervolgens door zowel het gating-netwerk als de expertmodellen teruggepropageerd, zodat updates de algehele prestaties van het MoE-systeem verbeteren.

Inferentiefase

Inferentie houdt in dat outputs worden gegenereerd door context uit gating-netwerken te combineren met outputs van experts. In MoE is dit proces zo ontworpen dat de kosten van inferentie minimaal blijven.

Inputroutering

Binnen de context van MoE is de rol van het gating-netwerk cruciaal bij het bepalen welke modellen een specifieke input moeten verwerken.

Na het ontvangen van een input beoordeelt het gating-netwerk deze en maakt het een kansverdeling over alle modellen. Deze verdeling stuurt de input vervolgens naar de meest geschikte modellen, op basis van de patronen die tijdens de training zijn geleerd. Dit zorgt ervoor dat voor elke taak de juiste expertise wordt ingezet, wat de besluitvorming optimaliseert.

Expertselectie

Slechts een select aantal modellen, meestal één of enkele, wordt gekozen om elke input te verwerken. Deze selectie wordt bepaald door de door het gating-netwerk toegekende waarschijnlijkheden.

Het kiezen van een beperkt aantal modellen per input helpt om rekenbronnen efficiënt te gebruiken en toch te profiteren van de gespecialiseerde kennis binnen het MoE-raamwerk.

De output van het gating-netwerk zorgt ervoor dat de gekozen modellen het meest geschikt zijn voor de input, waardoor de algehele efficiëntie en prestaties verbeteren.

Outputcombinatie

De laatste stap in het inferentieproces is het samenvoegen van de outputs van de geselecteerde modellen.

Dit samenvoegen gebeurt vaak via gewogen middelen, waarbij de gewichten de waarschijnlijkheden van het gating-netwerk weerspiegelen. In sommige situaties kunnen alternatieve methoden zoals stemmen of geleerde combinatietechnieken worden gebruikt om de expertoutputs te combineren. Het doel is om de uiteenlopende inzichten van de geselecteerde modellen te integreren tot één eenduidige en nauwkeurige eindvoorspelling, en zo de sterke punten van de MoE-architectuur te benutten.

Met de snelle technologische vooruitgang groeit de behoefte aan snelle, efficiënte en geoptimaliseerde technieken om grote modellen te verwerken. MoE komt hierbij naar voren als een veelbelovende oplossing. Welke andere voordelen biedt MoE?

Voordelen van Mixture of Experts (MoE)

De Mixture of Experts (MoE)-architectuur biedt verschillende voordelen:

  1. Prestaties: Door selectief alleen de relevante experts voor een taak te activeren, vermijden MoE-modellen onnodige berekeningen, wat leidt tot hogere snelheid en minder verbruik van resources.
  2. Flexibiliteit: De diverse capaciteiten van experts maken MoE-modellen zeer flexibel. Door experts met gespecialiseerde vaardigheden in te schakelen, kan het MoE-model in een breder scala aan taken excelleren.
  3. Fouttolerantie: De "divide and conquer"-aanpak van MoE, waarbij taken afzonderlijk worden uitgevoerd, vergroot de veerkracht van het model. Als één expert een probleem heeft, hoeft dat niet de functionaliteit van het hele model te beïnvloeden.
  4. Schaalbaarheid - Het opdelen van complexe problemen in kleinere, beter beheersbare taken helpt MoE-modellen om steeds complexere inputs aan te kunnen.

Toepassingen van Mixture of Experts (MoE)

Het feit dat MoE's al 30 jaar bestaan, maakt het tot een veelgebruikte techniek in verschillende domeinen van de machine learning.

Natural language processing (NLP)

MoE biedt een unieke aanpak om grote modellen te trainen met verbeterde efficiëntie, snellere pretraining en concurrerende inferentiesnelheden.

In traditionele dichte modellen worden alle parameters voor alle inputs gebruikt. Schaarsheid maakt het daarentegen mogelijk om alleen specifieke delen van het systeem te draaien op basis van de input, wat de benodigde berekeningen aanzienlijk vermindert.

Een voorbeeld is Microsofts vertaal-API, Z-code. De MoE-architectuur in Z-code ondersteunt een enorme schaal aan modelparameters terwijl de benodigde rekenkracht constant blijft.

Computervisie

Google's V-MoE's, een schaarse architectuur gebaseerd op Vision Transformers (ViT), tonen de effectiviteit van MoE bij computervisie-taken aan.

Door afbeeldingen op te delen in kleinere patches en die aan een gating-/routeringslaag aan te bieden, kunnen V-MoE's dynamisch de meest geschikte experts per patch selecteren, wat zowel nauwkeurigheid als efficiëntie optimaliseert.

Een belangrijk voordeel van deze aanpak is de flexibiliteit. Je kunt het aantal geselecteerde experts per token verlagen om tijd en rekenkracht te besparen, zonder de modelgewichten verder te hoeven trainen.

Aanbevelingssystemen

MoE is ook met succes toegepast op aanbevelingssystemen. Zo hebben Google-onderzoekers een MMoE (Multi-Gate Mixture of Experts)-gebaseerd rankingsysteem voorgesteld voor YouTube-videorecommendaties. 

Ze delen hun taakdoel eerst op in twee categorieën: engagement en tevredenheid. Gegeven de lijst met kandidaatvideo's uit de retrievalstap, gebruikt hun rankingsysteem kandidaat-, gebruikers- en contextkenmerken om de kansen te leren voorspellen die overeenkomen met de twee categorieën gebruikersgedrag.

Belangrijk om te noemen is dat zij de MoE-laag niet direct op de input toepasten, omdat de hoge dimensionaliteit van de input zou leiden tot aanzienlijke kosten voor modeltraining en -serving.

MoE's zijn op grote schaal geïmplementeerd in de industrie voor verschillende toepassingen. Hun leerprocedure verdeelt de taak in passende deeltaken, die elk door een heel eenvoudig expertnetwerk kunnen worden opgelost. Deze mogelijkheid leidt tot paralleliseerbare training en snelle inferentie, wat MoE's aantrekkelijk maakt voor grootschalige systemen.

Mixture of Experts (MoE): uitdagingen

Experts zijn vooral voordelig voor high-throughput-scenario's waarbij veel machines betrokken zijn. Gegeven een vaste rekencap voor pretraining kan een schaars model efficiënter zijn.

Schattingen vereisen echter veel geheugen tijdens de uitvoering, omdat alle experts in het geheugen moeten worden opgeslagen. Dit kan een aanzienlijke beperking zijn in systemen met weinig VRAM, waar dergelijke modellen kunnen worstelen.

Laten we andere beperkingen van MoE's verkennen.

Trainingscomplexiteit

Het trainen van MoE-modellen is complexer dan het trainen van één enkel model. Dit is waarom:

  1. Coördinatie: Je hebt het gating-netwerk nodig om te leren inputs correct naar de juiste experts te routeren, terwijl elke expert zich specialiseert in verschillende delen van de data. Dat in balans brengen kan lastig zijn.
  2. Optimalisatie: De verliesfunctie die bij gezamenlijke training wordt gebruikt, moet de prestaties van de experts en het gating-netwerk balanceren, wat het optimalisatieproces bemoeilijkt.
  3. Hyperparametertuning: MoE-modellen hebben meer hyperparameters, zoals het aantal experts en de architectuur van het gating-netwerk. Het afstemmen hiervan kan tijdrovend en complex zijn.

Efficiëntie van inferentie

Inferentie in MoE-modellen kan minder efficiënt zijn door een paar factoren:

  1. Gating-netwerk: Het gating-netwerk moet voor elke input draaien om de juiste experts te bepalen. Dit voegt extra rekenwerk toe.
  2. Expertselectie en -activatie: Hoewel slechts een subset van experts per input wordt geactiveerd, brengt het selecteren en activeren hiervan overhead met zich mee, wat de inferentietijden kan verhogen.
  3. Parallelisme: Het parallel draaien van meerdere experts kan een uitdaging zijn, vooral in omgevingen met beperkte rekenbronnen. Effectief parallelisme vereist geavanceerde planning en resourcebeheer.

Grotere modelomvang

MoE-modellen zijn doorgaans groter dan enkele modellen vanwege de meerdere experts:

  1. Opslageisen: Het opslaan van meerdere expertnetwerken en het gating-netwerk verhoogt de totale opslagbehoefte, wat nadelig kan zijn in omgevingen met beperkte opslag.
  2. Geheugengebruik: Training en inferentie vragen meer geheugen omdat meerdere modellen tegelijkertijd in het geheugen geladen en onderhouden moeten worden. Dit kan problematisch zijn in omgevingen met beperkte resources.
  3. Uitdagingen bij deployment: Het uitrollen van MoE-modellen is moeilijker door hun omvang en complexiteit. Efficiënte deployment op diverse platforms, waaronder edge-apparaten, kan extra optimalisatie en engineeringinspanningen vereisen.

Conclusie

In dit artikel verkenden we de Mixture of Experts (MoE)-techniek, een geavanceerde aanpak om neurale netwerken op te schalen voor complexe taken en diverse data. MoE gebruikt meerdere gespecialiseerde experts en een gating-netwerk om inputs effectief te routeren.

We behandelden de kernelementen van MoE, waaronder expertnetwerken en het gating-netwerk, en bespraken de trainings- en inferentieprocessen.

Voordelen zoals betere prestaties, schaalbaarheid en aanpasbaarheid kwamen aan bod, evenals toepassingen in natural language processing, computervisie en aanbevelingssystemen.

Ondanks uitdagingen rond trainingscomplexiteit en modelomvang biedt MoE een veelbelovende manier om AI-capaciteiten verder te brengen.


Bhavishya Pandit's photo
Author
Bhavishya Pandit
LinkedIn
Twitter

Senior GenAI Engineer en contentmaker die 20 miljoen weergaven heeft behaald door kennis te delen over GenAI en datawetenschap.

Onderwerpen

Leer AI met deze cursussen!

Leerpad

Wetenschapper op het gebied van machine learning in Python

85 Hr
Ontdek machine learning met Python en werk eraan om een machine learning-wetenschapper te worden. Ontdek begeleid, onbegeleid en diepgaand leren.
Bekijk detailsRight Arrow
Begin met de cursus
Meer zienRight Arrow
Gerelateerd

blog

AI vanaf nul leren in 2026: een complete gids van de experts

Ontdek alles wat je moet weten om in 2026 AI te leren, van tips om te beginnen tot handige resources en inzichten van industrie-experts.
Adel Nehme's photo

Adel Nehme

15 min

Meer zienMeer zien