Ga naar hoofdinhoud

Qwen3.5: functies, toegang en benchmarks

Lees alles over de nieuwe Qwen3.5-serie modellen: de belangrijkste functies, kosten, hoe je toegang krijgt en hoe hij zich verhoudt tot vergelijkbare modellen.
Bijgewerkt 16 apr 2026  · 8 min lezen

Alibaba heeft zojuist zijn nieuwste large language model onthuld: Qwen3.5.  Dit nieuwe model volgt op recente releases zoals GPT-5.3 Codex en Claude Opus 4.6, die ons allebei wisten te imponeren. 

Volgens Alibaba is Qwen 3.5 “gebouwd voor het agentic AI-tijdperk”, en het vision-languagemodel zou goedkoper en efficiënter zijn dan zijn voorganger, met indrukwekkende prestaties op frontier-niveau in diverse benchmarks. 

Alibaba brengt ook Qwen3.5-Plus uit, een premiumversie met een contextvenster van 1 miljoen tokens, waarmee het de concurrentie met Gemini 3 nadrukkelijk aangaat. 

In dit artikel neem ik je mee langs de belangrijkste nieuwe features van Qwen3.5 en Qwen3.5-Plus, bekijken we hoe ze zich verhouden tot concurrenten, wat de benchmarks laten zien en hoe je toegang krijgt tot de nieuwe modellen. 

Bekijk ook zeker onze gidsen over de nieuwste concurrerende modellen, zoals Claude Sonnet 4.6 of GPT-5.3 Instant.

Wat is Qwen3.5?

Qwen3.5 is de nieuwste generatie in Alibaba’s serie large language models (LLM), Qwen3.5-397B-A17B. In tegenstelling tot de Qwen3-modelfamilie ervoor, combineert Qwen3.5 gespecialiseerde modellen in één native vision-language model. Net als eerdere Qwen-modellen is het open source onder de Apache 2.0-licentie.

Het is gepositioneerd als een algemeen fundamentmodel voor zowel consumenten- als bedrijfsgebruik en is ontworpen voor native multimodale en agentic workflows. Qwen3.5-397B-A17B biedt twee modi: 

  • “Thinking” voor taken die diepere redenering vereisen
  • “Fast” voor snelle inferentie bij routinetaken

Qwen3.5 vs Qwen3.5-Plus

Qwen3.5-Plus is een gehoste, alleen-API-service die overeenkomt met Qwen3.5-397B-A17B en is zelf geen open‑weight model. De releasenote was hier enigszins verwarrend over: de vermelding van Qwen3.5-Plus kan worden gelezen als een apart model, maar in werkelijkheid is het Alibaba’s propriëtaire dienst op basis van hetzelfde model.

Hoewel Qwen3.5-Plus op het Qwen3.5-397B-A17B-model is gebaseerd, zijn er enkele verschillen. Het is uitsluitend toegankelijk via de Alibaba Cloud Model Studio op basis van betalen per token, en via de Qwen Chat-UI met beperkte toegang. 

Qwen3.5-Plus gebruikt een uitgebreid contextvenster van 1 miljoen tokens, vergeleken met het contextvenster van 256K tokens van het standaard Qwen3.5-model. Naast “Thinking” en “Fast” bevat Qwen3.5-Plus bovendien een “Auto”-modus met adaptief denken, die naast reasoning ook tools kan gebruiken zoals zoeken en een code interpreter.

Belangrijkste features van Qwen3.5

Laten we de nieuwe functies van Qwen3.5 eens bekijken: 

Native multimodale capaciteiten

Net als OpenAI, dat zijn standaard- en Codex-modellen combineerde in de recente GPT-5.3 Codex-release, combineerde Alibaba tekst, visie en UI-interactie in één model.

Qwen3.5 is gezamenlijk getraind op tekst, afbeeldingen, UI-schermafbeeldingen en gestructureerde content. Het ondersteunt visuele vraagbeantwoording, documentbegrip en interpretatie van grafieken/tabellen, en kan pixel-niveau grounding uitvoeren om elementen op het scherm te identificeren en ermee te interacteren.

Visuele agentic capaciteiten

Dit brengt ons bij de volgende hoofdfocus van het nieuwe Qwen3.5-model. Door uitgebreide training op UI-schermafbeeldingen kan het model mobiele en desktopinterfaces herkennen en erop acteren. Dit stelt het model in staat om meerstapsworkflows uit te voeren zoals:

  • Formulieren invullen
  • Apps navigeren
  • Systeeminstellingen wijzigen
  • Bestanden organiseren 

Dit maakt Qwen3.5 ideaal voor productiviteitsautomatisering. Met natuurlijke taalopdrachten kun je de visuele agent van Qwen laten handelen over meerdere apps heen en complexe workflows afronden. Het model kan zelfs een toestand behouden over lange interactiereeksen, wat robuuste orkestratie van tools en apps mogelijk maakt. 

Verbeterde prestaties en efficiëntie

Qwen3.5 is een behoorlijk groot model met in totaal 397 miljard parameters, hoewel slechts 17 miljard per token worden geactiveerd dankzij de mixture-of-experts-architectuur. Kort gezegd: het heeft de intelligentie van een reuzenmodel, met de snelheid en kostenefficiëntie van een veel kleiner model. 

Concreet betekent dit dat Qwen3.5 397B-A17B, vergeleken met Qwen3-Max, 19x sneller decodeert bij long-contexttaken (256k tokens) en 8,6x sneller is bij standaardworkflows. Cruciaal is dat deze snelheid niet ten koste gaat van de intelligentie; het model evenaart nog steeds de redeneer- en codeerprestaties van Qwen3-Max en presteert beter dan Qwen3-VL, dankzij de vroege fusie van tekst en video.  

Betere kostenefficiëntie

Met de verbeterde prestaties zien we ook kostenvoordelen bij dit model. 

Ook betekent een native FP8-pijplijn (gegevens verwerken met 8-bit precisie in plaats van de standaard 16-bit) dat Qwen3.5 het benodigde geheugen halveert. Hierdoor kunnen berekeningen sneller plaatsvinden, wat de snelheid met meer dan 10% verbetert op de schaal van biljoenen tokens. 

Qwen3.5 heeft bovendien een indrukwekkende vocabulaire van 250k, waardoor het complexe concepten met minder tokens kan uitdrukken. Samen met multi-tokenvoorspellingen kan het model meerdere toekomstige woorden in één stap ‘raden’, wat de tokenkosten met 10–60% verlaagt in 201 talen. 

Hoe Qwen3.5 is ontwikkeld

Voor de ontwikkeling van Qwen3.5 is een aangepaste infrastructuur gebruikt die het trainen van multimodale en agentic modellen (bijna) net zo snel en goedkoop maakt als pure tekstmodellen. De speciale aanpak bij het trainen van Qwen3.5 komt neer op drie kerncomponenten:

  • Datakwaliteit
  • Heterogene infrastructuur
  • Asynchrone reinforcement learning (RL)

Datakwaliteit

Het team van Alibaba verzamelde veel meer visueel-tekstdata dan voor de Qwen3-modelfamilie, maar filterde deze zeer streng om invoer van hoge kwaliteit te garanderen. Dankzij de resulterende hoogwaardige dataset kan het model met 397B parameters zich meten met veel grotere modellen met 1T parameters, zoals Qwen3-Max.

Heterogene infrastructuur

De visuele en taaldelen zijn afzonderlijk, maar gelijktijdig getraind. Doordat geen van beide hoeft te wachten tot de ander klaar is met rekenen, zorgt de overlap voor bijna 100% trainingsthroughput vergeleken met pure tekstmodellen.

Asynchrone reinforcement learning

Met FP8-compressie (cijfers opslaan met de helft van het aantal bits) en speculatieve decodering (vooruit gokken) voeren agents duizenden taken gelijktijdig uit terwijl de training op de achtergrond doorgaat zonder te wachten. Dit versnelde de training zonder noemenswaardig kwaliteitsverlies, waardoor Qwen3.5 complexe agentvaardigheden, zoals UI-klikken of meerstapstaken, 3–5x sneller leerde.

De trainingsinfrastructuur van Qwen3.5

Qwen3.5-benchmarks

De prestaties van Alibaba’s nieuwe model zijn al gevalideerd op veel taken. We focussen op de resultaten in de speerpunten agentic en multimodale workflows, en op meer algemene redeneervaardigheden.

Qwen3.5-benchmarkprestaties vergeleken met Qwen3-Max-Thinking, Qwen3-VL-235B-A22B, GPT-5.2, Claude Opus 4.5 en Gemini 3 Pro

Agentic workflows

Het gebied waarin Qwen3.5 de grootste vooruitgang boekt ten opzichte van de Qwen3-familie is agentic workflows. 

  • Agentic terminal-coding: De grootste sprong vond plaats op Terminal-Bench 2.0, waar Qwen3.5 52,5 behaalt tegenover slechts 22,5 voor Qwen3-Max-Thinking, en het kan meekomen met Gemini 3 Pro (54,2). Dat gezegd hebbende, het blijft nog een eind achter op de huidige koploper, de recent gepubliceerde GPT-5.3 Codex (77,3).
  • Agentic search: Dit lijkt de grootste kracht van Qwen3.5 te zijn. Het behaalt een indrukwekkende 78,6 op BrowseComp, ruim beter dan Gemini 3 Pro (59,2) en pakt de tweede plek, alleen achter Claude Opus 4.6 (84,0)

Multimodaliteit

Multimodaliteit is nog een gebied dat aanzienlijke verbeteringen laat zien ten opzichte van de vorige modelfamilie. Dit geldt vooral voor embodied reasoning en documentherkenning:

  • Embodied reasoning: Qwen3.5 scoort 67,5 op ERQA, beduidend hoger dan Qwen3-VL (52,5); bijna gelijk aan Gemini 3 Pro (70,5)
  • Documentherkenning: Qwen3.5 doorbreekt de 90%-grens in OmniDocBench v1.5 met maar liefst 90,8, en presteert beter dan GPT-5.2 (85,7), Claude Opus 4.5 (87,7) en Gemini 3 Pro (88,5)
  • Visueel redeneren: Hier zit Qwen3.5 slechts net onder Gemini 3 Pro, met 79,0 op MMMU-Pro en 87,5 op Video-MME (Gemini 3 Pro: 81,0 en 88,4)

Redeneren, kennis en betrouwbaarheid

Redeneren en kennis waren duidelijk niet de hoofdprioriteiten van deze release. Toch zijn er lichte verbeteringen, vooral op het gebied van betrouwbaarheid.

  • Instructieopvolging: Met 76,5 op de IFBench lijkt Qwen3.5 zeer betrouwbaar en staat het hoog in de ranglijst. Ter vergelijking: de huidige koploper, AWS Nova 2.0 Pro, scoort 79,0
  • Redeneren op masterniveau: De GPQA Diamond-score van 88,4 is slechts een incrementele verbetering ten opzichte van Qwen3-Max-Thinking (87,4)
  • Meertalige kennis: Qwen3.5 behaalt een MMMLU-score van 88,5, wat onder Gemini 3 Pro (90,6) ligt, maar wel een aanzienlijke verbetering is ten opzichte van het vorige model (84,4)

Hoe krijg je toegang tot Qwen3.5

Net als eerdere modellen is Qwen3.5 open source en op meerdere manieren te gebruiken: direct in de chatapp, via de API, gedownload voor lokale deployment of geïntegreerd in maatwerkopstellingen.

Chatinterface

Je hebt direct toegang tot Qwen3.5 op chat.qwen.ai in de vertrouwde chatinterface. 

De keuzelijst voor modelselectie biedt zowel Qwen3.5-397B-A17B als Qwen3.5-Plus, plus enkele eerdere modellen uit de Qwen3-familie en Qwen2.5-Max.

API-toegang

API-toegang voor Qwen 3.5 werkt hetzelfde als voor Qwen3: OpenAI-compatibele endpoints via ModelScope (gratis tier, dagelijkse quota) of DashScope/Model Studio (betaald, inclusief Qwen3.5-Plus). Werk je model-ID bij naar qwen3.5-397b-a17b of qwen3.5-plus en je bent klaar om te gaan.

Open weights en lokale deployment

Zoals eerder vermeld zijn de modelgewichten van Qwen3.5-397B-A17B vrijgegeven onder de Apache 2.0-licentie. Je kunt Qwen3.5 lokaal draaien met tools zoals Ollama, LM Studio of vLLM.

De gewichten zijn te downloaden van:

Tot slot

Met nieuwe visuele agents, verbeterde prestaties en kostenoptimalisatie is de release van Qwen3.5 indrukwekkend. Het zet niet alleen druk op andere Chinese modellen, maar daagt ook modellen van OpenAI en Anthropic uit. 

Zoals bij andere releases dit jaar, zoals GPT-5.3-Codex en Claude Opus 4.6, verschuift de focus duidelijk richting agentic AI. Het snelle succes van OpenClaw heeft laten zien dat mensen snakken naar praktische AI-toepassingen, en modellen als Qwen3.5, Seedance 2.0 en de geruchten over een aanstaande release van DeepSeek tonen aan dat China snel uitgroeit tot marktleider in AI-modellen.

Qwen3.5: veelgestelde vragen

Wat is het verschil tussen Qwen3.5 en Qwen3.5-Plus?

Qwen3.5-397B-A17B is het open-weight model dat je kunt downloaden en zelf draaien. Het heeft een contextvenster van 256k en ondersteunt de modi "Thinking" (diepe redenering) en "Fast". Qwen3.5-Plus is de gehoste API-versie. Het gebruikt dezelfde architectuur maar voegt een enorm contextvenster van 1 miljoen tokens toe en een exclusieve "Auto"-modus, die adaptief tools kan gebruiken zoals websearch en code-interpreters zonder handmatig prompten.

Kan ik Qwen3.5 lokaal draaien en welke hardware heb ik nodig?

Ja, maar het vereist forse hardware. Hoewel Qwen3.5 slechts 17B parameters per token activeert (wat het snel maakt), moet je nog steeds het totale aantal van 397B parameters in het geheugen laden.

  • Volledig model (FP16/BF16): Vereist ~800GB VRAM (enterprise-grade cluster nodig).
  • Gekwantiseerd (4-bit): Vereist ~220GB aan unified memory. Dit kun je draaien op een Mac Studio/Pro met een M‑serie Ultra‑chip (256GB RAM) of een multi‑GPU‑rig (bijv. 3x A100 80GB of 10x RTX 3090/4090's).

Is Qwen3.5 gratis voor commercieel gebruik?

Ja. In tegenstelling tot veel frontier-modellen met beperkende communitylicenties is Qwen3.5 uitgebracht onder de Apache 2.0-licentie. Dit staat onbeperkt commercieel gebruik, aanpassing en distributie toe, wat het zeer aantrekkelijk maakt voor bedrijfsapplicaties.

Wat betekent "Native Multimodal" precies?

De meeste multimodale modellen (zoals de vorige Qwen3-VL) gebruiken een "opgeschroefde" aanpak, waarbij een apart visionmodel afbeeldingen verwerkt en omzet naar tekstfeatures voor het taalmodel. Native multimodaal betekent dat Qwen3.5 vanaf het begin is getraind om gelijktijdig te "zien" en te "lezen" met één enkel model. Dit resulteert in snellere verwerking en veel hogere nauwkeurigheid bij taken die diepe visuele grounding vereisen, zoals het begrijpen van complexe UI-schermen.

Hoe verhoudt Qwen3.5 zich tot de grotere Qwen3-Max?

Qwen3.5 is ontworpen als een efficiëntere opvolger. Hoewel Qwen3-Max een enorm model is met >1 biljoen parameters, evenaart Qwen3.5 de prestaties op belangrijke redeneer- en codeerbenchmarks, terwijl het 19x sneller tekst genereert. Zie Qwen3.5 als dezelfde "breinkracht" als Max, maar dan aanzienlijk sneller en goedkoper denkend.


Tom Farnschläder's photo
Author
Tom Farnschläder
LinkedIn

Tom is data scientist en technisch docent. Hij schrijft en beheert de data science-tutorials en blogposts van DataCamp. Eerder werkte Tom in data science bij Deutsche Telekom.


Senior redacteur in AI en edtech. Toegewijd aan het verkennen van data- en AI-trends.  

Onderwerpen

Topcursussen over AI

Leerpad

Basisprincipes van AI-agenten

6 Hr
Ontdek hoe AI-agenten je manier van werken kunnen veranderen en waarde kunnen toevoegen aan je organisatie!
Bekijk detailsRight Arrow
Begin met de cursus
Meer zienRight Arrow
Gerelateerd

blog

AI vanaf nul leren in 2026: een complete gids van de experts

Ontdek alles wat je moet weten om in 2026 AI te leren, van tips om te beginnen tot handige resources en inzichten van industrie-experts.
Adel Nehme's photo

Adel Nehme

15 min

Meer zienMeer zien