Direkt zum Inhalt

QwQ 32B: Funktionen, Zugang, DeepSeek-R1 Vergleich & mehr

Das Qwen-Team von Alibaba brachte QwQ-32B auf den Markt, ein Open-Source-KI-Modell mit 32 Milliarden Parametern für komplexe Schlussfolgerungen, das mit größeren Modellen wie DeepSeek-R1 konkurriert.
Aktualisierte 6. März 2025  · 6 Min. Lesezeit

Mit der Veröffentlichung von QwQ-32B beweist das Qwen-Team von Alibaba einmal mehr, dass es ein ernsthafter Konkurrent im Bereich der KI ist. Dieses Modell erreicht eine ähnliche Leistung wie DeepSeek-R1, einem führenden Reasoning-Modell, aber mit einem Bruchteil der Größe - 32 Milliarden Parameter im Vergleich zu den 671 Milliarden von DeepSeek.

Wenn dir QwQ-32B bekannt vorkommt, liegt das daran, dass es auf dem QwQ-32B-Preview aufbaut, das wir bereits in diesem Blog getestet haben QwQ-32B-Vorschau. Mit dieser letzten Version hat Qwen seinen Ansatz verfeinert, die Argumentationsfähigkeiten des Modells verbessert und es als Open-Source-KI allgemein verfügbar gemacht.

In diesem Blog werde ich das Wesentliche über den QwQ-32B aufschlüsseln - wie er funktioniert, wie er im Vergleich zu anderen Modellen abschneidet und wie du ihn nutzen kannst.

KI-Upskilling für Einsteiger

Lerne die Grundlagen von KI und ChatGPT von Grund auf.
KI kostenlos lernen

Was ist QwQ-32B?

QwQ-32B ist kein normales KI-Modell im Chatbot-Stil, sondern gehört zu einer anderen Kategorie: Denkmodelle.

Während die meisten KI-Modelle für allgemeine Zwecke, wie GPT-4.5 oder DeepSeek-V3darauf ausgelegt sind, flüssige, dialogfähige Texte zu einer Vielzahl von Themen zu erstellen, konzentrieren sich logisch denkende Modelle darauf, Probleme logisch aufzuschlüsseln, Schritte abzuarbeiten und strukturierte Antworten zu finden.

In dem folgenden Beispiel können wir den Denkprozess von QwQ-32B direkt sehen:

qwq-32b Denkprozess

Für wen ist QwQ-32B also gedacht? Wenn du nach einem Modell suchst, das dir beim Schreiben, Brainstorming oder Zusammenfassen hilft, ist dies nicht das Richtige.

Wenn du aber etwas brauchst, um technische Probleme zu lösen, mehrstufige Lösungen zu überprüfen oder in Bereichen wie der wissenschaftlichen Forschung, dem Finanzwesen oder der Softwareentwicklung zu helfen, ist QwQ-32B für diese Art von strukturiertem Denken gemacht. Sie ist besonders nützlich für Ingenieure, Forscher und Entwickler, die eine KI benötigen, die logische Arbeitsabläufe bewältigen kann und nicht nur Text erzeugt.

Es gibt auch einen breiteren Branchentrend zu berücksichtigen. Ähnlich wie der Aufstieg der kleinen Sprachmodellen (SLMs)können wir mit QwQ-32B das Aufkommen von "kleinen Argumentationsmodellen" erleben (diesen Begriff habe ich mir ausgedacht). Warum sage ich das? Zwischen den 671B-Parametern von DeepSeek-R1 und den 32B von QwQ-32B besteht ein 20-facher Unterschied, dennoch kommt QwQ-32B der Leistung sehr nahe (wie wir weiter unten im Abschnitt über Benchmarks sehen werden).

QwQ-32B Architektur

QwQ-32B ist so gebaut, dass er komplexe Probleme durchdenken kann, und ein großer Teil davon kommt daher, wie er ausgebildet wurde. Im Gegensatz zu traditionellen KI-Modellen, die sich nur auf das Vortraining und Feinabstimmungbeinhaltet QwQ-32B das Verstärkungslernen (RL)ein, eine Methode, die es dem Modell ermöglicht, seine Argumentation durch Lernen aus Versuch und Irrtum zu verfeinern.

Dieser Trainingsansatz gewinnt in der KI immer mehr an Bedeutung. Modelle wie DeepSeek-R1 nutzen ein mehrstufiges RL-Training, um stärkere logische Fähigkeiten zu erreichen.

Wie Verstärkungslernen das KI-Schlussfolgern verbessert

Die meisten Sprachmodelle lernen, indem sie das nächste Wort in einem Satz auf der Grundlage großer Mengen von Textdaten vorhersagen. Das ist zwar gut für den Redefluss, aber es macht sie nicht unbedingt gut im Lösen von Problemen.

Reinforcement Learning ändert dies, indem es ein Feedback-System einführt: Anstatt nur Text zu generieren, wird das Modell belohnt, wenn es die richtige Antwort findet oder einem korrekten Argumentationspfad folgt. Im Laufe der Zeit hilft dies der KI, ein besseres Urteilsvermögen zu entwickeln, wenn sie komplexe Probleme wie Mathematik, Codierung und logisches Denken angeht .

QwQ-32B geht noch einen Schritt weiter, indem es agentenbezogene Fähigkeiten integriert, die es ihm ermöglichen, sein Denken auf der Grundlage von Umweltrückmeldungen anzupassen. Das bedeutet, dass das Modell nicht nur Muster auswendig lernen muss, sondern auch Werkzeuge verwenden, Ausgaben überprüfen und seine Antworten dynamisch verfeinern kann. Diese Verbesserungen machen es zuverlässiger für strukturierte Denkaufgaben, bei denen es nicht ausreicht, einfach nur Wörter vorherzusagen.

Kleineres Modell, intelligentere Ausbildung

Einer der beeindruckendsten Aspekte der Entwicklung des QwQ-32B ist seine Effizienz. Obwohl er nur 32 Milliarden Parameter hat, erreicht er eine vergleichbare Leistung wie DeepSeek-R1, der 671 Milliarden Parameter hat (bei 37 Milliarden aktivierten Parametern). Das deutet darauf hin, dass eine Vergrößerung des Verstärkungslernens genauso wirkungsvoll sein kann wie eine Vergrößerung des Modells.

Ein weiterer wichtiger Aspekt des Designs ist das Kontextfenster mit 131.072 Stichwörtern, das es ihm ermöglicht, Informationen über lange Textpassagen hinweg zu verarbeiten und zu behalten.

QwQ-32B Benchmarks

QwQ-32B wurde entwickelt, um mit den modernsten Reasoning-Modellen zu konkurrieren, und seine Benchmark-Ergebnisse zeigen, dass er trotz seiner viel geringeren Größe überraschend nah an DeepSeek-R1 herankommt. Das Modell wurde in einer Reihe von Benchmarks in den Bereichen Mathematik, Codierung und strukturiertes Denken getestet, wo es oft auf oder nahe dem DeepSeek-R1-Niveau abschnitt.

qwq-32b benchmarks

Quelle: Qwen

Starke Leistungen in Mathe und logischem Denken

Eines der aufschlussreichsten Ergebnisse stammt von AIME24, einem Mathe-Benchmark, mit dem das Lösen von mathematischen Problemen getestet wird. QwQ-32B erzielte 79,5 Punkte und lag damit knapp hinter DeepSeek-R1 (79,8) und deutlich vor OpenAIs o1-mini (63,6) und DeepSeeks destillierten Modellen (70.0-72.6). Das ist besonders beeindruckend, wenn man bedenkt, dass QwQ-32B nur 32 Milliarden Parameter hat, verglichen mit den 671 Milliarden von DeepSeek-R1.

Bei einem weiteren wichtigen Benchmark, IFEval, der das funktionale und symbolische Denken testet, schnitt der QwQ-32B mit 83,9 Punkten ebenfalls sehr gut ab und lag damit leicht über dem DeepSeek-R1! Er liegt nur knapp hinter dem o1-mini von OpenAI, der diese Kategorie mit einer Punktzahl von 84,8 anführt.

Kodierfähigkeiten und agentenbasiertes Verhalten

Für KI-Modelle, die bei der Softwareentwicklung helfen sollen, sind Kodier-Benchmarks unerlässlich. Im LiveCodeBench, der die Fähigkeit misst, Code zu generieren und zu verfeinern, erreichte QwQ-32B 63,4 Punkte und lag damit knapp hinter DeepSeek-R1 mit 65,9 Punkten, aber deutlich vor OpenAIs o1-mini mit 53,8 . Das deutet darauf hin, dass das Verstärkungslernen eine wichtige Rolle bei der Verbesserung der Fähigkeit von QwQ-32B gespielt hat, iterativ durch Codierprobleme zu denken, anstatt nur einmalige Lösungen zu generieren.

Im LiveBench, einem Test zur Bewertung der allgemeinen Problemlösungsfähigkeiten, erzielte der QwQ-32B 73,1 Punkte und übertraf damit leicht den Wert des DeepSeek-R1 von 71,6 Punkten. Beide Modelle schnitten deutlich besser ab als OpenAIs o1-mini, das eine Punktzahl von 59,1 erreichte. Dies unterstützt die Idee, dass kleine, gut optimierte Modelle die Lücke zu massiven proprietären Systemen schließen können, zumindest bei strukturierten Aufgaben.

QwQ-32B zeichnet sich durch funktionale Argumentation aus

Das vielleicht interessanteste Ergebnis ist der BFCL, ein Benchmark, der das umfassende funktionale Denken bewertet. Hier erreichte QwQ-32B 66,4 und übertraf damit DeepSeek-R1 (60,3) und OpenAIs o1-mini (62,8) . Das deutet darauf hin, dass der Trainingsansatz von QwQ-32B, insbesondere seine agentenbasierten Fähigkeiten und seine Strategien des verstärkten Lernens, ihm einen Vorteil in Bereichen verschafft, in denen die Problemlösung Flexibilität und Anpassung erfordert und nicht nur auswendig gelernte Muster.

Zugang zum QwQ-32B

QwQ-32B ist vollständig quelloffen und damit eines der wenigen hochleistungsfähigen Rechenmodelle, mit denen jeder experimentieren kann. Egal, ob du es interaktiv testen, in eine Anwendung integrieren oder auf deiner eigenen Hardware laufen lassen willst, es gibt mehrere Möglichkeiten, auf das Modell zuzugreifen.

Interagiere mit QwQ-32B online

Für diejenigen, die das Modell einfach nur ausprobieren wollen, ohne etwas einzurichten, bietet Qwen Chat eine einfache Möglichkeit, mit QwQ-32B zu interagieren. Mit der webbasierten Chatbot-Benutzeroberfläche kannst du die Denk-, Mathematik- und Programmierfähigkeiten des Modells direkt testen. Es ist zwar nicht so flexibel wie ein lokales Modell, aber es bietet eine unkomplizierte Möglichkeit, die Stärken des Modells in Aktion zu sehen.

Um es auszuprobieren, musst du auf https://chat.qwen.ai/ und ein Konto erstellen. Sobald du eingeloggt bist, wählst du das Modell QwQ-32B im Menü "Modellauswahl" aus:

wie man auf das qwq-32b im Modellmenü zugreift

Der Thinking (QwQ) Modus ist standardmäßig aktiviert und kann bei diesem Modell nicht ausgeschaltet werden. Du kannst die Eingabeaufforderung in der chatbasierten Oberfläche starten:

QwQ-32B im Chat auffordern

Herunterladen und einsetzen von Hugging Face und ModelScope

Entwickler, die QwQ-32B in ihre eigenen Arbeitsabläufe integrieren möchten, können es unter Hugging Face oder herunterladen. ModelScope. Diese Plattformen bieten Zugang zu den Modellgewichten, Konfigurationen und Inferenzwerkzeugen und erleichtern so den Einsatz des Modells in der Forschung oder Produktion.

Fazit

QwQ-32B stellt die Vorstellung in Frage, dass nur massive Modelle beim strukturierten Schlussfolgern gut abschneiden können. Obwohl er viel weniger Parameter als DeepSeek-R1 hat, liefert er starke Ergebnisse in Mathematik, Kodierung und mehrstufigem Problemlösen, was zeigt, dass Trainingstechniken wie Reinforcement Learning und Long-Context-Optimierung einen großen Einfluss haben können.

Was mich am meisten beeindruckt, ist die Open-Source-Verfügbarkeit. Während viele leistungsstarke Argumentationsmodelle hinter proprietären APIs verschlossen bleiben, ist QwQ-32B über Hugging Face, ModelScope und Qwen Chat zugänglich und erleichtert Forschern und Entwicklern das Testen und Entwickeln.

FAQs

Ist QwQ-32B kostenlos?

Ja, QwQ-32B ist vollständig quelloffen, d.h. du kannst es über Plattformen wie Hugging Face und ModelScope kostenlos nutzen. Der lokale Betrieb oder der Einsatz in der Produktion kann jedoch erhebliche Hardware-Ressourcen erfordern, die zusätzliche Kosten verursachen können.

Kann der QwQ-32B feinjustiert werden?

Ja, da der QwQ-32B ein offenes Gewicht hat, kann er für bestimmte Aufgaben fein abgestimmt werden. Die Feinabstimmung eines Modells dieser Größe erfordert jedoch leistungsstarke GPUs und einen gut strukturierten Datensatz. Einige Plattformen, wie Hugging Face, bieten Werkzeuge für eine effiziente Feinabstimmung der Parameter, um die Rechenkosten zu senken.

Kannst du QwQ-32B lokal ausführen?

Ja, aber das hängt von deiner Hardware ab. Da es sich beim QwQ-32B um ein dichtes 32B-Modell handelt, ist für einen effizienten Betrieb ein High-End-GPU-Setup erforderlich, vorzugsweise mehrere A100 oder H100. Bei kleineren Systemen können Techniken wie die Quantisierung dazu beitragen, den Speicherbedarf zu reduzieren, auch wenn dies zu Lasten der Leistung geht.

Kannst du QwQ-32B über die API verwenden?

Derzeit gibt es keine offizielle API von Qwen für QwQ-32B, aber Plattformen von Drittanbietern können einen gehosteten API-Zugang anbieten. Wenn du das Modell direkt verwenden möchtest, musst du es manuell über Hugging Face oder ModelScope herunterladen und ausführen.

Ist QwQ-32B multimodal?

Nein, QwQ-32B ist ein reines Textmodell, das sich auf logisches Denken und Problemlösen konzentriert. Im Gegensatz zu Modellen wie dem GPT-4o verarbeitet es keine Bilder, Videos oder Audios.

Themen

Lerne KI mit diesen Kursen!

Lernpfad

AI Business Fundamentals

11hrs hr
Accelerate your AI journey, conquer ChatGPT, and develop a comprehensive Artificial Intelligence strategy.
Siehe DetailsRight Arrow
Kurs starten
Mehr anzeigenRight Arrow
Verwandt

Der Blog

Top 30 Generative KI Interview Fragen und Antworten für 2024

Dieser Blog bietet eine umfassende Sammlung von Fragen und Antworten zu generativen KI-Interviews, die von grundlegenden Konzepten bis hin zu fortgeschrittenen Themen reichen.
Hesam Sheikh Hassani's photo

Hesam Sheikh Hassani

15 Min.

Der Blog

Die 20 besten Snowflake-Interview-Fragen für alle Niveaus

Bist du gerade auf der Suche nach einem Job, der Snowflake nutzt? Bereite dich mit diesen 20 besten Snowflake-Interview-Fragen vor, damit du den Job bekommst!
Nisha Arya Ahmed's photo

Nisha Arya Ahmed

20 Min.

Der Blog

Q2 2023 DataCamp Donates Digest

DataCamp Donates hat im zweiten Quartal 2023 über 20.000 Stipendien an unsere gemeinnützigen Partner vergeben. Erfahre, wie fleißige benachteiligte Lernende diese Chancen in lebensverändernde berufliche Erfolge verwandelt haben.
Nathaniel Taylor-Leach's photo

Nathaniel Taylor-Leach

Der Blog

2022-2023 DataCamp Classrooms Jahresbericht

Zu Beginn des neuen Schuljahres ist DataCamp Classrooms motivierter denn je, das Lernen mit Daten zu demokratisieren. In den letzten 12 Monaten sind über 7.650 neue Klassenzimmer hinzugekommen.
Nathaniel Taylor-Leach's photo

Nathaniel Taylor-Leach

8 Min.

Der Blog

Lehrer/innen und Schüler/innen erhalten das Premium DataCamp kostenlos für ihre gesamte akademische Laufbahn

Keine Hacks, keine Tricks. Schüler/innen und Lehrer/innen, lest weiter, um zu erfahren, wie ihr die Datenerziehung, die euch zusteht, kostenlos bekommen könnt.
Nathaniel Taylor-Leach's photo

Nathaniel Taylor-Leach

4 Min.

Mehr anzeigenMehr anzeigen