Accéder au contenu principal

QwQ 32B : Fonctionnalités, accès, comparaison avec DeepSeek-R1, etc.

L'équipe Qwen d'Alibaba a lancé QwQ-32B, un modèle d'IA à code source ouvert de 32 milliards de paramètres pour le raisonnement complexe, en concurrence avec des modèles plus importants comme DeepSeek-R1.
Actualisé 6 mars 2025  · 6 min de lecture

Avec la sortie de QwQ-32B, l'équipe Qwen d'Alibaba prouve une fois de plus qu'elle est un concurrent sérieux dans le domaine de l'IA. Ce modèle permet d'obtenir des performances proches de celles de DeepSeek-R1un modèle de raisonnement de premier plan, mais avec une fraction de la taille - 32 milliards de paramètres contre 671 milliards pour DeepSeek.

Si le QwQ-32B vous semble familier, c'est parce qu'il s'appuie sur le QwQ-32B-Preview, que nous avons déjà testé dans ce blog sur le site suivant QwQ-32B-Preview. Aujourd'hui, avec cette dernière version, Qwen a affiné son approche, en perfectionnant les capacités de raisonnement du modèle et en le rendant largement disponible en tant qu'IA open-source.

Dans ce blog, je vais faire la part des choses et vous présenter l'essentiel de QwQ-32B : comment il fonctionne, comment il se compare à d'autres modèles et comment vous pouvez y accéder.

L'amélioration de l'IA pour les débutants

Apprenez les bases de l'IA et du ChatGPT en partant de zéro.
Apprendre l'IA gratuitement

Qu'est-ce que QwQ-32B ?

QwQ-32B n'est pas un simple modèle d'IA de type chatbot - il appartient à une autre catégorie : les modèles de raisonnement.

Alors que la plupart des modèles d'IA à usage général, comme GPT-4.5 ou DeepSeek-V3sont conçus pour générer des textes fluides et conversationnels sur un large éventail de sujets, les modèles de raisonnement se concentrent sur la décomposition logique des problèmes, la réalisation d'étapes et l'obtention de réponses structurées.

Dans l'exemple ci-dessous, nous pouvons voir directement le processus de réflexion de QwQ-32B :

qwq-32b processus de réflexion

Alors, à qui s'adresse QwQ-32B ? Si vous cherchez un modèle pour vous aider à écrire, à réfléchir ou à résumer, ce n'est pas celui-là.

Mais si vous avez besoin d'un outil pour résoudre des problèmes techniques, vérifier des solutions en plusieurs étapes ou vous aider dans des domaines tels que la recherche scientifique, la finance ou le développement de logiciels, QwQ-32B est conçu pour ce type de raisonnement structuré. Il est particulièrement utile pour les ingénieurs, les chercheurs et les développeurs qui ont besoin d'une IA capable de gérer des flux de travail logiques plutôt que de simplement générer du texte.

Il faut également tenir compte d'une tendance plus générale du secteur. À l'instar de l'essor des petits modèles de langage (SLM)nous pourrions assister avec QwQ-32B à l'émergence de "petits modèles de raisonnement" (j'ai totalement inventé ce terme). Pourquoi est-ce que je dis cela ? Il y a une différence de 20 fois entre les paramètres 671B de DeepSeek-R1 et les 32B de QwQ-32B, mais QwQ-32B est encore proche en termes de performances (comme nous le verrons plus loin dans la section sur les benchmarks).

Architecture du QwQ-32B

QwQ-32B est conçu pour résoudre des problèmes complexes, et cela est dû en grande partie à la façon dont il a été formé. Contrairement aux modèles d'IA traditionnels qui s'appuient uniquement sur le pré-entraînement et le réglage finQwQ-32B intègre l'apprentissage par renforcement (RL)une méthode qui permet au modèle d'affiner son raisonnement en apprenant par essais et erreurs.

Cette approche de formation a gagné du terrain dans le domaine de l'IA, avec des modèles comme DeepSeek-R1 qui utilisent une formation RL en plusieurs étapes pour obtenir des capacités de raisonnement plus fortes.

Comment l'apprentissage par renforcement améliore le raisonnement de l'IA

La plupart des modèles de langage apprennent en prédisant le mot suivant dans une phrase sur la base de grandes quantités de données textuelles. Si cette méthode fonctionne bien pour la fluidité, elle ne les rend pas nécessairement aptes à résoudre des problèmes.

L'apprentissage par renforcement modifie cette situation en introduisant un système de retour d'information : au lieu de simplement générer du texte, le modèle est récompensé lorsqu'il trouve la bonne réponse ou suit un chemin de raisonnement correct. Au fil du temps, cela aide l'IA à développer un meilleur jugement lorsqu'elle s'attaque à des problèmes complexes comme les mathématiques, le codage et le raisonnement logique .

QwQ-32B va plus loin en intégrant des capacités liées à l'agent, ce qui lui permet d'adapter son raisonnement en fonction des réactions de l'environnement. Cela signifie qu'au lieu de mémoriser des modèles, le modèle peut utiliser des outils, vérifier les résultats et affiner ses réponses de manière dynamique. Ces améliorations le rendent plus fiable pour les tâches de raisonnement structuré, où la simple prédiction de mots ne suffit pas.

Un modèle plus petit, une formation plus intelligente

L'un des aspects les plus impressionnants du développement de QwQ-32B est son efficacité. Bien qu'il ne dispose que de 32 milliards de paramètres, il atteint des performances comparables à celles de DeepSeek-R1, qui compte 671 milliards de paramètres (dont 37 milliards activés). Cela suggère que l'augmentation de l'apprentissage par renforcement peut avoir un impact tout aussi important que l'augmentation de la taille du modèle.

Un autre aspect clé de sa conception est sa fenêtre contextuelle de 131 072 mots, qui lui permet de traiter et de retenir des informations sur de longs passages de texte.

QwQ-32B Benchmarks

QwQ-32B est conçu pour rivaliser avec les modèles de raisonnement les plus récents, et ses résultats montrent qu'il est étonnamment proche de DeepSeek-R1, bien qu'il soit beaucoup plus petit. Le modèle a été testé sur une série de points de référence évaluant les mathématiques, le codage et le raisonnement structuré, où il a souvent obtenu des résultats équivalents ou proches des niveaux de DeepSeek-R1.

qwq-32b benchmarks

Source : Qwen

Excellentes performances en mathématiques et en raisonnement logique

L'un des résultats les plus révélateurs provient de l'AIME24, un test de mathématiques conçu pour tester la résolution de problèmes mathématiques. QwQ-32B a obtenu un score de 79,5, juste derrière DeepSeek-R1 (79,8) et loin devant o1-mini d'OpenAI (63,6) et les modèles distillés de DeepSeek. modèles distillés de DeepSeek (70.0-72.6). Ce résultat est d'autant plus impressionnant que QwQ-32B ne compte que 32 milliards de paramètres, contre 671 milliards pour DeepSeek-R1.

Un autre critère clé, IFEval, qui teste le raisonnement fonctionnel et symbolique, a également permis à QwQ-32B d'atteindre un niveau compétitif, avec un score de 83,9, légèrement supérieur à celui de DeepSeek-R1 ! Il n'est devancé que de peu par l'o1-mini d'OpenAI, qui domine cette catégorie avec un score de 84,8.

Capacités de codage et comportement agentique

Pour les modèles d'IA destinés à aider au développement de logiciels, les repères de codage sont essentiels. Dans LiveCodeBench, qui mesure la capacité à générer et à affiner le code, QwQ-32B a obtenu un score de 63,4, légèrement derrière DeepSeek-R1 (65,9), mais nettement devant o1-mini d'OpenAI (53,8) . Cela suggère que l'apprentissage par renforcement a joué un rôle important dans l'amélioration de la capacité de QwQ-32B à raisonner de manière itérative à travers les problèmes de codage plutôt que de simplement générer des solutions ponctuelles.

QwQ-32B a obtenu un score de 73,1 sur LiveBench, une évaluation des capacités générales de résolution de problèmes, dépassant légèrement le score de 71,6 de DeepSeek-R1. Ces deux modèles ont obtenu des résultats nettement supérieurs à ceux de l'o1-mini d'OpenAI, qui a obtenu un score de 59,1, ce qui confirme l'idée que de petits modèles bien optimisés peuvent combler l'écart avec les systèmes propriétaires massifs, au moins dans les tâches structurées.

QwQ-32B se distingue par son raisonnement fonctionnel

Le résultat le plus intéressant est peut-être celui de BFCL, un test de référence évaluant le raisonnement fonctionnel général. Ici, QwQ-32B a obtenu 66,4, dépassant DeepSeek-R1 (60,3) et o1-mini d'OpenAI (62,8) . Cela suggère que l'approche de formation de QwQ-32B, en particulier ses capacités agentiques et ses stratégies d'apprentissage par renforcement, lui confère un avantage dans les domaines où la résolution de problèmes nécessite de la flexibilité et de l'adaptation plutôt que de simples schémas mémorisés.

Comment accéder à QwQ-32B

QwQ-32B est entièrement open-source, ce qui en fait l'un des rares modèles de raisonnement très performants disponibles pour tout le monde. Que vous souhaitiez le tester de manière interactive, l'intégrer dans une application ou l'exécuter sur votre propre matériel, il existe de multiples façons d'accéder au modèle.

Interagir avec QwQ-32B en ligne

Pour ceux qui souhaitent simplement essayer le modèle sans rien mettre en place, Qwen Chat offre un moyen simple d'interagir avec QwQ-32B. L'interface web du chatbot vous permet de tester directement les capacités de raisonnement, de calcul et de codage du modèle. Bien qu'elle ne soit pas aussi souple que l'exécution locale du modèle, elle constitue un moyen simple de voir ses points forts en action.

Pour l'essayer, vous devez accéder à https://chat.qwen.ai/ et créer un compte. Une fois que vous êtes entré, commencez par sélectionner le modèle QwQ-32B dans le menu de sélection du modèle :

comment accéder au qwq-32b dans le menu du modèle

Le modeThinking (QwQ) est activé par défaut et ne peut pas être désactivé avec ce modèle. Vous pouvez commencer à poser des questions dans l'interface basée sur le chat :

Demande de QwQ-32B dans le chat

Téléchargez et déployez à partir de Hugging Face et ModelScope

Les développeurs qui souhaitent intégrer QwQ-32B dans leurs propres flux de travail peuvent le télécharger à l'adresse suivante Hugging Face ou de ModelScope. Ces plateformes permettent d'accéder aux poids du modèle, aux configurations et aux outils d'inférence, ce qui facilite le déploiement du modèle à des fins de recherche ou de production.

Conclusion

QwQ-32B remet en question l'idée selon laquelle seuls les modèles massifs peuvent être performants en matière de raisonnement structuré. Malgré un nombre de paramètres nettement inférieur à celui de DeepSeek-R1, il obtient d'excellents résultats en mathématiques, en codage et en résolution de problèmes en plusieurs étapes, ce qui montre que des techniques d'entraînement telles que l'apprentissage par renforcement et l'optimisation en contexte long peuvent avoir un impact significatif.

Ce qui me frappe le plus, c'est sa disponibilité en tant que source ouverte. Alors que de nombreux modèles de raisonnement très performants restent enfermés derrière des API propriétaires, QwQ-32B est accessible sur Hugging Face, ModelScope et Qwen Chat, ce qui permet aux chercheurs et aux développeurs de le tester et de le construire plus facilement.

FAQ

QwQ-32B est-il gratuit ?

Oui, QwQ-32B est entièrement open-source, ce qui signifie que vous pouvez y accéder gratuitement via des plateformes telles que Hugging Face et ModelScope. Cependant, l'exécuter localement ou l'utiliser en production peut nécessiter des ressources matérielles importantes, ce qui peut entraîner des coûts supplémentaires.

QwQ-32B peut-il être réglé avec précision ?

Oui, puisque QwQ-32B est un poids ouvert, il peut être réglé avec précision pour des tâches spécifiques. Cependant, la mise au point d'un modèle de cette taille nécessite des GPU puissants et un ensemble de données bien structuré. Certaines plateformes, comme Hugging Face, fournissent des outils pour un réglage fin efficace des paramètres afin de réduire les coûts de calcul.

Pouvez-vous exécuter QwQ-32B localement ?

Oui, mais cela dépend de votre matériel. QwQ-32B étant un modèle 32B dense, il nécessite une configuration GPU haut de gamme, de préférence plusieurs A100 ou H100, pour fonctionner efficacement. Pour les configurations plus petites, des techniques telles que la quantification peuvent contribuer à réduire les besoins en mémoire, mais avec des compromis en termes de performances.

Pouvez-vous utiliser QwQ-32B via API ?

Actuellement, il n'y a pas d'API officielle de Qwen pour QwQ-32B, mais des plateformes tierces peuvent fournir un accès API hébergé. Pour une utilisation directe, vous devrez télécharger et exécuter le modèle manuellement via Hugging Face ou ModelScope.

QwQ-32B est-il multimodal ?

Non, QwQ-32B est un modèle textuel axé sur le raisonnement et la résolution de problèmes. Contrairement à des modèles comme le GPT-4o, il ne traite pas les images, la vidéo ou l'audio.

Sujets

Apprenez l'IA avec ces cours !

cursus

AI Business Fundamentals

11hrs hr
Accelerate your AI journey, conquer ChatGPT, and develop a comprehensive Artificial Intelligence strategy.
Afficher les détailsRight Arrow
Commencer le cours
Voir plusRight Arrow
Apparenté

blog

Les 32 meilleures questions d'entretien sur AWS et leurs réponses pour 2024

Un guide complet pour explorer les questions d'entretien AWS de base, intermédiaires et avancées, ainsi que des questions basées sur des situations réelles. Il couvre tous les domaines, garantissant ainsi une stratégie de préparation bien équilibrée.

Zoumana Keita

30 min

blog

Q2 2023 DataCamp Donates Digest

DataCamp Donates a offert plus de 20k bourses d'études à nos partenaires à but non lucratif au deuxième trimestre 2023. Découvrez comment des apprenants défavorisés et assidus ont transformé ces opportunités en réussites professionnelles qui ont changé leur vie.
Nathaniel Taylor-Leach's photo

Nathaniel Taylor-Leach

blog

2022-2023 Rapport annuel DataCamp Classrooms

À l'aube de la nouvelle année scolaire, DataCamp Classrooms est plus motivé que jamais pour démocratiser l'apprentissage des données, avec plus de 7 650 nouveaux Classrooms ajoutés au cours des 12 derniers mois.
Nathaniel Taylor-Leach's photo

Nathaniel Taylor-Leach

8 min

blog

Les 20 meilleures questions d'entretien pour les flocons de neige, à tous les niveaux

Vous êtes actuellement à la recherche d'un emploi qui utilise Snowflake ? Préparez-vous à répondre à ces 20 questions d'entretien sur le flocon de neige pour décrocher le poste !
Nisha Arya Ahmed's photo

Nisha Arya Ahmed

20 min

blog

Célébration de Saghar Hazinyar : Une boursière de DataCamp Donates et une diplômée de Code to Inspire

Découvrez le parcours inspirant de Saghar Hazinyar, diplômée de Code to Inspire, qui a surmonté les défis en Afghanistan et s'est épanouie grâce à une bourse de DataCamp Donates.
Fereshteh Forough's photo

Fereshteh Forough

4 min

blog

Nous avons fait don de bourses DataCamp Premium à un million de personnes, et ce n'est pas fini.

Réparties entre nos deux programmes d'impact social, DataCamp Classrooms et #DCDonates, les bourses offrent un accès illimité à tout ce que DataCamp Premium a à offrir.
Nathaniel Taylor-Leach's photo

Nathaniel Taylor-Leach

Voir plusVoir plus