Pular para o conteúdo principal

QwQ 32B: Recursos, acesso, comparação do DeepSeek-R1 e muito mais

A equipe Qwen da Alibaba lançou o QwQ-32B, um modelo de IA de código aberto com 32 bilhões de parâmetros para raciocínio complexo, competindo com modelos maiores como o DeepSeek-R1.
Actualizado 6 de mar. de 2025  · 6 min de leitura

Com o lançamento do QwQ-32B, a equipe Qwen da Alibaba está provando mais uma vez que é uma concorrente séria no espaço da IA. Esse modelo atinge um desempenho próximo ao do DeepSeek-R1um modelo de raciocínio líder, mas faz isso com uma fração do tamanho - 32 bilhões de parâmetros em comparação com os 671 bilhões do DeepSeek.

Se o QwQ-32B parece familiar, é porque ele se baseia no QwQ-32B-Preview, que testamos anteriormente neste blog em QwQ-32B-Preview. Agora, com esta versão final, a Qwen ajustou sua abordagem, refinando os recursos de raciocínio do modelo e tornando-o amplamente disponível como uma IA de código aberto.

Neste blog, vou analisar o que há de essencial sobre o QwQ-32B - como ele funciona, como ele se compara a outros modelos e como você pode acessá-lo.

Aprimoramento de IA para iniciantes

Aprenda os fundamentos da IA e do ChatGPT do zero.
Aprenda IA de graça

O que é o QwQ-32B?

O QwQ-32B não é apenas um modelo de IA do tipo chatbot comum, ele pertence a uma categoria diferente: modelos de raciocínio.

Embora a maioria dos modelos de IA de uso geral, como o GPT-4.5 ou DeepSeek-V3são projetados para gerar textos fluidos e de conversação sobre uma ampla gama de tópicos, os modelos de raciocínio se concentram em decompor os problemas logicamente, trabalhando em etapas e chegando a respostas estruturadas.

No exemplo abaixo, podemos ver diretamente o processo de pensamento do QwQ-32B:

qwq-32b processo de pensamento

Então, para quem é o QwQ-32B? Se você está procurando um modelo para ajudar a escrever, fazer brainstorming ou resumir, não é esse o caso.

Mas se você precisar de algo para resolver problemas técnicos, verificar soluções de várias etapas ou auxiliar em domínios como pesquisa científica, finanças ou desenvolvimento de software, o QwQ-32B foi criado para esse tipo de raciocínio estruturado. Ele é particularmente útil para engenheiros, pesquisadores e desenvolvedores que precisam de uma IA capaz de lidar com fluxos de trabalho lógicos em vez de apenas gerar texto.

Há também uma tendência mais ampla do setor a ser considerada. Semelhante ao surgimento de modelos de linguagem pequenos (SLMs)podemos estar testemunhando com o QwQ-32B o surgimento de "pequenos modelos de raciocínio" (inventei totalmente esse termo). Por que estou dizendo isso? Bem, há uma diferença de 20 vezes entre os parâmetros 671B do DeepSeek-R1 e os 32B do QwQ-32B, mas o QwQ-32B ainda se aproxima em termos de desempenho (como veremos abaixo na seção sobre benchmarks).

Arquitetura do QwQ-32B

O QwQ-32B foi desenvolvido para raciocinar sobre problemas complexos, e grande parte disso se deve à forma como ele foi treinado. Ao contrário dos modelos tradicionais de IA que dependem apenas de pré-treinamento e ajuste finoo QwQ-32B incorpora aprendizado por reforço (RL)um método que permite que o modelo refine seu raciocínio aprendendo por tentativa e erro.

Essa abordagem de treinamento vem ganhando força no espaço da IA, com modelos como o DeepSeek-R1 usando treinamento de RL em vários estágios para obter recursos de raciocínio mais fortes.

Como o aprendizado por reforço melhora o raciocínio da IA

A maioria dos modelos de linguagem aprende prevendo a próxima palavra em uma frase com base em grandes quantidades de dados de texto. Embora isso funcione bem para a fluência, não necessariamente os torna bons na solução de problemas.

O aprendizado por reforço muda isso ao introduzir um sistema de feedback: em vez de apenas gerar texto, o modelo é recompensado por encontrar a resposta certa ou seguir um caminho de raciocínio correto. Com o tempo, isso ajuda a IA a desenvolver um melhor julgamento ao lidar com problemas complexos, como matemática, codificação e raciocínio lógico .

O QwQ-32B leva isso adiante ao integrar recursos relacionados a agentes, permitindo que ele adapte seu raciocínio com base no feedback ambiental. Isso significa que, em vez de apenas memorizar padrões, o modelo pode usar ferramentas, verificar os resultados e refinar suas respostas dinamicamente. Esses aprimoramentos o tornam mais confiável para tarefas de raciocínio estruturado, em que a simples previsão de palavras não é suficiente.

Modelo menor, treinamento mais inteligente

Um dos aspectos mais impressionantes do desenvolvimento do QwQ-32B é sua eficiência. Apesar de ter apenas 32 bilhões de parâmetros, ele atinge um desempenho comparável ao do DeepSeek-R1, que tem 671 bilhões de parâmetros (com 37 bilhões ativados). Isso sugere que o aumento da escala do aprendizado por reforço pode ser tão impactante quanto o aumento do tamanho do modelo.

Outro aspecto importante de seu design é a janela de contexto de 131.072 tokens, que permite processar e reter informações em longas passagens de texto.

Benchmarks do QwQ-32B

O QwQ-32B foi projetado para competir com modelos de raciocínio de última geração, e seus resultados de benchmark mostram que ele se aproxima surpreendentemente do DeepSeek-R1, apesar de ser muito menor em tamanho. O modelo foi testado em uma série de benchmarks que avaliaram matemática, codificação e raciocínio estruturado, nos quais o desempenho foi frequentemente igual ou próximo aos níveis do DeepSeek-R1.

qwq-32b benchmarks

Fonte: Qwen

Bom desempenho em matemática e raciocínio lógico

Um dos resultados mais reveladores vem do AIME24, um benchmark de matemática criado para testar a resolução de problemas matemáticos. O QwQ-32B obteve 79,5 pontos, logo atrás do DeepSeek-R1 com 79,8 e bem à frente do o1-mini da OpenAI (63,6) e dos modelos destilados do DeepSeek modelos destilados (70.0-72.6). Isso é particularmente impressionante, pois o QwQ-32B tem apenas 32 bilhões de parâmetros, em comparação com os 671 bilhões do DeepSeek-R1.

Outro benchmark importante, o IFEval, que testa o raciocínio funcional e simbólico, também apresentou um desempenho competitivo do QwQ-32B, com pontuação de 83,9, um pouco acima do DeepSeek-R1! Ele está apenas um pouco atrás do o1-mini da OpenAI, que lidera essa categoria com uma pontuação de 84,8.

Recursos de codificação e comportamento de agente

Para modelos de IA destinados a auxiliar no desenvolvimento de software, os benchmarks de codificação são essenciais. No LiveCodeBench, que mede a capacidade de gerar e refinar códigos, o QwQ-32B obteve 63,4 pontos, um pouco atrás do DeepSeek-R1, com 65,9, mas significativamente à frente do o1-mini da OpenAI, com 53,8 . Isso sugere que a aprendizagem por reforço desempenhou um papel significativo no aprimoramento da capacidade do QwQ-32B de raciocinar iterativamente por meio de problemas de codificação, em vez de apenas gerar soluções únicas.

O QwQ-32B obteve 73,1 pontos no LiveBench, uma avaliação das habilidades gerais de resolução de problemas, superando ligeiramente a pontuação de 71,6 do DeepSeek-R1. Ambos os modelos obtiveram uma pontuação significativamente mais alta do que o o1-mini da OpenAI, que alcançou uma pontuação de 59,1. Isso corrobora a ideia de que modelos pequenos e bem otimizados podem diminuir a diferença em relação a sistemas proprietários de grande porte, pelo menos em tarefas estruturadas.

O QwQ-32B se destaca no raciocínio funcional

Talvez o resultado mais interessante esteja no BFCL, um benchmark que avalia o raciocínio funcional amplo. Aqui, o QwQ-32B atingiu 66,4, superando o DeepSeek-R1 (60,3) e o o1-mini da OpenAI (62,8) . Isso sugere que a abordagem de treinamento do QwQ-32B, especialmente seus recursos agênticos e estratégias de aprendizagem por reforço, oferece uma vantagem em áreas em que a solução de problemas exige flexibilidade e adaptação, em vez de apenas padrões memorizados.

Como acessar o QwQ-32B

O QwQ-32B é totalmente de código aberto, o que o torna um dos poucos modelos de raciocínio de alto desempenho disponíveis para que qualquer pessoa possa fazer experiências com ele. Se você quiser testá-lo interativamente, integrá-lo a um aplicativo ou executá-lo em seu próprio hardware, há várias maneiras de acessar o modelo.

Interagir com QwQ-32B on-line

Para aqueles que desejam apenas experimentar o modelo sem configurar nada, o Qwen Chat oferece uma maneira fácil de interagir com o QwQ-32B. A interface do chatbot baseada na Web permite que você teste diretamente os recursos de raciocínio, matemática e codificação do modelo. Embora não seja tão flexível quanto executar o modelo localmente, ele oferece uma maneira direta de ver seus pontos fortes em ação.

Para experimentá-lo, você precisa acessar https://chat.qwen.ai/ e criar uma conta. Quando você entrar, comece selecionando o modelo QwQ-32B no menu de seleção de modelos:

Como acessar o qwq-32b no menu do modelo

O modoThinking (QwQ) é ativado por padrão e não pode ser desativado com esse modelo. Você pode começar a solicitar na interface baseada em bate-papo:

Solicitação de QwQ-32B no bate-papo

Faça download e implemente a partir do Hugging Face e do ModelScope

Os desenvolvedores que desejam integrar o QwQ-32B em seus próprios fluxos de trabalho podem baixá-lo em Hugging Face ou do ModelScope. Essas plataformas fornecem acesso aos pesos do modelo, às configurações e às ferramentas de inferência, facilitando a implantação do modelo para uso em pesquisa ou produção.

Conclusão

O QwQ-32B desafia a ideia de que somente modelos massivos podem ter um bom desempenho no raciocínio estruturado. Apesar de ter muito menos parâmetros do que o DeepSeek-R1, ele oferece resultados sólidos em matemática, codificação e solução de problemas em várias etapas, mostrando que técnicas de treinamento como aprendizado por reforço e otimização de contexto longo podem ter um impacto significativo.

O que mais se destaca para mim é sua disponibilidade de código aberto. Enquanto muitos modelos de raciocínio de alto desempenho permanecem trancados atrás de APIs proprietárias, o QwQ-32B pode ser acessado no Hugging Face, ModelScope e Qwen Chat, facilitando o teste e a criação para pesquisadores e desenvolvedores.

Perguntas frequentes

O QwQ-32B é gratuito?

Sim, o QwQ-32B é totalmente de código aberto, o que significa que você pode acessá-lo gratuitamente por meio de plataformas como Hugging Face e ModelScope. No entanto, executá-lo localmente ou usá-lo na produção pode exigir recursos de hardware significativos, o que pode acarretar custos adicionais.

O QwQ-32B pode ser ajustado com precisão?

Sim, como o QwQ-32B é de peso aberto, ele pode ser ajustado para tarefas específicas. No entanto, o ajuste fino de um modelo desse tamanho requer GPUs potentes e um conjunto de dados bem estruturado. Algumas plataformas, como a Hugging Face, fornecem ferramentas para o ajuste fino eficiente de parâmetros para reduzir os custos computacionais.

Você pode executar o QwQ-32B localmente?

Sim, mas isso depende do hardware que você possui. Como o QwQ-32B é um modelo denso de 32B, ele requer uma configuração de GPU de ponta, de preferência várias A100s ou H100s, para ser executado com eficiência. Para configurações menores, técnicas como a quantização podem ajudar a reduzir os requisitos de memória, embora com algumas compensações no desempenho.

Você pode usar o QwQ-32B via API?

Atualmente, não existe uma API oficial da Qwen para o QwQ-32B, mas plataformas de terceiros podem fornecer acesso à API hospedada. Para uso direto, você precisará fazer o download e executar o modelo manualmente por meio do Hugging Face ou do ModelScope.

O QwQ-32B é multimodal?

Não, o QwQ-32B é um modelo somente de texto focado no raciocínio e na solução de problemas. Diferentemente de modelos como o GPT-4o, ele não processa imagens, vídeo ou áudio.

Temas

Aprenda IA com estes cursos!

programa

AI Business Fundamentals

11hrs hr
Accelerate your AI journey, conquer ChatGPT, and develop a comprehensive Artificial Intelligence strategy.
Ver DetalhesRight Arrow
Iniciar curso
Ver maisRight Arrow
Relacionado
An avian AI exits its cage

blog

12 Alternativas de código aberto ao GPT-4

GPT-4 alternativas de código aberto que podem oferecer desempenho semelhante e exigem menos recursos computacionais para serem executadas. Esses projetos vêm com instruções, fontes de código, pesos de modelos, conjuntos de dados e interface de usuário do chatbot.

Abid Ali Awan

9 min

blog

A OpenAI anuncia o GPT-4 Turbo com visão: O que sabemos até o momento

Descubra a atualização mais recente da OpenAI, GPT-4 Turbo com visão, e seus principais recursos, incluindo o corte de conhecimento aprimorado, uma janela de contexto expandida, preço acessível e muito mais.
Richie Cotton's photo

Richie Cotton

7 min

blog

Os 11 melhores assistentes de codificação de IA em 2024

Explore os melhores assistentes de codificação, incluindo ferramentas de código aberto, gratuitas e comerciais que podem aprimorar sua experiência de desenvolvimento.
Abid Ali Awan's photo

Abid Ali Awan

8 min

blog

O que é DALL-E?

A IA DALL-E da OpenAI cria imagens a partir de texto, combinando linguagem e recursos visuais. O DALL-E 2 produz imagens de maior resolução e mais realistas.
Abid Ali Awan's photo

Abid Ali Awan

9 min

tutorial

DeepSeek-Coder-V2 Tutorial: Exemplos, instalação, padrões de referência

O DeepSeek-Coder-V2 é um modelo de linguagem de código de código aberto que rivaliza com o desempenho do GPT-4, Gemini 1.5 Pro, Claude 3 Opus, Llama 3 70B ou Codestral.
Dimitri Didmanidze's photo

Dimitri Didmanidze

8 min

tutorial

Tutorial da API de assistentes da OpenAI

Uma visão geral abrangente da API Assistants com nosso artigo, que oferece uma análise aprofundada de seus recursos, usos no setor, orientação de configuração e práticas recomendadas para maximizar seu potencial em vários aplicativos de negócios.
Zoumana Keita 's photo

Zoumana Keita

14 min

Ver maisVer mais