Pular para o conteúdo principal

DeepSeek V4: recursos, benchmarks e comparativos

Conheça os recursos do DeepSeek V4, preços e eficiência com contexto de 1M. Comparamos os benchmarks do V4 Pro e Flash com modelos de ponta como GPT-5.5 e Opus 4.7.
Atualizado 24 de abr. de 2026  · 7 min lido

Após meses de rumores e logo depois do lançamento dos novos GPT-5.5 e Claude Opus 4.7, a DeepSeek finalmente apresentou o DeepSeek V4. O lançamento chega em forma de dois modelos em prévia, V4-Pro e V4-Flash, entrando no mercado com preços agressivos e desempenho próximo ao estado da arte.

O DeepSeek V4-Pro ostenta 1,6 trilhão de parâmetros totais, com uma janela de contexto padrão de 1 milhão de tokens. A DeepSeek afirma que ele fica apenas de 3 a 6 meses atrás dos modelos fechados mais avançados, custando uma fração do preço de concorrentes como OpenAI e Anthropic.

Neste artigo, vou abordar o lançamento do DeepSeek V4, destacando seus principais recursos, desempenho em benchmarks e como ele se compara à concorrência. Você também pode conferir nossos guias sobre GPT-5.5 e Claude Opus 4.7.

DeepSeek V4 em poucas palavras

  • O V4 chega em duas versões: Pro (1,6T de parâmetros) e Flash (284B de parâmetros).
  • Ambos os modelos contam com janela de contexto padrão de 1 milhão de tokens.
  • O Pro custa US$ 1,74 de entrada / US$ 3,48 de saída por milhão de tokens, reduzindo fortemente o preço frente ao GPT-5.5 e ao Opus 4.7.
  • Disponível via API, interface web e pesos abertos (licença MIT).

O que é o DeepSeek V4?

O DeepSeek V4 é a aguardada nova série de modelos de linguagem de pesos abertos do laboratório chinês de IA DeepSeek. Lançado em 24 de abril de 2026, a série V4 vem em duas versões: DeepSeek-V4-Pro e DeepSeek-V4-Flash. Ambos utilizam uma arquitetura Mixture of Experts (MoE) e oferecem por padrão uma janela de contexto enorme, de 1 milhão de tokens.

O que torna o DeepSeek V4 um grande marco para o setor é a combinação de desempenho próximo ao topo e preços supercompetitivos. O modelo V4-Pro conta com 1,6 trilhão de parâmetros totais (49 bilhões ativos), sendo hoje o maior modelo com pesos abertos disponível. 

Apesar do tamanho, a DeepSeek afirma que ele está apenas de 3 a 6 meses atrás dos modelos fechados de última geração, custando uma fração do preço de concorrentes como a OpenAI e a Anthropic.

Principais recursos do DeepSeek V4

Vamos ver alguns dos destaques deste lançamento: 

Inovação estrutural e eficiência com contexto de 1M

O grande diferencial do DeepSeek V4 é o manuseio altamente eficiente de contexto longo. 

Segundo as notas técnicas, a série V4 usa uma arquitetura de atenção híbrida que combina Compressed Sparse Attention (CSA) e Heavily Compressed Attention (HCA). 

Graças a essas mudanças estruturais, o contexto de 1 milhão de tokens virou padrão em todos os serviços da DeepSeek. 

A DeepSeek afirma que, em um cenário com 1M de tokens de contexto, o DeepSeek-V4-Pro requer apenas 27% dos FLOPs de inferência por token único e só 10% do cache KV em comparação com seu antecessor, o DeepSeek-V3.2.

Três modos de esforço de raciocínio

Para dar ao usuário controle fino entre latência e desempenho, o DeepSeek V4 inclui três modos de raciocínio:

  • Non-think: respostas rápidas e intuitivas para tarefas do dia a dia e decisões de baixo risco.
  • Think High: análise lógica consciente, mais lenta, porém muito precisa para problemas complexos.
  • Think Max: leva o raciocínio ao limite para explorar todo o potencial do modelo.

Capacidades agenticas avançadas

O DeepSeek V4 aparentemente foi otimizado para codificação com agentes. As notas do lançamento afirmam que ele se integra sem atritos com agentes de IA líderes como Claude Code, OpenClaw e OpenCode, e já está impulsionando a infraestrutura interna de agentic coding da DeepSeek.

Otimizações avançadas de treinamento

Nos bastidores, a DeepSeek introduziu Manifold-Constrained Hyper-Connections (mHC) para reforçar conexões residuais e estabilizar a propagação de sinais. A empresa também passou a usar o Muon Optimizer para convergência mais rápida e maior estabilidade no treinamento, pré-treinando os modelos em mais de 32 trilhões de tokens diversos.

Benchmarks do DeepSeek V4

Segundo resultados internos da DeepSeek, o DeepSeek V4 apresenta desempenho impressionante, especialmente quando é levado ao máximo de raciocínio (DeepSeek-V4-Pro-Max). 

De acordo com as notas oficiais, é assim que o modelo se posiciona frente ao mercado em geral:

Conhecimento e raciocínio

O Pro-Max supera com facilidade outros modelos de código aberto e bate modelos de ponta mais antigos, como o GPT-5.2. Ele marca um competitivo 87,5% no MMLU-Pro e 90,1% no GPQA Diamond, além de 92,6% no GSM8K em matemática. Embora ainda fique um pouco atrás do que há de mais avançado (GPT-5.4 e Gemini-3.1-Pro), a diferença de conhecimento diminuiu bastante.

Tarefas agenticas

O Pro-Max está no mesmo patamar dos principais modelos abertos, chegando a 67,9% no Terminal Bench 2.0 e 55,4% no SWE-Bench Pro. Embora fique um pouco atrás dos modelos fechados mais novos nos rankings públicos, testes internos mostram que ele supera o Claude Sonnet 4.5 e se aproxima dos níveis do Opus 4.5.

Contexto longo

A janela de 1 milhão de tokens não é apenas para marketing. O Pro-Max entrega resultados muito fortes aqui, com 83,5% no MRCR 1M (MMR) em testes de recuperação tipo "agulha no palheiro". Isso supera o Gemini-3.1-Pro em benchmarks acadêmicos de contexto longo.

DeepSeek V4 Pro vs Flash

Por ser menor, o Flash-Max naturalmente marca menos em conhecimento puro e tem dificuldade com os fluxos de trabalho agenticos mais complexos. Porém, se você oferecer um "orçamento de pensamento" maior, ele atinge pontuações de raciocínio comparáveis às de modelos de ponta mais antigos, tornando-se uma opção extremamente econômica para cargas intensas.

Benchmarks do DeepSeek v4

Fonte da imagem

Como posso acessar o DeepSeek V4?

Há várias formas de acessar o DeepSeek V4 agora mesmo:

  • Interface web: você pode testar os dois modelos imediatamente em chat.deepseek.com nos modos Instant ou Expert.
  • Acesso via API: a API já está disponível. Os desenvolvedores só precisam atualizar o parâmetro do modelo para deepseek-v4-pro ou deepseek-v4-flash. A API mantém compatibilidade com os formatos OpenAI ChatCompletions e Anthropic. (Observação: os modelos legados deepseek-chat e deepseek-reasoner serão descontinuados em 24 de julho de 2026).
  • Pesos abertos: ambos os modelos foram lançados sob a licença MIT. Você pode baixar os pesos diretamente do Hugging Face ou do ModelScope. O Pro requer um download de 865 GB, enquanto o Flash é bem mais leve, com 160 GB.

DeepSeek V4 vs concorrentes

Na última semana, vimos o lançamento do GPT-5.5 da OpenAI e do Claude Opus 4.7 da Anthropic. Embora esses modelos apresentem capacidades de alto nível, especialmente em raciocínio de contexto longo e agentic coding, o DeepSeek V4 compete fortemente em valor e acessibilidade aberta.

Veja como o DeepSeek-V4-Pro se compara aos novos modelos principais da OpenAI e da Anthropic:

Recurso/Benchmark

DeepSeek V4 Pro

GPT-5.5

Claude Opus 4.7

Preço da API (entrada/saída por 1M)

US$ 1,74 / US$ 3,48

US$ 5,00 / US$ 30,00

US$ 5,00 / US$ 25,00

Janela de contexto

1M tokens

~1M tokens

~1M tokens

SWE-bench Pro (código)

55,4%

58,6%

64,3%

Terminal-Bench 2.0 (agente)

67,9%

82,7%

69,4%

Pesos abertos

Sim (licença MIT)

Não (fechado)

Não (fechado)

Observação: para quem prioriza orçamento, o DeepSeek V4 Flash custa apenas US$ 0,14 por 1M de tokens de entrada e US$ 0,28 por 1M de tokens de saída, mais barato até que modelos menores como o GPT-5.4 Nano.

Quão bom é o DeepSeek V4?

O DeepSeek V4 é um lançamento altamente disruptivo. Segundo benchmarks autodeclarados da DeepSeek, o modelo Pro está de 3 a 6 meses atrás dos modelos de ponta (como GPT-5.4 e Gemini-3.1-Pro) em trajetória de desenvolvimento.

Mas, olhando para o cenário mais amplo, desempenho bruto é só metade da história. O grande destaque do DeepSeek V4 está na altíssima eficiência com contexto e no preço extremamente baixo. 

Entregar recursos próximos ao estado da arte, incluindo contexto de 1M de tokens, por uma fração do custo do GPT-5.5 ou do Opus 4.7 torna o DeepSeek V4 a opção mais atraente para tarefas corporativas de alto volume, pesquisadores de código aberto e desenvolvedores com orçamento enxuto.

Casos de uso do DeepSeek V4

Com esses pontos fortes em mente, aqui vão algumas áreas em que vejo o V4 se destacando: 

  • Engenharia de software automatizada: benchmarks agenticos sólidos e integração com ferramentas como OpenClaw fazem do V4-Pro um excelente candidato para refatoração autônoma de bases de código e depuração.
  • Processamento de documentos em grande escala: a redução de custos para computação com contexto de 1M de tokens permite que analistas financeiros e times jurídicos processem pilhas de PDFs, 10-Ks e contratos gastando centavos.
  • Implantação local e pesquisa: como usa licença MIT, pesquisadores podem rodar quantização (especialmente no modelo Flash de 160 GB) para experimentar IA de nível de ponta localmente em hardware de consumo avançado.

Considerações finais

O DeepSeek V4 é um grande avanço para a comunidade de IA open source. Embora o GPT-5.5 e o Claude Opus 4.7 possam superá-lo nos benchmarks mais difíceis de código e raciocínio, o DeepSeek V4 democratiza o acesso a janelas de contexto de 1 milhão de tokens e a fluxos agenticos complexos.

Se você quer sair na frente e aprender a implementar esses modelos de ponta nos seus fluxos, recomendo explorar alguns dos nossos recursos. Em especial, nosso curso Understanding Prompt Engineering para aprimorar como você se comunica com modelos como o DeepSeek, ou nossa trilha de habilidades AI Agent Fundamentals, se você quer começar a criar sistemas agenticos escaláveis.

DeepSeek V4: perguntas frequentes

O DeepSeek V4 é open source?

Sim. Tanto o DeepSeek-V4-Pro quanto o DeepSeek-V4-Flash são modelos de pesos abertos lançados sob a licença MIT, altamente permissiva. Isso permite que desenvolvedores e pesquisadores usem, modifiquem e implantem os modelos comercialmente.

Qual é a janela de contexto do DeepSeek V4?

Os modelos Pro e Flash contam com janela de contexto padrão de 1 milhão de tokens. Graças à nova arquitetura de atenção híbrida, o DeepSeek V4 lida com esse contexto massivo usando uma fração do custo de computação e memória de modelos anteriores.

Quanto custa a API do DeepSeek V4?

Os preços são altamente competitivos. O DeepSeek-V4-Flash custa apenas US$ 0,14 por 1M de tokens de entrada e US$ 0,28 por 1M de tokens de saída. O DeepSeek-V4-Pro custa US$ 1,74 por 1M de tokens de entrada e US$ 3,48 por 1M de tokens de saída.

Qual é o tamanho dos modelos DeepSeek V4?

O DeepSeek usa uma arquitetura Mixture of Experts (MoE). O modelo Pro contém 1,6 trilhão de parâmetros totais (49 bilhões ativos) e requer um download de 865 GB. O modelo Flash contém 284 bilhões de parâmetros (13 bilhões ativos) e requer um download de 160 GB.

O DeepSeek V4 supera o GPT-5.5 e o Claude Opus 4.7?

Em capacidade pura, não. Dados autodeclarados da DeepSeek sugerem que o V4-Pro fica cerca de 3 a 6 meses atrás dos modelos fechados mais avançados nos benchmarks mais difíceis de código e raciocínio. Porém, ele entrega desempenho próximo ao estado da arte por cerca de um terço do custo de API, o que é altamente disruptivo.


Matt Crabtree's photo
Author
Matt Crabtree
LinkedIn

Escritor e editor de conteúdo na área de edtech. Comprometido com a exploração de tendências de dados e entusiasmado com o aprendizado da ciência de dados.

Tópicos

Principais cursos da DataCamp

Programa

Fundamentos da IA

10 h
Descubra os fundamentos da IA, aprenda a usar a IA de forma eficaz no trabalho e mergulhe em modelos como o chatGPT para navegar pelo cenário dinâmico da IA.
Ver detalhesRight Arrow
Iniciar curso
Ver maisRight Arrow