programa
Tras meses de rumores y justo después de los nuevos GPT-5.5 y Claude Opus 4.7, DeepSeek ha lanzado por fin DeepSeek V4. El lanzamiento llega en forma de dos modelos en vista previa, V4-Pro y V4-Flash, que salen al mercado con precios muy agresivos y un rendimiento cercano a la vanguardia.
DeepSeek V4-Pro presume de 1,6 billones de parámetros totales y una ventana de contexto de 1 millón de tokens por defecto. DeepSeek afirma que va solo de 3 a 6 meses por detrás de los modelos cerrados más avanzados, con un coste que es una fracción del de competidores como OpenAI y Anthropic.
En este artículo, cubro el lanzamiento de DeepSeek V4: sus funciones clave, su rendimiento en benchmarks y cómo se compara con la competencia. También puedes consultar nuestras guías de GPT-5.5 y Claude Opus 4.7.
DeepSeek V4 en pocas palabras
- V4 llega en dos variantes: Pro (1,6 T de parámetros) y Flash (284 B de parámetros).
- Ambos modelos incorporan por defecto una ventana de contexto de 1 millón de tokens.
- Pro cuesta 1,74 $ de entrada / 3,48 $ de salida por millón de tokens, muy por debajo de GPT-5.5 y Opus 4.7.
- Disponible vía API, interfaz web y pesos abiertos (licencia MIT).
¿Qué es DeepSeek V4?
DeepSeek V4 es la esperada nueva serie de modelos de lenguaje de pesos abiertos del laboratorio chino de IA DeepSeek. Lanzada el 24 de abril de 2026, la serie V4 llega en dos versiones: DeepSeek-V4-Pro y DeepSeek-V4-Flash. Ambos modelos utilizan una arquitectura Mixture of Experts (MoE) y ofrecen una enorme ventana de contexto de 1 millón de tokens por defecto.
Lo que convierte a DeepSeek V4 en un gran lanzamiento para el sector es la combinación de un rendimiento casi a la vanguardia y un precio súper competitivo. El modelo V4-Pro cuenta con 1,6 billones de parámetros totales (49.000 millones activos), lo que lo convierte en el modelo de pesos abiertos más grande disponible actualmente.
A pesar de su tamaño, DeepSeek afirma que va solo de 3 a 6 meses por detrás de los modelos cerrados más punteros, con un coste que es una fracción del de competidores como OpenAI y Anthropic.
Funciones clave de DeepSeek V4
Veamos algunas de las características más destacadas de este último lanzamiento:
Innovación estructural y eficiencia con 1 M de contexto
La característica estrella de DeepSeek V4 es su altísima eficiencia para manejar contextos largos.
Según las notas técnicas, la serie V4 utiliza una arquitectura de atención híbrida que combina Compressed Sparse Attention (CSA) y Heavily Compressed Attention (HCA).
Gracias a estos cambios estructurales, el contexto de 1 millón de tokens pasa a ser el estándar en todos los servicios de DeepSeek.
DeepSeek afirma que, en un escenario con 1 M de tokens de contexto, DeepSeek-V4-Pro requiere solo el 27% de los FLOPs de inferencia por token y apenas el 10% de la caché KV en comparación con su predecesor, DeepSeek-V3.2.
Tres modos de esfuerzo de razonamiento
Para darte un control granular sobre la latencia y el rendimiento, DeepSeek V4 incluye tres modos de razonamiento:
- Non-think: respuestas rápidas e intuitivas para tareas rutinarias y decisiones de bajo riesgo.
- Think High: análisis lógico consciente, más lento pero muy preciso para la resolución de problemas complejos.
- Think Max: lleva el razonamiento al máximo para explorar el límite de las capacidades del modelo.
Capacidades agenticas mejoradas
DeepSeek V4 está, al parecer, optimizado para agentic coding. Las notas de la versión afirman que se integra sin problemas con agentes de IA líderes como Claude Code, OpenClaw y OpenCode, y ya impulsa la infraestructura interna de agentic coding de DeepSeek.
Optimizaciones avanzadas de entrenamiento
Bajo el capó, DeepSeek introdujo Manifold-Constrained Hyper-Connections (mHC) para reforzar las conexiones residuales y estabilizar la propagación de la señal. También cambiaron al optimizador Muon para lograr una convergencia más rápida y mayor estabilidad de entrenamiento, preentrenando los modelos con más de 32 billones de tokens diversos.
Benchmarks de DeepSeek V4
Según los resultados internos de DeepSeek, DeepSeek V4 ofrece un rendimiento muy sólido, especialmente cuando se lleva al límite máximo de razonamiento (DeepSeek-V4-Pro-Max).
De acuerdo con las notas oficiales del lanzamiento, así se posiciona el modelo frente al resto de la industria:
Conocimiento y razonamiento
Pro-Max supera con facilidad a otros modelos de código abierto y vence a modelos punteros anteriores como GPT-5.2. Logra un competitivo 87,5% en MMLU-Pro y 90,1% en GPQA Diamond, además de un notable 92,6% en GSM8K para matemáticas. Aunque todavía está a unos meses del estado del arte absoluto (GPT-5.4 y Gemini-3.1-Pro), ha recortado significativamente la brecha.
Tareas agenticas
Pro-Max está a la par de los modelos abiertos líderes, con 67,9% en Terminal Bench 2.0 y 55,4% en SWE-Bench Pro. Aunque queda un poco por detrás de los últimos modelos cerrados en rankings públicos, las pruebas internas muestran que supera a Claude Sonnet 4.5 y se acerca a niveles de Opus 4.5.
Contexto largo
La ventana de 1 millón de tokens no es solo marketing. Pro-Max ofrece resultados muy sólidos aquí, con un 83,5% en las pruebas de recuperación de aguja en un pajar MRCR 1M (MMR). De hecho, supera a Gemini-3.1-Pro en benchmarks académicos de contexto largo.
DeepSeek V4 Pro vs Flash
Por su menor tamaño, Flash-Max puntúa de forma natural más bajo en conocimiento puro y sufre con los flujos agenticos más complejos. Sin embargo, si le asignas un mayor "presupuesto de pensamiento", alcanza puntuaciones de razonamiento comparables a modelos punteros anteriores, lo que lo convierte en una opción muy rentable para cargas intensivas.

¿Cómo puedo acceder a DeepSeek V4?
Ahora mismo hay varias formas de acceder a DeepSeek V4:
- Interfaz web: puedes probar ambos modelos de inmediato en chat.deepseek.com en modo Instant o Expert.
- Acceso por API: la API ya está disponible. Los desarrolladores solo tienen que actualizar el parámetro del modelo a
deepseek-v4-proodeepseek-v4-flash. La API mantiene compatibilidad con los formatos OpenAI ChatCompletions y Anthropic API. (Nota: los modelos heredadosdeepseek-chatydeepseek-reasonerse retirarán el 24 de julio de 2026). - Pesos abiertos: ambos modelos se publican bajo licencia MIT. Puedes descargar los pesos directamente desde Hugging Face o ModelScope. Pro ocupa 865 GB, mientras que Flash es mucho más manejable con 160 GB.
DeepSeek V4 frente a sus competidores
En la última semana hemos visto los lanzamientos de GPT-5.5 de OpenAI y Claude Opus 4.7 de Anthropic. Aunque estos modelos presumen de capacidades de primer nivel, especialmente en razonamiento de contexto largo y agentic coding, DeepSeek V4 compite muy fuerte en valor y accesibilidad abierta.
Así se compara DeepSeek-V4-Pro con los nuevos buques insignia de OpenAI y Anthropic:
|
Función/benchmark |
DeepSeek V4 Pro |
GPT-5.5 |
Claude Opus 4.7 |
|
Precio API (entrada / salida por 1 M) |
1,74 $ / 3,48 $ |
5,00 $ / 30,00 $ |
5,00 $ / 25,00 $ |
|
Ventana de contexto |
1 M de tokens |
~1 M de tokens |
~1 M de tokens |
|
SWE-bench Pro (coding) |
55,4% |
58,6% |
64,3% |
|
Terminal-Bench 2.0 (agentic) |
67,9% |
82,7% |
69,4% |
|
Pesos abiertos |
Sí (licencia MIT) |
No (cerrado) |
No (cerrado) |
Nota: si tu prioridad es el presupuesto, DeepSeek V4 Flash cuesta solo 0,14 $ por 1 M de tokens de entrada y 0,28 $ por 1 M de tokens de salida, por debajo incluso de modelos pequeños como GPT-5.4 Nano.
¿Qué tal es DeepSeek V4?
DeepSeek V4 es un lanzamiento tremendamente disruptivo. Según los benchmarks autoinformados de DeepSeek, el modelo Pro va solo de 3 a 6 meses por detrás de los modelos de vanguardia (como GPT-5.4 y Gemini-3.1-Pro) en su trayectoria de desarrollo.
Ahora bien, en el contexto más amplio del sector, el rendimiento bruto es solo la mitad de la historia. El gran titular de DeepSeek V4 está en su altísima eficiencia con contextos largos y sus precios de derribo.
Ofrecer capacidades cercanas a la vanguardia, incluida una ventana de contexto de 1 M de tokens, a una fracción del coste de GPT-5.5 u Opus 4.7 convierte a DeepSeek V4 en la opción más convincente para tareas empresariales de gran volumen, para investigadores open source y para desarrolladores con presupuestos ajustados.
Casos de uso de DeepSeek V4
Con estas fortalezas en mente, aquí tienes algunas áreas donde veo que V4 destaca:
- Ingeniería de software automatizada: los buenos resultados en benchmarks agenticos y la integración con herramientas como OpenClaw hacen de V4-Pro un gran candidato para refactorización y depuración autónoma de bases de código.
- Procesamiento masivo de documentos: la reducción de costes con contextos de 1 M de tokens permite que analistas financieros y equipos legales procesen montones de PDFs, 10-K y contratos por céntimos.
- Despliegue local e investigación: gracias a la licencia MIT, los investigadores pueden ejecutar cuantización (especialmente en el modelo Flash de 160 GB) para experimentar con IA de nivel puntero en local con hardware de consumo de alta gama.
Conclusión
DeepSeek V4 supone un gran paso adelante para la comunidad de IA de código abierto. Aunque GPT-5.5 y Claude Opus 4.7 puedan superarlo en los benchmarks más duros de programación y razonamiento, DeepSeek V4 democratiza el acceso a ventanas de contexto de 1 millón de tokens y a flujos agenticos complejos.
Si quieres mantenerte a la vanguardia y aprender a implementar estos modelos punteros en tus propios flujos de trabajo, te recomiendo explorar algunos de nuestros recursos. En particular, nuestro curso Understanding Prompt Engineering para afinar cómo te comunicas con modelos como DeepSeek, o nuestro itinerario de aprendizaje AI Agent Fundamentals, si quieres empezar a crear sistemas agenticos escalables.
DeepSeek V4: preguntas frecuentes
¿DeepSeek V4 es de código abierto?
Sí. Tanto DeepSeek-V4-Pro como DeepSeek-V4-Flash son modelos de pesos abiertos publicados bajo la permisiva licencia MIT. Esto permite a desarrolladores e investigadores usar, modificar y desplegar los modelos con fines comerciales.
¿Cuál es la ventana de contexto de DeepSeek V4?
Tanto el modelo Pro como el Flash incorporan por defecto una ventana de contexto de 1 millón de tokens. Gracias a su nueva arquitectura de atención híbrida, DeepSeek V4 maneja este contexto masivo con una fracción del cómputo y la memoria de modelos anteriores.
¿Cuánto cuesta la API de DeepSeek V4?
Los precios son muy competitivos. DeepSeek-V4-Flash cuesta solo 0,14 $ por 1 M de tokens de entrada y 0,28 $ por 1 M de tokens de salida. DeepSeek-V4-Pro cuesta 1,74 $ por 1 M de tokens de entrada y 3,48 $ por 1 M de tokens de salida.
¿Qué tamaño tienen los modelos DeepSeek V4?
DeepSeek utiliza una arquitectura Mixture of Experts (MoE). El modelo Pro contiene 1,6 billones de parámetros totales (49.000 millones activos) y requiere una descarga de 865 GB. El modelo Flash contiene 284.000 millones de parámetros (13.000 millones activos) y requiere una descarga de 160 GB.
¿DeepSeek V4 supera a GPT-5.5 y Claude Opus 4.7?
En capacidad pura, no. Los datos autoinformados por DeepSeek sugieren que el modelo V4-Pro va unos 3 a 6 meses por detrás de los modelos cerrados de última generación en los benchmarks más difíciles de programación y razonamiento. Sin embargo, ofrece un rendimiento cercano a la vanguardia a aproximadamente un tercio del coste de la API, lo que lo hace muy disruptivo.

Escritora y editora de contenidos en el ámbito de la tecnología educativa. Comprometido con la exploración de tendencias de datos y entusiasmado con el aprendizaje de la ciencia de datos.