Ir al contenido principal

GPT-5.4 mini y nano: benchmarks, acceso y reacciones

Echa un vistazo en detalle a los últimos modelos pequeños de OpenAI, diseñados para la velocidad. Compara su rendimiento y precio con Claude Haiku 4.5.
Actualizado 17 abr 2026  · 7 min leer

Las últimas noticias de OpenAI son especialmente interesantes para quienes usan GPT-5 mini: el nuevo modelo GPT-5.4 mini es el doble de rápido y mejora el rendimiento en todas las áreas. Además, OpenAI ha lanzado la versión más reciente de su clase de modelos más eficiente, GPT-5.4 nano.

En este artículo, veremos qué son GPT-5.4 mini y nano, cómo rinden en comparación con GPT-5.4 y quién puede beneficiarse de los nuevos modelos de «vía rápida» de OpenAI.

No te pierdas también nuestra comparativa de GPT-5.4 vs Claude Opus y nuestra guía de OpenAI Frontier.

¿Qué es GPT-5.4 mini?

GPT-5.4 mini es el nuevo LLM pequeño de OpenAI, que sustituye a GPT-5 mini. Aporta varias mejoras importantes respecto al rendimiento de su predecesor y, además, es el doble de rápido, uno de sus principales atractivos.

En la API admite un amplio abanico de funciones: 

  • Entrada de texto e imagen
  • Uso de herramientas y function calling
  • Búsqueda web
  • Uso del ordenador
  • Skills

¿Qué es GPT-5.4 nano? 

GPT-5.4 nano es la versión más pequeña de la nueva línea de modelos de OpenAI y sustituye a GPT-5 nano. Como sugiere el nombre, es aún más eficiente que el modelo mini, a costa de un menor rendimiento. Aun así, GPT-5.4 nano supera al antiguo modelo mini, GPT-5 mini, en muchos benchmarks.

No admite tantas funciones como el modelo mini, pero ofrece las capacidades estándar actuales de la API, como entrada de imágenes, uso de herramientas, function calling y salidas estructuradas.

¿Para quién son realmente GPT-5.4 mini y nano?

Esta versión ofrece flexibilidad para elegir el modelo adecuado, teniendo en cuenta el clásico equilibrio entre rendimiento por un lado, y latencia y precio por el otro.

OpenAI recomienda mini y nano para desarrolladores que trabajan en aplicaciones donde no quieres latencia. En esencia, casos que deben sentirse ágiles, en los que los usuarios toleran muy poco cualquier retraso. 

Para tareas con mucha carga de razonamiento y poco margen de error, multimodalidad y tareas agentic, GPT-5.4 sigue siendo la primera opción. 

Benchmarks de GPT-5.4 mini y nano

Echemos un vistazo a los benchmarks de LLM. Algunos resultados destacables:

  • Programación: Tanto 5.4 mini (54,4%) como nano (52,4%) alcanzan una puntuación en SWE‑Bench Pro superior al 50% y no se quedan muy atrás de GPT-5.4. La mejora frente a GPT-5 mini (45,7%) es notable.
  • Agentes de terminal: En Terminal‑Bench 2.0 se aprecia bien la distancia entre los tres sabores de los modelos 5.4. GPT-5.4 mini (60,0%) puede competir con antiguos modelos insignia como GPT 5.2 (62,2%), y 5.4 nano (46,3%) con GPT-5 (49,6%), pero ambos quedan lejos del tope de rendimiento de GPT-5.4.
  • Uso del ordenador: Mientras GPT-5.4 mini logra un impresionante 72,1% en OSWorld‑Verified, muy cerca de GPT-5.4, GPT-5.4 nano se queda claramente atrás (39,0%). Es evidente que no está pensado para tareas de uso del ordenador.

Tabla que compara benchmarks de GPT-5.4, GPT-5.4 mini, GPT-5.4 nano y GPT-5 mini en SWE-Bench Pro (Public), Terminal-Bench 2.0, Toolathlon, GPQA Diamond y OSWorld-Verified.

Otra cosa que nos llamó la atención enseguida fue que el orden de las puntuaciones se mantenía (casi) en todas las categorías: GPT-5.4 > GPT-5.4 mini > GPT-5.4 nano > GPT-5 mini. En todas las puntuaciones publicadas, la única excepción fue que el modelo mini antiguo superó a GPT-5.4 nano en visión y uso del ordenador, que no son los focos de nano.

No obstante, no está claro cuánto influye el nuevo nivel de esfuerzo de razonamiento «xhigh», que no estaba disponible para GPT-5 mini.

Pero, por supuesto, el rendimiento no lo es todo. OpenAI quiere subrayar el fenómeno de los rendimientos decrecientes, como muestran los gráficos que han compartido. De los cuatro modelos comparados, GPT-5.4 es el más lento y el más caro.

Precisión frente a coste estimado para los modelos GPT-5.4 y GPT-5 mini

Las curvas ilustran los rendimientos decrecientes: puedes invertir más cómputo/dinero en un modelo y obtener mejoras modestas en precisión, pero los saltos se vuelven cada vez menores. Los últimos puntos porcentuales de GPT-5.4 cuestan mucho más que los primeros. Este tipo de gráfico ayuda a los ingenieros a decidir si merece la pena exprimir ese 3–4% adicional de precisión en su caso de uso concreto.

Precisión frente a latencia estimada para los modelos GPT-5.4 y GPT-5 mini

Aun así, conviene analizar el gráfico con espíritu crítico: el eje Y empieza en el 35%, no en 0%. Esto exagera visualmente las diferencias entre modelos. La ventaja de GPT-5.4 frente a GPT-5 mini parece mayor en un gráfico que arranca en 35% que en uno que empieza en cero. 

Además, OpenAI señala que estas cifras de latencia no provienen de ejecuciones reales en producción; son estimaciones modeladas. Hay algo un poco incongruente en esto. OpenAI sugiere decisiones de infraestructura basándose en un gráfico con estimaciones de modelo únicamente. 

También resulta extraño ver estimaciones modeladas sin barras de error. Apostaría a que, de haberlas incluido, se solaparían bastante. 

Cómo acceder a GPT-5.4 mini y nano

Deberías poder encontrar GPT‑5.4 mini en la interfaz web de ChatGPT, en Codex y en la API. En ChatGPT es el modelo «Thinking» predeterminado para los usuarios de los planes Free y Go, y el modelo de respaldo para el resto de usuarios que hayan alcanzado su límite de uso de GPT-5.4 Thinking.

GPT‑5.4 nano, en cambio, solo está disponible a través de la API.

Precios de GPT-5.4 mini y nano

GPT-5.4 mini cuesta 0,75 $ por 1 M de tokens de entrada y 4,50 $ por 1 M de tokens de salida. GPT‑5.4 nano, que de nuevo solo está disponible en la API, cuesta 0,20 $ por 1 M de tokens de entrada y 1,25 $ por 1 M de tokens de salida. Por estos precios, obtienes una ventana de contexto de 400k.

Obviamente es mucho más barato que el modelo insignia de OpenAI (2,50 $/15 $ por 1 M de tokens de entrada/salida). 

GPT-5.4 mini y nano vs. Claude Haiku 4.5

Lo realmente interesante es que GPT-5.4 nano tiene un precio inferior al de muchos modelos pequeños de menor rendimiento de la competencia, en concreto Claude Haiku 4.5, con un precio de 1 $ por millón de tokens de entrada y 5 $ por millón de tokens de salida. Así que OpenAI ha recortado el precio de Claude Haiku en ambos casos. 

Pero ¿cómo se comparan los modelos en las pruebas? Compararlos no es trivial porque se han evaluado en variantes distintas. Los resultados de SWE-bench no son comparables, ya que usan versiones totalmente diferentes. Claude Haiku 4.5 se probó en SWE-bench Verified y obtuvo una puntuación del 73,3%, mientras que GPT-5.4 nano se probó en SWE-bench Pro (Public) y obtuvo un 52,4%. Pro es la prueba más reciente y más difícil.

Resultados de benchmark de Claude Haiku 4.5

Puntuación de Claude Haiku 4.5 del 50,7% en OSWorld

En las dos comparativas más limpias «manzanas con manzanas», GPT-5.4 nano va por delante en ambas.

  • En GPQA Diamond, GPT-5.4 nano puntúa un 9,8% más, y 
  • en τ2-bench Telecom, GPT-5.4 nano puntúa un 9,5% más. 

Sin embargo, Haiku 4.5 podría tener ventaja en el uso del ordenador según OSWorld, aunque, de nuevo, las variantes del benchmark complican la comparación. 

  • Claude Haiku 4.5 se probó en OSWorld estándar y obtuvo un 50,7%
  • GPT-5.4 nano se probó en OSWorld-Verified y obtuvo un 39,0%. 

OSWorld-Verified es la prueba más dura, pero la brecha de casi 12% parece bastante significativa. Somos más cautos a la hora de descartarla porque, a diferencia de SWE-bench Verified y SWE-bench Pro, donde se sabe que los modelos que lo hacen bien en Verified suelen rendir peor en Pro, hay menos evidencias de que ocurra lo mismo con OSWorld y OSWorld-Verified.

Benchmark OSWorld-Verified de GPT-5.4

Puntuación de GPT-5.4 nano del 39% en OSWorld-Verified

Qué se comenta sobre GPT-5.4 mini y nano

Muchas reacciones en línea apuntan a un patrón conocido en tecnología: el buque insignia de este año acaba en el plan gratuito del próximo. Era de esperar, pero el ritmo del cambio impresiona. 

Se dice que la frontier AI tiene la depreciación más rápida de cualquier producto jamás creado. Muchos se preguntan si el modelo por el que hoy pagas un premium seguirá mereciendo la pena dentro de seis meses. A veces, los desarrolladores no quieren cambiar de modelo sin más si ya han pasado por un proceso de fine-tuning o si han calibrado coste y rendimiento. 

image7.png

Conclusión

Los benchmarks muestran una clara escalera de rendimiento desde GPT-5.4 hasta 5.4 mini y 5.4 nano. Pero para muchas tareas, la elección práctica depende más de la latencia y el presupuesto que de exprimir unos puntos porcentuales extra. 

Para muchas apps en producción, GPT-5.4 mini puede ser un nuevo gran predeterminado, ya que su calidad se siente frontier y, al mismo tiempo, es lo bastante barato y rápido para usos de alto volumen.

GPT-5.4 nano es más un especialista para cargas en tiempo real muy grandes y muy sensibles a la latencia. También es ideal como subagente para hacer el trabajo «en masa» más sencillo, delegado por modelos Thinking de mayor rendimiento.

En un mundo donde el buque insignia del año pasado se convierte en el «mini» de este año, diseñar sistemas capaces de intercambiar modelos con facilidad es mejor estrategia que optimizar para un único lanzamiento. Te recomiendo nuestro curso Building Scalable Agentic Systems, que aborda esta cuestión y te enseña a usar frameworks agentic como el Model Context Protocol (MCP).

GPT-5.4 mini y nano: preguntas frecuentes

¿GPT‑5.4 mini es solo un GPT‑5 mini más rápido?

No. Es más rápido y, además, notablemente más potente en benchmarks como SWE‑Bench Pro, manteniendo una ventana de contexto de 400k.

¿Cuál es el principal trade-off entre GPT‑5.4 y 5.4 mini?

GPT‑5.4 sigue siendo el mejor para máxima calidad; 5.4 mini sacrifica algo de precisión a cambio de una latencia y un coste mucho mejores.

¿Cuándo debería usar GPT‑5.4 nano en lugar de mini?

Usa nano para cargas ultra sensibles a la latencia o de volumen muy alto, donde el coste y la velocidad pesan más que la máxima precisión.

¿GPT-5.4 mini y nano admiten herramientas e imágenes?

Sí, ambos admiten entrada de imágenes, uso de herramientas, function calling y salidas estructuradas en la API.

¿Son suficientemente buenos GPT-5.4 mini y nano para programar y para agentes?

Sí. En particular, 5.4 mini supera el 50% en SWE‑Bench Pro y logra puntuaciones competitivas en Terminal‑Bench 2.0, por lo que es sólido para código y agentes de terminal.

5.4 nano es más débil, pero suficiente para muchas tareas de apoyo, como enrutar peticiones, actuar como subagente económico y gestionar flujos de terminal sencillos cuando priman la velocidad y el coste.


Josef Waples's photo
Author
Josef Waples

Tom Farnschläder's photo
Author
Tom Farnschläder
LinkedIn

Editor de ciencia de datos en DataCamp | Me encanta hacer previsiones y crear con API.

Temas

Cursos de IA agentic

programa

Fundamentos de agentes de IA

6 h
¡Descubre cómo los agentes de IA pueden transformar tu forma de trabajar y aportar valor a tu organización!
Ver detallesRight Arrow
Iniciar curso
Ver másRight Arrow
Relacionado
An avian AI exits its cage

blog

12 alternativas de código abierto a GPT-4

Alternativas de código abierto a GPT-4 que pueden ofrecer un rendimiento similar y requieren menos recursos informáticos para funcionar. Estos proyectos vienen con instrucciones, fuentes de código, pesos del modelo, conjuntos de datos e IU de chatbot.
Abid Ali Awan's photo

Abid Ali Awan

9 min

blog

Todo lo que sabemos sobre GPT-5

Descubre cómo GPT-5 evolucionará hasta convertirse en un sistema unificado con funciones avanzadas, cuyo lanzamiento está previsto para el verano de 2025, basándose en la última hoja de ruta de OpenAI y en la historia de GPT.
Josep Ferrer's photo

Josep Ferrer

8 min

blog

¿Qué es GPT-4 y por qué es importante?

OpenAI ha anunciado el lanzamiento de su último gran modelo lingüístico, GPT-4. Este modelo es un gran modelo multimodal que puede aceptar tanto entradas de imagen como de texto y generar salidas de texto.
Abid Ali Awan's photo

Abid Ali Awan

9 min

Tutorial

Cómo ajustar GPT 3.5: Liberar todo el potencial de la IA

Explore GPT-3.5 Turbo y descubra el potencial transformador del ajuste fino. Aprenda a personalizar este modelo de lenguaje avanzado para aplicaciones especializadas, mejore su rendimiento y comprenda los costes asociados, la seguridad y las consideraciones de privacidad.
Moez Ali's photo

Moez Ali

Tutorial

Visión GPT-4: Guía completa para principiantes

Este tutorial le presentará todo lo que necesita saber sobre GPT-4 Vision, desde cómo acceder a él hasta ejemplos prácticos del mundo real y sus limitaciones.
Arunn Thevapalan's photo

Arunn Thevapalan

Tutorial

Ajuste fino de GPT-3 mediante la API OpenAI y Python

Libere todo el potencial de GPT-3 mediante el ajuste fino. Aprenda a utilizar la API de OpenAI y Python para mejorar este modelo de red neuronal avanzado para su caso de uso específico.
Zoumana Keita 's photo

Zoumana Keita

Ver másVer más