Vai al contenuto principale

GPT-5.4 mini e nano: benchmark, accesso e reazioni

Dai un’occhiata da vicino ai più recenti modelli “small” di OpenAI, pensati per la velocità. Confronta prestazioni e prezzi con Claude Haiku 4.5.
Aggiornato 17 apr 2026  · 7 min leggi

Le novità recenti di OpenAI sono particolarmente interessanti per chi usa GPT-5 mini: il nuovo modello GPT-5.4 mini è due volte più veloce e offre prestazioni migliori in tutte le aree. Inoltre, OpenAI ha rilasciato la versione più recente della sua classe di modelli più efficiente, GPT-5.4 nano.

In questo articolo, vedremo cosa sono GPT-5.4 mini e nano, come si comportano rispetto a GPT-5.4 e chi può trarre vantaggio dai nuovi modelli “corsia veloce” di OpenAI.

Dai un'occhiata anche al nostro confronto tra GPT-5.4 e Claude Opus e alla nostra guida a OpenAI Frontier.

Che cos'è GPT-5.4 mini?

GPT-5.4 mini è il più recente LLM “piccolo” di OpenAI, che sostituisce GPT-5 mini. Porta diversi miglioramenti significativi alle prestazioni del suo predecessore ed è due volte più veloce, uno dei principali punti di forza.

Nell’API supporta un’ampia gamma di funzionalità: 

  • Input di testo e immagini
  • Uso di tool e function calling
  • Ricerca sul web
  • Uso del computer
  • Skills

Che cos'è GPT-5.4 nano? 

GPT-5.4 nano è la versione più piccola della nuova linea di modelli di OpenAI e sostituisce GPT-5 nano. Come suggerisce il nome, è ancora più efficiente del modello mini, con prestazioni inferiori. Ciononostante, GPT-5.4 nano supera il vecchio modello mini, GPT-5 mini, in molti benchmark.

Non supporta tante funzionalità quanto il modello mini, ma offre le funzionalità API standard di oggi come input di immagini, uso di tool, function calling e output strutturati.

A chi sono davvero destinati GPT-5.4 mini e nano?

La nuova release offre flessibilità nella scelta del modello giusto, considerando il classico compromesso tra prestazioni da un lato e latenza e prezzo dall’altro.

OpenAI consiglia mini e nano agli sviluppatori che lavorano su applicazioni in cui non vuoi lag. In pratica, cose che devono risultare reattive, dove gli utenti tollerano pochissimo il ritardo. 

Per i compiti con forte componente di ragionamento e margini d’errore minimi, per la multimodalità e per i task agentici, GPT-5.4 resta la prima scelta. 

Benchmark di GPT-5.4 mini e nano

Diamo un’occhiata ai benchmark LLM. Alcuni risultati notevoli:

  • Coding: Sia 5.4 mini (54,4%) che nano (52,4%) superano il 50% in SWE‑Bench Pro e non sono molto distanti da GPT-5.4. Il miglioramento rispetto a GPT-5 mini (45,7%) è significativo.
  • Agenti da terminale: In Terminal‑Bench 2.0, la distanza tra le tre varianti dei modelli 5.4 emerge chiaramente. GPT-5.4 mini (60,0%) può competere con precedenti modelli di punta, come GPT 5.2 (62,2%), e 5.4 nano (46,3%) con GPT-5 (49,6%), ma sono lontani dalle prestazioni al top di GPT-5.4.
  • Uso del computer: Mentre GPT-5.4 mini raggiunge un notevole 72,1% in OSWorld‑Verified, seguendo da vicino GPT-5.4, GPT-5.4 nano è chiaramente indietro (39,0%). È evidente che non è stato creato per task di uso del computer.

Tabella che confronta i benchmark di GPT-5.4, GPT-5.4 mini, GPT-5.4 nano e GPT-5 mini in SWE-Bench Pro (Public), Terminal-Bench 2.0, Toolathlon, GPQA Diamond e OSWorld-Verified.

Un’altra cosa che ci ha colpito subito è che l’ordine dei punteggi dei benchmark è stato lo stesso in (quasi) tutte le categorie: GPT-5.4 > GPT-5.4 mini > GPT-5.4 nano > GPT-5 mini. In tutti i punteggi pubblicati, l’unica eccezione è stata che il vecchio modello mini ha superato GPT-5.4 nano nei domini di visione e uso del computer, che non sono le aree target di nano.

Resta però poco chiaro quanto faccia la differenza il nuovo livello di effort di ragionamento “xhigh”, che non era disponibile per GPT-5 mini.

Ovviamente, però, le prestazioni non sono tutto. OpenAI vuole sottolineare il tema dei rendimenti decrescenti, come mostrato nei grafici forniti. Tra i quattro modelli confrontati, GPT-5.4 è il più lento e il più costoso.

Accuratezza vs costo stimato per i modelli GPT-5.4 e GPT-5 mini

Le curve illustrano i rendimenti decrescenti: puoi investire più calcolo/denaro in un modello e ottenere modesti guadagni di accuratezza, ma i salti diventano sempre più piccoli. Gli ultimi punti percentuali di GPT-5.4 costano molto più dei primi. Questo tipo di grafico aiuta gli ingegneri a decidere se vale la pena spremere quel 3–4% di accuratezza in più nella loro applicazione specifica.

Accuratezza vs latenza stimata per i modelli GPT-5.4 e GPT-5 mini

Ci sentiamo però in dovere di valutare criticamente il grafico: l’asse Y parte dal 35%, non da 0%. Questo esagera davvero le differenze visive tra i modelli. Il vantaggio di GPT-5.4 su GPT-5 mini sembra più grande nel grafico che parte dal 35% di quanto apparirebbe in un grafico che parte da zero. 

Inoltre, OpenAI sottolinea che queste cifre di latenza non provengono da run produttivi reali; sono stime modellate. C’è qualcosa di un po’ incongruo in questo. OpenAI fornisce molte indicazioni su decisioni infrastrutturali, e il loro grafico contiene solo stime modellate. 

Troviamo anche strano guardare stime modellate senza barre d’errore. Scommetterei che, se OpenAI avesse scelto di includerle, si sarebbero sovrapposte parecchio. 

Come accedere a GPT-5.4 mini e nano

Dovresti già trovare GPT‑5.4 mini nell’interfaccia browser di ChatGPT, in Codex e nell’API. In ChatGPT è il modello “Thinking” predefinito per gli utenti dei piani Free e Go, e il modello di fallback per tutti gli altri utenti che hanno raggiunto il rate limit di GPT-5.4 Thinking.

GPT‑5.4 nano, invece, è disponibile solo tramite API.

Prezzi di GPT-5.4 mini e nano

GPT-5.4 mini costa 0,75 $ per 1M di token in input e 4,50 $ per 1M di token in output. GPT‑5.4 nano, che, di nuovo, è disponibile solo nell’API, costa 0,20 $ per 1M di token in input e 1,25 $ per 1M di token in output. A questi prezzi, ottieni una finestra di contesto da 400k.

È ovviamente molto più economico del modello di punta di OpenAI (2,50/15 $ per 1M input/output). 

GPT-5.4 mini e nano vs. Claude Haiku 4.5

Quel che è davvero interessante è che GPT-5.4 nano ha un prezzo inferiore rispetto a molti modelli piccoli concorrenti con prestazioni più basse, in particolare Claude Haiku 4.5, che costa 1 $ per milione di token in input e 5 $ per milione di token in output. Quindi OpenAI ha abbassato i prezzi rispetto a Claude Haiku in entrambi i casi. 

Ma come si confrontano i modelli nei test? Il confronto tra i due è un po’ complicato perché sono stati valutati su varianti di test diverse. I risultati di SWE-bench non sono affatto comparabili, poiché usano versioni del test completamente diverse. Claude Haiku 4.5 è stato testato su SWE-bench Verified e ha ottenuto un punteggio del 73,3%, mentre GPT-5.4 nano è stato testato su SWE-bench Pro (Public) e ha ottenuto il 52,4%. Pro è il test più recente e più difficile.

Risultati benchmark di Claude Haiku 4.5

Punteggio di Claude Haiku 4.5: 50,7% su OSWorld

Nei due confronti più “puliti” mela con mela, GPT-5.4 nano è in vantaggio in entrambi.

  • Con GPQA Diamond, GPT-5.4 nano ottiene un punteggio superiore del 9,8% e 
  • con τ2-bench Telecom, GPT-5.4 nano segna un +9,5%. 

Tuttavia, Haiku 4.5 potrebbe avere un vantaggio su OSWorld per l’uso del computer, anche se, di nuovo, le varianti di benchmark rendono il confronto difficile. 

  • Claude Haiku 4.5 è stato testato su OSWorld standard e ha ottenuto il 50,7%
  • GPT-5.4 nano è stato testato su OSWorld-Verified e ha ottenuto il 39,0%. 

OSWorld-Verified è il test più difficile, ma il divario di quasi il 12% sembra piuttosto significativo. Siamo più cauti nel liquidare questo gap perché, a differenza di SWE-bench Verified e SWE-bench Pro, dove è noto che i modelli che vanno bene nella versione Verified spesso vanno peggio nella versione Pro, ci sono meno evidenze che la stessa dinamica valga per OSWorld e OSWorld-Verified.

Benchmark OSWorld-Verified di GPT-5.4

Punteggio di GPT-5.4 nano: 39% su OSWorld-Verified

Cosa si dice su GPT-5.4 mini e nano

Molte reazioni online hanno indicato un pattern familiare nel tech: il modello di punta dell’anno scorso diventa il livello gratuito dell’anno prossimo. Tutto questo è previsto, ma il ritmo del cambiamento è impressionante. 

C’è chi dice che la frontier AI abbia la svalutazione più rapida di qualunque prodotto mai costruito. Ci si chiede se il modello per cui oggi paghi un sovrapprezzo ti sembrerà ancora valido tra sei mesi. A volte gli sviluppatori potrebbero non voler semplicemente sostituire un modello con un altro se hanno seguito un processo di fine-tuning o se hanno effettuato calibrazioni di costi e prestazioni. 

image7.png

Conclusione

I benchmark mostrano una nitida scala di prestazioni da GPT-5.4 a 5.4 mini fino a 5.4 nano. Ma per molti task, la scelta pratica dipende più da latenza e budget che dallo spremere qualche punto percentuale in più. 

Per molte app in produzione, GPT-5.4 mini può essere un ottimo nuovo default, dato che la qualità è abbastanza alta da sembrare frontier e al contempo abbastanza economico e veloce per un uso ad alto volume.

GPT-5.4 nano è più uno specialista per grandi carichi di lavoro in tempo reale molto sensibili alla latenza. È anche perfetto come sub‑agent per svolgere il lavoro “di massa” più semplice, delegato da modelli Thinking con prestazioni più elevate.

In un mondo in cui il modello di punta dell’anno scorso diventa il “mini” di quest’anno, progettare sistemi in grado di cambiare modello facilmente è la scelta migliore rispetto all’ottimizzazione per singole release. Ti consiglio il nostro corso su Building Scalable Agentic Systems, che affronta proprio questo tema e ti insegna a usare framework agentici come il Model Context Protocol (MCP).

GPT-5.4 mini e nano: FAQ

GPT‑5.4 mini è solo un GPT‑5 mini più veloce?

No, è sia più veloce sia significativamente più forte nei benchmark come SWE‑Bench Pro, mantenendo una finestra di contesto da 400k.

Qual è il principale compromesso tra GPT‑5.4 e 5.4 mini?

GPT‑5.4 resta il migliore per qualità massima; 5.4 mini sacrifica un po’ di accuratezza in cambio di una latenza e un costo molto migliori.

Quando dovrei usare GPT‑5.4 nano invece di mini?

Usa nano per carichi ultra‑sensibili alla latenza o a volumi molto alti, dove costi e velocità contano più dell’accuratezza di fascia alta.

GPT-5.4 mini e nano supportano tool e immagini?

Sì, entrambi supportano input di immagini, uso di tool, function calling e output strutturati nell’API.

GPT-5.4 mini e nano sono abbastanza validi per coding e agenti?

Sì. In particolare, 5.4 mini supera il 50% su SWE‑Bench Pro e ottiene punteggi competitivi su Terminal‑Bench 2.0, risultando forte per codice e agenti da terminale.

5.4 nano è più debole ma comunque abbastanza capace per molti task di supporto, come instradare richieste, agire come sub‑agent economico e gestire workflow da terminale semplici dove velocità e costo contano di più.


Josef Waples's photo
Author
Josef Waples

Sono uno scrittore e editor di data science, con contributi a articoli di ricerca su riviste scientifiche. Sono particolarmente interessato ad algebra lineare, statistica, R e affini. Inoltre, gioco anche parecchio a scacchi! 


Tom Farnschläder's photo
Author
Tom Farnschläder
LinkedIn

Tom è un data scientist e formatore tecnico. Scrive e gestisce i tutorial e i post del blog di DataCamp su data science. In precedenza, Tom ha lavorato nella data science presso Deutsche Telekom.

Argomenti

Corsi su Agentic AI

Programma

Nozioni di base sugli agenti AI

6 h
Scopri come gli agenti di intelligenza artificiale possono cambiare il tuo modo di lavorare e dare un valore aggiunto alla tua azienda!
Vedi dettagliRight Arrow
Inizia il corso
Mostra altroRight Arrow
Correlato

blog

I 15 migliori server MCP remoti che ogni AI builder dovrebbe conoscere nel 2026

Scopri i 15 migliori server MCP remoti che stanno trasformando lo sviluppo AI nel 2026. Scopri come migliorano automazione, ragionamento, sicurezza e velocità dei workflow.
Abid Ali Awan's photo

Abid Ali Awan

15 min

blog

Tokenizzazione nel NLP: come funziona, sfide e casi d'uso

Guida al preprocessing NLP nel machine learning. Copriamo spaCy, i transformer di Hugging Face e come funziona la tokenizzazione in casi d'uso reali.
Abid Ali Awan's photo

Abid Ali Awan

10 min

blog

Che cos'è Snowflake? Guida per principianti alla piattaforma dati cloud

Esplora le basi di Snowflake, la piattaforma dati cloud. Scopri la sua architettura, le sue funzionalità e come integrarla nelle tue pipeline di dati.
Tim Lu's photo

Tim Lu

12 min

Mostra altroMostra altro