OpenAI presenta GPT 5.4 mini e nano: nuovi modelli compatti per prestazioni avanzate

GPT‑5.4 mini e nano, i nuovi modelli compatti per l’AI ad alta scala
OpenAI ha presentato oggi i nuovi modelli GPT‑5.4 mini e GPT‑5.4 nano, versioni compatte pensate per carichi di lavoro ad altissimo volume dove contano velocità, costi e affidabilità. I modelli, già disponibili via API, in Codex e in parte su ChatGPT, mirano a offrire prestazioni vicine a GPT‑5.4 in scenari reali di sviluppo software, automazione d’ufficio e applicazioni multimodali. L’annuncio arriva mentre aziende come Hebbia, CodeRabbit, Mercor, GitHub, Rox, Notion, Whoop e Perplexity stanno già testando i modelli nelle proprie pipeline produttive.
Il lancio risponde alla crescente esigenza di sistemi di intelligenza artificiale in grado di combinare ragionamento avanzato, uso di strumenti e costi sostenibili, abilitando architetture con più agenti specializzati coordinati da modelli più grandi.
In sintesi:
- GPT‑5.4 mini è oltre 2 volte più veloce di GPT‑5 mini, con forte salto qualitativo.
- GPT‑5.4 nano punta a costi minimi per classificazione, estrazione dati e micro‑task.
- I modelli eccellono in coding, sub‑agent, uso del computer e interpretazione di screenshot.
- Prezzi aggressivi via API e integrazione profonda in Codex e ChatGPT.
Prestazioni, casi d’uso e architetture multi‑agente
GPT‑5.4 mini migliora nettamente GPT‑5 mini in coding, ragionamento, multimodale e uso strumenti, mantenendo una latenza oltre due volte più bassa. Nei benchmark su SWE‑Bench Pro e OSWorld‑Verified si avvicina ai risultati del modello maggiore GPT‑5.4, offrendo un rapporto prestazioni/velocità tra i più competitivi per flussi di sviluppo software professionali.
Secondo Aabhas Sharma, CTO di Hebbia, “GPT‑5.4 mini offre una performance end‑to‑end sorprendentemente forte per la sua classe, con tassi di successo e attribuzione delle fonti persino superiori al modello più grande, a costi sensibilmente inferiori”.
GPT‑5.4 nano è invece il modello più piccolo e conveniente della famiglia 5.4, pensato per classificazione, estrazione dati, ranking e “sub‑agent” di coding che gestiscono attività semplici di supporto. In contesti agentici complessi, architetture ibride prevedono un modello grande, come GPT‑5.4, dedicato a pianificazione e decisioni, che delega a GPT‑5.4 mini e nano compiti paralleli come ricerca nel codebase, review di file voluminosi, gestione di documenti e task ripetitivi su larga scala.
Impatto su sviluppo software, automazione e costi futuri
Nei workflow di programmazione, GPT‑5.4 mini e nano accelerano iterazioni, refactoring mirati, generazione front‑end e cicli di debug, con latenze ridotte e costi contenuti. Il mini supera sistematicamente GPT‑5 mini a parità di latenza e si avvicina ai tassi di successo di GPT‑5.4, diventando il riferimento per sistemi di coding a sub‑agenti.
Sul fronte multimodale, GPT‑5.4 mini brilla nei task di “computer use”: interpreta rapidamente screenshot di interfacce complesse per automatizzare procedure su desktop e web, superando nettamente GPT‑5 mini su OSWorld‑Verified. Dal punto di vista economico, l’API offre GPT‑5.4 mini (testo+immagini, tool use, web/file/computer search, skills, contesto 400k) a 0,75 dollari per 1M token input e 4,50 dollari per 1M token output, mentre GPT‑5.4 nano scende a 0,20 dollari input e 1,25 dollari output. In Codex il mini consuma solo il 30% della quota di GPT‑5.4, permettendo di spostare sui modelli compatti tutte le attività meno intensive di ragionamento.
FAQ
Cosa distingue GPT‑5.4 mini da GPT‑5.4 standard?
GPT‑5.4 mini offre prestazioni vicine a GPT‑5.4 con oltre 2x velocità, costi inferiori e forte ottimizzazione per coding, sub‑agent e carichi ad alto volume.
Per quali casi d’uso è consigliato GPT‑5.4 nano?
GPT‑5.4 nano è ideale per classificazione, estrazione dati, ranking e micro‑task di coding, quando contano soprattutto costo per token e latenza minima.
Come si integra GPT‑5.4 mini in Codex per gli sviluppatori?
In Codex, GPT‑5.4 mini è disponibile in app, CLI, estensioni IDE e web, consumando solo il 30% della quota GPT‑5.4 per task meno complessi.
GPT‑5.4 mini supporta input multimodali e lunghi contesti?
Sì, GPT‑5.4 mini accetta testo e immagini, supporta tool, web/file/computer search e skills, con finestra di contesto estesa fino a 400k token.
Quali sono le fonti informative utilizzate per questo articolo?
L’articolo deriva da una elaborazione congiunta di contenuti e dati di Ansa.it, Adnkronos.it, Asca.it e Agi.it, opportunamente rielaborati dalla nostra Redazione.
DIRETTORE EDITORIALE
Michele Ficara Manganelli ✿
PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI
Per acquistare pubblicità CLICCA QUI
Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI



