Il lato positivo e negativo delle ultime creazioni dell’IA di OpenAI
Cosa è OpenAI o1
La settimana scorsa, OpenAI ha svelato il suo ultimo modello di intelligenza artificiale, o1, dopo una serie di speculazioni su modelli successivi a GPT-4 con nomi criptici tra cui “Strawberry”, “Orion”, “Q*” e “GPT-5”. Questo nuovo modello promette di spingere i confini dell’intelligenza artificiale con capacità di ragionamento potenziate e una notevole abilità nel risolvere problemi scientifici. Sviluppatori, esperti di cybersecurity ed appassionati di AI sono in fermento per quello che potrebbe essere l’impatto di o1. In generale, gli entusiasti lo hanno lodato come un passo significativo nella evoluzione dell’IA, mentre altri, più familiari con le intuizioni del modello, hanno messo in guardia sul fatto di non alzare troppo le aspettative. Joanne Jang di OpenAI ha chiarito fin da subito che o1 “non è un modello miracoloso”.
Al cuore di o1 c’è uno sforzo concertato per affrontare problemi che tradizionalmente hanno messo in difficoltà i sistemi AI, in particolare con richieste inaccurate che mancano di specificità. Da sfide di codifica complesse a intricate computazioni matematiche, questo nuovo modello mira a superare i suoi predecessori e, in alcuni casi, persino gli esperti umani, specialmente in compiti che richiedono un ragionamento complesso.
Tuttavia, non è perfetto. OpenAI o1 fatica con problemi di prestazione, sfide di versatilità e potenziali dilemmi etici che potrebbero farti riflettere due volte prima di scegierlo come tuo nuovo modello di riferimento tra la vasta gamma di LLM da provare. Abbiamo provato un po’ con o1-preview e o1 mini — forse troppo poco, visto che consente solo 30 o 50 interazioni a settimana, a seconda del modello — e abbiamo stilato un elenco delle cose che ci piacciono, odiamo e di cui siamo preoccupati riguardo a questo modello.
I buoni: capacità logiche e di problem-solving
Le capacità di ragionamento di o1 si distinguono come il suo principale punto di forza. OpenAI afferma che o1 spesso supera le performance di dottorandi umani nella risoluzione di problemi specifici, soprattutto in campi come la biologia e la fisica, dove la precisione è fondamentale. Questo rende o1 uno strumento inestimabile per i ricercatori che si confrontano con domande scientifiche complesse o grandi quantità di dati intricati.
Una delle caratteristiche più intriganti di o1 è il suo metodo di elaborazione “Chain of Thought”. Questo approccio consente all’IA di scomporre compiti complicati in passaggi più gestibili, analizzando le potenziali conseguenze di ciascun passaggio prima di determinare il risultato migliore. È come osservare un grande maestro degli scacchi dissezionare una partita, mossa per mossa, o attraversare una sessione di ragionamento prima di prendere una decisione. In sintesi, le capacità logiche e di ragionamento di o1 sono straordinarie.
Oltre al ragionamento, OpenAI o1 si dimostra particolarmente abile nella programmazione. Che si tratti di educazione, debug di codice in tempo reale o ricerca scientifica, o1 si adatta a una vasta gamma di applicazioni professionali. OpenAI ha prestato particolare attenzione alle capacità di codifica di o1, rendendo il modello più potente rispetto ai suoi predecessori e più versatile nella comprensione delle richieste degli utenti, prima di tradurre i compiti in codice.
Una caratteristica distintiva è l’applicazione del metodo Chain of Thought a una sessione di codifica, rendendo l’intero processo più produttivo e consentendo al modello di eseguire compiti più complessi. Inoltre, OpenAI non ha trascurato la questione critica dell’etica nello sviluppo dell’IA. O1 è dotato di sistemi di filtraggio integrati progettati per prevenire output dannosi, il che potrebbe essere visto come una restrizione artificiale e non necessaria da alcuni, ma per le grandi aziende, avere un modello che non suggerisce comportamenti illeciti è un aspetto di sicurezza fondamentale.
I cattivi: prestazioni e limitazioni
OpenAI o1 presenta diverse limitazioni significative. In primo luogo, la lentezza del modello rappresenta un’importante criticità. Rispetto al suo predecessore, GPT-4o, o1 mostra prestazioni molto più lente. Quando si eseguono attività che richiedono interazioni rapide o devono essere completate in contesti ad alta pressione, questa lentezza può rivelarsi problematica. O1 impiega circa dieci secondi per “pensare” prima di formulare risposte, e in determinati casi, le attività possono richiedere oltre un minuto di tempo di elaborazione prima di ricevere un risultato, creando frustrazione negli utenti che necessitano di risposte immediate.
In secondo luogo, o1 è attualmente limitato a funzionalità testuali e non offre la versatilità e la gamma di strumenti che gli sviluppatori hanno appreso a conoscere nei modelli precedenti, come GPT-4. Mancherebbe di funzioni di memoria, capacità di caricamento file, strumenti di analisi dei dati e abilità di navigazione web. Questa mancanza di strumenti potrebbe far sentire coloro che operano nei settori tecnologici come se stessero passando da un modello multifunzionale a uno più elementare, limitando dunque il proprio potenziale creativo ed analitico.
Un altro aspetto critico è che, pur eccellendo nella logica e nel problem-solving, o1 risulta inadeguato per compiti più creativi. Se richiesto di scrivere un romanzo, migliorare un testo letterario o correggere una storia creativa, o1 presenta prestazioni inferiori rispetto a modelli precedenti, come GPT-4, che offre capacità generali superiori in tali compiti. Ciò porta a un sentimento di delusione per chi si aspettava un vero progresso rispetto alla generazione precedente.
L’utilizzo intensivo di risorse è un altro punto critico. O1 richiede una notevole quantità di token per fornire risposte, il che si traduce in costi maggiori sia per gli sviluppatori sia in termini di impatto ambientale. Il modello è progettato per essere intensivo nei suoi consumi, il che potrebbe limitarne l’accessibilità per piccoli sviluppatori e organizzazioni.
I brutti: problemi etici e sicurezza
La questione dell’etica nella progettazione e nell’implementazione di modelli come o1 rappresenta un aspetto cruciale. OpenAI ha fornito risposte miste riguardo alle problematiche etiche divise in diverse aree; ad esempio, il modello ha ottenuto valutazioni ‘basse’ in temi di cybersecurity e autonomia del modello, ma ‘medie’ in capacità di persuasione. Con l’AI che influisce sempre più sulle decisioni quotidiane, sorge la domanda: dove dobbiamo tracciare il confine tra aiuto e manipolazione?
Uno dei più grandi svantaggi di o1 è il suo costo di implementazione, tanto in termini finanziari quanto ambientali. La richiesta elevata di potenza di calcolo necessaria per gestire il modello non solo comporta spese significative, ma contribuisce anche a un impatto ambientale non indifferente. Questo fattore rende o1 meno accessibile a piccole aziende o a sviluppatori indipendenti, i quali potrebbero trovarsi esclusi da un uso efficace di questa tecnologia all’avanguardia.
Inoltre, OpenAI ha implementato misure di sicurezza significative, progettando o1 con filtri per prevenire output dannosi. Tuttavia, questa protezione ha sollevato preoccupazioni riguardo alla trasparenza e alla libertà creativa. I filtri sono visti da alcuni come limitazioni eccessive, e l’intento di OpenAI di resistere ai tentativi di jailbreak della propria AI può rispecchiare un comportamento più controllato verso l’uso delle sue tecnologie.
In tema di sorveglianza, ci sono rapporti preoccupanti che suggeriscono che OpenAI stia monitorando le interazioni degli utenti con il modello per migliorarlo e garantire la compliance con le proprie politiche. Questa sorveglianza per alcuni rappresenta una violazione della privacy, in particolare considerando l’aumento della collaborazione dell’azienda con entità governative e militari. Anche se OpenAI dichiara di mantenere una politica di zero retention dei dati, l’idea che un’azienda controlli attivamente i propri utenti crea un panorama inquietante per chi prioritizza la riservatezza.
Per mitigare la raccolta dei dati personali, OpenAI offre alcune opzioni di configurazione per limitare l’accesso ai dati, ma queste impostazioni sono attualmente attivate di default, sollevando preoccupazioni sull’automaticità della raccolta. Questo, unito alla pressione affinché gli utenti rinuncino ai propri dati per un apparente miglioramento del servizio, solleva interrogativi sulle implicazioni etiche dell’utilizzo di o1. In definitiva, mentre o1 gode di significativi progressi tecnologici, l’ambiente etico e di sicurezza circostante rimane una preoccupazione pressante per gli utenti e gli sviluppatori.
OpenAI o1 è giusto per te?
Il modello o1 di OpenAI segna una transizione significativa rispetto all’approccio precedente dell’azienda, che si era concentrata su una creazione di intelligenza artificiale generalmente applicabile. Invece, o1 è progettato specificamente per casi d’uso professionali e altamente tecnici, con OpenAI che afferma chiaramente che non è destinato a sostituire GPT-4 in tutti gli scenari. Questo focus specializzato implica che o1 non rappresenta una soluzione universale; non è ideale per chi cerca risposte concise, informazioni puramente fattuali o assistenza nella scrittura creativa.
Per sviluppatori che operano con crediti API, è fondamentale prestare attenzione alla natura intensiva delle risorse di o1, poiché ciò potrebbe portare a costi imprevisti. Tuttavia, o1 può rappresentare un cambiamento radicale per chi lavora con problemi complessi e richiede capacità analitiche elevate. La sua abilità nel scomporre problemi intricati in passaggi gestibili lo rende eccellente per compiti come l’analisi di set di dati complessi o la risoluzione di problemi ingegneristici multifaceted.
Inoltre, per coloro che devono affrontare sfide di codifica difficili, o1 offre un potenziale significativo nel debugging, ottimizzazione e generazione di codice. Tuttavia, è importante notare che o1 è posizionato come un assistente piuttosto che un sostituto per programmatori umani. Per ora, o1 rappresenta solo un’anteprima di ciò che potrebbe arrivare in futuro, ma anche i prodigi hanno bisogno di tempo per affinarsi.
Si prevede che il modello ufficiale sarà disponibile quest’anno e promette di essere multimodale, con prestazioni notevolmente migliorate in ogni campo, non solo nel ragionamento logico. Le affermazioni del CEO di OpenAI Japan, Tadao Nagasaki, riguardo all’”evoluzione quasi 100 volte superiore rispetto ai suoi predecessori”, contribuiscono a creare aspettative rispetto a un modello finale che potrebbe minimizzare i mal di testa attuali e generare maggiori momenti di “Aha!” — sempre che non richieda troppo tempo per “pensare” prima di rispondere.