Sam Altman ritratto dal New Yorker come leader controverso, dubbi crescenti sulla guida di OpenAI
Indice dei Contenuti:
OpenAI nella tempesta: accuse a Sam Altman e rischi per l’IPO
Chi: il CEO di OpenAI Sam Altman, descritto da decine di ex colleghi come figura poco affidabile.
Cosa: un lungo profilo del New Yorker, firmato da Ronan Farrow e Andrew Marantz, ne mette in discussione integrità e stile di leadership, mentre emergono tensioni interne sulla futura quotazione in borsa.
Dove: al centro della vicenda c’è la sede di OpenAI a San Francisco e l’ecosistema globale dell’intelligenza artificiale.
Quando: le rivelazioni arrivano dopo 18 mesi di indagine giornalistica e coincidono con i piani di IPO entro il 2026.
Perché: la combinazione tra dubbi etici sul CEO, struttura ibrida profit/nonprofit e rischi finanziari mina la pretesa di OpenAI di essere “custode responsabile” dell’IA generativa.
In sintesi:
- Profilo del New Yorker descrive Sam Altman come “non vincolato dalla verità”.
- Ex dirigenti come Dario Amodei documentano anni di comportamenti opachi dentro OpenAI.
- La CFO Sarah Friar solleva dubbi sul piano di spesa e sull’IPO 2026.
- La credibilità di OpenAI sul tema AGI è legata alla fiducia nel suo vertice.
Un CEO divisivo tra memorie interne e scontro sull’IPO
L’inchiesta del New Yorker su Sam Altman si fonda su oltre 100 interviste, 18 mesi di verifiche e documenti mai resi pubblici: circa 70 pagine di memo del cofondatore Ilya Sutskever e oltre 200 pagine di note private di Dario Amodei, oggi CEO di Anthropic.
Un ex membro del board di OpenAI sintetizza il giudizio: “He’s unconstrained by truth”. L’ex consigliere descrive due tratti ritenuti incompatibili in un leader di infrastrutture critiche: un intenso bisogno di piacere agli altri e una quasi sociopatica indifferenza per le conseguenze del mentire.
Il tema della scarsa trasparenza non è nuovo. Nel 2023 il board di OpenAI licenziò Altman citando il fatto che non fosse stato “consistently candid”. Nel giro di pochi giorni, grazie alla pressione combinata di investitori e dipendenti, Altman tornò CEO e il board fu completamente ribaltato, con l’uscita di chi aveva provato a rimuoverlo.
Nel frattempo, l’ex VP of Research Dario Amodei ha lasciato OpenAI per fondare Anthropic, insieme ad altri ricercatori preoccupati dalla gestione Altman. Le loro note interne mostrerebbero timori strutturali sulla governance e sui trade-off tra sicurezza e velocità di sviluppo.
Parallelamente emergono tensioni sulla traiettoria finanziaria. Secondo indiscrezioni di The Information, la CFO Sarah Friar dubita della sostenibilità di un piano di spesa fino a 600 miliardi di dollari in cinque anni per infrastrutture server, a fronte di ricavi mensili stimati in circa 2 miliardi di dollari e impegni di capitale già contratti per 122 miliardi.
Friar avrebbe inoltre avuto un ruolo defilato in almeno una riunione chiave con un grande investitore sulle spese infrastrutturali, circostanza giudicata “strana e lampante” da chi era presente. Altman e Friar hanno reagito con una nota congiunta: “Siamo stati entrambi direttamente coinvolti in qualsiasi decisione dagli esiti rilevanti nel corso dell’ultimo anno e oltre”.
Resta un dato organizzativo cruciale: la CFO non riporta più direttamente ad Sam Altman, ma a Fidji Simo, Chief of Applied Business. Una catena di comando atipica per un’azienda che mira a una IPO storica entro il 2026.
Legittimità dell’AGI e futuro della governance OpenAI
In questo clima, OpenAI ha pubblicato il whitepaper “Industrial Policy for the Intelligence Age: Ideas to Keep People First”, in cui riconosce rischi elevati della propria tecnologia: perdita di posti di lavoro, concentrazione di potere, impatti geopolitici. Propone strumenti fiscali e di governance per riequilibrare costi e benefici dell’IA avanzata.
Il documento è coerente con la narrazione pubblica di Sam Altman: “Siamo consapevoli dei rischi, fidatevi di noi”. Tuttavia, la fiducia è oggi l’asset più fragile di OpenAI. La credibilità dell’azienda, nata nel 2015 come nonprofit per evitare che l’IA fosse dominata solo dal profitto, è messa alla prova dalla sua trasformazione in ibrido profit/nonprofit e da un CEO al centro di accuse di opacità consolidate nel tempo.
Per regolatori, governi e grandi clienti enterprise, il punto non è solo la potenza dei modelli, ma la legittimità istituzionale di chi controlla l’eventuale AGI. In uno scenario di investimenti colossali, concorrenza crescente e regolazione più stringente, il nodo della fiducia nel vertice di OpenAI rischia di diventare il vero fattore limitante per IPO, accordi strategici e ruolo dell’azienda nell’ecosistema globale dell’intelligenza artificiale.
FAQ
Chi sono gli autori dell’inchiesta del New Yorker su Sam Altman?
L’inchiesta è firmata da Ronan Farrow e Andrew Marantz, giornalisti del New Yorker, e si basa su 18 mesi di lavoro.
Cosa contestano gli ex colleghi di Sam Altman alla guida di OpenAI?
Contestano soprattutto scarsa trasparenza, gestione opaca del potere, scelte rischiose sul bilanciamento tra crescita, sicurezza dei modelli e governance interna.
Perché il piano di spesa di OpenAI preoccupa la CFO Sarah Friar?
Preoccupa perché fino a 600 miliardi in cinque anni per infrastrutture superano di molto ricavi attuali e impegni di capitale già assunti.
In che cosa consiste il whitepaper Industrial Policy for the Intelligence Age?
Definisce rischi economici e sociali dell’IA avanzata e propone tasse mirate, nuove regole di governance e strumenti redistributivi per mitigare gli impatti.
Quali sono le fonti principali alla base di questo articolo di approfondimento?
L’analisi deriva da una elaborazione congiunta delle fonti ufficiali Ansa.it, Adnkronos.it, Asca.it e Agi.it, rielaborate dalla nostra Redazione.

