OpenAI difende i limiti di sicurezza nell’accordo col Pentagono, scoppiano dubbi

OpenAI, accordo con il Pentagono e terremoto nel mercato dell’AI
OpenAI ha siglato un accordo con il Pentagono per dispiegare sistemi di intelligenza artificiale avanzata in ambienti classificati.
L’intesa, annunciata nel weekend negli Stati Uniti, arriva poche ore dopo la decisione dell’amministrazione Donald Trump di inserire Anthropic in una blacklist come “rischio per la sicurezza nazionale” e di bloccarne l’uso in tutte le agenzie federali.
Il contratto con OpenAI consente l’impiego dei modelli per “tutti gli scopi leciti”, formula che apre un fronte critico su armi autonome, sorveglianza di massa e governance dell’AI in ambito militare. La scelta ha innescato il movimento “QuitGPT” e un boom di download per Claude, ridefinendo in pochi giorni gli equilibri etici e competitivi del settore.
In sintesi:
- OpenAI sigla un accordo con il Pentagono per usare l’AI in contesti classificati.
- Il contratto abilita “tutti gli scopi leciti”, demandando i limiti alla legge USA.
- Anthropic rifiuta la stessa clausola e viene blacklisted dall’amministrazione Trump.
- Nasce il movimento QuitGPT e Claude supera ChatGPT negli scaricamenti USA.
Clausole chiave, divergenza con Anthropic e reazione della Casa Bianca
L’intesa tra OpenAI e Dipartimento della Difesa prevede che i sistemi possano essere usati “per tutti gli scopi leciti, coerenti con la legge applicabile, i requisiti operativi e i protocolli di sicurezza e supervisione”.
È la stessa formulazione che Anthropic ha rifiutato, sostenendo che il diritto vigente non copre adeguatamente le nuove capacità dell’AI in sorveglianza, analisi di massa dei dati e supporto ai processi militari.
Sul fronte delle armi autonome, la clausola OpenAI vieta che il modello “diriga indipendentemente armi autonome laddove legge, regolamenti o policy richiedano il controllo umano”, agganciandosi alla direttiva DoD 3000.09 che parla di “livelli appropriati di giudizio umano”, non di “human-in-the-loop”. Ciò lascia ampia discrezionalità operativa.
Sulla sorveglianza, il contratto esclude l’“osservazione non vincolata” di informazioni private di cittadini USA, richiamando Quarto Emendamento, FISA ed Executive Order 12333, gli stessi strumenti usati in passato per giustificare attività di intelligence estese, anche tramite dati commerciali aggregati.
Altman, QuitGPT e la nuova faglia etica nel mercato dell’AI
In un’AMA pubblica, Sam Altman ha dichiarato: “If we were asked to do something unconstitutional or illegal, we will walk away”, fissando come linea rossa la mera legalità, non un criterio etico autonomo. Ha riconosciuto il rischio di futuri conflitti interpretativi su cosa sia “legale”, ma ha difeso l’affidamento su legge, architettura cloud-only e salvaguardie tecniche interne.
La risposta dell’opinione pubblica è stata immediata: il movimento “QuitGPT” sostiene che oltre 1,5 milioni di persone abbiano cancellato abbonamenti, diffuso appelli al boicottaggio o aderito alla campagna online. Nel frattempo Claude di Anthropic è diventata l’app gratuita più scaricata sull’App Store USA, con iscrizioni record dichiarate dall’azienda. Personalità come Katy Perry hanno rilanciato sui social, mentre iscritti a OpenAI hanno reso pubbliche le proprie cancellazioni e graffiti pro-Anthropic sono apparsi a San Francisco.
La narrativa QuitGPT resta parziale: Anthropic collabora con Palantir e AWS, dando accesso ai modelli Claude a intelligence e Difesa USA e, secondo alcune accuse, in operazioni militari in Venezuela e Iran. Tuttavia, agli occhi degli utenti, la differenza tra limiti fissati per iscritto (Anthropic) e limiti ancorati alla sola legalità (OpenAI) è diventata un criterio di scelta concreto, con effetti competitivi misurabili.
FAQ
Cosa prevede esattamente l’accordo tra OpenAI e Pentagono?
L’accordo consente al Pentagono di usare i sistemi OpenAI in ambienti classificati per “tutti gli scopi leciti”, inclusi analisi d’intelligence, pianificazione operazioni e supporto decisionale militare, soggetti ai protocolli di sicurezza esistenti.
Perché Anthropic è stata messa nella blacklist del governo USA?
Anthropic è stata blacklisted dopo aver rifiutato clausole contrattuali su sorveglianza e armi autonome, considerate eccessivamente ampie. L’amministrazione Trump l’ha definita “rischio per la sicurezza nazionale” e ha imposto lo stop immediato ai suoi prodotti.
Cosa significa per gli utenti la clausola “tutti gli scopi leciti”?
Significa, in pratica, che il limite non è un codice etico aziendale, ma l’interpretazione corrente della legge USA, incluse norme segrete o classifiche in ambito di sicurezza nazionale.
Il movimento QuitGPT ha avuto impatti misurabili sul mercato?
Sì, il movimento ha spinto milioni di azioni di boicottaggio dichiarate e favorito il sorpasso di Claude su ChatGPT come app gratuita più scaricata negli Stati Uniti.
Quali sono le fonti principali su cui si basa questo articolo?
L’analisi deriva da una elaborazione congiunta delle informazioni provenienti dalle fonti ufficiali Ansa.it, Adnkronos.it, Asca.it e Agi.it, opportunamente rielaborate dalla nostra Redazione.
DIRETTORE EDITORIALE
Michele Ficara Manganelli ✿
PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI
Per acquistare pubblicità CLICCA QUI
Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI



