OpenAI ricalibra l’intesa sulla difesa dopo pressioni quitGPT

OpenAI rivede l’intesa con il Pentagono sull’AI militare
Sam Altman, CEO di OpenAI, ha ammesso di aver comunicato “troppo velocemente” l’accordo con il Pentagono sull’uso militare dell’intelligenza artificiale. L’intesa, firmata negli Stati Uniti con il Dipartimento della Guerra durante l’amministrazione Donald Trump, punta a integrare i modelli di OpenAI in attività difensive sensibili.
Nel fine settimana, dopo dure critiche pubbliche e pressioni online, OpenAI ha diffuso una nota interna riveduta chiarendo limiti stringenti su sorveglianza e uso dei dati personali dei cittadini americani.
L’intervento arriva mentre la rivale Anthropic, produttrice del chatbot Claude, è in conflitto con il Pentagono sulle condizioni di cooperazione. La revisione dell’accordo, tuttavia, non menziona esplicitamente il nodo più controverso: lo sviluppo di armi completamente automatizzate, lasciando aperti interrogativi etici e politici cruciali.
In sintesi:
- OpenAI corregge l’intesa con il Pentagono dopo le polemiche sull’uso militare dell’AI.
- Divieto esplicito di sorveglianza interna e tracciamento dei cittadini statunitensi via AI.
- Escluso l’utilizzo dei servizi OpenAI da parte delle agenzie di intelligence militare.
- Nessuna chiarezza pubblica sul tema delle armi autonome completamente automatizzate.
I punti chiave dell’accordo rivisto tra OpenAI e Pentagono
La reazione contro l’intesa è esplosa sui social quando è emerso che OpenAI avrebbe sostituito Anthropic in progetti militari ritenuti ad alto rischio etico.
La campagna di boicottaggio “quitGPT”, che invita a lasciare ChatGPT per passare a Claude, ha superato 1,5 milioni di adesioni dichiarate, segnalando un forte disagio nella community tecnologica e tra gli attivisti per i diritti civili.
Per contenere il danno reputazionale, Sam Altman ha pubblicato su X un estratto delle linee guida interne condivise con il Dipartimento della Guerra. Tra i punti resi pubblici: divieto esplicito di usare i sistemi OpenAI per la sorveglianza interna di cittadini americani; proibizione del tracciamento deliberato tramite dati personali, anche se acquistati da società private; impegno formale a tutelare le libertà civili.
Un ulteriore passaggio stabilisce che i servizi di OpenAI non potranno essere utilizzati dalle agenzie di intelligence del Dipartimento, come la NSA. Rimane però assente qualsiasi riferimento operativo alla limitazione dell’AI per sistemi d’arma autonomi, il tema che più preoccupa giuristi, militari ed esperti di governance tecnologica.
Le conseguenze geopolitiche e industriali della scelta di OpenAI
Nel suo intervento, Sam Altman sostiene che OpenAI collaborerà con il Governo solo “attraverso processi democratici”, chiedendo trasparenza e chiari limiti d’uso: “Vogliamo avere voce in capitolo e un posto al tavolo dove poter condividere la nostra competenza e lottare per i principi di libertà”.
Altman ha anche preso posizione a favore di Anthropic, affermando: “Nelle mie conversazioni del fine settimana, ho ribadito che Anthropic non dovrebbe essere designata come rischio nazionale per le catene di approvvigionamento e che speriamo che il Dipartimento offra loro le stesse condizioni che abbiamo concordato”.
La vicenda mostra come la competizione strategica sull’AI generativa stia entrando nel cuore delle politiche di sicurezza nazionale statunitensi. Nei prossimi mesi, i nodi critici riguarderanno la trasparenza sugli usi militari, la definizione di limiti vincolanti alle armi autonome e il ruolo di pochi grandi player privati nel definire, di fatto, nuovi standard globali di guerra algoritmica.
FAQ
Cosa prevede oggi l’accordo tra OpenAI e Pentagono?
L’accordo, secondo le note interne rese pubbliche, esclude sorveglianza interna, tracciamento deliberato di cittadini statunitensi ed uso da parte delle agenzie di intelligence militare.
OpenAI potrà usare l’AI per la sorveglianza dei cittadini USA?
No, OpenAI afferma esplicitamente che i suoi sistemi non potranno essere usati per sorveglianza interna né per monitoraggio mirato di cittadini statunitensi.
L’intesa riguarda anche lo sviluppo di armi completamente autonome?
Formalmente non è chiaro: le linee rese pubbliche non menzionano esplicitamente armi autonome, lasciando aperto un rilevante vuoto di trasparenza.
La campagna quitGPT ha avuto effetti misurabili su ChatGPT?
Sì, la campagna ha raccolto oltre 1,5 milioni di adesioni dichiarate, ma non sono disponibili dati verificabili sull’effettivo abbandono di ChatGPT.
Da quali fonti deriva la ricostruzione su OpenAI e Pentagono?
La ricostruzione deriva da una elaborazione congiunta di contenuti Ansa.it, Adnkronos.it, Asca.it e Agi.it, rielaborati dalla nostra Redazione.
DIRETTORE EDITORIALE
Michele Ficara Manganelli ✿
PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI
Per acquistare pubblicità CLICCA QUI
Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI



