OpenAI ottiene commessa Pentagono per AI, esclusa la rivale Anthropic

Pentagono sceglie OpenAI per l’IA militare ed esclude Anthropic
Il Pentagono ha scelto OpenAI come partner principale per lo sviluppo di sistemi di intelligenza artificiale militare, interrompendo bruscamente le trattative con Anthropic. La decisione arriva da Washington nelle ultime ore, mentre gli Stati Uniti sono impegnati in operazioni militari in Medio Oriente e i bombardamenti su Teheran alimentano le tensioni geopolitiche. L’accordo punta a integrare soluzioni avanzate di IA nei processi decisionali, nella sorveglianza e nella logistica militare, con l’obiettivo di rafforzare il vantaggio strategico statunitense sui teatri di crisi. La rottura con Anthropic, classificata dal Dipartimento della Difesa come “rischio per la catena di approvvigionamento”, segna un cambio di rotta che solleva interrogativi etici e politici sull’uso dell’IA in ambito bellico e sulle future regole di controllo di queste tecnologie critiche.
In sintesi:
- Pentagono interrompe le trattative con Anthropic e firma un accordo strategico con OpenAI.
- Anthropic viene classificata come “rischio per la catena di approvvigionamento” dal Dipartimento della Difesa.
- Il contesto è quello di nuove operazioni militari Usa in Medio Oriente, inclusi bombardamenti su Teheran.
- L’intesa OpenAI–Pentagono rilancia il dibattito etico sull’uso dell’IA in guerra.
Perché il Pentagono ha rotto con Anthropic e puntato su OpenAI
La svolta del Dipartimento della Difesa è avvenuta in pochissime ore: sospensione immediata delle negoziazioni con Anthropic e successiva etichettatura dell’azienda come “rischio per la catena di approvvigionamento”. Una scelta inattesa, considerando che Anthropic, fondata da ex dirigenti di OpenAI, era ritenuta uno dei soggetti più credibili per collaborazioni su tecnologie sensibili.
La coincidenza temporale con i bombardamenti su Teheran sottolinea la natura strategica dell’accordo: Washington intende accelerare l’adozione di sistemi di IA in analisi d’intelligence, simulazioni operative e supporto alle decisioni militari. L’intesa con OpenAI segna una discontinuità rispetto alle precedenti cautele dichiarate dall’azienda di Sam Altman, che in passato aveva affermato di voler limitare gli impieghi militari delle proprie piattaforme.
L’esclusione di Anthropic, spesso percepita come più rigorosa sugli aspetti di sicurezza e allineamento etico dell’IA, alimenta ipotesi su divergenze regolatorie, problemi di conformità o valutazioni politiche non esplicitate. Nel frattempo, la comunità scientifica e i gruppi per i diritti digitali evidenziano il rischio che sistemi sempre più autonomi possano essere integrati in scenari bellici, riducendo margini di controllo umano effettivo. In questo quadro, la partnership OpenAI–Pentagono diventa un banco di prova globale per governance, trasparenza e responsabilità dell’IA militare.
Scenari futuri per l’IA militare e implicazioni geopolitiche
La scelta di puntare su OpenAI non riguarda solo la tecnologia ma ridefinisce gli equilibri della corsa mondiale all’IA militare. Nel breve periodo, il Dipartimento della Difesa potrebbe accelerare lo sviluppo di sistemi di analisi automatizzata di immagini satellitari, cybersecurity offensiva e strumenti di supporto decisionale in tempo reale. Nel medio termine, la pressione competitiva verso Cina e Russia spingerà probabilmente altri Paesi NATO a stringere accordi simili con big tech occidentali. Resta aperta la questione cruciale: quali limiti giuridici ed etici verranno fissati per impedire l’impiego di IA completamente autonome in scenari di attacco letale, e quale ruolo avrà la comunità internazionale nel verificarne il rispetto concreto.
FAQ
Che cosa prevede l’accordo tra Pentagono e OpenAI sulla difesa
L’accordo prevede l’utilizzo delle tecnologie di OpenAI per analisi d’intelligence, supporto decisionale, simulazioni operative e ottimizzazione logistica, con focus su scenari militari complessi e rapidi.
Perché Anthropic è stata definita rischio per la catena di approvvigionamento
La classificazione indica che il Pentagono ritiene Anthropic non pienamente conforme ai requisiti di sicurezza, continuità operativa o controllo dell’origine tecnologica richiesti dai programmi militari Usa.
Quali rischi etici comporta l’uso dell’intelligenza artificiale in guerra
I rischi includono decisioni automatizzate sull’uso della forza, opacità degli algoritmi, escalation incontrollata dei conflitti e difficoltà nell’attribuire responsabilità legali per errori o vittime civili.
Come può cambiare la corsa globale all’IA militare dopo questo accordo
L’intesa rafforza la posizione Usa, spinge alleati NATO a investire di più nell’IA militare e intensifica la competizione tecnologica con Cina e Russia.
Qual è la fonte delle informazioni su Pentagono, OpenAI e Anthropic
Le informazioni derivano da una elaborazione congiunta di notizie di Ansa.it, Adnkronos.it, Asca.it e Agi.it, rielaborate dalla nostra Redazione.
DIRETTORE EDITORIALE
Michele Ficara Manganelli ✿
PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI
Per acquistare pubblicità CLICCA QUI
Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI



