Anthropic esclusa dal Pentagono e riaccende lo scontro strategico sull’intelligenza artificiale militare

Pentagono, rottura con Anthropic: stop all’IA militare in 180 giorni
Il Pentagono ha ordinato la rimozione completa dell’intelligenza artificiale di Anthropic da tutti i sistemi militari statunitensi. La decisione, firmata il 6 marzo 2026 dalla Chief Information Officer del Dipartimento della Difesa, Kirsten Davies, riguarda l’intera catena di approvvigionamento tecnologico, comprese le aziende private in appalto. La misura nasce dal rifiuto di Anthropic, fondata da Dario Amodei, di allentare i guardrail etici dei propri modelli, in contrasto con la linea dell’amministrazione Donald Trump. L’ordine apre un confronto diretto tra sicurezza nazionale, sovranità tecnologica e principi etici dell’IA, con implicazioni che vanno oltre il solo settore difesa.
In sintesi:
- Il Pentagono classifica l’IA di Anthropic come “rischio inaccettabile” per la supply chain militare.
- Entro 180 giorni dovranno essere disinstallati tutti i sistemi basati sui modelli Anthropic.
- Coinvolte anche le aziende private che forniscono tecnologie e servizi alle forze armate USA.
- Scontro politico-tecnologico su guardrail etici e controllo dell’IA militare.
Perché l’IA di Anthropic è diventata un caso di sicurezza nazionale
Nella direttiva del 6 marzo 2026, Kirsten Davies definisce i prodotti di Anthropic “un rischio inaccettabile per la catena di approvvigionamento”, imponendo a tutte le branche delle forze armate USA un piano di dismissione in 180 giorni.
La scelta non è solo tecnica: l’azienda guidata da Dario Amodei ha rifiutato di rimuovere i propri guardrail etici, progettati per limitare usi potenzialmente dannosi dei modelli, inclusi scenari offensivi e applicazioni letali. Questa impostazione collide con le richieste dell’amministrazione Donald Trump, orientata a una maggiore libertà operativa dei sistemi utilizzati nell’apparato militare.
La decisione del Pentagono estende il divieto lungo tutta la supply chain: contractor, integratori di sistemi e partner tecnologici dovranno certificare di non utilizzare più l’IA Anthropic in soluzioni, piattaforme cloud o componenti critici. Il messaggio agli operatori del settore è chiaro: le policy etiche interne alle big tech non possono prevalere sulle valutazioni di sicurezza nazionale del Dipartimento della Difesa.
La mossa di Microsoft e i possibili effetti sull’ecosistema IA
In questo contesto è intervenuta Microsoft, che ha presentato a un tribunale federale di San Francisco una richiesta di sospensione temporanea dell’ordine del Pentagono. Il gruppo guidato da Satya Nadella integra i modelli Anthropic, incluso Claude, in diverse soluzioni software utilizzate anche da agenzie militari e governative.
Secondo Microsoft, l’inserimento di Anthropic in una “blacklist” operativa rischia di danneggiare la continuità dei sistemi già in produzione e di generare costi e ritardi significativi nella sostituzione delle componenti IA. L’azienda avverte che l’impatto potrebbe estendersi a tutto l’ecosistema cloud e applicativo federale, non solo al perimetro strettamente militare.
La controversia diventa così un banco di prova globale per il rapporto tra governi e grandi fornitori di IA generativa: chi definisce i limiti etici, chi stabilisce i requisiti di sicurezza e chi ha l’ultima parola sull’uso militare di tecnologie addestrate in ambito civile.
Scenari futuri tra regolazione dell’IA militare e pressione geopolitica
La rottura tra Pentagono e Anthropic potrebbe accelerare la definizione di linee guida vincolanti sull’uso dell’IA in ambito difesa, spingendo altri fornitori a scegliere tra collaborazione piena con i governi o preservazione di rigidi guardrail etici.
Nel medio periodo, gli Stati Uniti potrebbero favorire lo sviluppo di modelli proprietari interamente controllati dall’apparato militare, riducendo la dipendenza da startup e big tech civili. Sul fronte internazionale, alleati e competitor osservano il caso come possibile precedente per future restrizioni, standard comuni o, al contrario, per una corsa a soluzioni meno regolamentate in campo bellico.
FAQ
Perché il Pentagono ha vietato l’IA di Anthropic dai sistemi militari?
Il Pentagono ha agito perché le tecnologie Anthropic sono state classificate come “rischio inaccettabile” per la catena di approvvigionamento militare e per i requisiti di sicurezza nazionale.
Qual è il ruolo dei guardrail etici nei modelli Anthropic?
I guardrail etici limitano usi pericolosi dei modelli IA. Anthropic ha rifiutato di attenuarli, creando frizione con le esigenze operative militari statunitensi.
Cosa rischiano le aziende che continuano a usare l’IA Anthropic per il Pentagono?
Le aziende rischiano esclusione dagli appalti, revisioni contrattuali e controlli di conformità, poiché l’ordine copre l’intera supply chain tecnologica della Difesa.
Come può impattare questa decisione sui futuri progetti di IA militare USA?
La decisione può spingere verso modelli IA proprietari, controllati direttamente dal governo, e verso requisiti più rigidi per i fornitori commerciali.
Quali sono le fonti utilizzate per questa ricostruzione giornalistica?
Le informazioni derivano da una elaborazione congiunta delle fonti ufficiali Ansa.it, Adnkronos.it, Asca.it e Agi.it rielaborate dalla Redazione.
DIRETTORE EDITORIALE
Michele Ficara Manganelli ✿
PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI
Per acquistare pubblicità CLICCA QUI
Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI



