Anthropic sfida il Pentagono e riaccende il dibattito globale sul controllo dell’intelligenza artificiale

Scontro tra Anthropic e Pentagono sulla AI militare negli Stati Uniti
La controversia tra Anthropic e il Dipartimento della Difesa degli Stati Uniti è esplosa nei tribunali federali americani, dove l’azienda di intelligenza artificiale contesta un bando che la esclude dalle infrastrutture belliche USA.
Lo scontro nasce dal rifiuto di Anthropic di accettare una clausola contrattuale voluta dal segretario alla Difesa Pete Hegseth, che avrebbe consentito al Pentagono di usare i suoi modelli AI per qualsiasi scopo ritenuto legale, incluse sorveglianza di massa e armi autonome.
Il Dipartimento della Difesa, che in un atto ufficiale si autodefinisce “Department of War”, sostiene che proseguire la collaborazione con Anthropic rappresenterebbe un “rischio inaccettabile” per le catene di approvvigionamento militari, accusando la società di non essere un partner pienamente affidabile in scenari di conflitto ad alta sensibilità strategica.
In sintesi:
- Il Pentagono definisce Anthropic un rischio inaccettabile per la catena di approvvigionamento militare.
- Anthropic rifiuta clausole su uso illimitato dell’AI per sorveglianza di massa e armi autonome.
- L’azienda chiede un’ingiunzione, temendo miliardi di euro di mancati ricavi.
- Microsoft, Google e OpenAI sostengono Anthropic con memorie amicus curiae.
Clausole contestate, sicurezza nazionale e ruolo dell’amministrazione Trump
Al centro del conflitto vi è la clausola predisposta da Pete Hegseth, che avrebbe garantito al Pentagono un margine totale di discrezionalità sugli impieghi della tecnologia Anthropic, purché giudicati legali dal governo.
Anthropic ha opposto un rifiuto netto, fissando “linee rosse” etiche sull’impiego dei propri modelli per sistemi di sorveglianza di massa e armi autonome, considerati incompatibili con la propria governance aziendale dell’AI.
Nella risposta depositata in tribunale, il Dipartimento della Difesa afferma che tali limiti interni rendono Anthropic potenzialmente capace di disabilitare o alterare i modelli nel pieno di operazioni militari, con impatti diretti su sicurezza e continuità operativa.
Il documento sottolinea inoltre che l’allora presidente Donald Trump avrebbe ordinato alle agenzie federali di interrompere l’uso della tecnologia Anthropic, collocando la decisione in un quadro politico più ampio di ridefinizione dei fornitori critici per la difesa nazionale.
Impatto economico, precedenti regolatori e futuro del settore AI
Anthropic ha chiesto un’ingiunzione preliminare per sospendere il bando mentre il tribunale valuta la presunta rischiosità per la catena di approvvigionamento militare.
Secondo la società, pur restando possibili collaborazioni non militari, l’etichetta di “rischio inaccettabile” potrebbe tradursi in miliardi di euro di ricavi persi, erodendo il suo posizionamento competitivo nel mercato globale dell’AI.
A sostegno di Anthropic sono intervenute con memorie amicus curiae tre protagonisti assoluti del settore: Microsoft, Google e OpenAI.
Per questi colossi, la controversia non è un caso isolato, ma un possibile precedente regolatorio in grado di condizionare in modo strutturale il rapporto tra Big Tech e complesso militare-industriale statunitense, influenzando governance etica, clausole contrattuali standard e accesso alle grandi commesse pubbliche.
FAQ
Perché il Pentagono considera Anthropic un rischio inaccettabile?
Il Pentagono ritiene che Anthropic, avendo proprie “linee rosse” etiche, potrebbe limitare o disabilitare i modelli AI durante operazioni militari critiche.
Che cosa rifiuta esattamente Anthropic nei contratti con la Difesa USA?
Anthropic rifiuta una clausola che consentirebbe l’uso illimitato dei suoi modelli AI, inclusi sorveglianza di massa e sviluppo di armi autonome.
Quali conseguenze economiche rischia Anthropic da questo bando?
Anthropic sostiene di poter perdere miliardi di euro in ricavi futuri, con un forte ridimensionamento nel mercato dell’intelligenza artificiale.
Perché Microsoft, Google e OpenAI sostengono Anthropic in tribunale?
Le tre aziende temono che il caso stabilisca un precedente legale sfavorevole, imponendo clausole invasive e limitando l’autonomia etica dei fornitori di AI.
Da quali fonti è stata elaborata questa ricostruzione giornalistica?
Questa analisi deriva da una elaborazione congiunta di contenuti Ansa.it, Adnkronos.it, Asca.it e Agi.it, rielaborati dalla nostra Redazione.
DIRETTORE EDITORIALE
Michele Ficara Manganelli ✿
PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI
Per acquistare pubblicità CLICCA QUI
Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI



