Google sigla intesa con il Pentagono sull’uso legittimo dell’intelligenza artificiale in ambito militare
Indice dei Contenuti:
Accordo segreto tra Google e Pentagono per l’uso militare dell’intelligenza artificiale
Il colosso tecnologico Google ha siglato un accordo classificato con il Dipartimento della Difesa degli Stati Uniti che consente al Pentagono di utilizzare i suoi modelli di intelligenza artificiale per “qualsiasi scopo governativo lecito”.
L’intesa, rivelata da The Information e risalente ai giorni immediatamente successivi alle proteste interne dei dipendenti contro l’uso militare dell’AI, riguarda l’impiego delle tecnologie Google in ambito di sicurezza nazionale sul territorio statunitense.
Il contratto, però, non attribuisce a Google alcun potere di veto sulle decisioni operative del governo, alimentando interrogativi su etica, trasparenza e controllo democratico dei sistemi di AI avanzata.
In sintesi:
- Accordo classificato tra Google e Pentagono per l’uso governativo dei modelli di AI.
- Niente veto di Google sulle decisioni operative del Dipartimento della Difesa.
- Dichiarato divieto di sorveglianza di massa interna e armi autonome senza supervisione umana.
- Google si allinea a OpenAI e xAI; Anthropic esclusa per motivi etici.
Cosa prevede l’intesa segreta tra Google e il Dipartimento della Difesa
Secondo The Information, che cita una singola fonte anonima “a conoscenza della situazione”, l’accordo stabilisce che i sistemi di intelligenza artificiale di Google non dovranno essere impiegati per sorveglianza di massa sul territorio nazionale né per la gestione di armi autonome “senza un’adeguata supervisione e controllo umano”.
Tuttavia, lo stesso contratto precisa che l’intesa non conferisce a Google “alcun diritto di controllare o porre il veto sulle decisioni operative governative lecite”, trasformando di fatto questi limiti più in un impegno politico-morale che in un vincolo giuridicamente stringente.
Se confermato, l’accordo collocherebbe Google nello stesso fronte di OpenAI e xAI, anch’esse titolari di intese classificate con l’amministrazione statunitense per l’utilizzo di modelli avanzati di AI in ambito di difesa e intelligence.
In questo quadro spicca il caso di Anthropic, inizialmente coinvolta ma poi inserita in una blacklist del Pentagono per aver rifiutato di rimuovere i guardrail relativi ad armi e sorveglianza dai propri modelli, ponendo in evidenza una linea etica più rigida rispetto ai concorrenti.
Interpellata da Reuters, un portavoce di Google ha ribadito la posizione ufficiale del gruppo: l’azienda resta contraria all’uso dell’AI per sorveglianza di massa interna o per sistemi d’arma autonomi privi di idoneo controllo umano, sostenendo che “fornire accesso API ai nostri modelli commerciali, anche su infrastruttura Google, con pratiche e termini standard di settore, rappresenta un approccio responsabile al supporto della sicurezza nazionale”.
Implicazioni future tra etica dell’AI, sicurezza e potere delle Big Tech
L’accordo segreto tra Google e il Pentagono segna un ulteriore passo nell’integrazione strutturale delle Big Tech nelle strategie militari statunitensi, spostando il baricentro del dibattito da “se” a “come” l’AI debba essere utilizzata in scenari di difesa.
L’assenza di un vero potere di veto aziendale sulle operazioni governative, unita alla natura classificata del contratto, apre questioni cruciali di accountability pubblica, governance algoritmica e tutela dei diritti civili, soprattutto sul fronte sorveglianza e decisioni automatizzate in teatro bellico.
Nei prossimi mesi sarà decisiva la reazione congiunta di comunità scientifica, organismi di regolazione e azionisti, chiamati a valutare se gli impegni etici dichiarati da Google siano sufficienti o richiedano meccanismi di controllo più trasparenti e legalmente vincolanti.
FAQ
Cosa prevede l’accordo tra Google e il Dipartimento della Difesa USA?
L’accordo prevede che il Pentagono possa usare i modelli di AI di Google per qualsiasi scopo governativo lecito, inclusa la sicurezza nazionale, attraverso accesso API su infrastruttura Google.
Google può impedire l’uso militare della propria intelligenza artificiale?
No. Il contratto, secondo le indiscrezioni, non riconosce a Google alcun diritto di veto sulle decisioni operative lecite del governo statunitense, lasciando all’esecutivo l’ultima parola.
L’accordo consente sorveglianza di massa e armi autonome senza controllo umano?
Formalmente no. Le parti dichiarano di escludere sorveglianza interna di massa e armi autonome senza adeguata supervisione umana, ma il vincolo appare più politico che giuridico.
Perché Anthropic è stata esclusa dagli accordi di AI con il Pentagono?
Perché Anthropic avrebbe rifiutato di rimuovere dai propri modelli i guardrail relativi a armi e sorveglianza, portando il Dipartimento della Difesa a inserirla in una blacklist.
Quali sono le fonti utilizzate per questo articolo sulla difesa e l’AI?
L’articolo deriva da un’elaborazione giornalistica originale, basata su una sintesi congiunta delle fonti ufficiali Ansa.it, Adnkronos.it, Asca.it e Agi.it, rielaborate dalla nostra Redazione.



