Governo USA prepara stretta sui nuovi modelli di intelligenza artificiale per sicurezza e trasparenza
Indice dei Contenuti:
Stati Uniti, svolta prudente su Claude Mythos e modelli di intelligenza artificiale
Negli Stati Uniti, alcuni funzionari dell’amministrazione Donald Trump stanno riconsiderando l’approccio alla regolazione dell’AI dopo l’annuncio di Claude Mythos, nuovo modello avanzato di Anthropic. Preoccupati dai possibili abusi contro infrastrutture critiche, intendono introdurre un controllo preliminare obbligatorio sui modelli più potenti prima del rilascio pubblico. L’iniziativa, anticipata dal New York Times, si colloca a Washington, nel quadro della politica tecnologica federale dal 2025. La misura risponde al timore che sistemi come Claude Mythos possano finire nelle mani di cybercriminali stranieri, in particolare cinesi, russi o nordcoreani, con potenziali impatti sulla sicurezza nazionale e sulla competizione tecnologica globale.
In sintesi:
- Washington valuta controlli preliminari sui modelli AI più avanzati prima del rilascio pubblico.
- L’amministrazione Trump teme abusi di Claude Mythos contro infrastrutture critiche statunitensi.
- Google, Microsoft, xAI, OpenAI e Anthropic collaborano con il Dipartimento del Commercio.
- Resta incerto l’impatto sui tempi di sviluppo e sulla competizione tecnologica con la Cina.
L’AI Action Plan di Trump e il parziale dietrofront regolatorio
A fine gennaio 2025 il presidente Donald Trump aveva revocato le principali restrizioni sull’uso dell’intelligenza artificiale introdotte dal predecessore, promettendo deregulation e iter autorizzativi più rapidi. A luglio 2025 aveva poi lanciato l’AI Action Plan, orientato a favorire la costruzione di data center e infrastrutture abilitanti, riducendo vincoli amministrativi per sostenere la leadership statunitense nell’AI generativa.
L’emergere di Claude Mythos cambia però lo scenario. Secondo le ricostruzioni, il modello di Anthropic potrebbe essere sfruttato per progettare o coordinare attacchi informatici mirati contro infrastrutture critiche. Per questo la Casa Bianca valuta di rendere obbligatorio un controllo di sicurezza preliminare per ogni nuovo modello di fascia alta, prima della messa a disposizione del pubblico o di grandi clienti enterprise.
Il New York Times riferisce che Trump potrebbe firmare a breve un ordine esecutivo per istituire un gruppo di lavoro incaricato di verificare il rispetto di specifici requisiti di sicurezza. Il parziale dietrofront nasce dal timore che le capacità offensive dei modelli più potenti finiscano nelle mani di cybercriminali legati a governi ostili, con un rischio diretto per la sicurezza nazionale.
Rischi, tempi di controllo e partita strategica con la Cina
Il nodo centrale resta il bilanciamento fra sicurezza e velocità di innovazione. I modelli AI vengono annunciati ormai con cadenza mensile: eventuali controlli troppo lenti potrebbero trasformarsi, secondo alcuni funzionari, in un “regalo” alla Cina, consentendole di colmare o superare il vantaggio statunitense sul fronte dell’AI generativa e militare.
In attesa di un eventuale ordine esecutivo, il Dipartimento del Commercio ha già attivato un meccanismo volontario di valutazione: Google, Microsoft e xAI hanno firmato un accordo con il Center for AI Standards and Innovation (CAISI), che prevede l’accesso anticipato ai loro nuovi modelli per testarne capacità e rischi, con particolare attenzione agli utilizzi malevoli. Un’intesa analoga era stata sottoscritta da OpenAI e Anthropic nell’agosto 2024.
Questa convergenza tra Big Tech e governo statunitense indica una progressiva istituzionalizzazione degli standard di sicurezza AI, pur senza arrivare – per ora – a una vera normativa organica federale. La sfida sarà definire controlli sufficientemente rigorosi da mitigare i rischi di cyberattacchi, ma abbastanza snelli da non bloccare sperimentazione, investimenti e capacità di attrarre capitali globali in territorio statunitense.
FAQ
Cosa prevede il controllo preliminare sui nuovi modelli di intelligenza artificiale?
Il controllo preliminare prevede una valutazione obbligatoria delle funzionalità e dei rischi di sicurezza dei modelli avanzati prima del rilascio pubblico.
Perché Claude Mythos è considerato un rischio per la sicurezza nazionale USA?
Claude Mythos è ritenuto potenzialmente capace di assistere nella progettazione di attacchi informatici contro infrastrutture critiche e sistemi sensibili statunitensi.
Qual è il ruolo del Center for AI Standards and Innovation (CAISI)?
Il CAISI coordina test preliminari sui nuovi modelli AI di grandi aziende, valutando capacità, rischi di abuso e possibili standard tecnici.
Le nuove misure rallenteranno lo sviluppo dell’AI negli Stati Uniti?
È possibile che i controlli introducano ritardi limitati, ma l’obiettivo dichiarato è mantenere competitività tecnologica salvaguardando la sicurezza nazionale.
Da quali fonti è stata elaborata questa analisi sulla regolazione dell’AI USA?
L’analisi deriva da una elaborazione congiunta delle fonti ufficiali Ansa.it, Adnkronos.it, Asca.it e Agi.it, rielaborate dalla nostra Redazione.



