Mythos l’IA avanzata di Anthropic sfugge al controllo e solleva nuovi allarmi sulla sicurezza globale
Indice dei Contenuti:
Accesso non autorizzato a Claude Mythos: cosa è successo davvero
Un gruppo ristretto di utenti non autorizzati ha ottenuto accesso al modello di intelligenza artificiale Claude Mythos di Anthropic, tramite un fornitore terzo coinvolto nella distribuzione di una versione “preview” destinata ad aziende selezionate. L’episodio, avvenuto negli Stati Uniti e rivelato da Bloomberg e TechCrunch, non avrebbe finora inciso direttamente sui sistemi centrali della società, ma solleva interrogativi cruciali sulla sicurezza della supply chain digitale e sulla gestione dei partner esterni. Le indagini interne sono in corso per identificare i responsabili e valutare la reale portata del rischio, in un momento in cui le big tech stanno accelerando sul rilascio di modelli AI avanzati a un numero crescente di soggetti privati e istituzionali.
In sintesi:
- Accesso non autorizzato a Claude Mythos Preview tramite ambiente di un fornitore terzo di Anthropic.
- Nessun impatto diretto sui sistemi centrali Anthropic, uso limitato a sperimentazione del modello.
- L’incidente evidenzia vulnerabilità della filiera di fornitori nella sicurezza dei modelli AI.
- Progetto Glasswing coinvolge big tech USA, con Europa sostanzialmente esclusa.
Dettagli sull’intrusione e sui limiti della sicurezza esterna
L’accesso irregolare riguarda la versione di anteprima di Claude Mythos, condivisa da Anthropic con alcune aziende partner per test pre-commerciali. Non si tratta quindi di una violazione del core infrastrutturale, ma di un punto debole emerso lungo la catena dei fornitori terzi.
Un portavoce di Anthropic ha confermato a TechCrunch: “Stiamo indagando su una segnalazione che sostiene l’accesso non autorizzato a Claude Mythos Preview attraverso uno dei nostri ambienti di fornitori di terze parti”. Secondo le prime ricostruzioni, il gruppo anonimo avrebbe utilizzato l’ambiente di lavoro del fornitore per sperimentare il funzionamento dell’AI, senza riscontri di danni, esfiltrazioni di dati sensibili o compromissioni della piattaforma principale.
L’episodio mostra tuttavia un punto critico: anche se Anthropic dispone di controlli di sicurezza avanzati sui propri sistemi, non può estendere lo stesso livello di garanzie all’intero ecosistema di terze parti. In un contesto in cui i modelli vengono distribuiti rapidamente a partner commerciali, istituti di ricerca e governi, ogni anello esterno diventa un possibile vettore di attacco per i cybercriminali, con impatti reputazionali e regolatori significativi per l’intero settore AI.
Progetto Glasswing ed esclusione europea: le prossime mosse
Per rafforzare le difese, Anthropic ha avviato il progetto Glasswing, una coalizione che coinvolge istituzioni e big tech come Google, Amazon, Apple e Microsoft. L’obiettivo è individuare e correggere vulnerabilità dei modelli AI prima della loro commercializzazione, creando una sorta di “cintura di sicurezza” preventiva contro attacchi mirati e abusi.
Questa infrastruttura di auditing, tuttavia, è oggi fortemente sbilanciata sul fronte statunitense. Al di fuori degli Stati Uniti, l’accesso a Mythos è stato concesso solo al Regno Unito, nello specifico all’AI Security Institute, mentre la Commissione europea non ha ottenuto autorizzazioni nonostante le richieste formali di poter studiare il modello. Ciò rischia di generare una frattura tra ecosistemi di sicurezza AI, con l’Europa costretta a regolamentare sistemi che non può analizzare direttamente. Le prossime mosse di Anthropic e dei regolatori definiranno l’equilibrio tra apertura, sicurezza e sovranità digitale nei modelli generativi di nuova generazione.
FAQ
Cosa è successo esattamente a Claude Mythos Preview?
Si è verificato un accesso non autorizzato alla versione di anteprima di Claude Mythos tramite l’ambiente di un fornitore terzo, senza compromissioni confermate dei sistemi centrali.
Ci sono stati furti di dati o danni ai sistemi Anthropic?
Al momento Anthropic afferma che non risultano impatti sui sistemi aziendali né furti di dati sensibili, ma le verifiche di sicurezza sono ancora in corso.
Perché il coinvolgimento dei fornitori terzi è un problema di sicurezza?
Perché anche con infrastrutture interne robuste, gli ambienti dei fornitori possono avere controlli più deboli, diventando punti di ingresso per cybercriminali e accessi impropri.
Cosa prevede il progetto Glasswing di Anthropic?
Prevede una collaborazione tra Anthropic, big tech e istituzioni per identificare vulnerabilità dei modelli AI, testandoli prima del rilascio commerciale e migliorando gli standard di sicurezza condivisi.
Da quali fonti è stata ricostruita questa notizia?
La notizia deriva da una elaborazione congiunta delle fonti ufficiali Ansa.it, Adnkronos.it, Asca.it e Agi.it, opportunamente rielaborate dalla nostra Redazione.



