Piano della Cina per l’implementazione dei watermark nell’intelligenza artificiale
Strategia della Cina per i watermark dell’IA
Audio codici Morse, informazioni sui metadati crittografati o etichette in scene generate in realtà virtuale. Questi sono alcuni degli strumenti che il governo cinese intende far utilizzare alle aziende di intelligenza artificiale e alle piattaforme di social media per etichettare correttamente i contenuti generati dall’IA e combattere contro la disinformazione. Il 14 settembre, l’Amministrazione dello spazio cibernetico della Cina ha redatto una nuova regolamentazione che mira a informare le persone se qualcosa è reale o generato dall’IA. Con il progresso delle tecnologie di generazione dell’IA, la difficoltà di discernere se un contenuto è generato dall’IA sta causando tutti i tipi di problemi seri, dalla pornografia non consensuale alla disinformazione politica.
Non è la prima volta che un regime affronta questo problema: l’AI Act dell’Unione Europea, adottato lo scorso marzo, richiede anch’esso etichette simili; anche la California ha approvato una legge simile questo mese. Le precedenti regolamentazioni cinesi sull’IA menzionavano brevemente la necessità di etichette per l’IA generativa. Tuttavia, questa nuova politica delinea in dettaglio come i watermark per l’IA dovrebbero essere implementati dalle piattaforme. Per la prima volta, si promettono anche sanzioni per le piattaforme di social media dove i contenuti generati dall’IA vengono pubblicati e diffusi senza essere adeguatamente classificati.
Di conseguenza, le aziende di IA e le piattaforme sociali si trovano di fronte a nuovi vincoli finanziari e legali, soprattutto se si dovessero trovare a prendere la scorciatoia e non implementare le caratteristiche di etichettatura adeguate.
Con la velocità e la proattività della sua legislazione sull’IA, la Cina spera di diventare il regime dominante nella definizione delle normative globali sull’IA. “La Cina è decisamente avanti rispetto all’UE e agli Stati Uniti nella moderazione dei contenuti generati dall’IA, in parte spinta dalla domanda del governo di garantire l’allineamento politico nei servizi chatbot”, afferma Angela Zhang, professore di diritto presso l’Università della California del Sud che studia le regolazioni tecnologiche cinesi. Adesso ha un’altra possibilità di definire gli standard dell’industria globale, poiché “l’etichettatura è un’area promettente per un consenso globale su un certo standard tecnico”.
Obblighi per le piattaforme di social media
Il nuovo progetto di regolamento impone ai fornitori di servizi di intelligenza artificiale delle responsabilità specifiche relative all’etichettatura dei contenuti generati dall’IA. Le piattaforme di social media dovranno esaminare i file condivisi per identificare eventuali etichette implicite e tracce di generazione AI. Se le informazioni nei metadati indicano che un contenuto è stato generato dall’IA, la piattaforma è obbligata ad applicare un’etichetta o un tag di generazione AI. Questo processo non si limita solo ai contenuti che gli utenti caricano e dichiarano come generati da IA, ma si estende anche a quelli in cui vi è anche solo un sospetto di generazione AI.
Inoltre, le piattaforme devono integrare informazioni nel metadata per tracciare il percorso di questo contenuto su Internet, una novità che comporta sfide significative. Per prima cosa, non è chiaro quali piattaforme saranno considerate “servizi di trasmissione di contenuti online”: è probabile che piattaforme social come Douyin, WeChat e Weibo siano incluse, ma resta da definire se anche i siti di e-commerce come Taobao e JD, o i motori di ricerca come Baidu, rientreranno nella normativa.
Attualmente, piattaforme di video verticali in Cina consentono agli utenti di contrassegnare volontariamente un video come generato dall’IA. Alcune permettono anche di segnalare video non etichettati come AI o di cercare proattivamente questi video per aggiungere un’etichetta informativa. Tuttavia, l’obbligo di dover controllare ogni singolo contenuto caricato è un cambiamento radicale, considerando che queste piattaforme hanno centinaia di milioni di utenti, sia a livello nazionale che internazionale. Secondo Jay Si, partner dello studio legale Zhong Lun a Shanghai, “se WeChat o Douyin devono esaminare ogni singola foto caricata per verificare se è generata da IA, questo diventerà un enorme carico in termini di lavoro e capacità tecniche per l’azienda”.
Etichette esplicite e implicite per il contenuto generato dall’IA
Per la prima parte, il nuovo progetto di regolamento richiede ai fornitori di servizi di intelligenza artificiale di aggiungere etichette esplicite ai contenuti generati dall’IA. Questo include watermark su immagini, “etichette di avviso evidenti” all’inizio di video o scene di realtà virtuale generate dall’IA, o l’uso di suoni in codice Morse per segnalare “IA” (· – · ·) prima o dopo un clip audio generato. Sebbene tali pratiche siano già in uso nell’industria, il progetto di legge trasformerà queste misure da volontarie in obblighi legali, costringendo gli strumenti di intelligenza artificiale con meccanismi di etichettatura deboli ad allinearsi o affrontare sanzioni governative.
Tuttavia, il problema con le etichette esplicite è che sono facilmente modificabili, come nel caso di ritagli di watermark o di editing di video. Per affrontare questa vulnerabilità, la legislazione richiede inoltre alle aziende di integrare etichette implicite nei metadati dei file di contenuti generati dall’IA. Questi metadati devono includere un riferimento specifico all’inizialismo “AIGC” insieme a informazioni crittografate sulle aziende che hanno prodotto e diffuso il file. Viene inoltre raccomandato di inserire watermark invisibili nei contenuti, in modo che gli utenti non siano a conoscenza della loro presenza.
In realtà, l’implementazione di etichette implicite nei metadati richiederebbe alle aziende di collaborare e attenersi a regole comuni, un compito che può rivelarsi complesso. “Standard interoperabili per i metadati richiedono che funzionino attraverso modelli e deployer di intelligenza artificiale, strumenti e piattaforme. Questo è un obiettivo ambizioso e comporta sfide tecniche e costi per i cambiamenti,” afferma Sam Gregory, direttore esecutivo di Witness, un’organizzazione per i diritti umani a New York. Questo processo richiederà anni, non mesi, per essere completato.
Un altro aspetto cruciale della regolamentazione cinese è la responsabilizzazione delle piattaforme di social media nella ricerca attiva di contenuti generati dall’IA. Questa responsabilità include l’obbligo di esaminare i file condivisi per le etichette implicite e le tracce di generazione AI, costringendo i servizi a implementare rigorosi protocolli di controllo dei contenuti.
Confronto con la legislazione dell’UE
La legislazione proposta in Cina per l’etichettatura dei contenuti generati dall’intelligenza artificiale si inserisce in un contesto più ampio di regolamentazione globale, in particolare il AI Act dell’Unione Europea, generalmente considerato il più completo framework legale per l’IA fino ad oggi. Come previsto nell’AI Act, la legge cinese richiede che “le uscite del sistema di intelligenza artificiale siano contrassegnate in un formato leggibile dalla macchina e siano riconoscibili come artificialmente generate o manipolate”. Inoltre, l’UE impone che le aziende divulghino esplicitamente quando il contenuto contiene informazioni visive o testuali deepfake che riguardano l’interesse pubblico.
Molte aziende hanno già avviato misure di autoconformità. “Una serie di aziende occidentali ha iniziato ad adottare lo standard C2PA, uno standard di provenienza basato sui metadati che aiuta a rivelare il “ricettario” di come l’IA è stata utilizzata nel contenuto”, afferma Gregory. I sostenitori del Coalition for Content Provenance and Authenticity (C2PA) includono nomi di peso come Google, Meta, Microsoft e OpenAI. Anche se rappresenta un passo avanti, questa iniziativa non è ancora diffusa e molte piattaforme non l’hanno implementata.
I regolatori cinesi sembrano aver appresozioni dall’All’AI Act dell’UE, secondo Jeffrey Ding, assistente professore di scienze politiche presso la George Washington University. “I policymaker e gli studiosi cinesi hanno detto che si sono ispirati agli atti dell’UE per sviluppare diversi aspetti normativi in passato.” Tuttavia, le misure introdotte dai regolatori cinesi non sono necessariamente replicabili in altri paesi. Ad esempio, il governo cinese richiede che le piattaforme social monitorino i contenuti caricati dagli utenti per rilevare la generazione AI, un approccio che è certamente unico nel contesto cinese e può risultare impensabile in contesti come quello statunitense, dove le piattaforme non vengono considerate responsabili per i contenuti caricati dagli utenti.
Implicazioni per la libertà di espressione online
Il progetto di regolamento sull’etichettatura dei contenuti generati dall’IA in Cina sta raccogliendo feedback dal pubblico fino al 14 ottobre. Tuttavia, c’è poco da sperare che le aziende cinesi ritardino la preparazione per l’entrata in vigore della legge. Sima Huapeng, fondatore e CEO della società cinese AIGC Silicon Intelligence, che utilizza tecnologie deepfake per generare agenti AI, influencer e replicare persone vive e morte, ha dichiarato che il suo prodotto attualmente consente agli utenti di scegliere volontariamente se contrassegnare il prodotto generato come IA. Ma se la legge dovesse essere approvata, potrebbe trovarsi costretto a modificare questa opzione in un obbligo.
“Se una funzionalità è facoltativa, è probabile che le aziende non la integrino nei loro prodotti. Ma se diventa obbligatoria per legge, tutti devono implementarla,” afferma Sima. Sebbene non sia tecnicamente difficile aggiungere watermark o etichette nei metadati, ciò comporterà un aumento dei costi operativi per le aziende compliant.
Politiche come questa potrebbero deviare l’uso dell’IA nella direzione giusta, allontanandola da pratiche come truffe o violazioni della privacy. Tuttavia, c’è il rischio di creare un mercato nero per i servizi di IA in cui le aziende cercano di eludere la conformità legale per risparmiare sui costi.
Esiste anche una sottile linea tra la responsabilizzazione dei produttori di contenuti generati dall’IA e la supervisione della libertà di espressione individuale attraverso tracciamenti più sofisticati. “La grande sfida riguardante i diritti umani è garantire che questi approcci non compromettano ulteriormente la privacy o la libertà di espressione,” sottolinea Gregory. Sebbene le etichette implicite e i watermark possano aiutare a identificare le fonti di disinformazione e contenuti inappropriati, gli stessi strumenti possono abilitare piattaforme e governo a esercitare un maggiore controllo su ciò che gli utenti pubblicano su Internet.
C’è stata una crescente preoccupazione riguardo a come gli strumenti di IA possano comportarsi in modo imprevisto, e questo ha fatto da motore per gli sforzi proattivi della legislazione cinese sull’IA. Allo stesso tempo, l’industria dell’IA cinese sta spingendo per avere più spazio di manovra per sperimentare e crescere, poiché già si sente indietro rispetto ai suoi pari occidentali. Una legge precedente sull’IA generativa in Cina è stata notevolmente indebolita durante il suo iter legislativo, eliminando requisiti di verifica dell’identità e riducendo le pene per le aziende.
“Abbiamo visto il governo cinese cercare di bilanciare tra il mantenere il controllo sui contenuti e permettere a questi laboratori di IA di avere un certo spazio per innovare,” afferma Ding. “Questo è un ulteriore tentativo di fare proprio questo.”