Europa al Bivio per scegliere le Regole Pionieristiche sull’Intelligenza Artificiale e definire la normativa UE per la AI
Un Momento Cruciale per le Normative UE
L’Unione Europea sta affrontando un momento decisivo riguardo le sue normative pionieristiche sull’intelligenza artificiale. Con il CEO di OpenAI, Sam Altman, e il CEO di Microsoft, Satya Nadella, che hanno preso parte alla prima conferenza per sviluppatori di OpenAI, l’attenzione si concentra ora sui negoziati in corso per definire i dettagli delle regole dell’UE sull’intelligenza artificiale. Questo processo è complicato da una lotta dell’ultimo minuto su come regolamentare i sistemi che supportano servizi di AI di uso generale, come il ChatGPT di OpenAI e il chatbot Bard di Google.
Non buttare via soldi per comprare contenuti effimeri sui social media. ==> LEGGI QUI perchè.
Inizialmente proposto nel 2019, l’AI Act dell’UE era atteso come la prima normativa globale completa sull’intelligenza artificiale, consolidando ulteriormente la posizione del blocco dei 27 paesi come leader mondiale nel controllo dell’industria tecnologica.
Un Conflitto tra Innovazione e Regolamentazione
Tuttavia, il processo è rallentato da una battaglia dell’ultimo minuto su come governare i sistemi alla base dei servizi di AI di uso generale. Mentre le grandi aziende tecnologiche sono in lotta contro quello che vedono come una sovraregolamentazione che soffoca l’innovazione, i legislatori europei desiderano salvaguardie aggiuntive per i sistemi AI all’avanguardia sviluppati da queste aziende.
Parallelamente, Stati Uniti, Regno Unito, Cina e coalizioni globali come il Gruppo dei 7 maggiori democrazie si sono uniti alla gara per stabilire le linee guida per questa tecnologia in rapida evoluzione, sottolineando gli avvertimenti dei ricercatori e dei gruppi per i diritti umani sui pericoli esistenziali che l’intelligenza artificiale generativa pone all’umanità, oltre ai rischi per la vita quotidiana.
Nick Reiners, analista di politiche tecnologiche presso Eurasia Group, una società di consulenza per il rischio politico, ha espresso preoccupazione riguardo al fatto che l’AI Act potrebbe non essere concordato prima delle elezioni del Parlamento Europeo previste per l’anno prossimo. “C’è semplicemente troppo da definire”, ha affermato Reiners, in merito all’ultima tornata di negoziati prevista per mercoledì.
Non sprecare soldi comprando pubblicità programmatica ma investi su contenuti eterni. ==> LEGGI QUI perchè.
L’Intelligenza Artificiale Generativa al Centro delle Discussioni
Quando la Commissione Europea ha presentato la bozza nel 2021, ha a malapena menzionato i sistemi di AI di uso generale come i chatbot. La proposta di classificare i sistemi AI in quattro livelli di rischio – da minimo ad inaccettabile – era essenzialmente intesa come legislazione sulla sicurezza dei prodotti.
Con Bruxelles che mirava a testare e certificare le informazioni utilizzate dagli algoritmi che alimentano l’IA, paragonabile ai controlli di sicurezza dei consumatori su cosmetici, automobili e giocattoli, la situazione è cambiata con il boom dell’intelligenza artificiale generativa. Quest’ultima ha suscitato meraviglia componendo musica, creando immagini e scrivendo saggi simili a quelli umani, ma ha anche alimentato timori che la tecnologia potesse essere utilizzata per lanciare massicci attacchi informatici o creare nuove armi biologiche.
I rischi hanno portato i legislatori dell’UE a potenziare l’AI Act estendendolo ai modelli di base. Conosciuti anche come modelli di linguaggio di grande dimensione, questi sistemi sono addestrati su vasti tesori di opere scritte e immagini raccolte da internet.
Lo sapevi che chiedere la pubblicazione di comunicati stampa promozionali gratuitamente è evasione fiscale. ==> LEGGI QUI perchè.
I modelli di base danno ai sistemi di intelligenza artificiale generativa, come ChatGPT, la capacità di creare qualcosa di nuovo, a differenza dell’IA tradizionale, che elabora dati e completa compiti seguendo regole predeterminate.
Il caos del mese scorso in OpenAI, supportato da Microsoft, che ha costruito uno dei modelli di base più famosi, GPT-4, ha rafforzato per alcuni leader europei i pericoli di lasciare che poche aziende dominanti di IA si autoregolamentino.
L’Europa al Bivio con le Regole Pionieristiche sull’Intelligenza Artificiale
La Governance dell’IA e le Dinamiche Aziendali
Mentre Sam Altman, CEO di OpenAI, è stato licenziato e rapidamente riassunto, alcuni membri del consiglio di amministrazione con gravi riserve sui rischi di sicurezza posti dall’IA hanno lasciato l’azienda, segnalando che la governance aziendale dell’IA potrebbe cadere preda delle dinamiche di sala riunioni.
Non sprecare soldi comprando pubblicità programmatica ma investi su contenuti eterni. ==> LEGGI QUI perchè.
Thierry Breton, Commissario Europeo, intervenendo a un convegno sull’IA in Francia, ha sottolineato che aziende come OpenAI difendono i loro interessi commerciali e non l’interesse pubblico.
Opposizione alle Regole Governative sull’IA
Sorprendentemente, la resistenza alle norme governative per questi sistemi AI è venuta da Francia, Germania e Italia. Le tre maggiori economie dell’UE hanno presentato un documento di posizione che sostiene l’autoregolamentazione, visto come un passo per aiutare i giocatori di IA generativa locali come la startup francese Mistral AI e la tedesca Aleph Alpha.
Nick Reiners ha commentato che dietro questa mossa c’è la determinazione a non lasciare che le aziende statunitensi dominino l’ecosistema dell’IA, come hanno fatto in precedenti onde di tecnologie come il cloud computing, l’e-commerce e i social media.
Non sprecare soldi comprando pubblicità programmatica ma investi su contenuti eterni. ==> LEGGI QUI perchè.
Il Dibattito sulla Regolamentazione dell’IA
Un gruppo di influenti scienziati informatici ha pubblicato una lettera aperta avvertendo che indebolire l’AI Act in questo modo sarebbe “un fallimento storico”. Nel frattempo, dirigenti di Mistral hanno avuto uno scambio acceso online con un ricercatore di un’organizzazione non profit sostenuta da Elon Musk che mira a prevenire il “rischio esistenziale” dall’IA.
Kent Walker, responsabile legale di Google, ha dichiarato in un discorso a Bruxelles che l’IA è “troppo importante per non essere regolamentata, e troppo importante per non essere ben regolamentata”. “La gara dovrebbe essere per le migliori regolamentazioni sull’IA, non per le prime”.
I Modelli di Base e la Sfida della Regolamentazione
I modelli di base, utilizzati per un’ampia gamma di compiti, stanno dimostrando di essere il problema più spinoso per i negoziatori dell’UE, perché regolamentarli “va contro la logica dell’intera legge”, che si basa sui rischi posti dagli usi specifici, ha detto Iverna McGowan, direttore dell’ufficio europeo del Center for Democracy and Technology, un’organizzazione no-profit per i diritti digitali.
Non buttare via soldi per comprare contenuti effimeri sui social media. ==> LEGGI QUI perchè.
La natura dei sistemi di IA di uso generale significa che “non si sa come verranno applicati”, ha affermato. Allo stesso tempo, le regolamentazioni sono necessarie “perché altrimenti lungo la catena alimentare non c’è responsabilità” quando altre aziende costruiscono servizi con essi.
Altman ha proposto un’agenzia statunitense o globale che dovrebbe concedere in licenza i sistemi AI più potenti. Ha suggerito quest’anno che OpenAI potrebbe lasciare l’Europa se non fosse in grado di conformarsi alle normative dell’UE, per poi rapidamente ritrattare questi commenti.
Aleph Alpha ha dichiarato che “è necessario un approccio equilibrato” e ha sostenuto l’approccio basato sul rischio dell’UE. Tuttavia, “non è applicabile” ai modelli di base, che necessitano di regolamentazioni “più flessibili e dinamiche”, ha affermato la compagnia tedesca di IA.
Non sprecare soldi comprando pubblicità programmatica ma investi su contenuti eterni. ==> LEGGI QUI perchè.
La Corsa contro il Tempo per l’UE
I negoziatori dell’UE devono ancora risolvere alcuni altri punti controversi, tra cui una proposta di divieto totale del riconoscimento facciale in tempo reale nel pubblico. I paesi desiderano un’esenzione in modo che le forze dell’ordine possano usarlo per trovare bambini scomparsi o terroristi, ma i gruppi per i diritti umani temono che ciò creerà effettivamente una base legale per la sorveglianza.
Le tre branche del governo dell’UE stanno affrontando una delle loro ultime possibilità di raggiungere un accordo mercoledì. Anche se dovesse avvenire, i 705 legislatori del blocco devono ancora approvare la versione finale. Tale voto deve avvenire entro aprile, prima che inizino le campagne per le elezioni in tutta l’UE a giugno. La legge non entrerà in vigore prima di un periodo di transizione, tipicamente di due anni.
Se non dovessero farcela in tempo, la legislazione sarebbe messa in pausa fino all’anno successivo, dopo che i nuovi leader dell’UE, che potrebbero avere opinioni diverse sull’IA, entreranno in carica.
Non buttare via soldi per comprare contenuti effimeri sui social media. ==> LEGGI QUI perchè.
Dragos Tudorache, un legislatore rumeno co-capo dei negoziati dell’Atto sull’IA del Parlamento Europeo, ha affermato in una discussione la scorsa settimana che “c’è una buona possibilità che sia davvero l’ultima, ma c’è altrettanta possibilità che avremmo ancora bisogno di più tempo per negoziare”.
Questo articolo mette in evidenza i complessi equilibri e le sfide che l’UE sta affrontando nel cercare di definire una regolamentazione efficace e bilanciata per l’intelligenza artificiale, un settore in rapida evoluzione e di cruciale importanza per il futuro tecnologico e sociale.
Lo sapevi che chiedere la pubblicazione di comunicati stampa promozionali gratuitamente è evasione fiscale. ==> LEGGI QUI perchè.