L’intelligenza artificiale rappresenta una delle innovazioni più significative e potenti del nostro tempo. Tuttavia, i recenti avvertimenti da parte di dipendenti ed ex dipendenti di Google DeepMind e OpenAI mettono in luce rischi potenzialmente catastrofici legati al suo sviluppo. Questi avvertimenti, raccolti in una lettera, sottolineano la necessità di proteggere coloro che intendono denunciare i pericoli associati all’IA. Con la crescente influenza di questa tecnologia, diventa imperativo esaminare con attenzione i potenziali rischi e le responsabilità delle aziende che la sviluppano.
L’allarme dai cuori delle big tech
L’allarme lanciato da tredici dipendenti ed ex dipendenti di OpenAI e Google DeepMind, due dei laboratori di ricerca più avanzati al mondo sull’intelligenza artificiale, ha rinforzato i timori di chi crede che questa tecnologia possa rappresentare un serio pericolo per l’umanità. Nel documento intitolato “A Right to Warn about Advanced Artificial Intelligence”, viene evidenziato che “i sistemi di intelligenza artificiale che apprendono in modo autonomo” potrebbero determinare, sfuggendo al controllo umano, “l’estinzione dell’umanità”.
Non è la prima volta che viene lanciato un simile allarme. Già un anno fa, il Center for AI Safety ha pubblicato una lettera apocalittica firmata da scienziati e imprenditori, paragonando gli effetti di una IA fuori controllo a quelli di una pandemia o di una guerra nucleare. Tuttavia, questa volta l’allarme proviene da chi lavora concretamente ai modelli di intelligenza artificiale su cui si basano ChatGpt (OpenAI), Gemini (Google) e Copilot (Microsoft), strumenti utilizzati quotidianamente da milioni di persone per generare testi e immagini.
“Siamo dipendenti ed ex dipendenti di aziende all’avanguardia nell’intelligenza artificiale e crediamo che questa tecnologia possa fornire benefici senza precedenti all’umanità” si legge nella lettera. Ma il tono cambia radicalmente: “Siamo anche consapevoli dei rischi legati all’IA, che vanno dal rafforzamento delle disuguaglianze esistenti, alla manipolazione e alla disinformazione, fino alla perdita del controllo sui sistemi di intelligenza artificiale autonomi che potrebbe determinare l’estinzione degli esseri umani”.
La preoccupazione per il disinteresse delle big tech
Chi lavora – o ha lavorato – all’IA di OpenAI e Google, le due aziende in lotta per il dominio del mercato dell’intelligenza artificiale generativa, è preoccupato dal fatto che le big tech non stiano facendo abbastanza per mitigare le insidie derivanti dallo sviluppo di questa tecnologia. Al contrario, sembra che abbiano poco interesse a farlo, poiché gli enormi interessi economici in gioco potrebbero prevalere sulle preoccupazioni etiche e di sicurezza.
Gli appelli della comunità scientifica e gli sforzi della politica per mettere in sicurezza l’IA con una legislazione adeguata potrebbero non avere gli esiti sperati se le aziende che sviluppano questa tecnologia non faranno la loro parte. “Le società che sviluppano intelligenza artificiale hanno interessi economici tali da eludere una supervisione efficace – scrivono i dipendenti e gli ex dipendenti di OpenIA e Google DeepMind -. E non crediamo che strutture di governance aziendale personalizzate siano sufficienti a cambiare la situazione.
Queste società possiedono informazioni riservate importanti sulle capacità e sui limiti dei loro sistemi, sull’adeguatezza delle loro misure di protezione e sui livelli di rischio e di danni che la loro tecnologia potrebbe causare. Tuttavia, attualmente non hanno seri obblighi a condividere alcune di queste informazioni con i governi, e nessuno con la società civile. Non pensiamo che si possa fare affidamento su queste società affinché le condividano volontariamente”.
In questo contesto, la lettera di quello che potrebbe diventare un movimento, “Right to Warn”, chiede una protezione maggiore per i dipendenti intenzionati a denunciare rischi incombenti legati all’IA che invece le aziende non intendono divulgare. “I dipendenti e gli ex dipendenti sono tra i pochi che possano chiamare le aziende a rispondere di fronte al pubblico.
Tuttavia, ampi accordi di riservatezza ci impediscono di esprimere le nostre preoccupazioni, se non alle stesse società che potrebbero non affrontare adeguatamente queste problematiche. Le normali protezioni per i whistleblower non sono sufficienti perché si concentrano su attività illegali, mentre molti dei rischi che ci preoccupano non sono ancora regolamentati. Alcuni di noi temono ragionevolmente rappresaglie di vario tipo”.
La richiesta di principi etici e protezione per i denuncianti
I firmatari della lettera sui pericoli dell’IA chiedono alle aziende di aderire a una serie di principi etici per garantire la trasparenza e la sicurezza nello sviluppo dell’intelligenza artificiale. Un principio fondamentale è che “le società non stipuleranno o applicheranno alcun accordo che vieti la “denigrazione” o la critica nei loro confronti per questioni relative ai rischi, né adotteranno ritorsioni per critiche legate ai rischi ostacolando i benefici economici maturati [dai dipendenti]”.
Questa richiesta riflette una crescente consapevolezza tra i professionisti del settore sull’importanza di proteggere coloro che desiderano parlare apertamente dei rischi associati all’IA. Proteggere i whistleblower è cruciale per assicurare che i potenziali pericoli siano segnalati e affrontati in modo adeguato, evitando così che interessi aziendali prevalgano sulla sicurezza pubblica.
L’intelligenza artificiale ha il potenziale di trasformare radicalmente la nostra società, migliorando la vita quotidiana e risolvendo problemi complessi.
Tuttavia, se non adeguatamente regolamentata e controllata, potrebbe anche rappresentare una minaccia esistenziale. I firmatari della lettera sottolineano che le misure di sicurezza e i principi etici devono essere una priorità per tutte le aziende coinvolte nello sviluppo di questa tecnologia.
Inoltre, è essenziale che i governi e la società civile esercitino una vigilanza attiva per garantire che le aziende rispettino tali principi. Questo richiede un quadro normativo robusto e una cooperazione internazionale per affrontare le sfide globali poste dall’intelligenza artificiale.
L’allarme lanciato dai dipendenti ed ex dipendenti di Google DeepMind e OpenAI non può essere ignorato. La loro esperienza diretta e le loro preoccupazioni evidenziano la necessità di un approccio più responsabile e trasparente nello sviluppo dell’intelligenza artificiale. Le aziende devono riconoscere i rischi e lavorare attivamente per mitigarli, garantendo che i benefici di questa tecnologia rivoluzionaria possano essere goduti in sicurezza dall’intera umanità.