Bias di Genere e Intersezionale nell’Intelligenza Artificiale: Una Sfida Odierna
L’intelligenza artificiale (IA) ha il potenziale di trasformare radicalmente il modo in cui viviamo e lavoriamo, rivoluzionando settori tecnici, creativi e professionali. Tuttavia, la promessa dell’IA è temperata da fonti di bias che emergono in ogni fase del suo sviluppo – dalla formulazione del problema di ricerca alla raccolta e al trattamento dei dati, fino allo sviluppo e alla validazione del modello. Questi bias sono ulteriormente esacerbati dal contesto sociale in cui i sistemi di IA vengono implementati.
Il 10 novembre, la Gender Equity Initiative della Northwestern Pritzker School of Law e l’iniziativa Law and Technology dell’Università hanno co-ospitato una conferenza per discutere su come e perché l’IA rifletta e aggravì le disuguaglianze storiche e sociali, proponendo soluzioni tecniche e legali innovative per mitigare questi bias. Circa 50 partecipanti, tra cui professionisti e studenti di legge, tecnologia, business, scienze informatiche, ingegneria, e legge, hanno esplorato questi temi.
Uno dei problemi chiave identificati è che, mentre l’IA offre enormi potenzialità per migliorare molti campi, esistono innumerevoli esempi di risultati dannosi e discriminatori derivanti dall’uso dei sistemi di IA. Per esempio, un algoritmo clinico utilizzato per determinare quali pazienti ospedalieri richiedessero ulteriori cure ha dimostrato un bias razziale a causa dell’uso delle informazioni assicurative come dataset proxy per dati medici protetti da HIPPA. Software di riconoscimento facciale biasati hanno portato a diversi arresti ingiusti. I sistemi di visione computerizzata per il riconoscimento del genere producono tassi di errore più elevati per le donne con tonalità di pelle più scura.
Kristian J. Hammond, professore di scienze informatiche alla McCormick School of Engineering e direttore del Center for Advancing Safety of Machine Intelligence (CASMI), sostiene che i sistemi di IA sono intrinsecamente biasati e faranno errori. Questi sistemi, essendo basati sull’apprendimento automatico, traducono ciò che è accaduto in passato in consigli o caratterizzazioni per il futuro. Pertanto, per natura, i modelli saranno sempre biasati, ma possiamo combatterlo. CASMI ha recentemente guidato un workshop per sostenere l’espansione della guida del Framework di Gestione del Rischio di IA del National Institute of Standards and Technology (NIST) da una prospettiva sociotecnica.
Jessica Hullman, professoressa associata di informatica alla Northwestern Engineering, ha illustrato come il bias possa manifestarsi sia dai dati di addestramento sia dalla molteplicità delle funzioni di modellazione predittiva impiegate dai ricercatori. Un modello sviluppato per classificare le persone in base alla loro probabilità di insolvenza su un prestito, ad esempio, produrrà risultati biasati se il dataset non è rappresentativo della popolazione a causa di disuguaglianze storiche e discriminazione nel prestito.
Soluzioni Innovative per Mitigare il Bias nell’Intelligenza Artificial
La dottoressa Hullman ha sottolineato che il concetto di bias nell’IA comprende sia il bias sociale sia la definizione statistica di bias, quando un modello o una funzione commette errori sistematicamente. Essa ha discusso anche il concetto di costrutti latenti, variabili che possono essere inferite solo indirettamente, come la “solvenza creditizia” o il “rischio per la società”. Quando questi modelli vengono addestrati su misurazioni che sono riflessi imperfetti di questi costrutti sottostanti, possono emergere vari tipi di bias di selezione e errori di misurazione che solitamente non sono incorporati in questi modelli.
Hatim Rahman, professore assistente di management e organizzazioni presso la Kellogg School of Management di Northwestern, ha discusso casi d’uso ad alto impatto delle tecnologie IA e come le imprese stiano sfruttando i sistemi IA per migliorare l’efficienza, l’efficacia dei costi e per aiutare nella presa di decisioni amministrative, inclusi assunzioni, promozioni e licenziamenti. Ha suggerito che le organizzazioni potrebbero essere più concentrate sul valore aggiunto e meno attente nell’interrogare i modelli e i dati di addestramento dell’IA.
Hammond ha promosso un approccio “umanamente consapevole” nei sistemi IA. Se costruiamo sistemi che non ci permettono di avere una risposta istintiva al bias, questo è un approccio praticabile. Se hai un sistema in cui non devi pensare, il sistema prende decisioni per te. Se, per la natura dell’interazione, devo riflettere su ciò che ottengo dalla macchina, significa almeno che l’onere è su di me. Crede che l’IA possa cambiare tutto e rendere il nostro mondo molto migliore, ma non se cediamo il controllo decisionale ad essa.
Durante il secondo panel, Gray ha guidato una conversazione sui modi attuali in cui legge e politica vengono utilizzati per mitigare il bias di genere e intersezionale nell’IA, inclusa l’esplorazione delle normative attualmente utilizzate per affrontare la responsabilità algoritmica, bilanciando la protezione delle popolazioni vulnerabili con le preoccupazioni di soffocare l’innovazione e considerando come le protezioni legali contro la discriminazione intersechino con la regolamentazione delle tecnologie IA.
Christian ha spiegato che la conformità e la responsabilità dell’IA devono essere affrontate in modo olistico in tutta l’organizzazione, poiché l’IA abbraccia diverse aree del diritto, tra cui l’occupazione, l’anti-trust e la proprietà intellettuale. Ha osservato che i suoi clienti stanno procedendo con cautela con l’IA in casi di test limitati in cui possono guidare l’efficienza o digitalizzare processi esistenti.
In conclusione, mentre l’IA continua a evolversi e a espandersi, è fondamentale affrontare e mitigare il bias di genere e intersezionale per garantire che i benefici di questa tecnologia rivoluzionaria siano accessibili e giusti per tutti. Solo attraverso un approccio collaborativo e interdisciplinare, che coinvolge tecnologi, legislatori, accademici e professionisti di vari settori, possiamo sperare di realizzare il vero potenziale dell’intelligenza artificiale.