• ADV
    • CHI SIAMO
    • CONTATTI
  • TECH
  • FINTECH
  • AI
  • WEB3
  • LIFESTYLE
  • MOTORI
  • SVIZZERA
  • SVAPO
  • BRANDED
  • TREND
  • PUBBLICITA’
  • CHI SIAMO
  • REDAZIONE
  • CONTATTI
  • CISION – PRNEWSWIRE
#ASSODIGITALE.

NEWS TECH & FINTECH + AI & LIFESTYLE

#ASSODIGITALE.
  • ADV
    • CHI SIAMO
    • CONTATTI
  • TECH
  • FINTECH
  • AI
  • WEB3
  • LIFESTYLE
  • MOTORI
  • SVIZZERA
  • SVAPO
  • BRANDED
  • TREND
  • BLOCKCHAIN

Bias di Genere e Intersezionale nell’Intelligenza Artificiale: Una Sfida Odierna

  • Michele Ficara Manganelli ✿
  • 29 Novembre 2023

▷ GUADAGNA & RISPARMIA con i nostri Coupon & Referral Code: CLICCA QUI ORA!

L’intelligenza artificiale (IA) ha il potenziale di trasformare radicalmente il modo in cui viviamo e lavoriamo, rivoluzionando settori tecnici, creativi e professionali. Tuttavia, la promessa dell’IA è temperata da fonti di bias che emergono in ogni fase del suo sviluppo – dalla formulazione del problema di ricerca alla raccolta e al trattamento dei dati, fino allo sviluppo e alla validazione del modello. Questi bias sono ulteriormente esacerbati dal contesto sociale in cui i sistemi di IA vengono implementati​​.


SCONTO 10% sul PREZZO DEL ticket usando il codice MEDIA10 ==> CLICCA QUI

Il 10 novembre, la Gender Equity Initiative della Northwestern Pritzker School of Law e l’iniziativa Law and Technology dell’Università hanno co-ospitato una conferenza per discutere su come e perché l’IA rifletta e aggravì le disuguaglianze storiche e sociali, proponendo soluzioni tecniche e legali innovative per mitigare questi bias. Circa 50 partecipanti, tra cui professionisti e studenti di legge, tecnologia, business, scienze informatiche, ingegneria, e legge, hanno esplorato questi temi​​.

Uno dei problemi chiave identificati è che, mentre l’IA offre enormi potenzialità per migliorare molti campi, esistono innumerevoli esempi di risultati dannosi e discriminatori derivanti dall’uso dei sistemi di IA. Per esempio, un algoritmo clinico utilizzato per determinare quali pazienti ospedalieri richiedessero ulteriori cure ha dimostrato un bias razziale a causa dell’uso delle informazioni assicurative come dataset proxy per dati medici protetti da HIPPA. Software di riconoscimento facciale biasati hanno portato a diversi arresti ingiusti. I sistemi di visione computerizzata per il riconoscimento del genere producono tassi di errore più elevati per le donne con tonalità di pelle più scura​​.

LEGGI ANCHE ▷  Appello di SBF: lotta legale per ribaltare la condanna di frode

Kristian J. Hammond, professore di scienze informatiche alla McCormick School of Engineering e direttore del Center for Advancing Safety of Machine Intelligence (CASMI), sostiene che i sistemi di IA sono intrinsecamente biasati e faranno errori. Questi sistemi, essendo basati sull’apprendimento automatico, traducono ciò che è accaduto in passato in consigli o caratterizzazioni per il futuro. Pertanto, per natura, i modelli saranno sempre biasati, ma possiamo combatterlo. CASMI ha recentemente guidato un workshop per sostenere l’espansione della guida del Framework di Gestione del Rischio di IA del National Institute of Standards and Technology (NIST) da una prospettiva sociotecnica​​.

Jessica Hullman, professoressa associata di informatica alla Northwestern Engineering, ha illustrato come il bias possa manifestarsi sia dai dati di addestramento sia dalla molteplicità delle funzioni di modellazione predittiva impiegate dai ricercatori. Un modello sviluppato per classificare le persone in base alla loro probabilità di insolvenza su un prestito, ad esempio, produrrà risultati biasati se il dataset non è rappresentativo della popolazione a causa di disuguaglianze storiche e discriminazione nel prestito​​.

Soluzioni Innovative per Mitigare il Bias nell’Intelligenza Artificial

La dottoressa Hullman ha sottolineato che il concetto di bias nell’IA comprende sia il bias sociale sia la definizione statistica di bias, quando un modello o una funzione commette errori sistematicamente. Essa ha discusso anche il concetto di costrutti latenti, variabili che possono essere inferite solo indirettamente, come la “solvenza creditizia” o il “rischio per la società”. Quando questi modelli vengono addestrati su misurazioni che sono riflessi imperfetti di questi costrutti sottostanti, possono emergere vari tipi di bias di selezione e errori di misurazione che solitamente non sono incorporati in questi modelli​​.

LEGGI ANCHE ▷  Certilogo e Camera Nazionale della Moda Italiana: Un Impegno Congiunto per la Sostenibilità e la Trasparenza

Hatim Rahman, professore assistente di management e organizzazioni presso la Kellogg School of Management di Northwestern, ha discusso casi d’uso ad alto impatto delle tecnologie IA e come le imprese stiano sfruttando i sistemi IA per migliorare l’efficienza, l’efficacia dei costi e per aiutare nella presa di decisioni amministrative, inclusi assunzioni, promozioni e licenziamenti. Ha suggerito che le organizzazioni potrebbero essere più concentrate sul valore aggiunto e meno attente nell’interrogare i modelli e i dati di addestramento dell’IA​​.

Hammond ha promosso un approccio “umanamente consapevole” nei sistemi IA. Se costruiamo sistemi che non ci permettono di avere una risposta istintiva al bias, questo è un approccio praticabile. Se hai un sistema in cui non devi pensare, il sistema prende decisioni per te. Se, per la natura dell’interazione, devo riflettere su ciò che ottengo dalla macchina, significa almeno che l’onere è su di me. Crede che l’IA possa cambiare tutto e rendere il nostro mondo molto migliore, ma non se cediamo il controllo decisionale ad essa​​.

Durante il secondo panel, Gray ha guidato una conversazione sui modi attuali in cui legge e politica vengono utilizzati per mitigare il bias di genere e intersezionale nell’IA, inclusa l’esplorazione delle normative attualmente utilizzate per affrontare la responsabilità algoritmica, bilanciando la protezione delle popolazioni vulnerabili con le preoccupazioni di soffocare l’innovazione e considerando come le protezioni legali contro la discriminazione intersechino con la regolamentazione delle tecnologie IA​​.

LEGGI ANCHE ▷  Pericolosa interruzione della blockchain TON: fermi i nuovi blocchi per 6 ore

Christian ha spiegato che la conformità e la responsabilità dell’IA devono essere affrontate in modo olistico in tutta l’organizzazione, poiché l’IA abbraccia diverse aree del diritto, tra cui l’occupazione, l’anti-trust e la proprietà intellettuale. Ha osservato che i suoi clienti stanno procedendo con cautela con l’IA in casi di test limitati in cui possono guidare l’efficienza o digitalizzare processi esistenti​​.

In conclusione, mentre l’IA continua a evolversi e a espandersi, è fondamentale affrontare e mitigare il bias di genere e intersezionale per garantire che i benefici di questa tecnologia rivoluzionaria siano accessibili e giusti per tutti. Solo attraverso un approccio collaborativo e interdisciplinare, che coinvolge tecnologi, legislatori, accademici e professionisti di vari settori, possiamo sperare di realizzare il vero potenziale dell’intelligenza artificiale.


Sostieni Assodigitale.it nella sua opera di divulgazione

Grazie per avere selezionato e letto questo articolo che ti offriamo per sempre gratuitamente, senza invasivi banner pubblicitari o imbarazzanti paywall e se ritieni che questo articolo per te abbia rappresentato un arricchimento personale e culturale puoi finanziare il nostro lavoro con un piccolo sostegno di 1 chf semplicemente CLICCANDO QUI.

← Post Precedente
Post Successivo →
Michele Ficara Manganelli ✿

Bitcoiner Evangelist, portatore sano di Ethereum e Miner di crypto da tempi non sospetti. Sono a dir poco un entusiasta della vita, e già questo non è poco. Intimamente illuminato dalla Cultura Life-Hacking, nonchè per sempre ed indissolubilmente Geek, giocosamente Runner e olisticamente golfista. #senzatimore è da decenni il mio hashtag e significa il coraggio di affrontare l'ignoto. Senza Timore. Appunto

 


ISCRIVITI SUBITO AL NOSTRO FEED SU GOOGLE NEWS ==> CLICCA QUI!


DIRETTORE EDITORIALE

Michele Ficara Manganelli ✿

PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI

Per acquistare pubblicità CLICCA QUI

Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI

#ASSODIGITALE.
  • PUBBLICITA’
  • JOBS
  • REDAZIONE
  • CHI SIAMO
  • CONTATTI – IMPRESSUM
  • PRIVACY
  • COOKIE

PUBBLICITA’ COMUNICATI STAMPA

Per acquistare pubblicità potete richiedere una offerta personalizzata scrivendo al reparto pubblicitario.

Per pubblicare un comunicato stampa potete richiedere una offerta commerciale scrivendo alla redazione.

Per inviarci prodotti per una recensione giornalistica potete scrivere QUI

Per informazioni & contatti generali potete scrivere alla segreteria.

Tutti i contenuti pubblicati all’interno del sito #ASSODIGITALE. “Copyright 2024” non sono duplicabili e/o riproducibili in nessuna forma, ma possono essere citati inserendo un link diretto e previa comunicazione via mail.

FONTE UFFICIALE GOOGLE NEWS

#ASSODIGITALE. da oltre 20 anni rappresenta una affidabile fonte giornalistica accreditata e certificata da Google News per la qualità dei suoi contenuti.

#ASSODIGITALE. è una testata editoriale storica che dal 2004 ha la missione di raccontare come la tecnologia può essere utile per migliorare la vita quotidiana approfondendo le tematiche relative a: TECH & FINTECH + AI + CRYPTO + BLOCKCHAIN + METAVERSE & LIFESTYLE + IOT + AUTOMOTIVE + EV + SMART CITIES + GAMING + STARTUP.

 

Inserisci la chiave di ricerca e premi invio.