Il riconoscimento facciale di Amazon AWS Rekognition crea numerosi problemi di malfunzionamento
Amazon vuole consolidare l’uso della sua tecnologia di “Rekognition” facciale elaborando le proprie leggi nella speranza che i regolatori federali li adottino.
L’audace nuovo passo del team politico dell’azienda per iniziare a redigere regolamenti per questa tecnologia, mostra quanto sia importante per la divisione Web Service di Amazon, che vende il software Rekognition.
Con il mercato globale del riconoscimento facciale destinato a superare una valutazione di $ 8 miliardi nel 2022, Amazon sta mettendo soldi prima della privacy personale, della discriminazione e del potenziale di abuso che potrebbe portare a incidenti di profilazione razziale?
La notizia che devi sapere
All’inizio di quest’anno, la società ha intensificato gli sforzi per verificare la sua IA per Rekognition. CultureBanx ha notato che hanno collaborato con il National Institute of Standards and Technology (NIST) per sviluppare test standardizzati su questo problema e migliorare l’accuratezza.
Questo era in aggiunta alle linee guida pubblicate che Amazon sperava che i legislatori avrebbero preso in considerazione l’utilizzo della tecnologia.
Qui sta il problema, AWS ha rappresentato il 13% dei ricavi dell’azienda nel secondo trimestre del 2019 e il 52% dei suoi ricavi operativi di $ 3,1 miliardi. Ciò evidenzia il motivo per cui la società è così investita nel modo in cui la tecnologia è regolata in quanto mette in relazione l’impatto sulla propria attività.
“Il nostro team di politiche pubbliche sta attualmente lavorando alle normative sul riconoscimento facciale; ha molto senso regolarlo ”, ha dichiarato il CEO di Amazon Jeff Bezos al suo evento annuale sui gadget Alexa a Seattle la scorsa settimana. Ha continuato a commentare gli usi positivi della tecnologia: “Ma, allo stesso tempo, c’è anche il potenziale per gli abusi di quel tipo di tecnologia, quindi vuoi delle normative. È un classico tipo di tecnologia a doppio uso. ”
Gravi errori di riconoscimento facciale sulle persone di colore
L’ACLU ha chiamato aziende come Amazon con il suo strumento di riconoscimento che è stato distribuito ai dipartimenti di polizia negli Stati Uniti, come una minaccia alle libertà civili.
Si è scoperto che il suo controverso Rekognition ha identificato erroneamente 28 membri del Congresso come persone che sono state arrestate per reati, sollevando nuove preoccupazioni per la profilazione razziale e il potenziale abuso delle forze dell’ordine. Le false corrispondenze hanno coinvolto in modo sproporzionato membri del Congresso che sono persone di colore.
La ricerca mostra che i sistemi di intelligenza artificiale commerciale tendono ad avere tassi di errore più elevati per donne e persone di colore. Alcuni sistemi di riconoscimento facciale confonderebbero solo gli uomini con pelle chiara lo 0,8% delle volte e avrebbero un tasso di errore del 34,7% per le donne con pelle scura. Un errore del genere potrebbe causare distorsioni tra le minoranze e gli immigrati.
Persino il gigante tecnologico IBM ha identificato erroneamente il genere nel 7% delle femmine dalla pelle più chiara, nel 12% dei maschi dalla pelle più scura e nel 35% delle donne dalla pelle più scura . Questo è qualcosa che la società sta cercando di fornire trasparenza quando si tratta di parzialità di intelligenza artificiale e livellare il campo di gioco.
Serve una nuova legge per le Big Tech come Amazon
Altre grandi aziende tecnologiche hanno espresso preoccupazione per la mancanza di regolamentazione. Microsoft ha chiesto ai governi di tutto il mondo di intensificare e regolare la tecnologia di riconoscimento facciale.
Vogliono garantire la tecnologia che ha tassi di errore più elevati per gli afroamericani, non invade la privacy personale o diventa uno strumento di discriminazione o sorveglianza.
L’anno scorso, il presidente della Microsoft Brad Smith ha scritto sul sito Web dell’azienda sull’importanza di evitare l’uso della tecnologia di riconoscimento facciale per discriminazioni illegali.
Ha osservato che è importante che i gruppi che utilizzano i servizi comprendano che “non sono assolti dal loro obbligo di rispettare le leggi che vietano la discriminazione nei confronti di singoli consumatori o gruppi di consumatori”.
Vietato il riconoscimento facciale?
Le città della California, tra cui San Francisco e Oakland, nonché Somerville, hanno vietato l’uso del riconoscimento facciale da parte delle agenzie governative, comprese le forze dell’ordine.
Oltre alle forze dell’ordine, il riconoscimento facciale viene utilizzato negli aeroporti, ai valichi di frontiera e persino nei principali eventi sportivi.
Poiché il software di riconoscimento facciale è all’avanguardia nell’identificazione e può essere utilizzato per verificare l’identità di una persona tramite foto o in tempo reale, il set di dati deve essere molto più ampio.