Il riconoscimento facciale della Polizia sotto accusa: viola la privacy e deve essere bloccato?

Parte del problema deriva da una mancanza di controllo. Non vi è stato alcun reale input pubblico nell’adozione del software Clearview e la capacità dell’azienda di salvaguardare i dati non è stata testata nella pratica.
Non sprecare soldi comprando pubblicità programmatica ma investi su contenuti eterni. ==> LEGGI QUI perchè.
Clearview stesso è rimasto altamente riservato fino alla fine del 2019. È certamente in grado di guardare i dati di ricerca se lo desidera: la polizia che aiuta a testare il software per la storia del NYT ha ricevuto chiamate che chiedevano se stavano parlando con i media.
Il software sembra anche violare esplicitamente le politiche su Facebook e altrove contro la raccolta di immagini degli utenti in massa .
Facebook ha dichiarato che stava esaminando la situazione e avrebbe “preso le misure appropriate” se Clearview infrangesse le sue regole.
Il capo dell’azienda Hoan Ton-Che ha cercato di minimizzare alcune delle preoccupazioni sulla privacy.

Ha osservato che le telecamere di sorveglianza sono “troppo alte” per fornire un riconoscimento facciale veramente affidabile e che Clearview è stato informato solo delle richieste del giornalista a causa di un sistema creato per rilevare “comportamenti di ricerca anomali”.
I rappresentanti dell’assistenza clienti non guardano le foto caricate, ha aggiunto la società.
E mentre c’è un codice sottostante che potrebbe teoricamente essere usato per gli occhiali di realtà aumentata che potrebbero identificare le persone per strada, Ton-That ha detto che non c’erano piani per un tale progetto.
Il software Clearview ha comunque lanciato campanelli d’allarme e non solo per i possibili abusi di potere menzionati in precedenza.
Non buttare via soldi per comprare contenuti effimeri sui social media. ==> LEGGI QUI perchè.
Il software ha una precisione del 75% circa e non è stato testato da estranei come il National Institute of Standards and Technology del governo degli Stati Uniti. Esiste il rischio reale di false corrispondenze, per non parlare dei potenziali pregiudizi di genere e razziali.
Per quanto bene abbia funzionato in alcuni casi, c’è la possibilità che possa portare a false accuse o colpire in modo sproporzionato gruppi non bianchi.
Città come San Francisco si sono affrettate a vietare l’uso da parte del governo del riconoscimento facciale per problemi come questi e le richieste di ulteriori divieti potrebbero aumentare ulteriormente a seguito di queste ultime notizie.
Sostieni Assodigitale.it nella sua opera di divulgazione
Grazie per avere selezionato e letto questo articolo che ti offriamo per sempre gratuitamente, senza invasivi banner pubblicitari o imbarazzanti paywall e se ritieni che questo articolo per te abbia rappresentato un arricchimento personale e culturale puoi finanziare il nostro lavoro con un piccolo sostegno di 1 chf semplicemente CLICCANDO QUI.