INDICE DEGLI ARGOMENTI PRINCIPALI DELL'ARTICOLO
- 1. È una opportunità per abbracciare nuovi modi di lavorare, con l’etica al centro;
- 2. La sorveglianza basata sui dati non riguarda l’eliminazione della responsabilità umana;
- 3. Nel tentativo di tenere il passo delle attività di polizia, le forze vengono incoraggiate attivamente a utilizzare maggiormente i loro dati e ad abbracciare l’apprendimento automatico:
▷ Sei vuoi guadagnare subito denaro inizia a Tradare con il BONUS FISSO del 5%: CLICCA E REGISTRATI QUI ORA!
Molto recentemente, abbiamo attinto alle intuizioni del crescente campo dell’Intelligenza Collettiva per esplorare come le forze dell’ordine possono cambiare il loro approccio alla raccolta e all’azione sull’intelligenza e abbiamo continuato a seguire con interesse alcune delle iniziative di AI esistenti che le forze stanno adottando.
Dopo aver esplorato questi, ho notato un numero crescente di pubblicazioni che criticano l’uso della polizia di dati e intelligenza artificiale. Tuttavia, attingendo alle mie esperienze di sperimentazione pratica con i dati, combinate con un background di polizia, mi chiedo perché stiamo vedendo un atteggiamento così denigratorio nei confronti dei tentativi di innovazione delle forze.
Naturalmente, a causa del ruolo e delle responsabilità della polizia nella società, è importante che questo approccio venga affrontato con cautela e considerazione. Tuttavia, screditare regolarmente gli sforzi delle forze e scartare i potenziali benefici di tali pratiche a causa dell’uso improprio delle tecnologie altrove sembra inutile.
Non sto affatto ignorando le sfide etiche avanzate e apprezzo che la minaccia di rafforzare la parzialità attraverso l’uso dei registri degli arresti e dei risultati passati sia molto reale, ma è forse un motivo sufficiente per non provarlo affatto?
È tempo di iniziare a pensare alle attività di polizia in modo diverso e iniziare a promuovere un uso più innovativo dei dati nelle attività di polizia per 3 motivi chiave;
1. È una opportunità per abbracciare nuovi modi di lavorare, con l’etica al centro;
Nonostante un rapporto chieda alle forze di polizia nel Regno Unito di porre fine al loro uso di programmi di mappatura predittiva e programmi di valutazione dei rischi individuali, l’intelligenza artificiale nella polizia è in crescita e non mostra segni di sospensione; secondo Deloitte, oltre la metà delle forze di polizia britanniche prevede di investire nell’intelligenza artificiale entro il 2020.
Essere all’inizio di questo viaggio significa avere ampie opportunità di quadri etici e normative, che richiedono alle forze di compiere passi ragionevoli per eliminare la distorsione dagli strumenti, da sviluppare in anticipo.
Tuttavia, sebbene sottostimato dalla negatività, in molti casi ciò sta già accadendo. Ad esempio, ALGO-CARE ™ ‘è un quadro decisionale proposto per la diffusione di strumenti di valutazione algoritmica nella polizia, che è stato sviluppato in collaborazione con Durham Constabulary, mostrando come considerazioni etiche, come il bene pubblico e i principi morali possano essere presi in considerazione nei primi processi decisionali di spiegamento.
In un altro esempio, nonostante le recenti critiche, il progetto National Data Analytics Solution (NDAS) gestito dalla polizia delle West Midlands comprende una serie di passaggi per garantire che il programma sia sviluppato nel modo più etico possibile. A livello tecnico, qualsiasi cosa relativa all’etnia è stata esclusa e, al fine di contribuire a ridurre i pregiudizi geografici, stanno anche prendendo in considerazione l’idea di eliminare qualsiasi cosa abbia a che fare con la geografia .
Inoltre, NDAS si sta anche consultando con vari gruppi etici indipendenti ed esperti esterni e nel 2018 si è avvicinato in modo proattivo al gruppo etico dati Alan Turing Institute (ATI DEG) per invitare a rivedere la strategia di alto livello; capire come un adeguato quadro etico potrebbe essere applicato all’approccio.
2. La sorveglianza basata sui dati non riguarda l’eliminazione della responsabilità umana;
Le macchine non sostituiranno la conoscenza e la discrezione degli ufficiali e non abbiamo visto esempi di attività basati esclusivamente sul risultato di un algoritmo, sono solo uno strumento per aiutare il processo decisionale piuttosto che sostituirlo.
Naturalmente, l’etica deve guidare la pratica della polizia e la tecnologia non deve mai essere utilizzata per punire le persone sulla base del risultato di un algoritmo, ma l’IA ha un enorme potenziale per aiutare il processo decisionale umano.
Ad esempio, al fine di prevedere la probabilità di recidiva, (nonostante le recenti critiche) lo strumento di valutazione del rischio di danno (HART) di Durham Constabulary utilizza metodi statistici basati sull’apprendimento automatico per essere in grado di tener conto della grande quantità di dati sui detenuti detenuti dalle forze di polizia ; molte più informazioni di quelle che un ufficiale di custodia umana potrebbe mai elaborare, eppure l’ufficiale mantiene la responsabilità ultima per decidere quali ulteriori azioni dovrebbero essere prese sulla base della valutazione .
3. Nel tentativo di tenere il passo delle attività di polizia, le forze vengono incoraggiate attivamente a utilizzare maggiormente i loro dati e ad abbracciare l’apprendimento automatico:
Con la crescente domanda e le crescenti pressioni in prima linea, le forze di polizia devono cercare modi diversi di fare le cose. Nonostante questo sia qualcosa che già sanno, fa eco più volte sia dal governo che da altri, con alcuni persino commentando che le forze stanno portando i cambiamenti per soddisfare la domanda attuale e futura troppo lentamente e con modestia.
In effetti, dopo aver messo in evidenza la mancanza di pianificazione a lungo termine delle forze e l’uso frammentato della tecnologia nei rapporti precedenti, l’ispettore capo di servizi di polizia e servizi antincendio e di salvataggio (HMICFRS) di Sua Maestà Tom Windsor ha incaricato direttamente le forze di abbracciare l’IA nell’ultimo stato di Rapporto di polizia ;
“Con l’enorme capacità e potenziale dell’IA, la polizia potrebbe e deve fare molto di più. L’opportunità qui non è solo quella di far sì che le macchine facciano più velocemente ciò che la polizia fa già. Serve anche ad usare la tecnologia per raggiungere gli obiettivi della polizia in modi che non abbiamo nemmeno pensato e che mai potremmo ”.
Naturalmente, se l’apprendimento automatico non è all’altezza, la risposta per stare al passo con la domanda non può essere questa da sola, ma la chiara direzione dall’alto è, almeno, di sperimentare.
Tra la foschia, spero che nei prossimi mesi inizieremo a vedere emergere alcune storie più positive sugli usi di successo dell’IA nella polizia. Spero che inizieremo a vedere esempi di intuizioni abilitate all’IA che informano le decisioni che hanno ridotto le minacce, protetto le persone vulnerabili e persino salvato.
Sappiamo che dobbiamo avvicinarci con cautela e considerazione, ma possiamo abbracciare con ottimismo e anche una mente aperta.