La trasparenza degli algoritmi: perché ci riguarda tutti. Intervista all’avv. Giovanni Bonomo

Avv. Giovanni Bonomo*
In un’epoca in cui gli algoritmi decidono cosa leggiamo, cosa compriamo e, sempre più spesso, chi siamo, chiedersi come funzionano non è solo una questione tecnica, ma etica, sociale e civile. La trasparenza degli algoritmi è essenziale per proteggere la nostra identità digitale e la nostra libertà di informazione, perché la profilazione algoritmica influenza la nostra percezione del mondo e le nostre decisioni.
* Avvocato, New Media Lawyer, A.L. Chief Innnovation Officer, IICUAE Certified Advisor, AlterEgoGPT founder
Sono le conclusioni dell’avv. Giovanni Bonomo, giurista e giornalista, esperto in diritto dei media e creatore di innovazioni digitali come CandideCoin – la prima criptovaluta pacifista e disarmista al mondo – e AlterEgoGPT, l’app di AI che consente a ciascuno di plasmare il proprio avatar digitale, incarnando in forma algoritmica il principio fondamentale dell’autonomia personale.

Abbiamo intervistato l’avv. Giovanni Bonomo presso il suo studio legale in zona Brera, già sede del suo Centro Culturale Candide, salotto neoilluminista che promuove il dialogo su temi come la libertà di stampa e la responsabilità sociale, teatro di tante entrée des artistes con personaggi illustri dell’arte, della letteratura e della poesia.
Avvocato Bonomo, in che senso gli algoritmi dovrebbero essere trasparenti e comprensibili?
La trasparenza degli algoritmi è fondamentale per garantire che le nuove tecnologie possano essere utilizzate in modo equo e resposabile. Solo tramite una maggiore comprensione di come funzionano possiamo assicurarci che lavorino per il bene di tutti e non solo di pochi.
Tutti dovremmo avere accesso alle informazioni che ci riguardano e poter comprendere come queste vengono elaborate. Non serve essere ingegneri o informatici per pretendere che il codice che ci governa sia leggibile, serve essere prima di tutto cittadini responsabili e consapevoli, “di sana e robusta Costituzione”, per usare una espressione ad effetto da me più volte usata negli scritti contro la disinformazione sul Covid19.
Lei sostiene che che il nostro esserci nel mondo digitale è filtrato da sistemi opachi se non oscuri
Vero, è ciò che dico in uno dei miei articoli, Essere per il mondo: identità digitale e profilazione, in cui sottolineo come il nostro esserci nel mondo digitale è filtrato da sistemi nascosti e subdoli: ogni click, ogni like, ogni scroll contribuisce a creare un “profilo” – un’immagine di noi – che viene usata per anticipare le nostre scelte. Ma chi decide come veniamo rappresentati? E chi controlla che cosa questo profilo può influenzare?
Ogni nostra ricerca su Google, ogni like su Facebook, ogni acquisto online genera dati che alimentano algoritmi sempre più sofisticati. Questi sistemi automatizzati non si limitano a memorizzare le nostre informazioni: le analizzano, le interpretano e le utilizzano per prevedere i nostri comportamenti futuri. Ma cosa significa davvero vivere in un mondo dove gli algoritmi sanno di noi più di quanto noi stessi sappiamo?
La trasparenza algoritmica non è allora un lusso da nerd o un tecnicismo da lasciar gestire alle piattaforme, è invece una questione di libertà, perché non si può essere liberi se non si sa come si viene guardati.
La nostra identità digitale è quindi più reale della realtà?
Per questo si passa dal cogito ergo sum di cartesiana memora al digito ergo sum della nostra era digitale. Ogni volta che navighiamo online lasciamo tracce: i nostri profili social, gli articoli che leggiamo, la musica che ascoltiamo, gli acquisti che facciamo. Questi dati costruiscono un ritratto digitale di noi che spesso è più completo e accurato di quello che potremmo tracciare noi stessi della nostra persona.
La paradossale conseguenza è che la nostra identità digitale, poco conosciuta dalle persone a noi vicine, viene completamente analizzata da soggetti distanti, in una sorveglianza partecipativa fondata sul piacere nostro – e sul guadagno altrui – dell’accesso agli infiniti contenuti della Rete.
Perché la trasparenza degli algoritmi riguarda tutti?
Perché risolverebbe un problema di giustizia ed equità. Gli algoritmi contengono assunzioni implicite, spesso frutto di chi li progetta o dei dati su cui sono basati. Se tali assunzioni non emergono chiaramente, rischiano di penalizzare categorie sociali, amplificando bias cognitivi e ingiustizie.
Ma per avere trasparenza non basta l’Open Source, non basta “aprire il codice”. Pubblicare il sorgente non significa automaticamente “comunicare” all’utente come e perché una decisione è stata presa, serve invero un livello intermedio: documentazione comprensibile, spiegazioni accessibili, simulazioni interattive per sensibilizzare cittadini e consumatori.
Il diritto all’informativa (GDPR), e sempre più leggi – compreso ora l’AI Act – richiedono che gli algoritmi siano spiegabili almeno a parole, se non a codici. Anche il Consiglio di Stato, in una sentenza del 2019, ha stabilito che una decisione algoritmica abbia la stessa motivazione richiesta a una decisione umana.
Gli algoritmi di profilazione compromettono anche la libertà di informazione?
Direi proprio di sì. Ho già denunciato il rischio che la logica dei profili individualizzati finisca per deformare il nostro accesso alla realtà: l’algoritmo seleziona notizie su misura per noi, costruendo una “bolla” che conferma ciò che già pensiamo. La cosiddetta filter bubble, che ci imprigiona nel già detto su argomenti per i quali, nel frattempo possiamo avere cambiato opinione.
Nel saggio La profilazione e la libertà di informazione spiego che se l’informazione diventa un servizio personalizzato, e non più un bene pubblico, la democrazia traballa. E senza trasparenza, non possiamo neanche sapere quali logiche determinano le notizie che vediamo – né quali ci vengono nascoste.
Pensiamo solo al prezzo nascosto dell’accesso “gratuito”. Il problema fondamentale è che l’accesso apparentemente gratuito alla rete nasconde un costo reale: la consegna dei nostri dati personali. Tali dati vengono utilizzati per fare una prognosi sul nostro futuro, per capire e anticipare le nostre abitudini, preferenze, comportamenti, salute e spostamenti.
Questa profilazione non è neutra: può condannarci alla futura esclusione da notizie, lavori, relazioni, da opportunità. Voglio dire che gli algoritmi possono decidere cosa ci viene proposto e cosa ci viene nascosto, sia su Internet che nella vita reale, analizzando il nostro profilo e prevedendo i nostri comportamenti
Anche il pluralismo informativo può essere minacciato?
Esattamente, se non del tutto compromesso. Uno degli aspetti più preoccupanti della profilazione algoritmica riguarda l’informazione. La nostra naturale propensione alla conferma di ciò che pensiamo, unita all’efficienza algoritmica, rende meno plurali le informazioni che inviamo e quelle che riceviamo.
L’informazione vera, autentica, dovrebbe includere “l’irrompere dell’inatteso e dell’indesiderato nelle nostre convinzioni”. Invece, quando riceviamo solo notizie “su misura”, personalizzate sui nostri gusti e pregiudizi, perdiamo “quell’elemento di sorpresa che è una delle principali caratteristiche della verità fattuale e oggettiva”
Questo crea quello che gli esperti chiamano “filter bubble” o “echo chamber”: rimaniamo intrappolati in bolle informative che confermano le nostre convinzioni preesistenti, rendendo il dibattito pubblico sempre più polarizzato e meno ricco di sfumature.
Quali diritti possiamo ancora far valere in questo scenario poco rassicurante dell’era digitale?
Fortunatamente, non siamo completamente inermi di fronte a questa situazione. Il diritto europeo ci offre alcuni strumenti di tutela. Il Regolamento Generale per la Protezione dei Dati (GDPR) riconosce la protezione dei dati personali come un diritto fondamentale e stabilisce regole precise sulla profilazione.
Particolarmente importante è l’articolo 22 del GDPR sul “Processo decisionale automatizzato”, che riconosce il nostro diritto a non essere sottoposti a decisioni basate unicamente su un trattamento automatizzato, compresa la profilazione. Inoltre, la Dichiarazione dei diritti di Internet italiana stabilisce che “l’uso di algoritmi e di tecniche probabilistiche deve essere portato a conoscenza delle persone interessate”.
Abbiamo anche il diritto all’oblio e alla deindicizzazione, che ci permette di richiedere la rimozione di informazioni che non sono più rappresentative di chi siamo oggi. Come ha stabilito la Corte di Giustizia Europea nel caso Google Spain, i motori di ricerca non sono semplici trasportatori di dati, ma responsabili del trattamento dei nostri dati personali. Nell’epoca dell’IA e dell’apprendimento automatico (Machine Learning), questo diritto fondamentale all’oblio assume tutta una nuova complessità: i chatbot non dimenticano e questo, in caso di informazioni errate che circolano oppure superate, può essere un groppo problema.
Però vorrei assicurare che abbiamo diversi strumenti a diposizione per essere consapevoli e partecipi della rivoluzione digitale:
esercitare i nostri diritti: possiamo richiedere di sapere quali dati vengono raccolti su di noi e come vengono utilizzati; possiamo opporci alla profilazione e richiedere la cancellazione di dati obsoleti;
diversificare le fonti: non limitiamoci a un solo motore di ricerca o a una sola piattaforma social; cerchiamo attivamente punti di vista diversi e fonti di informazione alternative;
educazione digitale: impariamo a comprendere almeno i principi base del funzionamento degli algoritmi; non dobbiamo diventare tutti programmatori, ma dovremmo conoscere le basi di ciò che influenza la nostra vita quotidiana;
supporto alla ricerca: sosteniamo la ricerca per algoritmi più trasparenti, equi e democratici; esistono alternative agli algoritmi commerciali che possono essere più rispettose dei nostri diritti;
partecipazione politica: sosteniamo politiche che promuovano la trasparenza algoritmica e la protezione dei dati personali.
Infatti Lei si dichiara fautore di una nuova consapevolezza digitale, ci può spiegare meglio?
Non mi limito a denunciare le criticità e i problemi, perché propongo anche le soluzioni in una visione costruttiva. Per questo invito tutti a essere “attivi e partecipi della rivoluzione digitale che stiamo vivendo”. La Rete può essere uno strumento di personal branding, e la costruzione della propria identità digitale può diventare il sentiero per una nuova consapevolezza.
L’obiettivo non è rinunciare alla tecnologia, ma utilizzarla consapevolmente. Per questo dico “noi siamo nel mondo, ma non del mondo, noi siamo per il mondo!”. Questo significa che dobbiamo essere protagonisti attivi della trasformazione digitale, non subire passivamente le decisioni di algoritmi che non comprendiamo.
La trasparenza degli algoritmi non è una questione tecnica riservata agli esperti, ma una sfida democratica che riguarda tutti noi. Siamo di fronte a una rivoluzione anche nel modo di pensare, vivere, lavorare, condividere.
Una sfida per il futuro?
Infatti. Gli algoritmi continueranno a evolversi e la domanda non è se li useremo, ma come. Possiamo scegliere di subirli passivamente, lasciando che decidano per noi cosa vedere, cosa comprare, cosa pensare, oppure possiamo impegnarci per renderli più trasparenti, più equi, più democratici.
Cosa possiamo fare oggi per domani:
1. promuovere la interoperabilità delle reti neurali per arrivare alla AGI;
2. richiedere documentazione comprensibile nelle app e nei servizi;
3. sostenere normative chiare su informativa e motivazione algoritmica;
4. educare il pubblico: creare cittadinanza digitale attiva;
5. coinvolgere controlli indipendenti, giornalisti e associazioni nei processi decisionali automatizzati.
La posta in gioco è alta: il nostro diritto alla privatezza, la qualità della nostra democrazia, la libertà delle nostre scelte. Ma abbiamo già gli strumenti per vincere questa sfida, se solo abbiamo il coraggio di usarli.
Nella foto l’avv. Giovanni Bonomo

Intervista a cura di Paolo Brambilla