Programma di fact-checking di Meta: perché non riesce a rilevare la maggior parte della disinformazione online
Fallimento del programma di verifica dei fatti di Meta
Meta sta dismettendo il suo programma di verifica dei fatti dedicato all’individuazione della disinformazione, in un contesto di crescente apertura verso politiche di “libertà di parola” sulle proprie piattaforme. Un recente rapporto di NewsGuard ha messo in evidenza come il programma non stesse adempiendo alla sua funzione primaria. Solo il 14% dei post esaminati, contenenti narrazioni di disinformazione provenienti da Russia, Cina e Iran, è stato contrassegnato come falso. Secondo l’analisi, la maggior parte dei contenuti che diffondevano tali narrazioni straniere è stata pubblicata senza alcun contrassegno, come “Falso”, “Alterato”, “Parzialmente Falso” o “Mancanza di Contesto”.
Vale la pena notare che la ricerca ha interessato 457 post identificati che sostenevano 30 false affermazioni diverse.
Nonostante alcuni tentativi di arginare la disinformazione, Meta non è riuscita a controllare efficacemente i contenuti malevoli che si diffondevano sulla sua piattaforma. Anche quando una parte della disinformazione veniva approntata, decine di altri post con affermazioni false, anche se riformulate, rimanevano senza correzioni. Questo fallimento ha sollevato preoccupazioni sul futuro della moderazione dei contenuti su Meta, proprio mentre si avvia verso una revisione delle sue politiche di fact-checking.
Si prevede che la chiusura del programma di verifica delle informazioni possa lasciare un vuoto significativo nella lotta contro la disinformazione, compromettendo ulteriormente la capacità di Meta di rispondere in modo adeguato a questo problema critico.
Analisi del rapporto di NewsGuard
Secondo l’analisi di NewsGuard, il programma di verifica dei fatti di Meta ha mostrato evidenti lacune nel suo operato. La rilevazione del 14% di post classificati come contenuti disinformativi lascia intravedere una gestione inefficace della problematica e una scarsa capacità di riconoscere narrazioni dannose. Tale dato solleva interrogativi sull’adeguatezza degli algoritmi utilizzati, che non riescono a discernere variazioni linguistiche significative all’interno dei messaggi, addomesticando la loro capacità di identificare la disinformazione in modo coerente e sistematico.
Un aspetto critico emerso dal rapporto è come i post contenenti affermazioni false, anche se riformulati, non siano stati adeguatamente contrassegnati. Questo ha comportato che, anche in presenza di etichette informative per alcune affermazioni, il numero elevato di contenuti non corretti rimanesse elusivo, aggravando la situazione della disinformazione sulla piattaforma.
Inoltre, la ricerca ha evidenziato come Meta abbia marcato alcuni contenuti con l’etichetta di disinformazione, ma abbia trascurato un gran numero di altri post con il medesimo significato. Questo disallineamento tra etichettatura e contenuti disinformativi conferma la fugacità del controllo sulla diffusione delle informazioni false e il rischio forense di un approccio unidimensionale nel contrasto alla disinformazione.
La relazione di NewsGuard offre una panoramica essenziale sul panorama della disinformazione e pone in evidenza le inefficienze strutturali del sistema di Meta, una problematica che potrebbe amplificarsi ulteriormente con la decisione di dismettere il programma di verifica attuale. L’incapacità di un monitoraggio robusto potrebbe avere ripercussioni significative non solo sulle dinamiche interne della piattaforma, ma anche sulla percezione pubblica e sulla fiducia degli utenti verso Meta.
Cause della mancata individuazione della disinformazione
Le lacune nel programma di verifica dei fatti di Meta sono attribuibili a vari fattori che compromettono la capacità dell’azienda di gestire in modo efficace la disinformazione. Secondo il rapporto di NewsGuard, uno dei motivi principali è l’incapacità dell’algoritmo di Meta di riconoscere le varianti linguistiche, come il riformulare o il parafrasare, quando un post è rilevato come disinformativo. Ciò porta a una situazione in cui il fallimento nel contrassegnare un contenuto persiste anche con ripetizioni del medesimo claim sotto forme diverse.
In 10 dei 30 casi analizzati, NewsGuard ha notato che, mentre Meta ha etichettato alcuni post come disinformativi, numerosi altri che propagavano lo stesso messaggio, seppur con parole diverse, non sono stati corretti. Questa inefficacia pone in evidenza un grave problema nel sistema di controllo di Meta, che non si distingue abbastanza per affrontare le variazioni di contenuto che mantengono la sostanza del messaggio disinformativo.
In aggiunta, l’analisi ha rivelato che, nonostante alcuni successi sporadici nel rilevare contenuti malevoli — ad esempio, nel caso dell’affermazione disinformativa russa riguardante le elezioni in Germania — molti altri post sono sfuggiti completamente al processo di verifica. Questo indica non solo un problema di rilevamento, ma anche di follow-up e monitoraggio proattivo dei contenuti che circolano sulla piattaforma.
Le limitazioni del programma di verifica non si fermano qui; c’è anche la preoccupazione che, con la nuova iniziativa di Meta volto a implementare note della comunità, la qualità della verifica potrebbe addirittura deteriorarsi ulteriormente. Se il processo per applicare queste note è simile a quello già utilizzato per le etichette di disinformazione, ci si aspetta che i risultati siano ancora più deludenti.
La scoperta di NewsGuard suggerisce che la strategia esistente di Meta, basata su tecnologie di intelligenza artificiale e algoritmi predittivi, non è adeguata a fronteggiare la complessità della disinformazione che circola sulle sue piattaforme. Questo richiama l’attenzione sull’importanza di perfezionare le tecnologie impiegate e di investire in metodologie di controllo più robusti, affinché possano affrontare l’evoluzione continua delle narrazioni ingannevoli.