### Rapporto di trasparenza di X dopo l’acquisizione di Elon Musk
Rapporto di trasparenza di X dopo l’acquisizione di Elon Musk
Oggi, X ha pubblicato il primo rapporto di trasparenza dall’acquisizione della compagnia da parte di Elon Musk, avvenuta nel 2022. Prima di questa acquisizione, Twitter rilasciava rapporti di trasparenza ogni sei mesi, che in gran parte coprivano gli stessi temi del nuovo rapporto di X. Questi rapporti fornivano numeri specifici riguardanti le rimozioni di contenuti, le richieste governative di informazioni e i contenuti rimossi, oltre ai dati relativi ai contenuti segnalati e, in alcuni casi, rimossi per violazione delle politiche aziendali.
L’ultimo rapporto di trasparenza disponibile da Twitter riguardava la seconda metà del 2021 ed era lungo 50 pagine. Al contrario, il rapporto di X è significativamente più breve, con solo 15 pagine, anche se le richieste governative sono elencate altrove sul sito web dell’azienda e sono state costantemente aggiornate per rimanere in conformità con vari ordini governativi.
Il confronto tra il rapporto del 2021 e il rapporto attuale di X presenta alcune sfide a causa delle modifiche nei criteri di misurazione. Nel 2021, erano stati segnalati 11,6 milioni di account, di cui 4,3 milioni erano stati “azione”, mentre 1,3 milioni erano stati sospesi. Secondo il nuovo rapporto di X, ci sono state oltre 224 milioni di segnalazioni, sia di account che di singoli contenuti, portando a 5,2 milioni di account sospesi.
Alcuni numeri rimangono costantemente elevati, come le segnalazioni di abusi e molestie. Tuttavia, ci sono differenze nette in altre aree. Ad esempio, nel rapporto 2021, gli account segnalati per contenuti di odio rappresentavano quasi la metà di tutte le segnalazioni, mentre nel nuovo rapporto di X, l’azienda ha affermato di aver preso provvedimenti solo su 2.361 account per contenuti odiosi. Ciò può essere attribuito al cambiamento delle politiche aziendali da Twitter, con modifiche significative nell’approccio alle segnalazioni di contenuti problematici.
### Cambiamenti nel contenuto e nelle politiche
Cambiamenti nel contenuto e nelle politiche
Le modifiche apportate alle politiche di X da quando Elon Musk ha assunto il controllo dell’azienda hanno avuto un impatto significativo sulla maniera in cui i contenuti vengono gestiti e moderati. Secondo Theodora Skeadas, ex membro del team di pubbliche relazioni di Twitter, i cambiamenti nelle politiche riguardanti l’odio e la disinformazione possono influenzare profondamente i dati riportati nella trasparenza. Nel corso del 2022, l’azienda ha ridotto il raggio d’azione delle sue regole contro discorsi d’odio, che un tempo includevano norme riguardanti il deadnaming e il misgendering, cambiando così come i contenuti venivano valutati e moderati.
Queste revisioni non sono state senza conseguenze. Con l’allentamento di tali politiche, alcuni contenuti, che precedentemente sarebbero stati considerati violativi, ora non ricevono più la stessa attenzione. Skeadas sottolinea che l’effetto di queste modifiche sulle esperienze degli utenti può risultare difficile da catturare in un rapporto di trasparenza. La percezione di ciò che costituisce contenuto problematico, e dunque meritevole di intervento, è mutata. Di conseguenza, il numero totale di segnalazioni di contenuti d’odio nell’ultimo rapporto di X mostra solo una frazione delle azioni intraprese rispetto ai dati precedenti.
Inoltre, la diminuzione del personale, in particolare dei team responsabili della sicurezza e delle politiche aziendali, ha complicato ulteriormente il panorama della moderazione. Con il taglio delle risorse destinate alla revisione manuale dei contenuti, il sistema automatizzato potrebbe non essere monitorato con la frequenza necessaria. Ormai, gli algoritmi potrebbero prevalere come metodo principale di moderazione, ma Skeadas avverte che questo approccio non tiene conto delle specifiche necessità di molte categorie vulnerabili come i giornalisti, le donne e le minoranze etniche e religiose, le quali in genere ricevono attenzione prioritariamente nei contesti di sorveglianza pubblica.
### Dati significativi e confronti con il passato
Il rapporto di trasparenza di X presenta dati significativi che sollevano interrogativi sulla direzione intrapresa dall’azienda sotto la guida di Elon Musk. Contrariamente ai rapporti precedenti di Twitter, il rapporto attuale mostra un incremento esponenziale nel numero di segnalazioni ricevute, passando da 11,6 milioni di account segnalati nel 2021 a oltre 224 milioni nel 2023. Questo aumento monumentale suggerisce che le attuali modalità di segnalazione e la partecipazione degli utenti siano state notevolmente ampliate.
Tuttavia, nonostante le segnalazioni siano in crescita, le azioni intraprese contro gli account problematici presentano un calo sorprendente. Mentre nel 2021 erano stati “azione” 4,3 milioni di account, di cui 1,3 milioni sospesi, il nuovo rapporto di X indica che solo 5,2 milioni di account sono stati sospesi a fronte di un volume di segnalazioni molto più alto. Questo solleva delle domande sulla capacità del team di moderazione di gestire l’aumento delle segnalazioni o sulla volontà dell’azienda di prendere misure preventive contro il contenuto problematico.
In particolare, è interessante notare che delle segnalazioni di contenuti di odio, che nel 2021 rappresentavano quasi la metà del totale, ora il numero di account presi di mira è drasticamente ridotto. Solo 2.361 account sono stati colpiti per contenuti odiosi nel rapporto attuale, evidenziando una distinzione significativa rispetto ai protocolli di enforcement precedenti.
Questi numeri possono riflettere non solo le modifiche nelle politiche di moderazione, ma anche un cambiamento nella qualità della revisione dei contenuti, influenzata dalla diminuzione delle risorse e dalla partenza di personale esperto. Gli effetti di questi cambiamenti possono rivelarsi problematici, soprattutto per le categorie che richiedono attenzione e protezione speciale all’interno della piattaforma.
### Rimozioni di contenuti e richieste governative
Il nuovo rapporto di X fornisce una panoramica sulle rimozioni dei contenuti a livello globale, delineando anche la risposta dell’azienda alle richieste governative. Sotto la direzione di Elon Musk, X ha affrontato una serie di richieste di rimozione, con un particolare focus sulle normative di vari paesi. Nel primo trimestre del 2024, X ha ricevuto quasi 10.000 richieste di rimozione di contenuti dalla Turchia, da cui ha accolto circa il 60% delle domande. Questo segnala un’elevata compliance dell’azienda con le richieste governative, in contrasto con altre giurisdizioni dove X ha resistito a rimuovere contenuti, come nel caso di richieste dal governo brasiliano riguardanti disinformazione sulle elezioni.
La capacità di X di soddisfare queste richieste è influenzata non solo dalle politiche vigenti ma anche dalla struttura stessa dell’azienda. A seguito della riduzione del personale, in particolare nei team di moderazione e di sicurezza, la gestione delle richieste governative è diventata più complessa. Musk ha enfatizzato una filosofia di “assolutismo della libertà d’espressione”, che ha generato una tensione tra l’adempimento delle richieste legali e il principio di non censura dei contenuti. Ciò ha portato a situazioni in cui X ha scelto di non rimuovere contenuti anche quando sollecitata da governi, come è avvenuto in Brasile, dove il mancato rispetto delle richieste ha comportato la sospensione temporanea della piattaforma nel paese.
Un aspetto preoccupante di questa situazione è come la diminuzione del personale possa influenzare non solo le rimozioni di contenuti ma anche il monitoraggio delle azioni automatizzate. Le richieste di rimozione, che includono contenuti potenzialmente dannosi o pericolosi, richiedono un’attenta valutazione umana, che potrebbe risultare compromessa data la riduzione delle risorse disponibili. Tali dinamiche pongono interrogativi sull’equilibrio tra libertà di espressione e protezione degli utenti, essenziale per garantire uno spazio sicuro sulla piattaforma.
Con le elezioni statunitensi ormai alle porte, l’attenzione su come X gestirà tali richieste diventa cruciale. L’azienda ha già pubblicato alcune offerte di lavoro nel campo della sicurezza e della fiducia, suggerendo che ci sono ancora tentativi di affrontare le sfide emergenti. Tuttavia, il recupero del personale e delle capacità necessarie per una moderazione efficace rimane una necessità urgente per garantire che gli utenti possano sentirsi al sicuro e rispettati su questa piattaforma.
### Impatto sulle sicurezza e liberta di espressione
La situazione attuale in X solleva importanti preoccupazioni riguardo alla sicurezza e alla libertà di espressione degli utenti. Con i cambiamenti strutturali introdotti da Elon Musk, molte delle politiche che prima garantivano una moderazione rigorosa dei contenuti sono state riviste, suscitando timori tra gli esperti sui diritti umani e la sicurezza degli utenti. La diminuzione del personale specializzato, in particolare nei team dedicati alla sicurezza e alla moderazione, ha portato a interrogativi sulla capacità di X di gestire contenuti problematici e di proteggere le categorie vulnerabili.
Theodora Skeadas, ex membro del team di pubbliche relazioni di Twitter, ha avvertito che il passaggio a una modalità di moderazione maggiormente automatizzata rischia di compromettere la sicurezza di gruppi già emarginati, come donne, minoranze etniche e religiose. Con il focus su un “assolutismo della libertà di espressione”, il rischio è che contenuti dannosi possano rimanere sulla piattaforma, minacciando il benessere degli utenti e infrangendo diritti fondamentali.
In questo contesto, la questione della responsabilità diventa cruciale. Elon Musk ha spinto per una maggiore libertà di espressione, ma questo approccio deve essere bilanciato con la necessità di creare un ambiente sicuro per tutti gli utenti. I recenti eventi, come la sospensione di X in Brasile a causa della mancanza di rimozione di contenuti ingannevoli, evidenziano le tensioni tra il rispetto delle normative locali e la difesa della libertà di espressione.
La dinamica attuale non solo influisce sulla percezione di X come piattaforma sicura ma potrebbe anche influenzare la partecipazione degli utenti. Se gli utenti percepiscono il rischio di incontrare contenuti dannosi o problematici, la loro fiducia nella piattaforma potrebbe diminuire, portando a una riduzione dell’attività e dell’interazione.
Con le elezioni statunitensi all’orizzonte, l’urgenza di affrontare questi temi diventa ancora più evidente. Gli utenti necessitano di garanzie che la loro sicurezza non venga compromessa e che la libertà di espressione possa coesistere con la protezione dai contenuti dannosi. X dovrà trovare un equilibrio per assicurare un ambiente online che sostenga sia la libertà di parola sia la sicurezza degli utenti, elementi fondamentali per il futuro della piattaforma.