Instagram al centro di una causa sulla dipendenza dai social

Il caso californiano sui social media e la salute mentale
In California è in corso un procedimento che potrebbe ridefinire il rapporto tra piattaforme digitali, minori e responsabilità delle big tech. Decine di azioni civili contro Meta, TikTok, Snap e Google sono state accorpate in un Multidistrict Litigation federale, strumento che consente di coordinare prove e decisioni su cause simili intentate in Stati diversi.
All’interno di questo MDL alcuni casi pilota – i cosiddetti bellwether trials – orienteranno gli esiti degli altri procedimenti. Uno di questi è la causa avviata da una ventenne indicata come KGM, che accusa le piattaforme di aver inciso in modo significativo sul proprio benessere psicologico.
L’udienza dell’11 febbraio a Los Angeles, con l’escussione del Ceo di Instagram Adam Mosseri, è diventata il simbolo di uno scontro più ampio: non solo sulla sicurezza dei minori online, ma sul modello di business stesso dei social.
Come funziona il Multidistrict Litigation negli Stati Uniti
Il MDL federale accentra davanti a un solo giudice centinaia di cause analoghe, evitando decisioni contraddittorie e duplicazioni di prove. I casi pilota selezionati producono sentenze e soprattutto accordi che diventano riferimento per migliaia di ricorsi collegati. Nel dossier che coinvolge Meta, TikTok, Snap e Google il tema non è solo il contenuto ospitato, ma se gli algoritmi siano progettati per massimizzare l’engagement a discapito della salute mentale, soprattutto dei minori, con il rischio di aprire la strada a risarcimenti miliardari e cambi strutturali ai prodotti.
Il ruolo strategico della causa KGM
La causa avviata dalla ventenne identificata come KGM è uno dei casi bandiera del MDL. Gli avvocati sostengono che le piattaforme abbiano creato un ambiente digitale in cui il tempo trascorso online e l’esposizione a contenuti sensibili sarebbero stati incentivati da scelte tecniche consapevoli. Le allegazioni invitano il tribunale a valutare se le imprese avessero conoscenza del potenziale impatto sui giovani e se abbiano dato priorità al profitto rispetto alla sicurezza. L’esito potrà influenzare non solo le altre azioni statunitensi, ma anche la regolazione globale dei social.
Le dichiarazioni di Adam Mosseri e la linea difensiva di Meta
Davanti al tribunale di Los Angeles, Adam Mosseri ha respinto l’idea che Instagram possa generare una vera dipendenza in senso medico. Ha riconosciuto l’esistenza di “usi problematici” della piattaforma, in particolare per gli utenti che vi trascorrono più tempo di quanto desiderino e che sviluppano disagio o malessere, ma ha negato un nesso causale diretto con disturbi clinici come depressione o ansia.


Mosseri ha sottolineato che non esiste, a oggi, letteratura scientifica univoca che provi una “dipendenza da Instagram” e che molte funzionalità ritenute critiche, come alcuni filtri di bellezza, sono state riviste o rimosse. La strategia di Meta punta a dimostrare attenzione al tema della salute mentale, senza ammettere responsabilità strutturali nel design del prodotto.
La testimonianza, insolita per un top manager, indica che l’azienda considera il procedimento un potenziale precedente di portata globale.
Uso problematico, filtri e salute mentale
Nel suo intervento, Adam Mosseri ha distinto tra uso intenso e vera dipendenza: restare connessi più del desiderato, secondo il Ceo, può generare disagio ma non equivale a una patologia certificata. Ha ammesso che alcune funzionalità, in particolare i filtri di bellezza, possono incidere sull’autopercezione e sull’umore, e che una parte di questi strumenti è stata già rimossa o limitata su Instagram. Ha anche riconosciuto la necessità di un dibattito pubblico sugli effetti dei social su ansia e benessere emotivo, ribadendo però che non vi sarebbero prove scientifiche conclusive di un legame causale diretto tra l’app e depressione clinica.
Strumenti di tutela e test sulle nuove funzionalità
A difesa di Meta, Mosseri ha illustrato i meccanismi introdotti per mitigare i rischi: test interni sulle novità prima del rilascio, restrizioni ai contenuti per adulti, limitazione delle notifiche nelle ore notturne e sistemi per identificare utenti vulnerabili. Le piattaforme di Meta – da Instagram a Facebook, fino a Threads e WhatsApp – vengono presentate come ambienti in evoluzione continua, con interventi correttivi progressivi. Questa narrativa punta a mostrare una gestione responsabile del prodotto, in linea con le aspettative dei regolatori e dei tribunali, pur senza riconoscere che il modello di engagement sia, di per sé, problematico.
Implicazioni globali e reazioni di Europa e Italia
Il procedimento californiano non è un fenomeno isolato ma un tassello di una pressione regolatoria crescente sui social media a livello globale. In Europa, azioni collettive, istruttorie e multe si concentrano sull’applicazione dei regolamenti esistenti – dal Digital Services Act alla normativa su privacy e tutela dei minori – con un focus su trasparenza algoritmica, moderazione dei contenuti e limiti alla profilazione.
Paesi come Australia, Brasile e Canada hanno scelto strade più vicine alle class action, contestando non solo violazioni puntuali ma l’intero impianto di funzionamento delle piattaforme. Anche l’Italia è parte del quadro, con iniziative giudiziarie che mirano a ridefinire standard minimi di protezione per gli utenti più giovani.
Gli esiti del caso Mosseri e del MDL statunitense potrebbero diventare riferimento per giudici e autorità di vigilanza in altri ordinamenti, accelerando una convergenza internazionale sulle regole del digitale.
Azioni collettive e tutele richieste in Italia
In Italia diverse associazioni genitoriali e familiari hanno promosso un’azione contro Facebook, Instagram e TikTok davanti al Tribunale delle imprese di Milano. La prima udienza, prevista per il 12 febbraio, è stata rinviata al 14 maggio a causa di problemi nelle notifiche legali nel Regno Unito. Le richieste principali riguardano tre fronti: verifica effettiva dell’età degli utenti, informazione chiara sui rischi per la salute connessi all’uso intensivo delle piattaforme, rinuncia alle tecniche di design ritenute idonee a favorire forme di dipendenza comportamentale. L’iniziativa si inserisce in un contesto segnato dall’allarme di pediatri e psicologi sull’esposizione precoce a smartphone e social.
Dal profitto alla responsabilità: il nodo del modello di business
Al centro dei procedimenti californiani e delle azioni in altri Paesi non c’è solo la possibilità di accedere a contenuti inappropriati o lo scroll infinito, ma l’ipotesi che le piattaforme abbiano volutamente ottimizzato algoritmi e interfacce per aumentare il tempo di permanenza, privilegiando il profitto rispetto alla sicurezza. I giudici sono chiamati a stabilire se questa logica integri una forma di responsabilità civile aggravata, soprattutto in presenza di utenti minorenni. Una eventuale condanna o accordo di rilievo potrebbe imporre modifiche strutturali: limiti più stringenti alla profilazione dei minori, obblighi di valutazione d’impatto sulla salute mentale e nuove metriche di performance aziendale non basate solo sull’engagement.
FAQ
Cosa sono le cause riunite nel Multidistrict Litigation
Il Multidistrict Litigation è un procedimento federale statunitense che accorpa numerose cause simili davanti a un solo giudice, per coordinare prove, ridurre costi e ottenere decisioni coerenti, pur mantenendo formalmente distinti i singoli procedimenti.
Perché è rilevante la testimonianza di Adam Mosseri
È raro che un Ceo come Adam Mosseri deponga in aula negli Stati Uniti: la sua presenza segnala che il caso tocca decisioni strategiche di alto livello e può creare un precedente per l’intero settore dei social media.
Instagram viene accusato di creare dipendenza
Le cause sostengono che funzionalità e algoritmi di Instagram incentivino un uso eccessivo, specie tra i giovani. Mosseri nega l’esistenza di una “dipendenza” in senso medico e afferma che non ci sono prove scientifiche definitive in tal senso.
Quali misure di tutela dichiara di adottare Meta
Meta rivendica test preventivi sulle nuove funzioni, la rimozione di alcuni filtri di bellezza, la limitazione dei contenuti per adulti, il silenziamento notturno delle notifiche e strumenti interni per individuare utenti vulnerabili e intervenire in modo mirato.
Cosa chiedono le associazioni italiane ai social
Le associazioni italiane domandano verifiche efficaci dell’età, informazioni esplicite sui rischi per la salute mentale e l’abbandono di tecniche di design che possano favorire comportamenti compulsivi o dipendenti, in particolare tra i minorenni.
Come si stanno muovendo Europa e altri Paesi
L’Europa utilizza regolamenti come il DSA per imporre trasparenza e limiti alla profilazione, mentre Australia, Brasile e Canada hanno intrapreso azioni più vicine alle class action, contestando il cuore del modello di business delle piattaforme.
Quali potrebbero essere gli impatti per gli utenti
In caso di decisioni sfavorevoli alle big tech, gli utenti potrebbero vedere più avvertenze sui rischi, limiti all’uso di alcune funzioni, maggiore controllo genitoriale e una riduzione delle logiche di engagement estremo, specie sugli account dei minori.
Qual è la fonte principale di queste informazioni
Le informazioni sull’udienza a Los Angeles, sulla causa KGM e sulle dichiarazioni di Adam Mosseri derivano dall’articolo originale analizzato, pubblicato dalla testata italiana che ha ricostruito il procedimento californiano e le iniziative giudiziarie collegate.
DIRETTORE EDITORIALE
Michele Ficara Manganelli ✿
PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI
Per acquistare pubblicità CLICCA QUI
Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI



