L’ascesa del dubbio profondo
Negli ultimi anni, il panorama dell’informazione è stato profondamente trasformato dall’avvento della tecnologia AI, portando con sé una nuova era di scetticismo e incertezza. La società si trova ad affrontare un fenomeno noto come “dubbio profondo”, una forma di scetticismo che si nutre della capacità delle tecnologie di generazione artificiale di creare contenuti falsificati ma incredibilmente realistici. Questo nuovo tipo di dubbio viene alimentato anche dall’aumento delle comunicazioni sui social media, dove le immagini generate dall’AI si sovrappongono a quelle autentiche, generando confusione e disorientamento.
Questo scetticismo non è affatto una novità; infatti, la scomparsa dei riferimenti a verità consolidate nell’informazione ha origini antiche. Tuttavia, la rapidità con cui stiamo assistendo a questa evoluzione è senza precedenti. Dalla prima apparizione del termine “deepfake” nel 2017, è stato possibile constatare un’accelerazione nei sistemi di creazione di media sintetici che ha reso più facile la diffusione di informazioni false. Le conseguenze sono tangibili e stanno già influenzando eventi politici e sociali contemporanei.
Attualmente, chiunque possa accedere a strumenti AI ha la possibilità di generare video, audio o immagini che sfidano la nostra comprensione tradizionale della verità. Ciò ha portato a situazioni in cui affermazioni incredibili, come quelle dei teorici della cospirazione, possono apparentemente avere una legittimità, poiché le tecnologie digitali consentono di negare evidenze documentali in maniera sempre più convincente. In un contesto dove l’informazione deve essere costantemente scrutinata, il dubbio profondo agisce da danno collaterale, distruggendo la possibilità di un consenso veritiero nelle discussioni pubbliche.
Siamo quindi testimoni di un nuovo paradigma informativo, in cui scetticismo e verità coesistono in un delicato equilibrio, influenzando il nostro modo di percepire non solo i media ma anche la realtà che ci circonda.
Il fenomeno dei deepfake
I deepfake sono una manifestazione tangibile di questa nuova era di dubbio profondo. La loro origine risale a una comunità online che ha sfruttato algoritmi di deep learning per alterare video e immagini in modo da sostituire i volti o le voci delle persone. Da un semplice esperimento su Reddit, il fenomeno si è evoluto rapidamente, coinvolgendo non solo pornografia, ma anche contenuti politici e sociali, amplificando la portata delle conseguenze. Da quel momento, gli strumenti per generare questo tipo di contenuto si sono resi sempre più disponibili, tanto che chiunque abbia accesso a tecnologie di sintesi può creare contenuti ingannevoli, dando origine a una nuova ondata di disinformazione.
Questo sviluppo ha reso il confine tra realtà e finzione sempre più sfocato. I deepfake ora vengono utilizzati per diffondere notizie false, intrattenere e persino come strumenti per la manipolazione politica. Situazioni in cui figure pubbliche sono ritratte in atteggiamenti compromettenti o dichiarazioni false alimentano sfiducia e confusione, e queste narrazioni possono diffondersi rapidamente attraverso i social media, aggravando ulteriormente il problema.
Il termine “deepfake” è diventato sinonimo di una nuova era di sacrilegio della verità, ove la manipolazione della realtà non solo abbatte la fiducia nel contenuto online ma mette in discussione la validità delle prove documentali. La capacità di alcuni individui di affermare che una registrazione audio o un video siano falsificati, in assenza di prove concrete, ha aperto la porta a un uso distorto della tecnologia, chiamato “dividendo del bugiardo”. Qui, le persone possono sostenere che le prove autentiche siano in realtà generate dall’AI, gettando così ombre su fatti storici o atti legali.
Le conseguenze di questa alluvione di contenuti profondamente falsificati si fanno sentire in vari ambiti, da quelli legali a quelli sociali, creando una cultura di sospetto e sfiducia. La velocità e l’efficacia con cui i deepfake possono provocare dubbi sulla verità richiedono un’attenzione particolare e misure preventive adeguate per salvaguardare l’integrità informativa in questa nuova era mediatica.
L’impatto del dubbio profondo sulla società
Il dubbio profondo ha conseguenze significative che si estendono ben oltre il semplice scetticismo nei confronti dei contenuti online. In effetti, l’emergere di questo fenomeno ha il potere di influenzare settori cruciali della vita pubblica e privata, dalla politica alla giustizia, fino alla nostra comprensione condivisa della storia. Il crescente uso delle tecnologie di generazione AI ha provocato un’onda di sfiducia che intacca le fondamenta della nostra società, consentendo a chiunque di rifiutare documentazione autentica che non si allinei con le proprie convinzioni o agende.
Per esempio, nei tribunali, i giuristi stanno già affrontando il rischio che i deepfake possano essere usati per introdurre falsi in un contesto legale. La possibilità di produrre prove manipolate mette in discussione l’integrità di interi sistemi giudiziari, poiché gli avvocati e i giudici devono ora esercitare un’attenzione ancora maggiore nell’autenticare i materiali presentati. Durante una riunione del Comitato consultivo sulle regole sulle prove del Congresso degli Stati Uniti, i giudici hanno riconosciuto la pressione crescente per adattare le norme relative all’evidenza digitale, ma hanno anche espresso preoccupazione per le complicazioni introdotte dalla tecnologia AI. Questo scenario mette in luce la vulnerabilità del sistema legale di fronte a prove che possono essere tanto credibili quanto fittizie.
In un contesto più ampio, il dubbio profondo incide sulla nostra comprensione collettiva degli eventi storici. Man mano che contenuti profondamente falsificati si diffondono, la nostra capacità di determinare ciò che è realmente accaduto può venirne minata, minacciando la validità di racconti storici consolidati e influenzando la formazione dell’opinione pubblica. Ciò porta a una cultura di disillusione e disorientamento, in cui le persone diventano sempre più propense a fidarsi delle proprie interpretazioni soggettive della verità piuttosto che a cercare conferme basate su evidenze concrete.
In definitiva, l’impatto del dubbio profondo sulla società è un fenomeno complesso e ramificato, capace di riunire problemi legati alla diffusione di disinformazione, alla fiducia pubblica e alla validità delle prove. La necessità di affrontare queste sfide è fondamentale per ripristinare fiducia nei media e nel contenuto informativo in un’epoca in cui le tecnologie di manipolazione sono facilmente accessibili a chiunque. Solo attraverso una maggiore consapevolezza e strategie mirate possiamo sperare di affrontare efficacemente questo nuovo paradigma informativo.
Contrasto al dubbio profondo: l’importanza del contesto
Tutta la significanza deriva dal contesto. In un certo senso, creare una propria rete interconnessa di idee è il modo in cui diamo un senso alla realtà. Considerare qualsiasi idea isolatamente, senza comprendere come si colleghi concettualmente al mondo esistente, è privo di significato. In quest’ottica, tentare di autenticare un artefatto mediatico potenzialmente falsificato in isolamento non ha molto senso.
Nel corso della storia, storici e giornalisti hanno dovuto valutare l’affidabilità delle fonti in base alla provenienza, al contesto e ai motivi del messaggero. Ad esempio, immaginate un documento del XVII secolo che apparentemente fornisce prove chiave su un processo reale. Per determinarne l’affidabilità, gli storici esaminerebbero la catena di custodia, oltre a verificare se altre fonti riportano le stesse informazioni. Dovrebbero anche controllare il contesto storico per verificare se esiste un documento storico contemporaneo a quello in esame. Questo requisito non è magicamente cambiato nell’era dell’AI generativa.
Di fronte alle crescenti preoccupazioni riguardanti i contenuti generati dall’AI, diverse strategie consolidate di educazione ai media possono aiutare a verificare l’autenticità dei media digitali. Quando valutiamo la veridicità dei media online, è importante fare affidamento su più fonti di corroborazione, in particolare quelle che mostrano lo stesso evento da angolazioni diverse nel caso dei media visivi o riportati da molteplici fonti credibili nel caso di testi. È utile anche rintracciare il reporting originale e le immagini provenienti da account verificati o siti ufficiali anziché fidarsi di screenshot potenzialmente modificati che circolano sui social media. Le informazioni provenienti da resoconti di testimoni e organizzazioni giornalistiche rispettabili possono fornire ulteriori prospettive per aiutarti a cercare incoerenze logiche tra le fonti.
In generale, si raccomanda di affrontare le affermazioni di manipolazione AI con scetticismo, considerando spiegazioni più semplici per elementi insoliti nei media prima di saltare a conclusioni sull’intervento dell’AI, che possono adattarsi a una narrativa soddisfacente (attraverso il bias di conferma) ma fornirti un’impressione errata.
Strumenti per una rilevazione affidabile
È evidente che le strategie suggerite per contrastare il dubbio profondo non includono watermark, metadati o strumenti di rilevazione AI come soluzioni ideali. Questo perché la fiducia non deriva intrinsecamente dall’autorità di uno strumento software. Sebbene l’AI e i deepfake abbiano accelerato significativamente il problema, la necessità di trovare fonti affidabili di informazione sugli eventi che non abbiamo vissuto direttamente è un’esigenza antica quanto la storia stessa.
Dal lancio di Stable Diffusion nel 2022, si è spesso discusso delle preoccupazioni relative ai deepfake, incluse le loro potenzialità di erodere la fiducia sociale, degradare la qualità delle informazioni online introducendo rumore, alimentare molestie online e, possibilmente, distorcere il record storico. Ad oggi, la rilevazione affidabile della sintesi AI rimane un problema irrisolto, con la tecnologia di watermarking frequentemente considerata inaffidabile e gli sforzi di tagging dei metadati non ancora adottati in modo ampio.
Sebbene esistano strumenti di rilevazione AI, sconsigliamo fortemente il loro utilizzo, poiché attualmente non si basano su concetti scientificamente provati e possono produrre falsi positivi o negativi. Al contrario, cercare manualmente segnali rivelatori di incoerenze logiche nel testo o difetti visivi in un’immagine, come identificato da esperti affidabili, può essere più efficace. È probabile che nel prossimo futuro, artefatti digitali sintetizzati di alta qualità siano completamente indistinguibili da quelli creati dagli esseri umani, il che significa che potrebbe non esserci un modo automatizzato affidabile per determinare se un artefatto creato in modo convincente sia stato prodotto da un umano o da una macchina, solo guardando un singolo pezzo di media in isolamento.
Nel corso della storia, qualsiasi forma di media registrata è stata suscettibile di contraffazioni. Dall’invenzione della fotografia, non siamo mai riusciti a fidarci completamente dell’output di una camera: la camera può mentire. La percezione della realtà obiettiva catturata attraverso un dispositivo è una fallacia: le immagini sono sempre state soggette a inquadrature selettive, contesti fuorvianti o manipolazioni. In ultima analisi, la nostra fiducia in ciò che vediamo o leggiamo dipende da quanto fidiamo nella fonte.
In alcuni modi, l’era del dubbio profondo si estende indietro nella storia profonda. La sorgente credibile e affidabile è il nostro strumento più critico nella determinazione del valore delle informazioni, e questo è vero tanto oggi quanto nel 3000 a.C., quando gli esseri umani iniziarono a creare registrazioni scritte.