I candidati perdono credibilità usando l’IA generativa negli spot politici, studio rivela
Impatto dell’AI nei piani politici
L’intelligenza artificiale si sta preparando a influenzare significativamente le prossime elezioni presidenziali negli Stati Uniti, programmate per novembre. Con l’aumento della preoccupazione riguardo alla disinformazione, molti stati hanno già iniziato ad adottare misure legislative per affrontare il problema, introducendo normative che obbligano i candidati politici a rivelare l’uso di AI generativa nelle pubblicità. Attualmente, venti stati hanno implementato leggi in materia, sottolineando l’importanza di garantire la trasparenza per i cittadini elettori.
Questo contesto normativo è stato originato dalla necessità di proteggere gli elettori da potenziali manipolazioni tramite tecnologie avanzate, visto il crescente utilizzo di AI nei messaggi politici. Tuttavia, sono emerse reazioni contrastanti in merito all’efficacia di tali avvisi. Recenti ricerche hanno dimostrato che la semplice presenza di un disclaimer associato a un annuncio pubblicitario digitale può effettivamente compromettere la percezione di fiducia che gli elettori ripongono nei candidati.
In particolare, l’effetto negativo di questi disclaimer è stato osservato nel contesto della campagna politica, dove gli elettori tendono a reagire in modo avverso alla consapevolezza che una campagna pubblicitaria possa utilizzare l’AI per alterare la narrazione o il messaggio. Ciò solleva interrogativi sulla vera natura della comunicazione politica e su come le tecnologie emergenti possano essere vissute dai cittadini, i quali si aspettano autenticità e integrità nei contenuti che ricevono.
Le nuove legislazioni rappresentano quindi un tentativo di conciliare i benefici dell’innovazione tecnologica con la protezione dei diritti degli elettori. Tuttavia, resta da vedere se tali normative siano sufficienti a garantire una comunicazione politica genuina o se, contrariamente, possano alimentare ulteriormente il scetticismo e la sfiducia nel processo elettorale. Con l’avvicinarsi delle elezioni, è evidente che il dibattito sull’uso dell’AI nella politica è destinato a crescere e a diventare un tema centrale nell’agenda pubblica.
Reazioni negative degli elettori
La recente ricerca condotta dal Centro per la Politica della Tecnologia della New York University ha messo in luce un aspetto preoccupante riguardo l’uso dell’intelligenza artificiale nelle pubblicità politiche: la presenza di disclaimers, informando che l’AI è stata impiegata nella creazione di un annuncio, ha generato reazioni nettamente negative nei confronti dei candidati pubblicizzati. Durante lo studio, un campione di mille partecipanti è stato esposto a video pubblicitari di candidati fittizi, alcuni dei quali estremamente realistici, con accompagnamento di un disclaimer mentre altri non ne contenevano. I risultati hanno rivelato un netto calo della percezione di fiducia verso i candidati quando era presente un avviso sull’uso di AI nella creazione del contenuto.
Un elemento chiave emerso dallo studio è stato il ripudio che i partecipanti hanno manifestato nei confronti della candidatura pubblicizzata quando un disclaimer era visibile. La ricerca ha evidenziato che gli elettori tendevano non solo a considerare i candidati meno affidabili, ma anche ad esprimere una maggiore volontà di segnalare o riportare sui social media gli annunci che avvertivano dell’interazione dell’AI. L’effetto di questo stigma sembrava trasversale, influenzando negativamente sia i candidati di destra che di sinistra. Ciò potrebbe indicare una precisa avversione generale nei confronti dell’uso di tecnologie come l’intelligenza artificiale nelle pratiche comunicative politiche.
In casi di spot di attacco, i partecipanti rivelavano una maggiore tendenza a delineare opinioni negative sui candidati sponsor piuttosto che su quelli oggetto di critica. Questo fenomeno invita a riflettere su come l’uso di tecnologie avanzate, sebbene promettente in termini di creatività e innovazione, possa effettivamente generare una reazione avversa e minare il capitale di fiducia fondamentale nel contesto politico. I risultati evidenziano il rischio che, in un clima di crescente disinformazione, l’AI possa essere percepita non solo come strumento di manipolazione, ma anche come fattore di distorsione della realtà, influenzando esperienze di voto in un modo mai vissuto prima.
Nel complesso, l’esperienza dei partecipanti suggerisce che le politiche di trasparenza sull’uso dell’AI nelle pubblicità non abbiano agevolato la fiducia degli elettori. Piuttosto, potrebbero aver contribuito a un ulteriore deterioramento della percezione dei candidati, richiedendo un ripensamento strategico per i comunicatori politici nel mettere a frutto la tecnologia senza compromettere la fiducia pubblica. L’equilibrio tra innovazione e integrità risulta, quindi, cruciale nella comunicazione politica contemporanea.
Studio e metodologia
La ricerca condotta dal Centro per la Politica della Tecnologia della New York University ha utilizzato un approccio sperimentale per esplorare come i disclaims sull’uso dell’intelligenza artificiale influenzino la percezione degli elettori nei confronti dei candidati. Un campione di mille partecipanti è stato selezionato per visualizzare una serie di annunci pubblicitari provenienti da candidati fittizi. Questi annunci sono stati suddivisi in due gruppi: alcuni contenevano un disclaimer che indicava esplicitamente l’uso dell’AI nella loro creazione, mentre altri non riportavano alcuna informazione in merito all’uso delle tecnologie avanzate.
I partecipanti sono stati valutati in base alla loro reazione emotiva e cognitiva ad ogni spot. Sono stati chiesti di esprimere il loro livello di fiducia nei confronti del candidato, l’appeal complessivo dell’annuncio e la loro inclinazione a segnalare lo spot su piattaforme social in caso di percezione di disinformazione. Allo scopo di analizzare la risposta dei votanti, i ricercatori hanno utilizzato questionari standardizzati e tecniche di analisi statistica per confrontare le reazioni tra chi ha visualizzato gli annunci con e senza disclaimer.
Un aspetto distintivo dello studio è stato il confronto tra due diversi tipi di disclaimer, ispirati a normative di stati americani: la prima, basata sulla legge del Michigan, affermava che “Questo video è stato manipolato mediante mezzi tecnici e rappresenta discorsi o comportamenti che non si sono verificati.” L’altra frase, derivata dalla legge della Florida, specificava “Questo video è stato creato in tutto o in parte con l’uso di intelligenza artificiale generativa.” Tale diversificazione ha permesso ai ricercatori di esaminare anche quale formulazione fosse più efficace nel comunicare l’uso dell’AI.
Durante il processo di analisi, sono emerse informazioni significative dalle risposte degli intervistati. I dati hanno rivelato che nonostante un approccio volto alla trasparenza, la connessione tra la presenza di un disclaimer e la percezione di affidabilità nei candidati era assolutamente negativa. Questo suggerisce che la rivelazione dell’uso di AI possa ridurre il grado di fiducia, evidenziando una complessa interazione tra la tecnologia emergente ed il comportamento elettorale.
Inoltre, la metodologia ha incluso un’attenta osservazione di come gli elettori reagissero a contenuti pubblicitari, considerando elementi visivi e narrativi, nonché l’impatto di situazioni di attacco nel contesto competitivo della campagna elettorale. I risultati del progetto di ricerca hanno messo in luce non solo la fatica di persuadere gli elettori in un ambiente saturato di comunicazioni digitali, ma anche l’importanza cruciale di comprendere il ruolo dell’AI nella sorte della fiducia pubblica nei processi politici attuali.
Tipologie di disclaimer
La ricerca ha analizzato specificamente due diverse formulazioni di disclaimer che riflettono le normative vigenti in alcuni stati americani. Un disclaimer, basato sulla legge del Michigan, specificava: “Questo video è stato manipolato mediante mezzi tecnici e rappresenta discorsi o comportamenti che non si sono verificati.” Questa formulazione evidenziava la natura della manipolazione, sottolineando che il contenuto pubblicitario potrebbe non riflettere eventi reali. L’altra formulazione, ispirata alla legge della Florida, recitava: “Questo video è stato creato in tutto o in parte con l’uso di intelligenza artificiale generativa.” Quest’ultima si concentra più sull’uso di AI come strumento di creazione, e non necessariamente sugli effetti di tale manipolazione.
Questi disclaimers sono stati progettati con l’intento di garantire maggiore chiarezza e trasparenza nella comunicazione politica. Tuttavia, ciò che è emerso dal chiaro esame dei dati è che la presenza di qualsiasi disclaimer associato a un annuncio ha portato a un aumento della sfiducia nei confronti dei candidati pubblicizzati. L’idea di disclosure, mentre da un lato mira a informare, dall’altro sembra attivare un meccanismo di sfiducia nei votanti, i quali percepiscono automaticamente una potenziale manipolazione del messaggio.
Un aspetto interessante della ricerca è stato il confronto delle reazioni nei riguardi dei vari tipi di disclaimer. Nonostante le differenze nei messaggi trasmessi, entrambi i disclaimer hanno generato un impatto negativo sulla valutazione dei candidati. I partecipanti hanno espresso una preferenza per il disclaimer più generico, quello ispirato alla legge della Florida, rendendo chiaro che l’informazione sull’uso dell’AI dovrebbe, a loro avviso, essere formulata in modo più diretto e inclusivo, sebbene, paradossalmente, questa preferenza non si è tradotta in un aumento della fiducia nei politici mostrati negli annunci.
È cruciale evidenziare che la presenza di disclaimer non ha svolto il ruolo auspicato di salvaguardare la percezione di fiducia. Anzi, il 37% dei partecipanti non ricordava neppure la presenza di alcun disclaimer dopo aver visto gli annunci, suggerendo che l’efficacia di tali comunicazioni possa essere messa in discussione. Questa dimenticanza potrebbe riflettere una saturazione del messaggio pubblicitario moderno, dove milioni di informazioni e contenuti affollano le piattaforme digitali, spingendo gli utenti a sviluppare meccanismi di difesa, come la disattenzione, nei confronti di messaggi che considerano già ambigui o poco credibili.
Il fenomeno dei disclaimer quindi si rivela un’arma a doppio taglio: mentre tenta di promuovere la trasparenza e la responsabilità, in realtà può risultare controproducente, contribuendo a una percezione estesa di manipolazione e sfiducia. Queste osservazioni pongono ulteriori interrogativi sull’efficacia e sulla necessità di tali avvisi e sul modo in cui i candidati politici potrebbero dover ridefinire le loro strategie comunicative per preservare la fiducia degli elettori.
Preferenze dei partecipanti e confusione sul messaggio
Il panorama comunicativo attuale, specialmente in ambito politico, è inseparabile dall’influenza delle tecnologie emergenti, come l’intelligenza artificiale. Tuttavia, la recente ricerca ha suscitato interrogativi cruciali sulle modalità di presentazione e comprensione dei disclaimer associati a contenuti pubblicitari generati con AI. Nonostante l’intento di promuovere la trasparenza, i risultati suggeriscono che i disclaimer possono generare più confusione che chiarezza, contribuendo a una logica di disaffezione nei confronti dei messaggi politici.
Durante lo studio, i partecipanti hanno mostrato chiaramente una preferenza per il disclaimer più generico, ispirato alla legge della Florida, che fa riferimento all’uso dell’intelligenza artificiale. Tuttavia, sorprendentemente, questa preferenza non si è tradotta in un aumento della fiducia nei candidati promossi. Anzi, la presenza di un disclaimer ha portato a una netta diminuzione della valutazione positiva nei confronti dei candidati, rivelando un paradossale effetto negativo. Questo suggerisce che anche le migliori intenzioni di chiarire e informare possono essere interpretate dai consumatori come segnali di potenziale manipolazione.
Un aspetto significativo del dibattito è che molti dei partecipanti, nonostante si attendesse una maggiore consapevolezza riguardo alla tecnologia utilizzata, hanno rivelato una certa confusione rispetto al messaggio trasmesso. In particolare, il 37% dei partecipanti non ha nemmeno ricordato di aver visto un disclaimer, il che indica che il messaggio di avviso potrebbe non aver raggiunto il suo scopo. Ciò suggerisce come anche le comunicazioni più dirette possano facilmente perdersi nel caos informativo odierno, dove gli utenti sono quotidianamente bombardati da una moltitudine di contenuti.
In questo modo, l’efficacia dei disclaimer viene messa in discussione: mentre sono progettati per chiarire e garantire una comunicazione onesta, in pratica possono contribuire a una percezione più ampia di sfiducia tra gli elettori. La comunicazione politica, di conseguenza, si trova di fronte a una sfida cruciale: trovare un modo per integrare l’uso dell’AI senza compromettere la fiducia del pubblico. La dualità del messaggio, quindi, si traduce in un’opportunità persa, dove la volontà di informare viene ostacolata dalla paura di essere ridicolizzati o accusati di manipolazione.
La necessità di una maggiore chiarezza e comprensione sembra essenziale, e le proposte per riformulare i disclaimer potrebbero rappresentare una direzione promettente. Inoltre, si potrebbe riflettere su come le campagne possano riadattare le loro strategie comunicative, superando l’era del sospetto e ripristinando un dialogo più autentico con gli elettori. È evidente, quindi, che il modo in cui i candidati gestiscono la tecnologia AI e le informazioni ad essa correlate, sarà determinante su come verranno percepiti nel pantheon politico futuro.