Come l’IA sta alterando la fotografia con gravi ricadute nel mondo reale: la ricerca #nofilter
Le nostre impressioni sul mondo sono fortemente influenzate dalle immagini che vediamo online. La fotografia digitale è cresciuta con la diffusione degli smartphone nei primi anni del 2010; oggi gli utenti di Snapchat creano 3 miliardi di scatti ogni giorno e ogni giorno piacciono 3,5 miliardi di post su Instagram, molti dei quali filtrati e migliorati.
Chiunque abbia uno smartphone può produrre immagini ottimizzate che solo pochi anni fa potrebbero ottenere solo fotografi e ritoccatori professionisti.
Distorciando sistematicamente le immagini che vediamo e creiamo, l’IA sta spostando le percezioni e alla fine sta cambiando la nostra relazione con il mondo fisico
Tuttavia, manipolazione fotografica su questa scala significa che anziché utilizzare la fotografia per riflettere il mondo che ci circonda, stiamo sistematicamente distorcendo il nostro record del mondo. La fotografia serve sempre più a rappresentare una versione idealizzata della nostra vita, e questo ha un prezzo.
“Sappiamo che le immagini false possono alterare ciò in cui crediamo sul passato, ciò che ricordiamo del passato e persino le nostre intenzioni future”, afferma il dott. Kim Wade, psicologo dell’Università di Warwick e specialista in fotografia e memoria. “L’atto di migliorare sistematicamente le immagini potrebbe cambiare la nostra prospettiva del passato e, in definitiva, il nostro rapporto con la realtà.”
Mentre gli algoritmi hanno sempre migliorato automaticamente la saturazione e il contrasto delle immagini digitali, l’introduzione dell’apprendimento automatico è stata una svolta. La formazione che comprende milioni di immagini può insegnare ai telefoni con fotocamera a riconoscere che tipo di scene stanno fotografando e quali caratteristiche dell’immagine sono desiderabili o meno.
Lo smartphone Huawei P30 è in grado di riconoscere oltre 1.500 scene e applicare automaticamente impostazioni ottimizzate. Se il telefono rileva un ritratto, leviga la pelle, sfoca lo sfondo e applica un’illuminazione più lusinghiera.
La maggior parte degli smartphone attuali applicherà anche il rendering ad alta definizione (HDR). Se il telefono rileva una scena ad alto contrasto, con troppe ombre o non abbastanza luci, scatta una serie di immagini con esposizioni diverse e le combina in una ripresa perfetta.
L’IA sta anche iniziando a selezionare le immagini per noi. La funzione Top Pixel di Google cattura 90 immagini prima e dopo aver premuto l’otturatore e seleziona la cornice che ritiene essere la migliore, in base a ciò che ha appreso dal suo set di allenamento.
Potrebbe essere il più grande sorriso o la migliore composizione classica, anche se i progettisti sono generalmente sorvegliati dal tipo di set di formazione e algoritmi che usano per modellare le immagini che scattiamo.
E poi ci sono filtri e app, usati abitualmente per rendere tutto più lucido e impressionante. La maggior parte dei telefoni sono dotati di filtri standard, come “vivido”, “drammatico” e “noir” e innumerevoli app come Snapchat e FaceApp offrono maschere che levigano la pelle, rendono gli occhi più grandi e il mento più piccolo. Alcuni tocchi possono convincere invecchiamento o ridurre i ritratti di decenni.
Le immagini in movimento possono anche essere manipolate più facilmente. Ant Man della Marvel ha interpretato un Michael Douglas invecchiato , e Orange Is the New Black di Netflix ha interpretato attori che recitavano nei loro flashback più giovani. I “deepfake” sofisticati e credibili di Mark Zuckerberg , Barack Obama e Vladimir Putin sono già stati ampiamente condivisi, mentre la Stanford University ha anche sviluppato un software che ha reso il cambiamento di ciò che la gente dice in un video facile come l’editing di testo. Anche i laici possono utilizzare software come FakeApp per scambiare i volti nei video e, se l’ultimo decennio è qualcosa da fare, questa tecnologia si diffonderà sui nostri smartphone in poco tempo.
Tuttavia, per quanto consapevoli e esigenti pensiamo di essere, la ricerca mostra che abbiamo ancora una forte propensione a credere a ciò che vediamo nelle immagini. “La nostra ricerca ha dimostrato che le persone ripongono troppa fiducia nelle foto per essere rappresentazioni affidabili del passato”, afferma Wade. “Le persone tendono ad essere troppo sicure della propria capacità di rilevare immagini false e hanno una propensione a credere che le immagini siano vere se non sono sicure. Anche le persone che modificano regolarmente le proprie foto fanno fatica a distinguere tra immagini reali e falsi. “
Essere costantemente esposti a immagini esagerate può far sembrare la vita reale deludente e deludente. Uno studio del 2017 dell’Università della California ha scoperto che più tempo le persone passano sui social media a guardare vite apparentemente perfette di altre persone, minore è la loro soddisfazione per la propria vita, incluso un effetto negativo ben documentato sulle giovani donne da immagini che rappresentano un irrealistico ideale di bellezza.
E counterintuitively, un 2016 di studio dalla University of Warwick ha scoperto che le immagini di etichettatura che mostrano una bellezza irreale ideale come “manipolato” o “maggiore” era ancora più propensi a fare i partecipanti vogliono cambiare il loro aspetto rispetto alle immagini senza etichetta. I chirurghi plastici segnalano un aumento del 47% delle procedure cosmetiche che aspirano ad assomigliare più a selfie fortemente modificati e filtrati, una condizione che viene etichettata come “dismorfia di Snapchat”.
“La standardizzazione dell’estetica mediante strumenti [come i miglioramenti dell’IA] è molto pericolosa”, afferma Constant Dullaart, un artista olandese il cui lavoro si occupa del nostro nuovo mondo digitale. È preoccupato per la normalizzazione della manipolazione digitale e che questa estetica sessista è facilitata da società a scopo di lucro il cui modello commerciale si basa sulla massimizzazione dell’impegno.
“La realtà è un costrutto e tonnellate di persone si iscrivono a una realtà che trovo opprimente”, afferma Dullaart. “Questa estetica automatizzata lo rinforza. I media stanno diventando così dominati da questo tipo di immagini. Ciò di cui ho più paura è che i bambini sentano di dover rispettare questo standard estetico, standard corporeo e standard comportamentali “.
Mentre la fotografia è sempre stata soggettiva, ha sempre contribuito a modellare la nostra comprensione del mondo che ci circonda. Una realtà condivisa è una valuta profondamente importante che ci consente di comunicare e creare significato, e se la fotografia diventa meno affidabile come mezzo, perdiamo un importante denominatore comune.
“Indipendentemente dal contenuto, le immagini manipolate si allontanano dalla nostra comprensione della realtà”, afferma Katy Cook, autrice di Ethical Threats and Emotional Unintelligence nell’industria tecnologica e fondatrice e CEO del Center for Technology Awareness , una società di consulenza etica tecnologica.
“Le immagini documentate di politici o eventi mondiali minacciano non solo di confonderci a livello sistemico, ma sono tra le minacce più gravi per la nostra democrazia. Dirci che non possiamo credere a ciò che vediamo davanti ai nostri occhi è estremamente in contrasto con la nostra evoluzione, dove contiamo sulla vista come uno dei meccanismi primari per comprendere il mondo che ci circonda. ”
“Quando questa funzione di base è compromessa da deepfake o immagini manipolate, la nostra capacità di concordare sui fatti di base diminuisce e di conseguenza la nostra coesione sociale ne risente”, continua.
Ci sono alcuni segni di un contraccolpo contro questa realtà manifatturiera, dai forti numeri di vendita delle fotocamere analogiche alle donne che condividono foto del loro #postpartumbody o che dicono al mondo di #effyourbeautystandards . Comici come Celeste Barber deridono vite “instabili”, parodia di selfie manipolati e immagini di celebrità.
E la popolarità dell’hashtag #nofilter, usato fino ad oggi per taggare più di 250 milioni di immagini su Instagram, mostra una crescente consapevolezza che Cook dice che è il primo passo per cambiare la nostra comprensione. “Consapevolezza – in questo caso, della nostra stessa vulnerabilità – dai deepfakes al software che ci spinge a cambiare il nostro aspetto a spostarci da ciò che è vero e autentico (fatti, una terra sferica, la circonferenza delle nostre cosce). Non esiste una formula in sé, ma il desiderio di cambiare, l’educazione e la pratica generalmente formano i prossimi passi. Ma la consapevolezza è sempre la prima. “