Home / Macroambiente / Deepfake: i video fasulli sul web tra conseguenze e possibili soluzioni

Deepfake: i video fasulli sul web tra conseguenze e possibili soluzioni

Deepfake: i video fasulli sul web tra pericoli e soluzioni

I deep fake sono dei video che ricreano discorsi o eventi mai accaduti realmente: ecco i pericoli della proliferazione di questi contenuti.

«Stiamo entrando in un’era nella quale i nostri nemici possono far dire qualsiasi cosa, a chiunque, in qualsiasi momento» ha affermato Barack Obama in un video deepfake : in realtà, appunto, l’ex Presidente degli Stati Uniti non ha mai detto una cosa simile, poiché si è trattato semplicemente di un video fasullo. Da video porno mai girati a discorsi politici mai tenuti, i deepfake consentono letteralmente di mettere le parole in bocca a qualcuno“, come è stato fatto per esempio con il video “contraffatto” di Obama, ideato dall’attore e regista Jordan Peele per aumentare la consapevolezza sulla circolazione di questi contenuti in rete.

Un “livello avanzato” di fake news è quello offerto dai deepfake e da chi sfrutta la tecnologia di deep learning (in italiano “apprendimento profondo”) per creare dei contenuti video falsi. Si tratta di una tecnologia che, oltre ad aver coinvolto diverse celebrità, ha anche messo in allerta le autorità statunitensi che temono le implicazioni che potrebbe avere durante le prossime elezioni, in termini di aumento della disinformazione. Il problema però riguarda tutti, poiché con l’esistenza di software sempre più facili da utilizzare diventa semplice creare dei deepfake fai da te“, usando il volto di qualsiasi persona. Com’è allora vivere in un mondo in cui non possiamo più fidarci di ciò che vediamo o ascoltiamo?

You Won’t Believe What Obama Says In This Video! 😉
You Won’t Believe What Obama Says In This Video! 😉

deepfake: i video fasulli alla portata tutti

Quando nel 2012 Scarlett Johansson è stata informata sulla condanna dell’hacker che aveva rubato e diffuso le sue fotografie più intime in rete non avrebbe mai immaginato che nell’arco di pochi anni si sarebbe ritrovata in mezzo a una battaglia contro l’uso del suo volto in video porno apparentemente autentici, realizzati grazie all’intelligenza artificiale. Infatti, molti dei video falsi che circolano online riprendono il volto di celebrità che diventano protagonisti di video erotici, senza il loro consenso.

Il primo caso noto, riportato da Motherboard, è quello di un utente di Reddit (piattaforma di social news e intrattenimento), il cui username era “Deepfakes“, che ha iniziato a condividere contenuti porno fake sul forum di Reddit, ritoccati con il volto di celebrità come Taylor Swift, Scarlett Johansson e Gal Gadot. Mantenendo sempre l’anonimato, l’utente Deepfakes ha utilizzato dei software open-source di intelligenza artificiale, Google’s Tensor Flow, uno strumento messo a disposizione di tutti, gratuitamente, da Google. Va aggiunto poi che esistono software come Adobe Tool che consentono di riprodurre la voce di una persona, con la possibilità così di farle dire qualsiasi cosa.

Sembra che la tecnologia in questione sia relativamente semplice e accessibile a chiunque abbia piccole conoscenze di deep learning. Il tutto è stato reso ancora più facile da un’applicazione creata da un altro utente Reddit (con username “Deepfaceapp”), che consente agli utenti di creare i propri video sostituendo i volti, per poi condividerli online. In un’intervista a Motherboard, l’utente ha ammesso l’intenzione di rendere l’app ancora più facile da utilizzare.

Grazie a questa tecnologia è attualmente possibile diventare protagonista di un film hot: utilizzando la funzionalità messa a disposizione dal sito porno Naughty America è possibile caricare le proprie immagini e inserirle in scene porno realizzate da attori professionisti e scelte dagli utenti che ovviamente devono fornire il proprio consenso.  Seppure Naughty America sostiene che tale scelta aziendale sia una possibilità di «personalizzare i contenuti con il deep learning», ricevendo il consenso di ogni utente, si rischia comunque che ci siano risvolti “meno legali”, come per esempio pratiche di revenge porn e di ricatto da parte di chi, avendo accesso a foto private di qualcuno, potrebbe caricarle illecitamente.

Le “vittime” dei deepfake: i casi più noti

«La realtà è che cercare di proteggersi da Internet e dalla sua depravazione è una causa persa, in linea di massima», ha affermato Scarlett Johansson sull’impossibilità di fermare la creazione di video fake che sfruttano la sua immagine. Uno di questi video (a sfondo sessuale) è stato visualizzato oltre un milione e mezzo di volte, un numero che fa riflettere sul potenziale danno generato dalla creazione e dalla condivisione, priva di consenso, di deepfake online e sulla difficoltà di combattere il problema. Tra le attrici che sono state vittime di un uso improprio della propria immagine per la realizzazione di contenuti pornografici fake ci sono Emma WatsonMaisie WilliamsSophie Turner e Daisy Ridley.

Anche questi video, però, possono essere creati per fini di intrattenimento, vedendo così nascere contenuti divertenti. È il caso dei video che mostrano l’attore Nicholas Cage in ruoli che non ha mai interpretato.

Nick Cage DeepFakes Movie Compilation
Nick Cage DeepFakes Movie Compilation

politica, disinformazione e teorie della cospirazione

Oltre ai video con protagonista l’ex Presidente Obama (uno creato dall’Università di Washington), è stato anche diffuso nel maggio del 2018 il deepfake di un discorso di Donald Trump in cui consigliava al popolo belga di ritirarsi dall’Accordo di Parigi sul clima e di «non essere ipocrita». Il video, creato da un partito politico belga (Socialistische Partij Anders), ha generato un’ondata di commenti da parte dei cittadini belgi che hanno creduto all’autenticità del discorso (non badando tuttavia alla scarsa qualità del montaggio).

Teken de Klimaatpetitie

Trump heeft een boodschap voor alle Belgen…www.s-p-a.be/klimaatpetitie #KlimaatPetitie

Posted by Vooruit on Saturday, May 19, 2018

Video come questi accrescono il timore della proliferazione di fake news (e nello specifico di fake video) e del rischio per le democrazie a causa di un utilizzo errato dell’intelligenza artificiale. La Commissione Transatlantica per l’Integrità delle elezioni ha espresso infatti la propria preoccupazione riguardo all’interferenza di questo tipo di contenuti fake sui risultati delle elezioni americane del 2020.

Se si considera poi che esistono correnti di pensiero come il negazionismo – secondo cui determinati eventi storici come l’olocausto non sono accaduti, andando contro ogni evidenza e prova –, quali fenomeni sociali potrebbero emergere in un mondo in cui video di questo genere rischiano di diventare sempre più comuni?

Come fatto notare dalla CNN, anche se gli esperti affermano che la tecnologia in questione non sia ancora in grado di ricreare dei conflitti o degli eventi storici di grandi dimensioni, è possibile che la diffusione di un singolo deepfake davvero convincente possa in qualche modo intaccare seriamente la fiducia della società nell’affidabilità di contenuti audio e video che circolano online, specie di quelli pubblicati da testate rinomate o dalle autorità governative, con serie conseguenze come la proliferazione di teorie della cospirazione sui più svariati argomenti e la diffusione di fake news di ogni tipo.

impossibile fermare la proliferazione di deepFake?

«Ogni tecnologia può essere utilizzata con cattivi intenti ed è impossibile impedire che questo succeda»: una dichiarazione, questa, poco confortante, specialmente se si considera l’ideatore del messaggio, ovvero l’autore dei deepfake di cui si è parlato sopra, diffusi su Reddit. La piattaforma in questione, però, ha adottato delle misure per combattere il problema, bandendo gli account che condividono contenuti porno senza il consenso dei soggetti coinvolti, compresi quelli creati con il ricorso all’intelligenza artificiale. Tuttavia, la misura preventiva adottata non comprende tutte le forme di deepfake, ma solo i contenuti per adulti” e quindi video come quelli di Nicholas Cage (nonostante il mancato consenso) restano liberamente online.

Con l’evolversi di tale tecnologia, comunque, si sviluppano sempre più anche soluzioni per combattere eventuali conseguenze: nel settembre del 2018, per esempio, un gruppo di ricercatori dell’Università di Albany a New York ha sviluppato un nuovo metodo per identificare i video fasulli, monitorando il battito di ciglia dei protagonisti (effettuato dagli esseri umani ogni 2-10 secondi circa) e di cui nei deepfake di solito non c’è traccia.

Forse però la soluzione al problema non può essere meramente tecnologica, come ha affermato Alex Champandard, esperto di intelligenza artificiale, in un’intervista a The Verge: «bisogna lavorare sulla costruzione della fiducia nei rapporti, compreso quello con i giornalisti e i media, con le case editrici e con qualsiasi altro creatore di contenuto». In questo senso, la soluzione risiede più che altro in un lavoro di educazione (e rieducazione) all’uso e al potenziale della tecnologia, ma anche al consumo di informazione: è necessario aiutare il pubblico a diventare in grado di comprendere quando credere o meno a ciò che si vede o si ascolta.

© RIPRODUZIONE RISERVATA È vietata la ripubblicazione integrale dei contenuti

Resta aggiornato!

Iscriviti gratuitamente per essere informato su notizie e offerte esclusive su corsi, eventi, libri e strumenti di marketing.

loading
MOSTRA ALTRI