Domenica 19 Maggio 2019
MacroambienteDeep fake: i video fasulli sul web tra conseguenze e possibili soluzioni

Deep fake: i video fasulli sul web tra conseguenze e possibili soluzioni

I deep fake sono dei video che ricreano discorsi o eventi mai accaduti realmente: ecco i pericoli della proliferazione di questi contenuti.


Raquel Baptista
A cura di: Raquel Baptista Autore
Deep fake: i video fasulli sul web tra conseguenze e possibili soluzioni

«Stiamo entrando in un’era nella quale i nostri nemici possono far dire qualsiasi cosa, a chiunque, in qualsiasi momento» ha affermato Barack Obama in un video deep fake: in realtà, appunto, l’ex Presidente degli Stati Uniti non ha mai detto una cosa simile, poiché si è trattato semplicemente di un video fasullo. Da video porno mai girati a discorsi politici mai tenuti, i deep fake consentono letteralmente di mettere le parole in bocca a qualcuno“, come è stato fatto per esempio con il video “contraffatto” di Obama, ideato dall’attore e regista Jordan Peele per aumentare la consapevolezza sulla circolazione di questi contenuti in rete.

Un “livello avanzato” di fake news è quello offerto dai deep fake e da chi sfrutta la tecnologia di deep learning (in italiano “apprendimento profondo”) per creare dei contenuti video falsi. Si tratta di una tecnologia che, oltre ad aver coinvolto diverse celebrità, ha anche messo in allerta le autorità statunitensi che temono le implicazioni che potrebbe avere durante le prossime elezioni, in termini di aumento della disinformazione. Il problema però riguarda tutti, poiché con l’esistenza di software sempre più facili da utilizzare diventa semplice creare dei deep fake fai da te“, usando il volto di qualsiasi persona. Com’è allora vivere in un mondo in cui non possiamo più fidarci di ciò che vediamo o ascoltiamo?

deep fake: i video fasulli alla portata tutti

Quando nel 2012 Scarlett Johansson è stata informata sulla condanna dell’hacker che aveva rubato e diffuso le sue fotografie più intime in rete non avrebbe mai immaginato che nell’arco di pochi anni si sarebbe ritrovata in mezzo a una battaglia contro l’uso del suo volto in video porno apparentemente autentici, realizzati grazie all’intelligenza artificiale. Infatti, molti dei video falsi che circolano online riprendono il volto di celebrità che diventano protagonisti di video erotici, senza il loro consenso.

Il primo caso noto, riportato da Motherboard, è quello di un utente di Reddit (piattaforma di social news e intrattenimento), il cui username era “Deepfakes“, che ha iniziato a condividere contenuti porno fake sul forum di Reddit, ritoccati con il volto di celebrità come Taylor Swift, Scarlett Johansson e Gal Gadot. Mantenendo sempre l’anonimato, l’utente Deepfakes ha utilizzato dei software open-source di intelligenza artificiale, Google’s Tensor Flow, uno strumento messo a disposizione di tutti, gratuitamente, da Google. Va aggiunto poi che esistono software come Adobe Tool che consentono di riprodurre la voce di una persona, con la possibilità così di farle dire qualsiasi cosa.

Sembra che la tecnologia in questione sia relativamente semplice e accessibile a chiunque abbia piccole conoscenze di deep learning. Il tutto è stato reso ancora più facile da un’applicazione creata da un altro utente Reddit (con username “Deepfaceapp”), che consente agli utenti di creare i propri video sostituendo i volti, per poi condividerli online. In un’intervista a Motherboard, l’utente ha ammesso l’intenzione di rendere l’app ancora più facile da utilizzare.

Grazie a questa tecnologia è attualmente possibile diventare protagonista di un film hot: utilizzando la funzionalità messa a disposizione dal sito porno Naughty America è possibile caricare le proprie immagini e inserirle in scene porno realizzate da attori professionisti e scelte dagli utenti che ovviamente devono fornire il proprio consenso.  Seppure Naughty America sostiene che tale scelta aziendale sia una possibilità di «personalizzare i contenuti con il deep learning», ricevendo il consenso di ogni utente, si rischia comunque che ci siano risvolti “meno legali”, come per esempio pratiche di revenge porn e di ricatto da parte di chi, avendo accesso a foto private di qualcuno, potrebbe caricarle illecitamente.

Le “vittime” dei deep fake: i casi più noti

«La realtà è che cercare di proteggersi da Internet e dalla sua depravazione è una causa persa, in linea di massima», ha affermato Scarlett Johansson sull’impossibilità di fermare la creazione di video fake che sfruttano la sua immagine. Uno di questi video (a sfondo sessuale) è stato visualizzato oltre un milione e mezzo di volte, un numero che fa riflettere sul potenziale danno generato dalla creazione e dalla condivisione, priva di consenso, di deep fake online e sulla difficoltà di combattere il problema. Tra le attrici che sono state vittime di un uso improprio della propria immagine per la realizzazione di contenuti pornografici fake ci sono Emma WatsonMaisie WilliamsSophie Turner e Daisy Ridley.

Anche questi video, però, possono essere creati per fini di intrattenimento, vedendo così nascere contenuti divertenti. È il caso dei video che mostrano l’attore Nicholas Cage in ruoli che non ha mai interpretato.

politica, disinformazione e teorie della cospirazione

Oltre ai video con protagonista l’ex Presidente Obama (uno creato dall’Università di Washington), è stato anche diffuso nel maggio del 2018 il deep fake di un discorso di Donald Trump in cui consigliava al popolo belga di ritirarsi dall’Accordo di Parigi sul clima e di «non essere ipocrita». Il video, creato da un partito politico belga (Socialistische Partij Anders), ha generato un’ondata di commenti da parte dei cittadini belgi che hanno creduto all’autenticità del discorso (non badando tuttavia alla scarsa qualità del montaggio).

Teken de Klimaatpetitie

Trump heeft een boodschap voor alle Belgen…www.s-p-a.be/klimaatpetitie #KlimaatPetitie

Pubblicato da sp.a su Sabato 19 maggio 2018

Video come questi accrescono il timore della proliferazione di fake news (e nello specifico di fake video) e del rischio per le democrazie a causa di un utilizzo errato dell’intelligenza artificiale. La Commissione Transatlantica per l’Integrità delle elezioni ha espresso infatti la propria preoccupazione riguardo all’interferenza di questo tipo di contenuti fake sui risultati delle elezioni americane del 2020.

Se si considera poi che esistono correnti di pensiero come il negazionismo – secondo cui determinati eventi storici come l’olocausto non sono accaduti, andando contro ogni evidenza e prova –, quali fenomeni sociali potrebbero emergere in un mondo in cui video di questo genere rischiano di diventare sempre più comuni?

Come fatto notare dalla CNN, anche se gli esperti affermano che la tecnologia in questione non sia ancora in grado di ricreare dei conflitti o degli eventi storici di grandi dimensioni, è possibile che la diffusione di un singolo deep fake davvero convincente possa in qualche modo intaccare seriamente la fiducia della società nell’affidabilità di contenuti audio e video che circolano online, specie di quelli pubblicati da testate rinomate o dalle autorità governative, con serie conseguenze come la proliferazione di teorie della cospirazione sui più svariati argomenti e la diffusione di fake news di ogni tipo.

impossibile fermare la proliferazione di deep fake?

«Ogni tecnologia può essere utilizzata con cattivi intenti ed è impossibile impedire che questo succeda»: una dichiarazione, questa, poco confortante, specialmente se si considera l’ideatore del messaggio, ovvero l’autore dei deep fake di cui si è parlato sopra, diffusi su Reddit. La piattaforma in questione, però, ha adottato delle misure per combattere il problema, bandendo gli account che condividono contenuti porno senza il consenso dei soggetti coinvolti, compresi quelli creati con il ricorso all’intelligenza artificiale. Tuttavia, la misura preventiva adottata non comprende tutte le forme di deep fake, ma solo i contenuti per adulti” e quindi video come quelli di Nicholas Cage (nonostante il mancato consenso) restano liberamente online.

Con l’evolversi di tale tecnologia, comunque, si sviluppano sempre più anche soluzioni per combattere eventuali conseguenze: nel settembre del 2018, per esempio, un gruppo di ricercatori dell’Università di Albany a New York ha sviluppato un nuovo metodo per identificare i video fasulli, monitorando il battito di ciglia dei protagonisti (effettuato dagli esseri umani ogni 2-10 secondi circa) e di cui nei deep fake di solito non c’è traccia.

Forse però la soluzione al problema non può essere meramente tecnologica, come ha affermato Alex Champandard, esperto di intelligenza artificiale, in un’intervista a The Verge: «bisogna lavorare sulla costruzione della fiducia nei rapporti, compreso quello con i giornalisti e i media, con le case editrici e con qualsiasi altro creatore di contenuto». In questo senso, la soluzione risiede più che altro in un lavoro di educazione (e rieducazione) all’uso e al potenziale della tecnologia, ma anche al consumo di informazione: è necessario aiutare il pubblico a diventare in grado di comprendere quando credere o meno a ciò che si vede o si ascolta.

© RIPRODUZIONE RISERVATA E' vietata la ripubblicazione integrale dei contenuti

Iscriviti alla newsletter! Ricevi gli aggiornamenti settimanali delle notizie più importanti tra cui: articoli, video, eventi, corsi di formazione e recensione libri
Potrai anche usufruire di offerte esclusive per libri, eventi e corsi.

Iscriviti

Articoli sull'argomento

© Inside Marketing 2013 - 2019 è un marchio registrato ® P.iva 07142251219
×

Informativa

Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy.
Chiudendo questo banner, scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all’uso dei cookie.

loading
MOSTRA ALTRI