Mercoledi 18 Settembre 2019
MacroambienteSiamo tutti a rischio porno vendetta? La vicenda dell’app DeepNude e i deep fake che diventano deep porn

Siamo tutti a rischio porno vendetta? La vicenda dell'app DeepNude e i deep fake che diventano deep porn

La vicenda dell'app DeepNude mette in guardia da deep fake, come finte immagini esplicite, che potrebbero essere utilizzati per revenge porn.


Virginia Dara
A cura di: Virginia Dara Autore
Siamo tutti a rischio porno vendetta? La vicenda dell'app DeepNude e i deep fake che diventano deep porn

Utilizzava l’intelligenza artificiale – o, meglio, una rete neurale di machine learning – per trasformare in foto hard delle comuni immagini di donne completamente vestite: l’app DeepNude così, tra le polemiche e una vera e propria caccia ai colpevoli, è stata rimossa dai principali play store ma non senza avere avuto almeno il merito di portare all’attenzione dei più la questione deep porn.

Dai finti video di politici e personaggi famosi al deep porn: le responsabilità dell’app deepnude e sistemi simili

La politica e il jet set hanno dovuto fare già da tempo, del resto, i conti con i deep fake: immagini o video finti, realizzati con l’aiuto dell’intelligenza artificiale, così visivamente accurati da sembrare veri, che mostrano presidenti, leader politici, star nell’atto di compiere qualcosa che, in realtà, non hanno mai fatto. Come quella volta, per fare un esempio vicino nel tempo, in cui un presunto Mark Zuckerberg ammetteva sornione che «chi controlla i dati, controlla il futuro»: erano proprio i giorni in cui da Facebook avevano annunciato un aggiornamento dell’algoritmo in grado di identificare e penalizzare i deep fake, eppure la breve clip subito identificata come fasulla, non stentò a diventare virale.

È la stessa sorte che tocca ogni giorno a decine di finti video porno: è più comune di quanto si immagini, infatti, imbattersi in scene di sesso o di giochi erotici in cui il volto di attrici e professioniste è stato sostituito, grazie a software che dal 2017 sono piuttosto popolari e a buon mercato, con quello di altre donne per lo più inconsapevoli. È ciò che sta dietro a numerosi casi di presunti filmini a luci rosse rubati alle star e rimbalzati da una chat all’altra in ogni angolo della Rete e, aspetto forse ancora più preoccupante, a non pochi casi di revenge porn da parte di fidanzati, mariti, compagni gelosi. Far circolare un video, per quanto fake, che mostri una persona nelle sue relazioni più intime, del resto, può essere una forma di ricatto o di umiliazione, tanto quanto un attacco alla sua reputazione, quando non anche un atto persecutorio.

Come funziona DeepNude, l’app che crea finti nudi di donne “spogliando” le foto

Sistemi come quelli dell’app DeepNude sembrano così l’eldorado della porno vendetta: non serve essere in possesso di un vera immagine senza veli della vittima per esporla al voyeurismo diffuso: basta avere a disposizione uno scatto in buona risoluzione, in cui questa sia anche completamente vestita, e lasciare fare tutto all’intelligenza artificiale dell’app per avere pronto in mezzo minuto lo scatto osé da far diventare virale.

deepnude come funziona

Un “finto” nudo ottenuto utilizzando l’app DeepNude. Fonte e rielaborazione: The Verge

A spiegare nel dettaglio come funziona(va) l’applicazione e i suoi punti più oscuri ci ha pensato un articolo di Motherboard, che ha avuto, tra l’altro, effetti controversi: sebbene l’app fosse disponibile sui principali store da tempo, infatti, proprio dopo la pubblicazione ci fu un picco di download di DeepNude che avrebbe poi convinto gli sviluppatori a ritirarla dal mercato. Stando alle parole di uno degli ideatori, comunque, l’app funzionava grazie a un «GANs, un generative adversarial networks», ossia, semplificando, una rete neurale che «allenava un algoritmo» a riconoscere e comparare immagini a partire da un database di oltre 10mila nudi femminili. Nella sua versione per l’utente finale, così, DeepNude spogliava la foto degli abiti presenti e ridefiniva e ridisegnava dettagli come capezzoli, glutei, pube, valutando la corporatura della donna raffigurata e rispettandone le proporzioni. Il risultato? Era una (finta) foto di nudo che se vista distrattamente – e una fruizione distratta è tipica sui social, nelle chat di gruppo, per contenuti istantanei come gli snap – difficilmente poteva essere identificata come contraffatta e fake. L’app dava i risultati migliori con foto in cui c’era già in origine più nudo, ossia una maggiore porzione scoperta del corpo e, soprattutto, funzionava solo con foto di donne: perché, essendo quantitativamente maggiori le immagini di nudo femminile liberamente disponibili in Rete rispetto a quelle di nudo maschile, era più facile per gli algoritmi apprendere dalle prime, avevano spiegato gli sviluppatori. Alle accuse di sessismo, però, l’app DeepNude ha aggiunto presto quelle di mancata trasparenza: se nella versione free era presente, infatti, un watermark che copriva almeno parzialmente l’immagine di (finto) nudo ottenuta, le dimensioni di questo stesso watermark erano notevolmente ridotte nella versione a pagamento e per questo non era difficile rimuoverlo. Niente, insomma, permetteva di riconoscere immediatamente come fake le foto rielaborate utilizzando l’app. “Non fa niente di molto diverso da Photoshop” era stato l’ennesimo tentativo di difesa dei creatori ma, anche in questo senso, l’interfaccia decisamente più semplice rispetto a quella del noto software di fotoritocco, delle funzioni più immediate e che non richiedevano grandi conoscenze tecniche a chi la utilizzasse, oltre che il costo ridotto anche nella versione premium (circa 50 dollari) aggravavano la posizione di DeepNude.

app deep nude istruzioni

Le istruzioni del team di DeepNude per utilizzare al meglio l’app.

Ritirare app come DeepNude è una soluzione possibile contro i deep porn?

Da qui la decisione di ritirare l’app. Perché «questo mondo non è ancora pronto per DeepNude», ha twittato l’account ufficiale del team, ricordando che l’app doveva avere in origine un solo scopo «d’intrattenimento».

Strane parole per un commiato, sottolinea una colonnista di The Guardian, che sembrano raccontare come l’intento dell’app Nude fosse dichiaratamente e fin dall’origine l’oggettivazione e l’umiliazione del corpo delle donne. Basti pensare al logo dell’app: il volto stilizzato di un uomo che indossa grandi occhiali a spirale, una metafora visiva – e grossolana – della capacità dell’app di passare ai raggi X le curve femminili; una metafora che qualcuno tra gli utenti di DeepNude, invece, ha preso tanto alla lettera da chiedere al team di sviluppare una versione speciale adatta a visori e Google Glass. E a proposito del modo e delle ragioni che hanno portato al ritiro dell’app, non pochi hanno fatto notare che questo potrebbe essere legato più a problemi – e lamentele – tecnici che non a una reale presa di coscienza dei rischi insiti nel suo utilizzo: più volte, nei giorni precedenti allo stop definitivo, il team dell’app DeepNude aveva infatti chiesto scusa ai suoi utenti per disservizi legati al sovraccarico imprevisto e improvviso dei server.

L’ultima (non) notizia del resto, proprio a proposito, è che The Verge avrebbe trovato numerose copie di DeepNude ancora disponibili sul web, nei forum tematici, su chat di gruppo, alcune delle quali a pagamento o con formule open source che permettono di personalizzare le funzionalità base dell’app. Una sorte simile è toccata alle finte foto hard realizzate con l’app: è quasi impensabile, infatti, poter identificare e cancellare di conseguenza decine di migliaia di immagini, diffuse a macchia d’olio attraverso tanti canali diversi e tramite il passaparola tra tanti utenti diversi. Né è più facile farlo con le immagini manipolate ad arte e diffuse con il chiaro intento di nuocere alla vittima e alla sua reputazione, tanto più che nella maggior parte dei casi manca ancora un riferimento normativo entro cui inquadrare l’uso dei deep fake come forma di porno vendetta, basti pensare all’impasse in cui giace il ddl che prevede il reato di revenge porn in Italia.

Un inquadramento normativo per la questione deep porn e revenge porn

Più unico che raro è, in questo senso, il buon esempio della Virginia che ha esteso ai deep fake la norma sul revenge porn. Il Paese è stato uno dei prima a dotarsi, fin dal 2014, di una legge ad hoc che punisse la pubblicazione senza consenso di materiale sessualmente esplicito. La novità introdotta a luglio 2019 riguarda specificamente quelli che vengono definiti «synthetic media content», ossia contenuti artificialmente elaborati come foto photoshoppate o modificate con app e software anche di utilizzo più semplice e immediato e video che imitano gesti, posture e azioni di persone reali, tali da esporre i soggetti ritratti alla gogna pubblica, all’interesse morboso o a da intaccarne la reputazione. Semplificando molto, sia chi ha creato questi contenuti sintetici, sia chi li ha modificati o diffusi è punito con la stessa pena riservata agli autori di porno vendetta e – aspetto decisamente interessante – indipendentemente da quanto facile fosse identificare chiaramente come fake i contenuti in questione. Alla base della decisione della Virginia proprio vicende come quella dell’app DeepNude e, più in generale, la sempre maggior frequenza con cui i deep fake vengono utilizzati come forma di vendetta nel caso di una relazione finita male, litigi di coppia, tradimenti, anche e soprattutto da parte di utenti giovanissimi.

© RIPRODUZIONE RISERVATA E' vietata la ripubblicazione integrale dei contenuti

Iscriviti alla newsletter! Ricevi gli aggiornamenti settimanali delle notizie più importanti tra cui: articoli, video, eventi, corsi di formazione e recensione libri
Potrai anche usufruire di offerte esclusive per libri, eventi e corsi.

Iscriviti

Altre notizie

© Inside Marketing 2013 - 2019 è un marchio registrato ® P.iva 07142251219
×

Informativa

Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy.
Chiudendo questo banner, scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all’uso dei cookie.

loading
MOSTRA ALTRI