Il deepfake (parola coniata nel 2017) è innanzitutto <<una tecnica per la sintesi dell’immagine umana basata sull’intelligenza artificiale, usata per combinare e sovrapporre immagini e video esistenti con video o immagini originali, tramite una tecnica di apprendimento automatico, conosciuta come rete antagonista generativa. E’ stata anche usata per creare falsi video pornografici ritraenti celebrità e per il revenge porn, ma può anche essere usato per creare fake news, bufale e truffe>> (fonte: Wikipedia).
La diffusione sempre più crescente dell’uso di queste tecniche attraverso software sempre più sofisticati rende il fenomeno delle deepfakes sempre più rilevante.
Quasi un anno fa, la star del cinema Scarlett Joahnsonn – duramente colpita dalla grande diffusione nel web di video porno con la sua immagine falsa, elaborati con le tecniche di deepfake – in una intervista al Washington Post, dichiarò la propria resa nella battaglia di contrasto al fenomeno, giudicandola suo malgrado come una <<causa persa>> per la frammentazione delle normative esistenti in materia e le difficoltà di renderle efficaci su Internet, definito dall’attrice come un enorme <<cunicolo spazio-temporale oscuro che ingurgita se stesso>>.
In effetti è proprio nel mondo del porno che si riscontra la maggiore diffusione di video creati con le tecniche di deepfake.
Secondo una ricerca di Deeptrace, una società di cybersecurity specializzata nell’individuazione e nel contrasto dei deepfakes, attualmente esistono online 14.678 video rientranti nella categoria, il 98% dei quali ha un contenuto pornografico. Questi video, ritraenti purtroppo quasi esclusivamente vittime femminili, hanno ricevuto oltre 134 milioni di visualizzazioni e sono diffusi in portali e forum dedicati ma anche nei portali tradizionali del porno online.
Sempre le donne sono le vittime predestinate di Deepnude, un software che consente agli utenti, letteralmente, di denudare qualsiasi immagine raffigurante una donna attraverso la rimozione informatica dei vestiti e la generazione “sintetica” delle parti mancanti. E’ appena il caso di rilevare che il software non funziona con le immagini di uomini poiché l’algoritmo è stato allenato ad elaborare solo le immagini di donne. Lascio a voi ed alla vostra fantasia ogni considerazione sui programmatori che hanno realizzato tutto questo, mettendo a disposizione liberamente il codice sorgente del software e favorendo così la creazione di un numero indefinito di cloni e di versioni modificate dello stesso; oggi il programma risulta ufficialmente ed ipocritamente ritirato a seguito delle polemiche sorte dopo la sua scoperta da parte di Samantha Cole, una giornalista della rivista online Motherboard.
Il buon DataKnightmare, ha dedicato una puntata del suo podcast a questi programmatori buontemponi (con riferimento però ad un altro caso analogo) con il suo stile caustico e soprattutto senza peli sulla lingua.
Ascolta “DK 3×35 – Fastfingers Shithead, programmatore” su Spreaker.
Di Deepnude parla Matteo Flora in questo video.
Di sicuro impatto è l’uso di queste tecnologie nella creazione di video falsi di personaggi politici. A parte il video di Striscia la Notizia con la versione fake di Matteo Renzi, sono già numerosi gli esempi che coinvolgono un personaggio politico.
Guardate questo video di BuzzFeed con il passato presidente degli Stati Uniti Barak Obama.
Di certo l’analisi attenta dei video consente di scoprire eventuali falsi. A volte i contenuti appaiono come palesemente fake perchè l’immagine risulta deformata, la risoluzione di alcune parti risulta diversa rispetto al resto, la sicronizzazione dell’audio con le immagini non è perfetta oppure vi sono degli scatti o dei rallentamenti improvvisi; altre volte il livello di elaborazione e di perfezione è altissimo e, sicuramente, il miglioramento della qualità crescerà in maniera esponenziale nei prossimi mesi.
Nel contesto dell’attuale società dell’informazione, nel quale le notizie circolano in maniera virale attraverso i social senza intermediazioni e filtri professionali (quello del giornalista ad esempio), quello delle deepfakes si presenta come uno dei fenomeni più controversi e a rischio del nostro prossimo futuro.
Come fronteggiare questi rischi ? Prima di tutto, come in tutti campi umani, la conoscenza e la consapevolezza. Solo dopo aver fatto questo passaggio, direi per certi versi anche evolutivo, verso un’opinione pubblica e degli operatori politici e giuridici più consapevoli, si potrà pensare anche all’opportunità ed a valutare la necessità di interventi legislativi che – per la specifica natura del fenomeno – non possono che essere transnazionali. In ogni caso, non si può fare a meno di osservare che, se si è sufficientemente compreso il fenomeno, il complesso di norme esistenti nel nostro ordinamento possono già garantire un grado di tutela.
Lascia un commento
Devi essere connesso per inviare un commento.