Il deepfake è una tecnica che grazie al deep learning permette di sostituire il volto di una persona (face swapping) o di fargli dire quello che si vuole, rendendo indistinguibile il video fake da quello originale.
Il termine "deepfake" ha fatto il suo debutto alla fine del 2017, quando un utente di Reddit che con il nickname "deepfakes", iniziò a condividere video deepfakes , in cui venivano scambiati i volti delle celebrità con altre. Questa tecnica presto fu utilizzata per creare video porno in cui i volti dei protagonisti furono sostituiti con quello di numerose celebrità, come Gal Gadot, Emma Watson, Ariana Grande, Katy Perry, Taylor Swift, Scarlett Johansson e tante altre. A causa dell’uso poco lecito di questa tecnica, Reddit fu costretta a bannare l’intera comunità deepfake. Tuttavia ciò non ne ha fermata la diffusione, tanto che altre piattaforme sono state costrette a bannare alla tecnica del deepfake, comprese Twistore e Pornoshop.
Alla base della tecnica usate per i deepfake, ci sono software che sfruttano l’ intelligenza artificiale, capaci di produrre video talmente realistici da essere spesso difficilmente individuabili come falsi. Questi software sfruttano la tecnica di apprendimento automatico, conosciuta come rete antagonista generativa, che analizzando il maggior numero possibile d’immagine del soggetto, sono in grado di ricreare i protagonisti dal nulla. Grazie a tutto questo la comunità deepfake è riuscita a risolvere molti bug, rendendoli sempre più difficili da distinguere i video falsi dai contenuti reali, aiutati dalla disponibilità online di materiale fotografico e video delle celebrità, usati come dati di allenamento per i software. Ora è possibile realizzare dei video, anche pornografici, dove i soggetti non sono mai stati in realtà ripresi, per fare tutto ciò è richiesto solo un buon numero d’immagini del soggetto da inserire.
Con questa tecnica, è anche possibile fare pronunciare a un protagonista di un video, parole che appartengono a una traccia audio separata, come del famoso video di Barack Obama, in cui offendeva il presidente Trump, rivelatosi poi un falso.
Oltre alla velocità con i cui la tecnica del deepfake diventa sempre più sofisticata, a preoccupare è il fatto che ad oggi non esiste nessuno strumento in grado di rilevare si siamo di fronte ad un video deepfake o no. In tal caso molto ricercatori si sono messi a lavoro per trovare un metodo efficace per individuare questi video fasulli. Gli esperti sono sopra tutto preoccupati del fatto che non ci siamo strumenti per contrastare il deepfake se questa è usata per fake news, bufale, truffe e Revenge porn.
Allo stato attuale tutti siamo a rischio deepfake, se pensiamo che almeno una volta stata pubblicata una nostra foto sui social e che al momento unico modo per affrontarla e sapere che esiste e non bisogna prendere subito per verità qualsiasi notizia che leggiamo, vediamo o sentiamo.