Il deepfake nasce dall'utilizzo di strumenti di intelligenza artificiale uniti al deep learning. Praticato in tempo reale è una evoluzione di un fenomeno nato nel 2017 per opera di un collaboratore della piattaforma Reddit che ha sagomato, con incredibile realismo e successo, i volti di personaggi famosi su corpi diversi da quelli dei loro proprietari per inserirli in video erotici e porno. Oggi il fenomeno è in costante aumento e lo sarà ancor più in futuro, creando preoccupazioni e allarmi reali con effetti e esiti a oggi poco approfonditi e compresi.
La gravità e pericolosità del DEEPFAKE ha già messo in allarme entità statali preposte alla salvaguardia dell'identità e della privacy dei cittadini. Impegnati nel contrastare il fenomeno ci sono anche i proprietari delle piattaforme tecnologiche anche se non è chiaro in cehe modo e come potranno porvi rimedio.
Il deepfake può avere effetti disastrosi per attori e personaggi pubblici ma soprattutto per politici e dirigenti d'azienda, effetti all'immagine ma anche di tipo politico, finanziario, economico e sociale, oltre che individuale e personale.
Difendersi non è facile, bisognerebbe forse cancellare completamente le proprie immagini online. La difesa potrà venire dall'applicazione di strumenti tecnologici simili a quelli usati per il deepfake. Strumenti di intelligenza artificiale e deep learning, già in fase di sviluppo, test e sperimentazione, pensati per individuare l'eventuale manipolazione di una immagine o di un volto. Strumenti in grado di rilevare i pixel usati per coprire il vero volto o l'immagine reale originaria. Sebbene gli attuali risultati raggiunti siano promettenti permangono elementi e esempi contraddittori che sono in grado di ingannare il risultato di rilevamento. Può succedere che il machine learning applicato sia erroneamente indotto a classificare video falsi come reali e viceversa (insomma risultati fuorvianti).
La difesa pertanto potrebbe venire solo a livello legislativo e punitivo.