Un deepfake est un enregistrement vidéo ou audio réalisé ou modifié grâce à l'intelligence artificielle. Ce terme fait référence non seulement au contenu ainsi créé, mais aussi aux technologies utilisées. Le mot deepfake est une abréviation de "Deep Learning" et "Fake", qui peut être traduit par "fausse profondeur". En fait, il fait référence à des contenus faux qui sont rendus profondément crédibles par l'intelligence artificielle.
Webinar Oracle Security Week
Temps de lecture : 3 mn
En 2014, une technique inventée par le chercheur Ian Goodfellow est à l'origine des deepfakes. Il s'agit du GAN (Generative Adverarial Networks). Selon cette technologie, deux algorithmes s'entraînent mutuellement : l'un tente de fabriquer des contrefaçons aussi fiables que possible ; l'autre tente de détecter les faux. De cette façon, les deux algorithmes s'améliorent ensemble au fil du temps grâce à leur entraînement respectif. Plus le nombre d'échantillons disponibles augmente, plus l'amélioration de ceux-ci est importante.
Le phénomène du deepfake est officiellement né à l'automne 2017 et est apparue sur le site web Reddit. Depuis 2017, le nombre de deepfakes augmente considérablement. D’après les chercheurs de la société Deeptrace, le nombre de vidéos deepfakes trouvées en ligne en 2019 étaient d’environ 15000, contre un peu moins de 8000 vidéos recensées un an auparavant.
En ce qui concerne les deepfakes audio, la création de ceux-ci nécessite des ressources matérielles très importantes, cela relève donc pour l'instant majoritairement des professionnels dans ce domaine.
Grâce à l'IA, tout le monde peut créer des deepfakes très facilement et sans connaissances
techniques particulières en téléchargeant une application simple comme FakeApp. En analysant les mouvements
de nos visages, l'algorithme de l'application va pouvoir nous "rajeunir" ou nous "vieillir" assez
simplement, par exemple. Ce ne sont pas des deepfakes élaborés permettant de créer de faux contenus qui
peuvent être compromettant, mais ceux-ci deviendront de plus en plus réalistes au fur et à mesure des
évolutions technologiques, et donc de plus en plus problématiques...
Avec l'avènement des fakes news et ses effets néfastes sur les réseaux sociaux, la diffusion de deepfake sur
le web constitue donc une nouvelle menace technologique.
Manipulation, désinformation, humiliation, diffamation... les dangers des deepfakes seront de plus en plus nombreux. C’est pour cela que Google a publié, en septembre 2019, une base de données d’un peu plus de 3000 vidéos deepfakes, ce qui permet d’apporter une aide aux ingénieurs et chercheurs essayant de créer des outils de détection automatisés, reposant sur l’IA. Cela permettrait aussi d’augmenter l’efficacité de ces outils, surtout que Google continue à alimenter cette base de données.
Concernant les réseaux sociaux, où les deepfakes peuvent se propager de la manière la plus rapide, le laboratoire FAIR de Facebook travaille actuellement sur un projet de "désidentification". Leurs ingénieurs sont en train d'inventer une IA qui applique un filtre sur des vidéos afin d’empêcher leur exploitation par des logiciels de reconnaissance faciale qui peuvent générer des deepfakes. Par ailleurs, depuis novembre 2019, la CNIL met en avant sa volonté de créer un véritable cadre législatif et réglementaire pour la reconnaissance faciale et donc à la conception des deepfakes. Le respect de la vie privée et le droit à l'image semblent être remis en cause pour pouvoir répondre à des enjeux stratégiques, économiques et politiques.
Oracle Data Safe : Protéger vos bases de données Oracle
Observatoire de la Tech: Cybersécurité, où en sont les français ?
Adopter Oracle Cloud Infrastructure, conçu selon une architecture “security first”
Cloud de confiance : Sur quels critères objectifs se reposer ?