L’hypertrucage, vous connaissez? Mieux connue sous sa dénomination anglophone deepfake, il s’agit d’une technique apparue en 2017 qui permet de détourner le contenu d’une image ou d’une vidéo, bien souvent dans un but malveillant.

En quoi consiste le deepfake

Le terme deepfake est un mot-valise formé de deep learning (« apprentissage profond ») et de fake (« faux »). Littéralement traduit par « fausse profondeur », on comprend qu’il fait référence à du faux contenu profondément crédible.

Ce phénomène aurait pour origine une technique inventée en 2014, à Montréal, par le chercheur Ian Goodfellow. Selon la technologie GAN (Generative Adversarial Networks), deux algorithmes s’affrontent mutuellement : l’un a pour but de créer des falsifications aussi fiables que possible (échantillons) alors que l’autre tente de détecter le vrai du faux. Ainsi, les deux algorithmes progressent conjointement grâce à leur entraînement respectif. Plus les échantillons disponibles augmentent, plus la précision est importante.

Si la création de deepfakes audio requiert des ressources matérielles considérables et est ainsi principalement utilisée par des professionnels, l’intelligence artificielle (IA) permet maintenant au grand public de facilement créer des deepfakes sans avoir besoin de connaissances techniques particulières. Grâce à des applications comme FakeApp dont l’algorithme analyse les mouvements du visage, on peut créer des images ou des vidéos nous rajeunissant ou nous vieillissant.

Pas de quoi fouetter un chat direz-vous. Toutefois, les évolutions technologiques rendent les algorithmes plus réalistes que jamais et permettent de créer du faux contenu de plus en plus compromettant… et problématique.

La nouvelle menace

Après les fake news qui déferlent sur les réseaux sociaux et arrivent même à se glisser dans nos médias traditionnels, la présence grandissante des deepfakes laisse présager de plus grands dangers encore : manipulation, désinformation, humiliation, diffamation… et menaces de sécurité nationale! En avril 2018, Jordan Peele, réalisateur du film Get Out, et Jonah Peretti, PDG de Buzzfeed, ont démontré les dangers de l’hypertrucage avec leur vidéo de Barack Obama faisant une fausse allocution.

Surtout connus sur les médias sociaux comme moyen de nuire à des personnalités internationales en produisant de fausses images et vidéos les mettant en scène dans des situations embarrassantes, pensons notamment à Daisy Ridley, Gal Gadot, Katy Perry et Taylor Swift qui ont été victimes d’hypertrucage pornographique ou à Mauricio Macri et Angela Merkel qui ont vu leur visage être respectivement remplacé par celui d’Adolf Hitler et de Donald Trump, les deepfakes se retrouvent notamment sur les sites pornographiques. Ces hypertrucages sont évidemment utilisés à l’insu des gens et plus inquiétant encore est le nombre d’entre eux qui utilisent des images de mineurs.

La Deepfake Porn

Le 4 décembre 2020, le New York Times publiait The Children of Pornhub, un texte du journaliste Nicholas Kristof qui a eu l’effet d’une bombe alors qu’il décrivait comment la plateforme de contenu pornographique monétisait les viols de mineurs, la revenge porn (pornodivulgation en français) et les caméras cachées dans les vestiaires féminins, pour ne nommer que ceux-là. Le point en commun de toutes ces vidéos : l’absence de consentement. Si ces vidéos montraient de vraies personnes, la deepfake porn inquiète de plus en plus les experts en raison de l’accessibilité et de la facilité d’utilisation de la technologie permettant de créer ces fausses vidéos. Cette menace est tout sauf anodine puisqu’elle facilite la violence et le harcèlement envers les femmes et les jeunes filles, principalement.

Les Geographic Deepfakes

En avril 2021, le site américain The Verge, qui traite de l’actualité technologique, de l’information et des médias, mettait en garde les gouvernements contre l’hypertrucage géographique, stipulant que des adversaires géopolitiques pouvaient utiliser de fausses images satellites afin de tromper leurs ennemis. Un analyste à la National Geospatial-Intelligence Agency a imaginé un scénario dans lequel un logiciel de planification militaire était floué par de fausses données montrant un pont à un emplacement erroné. The Verge avançait aussi que le deepfake pouvait aller jusqu’à discréditer des témoignages s’appuyant sur de réelles images satellites. En citant les camps de concentration Ouïghours en Chine, il expliquait que le gouvernement chinois pourrait tenter de se protéger en affirmant que les images satellites de ces camps sont en fait truquées grâce au deepfake ; un véritable danger pour la sécurité nationale.

Comment se protéger

Devant l’ampleur de la situation, Google a publié, en septembre 2019, une base de données – constamment alimentée – de plus de 3 000 vidéos deepfakes afin de permettre aux ingénieurs et aux chercheurs de créer des outils de détection automatisés reposant sur l’IA. Pour sa part, le laboratoire FAIR de Facebook tente de mettre au point la « désidentification », une IA qui appliquerait un filtre sur les vidéos afin d’en empêcher l’altération par des logiciels de reconnaissance faciale. Accompagné de Microsoft et associé à des établissements de renom (MIT, universités d’Oxford, du Maryland, UC Berkeley), le géant des réseaux sociaux a lancé le Deepfake Detection Challenge, un concours ayant pour but de construire des logiciels capables de découvrir des vidéos truquées. Quant à eux, des chercheurs de l’Université de Washington proposent de démystifier la fiabilité absolue des images satellitaires et de sensibiliser le public à l’influence potentielle du deepfake géographique pour limiter les impacts de cette technologie. Enfin, selon Solange Ghernaouti, une spécialiste en cybersécurité et en cyberdéfense, la solution serait de « tatouer numériquement » les images et les vidéos numériques pour valider leur contenu. Des logiciels tels InVid et Amnesty Youtube Dataviewer permettent aux journalistes de déterminer si une vidéo est truquée ou manipulée.

En somme, il revient aussi aux différents législateurs de mettre en place des lois bannissant les contenus qui ne mentionnent pas l’utilisation de superpositions de vidéos et d’audios comme le fait la Chine depuis le 1er janvier 2020.

Ne croyez pas tout ce que vous voyez et lisez sur Internet.

 

Photo by: Joshua Rawson-Harris