Qu’est-ce qu’un deepfake et quels en sont les risques ?
Un deepfake est une vidéo générée ou modifiée à l’aide de l’intelligence artificielle. Ce procédé permet par exemple de faire tenir à une personnalité publique des propos qu’elle n’a jamais eus dans la vie réelle. Une technique qui ouvre de nombreuses possibilités de création, notamment dans l’industrie des effets visuels, mais qui peut également s’avérer extrêmement dangereuse. Découvrez pourquoi.
Sommaire
Sommaire
Deepfake : définition
Le terme “deepfake” est une abréviation entre les termes “deep learning” et “fake”, soit un contenu falsifié issu de l’intelligence artificielle et des procédés de deep learning.
Lorsque l’on se réfère aux deepfakes, on parle généralement des contenus vidéo mettant en scène le visage d’une personne animé de manière artificielle. Les résultats obtenus peuvent être troublants de réalisme, au point qu’il sera bientôt difficile de se fier uniquement à nos propres yeux pour démêler le vrai du faux.
La technologie à l’origine des deepfakes a été créée par le chercheur Ian Goodfellow en 2014 : il s’agit du GAN (Generative Adversarial Networks, ou réseaux antagonistes génératifs). Le principe de cette technologie consiste à mettre en compétition deux algorithmes qui s’entraînent mutuellement. L’un des algorithmes travaille à créer de faux contenus aussi fiables que possibles, tandis que l’autre tente de détecter les faux.
Quel est le but des deepfakes ?
Les deepfakes possèdent de nombreuses applications dans les médias. Ils sont par exemple utilisés pour rajeunir ou vieillir les acteurs dans certains films hollywoodiens, voire pour ressusciter à l’écran des célébrités disparues.
D’autres réalisent des deepfakes dans un but parodique, en faisant tenir de faux propos à des célébrités ou des personnalités politiques, ou encore en plaçant le visage d’un autre acteur sur une scène emblématique de film.
Il existe un compte TikTok entièrement consacré aux vidéos deepfakes mettant en scène Tom Cruise dans différentes situations de la vie quotidienne. Celles-ci sont particulièrement impressionnantes de réalisme, et visent à sensibiliser le public sur la sophistication de cette technologie.
Un autre deepfake célèbre montre Barack Obama tenant des propos insultants envers Donald Trump. Il s’agit d’un trucage créé par le réalisateur Jordan Peele, également destiné à alerter les internautes sur la portée de ce type de contenus.
Les personnalités politiques sont des cibles faciles pour les deepfakes : en effet, de nombreuses vidéos d’allocutions publiques circulent sur le web, fournissant ainsi une excellente base d’apprentissage pour les logiciels de deep learning.
En réaction à la diffusion de fausses publicités qui le mettent en scène, le Youtubeur Cyprien a publié une vidéo explorant les dérives qui pourraient advenir si l’usage des deepfakes venait à se répandre dans nos vies. Retrouvez la vidéo ci-dessous.
Tous ces exemples nous montrent la facilité avec laquelle ces contenus peuvent faire illusion, y compris pour des internautes avertis. Les deepfakes peuvent alors devenir un puissant outil de manipulation, voire alimenter de dangereux contenus de propagande dans un contexte de guerre numérique.
Comment est réalisé un deepfake ?
La technologie deepfake utilise l’intelligence artificielle pour manipuler l’image et le son d’une vidéo afin d’imiter les traits d’une personne, ses mouvements, ainsi que sa voix.
Grâce à un procédé appelé deep learning, ou apprentissage profond, le système visionne des milliers d’images de la même personne afin de recréer le plus fidèlement possible son visage en mouvement. La synthèse ainsi obtenue est alors superposée sur le visage du protagoniste, en synchronisant le moindre de ses mouvements et de ses expressions faciales.
Plus la quantité de matériel source est importante, autrement dit, plus la machine “ingère” d’images différentes d’une même personne, plus le résultat obtenu gagne en sophistication et en réalisme.
La technologie deepfake est déjà très avancée et continue de se perfectionner, permettant de créer des résultats de plus en plus réalistes. Il existe différentes techniques de trucage vidéo utilisées pour réaliser un deepfake :
- Le face swap : il s’agit de la technique la plus commune, qui consiste à projeter les traits d’une personne sur le visage d’une autre.
- Le face to face : la technique est similaire au face swap, mais reprend uniquement la bouche pour la superposer sur le visage du modèle, afin de prêter des propos fictifs à la personne ciblée.
- Le lip sync : cette technique encore plus précise consiste à modifier les mouvements des lèvres pour les synchroniser avec la nouvelle voix, donnant un résultat encore plus troublant.
Qui peut faire des deepfakes ?
La création de deepfakes est accessible à tous, ce qui ouvre la voie à de nombreuses possibilités, mais aussi à différents risques.
Plusieurs applications gratuites permettent aujourd’hui de réaliser un deepfake en ligne sans aucune connaissance technique particulière, à l’exemple de FakeApp ou encore Wombo. Les résultats ne sont pas parmi les plus convaincants, mais ils sont déjà très corrects.
D’autre part, les spécialistes en effets visuels utilisent les avantages de la technologie deepfake pour recréer les traits d’un personnage de manière artificielle, voire créer des visages de personnes inexistantes.
Il est donc facile d’imaginer les résultats bluffants qui peuvent être obtenus lorsqu’un professionnel choisit de manipuler une vidéo avec un logiciel basé sur l’intelligence artificielle.
Comment reconnaître un deepfake
De nos jours, identifier un deepfake n’est pas chose facile, certains contenus étant techniquement très élaborés. Néanmoins, certains indices peuvent aider à reconnaître un deepfake : voici quelques détails auxquels vous devriez prêter attention si une vidéo vous semble suspecte.
Zones lisses ou floues
Certains points où l’image reconstituée vient se calquer sur le visage de la personne peuvent apparaître flous, sans texture. Même sur les exemples les plus sophistiqués, ces transitions floues peuvent apparaître momentanément lors de changements d’éclairage ou en cas de mouvements brusques de la tête.
Traits non-faciaux incorrects
Si la vidéo met en scène une personnalité publique, vous pouvez utiliser d’autres images comme référence. Observez des éléments autres que le visage du protagoniste, qui n’ont peut-être pas été modifiés : mains, cheveux, silhouette et autres détails qui ne concordent pas entre la vidéo en question et des sources visuelles plus anciennes et plus fiables.
Mouvements peu naturels
Lorsque le sujet bouge beaucoup, il est plus difficile pour le créateur d’obtenir un rendu naturel et convaincant. Si la personne représentée semble anormalement immobile, cela peut être un signe que les créateurs de la vidéo essaient de faciliter la tâche de l’IA pour projeter une image sur le visage de la personne sans avoir à suivre trop de mouvements.
Voix peu convaincante
Si la technologie de modification de l’image est aujourd’hui très avancée, les logiciels basés sur l’intelligence artificielle ont encore du mal à créer des simulations convaincantes de voix humaine. La qualité de la voix sera donc un indice majeur pour juger de l’authenticité de la vidéo.
Les créateurs de deepfake disposent de deux possibilités pour recréer une voix convaincante : utiliser une voix générée par l’intelligence artificielle ou un acteur capable d’imiter la voix d’origine. En comparant le son de la voix avec d’autres vidéos de la personnalité concernée, vous parviendrez peut-être à identifier des différences.
Quels sont les risques du deepfake ?
Les deepfakes possèdent une multitude d’applications intéressantes, notamment dans le domaine cinématographique. Néanmoins, entre de mauvaises mains, ces contenus peuvent s’avérer particulièrement dangereux.
De plus en plus de vidéos deepfake sont créées et diffusées à des fins malveillantes, comme dans le cas du revenge porn, où le visage d’une personne est appliqué sur des contenus pornographiques dans un but d’humiliation et de cyberharcèlement.
Utilisés dans un contexte politique ou idéologique, les deepfakes peuvent également avoir un impact lourd de conséquences en prêtant des actions et des propos inventés à des personnalités publiques.
En outre, les deepfakes imitant les proches ou les collègues des victimes peuvent conférer aux arnaques un niveau de crédibilité jamais atteint.
Voici quelques exemples de situations où les deepfakes peuvent être synonymes de danger.
Fake news et propagande
En raison du réalisme toujours plus bluffant des images générées, les deepfakes peuvent constituer un puissant outil de désinformation destiné à salir l’adversaire, via la diffusion de fausses nouvelles toujours plus convaincantes. Par exemple, peu après l’invasion de l’Ukraine par la Russie en février 2022, plusieurs vidéos deepfake sont apparues en ligne, montrant le président ukrainien en train de capituler.
Plus la technologie deepfake sera sophistiquée, plus ces contenus deviendront difficiles à détecter. D’après le chercheur américain en intelligence artificielle Alex Champandard, “Le principal danger est de voir arriver le moment où les humains ne pourront plus déterminer si ce qui se trouve sur une vidéo correspond à la vérité ou non”.
Arnaques et ingénierie sociale
Les deepfakes peuvent également être utilisés par les cybercriminels dans le but d’inciter les victimes à partager leurs informations personnelles. En effet, si vous recevez un simple message Facebook provenant d’un ami expliquant qu’il a besoin d’une aide financière urgente, cela peut éveiller vos soupçons. En revanche, une vidéo conçue pour imiter le visage et la voix de cette personne sera bien plus convaincante, et pourra rendre toujours plus efficaces les techniques d’ingénierie sociale.
Par ailleurs, les enregistrements audio basés sur le deepfake représentent un risque réel pour les appareils dotés d’une technologie de reconnaissance vocale et pourraient grandement faciliter l’usurpation d’identité.
L’avenir des deepfakes
À mesure que les procédés de deep learning se perfectionnent, la détection des deepfakes risque d’être de plus en plus difficile. Parallèlement, leur diffusion est amenée à être toujours plus rapide, en particulier via les réseaux sociaux. Les conséquences de ces vidéos truquées sont nombreuses et ont de quoi alarmer : manipulation de l’audience, désinformation, diffamation…
En réaction à ce phénomène, Google a publié en 2019 une base de données contenant plus de 3000 vidéos deepfake et alimentée en permanence, afin d’aider les logiciels à identifier plus facilement les contenus falsifiés
Par ailleurs, le laboratoire FAIR de Facebook travaille sur un projet de “désidentification”, consistant à appliquer un filtre sur les vidéos afin d’empêcher leur modification par des logiciels deepfake.
D’un point de vue législatif, la CNIL souhaite également mettre en place un cadre visant à réglementer l’usage des deepfakes en ligne.
L’usage des vidéos deepfakes représente donc une menace croissante sur le web et incite à la plus grande vigilance. Une raison supplémentaire pour en savoir plus sur la cybersécurité et la prendre au sérieux.
Restez à l’abri des sites web malveillants. Téléchargez un VPN dès maintenant.