Deepfake et usurpation d’identité : la nouvelle frontière de la cybermenace
Peut-on encore faire confiance à ce que l’on voit ou entend en ligne ?
Avec la montée fulgurante des technologies de deepfake, une vidéo de vous — de vos collègues, ou de vos proches — pourrait circuler demain sur Internet, sans que vous n’ayez jamais prononcé un mot de ce qu’elle montre.
Loin du simple canular, le deepfake est aujourd’hui une arme redoutable dans les mains des cybercriminels. Et quand cette technologie rencontre l’usurpation d’identité numérique, les conséquences peuvent être dévastatrices, pour les particuliers comme pour les entreprises.
Chez ID Protect, nous faisons le point sur ce phénomène inquiétant — et sur les moyens de vous en protéger.
Qu’est-ce qu’un deepfake ?
Le terme deepfake vient de la contraction de deep learning (apprentissage profond) et de fake (faux). Il désigne des contenus (vidéos, images ou voix) générés ou modifiés à l’aide de l’intelligence artificielle, afin d’imiter une personne réelle de manière très réaliste.
Avec quelques minutes d’audio ou de vidéo d’une personne, un acteur malveillant peut créer un double numérique crédible, capable de duper même des collègues ou des proches.
En France, plusieurs articles du Code pénal punissent l’usage de deepfake :
- Article 226-8 : punition de la fabrication et diffusion de montages mettant en scène une personne à son insu, avec 1 an d’emprisonnement et 15 000 € d’amende.
- Article 226-4-1 : sanction de l’usurpation d’identité numérique, jusqu’à 1 an d’emprisonnement et 15 000 € d’amende, si la manœuvre nuit à la victime ou trouble sa tranquillité.
- Article 441-1 (faux et usage de faux) : jusqu’à 3 ans d’emprisonnement et 45 000 € d’amende si le deepfake est utilisé pour produire un faux document ou une fausse preuve.
Si le deepfake vise à influencer une élection, à porter atteinte à la sûreté de l’État ou à manipuler les marchés, d’autres qualifications pénales plus graves peuvent s’ajouter.
Usurpation d’identité numérique : de la copie au chaos
L’usurpation d’identité numérique désigne le fait de se faire passer pour quelqu’un d’autre en ligne, avec ou sans intention frauduleuse. Depuis l’arrivée des technologies de deepfake, elle a pris une ampleur nouvelle.
Jusqu’ici, l’usurpation d’identité se faisait via :
- La création de faux profils sur les réseaux sociaux ;
- Le vol d’accès à des comptes mail ou professionnels ;
- Des campagnes de phishing ciblées.
Aujourd’hui, elle s’appuie sur des outils IA puissants, accessibles en ligne :
- Sora (OpenAI) et Runway Gen-3 pour la génération vidéo ;
- D-ID, DeepFaceLab, FaceSwap ou encore Zao pour les visages ;
- ElevenLabs, Play.ht ou Resemble.ai pour la reproduction vocale ;
- Stable Diffusion, Midjourney ou DALLE 3 pour les images réalistes.
Un escroc peut désormais imiter un proche ou un dirigeant, en vidéo, avec sa voix, son apparence, ses mimiques.
Deepfakes : quels dangers concrets ?
Les deepfakes ne sont pas de simples curiosités technologiques. Ils sont déjà activement utilisés dans des arnaques, escroqueries et campagnes de manipulation à travers le monde, avec des impacts concrets sur des particuliers, des entreprises, et même des institutions politiques.
1. Arnaques familiales par deepfake vocal ou vidéo
L’une des utilisations les plus insidieuses du deepfake est l’arnaque émotionnelle ciblée. Des parents reçoivent un appel vidéo de leur « fils » ou « petite-fille », qui semble en détresse et demande un virement urgent pour un accident ou une situation de crise.
En réalité :
- Le visage est généré par IA, à partir de vidéos publiques issues de réseaux sociaux.
- La voix est clonée via des outils comme ElevenLabs ou Respeecher.
- Le scénario est souvent rodé : urgence médicale, arrestation à l’étranger, vol de papiers, etc.
Ces fraudes vidéo familiales s’appuient sur l’instinct de protection et le choc émotionnel pour faire céder la victime.
2. Faux entretiens d’embauche en visioconférence
Les cybercriminels se font passer pour des recruteurs de grandes entreprises (Google, Airbus, Capgemini…) via des visioconférences truquées, avec des vidéos IA de RH fictifs.
Leur but :
- Voler des informations personnelles ou professionnelles sensibles (numéro de sécurité sociale, CV, passeport, accès intranet).
- Inciter la victime à installer un « test logiciel » (en réalité un malware ou un cheval de Troie).
- Parfois, usurper ensuite l’identité de la victime pour des attaques en rebond.
Ce type d’usurpation d’identité numérique professionnelle se développe sur LinkedIn et les plateformes de recrutement internationales.
3. Fraude au président 2.0
Les classiques fraudes au faux président prennent aujourd’hui une nouvelle dimension avec les deepfakes vidéo et audio.
Exemple réel : En 2023, une entreprise britannique a reçu un appel vidéo émanant de son « CEO » basé à Dubaï, demandant un virement bancaire urgent pour un rachat stratégique confidentiel. Le visage, la voix et les tics de langage étaient générés par IA. Résultat : plus de 200 000 dollars volés.
Ces attaques ciblent en priorité :
- Les directeurs financiers ;
- Les services juridiques et comptables ;
- Les assistantes de direction ou responsables administratifs.
Elles combinent ingénierie sociale, deepfake et urgences hiérarchiques pour créer une situation de stress propice à l’erreur.
4. Chantage numérique et revenge porn synthétique
Le deepfake est aussi utilisé à des fins de chantage, intimidation ou humiliation, en particulier contre les femmes et les mineurs.
Les formes les plus fréquentes :
- Revenge porn synthétique : un visage est apposé sur une scène pornographique existante.
- Deepnudes : photos faussement dénudées créées à partir de selfies ou de photos publiques.
- Montages compromettants : vidéos fabriquées dans le but de salir la réputation d’une personnalité (journaliste, avocat, enseignant, militant, etc.).
Ces contenus sont ensuite :
- Diffusés sur les réseaux sociaux, parfois anonymement ;
- Utilisés pour faire pression sur la victime : payer pour éviter la diffusion ;
- Exploités dans des cyberharcèlements organisés.
C’est l’une des dérives les plus graves du deepfake, et particulièrement difficile à contrer, car ces contenus ne sont ni « hacks », ni « photos truquées », mais des inventions crédibles fabriquées de toutes pièces.
5. Manipulations politiques, médiatiques et électorales
Les deepfakes sont devenus des outils de désinformation massive.
Exemples récents :
- En mars 2024, une vidéo deepfake du président ukrainien Volodymyr Zelensky appelant à la reddition a circulé sur Telegram. Bien que rapidement démontée, elle visait à saper le moral et déstabiliser les troupes.
- En Inde, plusieurs vidéos deepfake de figures politiques ont été utilisées pour diffuser de fausses déclarations durant la campagne électorale.
- En France, plusieurs tentatives de deepfakes ciblant des maires, députés ou journalistes ont été rapportées, même si souvent déjouées à temps.
Ces contenus sont souvent diffusés sur :
- Des réseaux sociaux peu modérés (Telegram, X, Rumble) ;
- Des chaînes YouTube anonymes ou comptes TikTok en croissance rapide ;
- Des campagnes sponsorisées à bas coût via des serveurs étrangers.
La rapidité de diffusion et le réalisme des vidéos rendent la manipulation de l’opinion publique plus facile que jamais, en particulier dans les périodes électorales ou de crise.
Comment lutter : Peut-on détecter un deepfake ?
Selon une étude menée par l’Université de Berkeley en 2025, les êtres humains sont particulièrement mauvais pour détecter les voix générées par intelligence artificielle. Lors des tests, les participants n’ont correctement identifié qu’environ 60 % des voix synthétiques, un score à peine meilleur que le hasard. Pire encore, seuls 20 % ont réalisé qu’ils entendaient deux identités différentes dans deux extraits pourtant très contrastés.
En parallèle, les travaux du MIT Media Lab, dans le cadre du projet Detect Fakes, ont démontré que la capacité des utilisateurs à repérer des deepfakes chute drastiquement lorsque la qualité de la vidéo est réduite (compression, flou, encodage). Les tests menés dans le cadre de la Deepfake Detection Challenge ont mis en évidence que même des utilisateurs entraînés peinent à reconnaître des deepfakes en contexte réel, leur taux de détection tombant parfois sous les 65 % dès qu’une dégradation est appliquée à la vidéo.
Fort heureusement, plusieurs solutions techniques existent pour permettre de détecter les contenus générés par IA :
- Reality Defender : plateforme SaaS de détection d’images et de vidéos IA.
- Sensity.ai : spécialisée dans la détection de deepfakes à large échelle.
- Hive Moderation : API de modération automatique incluant la détection IA.
- Microsoft Video Authenticator : outil analysant les pixels pour détecter des modifications invisibles à l’œil nu.
- Deepware Scanner : appli mobile pour vérifier si une vidéo contient des éléments IA.
Ces outils utilisent des algorithmes qui détectent des anomalies dans les mouvements des lèvres, les clignements d’yeux, la texture de peau ou le spectre audio.
Mais aucune méthode n’est infaillible. C’est pourquoi la détection doit être accompagnée d’une vigilance humaine, d’une politique de sécurité adaptée et d’une réponse juridique rapide.
Comment se protéger des deepfakes ?
Les deepfakes ne sont plus de la science-fiction. Ils sont aujourd’hui une réalité technologique, juridique et psychologique. Face à cette menace, l’anticipation, la connaissance des outils et la réaction rapide sont essentielles.
ID Protect vous accompagne dans la protection de votre image numérique et la réponse aux usurpations d’identité.
Chez ID Protect, nous recommandons :
- Veille d’identité numérique : détection des fausses vidéos ou profils, veille sur les plateformes de diffusion.
- Sensibilisation : formation à la reconnaissance des deepfakes et aux bonnes pratiques.
- Vérification systématique : authentification par double canal en cas de vidéo inhabituelle ou demande douteuse.
- Protocole de réponse rapide : en cas de diffusion d’un deepfake, agir juridiquement et médiatiquement.
Besoin d’un audit ou d’un accompagnement ? Contactez nos experts !
FAQ : Questions que vous n’osez pas poser sur les deepfakes
- Comment savoir si mon visage a été utilisé dans un deepfake ? Des outils comme PimEyes ou FaceCheck ID permettent de rechercher votre visage sur Internet à partir d’une simple photo. Pour une surveillance plus poussée, ID Protect peut mettre en place une veille d’identité numérique et alerter en cas d’activité suspecte (vidéos détournées, faux profils, diffusion non autorisée).
- Peut-on créer un deepfake de soi-même pour se protéger ? Oui, c’est même une stratégie utilisée par certaines entreprises et personnalités publiques : générer un double numérique contrôlé permet d’établir une empreinte de référence, facilitant la détection future des falsifications.
- Quel est le coût moyen d’un deepfake de qualité ? Un deepfake vocal basique peut coûter moins de 5 € avec des outils comme ElevenLabs ou Play.ht. Pour une vidéo avec synchronisation labiale réaliste, générée par IA, les tarifs varient de 20 € à 500 €, selon la durée, la résolution, et le niveau de réalisme attendu. Des productions ultra-réalistes utilisées en fraude peuvent nécessiter plusieurs heures de traitement et une IA spécialisée.
- Les enfants et ados sont-ils exposés ? Oui, et de manière croissante. Les adolescents exposent souvent leur visage, voix et comportements en ligne (TikTok, Instagram, YouTube). Cela constitue un matériel de base idéal pour créer des deepnudes, des vidéos truquées à caractère sexuel ou des détournements humiliants, parfois utilisés dans des campagnes de cyberharcèlement scolaire. Une vigilance parentale active est indispensable.
- Les deepfakes ne sont-ils que des vidéos préenregistrées ? Non. Des applications permettent aujourd’hui de générer des deepfakes en direct (live deepfakes) lors de visioconférences ou de streams. Des logiciels comme Avatarify, Snap Camera, ou FaceRig (avec des modèles IA) permettent de remplacer un visage en temps réel, rendant les faux entretiens, usurpations en visio ou appels vidéo frauduleux encore plus crédibles.
- La qualité du deepfake dépend-elle des vidéos ou audios de base ? Oui, plus le matériau source est clair, long et varié, plus le résultat sera réaliste. Une IA a besoin de multiples angles de visage, expressions faciales et samples vocaux pour produire un rendu convaincant. Une personne très présente en ligne, avec des vidéos en haute définition et des podcasts ou stories audio, est beaucoup plus vulnérable à un deepfake réaliste.
- Existe-t-il des filtres IA dangereux pour les utilisateurs ? Oui. Certains filtres populaires (visage vieilli, changement de sexe, imitation de célébrités) présents dans des applications virales (Snapchat, Instagram …) peuvent enregistrer les données faciales à l’insu de l’utilisateur. Une fois stockées, ces données peuvent servir à alimenter des bases d’entraînement pour des IA génératives, voire à des détournements malveillants.
- Peut-on détecter un deepfake en visio en direct ? C’est beaucoup plus complexe qu’avec un fichier vidéo. Des signes peuvent alerter : microdécalage entre voix et lèvres, clignements d’yeux étrangement réguliers, qualité vidéo figée, ou voix légèrement métallique. En cas de doute, il est essentiel de vérifier par un autre canal (appel téléphonique, messagerie sécurisée, mot de passe ou code préétabli).