Imaginez recevoir un appel vidéo de votre PDG vous demandant un virement urgent et confidentiel. Sa voix, son visage, ses expressions : tout est parfaitement authentique. Sauf que ce n'est pas lui. Ou recevoir un message vocal de votre fils en détresse, vous suppliant de lui envoyer de l'argent immédiatement. Sauf que votre fils ne vous a jamais appelé. Ces scénarios ne relèvent plus de la science-fiction. En 2025, ils font partie du quotidien des escrocs les plus sophistiqués.
Les deepfakes — aussi appelés hypertrucages en français — sont des contenus vidéo, audio ou photo générés ou altérés par intelligence artificielle pour imiter à la perfection l'apparence et la voix d'une personne réelle. Et les chiffres donnent le vertige.
Une menace qui explose en France
Entre le premier trimestre 2024 et le premier trimestre 2025, les cas de fraude par deepfake ont bondi de 700 % en France, selon une analyse de la société Sumsub spécialisée dans la vérification d'identité. À l'échelle mondiale, les pertes cumulées liées à ces arnaques sont estimées à 863 millions d'euros en 2025, contre seulement 110 millions entre 2019 et 2023, selon le fournisseur de sécurité Surfshark.
Une autre étude menée par Signicat affirme que le coût des attaques par deepfake a progressé de 2 000 % depuis 2023 et l'arrivée de l'IA générative. Pour résumer l'ampleur du phénomène, Maud Fraison Lepetit, responsable France de Surfshark, parle désormais d'« industrialisation de la manipulation ».
Comment les deepfakes sont-ils fabriqués ?
La création d'un deepfake ne nécessite plus de compétences techniques avancées. Des outils accessibles en ligne permettent aujourd'hui à n'importe qui de générer des contenus trompeurs à partir de quelques photos ou secondes d'enregistrement audio glanées sur les réseaux sociaux.
Les technologies les plus utilisées par les fraudeurs incluent :
- La génération vidéo : des outils comme Sora (OpenAI) ou Runway permettent de créer des vidéos réalistes d'une personne disant ou faisant n'importe quoi.
- Le clonage vocal : des plateformes comme ElevenLabs ou Resemble.ai reproduisent une voix à partir de quelques secondes d'enregistrement, avec les intonations, le rythme et les particularités du locuteur d'origine.
- Le face-swap : des applications grand public permettent de substituer un visage dans une vidéo existante en temps réel, y compris lors d'une visioconférence en direct.
- La génération d'images : des outils comme Midjourney ou Stable Diffusion créent des photos ultra-réalistes de personnes qui n'existent pas, utilisées pour de faux profils ou de faux documents d'identité.
Les principales arnaques utilisant les deepfakes
L'arnaque émotionnelle familiale est l'une des plus insidieuses. Des parents reçoivent un appel vidéo de leur enfant ou petit-enfant apparemment en détresse, demandant un virement urgent pour un accident ou une situation de crise. Le visage est généré par IA à partir de vidéos publiques issues des réseaux sociaux, et la voix est clonée via des outils spécialisés. Le scénario mise sur le choc émotionnel pour court-circuiter le jugement.
La fraude au faux président atteint une nouvelle dimension avec les deepfakes. En 2023, une entreprise britannique a reçu un appel vidéo de son PDG basé à Dubaï, demandant un virement bancaire urgent pour un rachat stratégique confidentiel. Le visage, la voix et les tics de langage étaient entièrement générés par IA. Résultat : plus de 200 000 dollars volés. En 2025, ce type de fraude représente déjà plus de 77 millions d'euros de pertes pour huit affaires recensées.
Les faux entretiens de recrutement se multiplient également. Les fraudeurs utilisent l'IA pour créer des identités fictives, rédiger de faux CV et même réaliser des entretiens d'embauche grâce à des flux vidéo altérés, principalement dans le secteur informatique.
Les célébrités et personnalités publiques sont aussi ciblées. En France, une vidéo utilisant le visage de la présentatrice Anne-Claire Coudray a circulé pour promouvoir une application frauduleuse de gains rapides. Ces contenus exploitent la confiance du public envers des figures reconnues.
En France, des affaires spectaculaires ont été rapportées : une escroquerie de 25 millions d'euros via deepfake dans une entreprise, et une fraude à 19 millions d'euros utilisant des vidéos falsifiées pour duper des responsables lors de visioconférences.
Comment détecter un deepfake ?
Les deepfakes les plus sophistiqués sont aujourd'hui difficiles à repérer à l'œil nu. Les voix réelles et générées par IA sont désormais souvent indiscernables. Cependant, certains indices peuvent encore trahir la supercherie :
- Les mouvements du visage : clignements d'yeux irréguliers, contours légèrement flous autour de la tête, mouvements de lèvres décalés par rapport à la parole.
- L'éclairage et les reflets : des incohérences dans les reflets sur les yeux ou des zones d'ombre inhabituelles sur le visage.
- La voix : des hésitations artificielles, un manque de naturel dans les pauses, une absence des petites irrégularités qui caractérisent une voix humaine authentique.
- Le contexte de la demande : urgence inhabituelle, demande de confidentialité, pression pour agir sans vérification. Le meilleur indice reste souvent le contenu du message lui-même : une demande suspecte, urgente ou confidentielle est presque toujours le vrai signal d'alarme.
Comment se protéger concrètement ?
- Adoptez le réflexe du second canal : face à toute demande inhabituelle — même si elle semble venir d'un proche ou d'un supérieur — raccrochez et rappelez la personne sur son numéro officiel et connu. Ne répondez jamais à la demande sans cette vérification.
- Limitez vos publications publiques : photos, vidéos, enregistrements vocaux publiés sur les réseaux sociaux constituent la matière première des deepfakes. Passez vos profils en mode privé.
- Créez un mot de passe verbal avec vos proches ou collègues : une question ou un code secret que seul votre interlocuteur légitime peut connaître, à utiliser en cas de doute.
- Méfiez-vous des urgences imposées : la précipitation est l'arme principale de ces arnaques. Prenez toujours le temps de vérifier, même si cela semble impoli ou inefficace.
- Utilisez des outils de détection : l'application mobile Deepware Scanner ou des services en ligne comme deepfake-detector.com permettent d'analyser une vidéo suspecte.
Que dit la loi française ?
En France, l'escroquerie réalisée via un deepfake est punie de 5 ans d'emprisonnement et de 375 000 euros d'amende au titre de l'article 313-1 du Code pénal. Si votre image ou votre voix a été utilisée sans votre consentement, vous pouvez déposer une plainte auprès de la police ou de la gendarmerie, mais aussi saisir la CNIL, qui peut agir pour protéger vos données personnelles face aux risques liés aux deepfakes. Les deux démarches sont complémentaires et non exclusives.
Le bon réflexe en résumé
- Un appel vidéo ou vocal urgent demandant de l'argent = vérifiez toujours par un second canal avant d'agir
- Limitez vos photos et vidéos publiques sur les réseaux sociaux : elles alimentent les deepfakes
- La précipitation et la confidentialité imposées sont les deux signaux d'alarme principaux
- En cas de doute sur une vidéo, testez-la sur Deepware Scanner
- Si vous êtes victime : déposez plainte au commissariat ou à la gendarmerie et signalez sur internet-signalement.gouv.fr
- Pour une usurpation de votre image ou voix : contactez la CNIL
- Consultez la fiche officielle du ministère de l'Intérieur sur masecurite.interieur.gouv.fr