La voix au téléphone ressemble exactement à celle de votre enfant
Imaginez recevoir un appel de votre fille. Elle pleure, dit qu'elle a eu un accident de voiture et qu'elle a besoin d'argent immédiatement. La voix est la sienne — le ton, l'intonation, même la manière dont elle dit « maman ». Mais ce n'est pas elle. C'est une machine.
C'est un deepfake — un contenu synthétique créé par l'intelligence artificielle, capable de cloner la voix, le visage ou l'apparence de quelqu'un avec une précision saisissante. Ce qui nécessitait autrefois des studios hollywoodiens et des budgets de plusieurs millions peut désormais être réalisé avec une application pour smartphone et quelques secondes d'audio.
Qu'est-ce qu'un deepfake exactement ?
Le terme « deepfake » combine « deep learning » (un type d'IA) et « fake » (faux). Les algorithmes d'apprentissage profond analysent les schémas dans de vrais enregistrements audio ou vidéo, puis génèrent de nouveaux contenus qui imitent ces schémas. Pour le clonage vocal, l'IA étudie les enregistrements de la voix d'une personne — hauteur, rythme, accent, respirations — et produit des phrases entièrement nouvelles avec cette voix.
- Clones vocaux — discours généré par IA imitant la voix d'une personne spécifique
- Échanges de visages — vidéo où le visage d'une personne est remplacé par celui d'une autre
- Marionnettes corporelles — vidéo synthétique montrant une personne dire ou faire des choses qu'elle n'a jamais dites ou faites
- Imitateurs de style écrit — messages rédigés par IA copiant le style d'écriture d'une personne
À quelle vitesse cette technologie progresse-t-elle ?
La croissance de la technologie deepfake a été fulgurante. Des outils qui étaient des projets de recherche expérimentaux en 2019 sont aujourd'hui des applications librement accessibles. La barrière à l'entrée s'est effondrée.
Le Centre de plaintes pour la criminalité sur Internet (IC3) du FBI a signalé que les Américains ont perdu plus de 12,5 milliards de dollars à cause de la cybercriminalité en 2023, les arnaques par usurpation d'identité étant parmi les catégories à la croissance la plus rapide.
De vraies arnaques au clonage vocal qui se sont déjà produites
Début 2023, une mère en Arizona a reçu un appel de ce qui semblait être exactement sa fille de 15 ans, sanglotant et suppliant qu'on l'aide. Une voix d'homme a ensuite pris la ligne pour exiger une rançon. La fille était en sécurité chez elle pendant tout ce temps — les escrocs avaient cloné sa voix à partir de vidéos sur les réseaux sociaux.
Dans un autre cas, un PDG au Royaume-Uni a été trompé et a transféré 243 000 $ après avoir reçu un appel de ce qu'il croyait être son patron de la société mère. La voix était un clone créé par IA. L'argent avait disparu en quelques heures.
« J'aurais parié ma vie que c'était sa voix. Je n'avais aucun doute. C'est ce qui rend tout ça si terrifiant. » — Mère en Arizona visée par une arnaque au clonage vocal
Pourquoi les familles sont des cibles privilégiées
Les escrocs exploitent la seule chose qui surpasse la pensée rationnelle : l'amour. Quand vous croyez qu'un être cher est en danger, vous ne prenez pas le temps de vérifier. Vous agissez. Cet instinct biologique de protéger votre famille est exactement ce que les escrocs au deepfake utilisent comme arme.
- Les liens affectifs court-circuitent l'esprit critique en situation de crise
- Les voix des membres de la famille sont facilement accessibles sur les réseaux sociaux, les messageries vocales et les publications vidéo
- Les parents et grands-parents sont prêts à payer de grosses sommes rapidement quand ils croient qu'un proche est en danger
- Les scénarios d'urgence familiale créent une pression qui empêche toute vérification
- Les familles multigénérationnelles comptent des membres ayant différents niveaux de sensibilisation aux technologies
Ce que vous pouvez faire dès maintenant
La défense la plus efficace contre les arnaques au clonage vocal est un mot de passe familial — un mot ou une phrase secrète que seule votre famille connaît. Si quelqu'un appelle en prétendant être un membre de la famille en détresse, demandez le mot de passe. Aucune IA ne peut le deviner.
La technologie deepfake ne va pas disparaître — elle s'améliore et devient moins coûteuse chaque mois. Mais la sensibilisation est la première ligne de défense. Comprendre que n'importe quelle voix au téléphone peut être falsifiée représente un changement fondamental dans notre conception de la confiance. La bonne nouvelle : des solutions simples et non technologiques comme les mots de passe familiaux sont remarquablement efficaces, même contre les IA les plus sophistiquées.