Imaginez : votre mère reçoit un appel. Au bout du fil, votre voix — reconnaissable entre mille — supplie en pleurant. Vous avez eu un accident, vous êtes retenu par la police, il faut envoyer 15 000 euros tout de suite. Sauf que… ce n’est pas vous. C’est une intelligence artificielle qui parle à votre place. Et cette situation n’a rien d’un scénario de science-fiction : elle se multiplie à une vitesse alarmante partout dans le monde.

Le 3 avril 2026, le Better Business Bureau américain a lancé une alerte officielle : les escrocs utilisent massivement le clonage vocal par IA pour se faire passer pour vos proches et soutirer de l’argent. Voici tout ce que vous devez savoir pour ne pas tomber dans le piège — et surtout, pour protéger ceux que vous aimez.

3 secondes d’audio suffisent : la réalité glaçante du clonage vocal

Oubliez les heures d’enregistrement en studio. Aujourd’hui, les outils de clonage vocal par intelligence artificielle — comme VALL-E 2 de Microsoft ou Voice Engine d’OpenAI — sont capables de reproduire fidèlement une voix humaine à partir de seulement 3 secondes d’audio. Un message vocal WhatsApp, une story Instagram, un extrait de TikTok : voilà tout ce dont un escroc a besoin pour créer votre double vocal.

Selon une étude menée par McAfee auprès de 7 000 personnes dans le monde, 1 personne sur 4 a déjà été confrontée à une arnaque au clonage vocal ou connaît quelqu’un qui l’a été. Un chiffre d’autant plus inquiétant que 53 % des adultes partagent leur voix en ligne au moins une fois par semaine — offrant aux criminels une matière première quasi illimitée.

« Les escrocs peuvent désormais créer un clone convaincant de votre voix en utilisant seulement 3 secondes d’audio tiré d’une vidéo sur les réseaux sociaux ou d’un message vocal. »— McAfee, rapport sur les imposteurs artificiels

Les chiffres donnent le vertige. Les arnaques par clonage vocal ont bondi de 148 % en 2025 selon Resemble AI. À l’échelle mondiale, les pertes liées à la fraude par deepfake ont dépassé 200 millions de dollars rien qu’au premier trimestre 2025. Et parmi les victimes qui ont confirmé avoir perdu de l’argent après un clone vocal, 77 % ont subi une perte financière significative.

L’arnaque type : quand votre « fille » appelle en pleurant

Le scénario le plus répandu s’appelle l’arnaque au faux proche (ou « grandparent scam » en anglais). Un appel arrive. La voix ressemble trait pour trait à celle d’un enfant, d’un petit-enfant ou d’un conjoint. La personne pleure, semble paniquée, et décrit une situation d’urgence : accident de voiture, arrestation, hospitalisation. Puis, un soi-disant avocat ou policier prend le relais et donne des instructions très précises pour envoyer de l’argent — en liquide, par virement ou via une application de paiement.

Le cas de Sharon Brightwell, une mère de famille de Dover, en Floride, a fait les gros titres en juillet 2025. Elle a reçu un appel de sa « fille » en sanglots, affirmant avoir causé un accident dans lequel une femme enceinte avait été blessée. Un homme se présentant comme l’avocat de sa fille lui a ensuite demandé 15 000 dollars en cash pour payer la caution. Sharon a suivi toutes les instructions — jusqu’à ce qu’elle appelle sa vraie fille et découvre l’horrible vérité : elle avait parlé à une IA.

Et ce type d’escroquerie ne se limite pas aux particuliers. En février 2024, un employé du cabinet d’ingénierie britannique Arup, basé à Hong Kong, a été piégé lors d’une visioconférence entièrement truquée par deepfake. Croyant parler à son directeur financier et à plusieurs collègues, il a transféré 25 millions de dollars sur des comptes frauduleux. Des visages, des voix, des manières — tout était faux, et pourtant suffisamment convaincant pour déjouer la vigilance d’un professionnel.

En France aussi, la menace est bien réelle

La France n’est pas épargnée. Selon une étude McAfee, plus d’un Français sur quatre a déjà été ciblé par une arnaque utilisant le clonage vocal. Le site gouvernemental Ma Sécurité (masecurite.interieur.gouv.fr) a publié une fiche pratique dédiée aux arnaques par IA, rappelant que les cybercriminels peuvent utiliser cette technologie pour « créer de fausses vidéos ou de faux enregistrements » destinés à manipuler les victimes.

En mars 2026, France Bleu a consacré un reportage à ces escroqueries où un escroc clone la voix d’un proche pour soutirer de l’argent. Par ailleurs, le phénomène a aussi des répercussions dans le monde professionnel : en février 2026, 25 comédiens de doublage français ont attaqué en justice des plateformes américaines pour avoir cloné leurs voix sans leur consentement, réclamant le retrait des modèles et 20 000 euros de dommages et intérêts chacun.

La menace est devenue si courante que les institutions financières ont enregistré une hausse de 32 % des tentatives de fraude vocale par IA en 2025. Les pertes liées aux fraudes numériques aux États-Unis ont atteint 12,5 milliards de dollars la même année, avec une contribution significative des attaques assistées par IA.

5 réflexes simples pour vous protéger dès ce soir

La bonne nouvelle, c’est que vous n’avez pas besoin d’être expert en cybersécurité pour vous défendre. Voici les gestes recommandés par le FBI, la FTC, le BBB et les spécialistes en sécurité numérique :

1. Créez un mot de passe familial secret. C’est LE conseil numéro un des experts. Choisissez un mot ou une phrase que seule votre famille connaît — quelque chose de non-évident et jamais partagé en ligne. En cas d’appel suspect, demandez ce code. Une IA ne pourra pas le deviner.

2. Raccrochez et rappelez. Si vous recevez un appel d’urgence d’un proche, ne restez pas en ligne. Raccrochez immédiatement et rappelez la personne sur son vrai numéro. Les escrocs comptent sur la panique pour vous empêcher de réfléchir.

3. Méfiez-vous de l’urgence extrême. Les demandes d’argent qui exigent une action immédiate — « surtout ne dis rien à personne », « il faut payer dans l’heure » — sont presque toujours des signaux d’arnaque. Un vrai proche comprendrait que vous preniez le temps de vérifier.

4. Limitez votre empreinte vocale en ligne. Réduisez les contenus où votre voix est audible sur les réseaux sociaux publics. Passez vos profils en privé. Chaque vidéo ou audio public est une source potentielle pour un clone vocal.

5. N’envoyez jamais d’argent via des moyens non traçables. Cash dans une enveloppe, cartes prépayées, crypto-monnaies : ce sont les méthodes préférées des escrocs. Aucune institution légitime ne vous demandera jamais de payer de cette manière.

« Si vous recevez un appel d’un proche demandant de l’aide ou de l’argent, votre première réaction doit être de demander le code familial, calmement. »— Experts en cybersécurité, recommandation relayée par le BBB

À retenir

  • 3 secondes d’audio suffisent pour qu’une IA clone votre voix de manière convaincante — un simple message vocal ou une vidéo publique y suffit.
  • 1 personne sur 4 dans le monde a déjà été confrontée à ce type d’arnaque, selon McAfee.
  • Les pertes mondiales liées aux deepfakes vocaux ont dépassé 200 millions de dollars au seul premier trimestre 2025.
  • Le mot de passe familial (un code secret partagé uniquement entre proches) est la défense la plus efficace et la plus simple à mettre en place.
  • En cas d’appel suspect : raccrochez, rappelez, vérifiez. Ne cédez jamais à la panique ni à l’urgence artificielle.
  • La France est concernée : les autorités (CNIL, site Ma Sécurité) et les médias alertent régulièrement sur ces nouvelles formes d’escroquerie.
  • Ce soir, en famille, choisissez votre mot de passe secret. C’est un geste de 2 minutes qui peut vous éviter des milliers d’euros de pertes.

Photo : RDNE Stock project via Pexels