« Marie, une quinquagénaire vivant à Limoges, s’interroge après avoir entendu parler de l’expérience d’un Charentais victime d’une escroquerie. ‘Comment est-il possible qu’une voix clonée puisse paraître si authentique et quels sont les moyens pour éviter de tomber dans ce piège ?’ se demande-t-elle, inquiète pour elle et ses proches. »
Le monde numérique évolue à une vitesse fulgurante, et avec lui, les techniques de fraude et d’escroquerie. En Charente, un quinquagénaire a récemment été la cible d’une tentative d’arnaque particulièrement effrayante : Un appel téléphonique d’une voix qui lui était étrangement familière, celle de sa propre mère. Mais ce n’était pas elle. Grâce aux avancées de l’intelligence artificielle (IA), des cybercriminels avaient réussi à cloner sa voix, ouvrant la voie à un nouveau type de cyberattaque. Comment une telle manipulation est-elle possible ? Et surtout, comment se protéger contre ces nouvelles formes d’arnaques sophistiquées ?
L’escroquerie par voix clonée : Un témoignage glaçant
Dimanche soir, vers 21 heures, un habitant d’Angoulême reçoit un appel masqué. Au bout du fil, une voix reconnaissable entre mille : Celle de sa mère. Elle semblait paniquée, lui expliquant qu’elle avait perdu son sac à la gare et qu’elle avait besoin de ses coordonnées bancaires pour acheter un billet de train. « Allô mon fils, c’est maman », avait-elle dit, d’une voix tremblante. Le quinquagénaire raconte que l’intonation était si semblable à celle de sa mère qu’il a d’abord cru qu’il s’agissait vraiment d’elle.
Cependant, très vite, quelque chose clochait. Les réponses à ses questions tardaient à venir, les intonations changeaient de manière subtile, et surtout, la voix semblait incapable de répondre à des questions spécifiques. « Quelle gare ? Je n’ai jamais eu de réponse précise« , se souvient-il. C’est alors que le doute s’est installé. S’agissait-il vraiment de sa mère, ou d’une fraude élaborée ? Quelques minutes plus tard, l’escroc a raccroché, laissant la victime à la fois soulagée et bouleversée.
Comment l’arnaque est-elle possible ? Les mystères de l’IA
Les progrès en matière d’intelligence artificielle, notamment dans le domaine de la synthèse vocale, sont impressionnants. Aujourd’hui, il suffit de quelques extraits audio de la voix d’une personne pour que des logiciels sophistiqués puissent la reproduire à l’identique. Ces extraits sont souvent récupérés sur les réseaux sociaux ou des vidéos en ligne. À partir de là, l’IA peut générer des phrases que la personne n’a jamais prononcées. Dans ce cas précis, des escrocs ont utilisé ce type de technologie pour tenter de soutirer de l’argent à la victime.
Jean-Jacques Latour, directeur du site spécialisé en cybersécurité Cybermalveillance.gouv, explique : « Les cybercriminels dictent au logiciel ce qu’ils veulent que la voix dise. Cependant, ce processus entraîne un léger temps de latence dans les réponses, ce qui peut éveiller les soupçons des victimes attentives. »
Cette technique, connue sous le nom de deepfake vocal, est de plus en plus répandue. Si cette affaire est l’une des premières à être signalée en France, des cas similaires ont déjà été observés dans d’autres pays. Aux États-Unis, par exemple, une mère de famille a vécu un véritable cauchemar en recevant un appel prétendant être de sa fille kidnappée. La voix, tout aussi réaliste, avait réclamé une rançon avant que la mère ne réalise que sa fille était en sécurité à des centaines de kilomètres de là.
L’explosion des escroqueries liées à l’intelligence artificielle
L’utilisation de l’intelligence artificielle par les cybercriminels ouvre de nouvelles perspectives effrayantes. Florent Pagny, célèbre chanteur français, a récemment dénoncé une tentative similaire. Dans une vidéo truquée, sa voix et son image avaient été utilisées pour manipuler des fans. Ces techniques, autrefois réservées aux films de science-fiction, sont désormais à la portée de n’importe quel malfaiteur possédant une connexion Internet et des compétences techniques de base.
Selon une étude britannique menée par Starling Bank, 28% des personnes interrogées ont déclaré avoir été victimes d’escroqueries similaires au cours de l’année écoulée. Cependant, 46% des sondés n’avaient jamais entendu parler de ce type d’arnaque. Cela montre à quel point ces méthodes sont encore méconnues, mais aussi à quel point elles se propagent rapidement.
Comment se protéger contre les arnaques par voix clonée ?
Face à la montée de ces nouvelles formes d’escroquerie, il est crucial d’adopter des mesures de précaution.
Voici quelques conseils pour éviter de tomber dans le piège :
- Poser des questions spécifiques : Si vous recevez un appel suspect d’un proche demandant de l’argent ou des informations sensibles, posez-lui des questions auxquelles lui seul pourrait répondre. Par exemple, demandez des détails sur un événement ou une situation partagée uniquement entre vous deux.
- Vérifier l’identité par d’autres moyens : En cas de doute, ne répondez pas directement à l’appel ou ne fournissez aucune information sensible. Rappelez directement la personne à l’aide de son numéro habituel, ou contactez-la par un autre biais (SMS, email, etc.).
- Restez vigilant sur les réseaux sociaux : De nombreux escrocs utilisent des extraits vocaux récupérés en ligne. Limitez la diffusion publique de vidéos ou d’enregistrements vocaux personnels. Activez les paramètres de confidentialité de vos comptes pour restreindre l’accès à vos publications.
- Se méfier des appels masqués ou inconnus : Les escrocs ont souvent recours à des appels masqués pour éviter d’être traqués. Si vous recevez un appel masqué, redoublez de prudence et demandez à la personne de se présenter clairement avant de poursuivre la conversation.
- Utiliser des logiciels de protection : Des solutions de cybersécurité, comme les applications de filtrage d’appels ou les alertes automatiques en cas de tentatives de fraude, peuvent vous aider à bloquer des appels suspects avant même qu’ils n’atteignent votre téléphone.
Prévenir les arnaques du futur : La vigilance et l’éducation, nos meilleurs boucliers
Les escroqueries par intelligence artificielle, et en particulier par voix clonée, marquent un tournant inquiétant dans le monde de la cybercriminalité. Alors que cette technologie continue de progresser, il est impératif que chacun soit informé des risques et des précautions à prendre. Le témoignage de ce Charentais n’est qu’un exemple parmi d’autres des dangers que représente cette nouvelle forme d’arnaque.
Se prémunir contre ces attaques demande non seulement de la vigilance, mais aussi une bonne connaissance des outils de protection disponibles. En adoptant des réflexes simples, comme poser des questions précises et utiliser des moyens de communication alternatifs, vous pouvez réduire les risques de tomber dans le piège des escrocs.
La technologie évolue rapidement, et avec elle, les techniques des malfaiteurs. La sensibilisation et l’information restent nos meilleures armes pour éviter que ces arnaques ne fassent de nouvelles victimes.