Selon Libération, les escroqueries téléphoniques exploitant l’intelligence artificielle se multiplient. Les malfaiteurs utilisent désormais des outils d’IA pour passer des appels sans émettre de son, dans le but de récupérer la voix des victimes et de les utiliser ensuite pour des arnaques ciblées, notamment des vols d’identité.
Ce qu'il faut retenir
- Les escroqueries par téléphone via l’IA ciblent désormais les particuliers en enregistrant leur voix sans interaction directe.
- Le vishing (phishing vocal) et le spoofing (usurpation d’identité) sont les deux techniques principales exploitées.
- Ces méthodes permettent aux fraudeurs de reconstituer des échanges crédibles pour extorquer des informations sensibles.
Des appels silencieux aux arnaques élaborées
La technique repose sur un principe simple : un appel est passé vers une victime potentielle, mais sans que l’appelant ne parle. Le simple fait de décrocher et d’émettre un son – même un « allô » – suffit à enregistrer la voix de la personne. Cette voix est ensuite analysée et exploitée par des algorithmes d’IA pour imiter son timbre, son intonation, voire ses expressions courantes.
Bref, une fois la voix capturée, les escrocs peuvent l’utiliser pour simuler un échange authentique avec des proches, des services administratifs ou des institutions financières. « On assiste à une sophistication sans précédent des techniques de fraude, où la frontière entre une communication réelle et une arnaque devient de plus en plus floue », explique un expert en cybersécurité cité par Libération.
Le vishing et le spoofing, les deux visages de la menace
Le vishing – contraction de « voice » et « phishing » – consiste à utiliser la voix de la victime pour la manipuler. Par exemple, un escroc pourrait appeler le service client d’une banque en imitant la voix du titulaire du compte, afin de demander un virement urgent ou la modification des identifiants. « Les banques enregistrent de plus en plus de tentatives de vishing, où l’authentification vocale est devenue un nouveau terrain de fraude », précise un responsable bancaire.
Le spoofing, quant à lui, repose sur l’usurpation de numéro de téléphone. Les fraudeurs peuvent faire apparaître sur l’écran de leur victime un numéro officiel – celui d’une administration, d’un service client ou même d’un proche – pour gagner en crédibilité. « L’objectif est de créer un climat de confiance immédiat, avant de passer à l’étape de l’extorsion », ajoute Libération.
Des victimes souvent prises au dépourvu
Les profils les plus exposés sont les personnes âgées, souvent moins familières avec les nouvelles technologies, ainsi que les professionnels dont l’identité est régulièrement sollicitée. « Un seul appel silencieux peut suffire à compromettre des années de sécurité numérique », souligne un conseiller en prévention des fraudes.
Les services de police et les associations de consommateurs alertent depuis plusieurs mois sur cette tendance. En 2025, les signalements d’arnaques par voix synthétique ont augmenté de 40 % en France, selon les dernières données de la DGCCRF (Direction générale de la concurrence, de la consommation et de la répression des fraudes).
Les prochaines étapes pourraient inclure l’adoption de protocoles d’authentification renforcée, comme la vérification systématique par code PIN ou biométrie avant tout échange vocal sensible. Reste à voir si ces mesures suffiront à endiguer une tendance qui, selon certains observateurs, « pourrait encore s’aggraver avec l’amélioration des outils d’IA générative ».
En attendant, les autorités recommandent de signaler toute tentative suspecte via la plateforme 3018, dédiée aux signalements de contenus illicites en ligne, ou directement auprès de sa banque en cas de doute sur un appel reçu.
Plusieurs indices peuvent alerter : un appel silencieux au départ, une demande urgente de transmission d’informations sensibles (mots de passe, codes bancaires), ou une voix synthétique difficile à distinguer d’une voix humaine. Il est conseillé de raccrocher et de rappeler l’interlocuteur via un numéro officiel.