Voix clonées, faux visages: comment se protéger de la fraude à l’IA?
Le téléphone sonne, la voix est familière – c’est celle de votre père, de votre patron, de votre partenaire commercial. Mais que se passe-t-il si cette voix n’est pas réelle? Grâce à l’intelligence artificielle (IA), les fraudeurs clonent les voix en quelques secondes – et trompent même lors d’appels vidéo avec de faux visages. Faites donc preuve d’une grande vigilance avec les numéros inconnus. Nouvelle arnaque: les appels silencieux destinés à vous faire parler pour copier votre voix et l’utiliser frauduleusement.
En bref
- Les fraudeurs clonent les voix avec l’IA – 10 à 20 secondes avec un matériel audio sont suffisantes.
- Les appels silencieux et les appels vidéo inconnus visent à recueillir des enregistrements vocaux et visuels à des fins frauduleuses.
- Une protection essentielle: garder son calme, rappeler en utilisant le numéro connu.
- En cas de transactions suspectes, Viseca vous contacte exclusivement via l’app one ou en vous invitant à vous adresser au service clientèle.

Votre téléphone sonne, vous décrochez – silence. Instinctivement, vous dites «Allô? Qui est là?» C’est précisément le piège. Les criminels utilisent les appels silencieux de manière ciblée pour collecter des échantillons de voix. En effet, une IA n’a besoin que de 10 à 20 secondes de votre voix – hauteur, rythme d’élocution, accent – pour en faire une copie, difficile à distinguer de l’originale. Il en va de même pour les appels vidéo utilisés pour créer des deepfakes.
Quand la voix et la vidéo mentent
Les voix clonées sont utilisées par exemple dans ce que l’on appelle l’arnaque du petit-fils 2.0: au téléphone, votre enfant semble être dans une situation de détresse et a besoin d’argent de toute urgence. La pression émotionnelle est énorme – et les personnes qui agissent dans la panique ne remettent rien en question.

Les vidéos deepfake vont encore plus loin: il s’agit d’enregistrements manipulés dans lesquelles des personnes réelles disent ou font des choses qui ne se sont jamais produites. De fausses vidéos mettant en scène la conseillère fédérale Keller-Sutter et l’animatrice de la SRF Mona Vetsch ont circulé en Suisse, faisant la promotion de plateformes d’investissement frauduleuses.
Un récent reportage de Kassensturz (en allemand) montre comment un Suisse a perdu 10 000 francs suisses à cause de ce genre de vidéo.
Les deepfakes sont également utilisés dans ce que l’on appelle la sextorsion: les fraudeurs créent de faux enregistrements intimes et s’en servent pour faire chanter les victimes.
Comment se protéger
La règle en cas d’appels silencieux: s’il n’y a aucun son en ligne, raccrochez immédiatement. Pas de «bonjour», pas de demande. Vous ne devez en aucun cas accepter des appels vidéo provenant de numéros inconnus.
Ne vous laissez jamais mettre sous pression. Raccrochez et rappelez la personne en utilisant un numéro connu – n’utilisez jamais la touche de rappel, car vous retomberez sur les fraudeurs. Convenez avec votre famille d’un nom de code en cas d’urgence. Et utilisez avec parcimonie les messages vocaux et les vidéos sur les réseaux sociaux – tout enregistrement public est un modèle potentiel pour les clones vocaux et les deepfakes.
Fausses alertes de sécurité par e-mail
Des messages d’hameçonnage circulent actuellement, prétendant provenir d’un département anti-fraude ou d’un service de sécurité. Le message affirme que votre carte est bloquée et vous demande de cliquer sur un lien pour la débloquer. L’objectif: voler les données de votre carte ou vos identifiants.
Important: Viseca ne vous demande jamais par e-mail ou par SMS de saisir les données de votre carte ou de cliquer sur des liens pour débloquer votre carte. Les notifications relatives à la sécurité vous parviennent exclusivement via l’app one ou sous la forme d’une invitation à contacter personnellement le service clientèle.
Vous êtes satisfait de Viseca ? Nous serions ravis de recevoir votre avis sur Google. Donnez votre avis ici