Image illustrative de l'intelligence artificielleUn grand nombre d'applications, dont plusieurs sont accessibles en ligne sans frais, offrent la capacité de recréer la véritable voix d'un individu au moyen de l'IA, en se basant sur un court enregistrement. - Photographie MF3d / Getty Images©

Les cybercriminels tirent parti des répliques de voix générées par l’IA, telles que celles proposées par EvenLabs, pour orchestrer des arnaques téléphoniques. Dans ce contexte, il devient essentiel de mettre en place des applications spécifiques conçues pour contrer les menaces des deepfakes.

L’expansion des arnaques téléphoniques alimentée par des outils d’IA inquiète les autorités

Selon les experts, les intelligences artificielles posent une menace majeure en effaçant pratiquement la ligne entre réalité et fiction. Cette capacité offre aux criminels des outils puissants et peu coûteux pour leurs activités. Aux États-Unis, les autorités sont préoccupées par l’émergence de nouvelles formes d’arnaques téléphoniques facilitées par des applications de réplication vocale IA disponibles en ligne. Ce phénomène suscite une inquiétude légitime. L’histoire de Jennifer DeStefano, une mère en Arizona, est un exemple concret. Au bout du fil, une voix implore son aide. Cette voix ressemble à celle de sa fille de 15 ans, partie en excursion de ski. Convaincue à 100% de l’authenticité, Jennifer DeStefano ne doute pas un instant. Cependant, la supercherie se dissipe lorsque Jennifer parvient à joindre sa fille. L’arnaqueur, parlant depuis un numéro inconnu, exige un million de dollars. Cette séquence troublante, actuellement sous enquête, met en lumière comment les criminels exploitent potentiellement les technologies d’IA.

Les répliques de voix par l’intelligence artificielle : un outil en main des arnaqueurs

Selon les explications de Wasim Khaled, le directeur général de Blackbird.AI, l’utilisation de l’intelligence artificielle pour la réplication vocale pose un défi : elle parvient désormais à imiter la parole humaine au point de rendre difficile toute distinction. Cette avancée profite notamment aux individus malveillants, tels que les arnaqueurs, en leur offrant un moyen plus efficace de solliciter des informations et de l’argent auprès de leurs cibles. De nombreuses applications, dont beaucoup sont disponibles en ligne sans frais, capitalisent sur cette technologie. Elles parviennent à reproduire de manière fidèle la voix authentique d’une personne en se basant sur de courts enregistrements. Ceux-ci peuvent être aisément extraits à partir de contenus publiés en ligne. Selon Wasim Khaled, ces outils permettent de créer des messages vocaux ainsi que des capsules audio à partir d’un simple extrait sonore. Ils peuvent même être utilisés en temps réel pour modifier la voix lors des conversations au téléphone.

Les autorités américaines mettent en garde les consommateurs surtout les personnes âgées

D’après les conclusions d’une enquête menée auprès de 7 000 individus répartis dans neuf pays, dont les États-Unis, il ressort qu’une personne sur quatre a été visée par une tentative d’arnaques téléphoniques basées sur la réplique vocale IA. Cette étude, publiée le mois dernier par McAfee Labs, apporte des données pertinentes. La popularité grandissante des arnaques téléphoniques a suscité un avertissement des autorités américaines. Selon l’agence de protection des consommateurs aux États-Unis (FTC), le scénario se présente de la manière suivante : lors d’un appel, une voix anxieuse se fait entendre de l’autre côté de la ligne, prétendant être votre petit-fils. Cette personne prétend être en difficulté à la suite d’un accident de voiture, et affirme avoir été placée en détention. Elle insiste sur le fait que votre contribution financière est essentielle pour résoudre la situation. Les commentaires suscités par cet avertissement de la FTC soulignent que plusieurs personnes âgées ont été victimes de cette arnaque bien ficelée.

Les applications utilisées par les cybercriminels diminuent notre confiance aux informations en ligne

Selon Hany Farid, professeur à l’UC Berkeley School of Information, la facilité avec laquelle on peut désormais recréer artificiellement une voix signifie que « quasiment toute personne présente en ligne est vulnérable ». Cette constatation est partagée auprès de l’AFP. Le phénomène des arnaques téléphoniques gagne du terrain, explique-t-il. Plus tôt cette année, la startup ElevenLabs a dû reconnaître qu’il était possible de détourner son outil de réplication vocale IA. Des utilisateurs ont publié en ligne un deepfake de l’actrice Emma Watson lisant « Mein Kampf ». L’avenir semble nous rapprocher rapidement d’une époque où la confiance envers les informations en ligne deviendra de plus en plus fragile. Il faudra alors compter sur de nouvelles technologies pour garantir que l’interlocuteur au bout du fil, à qui l’on croit parler, est authentique. C’est ce que souligne Gal Tal-Hochberg, un cadre de l’entreprise d’investissements dans le domaine technologique Team8.

 Avec ETX/DailyUp