Récemment, une affaire de fraude par clonage vocal IA particulièrement inquiétante a suscité une attention considérable, soulignant les risques importants que cette technologie peut engendrer.

Le père de Jay Shuster, un avocat renommé spécialisé dans la protection des consommateurs, a failli devenir victime de cette escroquerie high-tech. Des fraudeurs ont utilisé l'IA pour imiter la voix de Jay, prétendant qu'il avait été arrêté pour conduite en état d'ivresse et qu'il avait besoin de 30 000 dollars de « caution ». Le plus choquant est que les fraudeurs n'ont eu besoin que de 15 secondes d'une interview télévisée pour créer un clonage vocal extrêmement réaliste. Malgré les avertissements de Jay concernant ce type d'arnaque, sa famille a failli se faire piéger.

Cet incident met en lumière non seulement les dangers potentiels du clonage vocal par IA, mais aussi les inquiétudes concernant l'abus de la technologie. Jay appelle à une réglementation plus stricte de l'industrie de l'IA afin de protéger les consommateurs contre ces fraudes high-tech.

Audio, microphone, radio

Source : Image générée par IA, fournisseur de services d'autorisation d'images Midjourney

Plus inquiétant encore, le taux de réussite de ce type d'escroquerie est probablement beaucoup plus élevé que nous ne le pensons. Une étude de l'Université de Londres révèle que les gens commettent une erreur dans 27 % des cas lorsqu'ils tentent d'identifier une voix générée par IA. En d'autres termes, un quart des appels frauduleux pourraient réussir. Cette découverte souligne la vulnérabilité des humains face à des clonages vocaux IA extrêmement réalistes et met en évidence l'urgence de développer des outils de détection des deepfakes plus sophistiqués.

Parallèlement, des experts en sécurité d'IBM ont présenté une nouvelle méthode d'attaque appelée « piratage audio ». Cette technique combine plusieurs technologies d'IA, telles que la reconnaissance vocale, la génération de texte et le clonage vocal, pour manipuler les appels téléphoniques en temps réel et transférer des fonds vers de faux comptes. Les experts mettent en garde contre le fait qu'avec les progrès technologiques, il pourrait même y avoir des attaques capables de manipuler les appels vidéo en temps réel, ce qui ne ferait qu'accroître les risques pour les consommateurs.

Bien que la technologie de clonage vocal ait également des applications positives, comme la préservation de la voix pour les personnes handicapées, les risques potentiels semblent actuellement bien plus importants que les avantages. Récemment, la doubleuse Amelia Taylor a été confrontée à l'utilisation abusive de son clonage vocal par IA, utilisé en direct pour lire un contenu inapproprié, ce qui a suscité sa colère et soulevé des questions concernant la protection de la vie privée.

Face à ces fraudes high-tech qui se multiplient, chacun d'entre nous doit redoubler de vigilance. Les experts recommandent de rester calme lorsqu'on reçoit un appel prétendant qu'un proche a besoin d'aide financière urgente et de vérifier la situation par d'autres canaux. Nous devons également soutenir les législations et les développements technologiques pertinents afin de mieux faire face aux défis sécuritaires posés par l'IA.