Recientemente, un impactante caso de estafa con clonación de voz mediante IA ha generado una gran preocupación, destacando los enormes riesgos que esta tecnología puede conllevar.
El padre del reconocido abogado defensor del consumidor, Jay Shuster, estuvo a punto de ser víctima de este sofisticado fraude. Los estafadores utilizaron IA para imitar la voz de Jay, alegando que había sido arrestado por conducir bajo los efectos del alcohol y que necesitaba urgentemente 30.000 dólares de "fianza". Lo sorprendente es que los estafadores solo necesitaron 15 segundos de audio de una entrevista televisiva para crear una clonación de voz casi perfecta. A pesar de que Jay había advertido previamente a su familia sobre este tipo de estafas, estuvieron a punto de caer en la trampa.
Este incidente no solo expone los peligros potenciales de la tecnología de clonación de voz mediante IA, sino que también genera inquietudes sobre el mal uso de la tecnología. Jay aboga por una mayor regulación de la industria de la IA para proteger a los consumidores de este tipo de estafas de alta tecnología.
Nota de la imagen: Imagen generada por IA, proveída por Midjourney.
Lo que más preocupa es que la tasa de éxito de este tipo de estafas podría ser mucho mayor de lo que imaginamos. Un estudio de la Universidad de Londres muestra que las personas tienen una tasa de error del 27% al identificar voces generadas por IA. En otras palabras, una de cada cuatro estafas telefónicas podría tener éxito. Este hallazgo destaca la vulnerabilidad humana ante la clonación de voz mediante IA altamente realista y subraya la urgencia de desarrollar herramientas más avanzadas para la detección de deepfakes.
Simultáneamente, expertos en seguridad de IBM han presentado una nueva técnica de ataque llamada "secuestro de audio". Esta tecnología combina varias técnicas de IA, como el reconocimiento de voz, la generación de texto y la clonación de voz, para manipular llamadas telefónicas en tiempo real y transferir fondos a cuentas falsas. Los expertos advierten que, a medida que la tecnología avanza, en el futuro podrían incluso aparecer ataques capaces de manipular videollamadas en tiempo real, lo que sin duda representaría un riesgo aún mayor para los consumidores.
Si bien la tecnología de clonación de voz también tiene usos positivos, como preservar la voz de personas con discapacidades, por el momento, los riesgos potenciales parecen superar con creces los beneficios. Recientemente, la actriz de doblaje Amelia Taylor sufrió el mal uso de su clon de voz mediante IA, que fue utilizado en una transmisión en vivo para leer contenido inapropiado, lo que provocó su indignación y generó preocupaciones sobre la protección de la privacidad personal.
Ante estas estafas de alta tecnología que proliferan, todos debemos estar más alerta. Los expertos recomiendan que, al recibir una llamada en la que se afirma que un familiar necesita ayuda financiera urgente, se mantenga la calma y se verifique la situación a través de otros canales. Al mismo tiempo, debemos apoyar la legislación y el desarrollo tecnológico pertinentes para abordar mejor los desafíos de seguridad que plantea la IA.