El experto en seguridad Johann Rehberger ha revelado recientemente una preocupante vulnerabilidad de seguridad: ChatGPT puede ser explotado como software espía para robar datos de usuarios de forma continua. Rehberger ha denominado este tipo de ataque "SpAIware", y se centra en la nueva función de memoria a largo plazo de la aplicación ChatGPT para macOS.
Esta vulnerabilidad aprovecha la función de memoria persistente recientemente implementada en ChatGPT. Mediante la inyección de indicaciones cuidadosamente elaboradas, los atacantes pueden insertar comandos maliciosos en la memoria a largo plazo de ChatGPT, haciendo que transmita el contenido de las conversaciones de los usuarios a un servidor remoto. Lo que es aún más preocupante es que este ataque no requiere acceso directo a la cuenta del usuario, pudiendo realizarse a través de una carga útil codificada en una imagen o un sitio web.
Nota de la fuente de la imagen: La imagen fue generada por IA, el servicio de autorización de imágenes es Midjourney
Aunque inicialmente OpenAI respondió con frialdad al informe de Rehberger, después de que éste proporcionara una prueba de concepto, el equipo de desarrollo finalmente tomó medidas. Actualmente, OpenAI ha lanzado parches parciales que impiden que ChatGPT envíe datos a servidores remotos. Sin embargo, la IA todavía puede aceptar indicaciones de fuentes no confiables, lo que significa que los atacantes aún pueden inyectar indicaciones maliciosas en la memoria a largo plazo.
Rehberger destaca que este ataque es prácticamente invisible para el usuario y persistente. Incluso si el usuario inicia una nueva conversación, los comandos maliciosos implantados seguirán robando datos. Por el momento, esta vulnerabilidad solo se ha confirmado en la versión de la aplicación ChatGPT para macOS; la versión web no se ve afectada.
Para prevenir posibles riesgos, los usuarios deben tener precaución al usar ChatGPT para escanear sitios web o imágenes desconocidas. También se recomienda revisar periódicamente las herramientas de memoria de la aplicación y eliminar cualquier entrada sospechosa. Este incidente nos recuerda una vez más que, mientras disfrutamos de la comodidad de la IA, "No confiar en la IA" ("TrustNoAI") podría ser una máxima que todos deberíamos tener presente.