Investigadores de la Universidad de Sheffield en el Reino Unido han revelado un hallazgo preocupante: las herramientas de inteligencia artificial como ChatGPT pueden ser manipuladas para generar código malicioso, poniendo en peligro la seguridad de las bases de datos.

Varias herramientas de IA comerciales presentan vulnerabilidades de seguridad. Un ataque exitoso podría provocar la filtración de información confidencial de las bases de datos y la interrupción de sus servicios normales.

Los investigadores instan a los usuarios a estar atentos a los riesgos potenciales y enfatizan la necesidad de crear una nueva comunidad para garantizar que las estrategias de ciberseguridad se mantengan al día con la evolución de las amenazas.

Algunas empresas ya han adoptado las recomendaciones para solucionar las vulnerabilidades de seguridad, pero el problema requiere una atención continua.