El rápido desarrollo de la inteligencia artificial (IA) en los últimos años ha brindado a las empresas numerosas oportunidades, pero al mismo tiempo, sus amenazas potenciales se hacen cada vez más evidentes. Según el nuevo informe de riesgos de 2024, una investigación revela que hasta un 80% de las empresas encuestadas aún no han elaborado un plan específico para abordar los riesgos de la IA generativa, incluyendo las amenazas a la seguridad como el fraude cibernético impulsado por la IA.
Esta investigación fue realizada por Riskconnect, una empresa de software de gestión de riesgos, y contó con la participación de 218 profesionales de cumplimiento de riesgos y resiliencia a nivel mundial. Los resultados muestran que el 24% de los encuestados cree que en los próximos 12 meses, las amenazas a la ciberseguridad impulsadas por la IA (como el ransomware, el phishing y las falsificaciones profundas) tendrán un impacto significativo en las empresas. Simultáneamente, el 72% de los encuestados afirmó que los riesgos de ciberseguridad han tenido un impacto significativo o grave en su organización, un porcentaje que ha aumentado con respecto al 47% del año pasado.
Con la creciente preocupación por la ética, la privacidad y la seguridad de la IA, el informe señala que, si bien las empresas están cada vez más preocupadas por la IA, no han podido implementar estrategias de gestión de riesgos de manera oportuna, y aún existen importantes lagunas. Por ejemplo, el 65% de las empresas no tienen políticas específicas para el uso de IA generativa por parte de sus socios y proveedores, a pesar de que los terceros son un canal de entrada común para los ciberdelincuentes.
Las amenazas internas tampoco deben subestimarse. Tomando como ejemplo el uso de IA generativa por parte de las empresas para crear contenido de marketing, Anthony Miyazaki, experto en marketing, advierte que, aunque la IA generativa destaca en la redacción de textos, el contenido final debe ser revisado por un humano para garantizar su persuasión y precisión. Además, depender de la IA para generar contenido web puede tener consecuencias negativas; por ejemplo, Google ha indicado claramente que el uso de contenido generado por IA para manipular los resultados de búsqueda reducirá su clasificación, lo que tendrá un impacto negativo en el posicionamiento en buscadores (SEO) de las empresas.
Para abordar estos desafíos, las empresas deben asegurarse de que sus políticas internas sean exhaustivas, protegiendo los datos sensibles y cumpliendo con las normativas correspondientes. John Skimoni, director de seguridad de Dell Technologies, afirma que establecieron principios antes del auge de la IA generativa para garantizar que el desarrollo de las aplicaciones de IA sea justo, transparente y responsable.
En Empathy First Media, una agencia de marketing digital, Ryan Dosser, vicepresidente, también destaca las estrictas medidas que la empresa ha tomado con respecto al uso de la IA por parte de sus empleados, incluyendo la prohibición de introducir datos sensibles de clientes en herramientas de IA generativa y la revisión humana obligatoria del contenido generado por IA. Estas medidas buscan aumentar la transparencia y generar confianza en los clientes.
Puntos clave:
🌐 El 80% de las empresas no tienen un plan específico para los riesgos de la IA generativa, lo que las expone a potenciales amenazas a la seguridad.
🔒 El 72% de las empresas considera que los riesgos de ciberseguridad han tenido un impacto significativo en ellas, lo que exige una mayor gestión de riesgos.
📈 Las empresas deben tomar medidas proactivas para garantizar la seguridad y el cumplimiento normativo de las aplicaciones de IA y evitar amenazas internas y externas.