En el mundo de la tecnología, se está desarrollando una especie de "juego del gato y el ratón" entre desarrolladores y la gerencia. Los protagonistas de este juego son las herramientas de codificación con IA que, a pesar de estar prohibidas por la empresa, son utilizadas a escondidas por los desarrolladores.
Según un reciente estudio global de la empresa de seguridad en la nube Checkmarx, a pesar de que el 15% de las empresas prohíben explícitamente el uso de herramientas de codificación con IA, casi todos los equipos de desarrollo (99%) las utilizan. Este fenómeno pone de manifiesto los desafíos en el control del uso de la IA generativa.
Solo el 29% de las empresas han establecido algún tipo de mecanismo de gobierno para las herramientas de IA generativa. En el 70% de los casos, no existe una estrategia unificada, y las decisiones de compra se toman de forma improvisada por los diferentes departamentos. Esta situación hace que la gerencia tenga dificultades para controlar el uso de las herramientas de codificación con IA.
Con la proliferación de las herramientas de codificación con IA, los problemas de seguridad son cada vez más evidentes. El 80% de los encuestados temen las posibles amenazas derivadas del uso de la IA por parte de los desarrolladores, y el 60% muestra especial preocupación por el problema de las "alucinaciones" de la IA.
A pesar de estas preocupaciones, el interés por el potencial de la IA sigue siendo alto. El 47% de los encuestados están abiertos a permitir que la IA realice cambios de código sin supervisión. Solo el 6% afirma que no confiaría en las medidas de seguridad de la IA en un entorno de software.
Tzruya afirma: "Las respuestas de estos responsables de seguridad informática globales revelan una realidad: los desarrolladores están utilizando la IA en el desarrollo de aplicaciones, incluso si la IA no puede crear código seguro de forma fiable, lo que significa que los equipos de seguridad deben enfrentarse a una gran cantidad de código nuevo y vulnerable."
Un informe reciente del índice de tendencias laborales de Microsoft muestra hallazgos similares: muchos empleados utilizan sus propias herramientas de IA sin que se les proporcionen. Por lo general, no discuten este uso, lo que impide la integración sistemática de la IA generativa en los procesos empresariales.
A pesar de las prohibiciones explícitas, el 99% de los equipos de desarrollo siguen utilizando herramientas de IA para generar código. Solo el 29% de las empresas han establecido un mecanismo de gobierno para el uso de la IA generativa. En el 70% de los casos, las decisiones sobre el uso de herramientas de IA por parte de los diferentes departamentos se toman de forma improvisada. Al mismo tiempo, los problemas de seguridad están aumentando. El 47% de los encuestados están abiertos a permitir que la IA realice cambios de código sin supervisión. Los equipos de seguridad se enfrentan al desafío de gestionar una gran cantidad de código generado por IA que podría ser vulnerable.
Este "juego del gato y el ratón" entre desarrolladores y la gerencia continúa, y el futuro de las herramientas de codificación con IA aún está por verse.