Recientemente, investigadores de la Universidad Estatal de Carolina del Norte presentaron un nuevo método para extraer modelos de inteligencia artificial (IA) mediante la captura de señales electromagnéticas emitidas por las computadoras, con una precisión superior al 99%. Este descubrimiento podría suponer un desafío para el desarrollo comercial de la IA, especialmente considerando las importantes inversiones de empresas como OpenAI, Anthropic y Google en modelos propietarios. Sin embargo, los expertos señalan que el impacto real de esta técnica en el mundo real y las medidas de defensa aún no están claras.
Lars Nyman, director de marketing de CUDO Compute, afirma que el robo de IA no solo implica la pérdida del modelo en sí, sino que también puede desencadenar una serie de reacciones en cadena, como la explotación de años de investigación y desarrollo por parte de la competencia, investigaciones regulatorias sobre la mala gestión de la propiedad intelectual, e incluso demandas de clientes que descubren que la "singularidad" de su IA no es tan única. Esta situación podría impulsar la adopción de auditorías estandarizadas en la industria, similares a las certificaciones SOC2 o ISO, para diferenciar a las empresas seguras de las irresponsables.
En los últimos años, la amenaza de ataques de hackers a modelos de IA ha aumentado considerablemente. La dependencia del sector empresarial de la IA hace que este problema sea aún más relevante. Informes recientes muestran que miles de archivos maliciosos se han subido a Hugging Face, un repositorio clave de herramientas de IA, lo que afecta gravemente a los modelos utilizados en sectores como el comercio minorista, la logística y las finanzas. Expertos en seguridad nacional advierten que las medidas de seguridad deficientes pueden provocar el robo de sistemas propietarios, como lo demuestra la vulnerabilidad de seguridad de OpenAI. Los modelos de IA robados pueden ser objeto de ingeniería inversa o venta, lo que debilita las inversiones de las empresas y destruye la confianza, permitiendo a la competencia avanzar rápidamente.
El equipo de investigación de la Universidad Estatal de Carolina del Norte logró revelar información clave sobre la estructura del modelo analizando las señales obtenidas mediante la colocación de sensores cerca de las unidades de procesamiento de tensor (TPU) de Google en la nube. Este método de ataque no requiere acceso directo al sistema, lo que representa un grave riesgo para la seguridad de la propiedad intelectual de la IA. El coautor del estudio, el profesor asociado de ingeniería eléctrica e informática Aydin Aysu, destaca que la creación de un modelo de IA no solo es costosa, sino que también requiere una gran cantidad de recursos informáticos, por lo que la prevención del robo de modelos es crucial.
Con la creciente aplicación de la tecnología de IA, las empresas necesitan reconsiderar algunos de los dispositivos utilizados para el procesamiento de IA. Suriel Arellano, asesor tecnológico, opina que las empresas podrían optar por una computación más centralizada y segura, o considerar otras tecnologías alternativas menos susceptibles al robo. A pesar del riesgo de robo, la IA también está reforzando la ciberseguridad, mejorando la eficiencia de respuesta mediante la detección automatizada de amenazas y el análisis de datos, lo que ayuda a identificar posibles amenazas y aprender a responder a nuevos ataques.
Puntos clave:
🔍 Los investigadores demostraron un método para extraer modelos de IA mediante la captura de señales electromagnéticas, con una precisión superior al 99%.
💼 El robo de modelos de IA puede permitir a la competencia aprovechar años de investigación y desarrollo de una empresa, afectando su seguridad comercial.
🔒 Las empresas deben reforzar la protección de sus modelos de IA para hacer frente a la creciente amenaza de ataques de hackers.