La Unión Europea ha publicado recientemente un borrador de código de conducta para modelos de Inteligencia Artificial General (AGI), destinado a proporcionar a las empresas una hoja de ruta para el cumplimiento y la evitación de multas elevadas. Este documento, que se finalizará en mayo, detalla directrices para la gestión de riesgos y ofrece a las empresas un plan para cumplir con la normativa y evitar sanciones económicas significativas.

Las AGI son modelos de inteligencia artificial entrenados con una capacidad de cálculo total superior a 10²⁵ FLOP. Se espera que las empresas sujetas a estas directrices de la UE incluyan a OpenAI, Google, Meta, Anthropic y Mistral.

IA, Inteligencia Artificial, Robot, 2024d9dc94358d8e

El documento aborda varios ámbitos clave para los desarrolladores de AGI: transparencia, cumplimiento de derechos de autor, evaluación de riesgos y mitigación de riesgos tecnológicos/de gobernanza. La regulación hace hincapié en la transparencia en el desarrollo de la IA y exige a las empresas de IA que proporcionen información sobre los rastreadores web utilizados para entrenar sus modelos.

La sección de evaluación de riesgos tiene como objetivo prevenir la ciberdelincuencia, la discriminación generalizada y la pérdida de control sobre la IA. Los fabricantes de IA deben adoptar un Marco de Seguridad (SSF) para desglosar sus políticas de gestión de riesgos y mitigarlas en función de los riesgos sistémicos.

Las empresas que infrinjan la Ley de Inteligencia Artificial se enfrentarán a sanciones severas, con multas de hasta 35 millones de euros (actualmente 36,8 millones de dólares) o el 7% de su facturación anual mundial, la cifra que sea mayor.

La UE invita a las partes interesadas a enviar sus comentarios a través de la plataforma Futurium dedicada antes del 28 de noviembre para ayudar a perfeccionar el próximo borrador. Se prevé que las normas estén finalizadas el 1 de mayo de 2025.