A União Europeia divulgou recentemente um projeto de código de conduta para modelos de Inteligência Artificial Geral (IAG), destinado a fornecer às empresas um roteiro para conformidade e evitar multas pesadas. O documento, que terá sua versão final em maio, lista diretrizes para a gestão de riscos e oferece às empresas um plano para conformidade e prevenção de multas significativas.
A IAG é uma inteligência artificial treinada com capacidade computacional total superior a 10²⁵ FLOP. Espera-se que as empresas sujeitas às diretrizes da UE incluam OpenAI, Google, Meta, Anthropic e Mistral.
O documento abrange várias áreas centrais para os desenvolvedores de IAG: transparência, conformidade com direitos autorais, avaliação de riscos e mitigação de riscos técnicos/de governança. A regulamentação enfatiza a transparência no desenvolvimento da IA e exige que as empresas de IA forneçam informações sobre os rastreadores da web usados para treinar os modelos.
A seção de avaliação de riscos visa prevenir crimes cibernéticos, discriminação generalizada e perda de controle sobre a IA. Os fabricantes de IA devem adotar uma estrutura de segurança (SSF) para decompor suas políticas de gestão de riscos e mitigá-las de acordo com os riscos sistêmicos.
As empresas que violarem a Lei de Inteligência Artificial enfrentarão penalidades severas, podendo ser multadas em até 35 milhões de euros (atualmente US$ 36,8 milhões) ou 7% de seu faturamento anual global, o que for maior.
A UE convida as partes interessadas a enviar comentários até 28 de novembro por meio da plataforma Futurium dedicada, para auxiliar no aprimoramento da próxima versão. As regras devem ser finalizadas em 1º de maio de 2025.