Em 1º de agosto de 2024, a Lei de Inteligência Artificial da União Europeia entrou oficialmente em vigor, marcando o início de uma nova era regulatória. Esta legislação inovadora estabelecerá padrões claros e requisitos de conformidade para aplicações de inteligência artificial dentro da União Europeia. A implementação desta lei representa um passo importante para a governança da IA na UE e reflete sua abordagem baseada na gestão de riscos.
A lei estabelece prazos de conformidade escalonados para diferentes tipos de desenvolvedores e aplicações de inteligência artificial. Embora a maioria das disposições só entre totalmente em vigor em meados de 2026, algumas disposições-chave entrarão em vigor seis meses depois. Isso inclui a proibição do uso de algumas tecnologias de IA em circunstâncias específicas, como o uso de biometria remota por forças de segurança em espaços públicos.
Nota da fonte: Imagem gerada por IA, fornecida pela Midjourney.
De acordo com a abordagem de gestão de riscos da UE, as aplicações de IA são classificadas em diferentes níveis de risco. A maioria das aplicações cotidianas é classificada como de baixo risco ou sem risco e, portanto, não está sujeita a esta regulamentação. No entanto, algumas aplicações que podem representar riscos potenciais para indivíduos e o público são classificadas como de alto risco, como biometria, reconhecimento facial e software médico baseado em IA. As empresas que desenvolvem essas tecnologias de IA de alto risco devem garantir que seus produtos atendam a rigorosos padrões de gestão de riscos e qualidade, incluindo a realização de avaliações de conformidade abrangentes e possivelmente auditorias por órgãos reguladores.
Além disso, tecnologias classificadas como de "risco limitado", como chatbots, também devem atender a alguns requisitos de transparência, garantindo que os usuários estejam cientes de seu uso e prevenindo potenciais enganos ou fraudes.
A Lei de Inteligência Artificial também introduz um sistema de penalidades graduadas. As empresas que violarem a proibição do uso de aplicações de IA de alto risco enfrentarão penalidades severas, podendo chegar a 7% de sua receita anual global. Outras violações, como o não cumprimento das obrigações de gestão de riscos ou a apresentação de informações incorretas aos órgãos reguladores, resultarão em penalidades financeiras variadas, podendo chegar a 3% ou 1,5% da receita anual global.
A UE também estabeleceu disposições específicas para tecnologias conhecidas como Inteligência Artificial Geral (IAG). A maioria dos desenvolvedores de IAG será obrigada a cumprir obrigações de transparência leves, incluindo fornecer um resumo dos dados de treinamento e respeitar as regras de direitos autorais. Somente os modelos de IAG mais poderosos, classificados como potencialmente geradores de riscos sistêmicos, precisarão de avaliações e medidas de mitigação de riscos adicionais.
Com a entrada em vigor da Lei de Inteligência Artificial, o ecossistema de IA da UE entra em um novo capítulo. Desenvolvedores, empresas e o setor público agora têm um roteiro claro de conformidade, o que promoverá a inovação e o desenvolvimento do setor de IA, garantindo ao mesmo tempo que seu uso atenda aos padrões éticos e de segurança.
No entanto, os desafios permanecem. Algumas disposições específicas, especialmente os requisitos para sistemas de IA de alto risco, ainda estão em desenvolvimento. Os organismos europeus de normalização estão ativamente envolvidos neste processo e espera-se que concluam o desenvolvimento das normas relevantes até abril de 2025.