O Google atualizou recentemente os termos de uso de sua IA generativa, permitindo explicitamente que os clientes usem suas ferramentas de IA generativa para "decisões automáticas" em áreas de "alto risco", como saúde e emprego, desde que haja supervisão humana. Essa mudança está refletida na política de uso proibido de IA generativa mais recente da empresa.
Observação da fonte: Imagem gerada por IA, provedor de serviços de licenciamento de imagens Midjourney
De acordo com a política atualizada, os clientes podem, sob supervisão, usar a IA generativa do Google para tomar decisões automáticas que possam ter um "impacto significativamente adverso" nos direitos individuais. Essas áreas de alto risco incluem emprego, moradia, seguros, benefícios sociais, etc. Os termos anteriores pareciam proibir totalmente as decisões automáticas de alto risco, mas a empresa Google afirma que, desde o início, permitia o uso de IA generativa para esse tipo de decisão sob supervisão humana.
Um porta-voz do Google respondeu à mídia: "A exigência de supervisão humana sempre existiu em nossa política, abrangendo todas as áreas de alto risco. Apenas recategorizamos alguns termos e listamos alguns exemplos com mais clareza para melhor compreensão do usuário."
Em comparação com a abordagem do Google, seus principais concorrentes, como OpenAI e Anthropic, têm regulamentos mais rígidos em relação às decisões automáticas de alto risco. A OpenAI proíbe o uso de seus serviços para decisões automáticas relacionadas a crédito, emprego, moradia, educação, pontuação social e seguros. Já a Anthropic permite que sua IA tome decisões automáticas em áreas de alto risco, como direito, seguros e saúde, mas apenas sob a supervisão de "profissionais qualificados", exigindo que os clientes informem explicitamente o uso da IA para esse fim.
Os órgãos reguladores expressaram preocupações sobre sistemas de IA de tomada de decisão automática, considerando que essa tecnologia pode levar a vieses nos resultados. Por exemplo, pesquisas mostram que a IA pode perpetuar discriminações históricas na aprovação de empréstimos e hipotecas.
Organizações sem fins lucrativos, como a Human Rights Watch, pedem especificamente a proibição de sistemas de "pontuação social", argumentando que eles ameaçam o acesso das pessoas à segurança social e podem violar a privacidade, criando perfis tendenciosos.
Na União Europeia, de acordo com a Lei de IA, os sistemas de IA de alto risco, incluindo aqueles envolvidos em decisões de crédito pessoal e emprego, enfrentam a regulamentação mais rigorosa. Os fornecedores desses sistemas devem se registrar em um banco de dados, gerenciar qualidade e riscos, contratar supervisores humanos e relatar incidentes às autoridades relevantes.
Nos Estados Unidos, o Colorado aprovou recentemente uma lei que exige que os desenvolvedores de IA divulguem informações sobre sistemas de IA de "alto risco" e publiquem um resumo das capacidades e limitações do sistema. Ao mesmo tempo, a cidade de Nova York proibiu os empregadores de usar ferramentas automáticas para selecionar candidatos, a menos que a ferramenta tenha sido auditada quanto a vieses no último ano.
Destaques:
🌟 O Google permite o uso de IA generativa em áreas de alto risco, mas com supervisão humana.
🛡️ Outras empresas de IA, como OpenAI e Anthropic, impõem restrições mais rígidas às decisões de alto risco.
⚖️ Os órgãos reguladores de vários países estão examinando sistemas de IA de tomada de decisão automática para evitar vieses nos resultados.