O Google atualizou recentemente os termos de uso de sua IA generativa, esclarecendo que os clientes podem implantar suas ferramentas de IA generativa em áreas de "alto risco", como saúde, para "decisões automatizadas", desde que haja supervisão humana.
De acordo com a versão mais recente da "Política de Uso Proibido de IA Generativa" do Google, publicada na terça-feira, os clientes podem usar a IA generativa do Google para tomar "decisões automatizadas" que possam ter um "impacto significativamente adverso" nos direitos individuais. Contanto que haja alguma forma de supervisão humana, os clientes podem usar a IA generativa do Google para decidir sobre emprego, moradia, seguros, benefícios sociais e outros assuntos em áreas de "alto risco".
No campo da IA, a tomada de decisões automatizadas refere-se a decisões tomadas por sistemas de IA com base em dados factuais e inferências. Por exemplo, um sistema pode decidir automaticamente se aprova um pedido de empréstimo ou seleciona candidatos a empregos.

Anteriormente, o rascunho dos termos do Google sugeria uma proibição completa do uso de sua IA generativa em decisões automatizadas de alto risco. Mas o Google disse ao TechCrunch que os clientes sempre podem usar sua IA generativa para decisões automatizadas, mesmo em aplicações de alto risco, desde que haja supervisão humana.
"Para todas as áreas de alto risco, nosso requisito de supervisão humana sempre existiu em nossa política", disse um porta-voz do Google em um e-mail. "Estamos reclassificando alguns itens [nos termos] e listando exemplos com mais clareza para que os clientes entendam melhor."
Os principais concorrentes do Google em IA, OpenAI e Anthropic, têm regulamentos mais rígidos sobre o uso de IA em decisões automatizadas de alto risco. Por exemplo, a OpenAI proíbe o uso de seus serviços em decisões automatizadas relacionadas a crédito, emprego, moradia, educação, pontuação social e seguros. A Anthropic permite que sua IA seja usada em decisões automatizadas em direito, seguros, saúde e outras áreas de alto risco, mas exige supervisão por "profissionais qualificados" e que os clientes divulguem que estão usando a IA para esse fim.
A IA de tomada de decisões automatizadas que afeta indivíduos está sob escrutínio rigoroso dos órgãos reguladores, que estão preocupados com os possíveis resultados tendenciosos dessa tecnologia. Pesquisas mostram, por exemplo, que a IA usada para aprovar pedidos de crédito e hipotecas pode perpetuar discriminações históricas.
A organização sem fins lucrativos Human Rights Watch pediu a proibição de sistemas de "pontuação social", argumentando que eles podem prejudicar o acesso das pessoas ao apoio social, prejudicar sua privacidade e perfilá-las de forma tendenciosa.
No Ato de Inteligência Artificial da UE, os sistemas de IA de alto risco (incluindo aqueles que tomam decisões sobre crédito pessoal e emprego) enfrentam a regulamentação mais rigorosa. Os fornecedores desses sistemas devem se registrar em um banco de dados, implementar gestão de qualidade e risco, empregar supervisores humanos, relatar incidentes às autoridades relevantes e cumprir outros requisitos.
Nos EUA, o Colorado aprovou recentemente uma lei que exige que os desenvolvedores de IA divulguem informações sobre sistemas de IA de "alto risco" e publiquem declarações que resumem as funções e limitações do sistema. Enquanto isso, a cidade de Nova York proibiu os empregadores de usar ferramentas automatizadas para triagem de candidatos a empregos, a menos que a ferramenta tenha sido auditada quanto a vieses no ano anterior.
O esclarecimento do Google sobre os termos de uso da IA demonstra a postura da empresa em relação à regulamentação do uso da IA. Permitir decisões automatizadas em áreas de alto risco, mas enfatizar a importância da supervisão humana, reflete tanto o potencial de aplicação da tecnologia de IA quanto a cautela em relação aos riscos potenciais.