De acordo com uma comunicação interna obtida pela TechCrunch, o Google está fazendo com que contratados comparem seu Gemini AI com o Claude da Anthropic, levantando preocupações de conformidade.
Documentos mostram que os contratados responsáveis pela melhoria do Gemini precisam avaliar a qualidade das respostas do Gemini e do Claude em 30 minutos, com base em vários critérios, como precisão e exaustividade. Recentemente, os contratados encontraram referências explícitas ao Claude na plataforma de avaliação interna do Google, incluindo a frase "Eu sou o Claude, criado pela Anthropic".
Discussões internas revelam que os contratados notaram que o Claude apresenta um desempenho mais rigoroso em termos de segurança. Um contratado afirmou que "as configurações de segurança do Claude são as mais rigorosas de todos os modelos de IA". Em alguns casos, enquanto a resposta do Gemini foi marcada como "violação grave de segurança" por envolver "nudez e restrição", o Claude simplesmente recusou-se a responder ao prompt.
É importante notar que, como principal investidor da Anthropic, essa prática do Google pode violar os termos de serviço da Anthropic. Os termos proíbem explicitamente o acesso não autorizado ao Claude para "construir produtos concorrentes" ou "treinar modelos de IA concorrentes". Quando questionada sobre se obteve autorização da Anthropic, a porta-voz do Google DeepMind, Shira McNamara, recusou-se a responder diretamente.
McNamara afirmou que, embora o DeepMind realmente "compare as saídas dos modelos" para avaliação, nega o uso do modelo Anthropic para treinar o Gemini. "Isso está em conformidade com as práticas padrão do setor", disse ela, "mas qualquer afirmação de que usamos o modelo Anthropic para treinar o Gemini é imprecisa".
Anteriormente, o Google solicitou que os contratados de produtos de IA avaliassem as respostas do Gemini fora de sua área de especialização, o que gerou preocupações entre os contratados sobre a possibilidade de informações imprecisas serem geradas pela IA em áreas sensíveis, como saúde.
Até o momento da publicação, a Anthropic não comentou sobre o assunto.