Recentemente, o site de notícias de tecnologia TechCrunch divulgou que o Google está usando o modelo de IA Claude da Anthropic para avaliar o desempenho de seu próprio modelo de IA Gemini, gerando uma ampla discussão na indústria sobre conformidade.

Modelo de linguagem grande do Google Gemini

Segundo relatos, o TechCrunch analisou documentos de comunicação interna, mostrando que os contratados do projeto Gemini do Google estão comparando as respostas do Gemini com as respostas do Claude para avaliar a precisão e a qualidade da saída do Gemini.

Neste processo de avaliação, os contratados precisam determinar em 30 minutos qual modelo de IA forneceu a resposta melhor. A reportagem também menciona que, na plataforma interna do Google usada para comparar modelos de IA, as respostas do Claude continham referências explícitas a si mesmo. Em termos de segurança, o Claude parece ser mais cauteloso que o Gemini, às vezes recusando-se a responder a prompts considerados inseguros ou fornecendo respostas mais prudentes. Por exemplo, uma resposta do Gemini foi marcada como uma "violação de segurança enorme" por incluir conteúdo sobre "nudez e algemas".

Os termos de serviço da Anthropic estabelecem claramente que o Claude não pode ser usado para construir produtos concorrentes ou treinar modelos de IA concorrentes sem autorização. Um porta-voz do Google DeepMind confirmou que eles comparam a saída de diferentes modelos para fins de avaliação, mas negou o uso do modelo da Anthropic para treinar o Gemini. É importante notar que o Google também é um dos principais investidores da Anthropic.

Shira McNamara, porta-voz do Google DeepMind, disse: "De acordo com as práticas padrão do setor, às vezes comparamos a saída do modelo como parte do processo de avaliação. No entanto, qualquer afirmação de que usamos o modelo da Anthropic para treinar o Gemini é imprecisa."

Destaques:

📜 O Google usa o Claude AI da Anthropic para avaliar o Gemini, possivelmente violando os termos de serviço.

🔐 O Claude parece ser mais rigoroso em termos de segurança do que o Gemini.

💼 O Google DeepMind nega o uso do modelo da Anthropic para treinar o Gemini, mas confirma a prática de avaliar a saída do modelo.