Según una comunicación interna obtenida por TechCrunch, Google está haciendo que sus contratistas comparen su IA Gemini con Claude de Anthropic, lo que ha generado dudas sobre el cumplimiento normativo.

Los documentos muestran que los contratistas encargados de mejorar Gemini deben evaluar la calidad de las respuestas de Gemini y Claude en 30 minutos, basándose en varios criterios como la veracidad y la exhaustividad. Recientemente, los contratistas encontraron menciones explícitas a Claude en la plataforma de evaluación interna de Google, incluyendo la frase "Soy Claude, creado por Anthropic".

Las discusiones internas revelan que los contratistas notaron que Claude tiene una configuración de seguridad más estricta. Un contratista afirmó que "la configuración de seguridad de Claude es la más estricta de todos los modelos de IA". En algunos casos, cuando la respuesta de Gemini fue marcada como "violación grave de seguridad" por mencionar "desnudez y ataduras", Claude se negó directamente a responder a la solicitud.

Claude2, Anthropic, Inteligencia Artificial, Chatbot Claude

Cabe destacar que, como principal inversor de Anthropic, esta práctica de Google podría violar los términos de servicio de Anthropic. Estos términos prohíben explícitamente el acceso no autorizado a Claude para "construir productos de la competencia" o "entrenar modelos de IA de la competencia". Cuando se le preguntó si Google obtuvo la autorización de Anthropic, la portavoz de Google DeepMind, Shira McNamara, se negó a responder directamente.

McNamara declaró que, aunque DeepMind sí "compara los resultados de los modelos" para fines de evaluación, niega haber utilizado el modelo de Anthropic para entrenar Gemini. "Esto se ajusta a las prácticas estándar de la industria", dijo, "pero cualquier afirmación de que usamos el modelo de Anthropic para entrenar Gemini es inexacta".

Anteriormente, Google solicitó a los contratistas de productos de IA que evaluaran las respuestas de Gemini fuera de sus áreas de especialización, lo que generó preocupación entre los contratistas sobre la posibilidad de que la IA genere información inexacta en áreas sensibles como la atención médica.

Hasta el momento de la publicación, el portavoz de Anthropic no ha hecho comentarios sobre este asunto.