Recientemente, el sitio web de noticias tecnológicas TechCrunch reveló que Google está utilizando el modelo de IA Claude de Anthropic para evaluar el rendimiento de su propio modelo de IA Gemini, lo que ha generado un amplio debate en la industria sobre la conformidad.
Según los informes, TechCrunch revisó documentos de comunicación interna que muestran que los contratistas del proyecto Gemini de Google están comparando y analizando las respuestas de Gemini con las de Claude para evaluar la precisión y la calidad de la salida de Gemini.
En este proceso de evaluación, los contratistas deben determinar en 30 minutos qué modelo de IA proporciona la respuesta superior. El informe también menciona que en la plataforma interna de Google utilizada para comparar modelos de IA, las respuestas de Claude incluían referencias explícitas a sí mismo. En términos de seguridad, Claude parece ser más cauteloso que Gemini; a veces se niega a responder a indicaciones consideradas inseguras o proporciona respuestas más prudentes. Por ejemplo, una respuesta de Gemini que involucraba contenido de "desnudez y ataduras" fue etiquetada como una "grave violación de seguridad".
Las condiciones de servicio de Anthropic establecen claramente que no se puede utilizar Claude para construir productos competitivos o entrenar modelos de IA competitivos sin autorización. Un portavoz de Google DeepMind confirmó que comparan la salida de diferentes modelos con fines de evaluación, pero negó el uso del modelo de Anthropic para entrenar Gemini. Cabe destacar que Google también es uno de los principales inversores de Anthropic.
Shira McNamara, portavoz de Google DeepMind, declaró: "De acuerdo con las prácticas estándar de la industria, a veces comparamos la salida de los modelos como parte del proceso de evaluación. Sin embargo, cualquier afirmación sobre el uso de nuestro modelo de Anthropic para entrenar Gemini es inexacta."
Puntos clave:
📜 Google utiliza Claude AI de Anthropic para evaluar Gemini, lo que podría violar las condiciones de servicio.
🔐 Claude parece ser más estricto que Gemini en cuanto a seguridad.
💼 Google DeepMind niega el uso del modelo de Anthropic para entrenar Gemini, pero confirma la práctica de evaluar la salida de los modelos.