La competencia entre los gigantes tecnológicos en el campo de la IA se está intensificando, y una noticia reciente ha vuelto a sacar a la luz las tensiones subyacentes en la industria. Según comunicaciones internas obtenidas por TechCrunch, los contratistas encargados de mejorar el modelo de inteligencia artificial Gemini de Google estaban comparando sus respuestas con las del modelo competidor Claude de Anthropic. Esto ha generado dudas sobre si Google obtuvo la autorización de Anthropic para utilizar Claude en sus pruebas.

En el contexto actual, donde las empresas tecnológicas compiten por desarrollar modelos de IA más avanzados, la evaluación del rendimiento suele hacerse mediante pruebas de referencia del sector, no mediante la dedicación de una gran cantidad de tiempo por parte de los contratistas para evaluar las respuestas de la competencia. Sin embargo, según las filtraciones, los contratistas de Gemini debían calificar cada respuesta vista según varios criterios, como la veracidad y la extensión. Los contratistas disponían de un máximo de 30 minutos para determinar cuál respuesta era mejor, la de Gemini o la de Claude.

Gemini, Google DeepMind, inteligencia artificial, IA

Los registros de chat internos muestran que los contratistas observaron que las respuestas de Claude parecían priorizar más la seguridad que las de Gemini. Un contratista comentó: "De todos los modelos de IA, Claude tiene la configuración de seguridad más estricta". En algunos casos, Claude no respondía a las indicaciones que consideraba inseguras, como hacerse pasar por diferentes asistentes de IA. En otra prueba, Claude evitó responder a una indicación, mientras que la respuesta de Gemini fue marcada como una "violación de seguridad grave" por incluir "desnudez y ataduras".

Las condiciones de servicio comercial de Anthropic prohíben explícitamente a los clientes el acceso no autorizado a Claude "para construir productos o servicios de la competencia" o "entrenar modelos de IA de la competencia". Cabe destacar que Google es uno de los principales inversores de Anthropic. Este contexto refuerza las dudas sobre la conformidad de las acciones de Google.

Ante esto, McNamara, portavoz de Google DeepMind (responsable de Gemini), afirmó que DeepMind sí "compara los resultados de los modelos" para su evaluación, pero que no entrenó Gemini con el modelo de Anthropic. "Por supuesto, siguiendo las prácticas del sector, en algunos casos comparamos los resultados de los modelos como parte del proceso de evaluación", dijo McNamara. "Sin embargo, cualquier afirmación sobre el uso de nuestro modelo de Anthropic para entrenar Gemini es inexacta".

Aunque Google niega haber utilizado Claude para entrenar Gemini, su afirmación de "comparar los resultados de los modelos" sigue siendo ambigua y no disipa completamente las dudas. Este incidente vuelve a plantear la preocupación sobre el uso de datos y la conformidad en el desarrollo de modelos de IA. En el competitivo campo de la IA, la forma de mantener una competencia justa y respetar los derechos de propiedad intelectual será un tema que requerirá una atención y debate continuos.