Selon une communication interne obtenue par TechCrunch, Google demande à des sous-traitants de comparer son IA Gemini à Claude d'Anthropic, ce qui soulève des questions de conformité.
Des documents montrent que les sous-traitants chargés d'améliorer Gemini doivent, en 30 minutes, évaluer la qualité des réponses de Gemini et de Claude selon plusieurs critères, notamment la véracité et l'exhaustivité. Les sous-traitants ont récemment trouvé des mentions explicites de Claude sur la plateforme d'évaluation interne de Google, y compris la phrase « Je suis Claude, créé par Anthropic ».
Des discussions internes révèlent que les sous-traitants ont constaté que Claude présentait des mesures de sécurité plus strictes. Un sous-traitant a déclaré que « les paramètres de sécurité de Claude sont les plus stricts de tous les modèles d'IA ». Dans certains cas, lorsque la réponse de Gemini était marquée comme « violation grave des règles de sécurité » pour avoir abordé des sujets comme « la nudité et la ligature », Claude refusait directement de répondre à la requête.
Il est important de noter que cette pratique de Google, principal investisseur d'Anthropic, pourrait enfreindre les conditions d'utilisation d'Anthropic. Ces conditions interdisent explicitement l'accès non autorisé à Claude pour « construire des produits concurrents » ou « entraîner des modèles d'IA concurrents ». Interrogée sur l'obtention d'une autorisation d'Anthropic, Shira McNamara, porte-parole de Google DeepMind, a refusé de répondre directement.
McNamara a déclaré que bien que DeepMind « compare effectivement les résultats des modèles » à des fins d'évaluation, elle a nié utiliser les modèles Anthropic pour entraîner Gemini. « Cela correspond aux pratiques standard du secteur », a-t-elle déclaré, « mais toute affirmation selon laquelle nous utilisons les modèles Anthropic pour entraîner Gemini est inexacte. »
Auparavant, Google avait demandé à ses sous-traitants d'évaluer les réponses de Gemini en dehors de ses domaines d'expertise, ce qui a suscité des inquiétudes chez les sous-traitants quant à la possibilité que l'IA fournisse des informations inexactes dans des domaines sensibles tels que les soins de santé.
Au moment de la publication, un porte-parole d'Anthropic n'avait pas encore fait de commentaire sur cette affaire.