La compétition entre les géants de la technologie dans le domaine de l'IA est de plus en plus féroce, et une information récemment révélée met une fois de plus en lumière les tensions sous-jacentes. Selon des communications internes obtenues par TechCrunch, les sous-traitants chargés d'améliorer le modèle d'intelligence artificielle Gemini de Google comparaient ses réponses à celles de Claude, le modèle concurrent d'Anthropic. Cette pratique soulève des questions quant à la conformité de Google et à l'obtention d'une autorisation d'Anthropic pour utiliser Claude à des fins de test.
À l'heure où les entreprises technologiques s'efforcent de développer des modèles d'IA toujours plus performants, l'évaluation des performances se fait généralement par le biais de tests de référence sectoriels, et non par une comparaison laborieuse des réponses de l'IA concurrente par des sous-traitants. Or, selon les informations divulguées, les sous-traitants de Gemini devaient noter chaque réponse selon plusieurs critères, tels que la véracité et la longueur. Ils disposaient de 30 minutes maximum pour déterminer quelle réponse, celle de Gemini ou celle de Claude, était la meilleure.

Les discussions internes révèlent que les sous-traitants ont remarqué que les réponses de Claude semblaient mettre davantage l'accent sur la sécurité que celles de Gemini. Un sous-traitant a déclaré : « Claude a les paramètres de sécurité les plus stricts de tous les modèles d'IA. » Dans certains cas, Claude ne répondait pas aux invites qu'il jugeait dangereuses, comme jouer le rôle de différents assistants IA. Lors d'un autre test, Claude a évité de répondre à une invite, tandis que la réponse de Gemini a été signalée comme une « violation de sécurité grave » car elle contenait des termes liés à la « nudité et à la servitude ».
Les conditions générales d'Anthropic interdisent explicitement aux clients d'accéder à Claude sans autorisation pour « créer des produits ou services concurrents » ou « entraîner des modèles d'IA concurrents ». Il est important de noter que Google est l'un des principaux investisseurs d'Anthropic. Ce contexte renforce les doutes quant à la conformité des agissements de Google.
Face à ces accusations, McNamara, porte-parole de Google DeepMind (responsable de Gemini), a déclaré que DeepMind comparait effectivement « les résultats des modèles » à des fins d'évaluation, mais n'avait pas entraîné Gemini sur le modèle Anthropic. « Bien sûr, conformément aux pratiques de l'industrie, dans certains cas, nous comparons les résultats des modèles dans le cadre du processus d'évaluation », a déclaré McNamara. « Toutefois, toute affirmation selon laquelle nous aurions utilisé le modèle Anthropic pour entraîner Gemini est inexacte. »
Même si Google nie avoir utilisé Claude pour entraîner Gemini, son explication concernant la « comparaison des résultats des modèles » reste vague et ne dissipe pas complètement les inquiétudes. Cet événement soulève à nouveau des questions concernant l'utilisation des données et la conformité dans le développement des modèles d'IA. Dans le domaine concurrentiel de l'IA, la préservation d'une concurrence équitable et le respect des droits de propriété intellectuelle constitueront des enjeux importants qui nécessiteront une attention et des débats constants.