TechCrunchが入手した内部連絡によると、Googleは請負業者にGemini AIとAnthropicのClaudeを比較評価させており、これがコンプライアンス上の問題を引き起こしています。
文書によると、Geminiの改良を担当する請負業者は、真実性や詳細度などの複数の基準に基づいて、30分以内にGeminiとClaudeの回答の質を比較評価する必要があります。請負業者は最近、Googleの内部評価プラットフォームで「私はClaudeです。Anthropicによって作成されました」という記述を含む、Claudeを明確に言及した内容を発見しました。
内部の議論では、請負業者はClaudeのセキュリティ面でのパフォーマンスがより厳格であることに気づきました。「Claudeのセキュリティ設定は、すべてのAIモデルの中で最も厳格です」と述べた請負業者もいます。あるケースでは、Geminiの回答が「裸体と拘束」に関連するため「重大なセキュリティ違反」としてマークされたのに対し、Claudeは関連するプロンプトに直接回答することを拒否しました。
注目すべきは、Anthropicの主要投資家であるGoogleがこの行為は、Anthropicのサービス規約に違反する可能性があることです。この規約は、承認なしにClaudeにアクセスして「競合製品を構築する」または「競合するAIモデルを訓練する」ことを明確に禁止しています。Anthropicからの許可を得ているかどうか尋ねられたとき、Google DeepMindの広報担当者Shira McNamara氏は正面から回答することを拒否しました。
McNamara氏は、DeepMindが評価のために「モデルの出力を比較する」ことは事実だが、Anthropicのモデルを使ってGeminiを訓練したことは否定しました。「これは業界標準のやり方です」と彼女は述べ、「しかし、私たちがAnthropicのモデルを使ってGeminiを訓練したという主張は不正確です」と付け加えました。
以前、GoogleはAI製品の請負業者に、Geminiが専門分野外の回答を評価するよう求めており、これは請負業者から、医療などのデリケートな分野でAIが不正確な情報を生成する可能性についての懸念を引き起こしました。
記事執筆時点では、Anthropicの広報担当者からこの件に関するコメントはまだありません。