AI分野におけるテクノロジー企業間の競争は激化の一途を辿っており、最近明るみに出たある情報が、その水面下の激しい競争を再び浮き彫りにしました。TechCrunchが入手した内部通信によると、GoogleのGemini人工知能モデルの改良を担当する委託業者が、Geminiの回答をAnthropic社の競合モデルClaudeの出力と比較していたことが明らかになりました。この行為は、GoogleがAnthropic社の許可を得てClaudeをテストに使用していたのかという、コンプライアンス上の疑問を提起しています。

より優れたAIモデルの開発競争が激化する中、通常、モデルの性能評価には業界標準のベンチマークテストが用いられます。委託業者が競合他社のAIの回答を評価するのに多大な労力を費やすことは稀です。しかし、情報によると、Geminiの委託業者は、正確性や冗長さなどの複数の基準に基づいて、提示された各回答を採点する必要がありました。委託業者は、GeminiとClaudeのどちらの回答が優れているかを判断するのに、最大30分間の時間しか与えられていませんでした。

Gemini、Google DeepMind、人工知能、AI

内部チャットログによると、委託業者はClaudeの回答の方がGeminiよりもセキュリティを重視していることに気づきました。ある委託業者は、「全てのAIモデルの中で、Claudeのセキュリティ設定は最も厳格です」と述べています。場合によっては、Claudeは、異なるAIアシスタントになりすますなど、安全ではないと判断したプロンプトには応答しません。別のテストでは、Claudeは特定のプロンプトへの回答を避けましたが、Geminiの回答は「裸体と拘束」が含まれていたため「深刻なセキュリティ違反」としてマークされました。

Anthropic社の利用規約では、顧客がClaudeに「競合製品やサービスの構築」または「競合AIモデルのトレーニング」のために許可なくアクセスすることを明確に禁止しています。注目すべきは、GoogleがAnthropic社の主要投資家であるということです。この背景が、Googleの行動のコンプライアンスに関する疑問をさらに深めています。

これに対し、Google DeepMind(Geminiを担当)の広報担当者McNamara氏は、DeepMindは評価のために「モデルの出力を比較する」ことはあるものの、Anthropic社のモデルでGeminiをトレーニングしたわけではないと述べています。「もちろん、業界の慣例に従い、場合によっては、評価プロセスの一環としてモデルの出力を比較します。」とMcNamara氏は述べています。「しかし、Anthropic社のモデルを使ってGeminiをトレーニングしたという主張は、正確ではありません。」

GoogleはClaudeを使ってGeminiをトレーニングしたことを否定していますが、「モデルの出力を比較する」という説明は依然として曖昧であり、外部の懸念を完全に払拭することはできません。この事件は、AIモデル開発におけるデータの使用とコンプライアンスへの懸念を改めて浮き彫りにしました。競争の激しいAI分野において、公正な競争を維持し、知的財産権を尊重することは、業界の発展において継続的に注目し、議論すべき重要な課題となるでしょう。