最近、テクノロジーニュースサイトTechCrunchが、Googleが自社のGemini AIモデルの性能評価にAnthropic社のClaude AIモデルを使用しているというニュースを報じ、業界でコンプライアンスに関する議論が巻き起こっています。

Googleの大規模言語モデルGemini

報道によると、TechCrunchは内部通信文書を確認し、Google Geminiプロジェクトの請負業者がGeminiの回答とClaudeの回答を比較分析して、Gemini出力の正確性と品質を評価していることが明らかになりました。

この評価プロセスでは、請負業者は30分以内にどちらのAIモデルの回答が優れているかを判断する必要があります。報道では、Google内部でAIモデルの比較に使用されているプラットフォーム上で、Claudeの回答に自身の明確な言及があったことも指摘されています。セキュリティ面では、ClaudeはGeminiよりも厳格な姿勢を示し、安全ではないと判断されたプロンプトへの回答を拒否したり、より慎重な回答をしたりすることがあります。例えば、Geminiのある回答は「ヌードと拘束」の内容を含むため「重大なセキュリティ違反」としてマークされました。

Anthropicのサービス利用規約では、承認なしにClaudeを使用して競合製品を構築したり、競合するAIモデルをトレーニングしたりすることを明示的に禁止しています。Google DeepMindの広報担当者は、評価目的で異なるモデルの出力を比較することは事実であることを認めましたが、AnthropicのモデルをGeminiのトレーニングに使用していることは否定しています。注目すべきは、GoogleはAnthropicの主要投資家の1社でもあるということです。

Google DeepMindの広報担当者Shira McNamara氏は、「業界標準の慣行に従い、評価プロセスの一環として、モデルの出力を比較することがあります。しかし、AnthropicのモデルをGeminiのトレーニングに使用しているという主張は正確ではありません。」と述べています。

要点:

📜 GoogleがAnthropicのClaude AIを使用してGeminiを評価していることは、サービス利用規約に違反している可能性がある。

🔐 Claudeはセキュリティ面でGeminiよりも厳格な姿勢を示している。

💼 Google DeepMindはAnthropicのモデルをGeminiのトレーニングに使用していることを否定しつつ、モデル出力の評価を行っていることを認めている。