Anthropic社は月曜日に、自社の生成モデルであるClaudeのようなモデルを含む、人工知能モデルの性能と影響を評価できる新しいベンチマークの開発を支援することを目的とした新しい計画を発表しました。
Anthropicの公式ブログによると、同社は「人工知能モデルの先進的な能力を効果的に測定する」ツールを開発するために、第三者組織に資金援助を提供します。関心のある組織は申請を提出でき、評価は随時行われます。
Anthropic社は、この投資は人工知能の安全性の向上、そしてエコシステム全体への貴重なツールの提供を目指していると述べています。同社は、安全に関連する高品質な評価の開発は依然として困難であり、需要が供給を上回っていると認識しています。
この計画は、人工知能の安全性と社会への影響に重点を置いており、新しいツール、インフラストラクチャ、方法を通じて、挑戦的なベンチマークを作成することを計画しています。Anthropic社は特に、サイバー攻撃、兵器改良、操作、欺瞞などにおけるモデルの能力を評価するテストの実施を要求しています。さらに、国家安全保障と国防に関連するAIリスクを特定し評価するための「早期警戒システム」の開発にも取り組んでいます。
Anthropic社はまた、この新しい計画が、科学研究の支援、多言語コミュニケーション、バイアスの軽減、自己検閲などにおけるAIの可能性を探求する研究を支援すると述べています。これらの目標を達成するために、同社は専門家が評価を開発し、大規模な実験を行うための新しいプラットフォームの構築を構想しています。
Anthropic社のこの取り組みは称賛されていますが、いくつかの疑問も提起されています。同社の商業的利益を考慮すると、資金提供プロジェクトの公平性に影響を与える可能性があるという意見があります。また、「壊滅的」または「欺瞞的」なAIリスクについてAnthropic社が言及していることについて、一部の専門家は懐疑的で、より差し迫ったAI規制の問題から注意をそらす可能性があると指摘しています。
Anthropic社は、この計画が包括的なAI評価を業界標準にすることを期待しています。しかし、独立したAIベンチマーク開発団体が商業的なAIベンダーと協力するかどうかは、まだ分かりません。