Metaは最近、最先端のAIモデルがもたらすリスクを評価・軽減し、必要に応じて開発の中止やシステムのリリース制限を行うための新しいリスクポリシーフレームワークを発表しました。このフレームワークは「最先端AIフレームワーク」と呼ばれ、MetaがどのようにAIモデルを高リスクと重大リスクの2種類に分類し、それに応じた対策を講じてリスクを「許容可能なレベル」にまで下げるのかを詳細に説明しています。

Facebook メタバース meta

このフレームワークでは、重大リスクは特定の脅威シナリオの実行を独自に促進できるものとして定義されています。一方、高リスクとは、モデルが脅威シナリオの実現可能性を著しく高める可能性があるものの、直接実行を促進するものではないことを意味します。脅威シナリオには、既知の生物剤と同等の能力を持つ生物兵器の拡散や、大規模な長文詐欺や詐欺による個人や企業への広範な経済的損害などが含まれます。

重大リスクの閾値に達したモデルについては、Metaは開発を中止し、少数の専門家のみがアクセスできるようにします。同時に、技術的および商業的に実現可能な範囲で、ハッキングやデータ漏洩を防ぐためのセキュリティ保護を実施します。高リスクモデルについては、Metaはアクセスを制限し、リスク軽減策を講じてリスクを中等レベルにまで引き下げ、モデルが脅威シナリオの実行能力を著しく高めないようにします。

Metaは、リスク評価プロセスに複数の専門分野の専門家と社内リーダーが関与し、あらゆる意見が十分に考慮されるようにすると述べています。この新しいフレームワークは、同社の最先端のモデルとシステム、つまり現在の技術レベルに匹敵するか、それを超える能力を持つモデルにのみ適用されます。

Metaは、最先端のAIシステムの開発方法を共有することで、透明性を高め、AIの評価とリスクの定量化に関する科学的な議論と研究を促進できると期待しています。同時に、同社は、AI評価に関する意思決定プロセスは技術の進歩とともに進化し、改善していくことを強調しており、テスト環境の結果が実際の運用におけるモデルの挙動を正確に反映するようにすることを含みます。

要点:

🌟 Metaが最先端AIモデルのリスクを評価・軽減するための新しいリスクポリシーフレームワークを発表しました。

🔒 重大リスクモデルは開発が中止され、専門家のアクセスが制限されます。高リスクモデルにはアクセス制限と軽減策が実施されます。

🧑‍🏫 リスク評価プロセスには複数の専門分野の専門家が関与し、透明性と科学性を高めることを目指しています。