欧州連合(EU)は先日、汎用人工知能(GPAI)モデル行動規範の草案を発表しました。これは企業が法令を遵守し、巨額の罰金を回避するための指針となることを目的としています。この文書は5月に最終版が公開され、リスク管理に関するガイドラインを提示し、企業が法令を遵守し、巨額の罰金を回避するための青写真となります。

GPAIは、10²⁵ FLOPを超える総計算能力で訓練された人工知能です。EUのガイドラインの対象となる企業としては、OpenAI、Google、Meta、Anthropic、Mistralなどが挙げられます。

AI、人工知能、ロボット、2024d9dc94358d8e

この文書では、GPAI開発者にとって重要ないくつかの分野、すなわち透明性、著作権遵守、リスク評価、技術的/ガバナンス上のリスク軽減について取り上げています。この規制は人工知能開発の透明性を強調し、人工知能企業に対し、モデルの訓練に使用されたウェブクローラーに関する情報の提供を求めています。

リスク評価の部分は、サイバー犯罪、広範な差別、人工知能の制御不能を防止することを目的としています。人工知能メーカーは、安全フレームワーク(SSF)を採用してリスク管理ポリシーを分解し、体系的なリスクに応じてこれらのポリシーを軽減する必要があります。

「人工知能法」に違反した企業には厳しい罰則が科せられ、最大3500万ユーロ(現在約3680万米ドル)、または年間売上高の最大7%のいずれか高い方の罰金が科される可能性があります。

EUは、利害関係者に対し、11月28日までに専用のFuturiumプラットフォームを通じてフィードバックを提出するよう呼びかけており、次回の草案の改善に役立てたいとしています。規則は2025年5月1日に施行される予定です。