2024年8月1日、EUの「AI法案」が正式に発効し、新たな規制時代が幕を開けました。この画期的な法案は、EU域内におけるAIアプリケーションに明確な基準とコンプライアンス要件を設定します。この法案の実施は、EUがAIガバナンスにおいて重要な一歩を踏み出したことを意味し、リスク管理に基づいたEUのアプローチを反映しています。
この法案は、様々なタイプの人工知能開発者やアプリケーションに対して、段階的なコンプライアンス期限を設定しています。大部分の条項は2026年中頃まで全面適用されませんが、重要な条項の一部は6ヶ月後に施行開始されます。これには、公共の場で遠隔生物認証技術を使用するなど、特定の状況下での一部AI技術の使用禁止が含まれます。
画像出典:AI生成画像、画像ライセンス提供元Midjourney
EUのリスク管理アプローチに基づき、AIアプリケーションは異なるリスクレベルに分類されます。日常的なアプリケーションのほとんどは低リスクまたは無リスクと分類され、この規制の対象外です。しかし、個人や公衆に潜在的な危険をもたらす可能性のあるアプリケーション、例えば生体認証、顔認識、AIベースの医療ソフトウェアなどは高リスクと分類されます。これらの高リスクAI技術を開発する企業は、包括的な適合性評価の実施や、規制当局による監査の可能性を含め、厳格なリスクと品質管理基準を遵守する必要があります。
さらに、チャットボットなど「限定的リスク」と分類される技術についても、ユーザーがその使用状況を理解し、潜在的な誤解や詐欺を防ぐための透明性に関する要件を満たす必要があります。
「AI法案」は、段階的な罰則制度も導入しています。高リスクAIアプリケーションの禁止事項に違反した企業には、年間世界売上高の最大7%に相当する高額な罰金が科せられます。リスク管理義務の不履行や規制当局への不正確な情報の提供などのその他の違反行為には、年間世界売上高の最大3%または1.5%に相当する経済的罰則が科せられます。
汎用人工知能(GPAI)と呼ばれる技術についても、EUは特別な規定を設けています。ほとんどのGPAI開発者は、トレーニングデータのサマリー提供や著作権ルールの遵守など、軽微な透明性義務を満たす必要があります。最も強力なGPAIモデルだけが、体系的なリスクをもたらす可能性があると分類される場合にのみ、追加のリスク評価と軽減策が必要となります。
「AI法案」の発効により、EUのAIエコシステムは新たな章を迎えます。開発者、企業、公共部門は、明確なコンプライアンスロードマップを得ており、これによりAI業界のイノベーションと発展が促進され、同時にその適用が倫理的および安全基準を満たすことが保証されます。
しかし、課題も残っています。特に高リスクAIシステムに関する具体的な規定は、現在も策定中です。欧州標準化機関が積極的にこのプロセスに関与しており、関連標準の策定は2025年4月までに完了する予定です。