最近、米国司法省(DoJ)は企業コンプライアンスの分野において、特に人工知能(AI)の使用に関する新たな要件を導入しました。ますます多くの企業がAI技術を活用するようになっているため、この新規定はコンプライアンス担当者にさらなる負担をかけることになります。企業は、高額な罰金を科せられる可能性を避けるため、AIがもたらす可能性のある法的リスクを真剣に考慮する必要があります。
画像出典:AI生成画像、画像ライセンス提供元Midjourney
司法省刑事部の首席副次長補であるNicole Argentieri氏は、企業コンプライアンスプログラム(ECCP)に関する新たなガイダンスについて講演を行い、企業が法的問題を回避するための指針を示しました。この新たな規定では、コンプライアンス担当者は、AIが企業のコンプライアンス能力に及ぼす潜在的な影響を考慮しなければならないと強調されています。つまり、企業はAIのメリットだけでなく、それがもたらす可能性のある悪影響も分析する必要があるということです。
この新規定では、コンプライアンス担当者にいくつかの重要な質問を自問自答することを明確に求めています。「企業は、AIなどの新技術が法令遵守能力に及ぼす影響をどのように評価するか?」「これらの技術の使用によって引き起こされる可能性のある予期せぬ結果をどのように制御するか?」そして「内部関係者によるこれらの技術の故意または軽率な不正使用をどのように減らすか?」これらの質問は、司法省が調査において特に注目する点を反映しています。
Argentieri氏は、検察官は、虚偽の承認や文書作成など、新技術によって生じる犯罪リスクに対して企業がどの程度脆弱であるかを考慮すると述べています。企業が効果的なコンプライアンス管理策を示すことができない場合、その結果は非常に深刻なものになる可能性があります。さらに、企業はAIアプリケーションを積極的に監視およびテストして、その機能が正常に動作していることを確認する必要があります。
簡単に言えば、AI技術が法律に違反した場合、企業は依然として責任を負います。したがって、企業幹部は問題が発生する前に積極的にこれらのリスクを特定し、解決して、コンプライアンス対策が適切であることを確認する必要があります。
注目すべき点として、AIコンプライアンスに関する新たなガイダンスに加えて、ECCPの更新には、不正行為の報告を奨励することを目的とした、告発者に関するガイダンスも含まれています。これらの新たな規定は、企業に対し、技術革新を進めると同時に、法的リスクも考慮に入れるよう促しています。
要点:
🛡️ 新規定では、企業のコンプライアンス担当者はAIの法的リスクを真剣に評価し、罰金を避けることが求められています。
🤖 企業はAIアプリケーションを積極的に監視およびテストして、技術の使用がコンプライアンスに準拠していることを確認する必要があります。
👥 司法省は、企業のコンプライアンス手順を強化し、犯罪リスクを効果的に防止しているかどうかを検証します。