現代テクノロジーの急速な発展に伴い、人工知能、特に大規模言語モデル(LLM)が注目を集めています。しかし、アメリカのサイバーセキュリティ法は、この急速な変化に対応できていないようです。最近、ハーバード大学の研究者グループがブラックハットカンファレンスで指摘したように、現行の「コンピューター詐欺および濫用法」(CFAA)は、AIセキュリティ研究に従事する人々を効果的に保護しておらず、むしろ法的リスクにさらす可能性があります。
画像注記:画像はAIによって生成され、Midjourneyから画像使用許可を得ています。
これらの研究者には、ハーバード・ロー・スクールのケンドラ・アルバート(Kendra Albert)、ラム・シャンカル・シヴァクマル(Ram Shankar Siva Kumar)、ジョナサン・ペニー(Jonathon Penney)が含まれます。アルバート氏はインタビューで、現行法は「プロンプトインジェクション攻撃」のような行為を明確に定義しておらず、研究者が自分の行為が違法かどうかを判断するのが困難になっていると述べています。許可なくモデルにアクセスすることは明らかに違法ですが、AIシステムの使用許可を得ているにもかかわらず、意図しない方法でモデルを使用した場合が違法に当たるかどうかは、曖昧だと彼女は指摘しています。
2021年、アメリカ合衆国最高裁判所の「ヴァン・ブレン対アメリカ合衆国」事件はCFAAの解釈を変え、この法律はコンピューター内部の情報への不正アクセスをした者にのみ適用されるとしました。この判決は従来のコンピューターシステムにおいては意味を持ちますが、大規模言語モデルに関わる場合は不十分です。アルバート氏は、自然言語でAIと対話する方法により、この法律の定義がさらに複雑になり、多くの場合、AIの応答はデータベースからの情報検索とは等価ではないと指摘しています。
一方、シヴァクマル氏も、AIセキュリティ研究に関する法律上の議論は、著作権などの問題に比べてはるかに注目されていないと述べ、自身も、ある種の攻撃テストを行っている際に保護されるかどうか確信が持てないと述べています。アルバート氏は、現行法の不確実性から、今後、裁判を通してこの問題が明確になる可能性があると述べていますが、現時点では多くの「善意の」研究者を困惑させています。
このような法的環境下で、アルバート氏はセキュリティ研究者に対し、自分の行動が法律に抵触しないように、法的支援を求めることを推奨しています。また、曖昧な法律条項が、有望な研究者を萎縮させ、悪意のある攻撃者を野放しにして、より大きなセキュリティリスクを生み出す可能性を懸念しています。
要点:
🛡️ アメリカの「コンピューター詐欺および濫用法」は、AIセキュリティ研究者を十分に保護しておらず、法的リスクにさらされる可能性があります。
💡 現行法は、プロンプトインジェクション攻撃などの行為を明確に定義しておらず、研究者は合法性を判断するのが困難です。
⚖️ 研究者たちは、今後、裁判を通して関連する法律条項を明確にし、善意の研究者を保護する必要があると考えています。