米国商務省は、MetaのLlama 3.1のような「オープンウェイト」生成AIモデルへの支持を表明する報告書を発表しました。この報告書は、オープンモデルが中小企業、研究者、非営利団体、個人開発者にとって生成AIへのアクセスを容易にすることができると指摘しています。そのため、政府は、これらの制限が市場に悪影響を与えるかどうかを調査するまでは、少なくともオープンモデルへのアクセスを制限すべきではないとしています。
画像出典:AI生成画像、画像ライセンス提供元Midjourney
この見解は、連邦取引委員会(FTC)のリーナ・カーン委員長の考えと一致しています。カーン委員長は、オープンモデルにより、より多くの小規模企業が市場に革新的なアイデアを送り出し、健全な競争を促進できると考えています。米国商務省通信情報次官補のアラン・デイビソン氏は声明で、「最大のAIシステムのオープン性は、競争、イノベーション、そしてこれらの画期的なツールのリスクに影響を与えます」と述べました。さらに、NTIAの報告書はオープンAIシステムの重要性を認識しており、大規模AIモデルの広範な利用可能性について、より積極的なリスク監視を呼びかけていると付け加えました。
現在、国内外の規制当局は、オープンウェイトモデルの公開を希望する企業を制限したり、新たな要件を課したりする可能性のある規則を検討しています。例えば、カリフォルニア州では、まもなくSB1047法案が可決され、1026FLOP以上の計算能力を使用してモデルを訓練した企業は、サイバーセキュリティを強化し、「シャットダウン」するモデルのコピーを作成する方法を開発することが義務付けられます。海外では、欧州連合(EU)は最近、著作権、透明性、AIの用途に関する新たな規則を定めたAI法案に基づき、企業のコンプライアンス期限を最終決定しました。
Metaは、EUのAI政策により、今後、特定のオープンモデルを公開できなくなる可能性があると述べています。一方、いくつかのスタートアップ企業や大手テクノロジー企業は、カリフォルニア州の法律に反対し、同法案の要件は過剰であると主張しています。
しかし、NTIAのモデルガバナンスの考え方は、完全に放置するという意味ではありません。報告書では、政府がオープンモデルのリスクとメリットの証拠を継続的に収集し、その証拠を評価して行動を起こす、必要に応じてモデルの利用可能性に一定の制限を課すための継続的なプログラムを構築するよう求めています。具体的には、政府は様々なAIモデルの安全性を調査し、リスク軽減の研究を支援し、「特定のリスク」指標の閾値を設定して、政策変更が必要な場合にシグナルを出すことを推奨しています。
これらの措置は、ジョー・バイデン大統領のAIに関する行政命令と一致しており、政府機関と企業に対し、AIの創造、展開、使用において責任あるイノベーションを推進するための新たな基準を設定するよう求めています。米国商務長官ジーナ・レモンド氏はプレスリリースで、「バイデン・ハリス政権は、AIの可能性を最大化し、同時にリスクを最小限に抑えるためにあらゆる努力をしています。今日の報告書は、責任あるAIイノベーションと米国のリーダーシップのための道筋を示し、オープン性を提唱し、米国政府が将来起こりうる課題に備える方法を提案しています」と述べています。
要点:
🌟 オープンモデルは中小企業の競争を促進し、政府は安易にアクセスを制限すべきではない。
🔍 政府はオープンモデルのリスク監視を強化し、安全性を確保するよう求めている。
📅 国内外の規制当局は新たな規則を検討しており、オープンモデルにより多くの要件が課される可能性がある。