最近、OpenAIは最新のGPT-4oシステムカードを発表しました。これは、新モデルのリリース前に実施された安全対策とリスク評価に関する詳細な調査文書です。
GPT-4oモデルは今年5月に正式にリリースされました。リリース前、OpenAIは外部のセキュリティ専門家チームにリスク評価を依頼しました。「レッドチーム」テストと呼ばれるこの手法は、一般的な手順です。彼らは主に、無許可の音声クローン作成、わいせつ・暴力的なコンテンツの生成、著作権で保護されたオーディオの繰り返し使用など、モデルが引き起こす可能性のあるリスクに注目しました。
OpenAI独自のフレームワークによると、研究者らはGPT-4oの全体的なリスクを「中等度」と評価しました。このリスクレベルは、サイバーセキュリティ、生物学的脅威、説得力、モデルの自律性という4つの主要なカテゴリにおける最高リスクに基づいて決定されました。説得力以外、他のカテゴリは低リスクと評価されました。研究者らは、GPT-4oが生成する一部のテキストは、読者の意見に影響を与える点で、人間が書いたテキストよりも説得力がある場合があることを発見しましたが、全体的にはそれほど説得力が高いわけではありませんでした。
OpenAIの広報担当者Lindsay McCallum Rémy氏は、システムカードには、内部チームと外部のテスト担当者によって共同作成された準備評価が含まれていると述べています。外部チームには、OpenAIのウェブサイトに掲載されているモデル評価と脅威研究(METR)およびアポロ・リサーチ(Apollo Research)が含まれており、彼らはAIシステムの評価に特化しています。これはOpenAIが初めてシステムカードを発表したわけではなく、以前のGPT-4、GPT-4ビジョン版、DALL-E3も同様のテストを経て、関連する研究結果を発表しています。
しかし、今回のシステムカードの発表は重要な時期に当たります。OpenAIは最近、内部従業員や州議会議員から、その安全基準に対する批判が相次いでいます。GPT-4oシステムカード発表の数分前、マサチューセッツ州のエリザベス・ウォーレン上院議員とロリ・トラハン下院議員は共同で公開書簡を発表し、告発者の扱い方と安全審査についてOpenAIに回答を求めました。書簡で言及されている多くの安全上の問題には、取締役会の懸念により2023年にCEOのサム・アルトマン氏が一時的に解雇されたこと、そして「安全文化とプロセスが魅力的な製品によって抑圧されている」と主張した安全担当幹部の退職などが含まれています。
さらに、OpenAIはちょうど米大統領選挙前に、強力なマルチモーダルモデルを発表しました。これは明らかに、誤情報や悪意のある行為者による悪用される可能性があります。OpenAIは現実的なシナリオのテストを通じて悪用を防ぎたいと考えていますが、その透明性に対する世間の声は高まっています。特にカリフォルニア州では、スコット・ワイナー州議会議員が、大規模言語モデルの使用を規制する法案を推進しており、企業がAIが悪用された場合に法的責任を負うことを求めています。この法案が可決された場合、OpenAIの先端モデルは、州法で規定されたリスク評価に従って、一般公開されなければなりません。
要点:
🌟 OpenAIのGPT-4oモデルは、「中等度」のリスクと評価され、サイバーセキュリティや説得力などが主な懸念事項です。
🔍 システムカードの発表は、OpenAIが外部から安全基準について疑問視されている重要な時期に当たっており、世間の関心は高まっています。
🗳️ 発表のタイミングは微妙で、米大統領選挙前であり、誤情報や悪用されるリスクがあります。