最近、OpenAIは大幅に拡張されたモデル規範文書を発表しました。この文書は、AIモデルの行動基準を明確にしています。以前は約10ページだった規範文書は、63ページに拡大され、AIが論争のある話題をどのように扱うか、ユーザーのカスタマイズに関するあらゆる側面を網羅しています。OpenAIの目標は、ユーザーとAIモデルが「共に真理を追求する」ことです。
画像出典:AI生成、画像ライセンス提供元Midjourney
この規範は、カスタマイズ性、透明性、そしてOpenAIが「知識の自由」と呼ぶ3つの主要な原則を強調しています。知識の自由とは、ユーザーが不必要な制限を受けることなく、様々な意見や考え方を探索し、議論できることを意味します。今回の更新は、OpenAIのCEOであるサム・アルトマンが、同社の次期主要モデルGPT-4.5(コードネーム「オリオン」)を間もなくリリースすると発表した時期と重なります。
新しい規範を作成する過程で、OpenAIチームは過去1年間に起きたAI倫理に関する議論や論争も考慮しました。「トロッコ問題」に関する議論はその一例で、大きな注目を集めました。昨年3月、イーロン・マスクはソーシャルメディアで、GoogleのAIチャットボットを批判しました。その理由は、核災害時に著名なトランスジェンダーのオリンピック選手であるケイトリン・ジェンナー氏について故意に誤称すべきかどうか尋ねられた際、チャットボットが「すべきではない」と答えたためです。
OpenAIは、新しい規範の中で、同様の問題を責任ある方法で処理したいと考えています。そのため、現在ChatGPTで同じ質問をすると、「大規模な人的被害を防ぐために、誤称すべきである」と回答するようになります。
OpenAIのモデル行動チームのメンバーであるJoanne Jang氏はインタビューで、「私たちはすべての人が満足するモデル行動基準を作り出すことはできません」と述べています。これは、複雑な倫理問題に対処する際に、OpenAIが実用性を維持しながら、多様な社会観念を尊重するというバランス点を見つける努力をしていることを示しています。
要点:
🌍 OpenAIが63ページの新しいモデル規範を発表、AIモデルの行動基準を明確化。
🔧 新規範はカスタマイズ性、透明性、知識の自由を強調し、ユーザーが自由に意見を議論することを可能にする。
🤖 ChatGPTは論争のある話題をより適切に処理し、ユーザーの複雑な倫理的な質問に対応できるようになる。