OpenAIは最近、人工知能モデルのトレーニング方法を変える重要な方針更新を発表しました。「知識の自由」の重要性を強調し、どんなに困難で物議を醸す話題であっても、それを重視しています。この変更により、ChatGPTはより包括的に質問に答え、より多くの視点を提供し、特定のトピックの議論を拒否するケースが減少します。

新しい187ページのモデル仕様書では、OpenAIは新しいガイドラインを提示しました。「嘘をつかない」という原則です。虚偽の記述をしたり、重要な文脈を省略したりすることはありません。新たに設けられた「真実の共同探求」のセクションでは、OpenAIは、ChatGPTが物議を醸す話題に対しても中立を保ち、どちらかの側に偏らないことを目指しています。これは、「Black Lives Matter」と「All Lives Matter」のような議論において、ChatGPTが両方の見解を提示するよう努め、回答を拒否したり、立場を選んだりしないことを意味します。

ChatGPT

画像注記:AIによって生成された画像

OpenAIは「検閲」を行っていないと主張していますが、一部の保守派は、特にAIの偏向が明らかに中道左派に傾いていると感じており、過去数ヶ月間、実際には内容の検閲が行われていたと考えています。OpenAIのCEOであるサム・アルトマンも、ChatGPTの偏見は解決すべき「欠陥」であることを認めています。

しかし、OpenAIの新しい方針は無制限ではありません。ChatGPTは依然として、明らかに間違っているか不適切な質問には回答を拒否します。方針の変更に伴い、OpenAIはユーザーがより多くの言論の自由を得られることを期待しており、方針違反ユーザーへの警告表示も削除しました。これは、ユーザーが感じる「検閲」の圧力を軽減するためだと考えられています。

より大きな視点で見ると、シリコンバレーの価値観は変化しつつあります。多くの企業が、かつて重視していた多様性、公平性、包摂性を中心とした方針を縮小し始めており、OpenAIもこれらの立場を徐々に放棄しつつあるようです。他の大手テクノロジー企業と同様に、OpenAIは新トランプ政権との関係、そして情報分野におけるGoogleとの競争に直面しています。

このような論争と課題に満ちた環境において、言論の自由とコンテンツの安全性をどのようにバランスさせるかが、OpenAIや他のテクノロジー企業にとって重要な課題となっています。