英国のノーウィッチ大学の研究者らが、ChatGPTの出力が政治的な偏りを示しているかどうかを評価する方法を開発しました。
研究者らは、ChatGPTに異なる政治派閥の人物を模倣させ、一連のイデオロギーに関する質問に答えるよう指示し、その回答をデフォルトの回答と比較しました。その結果、ChatGPTはこれらの質問に答える際に、アメリカ民主党、英国労働党、ブラジルの左翼政党の立場に偏っていることが分かりました。
研究者らは、ChatGPTの政治的偏りがユーザーの政治的見解に影響を与え、さらには選挙結果に影響を与える可能性を懸念しています。AIシステムの政治的偏りは、インターネットやソーシャルメディアがもたらす既存の課題を複製または増幅する可能性があると述べています。
彼らは、今後の研究では、トレーニングデータとアルゴリズムがChatGPTの出力をどのように影響するかをさらに調査する必要があると訴えています。ChatGPTの政治的偏りの問題は、深く研究する価値のある重要な課題だと考えています。
ユーザーにとって、ChatGPTの偏りを理解し、識別能力を維持することは、公平で中立的な情報を入手するために非常に重要です。