ChatGPTの有害な誤情報繰り返し問題

最近の研究で、OpenAIのChatGPTなどの大規模言語モデルが、有害な誤情報を繰り返し発生させる問題が頻繁に見られることが分かりました。

カナダのウォータールー大学の研究者らは、ChatGPTの理解能力を体系的にテストし、GPT-3が回答中に矛盾が生じ、有害な誤情報を繰り返すことを発見しました。

彼らは様々な調査テンプレートを用い、1200以上の異なる記述について質問を行い、この問題の存在を確認しました。