コロンビア大学Towデジタルニュースセンターの最新研究は、AI検索サービスに対する警鐘を鳴らしています。研究によると、ChatGPTはニュースソースの引用において深刻な正確性の問題を抱えており、OpenAIと直接協力している出版社でさえ例外ではありません。
研究チームは、20の異なる出版社からの200のニュース引用を徹底的にテストした結果、衝撃的な事実が明らかになりました。これらの事例のうち、ChatGPTは153件で誤った、または部分的に不正確なソース情報を提示していました。さらに懸念されるのは、このシステムが情報不足を積極的に認めることがほとんどなく、ソースを見つけられないことを正直に認めたのはわずか7回だったことです。
研究者らは、ユーザーエクスペリエンスを維持するために、ChatGPTは情報不足を認めるよりもむしろ、回答をでっち上げる傾向があると指摘しています。さらに深刻なのは、システムがこれらの偽のソースを示す際に、不安なほど自信満々で、不確実性を全く示さないことです。
OpenAIと直接協力関係にある有名な出版社、例えば「ニューヨーク・ポスト」や「アトランティック」でさえ、この問題を免れませんでした。いくつかの事例では、ChatGPTは元のソースではなく、記事全体を無断で複製したウェブサイトへのリンクを貼っていました。
MITテクノロジーレビューの編集長マット・ホナンは、「出版社として、これは決して望ましい状況ではなく、現状では有効な対策が非常に限られています」とコメントしています。
これらの懸念すべき発見に対し、OpenAIの反応は比較的慎重でした。同社は、ChatGPTが毎週2億5000万人のユーザーにサービスを提供しており、引用の正確性の向上に向けてパートナーと協力していると述べています。
研究の最終結論は明確です。現在、出版社は、OpenAIと協力関係にあるかどうかにかかわらず、ChatGPT Searchが自社のコンテンツを正確に表示することを保証できません。この発見は、AI情報の信頼性に関するさらなる議論と改善を促進するでしょう。