最新の研究で、AI検索エンジンがニュース情報の処理において深刻な問題を抱えていることが明らかになりました。コロンビアジャーナリズムレビュー(CJR)のデジタルニュースセンターが、リアルタイム検索機能を持つ8つのAIツールをテストした結果、懸念すべき事実が判明しました。なんとニュース検索の60%以上が間違った回答だったのです。
研究によると、AIプラットフォームによってエラー率は大きく異なり、Grok3は94%、ChatGPT Searchも67%もの高いエラー率を示しました。Perplexity ProやGrok3の高額な有料版でも、自信満々に間違った回答をする頻度が高いことが判明しました。研究者らは、これらのAIモデルに「自信満々に間違える」傾向が広く見られると指摘しています。つまり、信頼できる情報がない場合でも、回答を拒否するのではなく、もっともらしく聞こえる間違った答えを作り出すのです。
さらに、研究ではAI検索エンジンの引用に関する問題も明らかになりました。元の発行元のウェブサイトではなく、ニュース記事の共同発表プラットフォームを頻繁に参照しています。さらに懸念されるのは、一部のAIツールが無効なURLリンクをでっち上げることで、ユーザーが情報源にアクセスできなくなることです。例えば、Grok3ではテストの半数以上の引用リンクが無効でした。
これらの問題は、ニュース発行者にとって大きな課題となっています。AIクローラーをブロックすると、コンテンツが完全に匿名化される可能性があり、一方、クロールを許可すると、コンテンツが広く使用されるにもかかわらず、自社ウェブサイトへのトラフィックが流入しないというジレンマに直面する可能性があります。タイム誌の最高執行責任者マーク・ハワード氏は、透明性と管理権限に対する懸念を表明しました。
研究者らは、現在アメリカの約4人に1人がAIモデルを従来の検索エンジンの代替として使用していることを考えると、これほど高いエラー率は情報の信頼性に懸念を抱かせるものであると指摘しています。この研究は、昨年11月に発表された同様の報告書(ChatGPTがニュースコンテンツを処理する際の正確性の問題を指摘したもの)を裏付けるものです。OpenAIとMicrosoftは研究結果を受け取ったことを認めていますが、具体的な問題には直接回答していません。
要点:
⚠️ AI検索エンジンのニュース検索エラー率は驚くべき高さで、6割以上の回答が信頼できません。
🔗 AIツールによる引用は混乱しており、転載元プラットフォームを参照したり、無効なリンクを作成することが多い。
🤖 有料のAI検索サービスでも、間違った回答をする頻度が高い可能性があります。