コロンビア大学ジャーナリズムレビューのデジタルニュースセンターによる最新の調査によると、人気のAI検索ツールは質問への回答において、60%以上の確率で不正確または誤解を招く情報を提供していることがわかりました。この結果は懸念すべきものであり、これらのツールは一般の人々のニュース報道に対する信頼を損なうだけでなく、出版社はアクセス数と収益の両方で損失を被ることになります。

ロボット AIライティング AI教育

画像出典:AI生成画像、画像ライセンス提供元Midjourney

研究者たちは、ChatGPT、Perplexity、Gemini、Grokを含む8つの生成型AIチャットボットをテストし、最新の200本のニュース記事からの抜粋を識別するよう指示しました。その結果、60%以上の回答が間違っており、これらのチャットボットは頻繁にタイトルを捏造したり、記事を引用しなかったり、または無許可のコンテンツを引用したりしていました。発行元を正しく指摘できたとしても、リンクはしばしば無効なURL、転載版、または内容に関連のないページを指していました。

残念なことに、これらのチャットボットは不確実性を示すことがほとんどなく、むしろ不当な自信を持って間違った答えを提供していました。例えば、ChatGPTは200件の問い合わせのうち134件で誤った情報を提供しましたが、疑いを示したのはわずか15回でした。有料版のPerplexity ProとGrok3でさえ、そのパフォーマンスは不十分で、誤った回答の数が多いにもかかわらず、月額料金はそれぞれ20ドルと40ドルです。

コンテンツの引用に関して、複数のチャットボットは出版社の制限に従わず、5つのチャットボットは広く受け入れられているロボット排除プロトコル(robots.txt)を無視していました。Perplexityは、出版社がそのクローラーを制限している状況下で、ナショナルジオグラフィックの記事を正しく引用していました。一方、ChatGPTは、有料記事のUSA Todayの記事を、無許可のYahooニュースから再引用していました。

さらに、多くのチャットボットは、元のソースではなく、AOLやYahooなどのプラットフォームの転載記事にユーザーを誘導しており、AI企業とライセンス契約を結んでいる場合でも同様でした。例えば、Perplexity Proはテキサスフォーラムの転載版を引用しながら、適切なクレジットを与えていませんでした。一方、Grok3とGeminiはしばしばURLを作り出し、Grok3の200件の回答のうち154件は誤ったページへのリンクでした。

この研究は、ニュース機関が直面する深刻化する危機を浮き彫りにしています。ますます多くのアメリカ人がAIツールを情報源として利用していますが、Googleとは異なり、チャットボットはトラフィックをウェブサイトに誘導せず、代わりにリンクを張らずにコンテンツを要約するため、出版社は広告収入を失っています。ニュースメディア連合のダニエル・コフィーは、クローラーを制御できなければ、出版社は「価値のあるコンテンツを収益化したり、記者の給与を支払ったりすることができない」と警告しています。

研究チームはOpenAIとMicrosoftに連絡を取りましたが、両社は自社のやり方を弁護しましたが、具体的な調査結果には回答しませんでした。OpenAIは、「出版社の好みを尊重し」、ユーザーが「質の高いコンテンツを発見する」のを支援すると述べており、Microsoftは「robots.txt」プロトコルに従っていると主張しています。研究者たちは、誤った引用方法は個々のツールだけの問題ではなく、システム的な問題であると強調し、AI企業に透明性、正確性、そして出版社の権利への尊重の向上を求めています。

要点:

📊 調査によると、AIチャットボットの回答の誤答率は60%を超え、ニュースの信頼性を著しく損なっています。

📰 多くのチャットボットは出版社の制限を無視し、無許可のコンテンツと誤ったリンクを引用しています。

💰 ニュース機関はアクセス数と収益の両面で危機に直面しており、AIツールが従来の検索エンジンに取って代わろうとしています。