最新の報道によると、注目を集め、多額の資金を投じられているAI検索ツールPerplexityが、信頼性の低いブログやLinkedInの投稿からの低品質で、場合によっては誤ったAI生成のゴミ情報を引用していることが明らかになりました。

image.png

AI生成コンテンツの検出を専門とするスタートアップ企業GPTZeroは、最近Perplexityについて詳細な調査を行いました。同社のCEOであるEdward Tian氏は、今月初めのあるブログ記事で、Perplexityがリンクしている情報源の中に「AIによって自動生成されたものが増加している」ことに気づいたと指摘しています。

その後、彼はPerplexityによるこれらの情報のAIによる再利用を調べ、PerplexityがこれらのAI生成の情報源から時代遅れで不正確な情報を抽出している事例があることを発見しました。言い換えれば、AIによる誤った情報がPerplexityのAI生成回答に入り込む、AI駆動の誤情報ループが発生しているということです。

例えば、「日本の京都の文化祭」という質問に対して、Perplexityは一見筋の通った日本の都市の文化観光スポットのリストを提示しました。しかし、その情報源は2023年11月にLinkedInに投稿された分かりにくいブログ記事一つだけで、それもAIによって生成された可能性が高いものです。これは、Perplexityが主張する「報道機関、学術論文、確立されたブログ」とは大きく異なります。

「信頼できる情報源」から「最新の情報を」得て「正確な知識」を提供し、「情報発見の方法に革新をもたらす」と主張する、既に苦境に陥っているスタートアップ企業にとって、これは悪い評判です。

要点:

🚩 Perplexityは、疑わしいブログやLinkedInの記事からの誤ったAI生成ゴミ情報を引用していることが発覚しました。

🚩 GPTZeroは、Perplexityがリンクしている情報源の中にAI生成されたものが増加していることを検出し、Perplexityがこれらの情報源から時代遅れで不正確な情報を使用している場合もあることを発見しました。

🚩 Perplexityは、その回答が「信頼できる情報源」からのみであると主張していますが、そのAIアルゴリズムが本当に良い情報から良い情報を取得できるかどうかが非常に重要です。