イーロン・マスク氏が率いるソーシャルメディアプラットフォームX(旧Twitter)で最近、新たな傾向が見られています。一部ユーザーが、マスク氏の人工知能企業xAIが開発したAIチャットボット「Grok」を「ファクトチェック」に利用し始めているのです。この動きは、専門の人間によるファクトチェッカーから懸念の声を上げており、虚偽情報の拡散を助長する可能性があると指摘されています。

Grok、マスク、xAI

今月初め、XプラットフォームはユーザーがxAIのGrokに直接質問できる機能を公開しました。ユーザーは様々なトピックについてGrokに回答を求めることができます。これは、Perplexity社がX上で自動化されたアカウントを運営し、同様のサービスを提供する方法に似ています。

xAIのGrok自動アカウントがXプラットフォームに登場して間もなく、ユーザーは様々な質問を試みるようになりました。特にインドを含む市場では、特定の政治的見解に関するコメントや質問についてGrokに「ファクトチェック」を求めるユーザーが現れました。

しかし、Grokやその他の同様のAIアシスタントを「ファクトチェック」に利用することに対して、人間によるファクトチェッカーは懸念を示しています。これらのロボットは、不正確な情報であっても、説得力のあるように聞こえる回答を作成できるからです。過去には、Grokがフェイクニュースや誤解を招く情報を拡散した事例もありました。

昨年8月には、アメリカの5人の州務長官が、Grokの重要な調整をマスク氏に促しました。当時、Grokはアメリカ大統領選挙を前にソーシャルネットワーク上で誤解を招く情報を拡散していたからです。それだけでなく、OpenAIのChatGPTやGoogleのGeminiなど、他のチャットボットも昨年、選挙に関する不正確な情報を生成したことが判明しました。さらに、反虚偽情報研究者らは2023年、ChatGPTを含むAIチャットボットが、誤解を招く説得力のあるテキストを簡単に生成できることを発見しました。

国際ファクトチェックネットワーク(IFCN)のアンジー・ホーラン所長は、テクノロジーメディアTechCrunchに対し、「GrokのようなAIアシスタントは、自然言語を使い、まるで人間が話しているかのような回答を出すのが非常に得意です。そのため、AI製品に潜在的な重大な誤りがあったとしても、自然で真実味のある印象を与えてしまいます。これが潜在的な危険なのです」と述べています。

あるXユーザーは、Grokに別のユーザーの発言を「ファクトチェック」するよう依頼しました。AIアシスタントとは異なり、人間によるファクトチェッカーは、情報を検証するために複数の信頼できる情報源を使用します。また、調査結果の全責任を負い、署名し、所属機関を付記して信頼性を確保します。

インドの非営利ファクトチェックサイトAlt Newsの共同設立者プラティック・シンハ氏は、Grokは現在、説得力のある回答を出せるように見えるものの、その能力は完全に取得するデータの質に依存していると指摘しています。「誰がデータの取得を決定するのか?政府の介入などの問題が生じるだろう。透明性のないものは必ず害を及ぼす。なぜなら、透明性のないものは何でも自由に形作ることができるからだ……虚偽情報の拡散に悪用される可能性がある」と強調しました。

今週初めに投稿された返信で、Xプラットフォーム上のGrok公式アカウントは、「虚偽情報の拡散やプライバシー侵害に悪用される可能性がある」ことを認めています。しかし、この自動化アカウントは回答時にユーザーに免責事項を表示しておらず、回答が「幻覚」によって生成された場合、ユーザーは誤解する可能性があり、これがAIの潜在的な欠点です。ゴアの学際的研究機関Digital Futures Labの研究員アヌシュカ・ジャーン氏はTechCrunchに対し、「情報をでっち上げて回答する可能性がある」と述べています。

さらに、Grokがどの程度Xプラットフォーム上の投稿をトレーニングデータとして使用しているか、そしてこれらの投稿の真実性を検証するためにどのような品質管理措置を取っているかについても疑問が残ります。昨年夏、Xプラットフォームは、GrokがデフォルトでXユーザーの公開データを使用できるようにする変更を行いました。

AIアシスタント(Grokなど)がソーシャルメディアプラットフォームを通じて公開情報を拡散することのもう一つの懸念事項は、一部のユーザーがAIアシスタントから得た情報が誤解を招く可能性がある、または完全には正確ではないことを明確に認識していても、プラットフォーム上の他のユーザーがその情報を信じる可能性があることです。これは深刻な社会問題を引き起こす可能性があります。以前インドでは、WhatsAppを通じて拡散された虚偽情報が集団暴力事件を引き起こしましたが、これらの深刻な事件は生成AIが登場する前のものであり、現在生成AIにより、合成コンテンツの作成が容易になり、よりリアルになっています。

国際ファクトチェックネットワーク(IFCN)のホーラン氏は、「Grokの回答をたくさん見れば、大部分は正しいと思うかもしれないし、実際そうかもしれないが、間違いなくいくつかは間違っているだろう。間違っている割合はどのくらいか?それは小さな割合ではない。いくつかの研究によると、AIモデルの誤り率は最大20%に達する……そして、いったん間違えると、深刻な現実的な結果を招く可能性がある」と述べています。

xAIを含むAI企業は、AIモデルを人間のようにコミュニケーションをとるように改良していますが、現在も、そして将来も人間に取って代わることはできません。ここ数ヶ月、テクノロジー企業は、人間によるファクトチェッカーへの依存を減らす方法を探求しています。XやMetaなどのプラットフォームは、いわゆる「コミュニティノート」によるクラウドソーシング型のファクトチェックを試み始めています。もちろん、これらの変化もファクトチェッカーから懸念の声を上げています。

Alt Newsのシンハ氏は楽観的に、人々は最終的に機械と人間によるファクトチェッカーを区別する方法を学び、人間の正確性をより重視するようになると考えています。ホーラン氏も、「最終的には、振り子がよりファクトチェックを重視する方向に戻るだろう」と考えています。しかし、その間、AIによって生成された情報の拡散が速いため、ファクトチェッカーはより多くの仕事をすることになる可能性があると指摘しています。また、「この問題の大きな部分は、本当に何が真実であるかを気にするのか、それとも単に聞こえと感触が真実で実際には真実ではないものを探しているのかにかかっている。なぜなら、AIアシスタントが提供するのは後者だからだ」とも述べています。

XとxAIはコメント要請に応じませんでした。

要点:

  • 🤖 マスク氏率いるAIロボットGrokがXプラットフォームのファクトチェックに使用され、人間によるファクトチェッカーは誤解を招く情報の拡散を懸念。
  • ⚠️ GrokのようなAIアシスタントは、信憑性があるように聞こえるが正確ではない回答を生成する可能性があり、透明性のある品質管理とデータソースが不足。
  • 👨‍👩‍👧‍👦 人間によるファクトチェッカーは複数の信頼できる情報源に依存し、責任を負う一方、AIは情報検証における人間の役割に取って代わることはできない。