最近、グーグルの研究者らが警告を発しました。生成AI(GenAI)が虚偽の情報でインターネットを汚染しつつあると。

これは単なる警告ではなく、自己反省にも似たものと言えるでしょう。

皮肉なことに、グーグルはこの「真偽の戦い」において二重の役割を担っています。一方では生成AIの重要な推進者であり、他方では虚偽情報の作成者でもあるのです。グーグルのAIの概要機能ではかつて「ピザに接着剤を塗る」「石を食べる」といったばかげた提案が表示され、これらの誤情報は手動で削除せざるを得ませんでした。

image.png

グーグルの研究チームは、生成AIの悪用に関する200本のニュース記事を詳細に調査し、人間の肖像の改ざん、証拠の偽造が最も一般的な悪用方法であることを発見しました。これらの行為の目的は、世論に影響を与えたり、詐欺を働いたり、利益を得たりすること以外にありません。生成AIのリスクはまだ「生存を脅かす」レベルには達していませんが、現在進行形で発生しており、将来はさらに悪化する可能性があります。

研究者らは、GenAIの悪用事例の大半がシステムの通常の使用であり、「脱獄」行為ではないことを発見しました。このような「通常の操作」は9割を占めています。GenAIの広範な可用性、アクセス可能性、超現実性により、数多くの低レベルの悪用形態が可能になっています。虚偽情報を生成するコストは非常に低いのです!

image.png

グーグルの研究資料は、メディア報道から大量に収集されていますが、このことは研究結果にメディアの偏見が含まれていることを意味するのでしょうか?メディアはセンセーショナルな出来事を報道する傾向があり、これによりデータセットが特定の種類の悪用に偏っている可能性があります。404Mediaは、私たちがまだ認識していない多くの生成AIの悪用が報道されていないと指摘しています。

AIツールの「囲い」は、いくつかのプロンプトで巧みに回避できます。例えば、ElevenLabsの人工知能音声クローンツールは、同僚や有名人の声を非常にリアルに模倣できます。Civitaiのユーザーは、AIで生成された有名人の画像を作成できます。同プラットフォームにはNCII(同意のない私的な画像)の禁止ポリシーがありますが、ユーザーが自分のマシンでオープンソースツールを使用してNCIIを生成するのを防ぐものは何もありません。

虚偽情報が氾濫すると、インターネット上の混乱は人々の真偽を見極める能力に大きな試練を与えます。「これは本当だろうか?」という疑念が常に付きまとうでしょう。解決策を講じなければ、AI生成コンテンツによる公開データの汚染は、情報検索を妨げ、社会政治的現実や科学的コンセンサスに対する集団的理解を歪める可能性があります。

生成AIによる虚偽情報の氾濫に対して、グーグルは拍車をかけた役割を果たしました。何年も前に発射された弾丸が、今日ついに自分の眉間に命中したのです。グーグルの今回の研究は、自己救済の始まりであり、インターネット社会全体への警鐘でもあると言えるでしょう。

論文アドレス:https://arxiv.org/pdf/2406.13843