人工知能技術の進歩に伴い、画像や動画の偽造が容易になり、ディープフェイク現象が深刻化しています。この偽情報を見抜くことが喫緊の課題となっています。最近、ビンガムトン大学の研究チームがこの問題に深く取り組み、周波数領域解析技術を用いてAI生成画像の特徴を明らかにし、偽情報の識別を支援する成果を上げました。

AI顔交換 顔認証 (2)

画像出典:AI生成画像、画像ライセンス提供元Midjourney

この研究は、電気・コンピュータ工学科のYu Chen教授、大学院生のNihal Poredi氏とDeeraj Nagothu氏を筆頭に、バージニア州立大学大学院生のMonica Sudarsan氏とEnoch Solomon教授も参加して行われました。

研究チームは、Adobe Firefly、PIXLR、DALL-E、Google Deep Dreamなど、人気のAI生成ツールを用いて何千もの画像を作成しました。その後、信号処理技術を用いてこれらの画像の周波数領域の特徴を分析し、本物の画像とAI生成画像の違いを明らかにしました。

生成敵対ネットワーク画像認証(GANIA)と呼ばれるツールを用いることで、研究者らはAI生成画像に現れるアーティファクトを識別することに成功しました。これらのアーティファクトは、AIが画像生成時に用いるアップサンプリング技術によって生じるもので、簡単に言えば、ピクセルを複製してファイルを拡大することで、周波数領域に「指紋」を残すものです。Chen教授は、「本物のカメラで撮影された写真は、周囲環境のあらゆる情報を含んでいますが、AI生成画像はユーザーのリクエストに集中しているため、背景環境の微妙な変化を正確に捉えることができません。」と述べています。

画像の識別に加え、チームは偽造された音声や動画を検出するための「DeFakePro」というツールも開発しました。このツールは電力網周波数(ENF)信号を利用しており、これは記録中に電力のわずかな変動によって生じる信号です。これらの信号を分析することで、DeFakeProは記録が改ざんされたかどうかを判断し、ディープフェイクの脅威に対抗します。

Poredi氏は、AI生成コンテンツの「指紋」を識別することが非常に重要であり、これにより認証プラットフォームを構築し、視覚コンテンツの信頼性を確保し、偽情報による悪影響を軽減できると強調しています。彼は、ソーシャルメディアの普及により偽情報の問題がさらに深刻化しているため、オンラインで共有されるデータの信頼性を確保することが不可欠だと指摘しています。

この研究では、一般の人々が真偽を見分けるためのツールを提供し、情報の信頼性を高めることを目指しています。

論文アドレス:https://dx.doi.org/10.1117/12.3013240

要点:

1. 🖼️ 周波数領域解析技術により、AI生成画像と本物の画像の違いを識別することに成功。

2. 🔍 偽造音声・動画の真偽を検出する「DeFakePro」ツールを開発。

3. 🚫 ますます深刻化する偽情報問題への対策として、オンラインで共有されるデータの信頼性を確保することの重要性を強調。