随着人工智能技术的不断进步,伪造图像和视频的难度越来越低,深度伪造(deepfake)现象愈发严重,如何识别这些虚假内容成了一个亟待解决的问题。近期,宾汉姆顿大学的研究团队对此进行了深入探讨,他们利用频域分析技术,揭示了 AI 生成图像的特征,从而帮助人们识别虚假信息。
图源备注:图片由AI生成,图片授权服务商Midjourney
这项研究由电气与计算机工程系的教授 Yu Chen 以及博士生 Nihal Poredi 和 Deeraj Nagothu 主导,另外还包括来自维吉尼亚州立大学的硕士生 Monica Sudarsan 和教授 Enoch Solomon 的参与。
研究团队创造了成千上万张使用流行的生成 AI 工具制作的图像,比如 Adobe Firefly、PIXLR、DALL-E 和 Google Deep Dream。然后,他们采用信号处理技术分析这些图像的频域特征,从而找出真实图像与 AI 生成图像之间的差异。
通过使用名为生成对抗网络图像认证(GANIA)的工具,研究人员能够识别出 AI 生成图像中出现的伪影。这些伪影是因为 AI 在生成图像时使用的上采样技术留下的,简单来说就是通过克隆像素来放大文件,但这样会在频域中留下 “指纹”。Chen 教授表示:“真实相机拍摄的照片包含来自整个环境的所有信息,而 AI 生成的图像则更多集中于用户的请求,因此无法准确捕捉背景环境的细微变化。”
除了识别图像外,团队还开发了一款名为 “DeFakePro” 的工具,用于检测伪造的音频和视频。这个工具利用了电网频率(ENF)信号,这种信号是在记录过程中,由电力的微小波动而产生的。通过分析这些信号,DeFakePro 可以判断出一段记录是否被篡改,进一步对抗深度伪造的威胁。
Poredi 强调,识别 AI 生成内容的 “指纹” 非常重要,这将帮助建立一个认证平台,确保视觉内容的真实性,从而减少虚假信息带来的负面影响。他指出,社交媒体的广泛使用使得虚假信息问题更加严峻,因此确保在线共享数据的真实性至关重要。
在这项研究中,团队希望为公众提供更多工具,以便让大家更容易区分真实与虚假内容,提升信息的可信度。
论文地址:https://dx.doi.org/10.1117/12.3013240
划重点:
1. 🖼️ 研究团队通过频域分析技术,成功识别 AI 生成与真实图像之间的差异。
2. 🔍 开发了 “DeFakePro” 工具,能够检测伪造音频和视频的真实性。
3. 🚫 强调确保在线共享数据真实性的重要性,以应对日益严重的虚假信息问题。