最近,谷歌的研究人员发出了警告:生成式人工智能(GenAI)正在用虚假内容毁掉互联网。这不仅是一个警示,更像是一次自我反省。
讽刺的是,谷歌在这场“真假大战”中扮演了双重角色。一方面,它是生成式AI的重要推动者,另一方面,它也是虚假信息的制造者。谷歌的AI概述功能曾出现过“披萨上涂胶水”、“吃石头”等荒谬建议,这些错误信息最终不得不被手动删除。
谷歌的研究团队深入调查了200篇关于生成式AI滥用的新闻报道,发现篡改人类肖像和伪造证据是最普遍的滥用方式。这些行为的目的无非是影响公众舆论、诈骗或牟取利益。生成式AI的风险虽然还没有上升到“威胁生存”的地步,但却是当下正在发生的事情,未来可能会变得更糟。
研究人员发现,大多数GenAI滥用案例都是对系统的正常使用,并没有“越狱”行为。这类“常规操作”占了9成。GenAI的广泛可用性、可访问性和超现实性,使得层出不穷的、较低级别的滥用形式成为可能。生成虚假信息的成本实在是太低了!
谷歌的研究素材大量来自于媒体报道,这是否意味着研究结论带有媒体的偏见?媒体更倾向于报道耸人听闻的事件,这可能会导致数据集偏向特定类型的滥用。404Media指出,还有大量的我们尚未意识到的生成式人工智能的滥用没有被报道。
AI工具的“围栏”可以用一些提示巧妙避过。例如,ElevenLabs的人工智能语音克隆工具可以高度逼真地模仿出同事或明星的声音。Civitai用户可以创建人工智能生成的名人图像,尽管该平台有禁止NCII(未经同意的私密图片)的政策,但同样没有什么能阻止用户在自己的机器上使用开源工具来生成NCII。
当虚假信息泛滥,互联网上的混乱状况会对人们辨别真假的能力带来巨大的考验。我们将陷入一种经常性的怀疑,「这是真的吗」?如果不加以解决,人工智能生成的内容对公开数据的污染还可能会阻碍信息检索,扭曲对社会政治现实或科学共识的集体理解。
对于生成式AI所带来的虚假内容的泛滥,谷歌起到了推波助澜的作用。多年前射出的子弹,今日终于击中了自己的眉心。谷歌的这次研究,或许是一种自我救赎的开始,也是对整个互联网社会的一次警醒。
论文地址:https://arxiv.org/pdf/2406.13843