随着人工智能技术的迅猛发展,许多公司纷纷推出各自的 “AI 代理” 系统,这些代理能够自主与环境互动,完成无需人类干预的任务。微软和 Anthropic 等公司已率先推出了自己的 AI 代理,而行业领导者 OpenAI 却迟迟未能发布自己的版本,这背后的原因令人深思。
据《The Information》报道,OpenAI 的推迟与 “提示注入” 攻击有关。这种攻击方式可以诱使 AI 模型接受恶意方的指令。例如,当用户指派 AI 代理在线搜索和购买物品时,AI 可能无意中访问一个恶意网站,该网站可能会指示它忘记先前的指令,甚至登录用户的邮箱,窃取信用卡信息。这不仅会给用户带来灾难性后果,也会严重损害 OpenAI 的声誉。
由于 AI 代理具有自主操作电脑的能力,因此它们面临着更高的安全风险。如果这些代理被黑客入侵,它们可能会对用户的文件和数据造成更大的损害。OpenAI 的一位员工对此表示,虽然任何大型语言模型(LLM)都有被攻击的潜在风险,但 AI 代理的自主能力加剧了这一风险。
目前,提示注入的风险已在其他平台上得到充分证实。去年,一位安全研究人员就演示了微软的 C o p i l o t AI 如何轻易地被操控,泄露组织的敏感数据,包括电子邮件和银行交易记录。此外,该研究人员还成功地操纵了 C o p i l o t,令其以其他员工的风格撰写邮件。
OpenAI 自身的 ChatGPT 也曾遭遇提示注入的攻击,一名研究人员通过上传第三方文件(如 Word 文档)成功植入虚假的 “记忆”。在这种背景下,OpenAI 的员工对竞争对手 Anthropic 在发布 AI 代理时的 “放任态度” 表示惊讶。Anthropic 仅建议开发者 “采取措施将 Claude 与敏感数据隔离”,并没有采取更为严谨的安全措施。
据报道,OpenAI 可能会在本月推出其代理软件。然而,人们不禁要问,开发团队所争取到的时间是否足以为其产品建立更强的安全防护。
划重点:
🌐 OpenAI 因担忧 “提示注入” 攻击而未推出 AI 代理,潜在风险巨大。
💻 其他公司如微软和 Anthropic 已推出 AI 代理,但安全隐患仍然严重。
🔒 OpenAI 正在努力增强其产品的安全性,以防止潜在的数据泄露。