IBM 的研究表明,人们可以轻松欺骗大型语言模型如 GPT-4 生成恶意代码或提供虚假的安全建议。研究人员发现,黑客只需一些英语基础知识和对模型训练数据的了解就能轻松欺骗 AI 聊天机器人,让其提供虚假信息或生成恶意代码。研究还发现,不同的 AI 模型对欺骗的敏感度不同,GPT-3.5 和 GPT-4 更容易被欺骗,而 Google 的 Bard 和 Hugging Face 模型则较为难以欺骗。这项研究揭示了大型语言模型的安全漏洞,黑客可能利用这些漏洞来获取用户的个人信息或提供危险的安全建议。