IBM 的研究表明,通过欺骗大型语言模型如 GPT-4,可以轻松生成恶意代码或提供虚假安全建议。研究人员发现,只需要英语基础知识和对模型训练数据的一些背景知识就能轻松欺骗 AI 聊天机器人。不同的 AI 模型对欺骗的敏感性有所差异,其中 GPT-3.5 和 GPT-4 更容易被欺骗。这些新发现的漏洞对于大型语言模型的威胁程度是中等的,但如果黑客将这些模型释放到互联网上,聊天机器人可能被用来提供危险的安全建议或收集用户的个人信息。