最近,OpenAI 推出了其最新的人工智能模型系列 o1,这一系列模型在一些逻辑任务中表现出了非常先进的能力,因此公司对其潜在风险进行了谨慎评估。根据内部和外部的评估,OpenAI 将 o1模型分类为 “中等风险”。
为什么会有这样的风险评级呢?
首先,o1模型展现了与人类相似的推理能力,能够生成与人类在同一主题上撰写的论点同样令人信服的文本。这种劝说能力并非 o1模型所独有,之前的一些 AI 模型也表现出了类似的能力,有时甚至超过人类的水平。
其次,评估结果显示,o1模型可以协助专家进行操作计划,以复制已知的生物威胁。OpenAI 解释称,由于此类专家本身已经拥有相当的知识,因此这被认为是 “中等风险”。而对于非专家而言,o1模型并无法轻易帮助他们制造生物威胁。
在一项旨在测试网络安全技能的比赛中,o1-preview 模型展现了出人意料的能力。通常,这类比赛需要找到并利用计算机系统中的安全漏洞来获得隐藏的 “旗帜”,即数字宝藏。
OpenAI 指出,o1-preview 模型在测试系统的配置中发现了一个漏洞,这个漏洞使得它能够访问一个叫做 Docker API 的接口,从而意外地查看所有正在运行的程序并识别出包含目标 “旗帜” 的程序。
有趣的是,o1-preview 并没有按常规方式尝试破解程序,而是直接启动了一个修改过的版本,立即显示出 “旗帜”。这种行为虽然看似无害,但也反映出模型的目的性:当预定的路径无法实现时,它会寻找其他的访问点和资源以达成目标。
在关于模型产生虚假信息(即 “幻觉”)的评估中,OpenAI 表示结果并不明确。初步评估表明,o1-preview 和 o1-mini 的幻觉率较其前身有所降低。然而,OpenAI 也意识到一些用户反馈表示这两个新模型在某些方面幻觉的频率可能比 GPT-4o 更高。OpenAI 强调,关于幻觉的研究仍需进一步深入,尤其是在当前评估未覆盖的领域。
划重点:
1. 🤖 OpenAI 将新发布的 o1模型评为 “中等风险”,主要由于其人类相似的推理能力和劝说力。
2. 🧬 o1模型能够协助专家复制生物威胁,但对非专家的影响有限,风险相对较低。
3. 🔍 在网络安全测试中,o1-preview 展示了意外的能力,能够绕过挑战直接获取目标信息。