近日,OpenAI 首席执行官山姆·奥特曼(Sam Altman)透露,OpenAI 正与旨在评估和应对 AI 平台风险的美国联邦政府机构——美国 AI 安全研究所合作,将为其提供下一个主要生成式 AI 模型的早期访问权限,以进行安全测试。
奥特曼周四晚间在 X 上发布的这一消息,细节不多。但这一举措,连同6月与英国 AI 安全机构达成的类似协议,似乎意在反驳 OpenAI 在追求更强大的生成式 AI 技术时,将 AI 安全工作置于次要地位的说法。
此前,OpenAI 在5月实际上解散了一个致力于开发防止“超级智能”AI 系统失控的控制措施的部门。相关报道显示,OpenAI 放弃了该团队的安全研究,转而推出新产品,最终导致该团队的两位联合负责人扬·莱克(现已在 AI 初创公司 Anthropic 领导安全研究)和 OpenAI 联合创始人伊利亚·苏茨克维(创办了自己专注于安全的 AI 公司 Safe Superintelligence Inc.)辞职。
面对越来越多的批评声音,OpenAI 表示将取消限制员工揭发的非贬低条款,成立安全委员会,并将20%的计算资源用于安全研究。(解散的安全团队曾承诺获得 OpenAI20%的计算资源用于工作,但最终未得到。)奥特曼再次承诺20%的计算资源投入,并确认 OpenAI 在5月废除了新员工和现有员工的非贬低条款。
然而,这些举措并未平息一些观察家的质疑,尤其是在 OpenAI 完全由公司内部人员组成安全委员会,以及最近将一位顶级 AI 安全高管调任至其他部门之后。
包括夏威夷民主党人布莱恩·沙茨在内的五位参议员在最近给奥特曼的一封信中,对 OpenAI 的政策提出了质疑。OpenAI 首席战略官杰森·权(Jason Kwon)今日回信称,OpenAI“致力于在我们流程的每个阶段实施严格的安全协议”。
鉴于 OpenAI 本周早些时候对《创新未来法案》的支持,其与美国 AI 安全研究所达成协议的时机似乎有点可疑。该法案若通过,将授权安全研究所作为一个行政机构,为 AI 模型制定标准和指南。这一系列举动可能被视为试图掌控监管,或者至少是 OpenAI 对联邦层面的 AI 政策制定施加影响。
值得一提的是,奥特曼是美国国土安全部人工智能安全与保障委员会的成员之一,该委员会为美国关键基础设施中“安全可靠地开发和部署 AI”提供建议。而且,OpenAI 今年在联邦游说方面的支出大幅增加,2024年前六个月花费80万美元,而2023年全年仅为26万美元。
美国 AI 安全研究所隶属于商务部国家标准与技术研究所,与包括 Anthropic 在内的公司联盟以及谷歌、微软、Meta、苹果、亚马逊和英伟达等大型科技公司合作。
划重点:
🎯 OpenAI 承诺给美国 AI 安全研究所提前访问其下一个模型。
🎯 OpenAI 曾解散相关安全部门,引发诸多争议。
🎯 OpenAI 与美机构合作时机引猜测,其在联邦游说支出大增。