最近,OpenAI 的 CEO 萨姆・阿尔特曼宣布他将退出公司内部的安全委员会,该委员会自今年五月成立,旨在监督 OpenAI 人工智能模型开发和部署的关键安全与安全决策。阿尔特曼的这一决定引起了广泛关注,他希望将这一角色交给第三方专家,以增强透明度、合作和安全性。

OpenAI,人工智能,AI

随着阿尔特曼的离开,这个安全委员会将转变为一个 “立的监督委员会”,专注于安全和安全问题。新任委员会主席是来自卡内基梅隆大学计算机科学学院的机器学习部门主任齐科・科尔特。他接替了前任主席布雷特・泰勒,后者也已经离开了委员会。委员会的其他成员包括 Quora 联合创始人兼 CEO 亚当・丹吉洛、美国退役陆军将领保罗・纳卡索内和前索尼公司执行副总裁兼总法律问妮可・利格曼。

在科尔特的领导下,该委员会将负责审查 AI 用来评其最新大型语言模型 ——OpenAI o1的安全性和适用性标准。OpenAI o1引入了先进的推理能力,声称在物理、化学生物等领域的表现超越人类博士,并在数学和编码方面同样表现出色。

OpenAI 还提出了委员会未来的使命,包括建立独立的 AI 安全和安全治理,增强安全措施,促进对 OpenAI 工作的透明度,和外部组织进行合作,以及统一公司在模型开发和监控方面的安全框架。公司表示:“我们承诺不断改善发布高能力和安全模型的方式,安全与安保委员会将在塑造 OpenAI 未来的过程中发挥关键作用。”

然而,阿尔特曼的管理风格引发了外界的争议,特别是在他于去年底被迫离开后,又速回归 OpenAI 的背景下。他特斯拉的埃隆・马斯克的关系也相对紧张,后者是 OpenAI 的创始董事之一。关于 OpenAI 技术安全性的质疑频繁出现,包括公司是否使用了非法的保密协议,并要求员工报告与监管机构的接触。

阿尔特曼的这次离开将对 AI 治理产生何种影响,尚不明朗。有人指出,这可能表明 OpenAI 正在认识到 AI 治理中中立性的重要性,愿意在管理 AI 安全和风险方面更加开放。

划重点:

🌐  阿尔特曼退出 OpenAI 安全委员会,旨在推动更独立的监督机制。  

🔍  新主席齐科・科尔特将领导委员会,继续评估 OpenAI 新模型的安全性。  

🤝  OpenAI 计划加强与外部组织的合作,提升透明度和安全措施。