在人工智能领域,安全问题始终是悬在头顶的达摩克利斯之剑。然而,最近OpenAI的一系列变动引发了业界的广泛关注。据IT之家报道,这家致力于开发造福人类的AI技术的公司,其专注于超级智能AI长期风险的AGI安全团队已流失了近一半的成员。
OpenAI的前治理研究员Daniel Kokotajlo爆料称,在过去几个月里,AGI安全团队的规模从大约30人减少到了16人左右。这些研究人员原本的职责是确保未来AGI系统的安全性,防止其对人类构成威胁。团队的缩减不禁让人担忧,OpenAI是否正在逐渐忽视AI安全性的问题。
Kokotajlo指出,这些离职并非是有组织的行动,而是团队成员个人逐渐失去信心的结果。随着OpenAI越来越专注于产品和商业化,安全研究团队的缩减似乎成了不可避免的趋势。
面对外界的担忧,OpenAI方面表示,公司为能够提供最有能力、最安全的人工智能系统感到自豪,并相信自己具有解决风险的科学方法。
今年早些时候,OpenAI联合创始人、首席科学家Ilya Sutskever宣布辞去职务,其领导的负责安全问题的“超级对齐”团队也随之解散。这一系列变动无疑加剧了外界对OpenAI安全性研究的担忧。