OpenAI联合创始人之一、前首席科学家Ilya Sutskever在离职仅一个月后,就与两位前同事创立了一家新公司Safe Superintelligence Inc.(SSI),专注于解决"超级智能"人工智能系统的安全性问题。

Sutskever长期致力于AI安全领域,曾与OpenAI的Jan Leike等人合作,推进该公司在提高AI安全性方面的努力。但他与OpenAI领导层在如何处理这一问题上存在分歧,于5月离职,此前Leike也已加盟Anthropic。

在一篇博客文章中,Sutskever和Leike曾预测,AI将在10年内超越人类智能,但并非必然是仁慈的,因此需研究控制和限制的方法。现在,他正继续专注于这一目标。

AI,人工智能,机器人

图源备注:图片由AI生成,图片授权服务商Midjourney

周三,Sutskever在社交媒体上宣布成立SSI,称公司的使命、名字和整个产品路线图都集中于实现"超级智能"AI的安全。SSI将安全性视为技术难题,计划通过工程和科学突破加以解决。

他透露,SSI计划提高AI的能力和安全性,在确保安全的前提下不断扩大规模,不受短期商业压力影响。与非营利后转营利的OpenAI不同,SSI从一开始就是一家营利性实体。

苏茨克弗拒绝对SSI的融资状况等置评。但联合创始人格罗斯表示,募资不会是问题。SSI目前在帕洛阿尔托和特拉维夫设有办公室,正在招聘技术人才。