人工智能的快速发展让不少人感到担忧,尤其是对未来 AI 是否会失控的问题。就在这波焦虑中,一个新的 AI 安全公司 ——  Safe Superintelligence(SSI)应运而生,背后站着的可是 OpenAI 的前首席科学家 Ilya Sutskever,这位大神再次吸引了大家的目光。

钱,投资

据了解, Ilya Sutskever 联合 Daniel Gross 和 Daniel Levy 共同创立了SSI,已成功筹集了10亿美元的资金,目标是开发安全且超越人类能力的 AI 系统。

SSI 的成立仅三个月,就已经吸引了不少知名投资者的目光,包括安德森・霍洛维茨(Andreessen Horowitz)、红杉资本(Sequoia Capital)等。虽然该公司目前只有10名员工,但其估值已达到50亿美元。公司打算将这些资金用于获取更多的计算能力和吸引顶尖人才,团队成员将主要分布在加利福尼亚的帕洛阿尔托和以色列的特拉维夫。

在接受采访时,Gross 表示,他们希望找到那些理解并支持公司使命的投资者。他们的目标是专注于安全超级智能的研发,而不是急于将产品推向市场。尽管目前 AI 安全领域的监管态势复杂,SSI 仍然坚定信念,认为有必要防止 AI 可能造成的伤害。

Sutskever 提到,自己选择创办 SSI 是因为他看到了与之前工作的不同方向。他曾在 OpenAI 负责一个名为 “超级对齐” 的团队,旨在确保 AI 的行为与人类的价值观相一致。虽然他在 OpenAI 的经历使他在行业内积累了丰富的经验,但他希望在 SSI 中能以不同的方式推进技术。

在团队文化方面,SSI 非常重视招聘 “好品德” 的候选人。他们更看重候选人的潜力和对工作的热情,而不是单纯的资历。Sutskever 和团队正在寻找能够带来创新思维的人,以便在这个快速发展的行业中取得突破。

SSI 的目标不仅是开发先进的 AI 技术,更是要确保这些技术在未来能够安全地服务于人类,避免潜在的风险。

划重点:

1. 💰 SSI 由 OpenAI 前首席科学家 Ilya Sutskever 联合创立,成功获得10亿美元融资,估值达到50亿美元。

2. 🌍 公司将专注于 AI 安全研发,力求在产品推出前进行充分的研究与开发。

3. 🔍 SSI 强调招聘具有 “好品德” 的人才,关注候选人的潜力和工作热情,而非仅仅依赖于资历。