OpenAIの共同創設者であり、前最高科学責任者だったIlya Sutskever氏が、退職からわずか1ヶ月で、元同僚2名と共に新しい会社Safe Superintelligence Inc.(SSI)を設立しました。同社は「スーパーインテリジェンス」AIシステムの安全性問題解決に特化しています。

Sutskever氏は長年AI安全分野に取り組んでおり、OpenAIのJan Leike氏らと協力して、AIの安全性向上に向けた取り組みを進めてきました。しかし、この問題への対処方法に関してOpenAIの経営陣と意見の相違があり、5月に退職しました。Leike氏も以前Anthropicに移籍しています。

ブログ記事の中で、Sutskever氏とLeike氏は、AIが10年以内に人間の知能を超える可能性を予測していましたが、それが必ずしも慈悲深いものであるとは限らないため、制御と制限の方法を研究する必要があると述べています。現在、彼はこの目標に引き続き注力しています。

AI、人工知能、ロボット

画像出典:AI生成画像、画像ライセンス提供元Midjourney

水曜日、Sutskever氏はソーシャルメディアでSSIの設立を発表し、同社の使命、名称、そして製品ロードマップ全体が「スーパーインテリジェンス」AIの安全性の実現に集中していると述べました。SSIは安全性を技術的な課題と捉え、工学と科学のブレイクスルーによって解決することを計画しています。

彼は、SSIがAIの能力と安全性を向上させ、安全性を確保した上で規模を拡大し、短期的なビジネスの圧力を受けずに運営していく計画であることを明らかにしました。非営利団体から営利団体へと転換したOpenAIとは異なり、SSIは最初から営利企業として設立されました。

Sutskever氏はSSIの資金調達状況などについてコメントを拒否しました。しかし、共同創設者のGross氏は、資金調達は問題ないだろうと述べています。SSIは現在、パロアルトとテルアビブにオフィスを構え、技術人材の採用を進めています。