OpenAIの共同創設者Ilya Sutskeverは、今年5月にOpenAIのチーフサイエンティストを退任した後、新たなスタートアップ企業に参入すると発表しました。彼はOpenAIの同僚であるDaniel Levy氏と、アップル元人工知能責任者でCueの共同創設者であるDaniel Gross氏と共に、Safe Superintelligence Inc.を共同設立しました。このスタートアップ企業の使命は、安全なスーパーインテリジェンス(超知能)を構築することです。

image.png

SSIのウェブサイトに掲載された情報によると、創設者たちは、安全なスーパーインテリジェンスの構築は「私たちの時代の最も重要な技術的問題」だと述べています。「私たちは、安全性と能力を一体のものとして捉え、革新的なエンジニアリングと科学的ブレークスルーを通じて解決すべき技術的問題としています。能力の向上を迅速に進めつつ、安全性を常に最優先事項として維持する計画です。」

では、スーパーインテリジェンスとは何か?これは仮説的な概念であり、最も賢い人間の知能をはるかに超える理論上の存在を表しています。

この取り組みは、Sutskever氏がOpenAI時代に携わった仕事の延長線上にあるものです。彼は同社のスーパーアラインメントチームの一員として、強力な新しいAIシステムを制御する方法の設計を担当していました。しかし、Sutskever氏の退任に伴い、このチームは解散され、その動きは元リーダーのJean Leike氏から厳しい批判を受けました。

SSIは、「安全な超知能の発展を一直線に進め、1つの目標と1つの製品に集中する」と主張しています。

もちろん、OpenAIの共同創設者は、2023年11月に発生したSam Altman最高経営責任者(CEO)の短期間の解任劇において重要な役割を果たしました。Sutskever氏はその後、この事件における自身の役割を後悔していると述べています。

Safe Superintelligence Inc.の設立により、Sutskever氏らは安全な超知能の問題に一層集中し、単一目標の製品開発を実現できるようになります。