2025年1月6日、OpenAIのCEOであるSam Altman氏が自身のブログで新年メッセージを発表し、同社が汎用人工知能(AGI)から「スーパーインテリジェンス」(超知能)へと注力していくことを明らかにしました。同氏は、OpenAIが今後、人間を超える知能システムを構築できると確信しており、それらのシステムが科学的発見と社会の発展を大きく促進すると期待していると述べています。
Altman氏は、現在のAI技術には、高額なトレーニングコストや潜在的なエラーなど、いくつかの顕著な限界があると認めつつも、これらの問題は近い将来克服できると考えていると述べました。そして、OpenAIの使命は人類の長期的な利益のためであり、技術開発を進めながら十分な慎重さを保つことを目指していると強調しました。「今後数年で、皆さんも私たちと同じ技術的進歩を目にするだろうと、私たちは確信しています。」と述べています。
汎用人工知能(AGI)の構築という目標に向けて、OpenAIは常に探求を続けてきました。Altman氏は、AGIの定義は業界でもまだ曖昧であり、OpenAIは独自の解釈を持っていると述べています。それは、経済的に最も価値のある仕事において人間を凌駕する知能システムを開発することです。OpenAIとパートナーであるMicrosoftとの合意によると、AGIが実現した場合、Microsoftは当該技術へのアクセスを継続できなくなります。
Altman氏は特に、超知能という目標は、私たちが既存の能力を超える科学とイノベーションを加速させることを意味すると述べています。「超知能があれば、何でも実現できます。」と述べており、以前のいくつかの記事でも、超知能が今後10年以内に成熟し、人類に前例のない富と繁栄をもたらす可能性があると述べています。
しかし、Altman氏は超知能の安全性についても懸念を表明しています。超知能システムを効果的に規制することができない可能性があり、将来の技術開発に不確実性をもたらすと指摘しています。そして、現在の技術的手段では、超知能を確実に制御できないと警告しています。
総じて、Altman氏の新年のメッセージは、OpenAIの人工知能分野における野心だけでなく、将来の技術の安全性に対する深い考察も示しています。