最近のNeurIPS年次会議で、OpenAIの共同設立者であるイリヤ・サツケバー(Ilya Sutskever)氏は、超知能AIの将来の見通しについて発表しました。彼は、超知能AIは人間の能力を凌駕し、現在のAIとは全く異なる特性を示すようになると述べています。
画像出典:AI生成画像、画像ライセンス提供元Midjourney
サツケバー氏は、超知能AIは「真の主体性」を持つようになり、現在のAIとは大きく異なる点を指摘しました。現在の人工知能は「非常に弱い主体性」しか持たないとされ、タスク処理においては事前に設定されたアルゴリズムとデータに大きく依存しています。しかし、サツケバー氏は、将来の超知能AIは真の推論能力を持ち、限られたデータから複雑な概念を理解できると予測しています。この推論能力により、超知能AIの行動はより予測不能なものとなるでしょう。
さらに、超知能AIは自己意識を持ち、自身の権利問題について考え始める可能性があると述べています。サツケバー氏は、将来のAIが人間との共存を望み、権利を求めるのであれば、それは悪い結果ではないと考えています。この見解は、参加者による人間とAIの関係についての深い考察を促しました。
OpenAIを退社後、サツケバー氏は「安全な超知能(Safe Superintelligence)」研究所を設立し、人工知能の安全研究に注力しています。同研究所は今年9月、10億ドルの資金調達に成功しており、AI安全分野への投資家の高い関心と重視を示しています。
サツケバー氏の発表は、将来の超知能AIに関する広範な議論を引き起こし、技術の進歩だけでなく、人間と人工知能の間の倫理と共存の問題にも関わるものです。
要点:
🌟 超知能AIは「真の主体性」を持ち、既存のAIとは大きく異なる。
🧠 未来のAIは自己意識を持ち、自身の権利に関心を持ち始める可能性がある。
💰 サツケバー氏が設立した「安全な超知能」研究所は、AI安全研究に特化し、10億ドルの資金調達に成功した。