最近、OpenAIの元政策研究責任者であるマイルズ・ブランドージ氏は、同社のAI安全性に関する説明の変更について批判し、OpenAIがAIシステムの安全性の歴史を書き換えていると主張しています。彼は、OpenAIが汎用人工知能(AGI)の追求において、長期的な安全対策を軽視している可能性があると述べています。

OpenAI、人工知能、AI

OpenAIは、特にDeepSeekなどの競合他社の台頭を受けて、野心的なビジョンを推進することに尽力してきました。AGI開発の追求において、同社は超知能エージェントの可能性を繰り返し強調していますが、この姿勢は広く受け入れられていません。ブランドージ氏は、OpenAIの既存のAIモデルの展開と安全性に関する説明に矛盾があると指摘しています。

最近、OpenAIはAIモデルの段階的展開に関する文書を発表し、慎重な姿勢を示すことを目的としています。この文書では、GPT-2を例に挙げ、現在のシステムを扱う際には高度な注意が必要であることを強調しています。OpenAIは文書の中で、「不連続な世界において、安全な教訓は今日のシステムに対する高度な注意から得られるものであり、それがGPT-2モデルで私たちが採用した方法です」と述べています。

しかし、ブランドージ氏はこれに対して疑問を呈しています。彼は、GPT-2のリリースも段階的なアプローチに従っており、安全性の専門家はOpenAIの慎重な対応を高く評価していたと主張しています。過去の慎重さは過剰ではなく、必要かつ責任ある対応だったと彼は考えています。

さらに、ブランドージ氏は、OpenAIがAGIは突然のブレークスルーではなく段階的なステップを経て実現すると主張することに対しても懸念を表明しています。彼は、OpenAIによるGPT-2リリース履歴の誤解、そして安全性の歴史の書き換えは不安だと述べています。また、OpenAIが発表した文書は、安全上の懸念を過剰反応とみなす可能性があり、AIシステムの継続的な発展において大きなリスクをもたらす可能性があると指摘しています。

これはOpenAIが初めて批判を受けたわけではありません。専門家たちは、同社が長期的な安全性と短期的な利益のバランスを適切に取っているかどうか疑問視しています。ブランドージ氏の懸念は、再びAIの安全性に対する関心を高めています。

要点:

🌐 OpenAIの元政策責任者が、同社のAI安全性に関する説明の変化を疑問視し、歴史の誤解だと主張。  

🚀 OpenAIが発表した文書はAIモデルの慎重なリリースの重要性を強調しているが、元従業員から批判されている。  

⚠️ 未来のAIシステムの発展において、安全対策の重視が不可欠であり、専門家たちは懸念を表明している。