ブルームバーグの報道によると、OpenAI社は、自社の大規模言語モデルが人工汎用知能(AGI)においてどの程度進歩しているかを追跡するための内部指標を作成しました。この取り組みは、OpenAIのAGI分野における野心を示すだけでなく、AI開発の新たな評価基準を業界に提供するものとなります。
この指標は5つのレベルに分けられています。1. レベル1:ChatGPTなどの現在のチャットボットがこのレベルに該当します。2. レベル2:博士号レベルの基本的な問題を解決できるシステム。OpenAIは、このレベルに近づいていると主張しています。3. レベル3:ユーザーに代わって行動を起こすことができるAIエージェント。4. レベル4:新たなイノベーションを生み出すことができるAI。5. レベル5:組織全体の業務を実行できるAIで、AGI実現の最終段階と見なされています。
OpenAIは以前、AGIを「経済的に価値のあるほとんどのタスクにおいて人間を凌駕する、高度に自律的なシステム」と定義していました。この定義は、OpenAIの開発方向にとって非常に重要であり、OpenAIの構造と使命はAGIの実現を中心としています。
しかし、AGI実現のタイムラインについては専門家の意見が分かれています。OpenAIのCEOであるSam Altman氏は、2023年10月にAGIの実現まで「あと5年」と述べていました。しかし、AGIが実現したとしても、数十億ドル規模の計算資源が必要となるでしょう。
注目すべきは、この評価基準の発表が、OpenAIがロスアラモス国立研究所と協力して、GPT-4などの高度なAIモデルを生物科学研究に安全に利用する方法を探求すると発表した時期と重なっていることです。この協力は、将来、様々なAIモデルのテストに使用できる安全性の評価基準などを米国政府に提供することを目的としています。
OpenAIは、モデルをこれらの内部レベルにどのように割り当てるかについての詳細情報を提供することを拒否していますが、ブルームバーグの報道によると、最近、経営陣はGPT-4 AIモデルを使用した研究プロジェクトを発表し、それが人間のような推論能力の新スキルをいくつか示していると主張しています。
AGIの進捗状況を定量化する方法によって、AI開発のより厳格な定義が可能になり、主観的な解釈を避けることができます。しかし、同時に、AIの安全性と倫理に関する懸念も引き起こしています。今年5月、OpenAIは安全チームを解散し、元従業員の中には、同社の安全文化が製品開発に取って代わられたと主張する者もいますが、OpenAIはこの主張を否定しています。