人工知能研究企業OpenAIは先日、開発者向けAPIにおいて、o1-proという新たな「推論」AIモデルを発表しました。OpenAIによると、o1-proは既存モデルのo1と比べてより多くの計算資源が投入されており、「常に最適な応答」を提供することを目指しているとのことです。

QQ_1742433720488.png

しかし、この高性能モデルは現在、特定の開発者のみが利用可能です。具体的には、OpenAI APIサービスで少なくとも5ドル以上利用したユーザーに限られています。さらに注目すべきは、o1-proの価格設定が非常に高額であることです。

OpenAIは、入力テキスト(トークン単位で課金、約75万語で100万トークン相当)に対して100万トークンあたり150ドル、モデルが生成するテキストに対しては100万トークンあたり600ドルを請求します。これは、OpenAIのもう一つの高度なモデルであるGPT-4.5の入力価格の2倍、そして通常のo1モデルの生成価格の10倍にもなります。

高価格にもかかわらず、OpenAIはo1-proの性能に大きな期待を寄せており、その優れた性能が開発者を納得させると確信しています。OpenAIの広報担当者はテクノロジーメディアTechCrunchに対し、「APIにおけるo1-proは、より多くの計算を使用してより深い思考を行い、最も難しい問題にも優れた回答を提供するo1のバージョンです。開発者コミュニティからの多くの要望を受けて、APIに導入し、より信頼性の高い応答を提供できることを嬉しく思っています。」と述べています。

注目すべき点として、o1-proは昨年12月にOpenAIのAIチャットボットプラットフォームChatGPTにおいて、ChatGPT Proのサブスクリプションユーザー向けに公開されました。しかし、初期ユーザーからのo1-proに対する評価はまちまちです。数独パズルを解く際にうまくいかない、簡単な錯視ジョークにも惑わされるといった報告もあります。

さらに、OpenAI内部で昨年末に行われたベンチマークテストでは、o1-proはコーディングや数学の問題において、標準版のo1と比べてわずかにしか性能が向上していないことが示されました。しかし、これらのベンチマークテストでは、o1-proはこれらの問題に対する回答においてより信頼性が高いことも判明しました。OpenAIは、より高い計算コストを投入することで、AIモデルの複雑なタスクにおける性能と信頼性を向上させようとしていますが、これは直接的に高額な価格設定に反映されています。開発者がこの性能向上に対してこれほど高額な費用を支払う意思があるかどうかは、市場の検証が必要です。

要点:

  • 🚀 OpenAIは、より強力なAIモデルo1-proを発表し、より高品質な推論能力を目指しています。
  • 💰 o1-proの価格は非常に高額で、入力価格はGPT-4.5の2倍、生成価格は通常のo1の10倍です。
  • 🤔 初期ユーザーからのフィードバックと内部テストによると、o1-proはいくつかの点で完璧ではありませんが、コーディングと数学の問題ではより信頼性が高いです。