AIスタートアップ企業のOpenAIは木曜日、新しいAIモデル「GPT-4o mini」を発表しました。これは、同社の好評なチャットボットの利用拡大を目指す最新の取り組みです。
このミニAIモデルは、OpenAIが発表した最速かつ最も強力なモデルであるGPT-4oの派生版で、50種類の異なる言語の音声、ビデオ、テキストを処理する能力を備えています。
モデルの「o」は万能を意味し、OpenAIは今後、画像、ビデオ、オーディオを統合する予定です。GPT-4o Miniは現在、画像とテキストのみを処理しますが、OpenAIによると、最終的には音声、ビデオ、その他のコンテンツタイプにも対応する予定です。
現在、ユーザーはOpenAIのプログラミングツールキットでGPT-4o Miniを使用できます。さらに重要なのは、無料および有料のChatGPTクライアントのGPT-3.5 Turboに取って代わったことで、ChatGPTユーザーへの無料サービス提供を意味します。
OpenAIが公開したテストデータによると、GPT-4o miniの数学、コーディング、視覚などの推論能力は非常に優れており、現在最も強力なマルチモーダル小型モデルの1つです。
例えば、GPT-4o miniはMMLUで82.0%、数学とコーディングにおいてMGSMテストで87.0%、マルチモーダルMMMUで59.4%というスコアを達成し、Gemini FlashやAnthropicのClaude Haikuを上回っています。
開発者にとって、新しい大規模言語モデルのコストはGPT-3.5 Turboよりも約60%低く、GPT-4o miniの100万トークンの入力コストは15セントですが、GPT-3.5 Turboの100万トークンの入出力コストは60セントです。
OpenAIは、800億ドルを超える価値を持つ投資家の支援を受けて成長を続け、生成AI市場におけるリーダーシップの維持と収益化への道を模索しています。
昨年、OpenAIの最高執行責任者であるBrad Lightcap氏は次のように述べています。「世界はマルチモーダルです。私たち人間がどのように世界を処理し、世界と相互作用するかを考えると、私たちは物を見て、聞いて、話します—世界はテキストだけではありません。そのため、テキストとコードを単一のモダリティにすること、これらのモデルがどれほど強力で、何が可能なのかを単一のインターフェースで持つことは、常に不完全なもののように感じられました。」
OpenAIは木曜日、ChatGPTの無料ユーザー、ChatGPT PlusおよびTeamサブスクリプションユーザー向けにGPT-4o miniを発表し、ChatGPT Enterpriseユーザー向けには来週利用可能になる予定です。
要点:
🤖 OpenAIが「GPT-4o mini」モデルを発表し、ChatGPTをアップグレード
🌐 GPT-4o miniはGPT-4oモデルの派生版で、多言語の音声、ビデオ、テキスト処理能力を持つ
💰 OpenAIはAI市場におけるリーダーシップの維持と収益化モデルの探求に尽力