マイクロソフトは、Phiシリーズの生成AIモデルに新たなメンバー、Phi-4を発表しました。以前のバージョンと比較して、Phi-4は複数の点で改善されており、特に数学問題解決能力において顕著な向上を見せています。これは、トレーニングデータの質の向上によるものです。

木曜日の夜現在、Phi-4へのアクセスは比較的制限されており、マイクロソフトが最近発表したAzure AI Foundry開発プラットフォームでのみ利用可能で、マイクロソフトの研究許可契約に基づく研究目的のみに限定されています。

人工知能の脳、大規模モデル

画像出典:AI生成画像、画像ライセンス提供元Midjourney

Phi-4は、マイクロソフトが発表した最新の小型言語モデルで、140億個のパラメータを備えています。GPT-4o mini、Gemini2.0 Flash、Claude3.5 Haikuなどの他の小型モデルと同等であり、これらの小型モデルは通常、実行速度が速く、コストが低いという特徴があります。過去数年で、小型言語モデルのパフォーマンスは着実に向上しています。

マイクロソフトは、Phi-4のパフォーマンス向上を、「高品質な合成データセット」と、人間が生成したコンテンツの高品質なデータセットの使用、そして非公開のトレーニング後の改良によるものだと説明しています。

現在、多くのAIラボが、合成データとトレーニング後の改良によるモデル性能向上への可能性に注目しています。Scale AIのCEOであるAlexandr Wang氏は木曜日のツイートで、「私たちはトレーニング前のデータのボトルネックに到達しました」と述べており、この発言は、この話題に関する最近のいくつかの報告を裏付けています。

さらに注目すべき点として、Phi-4は、マイクロソフトのAI担当副社長であるSébastien Bubeck氏が退社後、発表された最初のPhiシリーズのモデルです。Bubeck氏はマイクロソフトのAI分野で重要な役割を果たしており、Phiモデル開発の中心人物でした。Bubeck氏は10月にマイクロソフトを退社し、OpenAIに入社しました。