先日、マイクロソフトは、自社の小型言語モデルPhi-3に対するサーバーレス微調整機能を発表しました。この新機能により、開発者は自分のサーバーを管理することなく、Phi-3モデルのパフォーマンスを簡単に調整および最適化できます。

マイクロソフトはこのサービスをAzure AI開発プラットフォームで提供しており、開発者はクラウド上でモデルの微調整を行うことができ、基盤となるインフラストラクチャの複雑さを考慮する必要がなく、(当初は)無料です。

image.png

Phi-3モデルは30億パラメーターを持つ小型言語モデルで、企業開発者向けに設計されており、低コストで高効率なパフォーマンスを提供します。MetaのLlama 3.1(4050億パラメーター)に比べてパラメーター数ははるかに少ないですが、多くのアプリケーションシナリオにおいて、Phi-3のパフォーマンスはOpenAIのGPT-3.5モデルに匹敵します。マイクロソフトは最初の発表時に、Phi-3モデルは非常にコストパフォーマンスが高く、プログラミング、常識推論、一般的な知識などのタスクに適していると述べていました。

しかし、以前のPhi-3モデルの微調整には、開発者が自らマイクロソフトAzureサーバーを設定するか、ローカルコンピューターで実行する必要があり、操作が複雑で、ハードウェアにも一定の要件がありました。今回、サーバーレス微調整により、開発者はマイクロソフトのAzure AIプラットフォーム上で直接モデルの調整と最適化を行うことができ、操作プロセスが大幅に簡素化され、利用のハードルも下がりました。

マイクロソフトはまた、Phi-3の小規模および中規模モデルはサーバーレスエンドポイントで微調整できることを発表しました。これは、開発者が自分のニーズに合わせてモデルのパフォーマンスを調整し、さまざまなアプリケーションシナリオに適応させることができることを意味します。例えば、教育ソフトウェア企業のKhan Academyは、微調整されたPhi-3モデルを使用して、Khanmigo教師版のパフォーマンスを最適化し始めています。

しかし、この新機能により、マイクロソフトとOpenAIの競争はさらに激しくなっています。OpenAIは最近、無料のGPT-4o miniモデル微調整サービスを発表したばかりであり、MetaとMistralも新しいオープンソースモデルを次々と発表しています。主要なAIプロバイダーは、企業開発者市場の獲得に積極的に取り組み、より競争力のある製品とサービスを提供しています。

公式ブログ:https://azure.microsoft.com/en-us/blog/announcing-phi-3-fine-tuning-new-generative-ai-models-and-other-azure-ai-updates-to-empower-organizations-to-customize-and-scale-ai-applications/

要点:

📈 サーバーレス微調整のリリース:マイクロソフトはサーバーレス微調整機能を発表し、開発者はインフラストラクチャを管理することなく、Phi-3言語モデルを簡単に調整できます。

💰 コストパフォーマンスの高いPhi-3:Phi-3モデルは低コストで高効率なパフォーマンスを提供し、さまざまな企業アプリケーションシナリオに適しています。

🤖 激しい市場競争:マイクロソフトのサーバーレス微調整機能は、OpenAIやその他のAIモデルプロバイダーとの競争を激化させ、業界の発展を促進しています。