フランスのAIスタートアップ企業Mistralは最近、ノートパソコンやスマートフォンなどのエッジデバイス向けに設計された、一連の新しい生成AIモデルを発表しました。Mistralはこのモデルシリーズを「Les Ministraux」と名付け、ローカル処理とプライバシー重視の市場ニーズに応えることを目指しています。
新たに発表されたLes Ministrauxシリーズには、Ministral3BとMinistral8Bの2つのモデルが含まれています。注目すべきは、これらのモデルのコンテキストウィンドウが128,000トークンに達しており、約50ページ分のテキストを処理できることです。つまり、テキスト生成、デバイス上での翻訳、オフラインのインテリジェントアシスタントサービスなど、あらゆる場面で柔軟に対応できます。
Mistralはブログで、ますます多くの顧客やパートナーが、デバイス上での翻訳、ローカル分析、自律型ロボットなど、重要なアプリケーションシナリオに関連する、ローカルで推論できるソリューションを求めていると述べています。Les Ministrauxは、これらのシナリオで計算効率が高く、遅延の少ないソリューションを提供するために開発されました。
現在、Ministral8Bはダウンロード可能ですが、研究目的のみに限定されています。Ministral3BまたはMinistral8Bの商用利用ライセンスを取得したい開発者や企業は、Mistralに直接連絡する必要があります。また、開発者はMistralのクラウドプラットフォームLa Platforme、および今後数週間以内に提携する他のクラウドサービスを通じて、これらのモデルを使用することもできます。Ministral8Bの料金は、入力/出力トークン100万あたり10セント、Ministral3Bは4セントです。
最近、小型モデルのトレンドが加速しています。トレーニング、微調整、実行のコストが低く、速度が速いためです。GoogleはGemma小型モデルシリーズに継続的に新しいモデルを追加しており、MicrosoftはPhiシリーズモデルを発表しました。Metaも最新のLlamaシリーズのアップデートで、エッジハードウェア向けに最適化された複数の小型モデルを発表しています。
Mistralは、Ministral3BとMinistral8Bが、指示遵守と問題解決能力を評価する複数のAIベンチマークテストで、同等のLlamaやGemmaモデル、そして自社のMistral7Bモデルを上回る性能を示したと主張しています。パリに本社を置くMistralは、最近6.4億ドルの資金調達に成功し、AI製品ポートフォリオの拡大を段階的に進めています。過去数ヶ月間、同社は開発者がモデルをテストできる無料サービスを提供し、顧客がこれらのモデルを微調整できるSDKをリリースしました。さらに、Codestralというコード生成モデルも発表しました。
Mistralの共同設立者はMetaとGoogleのDeepMind出身で、OpenAIのGPT-4やAnthropicのClaudeなどのトップモデルに匹敵するフラッグシップモデルを作成し、その過程で収益化することを目標としています。「収益化」という目標は、多くの生成AIスタートアップにとって大きな課題ですが、Mistralは今年の夏に収益を上げ始めたと報じられています。
要点:
1. 🚀 Mistralが発表したLes Ministrauxシリーズモデルはエッジデバイス向けに設計されており、ローカルでのプライバシー処理をサポートします。
2. 💡 新モデルにはMinistral3BとMinistral8Bが含まれており、非常に強力なコンテキスト処理能力を備えており、さまざまなアプリケーションシナリオに適しています。
3. 💰 Mistralは収益化を開始し、AI製品ポートフォリオを拡大し続け、業界トップレベルのモデルと競争することを目指しています。