Hugging Faceは本日、SmolLM2を発表しました。これは、大規模モデルよりもはるかに少ない計算資源で、驚くべき性能を実現する、一連のコンパクトな言語モデルです。Apache2.0ライセンスで公開されるこの新しいモデルは、1億3500万、3億6000万、17億のパラメータという3つのサイズがあり、スマートフォンなどの処理能力とメモリが限られたエッジデバイスへの展開に適しています。

QQ20241105-095741.png

SmolLM2-1Bモデルは、いくつかの主要なベンチマークテストでMetaのLlama1Bモデルを上回り、特に科学的推論と常識的なタスクで優れた性能を発揮しました。FineWeb-Eduや専門的な数学・コーディングデータセットを含む多様なデータセットの組み合わせを使用してトレーニングされたこのモデルは、ほとんどの認知ベンチマークで、より大規模な競合モデルを上回る性能を示しました。

SmolLM2の発表は、人工知能業界が、大規模言語モデル(LLM)を実行するための計算需要に対処する上で重要な時期に当たります。OpenAIやAnthropicなどの企業がモデル規模の限界を押し広げ続けている一方で、デバイス上でローカルに実行できる効率的で軽量なAIの必要性がますます認識されています。

QQ20241105-095748.png

SmolLM2は、強力なAI機能を個人デバイスに直接提供するという異なるアプローチを提供し、巨大なデータセンターを持つテクノロジー大手だけでなく、より多くのユーザーや企業が高度なAIツールを利用できる未来を示唆しています。これらのモデルは、テキストの書き換え、要約、関数呼び出しなど、さまざまなアプリケーションをサポートしており、プライバシー、遅延、または接続の制限によりクラウドベースのAIソリューションが現実的ではないシナリオでの展開に適しています。

これらの小型モデルはまだ限界がありますが、より効率的なAIモデルの広範なトレンドの一部を表しています。SmolLM2の発表は、AIの未来は、ますます大きくなるモデルだけでなく、より少ないリソースで強力な性能を提供できる、より効率的なアーキテクチャにある可能性を示しています。