2025年4月8日、NVIDIAはLlama-3.1-405Bを最適化し、253億パラメーターを持つオープンソースモデル「Llama3.1Nemotron Ultra253B」を発表しました。これはMetaのLlama4BehemothやMaverickを上回り、AI業界で大きな注目を集めています。

GPQA-Diamond、AIME2024/25、LiveCodeBenchなどのテストで卓越した性能を示し、推論スループットはDeepSeek R1の4倍に達します。NVIDIAは、最適化されたトレーニングとアルゴリズムを通じて、効率的な設計によって小型モデルが巨大モデルに匹敵することを証明しました。

QQ20250409-092409.png

Llama3.1Nemotron Ultra253BはHuggingFaceで重みを公開しており、商用利用可能なライセンスを採用しています。NVIDIAのこの取り組みは、開発者の利便性を高めるだけでなく、AI技術の普及とエコシステムの発展を促進します。

少ないパラメーターで巨大モデルに挑むこのモデルは、「少即是多」の理念を示しており、パラメーター競争の見直しと、より持続可能なAIへの道を探るきっかけとなる可能性があります。

その高い性能と柔軟性により、コード生成、科学研究などの分野に適しています。開発者による利用が進むにつれて、このモデルは2025年にさらなる変革をもたらすと期待されています。

開発者にとって、このモデルは高性能で敷居の低い実験プラットフォームを提供します。企業にとって、商用ライセンスと効率的な特性は、低い導入コストと幅広い適用範囲を意味します。コード生成から科学研究、自然言語処理まで、このモデルの多機能性は複数の分野で変革をもたらす可能性があります。

アドレス: https://huggingface.co/nvidia/Llama-3_1-Nemotron-Ultra-253B-v1