楽天グループは、日本初となる大規模言語モデル(LLM)と小型言語モデル(SLM)である「Rakuten AI2.0」と「Rakuten AI2.0mini」を発表しました。

これらのモデルの発表は、日本の人工知能(AI)の発展を促進することを目的としています。Rakuten AI2.0は、混合専門家(MoE)アーキテクチャに基づいた8x7Bのモデルで、それぞれ70億パラメーターを持つ8つのモデル(専門家)で構成されています。入力トークンを処理する際、システムは最も関連性の高い2つの専門家に送信し、ルーターが選択を行います。これらの専門家とルーターは、大量の高品質な日英バイリンガルデータを用いて共同学習を繰り返します。

image.png

Rakuten AI2.0miniは、15億パラメーターの新しい高密度モデルで、コスト効率の高いエッジデバイスへの展開を目的としており、特定のアプリケーションシナリオに適しています。日英混合データで学習されており、手軽なソリューションを提供することを目指しています。両モデルとも、指示微調整と選好最適化が施されており、基本モデルと指示モデルが公開され、企業や専門家がAIアプリケーションを開発できるようになっています。

image.png

すべてのモデルはApache2.0ライセンスで提供され、楽天グループのHugging Face公式リポジトリから入手できます。商業利用としては、テキスト生成、要約、質問応答、テキスト理解、対話システム構築などが含まれます。さらに、これらのモデルは他のモデルの基盤としても使用でき、さらなる開発や応用が容易になります。

楽天グループの最高AI・データ責任者である蔡婷氏は次のように述べています。「データ、エンジニアリング、科学を融合させ、Rakuten AI2.0を発表できたことを大変誇りに思います。私たちの新しいAIモデルは、企業が賢明な意思決定を行い、価値実現を加速し、新たな可能性を切り開くための、強力でコスト効率の高いソリューションを提供します。モデルをオープンにすることで、日本におけるAIの発展を加速し、すべての日本企業が構築、実験、成長を促し、協調的なコミュニティを構築することを願っています。」

公式ブログ:https://global.rakuten.com/corp/news/press/2025/0212_02.html

要点:

🌟 楽天グループが日本初の大規模言語モデル(LLM)と小型言語モデル(SLM)「Rakuten AI2.0」と「Rakuten AI2.0mini」を発表。

📊Rakuten AI2.0は混合専門家アーキテクチャに基づき、70億パラメーターの専門家モデル8つで構成され、日英バイリンガルデータの高効率処理を実現。

🛠️ すべてのモデルは楽天Hugging Face公式リポジトリで入手可能。様々なテキスト生成タスクに利用でき、他のモデルの基盤としても活用可能。