Stability AI Japanは最近、2つの日本語言語モデル、「Japanese Stable LM3B-4E1T」と「Japanese Stable LM Gamma7B」を発表しました。
これらのモデルは、英語言語モデルをベースに、大量の日本語と英語のデータで事前学習されており、日本語の言語処理能力が向上しています。前者は30億パラメーター、後者は70億パラメーターを備えています。
これらのモデルの発表は、日本の自然言語処理分野における大きなブレークスルーを意味し、ユーザーにより多くの性能と移植性を提供します。
性能評価の結果、パラメーター数が少ない前者でも多くのタスクで優れたパフォーマンスを示し、後者はさらに高いスコアを獲得しており、日本語自然言語処理における卓越した進歩を示しています。