元象70億パラメーター汎用大規模言語モデルXVERSE-7Bのオープンソース化

元象は、70億パラメーターの汎用大規模言語モデル「XVERSE-7B」の基盤モデルと対話版をオープンソース化することを発表しました。これは、完全にオープンソースで、商用利用も可能なモデルです。

以前のXVERSE-13Bと比較して、7B版はよりコンパクトで、単一の消費電力レベルのGPUで動作します。推論を量子化することで、最低6GBのVRAMで動作するため、開発のハードルと推論コストを大幅に削減します。

このモデルは、複数の権威あるテストで優れた性能を示しており、強力な認知力、計画力、推論力、記憶力を備えています。40以上の言語に対応しています。