元象は、高性能大規模言語モデル「XVERSE-65B-2」のベース版をオープンソースとして公開しました。本モデルは、コードと数学の能力を特に強化し、前世代モデルの優れた文章生成、ロールプレイング、ツール使用能力も維持しています。
総合評価において、GPT3.5およびLlama2-70Bを上回り、オープンソースモデルのベンチマークを全面的に凌駕しました。最新のSuperCLUE中国語汎用大規模言語モデル総合評価においても、XVERSE-65Bは国内のオープンソースモデルの中で卓越した性能を示しました。
元象はこれまでに3つの大規模言語モデルをオープンソース化しており、XVERSE-65Bは国内で最も早く、かつ最大のパラメータ数を誇る、商用利用可能な無料モデルです。