XVERSE-MoE-A36B

多语言大型语言模型,支持多领域文本生成。

普通产品编程多语言大型语言模型
XVERSE-MoE-A36B是由深圳元象科技自主研发的多语言大型语言模型,采用混合专家模型(MoE)架构,具有2554亿的总参数规模和360亿的激活参数量。该模型支持包括中、英、俄、西等40多种语言,特别在中英双语上表现优异。模型使用8K长度的训练样本,并通过精细化的数据采样比例和动态数据切换策略,保证了模型的高质量和多样性。此外,模型还针对MoE架构进行了定制优化,提升了计算效率和整体吞吐量。
打开网站

XVERSE-MoE-A36B 最新流量情况

月总访问量

503747431

跳出率

37.31%

平均页面访问数

5.7

平均访问时长

00:06:44

XVERSE-MoE-A36B 访问量趋势

XVERSE-MoE-A36B 访问地理位置分布

XVERSE-MoE-A36B 流量来源

XVERSE-MoE-A36B 替代品