Yuan2.0-M32-hf-int8

高效能混合专家语言模型

普通产品编程混合专家模型注意力路由器
Yuan2.0-M32-hf-int8是一个具有32个专家的混合专家(MoE)语言模型,其中2个是活跃的。该模型通过采用新的路由网络——注意力路由器,提高了专家选择的效率,使得准确率比使用传统路由网络的模型提高了3.8%。Yuan2.0-M32从头开始训练,使用了2000亿个token,其训练计算量仅为同等参数规模的密集模型所需计算量的9.25%。该模型在编程、数学和各种专业领域展现出竞争力,并且只使用37亿个活跃参数,占总参数40亿的一小部分,每个token的前向计算仅为7.4 GFLOPS,仅为Llama3-70B需求的1/19。Yuan2.0-M32在MATH和ARC-Challenge基准测试中超越了Llama3-70B,分别达到了55.9%和95.8%的准确率。
打开网站

Yuan2.0-M32-hf-int8 最新流量情况

月总访问量

17104189

跳出率

44.67%

平均页面访问数

5.5

平均访问时长

00:05:49

Yuan2.0-M32-hf-int8 访问量趋势

Yuan2.0-M32-hf-int8 访问地理位置分布

Yuan2.0-M32-hf-int8 流量来源

Yuan2.0-M32-hf-int8 替代品