Yuan2.0-M32-hf-int8
高效能混合专家语言模型
普通产品编程混合专家模型注意力路由器
Yuan2.0-M32-hf-int8是一个具有32个专家的混合专家(MoE)语言模型,其中2个是活跃的。该模型通过采用新的路由网络——注意力路由器,提高了专家选择的效率,使得准确率比使用传统路由网络的模型提高了3.8%。Yuan2.0-M32从头开始训练,使用了2000亿个token,其训练计算量仅为同等参数规模的密集模型所需计算量的9.25%。该模型在编程、数学和各种专业领域展现出竞争力,并且只使用37亿个活跃参数,占总参数40亿的一小部分,每个token的前向计算仅为7.4 GFLOPS,仅为Llama3-70B需求的1/19。Yuan2.0-M32在MATH和ARC-Challenge基准测试中超越了Llama3-70B,分别达到了55.9%和95.8%的准确率。
Yuan2.0-M32-hf-int8 最新流量情况
月总访问量
19075321
跳出率
45.07%
平均页面访问数
5.5
平均访问时长
00:05:32