百度文心新模型ERNIE-4.5-21B-A3B-Thinking强势登顶Hugging Face榜首
近日,百度旗下文心大模型家族迎来重大升级——ERNIE-4.5-21B-A3B-Thinking正式开源,并在Hugging Face平台迅速登顶文本生成模型榜单首位,同时位居整体模型榜第三。这款轻量级Mixture-of-Experts(MoE)模型以其卓越的推理能力和参数效率,引发行业广泛关注,标志着中国AI开源生态的又一里程碑。模型核心规格与创新设计ERNIE-4.5-21B-A3B-Thinking采用先进的MoE架构,总参数规模为21B,但每个token仅激活3B参数。这种稀疏激活机制显著降低了计算开销,同时保持了高性能输出。该模型支持128K长上下文窗口