Mixtral-8x22B
一个基于稀疏专家模型的大型语言模型
普通产品编程语言模型文本生成
Mixtral-8x22B是一个预训练的生成式稀疏专家语言模型。它由Mistral AI团队开发,旨在推进人工智能的开放发展。该模型具有141B个参数,支持多种优化部署方式,如半精度、量化等,以满足不同的硬件和应用场景需求。Mixtral-8x22B可以用于文本生成、问答、翻译等自然语言处理任务。
Mixtral-8x22B 最新流量情况
月总访问量
17788201
跳出率
44.87%
平均页面访问数
5.4
平均访问时长
00:05:32