亚马逊机器学习团队近日宣布,开发的 Mistral7B 基础模型已在 SageMaker JumpStart 提供,用户可以一键部署使用。Mistral7B 是参数规模达 70 亿的英文文本代码生成模型,采用 transformer 架构,具有 8000 个 token 的上下文长度,可以实现较快的推理速度。用户可以轻松体验 Mistral7B,该模型以 Apache2.0 许可开源,无限制使用。