北京智谱华章科技有限公司近期宣布,将旗下GLM-4-Flash大型语言模型的API接口免费向公众开放,以推动大型模型技术的普及和应用。

GLM-4-Flash模型在速度和性能上都展现出显著的优势,特别是在推理速度方面,通过采用自适应权重量化、并行处理技术、批处理策略和投机性采样等优化措施,实现了高达72.14token/s的稳定速度,这一速度在同类模型中表现突出。

智谱 AI

在性能优化方面,GLM-4-Flash模型在预训练阶段使用了10TB的高质量多语言数据,这使得模型不仅能够处理多轮对话、网页搜索、工具调用等任务,还支持长文本推理,最大上下文长度可达128K。此外,该模型还支持包括汉语、英语、日语、韩语、德语等在内的26种语言,显示出其强大的多语言能力。

为了满足不同用户对模型的特定需求,智谱AI还提供了模型微调功能,帮助用户将GLM-4-Flash模型更好地适配到各种应用场景中。智谱AI的这一举措,旨在让更广泛的用户群体能够体验并利用先进的大型模型技术,进一步拓展AI技术的应用边界。

接口地址:https://open.bigmodel.cn/dev/api#glm-4