Hugging Face今天发布了SmolLM2,一组新的紧凑型语言模型,实现了令人印象深刻的性能,同时所需的计算资源比大型模型少得多。新模型采用Apache2.0许可发布,有三种大小——135M、360M和1.7B参数——适合部署在智能手机和其他处理能力和内存有限的边缘设备上。SmolLM2-1B模型在几个关键基准测试中优于Meta的Llama1B模型,尤其是在科学推理和常识任务中表现出色。该模型在大多数认知基准上的表现都优于大型竞争模型,使用了包括FineWeb-Edu和专门的数学和编码数据集在内的多样化数据集组合。SmolL
在未来的2025年,生成式人工智能(GenAI)有望迎来一个关键的转折点,届时我们将更清楚地看到其真正潜力的展现。随着对其在各个行业多种应用案例的分析逐步深入,原本笼罩在噪音中的 GenAI 将逐渐显露出其真实的面貌。最近,Hieb 认为,企业在投资 GenAI 时并不一定要选择昂贵而复杂的解决方案。实际上,越来越多的企业发现,大型语言模型(LLMs)并不总是适用于某些具体目标。图源备注:图片由AI生成,图片授权服务商Midjourney相比之下,小型语言模型(SLMs)因为参数较少,通常更加经
最近,Zyphra 正式推出了 Zamba2-7B,这是一款具有前所未有性能的小型语言模型,参数数量达到7B。这款模型号称在质量和速度上超越了目前的竞争对手,包括 Mistral-7B、谷歌的 Gemma-7B 以及 Meta 的 Llama3-8B。Zamba2-7B 的设计目标是满足那些需要强大语言处理能力但又受限于硬件条件的环境,比如在设备上处理或使用消费级 GPU。通过提高效率而不牺牲质量,Zyphra 希望能让更广泛的用户,无论是企业还是个人开发者,都能享受到先进 AI 的便利。Zamba2-7B 在架构上做了很多创新,提升了模型的效率和表
最近,微软公司宣布,其人工智能副总裁塞巴斯蒂安・布贝克将离开公司,加入 OpenAI。对于这位在微软工作了整整十年的资深员工来说,这无疑是一个重大的职业转折。图源备注:图片由AI生成,图片授权服务商Midjourney布贝克在微软期间,主要负责小型语言模型的研发。小型语言模型是一种致力于在效率和效果之间寻找平衡的技术,目的是在不牺牲性能的情况下,实现与大型 AI 系统相似的功能。微软与 OpenAI 的关系十分复杂,既是投资者也是竞争对手。这让布贝克的转会变得更加引人注目