阿联酋政府支持的技术创新研究所(TII)近日宣布推出其新一代开源小型语言模型(SLM)——Falcon3系列。这一系列包括四个不同规模的模型:1B、3B、7B和10B,并提供基础版与指令版两种变体,旨在为开发人员、研究人员和企业提供一种高效且成本低廉的AI解决方案。这些模型的推出,标志着AI功能的进一步民主化,能够在轻量级的单GPU基础设施上运行,满足对计算资源有限的设备和应用场景的需求。图源备注:图片由AI生成,图片授权服务商MidjourneyFalcon3的表现已在Hugging Face排行榜上脱颖而出,超
Hugging Face今天发布了SmolLM2,一组新的紧凑型语言模型,实现了令人印象深刻的性能,同时所需的计算资源比大型模型少得多。新模型采用Apache2.0许可发布,有三种大小——135M、360M和1.7B参数——适合部署在智能手机和其他处理能力和内存有限的边缘设备上。SmolLM2-1B模型在几个关键基准测试中优于Meta的Llama1B模型,尤其是在科学推理和常识任务中表现出色。该模型在大多数认知基准上的表现都优于大型竞争模型,使用了包括FineWeb-Edu和专门的数学和编码数据集在内的多样化数据集组合。SmolL
在未来的2025年,生成式人工智能(GenAI)有望迎来一个关键的转折点,届时我们将更清楚地看到其真正潜力的展现。随着对其在各个行业多种应用案例的分析逐步深入,原本笼罩在噪音中的 GenAI 将逐渐显露出其真实的面貌。最近,Hieb 认为,企业在投资 GenAI 时并不一定要选择昂贵而复杂的解决方案。实际上,越来越多的企业发现,大型语言模型(LLMs)并不总是适用于某些具体目标。图源备注:图片由AI生成,图片授权服务商Midjourney相比之下,小型语言模型(SLMs)因为参数较少,通常更加经
最近,Zyphra 正式推出了 Zamba2-7B,这是一款具有前所未有性能的小型语言模型,参数数量达到7B。这款模型号称在质量和速度上超越了目前的竞争对手,包括 Mistral-7B、谷歌的 Gemma-7B 以及 Meta 的 Llama3-8B。Zamba2-7B 的设计目标是满足那些需要强大语言处理能力但又受限于硬件条件的环境,比如在设备上处理或使用消费级 GPU。通过提高效率而不牺牲质量,Zyphra 希望能让更广泛的用户,无论是企业还是个人开发者,都能享受到先进 AI 的便利。Zamba2-7B 在架构上做了很多创新,提升了模型的效率和表