在大模型(Large Language Model,LLM)快速发展的今天,模型的训练和推理成本日益成为研究和应用的关注焦点。最近,腾讯混元团队发布了一项重要研究,深入探讨了低比特浮点量化训练的 “Scaling Laws”,即浮点数量化训练的规模法则。此项研究的核心在于通过降低模型的精度,探索如何在不损失性能的情况下,显著降低计算和存储成本。研究团队进行了多达366组不同参数规模和精度的浮点数量化训练,系统分析了影响训练效果的多种因素,包括模型大小(N)、训练数据量(D)、指数位(E)、尾
在浦东举行的一场发车仪式上,上海高级别自动驾驶引领区迎来了一支由30辆智己L6组成的数据采集车队。这支队伍将肩负起为自动驾驶大模型提供训练数据的重要使命,标志着上海在智能网联汽车领域又迈出了关键一步。上海市经济信息化委副主任汤文侃在仪式上阐述了上海打造AI"模塑申城"的宏伟蓝图。他强调,上海将以"单车智能为基础,车路云协同为关键支撑"为技术路线,全面推进智能网联汽车产业生态建设。图源备注:图片由AI生成,图片授权服务商Midjourney据了解,上海在自动驾驶
在 AI 的世界里,"大力出奇迹" 似乎成了金科玉律。模型越大,数据越多,算力越强,仿佛就能越接近智能的圣杯。然而,这狂飙突进的背后,也隐藏着巨大的成本和能耗压力。为了让 AI 训练更高效,科学家们一直在寻找更强大的优化器,就像一位教练,引导模型的参数不断优化,最终达到最佳状态。AdamW 作为 Transformer 预训练的默认优化器,多年来一直是业界标杆。然而,面对日益庞大的模型规模,AdamW 也开始显得力不从心。难道就没有一种方法,既能提升训练速度,又能降低能耗吗?别急
大模型(LLM)如GPT、Llama等在人工智能领域掀起了一场革命,但如何高效地训练这些庞大的模型并使其符合人类价值观仍然是一个难题。强化学习与人类反馈(RLHF)作为一种重要的LLM训练方法,近年来得到广泛应用,但传统的RLHF框架在灵活性、效率和可扩展性方面存在局限性。为解决这些问题,字节跳动豆包大模型团队开源了名为HybridFlow的RLHF框架,为LLM训练带来了新的可能性。RLHF通常包含三个阶段:首先,actor模型根据输入的提示生成文本;然后,critic模型、reference模型和reward模型对生成