zh
AI产品榜
每月不到10元,就可以无限制地访问最好的AIbase。立即成为会员
首页
AI资讯
AI日报
变现指南
AI教程
AI工具导航
AI产品库
zh
AI产品榜
搜索全球AI产品动态
搜索全球AI信息,发现AI新机遇
新闻资讯
产品应用
变现案例
AI教程
类型 :
新闻资讯
产品应用
变现案例
AI教程
2025-01-17 09:32:27
.
AIbase
.
14.8k
腾讯混元发布浮点量化训练新理论,揭示大模型训练的极限
在大模型(Large Language Model,LLM)快速发展的今天,模型的训练和推理成本日益成为研究和应用的关注焦点。最近,腾讯混元团队发布了一项重要研究,深入探讨了低比特浮点量化训练的 “Scaling Laws”,即浮点数量化训练的规模法则。此项研究的核心在于通过降低模型的精度,探索如何在不损失性能的情况下,显著降低计算和存储成本。研究团队进行了多达366组不同参数规模和精度的浮点数量化训练,系统分析了影响训练效果的多种因素,包括模型大小(N)、训练数据量(D)、指数位(E)、尾
2024-07-29 11:34:37
.
AIbase
.
10.6k
Llama 4启动训练 Meta科学家揭秘Llama 3.1训练背后的故事
Meta的科学家Thomas Scialom揭示了Llama3.1的开发秘诀,其405B的参数规模是为了对抗GPT-4。通过增加训练的token数而非架构,Llama3.1实现了模型规模与训练数据总量的优化平衡,达到了知识深度与广度的飞跃。数据选择上,Scialom更倾向于合成数据而非公开互联网文本。Llama3.1的评估与改进采用奖励模型和多样化基准,同时引入了Toolformer等agent工具的开发,标志着AI领域的创新探索。Llama3.1的开源是Meta对未来AI的一次大胆尝试。Llama4的启动将重点放在agent技术上,预示着Meta在AI领域的持续领导地位和未来AI的重新定义。