最近一周,AI 行业真是热闹非凡,谷歌和 Meta 都在推出新版本的 AI 模型,吸引了不少关注。首先,谷歌在周二宣布了其 Gemini 系列的新更新,推出了两个新的生产就绪模型 ——Gemini-1.5-Pro-002和 Gemini-1.5-Flash-002。
这次更新大幅提升了模型的整体质量,尤其在数学、长上下文处理和视觉任务上都有显著进步。谷歌声称,在 MMLU-Pro 基准测试上,性能提升了7%,而数学相关任务的表现更是提高了20%。如果你关注 AI,应该知道基准测试的意义有限,但这次的数据还是很令人兴奋的。
除了模型的性能提升,谷歌还大幅降低了 Gemini1.5Pro 的使用成本,输入和输出代币的费用分别下降了64% 和52%。这一举措让开发者们在使用 Gemini 时更具成本效益。
此外,更新后,Gemini1.5Flash 和 Pro 的请求处理速度也有所提升,前者可以支持每分钟2000个请求,后者则为每分钟1000个请求。这样的改进,无疑会帮助开发者更轻松地构建应用程序。
而在周三,Meta 也没有闲着,推出了 Llama3.2,这是对其开放重量 AI 模型的重大更新。这次更新包含了具有视觉功能的大型语言模型,参数规模从11亿到90亿不等,同时还推出了专为移动设备设计的1亿和3亿参数的轻量级文本模型。
Meta 声称,这些视觉模型在图像识别和视觉理解上可以与市场上领先的闭源模型媲美。而且,一些 AI 研究者对新模型进行了测试,结果显示这些小模型在许多文本任务上表现优异。
接下来,在周四,谷歌 DeepMind 正式宣布了一个重磅项目 ——AlphaChip。这个项目是基于2020年的研究,旨在通过强化学习来设计芯片布局谷歌表示,AlphaChip 已经在其最近三代张量处理单元(TPU)中取得了 “超人芯片布局”,生成高质量芯片布局的速度可以从人类的几周甚至几个月缩短到几小时。
更值得一提的是,谷歌还将 AlphaChip 的预训练模型在 GitHub 上分享给公众,这样其他芯片设计公司也可以使用这一技术,甚至 MediaTek 等公司已经开始采用。
划重点:
📈 ** 谷歌发布新版本 Gemini 模型,提升整体性能并大幅降价。**
🤖 **Meta 推出 Llama3.2,支持视觉功能的小型语言模型,表现出色。**
💡 ** 谷歌的 AlphaChip 加速芯片设计,显著提高设计效率并共享技术。**