谷歌最近又一次在 AI 领域发力,推出了最新的 Gemini1.5模型。这个版本包括了一个小型变体 Gemini1.5Flash-8B,以及 “显著改进” 的 Gemini1.5Flash 和 “更强大的” Gemini1.5Pro。
根据谷歌的说法,与许多内部基准测试相比,性能有所提高,Gemini1.5Flash 的全面性能得到了“巨大提升”,而1.5Pro 在数学、编码和复杂提示方面要好得多。
谷歌的 AI 产品负责人 Logan Kilpatrick 在社交媒体上表示:“Gemini1.5Flash 现在是全球开发者们最好的选择!”Gemini1.5系列模型能够处理长文本,并且可以在超过1000万的 token 信息中进行推理,这使得它们能够处理大量的多模态输入,例如文档、视频和音频。
Gemini 模型的“最新实验迭代”
谷歌在5月份推出了 Gemini1.5Flash——Gemini1.5的轻量级版本。Gemini1.5系列模型旨在处理长上下文,并且可以对来自10M 和更多令牌的细粒度信息进行推理。这允许模型处理大容量多模态输入,包括文档、视频和音频。
此次谷歌推出了一个参数数量为80亿的 Gemini1.5Flash 小型版。新的 Gemini1.5Pro 在编码和处理复杂提示方面的性能都有了明显的提升。Kilpatrick 表示,谷歌会在未来几周内推出一个可供生产使用的版本,并希望能带来更多的评估工具。
根据 Kilpatrick 的说法,这些实验模型的推出是为了收集反馈,以便更快地将最新的更新交到开发者手中。他透露,新的模型将免费提供给开发者,通过谷歌 AI Studio 和 Gemini API 进行测试,而未来也会通过 Vertex AI 的实验性端点推出。
发布仅几个小时后,大型模型系统组织 (LMSO) 根据20,000次社区投票发布了其聊天机器人领域的排行榜更新。Gemini1.5-Flash 实现了“巨大的飞跃”,从第23位攀升至第6位,与 Llama 水平持平,性能超过了 Google 的 Gemma 开放式模型。
从9月3日起,谷歌将自动将请求转向新模型,并会移除旧版本,以避免造成混淆。Kilpatrick 对这一新模型充满期待,希望能看到开发者们利用它来实现更多的多模态应用。
不过,随着新模型的发布,早期反馈也呈现出两极化的趋势。一些用户对频繁的更新表示疑惑,认为用户期待的还是更全面的 Gemini2.0版本。与此同时,也有用户赞扬更新的速度和性能,认为这让谷歌在 AI 领域保持了领先。
划重点:
✨ 新推出的 Gemini1.5系列模型在数学、编程和复杂提示上有显著提升。
🚀 Gemini1.5Flash 可以处理超过1000万 token 的多模态输入,适应能力强。
🛠️ 用户反馈两极化,一些人期待 Gemini2.0的全面升级,另一些人对当前更新表示赞赏。