Google在东京举办的Gemma开发者日上发布重磅消息:全新日语版Gemma模型正式亮相。这款小巧精悍的AI模型以仅20亿参数的规模,却能同时驾驭日语和英语,展现出与GPT-3.5相媲美的性能。

这一技术突破尤为令人瞩目。在AI领域,小型模型在学习新语言时常常面临"灾难性遗忘"的挑战——即在获取新知识的过程中丢失先前掌握的能力。而日语版Gemma却成功克服了这一难题,实现了双语能力的完美平衡。

image.png

为推动全球开发者社区的参与,Google不仅通过Kaggle和Hugging Face平台开放了模型权重,还提供了完整的训练资料和示例代码。得益于其精简的设计,这款模型甚至可以在移动设备上本地运行,为边缘计算应用开辟了新的可能。

Google还启动了一项金额高达15万美元的"Gemma全球交流解锁"竞赛,鼓励开发者将Gemma适配到更多语言。目前,阿拉伯语、越南语和祖鲁语的适配项目已经启动。与此同时,印度的"Navarasa"项目正致力于支持12种印度语言,另有团队正在探索韩语方言的优化。

作为Google在7月底开源的Gemma2系列的最新成员,这款模型秉承了"以小博大"的设计理念。与Meta等公司推出的同类产品一样,它注重效率与本地化处理能力。值得一提的是,这款20亿参数的模型在某些任务上的表现甚至超越了拥有700亿参数的LLaMA-2。

开发者和研究人员可以通过Hugging Face、Google AI Studio和Google Colab等多个平台免费访问Gemma-2-2B及其他Gemma系列模型,同时这些模型也已登陆Vertex AI模型市场。这一系列举措,将为全球AI开发者带来更多创新可能。