就在不久前的谷歌I/O柏林大会上,谷歌宣布开源其最新语言模型Gemma2,该模型在性能和效率方面取得了重大突破。Gemma2提供9B和27B两种参数规模的版本,其中27B版本的性能已经接近参数量为70B的Llama3模型,但模型大小仅为后者的40%左右。
Gemma2的主要特点包括:
(1) 提供9B 和27B 参数尺寸
(2) 一流的性能
(3) 能够进行高效推理(在单个 NVIDIA H100GPU 或 TPU 主机上运行)
(4) 为开发人员和研究人员设计的易于使用的模型
(1)卓越的性能:27B型号可与尺寸超过2倍的Llama3 70B型号相媲美
(2) 高效率:单个GPU即可实现全精度推理
(3) 广泛的硬件支持:从游戏笔记本电脑到云端
(4) 开放许可:也可以用于商业用途
开发人员友好的设计
为方便开发者使用,Gemma2兼容多种主流AI框架,如Hugging Face、JAX、PyTorch和TensorFlow等。谷歌还提供了新的Gemma2Cookbook,包含实际应用示例和指南。此外,谷歌计划在不久的将来支持通过Google Cloud Vertex AI轻松部署Gemma2。
在负责任的AI发展方面,谷歌推出了一系列举措,包括提供负责任的生成式AI工具包、开源LLM比较器(用于模型评估),以及计划开源SynthID文本水印技术。谷歌还承诺进行严格的安全评估并公布结果。
目前,开发者和研究人员可以通过Google AI Studio免费获取Gemma2模型。模型权重也可以从Kaggle和Hugging Face平台下载。对于学术研究人员,谷歌还提供了Google Cloud积分计划,申请截止日期为8月9日。
值得注意的是,Gemma2在权威的LMSys榜单上的表现超过了QWen1.5模型,进一步证明了其强大的性能。这一突破性成果将为AI领域带来新的机遇和挑战,推动开源语言模型的进一步发展。