在游戏开发的世界里,大模型正逐渐成为了无可替代的 “智囊团”,从生成 AI 角色到场景构建,几乎无所不包。

然而,尽管它们的能力惊人,对于游戏场景的理解、图像识别和内容描述却还有待提升。为了解决这些难题,加拿大阿尔伯塔的研究团队不甘落后,推出了一款专为游戏打造的开源大模型 ——VideoGameBunny(简称 “VGB”)。

image.png

功能亮点

- 支持多种语言:能够处理和生成多种语言的,适合国际化应用。

- 高度可定制:可以根据特定需求调整模型参数和配置文件。

- 强大的文本生成能力:能够生成连贯和自然的对话,使其在游戏和聊天机器人中表现优异。

- 开源且易于访问:在 Hugging Face 平台上提供,使任何人都可以轻松使用和贡献。

- 兼容多种开发环境:Python 等流行编程语言,方便集成到不同的项目中。

- 含丰富的模型文件:提供多种格式的模型文件,支持用户进行不同的训练和应用。

- 活跃的社区支持:用户在社区中寻求帮助和交流,促进技术分享和合作。

项目地址:https://huggingface.co/VideoGameBunny/VideoGameBunny-V1/tree/main

VGB 的潜力巨大,它像一位聪明的视觉 AI 助理,能够理解游戏环境并即时反馈。在那些开放世界的3A 游戏中,它可以帮助玩家快速识别关键物品或回答各种问题,让你更快掌握游戏的技巧,极大增强游戏的互动性和沉浸感。

更厉害的是,VGB 还能分析大量游戏图像,检测出图形渲染错误和物理引擎的不一致,成为开发者们排查 bug 和异常的得力助手。

适用场景

- 游戏对话系统:可以用于开发更自然和智能的 NPC 对话,提升玩家的沉浸感。

- 育应用:为教育软件生成互动内容或练习题,提高学习效率。

- 客服聊天机器人:应用于在线客服系统,提供实时的客户支持和解答。

VGB 的基础是 Bunny 模型,这可是个高效低耗的 “好伙伴”。它的设计灵感类似于 LLaVA,通过多层感知器网络将来自强预训练视觉模型的视觉信息转换成图像标记,确保语言模型能够高效处理数据。Bunny 模型支持最高1152×1152像素的图像分辨率,这在处理游戏图像时尤为重要,因为游戏画面中包含了从小小的 UI 图标到庞大的游戏物体等各种视觉元素。多尺度特征提取能力,让 VGB 对游戏内容的理解更上一层楼。

为了让 VGB 更好地理解游戏的视觉内容,研究团队采用了 Meta 开源的 LLama-3-8B 作为语言模型,并结合了 SigLIP 视觉编码器和 S2包装器。这一组合使得模型能够捕捉到游戏中不同尺度的视觉元素,从微小的界面图标到大型游戏对象,提供了丰富的上下文信息。

此外,为了生成与游戏图像匹配的指令数据,研究人员运用了多种先进模型,包括 Gemini-1.0-Pro-Vision、GPT-4V 和 GPT-4o 等。这些模型生成了多种类型的指令,如简短和详细的标题、图像到 JSON 的描述及基于图像的问答,帮助 VGB 更好地理解玩家的查询和指令。