深圳元象信息科技有限公司近期推出了国内首个基于物理的3D动作生成模型MotionGen,标志着中国3D AIGC(人工智能内容生成)领域的一大突破。该模型通过创新性融合大模型、物理仿真和强化学习等前沿算法,用户只需输入简单的文本指令,即可快速生成逼真、流畅且复杂的3D动作。

MotionGen模型的推出,极大地降低了3D内容制作的门槛,使得零经验的创作者也能轻松上手,创造高质量的动画。这对于动画、游戏、电影和虚拟现实行业来说,意味着更高的创作自由度和效率。

微信截图_20240828113457.png

元象XVERSE的MotionGen模型具备精准文本理解能力,能够分析复杂长句指令,准确生成相应的动作,实现文本到动作的无缝连接。此外,模型支持从基础行走到复杂的肢体运动的各类动作创意需求,提供了广泛的3D角色行为选择。

MotionGen技术实现的背后,是元象自主研发的MotionGenGPT算法,该算法无需人工设定或调整参数,直接生成逼真流畅的复杂3D动作,并可应用到任意角色的骨架驱动。MotionGenGPT算法结合了强化学习、物理仿真、VQ-VAE(矢量量化变分自编码器)和Transformer模型等技术,提升了动作生成的细节表现力和与文本指令的匹配度。

元象XVERSE表示,MotionGen模型的推出,是公司在AI+3D领域持续创新的成果之一。公司致力于提升认知智能和感知智能,加快实现通用人工智能,让每个人都能自由地定义自己的虚拟世界。目前,MotionGen模型处于测试阶段,用户可以申请免费试用,体验这一革命性的3D动作生成技术。

体验地址:www.MotionGen.cn