近年来,具身智能热度飙升,从春晚机器人精彩表演,到被写入政府工作报告,再到英伟达黄仁勋多次力推,它已成为AI领域的焦点。具身智能旨在让机器人像人类一样,在真实世界中精准感知、灵活应对。

清华大学与蚂蚁数科的研究团队带来重大突破,他们在ICLR2025发表的论文中提出BodyGen算法框架。这一框架结合强化学习与深度神经网络技术,能让机器人短时间内自动演化出适应环境的最优形态及控制策略,实测性能提升60%,且代码已在GitHub开源。

QQ20250325-144947.png

传统机器人设计面临诸多难题,如依赖大量专家知识、针对特定环境需反复实验迭代,而形态控制协同设计技术又存在形体搜索空间巨大、形态与控制策略深度耦合等问题。BodyGen框架通过形态设计和环境交互两个阶段,有效化解这些难题。在形态设计阶段,利用Transformer(GPT-Style)自回归构建和优化机器人形体结构参数;环境交互阶段,则借助Transformer(Bert-Style)处理关节信息,实现与环境的交互反馈。

QQ20250325-144954.png

BodyGen有三大核心技术。形体结构位置编码器TopoPE如同机器人的“身体感知”系统,帮助AI快速适应形态变化;基于Transformer的MoSAT像“大脑中枢”,负责信息处理和指令发送;特殊的奖励分配机制,让AI合理评估设计决策。

QQ20250325-145003.png

在爬行、游泳等10种不同任务环境测试中,BodyGen生成的机器人形态适应性评分比现有最优方法高出60.03%。而且,它参数量仅1.43M,更加轻量级,在资源受限环境优势显著。未来,研究团队将推动其在实际场景应用,BodyGen有望成为通用具身智能发展的关键助力。 

地址:https://github.com/GenesisOrigin/BodyGen