OpenVLA
开源视觉-语言-动作模型,推动机器人操作技术发展。
普通产品生产力机器人开源
OpenVLA是一个具有7亿参数的开源视觉-语言-动作(VLA)模型,通过在Open X-Embodiment数据集上的970k机器人剧集进行预训练。该模型在通用机器人操作策略上设定了新的行业标准,支持开箱即用控制多个机器人,并且可以通过参数高效的微调快速适应新的机器人设置。OpenVLA的检查点和PyTorch训练流程完全开源,模型可以从HuggingFace下载并进行微调。
OpenVLA 最新流量情况
月总访问量
13769
跳出率
59.69%
平均页面访问数
1.2
平均访问时长
00:00:22