OpenVLA

开源视觉-语言-动作模型,推动机器人操作技术发展。

普通产品生产力机器人开源
OpenVLA是一个具有7亿参数的开源视觉-语言-动作(VLA)模型,通过在Open X-Embodiment数据集上的970k机器人剧集进行预训练。该模型在通用机器人操作策略上设定了新的行业标准,支持开箱即用控制多个机器人,并且可以通过参数高效的微调快速适应新的机器人设置。OpenVLA的检查点和PyTorch训练流程完全开源,模型可以从HuggingFace下载并进行微调。
打开网站

OpenVLA 最新流量情况

月总访问量

9772

跳出率

66.70%

平均页面访问数

1.1

平均访问时长

00:00:50

OpenVLA 访问量趋势

OpenVLA 访问地理位置分布

OpenVLA 流量来源

OpenVLA 替代品