OpenVLA
ロボット操作技術の発展を促進する、オープンソースのビジョン・言語・行動(VLA)モデルです。
一般製品生産性ロボット人工知能
OpenVLAは、7億パラメータを持つオープンソースのビジョン・言語・行動(VLA)モデルです。Open X-Embodimentデータセット上の97万件のロボットエピソードを用いて事前学習されています。本モデルは、汎用的なロボット操作戦略において新たな業界標準を確立し、複数のロボットの制御をすぐに利用でき、パラメータ効率の高い微調整により、新しいロボット設定に迅速に適応できます。OpenVLAのチェックポイントとPyTorchトレーニングプロセスは完全にオープンソースであり、Hugging Faceからダウンロードして微調整できます。
OpenVLA 最新のトラフィック状況
月間総訪問数
10457
直帰率
63.17%
平均ページ/訪問
1.3
平均訪問時間
00:01:04