OpenVLA

ロボット操作技術の発展を促進する、オープンソースのビジョン・言語・行動(VLA)モデルです。

一般製品生産性ロボット人工知能
OpenVLAは、7億パラメータを持つオープンソースのビジョン・言語・行動(VLA)モデルです。Open X-Embodimentデータセット上の97万件のロボットエピソードを用いて事前学習されています。本モデルは、汎用的なロボット操作戦略において新たな業界標準を確立し、複数のロボットの制御をすぐに利用でき、パラメータ効率の高い微調整により、新しいロボット設定に迅速に適応できます。OpenVLAのチェックポイントとPyTorchトレーニングプロセスは完全にオープンソースであり、Hugging Faceからダウンロードして微調整できます。
ウェブサイトを開く

OpenVLA 最新のトラフィック状況

月間総訪問数

10457

直帰率

63.17%

平均ページ/訪問

1.3

平均訪問時間

00:01:04

OpenVLA 訪問数の傾向

OpenVLA 訪問地理的分布

OpenVLA トラフィックソース

OpenVLA 代替品