OpenVLA

Open-Source Visuell-Sprach-Aktionsmodell zur Förderung der Robotik.

Normales ProduktProduktivitätRobotikKünstliche Intelligenz
OpenVLA ist ein Open-Source Visuell-Sprach-Aktions-(VLA)-Modell mit 700 Millionen Parametern, das durch Pretraining auf dem Open X-Embodiment-Datensatz mit 970.000 Roboter-Episoden trainiert wurde. Das Modell setzt einen neuen Industriestandard für allgemeine Roboter-Steuerungsstrategien, unterstützt die Out-of-the-box-Steuerung mehrerer Roboter und kann durch parametrisch effizientes Fine-Tuning schnell an neue Roboterumgebungen angepasst werden. Der OpenVLA-Checkpoint und der PyTorch-Trainingsablauf sind vollständig Open Source. Das Modell kann von HuggingFace heruntergeladen und feinabgestimmt werden.
Website öffnen

OpenVLA Neueste Verkehrssituation

Monatliche Gesamtbesuche

10457

Absprungrate

63.17%

Durchschnittliche Seiten pro Besuch

1.3

Durchschnittliche Besuchsdauer

00:01:04

OpenVLA Besuchstrend

OpenVLA Geografische Verteilung der Besuche

OpenVLA Traffic-Quellen

OpenVLA Alternativen