OpenVLA
Modelo de visión-lenguaje-acción (VLA) de código abierto que impulsa el desarrollo de la robótica.
Producto ComúnProductividadRobóticaInteligencia artificial
OpenVLA es un modelo de visión-lenguaje-acción (VLA) de código abierto con 700 millones de parámetros, preentrenado en 970 000 episodios robóticos del conjunto de datos Open X-Embodiment. El modelo establece un nuevo estándar en estrategias de manipulación robótica general, admite el control de múltiples robots listos para usar y se adapta rápidamente a nuevas configuraciones robóticas mediante un ajuste fino eficiente de parámetros. El punto de control y el flujo de entrenamiento de PyTorch de OpenVLA son completamente de código abierto; el modelo se puede descargar de Hugging Face y ajustar finamente.
OpenVLA Situación del tráfico más reciente
Total de visitas mensuales
10457
Tasa de rebote
63.17%
Páginas promedio por visita
1.3
Duración promedio de la visita
00:01:04