MoE-LLaVA
Modelo mixto de expertos basado en un modelo de lenguaje visual a gran escala
Producto ComúnImagenModelo a gran escalaAprendizaje multimodal
MoE-LLaVA es un modelo mixto de expertos basado en un modelo de lenguaje visual a gran escala, que demuestra un rendimiento excepcional en el aprendizaje multimodal. Se caracteriza por tener un número reducido de parámetros, a pesar de ofrecer un alto rendimiento y un entrenamiento rápido. El modelo admite interfaz de usuario web Gradio y inferencia CLI, y proporciona funcionalidades como biblioteca de modelos, requisitos e instalación, entrenamiento y validación, personalización, visualización y API.
MoE-LLaVA Situación del tráfico más reciente
Total de visitas mensuales
474564576
Tasa de rebote
36.20%
Páginas promedio por visita
6.1
Duración promedio de la visita
00:06:34