MoE-LLaVA

Modelo mixto de expertos basado en un modelo de lenguaje visual a gran escala

Producto ComúnImagenModelo a gran escalaAprendizaje multimodal
MoE-LLaVA es un modelo mixto de expertos basado en un modelo de lenguaje visual a gran escala, que demuestra un rendimiento excepcional en el aprendizaje multimodal. Se caracteriza por tener un número reducido de parámetros, a pesar de ofrecer un alto rendimiento y un entrenamiento rápido. El modelo admite interfaz de usuario web Gradio y inferencia CLI, y proporciona funcionalidades como biblioteca de modelos, requisitos e instalación, entrenamiento y validación, personalización, visualización y API.
Abrir sitio web

MoE-LLaVA Situación del tráfico más reciente

Total de visitas mensuales

474564576

Tasa de rebote

36.20%

Páginas promedio por visita

6.1

Duración promedio de la visita

00:06:34

MoE-LLaVA Tendencia de visitas

MoE-LLaVA Distribución geográfica de las visitas

MoE-LLaVA Fuentes de tráfico

MoE-LLaVA Alternativas