MoE-LLaVA

Modèle expert hybride basé sur un modèle linguistique visuel à grande échelle

Produit OrdinaireImageModèle à grande échelleApprentissage multi-modal
MoE-LLaVA est un modèle expert hybride basé sur un modèle linguistique visuel à grande échelle, démontrant des performances exceptionnelles dans l'apprentissage multi-modal. Il possède un nombre réduit de paramètres tout en affichant des performances élevées et permet un entraînement rapide. Ce modèle prend en charge l'interface utilisateur Web Gradio et l'inférence CLI, et offre des fonctionnalités telles qu'une bibliothèque de modèles, les exigences et l'installation, l'entraînement et la validation, la personnalisation, la visualisation et une API.
Ouvrir le site Web

MoE-LLaVA Dernière situation du trafic

Nombre total de visites mensuelles

474564576

Taux de rebond

36.20%

Nombre moyen de pages par visite

6.1

Durée moyenne de la visite

00:06:34

MoE-LLaVA Tendance des visites

MoE-LLaVA Distribution géographique des visites

MoE-LLaVA Sources de trafic

MoE-LLaVA Alternatives