MoE-LLaVA
Modèle expert hybride basé sur un modèle linguistique visuel à grande échelle
Produit OrdinaireImageModèle à grande échelleApprentissage multi-modal
MoE-LLaVA est un modèle expert hybride basé sur un modèle linguistique visuel à grande échelle, démontrant des performances exceptionnelles dans l'apprentissage multi-modal. Il possède un nombre réduit de paramètres tout en affichant des performances élevées et permet un entraînement rapide. Ce modèle prend en charge l'interface utilisateur Web Gradio et l'inférence CLI, et offre des fonctionnalités telles qu'une bibliothèque de modèles, les exigences et l'installation, l'entraînement et la validation, la personnalisation, la visualisation et une API.
MoE-LLaVA Dernière situation du trafic
Nombre total de visites mensuelles
474564576
Taux de rebond
36.20%
Nombre moyen de pages par visite
6.1
Durée moyenne de la visite
00:06:34