DiT-MoE

Modèle de transformateur de diffusion à paramètres massifs

Produit OrdinaireProgrammationApprentissage profondModèle de diffusion
DiT-MoE est un modèle de transformateur de diffusion implémenté avec PyTorch, capable d'être étendu à 16 milliards de paramètres. Il rivalise avec les réseaux denses tout en présentant des capacités d'inférence hautement optimisées. Il représente une avancée majeure du domaine de l'apprentissage profond pour le traitement de jeux de données massifs, et possède une importante valeur de recherche et d'application.
Ouvrir le site Web

DiT-MoE Dernière situation du trafic

Nombre total de visites mensuelles

474564576

Taux de rebond

36.20%

Nombre moyen de pages par visite

6.1

Durée moyenne de la visite

00:06:34

DiT-MoE Tendance des visites

DiT-MoE Distribution géographique des visites

DiT-MoE Sources de trafic

DiT-MoE Alternatives