DiT-MoE
Modèle de transformateur de diffusion à paramètres massifs
Produit OrdinaireProgrammationApprentissage profondModèle de diffusion
DiT-MoE est un modèle de transformateur de diffusion implémenté avec PyTorch, capable d'être étendu à 16 milliards de paramètres. Il rivalise avec les réseaux denses tout en présentant des capacités d'inférence hautement optimisées. Il représente une avancée majeure du domaine de l'apprentissage profond pour le traitement de jeux de données massifs, et possède une importante valeur de recherche et d'application.
DiT-MoE Dernière situation du trafic
Nombre total de visites mensuelles
474564576
Taux de rebond
36.20%
Nombre moyen de pages par visite
6.1
Durée moyenne de la visite
00:06:34