DiT-MoE
Modelo de transformador de difusión con parámetros a gran escala
Producto ComúnProgramaciónAprendizaje profundoModelos de difusión
DiT-MoE es un modelo de transformador de difusión implementado en PyTorch, capaz de escalar a 16 mil millones de parámetros, compitiendo con redes densas a la vez que exhibe una capacidad de inferencia altamente optimizada. Representa la vanguardia en el campo del aprendizaje profundo para el manejo de conjuntos de datos a gran escala, con un importante valor de investigación y aplicación.
DiT-MoE Situación del tráfico más reciente
Total de visitas mensuales
474564576
Tasa de rebote
36.20%
Páginas promedio por visita
6.1
Duración promedio de la visita
00:06:34