DiT-MoE

Modelo de transformador de difusión con parámetros a gran escala

Producto ComúnProgramaciónAprendizaje profundoModelos de difusión
DiT-MoE es un modelo de transformador de difusión implementado en PyTorch, capaz de escalar a 16 mil millones de parámetros, compitiendo con redes densas a la vez que exhibe una capacidad de inferencia altamente optimizada. Representa la vanguardia en el campo del aprendizaje profundo para el manejo de conjuntos de datos a gran escala, con un importante valor de investigación y aplicación.
Abrir sitio web

DiT-MoE Situación del tráfico más reciente

Total de visitas mensuales

474564576

Tasa de rebote

36.20%

Páginas promedio por visita

6.1

Duración promedio de la visita

00:06:34

DiT-MoE Tendencia de visitas

DiT-MoE Distribución geográfica de las visitas

DiT-MoE Fuentes de tráfico

DiT-MoE Alternativas