DCLM-7B

Modelo de lenguaje de 700 millones de parámetros, que demuestra la eficacia de las técnicas de organización de datos.

Nuevo Producto PremiumProgramaciónModelo de lenguajeTransformer
DCLM-Baseline-7B es un modelo de lenguaje de 700 millones de parámetros desarrollado por el equipo de DataComp for Language Models (DCLM), principalmente para inglés. Este modelo está diseñado para mejorar el rendimiento de los modelos de lenguaje mediante técnicas sistemáticas de organización de datos. El entrenamiento del modelo se realizó utilizando PyTorch y el framework OpenLM, con el optimizador AdamW, una tasa de aprendizaje de 2e-3, una regularización de peso de 0.05, un tamaño de lote de 2048 secuencias, una longitud de secuencia de 2048 tokens y un total de 2.5T de tokens de entrenamiento. El entrenamiento se llevó a cabo en GPUs H100.
Abrir sitio web

DCLM-7B Situación del tráfico más reciente

Total de visitas mensuales

29742941

Tasa de rebote

44.20%

Páginas promedio por visita

5.9

Duración promedio de la visita

00:04:44

DCLM-7B Tendencia de visitas

DCLM-7B Distribución geográfica de las visitas

DCLM-7B Fuentes de tráfico

DCLM-7B Alternativas