YuLan-Mini
Modelo de linguagem leve e de alta eficiência com 240 milhões de parâmetros
Produto ComumProgramaçãoModelo de LinguagemProcessamento de Linguagem Natural
YuLan-Mini é um modelo de linguagem leve desenvolvido pela equipe AI Box da Universidade Renmin da China. Com 240 milhões de parâmetros, e apesar de ter usado apenas 1,08 TB de dados de pré-treinamento, seu desempenho se compara a modelos líderes do setor treinados com quantidades significativamente maiores de dados. O modelo se destaca em matemática e codificação. Para promover a reprodutibilidade, a equipe está disponibilizando os recursos de pré-treinamento como código aberto.
YuLan-Mini Situação do Tráfego Mais Recente
Total de Visitas Mensais
474564576
Taxa de Rejeição
36.20%
Média de Páginas por Visita
6.1
Duração Média da Visita
00:06:34