MobileLLM-125M
Modelo de linguagem pequeno e altamente otimizado, projetado para aplicações em dispositivos.
Produto ComumProgramaçãoModelo de linguagemAplicações em dispositivos
MobileLLM-125M é um modelo de linguagem autorregressivo desenvolvido pelo Meta, que utiliza uma arquitetura de Transformer otimizada, projetada para aplicações em dispositivos com recursos limitados. O modelo integra várias tecnologias-chave, incluindo a função de ativação SwiGLU, arquitetura de profundidade fina, compartilhamento de embeddings e atenção de consulta agrupada. O MobileLLM-125M/350M alcançou uma melhoria de precisão de 2,7% e 4,3%, respectivamente, em relação aos modelos SoTA de 125M/350M de geração anterior em tarefas de raciocínio de senso comum de zero-shot. O conceito de design do modelo pode ser expandido de forma eficaz para modelos maiores, com o MobileLLM-600M/1B/1.5B alcançando resultados SoTA.
MobileLLM-125M Situação do Tráfego Mais Recente
Total de Visitas Mensais
29742941
Taxa de Rejeição
44.20%
Média de Páginas por Visita
5.9
Duração Média da Visita
00:04:44