Mixtral-8x22B
Um grande modelo de linguagem baseado em um modelo de especialista esparso.
Produto ComumProgramaçãoModelo de linguagemGeração de texto
Mixtral-8x22B é um modelo de linguagem esparso, generativo e pré-treinado. Desenvolvido pela equipe Mistral AI, visa promover o desenvolvimento aberto da inteligência artificial. O modelo possui 141 bilhões de parâmetros e suporta diversas formas de implantação otimizada, como precisão de meia-precisão e quantização, para atender às necessidades de diferentes hardwares e cenários de aplicação. O Mixtral-8x22B pode ser usado em tarefas de processamento de linguagem natural, como geração de texto, perguntas e respostas e tradução.
Mixtral-8x22B Situação do Tráfego Mais Recente
Total de Visitas Mensais
29742941
Taxa de Rejeição
44.20%
Média de Páginas por Visita
5.9
Duração Média da Visita
00:04:44