Mixtral-8x22B

Um grande modelo de linguagem baseado em um modelo de especialista esparso.

Produto ComumProgramaçãoModelo de linguagemGeração de texto
Mixtral-8x22B é um modelo de linguagem esparso, generativo e pré-treinado. Desenvolvido pela equipe Mistral AI, visa promover o desenvolvimento aberto da inteligência artificial. O modelo possui 141 bilhões de parâmetros e suporta diversas formas de implantação otimizada, como precisão de meia-precisão e quantização, para atender às necessidades de diferentes hardwares e cenários de aplicação. O Mixtral-8x22B pode ser usado em tarefas de processamento de linguagem natural, como geração de texto, perguntas e respostas e tradução.
Abrir Site

Mixtral-8x22B Situação do Tráfego Mais Recente

Total de Visitas Mensais

29742941

Taxa de Rejeição

44.20%

Média de Páginas por Visita

5.9

Duração Média da Visita

00:04:44

Mixtral-8x22B Tendência de Visitas

Mixtral-8x22B Distribuição Geográfica das Visitas

Mixtral-8x22B Fontes de Tráfego

Mixtral-8x22B Alternativas