OLMoE

Modelo de linguagem de mistura de especialistas de código aberto com 130 milhões de parâmetros ativos.

Produto ComumProdutividadeProcessamento de Linguagem NaturalModelo de Mistura de Especialistas
O OLMoE é um modelo de mistura de especialistas de ponta, totalmente aberto, com 130 milhões de parâmetros ativos e 690 milhões de parâmetros totais. Todos os dados, códigos e logs do modelo foram publicados. Ele fornece uma visão geral de todos os recursos do artigo 'OLMoE: Open Mixture-of-Experts Language Models'. O modelo tem aplicações importantes em pré-treinamento, ajuste fino, adaptação e avaliação, representando um marco no campo do processamento de linguagem natural.
Abrir Site

OLMoE Situação do Tráfego Mais Recente

Total de Visitas Mensais

474564576

Taxa de Rejeição

36.20%

Média de Páginas por Visita

6.1

Duração Média da Visita

00:06:34

OLMoE Tendência de Visitas

OLMoE Distribuição Geográfica das Visitas

OLMoE Fontes de Tráfego

OLMoE Alternativas