RWKV-6 Mistura de Especialistas

O maior modelo da família RWKV, utilizando a tecnologia MoE para melhorar a eficiência.

Produto ComumProgramaçãoIAAprendizado de Máquina
Flock of Finches 37B-A11B v0.1 é o mais recente membro da família RWKV. Trata-se de um modelo experimental com 1,1 bilhão de parâmetros ativos. Apesar de ter sido treinado apenas com 109 bilhões de tokens, suas pontuações em benchmarks comuns são comparáveis às do modelo Finch 14B recentemente lançado. O modelo emprega um método eficiente de mistura esparsa de especialistas (MoE), ativando apenas uma parte dos parâmetros em qualquer token dado, economizando tempo e reduzindo o uso de recursos computacionais durante o treinamento e a inferência. Embora essa escolha arquitetônica resulte em maior uso de VRAM, acreditamos que a capacidade de treinar e executar modelos com maior capacidade a baixo custo é extremamente vantajosa.
Abrir Site

RWKV-6 Mistura de Especialistas Situação do Tráfego Mais Recente

Total de Visitas Mensais

179

Taxa de Rejeição

26.72%

Média de Páginas por Visita

3.0

Duração Média da Visita

00:03:45

RWKV-6 Mistura de Especialistas Tendência de Visitas

RWKV-6 Mistura de Especialistas Distribuição Geográfica das Visitas

RWKV-6 Mistura de Especialistas Fontes de Tráfego

RWKV-6 Mistura de Especialistas Alternativas