Falcon Mamba

Primeiro modelo de linguagem em larga escala de 7B sem mecanismo de atenção

Produto ComumProgramaçãoModelo de grande escalaSem atenção
O Falcon Mamba é o primeiro modelo de linguagem em larga escala de 7B sem mecanismo de atenção, lançado pelo Instituto de Inovação Tecnológica de Abu Dhabi (TII). Este modelo não é limitado pelo aumento dos custos computacionais e de armazenamento devido ao comprimento da sequência ao processar sequências grandes, mantendo ao mesmo tempo um desempenho comparável aos modelos de ponta existentes.
Abrir Site

Falcon Mamba Situação do Tráfego Mais Recente

Total de Visitas Mensais

29742941

Taxa de Rejeição

44.20%

Média de Páginas por Visita

5.9

Duração Média da Visita

00:04:44

Falcon Mamba Tendência de Visitas

Falcon Mamba Distribuição Geográfica das Visitas

Falcon Mamba Fontes de Tráfego

Falcon Mamba Alternativas