Falcon Mamba
Primeiro modelo de linguagem em larga escala de 7B sem mecanismo de atenção
Produto ComumProgramaçãoModelo de grande escalaSem atenção
O Falcon Mamba é o primeiro modelo de linguagem em larga escala de 7B sem mecanismo de atenção, lançado pelo Instituto de Inovação Tecnológica de Abu Dhabi (TII). Este modelo não é limitado pelo aumento dos custos computacionais e de armazenamento devido ao comprimento da sequência ao processar sequências grandes, mantendo ao mesmo tempo um desempenho comparável aos modelos de ponta existentes.
Falcon Mamba Situação do Tráfego Mais Recente
Total de Visitas Mensais
29742941
Taxa de Rejeição
44.20%
Média de Páginas por Visita
5.9
Duração Média da Visita
00:04:44