O Falcon Mamba é o primeiro modelo de linguagem em larga escala de 7B sem mecanismo de atenção, lançado pelo Instituto de Inovação Tecnológica de Abu Dhabi (TII). Este modelo não é limitado pelo aumento dos custos computacionais e de armazenamento devido ao comprimento da sequência ao processar sequências grandes, mantendo ao mesmo tempo um desempenho comparável aos modelos de ponta existentes.