Com o avanço da tecnologia de interface cérebro-computador (BCI), o modelo Brain2Qwerty, recentemente lançado pela Meta AI, traz novas esperanças para este campo. A BCI visa fornecer meios de comunicação para pessoas com dificuldades de fala ou movimento, mas os métodos tradicionais geralmente exigem cirurgias invasivas, como a implantação de eletrodos, o que apresenta riscos médicos e requer manutenção a longo prazo. Portanto, os pesquisadores começaram a explorar alternativas não invasivas, especialmente métodos baseados em eletroencefalografia (EEG). No entanto, a tecnologia de EEG enfrenta o problema da baixa resolução do sinal, afetando sua precisão.

Cérebro mecânico Inteligência Artificial

Observação da fonte: Imagem gerada por IA, serviço de licenciamento de imagens Midjourney

O lançamento do Brain2Qwerty visa resolver esse problema. Este modelo de aprendizado profundo pode decodificar frases digitadas pelos participantes a partir da atividade cerebral capturada por meio de EEG ou magnetoencefalografia (MEG). No estudo, os participantes digitaram frases memorizadas brevemente em um teclado QWERTY, enquanto sua atividade cerebral era registrada em tempo real. Diferentemente dos métodos anteriores que exigem concentração em estímulos externos ou imaginação de movimentos, o Brain2Qwerty utiliza o movimento natural de digitação, fornecendo um método mais intuitivo de interpretação das ondas cerebrais.

A arquitetura do Brain2Qwerty é dividida em três módulos principais. Primeiro, o módulo de convolução, responsável por extrair características temporais e espaciais dos sinais de EEG ou MEG. Em seguida, o módulo de transformador, que processa a sequência de entrada, otimizando a compreensão e a expressão. Finalmente, o módulo de modelo de linguagem, um modelo de linguagem de caracteres pré-treinado, usado para corrigir e melhorar a precisão dos resultados da decodificação.

Na avaliação do desempenho do Brain2Qwerty, os pesquisadores usaram a taxa de erro de caracteres (CER) como métrica. Os resultados mostraram que a decodificação baseada em EEG teve um CER de 67%, relativamente alto; enquanto a decodificação usando MEG apresentou uma melhoria significativa, com CER reduzido para 32%. No experimento, o melhor participante atingiu um CER de 19%, mostrando o potencial do modelo em condições ideais.

Embora o Brain2Qwerty mostre perspectivas positivas na área de BCI não invasivas, ainda enfrenta alguns desafios. Primeiro, o modelo atual precisa processar frases completas, e não decodificar em tempo real tecla por tecla. Segundo, embora a MEG tenha desempenho superior ao EEG, seus equipamentos ainda não são portáteis e sua acessibilidade é limitada. Finalmente, este estudo foi realizado principalmente em participantes saudáveis, sendo necessário investigar a fundo sua aplicabilidade em pessoas com deficiência motora ou de fala.

Artigo: https://ai.meta.com/research/publications/brain-to-text-decoding-a-non-invasive-approach-via-typing/

Destaques:

🧠 O modelo Brain2Qwerty da Meta AI pode decodificar o conteúdo digitado por meio de EEG e MEG, trazendo novas esperanças para a tecnologia BCI.

📊 Os resultados da pesquisa mostram que a taxa de erro de caracteres usando decodificação MEG é significativamente menor que a do EEG, com o melhor participante atingindo 19% de CER.

🔍 Os desafios futuros incluem decodificação em tempo real, acessibilidade dos equipamentos MEG e a eficácia em pessoas com deficiência.