Récemment, les chercheurs du laboratoire d'intelligence artificielle de Facebook (FAIR) ont publié une étude majeure dans la revue Nature, présentant un grand modèle linguistique nommé BrainMagick. Ce modèle est capable de décoder le contenu vocal souhaité par une personne en analysant l'activité cérébrale non invasive obtenue grâce à l'électroencéphalographie (EEG) et la magnétoencéphalographie (MEG). Lors des tests, le modèle a réussi à identifier avec précision des extraits vocaux parmi des milliers d'options, à partir d'enregistrements MEG de 3 secondes seulement. Le taux de précision Top-10 a atteint 72,5 %. Cette avancée est d'une importance capitale pour aider les patients aphasiques, souffrant de troubles du langage, à retrouver leur capacité de communication. BrainMagick leur offre un moyen de communication non invasif, évitant ainsi les risques liés à une intervention chirurgicale cérébrale. L'étude a suscité de nombreux commentaires enthousiastes sur les réseaux sociaux, de nombreuses personnes saluant cette avancée majeure pour les personnes atteintes de troubles du langage. De plus, le code du projet est disponible en open source sur GitHub, permettant une exécution de l'entraînement avec un seul GPU. Les performances du modèle devraient continuer à s'améliorer avec l'augmentation du volume de données.
Le nouveau modèle de Facebook décode la parole à partir d'ondes cérébrales, une lueur d'espoir pour les aphasiques
