Kürzlich veröffentlichte das Facebook AI Research (FAIR) eine bahnbrechende Studie in Nature, in der ein großes Sprachmodell namens BrainMagick vorgestellt wird. Dieses Modell kann nicht-invasive Gehirnaktivitäten, die mittels EEG (Elektroenzephalographie) und MEG (Magnetoenzephalographie) aufgezeichnet wurden, analysieren und den vom Gehirn beabsichtigten Sprachinhalt dekodieren. In Tests konnte das Modell anhand von 3 Sekunden langer MEG-Aufzeichnung aus tausenden Optionen das korrekte Sprachfragment identifizieren, mit einer Top-10-Genauigkeit von 72,5 %. Dieser Durchbruch ist von großer Bedeutung für die Unterstützung von Aphasie-Patienten mit Sprachstörungen bei der Wiederherstellung ihrer Kommunikationsfähigkeit. BrainMagick bietet ihnen eine nicht-invasive Kommunikationsmethode, ohne das Risiko eines Gehirneingriffs. Die Studie löste nach ihrer Veröffentlichung eine rege Diskussion unter den Nutzern aus, viele bezeichneten sie als großen Fortschritt für Sprachbehinderte. Der Projektcode wurde zudem auf GitHub Open Source veröffentlicht. Die Ausführung des Trainings benötigt lediglich eine GPU, und die Modellleistung kann mit zunehmender Datenmenge weiter verbessert werden.