Kürzlich veröffentlichte das Facebook AI Research (FAIR) eine bahnbrechende Studie in Nature, in der ein großes Sprachmodell namens BrainMagick vorgestellt wird. Dieses Modell kann nicht-invasive Gehirnaktivitäten, die mittels EEG (Elektroenzephalographie) und MEG (Magnetoenzephalographie) aufgezeichnet wurden, analysieren und den vom Gehirn beabsichtigten Sprachinhalt dekodieren. In Tests konnte das Modell anhand von 3 Sekunden langer MEG-Aufzeichnung aus tausenden Optionen das korrekte Sprachfragment identifizieren, mit einer Top-10-Genauigkeit von 72,5 %. Dieser Durchbruch ist von großer Bedeutung für die Unterstützung von Aphasie-Patienten mit Sprachstörungen bei der Wiederherstellung ihrer Kommunikationsfähigkeit. BrainMagick bietet ihnen eine nicht-invasive Kommunikationsmethode, ohne das Risiko eines Gehirneingriffs. Die Studie löste nach ihrer Veröffentlichung eine rege Diskussion unter den Nutzern aus, viele bezeichneten sie als großen Fortschritt für Sprachbehinderte. Der Projektcode wurde zudem auf GitHub Open Source veröffentlicht. Die Ausführung des Trainings benötigt lediglich eine GPU, und die Modellleistung kann mit zunehmender Datenmenge weiter verbessert werden.
Facebooks neues Modell dekodiert Sprache über Gehirnwelle und bietet Hoffnung für Aphasie-Patienten

智能涌现
Dieser Artikel stammt aus dem AIbase-Tagesbericht
Willkommen im Bereich [KI-Tagesbericht]! Hier ist Ihr Leitfaden, um jeden Tag die Welt der künstlichen Intelligenz zu erkunden. Jeden Tag präsentieren wir Ihnen die Hotspots im KI-Bereich, konzentrieren uns auf Entwickler und helfen Ihnen, technologische Trends zu erkennen und innovative KI-Produktanwendungen zu verstehen.