Meta hat kürzlich drei neue Funktionen für seine Ray-Ban Smart Glasses angekündigt: Echtzeit-KI, Echtzeit-Übersetzung und Shazam. Die Echtzeit-KI und die Echtzeit-Übersetzung sind derzeit nur für Mitglieder des Meta Early Access Programms verfügbar, während die Shazam-Funktion allen Nutzern in den USA und Kanada zur Verfügung steht.
Die Echtzeit-KI und die Echtzeit-Übersetzung wurden bereits Anfang des Jahres auf der Meta Connect 2024 Konferenz angekündigt. Die Echtzeit-KI ermöglicht es Nutzern, natürliche Gespräche mit dem Meta KI-Assistenten zu führen, während sie gleichzeitig ihre Umgebung beobachten. So könnten Sie beispielsweise im Obst- und Gemüsebereich eines Supermarkts den Meta KI-Assistenten bitten, basierend auf den von Ihnen betrachteten Zutaten, Rezepte vorzuschlagen. Meta gibt an, dass die Echtzeit-KI mit voller Akkuladung etwa 30 Minuten lang genutzt werden kann.

Die Echtzeit-Übersetzung ermöglicht die sofortige Sprachübersetzung zwischen Englisch und Spanisch, Französisch oder Italienisch. Sie können die Übersetzung über die Brille selbst hören oder den übersetzten Text auf Ihrem Smartphone anzeigen lassen. Sie müssen die Sprachpaare vorher herunterladen und die jeweilige Sprache für sich und Ihren Gesprächspartner angeben.
Die Shazam-Funktion ist einfacher. Wenn Sie ein Lied hören, müssen Sie nur den Meta KI-Assistenten informieren, und er sollte Ihnen den Titel des Liedes nennen können. Meta CEO Mark Zuckerberg demonstrierte diese Funktion in einem Instagram-Video.
Sollten diese neuen Funktionen auf Ihrer Brille noch nicht angezeigt werden, stellen Sie sicher, dass Ihre Brille die Softwareversion v11 und Ihre Meta View App die Version v196 verwendet. Wenn Sie noch nicht am Early Access Programm teilnehmen, können Sie sich über diese Website anmelden.
Dieses Update kommt zu einer Zeit, in der Technologiekonzerne KI-Assistenten als Kernverkaufsargument für Smart Glasses präsentieren. Erst letzte Woche veröffentlichte Google das neue, speziell für Smart Glasses entwickelte Betriebssystem Android XR und betonte dabei besonders den Gemini KI-Assistenten als Killer-Applikation. Gleichzeitig schrieb Meta CTO Andrew Bosworth in einem Blogbeitrag, dass „2024 ein Jahr des großen Fortschritts für KI-Brillen“ sei. Bosworth behauptete auch, dass Smart Glasses die beste Form für „echte KI-native“ Geräte seien und die erste Hardware-Kategorie, die von Anfang an vollständig von KI definiert werde.
Zusammenfassend lässt sich sagen, dass das Funktionsupdate der Meta Smart Glasses das enorme Potenzial von KI in tragbaren Geräten weiter unterstreicht und der Wettbewerb zwischen den Technologiekonzernen die schnelle Entwicklung der Smart Glasses-Technologie weiter vorantreiben wird.