Meta社は先日、Ray-Banスマートグラスに3つの新機能、リアルタイムAI、リアルタイム翻訳、Shazamを追加すると発表しました。リアルタイムAIとリアルタイム翻訳機能は現在、Metaのアーリーアクセスプログラム参加者のみ利用可能ですが、Shazam機能は米国とカナダの全ユーザー向けに公開されています。

リアルタイムAIとリアルタイム翻訳機能は、今年の初めに開催されたMeta Connect 2024で先行発表されました。リアルタイムAIは、周囲の環境を継続的に観察しながら、MetaのAIアシスタントと自然な会話を可能にします。例えば、食料品店の青果コーナーで商品を見ている際に、見ている食材に基づいてレシピを提案してもらうことができます。Metaによると、フル充電でリアルタイムAI機能は約30分間使用できるとのことです。

image.png

一方、リアルタイム翻訳機能は、英語とスペイン語、フランス語、イタリア語間のリアルタイム音声翻訳を可能にします。翻訳結果はグラス自体で聞くことも、スマートフォンでテキストとして確認することもできます。使用する言語ペアを事前にダウンロードし、自分と相手が使用する言語を指定する必要があります。

Shazam機能はさらにシンプルです。曲が流れているのを聞いたら、Meta AIに指示するだけで、再生されている曲を特定できます。Metaのマーク・ザッカーバーグCEOは、Instagramの動画でこの機能をデモンストレーションしました。

これらの新機能が表示されない場合は、グラスがv11ソフトウェア、Meta Viewアプリがv196バージョンで動作していることを確認してください。アーリーアクセスプログラムに参加していない場合は、ウェブサイトから申請できます。

今回のアップデートは、テクノロジー大手各社がAIアシスタントをスマートグラスの主要なセールスポイントとして位置付ける時期に発表されました。先週、Googleはスマートグラス向けの新OS Android XRを発表し、Gemini AIアシスタントをキラーアプリとして特に強調しました。一方、MetaのCTOであるアンドリュー・ボスワースもブログ記事で、「2024年はAIグラスが大きく進歩した年だ」と述べています。ボスワースはさらに、スマートグラスは「真にAIネイティブ」なデバイスの最適な形態であり、最初からAIによって完全に定義された最初のハードウェアカテゴリであると断言しています。

総じて、Metaスマートグラスの今回の機能強化は、ウェアラブルデバイスにおけるAIの潜在能力を改めて示しており、テクノロジー大手各社間の競争がスマートグラス技術の急速な発展をさらに促進していくでしょう。