今年のモバイルワールドコングレス(MWC)で、GoogleはGeminiアシスタントにリアルタイム動画分析と画面共有機能を追加すると発表しました。Gemini AdvancedのGoogle One AI Premiumサブスクリプションユーザーは、今月末からこの新機能をいち早く体験できます。

今回のアップデートにより、Gemini Liveは2つの主要な機能を獲得します。1つは外部カメラを通して動画コンテンツをリアルタイムで分析する機能、もう1つは画面共有機能で、AIアシスタントがユーザーのスマホ上の情報を直接読み取ってフィードバックを提供できるようになります。これらの機能により、ユーザーは物体認識、画面内容の解析、リアルタイムでのアドバイスなど、AIとよりインタラクティブな視覚的なコミュニケーションを行うことができます。

Googleの大規模言語モデルGemini

新機能はまずAndroidデバイスで提供され、複数の言語に対応します。GoogleはMWC会場で、様々なAndroidデバイスへのこれらの機能の統合をデモンストレーションし、AIアシスタント分野における競争力をさらに強化しました。

今回のアップデートは、AIアシスタントが現実世界のインタラクションへと大きく前進したことを示しています。Googleの長期的な目標は、テキスト、動画、音声などをリアルタイムで処理し、短期記憶能力も備えた汎用的なマルチモーダルAIアシスタントであるProject Astraです。Astraは将来的にGoogle検索、Lens、マップなどのツールと深く統合される予定です。

Gemini Liveの登場により、GoogleとOpenAIの競争はさらに激化しています。昨年12月よりChatGPTは高度な音声モードでのリアルタイム動画と画面共有機能をサポートしており、Googleの今回のアップデートはそれに真っ向から対抗する一歩と言えるでしょう。Geminiがこの新機能によってAIにおけるリーダーシップをさらに強化できるかどうかは、今後の注目点です。