Googleは最近、Gemini Liveの新機能を発表しました。この機能により、スマートフォンのカメラを通してリアルタイムでユーザーの質問に答え、「見る」ことができるようになりました。これらの新機能は、Googleの「Project Astra」プロジェクトの一環として、約1年間の開発を経て初めて公開されたものです。
Googleの広報担当者Alex Joseph氏によると、Gemini Liveのアップデートは、ユーザーがスマートフォンを使用する際に、よりスマートで直感的なサポートを受けられることを意味します。RedditユーザーがXiaomiスマートフォンでこの機能を試した様子を共有し、9to5Googleもこれを報道しました。最近、このユーザーはGeminiの新しい画面読み取り機能を示すデモ動画も公開しました。
今回のアップデートには2つの重要な機能が含まれており、Googleは今月末に、Google One AI Premiumプランの一部として、Geminiのプレミアム会員にこれらの機能を提供すると発表しました。これらの機能により、Geminiはスマートフォンのカメラを通して画像の内容をリアルタイムで解釈し、ユーザーの質問に正確に答えることができます。公開されたデモ動画では、ユーザーが新しい釉薬陶器の色選びについてGeminiに質問すると、アシスタントがリアルタイムで提案を提供し、この新技術の強力な能力を示していました。
Googleが今回発表した機能は、AIアシスタント市場における同社のリーダーシップをさらに強化するものです。同時に、Amazonもアップグレード版のAlexa Plusの発売準備を進めており、限定的な早期トライアルを実施している一方、AppleはSiriのアップデートを延期しています。これにより、Geminiは市場競争において有利な立場を占めています。さらに、SamsungがBixbyアシスタントの展開を継続しているものの、Geminiは現在Googleのスマートフォンのデフォルトアシスタントであり、これはGoogleのスマートアシスタント分野における戦略的な配置を示しています。
AI技術の進歩に伴い、ユーザーの日常生活におけるインタラクション体験は、よりスマートで便利なものになります。Googleのこの新しい試みは、ユーザーにより多くの可能性を提供し、将来のAIアシスタントは人々の実際のニーズにより近づいていくでしょう。
重要なポイント:
🌟 Google Gemini Liveが新しいAI機能を発表。スマートフォンのカメラを通してリアルタイムでユーザーの質問に答えることができます。
📱 ユーザーがXiaomiスマートフォンで新機能を試用し、関連するデモ動画を公開しました。
🚀 今回のアップデートにより、Googleはスマートアシスタント市場におけるリーダーシップをさらに強化しました。