En el Mobile World Congress (MWC) de este año, Google anunció nuevas funciones de análisis de vídeo en tiempo real y uso compartido de pantalla para su asistente Gemini. Los suscriptores de Google One AI Premium con Gemini Advanced serán los primeros en probar esta nueva función a finales de este mes.

Esta actualización proporcionará a Gemini Live dos capacidades principales: analizar el contenido de vídeo en tiempo real a través de una cámara externa y compartir la pantalla, permitiendo que el asistente de IA interprete directamente la información en el teléfono del usuario y proporcione retroalimentación. Estas funciones permitirán una interacción visual más dinámica con la IA, como la identificación de objetos, el análisis del contenido de la pantalla o la obtención de sugerencias en tiempo real.

Modelo lingüístico grande de Google Gemini

La nueva función se lanzará primero en dispositivos Android y admitirá varios idiomas. Google demostró en el MWC la integración de estas funciones en varios dispositivos Android, consolidando aún más su posición competitiva en el campo de los asistentes de IA.

Esta actualización también marca un paso crucial hacia la interacción con el mundo real para los asistentes de IA. El objetivo a largo plazo de Google es Project Astra, un asistente de IA multimodal universal capaz de procesar texto, vídeo y audio en tiempo real y con memoria a corto plazo. Se espera que Astra se integre profundamente con herramientas como la Búsqueda de Google, Lens y Maps en el futuro.

Con el lanzamiento de Gemini Live, la competencia entre Google y OpenAI se intensifica. Desde diciembre pasado, ChatGPT ha admitido funciones de vídeo y uso compartido de pantalla en tiempo real con modos de voz avanzados, y esta actualización de Google es sin duda una respuesta directa. Si Gemini podrá consolidar su liderazgo en IA gracias a esta nueva función, es algo que merece seguimiento.