No Mobile World Congress (MWC) deste ano, o Google anunciou a adição de análise de vídeo em tempo real e compartilhamento de tela ao seu assistente Gemini. Os assinantes do Google One AI Premium com Gemini Advanced serão os primeiros a experimentar este novo recurso, ainda este mês.

Esta atualização dará ao Gemini Live duas capacidades principais: analisar o conteúdo de vídeo em tempo real através de uma câmera externa e compartilhar a tela, permitindo que o assistente de IA interprete diretamente as informações no telefone do usuário e forneça feedback. Com esses recursos, os usuários podem ter uma interação visual mais dinâmica com a IA, como identificar objetos, analisar o conteúdo da tela ou receber sugestões em tempo real.

Modelo de linguagem grande do Google Gemini

O novo recurso será lançado primeiro em dispositivos Android e suportará vários idiomas. O Google demonstrou no MWC a integração desses recursos em vários dispositivos Android, consolidando ainda mais sua posição competitiva na área de assistentes de IA.

Esta atualização também marca um passo crucial para os assistentes de IA na interação com o mundo real. O objetivo de longo prazo do Google é o Project Astra — um assistente de IA multimodal universal capaz de processar texto, vídeo e áudio em tempo real e com memória de curto prazo. Espera-se que o Astra se integre profundamente a ferramentas como Pesquisa Google, Lens e Maps no futuro.

Com o lançamento do Gemini Live, a competição entre o Google e a OpenAI se intensifica. Desde dezembro passado, o ChatGPT oferece recursos de compartilhamento de vídeo e tela em tempo real com modo de voz avançado, e esta atualização do Google é, sem dúvida, uma resposta direta. Se o Gemini conseguir consolidar sua liderança em IA com este novo recurso, é algo que merece atenção contínua.