Em 9 de abril de 2025, na conferência Google Cloud Next 2025, o Google Cloud anunciou uma parceria significativa, combinando seu serviço de nuvem distribuída, Google Distributed Cloud (GDC), com o modelo de inteligência artificial Gemini e a arquitetura Blackwell da NVIDIA, para fornecer às empresas soluções de IA localizadas e robustas. Essa colaboração visa atender às indústrias com requisitos rigorosos de soberania e segurança de dados, impulsionando o uso da tecnologia de "IA agente" (Agentic AI) em ambientes locais.

Segundo as últimas notícias, o Google Distributed Cloud permitirá a execução do modelo Gemini nos próprios data centers das empresas. Essa iniciativa é possível graças à parceria com a NVIDIA, utilizando especificamente o recém-lançado sistema de GPU Blackwell da NVIDIA, que oferece alta capacidade de computação. A Dell, como parceira fundamental, fornecerá suporte de hardware para essa solução, garantindo que as empresas, ao implantá-la localmente, possam desfrutar da flexibilidade da nuvem pública, mantendo o controle total sobre seus dados. É importante destacar que a solução não se limita a ambientes conectados à rede, suportando também cenários totalmente isolados ("air-gapped"), ideais para órgãos governamentais, setores altamente regulamentados e empresas com requisitos específicos de latência e residência de dados.

QQ20250410-093156.png

Um destaque dessa parceria é a integração da tecnologia de computação confidencial (Confidential Computing) da NVIDIA, garantindo que, ao usar o modelo Gemini para processar dados sensíveis, os dados e as instruções (prompts) sejam protegidos de ponta a ponta, inacessíveis mesmo para o provedor de serviços em nuvem. Essa combinação de segurança e desempenho é considerada um passo crucial para liberar o potencial da IA local. Sachin Gupta, vice-presidente e gerente geral de infraestrutura e soluções do Google Cloud, declarou: "Ao combinar o modelo Gemini com o desempenho inovador e a capacidade de computação confidencial do NVIDIA Blackwell, oferecemos às empresas a possibilidade de inovação segura, sem comprometer o desempenho ou a facilidade de operação."

Além disso, o Google Distributed Cloud planeja lançar o GKE Inference Gateway, uma ferramenta integrada ao NVIDIA Triton Inference Server e ao NeMo Guardrails, para otimizar o roteamento de inferência e o balanceamento de carga, ajudando as empresas a gerenciar e escalar as cargas de trabalho de IA de forma mais eficiente. Essa funcionalidade deve entrar em fase de prévia pública no terceiro trimestre de 2025, oferecendo a mais empresas a oportunidade de testar.

Profissionais do setor consideram essa parceria um marco na mudança de modelos de implantação de IA. Por muito tempo, devido às limitações da implantação na nuvem e às preocupações com segurança, muitas empresas não conseguiam aproveitar totalmente as tecnologias de IA mais avançadas. A solução conjunta do Google e da NVIDIA permite que as empresas executem agentes de IA complexos localmente, agentes que não apenas compreendem os dados, mas também raciocinam, agem e se otimizam. Essa tendência é vista como um passo importante para os sistemas de IA empresarial rumo à "autocorreção" e à "automelhoria".

A colaboração entre o Google Cloud e a NVIDIA não se limita ao aspecto tecnológico, refletindo também a visão compartilhada de ambas as empresas em promover a democratização da IA. Ao levar o modelo Gemini para ambientes locais, combinando-o com o poderoso desempenho da arquitetura Blackwell, essa solução promete gerar novas oportunidades de crescimento para setores como finanças, saúde e manufatura, atendendo simultaneamente a requisitos rigorosos de conformidade. No futuro, com a divulgação de mais detalhes e a implementação de aplicações práticas, essa parceria poderá remodelar o cenário de implantação de IA empresarial.