2025年4月9日、Google Cloud Next 2025カンファレンスにおいて、Google Cloudは、分散型クラウドサービスであるGoogle Distributed Cloud(GDC)と、Gemini人工知能モデル、そしてNVIDIAのBlackwellアーキテクチャを組み合わせた強力なローカライズAIソリューションを企業に提供する、画期的な連携計画を発表しました。この連携は、データ主権とセキュリティに厳格な要件を持つ業界のニーズに応え、「代理AI」(Agentic AI)技術のオンプレミス環境での活用を促進することを目的としています。

最新の発表によると、Google Distributed Cloudは、企業が所有するデータセンターでGeminiモデルの運用をサポートするようになります。これはNVIDIAとの連携によって実現され、具体的にはNVIDIAが最近発表したBlackwell GPUシステムを活用し、高性能コンピューティング能力を提供します。Dellは重要なパートナーとして、このソリューションにハードウェアサポートを提供し、企業がオンプレミス展開においてもパブリッククラウドの柔軟性を享受しつつ、データの完全な制御を維持できるようにします。注目すべきは、このソリューションはネットワーク接続環境だけでなく、完全に隔離された「エアギャップ」(air-gapped)環境にも対応しており、政府機関、高度に規制された業界、そしてレイテンシとデータ常駐に特別な要件を持つ企業に特に適しています。

QQ20250410-093156.png

今回の連携のハイライトは、NVIDIAのConfidential Computing(機密計算)技術の統合です。これにより、企業はGeminiモデルを使用して機密データを処理する場合でも、データとプロンプトがエンドツーエンドで保護され、クラウドサービスプロバイダーでさえアクセスできなくなります。このセキュリティとパフォーマンスの組み合わせは、オンプレミスAIの可能性を開放する重要な一歩と見なされています。Google Cloudインフラストラクチャおよびソリューション担当副社長兼ゼネラルマネージャーであるSachin Gupta氏は、「GeminiモデルとNVIDIA Blackwellの画期的なパフォーマンスと機密計算能力を組み合わせることで、企業はパフォーマンスや操作の容易さを犠牲にすることなく、安全なイノベーションを実現できます」と述べています。

さらに、Google Distributed Cloudは、NVIDIA Triton Inference ServerとNeMo Guardrailsと統合されたツールであるGKE Inference Gatewayを導入する予定です。これは、推論ルーティングとロードバランシングを最適化し、企業がAIワークロードをより効率的に管理および拡張するのに役立ちます。この機能は、2025年第3四半期にパブリックプレビュー段階に入る予定であり、より多くの企業が試用できるようになります。

業界関係者は、この連携はAI展開モデルの大きな転換点を示していると見ています。長年にわたり、クラウド展開とセキュリティ上の懸念により、多くの企業は最先端のAI技術を十分に活用できていませんでした。しかし、GoogleとNVIDIAの共同ソリューションにより、企業は複雑なAIエージェントをオンプレミスで実行できるようになります。これらのエージェントは、データを理解するだけでなく、推論、行動、自己最適化を行うことができます。この傾向は、企業のAIシステムが「自己修正」と「自己改善」に向かう重要な一歩と見なされています。

Google CloudとNVIDIAの連携は技術面だけでなく、AIの普及促進という両社の共通ビジョンも反映しています。Geminiモデルをオンプレミス環境に導入し、Blackwellアーキテクチャのパワフルなパフォーマンスと組み合わせることで、このソリューションは金融、医療、製造などの業界に新たな成長機会をもたらし、同時に厳格なコンプライアンス要件を満たすことが期待されます。今後、より詳細な情報が公開され、実際のアプリケーションが展開されるにつれて、この連携は企業AIの展開状況を一変させる可能性があります。