世界的な高度なAIインフラ需要の高まりを受け、シリコンバレーのGPUクラウドコンピューティングプロバイダーであるGMI Cloudは、8200万ドルのシリーズA資金調達を完了したことを発表しました。

今回の資金調達はHeadline Asiaが主導し、Banpu Nextや緯創資通などの著名なパートナーからの支援を受けました。この資金調達ラウンドの後、GMI Cloudの総資本は9300万ドルを超え、コロラド州に新たなデータセンターを開設し、北米市場におけるサービス能力をさらに向上させ、主要なAIクラウドサービスプロバイダーとしての地位を強化するために使用されます。

クラウドコンピューティング インターネット メタバース (1)

画像出典:AI生成画像、画像ライセンスプロバイダーMidjourney

GMI Cloudは、より多くの企業が高度なAIインフラに容易にアクセスできるようにすることを目的として設立されました。同社の目標は、グローバルなAIの展開を簡素化し、最先端のハードウェアと強力なソフトウェアソリューションを組み合わせた垂直統合プラットフォームを提供することで、企業が効率的かつ簡単にAIを構築、展開、拡張できるようにすることです。

GMI Cloudのプラットフォームは、AIプロジェクトのための包括的なエコシステムを提供し、高度なGPUインフラ、独自の資源スケジューリングシステム、モデルの管理と展開のためのツールを統合しています。これらの包括的なソリューションは、従来のインフラが抱える多くの課題を効果的に解消します。例えば、ユーザーはNVIDIAのGPUに迅速にアクセスし、オンデマンドまたはプライベートクラウドインスタンスを選択して、小規模プロジェクトからエンタープライズレベルの機械学習ワークロードまで、さまざまなニーズに対応できます。

さらに、GMI CloudのクラスタエンジンはKubernetesに基づいており、GPUリソースのシームレスな管理と最適化を実現し、マルチクラスタ機能を提供することで、プロジェクトの拡張ニーズに柔軟に対応できます。そのアプリケーションプラットフォームはAI開発向けに設計されており、カスタマイズ可能な環境を提供し、API、SDK、Jupyter Notebookと互換性があり、モデルのトレーニング、推論、カスタマイズをサポートします。

コロラド州に建設される新しいデータセンターは、GMI Cloudの拡大における重要な一歩であり、北米の顧客に低遅延で高可用性のインフラを提供し、増加する需要に応えます。この新しいセンターは、台湾およびその他の主要地域にあるGMIの既存のデータセンターと相補的な関係にあり、迅速な市場展開を実現します。

GMI CloudはNVIDIAパートナーネットワークのメンバーでもあり、NVIDIA H100などのNVIDIAの最先端GPUを統合することで、顧客は強力な計算能力を使用して、複雑なAIと機械学習のワークロードを処理できます。NVIDIA H100 Tensor Core GPUは、その優れたパフォーマンス、スケーラビリティ、セキュリティにより、AIアプリケーション向けに最適化されており、大規模言語モデルの処理速度を向上させることができ、対話型AIなどの高負荷の機械学習タスクに適しています。

要点:

✨ GMI Cloudは8200万ドルのシリーズA資金調達を行い、コロラド州に新しいデータセンターを建設し、北米市場を拡大します。

🚀 同社は統合されたAIインフラプラットフォームを提供し、企業がAIプロジェクトを容易に構築および展開できるように支援します。

🤖 GMI CloudはNVIDIAと協力し、高度なGPU技術を使用して、AIと機械学習の発展を推進します。