Vor dem Hintergrund der weltweit steigenden Nachfrage nach fortschrittlicher KI-Infrastruktur gibt der kalifornische GPU-Cloud-Anbieter GMI Cloud den Abschluss einer Series-A-Finanzierungsrunde in Höhe von 82 Millionen US-Dollar bekannt.
Die Finanzierungsrunde wurde von Headline Asia angeführt und erhielt Unterstützung von namhaften Partnern wie Banpu Next und Wistron ITS. Nach dieser Finanzierungsrunde beläuft sich das Gesamtkapital von GMI Cloud auf über 93 Millionen US-Dollar. Die Mittel werden für den Aufbau eines neuen Rechenzentrums in Colorado verwendet, um die Servicekapazität im nordamerikanischen Markt weiter zu verbessern und die Position als führender Anbieter von KI-Cloud-Diensten zu festigen.
Bildquelle: Das Bild wurde mit KI generiert und ist durch Midjourney lizenziert.
GMI Cloud wurde mit dem Ziel gegründet, mehr Unternehmen einen einfachen Zugang zu fortschrittlicher KI-Infrastruktur zu ermöglichen. Das Unternehmen möchte die globale KI-Implementierung vereinfachen und bietet eine vertikal integrierte Plattform, die erstklassige Hardware und leistungsstarke Softwarelösungen kombiniert, um Unternehmen ein effizientes und bequemes Erstellen, Implementieren und Skalieren von KI zu ermöglichen.
Die Plattform von GMI Cloud bietet ein vollständiges Ökosystem für KI-Projekte, das fortschrittliche GPU-Infrastruktur, ein proprietäres Ressourcenplanungssystem sowie Tools zum Verwalten und Implementieren von Modellen umfasst. Diese umfassenden Lösungen beseitigen viele Herausforderungen herkömmlicher Infrastrukturen. So können Benutzer beispielsweise schnell auf NVIDIA-GPUs zugreifen und zwischen On-Demand- oder Private-Cloud-Instanzen wählen, um die Anforderungen von kleinen Projekten bis hin zu unternehmensweiten Machine-Learning-Workloads zu erfüllen.
Darüber hinaus ermöglicht die auf Kubernetes basierende Cluster-Engine von GMI Cloud eine nahtlose Verwaltung und Optimierung von GPU-Ressourcen, bietet Multi-Cluster-Fähigkeiten und passt sich flexibel an die Skalierungsanforderungen von Projekten an. Die Anwendungsplattform ist speziell für die KI-Entwicklung konzipiert und bietet anpassbare Umgebungen, die APIs, SDKs und Jupyter Notebooks unterstützen und das Trainieren, Inferieren und Anpassen von Modellen ermöglichen.
Das neue Rechenzentrum in Colorado ist ein wichtiger Schritt für die Expansion von GMI Cloud und bietet nordamerikanischen Kunden eine Infrastruktur mit geringer Latenz und hoher Verfügbarkeit, um den wachsenden Anforderungen gerecht zu werden. Dieses neue Zentrum wird die bestehenden Rechenzentren von GMI in Taiwan und anderen wichtigen Regionen ergänzen und eine schnelle Markteinführung ermöglichen.
GMI Cloud ist außerdem Mitglied des NVIDIA Partner Network und integriert die fortschrittlichsten GPUs von NVIDIA, wie die NVIDIA H100, um Kunden leistungsstarke Rechenleistung für die Verarbeitung komplexer KI- und Machine-Learning-Workloads zu bieten. Die NVIDIA H100 Tensor Core GPU ist mit ihrer herausragenden Leistung, Skalierbarkeit und Sicherheit speziell für KI-Anwendungen optimiert und beschleunigt die Verarbeitung großer Sprachmodelle, was sie ideal für rechenintensive Machine-Learning-Aufgaben wie konversationelle KI macht.
Wichtigste Punkte:
✨ GMI Cloud erhält 82 Millionen US-Dollar in der Series-A-Finanzierungsrunde und wird ein neues Rechenzentrum in Colorado bauen, um den nordamerikanischen Markt zu erweitern.
🚀 Das Unternehmen bietet eine integrierte KI-Infrastrukturplattform, die Unternehmen beim einfachen Erstellen und Implementieren von KI-Projekten unterstützt.
🤖 GMI Cloud arbeitet mit NVIDIA zusammen und nutzt fortschrittliche GPU-Technologie, um die Entwicklung von KI und Machine Learning voranzutreiben.