Mit der zunehmenden Integration von künstlicher Intelligenz (KI) in Unternehmensprozesse und Produkte steigt auch die Nachfrage nach Machine-Learning-Operations-Plattformen (MLOps). Diese Plattformen vereinfachen die Erstellung, das Testen und die Bereitstellung von Machine-Learning-Modellen. Obwohl der Markt bereits mit Anbietern wie InfuseAI, Comet und großen Unternehmen wie Google Cloud, Azure und AWS gesättigt ist, will sich das südkoreanische Unternehmen VESSL AI durch die Optimierung von GPU-Kosten einen Platz sichern.
Bildquelle: Das Bild wurde mit Midjourney, einem KI-Bildgenerator, erstellt.
VESSL AI hat kürzlich eine Series-A-Finanzierungsrunde von 12 Millionen US-Dollar abgeschlossen, um den Ausbau seiner Infrastruktur zu beschleunigen. Das Unternehmen konzentriert sich auf Unternehmen, die kundenspezifische Large Language Models (LLMs) und vertikale KI-Agenten entwickeln möchten. VESSL AI zählt bereits 50 Unternehmen zu seinen Kunden, darunter namhafte Firmen wie Hyundai Motors, LIG Nex1 (ein südkoreanischer Luft- und Raumfahrt- sowie Rüstungshersteller) und TMAP Mobility (ein Joint Venture von Uber und SK Telecom). Darüber hinaus bestehen strategische Partnerschaften mit US-amerikanischen Unternehmen wie Oracle und Google Cloud.
Das Gründerteam von VESSL AI besteht aus Jaeman Kuss An (CEO), Jihwan Jay Chun (CTO), Intae Ryoo (CPO) und Yongseon Sean Lee (Leiter Technik). Vor der Gründung des Unternehmens waren sie bei Google, PUBG und anderen KI-Startups tätig. An bemerkte bei der Entwicklung von Machine-Learning-Modellen in seinem vorherigen Medtech-Unternehmen den hohen Aufwand und die hohen Ressourcenkosten. Daher entschieden sie sich für eine hybride Infrastruktur, um die Effizienz zu steigern und die Kosten zu senken.
Die MLOps-Plattform von VESSL AI verfolgt eine Multi-Cloud-Strategie und nutzt GPUs verschiedener Cloud-Anbieter, um die GPU-Kosten um bis zu 80 % zu reduzieren. Dies behebt nicht nur den GPU-Mangel, sondern optimiert auch das Training, die Bereitstellung und den Betrieb von KI-Modellen, insbesondere die Verwaltung großer Sprachmodelle. An erklärte, dass das System automatisch die kostengünstigsten und effizientesten Ressourcen auswählt und so Kosten für die Kunden spart.
Das VESSL-Produktportfolio umfasst vier Kernfunktionen: VESSL Run (automatisches Training von KI-Modellen), VESSL Serve (Unterstützung der Echtzeitbereitstellung), VESSL Pipelines (Integration von Modelltraining und Datenvorverarbeitung zur Vereinfachung des Workflows) und VESSL Cluster (Optimierung der GPU-Ressourcennutzung in Clusterumgebungen). Nach dieser Finanzierungsrunde beläuft sich die Gesamtfinanzierung von VESSL AI auf 16,8 Millionen US-Dollar. Das Unternehmen beschäftigt 35 Mitarbeiter in Südkorea und San Mateo, USA.
Wichtigste Punkte:
🌟 VESSL AI schließt Series-A-Finanzierungsrunde über 12 Millionen US-Dollar ab und konzentriert sich auf die Optimierung der GPU-Kosten für Unternehmen.
💼 Zählt derzeit 50 Unternehmenskunden, darunter namhafte Unternehmen wie Hyundai Motors und LIG Nex1.
🚀 Die Plattform senkt die GPU-Kosten durch eine Multi-Cloud-Strategie um bis zu 80 % und bietet zahlreiche Kernfunktionen.