Das Startup Pipeshift hat kürzlich eine neue End-to-End-Plattform vorgestellt, die Unternehmen dabei helfen soll, Open-Source-generative KI-Modelle effizienter zu trainieren, bereitzustellen und zu skalieren. Die Plattform läuft in jeder Cloud-Umgebung oder lokal auf GPUs und verbessert die Inferenzgeschwindigkeit erheblich bei gleichzeitig geringeren Kosten.

image.png

Mit der rasanten Entwicklung der KI-Technologie stehen viele Unternehmen vor der Herausforderung, effizient zwischen verschiedenen Modellen zu wechseln. Traditionell mussten Teams komplexe MLOps-Systeme aufbauen, die die Beschaffung von Rechenressourcen, das Modelltraining, das Feintuning und die produktionsreife Bereitstellung umfassten. Dies war nicht nur zeit- und ressourcenintensiv, sondern führte auch zu steigenden Infrastrukturkosten.

Arko Chattopadhyay, Mitbegründer und CEO von Pipeshift, betont, dass die Entwicklung einer flexiblen, modularen Inferenz-Engine oft Jahre an Erfahrung erfordert. Pipeshift zielt darauf ab, diesen Prozess mit seiner modularen Inferenz-Engine zu vereinfachen. Die Plattform verwendet ein Framework namens MAGIC (GPU Inference Cluster Modular Architecture), das es Teams ermöglicht, verschiedene Inferenzkomponenten flexibel nach den Anforderungen der jeweiligen Workloads zu kombinieren und so die Inferenzleistung zu optimieren, ohne aufwändige Programmierung zu benötigen.

Beispielsweise konnte ein Fortune-500-Einzelhandelsunternehmen nach der Verwendung der Pipeshift-Plattform vier Modelle, die zuvor vier separate GPU-Instanzen benötigten, auf eine einzige GPU-Instanz konsolidieren. Dadurch konnte das Unternehmen die Inferenzgeschwindigkeit verfünffachen und die Infrastrukturkosten um 60 % senken. Dies ermöglicht es Unternehmen, in einem schnelllebigen Markt wettbewerbsfähig zu bleiben.

Pipeshift hat bereits Jahreslizenzverträge mit 30 Unternehmen abgeschlossen und plant zukünftig die Einführung von Tools zur Erstellung und Skalierung von Datensätzen. Dies wird die Experimentier- und Datenvorbereitungsprozesse weiter beschleunigen und die Effizienz der Kunden steigern.

Offizielle Webseite: https://pipeshift.com/

Wichtigste Punkte:

🌟 Die modulare Inferenz-Engine von Pipeshift reduziert die GPU-Auslastung bei der KI-Inferenz deutlich und senkt die Kosten um bis zu 60 %.  

🚀 Mit dem MAGIC-Framework können Unternehmen Inferenzkomponenten schnell kombinieren, die Inferenzgeschwindigkeit erhöhen und den Entwicklungsaufwand reduzieren.  

🤝 Pipeshift arbeitet bereits mit mehreren Unternehmen zusammen und wird in Zukunft weitere Tools anbieten, um Unternehmen bei der effizienteren Verwaltung ihrer KI-Workloads zu unterstützen.