Auf einer kürzlich abgehaltenen Pressekonferenz gab DataDirect Networks (DDN) sein neuestes Infinia2.0-Objektspeichersystem bekannt, das speziell für das Training und die Inferenz von künstlicher Intelligenz (KI) entwickelt wurde. Das System soll eine bis zu 100-fache Beschleunigung von KI-Daten und eine 10-fache Steigerung der Kosteneffizienz von Cloud-Rechenzentren ermöglichen und hat die Aufmerksamkeit vieler Branchen auf sich gezogen.
Alex Bouzari, CEO und Mitbegründer von DDN, erklärte: „85 der Global 500 Unternehmen nutzen die Datenintelligenzplattform von DDN für den Betrieb ihrer KI- und Hochleistungsrechneranwendungen (HPC). Infinia wird Kunden helfen, schnellere Modelltrainings und Echtzeit-Einblicke in der Datenanalyse und KI-Frameworks zu erzielen und gleichzeitig die zukünftige Anpassungsfähigkeit der GPU-Effizienz und des Energieverbrauchs zu gewährleisten.“
Bildquelle: Das Bild wurde mit KI generiert, Bildrechte liegen bei Midjourney.
Paul Bloch, Mitbegründer und Präsident von DDN, fügte hinzu: „Unsere Plattform ist bereits in einigen der größten KI-Fabriken und Cloud-Umgebungen weltweit im Einsatz und hat ihre Fähigkeit zur Unterstützung kritischer KI-Operationen bewiesen.“ Bekanntlich ist auch Elon Musks xAI ein Kunde von DDN.
Bei der Entwicklung von Infinia2.0 steht die KI-Datenspeicherung im Mittelpunkt. Sven Oehme, Chief Technology Officer, betonte: „KI-Workloads benötigen Echtzeit-Datenintelligenz, um Engpässe zu beseitigen, Workflows zu beschleunigen und in komplexen Modellzählungen, Pre- und Post-Training, Augmented Generation (RAG), Agentic AI und multi-modalen Umgebungen nahtlos zu skalieren.“ Infinia2.0 zielt darauf ab, den Wert von KI zu maximieren und gleichzeitig Echtzeit-Datendienste, effizientes Multi-Tenant-Management, intelligente Automatisierung und eine robuste KI-native Architektur bereitzustellen.
Das System verfügt über Funktionen wie ereignisgesteuerte Datenverschiebung, Multi-Tenant-Fähigkeiten und ein hardwareunabhängiges Design. Es garantiert eine Betriebszeit von 99,999 % und erreicht eine bis zu 10-fache Reduzierung von immer aktiven Daten, fehlertolerante Netzwerk-Erasure-Codierung und automatisierte Servicequalität (QoS). Infinia2.0 wird mit Nvidias Nemo, NIMS-Microservices, GPUs, Bluefield-3D-PU und Spectrum-X-Netzwerken kombiniert, um die Effizienz der KI-Datenpipeline zu beschleunigen.
DDN behauptet, dass Infinia eine Bandbreite von TBps und eine Latenz von unter einer Millisekunde erreicht, was die Leistung von AWS S3 Express bei weitem übertrifft. Weitere bemerkenswerte Parameter sind, basierend auf unabhängigen Benchmark-Tests, eine 100-fache Verbesserung bei der KI-Datenbeschleunigung, der Verarbeitungsgeschwindigkeit von KI-Workloads, der Metadatenverarbeitung und der Objektlistenverarbeitung sowie eine 25-fache Beschleunigung bei der KI-Modellschulung und der Inferenzabfragegeschwindigkeit.
Das Infinia-System unterstützt die Skalierung von TB bis EB und kann über 100.000 GPUs und 1 Million gleichzeitige Clients unterstützen, was eine solide Grundlage für KI-Innovationen in großem Maßstab bietet. DDN betont, dass sein System in realen Rechenzentren und Cloud-Implementierungen hervorragende Leistungen erbringt und im Bereich von 10 bis über 100.000 GPUs eine unvergleichliche Effizienz und Kosteneinsparung erzielt.
Charles Liang, CEO von Supermicro, sagte: „Durch die Kombination der Datenintelligenzplattform Infinia2.0 von DDN mit den High-End-Serverlösungen von Supermicro haben die beiden Unternehmen gemeinsam eines der größten KI-Rechenzentren der Welt aufgebaut.“ Diese Partnerschaft könnte mit der Erweiterung des Colossus-Rechenzentrums von xAI zusammenhängen.