En un reciente lanzamiento, DataDirect Networks (DDN) anunció su último sistema de almacenamiento de objetos Infinia 2.0, diseñado específicamente para el entrenamiento y la inferencia de inteligencia artificial (IA). El sistema afirma lograr una aceleración de datos de IA hasta 100 veces mayor y una mejora de la eficiencia de costos en centros de datos en la nube hasta 10 veces superior, atrayendo la atención de diversas industrias.
Alex Bouzari, CEO y cofundador de DDN, declaró: "85 de las empresas del Global 500 utilizan la plataforma de inteligencia de datos de DDN para ejecutar sus aplicaciones de IA y computación de alto rendimiento (HPC). Infinia ayudará a los clientes a lograr un entrenamiento de modelos más rápido y una comprensión en tiempo real en el análisis de datos y los frameworks de IA, al tiempo que garantiza la eficiencia de la GPU y la adaptabilidad futura del consumo de energía."
Nota de la fuente: Imagen generada por IA, proveedor de servicios de licencias Midjourney
Paul Bloch, cofundador y presidente de DDN, añadió: "Nuestra plataforma ya se ha implementado en algunas de las fábricas de IA y entornos en la nube más grandes del mundo, demostrando su capacidad para soportar operaciones de IA críticas". Se sabe que xAI de Elon Musk también es cliente de DDN.
En el diseño de Infinia 2.0, el almacenamiento de datos de IA es fundamental. Sven Oehme, director de tecnología, enfatizó: "Las cargas de trabajo de IA requieren inteligencia de datos en tiempo real, eliminando cuellos de botella, acelerando los flujos de trabajo y escalando sin problemas en entornos complejos de enumeración de modelos, preentrenamiento y postentrenamiento, recuperación aumentada de generación (RAG), IA agentiva y multimodales". Infinia 2.0 tiene como objetivo maximizar el valor de la IA, ofreciendo al mismo tiempo servicios de datos en tiempo real, administración multiinquilino eficiente, automatización inteligente y una arquitectura nativa de IA robusta.
El sistema cuenta con características como el movimiento de datos impulsado por eventos, multiinquilino, diseño independiente del hardware, garantizando un tiempo de actividad del 99.999% y logrando una reducción de datos siempre activa de hasta 10 veces superior, codificación de borrado de red tolerante a fallos y calidad de servicio (QoS) automatizada. Infinia 2.0 se combina con Nemo de Nvidia, microservicios NIMS, GPU, Bluefield 3 DPU y red Spectrum-X para acelerar la eficiencia del pipeline de datos de IA.
DDN afirma que Infinia puede alcanzar un ancho de banda de TBps, con una latencia inferior al milisegundo, un rendimiento muy superior al de AWS S3 Express. Otros parámetros notables incluyen, según pruebas de referencia independientes, una mejora de 100 veces en la aceleración de datos de IA, la velocidad de procesamiento de cargas de trabajo de IA, el procesamiento de metadatos y el procesamiento de listas de objetos, y una velocidad 25 veces más rápida en el entrenamiento de modelos de IA y las consultas de inferencia.
El sistema Infinia admite la ampliación de escala desde TB hasta EB, pudiendo soportar más de 100.000 GPU y 1 millón de clientes simultáneos, proporcionando una base sólida para la innovación en IA a gran escala. DDN destaca que su sistema ofrece un rendimiento excepcional en implementaciones reales de centros de datos y en la nube, logrando una eficiencia y un ahorro de costes incomparables en rangos que van desde 10 hasta más de 100.000 GPU.
Charles Liang, CEO de Supermicro, afirmó: "Al combinar la plataforma de inteligencia de datos Infinia 2.0 de DDN con las soluciones de servidores de gama alta de Supermicro, ambas compañías han colaborado en la construcción de uno de los mayores centros de datos de IA del mundo". Esta colaboración podría estar relacionada con la expansión del centro de datos Colossus de xAI.