Em um recente lançamento, a Data Direct Networks (DDN) anunciou seu mais recente sistema de armazenamento de objetos Infinia 2.0, projetado especificamente para treinamento e inferência de inteligência artificial (IA). O sistema afirma alcançar até 100 vezes mais velocidade no processamento de dados de IA e 10 vezes mais eficiência de custo em data centers em nuvem, atraindo a atenção de diversos setores.
Alex Bouzari, CEO e cofundador da DDN, declarou: "85 das empresas da lista Fortune Global 500 utilizam a plataforma de inteligência de dados da DDN para executar seus aplicativos de IA e computação de alto desempenho (HPC). O Infinia ajudará os clientes a alcançar um treinamento de modelos mais rápido e insights em tempo real em análise de dados e frameworks de IA, ao mesmo tempo em que garante a adaptabilidade futura da eficiência de GPU e consumo de energia."
Observação da fonte: Imagem gerada por IA, provedor de serviços de licenciamento de imagens Midjourney
Paul Bloch, cofundador e presidente da DDN, acrescentou: "Nossa plataforma já está em uso em algumas das maiores fábricas de IA e ambientes de nuvem do mundo, comprovando sua capacidade de suportar operações de IA críticas." Sabe-se que a xAI de Elon Musk também é cliente da DDN.
No design do Infinia 2.0, o armazenamento de dados de IA é fundamental. Sven Oehme, diretor de tecnologia, enfatizou: "As cargas de trabalho de IA exigem inteligência de dados em tempo real, eliminando gargalos, acelerando os fluxos de trabalho e permitindo expansão perfeita em modelos complexos de listagem, pré e pós-treinamento, recuperação aumentada de geração (RAG), IA agentiva e ambientes multimodais." O Infinia 2.0 visa maximizar o valor da IA, fornecendo simultaneamente serviços de dados em tempo real, gerenciamento multilocatário eficiente, automação inteligente e uma arquitetura robusta nativa de IA.
O sistema possui recursos como movimentação de dados acionada por eventos, multilocatário, design independente de hardware, garantindo 99,999% de tempo de atividade e alcançando até 10 vezes mais redução de dados online, codificação de exclusão de rede tolerante a falhas e qualidade de serviço (QoS) automatizada. O Infinia 2.0 se integra ao Nvidia Nemo, microsserviços NIMS, GPUs, Bluefield 3DPU e rede Spectrum-X para acelerar a eficiência do pipeline de dados de IA.
A DDN afirma que a largura de banda do Infinia pode atingir TBps, com latência inferior a milissegundos, desempenho muito superior ao AWS S3 Express. Outros parâmetros notáveis incluem, com base em testes de referência independentes, uma melhoria de 100 vezes no processamento de dados de IA, velocidade de processamento de cargas de trabalho de IA, processamento de metadados e processamento de listas de objetos, e 25 vezes mais velocidade no treinamento de modelos de IA e consultas de inferência.
O sistema Infinia suporta escalabilidade de TB a EB, podendo suportar mais de 100.000 GPUs e 1 milhão de clientes simultâneos, fornecendo uma base sólida para inovação em IA em larga escala. A DDN destaca que seu sistema apresenta desempenho excepcional em implantações reais de data centers e nuvens, alcançando eficiência e economia de custos incomparáveis em faixas de 10 a mais de 100.000 GPUs.
Charles Liang, CEO da Supermicro, afirmou: "Ao combinar a plataforma de inteligência de dados Infinia 2.0 da DDN com as soluções de servidores de ponta da Supermicro, as duas empresas colaboraram na construção de um dos maiores data centers de IA do mundo." Essa parceria pode estar relacionada à expansão do data center Colossus da xAI.