Na indústria de IA, a Together AI recentemente anunciou o fechamento de uma rodada de financiamento Série B de US$ 305 milhões, notícia que gerou grande atenção. A ascensão da empresa está intimamente relacionada ao seu novo modelo de raciocínio profundo, o DeepSeek-R1. Contrariamente aos temores iniciais, muitos especialistas do setor acreditam que o avanço no raciocínio profundo não diminuiu, mas sim aumentou a demanda por infraestrutura.

Chip GPU (2)

Observação da fonte: Imagem gerada por IA, fornecida pela Midjourney.

Desde sua fundação em 2023, a Together AI tem como objetivo simplificar o uso de modelos de linguagem grandes (LLMs) de código aberto pelas empresas. Com o tempo, a empresa expandiu gradualmente sua plataforma, oferecendo uma solução chamada "Plataforma Together", que suporta a implantação de IA em nuvens privadas virtuais e ambientes locais. Em 2025, a Together AI lançou ainda clusters de inferência e capacidades de IA Agentic, aprimorando ainda mais os recursos de sua plataforma.

Segundo o CEO da Together AI, Vipul Prakash, o DeepSeek-R1 possui 671 bilhões de parâmetros, o que torna o custo de sua execução de inferência considerável. Para atender à crescente demanda dos usuários, a Together AI lançou o serviço "Clusters de Inferência", oferecendo aos clientes capacidade de computação dedicada de 128 a 2000 chips para garantir o melhor desempenho do modelo. Além disso, o tempo de processamento de solicitações do DeepSeek-R1 costuma ser longo, com média de dois a três minutos, o que também contribui para o aumento da demanda por infraestrutura.

Em relação à aplicação de modelos de inferência, a Together AI observou alguns cenários de uso específicos, como agentes de codificação, redução de alucinações do modelo e autoaperfeiçoamento do modelo por meio de aprendizado por reforço. Esses aplicativos não apenas melhoram a eficiência do trabalho, mas também a precisão da saída do modelo.

Além disso, a Together AI adquiriu a CodeSandbox para fortalecer suas capacidades em fluxos de trabalho de IA autônoma. Essa aquisição permite a execução rápida de código na nuvem, reduzindo a latência e melhorando o desempenho do fluxo de trabalho do agente.

Diante da intensa concorrência de mercado, a plataforma de infraestrutura da Together AI está em constante otimização. A implantação de chips Nvidia Blackwell de nova geração proporcionará maior desempenho e menor latência para treinamento e inferência de modelos. Prakash destaca que, em comparação com outras plataformas como o Azure, a velocidade de inferência da Together AI é significativamente maior, atendendo plenamente à demanda dos clientes por infraestrutura de IA de alto desempenho.

Destaques:

🌟 A Together AI recebeu US$ 305 milhões em financiamento, impulsionando o desenvolvimento de modelos de raciocínio profundo.

📈 A complexidade do DeepSeek-R1 aumentou significativamente a demanda por infraestrutura, levando ao lançamento do serviço "Clusters de Inferência" para atender às necessidades do mercado.

🚀 A recém-adquirida CodeSandbox e os chips Nvidia Blackwell aumentarão ainda mais a competitividade da Together AI no mercado.