En la industria de la IA, Together AI anunció recientemente el cierre de una ronda de financiación Serie B de 305 millones de dólares, una noticia que ha generado un gran interés. El auge de la compañía está estrechamente relacionado con el lanzamiento de su nuevo modelo de razonamiento profundo, DeepSeek-R1. Contrariamente a las preocupaciones iniciales, muchos expertos del sector opinan que los avances en el razonamiento profundo no han disminuido la demanda de infraestructura, sino que la han incrementado.
Nota de la fuente de la imagen: Imagen generada por IA, proveedor de servicios de licencias de imágenes Midjourney
Desde su fundación en 2023, Together AI se ha centrado en simplificar el uso de modelos lingüísticos grandes (LLM) de código abierto para las empresas. Con el tiempo, la compañía ha ampliado gradualmente su plataforma, ofreciendo una solución denominada "Plataforma Together", que permite la implementación de IA en nubes privadas virtuales y entornos locales. En 2025, Together AI lanzó además clústeres de inferencia y capacidades de IA agentiva, mejorando aún más las funciones de su plataforma.
Según Vipul Prakash, CEO de Together AI, DeepSeek-R1 tiene una cantidad de parámetros de hasta 671 mil millones, lo que hace que el coste de su ejecución de inferencia sea considerable. Para satisfacer las crecientes necesidades de los usuarios, Together AI ha lanzado el servicio de "clústeres de inferencia", que ofrece a los clientes capacidad de computación dedicada de entre 128 y 2000 chips para garantizar el rendimiento óptimo del modelo. Además, el tiempo de procesamiento de las solicitudes de DeepSeek-R1 suele ser largo, con una media de dos a tres minutos, lo que también ha provocado un aumento de la demanda de infraestructura.
En cuanto a las aplicaciones del modelo de inferencia, Together AI ha observado algunos casos de uso concretos, como agentes de codificación, la reducción de las alucinaciones del modelo y la mejora del modelo mediante el aprendizaje por refuerzo. Estas aplicaciones no solo han mejorado la eficiencia del trabajo, sino que también han aumentado la precisión de los resultados del modelo.
Además, Together AI ha adquirido CodeSandbox para mejorar sus capacidades en flujos de trabajo de IA agentiva. Esta adquisición le permite ejecutar código rápidamente en la nube, reduciendo la latencia y mejorando el rendimiento de los flujos de trabajo de los agentes.
Ante la intensa competencia del mercado, la plataforma de infraestructura de Together AI se está optimizando continuamente. La implementación de la nueva generación de chips Nvidia Blackwell proporcionará un mayor rendimiento y una menor latencia para el entrenamiento y la inferencia de modelos. Prakash señala que, en comparación con otras plataformas como Azure, la velocidad de inferencia de Together AI ha mejorado significativamente, satisfaciendo en gran medida las necesidades de los clientes de una infraestructura de IA de alto rendimiento.
Puntos clave:
🌟 Together AI obtiene 305 millones de dólares en financiación, impulsando el desarrollo de modelos de razonamiento profundo.
📈 La complejidad de DeepSeek-R1 aumenta significativamente la demanda de infraestructura, lo que lleva al lanzamiento del servicio de "clústeres de inferencia" para satisfacer las necesidades del mercado.
🚀 La nueva adquisición de CodeSandbox y los chips Nvidia Blackwell mejorarán aún más la competitividad de Together AI en el mercado.