Dans le secteur de l'IA, Together AI a récemment annoncé une levée de fonds de série B de 305 millions de dollars, une nouvelle qui a suscité un vif intérêt. L'essor de la société est étroitement lié à son nouveau modèle d'inférence profonde, DeepSeek-R1. Contrairement aux craintes initiales, de nombreux experts du secteur estiment que les progrès de l'inférence profonde n'ont pas diminué, mais au contraire augmenté la demande d'infrastructures.
Source : Image générée par IA, fournisseur de services d'autorisation d'images Midjourney
Créée en 2023, Together AI vise à simplifier l'utilisation des grands modèles linguistiques (LLM) open source pour les entreprises. Au fil du temps, la société a progressivement étendu sa plateforme, proposant une solution appelée « plateforme Together » qui prend en charge le déploiement de l'IA sur des clouds privés virtuels et en environnement local. En 2025, Together AI a lancé des clusters d'inférence et des capacités d'IA agentive, renforçant ainsi les fonctionnalités de sa plateforme.
Selon Vipul Prakash, PDG de Together AI, DeepSeek-R1 possède un nombre de paramètres impressionnant de 671 milliards, ce qui rend son coût d'exécution d'inférence considérable. Pour répondre à la demande croissante des utilisateurs, Together AI a lancé le service « clusters d'inférence », offrant aux clients une puissance de calcul dédiée allant de 128 à 2000 puces pour garantir des performances optimales du modèle. De plus, le temps de traitement des requêtes de DeepSeek-R1 est généralement long, atteignant en moyenne deux à trois minutes, ce qui contribue également à l'augmentation des besoins en infrastructure.
En ce qui concerne les applications du modèle d'inférence, Together AI a identifié des cas d'utilisation concrets, tels que les agents de codage, la réduction des hallucinations du modèle et l'amélioration du modèle par apprentissage par renforcement. Ces applications améliorent non seulement l'efficacité du travail, mais aussi la précision des résultats du modèle.
En outre, Together AI a acquis CodeSandbox pour renforcer ses capacités en matière de workflows d'IA agentive. Cette acquisition permet l'exécution rapide de code dans le cloud, réduisant la latence et améliorant les performances des workflows des agents.
Face à une concurrence acharnée, la plateforme d'infrastructure de Together AI est en constante optimisation. Le déploiement de la nouvelle génération de puces Nvidia Blackwell offrira des performances et une latence améliorées pour l'entraînement et l'inférence des modèles. Prakash souligne que la vitesse d'inférence de Together AI est significativement supérieure à celle d'autres plateformes comme Azure, répondant ainsi parfaitement aux besoins des clients en matière d'infrastructure IA hautes performances.
Points clés :
🌟 Together AI a levé 305 millions de dollars, stimulant le développement des modèles d'inférence profonde.
📈 La complexité de DeepSeek-R1 a entraîné une augmentation significative des besoins en infrastructure, conduisant au lancement du service « clusters d'inférence » pour répondre à la demande du marché.
🚀 La nouvelle acquisition de CodeSandbox et les puces Nvidia Blackwell renforceront davantage la compétitivité de Together AI sur le marché.