In der AI-Branche hat Together AI kürzlich eine Finanzierungsrunde der Serie B in Höhe von 305 Millionen US-Dollar abgeschlossen, eine Nachricht, die große Aufmerksamkeit erregt hat. Der Aufstieg des Unternehmens ist eng mit seinem neu eingeführten Deep-Reasoning-Modell DeepSeek-R1 verbunden. Entgegen anfänglicher Befürchtungen sind viele Branchenexperten der Ansicht, dass der Fortschritt im Bereich des Deep Reasoning den Bedarf an Infrastruktur nicht verringert, sondern ihn sogar stetig erhöht.

GPU-Chip (2)

Bildquelle: Das Bild wurde mit KI generiert, Bildrechte liegen bei Midjourney.

Seit seiner Gründung im Jahr 2023 hat sich Together AI zum Ziel gesetzt, Unternehmen die Nutzung von Open-Source-Large-Language-Models (LLMs) zu vereinfachen. Im Laufe der Zeit hat das Unternehmen seine Plattform erweitert und eine Lösung namens „Together-Plattform“ bereitgestellt, die die Bereitstellung von KI in virtuellen privaten Clouds und lokalen Umgebungen unterstützt. Im Jahr 2025 erweiterte Together AI seine Plattform um Inferenzcluster und Agentic-AI-Funktionen.

Laut Together AI CEO Vipul Prakash verfügt DeepSeek-R1 über eine Parameteranzahl von 671 Milliarden, was die Kosten für den Inferenzbetrieb erheblich erhöht. Um den steigenden Anforderungen der Nutzer gerecht zu werden, hat Together AI den Dienst „Inferenzcluster“ eingeführt, der Kunden dedizierte Rechenleistung von 128 bis 2000 Chips zur Verfügung stellt, um die optimale Leistung des Modells zu gewährleisten. Darüber hinaus ist die Anfragebearbeitungszeit von DeepSeek-R1 in der Regel recht lang und beträgt durchschnittlich zwei bis drei Minuten, was ebenfalls zu einem erhöhten Bedarf an Infrastruktur führt.

Bei der Anwendung von Inferenzmodellen sieht Together AI einige konkrete Anwendungsfälle, wie z. B. Codierungsagenten, die Reduzierung von Halluzinationen des Modells und die Selbstverbesserung des Modells durch Reinforcement Learning. Diese Anwendungen steigern nicht nur die Arbeitseffizienz, sondern verbessern auch die Genauigkeit der Modell-Ausgabe.

Darüber hinaus hat Together AI CodeSandbox übernommen, um seine Fähigkeiten im Bereich der autonomen intelligenten Arbeitsabläufe zu stärken. Durch diese Akquisition kann Code in der Cloud schnell ausgeführt werden, was die Latenz reduziert und die Leistung von Agenten-Workflows verbessert.

Angesichts des starken Wettbewerbs auf dem Markt wird die Infrastrukturplattform von Together AI ständig optimiert. Der Einsatz der neuen Nvidia Blackwell-Chips der nächsten Generation wird eine höhere Leistung und geringere Latenzzeiten für das Training und die Inferenz von Modellen ermöglichen. Prakash weist darauf hin, dass die Inferenzgeschwindigkeit von Together AI im Vergleich zu anderen Plattformen wie Azure deutlich verbessert wurde und die Anforderungen der Kunden an eine Hochleistungs-KI-Infrastruktur optimal erfüllt.

Wichtigste Punkte:

🌟 Together AI erhält 305 Millionen US-Dollar an Finanzmitteln und fördert die Entwicklung von Deep-Reasoning-Modellen.

📈 Die Komplexität von DeepSeek-R1 führt zu einem deutlich erhöhten Bedarf an Infrastruktur. Der Dienst „Inferenzcluster“ wurde eingeführt, um die Marktnachfrage zu decken.

🚀 Die neu erworbene CodeSandbox und die Nvidia Blackwell-Chips werden die Wettbewerbsfähigkeit von Together AI weiter stärken.