Kürzlich hat OpenAI nach neuen Cloud-Computing-Lösungen gesucht und scheint sich nicht mehr auf Microsoft zu verlassen.

Laut internen Informationen haben der CEO von OpenAI, Sam Altman, und der CFO, Sarah Friar, den Mitarbeitern diese Veränderung mitgeteilt, hauptsächlich aufgrund der kürzlich abgeschlossenen Finanzierungsrunde in Höhe von 6,6 Milliarden US-Dollar. Friar erklärte den Aktionären, dass Microsoft die benötigte Rechenleistung nicht schnell genug bereitstellen könne, was OpenAI dazu veranlasste, andere Rechenzentrumsoptionen zu erkunden – ein Recht, das ihnen laut Vertrag mit Microsoft zusteht.

OpenAI, Künstliche Intelligenz, KI

Altman befürchtet, dass OpenAI im Wettbewerb, insbesondere angesichts des Drucks durch Elon Musks xAI, ins Hintertreffen geraten könnte, wenn Microsoft die Server nicht schnell genug liefern kann. Musk plant, Ende des Jahres sein Grok3 auf den Markt zu bringen, das er als das leistungsstärkste KI-Modell bezeichnet. Gleichzeitig baut Musks xAI in Memphis eine umfangreiche Serverinfrastruktur auf.

Vor diesem Hintergrund vertieft OpenAI die Zusammenarbeit mit Oracle. Bereits im Juni schloss OpenAI eine erste Kooperation mit Oracle ab, an der Microsoft nur sehr begrenzt beteiligt war. Dennoch profitierte Microsoft Azure von dieser Vereinbarung, da OpenAI die Azure-Infrastruktur tatsächlich auf Oracles Servern betreibt.

Derzeit verhandelt OpenAI mit Oracle über die Anmietung eines gesamten Rechenzentrums in Abilene, Texas. Bis Mitte 2026 könnte die Leistung dieser Anlage fast 1 Gigawatt erreichen und Hunderttausende von Nvidia-KI-Chips aufnehmen, mit ausreichend Energieversorgung sogar auf 2 Gigawatt erweiterbar.

Microsoft hingegen will OpenAI bis Ende nächsten Jahres etwa 300.000 der neuesten Nvidia GB200-Grafikprozessoren zur Verfügung stellen, verteilt auf Rechenzentren in Wisconsin und Atlanta. Altman hofft auf eine Beschleunigung des Wisconsin-Projekts, das voraussichtlich im zweiten Halbjahr 2025 teilweise in Betrieb gehen wird.

Zusätzlich plant OpenAI, zukünftig mehr eigene KI-Chips einzusetzen, um den wachsenden Rechenbedarf zu decken und die Kosten zu senken. Zu diesem Zweck arbeitet das Unternehmen mit Broadcom und Marvell an der Entwicklung von ASIC-Chips (Application-Specific Integrated Circuits). Berichten zufolge hat OpenAI bereits Kapazitäten für den neuen A16-Angstrom-Prozess von TSMC reserviert, mit einer geplanten Serienproduktion ab der zweiten Hälfte des Jahres 2026.

Wichtigste Punkte:

- 🚀 OpenAI sucht nach neuen Cloud-Computing-Lösungen, da Microsoft die benötigte Rechenleistung nicht schnell genug liefern kann.

- 🏢 OpenAI intensiviert die Zusammenarbeit mit Oracle und plant die Anmietung eines großen Rechenzentrums in Texas.

- 💻 OpenAI wird vermehrt eigene KI-Chips einsetzen, um den wachsenden Rechenbedarf zu decken und die Kosten zu senken.