OpenAI hat kürzlich die detaillierte Darstellung des Inferenzprozesses seines neuesten Inferenzmodells o3-mini vorgestellt. Dieser Schritt wird als Reaktion auf den zunehmenden Druck durch den Konkurrenten DeepSeek-R1 gewertet. Diese Änderung markiert eine wichtige Wende in OpenAIs Strategie zur Modelltransparenz.

Zuvor hatte OpenAI „Chain of Thought“ (CoT) als Kernwettbewerbsvorteil betrachtet und es geheim gehalten. Mit der vollständigen Darstellung der Inferenzspuren durch offene Modelle wie DeepSeek-R1 wurde diese geschlossene Strategie jedoch zu einem Nachteil für OpenAI. Das neue o3-mini gibt zwar immer noch nicht alle ursprünglichen Token vollständig frei, bietet aber eine deutlichere Darstellung des Inferenzprozesses.

QQ20250208-093702.png

Auch in Bezug auf Leistung und Kosten holt OpenAI auf. Der Preis für o3-mini wurde auf 4,40 US-Dollar pro Million Ausgabe-Token gesenkt, deutlich weniger als die 60 US-Dollar des frühen o1-Modells und liegt nahe am Preis von 7-8 US-Dollar von DeepSeek-R1 bei US-Anbietern. Gleichzeitig übertrifft o3-mini seine Vorgängermodelle in mehreren Inferenz-Benchmark-Tests.

QQ20250208-093712.png

Praktische Tests zeigen, dass die detaillierte Darstellung des Inferenzprozesses von o3-mini die Praktikabilität des Modells tatsächlich verbessert. Bei der Verarbeitung unstrukturierter Daten können Benutzer die Inferenzlogik des Modells besser verstehen und so die Eingabeaufforderungen optimieren, um genauere Ergebnisse zu erzielen.

OpenAI-CEO Sam Altman gab kürzlich zu, in der Open-Source-Debatte „auf der falschen Seite der Geschichte gestanden“ zu haben. Angesichts der breiten Akzeptanz und Verbesserung von DeepSeek-R1 durch mehrere Institutionen ist eine Anpassung der Open-Source-Strategie von OpenAI in Zukunft zu erwarten.