Das KI-Forschungsunternehmen OpenAI hat kürzlich die Einführung eines neuen „Inferenz“-KI-Modells namens o1-pro in seiner Entwickler-API angekündigt. Laut OpenAI wurde für o1-pro im Vergleich zu seinem bestehenden Modell o1 mehr Rechenleistung eingesetzt, um „konsistent bessere Antworten“ zu liefern.
Dieses leistungsstarke Modell steht jedoch derzeit nur einem ausgewählten Kreis von Entwicklern zur Verfügung – genauer gesagt, solchen, die mindestens 5 US-Dollar für OpenAI-API-Dienste ausgegeben haben. Besonders bemerkenswert ist der hohe Preis von o1-pro.
OpenAI berechnet für den eingegebenen Text (berechnet nach Tokens, ca. 750.000 Wörter entsprechen 1 Million Tokens) 150 US-Dollar pro Million Tokens, während der vom Modell generierte Text 600 US-Dollar pro Million Tokens kostet. Dieser Preis ist doppelt so hoch wie der Eingangs-Preis von OpenAIs anderem fortschrittlichen Modell GPT-4.5 und das Zehnfache des Generierungspreises des Standardmodells o1.
Trotz des hohen Preises setzt OpenAI große Hoffnungen auf die Leistung von o1-pro und ist überzeugt, dass seine überragende Leistung Entwickler überzeugen wird, dafür zu bezahlen. Ein OpenAI-Sprecher erklärte gegenüber dem Technologiemedium TechCrunch: „o1-pro in der API ist eine Version von o1, die mehr Rechenleistung für tiefere Überlegungen verwendet, um bessere Antworten auf die schwierigsten Fragen zu liefern. Nach zahlreichen Anfragen unserer Entwickler-Community freuen wir uns, es in die API aufzunehmen, um zuverlässigere Antworten zu liefern.“
Es ist erwähnenswert, dass o1-pro bereits im Dezember letzten Jahres auf OpenAIs KI-Chatbot-Plattform ChatGPT für ChatGPT Pro-Abonnenten verfügbar war. Die ersten Nutzerreaktionen auf o1-pro waren jedoch gemischt. Einige Nutzer berichteten, dass das Modell bei der Lösung von Sudoku-Rätseln schlecht abschnitt und sogar von einfachen optischen Täuschungen überlistet werden konnte.
Darüber hinaus zeigten einige interne Benchmarks von OpenAI Ende letzten Jahres, dass o1-pro bei Codierungs- und Mathematikproblemen nur geringfügig besser abschnitt als die Standardversion o1. Diese Benchmarks ergaben jedoch auch, dass o1-pro bei der Beantwortung dieser Fragen zuverlässiger war. OpenAI versucht, durch den Einsatz höherer Rechenkosten die Leistung und Zuverlässigkeit von KI-Modellen bei komplexen Aufgaben zu verbessern, obwohl sich dies direkt in der hohen Preisgestaltung widerspiegelt. Ob Entwickler bereit sind, einen so hohen Preis für diese Leistungsverbesserung zu zahlen, wird sich erst noch zeigen.
Wichtigste Punkte:
- 🚀 OpenAI hat das leistungsstärkere KI-Modell o1-pro veröffentlicht, das eine bessere Inferenzleistung bieten soll.
- 💰 o1-pro ist extrem teuer: Der Eingangspreis ist doppelt so hoch wie bei GPT-4.5, der Ausgangspreis das Zehnfache des Standardmodells o1.
- 🤔 Erste Nutzerfeedbacks und interne Tests zeigen, dass o1-pro in einigen Bereichen nicht perfekt ist, aber bei Codierungs- und Mathematikproblemen zuverlässiger ist.