Am 15. April gab OpenAI auf seinem offiziellen Blog die offizielle Veröffentlichung der GPT-4.1-Modellreihe bekannt, die die drei Untermodelle GPT-4.1, GPT-4.1mini und GPT-4.1nano umfasst. Diese Reihe erzielt in Bezug auf Programmierfähigkeit, Befehlsverständnis und die Verarbeitung langer Texte erhebliche Fortschritte und übertrifft die Vorgänger GPT-4o und GPT-4o mini deutlich. Das Kontextfenster der Modelle wurde auf 1 Million Tokens erweitert, und die Wissensdatenbank wurde auf Juni 2024 aktualisiert, um komplexere Aufgaben besser zu unterstützen.

Die GPT-4.1-Reihe ist derzeit nur für Entwickler über eine API-Schnittstelle zugänglich. Normale Benutzer können die Modelle noch nicht direkt über die ChatGPT-Oberfläche nutzen. OpenAI gab bekannt, dass GPT-4.1 im Programmierbereich eine um 40 % schnellere Codegenerierung als GPT-4o aufweist, während sich die Benutzerabfragekosten um 80 % reduzierten, was die Entwicklungseffizienz und -kosten deutlich verbessert.

OpenAI veröffentlicht die neue GPT-4.1-Modellreihe! Deutlich besser als GPT-4o: intelligenter und günstiger

OpenAI veröffentlicht die neue GPT-4.1-Modellreihe! Deutlich besser als GPT-4o: intelligenter und günstiger

Leistungsmerkmale: Rekorde bei mehreren Benchmark-Tests

  • Programmierfähigkeit: Beim SWE-bench Verified-Test erreichte GPT-4.1 einen Wert von 54,6 %, ein Plus von 21,4 Prozentpunkten gegenüber GPT-4o;
  • Befehlsumsetzung: Beim MultiChallenge-Test eine Verbesserung um 10,5 Prozentpunkte;
  • Multimodale Verarbeitung: Beim Video-MME-Test wurde ein neuer Höchstwert von 72,0 % erreicht.

GPT-4.1mini erreichte in mehreren Tests ähnliche oder sogar bessere Ergebnisse als GPT-4o, mit einer um fast 50 % geringeren Latenz und 83 % niedrigeren Kosten. GPT-4.1nano als leichtgewichtige Version bietet mit einem Kontextfenster von 1 Million Tokens und einem MMLU-Score von 80,1 % ein ausgezeichnetes Preis-Leistungs-Verhältnis für Klassifizierungs- und Autovervollständigungsaufgaben. Durch Optimierungen des Inferenz-Stacks und die Technik des Prompt-Caching wurde die Erstantwortzeit der Modellreihe deutlich verkürzt, was Entwicklern effiziente und kostengünstige Lösungen bietet.

Signifikante Erfolge in der praktischen Anwendung

  • Programmier-Effizienz: Der Windsurf-Test zeigt eine um 30 % höhere Programmier-Effizienz bei GPT-4.1 und eine um 50 % geringere Anzahl unnötiger Bearbeitungen;
  • Rechtswesen: Der juristische KI-Assistent CoCounsel von Thomson Reuters erzielte nach der Integration von GPT-4.1 eine um 17 % höhere Genauigkeit bei der Überprüfung mehrerer Dokumente.

Die Eingabekosten für GPT-4.1 betragen 2 US-Dollar (ca. 14,6 RMB) pro 1 Million Tokens, die Ausgabekosten 8 US-Dollar (ca. 58,3 RMB). Bei mittelgroßen Abfragen bietet GPT-4.1 im Vergleich zu GPT-4o eine höhere Leistung bei gleichzeitig 26 % niedrigeren Kosten. GPT-4.1nano ist aufgrund seiner extrem niedrigen Latenz und Kosten derzeit die wirtschaftlichste Modelloption von OpenAI.