OpenAI legt nach! Mit dem kürzlich vorgestellten GPT-4o mini, dem angeblich „wirtschaftlichsten“ Kleinmodell, ist mehr als nur ein Modell-Upgrade gelungen – es ist der Beginn einer intelligenten Revolution. Lassen Sie uns gemeinsam die Geheimnisse von GPT-4o mini lüften und entdecken, wie es künstliche Intelligenz „bodenständiger“ macht.
Intelligenter und günstiger
OpenAIs Vision ist eine allgegenwärtige künstliche Intelligenz, und GPT-4o mini ist die jüngste Umsetzung dieser Vision. Das Modell überzeugt nicht nur durch deutlich reduzierte Kosten, sondern auch durch seine Leistung. Mit Kosten von nur 15 US-Cent pro Million Eingabe-Tokens und 60 US-Cent pro Million Ausgabe-Tokens ist es um eine Größenordnung günstiger als bisherige Top-Modelle und über 60 % günstiger als GPT-3.5 Turbo.
Die niedrigen Kosten und die geringe Latenz von GPT-4o mini ermöglichen den Einsatz für vielfältige Aufgaben, wie z. B. das sequentielle oder parallele Aufrufen mehrerer Modelle (z. B. das Aufrufen mehrerer APIs), das Übergeben großer Kontexte an das Modell (z. B. gesamte Codebasen oder Gesprächsverläufe) oder die Interaktion mit Kunden über schnelle Echtzeit-Textantworten (z. B. Chatbots für den Kundensupport).
Derzeit unterstützt GPT-4o mini Text- und visuelle APIs. Zukünftig sollen auch Text-, Bild-, Video- und Audioeingaben und -ausgaben unterstützt werden. Das Modell verfügt über ein Kontextfenster von 128.000 Tokens, unterstützt bis zu 16.000 Ausgabe-Tokens pro Anfrage und sein Wissensstand endet im Oktober 2023. Dank des gemeinsam mit GPT-4o verwendeten verbesserten Tokenizers ist die Verarbeitung nicht-englischer Texte nun wirtschaftlicher und effizienter.
Klein im Format, groß in der Leistung
GPT-4o mini übertrifft GPT-3.5 Turbo und andere Kleinmodelle in akademischen Benchmarks, sowohl in Bezug auf Textverständnis als auch auf multimodale Schlussfolgerungen. Es unterstützt die gleichen Sprachen wie GPT-4o und zeichnet sich durch hervorragende Funktionsaufrufe aus. Dies ermöglicht Entwicklern die Erstellung von Anwendungen, die Daten von externen Systemen abrufen oder Aktionen ausführen können. Im Vergleich zu GPT-3.5 Turbo wurde die Leistung bei langen Kontexten verbessert.
Die Leistung von GPT-4o mini in wichtigen Benchmark-Tests:
Schlussfolgerungsaufgaben: Bei Schlussfolgerungsaufgaben mit Text und Bildern erzielte GPT-4o mini 82,0 %, Gemini Flash 77,9 % und Claude Haiku 73,8 %.
Mathematische und Codierfähigkeiten: Auch bei mathematischen und Codieraufgaben schnitt GPT-4o mini hervorragend ab. Im MGSM-Test (mathematisches Denken) erreichte es 87,0 %, Gemini Flash 75,5 % und Claude Haiku 71,7 %. Im HumanEval-Test (Codierleistung) erreichte es 87,2 %, Gemini Flash 71,5 % und Claude Haiku 75,9 %.
Multimodales Schließen: Im MMMU-Test (Bewertung des multimodalen Schließens) erzielte GPT-4o mini 59,4 %, Gemini Flash 56,1 % und Claude Haiku 50,2 %.
Integrierte Sicherheitsmaßnahmen
Sicherheit steht bei der Entwicklung von OpenAI-Modellen im Mittelpunkt. In der Vorverarbeitungsphase filtert OpenAI unerwünschte Informationen, die das Modell nicht lernen oder ausgeben soll, wie z. B. Hassreden, Inhalte für Erwachsene, Websites mit hauptsächlich aggregierten persönlichen Daten und Spam.
Nach dem Training setzt OpenAI Techniken wie Reinforcement Learning from Human Feedback (RLHF) ein, um das Verhalten des Modells mit den Richtlinien von OpenAI in Einklang zu bringen und die Genauigkeit und Zuverlässigkeit der Modellantworten zu verbessern.
GPT-4o mini verfügt über die gleichen Sicherheitsmaßnahmen wie GPT-4o. OpenAI hat das Modell anhand des bestehenden Frameworks und freiwilliger Zusagen durch automatisierte und menschliche Bewertungen sorgfältig geprüft. Über 70 externe Experten aus Bereichen wie Sozialpsychologie und Fehlinformationen haben GPT-4o getestet, um potenzielle Risiken zu identifizieren. Diese wurden nun behoben, und OpenAI plant, detaillierte Informationen in den kommenden GPT-4o-Systemkarten und Bereitschaftsbewertungskarten zu veröffentlichen. Die Erkenntnisse dieser Expertenbewertungen haben zur Verbesserung der Sicherheit von GPT-4o und GPT-4o mini beigetragen.
Verfügbarkeit und Preisgestaltung
GPT-4o mini ist jetzt als Text- und Visualisierungsmodell in den APIs für Assistenten, Chat-Abschlüsse und Batch-Verarbeitung verfügbar. Entwickler zahlen 15 US-Cent pro 1 Million Eingabe-Tokens und 60 US-Cent pro 1 Million Ausgabe-Tokens (etwa 2500 Seiten eines Standardbuches). Wir planen, in den nächsten Tagen eine Feinabstimmungsfunktion für GPT-4o mini einzuführen.
In ChatGPT können kostenlose, Plus- und Team-Nutzer ab heute auf GPT-4o mini zugreifen, das GPT-3.5 ersetzt. Unternehmenskunden erhalten ab nächster Woche Zugriff, was OpenAIs Ziel entspricht, allen Menschen die Vorteile der KI zugänglich zu machen.
Zukunftsaussichten
Das OpenAI-Team erklärt: „In den letzten Jahren haben wir einen bemerkenswerten Fortschritt in der KI-Intelligenz bei gleichzeitig stark sinkenden Kosten beobachtet. So sind die Kosten pro Token für GPT-4o mini seit der Einführung des weniger leistungsfähigen text-davinci-003-Modells im Jahr 2022 um 99 % gesunken. Wir sind bestrebt, die Kosten weiter zu senken und gleichzeitig die Fähigkeiten des Modells zu verbessern.“
„Wir stellen uns eine Zukunft vor, in der Modelle nahtlos in jede Anwendung und jede Website integriert sind. GPT-4o mini ebnet Entwicklern den Weg, leistungsstarke KI-Anwendungen effizienter und kostengünstiger zu erstellen und zu skalieren. Die Zukunft der KI wird zugänglicher, zuverlässiger und in unsere täglichen digitalen Erlebnisse eingebettet sein, und wir freuen uns, diese Entwicklung weiterhin voranzutreiben.“