OpenAI hat ein neues experimentelles Modell veröffentlicht: gpt-4o-64k-output-alpha. Das herausragende Merkmal dieses neuen Modells ist die Möglichkeit, 64.000 Tokens in einem einzigen Durchgang auszugeben. Dies bedeutet, dass es in einer einzigen Anfrage wesentlich umfangreichere und detailliertere Inhalte generieren kann. Der API-Preis ist jedoch höher.
Alpha-Teilnehmer können auf die GPT-4o-Langausgabefunktion über den Modellnamen „gpt-4o-64k-output-alpha“ zugreifen. Dieses Modell erfüllt nicht nur den Bedarf an längeren Texten, sondern bietet auch umfassendere und detailliertere Unterstützung für verschiedene Anwendungen, vom Schreiben und Programmieren bis hin zur komplexen Datenanalyse.
Die Verwendung des Modells mit längerer Ausgabe führt zu höheren Kosten. OpenAI hat klargestellt, dass die Generierung langer Texte höhere Kosten verursacht. Daher beträgt der Preis für eine Million ausgegebener Tokens 18 US-Dollar. Im Vergleich dazu kostet die Eingabe von einer Million Tokens 6 US-Dollar. Diese Preisstrategie soll den höheren Rechenkosten entsprechen und gleichzeitig Benutzer dazu anregen, dieses leistungsstarke Tool verantwortungsbewusst einzusetzen.
Wichtigste Punkte:
📈 Das von OpenAI veröffentlichte GPT-4o-Modell unterstützt eine maximale Ausgabe von 64.000 Tokens und eignet sich für Benutzer, die detaillierte Inhalte benötigen.
💰 Die Generierung langer Texte ist teurer; pro Million ausgegebener Tokens werden 18 US-Dollar berechnet.
📝 Dieses Modell soll neue Möglichkeiten in den Bereichen Kreativität, Forschung usw. eröffnen und eine tiefere Kommunikation und Kreativität fördern.