Kürzlich veröffentlichte OpenAI die Systemkarte für sein neuestes GPT-4o-System. Dies ist ein detailliertes Forschungsdokument, das die Sicherheitsmaßnahmen und Risikobewertungen des Unternehmens vor der Einführung des neuen Modells beschreibt.
Das GPT-4o-Modell wurde im Mai dieses Jahres offiziell eingeführt. Vor der Veröffentlichung beauftragte OpenAI ein externes Team von Sicherheitsexperten mit einer Risikobewertung. Dieser „Red-Team“-Test ist gängige Praxis. Der Fokus lag auf potenziellen Risiken des Modells, wie z. B. die Generierung nicht autorisierter Sprachklone, obszöner und gewalttätiger Inhalte oder die Wiederholung urheberrechtlich geschützter Audiosegmente.
Nach dem eigenen Rahmen von OpenAI wurde die Gesamtrisikobewertung von GPT-4o von den Forschern als „mittel“ eingestuft. Diese Risikoklasse basiert auf der höchsten Risikobewertung in vier Hauptkategorien: Cybersicherheit, biologische Bedrohungen, Überzeugungskraft und Modellautomatisierung. Mit Ausnahme der Überzeugungskraft wurden die anderen Kategorien als geringfügig riskant eingestuft. Die Forscher stellten fest, dass einige von GPT-4o generierte Texte in Bezug auf die Beeinflussung der Lesermeinung überzeugender waren als von Menschen verfasste Texte, obwohl sie insgesamt nicht überzeugender waren.
OpenAI-Sprecherin Lindsay McCallum Rémy erklärte, dass die Systemkarte vorbereitende Bewertungen umfasst, die gemeinsam von internen Teams und externen Testern erstellt wurden. Zu den externen Teams gehören Model Evaluation and Threat Research (METR) und Apollo Research, die auf der OpenAI-Website aufgeführt sind und sich auf die Bewertung von KI-Systemen konzentrieren. Dies ist nicht das erste Mal, dass OpenAI Systemkarten veröffentlicht; frühere Modelle wie GPT-4, GPT-4 Visual und DALL-E3 wurden ähnlichen Tests unterzogen, und die entsprechenden Forschungsergebnisse wurden veröffentlicht.
Die Veröffentlichung der Systemkarte fällt jedoch in eine entscheidende Zeit. OpenAI steht in letzter Zeit aufgrund von Kritik von internen Mitarbeitern und staatlichen Senatoren unter Druck, die seine Sicherheitsstandards in Frage stellen. Wenige Minuten vor der Veröffentlichung der GPT-4o-Systemkarte veröffentlichten die Senatorin von Massachusetts, Elizabeth Warren, und die Abgeordnete Lori Trahan einen offenen Brief, in dem sie OpenAI aufforderten, Auskunft darüber zu geben, wie mit Hinweisgebern und Sicherheitsüberprüfungen umgegangen wird. In dem Brief werden viele Sicherheitsprobleme angesprochen, darunter die kurzzeitige Entlassung des CEO Sam Altman im Jahr 2023 aufgrund von Bedenken des Vorstands und der Weggang eines Sicherheitsleiters, der behauptete, dass „Sicherheitskultur und -prozesse von schönen Produkten unterdrückt wurden“.
Darüber hinaus veröffentlicht OpenAI kurz vor der US-Präsidentschaftswahl ein leistungsstarkes multimodales Modell, was offensichtlich ein potenzielles Risiko für Fehlinformationen oder die Nutzung durch böswillige Akteure darstellt. Obwohl OpenAI durch Tests in realen Szenarien Missbrauch verhindern möchte, wächst die öffentliche Forderung nach mehr Transparenz. Besonders in Kalifornien treibt der staatliche Senator Scott Wiener ein Gesetz voran, das die Nutzung großer Sprachmodelle regelt, einschließlich der Forderung, dass Unternehmen die rechtliche Verantwortung für den schädlichen Einsatz ihrer KI übernehmen. Wenn das Gesetz verabschiedet wird, müssen die Spitzenmodelle von OpenAI die im staatlichen Recht vorgeschriebenen Risikobewertungen erfüllen, um der Öffentlichkeit zugänglich gemacht zu werden.
Wichtigste Punkte:
🌟 Das GPT-4o-Modell von OpenAI wird mit einem „mittleren“ Risiko bewertet, wobei der Schwerpunkt auf Aspekten wie Cybersicherheit und Überzeugungskraft liegt.
🔍 Die Veröffentlichung der Systemkarte fällt in eine Zeit, in der OpenAI mit zunehmender Kritik an seinen Sicherheitsstandards konfrontiert ist.
🗳️ Der Zeitpunkt der Veröffentlichung ist heikel, da sie kurz vor der US-Präsidentschaftswahl stattfindet und das Risiko von Fehlinformationen und böswilliger Nutzung besteht.