Kürzlich entdeckte ein Internetnutzer auf X (ehemals Twitter), dass die neueste Version von ChatGPT, GPT-4, die Erstellung eines Rosenbildes mit der Begründung „Die Erstellung dieses Rosenbildes entspricht nicht unseren Inhaltsrichtlinien“ einfach verweigerte. Diese unerwartete Ablehnung erregte sofort die Aufmerksamkeit und Diskussion vieler Internetnutzer, die nach den Gründen suchten und versuchten, die Einschränkungen zu umgehen.
Um dieses Phänomen zu überprüfen, führten Internetnutzer verschiedene Experimente durch. Sie stellten Fragen auf Chinesisch und Englisch, verwendeten anstelle von „Rose“ Sonderzeichen – doch alle Versuche scheiterten. Auch der Versuch, eine gelbe Rose zu generieren, wurde abgelehnt. Im Gegensatz dazu konnte GPT-4 problemlos andere Blumen wie Pfingstrosen generieren, was zeigt, dass die Bildgenerierungsfähigkeit selbst keine Probleme aufweist.
Im Laufe der Diskussion stellten Internetnutzer verschiedene Vermutungen an. Einige meinten, das Wort „Rose“ sei aus irgendeinem Grund auf einer Blacklist, andere, ChatGPT interpretiere „Rose“ als eine Art Metapher und könne sie deshalb nicht generieren. Amüsanterweise spekulierten einige scherzhaft, das System habe „Rose“ aufgrund zu vieler ähnlicher Anfragen um den Valentinstag herum eingeschränkt.
Spätere Tests ergaben, dass GPT-4 problemlos Rosenbilder generieren konnte, wenn man „Rosen“ im Plural verwendete oder die Beschreibung der Rose ohne das Wort „Rose“ formulierte. Diese Entdeckung führte zu einer eingehenden Diskussion über den Inhaltsfiltermechanismus der KI und der Vermutung, dass ein solcher seltsamer Fehler durch eine Hardcodierung der Inhaltsrichtlinien durch die Entwickler entstanden sein könnte.
Gleichzeitig erinnerte dieses „verbotene Wort“ bei ChatGPT an ähnliche Vorfälle in der Vergangenheit. Bei der Abfrage bestimmter Namen lieferte das System vage Antworten oder wich bestimmten Inhalten aus. Das „Generieren eines Rosenbildes“ ist nun ein weiteres verbotenes Wort geworden, während andere KI-Chatbots wie Gemini und Grok Rosenbilder problemlos generieren können, was auf unterschiedliche Inhaltsbeschränkungen der Plattformen hinweist.
Die Eskalation dieses Vorfalls verstärkt die Zweifel an der Angemessenheit und Transparenz der KI-Inhaltsprüfung und weckt die Hoffnung auf zukünftige KIs, die den vielfältigen Bedürfnissen der Nutzer in einem vernünftigen Rahmen gerecht werden.