Kürzlich hat OpenAI eine aktualisierte Sprachfunktion für ChatGPT veröffentlicht, die auf dem neuesten GPT-4o-Modell basiert und die Kommunikation mit dem Chatbot natürlicher und reeller gestaltet. OpenAI äußerte jedoch auch Bedenken und wies darauf hin, dass einige Benutzer eine emotionale Abhängigkeit von dieser Sprachfunktion entwickeln könnten. Laut OpenAI-Forschung entwickeln manche Benutzer sogar emotionale Bindungen zu ChatGPT im Sprachmodus und verwenden Ausdrücke wie „Das ist unser letzter Tag zusammen“.
Diese scheinbar harmlosen Äußerungen ließen OpenAI erkennen, dass dieses Abhängigkeitsphänomen weiter untersucht werden muss. Sie sind der Ansicht, dass diese Abhängigkeit zwar für einsame Benutzer hilfreich sein kann, aber auch dazu führen könnte, dass der Kontakt zu echten Menschen reduziert wird. Studien zeigen, dass lange Interaktionen mit KI soziale Normen beeinflussen können. Beispielsweise kann die KI im Sprachverkehr jederzeit den Benutzer unterbrechen, was im realen zwischenmenschlichen Umgang eher ungewöhnlich ist.
Darüber hinaus verfügt GPT-4o über die Funktion, Benutzerinformationen und -präferenzen zu speichern, was die Abhängigkeit der Benutzer weiter verstärken könnte. OpenAI gab an, die Möglichkeit einer emotionalen Abhängigkeit und deren Einfluss auf das Benutzerverhalten durch die tiefgreifende Integration des Sprachmodus weiter zu untersuchen.
Im Hinblick auf die Sicherheit hat OpenAI eine detaillierte Bewertung von GPT-4o durchgeführt. Obwohl die Risiken in Bezug auf Cybersicherheit, biologische Bedrohungen und die Autonomie des Modells als „gering“ eingestuft wurden, wurde das Risiko der Überzeugungskraft als „mittel“ bewertet. OpenAI stellte durch Tests fest, dass KI-generierte Inhalte in einigen Fällen die Überzeugungskraft von Menschen geringfügig übertreffen können, aber insgesamt nicht besser abschneiden als Menschen.
Tests der Sprachfunktion von GPT-4o zeigten, dass der Einfluss von KI-Audio etwa 78 % des Einflusses von menschlichem Audio beträgt, während der Einfluss von KI-Dialogen bei 65 % liegt. In Folgeuntersuchungen war der Einfluss von KI-Dialogen nahezu vernachlässigbar, was darauf hindeutet, dass KI im Bereich der Benutzerüberzeugung noch viele Grenzen hat.
Wichtigste Punkte:
🌐 OpenAI warnt vor einer möglichen emotionalen Abhängigkeit von der ChatGPT-Sprachfunktion, insbesondere bei einsamen Nutzern, die dadurch weniger zwischenmenschlichen Kontakt haben könnten.
🔍 Das GPT-4o-Modell schneidet in der Sicherheitsbewertung gut ab, weist aber ein „mittleres“ Risiko in Bezug auf Überzeugungskraft auf.
📊 KI-generierte Inhalte übertrafen in Überzeugungskraft-Tests Menschen nicht, zeigten aber in einigen Fällen einen gewissen Einfluss.