Eine kürzlich durchgeführte Studie zeigt, dass Probanden große Schwierigkeiten hatten, zwischen den psychotherapeutischen Antworten von ChatGPT und menschlichen Therapeuten zu unterscheiden. Die Studie ergab, dass die Antworten des KI-Systems oft als einfühlsamer als die von Fachleuten wahrgenommen wurden. Die Studie verwendete einen klassischen Turing-Test, um zu bewerten, ob Menschen erkennen können, ob sie mit einer Maschine oder einem anderen Menschen interagieren. Die Forscher baten 830 Teilnehmer, in 18 Paaren von Fallbeispielen für Paartherapie zu beurteilen, welche Antworten von ChatGPT und welche von erfahrenen menschlichen Therapeuten stammten.
Laut den in „PLOS Digital Health“ veröffentlichten Studienergebnissen lagen die Teilnehmer bei der Identifizierung der Therapieantworten nur geringfügig über dem Zufall. Die Antworten menschlicher Therapeuten wurden in 56,1 % der Fälle korrekt identifiziert, die von ChatGPT in 51,2 %. Die Studie ergab außerdem, dass ChatGPT in mehreren Dimensionen der Therapiequalität besser abschnitt als menschliche Experten, darunter therapeutische Allianz, Empathie und kulturelle Anpassungsfähigkeit.
Es gibt mehrere Gründe für die gute Leistung von ChatGPT. KI-Systeme liefern in der Regel längere Antworten, einen positiveren Ton und verwenden mehr Substantive und Adjektive, was ihre Antworten detaillierter und einfühlsamer erscheinen lässt. Die Studie ergab jedoch auch, dass die Teilnehmer die KI-generierten Antworten tendenziell niedriger bewerteten, wenn sie wussten, dass sie von einer KI stammten, während dieselben Antworten höher bewertet wurden, wenn die Teilnehmer fälschlicherweise glaubten, sie stammten von einem menschlichen Therapeuten.
Die Forscher weisen darauf hin, dass die Ergebnisse der Studie zwar vielversprechend sind, aber auch wichtige Einschränkungen aufweisen. Es wurden kurze hypothetische Therapieszenarien und keine realen Therapiesitzungen verwendet. Sie hinterfragen auch, ob die Ergebnisse auf Einzelberatung übertragbar sind.
Trotzdem betonen die Forscher angesichts der zunehmenden Hinweise auf das Potenzial von KI im Therapiebereich die Notwendigkeit für Angehörige der psychischen Gesundheitsberufe, diese Systeme zu verstehen. Sie fordern Kliniker auf, KI-Modelle sorgfältig zu schulen und zu überwachen, um eine qualitativ hochwertige Versorgung zu gewährleisten.
Mehrere Studien kamen zu ähnlichen Schlussfolgerungen bezüglich der Fähigkeiten von KI in beratender Funktion. Eine Studie der Universität Melbourne und der Universität Western Australia zeigte, dass ChatGPT in sozialen Konflikten ausgewogenere, umfassendere und einfühlsamere Ratschläge gab als menschliche Kolumnisten.
Obwohl die KI besser abschnitt als Menschen, bevorzugten die meisten Teilnehmer dennoch menschliche Berater. In der australischen Studie gaben 77 % der Befragten an, lieber den Rat eines Menschen anzunehmen. Obwohl auch die Antworten der KI in der medizinischen Diagnose als einfühlsamer und qualitativ hochwertiger eingestuft wurden, warnen Forscher der Stanford University und der University of Texas vor der unvorsichtigen Anwendung von ChatGPT in der Psychotherapie. Sie argumentieren, dass großen Sprachmodellen eine echte „Theory of Mind“ fehlt, sie keine echte Empathie empfinden können und fordern die Einrichtung internationaler Forschungsprojekte zur Entwicklung von Richtlinien für die sichere Integration von KI in der Psychologie.
Wichtigste Punkte:
🧠 Studien zur KI-Psychotherapie zeigen, dass die Antworten von ChatGPT und menschlichen Therapeuten schwer zu unterscheiden sind.
💬 ChatGPT erzielt in der Therapiequalität höhere Punktzahlen als menschliche Experten, insbesondere in Bezug auf Empathie und kulturelle Anpassungsfähigkeit.
⚠️ Obwohl die KI gute Leistungen zeigt, fordern die Forscher zur Vorsicht bei der Anwendung in der Psychotherapie auf und betonen, dass der KI echte Empathie fehlt.