Une étude récente a révélé que les participants avaient beaucoup de difficulté à distinguer les réponses de ChatGPT de celles d'un thérapeute humain dans le cadre d'une psychothérapie. L'étude a démontré que les réponses de l'IA étaient souvent perçues comme plus empathiques que celles des professionnels. Cette recherche a utilisé un test de Turing classique visant à évaluer la capacité des humains à identifier s'ils interagissaient avec une machine ou avec un autre humain. Les chercheurs ont sollicité 830 participants, leur demandant d'identifier, parmi 18 cas de thérapie de couple, quelles réponses provenaient de ChatGPT et lesquelles provenaient de thérapeutes humains expérimentés.
Selon les résultats publiés dans la revue PLOS Digital Health, les participants ont légèrement dépassé le hasard dans l'identification des réponses. Les réponses des thérapeutes humains ont été correctement identifiées dans 56,1 % des cas, tandis que celles de ChatGPT l'ont été dans 51,2 % des cas. L'étude a également révélé que ChatGPT surpassait les experts humains sur plusieurs dimensions de la qualité des soins, notamment l'alliance thérapeutique, l'empathie et l'adaptation culturelle.
Plusieurs raisons expliquent les performances de ChatGPT. Les systèmes d'IA fournissent généralement des réponses plus longues, un ton plus positif et utilisent davantage de noms et d'adjectifs, ce qui rend leurs réponses plus détaillées et plus empathiques. Cependant, l'étude a également montré que les participants notaient les réponses générées par l'IA plus bas lorsqu'ils savaient qu'elles provenaient de l'IA, tandis que ces mêmes réponses obtenaient de meilleures notes lorsqu'ils pensaient à tort qu'elles provenaient d'un thérapeute humain.
Les chercheurs soulignent que, malgré les résultats encourageants, l'étude présente des limites importantes. Ils ont utilisé de courts scénarios thérapeutiques hypothétiques, et non de vraies séances de thérapie. De plus, ils remettent en question la généralisation de ces résultats à la consultation individuelle.
Néanmoins, avec l'accumulation de preuves sur le potentiel de l'IA dans le domaine thérapeutique, les chercheurs insistent sur la nécessité pour les professionnels de la santé mentale de comprendre ces systèmes. Ils appellent les cliniciens à former et à surveiller attentivement les modèles d'IA afin de garantir des soins de haute qualité.
Plusieurs études arrivent à des conclusions similaires concernant les capacités de l'IA dans un rôle de conseil. Une étude menée par l'Université de Melbourne et l'Université d'Australie-Occidentale a montré que les conseils de ChatGPT dans les situations sociales étaient plus équilibrés, complets et empathiques que ceux de chroniqueurs humains.
Cependant, malgré les performances supérieures de l'IA, la plupart des participants préféraient un conseiller humain. Dans l'étude australienne, 77 % des répondants ont déclaré qu'ils préféraient recevoir des conseils d'un humain. Bien que les réponses de l'IA dans le diagnostic médical aient également été jugées plus empathiques et de meilleure qualité, les chercheurs des universités de Stanford et du Texas mettent en garde contre une utilisation imprudente de ChatGPT en psychothérapie, soulignant le manque de « théorie de l'esprit » véritable chez les grands modèles de langage, leur incapacité à ressentir une véritable empathie, et appellent à la création de projets de recherche internationaux pour élaborer des lignes directrices pour l'intégration sûre de l'IA en psychologie.
Points clés :
🧠 Les recherches sur la psychothérapie par IA montrent que les réponses de ChatGPT sont difficiles à distinguer de celles d'un thérapeute humain.
💬 ChatGPT obtient de meilleurs scores que les experts humains sur la qualité des soins, notamment en termes d'empathie et d'adaptation culturelle.
⚠️ Malgré d'excellentes performances, les chercheurs appellent à la prudence dans l'utilisation de l'IA en psychothérapie, soulignant l'absence de véritable empathie chez l'IA.