Um estudo recente mostrou que os participantes tiveram grande dificuldade em distinguir as respostas de psicoterapia do ChatGPT das de terapeutas humanos. A pesquisa indica que as respostas da IA ​​foram frequentemente consideradas mais empáticas do que as de profissionais humanos. O estudo utilizou um teste de Turing clássico, projetado para avaliar se os humanos conseguem identificar se estão interagindo com uma máquina ou com outro humano. Os pesquisadores recrutaram 830 participantes e pediram a eles que identificassem quais respostas em 18 casos de terapia de casal eram do ChatGPT e quais eram de terapeutas humanos experientes.

QQ_1739773197743.png

De acordo com os resultados publicados na revista PLOS Digital Health, os participantes tiveram um desempenho apenas ligeiramente melhor do que o acaso na identificação das respostas de terapia. As respostas dos terapeutas humanos foram identificadas corretamente em 56,1% das vezes, enquanto as respostas do ChatGPT foram identificadas corretamente em 51,2% das vezes. O estudo também descobriu que o ChatGPT superou os especialistas humanos em várias dimensões da qualidade da terapia, incluindo aliança terapêutica, empatia e adaptação cultural.

Há várias razões pelas quais o ChatGPT obteve esse desempenho. Os sistemas de IA geralmente fornecem respostas mais longas, com tom mais positivo e usam mais substantivos e adjetivos em suas respostas, o que faz com que suas respostas pareçam mais detalhadas e empáticas. No entanto, o estudo também descobriu que os participantes tendiam a dar pontuações mais baixas às respostas quando acreditavam estar lendo uma resposta gerada por IA, enquanto as respostas da IA ​​recebiam pontuações mais altas quando os participantes erroneamente acreditavam que vinham de um terapeuta humano.

Os pesquisadores apontam que, embora as descobertas sejam animadoras, há limitações importantes. Eles usaram cenários de terapia hipotéticos curtos, em vez de sessões de terapia reais. Além disso, eles questionam se esses resultados se aplicam à aconselhamento individual.

Apesar disso, com o acúmulo de mais evidências sobre o potencial da IA ​​na área da terapia, os pesquisadores enfatizam a necessidade de os profissionais de saúde mental estarem cientes desses sistemas. Eles pedem que os profissionais clínicos treinem e monitorem cuidadosamente os modelos de IA para garantir um padrão elevado de atendimento.

Vários estudos chegaram a conclusões semelhantes sobre a capacidade da IA ​​em um papel de aconselhamento. Um estudo da Universidade de Melbourne e da Universidade da Austrália Ocidental mostrou que o ChatGPT forneceu conselhos mais equilibrados, abrangentes e empáticos em situações sociais do que colunistas humanos.

No entanto, apesar do desempenho superior da IA, a maioria dos participantes ainda preferiu conselheiros humanos. No estudo australiano, 77% dos participantes disseram que prefeririam receber conselhos de um humano. Embora as respostas da IA ​​em diagnósticos médicos também tenham sido consideradas mais empáticas e de maior qualidade, pesquisadores da Universidade de Stanford e da Universidade do Texas alertam para a necessidade de cautela no uso do ChatGPT em psicoterapia, argumentando que os grandes modelos de linguagem carecem de uma verdadeira "teoria da mente" e não podem experimentar empatia genuína, e pedem a criação de um projeto de pesquisa internacional para desenvolver diretrizes para a integração segura da IA ​​na psicologia.

Destaques:

🧠 Pesquisas sobre psicoterapia com IA mostram que as respostas do ChatGPT são difíceis de distinguir das de terapeutas humanos.

💬 O ChatGPT obteve pontuações mais altas do que especialistas humanos na qualidade da terapia, especialmente em empatia e adaptação cultural.

⚠️ Apesar do excelente desempenho da IA, os pesquisadores alertam para o uso cauteloso em psicoterapia, enfatizando a falta de empatia genuína na IA.