最近の研究によると、被験者はChatGPTと人間のセラピストの心理療法反応を区別することに非常に苦労していることが示されました。AIの回答は、専門家の回答よりも共感性が高いと評価される傾向があることが研究で明らかになりました。この研究では、人間が機械と対話しているのか、それとも他の人間と対話しているのかを識別できるかを評価することを目的とした、古典的なチューリングテストが用いられました。研究者らは830人の参加者を招き、18組の夫婦療法のケースにおいて、どの反応がChatGPTから、どの反応が経験豊富な人間のセラピストから来たものかを判断してもらいました。
『PLOSデジタルヘルス』に掲載された研究結果によると、参加者は治療反応の識別において、ランダムな推測をわずかに上回る程度の成績しか示しませんでした。人間のセラピストの反応が正しく識別された割合は56.1%、ChatGPTの反応は51.2%でした。この研究では、ChatGPTは治療アライアンス、共感性、文化的適合性など、治療の質の複数の側面において人間の専門家よりも優れた成績を収めていることも発見されました。
ChatGPTがこのような成果を収められた理由はいくつかあります。AIシステムは通常、より長い回答を提供し、より積極的な口調で、名詞や形容詞をより多く使用するため、その反応はより詳細で共感的であるように見えます。しかし、研究では、被験者がAIが生成した反応を読んでいると考えている場合、その評価は低い傾向がある一方、AIの回答が人間のセラピストからのものだと誤解した場合、それらのAIの反応はより高い評価を得ることがわかりました。
研究者らは、この研究の結果は励みになるものの、重要な限界もあると指摘しています。使用されたのは実際の治療過程ではなく、短い仮説的な治療シナリオでした。さらに、この結果は個別の相談にも適用できるかどうか疑問視されています。
それにもかかわらず、治療分野におけるAIの可能性に関するさらなる証拠が蓄積されるにつれて、研究者らは心理健康の専門家がこれらのシステムを理解する必要があると強調しています。彼らは、臨床従事者は高水準のケアを提供するために、AIモデルを注意深く訓練し、監視する必要があると訴えています。
現在、相談におけるAIの能力については、同様の結論を導き出した複数の研究があります。メルボルン大学と西オーストラリア大学の研究によると、ChatGPTはソーシャルな困難に対するアドバイスにおいて、人間の専門コラムニストよりもバランスが取れており、包括的で、共感的であることが示されています。
しかし、AIが人間よりも優れたパフォーマンスを示したにもかかわらず、ほとんどの参加者は人間の相談者を選ぶ傾向がありました。オーストラリアの研究では、回答者の77%が人間のアドバイスを受けたいと回答しました。AIによる医療診断における回答も同様に共感性と質が高いと評価されましたが、スタンフォード大学とテキサス大学の研究者らは、心理療法においてChatGPTを使用する際には注意が必要であると警告し、大規模言語モデルは真の「心の理論」を欠いており、真の共感を経験することはできないと主張し、心理学におけるAIの安全な統合のためのガイドラインを策定するための国際的な研究プロジェクトの設立を訴えています。
要点:
🧠 AI心理療法の研究によると、ChatGPTと人間のセラピストの反応は区別が難しい。
💬 ChatGPTは治療の質において人間の専門家よりも高いスコアを獲得し、特に共感性と文化的適合性において顕著である。
⚠️ AIのパフォーマンスは優れているものの、研究者らは心理療法における使用には注意が必要であると訴え、AIは真の共感を欠いていると強調している。