最近の調査によると、ますます多くの家庭医が、GPTなどのAIツールを日常業務の支援に活用し始めていることが明らかになりました。医学誌「BMJヘルス&ケア・インフォマティクス」が発表したこの調査では、1006人の家庭医がアンケートに回答し、約5人に1人の医師が、ChatGPT、Bing AI、Google GeminiなどのAIチャットボットを臨床現場で使用したことがあると回答しました。

AI医療 医生 人工智能

画像出典:AI生成画像、画像ライセンス提供元Midjourney

AIを使用している医師のうち、約3分の1(29%)が患者の診察後の文書作成に、28%が異なる診断の提案に、25%が患者の治療計画策定にこれらのツールを利用していると回答しました。研究者らは、これらの結果から、家庭医はAIツールによって事務作業と臨床推論の支援を受けられる可能性があると指摘しています。

しかし、この調査は患者のプライバシーに関する懸念も提起しています。研究者らは、インターネット企業がAI生成ツールで収集された情報をどのように処理しているのかは現状不明確だと述べています。これらのチャットボットに対する規制の取り組みは増えているものの、実際的な立法とこれらのツールの連携方法はまだ不明確です。

医療防衛組合の医療法務顧問であるエリー・メイン医師は、家庭医によるAIの使用は、不正確さと患者の機密性を含むいくつかの問題を引き起こす可能性があると述べています。「医療従事者がプレッシャーの中でよりスマートな働き方を模索するのは自然なことです。BMJの記事で言及されている用途以外にも、苦情への回答作成を支援するためにAIプログラムに頼る医師もいることが分かりました。」

彼女は、AIで作成された回答は信頼できるように見えるかもしれませんが、誤りや不正確なガイドラインの引用が含まれており、流暢な文章では見過ごされやすいと警告しています。そのため、医師はAIを使用する際に倫理規定、関連するガイドライン、および規制を遵守する必要があると強調しています。

要点:

1️⃣ 約20%の家庭医がChatGPTなどのAIツールを日常業務で使用しています。

2️⃣ 使用者の29%がAIで患者の文書を作成し、28%が異なる診断の提案に使用しています。

3️⃣ AIの使用には患者のプライバシーの問題が伴い、医師は関連する規制とデータ保護に注意する必要があります。