早期疾患検出における人工知能(AI)の応用が拡大する中、最近の研究でAIが精神保健危機への対応においても大きな可能性を示していることが明らかになりました。JAMAネットワークオープン誌に掲載されたこの研究は、AIが自殺リスクのある患者を効果的に識別し、日常の医療現場に予防ツールを提供できることを示しています。

SFロボット

画像出典:AI生成画像、画像ライセンス提供元Midjourney

研究では、医師に自殺リスクを警告する2つの方法が検討されました。1つは、即時対応を促す積極的な「ポップアップ」警告、もう1つは患者の電子カルテにリスク情報を表示する受動的な方法です。その結果、積極的な警告の方が受動的な方法よりも効果的で、42%の症例で医師による自殺リスク評価を促したのに対し、受動的なシステムではわずか4%でした。この研究はまた、正確なツールを用いて自殺リスクに関する対話を開始することの重要性を強調しています。

自動化されたリスク検出と綿密に設計された警告メカニズムを組み合わせることで、この革新的なアプローチは、より多くの支援を必要とする自殺予防サービスの対象者を特定し、支援するための希望を提供します。バンダービルト大学医療センターの生物医学情報学、医学、精神医学准教授であるコリン・ウォルシュ氏は、この革新の緊急性を強調しています。「自殺者のほとんどは死亡する1年前に医療提供者と面会しており、多くの場合、精神保健とは無関係の理由で受診しています。」

研究では、自殺者の77%が自殺の1年以内にプライマリケア提供者と接触していたことも示されており、これはAIが通常の医療ケアと精神保健介入のギャップを埋める上で重要な役割を果たすことを浮き彫りにしています。研究では、バンダービルト大学のAI駆動システム「自殺企図と意図の可能性モデル(VSAIL)」をテストしました。このシステムは電子健康記録内の通常のデータを分析し、患者が今後30日以内に自殺を試みるリスクを推定します。高リスクの患者を特定すると、医師はターゲットを絞った精神保健に関する対話を促されます。

ウォルシュ氏は、「包括的なスクリーニングはあらゆる場所で現実的ではありませんが、VSAILは高リスクの患者に焦点を当て、有意義なスクリーニングの対話を促すのに役立ちます」と述べています。結果が有望である一方で、研究者たちは、積極的な警告によるメリットと、それが引き起こす可能性のあるワークフローの妨害とのバランスを強調しています。著者らは、同様のシステムを他の医療専門職向けに調整することで、その範囲と影響を拡大できると提案しています。

2022年、ケンブリッジ大学は、PRISMA基準(系統的レビューとメタアナリシスの推奨報告項目)を用いて、高リスクの自殺患者を評価した論文を発表しました。

論文へのリンク:https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2828654?#google_vignette

要点:

🌟 AIは自殺リスクのある患者を効果的に識別でき、積極的な警告は受動的なシステムよりも効果的です。

👥 自殺者のほとんどは死亡する1年前に医療サービスを受けており、精神保健介入が不可欠です。

💬 VSAILシステムは健康記録を分析することで、医師がターゲットを絞った精神保健に関する対話を促します。