Une récente étude révèle que de plus en plus de médecins généralistes utilisent des outils d'intelligence artificielle (IA), tels que GPT, pour les aider dans leur travail quotidien. Selon cette étude publiée par le journal BMJ Health & Care Informatics, environ un cinquième des 1006 médecins généralistes interrogés ont déclaré avoir utilisé des chatbots d'IA en pratique clinique, notamment ChatGPT, Bing AI et Gemini de Google.

IA médicale, médecin, intelligence artificielle

Source : Image générée par IA, fournisseur de services d'autorisation d'images Midjourney

Parmi ces médecins utilisant l'IA, près d'un tiers (29%) ont déclaré utiliser ces outils pour générer des documents après les consultations des patients, 28% pour suggérer différents diagnostics et 25% pour proposer des plans de traitement. Les chercheurs soulignent que ces résultats suggèrent que les médecins généralistes pourraient tirer profit de ces outils pour les tâches administratives et pour soutenir le raisonnement clinique.

Cependant, l'étude soulève également des inquiétudes concernant la confidentialité des patients. Les chercheurs mentionnent qu'il n'est pas clair comment les entreprises Internet traitent les informations collectées par l'IA générative. Bien que ces chatbots soient soumis à des efforts de réglementation croissants, la manière dont la législation s'articule concrètement avec ces outils reste floue.

Le Dr Ellie Main, conseillère juridique médicale à la Medical Defence Union, explique que l'utilisation de l'IA par les médecins généralistes peut soulever des problèmes, notamment en termes d'inexactitude et de confidentialité des patients. Elle déclare : «Il est naturel que les professionnels de santé cherchent des moyens plus intelligents de travailler lorsqu'ils sont sous pression. Au-delà des utilisations mentionnées dans l'article du BMJ, nous avons constaté que certains médecins ont également commencé à recourir à des programmes d'IA pour aider à rédiger des réponses aux plaintes.»

Elle met en garde contre le fait que les réponses rédigées par l'IA peuvent paraître crédibles mais contenir des erreurs, voire citer des lignes directrices incorrectes, ce qui peut passer inaperçu dans un texte fluide. Elle souligne donc que les médecins doivent respecter les normes éthiques, les directives et la réglementation en vigueur lorsqu'ils utilisent l'IA.

Points clés :

1️⃣ Environ 20 % des médecins généralistes utilisent des outils d'IA, tels que ChatGPT, dans leur travail quotidien.

2️⃣ 29 % des utilisateurs utilisent l'IA pour générer des documents patients, et 28 % pour suggérer différents diagnostics.

3️⃣ L'utilisation de l'IA soulève des questions de confidentialité des patients. Les médecins doivent tenir compte de la réglementation et de la protection des données.