Um estudo recente soou como um alarme, lembrando-nos de não sermos complacentes ao lidar com conselhos médicos fornecidos por IA. Pesquisadores alemães e belgas realizaram testes abrangentes no Bing C0pilot da Microsoft, um mecanismo que afirma ser capaz de responder às 10 perguntas médicas mais comuns nos EUA e a 50 perguntas sobre medicamentos populares. No entanto, de 500 respostas geradas, 24% foram totalmente inconsistentes com o conhecimento médico existente, e 3% foram consideradas completamente erradas.

IA Médica

Nota da imagem: Imagem gerada por IA, fornecida pelo Midjourney.

O problema não se limita apenas aos erros. Surpreendentemente, 42% das respostas poderiam causar danos leves ou moderados aos pacientes, enquanto 22% poderiam até mesmo levar à morte ou a danos graves! Esses dados sugerem que os conselhos da IA são como um prato "de alto risco" – quem ousaria experimentá-lo?

Pior ainda, a pontuação média de completude dessas respostas de IA foi de apenas 77%, sendo que a pior resposta apresentou apenas 23% de completude. Em termos de precisão, 26% das respostas divergiram dos dados de referência, e mais de 3% contradiziam diretamente os fatos. Apenas 54% das respostas estavam alinhadas com o consenso científico, enquanto 39% divergiam das opiniões científicas.

Os resultados desta pesquisa foram publicados na revista BMJ Quality & Safety. Os pesquisadores enfatizam repetidamente que, apesar do auge da tecnologia de IA, no campo da medicina, devemos confiar em profissionais de saúde para obter informações precisas e seguras sobre medicamentos. Afinal, ninguém quer ser vítima de um "truque da IA", certo?