Recentemente, pesquisadores da Microsoft Research e da Universidade Carnegie Mellon publicaram um novo estudo que revela potenciais problemas enfrentados por trabalhadores do conhecimento ao usar inteligência artificial generativa (como Copilot e ChatGPT). O grupo de pesquisa entrevistou 319 trabalhadores do conhecimento que usam IA generativa semanalmente para explorar como eles aplicam o pensamento crítico ao usar essas ferramentas.

Cérebro de mecanismo Inteligência Artificial

Observação da fonte: Imagem gerada por IA, provedor de serviços de licenciamento de imagens Midjourney

Os resultados da pesquisa mostram que os trabalhadores confiantes em suas tarefas tendem a pensar criticamente sobre a saída da IA generativa. No entanto, aqueles que se sentem inseguros em relação às tarefas tendem a considerar as respostas da IA generativa como suficientes e, portanto, não pensam mais profundamente. Este fenômeno chamou a atenção dos pesquisadores, que apontam que a dependência excessiva de ferramentas de IA pode levar à diminuição da capacidade de pensamento crítico.

O estudo menciona que “a confiança na IA está relacionada à redução do esforço de pensamento crítico, enquanto a autoconfiança está relacionada ao aumento do pensamento crítico”. Isso significa que, ao projetar ferramentas de IA empresarial, deve-se considerar como equilibrar esses dois fatores. Os pesquisadores recomendam que as ferramentas de IA incluam mecanismos que apoiem o desenvolvimento de habilidades a longo prazo, incentivando os usuários a refletir sobre suas interações com a saída gerada pela IA.

Ao mesmo tempo, os pesquisadores mencionam que simplesmente explicar como a IA chega a suas conclusões não é suficiente; boas ferramentas de IA também devem promover o pensamento crítico por meio de estratégias de design proativas, fornecendo a ajuda necessária. Eles enfatizam que os trabalhadores do conhecimento devem usar o pensamento crítico em seu trabalho diário para verificar a saída da IA e evitar a dependência excessiva da IA.

A conclusão do estudo destaca que, à medida que a IA se integra ao nosso mundo de trabalho, os trabalhadores do conhecimento precisam manter certas habilidades em coleta de informações e resolução de problemas para evitar a dependência excessiva da IA. Eles devem receber treinamento para desenvolver habilidades como verificação de informações, integração de respostas e gerenciamento de tarefas.

O artigo da pesquisa será publicado na conferência de interação humano-computador de 2025. A equipe de pesquisa espera chamar a atenção para o impacto da IA generativa.

Destaques:

🌟 A pesquisa mostra que a confiança na IA generativa pode levar à diminuição da capacidade de pensamento crítico dos trabalhadores do conhecimento.

💡 A autoconfiança é proporcional ao pensamento crítico; o design de ferramentas de IA empresarial deve considerar esse equilíbrio.

📊 Os trabalhadores do conhecimento devem receber treinamento para manter habilidades básicas de coleta de informações e resolução de problemas, a fim de evitar a dependência excessiva da IA.