Desde o lançamento público do ChatGPT, o impacto na educação tem sido profundo e preocupante. Um número crescente de alunos está usando inteligência artificial generativa para concluir tarefas e provas, com os trabalhos apresentados sendo considerados resultados acadêmicos genuínos. Este fenômeno não apenas desvaloriza os diplomas do ensino médio e superior, mas também pode levar muitos alunos que não aprenderam de fato a ingressar em campos profissionais importantes, como enfermagem, engenharia e bombeiros, com consequências graves para a sociedade.

Robô AI escrevendo AI educação

Observação da fonte: Imagem gerada por IA, provedor de serviços de licenciamento de imagens Midjourney

No entanto, a maioria das escolas e instituições de ensino não tem dado a devida atenção ao combate à fraude acadêmica por IA. Mais chocante ainda é que algumas escolas até mesmo estão relaxando as restrições ao uso de IA, permitindo que os alunos usem ferramentas de IA, mas proibindo o uso de tecnologias capazes de detectar trabalhos feitos com IA. Essa decisão equivocada enfraquece consideravelmente a capacidade de supervisão dos professores.

Recentemente, uma pesquisa da Universidade de Reading, no Reino Unido, mostrou que os professores quase não conseguem identificar trabalhos acadêmicos gerados por IA. A equipe de pesquisa submeteu trabalhos gerados por IA usando identidades falsas de alunos, e descobriu que 94% dos trabalhos submetidos não foram detectados. Mesmo com critérios de detecção mais rigorosos, 97% dos trabalhos de IA submetidos ainda não foram marcados como possivelmente gerados por IA. Isso indica que, mesmo em condições ideais, a taxa de identificação de trabalhos de IA pelos professores é muito baixa.

Esta não é a primeira vez que surge esse alerta. Um estudo anterior da Universidade do Sul da Flórida mostrou que especialistas em linguística não conseguiam distinguir textos gerados por IA de textos escritos por humanos. Outra pesquisa, realizada no Vietnã, mostrou que os sistemas de detecção de IA conseguem identificar efetivamente textos de IA, enquanto a capacidade de identificação dos professores é muito inferior.

Além disso, pesquisas recentes também descobriram que trabalhos gerados por IA tendem a obter notas mais altas do que trabalhos de alunos reais. Os estudos indicam que, em 83,4% dos casos, os trabalhos submetidos por IA obtiveram notas mais altas do que trabalhos aleatórios de alunos humanos comparáveis. Isso significa que os alunos que usam ferramentas básicas de IA têm mais chances de obter notas mais altas do que aqueles que fazem os trabalhos com seriedade.

Em salas de aula reais, embora os sistemas de detecção possam marcar trabalhos de IA, os professores costumam ser cautelosos com denúncias de falta de ética acadêmica, e muitas escolas não aplicam punições suficientes aos infratores. Em resumo, se as escolas não usam tecnologia de detecção de IA, os alunos que usam IA para colar podem facilmente obter notas mais altas sem medo de serem descobertos.

Atualmente, o ambiente de cursos online torna o problema ainda mais complexo, pois os professores não conseguem realmente saber a identidade dos alunos, aumentando a possibilidade de fraude. Embora as escolas possam resolver esse problema por meio de monitoramento de provas ou do uso de ambientes de redação com rastreamento de alterações, muitas escolas não estão dispostas a investir tempo e recursos na implementação dessas medidas. Portanto, a fraude acadêmica está se tornando cada vez mais grave, e ainda há poucas respostas eficazes para esse problema.

Destaques:

📚 94% dos trabalhos acadêmicos gerados por IA não foram detectados por professores, ameaçando a integridade acadêmica.

🚫 A maioria das escolas não leva a sério o combate à fraude acadêmica por IA, e até mesmo relaxa as restrições ao uso de IA.

📊 Os trabalhos gerados por IA geralmente obtêm notas mais altas do que os trabalhos de alunos reais, e a eficácia dos sistemas de detecção é limitada.