Pesquisadores da Universidade de Oxford alertam sobre os riscos dos LLMs para a integridade científica

Pesquisadores de inteligência artificial da Universidade de Oxford emitiram um alerta em um estudo recente, apontando que grandes modelos de linguagem (LLMs) podem representar uma ameaça à integridade científica. A pesquisa apela por uma mudança na forma como os LLMs são usados, sugerindo seu uso como "tradutores de tiro zero" para garantir a precisão factual da saída.

No entanto, confiar nos LLMs como fonte de informação pode comprometer a verdade científica, daí o apelo por um uso responsável dos LLMs. O estudo também alerta para os graves perigos que podem surgir se os LLMs forem usados indiscriminadamente na geração e disseminação de artigos científicos.