Pesquisadores de inteligência artificial da Universidade de Oxford emitiram um alerta em um estudo recente, apontando que grandes modelos de linguagem (LLMs) podem representar uma ameaça à integridade científica. A pesquisa apela por uma mudança na forma como os LLMs são usados, sugerindo seu uso como "tradutores de tiro zero" para garantir a precisão factual da saída.
No entanto, confiar nos LLMs como fonte de informação pode comprometer a verdade científica, daí o apelo por um uso responsável dos LLMs. O estudo também alerta para os graves perigos que podem surgir se os LLMs forem usados indiscriminadamente na geração e disseminação de artigos científicos.