Investigaciones recientes revelan que los grandes modelos de lenguaje tienen problemas para difundir información falsa, especialmente cuando responden a afirmaciones sobre hechos, conspiraciones o temas controvertidos. El estudio destaca la frecuencia con la que ChatGPT comete errores, se contradice y repite información dañina. Se señala que el contexto y la forma de la pregunta pueden influir en el grado en que el modelo "se hace eco" de la información falsa. Dado que estos modelos pueden aprender información errónea durante su proceso de aprendizaje, esto genera preocupación por sus posibles peligros.