Investigaciones recientes revelan que los grandes modelos de lenguaje tienen problemas para difundir información falsa, especialmente cuando responden a afirmaciones sobre hechos, conspiraciones o temas controvertidos. El estudio destaca la frecuencia con la que ChatGPT comete errores, se contradice y repite información dañina. Se señala que el contexto y la forma de la pregunta pueden influir en el grado en que el modelo "se hace eco" de la información falsa. Dado que estos modelos pueden aprender información errónea durante su proceso de aprendizaje, esto genera preocupación por sus posibles peligros.
Estudio revela el problema de la difusión de información falsa por parte de los modelos lingüísticos grandes

站长之家
73
© Todos los derechos reservados AIbase 2024, haz clic para ver la fuente original - https://www.aibase.com/es/news/4396