最新研究揭示,大型语言模型存在传播虚假信息的问题,特别是在回答关于事实、阴谋、争议等陈述时。研究强调了ChatGPT存在的频繁错误、自相矛盾及重复有害信息的情况。语境与提问方式被指出可能影响模型对虚假信息的“附和”程度。由于这些模型在学习过程中可能学习错误信息,这引发了对其潜在危险性的担忧。