最近一项来自华盛顿大学、卡内基梅隆大学和西安交通大学的研究发现,AI 语言模型存在政治偏见。研究人员测试了 14 个模型,并使用政治指南针测试来确定模型的政治倾向。结果显示,OpenAI 的 ChatGPT 和 GPT-4 被认为是最左翼自由主义的模型,而 Meta 的 LLaMA 被认为是最右翼独裁主义的模型。研究人员指出,尽管政治指南针测试不是一个完美的方法,但它有助于揭示模型的偏见。他们敦促企业意识到这些偏见,并努力使其产品更加公平。这项研究的结果提醒大家,在开发和使用 AI 语言模型时要警惕政治偏见的存在,并确保公正和多样化的表达。