OpenAI 最近面临了一起来自挪威的隐私投诉,主要针对其人工智能聊天机器人 ChatGPT 经常产生虚假信息的问题。这起案件由隐私权倡导组织 Noyb 支持,投诉者是一位名为阿尔夫・哈尔马尔・霍尔门的个人。他发现 ChatGPT 竟然错误地声称他因谋杀两个孩子和试图杀死第三个孩子而被定罪,令他感到震惊和愤怒。


过去有关 ChatGPT 的隐私投诉主要涉及一些基本的个人数据错误,例如出生日期或传记信息不准确。一个关键问题是,OpenAI 没有提供一个有效的途径让个人能够纠正 AI 生成的错误信息。通常情况下,OpenAI 会阻止生成此类错误信息的回应。然而,根据欧盟《通用数据保护条例》(GDPR),欧洲人拥有一系列的数据访问权,包括更正个人数据的权利。


Noyb 指出,GDPR 规定个人数据必须准确,如果信息不准确,用户有权要求更正。Noyb 的律师乔基姆・索德贝里表示,OpenAI 只是简单地在底部添加了一个免责声明,声称 “ChatGPT 可能会犯错误”,并不能免责。根据 GDPR 的规定,AI 开发者有责任确保其生成的信息不传播严重的虚假内容。


违反 GDPR 的行为可能导致高达全球年收入 4% 的罚款。2023 年春季,意大利的数据保护监管机构曾暂时封锁 ChatGPT 的访问,这一措施促使 OpenAI 对其用户信息披露进行了调整。尽管如此,近年来欧洲的隐私监管机构对生成性人工智能采取了更为谨慎的态度,以寻找适合的监管方案。


Noyb 的新投诉意在引起监管机构对 AI 生成虚假信息潜在危险的关注。他们分享了一张与 ChatGPT 互动的截图,显示该 AI 在回应关于霍尔门的问题时,产生了一个完全虚假的、令人不安的历史。这一事件并非孤立,Noyb 还指出了其他用户遭受类似虚假信息损害的案例。


尽管 OpenAI 在其模型更新后停止了针对霍尔门的虚假指控,但 Noyb 和霍尔门本人仍担心 AI 模型内部可能保留了错误的信息。Noyb 已向挪威数据保护局提交了投诉,期待监管机构能够对此进行调查。


划重点:  

🌐 Noyb 支持一名挪威个人对 ChatGPT 提出隐私投诉,指责其生成虚假信息。  

⚖️ 根据 GDPR,个人数据必须准确,OpenAI 未能满足这一要求。  

🔍 Noyb 希望通过此投诉引起监管机构对 AI 虚假信息问题的重视。