最近,随着人工智能技术的飞速发展,研究人员们提出了一个引人关注的想法:为了更好地确认在线用户是真人而非 AI 机器人,应该开始使用 “人类身份凭证”(Personhood Credential,简称 PHC)系统来替代传统的 CAPTCHA 验证。这个研究团队包括了来自常春藤盟校和 OpenAI、微软等公司的科学家们,他们在一篇尚未经过同行评审的论文中提出了这一概念。
他们担心,随着 AI 的普及,恶意行为者将利用 AI 的强大能力,向网络中灌输大量非人类内容。AI 如今可以生成 “人类般” 的内容,甚至能够伪装成真实的人类进行在线活动,这让 CAPTCHA 等传统验证方式显得愈发无效。因此,PHC 系统的想法开始受到青睐。研究者们设想,政府或其他数字服务机构可以为每个用户发放一个唯一的身份凭证,用户通过一种称为 “零知识证明” 的加密技术来验证自己是真人,而无需透露具体信息。
凭证会被用户数字化存储在个人设备上,从而在一定程度上保护用户的在线匿名性。这一系统不仅可以替代现有的 CAPTCHA 和生物识别技术,甚至可能提升人类验证的效果。然而,研究者们也意识到 PHC 系统并非没有缺陷。比如,很多人可能会将自己的 PHC 出售给 AI 垃圾信息发送者,这样反而可能助长网络垃圾内容的泛滥。同时,凭证发放机构的集中化问题也让人担忧,可能导致过于强大的权力集中在少数公司手中。
此外,对于一些不太精通互联网的用户,比如老年人,凭证系统可能会造成使用上的障碍。因此,研究者们建议政府应该考虑通过试点项目来测试 PHC 的可行性。但问题是,PHC 系统无疑会给用户带来新的数字负担,而这些问题的根源在于技术公司。研究者指出,技术公司应当承担起解决问题的责任,比如给 AI 生成的内容加上水印,或开发出能够识别 AI 生成内容的技术。这样的措施虽然也不是万无一失,但至少将责任回归到技术的源头上。
划重点:
💡 研究人员提出 “人类身份凭证” 系统,旨在替代传统 CAPTCHA 验证,以确认在线用户是真人。
🔒 PHC 系统利用加密技术保护用户隐私,但可能导致凭证滥用和权力集中问题。
⚠️ 技术公司需对 AI 引发的问题承担责任,考虑对 AI 生成内容进行水印标识等措施。