在现代科技飞速发展的今天,人工智能尤其是大型语言模型(LLMs)正逐渐成为焦点。然而,美国的网络安全法律似乎跟不上这个快速变化的领域。最近,哈佛大学的一组学者在黑帽大会上指出,现行的《计算机欺诈和滥用法》(CFAA)并不能有效保护那些从事 AI 安全研究的人,反而可能让他们面临法律风险。

法律

图源备注:图片由AI生成,图片授权服务商Midjourney

这些学者包括哈佛法学院的凯德拉・阿尔伯特(Kendra Albert)、拉姆・尚卡尔・西瓦库马尔(Ram Shankar Siva Kumar)和乔纳森・佩尼(Jonathon Penney)。阿尔伯特在接受采访时提到,现有的法律对于像 “提示注入攻击” 这样的行为并没有明确的界定,这使得研究人员很难判断他们的行为是否触犯了法律。她表示,虽然某些行为如未经许可访问模型是明确违法的,但如果研究人员已经获得了使用 AI 系统的权限,却在其不希望的方式下使用这些模型,是否就构成了违法,这就变得模糊不清。

2021年,美国最高法院的 “范布伦诉美国” 案改变了对 CFAA 的解释,规定该法只适用于那些未经授权访问计算机内部信息的人。这一判决在传统计算机系统中有其意义,但在涉及大型语言模型时就显得捉襟见肘。阿尔伯特指出,使用自然语言与 AI 交互的方式,使得这种法律界定变得更加复杂,很多时候,AI 的响应并不等同于从数据库中检索信息。

与此同时,西瓦库马尔也提到,关于 AI 安全研究的法律讨论远不及版权等问题受到重视,他自己也不确定是否在进行某些攻击测试时会受到保护。阿尔伯特则表示,鉴于现有法律的不确定性,未来可能会在法庭上通过诉讼来厘清这一问题,但目前却让很多 “好心的” 研究人员感到无所适从。

在这个法律环境下,阿尔伯特建议安全研究人员最好寻求法律支持,以确保自己的行动不会触犯法律。她还担心,模糊的法律条款可能会导致有潜力的研究人员被吓退,反而让恶意攻击者得以逍遥法外,造成更大的安全隐患。

划重点:

🛡️ 美国《计算机欺诈和滥用法》对 AI 安全研究者的保护不足,可能面临法律风险。  

💡 现行法律对提示注入攻击等行为缺乏明确界定,导致研究人员难以判断合法性。  

⚖️ 学者们认为,未来可能需要通过法庭诉讼来厘清相关法律条款,保护善意研究者。