YouTube 是全球最大的视频平台,现在该平台推出了一项新的机制,使人们能够请求删除通过 AI 生成的模仿其外貌或声音的内容,这项机制是对该技术目前较为轻松的监管的拓展。
尽管该机制已在上个月更新的 YouTube 隐私指南中悄然添加,但直到本周 TechCrunch 才注意到这一点。YouTube 将 AI 技术用于 “改变或创建看起来或听起来像您的合成内容” 视为潜在的隐私侵犯,而不是误导或版权问题。
然而,请求删除的人并不能保证得到删除,而 YouTube 的标准则留下了相当大的模糊空间。YouTube 表示,它将考虑一些因素,如内容是否被披露为 “经过改变或合成的”,个人是否 “可以被独特地识别”,内容是否 “逼真”。此外,这里还存在一个巨大且常见的漏洞,即内容是否被认为是恶搞或讽刺,甚至更模糊的是是否具有 “公共利益” 的价值。这些模糊不清的资格条件表明,YouTube 在这方面采取了相当软弱的立场,绝不是反对 AI。
在保护任何形式的隐私侵犯方面,YouTube 遵循的是其标准,只接受第一方索赔。只有在特殊情况下,如被冒名顶替的个人没有互联网,是未成年人或已故的,才会考虑第三方索赔。
如果索赔得到通过,YouTube 将给违规上传者48个小时的时间来处理投诉,可以包括裁剪或模糊视频以删除有问题的内容,或完全删除视频。如果上传者未能及时采取行动,他们的视频将受到 YouTube 团队进一步审查。
这些指南都很好,但真正的问题是 YouTube 如何在实践中执行它们。正如 TechCrunch 所指出的那样,作为谷歌旗下的平台,YouTube 在 AI 领域有着自己的利益,包括发布音乐生成工具和概述短视频下评论的机器人。
这也许是为什么这项新的 AI 内容删除请求功能悄然推出,作为去年开始的 “负责任” AI 倡议的温和延续,该倡议现在已开始生效,要求逼真的 AI 生成内容必须在3月份披露。
划重点:
- 💡 YouTube 推出了 AI 内容模仿投诉机制。
- 💡 请求删除的人并不能保证得到删除,而 YouTube 的标准则留下了相当大的模糊空间。
- 💡 只有在特殊情况下,如被冒名顶替的个人没有互联网,是未成年人或已故的,才会考虑第三方索赔。