最近,美国新墨西哥州的警方引发了一场争议,他们在一项调查中使用了一张 AI 生成的虚拟14岁女孩的照片来诱捕性犯罪嫌疑人。这项调查的背景是,检察官针对社交媒体应用 Snapchat 提起了诉讼,指控该平台未能保护儿童免受性剥削和伤害。

天才少女 赛博朋克 AI绘画 (1)

图源备注:图片由AI生成,图片授权服务商Midjourney

根据诉讼文件,警方在 Snapchat 上创建了一个名为 “海瑟”(Heather)的假账号,试图通过这个账号与可能的性犯罪者进行接触。

在这个过程中,警方发现并与一些明显的性犯罪嫌疑人进行了交流,这些人使用的用户名甚至让人不寒而栗,比如 “child.rape” 和 “pedo_lover10”。以往,警方在类似的调查中通常会使用年轻女性的照片(往往是警察的照片)来欺骗这些犯罪者,但这次却选择了 AI 生成的虚拟少女图像。

调查结果表明,这种方法取得了意想不到的成功,很多犯罪嫌疑人确实上钩了,他们试图引导 “海瑟” 分享一些露骨的图片或儿童性虐待材料。虽然这个调查揭露了 Snapchat 算法背后的黑暗现实,但警方使用 AI 生成图像的方法也引发了新的伦理问题。

法律专家指出,政府如果制造出深度伪造的儿童性虐待材料(CSAM),无疑是令人担忧的,因为这些图像本身就是违法的,社会也不希望看到更多的儿童性虐待材料在流传。

另外,AI 生成虚拟儿童图像的过程也涉及到了训练数据集的问题。为了生成虚假的儿童图像,AI 模型需要使用真实儿童的照片进行训练。这让人不得不质疑,儿童是否真的能够对此做出完全的同意,尤其是在生成可能带有性暗示的图像时。这种情况无疑增加了法律与伦理的复杂性。

警方使用 AI 生成的虚拟少女进行诱捕,这种方法在捕捉犯罪嫌疑人的同时,也引发了许多关于道德与法律的讨论。究竟这是否是保护儿童的最佳方式,值得社会各界的深思。

划重点:

1️⃣ 新墨西哥警方使用 AI 生成的虚拟少女照片引诱性犯罪嫌疑人。

2️⃣ 此方法在捕获嫌疑人的同时引发了关于伦理与法律的新问题。

3️⃣ AI 生成儿童图像需依赖真实儿童照片,涉及到同意及隐私问题。