在当今的数字时代,儿童的在线安全问题愈发引起重视。近日,Roblox、Discord、OpenAI 与谷歌联合推出了一个名为 ROOST(强大开放在线安全工具)的非营利组织,旨在为 AI 时代构建一个可扩展且互联互通的安全基础设施。这个新组织的目标是为公共和私人机构提供开源安全工具,以帮助它们在自身平台上加强保护,特别关注儿童的安全。
图源备注:图片由AI生成,图片授权服务商Midjourney
ROOST 的成立是在对生成式 AI 快速发展的回应下。随着网络环境的变化,孩子们面临的风险日益增加,因此对 “可靠且易于访问的安全基础设施” 的需求也变得更加迫切。ROOST 希望通过提供现成的安全工具,避免小型公司或组织在开发这些工具时需要从零开始,而是能够直接使用这些免费的解决方案。
在 ROOST 的计划中,组织将着重提供检测、审核和报告儿童性虐待材料(CSAM)的相关工具。这一举措将帮助各类平台识别和处理不当内容,保护儿童在网络环境中的安全。为此,参与的公司不仅会提供资金支持,还将贡献相应的技术力量。
儿童在线安全问题一直受到关注,尤其是在《儿童与青少年在线隐私保护法案》和《儿童在线安全法案》在国会审议期间。尽管这些法案未能通过众议院的投票,参与的科技公司,包括谷歌和 OpenAI,已承诺停止使用 AI 技术生成儿童性虐待材料。
对于 Roblox 而言,儿童安全问题尤其重要。根据2020年的数据,美国九至十二岁的儿童中,有三分之二在使用 Roblox。而该平台在儿童安全方面曾面临诸多挑战。早在2024年,《彭博商业周刊》就曾报道公司遭遇 “恋童癖问题”,因此 Roblox 不得不加强对儿童私信的限制和新政策的实施。
ROOST 的推出虽然无法解决所有问题,但它为 Roblox 及其他类似平台提供了一个更简便的应对方案,为保障儿童在 AI 时代的安全做出努力。
划重点:
🌐 ROOST 是由 Roblox、OpenAI 和谷歌等公司联合推出的非营利组织,旨在为儿童提供在线安全保护。
🔍 该组织将提供开源安全工具,帮助平台检测和报告儿童性虐待材料(CSAM)。
🛡️ Roblox 等平台面临儿童安全挑战,ROOST 的成立为其提供了更有效的解决方案。