在无人驾驶汽车的技术日益成熟的今天,人工智能扮演着至关重要的角色,它帮助车辆进行决策、感知环境和预测模型等。然而,最近在布法罗大学进行的一项研究却引发了人们的关注,研究者们发现这些 AI 系统可能存在被攻击的风险。
这项研究的负责人,计算机科学与工程系的 SUNY 杰出教授Chunming Qiao表示,虽然目前的研究是在受控环境下进行的,并不意味着现有的无人驾驶汽车就是不安全的。但这些发现可能对汽车、科技、保险以及政府监管政策等领域产生深远影响。
研究团队在过去三年里对布法罗大学的自主车辆进行了多项测试,主要关注激光雷达、毫米波雷达和摄像头的脆弱性。研究员朱毅指出,毫米波雷达在雨、雾和光线差的条件下,能够比许多摄像头更可靠地进行物体检测,但它同样可以被黑客攻击。
通过使用3D 打印和金属箔片,研究人员制作了名为 “砖块面具” 的特定几何形状物体,放置在车辆上后,可以有效地让这辆车在雷达检测中 “消失”。这一工作为他们的研究提供了有力的证据,显示了 AI 模型在雷达检测中的脆弱性。
Yi Zhu还指出,攻击者可能会在驾驶者开始行程前,偷偷在车辆上贴上恶意物体,甚至可以在行人穿的背包里放置相关物品,从而消除对该行人的检测。这种攻击的动机可能包括保险欺诈、无人驾驶公司的竞争,或是出于对他人造成伤害的个人意图。
不过,研究者也强调,这些模拟攻击是建立在攻击者对受害车辆的雷达物体检测系统有充分了解的基础上,而这种信息在公众中并不普遍。因此,虽然无人驾驶汽车的安全性值得关注,但公众的安全意识和技术保护措施同样重要。
未来,研究团队希望能够进一步研究其他传感器的安全性,并开发出有效的防御措施,以应对这些潜在的攻击。
划重点:
🔍 研究发现无人驾驶汽车中的 AI 系统存在被恶意攻击的风险,可能导致车辆在雷达检测中消失。
🛡️ 攻击者可以通过在车辆上放置特殊物体通过行人身上的物品来干扰 AI 系统的判断。
🚗 研究团队希望在未来能更深入探讨其他传感器的安全性,并制定有效的防护策略。