最近的一项研究发现,由人工智能驱动的聊天机器人能够通过认证的道德黑客考试,但研究人员警告称,不应仅仅依赖它们来保护网络安全。该研究由密苏里大学的研究人员Prasad Calyam与印度阿姆里塔大学的合作者共同撰写,测试了OpenAI的ChatGPT和谷歌的Bard(现称Gemini)这两款领先的生成式AI工具。

黑客 网络攻击 (1)

图源备注:图片由AI生成,图片授权服务商Midjourney

认证的道德黑客是利用与恶意黑客相同的技巧和工具来发现和修复安全漏洞的网络安全专业人员。这些考试衡量个人对各种攻击类型的了解,以及如何保护系统和应对安全漏洞。

在研究中,Calyam及其团队使用了经过验证的认证道德黑客考试中的标准问题来测试这些机器人。例如,他们挑战AI工具解释中间人攻击,这是一种第三方拦截两个系统之间通信的攻击方式。研究发现,ChatGPT和Bard都能解释这种攻击,并建议如何预防。

研究人员发现,Bard在准确性方面略优于ChatGPT,而ChatGPT则在内容的全面性、清晰度和简洁性方面表现更好。

Calyam教授指出,虽然这些工具可以为个人或小型公司提供快速帮助,但不能取代具有问题解决经验的人类网络安全专家,后者能制定更加健壮的网络安全措施。

尽管AI模型在道德黑客方面表现出潜力,但研究人员认为仍需进一步努力以充分利用它们的能力,并确保它们的准确性,以提高整体网络安全水平。

划重点:

 🤖 AI聊天机器人通过考试:密苏里大学和阿姆利塔大学的研究显示,AI聊天机器人能通过道德黑客考试。

 🔒 道德黑客角色:道德黑客使用与恶意黑客相同的技巧和工具来检测和修复安全漏洞。 

📝 AI工具的限制:尽管AI聊天机器人在测试中表现良好,但不能完全取代人类专家在网络安全领域的工作。