zh
AI产品榜
每月不到10元,就可以无限制地访问最好的AIbase。立即成为会员
首页
AI资讯
AI日报
变现指南
AI教程
AI工具导航
AI产品库
zh
AI产品榜
搜索全球AI产品动态
搜索全球AI信息,发现AI新机遇
新闻资讯
产品应用
变现案例
AI教程
类型 :
新闻资讯
产品应用
变现案例
AI教程
2024-08-02 16:20:16
.
AIbase
.
10.8k
AI攻击“障眼法”EaTVul:绕开漏洞检测系统成功率超83%
基于深度学习的软件安全检测系统,如同数字化时代的"安检员",能高效识别软件漏洞。然而,一项名为EaTVul的研究揭示了这一领域的新挑战。EaTVul是一种创新的规避攻击策略,通过修改有漏洞的代码,让基于深度学习的检测系统误判,成功率高达83%至100%。其工作原理包括利用支持向量机找出关键样本、注意力机制识别关键特征、AI聊天机器人生成迷惑性数据,以及模糊遗传算法优化数据欺骗性。这项研究强调了当前软件漏洞检测系统的脆弱性,并呼吁开发更强大的防御机制以应对这类攻击,以保障软件安全。
2024-01-08 11:09:04
.
AIbase
.
4.7k
谷歌DeepMind最新研究:对抗性攻击对人类也有效,人类和AI都会把花瓶认成猫
["神经网络由于自身的特点容易受到对抗性攻击","谷歌DeepMind的最新研究表明,人类的判断也会受到这种对抗性扰动的影响","人类的神经网络和人工神经网络的关系是什么?","研究表明,我们之前的这种看法可能是错误的!","人类的判断也会受到这种对抗性扰动的影响"]
2023-10-30 09:54:48
.
AIbase
.
2.6k
LLM对抗性攻击解析:12种对抗性攻击提示词揭秘与安全对策
["随着LLM应用日益广泛,提升其安全性迫在眉睫","提示词攻击直接影响LLM执行准确性与系统安全性","介绍众多对抗性提示词攻击手段实例","红队演练可增强LLM对抗攻击能力","用户应提高网络安全防范意识"]
2023-09-26 10:35:04
.
AIbase
.
1.7k
富士通发布新技术加固对话型AI免受幻觉和对抗性攻击
["富士通宣布推出两项新的人工智能信任技术,旨在提高对话型人工智能模型的可靠性,包括检测幻觉和对抗性攻击的技术。","这些技术将整合到富士通的人工智能平台“Kozuchi”中,旨在为企业和个人用户提供工具,评估对话型人工智能回复的可靠性,增强人工智能的安全性。","第一项技术旨在高度精确地检测对话型人工智能回复中的幻觉,解决了回复中可能存在的误导问题。","第二项技术用于检测对话型人工智能回复中的植入网络钓鱼网址,以提高回复的安全性。"]