近年来,人工智能(AI)的快速发展为企业带来了诸多机遇,但与此同时,其潜在的威胁也日益显现。根据最新发布的2024《新一代风险报告》,调查显示,竟有高达80% 的受访企业尚未针对生成式 AI 风险制定专门的应对计划,这其中包括了 AI 驱动的网络诈骗等安全隐患。

开发者 黑客开发者 漏洞 泄露 安全

该调查由风险管理软件公司 Riskconnect 进行,受访者包括218名全球风险合规与韧性专业人士。结果显示,24% 的受访者认为,未来12个月,AI 驱动的网络安全威胁(如勒索软件、网络钓鱼和深度伪造)将对企业产生重大影响。同时,有72% 的受访者表示,网络安全风险对其组织造成了显著或严重的影响,这一比例较去年47% 的数据有所上升。

随着对 AI 伦理、隐私和安全等问题的关注加剧,报告指出,虽然企业对 AI 的担忧有所增加,但在风险管理策略上却未能及时跟进,依然存在许多关键空白。例如,65% 的公司没有针对合作伙伴和供应商的生成式 AI 使用制定相关政策,尽管第三方是网络诈骗者常用的入侵渠道。

内部威胁同样不可小觑。以企业利用生成式 AI 制作营销内容为例,市场营销专家安东尼・宫崎提醒,虽然生成式 AI 在撰写文本方面表现出色,但最终的文案依然需要经过人工编辑,以确保其说服力和准确性。此外,依赖 AI 生成网站内容也可能导致负面影响,例如,谷歌已明确表示,如果利用 AI 内容来操控搜索过程,将会降低其搜索排名,这对企业的搜索引擎优化(SEO)将造成严重打击。

为了应对这些挑战,企业需确保内部政策全面覆盖,保障敏感数据的安全并遵循相关法规。德尔科技的首席安全官约翰・斯基莫尼表示,他们在生成式 AI 热潮之前就制定了相关原则,确保 AI 应用的发展是公平、透明和负责任的。

在数字营销机构 Empathy First Media,副总裁瑞安・多瑟也强调了公司在员工使用 AI 方面采取的严格措施,包括禁止将客户敏感数据输入生成式 AI 工具、要求人工审核 AI 生成内容等。这些措施旨在提高透明度,建立客户信任。

划重点:

🌐80% 的企业未制定针对生成式 AI 风险的专门计划,面临潜在安全隐患。  

🔒72% 的企业认为网络安全风险对其产生了显著影响,呼吁加强风险管理。  

📈 企业应采取积极措施,确保 AI 应用的安全与合规,避免内外部威胁。