最近,德勤发布了一份报告,揭示了数据隐私在生成性人工智能(GenAI)中的重要性。根据这项调查,专业人士对数据隐私的担忧显著上升,2023年只有22% 的人将其列为首要关注点,而到2024年,这一比例跃升至72%。这表明,随着技术的进步,人们对其潜在风险的认识越来越高。
图源备注:图片由AI生成,图片授权服务商Midjourney
除了数据隐私,透明度和数据来源也是受关注的重点,分别有47% 和40% 的专业人士将这两个问题列入自己的关注清单。而相比之下,只有16% 的人对工作岗位流失表示担忧。调查显示,员工们对 AI 技术的运作方式愈发好奇,特别是涉及敏感数据的方面。HackerOne 的一项研究也表明,近一半的安全专业人士认为 AI 存在风险,许多人把泄露的训练数据视为一个重大威胁。
德勤的这份报告还提到,78% 的商业领袖将 “安全和保障” 视为其三大伦理技术原则之一,较2023年增加了37%。可以看出,安全问题正变得日益重要。大约一半的受访者表示,认知技术如 AI 和 GenAI 在新兴技术中构成的伦理风险最大,尤其是一些高调的 AI 安全事件引发了更多的关注。例如,OpenAI 的 ChatGPT 曾因一个漏洞泄露了约1.2% ChatGPT Plus 用户的个人数据,包括姓名、电子邮件和部分支付信息。
随着越来越多的员工在工作中使用生成性 AI,德勤的调查显示,内部使用这一技术的专业人士比例比去年增加了20%。不过,仍然有很多公司处于试点阶段,只有12% 的受访者表示其在广泛使用这一技术。与此同时,决策者们希望确保在使用 AI 时不触犯法律法规。因此,34% 的受访者将合规性视为建立伦理技术政策和指导方针的主要原因。
欧盟的 AI 法案于今年8月1日生效,对高风险 AI 系统设定了严格的要求,以确保其安全性、透明度和伦理使用。非合规的后果可能导致高达3500万欧元的罚款或营业额的7%。许多公司,包括亚马逊、谷歌、微软和 OpenAI,已经签署了欧盟 AI 公约,以提前落实法案要求,展现他们在负责任的 AI 部署方面的承诺。
划重点:
- 🔒 数据隐私成为2024年生成性 AI 的主要担忧,关注从22% 跃升至72%。
- 📈78% 的商业领袖将 “安全和保障” 列为其三大伦理技术原则之一,强调安全性的重要性。
- ⚖️ 欧盟 AI 法案的实施影响深远,促使公司在 AI 使用上进行必要的调整与合规。