在技术的世界里,有一场开发者与管理层之间的“猫鼠游戏”正在上演。这场游戏的主角,是那些被公司明令禁止,却依旧被开发者们悄悄使用的AI编码工具。

根据云安全公司Checkmarx的最新全球研究,尽管有15%的公司明确禁止使用AI编码工具,但几乎所有的开发团队(99%)都在使用它们。这一现象揭示了在控制生成式AI使用方面的挑战。

仅有29%的公司为生成式AI工具建立了某种形式的治理机制。在70%的情况下,并没有统一的策略,购买决策由各个部门临时决定。这种情况让管理层在控制AI编码工具的使用上显得有些力不从心。

image.png

随着AI编码工具的普及,安全问题也日益凸显。80%的受访者担心开发者使用AI可能带来的潜在威胁,特别是60%的人对AI产生的“幻觉”问题表示担忧。

尽管存在担忧,但人们对AI的潜力仍然充满兴趣。47%的受访者对允许AI进行无监督的代码更改持开放态度。仅有6%的人表示他们不会信任AI在软件环境中的安全措施。

Tzruya表示:“这些全球CISOs的回应揭示了一个现实,即开发者即使使用AI无法可靠地创建安全代码,也在应用程序开发中使用AI,这意味着安全团队需要应对大量新的、易受攻击的代码。”

微软的工作趋势指数最近的报告也显示了类似的发现,许多员工在没有提供AI工具的情况下,会使用自己的AI工具。通常,他们不会讨论这种使用,这阻碍了生成式AI系统地融入业务流程。

尽管有明文禁止,99%的开发团队仍然在使用AI工具生成代码。只有29%的公司为生成式AI的使用建立了治理机制。70%的情况下,各个部门关于AI工具的使用决策是临时做出的。与此同时,安全问题也在增长。47%的受访者对允许AI进行无监督的代码更改持开放态度。安全团队面临着处理大量潜在易受攻击的AI生成代码的挑战。

这场开发者与管理层之间的“猫鼠游戏”仍在继续,而AI编码工具的未来将何去何从,我们拭目以待。