最近,美国司法部(DoJ)在企业合规领域引入了新的要求,特别是针对人工智能(AI)的使用。随着越来越多的企业开始利用 AI 技术,这项新规无疑为合规官员增加了额外的压力。企业现在需要认真考虑 AI 可能带来的法律风险,否则可能面临高额罚款。

开会,会议

图源备注:图片由AI生成,图片授权服务商Midjourney

司法部刑事司首席副助理司法部长 Nicole Argentieri 在一次演讲中谈到了企业合规计划(ECCP)的新指南,这些指南旨在帮助企业避免法律问题。新的规定强调,合规官员必须考虑 AI 对公司合规能力的潜在影响。这意味着,企业不仅要关注 AI 的好处,还需要分析它可能带来的负面后果。

这些新规明确要求合规官员自问一些关键问题,例如:“公司如何评估 AI 等新技术对遵守法律的能力?”“如何控制因使用这些技术而可能引发的意外后果?” 以及 “如何减少内部人员对这些技术的蓄意或鲁莽滥用?” 这些问题反映了司法部在调查时会特别关注的内容。

Argentieri 指出,检察官会考虑企业是否容易受到新技术导致的犯罪风险,比如虚假的批准和文档。如果企业未能展示出有效的合规控制措施,后果将可能非常严重。此外,企业还需主动监控和测试 AI 应用,以确保其功能正常。

简而言之,如果 AI 技术违反了法律,企业仍将承担责任。因此,企业高管必须在问题出现之前主动识别并解决这些风险,确保合规措施得当。

值得注意的是,除了 AI 合规性的新指南,ECCP 的更新还包括与举报人相关的指导,旨在鼓励员工报告非法活动。这一系列的新规,提醒各企业在推进技术创新的同时,也要将法律风险纳入考量。

划重点:

🛡️ 新规要求企业合规官员认真评估 AI 的法律风险,避免面临罚款。  

🤖 企业需主动监控和测试 AI 应用,确保技术使用合规。  

👥 司法部将加强对企业合规程序的审查,关注是否有效防范犯罪风险。