2024年8月1日,欧盟《人工智能法案》正式生效,标志着一个崭新的监管时代到来。这一突破性法规将为欧盟境内的人工智能应用设定明确的标准和合规性要求。该法案的实施意味着欧盟在人工智能治理方面迈出了重要一步,也体现了欧盟基于风险管理的做法。

该法案针对不同类型的人工智能开发者和应用程序制定了交错的合规期限。虽然大多数条款要到2026年中期才会全面适用,但一些关键条款将在六个月后开始执行,这包括禁止在特定情况下使用少数人工智能技术,如执法部门在公共场所使用远程生物识别技术。

AI,人工智能,机器人

图源备注:图片由AI生成,图片授权服务商Midjourney

根据欧盟的风险管理方法,人工智能应用被分为不同风险等级。大多数日常应用被归类为低风险或无风险,因此不在此法规监管范围内。然而,一些可能对个人和公众造成潜在危害的应用被列为高风险,如生物识别、面部识别和基于人工智能的医疗软件。开发这些高风险人工智能技术的公司必须确保其产品符合严格的风险和质量管理标准,包括进行全面的一致性评估,并有可能接受监管机构的审计。

此外,聊天机器人等被归类为"有限风险"的技术也需满足一些透明度要求,确保用户了解其使用情况,并防止潜在的误导或欺诈。

《人工智能法案》还引入了分级的处罚制度。违反禁令使用高风险人工智能应用的公司将面临严厉的处罚,最高可处以相当于公司全球年营业额7%的罚款。其他违规行为,如不履行风险管理义务或向监管机构提供不正确信息,将被处以不同程度的经济处罚,最高可达全球年营业额的3%或1.5%。

对于被称为通用人工智能(GPAI)的技术,欧盟也制定了专门的规定。大多数GPAI开发者将被要求满足轻度透明度义务,包括提供训练数据摘要和遵守版权规则。而只有最强大的GPAI模型被归类为可能带来系统性风险时,才需要采取额外的风险评估和缓解措施。

随着《人工智能法案》的生效,欧盟的人工智能生态系统迎来了新的篇章。开发者、企业和公共部门现在有了明确的合规路线图,这将促进人工智能行业的创新和发展,同时确保其应用符合道德和安全标准。

然而,挑战依然存在。一些具体规定,尤其是针对高风险人工智能系统的要求,仍在制定中。欧洲标准机构正在积极参与这一进程,预计将于2025年4月前完成相关标准的制定工作。