美国商务部发布了一份报告,表达了对 “开放权重” 生成 AI 模型的支持,比如 Meta 的 Llama3.1。这份报告指出,开放模型能够使小公司、研究人员、非营利组织和个人开发者更容易获取生成 AI 的资源。因此,政府不应对开放模型的访问设置限制,至少在调查这些限制是否会对市场造成伤害之前。

大脑 大模型  AI

图源备注:图片由AI生成,图片授权服务商Midjourney

这一观点与联邦贸易委员会(FTC)主席莉娜・卡汉的看法相吻合。卡汉认为,开放模型可以让更多小企业把创意推向市场,进而促进健康的竞争。美国商务部通信与信息助理秘书长艾伦・达维森在一份声明中表示:“最大的 AI 系统的开放性将影响竞争、创新以及这些革命性工具的风险。” 他补充道,NTIA 的报告认识到开放 AI 系统的重要性,并呼吁对大型 AI 模型的广泛可用性进行更积极的风险监控。

目前,国内外的监管机构正在考虑可能会限制或对希望发布开放权重模型的公司施加新要求的规则。例如,加州即将通过 SB1047法案,要求任何使用超过1026FLOP 计算能力训练模型的公司加强网络安全,并开发一种 “关闭” 模型副本的方法。在海外,欧盟最近为其 AI 法案下的公司最终确定了合规截止日期,该法案对版权、透明度和 AI 应用设定了新规则。

Meta 曾表示,欧盟的 AI 政策将使其无法在未来发布某些开放模型。而一些初创企业和大科技公司也反对加州的法律,认为该法案的要求过于苛刻。

不过,NTIA 的模型治理理念并不是完全放任自流。报告中呼吁政府建立一个持续的项目,收集开放模型的风险和收益的证据,评估这些证据并据此采取行动,包括在必要时对模型的可用性施加某些限制。具体而言,报告建议政府研究各种 AI 模型的安全性,支持风险缓解的研究,并制定 “特定风险” 指标的阈值,以便在政策需要变更时发出信号。

这些措施与乔・拜登总统的 AI 行政命令相一致,该命令要求政府机构和公司设定新标准,以便在 AI 的创建、部署和使用方面负责地推动创新。美国商务部长吉娜・雷蒙多在新闻稿中表示:“拜登 - 哈里斯政府正在竭尽所能地最大化 AI 的潜力,同时最小化其风险。今天的报告为负责任的 AI 创新和美国领导力提供了一条道路,倡导开放并建议美国政府如何为未来潜在的挑战做好准备。”

划重点:

🌟 开放模型促进小企业竞争,政府不应轻易限制访问。  

🔍 政府呼吁加强对开放模型的风险监控,确保其安全性。  

📅 国内外监管机构正在考虑新规,可能对开放模型施加更多要求。