在人工智能技术飞速发展的今天,美国的AI监管正处于一个极其混沌的时代。特朗普政府即将上台,其对科技监管的"放任自流"态度,正在推动一场极具戏剧性的监管博弈。当前,美国AI监管呈现出一幅支离破碎的拼图:联邦层面缺乏统一政策,各州自行其是,有些地区甚至完全没有明确规则。这种监管真空,正在为科技巨头们创造一个充满未知和风险的竞技场。特朗普团队正考虑任命一位"AI沙皇",试图在白宫层面协调人工智能的政策和政府应用。然而,这一举动更像是一剂安抚剂,究竟能
欧盟近日发布了通用人工智能 (GPAI) 模型行为准则的初稿,旨在为公司提供遵守和避免巨额罚款的蓝图。该文件将在5月最终定稿,列出了风险管理指南,并为公司提供了遵守和避免巨额罚款的蓝图。GPAI 是经过训练的、总计算能力超过10²⁵ FLOP 的人工智能。预计受欧盟指导方针约束的公司包括 OpenAI、谷歌、Meta、Anthropic 和 Mistral。该文件涉及 GPAI 制定者的几个核心领域:透明度、版权合规性、风险评估以及技术/治理风险缓解。该法规强调人工智能开发的透明度,并要求人工智能公司提供
最近,加州州长加文・纽森否决了一项备受争议的AI安全法案,引发了科技界和政界的热议,也为AI监管的未来走向投下了一记重磅炸弹。这项由民主党州参议员斯科特・维纳提出的法案,原本旨在为迅猛发展的AI技术设立安全guardrails。它要求对开发成本超过1亿美元或需要特定计算能力的先进AI模型进行安全测试,并要求开发者提供"关闭开关"。此外,该法案还计划建立一个州级机构,专门监督"前沿模型"的开发。图源备注:图片由AI生成,图片授权服务商Midjourney然而,纽森认为这项法案过
近日,加州州长加文·纽瑟姆周一否决了备受瞩目的SB1047法案,该法案旨在规范大型人工智能模型的开发。这一决定在科技界和政界引发广泛讨论。SB1047由州参议员斯科特·维纳提出,要求开发成本至少1亿美元、使用10^26FLOPS计算量的AI模型公司实施安全协议。该法案在加州立法机构获得通过,但遭到包括OpenAI、Meta首席AI科学家Yann LeCun在内的硅谷多方反对。纽瑟姆在否决声明中表示:"SB1047初衷良好,但未考虑AI系统的具体应用环境及风险程度,而是对所有大型系统采用严格标准。这并非保护公