在人工智能技术飞速发展的今天,美国的AI监管正处于一个极其混沌的时代。特朗普政府即将上台,其对科技监管的"放任自流"态度,正在推动一场极具戏剧性的监管博弈。当前,美国AI监管呈现出一幅支离破碎的拼图:联邦层面缺乏统一政策,各州自行其是,有些地区甚至完全没有明确规则。这种监管真空,正在为科技巨头们创造一个充满未知和风险的竞技场。特朗普团队正考虑任命一位"AI沙皇",试图在白宫层面协调人工智能的政策和政府应用。然而,这一举动更像是一剂安抚剂,究竟能
最近,加州州长加文・纽森否决了一项备受争议的AI安全法案,引发了科技界和政界的热议,也为AI监管的未来走向投下了一记重磅炸弹。这项由民主党州参议员斯科特・维纳提出的法案,原本旨在为迅猛发展的AI技术设立安全guardrails。它要求对开发成本超过1亿美元或需要特定计算能力的先进AI模型进行安全测试,并要求开发者提供"关闭开关"。此外,该法案还计划建立一个州级机构,专门监督"前沿模型"的开发。图源备注:图片由AI生成,图片授权服务商Midjourney然而,纽森认为这项法案过
近日,加州州长加文·纽瑟姆周一否决了备受瞩目的SB1047法案,该法案旨在规范大型人工智能模型的开发。这一决定在科技界和政界引发广泛讨论。SB1047由州参议员斯科特·维纳提出,要求开发成本至少1亿美元、使用10^26FLOPS计算量的AI模型公司实施安全协议。该法案在加州立法机构获得通过,但遭到包括OpenAI、Meta首席AI科学家Yann LeCun在内的硅谷多方反对。纽瑟姆在否决声明中表示:"SB1047初衷良好,但未考虑AI系统的具体应用环境及风险程度,而是对所有大型系统采用严格标准。这并非保护公
Meta周三向Axios发表声明,宣布由于欧盟法规不明确,该公司将不会向欧盟国家的客户发布其新的多模态AI模型或未来版本。这一决定引发了对欧盟AI监管环境的广泛讨论,同时也反映了美国科技巨头在面对全球不同监管要求时的策略调整。