国际机构发布AI安全指南

据多家媒体报道,美国国家标准与技术研究所(NIST)计划裁减多达500名员工,这一决定进一步威胁到刚刚起步的美国人工智能安全研究所(AISI)。Axios 的报道称,AISI 和 “美国芯片计划” 将面临针对试用期员工的 “重大” 裁员,这些员工通常是在职一至两年的新员工。Bloomberg 则表示,部分员工已经收到了即将被解雇的口头通知。在最新裁员消息之前,AISI 的未来已经充满不确定性。该研究所成立于去年,旨在研究人工智能开发中的风险并制定相应标准,其成立是依据时任总统乔・拜登关于
AI 安全公司 Adversa AI 发布了一项令人震惊的报告,称埃隆・马斯克的创业公司 xAI 刚发布的 Grok3模型在网络安全方面存在重大漏洞。Adversa 的研究团队发现,这款最新的 AI 模型容易受到 “简单的越狱攻击”,这可能使不法分子能够获取诸如 “如何诱骗儿童、处理尸体、提取 DMT 以及制造炸弹” 等敏感信息。更糟糕的是,Adversa 的首席执行官兼联合创始人亚历克斯・波利亚科夫表示,这次漏洞不仅仅是越狱攻击那么简单,他们还发现了一种新的 “提示泄露” 缺陷,暴露了 Grok 模型的完整系
英国政府近期宣布,将原本名为 “AI 安全研究所” 的机构更名为 “AI 安全研究院”,此举标志着政府在 AI 领域战略的重大转变。新的名称不仅反映了机构的职能变化,也表明了英国政府在推动 AI 产业发展方面的坚定决心。图源备注:图片由AI生成,图片授权服务商Midjourney这一变化由科学、工业与技术部公布,新的 AI 安全研究院将重点关注网络安全,旨在 “加强对 AI 对国家安全及犯罪风险的保护”。原本侧重于探讨大语言模型的生存风险和偏见问题,如今将更多的精力转向如何利用 AI 技
在短短六天内,参与者成功绕过了Anthropic人工智能(AI)模型Claude3.5的所有安全防护措施,这一突破为AI安全防护领域带来了新的讨论。前OpenAI对齐团队成员、现就职于Anthropic的Jan Leike在X平台宣布,一名参与者成功攻破了所有八个安全级别。这项集体努力涉及了约3,700小时的测试和来自参与者的300,000条消息。尽管挑战者成功突破,但Leike强调,目前还没有人能够提出一种通用的“越狱方法”来一次性解决所有安全挑战。这意味着尽管存在突破,依然无法找到一种万能的方式来绕过所有的