最近,AI界多位大佬在线上展开激烈讨论,围绕人工智能可能存在的风险、是否需要监管等问题针锋相对。以吴恩达和Hinton为代表的两派人分别表达了不同观点。吴恩达等人主张开放创新,认为过度监管会扼杀创新;Hinton等人则提出AI潜在风险,需要谨慎对待。此事引发广泛关注,凸显AI监管问题的复杂性,需要在技术进步和社会风险之间找到平衡。
最近,AI界多位大佬在线上展开激烈讨论,围绕人工智能可能存在的风险、是否需要监管等问题针锋相对。以吴恩达和Hinton为代表的两派人分别表达了不同观点。吴恩达等人主张开放创新,认为过度监管会扼杀创新;Hinton等人则提出AI潜在风险,需要谨慎对待。此事引发广泛关注,凸显AI监管问题的复杂性,需要在技术进步和社会风险之间找到平衡。
在特朗普总统上任的第一天,他宣布撤销了前总统拜登于2023年签署的一项行政令,该行政令旨在降低人工智能(AI)对消费者、工人和国家安全可能带来的风险。拜登的这项行政令指示美国商务部下属的国家标准与技术研究所(NIST)制定指导方针,帮助企业识别和纠正其 AI 模型中的缺陷,包括偏见。此外,该行政令还要求 AI 系统的开发者在将其产品公开发布之前,必须向美国政府提交安全测试的结果。图源备注:图片由AI生成,图片授权服务商Midjourney然而,特朗普的支持者对此提出了批评
近日,Nvidia 宣布在其 NeMo Guardrails 平台上新增三项安全功能,旨在帮助企业更好地管理和控制 AI 聊天机器人。这些微服务专门针对 AI 安全和内容审核中的常见挑战,提供了一系列实用的解决方案。其中,内容安全服务(Content Safety)可以在 AI 响应用户之前,对其内容进行审核,检测是否存在潜在的有害信息。这项服务有助于防止不当内容传播,确保用户得到安全和合适的信息。另外,主题控制服务(Topic Control)旨在确保聊天内容保持在预先设定的主题范围内。这意味着,聊天机器人能够
自2021年以来,微软的 AI 安全团队对100多种生成式 AI 产品进行了测试,以寻找薄弱环节和道德问题。他们的发现挑战了一些关于 AI 安全的常见假设,并强调了人类专业知识的持续重要性。事实证明,最有效的攻击并不总是最复杂的攻击。微软报告中引用的一项研究指出:“真正的黑客不会计算梯度,而是使用快速工程。”该研究将人工智能安全研究与现实世界的实践进行了比较。在一次测试中,该团队仅通过将有害指令隐藏在图像文本中就成功绕过了图像生成器的安全功能——无需复杂的
在人工智能(AI)监管方面,英国政府表示希望采取独立的立场,计划与其主要西方同行(如欧盟和美国)采取不同的做法。英国 AI 与数字政府部长费里亚尔・克拉克(Feryal Clark)在接受 CNBC 采访时强调,英国必须 “做自己的事情”,确保在 AI 模型的安全性方面,早期就进行必要的监管。图源备注:图片由AI生成,图片授权服务商Midjourney克拉克提到,英国政府已经与一些 AI 公司(如 OpenAI 和 Google DeepMind)建立了良好的关系,这些公司自愿向政府开放其模型进行安全性测试。她表示:“在模型开发