非营利性研究团体机器智能研究所(MIRI)呼吁全球停止基础或 “前沿” 模型研究,担心其安全问题可能威胁人类生存。基础模型是一种能够应用于多种模式的人工智能系统。MIRI 认为,基础模型将会比人类更聪明,并且有可能 “毁灭人类”。

大脑 大模型

图源备注:图片由AI生成,图片授权服务商Midjourney

在科技领域,包括埃隆・马斯克和史蒂夫・沃兹尼亚克在内的一些领军人物,曾呼吁暂停研发比 OpenAI 的 GPT-4更强大的基础模型。但 MIRI 希望更进一步,最近公布的沟通策略呼吁全面停止尝试构建任何比人类更聪明的系统。

该团体称:“政策制定者主要通过妥协来处理问题:他们通过在某个地方让步来获得另一方面的好处。我们担心,为了保持人类生存的大部分立法将通过通常的政治过程并被磨成无效的妥协。同时,时钟正在滴答作响。人工智能实验室继续投资于开发和训练更强大的系统。我们似乎还没有接近获得所需的全面立法。”

MIRI 希望政府迫使开发基础模型的公司安装 “关闭开关”,以便在 AI 系统发展出恶意或 “x 风险” 倾向时可以关闭 AI 系统。

该非营利组织表示,他们仍然致力于智能系统比人类更聪明的理念,但希望在 “我们知道如何安全地构建此类 AI 之后再建造”。

MIRI 由 Eliezer Yudkowsky 于2000年创立,支持者包括 Peter Thiel 和以太坊加密货币的联合创始人 Vitalik Buterin。而 Future of Life Institute(生命未来研究所)也是 MIRI 的主要贡献者之一。

AI 和数据分析研究公司 Omdia 的首席分析师 Bradley Shimmin 表示,由于缺乏支持性研究,MIRI 将很难说服立法者。他说:“市场已经考虑了这些问题,并得出结论:基于转换器的 GenAI 模型的当前和近期未来的艺术状态除了创建复杂主题的有用表示之外,几乎不能做任何事情。”Shimmin 表示,MIRI 正确地识别了那些构建和监管人工智能之间的知识差距。

划重点:

- 📣非营利性研究团体机器智能研究所(MIRI)呼吁全球停止基础或 “前沿” 模型研究,担心其安全问题可能威胁人类生存。

- 🤖MIRI 希望政府迫使开发基础模型的公司安装 “关闭开关”,以便在 AI 系统发展出恶意或 “x 风险” 倾向时可以关闭 AI 系统。

- 🌐AI 和数据分析研究公司 Omdia 的首席分析师 Bradley Shimmin 表示,由于缺乏支持性研究,MIRI 将很难说服立法者。