近日,谷歌悄然从其官方网站上删除了一项关于不研发用于武器或监控的人工智能(AI)的承诺。该变动最早由《彭博社》报道,此举引发了外界的广关注和讨论。谷歌最近更新了其公众 AI 原则页面,删除了名为 “我们将不追求的应用” 的部分,而该部分内容在上周仍然可见。

面对媒体的询问,谷歌向《科技 Crunch》提供了一篇新发布的关于 “负责任的 AI” 的博客文章。在这篇文章中,谷歌表示:“我们相信,企业、政府和组织应共同努力,创造能够保护人类、促进全球发展和支持国家安全的 AI。”

探测机器人 人工智能2025

图源备注:图片由AI生成,图片授权服务商Midjourney

谷歌更新后的 AI 原则强调,公司将致力于 “减轻意外或有害结果,避免不公平的偏见”,并确保公司的发展与 “国际法和人权的普遍接受原则” 相一致。这表明谷歌在 AI 应用上的立场可能正在发生变化。

近年来,谷歌与美国和以色列军方签订的云服务合同引发了内部员工的抗议。尽管谷歌一再强调其 AI 技术不用于伤害人类,但美国国防部的 AI 负责人最近在接受《科技 Crunch》采访时表示,一些公司的 AI 模型实际上加快了美国军方的作战决策过程。这一言论让人对谷歌 AI 的未来应用充满疑虑。

谷歌的这一变动引发了人们对科技公司在军事和监控领域角色的深思。在全球对人工智能技术的伦理问题日益关注的背景下,谷歌的这一新举措显得尤为引人注目。公众和员工都在密切关注着公司如何在这一敏感领域保持其负责任的形象,以及如何平衡商业利益与道德责任之间的关系。

随着 AI 技术的不断进步和应用,谷歌的立场变化将可能对整个行业产生深远影响,也让人对未来的科技伦理和责任感重新审视。