随着人工智能技术的迅速发展,像 OpenAI 和 Anthropic 这样的领先 AI 开发者正努力与美国军方合作,寻求在提高五角大楼效率的同时,确保其 AI 技术不会用于致命武器。
五角大楼的首席数字与 AI 官员 Dr. Radha Plumb 在接受 TechCrunch 采访时表示,当前 AI 并未被用于武器,但却在威胁的识别、跟踪和评估上为国防部提供了显著的优势。
图源备注:图片由AI生成,图片授权服务商Midjourney
Dr. Plumb 提到,五角大楼正加快 “杀伤链” 的执行,这一过程涉及识别、跟踪并消除威胁,涉及复杂的传感器、平台和武器系统。生成式 AI 在杀伤链的规划和策略阶段显示出其潜力。她指出,AI 可以帮助指挥官在面对威胁时,迅速而有效地作出反应。
近年来,五角大楼与 AI 开发者的关系逐渐密切。2024年,OpenAI、Anthropic 和 Meta 等公司放宽了其使用政策,使美国情报与国防机构能够使用其 AI 系统,但仍禁止这些 AI 技术用于伤害人类的目的。这一转变使得 AI 公司与防务承包商之间的合作迅速展开。
例如,Meta 在11月与洛克希德・马丁和 Booz Allen 等公司达成了合作,将其 Llama AI 模型应用于国防领域。而 Anthropic 则与 Palantir 达成了类似的合作。虽然这些合作的具体技术细节尚不清楚,但 Dr. Plumb 表示,AI 在规划阶段的应用可能与多家领先开发者的使用政策存在冲突。
关于 AI 武器是否应具备决策生死的能力,业界展开了激烈的讨论。Anduril 的首席执行官 Palmer Luckey 提到,美国军方在自主武器系统的采购上已有悠久历史。然而,Dr. Plumb 对此表示否定,强调在任何情况下,都必须有人参与作出使用武力的决定。
她指出,自动化系统独立做出生死决策的想法过于二元化,实际情况要复杂得多。五角大楼的 AI 系统是人与机器之间的合作,决策过程中有高级领导的参与。
划重点:
🌐 AI 正在为五角大楼在识别和评估威胁上提供显著优势,推动军 事决策的高效性。
🤝 AI 开发者与五角大楼的合作日益紧密,但始终坚持不让 AI 技术用于伤害人类。
🔍 关于 AI 武器是否应具备生死决策能力的讨论仍在继续,五角大楼强调始终有人的参与。