随着人工智能的不断进步,创新与可持续发展之间的平衡成为了一项重要挑战。最近,OpenAI 推出了其最新的 AI 模型 o3,这是迄今为止最强大的模型。然而,除了运行这些模型的成本外,其对环境的影响也引起了广泛关注。
一项研究显示,每个 o3任务大约消耗1,785千瓦时的电能,这相当于一个美国普通家庭在两个月内的用电量。根据 Salesforce 的 AI 可持续发展负责人 Boris Gamazaychikov 的分析,这一电能消耗大约对应684千克的二氧化碳当量排放,这与五箱满油的汽油的碳排放量相当。
o3的高计算版本在 ARC-AGI 框架下进行基准测试,计算是基于标准 GPU 的能耗和电网排放因子。Gamazaychikov 表示:“随着技术的不断扩展和整合,我们需要更加关注这些权衡。” 他还提到,这一计算并未考虑到隐含碳,仅关注于 GPU 的能耗,因此实际排放量可能被低估。
此外,数据科学家 Kasper Groes Albin Ludvigsen 表示,一台配备8块 Nvidia H100显卡的 HGX 服务器的能耗在11到12千瓦之间,远远超过每块显卡的0.7千瓦。
在任务定义方面,Pleias 的联合创始人 Pierre-Carl Langlais 提出了对模型设计的担忧,特别是如果模型设计不能迅速缩减的话。“在解决复杂数学问题时,需要大量的草稿、中间测试和推理,” 他说。
今年早些时候,有研究显示,ChatGPT 在一次对话中消耗了平均人类日常饮水的10%,这几乎是半升水。虽然这个数字看起来不多,但当数以百万计的人每天使用这个聊天机器人时,水资源的总消耗量就显得相当可观。
Salesforce 的负责人工责 AI 技术的首席架构师 Kathy Baxter 警告说,像 OpenAI 的 o3模型这样的 AI 进步可能会出现杰文斯悖论。“虽然所需的能量可能会减少,但用水量可能会增加,” 她说。
针对 AI 数据中心面临的挑战,如高能耗、复杂的冷却需求以及庞大的物理基础设施,Synaptics 和 embedUR 等公司正试图通过边缘 AI 来解决这些问题,以减少对数据中心的依赖,降低延迟和能耗,使得在设备级别实时做出决策成为可能。
划重点:
🌍 每个 o3任务的电能消耗相当于一个家庭两个月的用电量。
⛽ 每个任务排放的二氧化碳相当于五箱满油汽油的排放量。
💧 ChatGPT 的对话中消耗的水量达到平均人类日常饮水的10%。