在近日的 CES 展会上,英伟达 CEO 黄仁勋表示,公司的 AI 芯片性能提升速度已经超越了摩尔定律的历史标准。
摩尔定律是由英特尔联合创始人戈登・摩尔于1965年提出的,预测计算机芯片上的晶体管数量每年大约会翻一番,进而使芯片性能也相应翻倍。然而,近年来,摩尔定律的进展速度已显著放缓。
图源备注:图片由AI生成,图片授权服务商Midjourney
黄仁勋指出,英伟达的最新数据中心超级芯片在运行 AI 推理工作负载时的速度是前一代的30倍以上。他表示:“我们能够同时构建架构、芯片、系统、库和算法,如果能够做到这一点,就能超越摩尔定律,因为我们可以在整个技术栈中进行创新。”
这一声明在许多人质疑 AI 进展是否停滞不前的背景下显得尤为重要。目前,谷歌、OpenAI 和 Anthropic 等领先 AI 实验室都在使用英伟达的 AI 芯片来训练和运行 AI 模型,因此这些芯片的进步将直接影响 AI 模型的能力。
黄仁勋还提到,现在有三种活跃的 AI 扩展法则:预训练、后训练和测试时计算。他强调,摩尔定律在计算历史上如此重要,因为它推动了计算成本的降低,而推理过程中的性能提升也将带来推理成本的降低。
尽管一些人对英伟达的昂贵芯片能否在推理领域继续保持领先地位表示担忧,黄仁勋却表示,最新的 GB200NVL72芯片在推理工作负载上比 H100芯片快30到40倍,这将使 AI 推理模型变得更加经济实惠。
黄仁勋强调,提升计算能力是解决推理时计算性能和成本可承受性问题的直接有效途径。他预计,随着计算技术的不断进步,AI 模型的成本将持续下降,虽然目前 OpenAI 等公司的某些模型运行成本较高。
黄仁勋表示,如今的 AI 芯片相比十年前已经提升了1000倍,这一进步速度远超摩尔定律,且他认为这种趋势不会很快停止。
划重点:
🌟 英伟达 CEO 黄仁勋表示,公司的 AI 芯片性能提升已超越摩尔定律。
⚡ 最新的 GB200NVL72芯片在 AI 推理工作负载上的速度是前代产品的30到40倍。
📉 黄仁勋预测,随着计算能力的提高,AI 模型的使用成本将逐步下降。