SK海力士高管预测,AI专用高带宽内存(HBM)市场将以年增30%的速度持续增长至2030年。HBM通过垂直堆叠芯片技术提升能效,已成为处理AI大数据的核心组件。公司正与三星、美光竞逐下一代HBM4研发,该产品将集成定制化逻辑芯片以增强客户黏性。尽管三星警告HBM3E可能出现供过于求,但云计算巨头持续加码AI投资仍将推动需求。当前NVIDIA等大客户已获得定制服务,未来中小客户对差异化性能的需求也将增长。美国潜在半导体关税政策暂未影响韩国厂商的在美生产计划。(140字)
在刚刚结束的2025全球 AI 发展大会上,AMD 与 OpenAI 联合推出了最新的 Instinct MI400和 MI350系列 AI 芯片。这次发布会吸引了众多行业人士的关注,OpenAI 首席执行官 Sam Altman 也亲自出席,分享了与 AMD 在芯片研发过程中的合作经验。强大的 AI 计算能力AMD 新发布的 Instinct MI350系列 GPU 基于 CDNA4架构,专为现代 AI 基础设施设计。其中,MI350X 和 MI355X 两款 GPU 显著提升了 AI 计算性能。MI350系列配备288GB HBM3E 内存,内存带宽高达8TB/s,相较于上一代产品,AI 计算能力提升了4倍,推理性能更是提升了35倍。
三星电子的第五代高带宽内存(HBM)芯片HBM3E,已通过英伟达的测试,获得在人工智能处理器中的使用资格。尽管双方尚未签署正式协议,预计很快将达成供应协议,预计供应将在2024年第四季度开始。此成就对三星而言是与当地竞争对手SK海力士竞争中的关键突破。然而,三星的12层HBM3E芯片在测试中未能通过,为此三星对设计进行了调整以解决热量和功耗问题。HBM作为DRAM的一种,通过垂直堆叠方式节省空间和降低功耗,对GPU处理复杂数据应用至关重要。随着生成式人工智能技术的兴起,市场对高性能GPU需求激增,预计HBM3E芯片将在今年成为市场主流,尤其在下半年。三星预计到2024年第四季度,HBM3E芯片将占其HBM芯片销售的60%。目前,全球主要的HBM制造商仅包括SK海力士、美光和三星。此外,三星在2023年上半年的总DRAM芯片收入约为22.5万亿韩元,其中约10%可能来自HBM的销售。这一消息引起了市场的广泛关注和投资者的期待。
["美光科技连续六个季度实现收入增长,主要受益于人工智能芯片需求的激增。","公司新推出的HBM3E内存芯片模块备受青睐,预计将在2024年为公司带来数亿美元的收入。","美光科技看好人工智能在个人电脑和移动设备中的应用,计划增加2024财年的资本支出以满足新内存模块的生产需求。","CEO表示公司的HBM供应已售罄,预测个人电脑领域2024年的销量将大幅增长,带动对内存和存储的需求。"]