桌面 GPU 出货量增长三分之一,AI PC 并非主因

站长之家
本文来自AIbase日报
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
在3月31日于北京举行的联想集团2025/26财年誓师大会上,联想集团董事长兼 CEO 杨元庆表示,展望未来,联想的第五个十年将是人工智能的十年。他指出,未来三年内,人工智能个人电脑(AI PC)将占全球销量提升的80% 以上,这对联想来说是一个巨大的增长机遇。杨元庆在大会上强调,为了把握这一机会,联想将进行全方位的战略投资,包括资金、技术能力、产品及方案的推出,以及品牌形象的塑造和企业文化的培育。他表示,所有的努力都将围绕人工智能这一核心主题展开,确保让每一个
前英特尔首席执行官帕特・盖尔辛格(Pat Gelsinger)近日在英伟达2025年 GPU 技术大会的《Acquired》播客中表示,英伟达的人工智能(AI)图形处理器(GPU)定价策略过高,难以支持大规模的 AI 推理任务。盖尔辛格指出,推理是部署 AI 模型的关键环节,当前行业的发展趋势应该更关注推理,而英伟达的技术在成本效益上难以满足这一需求。图源备注:图片由AI生成,图片授权服务商Midjourney他提到,英伟达用于 AI 训练的处理器价格高达现实所需的10,000倍之多。虽然盖尔辛格承认早期生成式 AI 的快速
美团首席执行官王兴详细阐述了公司对于人工智能(AI)领域的战略规划。王兴透露,美团在过去一年中,将确保GPU资源供应作为首要工作,并已投入巨额资金用于AI基础设施建设。他进一步表示,美团计划在2025年进一步加大对AI关键基础设施的投资,以强化其在这一领域的布局。
近日,AMD 宣布推出一款名为 GAIA 的开源应用,旨在为用户提供一种高效、本地化的方式来运行大语言模型(LLM)。目前,该应用已支持 Windows 平台,特别为锐龙 AI300系列处理器进行了优化,充分发挥了这些处理器在 AI 任务中的优势。GAIA 是一个生成式 AI 应用,用户可以在个人电脑上私密地运行 LLM,确保数据隐私。同时,GAIA 借助其内置的神经处理单元(NPU),显著提升了 AI 任务的性能,能够满足越来越高的计算需求。其设计理念强调了用户在数据安全和隐私保护方面的需求,尤其是在如
随着人工智能(AI)技术的快速普及,企业在面对计算能力瓶颈时,已不仅仅是追求更强的处理能力,而是需要更智能、更高效的计算资源,以适应不断演变的 AI 需求。如今,AI 模型正变得越来越庞大与复杂,企业需要有能力处理海量数据、支持持续学习,并在实时决策中提供高效率。在这个背景下,现代化数据中心成为企业消除 AI 创新瓶颈的关键。通过升级现有的 IT 基础设施,企业可以释放出更多的空间和电力,提高效率,同时也为未来的发展奠定基础。例如,将旧款的英特尔 Xeon 处
近日,HPC-AI Tech 宣布推出 Open-Sora2.0,这是一款突破性的视频 AI 系统,仅需约十分之一的典型训练成本即可实现商业级质量。这一进展标志着在资源密集型的视频 AI 领域可能出现范式转变,堪比语言模型中出现的效率提升。虽然像 Movie Gen 和 Step-Video-T2V 这样现有的高质量视频生成系统可能需要数百万美元的训练费用,但 Open-Sora2.0的训练支出仅约为20万美元。尽管成本大幅降低,但测试表明,其输出质量可与 Runway Gen-3Alpha 和 HunyuanVideo 等已建立的商业系统相媲美。该系统使用了224个 Nvidia H20
在即将召开的年度开发者大会上,英伟达首席执行官黄仁勋将展示公司最新的人工智能(AI)和量子计算芯片。这次大会将在加州圣荷西的 SAP 中心举行,预计将吸引大量观众。行业观察人士普遍认为,黄仁勋会重点介绍英伟达最新的 Blackwell 系列图形处理单元(GPU),以及即将推出的新产品。近年来,AI 的迅猛发展推动了英伟达股价的飙升,然而,因中国企业 DeepSeek 的崛起,股价在年初经历了急剧下跌。尽管如此,英伟达的股票在经历了3月份的低谷后,最近有所回升。今年以来,该股票仍然
《苏州市加快发展AI芯片产业的若干措施(征求意见稿)》公开征求意见。其中提到,做强骨干核心企业。聚焦GPU通用型芯片、ASIC专用型芯片、FPGA半定制化芯片、存算一体芯片、硅光芯片等重点方向,加大招商力度,加快引育一批带动性强的优质项目、头部企业,对重点项目在空间保障、场地建设、人才引进等方面予以综合支持。推动AI芯片企业通过兼并重组等方式提升资源整合能力,向产业链上下游布局拓展业务,对优质AI芯片企业开展并购重组,鼓励县级市(区)对企业实施兼并重组
深度计算领域再添利器!摩尔线程今日重磅宣布,正式开源MT-MegatronLM与MT-TransformerEngine两大AI框架,这一举措将为国产计算基础设施注入强劲动力。这两大框架通过深度融合FP8混合训练策略和高性能算子库,成功在国产全功能GPU上实现混合并行训练和推理,大幅提升了大模型训练的效率与稳定性。摩尔线程此次开源的MT-MegatronLM框架专为全功能GPU打造,支持dense模型、多模态模型及MoE(混合专家)模型的高效训练,满足了当前AI领域多样化的训练需求。而MT-TransformerEngine则主攻Transformer模型的训
联想今日宣布,旗下首款 AMD AI 大模型训练服务器——联想问天 WA7785a G3在单机部署671B(满血版) DeepSeek 大模型时,实现了高达6708token/s 的极限吞吐量,再次刷新了单台服务器运行超大规模模型性能的纪录。据介绍,此次性能突破得益于联想万全异构智算平台的强大支持。联想通过访存优化、显存优化、创新的 PCIe5.0全互联架构以及精选 SGLang 框架中的最优算子等一系列创新技术手段,对大模型从预训练、后训练到推理的全流程进行了持续优化。实测结果显示,在单台部署 DeepSeek671B 大模型