Colossal-AI开源了完整的Sora复现架构方案Open-Sora,声称可降低46%复现成本,并将模型训练输入序列长度扩充至819K patches。Sora算法复现方案在Sora的技术报告中,Sora使用了一个视频压缩网络将各种尺寸的视频压缩成一个隐空间的时空块序列,然后使用了Diffusion Transformer进行去噪,最后进行解码生成视频。Open-Sora将Sora可能使用的训练pipeline归纳为提供完整的Sora复现架构方案,包含从数据处理到训练推理全流程。目前Open-Sora已涵盖提供完整的Sora复现架构方案,包含从数据处理到训练推理全流程,支持动态分辨率,支持多种模型结构,支持多种视频压缩方法,支持多种并行训练优化。性能方面,在单台H800 SXM 8*80GB GPU上使用DiT-XL/2模型的性能测试为例,在600K的序列长度时,Open-Sora的方案比基线方案有40%以上的性能提升和成本降低。Open-Sora开源地址:https://github.com/hpcaitech/Open-Sora。
相关AI新闻推荐

成本仅为十分之一!Open-Sora 2.0 开源视频 AI 实现商业级画质
近日,HPC-AI Tech 宣布推出 Open-Sora2.0,这是一款突破性的视频 AI 系统,仅需约十分之一的典型训练成本即可实现商业级质量。这一进展标志着在资源密集型的视频 AI 领域可能出现范式转变,堪比语言模型中出现的效率提升。虽然像 Movie Gen 和 Step-Video-T2V 这样现有的高质量视频生成系统可能需要数百万美元的训练费用,但 Open-Sora2.0的训练支出仅约为20万美元。尽管成本大幅降低,但测试表明,其输出质量可与 Runway Gen-3Alpha 和 HunyuanVideo 等已建立的商业系统相媲美。该系统使用了224个 Nvidia H20

AI日报:重磅!阿里新夸克升级为“AI超级框”;谷歌开源多模态模型Gemma-3;潞晨科技开源视频大模型Open-Sora 2.0
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、阿里巴巴推出AI旗舰应用“新夸克”全面升级为“AI超级框”阿里巴巴于3月13日推出了其全新升级的AI旗舰应用——新夸克。预计到2025年,智谱将推出多款开源大模型,助力AI行业的发展,同时推动珠海的AI产业生态建设。

叫板Sora?潞晨科技开源视频大模型Open-Sora 2.0,降本提速
听说过壕无人性的 OpenAI Sora 吧?动辄几百万美元的训练成本,简直就是视频生成界的“劳斯莱斯”。现在,潞晨科技宣布开源视频生成模型 Open-Sora2.0!仅仅花费了区区20万美元(相当于224张 GPU 的投入),就成功训练出了一个拥有 110亿参数的商业级视频生成大模型。性能直追“OpenAI Sora ”别看 Open-Sora2.0成本不高,实力可一点都不含糊。它可是敢于叫板行业标杆 HunyuanVideo 和拥有300亿参数的 Step-Video 的狠角色。在权威评测 VBench 和用户偏好测试中,Open-Sora2.0的表现都令人刮目相看,多项关键指

潞晨科技推全新开源视频模型Open-Sora 2.0 训练流程全开源
还在为动辄百万美金的视频生成模型望而却步?还在感叹AI视频创作只是巨头的游戏?今天,开源社区用实力告诉你: “No!” 一款名为 Open-Sora2.0的全新开源模型横空出世,彻底颠覆了视频生成的“氪金”规则。 难以置信的是,这款性能直逼商业级水准的110亿参数大模型,竟然只花费了区区20万美元(224张GPU)就训练成功! 要知道,那些动辄耗资数百万美元的闭源模型,在 Open-Sora2.0面前,性价比简直弱爆了!Open-Sora2.0的发布,无疑是视频生成领域的一场“平民革命”。它不仅拥有媲美甚至超越百

GPT-4.5成本激增,性能提升却有限,OpenAI面临性价比困境
近日,科技媒体 The Decoder 发布了一篇有关 OpenAI 最新模型 GPT-4.5的报道,内容引发了业界对该模型的性价比质疑。根据官方数据显示,尽管 GPT-4.5在性能上有所提升,但相较于前一版本 GPT-4o,其成本却大幅增加。具体而言,GPT-4.5在多个方面的表现优于 GPT-4o 的比例分别为:专业查询63.2%、日常查询57% 以及创意任务56.8%。然而,这些提升的幅度仅在6.8% 到13.2% 之间。更令人瞩目的是,GPT-4.5在使用成本上,输入 token 的费用高达每百万个75美元,而输出 token 的费用则为150美元。与之相比,GPT-4o 的输

英特尔发布 Xeon 6 处理器:AI 处理性能提升两倍
英特尔近期推出了新一代 Xeon6处理器,采用性能核心设计,旨在提升数据中心工作负载的整体性能,并在人工智能(AI)处理方面实现高达两倍的性能提升。这次发布标志着英特尔在全球半导体市场中的重要一步,尤其是在公司经历了 CEO 更换与市场竞争压力之后。新的 Xeon6处理器特别适用于网络和边缘计算应用,其内置的 Intel vRANBoost 技术可以将无线接入网络(RAN)工作负载的容量提高至2.4倍。英特尔的联席首席执行官米歇尔・约翰斯顿・霍尔瑟表示,Xeon6系列在 AI 和网络性能方面具有行

Hugging Face 推出小巧AI模型,助力设备性能提升
近期,人工智能开发平台 Hugging Face 团队发布了两款新型 AI 模型,SmolVLM-256M 和 SmolVLM-500M。他们自信地声称,这两款模型是目前为止体积最小的 AI 模型,能够同时处理图像、短视频和文本数据,尤其适合内存少于1GB 的设备如笔记本电脑。这一创新让开发者在处理大量数据时,能够以更低的成本实现更高的效率。这两款模型的参数分别为256百万和500百万,这意味着它们在解决问题的能力上也相应有所提升,参数越多,模型的表现通常越好。SmolVLM 系列能够执行的任务包括对图像或视频片段进

GPT-4o 级别!VITA-1.5:实时视觉与语音交互, 1.5秒互动延迟
近日,VITA-MLLM 团队宣布推出 VITA-1.5,这是该团队在 VITA-1.0基础上推出的升级版本,致力于提升多模态交互的实时性与准确性。VITA-1.5不仅支持英语和中文,还在多项性能指标上实现了显著提升,为用户提供了更流畅的交互体验。在 VITA-1.5中,互动延迟大幅降低,从原来的4秒缩短至仅1.5秒,用户在进行语音交互时几乎感受不到延迟。此外,该版本在多模态性能方面也有显著提高,经过评估,VITA-1.5在 MME、MMBench 和 MathVista 等多个基准测试中的平均性能从59.8提升至70.8,展现了出色的能力。VITA

英伟达发布Jetson Orin Nano超级开发者套件:性能提升,售价大降,AI开发门槛再降低
英伟达(NVIDIA)近日发布了一款全新的紧凑型生成式AI超级计算机——Jetson Orin Nano Super开发者套件。这款产品不仅在性能上有了显著提升,价格也大幅降低,并可通过软件升级进一步提升性能,旨在让更多人拥抱生成式AI。这款全新的Jetson Orin Nano Super开发者套件体积小巧,可以轻松握在手中,它为商业AI开发者、爱好者和学生提供了更强大的生成式AI能力和更高的性能。其价格也从之前的499美元降至249美元,大幅降低了使用门槛。该套件今日正式上市,与上一代产品相比,其生成式AI推理性

英伟达发布生成式AI超级电脑:仅249美元 性能提升1.7倍
英伟达近日推出了一款名为Jetson Orin Nano Super的生成式人工智能(AI)超级电脑,专为开发者设计,以更亲民的价格提供性能飞跃。该设备定价为249美元,约合人民币1814元,其生成式AI性能提升了1.7倍。与前代产品相比,Jetson Orin Nano Super实现了70%的性能提升,每秒能执行67兆次INT8运算,即67INT8TOPS,同时内存带宽提升了50%,达到102GB/s。