20万美元商业级视频生成大模型Open-Sora 2.0来了,权重、推理代码及训练流程全开源!
潞晨科技正式推出 Open-Sora 2.0 —— 一款全新开源的 SOTA 视频生成模型,仅 20 万美元(224 张 GPU)成功训练商业级 11B 参数视频生成大模型。开发高性能的视频生成模型通常耗资高昂:Meta 的视频模型训练需要 6000 多张 GPU 卡片,投入数百万美元。在多项关键指标上,它与动辄百万美元训练成本的模型分庭抗礼,全面提升视频生成的可及性与可拓展性。
今天,视频生成领域迎来开源革命!Open-Sora 2.0—— 全新开源的 SOTA(State-of-the-Art)视频生成模型正式发布,仅用 20 万美元(224 张 GPU)成功训练出商业级 11B 参数视频生成大模型,性能直追 HunyuanVideo 和 30B 参数的 Step-Video。权威评测 VBench 及用户偏好测试均证实其卓越表现,在多项关键指标上媲美动辄数百万美元训练成本的闭源模型。此次发布全面开源模型权重、推理代码及分布式训练全流程,让高质量视频生成真正触手可及,进一步提升视频生成的可及性与可拓展性。
GitHub 开源仓库:https://github.com/hpcaitech/Open-Sora
媲美 HunyuanVideo 和 30B Step-Video:Open-Sora 2.0 采用 11B 参数规模,训练后在 VBench 和人工偏好(Human Preference) 评测上都取得与用高昂成本开发的主流闭源大模型同等水平。
用户偏好评测:在视觉表现、文本一致性和动作表现三个评估维度上,Open Sora 在至少两个指标上超越了开源 SOTA HunyuanVideo,以及商业模型 Runway Gen-3 Alpha 等。以小成本获取了好性能。
VBench 指标表现强势:根据视频生成权威榜单 VBench 的评测结果,Open-Sora 模型的性能进步显著。从 Open-Sora 1.2 升级到 2.0 版本后,与行业领先的 OpenAI Sora 闭源模型之间的性能差距大幅缩小,从之前的 4.52% 缩减至仅 0.69%,几乎实现了性能的全面追平。此外,Open-Sora 2.0 在 VBench 评测中取得的分数已超过腾讯的 HunyuanVideo,以更低的成本实现了更高的性能,为开源视频生成技术树立了全新标杆!
高效的序列并行和 ZeroDP,优化大规模模型的分布式计算效率。
细粒度控制的 Gradient Checkpointing,在降低显存占用的同时保持计算效率。
训练自动恢复机制,确保 99% 以上的有效训练时间,减少计算资源浪费。
高效数据加载与内存管理,优化 I/O,防止训练阻塞,加速训练流程。
高效异步模型保存,减少模型存储对训练流程的干扰,提高 GPU 利用率。
算子优化,针对关键计算模块进行深度优化,加速训练过程。
GitHub 开源仓库:https://github.com/hpcaitech/Open-Sora
技术报告:https://github.com/hpcaitech/Open-Sora-Demo/blob/main/paper/Open_Sora_2_tech_report.pdf
目录
最新
- 提前免费!百度连发两款模型,我们实测:能听歌看电影,还会蛐蛐人
- Karpathy氛围编码「吃瘪」?Cursor拒绝工作,并劝人类别依赖它
- 统一自监督预训练!视觉模型权重无缝迁移下游任务,SiT收敛提速近47倍
- ICLR 2025 Spotlight | 慕尼黑工业大学&北京大学:迈向无冲突训练的ConFIG方法
- 超级Agent,鸣枪起跑
- 逐字生成非最优?试试逐「块」生成!Block Diffusion打通了自回归与扩散
- AI大佬曼宁转赞,MetaGPT团队首提「Atom of Thoughts」,原子化思考让4o-mini暴打推理模型?
- 声音比真人还像真人的Maya,背后模型开源了!跨越语音恐怖谷