机器之心编辑部

DiT 都能用,天生视频无质量丢失,也不须要演习。

实时 AI 视频天生来了!

本周三,新加坡国立大学尤洋团队提出了业内第一种可以实时输出的,基于 DiT 的视频天生方法。

史上首个实时AI视频生成技能DiT通用速度提升106倍

该技能名为 Pyramid Attention Broadcast (PAB)。
通过减少冗余把稳力打算,PAB 实现了高达 21.6 FPS 的帧率和 10.6 倍的加速,同时不会捐躯包括 Open-Sora、Open-Sora-Plan 和 Latte 在内的盛行基于 DiT 的视频天生模型的质量。
值得把稳的是,作为一种不须要演习的方法,PAB 可以为任何未来基于 DiT 的视频天生模型供应加速,让其具备实时天生的能力。

自今年起,OpenAI 的 Sora 和其他基于 DiT 的视频天生模型引起了 AI 领域的又一波浪潮。
然而与图像天生比较,人们对付视频天生的关注点基本都在于质量,很少有研究专注于探索如何加速 DiT 模型推理。
加速视频天生模型的推理对付天生式 AI 运用来说已经是当务之急。

PAB 方法的涌现,为我们打开了一条路。

原始方法与 PAB 视频天生速率的比较。
作者在 Open-Sora 上测试了 5 个 4s(192 帧)480p 分辨率的视频。

GitHub 链接:https://github.com/NUS-HPC-AI-Lab/OpenDiT?tab=readme-ov-file#pyramid-attention-broadcast-pab-blogdoc

金字塔式把稳力广播

近期,Sora 和其他基于 DiT 的视频天生模型引起了广泛关注。
然而,与图像天生比较,很少有研究专注于加速基于 DiT 的视频天生模型的推理。
此外,天生单个视频的推理本钱可能很高。

图 1:当前扩闲步骤和先前扩闲步骤之间的把稳力输出差异,利用均方偏差 (MSE) 对差异进行量化。

实现

这项研究揭示了视频扩散 transformer 中把稳力机制的两个关键不雅观察结果:

首先,不同韶光步骤的把稳力差异呈现出 U 形模式,在最初和末了 15% 的步骤中发生显著变革,而中间 70% 的步骤则非常稳定,差异很小。

其次,在稳定的中间段内,把稳力类型之间存在差异:空间把稳力变革最大,涉及边缘、纹理等高频元素;韶光把稳力表现出与视频中的运动和动态干系的中频变革;跨模态把稳力是最稳定的,将文本与视频内容联系起来,类似于反响文本语义的低频旗子暗记。

基于此,研究团队提出金字塔式把稳力广播来减少不必要的把稳力打算。
在中间部分,把稳力表现出眇小的差异,该研究将一个扩闲步骤的把稳力输出广播到几个后续步骤,从而显著降落打算本钱。

此外,为了更有效的打算和最小的质量丢失,作者根据不同把稳力的稳定性和差异性设置了不同的广播范围。
纵然没有后期演习,这种大略而有效的策略也能实现高达 35% 的加速,同时天生内容的质量丢失可以忽略不计。

图 2:该研究提出了金字塔式把稳力广播,个中根据把稳力差异为三个把稳力设置不同的广播范围。
把稳力变革越小,广播范围越广。
在运行时,该方法将把稳力结果广播到接下来的几个步骤,以避免冗余的把稳力打算。
x_t 指的是韶光步 t 的特色。

并行

下图 3 为本文方法与原始动态序列并行(Dynamic Sequence Paralle, DSP)之间的比较。
当时间把稳力得到传播时,则可以避免所有通信。

为了进一步提升视频天生速率,本文基于 DSP 来改进序列并行。
序列并行将视频分割为跨多个 GPU 的不同部分,从而减少了每个 GPU 的事情负载并降落了天生延迟。
不过,DSP 引入了大量的通信开销,须要为韶光把稳力准备两个 All to All 通信。

通过在 PAB 中传播韶光把稳力,本文不再须要对韶光把稳力进行打算,由此减少了通信。
相应地,通信开销大幅降落了 50% 以上,使得实时视频天生可以进行更高效的分布式推理。

评估结果

加速

下图为不同模型在 8 块英伟达 H100 GPU 上天生单个视频时,丈量得到的 PAB 总延迟。
当利用单块 GPU 时,作者实现了 1.26 至 1.32 倍的加速,并在不同的调度器中保持稳定。

当扩展到多块 GPU 时,本文方法实现了 10.6 倍的加速,并得益于高效的序列并行改进实现了与 GPU 数量之间的近线性扩展。

定性结果

以下三个视频分别为 Open-Sora、Open-Sora-Plan 和 Latte 三个不同的模型利用原始方法与本文方法的效果比拟。
可以看到,本文方法在不同的 GPU 数量下均实现了不同程度的 FPS 加速。

视频链接:https://mp.weixin.qq.com/s/tidE-qSM3nZ8kUfjNcpMZA

定量结果

下表为 Open-Sora、Open-Sora-Plan 和 Latte 三个模型的 LPIPS(学习感知图像块相似度)和 SSIM(构造相似度)指标结果。

更多技能细节和评估结果可以查看即将推出的论文。

项目地址:https://oahzxl.github.io/PAB/

参考链接:

https://oahzxl.github.io/PAB/