在视频扩散模型领域,随着视频长度和分辨率的增加,Diffusion Transformer(DiT)模型中的注意力机制计算需求急剧上升,成为推理效率提升的主要障碍。为解决这一问题,一种名为DraftAttention的方法应运而生。该方法无需额外训练即可实现即插即用的部署,在GPU上提供高达两倍的推理速度提升。这种方法不仅有效缓解了高分辨率视频生成中的计算压力,还为高质量视频内容的高效生成提供了新的技术支持。
DraftAttention即插即用GPU加速视频扩散模型注意力机制
2025-07-03