上海交通大学EPIC实验室研究团队开发了一种名为dLLM-Cache的新型推理缓存机制,该技术可将扩散语言模型的推理速度提升至原来的九倍。与传统KV Cache技术仅适用于自回归模型不同,dLLM-Cache无需额外训练即可直接应用于扩散模型,显著提高了推理效率,为相关领域带来了突破性进展。
客服热线请拨打
400-998-8033