技术博客

Self-Braking Tuning:革新深度学习模型的推理效率

近日,浙江大学、天津大学与微软亚洲研究院联合提出了一种名为Self-Braking Tuning(SBT)的创新方法。该方法通过引入自我刹车机制,有效解决了深度学习模型在推理过程中可能出现的“过度思考”问题,避免了模型陷入无休止的推理循环,从而显著提升了推理效率和泛化能力。目前,研究团队已将SBT框架开源,为全球研究者和开发者提供支持。

Self-Braking Tuning深度学习模型推理效率过度思考开源框架
2025-06-03
深度学习模型泛化能力的再审视:从测试数据到表征逻辑

深度学习模型的泛化能力是否依赖大量测试数据成为研究焦点。在端到端黑盒训练中,Scaling Law效率低下,促使学者重新审视模型表征质量与泛化性。通过分析模型表征逻辑复杂度,或可发现数学定理以先验评估泛化性能,为优化人工智能提供新思路。

深度学习模型泛化能力表征质量数学定理Scaling Law
2025-05-11
阿里巴巴实时计算平台:异构资源解耦的技术探索与实践

本文深入探讨了阿里巴巴实时计算平台(RTP)在异构资源解耦领域的技术突破与实践经验,重点剖析了深度学习推荐模型(DLRM)的特性及其部署挑战。通过优化资源分配效率,阿里显著提升了异构计算资源的利用水平。此外,文章还介绍了阿里在NSDI25会议上发布的研究成果,展现了其在该领域的创新实力。

实时计算平台异构资源解耦深度学习模型资源分配效率NSDI25会议
2025-04-08
阿里巴巴实时计算平台:异构资源解耦的技术突破与实践

本文探讨了阿里巴巴实时计算平台(RTP)在异构资源解耦领域的技术实践与挑战,重点分析了深度学习推荐模型(DLRM)的特性及其部署过程中遇到的资源分配效率问题。通过优化资源管理策略,阿里显著提升了计算性能与利用率,并在NSDI25会议上分享了相关研究成果,展示了其在异构计算领域的创新突破。

实时计算平台异构资源解耦深度学习模型资源分配效率NSDI会议成果
2025-04-08
AI赋能编程新篇章:通义灵码2.0引领技术革新

随着人工智能技术的迅猛发展,AI赋能编程成为行业新趋势。阿里巴巴集团推出的通义灵码2.0作为AI与编程结合的创新成果,为开发者提供智能高效的编程辅助。该版本在功能和性能上取得重大突破,成为一个适用于NLP等复杂任务的深度学习模型。它不仅具备高效架构和优化参数,还拥有强大的泛化能力,能够适应多种应用场景,助力编程领域迈向新高度。

AI编程辅助通义灵码2.0深度学习模型高效架构NLP任务
2025-02-17