北京大学研究团队在ACMMM 2025会议上提出了一种名为InteractMove的新框架,致力于解决3D场景中人与可移动物体之间的交互动作生成问题。该研究首次引入基于文本描述的人-物交互动作生成任务,填补了该领域的技术空白。团队构建了一个大规模数据集,并设计了创新的模型架构,在多个评估指标上显著优于现有方法,展现出卓越的生成精度与动作合理性。InteractMove为虚拟现实、智能交互等应用提供了重要技术支持。
客服热线请拨打
400-998-8033