在2025年ACL会议上,罗格斯大学与俄亥俄州立大学等研究团队联合发表论文《Disentangling Memory and Reasoning Ability in Large Language Models》,提出一种创新的LLM训练方法。该研究通过引入两个特殊Token,首次实现模型内部“记忆”与“推理”能力的有效分离,提升思维过程的可解释性与执行效率。实验表明,该方法在多项权威评测中性能超越GPT-4o等主流模型,为大型语言模型的架构优化提供了新路径。
客服热线请拨打
400-998-8033