大型语言模型(LLM)中的思维链(CoT,Chain-of-Thought)方法近年来备受关注,但其推理局限性也逐渐显现。哈佛的华人研究人员发现,尽管CoT方法能够提升LLM的推理能力,但在复杂任务中仍可能出错。与此同时,DeepSeek-R1模型的推出进一步推动了推理技术的发展,为解决这些局限性提供了新思路。研究强调,优化CoT方法和模型架构是未来的重要方向。
客服热线请拨打
400-998-8033