大型语言模型(LLM)的推理能力一直被视为衡量其性能的重要指标。然而,一项由华人学者主导的研究提出了新观点:思维链CoT可能分散了模型的注意力,从而导致性能下降。这一发现挑战了传统认知,揭示了LLM在推理过程中潜在的局限性。研究强调,优化注意力机制或能提升模型的整体表现。
客服热线请拨打
400-998-8033