近日,一款仅使用2700万参数的推理模型在性能上超越了DeepSeek和Claude,展现出类似人类的推理能力,引发了关于大型语言模型(LLM)架构是否需要变革的讨论。目前,LLM在处理复杂任务时主要依赖思维链(Chain of Thought,简称CoT)技术,但这种方法存在任务分解复杂、数据需求量大以及响应延迟高等挑战。这一现象表明,在追求更高性能的同时,模型的设计理念可能也需要重新思考。
客服热线请拨打
400-998-8033