在即将到来的ICML 2025会议上,一项突破性研究《Massive Values in Self-Attention Modules are the Key to Contextual Knowledge Understanding》揭示了大型语言模型(LLMs)中自注意力模块的极大值现象。研究表明,这些极大值对上下文知识的理解起着关键作用,为优化LLMs性能提供了新方向。
客服热线请拨打
400-998-8033