在多模态大型语言模型(MLLM)的开发中,长期存在一个昂贵共识:必须依赖图像-文本对才能实现多模态能力。然而,一种突破性方法——“数据邪修大法”正挑战这一范式:它仅凭纯文本数据即可完成MLLM预训练,彻底摆脱图像依赖。该方法在保持语义理解深度的同时,显著降低数据采集与标注成本,为多模态突破开辟新路径,标志着MLLM预训练进入“文本驱动”新阶段。
客服热线请拨打
400-998-8033