OpenAI最新发表的长篇论文系统性解释了AI为何常出现“一本正经胡说八道”的现象,即“AI幻觉”问题。研究指出,当前语言模型在训练和评估过程中更倾向于奖励猜测行为,而非鼓励模型诚实表达不确定性。由于缺乏对“不确定”或“不知道”这类回应的正向激励,模型在面对模糊或未知信息时仍会强行生成看似合理但错误的内容。这一机制缺陷导致模型在实际应用中频繁产生虚假信息,影响可信度与安全性。
客服热线请拨打
400-998-8033