一项覆盖一万人的实证研究揭示AI安全评估体系存在严重缺陷:在现行验证逻辑下,被判定为“不良行为”的AI事件数量激增三倍,但实际造成的人身、财产或社会性伤害却几乎未变。这一“伤害悖论”表明,当前评估标准过度聚焦可检测的行为表征,而忽视行为后果的真实性与严重性,导致系统性误判。评估缺陷不仅削弱AI安全治理的有效性,更可能误导技术优化方向。亟需重构以真实伤害为锚点的验证逻辑,推动从“行为计数”向“风险归因”范式转型。
客服热线请拨打
400-998-8033