人工智能系统安全风险可依逻辑复杂性划分为三类:第一类为可验证风险,第二类为可发现但无法证明安全的风险,第三类为不可治理风险。当前绝大多数AI系统处于第二类——其潜在缺陷可被识别,却难以形式化证明其整体安全性。因此,关键路径不在于追求绝对安全的数学证明,而在于构建人类主导的制度性刹车机制,确保在关键决策节点上人类始终保有最终控制权与干预能力。
客服热线请拨打
400-998-8033