依据可判定性理论,人工智能系统安全风险被系统划分为三类:第一类为可验证风险,即能通过形式化方法严格证明其安全性;第二类为可发现但无法证明其安全性的风险,当前绝大多数AI系统属此类;第三类为不可治理风险,超出人类现有技术与制度应对能力。针对第二类风险这一现实主流,关键在于构建以人类主导的制度性刹车机制,确保人类始终保有对AI系统的最终控制权,防止技术自主性凌驾于伦理与治理之上。
客服热线请拨打
400-998-8033