2025年10月8日,英国AI安全研究院、Anthropic、艾伦·图灵研究所及牛津大学OATML实验室等机构联合发布一项突破性研究,挑战了“模型参数规模越大越安全”的主流认知。研究发现,无论模型规模大小,仅需250份精心构造的恶意文档即可实现对人工智能系统的有效攻陷。该结果表明,AI模型的安全性与其参数数量之间并无直接关联,揭示了当前大模型在面对针对性攻击时的普遍脆弱性,为未来AI安全防护机制的设计提供了重要警示与方向指引。
客服热线请拨打
400-998-8033