科技日报记者 张晔
“以前大家都认为安全是附加的、可选择的,但到了AI时代,安全就是产品的质量本身。你买来一个东西,它不保证安全质量,你还敢用?”
近日,在2026网络通信安全融合生态创新发展大会上,中国工程院院士邬江兴用一句话点透了AI时代网络安全的核心意义。
当AI技术加速渗透各行各业,网络安全管理究竟该如何平衡发展与防护,实现“收放有道”?
邬江兴表示,AI打通了现实世界和数字世界,也随之带来了真实可感的安全风险。在数字世界中,出现问题大不了重启修复,但如果是AI机器人,本应递上杯子,却误做出伤害人的动作,后果将不堪设想。因此,安全必须成为大众应用AI的首要准则。
那么,如何科学检测AI的安全性能?检测工具扫描后反馈“无漏洞”,是否意味着真的安全无虞?我国原创的内生安全理论与技术体系,给出了破解这一难题的有效方案。
他表示,传统检测模式认为,面对强大的AI模型,需要更强的模型进行监管。
他说:“其实无须如此,我们可以用一组‘弱但专业’的模型协同监管,以专克强、以多胜大。基于内生安全‘必要多样性原理’和‘相对正确公理’,构建多元AI主体的共识机制和交叉验证的监督集群,可以让不确定风险‘相对可控’,让多元主体一起当好‘风险守门人’,把‘安全基因’在设计阶段就植入AI,保障AI系统‘开箱即安全可用’。”
据悉,该机制已于2023年在自动驾驶场景中完成验证。验证结果显示,智能决策不再依赖单一的端到端“黑箱”模型,而是通过多主体共识机制确保决策与行动的可控性,为大模型上车提供了安全可信的实现路径,也印证了内生安全理论在AI安全检测实际场景中的可行性。

网友评论