AI时代网络安全管理应该“收放有道”

2026-04-01 10:52:00 来源: 科技日报 点击数:

科技日报记者 张晔

“以前大家都认为安全是附加的、可选择的,但到了AI时代,安全就是产品的质量本身。你买来一个东西,它不保证安全质量,你还敢用?”

近日,在2026网络通信安全融合生态创新发展大会上,中国工程院院士邬江兴用一句话点透了AI时代网络安全的核心意义。

当AI技术加速渗透各行各业,网络安全管理究竟该如何平衡发展与防护,实现“收放有道”?

邬江兴表示,AI打通了现实世界和数字世界,也随之带来了真实可感的安全风险。在数字世界中,出现问题大不了重启修复,但如果是AI机器人,本应递上杯子,却误做出伤害人的动作,后果将不堪设想。因此,安全必须成为大众应用AI的首要准则。

那么,如何科学检测AI的安全性能?检测工具扫描后反馈“无漏洞”,是否意味着真的安全无虞?我国原创的内生安全理论与技术体系,给出了破解这一难题的有效方案。

他表示,传统检测模式认为,面对强大的AI模型,需要更强的模型进行监管。

他说:“其实无须如此,我们可以用一组‘弱但专业’的模型协同监管,以专克强、以多胜大。基于内生安全‘必要多样性原理’和‘相对正确公理’,构建多元AI主体的共识机制和交叉验证的监督集群,可以让不确定风险‘相对可控’,让多元主体一起当好‘风险守门人’,把‘安全基因’在设计阶段就植入AI,保障AI系统‘开箱即安全可用’。”

据悉,该机制已于2023年在自动驾驶场景中完成验证。验证结果显示,智能决策不再依赖单一的端到端“黑箱”模型,而是通过多主体共识机制确保决策与行动的可控性,为大模型上车提供了安全可信的实现路径,也印证了内生安全理论在AI安全检测实际场景中的可行性。

责任编辑:李梦一
网友评论
最热评论
没有更多评论了

抱歉,您使用的浏览器版本过低或开启了浏览器兼容模式,这会影响您正常浏览本网页

您可以进行以下操作:

1.将浏览器切换回极速模式

2.点击下面图标升级或更换您的浏览器

3.暂不升级,继续浏览

继续浏览