“以前大家都認(rèn)為安全是附加的、可選擇的,但到了AI時(shí)代,安全就是產(chǎn)品的質(zhì)量本身。你買來一個(gè)東西,它不保證安全質(zhì)量,你還敢用?”
近日,在2026網(wǎng)絡(luò)通信安全融合生態(tài)創(chuàng)新發(fā)展大會(huì)上,中國工程院院士鄔江興用一句話點(diǎn)透了AI時(shí)代網(wǎng)絡(luò)安全的核心意義。
當(dāng)AI技術(shù)加速滲透各行各業(yè),網(wǎng)絡(luò)安全管理究竟該如何平衡發(fā)展與防護(hù),實(shí)現(xiàn)“收放有道”?
鄔江興表示,AI打通了現(xiàn)實(shí)世界和數(shù)字世界,也隨之帶來了真實(shí)可感的安全風(fēng)險(xiǎn)。在數(shù)字世界中,出現(xiàn)問題大不了重啟修復(fù),但如果是AI機(jī)器人,本應(yīng)遞上杯子,卻誤做出傷害人的動(dòng)作,后果將不堪設(shè)想。因此,安全必須成為大眾應(yīng)用AI的首要準(zhǔn)則。
那么,如何科學(xué)檢測AI的安全性能?檢測工具掃描后反饋“無漏洞”,是否意味著真的安全無虞?我國原創(chuàng)的內(nèi)生安全理論與技術(shù)體系,給出了破解這一難題的有效方案。
他表示,傳統(tǒng)檢測模式認(rèn)為,面對強(qiáng)大的AI模型,需要更強(qiáng)的模型進(jìn)行監(jiān)管。
他說:“其實(shí)無須如此,我們可以用一組‘弱但專業(yè)’的模型協(xié)同監(jiān)管,以專克強(qiáng)、以多勝大。基于內(nèi)生安全‘必要多樣性原理’和‘相對正確公理’,構(gòu)建多元AI主體的共識(shí)機(jī)制和交叉驗(yàn)證的監(jiān)督集群,可以讓不確定風(fēng)險(xiǎn)‘相對可控’,讓多元主體一起當(dāng)好‘風(fēng)險(xiǎn)守門人’,把‘安全基因’在設(shè)計(jì)階段就植入AI,保障AI系統(tǒng)‘開箱即安全可用’?!?/p>
據(jù)悉,該機(jī)制已于2023年在自動(dòng)駕駛場景中完成驗(yàn)證。驗(yàn)證結(jié)果顯示,智能決策不再依賴單一的端到端“黑箱”模型,而是通過多主體共識(shí)機(jī)制確保決策與行動(dòng)的可控性,為大模型上車提供了安全可信的實(shí)現(xiàn)路徑,也印證了內(nèi)生安全理論在AI安全檢測實(shí)際場景中的可行性。
友情鏈接: 政府 高新園區(qū)合作媒體
Copyright 1999-2026 中國高新網(wǎng)chinahightech.com All Rights Reserved.京ICP備14033264號-5
電信與信息服務(wù)業(yè)務(wù)經(jīng)營許可證060344號主辦單位:《中國高新技術(shù)產(chǎn)業(yè)導(dǎo)報(bào)》社有限責(zé)任公司