“依托人工智能應(yīng)用將會(huì)充分展現(xiàn)數(shù)據(jù)要素價(jià)值,促進(jìn)數(shù)字經(jīng)濟(jì)的進(jìn)一步騰飛。”全國政協(xié)委員、啟明星辰信息技術(shù)集團(tuán)股份有限公司首席執(zhí)行官嚴(yán)望佳建議,加強(qiáng)人工智能應(yīng)用安全,促進(jìn)數(shù)字經(jīng)濟(jì)穩(wěn)步前行。
嚴(yán)望佳說,人工智能應(yīng)用面臨的安全問題是多樣的,比如與人工智能應(yīng)用相關(guān)的數(shù)據(jù)安全及隱私保護(hù)問題,很多人工智能應(yīng)用往往直接套用現(xiàn)有模型,算法是不透明的“黑盒子”,很可能潛藏未知的安全隱患。人工智能應(yīng)用軟硬件供應(yīng)鏈安全問題也不容忽視,從底層芯片到上層應(yīng)用開發(fā)的一系列軟硬件供應(yīng)鏈,每一環(huán)節(jié)都可能產(chǎn)生安全問題,還有逐漸顯現(xiàn)的人工智能應(yīng)用倫理安全問題,比如“大數(shù)據(jù)殺熟”、算法偏見、決策錯(cuò)誤引發(fā)損失時(shí)的責(zé)任認(rèn)定等。
“安全是發(fā)展的前提,發(fā)展是安全的保障。”嚴(yán)望佳建議加強(qiáng)人工智能應(yīng)用相關(guān)的數(shù)據(jù)安全及隱私保護(hù)技術(shù)研究,在不泄露隱私與敏感信息的前提下保留數(shù)據(jù)價(jià)值并支持人工智能應(yīng)用構(gòu)建所需的高效計(jì)算。要強(qiáng)化人工智能應(yīng)用的透明性要求,尤其在涉及社會(huì)、人身安全的關(guān)鍵領(lǐng)域應(yīng)避免“黑盒”應(yīng)用,應(yīng)制定相關(guān)法律及標(biāo)準(zhǔn)規(guī)范明確各領(lǐng)域人工智能應(yīng)用的透明性要求與衡量指標(biāo)等。還要推動(dòng)人工智能應(yīng)用供應(yīng)鏈安全評估,強(qiáng)化自主可控要求,避免被“卡脖子”。
來源:北京日報(bào)客戶端 | 記者 孫穎
編輯:高晨晨
流程編輯:郭丹