張鈸:人工智能安全問題比信息系統(tǒng)更難克服

2021-08-04 17:46:04   來源:新浪科技   評(píng)論:0   [收藏]   [評(píng)論]
導(dǎo)讀:  全球數(shù)字經(jīng)濟(jì)大會(huì)期間,中國(guó)科學(xué)院院士、清華大學(xué)人工智能研究院院長(zhǎng)張鈸指出,人工智能安全問題比信息系統(tǒng)更難克服,人工智能治理不僅要從法律法規(guī)、倫理規(guī)范等層面去治標(biāo),同時(shí)還應(yīng)從技術(shù)創(chuàng)新層面發(fā)力去治
  全球數(shù)字經(jīng)濟(jì)大會(huì)期間,中國(guó)科學(xué)院院士、清華大學(xué)人工智能研究院院長(zhǎng)張鈸指出,人工智能安全問題比信息系統(tǒng)更難克服,人工智能治理不僅要從法律法規(guī)、倫理規(guī)范等層面去“治標(biāo)”,同時(shí)還應(yīng)從技術(shù)創(chuàng)新層面發(fā)力去“治本”。

  人工智能在純技術(shù)層面是價(jià)值中立的,但在實(shí)際應(yīng)用中則往往兼具創(chuàng)造性和破壞性。數(shù)據(jù)隱私、算法偏見、技術(shù)濫用等安全問題,正給社會(huì)公共治理與產(chǎn)業(yè)智能化轉(zhuǎn)型帶來嚴(yán)峻挑戰(zhàn)。

  在張鈸看來,“人工智能與信息系統(tǒng)在安全性上有著顯著區(qū)別。信息系統(tǒng)安全性問題主要是軟件設(shè)計(jì)中的漏洞,容易被解決。而第二代人工智能的安全性問題主要來自深度學(xué)習(xí)算法本身的不安全,更加本質(zhì)、更難克服。”張鈸指出,為防止人工智能被誤用、濫用,人工智能的治理首先需要從法律法規(guī)、倫理規(guī)范、行業(yè)共識(shí)等不同層面去“治標(biāo)”,同時(shí)還應(yīng)從技術(shù)創(chuàng)新層面發(fā)力去“治本”。

  學(xué)術(shù)與教學(xué)之外,張鈸同時(shí)還擔(dān)任人工智能企業(yè)瑞萊智慧的首席科學(xué)家。本次數(shù)字經(jīng)濟(jì)大會(huì),在由北京智源人工智能研究院、瑞萊智慧聯(lián)合發(fā)起的《人工智能產(chǎn)業(yè)擔(dān)當(dāng)宣言》發(fā)布儀式上,華為、螞蟻集團(tuán)、寒武紀(jì)、出門問問等人工智能企業(yè)代表出席,宣布共擔(dān)科技使命,積極探索人工智能治理的新路徑。

分享到:
責(zé)任編輯:zsz

網(wǎng)友評(píng)論