人工智能技術和應用飛速發(fā)展,在推動經(jīng)濟社會創(chuàng)新發(fā)展的同時,也帶來安全、倫理、法律法規(guī)等方面的風險挑戰(zhàn)。
隨著數(shù)據(jù)越來越多被收集,應用場景增加,用戶個人信息泄露的風險也隨之提升。
人工智能的研究和應用要有倫理和法律界限,即應以人類的根本利益和責任為原則。
剛剛結束的全國兩會上,“拓展‘智能+’”首次被寫入今年的《政府工作報告》,作為未來的重要基礎性技術,人工智能已連續(xù)三年出現(xiàn)在《政府工作報告》中。可以預見,隨著人工智能、大數(shù)據(jù)的深入應用,生產(chǎn)生活的數(shù)字化轉型是大勢所趨。
人們在擁抱人工智能、邁向數(shù)字社會的同時,也需要正視人工智能等新技術應用在安全、倫理、法律法規(guī)、社會治理等方面的挑戰(zhàn)。只有未雨綢繆,研判和防范潛在風險,才能安享“智能+”的時代紅利。
人工智能應用方興未艾,同時也帶來安全風險隱患
前不久,一項人工智能深度換臉技術引發(fā)爭議。原來,這項技術能做到幾乎毫無痕跡地給視頻中的人物“換臉”,引發(fā)人們對隱私和肖像權被侵犯的擔憂。更深的擔憂在于,如果這一技術被濫用,是否意味著大量視頻會被“移花接木”?
今年全國兩會上,人工智能、大數(shù)據(jù)等技術應用帶來的安全風險,成為代表委員關注的焦點之一。全國政協(xié)委員、360集團董事長兼首席執(zhí)行官周鴻祎就表示,安全應該成為人工智能發(fā)展的基礎與前提。全國人大代表、蘇寧控股集團董事長張近東也提出,數(shù)據(jù)安全是數(shù)字中國建設的重中之重,發(fā)展高質量的數(shù)字經(jīng)濟,需要加強對數(shù)據(jù)的安全保護和合規(guī)共享。
從信息安全角度看,當前人工智能應用的安全風險點主要有哪些?
中國信息通信研究院移動安全聯(lián)盟秘書長楊正軍說,人工智能高度依賴海量數(shù)據(jù)的采集和訓練分析。隨著數(shù)據(jù)越來越多被收集,應用場景增加,用戶個人信息泄露的風險也隨之提升。
“人工智能算法不僅能直接采集用戶個人信息,也會深度挖掘分析看似不相關的數(shù)據(jù)?!睏钫娊榻B,他們開展的一項調研顯示,當前濫用個人信息現(xiàn)象較為普遍。同時,人工智能及大數(shù)據(jù)場景下無所不在的數(shù)據(jù)收集、專業(yè)化多樣化的數(shù)據(jù)處理技術,使得信息主體難以了解、控制其信息是如何被收集和利用的。信息安全保護已經(jīng)成為人工智能發(fā)展的重要課題。
專家表示,技術本身是中性的,只要利用得當,人工智能也能用來提升網(wǎng)絡安全水平。比如,人工智能在識別惡意代碼方面就很有優(yōu)勢。
北京神州綠盟科技有限公司安全研究員吳子建說,惡意代碼往往是基于一些開源代碼修改而成,它們通常有相似的行為模式。借助人工智能技術訓練的檢測工具,能夠比較高效地發(fā)現(xiàn)惡意代碼。
人工智能技術也普遍用于企業(yè)內網(wǎng)安全防護。吳子建介紹,傳統(tǒng)的防護手段是在網(wǎng)絡的入口處設置防御措施,但內網(wǎng)之間很少進行防御。采用人工智能等技術手段關聯(lián)數(shù)據(jù),可以有效檢測內網(wǎng)中的異常。與傳統(tǒng)的方法相比,這種方法不僅能發(fā)現(xiàn)已知威脅,還可以檢測到未知風險。
吳子建認為,業(yè)內還需要做更多深入的研究,不斷提升人工智能在安全防護上的價值。
應提前研判智能時代的法律倫理風險,引導人機良性合作
人工智能的應用越來越多,衍生出一系列倫理、法律難題。比如,無人駕駛汽車發(fā)生交通事故時如何界定責任,醫(yī)療外科手術機器人出現(xiàn)意外怎樣處置……
“人工智能的研究和應用要有倫理和法律界限,即應以人類的根本利益和責任為原則,以實現(xiàn)人類根本利益為終極目標。這一要求也是人工智能和人的關系決定的。”中國人民大學法學院副教授郭銳認為。
“當前技術條件下,智能機器尚未具備倫理決策的能力,但其決策會引發(fā)有倫理意義的后果?!惫J認為,通常法律針對的是能夠遵循這些原則的主體,也就是自然人或者法律看作是主體的組織(法人),但考慮到人工智能的特征是對人的智能的模擬、延伸和擴展,因此倫理原則應當適用于人工智能系統(tǒng)。
北京師范大學哲學學院教授田海平認為,人工智能的主體構成不是孤立的個體,而是多種關聯(lián)形態(tài)的總和。“人工智能的構成主體分為研發(fā)者(包括算法的開發(fā)者)、生產(chǎn)商、運營商、電信網(wǎng)絡服務商等。一旦發(fā)生交通或醫(yī)療事故,由于無法找到某個確定的責任主體,給責任界定帶來很大困難,因此需要確立代理人來界定責任與權利?!?br>
近年來,學界和產(chǎn)業(yè)界日益重視人工智能中的倫理與法律問題,并推動制定相關技術標準及社會規(guī)范。專家表示,人工智能倫理法律涉及科學界、企業(yè)界,哲學、法學等多個領域,有必要成立應對人工智能發(fā)展的聯(lián)盟組織,吸納各方面的力量,共同推進相關研究。
郭銳建議,要考慮到人工智能開發(fā)和部署過程中的權責歸屬,通過為技術開發(fā)者、產(chǎn)品生產(chǎn)者或者服務提供者、使用者界定權利和義務,讓自動駕駛、無人機等人工智能應用安全落地。
專家表示,人工智能大規(guī)模進入人們生活之前,還應建立相對統(tǒng)一的風險評估指標體系,設立具體、可操作的指標,為相關研究及應用提供指引。
專家特別提醒,人和機器各有優(yōu)勢,要互相了解才能實現(xiàn)人機協(xié)作,但人還是人機關系的主導者。惟其如此,才能將人工智能引向人機合作的良性發(fā)展道路。
全球人工智能法律治理面臨共同難題,當前應加強個人隱私安全管理
針對人工智能應用在安全、倫理等領域的潛在威脅,世界各國已經(jīng)開始了相關法律治理研究。
楊正軍介紹,各國對人工智能風險的關注重點和重視程度有所不同。以安全為例,美國關注人工智能對國家安全的影響,2018年3月美國國會發(fā)起提案,建議成立國家人工智能安全委員會,并將制定相關法案;歐盟和英國關注人工智能對隱私、就業(yè)及倫理的影響;俄羅斯、以色列、印度則重點關注人工智能在國防領域的應用以及對軍事安全的影響。
北京師范大學刑科院暨法學院副教授、中國互聯(lián)網(wǎng)協(xié)會研究中心秘書長吳沈括表示,在規(guī)范人工智能發(fā)展方面,我國起步較早。2017年7月,國務院頒布《新一代人工智能發(fā)展規(guī)劃》;2017年12月,工信部發(fā)布《促進新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃(2018—2020年)》,都對人工智能產(chǎn)業(yè)的規(guī)范發(fā)展提出了要求。
“這些政策能夠引導和助推相關產(chǎn)業(yè)的發(fā)展。關于人工智能技術標準,我國也發(fā)布過一些文件。然而,當前立法中對于人工智能帶來的安全問題還存在比較大的空白,這也是全球人工智能的法律治理面臨的共同難題?!眳巧蚶ㄕf。
隨著人工智能應用的深入,其附屬的相關風險也日益凸顯,加強對人工智能相關的法律治理至關重要。人工智能法律治理呈現(xiàn)出哪些趨勢,現(xiàn)實中又有哪些需要迫切注意的問題?
吳沈括認為,人工智能立法治理上可能會呈現(xiàn)出三個趨勢:一是立法將更加細化,更有針對性。比如,針對自動駕駛、機器人、生物識別等領域頒布一些規(guī)范性文件,立法監(jiān)管也會更加多元;二是立法將與產(chǎn)業(yè)特性緊密結合;三是立法將以規(guī)范為主,監(jiān)管則重在為產(chǎn)業(yè)發(fā)展提供指引。
“由于法律往往存在一定的滯后性,考慮到人工智能等新技術應用前景廣闊,立法需要預留一定的空間,盡量實現(xiàn)產(chǎn)業(yè)應用與風險前瞻的恰當平衡。在確定監(jiān)管什么內容、如何監(jiān)管以及怎樣執(zhí)行時,要把握好力度,不宜影響產(chǎn)業(yè)的發(fā)展活力?!眳巧蚶ㄕf。
楊正軍說,從行業(yè)調研情況來看,當前應該加強個人隱私安全管理。他建議,隱私保護應從立法監(jiān)管和技術能力提升兩方面入手:一方面,針對我國個人信息保護法律條款分散、不成體系的現(xiàn)狀,加快統(tǒng)一立法,明確數(shù)據(jù)不當收集、使用、泄露等的責任,同時也要界定好數(shù)據(jù)歸屬權等問題;另一方面,應加強新技術在個人隱私保護方面的應用。
數(shù)據(jù)的合理合法收集是數(shù)據(jù)利用的前提。專家表示,我們不應回避智能化與隱私安全保護的沖突,而應積極作為,找到智能時代技術應用與風險防護的最大公約數(shù),為智能生活保駕護航。
掃一掃在手機上閱讀本文章