四川中衛(wèi)北斗科技有限公司

在線咨詢
微信

微信掃一掃

長按二維碼關(guān)注微信加好友

人臉識別不斷“闖禍”,科技公司是時候成立AI倫理委員會了

發(fā)布時間:2019-09-09 14:50

導(dǎo)讀:數(shù)百年來,人類一次次成功駕馭一代代新技術(shù)改變世界,人類文明得以不斷進化,人類社會突飛猛進,相信人類同樣可以很好地駕馭AI,讓AI向善,造福于人類。

人工智能,人臉識別,人工智能,倫理,科技向善

圖片來自“123RF”

科技公司或許很快會配備兩個CEO:一個是Chief Executive Officer即首席執(zhí)行官,另一個是Chief Ethical Officer即首席倫理官。

這幾天,AI人臉識別技術(shù)在不斷“闖禍”。

視頻換臉App ZAO在朋友圈刷屏,很快就因為用戶協(xié)議存在霸王條款、涉嫌侵犯肖像權(quán)引發(fā)用戶恐慌等問題,引發(fā)巨大爭議,先是被微信封殺,接著工信部就ZAO App網(wǎng)絡(luò)數(shù)據(jù)安全問題開展問詢約談,要求其嚴格按照國家法律法規(guī)以及相關(guān)主管部門要求,進行整改,依法收集用戶信息并使用,規(guī)范協(xié)議條款,強化網(wǎng)絡(luò)數(shù)據(jù)和用戶個人信息安全保護。ZAO隨后修改用戶協(xié)議并公開道歉。

人臉.jpg

另一家AI獨角獸則因在校園試點“基于人臉識別的教室監(jiān)控”而引發(fā)輿論大嘩,相關(guān)圖片顯示,對應(yīng)系統(tǒng)可以監(jiān)控學(xué)生在課堂的一舉一動,舉手次數(shù)、打瞌睡、開小差甚至注意力是否集中,都可以被機器識別得一清二楚,并進行可視化呈現(xiàn)。盡管對應(yīng)的技術(shù)在智能教育上呈現(xiàn)出廣闊的應(yīng)用前景,但人們卻并不買賬,而是擔心“監(jiān)控”下學(xué)習的精神壓力和隱私風險。隨后,這家AI獨角獸回應(yīng)稱,網(wǎng)絡(luò)上出現(xiàn)的一幅課堂行為分析圖片,為技術(shù)場景化概念演示,意思是,尚未應(yīng)用。

人臉識別.jpg

不論是ZAO的視頻換臉技術(shù),還是教室監(jiān)控技術(shù),本身都不新鮮。ZAO用的是開源技術(shù),“教室監(jiān)控技術(shù)”一直都是AI教育明星公司們主打的一項技術(shù)。一夜之間備受關(guān)注,原因在于,AI技術(shù)發(fā)展太快,應(yīng)用門檻變低,開始來到了我們身邊。

AI技術(shù)的副作用正在出現(xiàn)

算法、算力和數(shù)據(jù)經(jīng)歷幾年積累后,AI威力已大不相同。百度在前不久的云智峰會上提出,AI工業(yè)化時代來了。馬化騰在世界人工智能大會上表示:人工智能在未來十年會迎來高速發(fā)展。AI技術(shù)到了大規(guī)模落地到各行各業(yè)的關(guān)鍵時刻,是真的已經(jīng)爆發(fā)了。

AI技術(shù)爆發(fā)帶來的問題,是人們始料未及的,人類沒有做好準備。

單單是一個人臉識別,就有大量的值得人們焦慮甚至恐懼的問題:如果換臉技術(shù)被用于惡意合成色情或暴力視頻,可能會給當事人帶來類似于網(wǎng)絡(luò)暴力這樣的滅頂之災(zāi);如果人臉識別技術(shù)被任何人輕松掌握,隱私對每個人來說將會成為奢侈品;如果人臉識別技術(shù)被犯罪分子破解,人們的隱私、財產(chǎn)甚至人身安全都會面臨巨大的威脅。

有人說,在AI技術(shù)大規(guī)模應(yīng)用前,到處都有攝像頭,別說公共治安網(wǎng)絡(luò)了,商場、餐廳、公司、小區(qū)都安裝了攝像頭,每輛車上都有行車記錄儀,人臉數(shù)據(jù)一直在被收集。但是,AI技術(shù)普及前你的人臉數(shù)據(jù)一般都沒人關(guān)心,沒人去分析利用,因為成本太高。而AI技術(shù)的核心價值是可以對數(shù)據(jù)進行更有效、更快速和更深度的挖掘,你的人臉數(shù)據(jù)被侵犯的風險大大增加。特別是5G時代到來,AIoT爆發(fā)后,終端側(cè)數(shù)據(jù)將有可能被實時同步到云端或者邊緣側(cè),被AI深度挖掘。

到時候,你的人臉數(shù)據(jù)將被AI無處不在的監(jiān)控。商場知道你的逛街習慣,你和誰一起逛街,你習慣于買什么;餐廳知道你的紀念日,你和誰約會,你習慣點什么……你可能會想,我可以戴著口罩出門,保護自己的人臉隱私數(shù)據(jù),但是,AI現(xiàn)在已經(jīng)步態(tài)識別,你怎么遮掩都沒意義。

想想都很可怕。

AI技術(shù)帶來的問題遠不止于人臉識別這樣的數(shù)據(jù)隱私問題。

AI技術(shù)會給網(wǎng)絡(luò)欺詐提供便利,讓“造假”變得更加容易,且難以辨別。

你在約會App上跟一個姑娘火熱地聊一個月,聊得很開心,給她發(fā)紅包、送禮物、獻殷勤,約見面卻被拉黑了,因為對方很可能只是一個AI虛擬人;

你在直播平臺給一個性感妖嬈的妹紙打賞,對方可能不再是遮臉騙錢的喬奶奶,而是直接換臉的摳腳大漢;

你在電商平臺看到KOC們頗具煽動性的點評,也只是AI的即興發(fā)揮;

你接到的騷擾電話不再是推銷員孜孜不倦撥打的,而是AI自動撥出,話術(shù)量身定制;

社交平臺的僵尸粉會“活”起來,基于AI技術(shù)人模狗樣地發(fā)發(fā)段子,曬曬圖片。

AI技術(shù)會讓很多人失業(yè),尤其是重復(fù)性強的工作,比如收銀、客服、監(jiān)測、軟件測試工程師。

前段時間看到一個新聞,一個高速公路收費站員工集體抗議電子支付,理由是他們第一份工作就是收費員,人到中年除了收費什么都不會。AI對就業(yè)崗位的取代尚未大面積開始,“收費員”們怎么辦?我們都相信,AI會增加更多的工作崗位,但算法這樣的AI崗位顯然不適于失業(yè)者。

AI算法是被人訓(xùn)練出來的,人的偏見會被AI繼承,比如性別歧視、種族歧視、地域歧視。微軟副總裁、人工智能事業(yè)部負責人沈向洋曾談到人工智能的“偏見”——你在網(wǎng)絡(luò)搜索“CEO”會發(fā)現(xiàn),出來的結(jié)果基本上沒有女性,亞洲人面孔很少。

AI技術(shù)被黑客掌握,黑客的攻擊手段會全面升級。

去年底,紐約大學(xué)一個團隊研發(fā)了一個名為DeepMasterPrints的機器學(xué)習工具,其利用生成對抗網(wǎng)絡(luò)(GAN)創(chuàng)造的“萬能指紋”,破解指紋鎖的成功率最高達到了76%,類似的應(yīng)用還有AI識別驗證碼、AI模擬DDoS攻擊等等。經(jīng)典網(wǎng)絡(luò)安全技術(shù)必須要全面升級,才能實現(xiàn)對AI攻擊的對抗。

AI工業(yè)化時代來臨,AI技術(shù)應(yīng)用到各行各業(yè),滲透到人們生活方方面面已是不可阻擋的趨勢,從ZAO和AI教室監(jiān)控引發(fā)的爭議來看,跟大力推動AI落地同等重要的是,如何讓AI以正確的方式落地,這意味著“AI倫理”將變得至關(guān)重要。

是時候重視AI倫理了

倫理指人與人相處的各種道德準則,AI倫理是人與機器以及AI時代人與人相處的道德準則。

前段時間,“首例基因編輯嬰兒”事件備受關(guān)注,深圳醫(yī)學(xué)倫理委第一時間回應(yīng)并啟動調(diào)查。在醫(yī)學(xué)行業(yè),倫理對于技術(shù)制約的重要價值已得到很好的體現(xiàn),AI技術(shù)的高速發(fā)展就跟基因編輯技術(shù)一樣,需要倫理來制約,一些機構(gòu)和企業(yè)已經(jīng)在探索。

加州大學(xué)伯克利分校、哈佛大學(xué)、劍橋大學(xué)、牛津大學(xué)和一些研究院早已啟動AI倫理研究項目,早在2016年,亞馬遜、微軟、谷歌、IBM和Facebook五大美國最具AI技術(shù)實力的巨頭就聯(lián)合成立了一家非營利性的人工智能合作組織(Partnership on AI)以解決AI倫理問題,這一組織在2017年1月迎來了蘋果。

2017年微軟在內(nèi)部成立了人工智能倫理委員會(AETHER);2018年,在F8開發(fā)者大會上,F(xiàn)acebook宣布已成立專門倫理團隊防止人工智能的偏見。

當初讓AI進入大眾視野的是打敗李世石的AlphaGo,其開發(fā)公司是英國的DeepMind公司。作為AI標桿,DeepMind自成立以來,就將AI倫理放在跟技術(shù)同等重要的位置。2014年,谷歌以6.5億美元的價格收購DeepMind,DeepMind的創(chuàng)始人設(shè)定的交易條件之一是谷歌創(chuàng)建一個AI倫理委員會。

谷歌在2019年才兌現(xiàn)這一條件,成立人工智能倫理委員會,以指導(dǎo)公司“負責任的人工智能發(fā)展計劃”,不過這一委員會很快就因為員工抗議而夭折。谷歌高管組成的高級技術(shù)審查委員會(ATRC)在事實上扮演了谷歌AI倫理管理的角色,ATRC由谷歌首席法律官肯特·沃克(KentWalker)管理,余下成員均是谷歌極具權(quán)勢的高管。

AI倫理在中國已經(jīng)引發(fā)科技巨頭和監(jiān)管部門的關(guān)注,且很快會轉(zhuǎn)化為具體行動。

AI倫理委員會將成科技大公司標配

百度是中國布局AI最激進的科技巨頭,擁有領(lǐng)先的AI技術(shù),其掌門人李彥宏多年來一直在為AI搖旗吶喊和建言獻策。今年兩會上,李彥宏第一個提案就是關(guān)于人工智能倫理,其認為:

“人工智能技術(shù)近年來發(fā)展非常迅速,不僅理論上不斷推陳出新,在計算能力上也越來越強,數(shù)據(jù)也越來越多,可做的事情也越來越多,因此需要從社會、政府和公眾的角度來考慮在人工智能發(fā)展道路上,什么該做,什么不該做,什么是好的,什么是壞的,盡量避免人工智能向不好的方向發(fā)展。比如,怎么避免大量的失業(yè),怎么保證數(shù)據(jù)的安全,怎么不被黑客所攻擊,等等。李彥宏認為這些問題需要及早地從全局來進行考慮?!?/p>

在最近的智博會上,李彥宏認為,人工智能不再講究酷炫,而是講究扎扎實實推進和落實,對于人工智能發(fā)展,李彥宏提出了三個建議,第一個,就是要關(guān)注安全和效率。

同樣是在今年的兩會上,馬化騰也專門就科技倫理建設(shè)提出建言,他認為,只有進一步加強科技倫理對科技活動的引導(dǎo)和規(guī)范,才能促使科技活動朝著更加有利于人類和人類社會的方向發(fā)展。

騰訊雖然不強調(diào)技術(shù),卻是AI技術(shù)應(yīng)用的身體力行者,致力于將AI技術(shù)應(yīng)用在公司業(yè)務(wù)方方面面,馬化騰則是中國較早關(guān)注AI倫理的企業(yè)家,在去年的世界人工智能大會上,馬化騰提出AI發(fā)展要做到四可:

在未來人工智能是否能做到“可知”“可控”“可用”“可靠”,對于全人類能否更好地利用人工智能創(chuàng)造價值非常重要。人工智能需要做到可知,讓算法更加清晰;做到可控,避免人工智能被不發(fā)分子利用,危害社會;做到可用,盡可能多的讓所有人都能享受到技術(shù)紅利,減少技術(shù)鴻溝;而做到可靠則需要我們不斷努力,以修復(fù)漏洞、達到安全穩(wěn)定,讓人工智能更好地為人類服務(wù)。

今年的世界人工智能大會上,馬化騰在演講中再次指出:

AI治理的緊迫性越來越高,應(yīng)以“科技向善”引領(lǐng)AI 全方位治理,確保AI“可知”、“可控”、“可用”、“可靠”。

騰訊將愿景和使命升級成“科技向善”四個字,與AI時代新的倫理挑戰(zhàn)有直接關(guān)系,當時馬化騰轉(zhuǎn)發(fā)的鏈接是將跨年齡人臉識別技術(shù)應(yīng)用于尋人這一公益場景??萍枷蛏铺岢稣呤恰按髱熜帧睆堉緰|,他一直在觀察技術(shù)對社會的影響,希望騰訊的技術(shù)可以造福于人。什么是善?這是道德層面的事情,科技向善本質(zhì)是一個科技倫理的話題。張小龍說,善良比聰明更重要,這跟科技向善是一脈相承的,善良比聰明重要,道德比技術(shù)重要,倫理是科技發(fā)展的前提。

科技巨頭已經(jīng)在自覺行動,監(jiān)管部門則從頂層設(shè)計上決定了AI倫理的規(guī)范和執(zhí)行。

今年6 月國家新一代人工智能治理專業(yè)委員會發(fā)布報告,提出發(fā)展“負責任的人工智能”,這是我國首次發(fā)布人工智能治理原則。7月24日,《國家科技倫理委員會組建方案》被通過,根據(jù)《國家科技倫理委員會組建方案》要求,組建國家科技倫理委員會,會議指出:

科技倫理是科技活動必須遵守的價值準則。組建國家科技倫理委員會,目的就是加強統(tǒng)籌規(guī)范和指導(dǎo)協(xié)調(diào),推動構(gòu)建覆蓋全面、導(dǎo)向明確、規(guī)范有序、協(xié)調(diào)一致的科技倫理治理體系。要抓緊完善制度規(guī)范,健全治理機制,強化倫理監(jiān)管,細化相關(guān)法律法規(guī)和倫理審查規(guī)則,規(guī)范各類科學(xué)研究活動。

顯而易見,國家層面、行業(yè)層面和公司的AI倫理委員會勢在必行。如何避免企業(yè)利益站在倫理之上?如何避免AI技術(shù)發(fā)展超過倫理建設(shè)?行業(yè)巨頭如何共同遵守倫理約束?國外科技巨頭的科技倫理委員會、醫(yī)療行業(yè)的醫(yī)學(xué)倫理委員會,值得借鑒。

數(shù)百年來,人類一次次成功駕馭一代代新技術(shù)改變世界,人類文明得以不斷進化,人類社會突飛猛進,相信人類同樣可以很好地駕馭AI,讓AI向善,造福于人類。

掃一掃在手機上閱讀本文章

版權(quán)所有? 四川中衛(wèi)北斗科技有限公司    蜀ICP備14007264號-3    技術(shù)支持: 竹子建站