【中國(guó)智能制造網(wǎng) 學(xué)術(shù)論文】人工智能技術(shù)的快速發(fā)展引發(fā)了人們對(duì)其安全問(wèn)題的普遍擔(dān)憂。無(wú)論人工智能是否會(huì)超越人類智能,研究人工智能的安全問(wèn)題都是非常必要的。從解決人工智能安全問(wèn)題的內(nèi)部進(jìn)路看,我們至少有倫理設(shè)計(jì)、限定其應(yīng)用范圍、自主程度和智能水平等方式;從外部進(jìn)路看,應(yīng)該強(qiáng)調(diào)科學(xué)家的社會(huì)責(zé)任與合作、引導(dǎo)公眾接納人工智能,以及對(duì)人工智能進(jìn)行安全評(píng)估與管理等途徑。只有采取切實(shí)有效的措施保證人工智能的安全性,才能使其為人類帶來(lái)福祉而不是危害。
人工智能安全問(wèn)題及其解決進(jìn)路
2016年3月9日至15日,谷歌人工智能“阿爾法圍棋(AlphaGo)”與韓國(guó)職業(yè)圍棋高手李世石之間展開了一場(chǎng)“人機(jī)大戰(zhàn)”,李世石的落敗使人們?cè)僖淮螢槿斯ぶ悄艿膹?qiáng)大能力驚嘆不已。由此,也引發(fā)了人們對(duì)人工智能安全問(wèn)題的普遍憂慮。人工智能是否會(huì)成為人類“后的發(fā)明”?我們?nèi)绾蚊鎸?duì)高速發(fā)展的人工智能?本文嘗試就研究人工智能安全問(wèn)題的必要性以及可能的解決途徑進(jìn)行簡(jiǎn)要論述,以期引起更多的關(guān)注和更深入的討論。
一 探究人工智能安全問(wèn)題的必要性
1.人工智能超越人類智能的可能性
毋庸置疑,人類的智能水平從整體上正如許多科幻電影與文學(xué)作品中所表現(xiàn)出來(lái)的那樣遠(yuǎn)遠(yuǎn)超越于其他生物智能,正是因?yàn)檫@一點(diǎn),使得人類成為地球的統(tǒng)治者。因此,我們很自然地得出推論,如果人工智能超越了人類智能,人工智能很可能不再聽從人類的指令,反而會(huì)與人類爭(zhēng)奪統(tǒng)治權(quán)。那么,人工智能會(huì)從整體上超越人類智能嗎?我們可以從多個(gè)角度來(lái)考察人工智能超越人類智能的可能性問(wèn)題。雖然目前學(xué)界對(duì)智能及其實(shí)現(xiàn)方式的認(rèn)識(shí)存在許多差異,但這正體現(xiàn)了人類對(duì)智能認(rèn)識(shí)的多樣性,是人類實(shí)現(xiàn)對(duì)智能全面深理解的必經(jīng)過(guò)程,并不意味著人類對(duì)智能的全面理解是不可能的。從這個(gè)角度看,科學(xué)家對(duì)人類智能的全面認(rèn)識(shí)與實(shí)現(xiàn),只是程度和時(shí)間的問(wèn)題,而不是可能與不可能的問(wèn)題。
已有不少學(xué)者從哲學(xué)、未來(lái)學(xué)等角度論證了人工智能發(fā)展進(jìn)步的可能性與可行性。徐英瑾認(rèn)為,我們可以在維特根斯坦哲學(xué)的啟發(fā)下,在一種非公理化推理系統(tǒng)的技術(shù)平臺(tái)上開發(fā)出具有不同配置形式的通用智能系統(tǒng),并使之走向產(chǎn)業(yè)化和商業(yè)化。被微軟公司創(chuàng)始人比爾·蓋茨譽(yù)為“預(yù)測(cè)人工智能未來(lái)的人”的庫(kù)茲韋爾(Ray Kurzweil)堅(jiān)信,人工智能會(huì)超越人類智能,而且超越的速度會(huì)比人們預(yù)想的快得多。他認(rèn)為,2045年是奇點(diǎn)到達(dá)的時(shí)期,這將是深刻性和分裂性的時(shí)間點(diǎn),非生物智能在這一年將會(huì)10億倍于今天所有人類的智慧。雖然庫(kù)茲韋爾的觀點(diǎn)受到一些學(xué)者的批評(píng),但他的論證并非空穴來(lái)風(fēng),而且他的著作產(chǎn)生的廣泛影響至少說(shuō)明他所思考的問(wèn)題的重要性。
從科學(xué)技術(shù)史的角度看,許多預(yù)言不可能實(shí)現(xiàn)的科學(xué)技術(shù),后來(lái)都變成了現(xiàn)實(shí)。比如,一些的科學(xué)家與工程師曾認(rèn)為飛機(jī)不可能飛上天,讓比空氣重的機(jī)械裝置飛起來(lái)純屬空想。但是,事實(shí)證明他們錯(cuò)了。因此,當(dāng)科學(xué)家對(duì)某些科學(xué)技術(shù)進(jìn)行否定性的預(yù)測(cè)時(shí),他們更應(yīng)該謹(jǐn)慎行事。當(dāng)然,要對(duì)某一項(xiàng)科學(xué)技術(shù)的發(fā)展及應(yīng)用作出預(yù)言幾乎是不可能的。但是,從相關(guān)技術(shù)的發(fā)展進(jìn)步以及目前世界各國(guó)對(duì)人工智能重視的程度來(lái)看,人工智能在未來(lái)一段時(shí)期內(nèi)極可能會(huì)快速地發(fā)展。計(jì)算機(jī)的計(jì)算速度、存儲(chǔ)容量的快速發(fā)展是有目共睹的,近些年發(fā)展起來(lái)的深度學(xué)習(xí)、云計(jì)算、超算、大數(shù)據(jù)技術(shù)等也會(huì)推動(dòng)人工智能的進(jìn)步。顯然,谷歌阿爾法圍棋的勝利使得人們普遍相信人工智能必將取得更快的發(fā)展。據(jù)報(bào)道,在阿爾法圍棋與李世石之間的“人機(jī)大戰(zhàn)”之后不久,韓國(guó)政府宣布一項(xiàng)總投資約8.4億美元的專項(xiàng)計(jì)劃,用于加快人工智能產(chǎn)業(yè)的發(fā)展。世界上許多國(guó)家自然都不甘落后,希望搶占人工智能研發(fā)高地,科研經(jīng)費(fèi)與人員投入增長(zhǎng)。從這個(gè)角度看,想要阻止人工智能的發(fā)展幾乎是不可能的。
2.人工智能產(chǎn)生危害的可能性與后果的嚴(yán)重性
鑒于人工智能發(fā)展史上經(jīng)歷的若干曲折和發(fā)展現(xiàn)狀的理解,目前大多數(shù)人工智能專家對(duì)人工智能能否(至少是在短時(shí)期內(nèi))超越人類智能持謹(jǐn)慎甚至否定態(tài)度。日本人工智能專家松尾豐認(rèn)為:“人工智能征服人類、人工智能制造出人工智能——這種可能性在現(xiàn)階段看來(lái)并不存在,只不過(guò)是憑空臆想而已。”在他看來(lái),我們沒(méi)有必要對(duì)人工智能征服人類感到憂心忡忡。也有一些科學(xué)家對(duì)人工智能的未來(lái)表示擔(dān)憂。比如,2014年底,英國(guó)廣播公司報(bào)道,理論物理學(xué)家霍金表示:“人工智能的全面發(fā)展可能導(dǎo)致人類的滅絕。”霍金擔(dān)心,人工智能也許會(huì)在將來(lái)的某一天趕上甚至超過(guò)人類。比爾·蓋茨等人士也有類似的憂慮。
不過(guò),即使人工智能整體上并未超過(guò)人類智能,但不加控制的片面的人工智能也可能給人類帶來(lái)危害。就像波斯特洛姆(Nick Bostrom)提出的曲別針?biāo)枷雽?shí)驗(yàn)?zāi)菢樱喝绻环N人工智能系統(tǒng)被設(shè)置為使曲別針的產(chǎn)量大化,那么,這種人工智能系統(tǒng)很可能具有無(wú)法滿足的胃口,不斷地獲取物質(zhì)和能力,走上首先將地球,然后將整個(gè)可觀察宇宙的大部分都變成曲別針的道路。另外,互聯(lián)網(wǎng)、物聯(lián)網(wǎng)技術(shù)使得人工智能的安全問(wèn)題更加復(fù)雜化。一方面,網(wǎng)絡(luò)資源使得人工智能自身發(fā)展進(jìn)化和可供使用的資源趨于無(wú)窮;另一方面,互(物)聯(lián)網(wǎng)技術(shù)使黑客、病毒等人為因素對(duì)人工智能產(chǎn)品構(gòu)成巨大威脅。即使人工智能尚不如人類智能,但網(wǎng)絡(luò)技術(shù)極可能使我們對(duì)人工智能的依賴演變成災(zāi)難。比如,如果黑客控制了人們家里的兒童看護(hù)機(jī)器人、助老機(jī)器人或其他智能系統(tǒng)等,由此導(dǎo)致的后果將不堪設(shè)想。
從近幾十年來(lái)非常流行的風(fēng)險(xiǎn)社會(huì)理論的角度看,研究人工智能安全問(wèn)題的必要性是不言而喻的。作為風(fēng)險(xiǎn)社會(huì)理論代表人物之一的貝克(Ulrich Beck)認(rèn)為:“風(fēng)險(xiǎn)概念表明人們創(chuàng)造了一種文明,以便使自己的決定將會(huì)造成的不可預(yù)見的后果具備可預(yù)見性,從而控制不可控制的事情,通過(guò)有意采取的預(yù)防性行動(dòng)及相應(yīng)的制度化的措施戰(zhàn)勝種種副作用。”雖然風(fēng)險(xiǎn)社會(huì)研究的不同流派對(duì)風(fēng)險(xiǎn)的界定及防范等基本問(wèn)題有各自不同的看法,但對(duì)高科技會(huì)導(dǎo)致高風(fēng)險(xiǎn)的認(rèn)識(shí)是高度一致的。因此,風(fēng)險(xiǎn)社會(huì)研究的理論成果對(duì)人工智能的安全問(wèn)題研究頗有借鑒與啟發(fā)意義。
總的來(lái)說(shuō),鑒于人工智能超越人類智能的可能性,以及人工智能產(chǎn)生危害的可能性與后果的嚴(yán)重性,加上科學(xué)技術(shù)本身內(nèi)在的不確定性,這些因素足以構(gòu)成我們研究人工智能安全問(wèn)題的必要性。事實(shí)上,人文社會(huì)科學(xué)研究本來(lái)就應(yīng)該超越自然科學(xué)的發(fā)展,就像我們不能等克隆人產(chǎn)生之后再來(lái)研究克隆人的倫理與社會(huì)問(wèn)題一樣,我們必須在人工智能產(chǎn)生安全問(wèn)題之前就做好充分的理論準(zhǔn)備。
二 解決人工智能安全問(wèn)題的內(nèi)部進(jìn)路
一般說(shuō)來(lái),技術(shù)導(dǎo)致的負(fù)面影響(包括安全問(wèn)題)主要是由技術(shù)本身或人為因素造成的,相應(yīng)的解決途徑也可以從這兩方面入手。因此,我們可以大致把解決人工智能安全問(wèn)題的方法分為內(nèi)部和外部?jī)煞N進(jìn)路。從內(nèi)部進(jìn)路看,我們至少有以下幾種解決途徑。
,倫理設(shè)計(jì)。對(duì)人工智能產(chǎn)品進(jìn)行倫理設(shè)計(jì)是解決其安全問(wèn)題的基本進(jìn)路之一。近十多年來(lái),機(jī)器人倫理問(wèn)題得到越來(lái)越多西方學(xué)者的關(guān)注。機(jī)器人倫理研究的主要目標(biāo),就是讓機(jī)器人在與人類互動(dòng)的過(guò)程中,具有一定的道德判斷與行為能力,從而使機(jī)器人的所作所為符合人們預(yù)設(shè)的道德準(zhǔn)則。從理論上看,根據(jù)人類預(yù)設(shè)的道德原則進(jìn)行道德決策的機(jī)器人可以成為只做好事的“道德楷模”,而且在一定程度上還可以避免人們對(duì)其的不當(dāng)使用、惡意利用或?yàn)E用。
美國(guó)學(xué)者瓦拉赫(Wendell Wallach)和艾倫(Colin Allen)認(rèn)為,將來(lái)人工智能系統(tǒng)必定會(huì)獨(dú)立于人類的監(jiān)管,自主作出決定,他們把能夠作出道德抉擇的人工智能系統(tǒng)稱之為人工道德行為體(artificial moral agents,簡(jiǎn)稱AMAs)。瓦拉赫和艾倫相信,在機(jī)器人身上實(shí)現(xiàn)人工道德,使機(jī)器成為道德行為主體是可能的。他們?yōu)槿斯ぶ悄艿牡赖戮駬裨O(shè)計(jì)了三種實(shí)現(xiàn)模式:“自上而下的進(jìn)路”、“自下而上的進(jìn)路”,以及“混合進(jìn)路”。自上而下的進(jìn)路是指選擇一套可以轉(zhuǎn)化為算法的道德準(zhǔn)則作為機(jī)器行為的指導(dǎo)原則;自下而上的進(jìn)路類似于人類的道德發(fā)展模式,通過(guò)試錯(cuò)法培養(yǎng)道德判斷能力。不過(guò),這兩種方式均有一定的局限性。比如,種進(jìn)路把一套明確的規(guī)則賦予機(jī)器可能是不合理的,同一種原理在不同的情況下可能會(huì)導(dǎo)致不同的相互矛盾的決定;后一種進(jìn)路要求機(jī)器能夠自我發(fā)展進(jìn)化,而人工智能系統(tǒng)的學(xué)習(xí)與進(jìn)化能力的提高將會(huì)是一個(gè)比較緩慢的過(guò)程?;旌线M(jìn)路在一定程度上,可追溯到亞里斯多德的美德倫理學(xué),它把兩種進(jìn)路統(tǒng)一了起來(lái):一方面,美德本身可以清楚地表述出來(lái);另一方面,它們的習(xí)得又是典型的自下而上的過(guò)程。
瓦拉赫和艾倫為我們描述了使機(jī)器人成為“道德楷模”的可能性。如果他們以及其他類似的方案能夠得以實(shí)現(xiàn),人工智能系統(tǒng)就可以作出人類認(rèn)為正確的道德決策。在人類的道德活動(dòng)中,非理性因素(比如情感)也會(huì)起到關(guān)鍵性作用,瓦拉赫和艾倫也討論了把理性和非理性整合到人工智能系統(tǒng)中的可能性。不過(guò),筆者認(rèn)為,為了保證人工智能系統(tǒng)的安全性,我們可能希望人工智能系統(tǒng)的道德判斷更為理性和客觀,并不需要增加過(guò)多的非理性因素。
雖然要真正實(shí)現(xiàn)對(duì)人工智能的倫理設(shè)計(jì)還有許多具體的工作要做,但是從機(jī)器人倫理研究的勃興及取得的初步成果來(lái)看,在人工智能產(chǎn)品中實(shí)現(xiàn)人工道德完全是可能的。人們也更容易相信,一個(gè)能夠根據(jù)我們的預(yù)設(shè)作出合理的道德判斷和行為的人工智能系統(tǒng),對(duì)我們來(lái)說(shuō)才是真正安全可靠的。