科學(xué)家普遍認(rèn)為,當(dāng)前人工智能尚處于“弱人工智能”階段,即只能出色地完成某一項(xiàng)特定的任務(wù)或解決某一類特定問題。但也有一些專家斷言,人工智能軍事化就如同1945年美國(guó)第一次進(jìn)行的核爆實(shí)驗(yàn)及在長(zhǎng)崎和廣島投下的原子彈般橫空出世,一定會(huì)給國(guó)際戰(zhàn)略格局帶來范式性的沖擊。然而,這場(chǎng)革命究竟會(huì)如何向世人呈現(xiàn)其真實(shí)全貌還未可知。但就武器產(chǎn)生的變革效應(yīng)和方式而言,核武器與人工智能在性質(zhì)上頗為不同。核武器在誕生之初即展示出驚人的破壞力,進(jìn)而對(duì)國(guó)際安全和國(guó)際軍控產(chǎn)生顛覆性的深遠(yuǎn)心理和物理影響。而人工智能是賦能技術(shù),必須與其他武器技術(shù)相結(jié)合才能引發(fā)戰(zhàn)場(chǎng)革命。一些比較悲觀的專家則進(jìn)一步預(yù)言,現(xiàn)有理論研究的內(nèi)在不足將限制人工智能的發(fā)展前景,人工智能在未來無可避免地陷入“寒冬”。既然人工智能帶來的革命性影響是一個(gè)未知數(shù),為何國(guó)際社會(huì)開始急于尋找關(guān)于人工智能的國(guó)際安全治理的答案呢?
當(dāng)下的三種爭(zhēng)論
我們?cè)诮诒姸嗟膰?guó)內(nèi)外會(huì)議以及相關(guān)文獻(xiàn)中發(fā)現(xiàn),包括政策制定者、科學(xué)家、工程師、政治學(xué)者在內(nèi)的專業(yè)人士對(duì)人工智能是否會(huì)沖擊國(guó)際安全及如何沖擊國(guó)際安全,其實(shí)持有頗為不同的觀點(diǎn)和視角。倘若以人工智能對(duì)國(guó)際安全的影響程度來區(qū)分,這些討論大體可被歸為三種,即主張革命性沖擊的變革派、尚未達(dá)到“質(zhì)變”的演進(jìn)派以及影響受限的謹(jǐn)慎派。
在這場(chǎng)大爭(zhēng)論中,變革派預(yù)測(cè)人工智能將對(duì)國(guó)際安全產(chǎn)生顛覆性影響,斷言其軍事影響力可與核武器相提并論。在他們看來,人工智能在軍事領(lǐng)域的廣泛應(yīng)用極大地提高了士兵的戰(zhàn)場(chǎng)態(tài)勢(shì)感知能力和戰(zhàn)略決策效率,其與機(jī)器人的結(jié)合一定會(huì)顯示出比人類要強(qiáng)大得多的行動(dòng)力和協(xié)調(diào)力。在核戰(zhàn)略較量中,戰(zhàn)略威懾不僅通過理性計(jì)算和技術(shù)實(shí)施,而且也是最高決策者之間的心理較量。而深度學(xué)習(xí)算法可排除恐懼、焦慮和疲勞引發(fā)的錯(cuò)誤認(rèn)知和判斷,剔除人類心理的干擾作用。盡管決策者獲得了更加理性的政策建議,但人工智能介入戰(zhàn)略博弈反而加大了對(duì)手理解信號(hào)的難度。人工智能賦能的自主武器具備成本低、反應(yīng)迅速、打擊精準(zhǔn)的優(yōu)點(diǎn)。為了追求更大的戰(zhàn)場(chǎng)優(yōu)勢(shì)和國(guó)際權(quán)勢(shì),一些國(guó)家會(huì)謀求大量部署自主武器,繼而引發(fā)軍備競(jìng)賽;或者減少對(duì)智能武器的限制,最終出現(xiàn)完全自主的致命性殺傷武器。此外,科技的不斷發(fā)展還會(huì)侵蝕戰(zhàn)略威懾的基礎(chǔ),動(dòng)搖大國(guó)間越發(fā)脆弱的戰(zhàn)略穩(wěn)定。擁核國(guó)家將加強(qiáng)部署更具有生存能力的第二次打擊,確保對(duì)手不敢發(fā)動(dòng)第一次打擊。因此,確保報(bào)復(fù)可信度成為大國(guó)核戰(zhàn)略博弈的重要基礎(chǔ)。變革派認(rèn)為,人工智能目前尚存缺陷的探查能力可剛好削弱第二次核打擊能力的可信度,進(jìn)而威脅到防守方的核報(bào)復(fù)打擊能力,顛覆大國(guó)核戰(zhàn)略博弈的理論前提。
演進(jìn)派則認(rèn)為人工智能更應(yīng)被看作是武器的“放大器”,其作為武器本身并不是直接引發(fā)國(guó)際安全范式性變革的主要因素。他們并不否認(rèn)人工智能有潛力掀起一場(chǎng)戰(zhàn)爭(zhēng)革命,但推斷它對(duì)軍事的影響是演進(jìn)性的。盡管一些國(guó)家有可能為了擴(kuò)大自主武器帶來的戰(zhàn)略紅利而將無人化和智能化作為技術(shù)發(fā)展方向,但人類的理性和合作精神始終是決定性因素。致命性自主武器的戰(zhàn)場(chǎng)投放面臨著諸如道德和法律的約束、戰(zhàn)略文化的限制以及官僚機(jī)構(gòu)的制約。這些抑制性因素決定了人類在戰(zhàn)爭(zhēng)中的決定性地位不會(huì)被最終替代。演進(jìn)派認(rèn)同人工智能加大戰(zhàn)略不穩(wěn)定性的觀點(diǎn),但強(qiáng)調(diào)人工智能尚未導(dǎo)致國(guó)家陷入你死我活的困境中。在理想的情況下,如果獲取更全面的情報(bào)和分析,一定程度上會(huì)降低戰(zhàn)爭(zhēng)風(fēng)險(xiǎn)。即使人工智能可定位一國(guó)的導(dǎo)彈發(fā)射井,戰(zhàn)略對(duì)手也可提升發(fā)射井的打擊承受力,從而保留第二次打擊的戰(zhàn)略性力量,形成戰(zhàn)略威懾。①
相比于變革派和演進(jìn)派對(duì)人工智能的信心,謹(jǐn)慎派認(rèn)為人工智能給國(guó)家在戰(zhàn)爭(zhēng)中帶來多大的好處模糊不清。新美國(guó)安全中心研究員保羅·斯查瑞指出,操作人員能否適應(yīng)復(fù)雜的人工智能系統(tǒng),人工智能系統(tǒng)是否能不被惡意操控,都是重要的安全問題。②對(duì)戰(zhàn)場(chǎng)具有革命性影響的新技術(shù)往往會(huì)復(fù)雜化戰(zhàn)略決策和決策組織間互動(dòng)的過程。作戰(zhàn)部門適應(yīng)人工智能復(fù)雜系統(tǒng)的速度不同,可能給各個(gè)部門間協(xié)調(diào)造成障礙,反而降低軍事部署的效率。而且,人工智能無法理解人類與生俱來的意圖、期望、情感以及戰(zhàn)爭(zhēng)中的榮譽(yù)。這種缺乏理解阻礙了創(chuàng)建安全、高效的人機(jī)協(xié)作關(guān)系。不論是在戰(zhàn)場(chǎng)上還是在官僚機(jī)構(gòu)中,部署人工智能都要面臨長(zhǎng)時(shí)間的安全審查。在某些傳統(tǒng)的戰(zhàn)略文化制約下,新技術(shù)所起到的效用可能不如預(yù)期。尤其是在人工智能技術(shù)還不夠成熟的背景下,一個(gè)更為謹(jǐn)慎的觀點(diǎn)是不應(yīng)將其用在高度敏感的核安全領(lǐng)域。此外,人工智能未來發(fā)展面臨技術(shù)發(fā)展的瓶頸期阻滯,會(huì)顯著偏離很多國(guó)際安全專家的樂觀期待。一些專家斷言,現(xiàn)在的人工智能算法家族的發(fā)展?jié)摿χ挥惺?。如果沒有很多重要技術(shù)諸如高效的芯片和先進(jìn)的量子計(jì)算機(jī)的跨越式突破,將根本性地限制人工智能的未來發(fā)展。③
目前來看,人工智能未來的發(fā)展充滿不確定性,在現(xiàn)實(shí)應(yīng)用中的表現(xiàn)也不如想象的完美。或許,正是因?yàn)橐陨蟽牲c(diǎn)剛好能允許戰(zhàn)略博弈的雙方找到應(yīng)對(duì)方法,進(jìn)而給這場(chǎng)爭(zhēng)論創(chuàng)造了巨大空間。一方面,變革派對(duì)人工智能技術(shù)的未來發(fā)展報(bào)以極高的期待,但對(duì)人類事務(wù)的看法十分悲觀。這讓他們能夠以敏銳的目光發(fā)現(xiàn)國(guó)際安全面臨的潛在挑戰(zhàn)和安全問題的本質(zhì)。另一方面,部分謹(jǐn)慎派的人工智能專家對(duì)這項(xiàng)技術(shù)的未來發(fā)展持保守態(tài)度。他們的悲觀預(yù)測(cè)反而使決策者和國(guó)際安全研究者緊張的神經(jīng)得到放松。不同于變革派將人工智能影響最大化的邏輯,演進(jìn)派仍然在現(xiàn)有國(guó)際安全現(xiàn)實(shí)結(jié)構(gòu)和秩序中展開討論,決定了他們必然犧牲部分長(zhǎng)遠(yuǎn)和深邃的戰(zhàn)略眼光。然而,他們的研究在人工智能還沒有帶來即視的安全沖擊的當(dāng)下,提供了國(guó)際安全治理的可能線索。只要人工智能帶來的安全挑戰(zhàn)不是顛覆性的,當(dāng)下圍繞人工智能競(jìng)爭(zhēng)激烈的中美兩國(guó)就可以在歷史經(jīng)驗(yàn)和現(xiàn)有理論中找到大國(guó)協(xié)調(diào)的答案,存在共同維護(hù)戰(zhàn)略穩(wěn)定和構(gòu)建國(guó)際規(guī)范的相對(duì)確定預(yù)期。
人工智能增加了國(guó)際安全的不確定性
在人工智能競(jìng)賽中,有贏家,也有輸家。沒能成功開發(fā)人工智能技術(shù)并搶占市場(chǎng)的國(guó)家將遭受經(jīng)濟(jì)和福利損失。同樣,軍事應(yīng)用的投資和開發(fā)不足的國(guó)家面臨更大的安全威脅,其地緣影響力無疑會(huì)被削弱。換言之,技術(shù)競(jìng)爭(zhēng)絕非是中性的。隨著通信技術(shù)的不斷發(fā)展,有先發(fā)優(yōu)勢(shì)的國(guó)家想要確保在全球數(shù)字轉(zhuǎn)型中獲取更大的權(quán)勢(shì),或者防止自己屈居人下。故此,圍繞著科技制高點(diǎn)的爭(zhēng)奪,在一些觀察家看來將不可避免地引發(fā)一場(chǎng)“大國(guó)政治的悲劇”。
中美之間的貿(mào)易戰(zhàn)和科技領(lǐng)導(dǎo)權(quán)之爭(zhēng),似乎印證了這一論斷。政策制定者一般傾向于高估技術(shù)突破帶來的權(quán)勢(shì)變化,低估國(guó)家間的合作可以穩(wěn)定國(guó)際安全的可能。按照現(xiàn)實(shí)主義的邏輯,大國(guó)怯于在這場(chǎng)影響國(guó)運(yùn)的競(jìng)爭(zhēng)中放松神經(jīng),因?yàn)樗鼈兗炔淮_定自己會(huì)否成為贏家,也難以猜想在新的技術(shù)秩序變革中自身將出現(xiàn)何種地位的變化。于是,在悲觀而固執(zhí)的零和思維驅(qū)使下,美中之間的大國(guó)競(jìng)爭(zhēng)油然而起,正危險(xiǎn)地滑向?qū)е率澜绶至殉蓛蓚€(gè)對(duì)立體系之勢(shì)。為此,聯(lián)合國(guó)秘書長(zhǎng)安東尼奧·古特雷斯發(fā)出危險(xiǎn)警告:“世界上最大的兩個(gè)經(jīng)濟(jì)體創(chuàng)造了兩個(gè)獨(dú)立的、相互競(jìng)爭(zhēng)的世界,各自擁有自己的主導(dǎo)貨幣、貿(mào)易和金融規(guī)則、自己的互聯(lián)網(wǎng)和人工智能能力,以及自己的零和地緣政治和軍事戰(zhàn)略。”④
令人擔(dān)憂的不只是國(guó)際秩序向?qū)剐苑较蜓葸M(jìn)。人工智能已經(jīng)具備了幫助人類從大量信息中篩選出導(dǎo)彈發(fā)射平臺(tái)的能力。強(qiáng)大的偵察力已越來越讓中國(guó)和俄羅斯擔(dān)憂美國(guó)跟蹤和鎖定移動(dòng)導(dǎo)彈發(fā)射器技術(shù)發(fā)展成熟后會(huì)威脅到它們的核報(bào)復(fù)能力。⑤如果無人武器設(shè)備的隱蔽性和突破性足夠強(qiáng)大,國(guó)家就有風(fēng)險(xiǎn)更低、打擊效能更高的攻擊選擇。⑥雖然這種戰(zhàn)術(shù)不能保證自身免遭第二次打擊,但這種可能性本身就已經(jīng)十分可怕。面對(duì)核威懾,決策者不得不在極其有限的時(shí)間內(nèi)作出決策,因而要承受更大的發(fā)動(dòng)第一次打擊的壓力?;蛘撸瑖?guó)家需要發(fā)展更加危險(xiǎn)的傳統(tǒng)武器來平衡威懾不足。由此引發(fā)的軍備競(jìng)賽迫使國(guó)家部署不安全的人工智能系統(tǒng),并進(jìn)一步加大戰(zhàn)略不穩(wěn)定。對(duì)于防守方來說還有另一種選擇,那就是攻擊敵方的探查器件,生成對(duì)抗性網(wǎng)絡(luò)或采取戰(zhàn)略欺騙的方式來防止對(duì)方打擊自己的報(bào)復(fù)力量。這些努力在一定程度上可確保己方核報(bào)復(fù)設(shè)施的隱蔽性和安全性。但是,這種安全困境的加劇反而會(huì)導(dǎo)致意外沖突升級(jí)和加大戰(zhàn)略部署判斷的復(fù)雜性和誤判可能性。最終,國(guó)家不得不面對(duì)要么提前發(fā)動(dòng)進(jìn)攻,要么輸?shù)魬?zhàn)爭(zhēng)的兩難選擇。
有技術(shù)優(yōu)勢(shì)的國(guó)家會(huì)率先在戰(zhàn)場(chǎng)上部署更加先進(jìn)的武器裝備或建立新的指揮作戰(zhàn)概念。技術(shù)落后的國(guó)家則因缺少應(yīng)對(duì)策略而陷入相對(duì)劣勢(shì)。按照現(xiàn)實(shí)主義的安全互動(dòng)模式,大國(guó)可能尋求相對(duì)優(yōu)勢(shì)以規(guī)避他國(guó)的軍事進(jìn)步威脅自己的安全,或者在其他地方尋找抵消對(duì)手優(yōu)勢(shì)的方法。在軍備競(jìng)賽的螺線軌跡上,自主武器越發(fā)先進(jìn),以至于戰(zhàn)爭(zhēng)速度快到超出人類的反應(yīng),由此導(dǎo)致國(guó)家爭(zhēng)相部署不安全的人工智能武器,這都將給決策者帶來巨大的心理壓力,扭曲人類戰(zhàn)略應(yīng)對(duì)的固有理性判斷。
此外,自主武器擴(kuò)散降低了戰(zhàn)爭(zhēng)門檻,加大國(guó)家間戰(zhàn)爭(zhēng)風(fēng)險(xiǎn)。軍事行動(dòng)往往伴隨著人員傷亡的高風(fēng)險(xiǎn)。國(guó)家領(lǐng)導(dǎo)人要顧及到民眾對(duì)戰(zhàn)爭(zhēng)傷亡的敏感性,因而不敢輕易發(fā)動(dòng)對(duì)外軍事行動(dòng)。但是,自主武器減少傷亡率預(yù)期的特點(diǎn)促使改變戰(zhàn)略決策過程。決策者可以竭力說服民眾只需較小的代價(jià)就能獲得更高的戰(zhàn)爭(zhēng)回報(bào),進(jìn)而擺脫使用武力的國(guó)內(nèi)限制,更有利于它們對(duì)外投射自己的軍事影響力。不過,自主武器擴(kuò)散的最大受益人或許并不是大國(guó)而是技術(shù)基礎(chǔ)較好的中等國(guó)家。它們可以借此彌補(bǔ)資源和人口上的劣勢(shì),從而改變國(guó)際常規(guī)武力的對(duì)比,提高自己在國(guó)際均勢(shì)體系中的地位。在致命性自主殺傷武器缺乏有效國(guó)際規(guī)范的局勢(shì)下,大國(guó)和這些中等國(guó)家的均勢(shì)變動(dòng)將給國(guó)際安全體系帶來怎樣的沖擊,令人擔(dān)憂。加之人工智能技術(shù)本身的脆弱性,更加大了突發(fā)事件發(fā)生的概率。
探索人工智能國(guó)際安全治理的演化路徑
人工智能是一項(xiàng)處于不斷發(fā)展進(jìn)程的賦能技術(shù),很難找到一個(gè)完美的定義。它帶來的變革效應(yīng)正在全球顯現(xiàn),完全禁止已然不可能,任由其肆意發(fā)展也與國(guó)際關(guān)切和人類共同命運(yùn)不符。那么,如何對(duì)其進(jìn)行國(guó)際治理呢?對(duì)政策制定者來說,所需要關(guān)注的并非只是技術(shù)在國(guó)際安全上引發(fā)的眾多不確定性,還有他們對(duì)這項(xiàng)技術(shù)認(rèn)識(shí)的不斷豐富,進(jìn)而改變對(duì)當(dāng)下以及未來的治理選擇。擺在我們面前的并不是一個(gè)注定的悲劇,而是一個(gè)承擔(dān)人類發(fā)展重任的抉擇。
在聯(lián)合國(guó)框架下,有多個(gè)機(jī)制都對(duì)限制自主武器發(fā)展進(jìn)行了國(guó)際探討。其中,聯(lián)合國(guó)《特定常規(guī)武器公約》談判機(jī)制自從2014年起已召開了三次非正式專家會(huì)議和三次正式政府專家組會(huì)議。盡管在國(guó)際機(jī)制和國(guó)際規(guī)范的建立上取得了一定的突破,但是參與討論的各方對(duì)于致命性自主武器的適用定義分歧嚴(yán)重,均認(rèn)為其指涉對(duì)象十分模糊?,F(xiàn)在來看,不論各方討論的是怎樣的定義,都在一定程度上與既有使用武器的規(guī)則存在矛盾。根據(jù)瑞典斯德哥爾摩和平研究所對(duì)154種武器系統(tǒng)的統(tǒng)計(jì)分析發(fā)現(xiàn),只有49種武器可以在人類監(jiān)管但不介入的情況下進(jìn)行合法交戰(zhàn)。它們主要用于對(duì)己方設(shè)施進(jìn)行防御,比如保護(hù)軍艦或基地、應(yīng)對(duì)來襲導(dǎo)彈等。⑦而致命性自主武器帶來的戰(zhàn)略紅利牽動(dòng)著各國(guó)的安全利益,給后續(xù)軍控行動(dòng)增加了困難和挑戰(zhàn)。
盡管如此,這并不意味著我們無計(jì)可施而注定陷入絕望的無謂爭(zhēng)論之中。在前述2014年第一次非正式專家會(huì)議中,各方分歧明顯。有的國(guó)家代表認(rèn)為,致命性自主武器易于擴(kuò)散且極其危險(xiǎn),終將給人類帶來巨大威脅,需要全面禁止開發(fā)和使用。與之相反的觀點(diǎn)則認(rèn)為,應(yīng)該發(fā)展致命性自主武器,因?yàn)樗磥碜銐?ldquo;聰明”,能夠理解人類戰(zhàn)爭(zhēng)中的道德規(guī)范,甚至可為人類提供一種更加人道的戰(zhàn)爭(zhēng)選擇。兩種觀點(diǎn)都預(yù)設(shè)了人工智能最終足夠強(qiáng)大,卻給出了完全對(duì)立的應(yīng)對(duì)方案。時(shí)至今日,他們的預(yù)想都缺乏足夠的支持,但看似不可調(diào)和的爭(zhēng)論中日漸出現(xiàn)共識(shí)。參與討論的各方同意,致命性自主武器的軍控行為不應(yīng)阻礙民用技術(shù)的開發(fā)和促進(jìn)經(jīng)濟(jì)發(fā)展,即使定義不清也不妨礙其他問題取得進(jìn)展。這表明,決策者的認(rèn)知不是一成不變的。相關(guān)軍控談判不會(huì)是一次性達(dá)成具有約束力的國(guó)際條約,而是制定出致命性自主武器的底線后采取多種軍控手段結(jié)合的漸進(jìn)方式以建立共識(shí)性的“軟法”。這需要國(guó)家采取自我限制,達(dá)成國(guó)家之間的非約束性協(xié)議,比如符合現(xiàn)行國(guó)際法和國(guó)際準(zhǔn)則的“行為準(zhǔn)則”。這種做法可以應(yīng)對(duì)自主武器引發(fā)的倫理道德問題,但是對(duì)于維護(hù)戰(zhàn)略穩(wěn)定作用不大。最好的方法或許是國(guó)家在尚未出現(xiàn)激烈的軍備競(jìng)賽前,利用好窗口機(jī)遇期,盡早劃出一條能夠確保人類掌握自己生死命運(yùn)的紅線。
“大分裂”并不是中美兩國(guó)唯一的選擇。我們應(yīng)樂觀地相信,人工智能競(jìng)賽不是零和游戲。它應(yīng)當(dāng)是一項(xiàng)促進(jìn)人類福祉和推動(dòng)國(guó)家合作的工具。雖然特朗普政府的美國(guó)對(duì)外政策表現(xiàn)出部分領(lǐng)域“脫鉤”的趨勢(shì),中美兩國(guó)的科研合作反而呈現(xiàn)出更加緊密的需求。通過對(duì)科學(xué)和工程領(lǐng)域的著作進(jìn)行文獻(xiàn)統(tǒng)計(jì),有研究發(fā)現(xiàn)中美兩國(guó)學(xué)者在2014至2018年間共同發(fā)表的論文數(shù)量增長(zhǎng)了55.7%,因此如果美國(guó)貿(mào)然切斷同中國(guó)的科研合作可能導(dǎo)致美國(guó)的發(fā)表成果數(shù)量大幅下降。⑧從人類歷史而言,科學(xué)技術(shù)的發(fā)展和在世界范圍的傳播使得各國(guó)受益。即便在人工智能技術(shù)競(jìng)爭(zhēng)加劇的今天,一國(guó)的技術(shù)突破也可能有利于另一國(guó)的經(jīng)濟(jì)社會(huì)發(fā)展。比如,位于北京的微軟亞洲研究院曾支持四名中國(guó)年輕學(xué)者發(fā)表的一篇關(guān)于深度殘差學(xué)習(xí)的論文,成為近年來該領(lǐng)域的重要引用文獻(xiàn)。在論文發(fā)表后,四位作者中有一位前往美國(guó)臉書公司任職,其余三位則加入到中國(guó)國(guó)內(nèi)的人工智能創(chuàng)業(yè)行列之中。他們的成功無疑讓中美兩國(guó)企業(yè)和整個(gè)人工智能研發(fā)都有所受益。
在國(guó)際安全事務(wù)的歷史進(jìn)程中,不確定性是常態(tài),確定性反而是稀缺的。隨著人工智能技術(shù)的發(fā)展,對(duì)致命性自主武器的定義不再只限制在技術(shù)層面而在于自主能力范圍的問題上。例如,武器的智能化程度成為判定其性質(zhì)和限制的標(biāo)準(zhǔn)。政策制定者最需要擔(dān)心的并不是那些不確定性導(dǎo)致的潛在權(quán)勢(shì)流失,而是這種認(rèn)知的固化帶來的長(zhǎng)遠(yuǎn)風(fēng)險(xiǎn)。他們不應(yīng)期待以“技術(shù)治理技術(shù)”的手段獲得穩(wěn)健安全的人工智能系統(tǒng)來解決國(guó)際安全困境。安全的軍事系統(tǒng)會(huì)在技術(shù)層面降低國(guó)家之間突發(fā)事件發(fā)生的可能性,但這意味著一國(guó)獲得了只有它才有的利器。這將不可避免地加劇軍備競(jìng)賽,甚至動(dòng)搖戰(zhàn)略穩(wěn)定而產(chǎn)生災(zāi)難性后果。同時(shí),國(guó)家也不應(yīng)為了贏得軍備競(jìng)賽的勝利而爭(zhēng)相部署不安全的人工智能系統(tǒng)。政策制定者既不能低估不同的戰(zhàn)略文化對(duì)使用新技術(shù)的影響,也不應(yīng)高估人工智能帶來的安全沖擊。
在人類走過的道路上,到處可見文明破滅的廢墟殘骸、帝國(guó)崩潰的殘碑破冢、信仰者和衛(wèi)道者的尸首斷骨,他們被一波波時(shí)代的浪潮淹沒,沒能在人類社會(huì)進(jìn)化的道路中找到延續(xù)的崎嶇小道。然而,正是他們的犧牲照亮了我們未來前進(jìn)的道路,使人類文明有可能免于走向錯(cuò)誤的演化道路?;赝^去遙望未來,任何對(duì)人工智能帶來美好未來的華麗辭藻以及其中所包含的美好期待,都不應(yīng)掩飾或漠視其中所蘊(yùn)含的種種危險(xiǎn)。而任何否定人工智能的抵觸情緒和對(duì)人性的過度信任,都無法阻擋技術(shù)發(fā)展帶來的種種好處。我們需要承認(rèn),不確定性決定著人工智能的安全治理是一個(gè)動(dòng)態(tài)的過程,基于在未來出現(xiàn)最好或者最壞結(jié)果的極端預(yù)設(shè)可能都很難實(shí)現(xiàn)。面對(duì)不斷變動(dòng)的國(guó)際環(huán)境,我們需要在不斷發(fā)展的技術(shù)和不變的人性中去尋找國(guó)際合作的空間。
(作者分別為清華大學(xué)戰(zhàn)略與安全研究中心秘書長(zhǎng)、教授;清華大學(xué)戰(zhàn)略與安全研究中心研究員)