【摘要】具有去中心化特性的人工智能技術的運用,正無聲地改變著現(xiàn)有社會結(jié)構(gòu),為21世紀的產(chǎn)業(yè)革新注入新的活力和靈魂。但不容忽視的是,在人機互動的道路上尚存在著諸多的變數(shù)。未來若希望更好地利用人工智能技術,除了不斷推進技術的發(fā)展,更重要的是讓技術在合法合規(guī)的前提下運行,以法律為媒介,令二者優(yōu)勢互補、取長補短。
【關鍵詞】人工智能 法律秩序 司法公正 【中圖分類號】TP18 【文獻標識碼】A
人工智能技術的出現(xiàn)與完備必然會對現(xiàn)有的中心化的、具有等級性的傳統(tǒng)秩序帶來一定程度上的改變,繼而產(chǎn)生一種具有共享性特征的去中心化的新秩序。面對以人工智能為代表的飛速發(fā)展的現(xiàn)代科學技術,人類必須高度關注技術所帶來的巨大沖擊,同時充分利用法律的引導、規(guī)制和促進功能,實現(xiàn)法律與技術進步的良性互動,向人工智能文明時代邁進。
人工智能對原有法律秩序帶來的新挑戰(zhàn)
從法律主體來看,隨著生物技術、智能技術的綜合發(fā)展,人類的自然軀體正在被修補、改造,人類所獨有的情感、創(chuàng)造性正在被智能機器獲得,人機互補、人機互動、人機協(xié)同、人機一體成為時代發(fā)展的新趨勢。簡言之,人工智能的出現(xiàn)與發(fā)展,會使得“人”之內(nèi)涵與外延發(fā)生擴張,“自然人”的概念雖不會必然隱退于歷史的浪潮,但法律人格的定性會隨著技術的發(fā)展而得到延展。但難題在于,我們究竟能否賦予人工智能以法律人格?一方面,從人工智能技術自身來看,由于算法和程序的不透明性,導致最終呈現(xiàn)的結(jié)果存在著不確定性與不可解釋性。我國目前的智慧法院建設中,在機器人輔助判案過程中,公眾基于原初算法的不可探知性而產(chǎn)生的對裁判結(jié)果的疑慮與抗拒不容忽視。另一方面,“自然人”將逐漸融于“設計的秩序”加深社會的復雜性。人工智能在日益精細化的“智能技術”之發(fā)展過程中,基于其強大的自我重構(gòu)、自我再造、自我進化的能力,其經(jīng)過自主判斷產(chǎn)生法律不利后果時,如何劃分責任承擔問題成為一項棘手難題。
從法律倫理關系來看,人工智能技術在某些領域的應用尚無法被完全接受。比如軍事領域?qū)θ斯ぶ悄芗夹g的運用所帶來的技術革新——軍事機器人的發(fā)明。贊成者普遍認為軍事機器人的投放使用可以避開人類生理極限的劣勢,降低人類士兵的死亡率,繼而減少軍事上人力成本的支出。反對者則明確指出,贊成者提出的軍事機器人所具備的優(yōu)勢,恰恰使得國家發(fā)動戰(zhàn)爭成本降低,造成國際社會愈發(fā)不穩(wěn)定。從這一角度來看,人工智能技術研發(fā)的法律倫理邊界應在何方,成為立法者不得不考慮的又一大難題。
綜上,人工智能技術的發(fā)展在一定程度上推動了法律的運行,但人工智能技術的運用能否滿足法律效果的客觀與公正尚有待考量。另外,作為一項新興科技,該如何定義人工智能的法律地位,人工智能技術在法律運行過程中帶來的挑戰(zhàn)如何規(guī)制,成為人工智能時代所面臨的一大重擔。
人工智能的運用需要受到法律的規(guī)制
正如前文所述,人工智能技術的發(fā)展給傳統(tǒng)法治社會帶來了新的挑戰(zhàn)。未來若希望更好地利用人工智能技術,除了不斷推進技術的發(fā)展,更重要的是讓技術在合法合規(guī)的前提下運行。又由于法律文本在新興技術領域方面欠缺明確規(guī)定,這就要求我們進一步探討對相關法律文本的完善問題。
在設定具體法律規(guī)則之前,最重要的便是形成統(tǒng)一完備的立法指導思想。針對人工智能技術的立法指導理念,主要包含以下四個方面:一是要明確人工智能技術的安全性問題。從目前來看,人工智能尚不能取得法律主體地位。作為一項為人所用的工具,其內(nèi)核便是作為基本價值的安全性,當然這也是法律所追求的基本價值之一。與此同時,在追求安全性的前提下明確危險后果責任承擔主體,為糾紛的解決提供原則性指導。二是人工智能技術算法需盡可能透明且可解釋。在實踐中,尤其是在法律實踐中,司法公正并不僅僅指程序與結(jié)果的公正,還需要伴隨著司法過程的公開。由隱秘的不可知的算法得出的結(jié)論即使再公正,也很難得到公眾的認可與理解。因此,只有令算法過程盡可能透明可知,才能做到真正的公正。三是在人工智能技術的發(fā)展中需強調(diào)公平原則。人工智能技術不論是在研發(fā)階段,還是在運用階段,對數(shù)據(jù)信息的抓取,對算法系統(tǒng)的設定,都需要做到無歧視的要求,如此才能保證最終的諸如法律決策、司法裁判等種種行為的公平性。四是對人工智能技術的限制應當扎根本國國情,符合國家的價值觀。每個國家及其民眾都有著其自身的文明烙印,有著獨有的文化信仰。在制定法律時,應考慮到本國本土的倫理理念。
針對人工智能技術具體的法律規(guī)則,需要重點考察以下兩個領域:一是工業(yè)領域。工業(yè)機器人的大規(guī)模投入使用給《勞動法》帶來了一定的挑戰(zhàn)。黨的十九大報告明確提出:“著力構(gòu)建市場機制有效、微觀主體有活力、宏觀調(diào)控有度的經(jīng)濟體制,不斷增強我國經(jīng)濟創(chuàng)新力和競爭力。”在市場經(jīng)濟的前提下,如何既保障工業(yè)的高效生產(chǎn),活躍市場,又最大化地避免人工智能技術對勞動市場的沖擊,是法律文本制定過程中需要衡量的問題。二是商業(yè)領域。法律主要解決的便是商業(yè)機構(gòu)對個人信息的獲取與利用的問題。法律對個人信息的保護不容置疑,商業(yè)機構(gòu)對個人數(shù)據(jù)的違法濫用、泄露,對隱私權(quán)的侵犯等等行為,都需要制定完備的法律加以禁止。目前,我國正在制定《個人信息保護法》,面對虛擬的網(wǎng)絡世界,不論是大數(shù)據(jù)技術抑或是人工智能技術,均需要受到法律的嚴格把控。
人工智能與法律的聯(lián)結(jié)終將愈發(fā)緊密
從法律運行實踐來看,我們經(jīng)常有兩種矛盾的情緒:一方面,我們希望法官撇開己見,尊重法律條文,盡可能不要滲透自己的道德觀點;另一方面,許多人又希冀法官能夠在道德和法律兩難的境地中選擇正義,在不違反法律的前提下又不拘泥于法律文本。不可否認的是,不論是從立法還是到司法,一定會有價值衡量的因素疊加其中,而又由于個人對倫理的抉擇并不完全相同,必然會在某些問題上出現(xiàn)一定偏差。人工智能的出現(xiàn)是否能夠使得當前“國家—人—法律”的關系平穩(wěn)地轉(zhuǎn)變?yōu)?ldquo;國家—技術+人—法律”的模式,繼而滿足公眾對公正立法、中立裁判的需求,值得我們思考。
首先,從立法方面來看,人工智能技術能夠憑借極速的法律文本整合能力以及超強的大數(shù)據(jù)分析能力,對法律條文進行查漏補缺。“立法輔助系統(tǒng)如能應用于法律起草和法律草案的審議過程,有可能事先發(fā)現(xiàn)一些立法漏洞,避免一個法律內(nèi)部各種規(guī)則之間以及新法律與現(xiàn)有法律制度之間的相互沖突。”與此同時,由于新技術的發(fā)展與普及,基于人工智能技術而衍生出的其他科技產(chǎn)品,例如無人駕駛汽車、機器人等,需要新的立法加以規(guī)制,從而推動與科學技術相關的立法內(nèi)容的豐富與完善。
其次,從司法方面來看,人工智能技術在司法過程中的科學運用有助于保障司法裁判的公正與高效。在理想的情況下,“法官”將被人工智能技術盡可能“統(tǒng)一”。這里所說的“統(tǒng)一”并非身體與思想的不自由,而是通過人工智能的技術,將知識、科學、思想有機整合,一方面減少法官個人的主觀價值判斷,另一方面輔助法官迅速完成各類司法程序性問題,加快結(jié)案效率。比如當前有法院嘗試小額訴訟等無須過多價值衡量領域中引入人工智能技術,完成快速、準確、無偏差的案件裁判,使當事人逐漸“自愿”接受算法的“裁判”,定分止爭。當然,在當下“弱人工智能”發(fā)展階段,人工智能技術尚且只能成為法官裁判過程中的一種工具,并不能起到左右法官決斷的決定性作用。當法律與道德沖突時,法官的角色就是守護法律。我們?nèi)匀恍枰ü僖罁?jù)其已有的專業(yè)能力、實踐經(jīng)驗配以人工智能技術的工具作出盡可能完滿的裁決。
最后,從社會治理方面來看,人工智能技術能夠提高行政執(zhí)法的效能。比如工程機器人等應用于搶險救災情形下的設備,既可以不受惡劣環(huán)境的影響有序作業(yè),又可以保障救災人員的生命安全。再比如社會日常安保工作,利用人工智能犬便可以將音視頻實時傳回,為社會安全護航。但需要指出的是,目前若想要在社會治理中全面推進人工智能技術的運用,還有待社會各界的論證。
(作者為東北師范大學歷史文化學院博士研究生)
【參考文獻】
①齊延平:《論人工智能時代法律場景的變遷》,《西北政法大學學報》,2018年第4期。
②孫偉平:《關于人工智能的價值反思》,《哲學研究》,2017年第10期。
③《中國共產(chǎn)黨第十九次全國代表大會關于十八屆中央委員會報告的決議》,《共產(chǎn)黨人》,2017年10月30日。
④張保生:《人工智能法律系統(tǒng)的法理學思考》,《法學評論》,2001年第5期。
責編/李一丹 美編/王夢雅
聲明:本文為人民論壇雜志社原創(chuàng)內(nèi)容,任何單位或個人轉(zhuǎn)載請回復本微信號獲得授權(quán),轉(zhuǎn)載時務必標明來源及作者,否則追究法律責任。