j8又粗又硬又大又爽又长国产,色久网站,国产免费自拍视频,无码国产一区流畅有码av,Comwww在线播放,美女网站黄页免费,国产免费观看a∧wwwww.

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 原創(chuàng)精品 > 成果首發(fā) > 正文

關(guān)于人工智能治理問題的若干思考(3)

人工智能治理難題

盡管對人工智能風(fēng)險認識和評價有相當(dāng)大的分歧和爭議,但學(xué)界、業(yè)界以及政界對人工智能治理的必要性已形成基本共識。不僅霍金、馬斯克等人發(fā)起倡議的《人工智能23條原則》,強調(diào)人工智能的規(guī)范發(fā)展必須納入正確軌道,而且各國政府和行業(yè)協(xié)會在其人工智能發(fā)展戰(zhàn)略規(guī)劃或行業(yè)報告中,都有比較明確的人工智能監(jiān)管和治理要求,如2016年9月,英國標(biāo)準(zhǔn)協(xié)會發(fā)布《機器人和機器系統(tǒng)的倫理設(shè)計和應(yīng)用指南》,是業(yè)界第一個關(guān)于機器人倫理設(shè)計的公開標(biāo)準(zhǔn),旨在指導(dǎo)機器人設(shè)計研究者和制造商如何對一個機器人做出道德風(fēng)險評估,以保證人類生產(chǎn)出來的智能機器人能夠融入人類社會現(xiàn)有的道德規(guī)范。⑦2016年6月,日本AI學(xué)會的倫理委員會發(fā)布人工智能研究人員應(yīng)該遵守的倫理指標(biāo)草案,以引導(dǎo)和規(guī)范研究人員正確處理人工智能進一步發(fā)展導(dǎo)致的倫理道德、安全問題。⑧美國的《國家人工智能研究和發(fā)展戰(zhàn)略計劃》全面搭建了美國推動人工智能研發(fā)的實施框架,并強調(diào)保障人工智能系統(tǒng)的友好性,推動人工智能系統(tǒng)的公平、透明與符合倫理。同時,確保人工智能系統(tǒng)的安全可靠,提高信任度、可驗證和可確認性,并實現(xiàn)自我安全防御與優(yōu)化。⑨

問題的關(guān)鍵不是人工智能需不需要治理的問題,而是人工智能究竟應(yīng)該如何治理、治理什么的問題,人工智能本身的復(fù)雜性特征使得人工智能在治理機制設(shè)計和構(gòu)建中遭遇多重難題。

首先是事前的風(fēng)險識別和預(yù)防難題。不同于原子能、化工等研究開發(fā)的基礎(chǔ)設(shè)施的大規(guī)模性、風(fēng)險源的明確性,監(jiān)管者或治理行為體能夠非常容易地確定潛在的公共危險源的制造者和發(fā)生地。人工智能研發(fā)具有秘密性、分散性、不連續(xù)性及不透明性。秘密性是指人工智能的研究與開發(fā)只需要極少的可見設(shè)施;分散性是指研究人工智能系統(tǒng)不同組成部分的研發(fā)人員可能分布在不同的地方;不連續(xù)性是指人工智能的研發(fā)不需要所有的部件同時就位,也不需要不同部門的研究人員通力合作;不透明性,是指人工智能系統(tǒng)運行可能處在秘密狀態(tài),由于信息的嚴重不對稱,外部人員很難發(fā)現(xiàn)人工智能系統(tǒng)中潛在的危險而無法采取針對性的監(jiān)管措施。⑩人工智能這些特征,為其事前監(jiān)管帶來許多不便,也為有效的人工智能治理設(shè)計帶來困惑,畢竟科學(xué)的風(fēng)險識別和預(yù)防機制的構(gòu)建是治理有效性的關(guān)鍵。

其次是風(fēng)險發(fā)生的不可預(yù)知性難題。人工智能與其他傳統(tǒng)科技最大的不同是可以獨立完成預(yù)定任務(wù)的自主性,但是人工智能自主行為與人類的決策和行動存在根本的不同,盡管人工智能系統(tǒng)設(shè)計總是模仿人腦的工作方式。人類智能由于其在限定的時間里的計算速度有限,很難在窮舉中得出最優(yōu)解,而往往通過經(jīng)驗、直覺等方法得出自認為滿意的答案,而非一個最佳的解決方法,經(jīng)濟學(xué)家Herbert Simon稱之為“滿意法”。?而人工智能通過合并算法和深度學(xué)習(xí)可以在極短的時間內(nèi)精確計算所有的可能性,從而使得它們能夠選擇人類完全沒有考慮過而“出人意料”的解決問題方法,做出的結(jié)論可能同人類的認知系統(tǒng)做出的決策產(chǎn)生極大的不同。一個能夠自主學(xué)習(xí)的人工智能系統(tǒng)的行為部分依靠其后天的經(jīng)歷,即使是最細心的設(shè)計者、編程者以及制造者都沒有辦法控制或者預(yù)測人工智能系統(tǒng)在脫離他們之后將會經(jīng)歷些什么。?所以,人工智能的不可預(yù)知性,使得人工智能系統(tǒng)在做出難以預(yù)測的損害性行為時,讓設(shè)計者承擔(dān)責(zé)任可能會導(dǎo)致不公平和非正義。值得注意的是,對于產(chǎn)品生產(chǎn)者的嚴格責(zé)任,規(guī)定有“當(dāng)前科學(xué)水平尚不能發(fā)現(xiàn)缺陷”的免責(zé)事由。但是這項免責(zé)事由在人工智能領(lǐng)域是否適用值得討論。盡管在深度學(xué)習(xí)訓(xùn)練數(shù)據(jù)和學(xué)習(xí)過程存在不可預(yù)見性,但考慮到人工智能的算法完全由開發(fā)者編寫,開發(fā)者對風(fēng)險源頭具有絕對的控制力,司法機關(guān)可能會推定開發(fā)者應(yīng)當(dāng)預(yù)見算法執(zhí)行中的可能風(fēng)險或要求開發(fā)者對風(fēng)險程度的增加承擔(dān)責(zé)任。

再次是事后責(zé)任認定和分配的難題。以規(guī)則為基礎(chǔ)的治理是現(xiàn)代治理的根本特征,法律法規(guī)作為正式規(guī)則主體形式使得“法治”構(gòu)成有效社會治理的核心,人工智能的治理難題集中表現(xiàn)為法律困惑和政策困境。一是人工智能的不可控性導(dǎo)致的監(jiān)管兩難。隨著人工智能技術(shù)升級到強人工智能階段,不可控性可能成為一個嚴峻的問題,未雨綢繆人工智能的局部失控乃至可能出現(xiàn)的全面失控是當(dāng)代人的責(zé)任。從現(xiàn)在來講,各國不會像用法律禁止克隆人一樣規(guī)避人工智能風(fēng)險,人們所焦慮的是如何在不束縛人工智能良性發(fā)展的前提下最大限度地防控人工智能風(fēng)險。二是人工智能風(fēng)險主體的多元性和不可預(yù)知性問題也導(dǎo)致了對其監(jiān)管的法律困惑,由于參與人工智能系統(tǒng)部件的主體多元和不可預(yù)知,很難確定出責(zé)任主體。例如,人工智能系統(tǒng)的部件的制造者可能沒有想到他們生產(chǎn)的部件被用在了人工智能系統(tǒng)上,如果造成了損害就更非他們的本意了。在這種情況下,將責(zé)任分配給人工智能系統(tǒng)某一部件的設(shè)計者,就顯得非常的不公平,同樣,人工智能系統(tǒng)運轉(zhuǎn)的不透明讓法院也不能輕易判斷將人工智能系統(tǒng)造成第三人損害的責(zé)任歸責(zé)于運營者還是使用者。三是人工智能法律主體的難題。人工智能的自主性隨著人工智能技術(shù)進步進化到強人工智能階段后,人工智能載體如機器人是不是人格意義的道德體、行為體乃至法律主體?由于機器可以像人類一樣獨立思考和決策,該階段的人工智能如果和人類一樣,成為獨立的主體享有權(quán)利,并對自己的行為承擔(dān)責(zé)任,傳統(tǒng)法律體系將產(chǎn)生巨大的沖擊。?

上一頁 1 2345678下一頁
[責(zé)任編輯:樊保玲]
標(biāo)簽: 人工智能   問題