【摘要】作為引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的關(guān)鍵技術(shù),以ChatGPT為代表的生成式人工智能不斷催生新場景、新業(yè)態(tài)、新模式和新市場,改變了信息和知識的生產(chǎn)方式,重塑了人類與技術(shù)的交互模式,對教育、金融、媒體和游戲等行業(yè)均產(chǎn)生重大影響。在此背景下,全球各國紛紛出臺人工智能發(fā)展戰(zhàn)略和具體政策,搶占戰(zhàn)略制高點。與此同時,生成式人工智能暴露出的數(shù)據(jù)泄露、虛假內(nèi)容生成、不當(dāng)利用等安全風(fēng)險也引起各國廣泛關(guān)注。生成式人工智能的發(fā)展、運用和治理,不再是某一國而是整個國際社會面臨的共同挑戰(zhàn)。為有效應(yīng)對生成式人工智能對信息內(nèi)容治理的新挑戰(zhàn),應(yīng)當(dāng)平衡安全和發(fā)展的關(guān)系、技術(shù)創(chuàng)新和技術(shù)治理的關(guān)系、企業(yè)合規(guī)義務(wù)和企業(yè)負(fù)擔(dān)能力的關(guān)系。
【關(guān)鍵詞】生成式人工智能 治理模式 立法 內(nèi)外部挑戰(zhàn) 多維平衡 【中圖分類號】D92 【文獻(xiàn)標(biāo)識碼】A
生成式人工智能(Generative AI)是人工智能發(fā)展過程中出現(xiàn)的新型技術(shù),可使用統(tǒng)計方法根據(jù)概率生成新內(nèi)容,如視頻、音頻、文本甚至軟件代碼。通過使用Transformer(一種基于自注意力機(jī)制的神經(jīng)網(wǎng)絡(luò)模型),生成式人工智能可深入分析現(xiàn)有數(shù)據(jù)集,識別其中的位置連接和關(guān)聯(lián)關(guān)系,再借助人類反饋強(qiáng)化學(xué)習(xí)算法(Reinforcement Learning from Human Feedback)不斷優(yōu)化訓(xùn)練形成大語言模型,最終能夠為新內(nèi)容的生成作出決策或預(yù)測。①除了文本生成和內(nèi)容創(chuàng)作之外,生成式人工智能還擁有廣泛的應(yīng)用場景,如客戶服務(wù)、投資管理、藝術(shù)創(chuàng)作、學(xué)術(shù)研究、代碼編程、虛擬協(xié)助等。概言之,自我生成、自我學(xué)習(xí)并快速迭代是生成式人工智能區(qū)別于傳統(tǒng)人工智能的基本特點。
國家網(wǎng)信辦等七部門正式發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《暫行辦法》)自2023年8月15日起施行,旨在促進(jìn)生成式人工智能健康發(fā)展和規(guī)范應(yīng)用,維護(hù)國家安全和社會公共利益。作為引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的關(guān)鍵技術(shù),以ChatGPT為代表的生成式人工智能不斷催生新場景、新業(yè)態(tài)、新模式和新市場,改變了信息和知識的生產(chǎn)方式,重塑了人類與技術(shù)的交互模式,對教育、金融、媒體和游戲等行業(yè)均產(chǎn)生重大影響。在此背景下,全球各國紛紛出臺人工智能發(fā)展戰(zhàn)略和具體政策,搶占戰(zhàn)略制高點。與此同時,生成式人工智能暴露出的數(shù)據(jù)泄露、虛假內(nèi)容生成、不當(dāng)利用等安全風(fēng)險也引起各國廣泛關(guān)注。可以肯定地講,生成式人工智能的發(fā)展、運用和治理,不再是某一國而是整個國際社會面臨的共同挑戰(zhàn)。
國外人工智能主要監(jiān)管模式評析
人工智能是一把“雙刃劍”,在促進(jìn)社會進(jìn)步的同時,也帶來了風(fēng)險與挑戰(zhàn)。國際社會致力于持續(xù)推動人工智能向善發(fā)展。例如,聯(lián)合國教科文組織通過了首份人工智能倫理問題全球性協(xié)議——《人工智能倫理問題建議書》,明確了相稱性和不損害、安全和安保、公平和非歧視等十項原則。歐盟自2018年以來持續(xù)推進(jìn)人工智能的設(shè)計、開發(fā)和部署,同時努力規(guī)范人工智能及機(jī)器人的使用和管理。2024年初生效的歐盟《人工智能法案》助推此項工作達(dá)到高潮,甚至成為人工智能治理史上的里程碑。美國更注重人工智能發(fā)展,以《人工智能權(quán)利法案藍(lán)圖》(以下簡稱《權(quán)利法案藍(lán)圖》)為主要舉措對人工智能發(fā)展進(jìn)行規(guī)制。鑒于歐盟和美國的人工智能治理措施相對成熟且具有代表性,下文以二者為例探討不同監(jiān)管模式的優(yōu)劣,希冀為我國人工智能的健康發(fā)展和有效治理提供借鑒。
歐盟人工智能立法:安全優(yōu)先,兼顧公平。從立法歷程上看,2021年4月,歐盟委員會發(fā)布了立法提案《歐洲議會和理事會關(guān)于制定人工智能統(tǒng)一規(guī)則(人工智能法) 和修訂某些歐盟立法的條例》(以下簡稱《人工智能法案》),開啟了人工智能治理的“硬法”道路。2022年12月形成了《人工智能法案》折衷草案的最終版。2023年6月,歐洲議會通過了《人工智能法案》的談判授權(quán)草案,并修訂了原始提案。2023年12月8日,歐洲議會、歐洲理事會和歐盟委員會三方就《人工智能法案》達(dá)成協(xié)議,法案規(guī)定了對人工智能領(lǐng)域的全面監(jiān)管。從總體上看,《人工智能法案》在歐盟建立起人工智能開發(fā)、使用的道德和法律框架,并輔以《人工智能責(zé)任指令》確保落地執(zhí)行。《人工智能法案》的多輪討論主要圍繞以下內(nèi)容:
一是人工智能的定義與法案適用范圍。《人工智能法案》第3條將人工智能定義為一種或多種技術(shù)和方法開發(fā)的軟件,其能夠影響交互環(huán)境的輸出(如內(nèi)容、預(yù)測、建議或決策),實現(xiàn)人為指定的特定目標(biāo)。該定義范圍較為廣泛,可能涵蓋大量傳統(tǒng)上不被視為人工智能的軟件,不利于人工智能的發(fā)展和治理。因而,當(dāng)前版本將人工智能定義限縮為“基于機(jī)器學(xué)習(xí)或邏輯和知識的系統(tǒng)”,旨在以不同的自主性水平運行,并且為了明確或隱含的目標(biāo),可以影響物理或虛擬環(huán)境的預(yù)測、建議或決策等輸出。同時,刪除了附件一和歐盟委員會修改人工智能定義的授權(quán)?!度斯ぶ悄芊ò浮冯m未涉及生成式人工智能,但ChatGPT的出現(xiàn),使得立法者在修正案中增加了通用人工智能和基礎(chǔ)模型相關(guān)定義,并要求生成式人工智能遵守額外的透明度要求,如披露內(nèi)容來源、設(shè)計模型禁止非法生成?!度斯ぶ悄芊ò浮肪哂杏蛲庑Я?,適用于所有人工智能系統(tǒng)的提供商和部署者(無論是在歐盟還是在第三國建立的)以及所有分銷商和進(jìn)口商、提供商的授權(quán)代表、在歐盟建立或位于歐盟的某些產(chǎn)品的制造商,以及健康、安全或基本權(quán)利因使用人工智能系統(tǒng)而受到重大影響的歐盟數(shù)據(jù)主體。
二是人工智能的監(jiān)管模式?!度斯ぶ悄芊ò浮凡捎昧嘶陲L(fēng)險的分級監(jiān)管方法(risk-based approach),根據(jù)對健康、安全和自然人基本權(quán)利的潛在風(fēng)險對其進(jìn)行分類并設(shè)置不同義務(wù):第一是不可接受的風(fēng)險,禁止任何企業(yè)或個人部署;第二是高風(fēng)險,允許相關(guān)主體在履行事前評估等義務(wù)后投放市場或使用,同時要求事中、事后持續(xù)監(jiān)測;第三是有限風(fēng)險,無須取得特殊牌照、認(rèn)證或履行報告、記錄等義務(wù),但應(yīng)遵循透明度原則,允許適當(dāng)可追溯性和可解釋性;第四是低風(fēng)險或最低風(fēng)險,相應(yīng)主體可依據(jù)自由意志部署和使用。具體到生成式人工智能而言,由于其沒有特定目的并且可應(yīng)用于不同場景,故不能基于一般方式或操作模式對其進(jìn)行風(fēng)險分級,而應(yīng)當(dāng)按照開發(fā)或使用生成式人工智能的預(yù)期目的和具體應(yīng)用領(lǐng)域。②
三是人工智能的一般原則。具體包括:人類代理和監(jiān)督:人工智能系統(tǒng)的開發(fā)和使用必須作為服務(wù)于人類的工具,尊重人類尊嚴(yán)、個人自主性和功能,并由人類適當(dāng)控制和監(jiān)督;技術(shù)穩(wěn)健性和安全性:人工智能的開發(fā)和部署應(yīng)最大限度地減少意外和意外的損害,確保在出現(xiàn)意外問題時的穩(wěn)健性,以及在惡意第三方試圖改變?nèi)斯ぶ悄芟到y(tǒng)性能而非法使用時的彈性;隱私和數(shù)據(jù)保護(hù):人工智能系統(tǒng)必須按照現(xiàn)有的隱私和數(shù)據(jù)保護(hù)規(guī)則開發(fā)和使用,同時處理在質(zhì)量和完整性方面符合高標(biāo)準(zhǔn)的數(shù)據(jù);透明度:人工智能系統(tǒng)的開發(fā)和使用方式必須允許適當(dāng)?shù)目勺匪菪院涂山忉屝?,讓人類意識到他們與人工智能系統(tǒng)進(jìn)行通信或互動,并適當(dāng)?shù)馗嬷脩羧斯ぶ悄艿哪芰途窒扌?,以及受影響之人享有的?quán)利;非歧視和公平:人工智能系統(tǒng)的開發(fā)和使用必須包括不同參與者,促進(jìn)平等使用、性別平等和文化多樣性,同時避免歐盟或國家法律禁止的歧視性影響和不公平偏見;社會和環(huán)境福祉:人工智能系統(tǒng)應(yīng)以可持續(xù)和環(huán)保的方式開發(fā)和使用,讓所有人受益,同時監(jiān)測和評估對個人、社會和民主的長期影響。
歐盟意圖通過《人工智能法案》建立人工智能監(jiān)管全球標(biāo)準(zhǔn),進(jìn)而使歐洲在國際智能競爭中取得優(yōu)勢地位?!度斯ぶ悄芊ò浮窞樘幚砣斯ぶ悄芟到y(tǒng)制定了相對合理的規(guī)則,在一定程度上可以避免歧視、監(jiān)視和其他潛在危害,特別是在與基本權(quán)利相關(guān)的領(lǐng)域。例如,《人工智能法案》列出了禁止人工智能的某些用途,公共場所的面部識別便是其一。此外,其將確定減輕風(fēng)險的控制措施整合到可能出現(xiàn)風(fēng)險的業(yè)務(wù)部門中,能夠幫助各組織了解人工智能系統(tǒng)的成本效益,開展合規(guī)(自我)審查明確責(zé)任和義務(wù),最終自信地采用人工智能。但同時,《人工智能法案》在風(fēng)險分級、監(jiān)管力度、權(quán)利保護(hù)與責(zé)任機(jī)制等方面亦有缺陷,如其采用的是橫向立法,試圖把所有人工智能都納入監(jiān)管范圍,而未深入考量人工智能之間的不同特性,可能會導(dǎo)致相關(guān)風(fēng)險防范措施面臨無法執(zhí)行的問題。③
美國人工智能立法:強(qiáng)調(diào)自我監(jiān)管,支持技術(shù)創(chuàng)新。在人工智能法律和政策制定的全球背景下,美國逐漸形成以自愿原則為基礎(chǔ)的監(jiān)管框架。美國較為全面的監(jiān)管舉措是白宮科技政策辦公室(OSTP)于2022年10月發(fā)布的《權(quán)利法案藍(lán)圖》,其旨在支持自動化系統(tǒng)設(shè)計、部署和治理過程中,保護(hù)公民權(quán)利。在《權(quán)利法案藍(lán)圖》指導(dǎo)下,聯(lián)邦各部門開始各司其職,著手制定具體政策,如美國勞工部制定了《公正的人工智能行動手冊》,旨在避免人工智能對求職者與員工產(chǎn)生基于種族、年齡、性別等特征的偏見?!稒?quán)利法案藍(lán)圖》的核心內(nèi)容是五項原則:安全有效的系統(tǒng):公眾受到保護(hù),免受不安全或無效的系統(tǒng)的影響;算法歧視保護(hù):公眾不應(yīng)面臨算法和系統(tǒng)的歧視,自動化系統(tǒng)應(yīng)當(dāng)以公平的方式使用和設(shè)計;數(shù)據(jù)隱私:自動化系統(tǒng)應(yīng)該有內(nèi)置的保護(hù)措施保障公眾的數(shù)據(jù)不被濫用,并且確保公眾享有使用數(shù)據(jù)的主導(dǎo)權(quán);知悉和解釋:公眾有權(quán)知道其正在使用自動化系統(tǒng),并且理解它是什么以及如何產(chǎn)生對公眾有影響的結(jié)果;可替代性原則:在適當(dāng)?shù)那闆r下,公眾應(yīng)該能夠選擇不使用自動化系統(tǒng),并使用人工替代方案或其他可選方案。④由于以上原則不受監(jiān)管而缺少約束力,故《權(quán)利法案藍(lán)圖》并非一份具有立法保護(hù)的可執(zhí)行的“權(quán)利法案”,更多的是立足未來設(shè)想的前瞻性治理藍(lán)圖。
目前美國國會對人工智能的監(jiān)管采取了相對不干涉的方法,盡管民主黨領(lǐng)導(dǎo)層已經(jīng)表示打算引入一項監(jiān)管人工智能的聯(lián)邦法。美國參議院多數(shù)黨領(lǐng)袖查克·舒默(Chuck Schumer)提出了指導(dǎo)未來人工智能立法和監(jiān)管的新框架,具體包括“何人”“何處”“如何”與“保護(hù)”四道護(hù)欄,要求科技公司在發(fā)布人工智能系統(tǒng)之前進(jìn)行審查和測試,并向用戶提供結(jié)果。但在美國兩黨互相制衡的情況下,該法律通過國會的可能性較低,即使有機(jī)會通過,也需經(jīng)過多輪修改。與之相對,面對歐盟《人工智能法案》帶來的戰(zhàn)略競爭壓力以及以ChatGPT為代表的生成式人工智能的多領(lǐng)域安全風(fēng)險,美國聯(lián)邦機(jī)構(gòu)采取了積極介入的態(tài)度,在管轄權(quán)限內(nèi)進(jìn)行監(jiān)管。例如,美國聯(lián)邦貿(mào)易委員會(FTC)通過執(zhí)行《公平信貸報告法》《聯(lián)邦貿(mào)易委員會法》等法規(guī),積極監(jiān)管與人工智能有關(guān)的欺騙性和不公平行為,OpenAI面臨的第一起調(diào)查正是FTC進(jìn)行的;2023年1月,美國國家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)制定了《人工智能風(fēng)險管理框架》,對人工智能存在的風(fēng)險進(jìn)行了詳盡的分級分類;2023年4月,美國商務(wù)部就人工智能問責(zé)措施公開征求意見,包括人工智能模型在發(fā)布前是否應(yīng)經(jīng)過認(rèn)證程序。
從美國地方層面上看,加州通過了《2018加州消費者隱私法案》(CCPA),作為對歐盟《通用數(shù)據(jù)保護(hù)條例》的積極回應(yīng)。2023年,在議員鮑爾·卡漢(Bauer Kahan)的推動下,加州提出AB331(Automated decision tools)法案,要求部署者和自動化決策工具的開發(fā)者在2025年1月1日或之前,以及此后每年,對其使用的任何自動化決策工具進(jìn)行影響評估,其中包括自動化決策工具的目的及其預(yù)期收益、用途和部署環(huán)境的聲明。紐約市頒布了《自動化就業(yè)決策工具法》(《AEDT Law》),要求在招聘和晉升決策中使用“自動化就業(yè)決策工具”的雇主和職業(yè)平臺,對人工智能系統(tǒng)進(jìn)行全新的、徹底的審查以及更全面的風(fēng)險測試,評估其是否落入《AEDT Law》的適用范圍。此外,得克薩斯州、佛蒙特州和華盛頓州的立法機(jī)構(gòu)均引入相關(guān)立法,要求州機(jī)構(gòu)對正在開發(fā)、使用的人工智能系統(tǒng)進(jìn)行審查,有效披露人工智能的使用情況??梢?,美國地方政府對人工智能治理還是持積極態(tài)度。地方面臨的主要挑戰(zhàn)是,如何在最小妨礙的基礎(chǔ)上監(jiān)管硅谷的人工智能創(chuàng)新。以加州為例,為了克服這一挑戰(zhàn),其所提出的法案作了兩方面的規(guī)定:一是將人工智能治理的重心放在了算法決策對公民的權(quán)利、機(jī)會和獲得關(guān)鍵服務(wù)的風(fēng)險,而不是具體技術(shù)的細(xì)節(jié)上,能夠允許人工智能的創(chuàng)新發(fā)展;二是確立了人工智能透明度,要求開發(fā)人員和用戶向加州民權(quán)部提交能夠詳細(xì)說明所涉及的自動化工具類型的年度影響評估,供公眾訪問。開發(fā)人員還需制定一個治理框架,詳細(xì)說明該技術(shù)的使用方式和可能的影響。此外,加州法案還提到私人訴訟權(quán)的問題,通過允許個人在權(quán)利受到侵犯時提起訴訟,為權(quán)利保障提供了救濟(jì)途徑。⑤
目前美國人工智能監(jiān)管重點仍是將現(xiàn)有法律適用于人工智能,而不是制定專門性人工智能法律。例如,F(xiàn)TC多次表示《聯(lián)邦貿(mào)易委員會法》第5條“禁止不公平或欺詐行為”完全可適用于人工智能和機(jī)器學(xué)習(xí)系統(tǒng)。⑥事實上,如何協(xié)調(diào)現(xiàn)有法律與人工智能之間的沖突,不僅是某一國家的當(dāng)務(wù)之急,亦是國際社會面臨的緊迫問題。目前,美國國會尚未就人工智能監(jiān)管的聯(lián)邦立法達(dá)成共識,包括監(jiān)管框架、風(fēng)險分類分級等具體內(nèi)容。美國參議院多數(shù)黨領(lǐng)袖查克·舒默主張對人工智能進(jìn)行類似歐盟的全面監(jiān)管,并通過制定框架、專題論壇等途徑加速國會立法進(jìn)程,這與美國的自愿原則存在一定沖突,因而,聯(lián)邦層面人工智能監(jiān)管立法的出現(xiàn)還需較長時日。
生成式人工智能對信息內(nèi)容治理的新挑戰(zhàn)
一般來講,人工智能面臨的風(fēng)險主要來自技術(shù)、市場與規(guī)范等三個方面。⑦以ChatGPT為代表的生成式人工智能在靠近通用人工智能目標(biāo)的同時,也帶來了信息內(nèi)容治理的全新挑戰(zhàn),亟需前瞻性、針對性的理論研究。學(xué)界分析生成式人工智能風(fēng)險的主要視角包括:一是基于人工智能一般風(fēng)險,并結(jié)合生成式人工智能獨有特點,對其在智能倫理、知識產(chǎn)權(quán)保護(hù)、隱私與個人數(shù)據(jù)保護(hù)等方面的風(fēng)險展開研究;⑧二是結(jié)合特定領(lǐng)域,研究生成式人工智能在該領(lǐng)域內(nèi)的風(fēng)險與治理,如生成式人工智能在司法裁判中的量刑偏差風(fēng)險;三是立足生成式人工智能的運行結(jié)構(gòu),分別從準(zhǔn)備、運算到生成階段研究其中的風(fēng)險問題,進(jìn)而采用相應(yīng)措施,如采用技管結(jié)合糾正生成式人工智能在運算階段的算法歧視風(fēng)險。⑨本文認(rèn)為還可從內(nèi)外部視角展開分析,內(nèi)部挑戰(zhàn)是模型自身存在的挑戰(zhàn),包括輸入質(zhì)量問題、處理過程問題、輸出質(zhì)量問題;外部挑戰(zhàn)則是來自非模型自身的挑戰(zhàn),包括不當(dāng)利用風(fēng)險以及法律監(jiān)管風(fēng)險。
輸入質(zhì)量問題:人工智能由算法、算力和數(shù)據(jù)要素組成,其中數(shù)據(jù)是人工智能的基礎(chǔ),在一定程度上決定著其輸出的準(zhǔn)確性與可靠性。生成式人工智能系人工智能的一種,故其輸出(生成的內(nèi)容)同樣會受到數(shù)據(jù)的數(shù)量和質(zhì)量影響。生成式人工智能必須用高質(zhì)量數(shù)據(jù)進(jìn)行訓(xùn)練,一旦數(shù)據(jù)集被污染或篡改,訓(xùn)練出的生成式人工智能便可能損害用戶基本權(quán)利、知識產(chǎn)權(quán)、個人隱私和信息數(shù)據(jù)權(quán),甚至產(chǎn)生社會偏見。
處理過程問題:除數(shù)據(jù)外,訓(xùn)練時使用的算法模型同樣會影響人工智能的輸出結(jié)果。如果將人工智能的訓(xùn)練看作一場料理,訓(xùn)練數(shù)據(jù)是以“材料”的角色影響著最終料理的質(zhì)量,而算法模型則是以“菜譜”的角色發(fā)揮著自身作用,兩者缺一不可。一旦選用的算法模型存在問題或與預(yù)期目的不一致,即便輸入再多、再好的數(shù)據(jù)也無法得到表現(xiàn)良好的人工智能系統(tǒng)。由機(jī)器學(xué)習(xí)算法和訓(xùn)練數(shù)據(jù)所引發(fā)的人工智能歧視和偏見問題,統(tǒng)稱為先行存在的算法偏見,與新知識、新業(yè)態(tài)、新場景出現(xiàn)后引發(fā)的突發(fā)性算法偏見相對應(yīng)。技術(shù)更迭并未杜絕虛假生成問題,只是將其進(jìn)行了包裝和掩飾,所以生成式人工智能會經(jīng)常出現(xiàn)突發(fā)性算法偏見,進(jìn)一步增加了使用風(fēng)險和治理難度,因而需要更為精準(zhǔn)的防護(hù)措施。
輸出質(zhì)量問題:事實上,風(fēng)險本質(zhì)上源于人們對事物認(rèn)知和控制能力不夠,無法在問題萌芽甚至爆發(fā)前及時解決。從該角度來講,技術(shù)的可控程度與其風(fēng)險高低是成反比的,技術(shù)越難控制則風(fēng)險越高。大語言模型和思維鏈在賦予生成式人工智能邏輯推導(dǎo)能力的同時,也使得其輸出內(nèi)容越來越難以預(yù)測,換言之,生成式人工智能的可控程度較低,具有較高的潛在風(fēng)險。比如,由于社會文化差異,生成式人工智能的輸出在一種文化背景下可能是合適的,但在另一種文化環(huán)境下卻是冒犯性的。人類能辨析此類區(qū)別,但生成式人工智能可能因缺少文化方面的前置設(shè)計而無法區(qū)分文化的細(xì)微差別,在無意中產(chǎn)生不恰當(dāng)?shù)膬?nèi)容。
不當(dāng)利用風(fēng)險:生成式人工智能在具備高智能的同時,使用的難度和成本較低,這就為部分人員利用其強(qiáng)大力量從事非法活動提供了可能空間,不當(dāng)利用風(fēng)險由此產(chǎn)生。我國教育部起草的《中華人民共和國學(xué)位法(草案)》中對利用人工智能代寫學(xué)位論文等行為及其處理作出明確規(guī)定。OpenAI公司稱其正在向ChatGPT進(jìn)行敏感詞訓(xùn)練,當(dāng)用戶的提問明顯違反已嵌入的倫理和立法時,ChatGPT會拒絕回答。即便如此,部分人員仍然能夠繞過ChatGPT預(yù)先設(shè)置的“防火墻”,指示其生成非法內(nèi)容或完成非法操作,不當(dāng)利用風(fēng)險未得到有效遏制。長此以往,生成式人工智能可能引發(fā)社會信任危機(jī),使社會民眾陷入真假難辨、人人自危的困境,最終造成“真相的終結(jié)”,使人類社會進(jìn)入“后真相時代”。⑩
法律監(jiān)管風(fēng)險:生成式人工智能內(nèi)部的輸入質(zhì)量問題、處理過程問題和輸出質(zhì)量問題,以及外部的不當(dāng)利用風(fēng)險共同將其監(jiān)管難度推向新的高峰,造成了監(jiān)管失效的法律風(fēng)險。生成式人工智能的法律風(fēng)險不局限于某一特定領(lǐng)域,而是橫貫多個領(lǐng)域,需要多個部門的協(xié)同治理。生成式人工智能的使用條款往往缺乏對用戶交互數(shù)據(jù)的授權(quán)處理,可能會引發(fā)個人隱私和國家安全問題,因為大型企業(yè)中的部分?jǐn)?shù)據(jù)已經(jīng)具有了公共屬性,一旦出現(xiàn)泄露事件不僅會損害企業(yè)利益,更可能對國家安全造成威脅。除此之外,生成式人工智能決策過程不夠透明的問題,也會對法律監(jiān)管造成影響,甚至成為監(jiān)管機(jī)關(guān)禁止其在特定領(lǐng)域部署的決定性理由。
解決方案:尋求多維平衡
面對生成式人工智能的巨大應(yīng)用價值和內(nèi)外部的風(fēng)險挑戰(zhàn),我們需要作出合理抉擇。目前,世界各國雖然對生成式人工智能的安全性有所質(zhì)疑,但一致認(rèn)可其在國際競爭、經(jīng)濟(jì)發(fā)展、數(shù)字政府建設(shè)等方面的應(yīng)用潛力,通過制定相關(guān)政策和法規(guī)嘗試處理好安全與發(fā)展、技術(shù)創(chuàng)新與公共利益之間的關(guān)系,為生成式人工智能的使用奠定前提和保障。我國亦不例外。從《暫行辦法》第1條規(guī)定看,該法制定目的正是“為了促進(jìn)生成式人工智能健康發(fā)展和規(guī)范應(yīng)用,維護(hù)國家安全和社會公共利益,保護(hù)公民、法人和其他組織的合法權(quán)益”。第3條更是明確指出立法者對于生成式人工智能治理的總體態(tài)度,即“堅持發(fā)展和安全并重、促進(jìn)創(chuàng)新和依法治理相結(jié)合的原則”。事實上,透過該原則便可發(fā)現(xiàn)當(dāng)前適合我國國情的解決方案,即尋求生成式人工智能治理的多維平衡。
首先,應(yīng)當(dāng)平衡安全和發(fā)展的關(guān)系。在總體國家安全觀下,安全是發(fā)展的前提,發(fā)展是安全的保障,不發(fā)展就是最大的不安全。我國必須積極發(fā)展生成式人工智能等現(xiàn)代科技手段促進(jìn)經(jīng)濟(jì)發(fā)展和社會進(jìn)步,不斷增強(qiáng)我國國際競爭力?!稌盒修k法》第3條指出,“對生成式人工智能服務(wù)實行包容審慎和分類分級監(jiān)管”。關(guān)于具體的措施,《暫行辦法》也給出方案:第5條和第6條明確了鼓勵發(fā)展的方向和內(nèi)容,如支持行業(yè)組織、企業(yè)、教育和科研機(jī)構(gòu)、公共文化機(jī)構(gòu)、有關(guān)專業(yè)機(jī)構(gòu)等在生成式人工智能技術(shù)創(chuàng)新、數(shù)據(jù)資源建設(shè)、轉(zhuǎn)化應(yīng)用、風(fēng)險防范等方面開展協(xié)作;第7條和第8條分別從預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等訓(xùn)練數(shù)據(jù)處理和數(shù)據(jù)標(biāo)注對生成式人工智能的安全提出了要求,如生成式人工智能服務(wù)提供者應(yīng)當(dāng)使用具有合法來源的數(shù)據(jù)和基礎(chǔ)模型,不得侵害他人依法享有的知識產(chǎn)權(quán)等。
其次,應(yīng)當(dāng)平衡技術(shù)創(chuàng)新和技術(shù)治理的關(guān)系。在采取措施加快生成式人工智能創(chuàng)新發(fā)展的同時,也要認(rèn)識到其所帶來的內(nèi)外部風(fēng)險挑戰(zhàn),相應(yīng)地進(jìn)行治理。簡言之,應(yīng)當(dāng)在創(chuàng)新中治理,在治理中創(chuàng)新,保證技術(shù)創(chuàng)新在法治軌道上運行。為此,一方面,發(fā)揮政策引領(lǐng)經(jīng)濟(jì)社會發(fā)展的作用,通過簡化行政許可、減少稅收等途徑積極鼓勵企業(yè)進(jìn)行技術(shù)創(chuàng)新,同時引導(dǎo)企業(yè)利用自身發(fā)展推動經(jīng)濟(jì)社會發(fā)展,對其正當(dāng)權(quán)益通過立法的形式予以確認(rèn);另一方面,堅守依法治理底線,對于企業(yè)可能的違規(guī)違法行為予以及時規(guī)范和處理。具體而言,根據(jù)《暫行辦法》第19條之規(guī)定,有關(guān)主管部門依據(jù)職責(zé)對生成式人工智能服務(wù)開展監(jiān)督檢查,提供者應(yīng)當(dāng)依法予以配合;對于生成式人工智能提供者違反《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護(hù)法》等法律法規(guī)的行為,予以罰款、責(zé)令停止提供服務(wù)、追究刑事責(zé)任等相應(yīng)處罰;如果現(xiàn)有法律法規(guī)無法有效規(guī)范技術(shù)發(fā)展的新業(yè)態(tài),可先由主管部門予以警告、通報批評,責(zé)令限期改正,之后及時進(jìn)行立法(需要考慮特殊立法與一般立法、國家立法與地方立法的辯證關(guān)系),確保有法可依、依法行政。
最后,應(yīng)當(dāng)平衡企業(yè)合規(guī)義務(wù)和企業(yè)負(fù)擔(dān)能力的關(guān)系。生成式人工智能的有效治理,需要開展模型訓(xùn)練、提供生成服務(wù)的企業(yè)承擔(dān)相應(yīng)的合規(guī)義務(wù),但此種義務(wù)必須是適當(dāng)?shù)模粦?yīng)超過企業(yè)的負(fù)擔(dān)能力。對此,可從《暫行辦法》的相關(guān)規(guī)定中尋得規(guī)范支撐:其一,第3條要求對生成式人工智能服務(wù)進(jìn)行分類分級監(jiān)管,言下之意就是要依據(jù)具體風(fēng)險大小進(jìn)行治理,對在不同領(lǐng)域提供不同生成式人工智能義務(wù)的企業(yè)提出有程度差別的合規(guī)義務(wù),這一點與《人工智能法案》基于風(fēng)險的分級監(jiān)管頗為相似;其二,與原先征求意見稿相比,第7條和第8條明顯降低了企業(yè)研發(fā)、訓(xùn)練生成式人工智能的合規(guī)要求,如原有第7條第(4)項“能夠保證數(shù)據(jù)的真實性、準(zhǔn)確性、客觀性、多樣性”改為“采取有效措施提高訓(xùn)練數(shù)據(jù)質(zhì)量,增強(qiáng)訓(xùn)練數(shù)據(jù)的真實性、準(zhǔn)確性、客觀性、多樣性”,原有第8條“抽樣核驗標(biāo)注內(nèi)容的正確性”改為“抽樣核驗標(biāo)注內(nèi)容的準(zhǔn)確性”;其三,第9條和第14條通過重新分配服務(wù)提供者與用戶的權(quán)利義務(wù),給予了提供者更為靈活的合規(guī)空間,以增強(qiáng)其主動合規(guī)的意愿。例如,將“內(nèi)容生產(chǎn)者責(zé)任”改為“網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任”,使提供服務(wù)的企業(yè)不必為用戶惡意濫用生成式人工智能生成的非法內(nèi)容承擔(dān)責(zé)任。
生成式人工智能技術(shù)已經(jīng)在商業(yè)貿(mào)易、新聞傳播等多行業(yè)掀起巨大波瀾,如何進(jìn)行有效監(jiān)管使其服務(wù)于人類社會是各國應(yīng)當(dāng)長期思考和解決的現(xiàn)實命題。不同國家選擇的人工智能監(jiān)管模式反映著特定的社會價值觀和國家優(yōu)先事項,這些不同的要求可能相互沖突,如注重保障用戶隱私和促進(jìn)技術(shù)創(chuàng)新,因而造成了更為復(fù)雜的監(jiān)管環(huán)境。歐盟的“安全優(yōu)先,兼顧公平”和美國的“強(qiáng)調(diào)自我監(jiān)管,支持技術(shù)創(chuàng)新”雖然有諸多不同之處,但也存在著共識部分,或多或少能促進(jìn)生成式人工智能的技術(shù)創(chuàng)新、安全使用與依法治理。同時,透明度和可解釋性將是遵守新興法規(guī)和培養(yǎng)對生成式人工智能技術(shù)信任的關(guān)鍵所在。歐美立法動向也提醒我國要盡快進(jìn)行國家層面的人工智能立法,確定人工智能治理的基本原則,以及風(fēng)險管理制度、主體責(zé)任分配、法律責(zé)任等內(nèi)容,統(tǒng)籌全國的治理布局,還要充分發(fā)揮地方積極性,通過地方立法先行先試,避免無法可用的同時為國家層面的人工智能立法積累經(jīng)驗。
(作者為浙江大學(xué)光華法學(xué)院教授、博導(dǎo))
【注:本文系國家社科基金重大項目“建立健全我國網(wǎng)絡(luò)綜合治理體系研究”(項目編號:20ZDA062)階段性成果】
【注釋】
①Ouyang L,Wu J,Jiang X,et al."Training language models to follow instructions with human feedback",Advances in Neural Information Processing Systems,2022(35),pp.27730-27744.
②Natali Helberger,Nicholas Diakopoulos."ChatGPT and the AI Act",Internet Policy Review,2023,12(1).
③曾雄、梁正、張輝:《歐盟人工智能的規(guī)制路徑及其對我國的啟示——以〈人工智能法案〉為分析對象》,《電子政務(wù)》,2022年第9期。
④The White House,"Blueprint for an AI Bill of Rights",October 2022.
⑤Friedler, Sorelle, Suresh Venkatasubramanian, Alex Engler,"How California and other states are tackling AI legislation",Brookings,March 2023.
⑥Müge Fazlioglu."US federal AI governance: Laws, policies and strategies",International Association of Privacy Professionals,June 2023.
⑦程樂:《人工智能發(fā)展趨勢研判與規(guī)范引導(dǎo)思路》,《國家治理》,2023年第6期。
⑧程樂:《生成式人工智能的法律規(guī)制——以ChatGPT為視角》,《政法論叢》,2023年第4期。
⑨劉艷紅:《生成式人工智能的三大安全風(fēng)險及法律規(guī)制——以ChatGPT為例》,《東方法學(xué)》,2023年第4期。
⑩張廣勝:《生成式人工智能的國家安全風(fēng)險及其對策》,《人民論壇·學(xué)術(shù)前沿》,2023年第7期。
責(zé)編/靳佳 美編/王夢雅
聲明:本文為人民論壇雜志社原創(chuàng)內(nèi)容,任何單位或個人轉(zhuǎn)載請回復(fù)本微信號獲得授權(quán),轉(zhuǎn)載時務(wù)必標(biāo)明來源及作者,否則追究法律責(zé)任。