【摘要】人工智能背景下新聞傳播的生產(chǎn)工具和生產(chǎn)方式出現(xiàn)了巨大變化,尊崇客觀、公正、最小傷害的新聞倫理傳統(tǒng)面臨沖擊,研究范疇由新聞工作者、新聞機(jī)構(gòu)、新聞受眾延伸至智能技術(shù)和社交平臺,它們在新聞倫理圖景中的位置和行為模式也產(chǎn)生了變化。以算法倫理和大數(shù)據(jù)倫理為主要的邏輯起點(diǎn),結(jié)合智能時(shí)代新聞傳播模式的具體變化,從個(gè)體倫理層次、組織倫理層次和社會倫理層次厘清具體道德行動者的行動領(lǐng)域,可以更為清晰地展現(xiàn)各道德行動者之間的倫理互動結(jié)構(gòu),并且綜合呈現(xiàn)人工智能時(shí)代的新聞倫理結(jié)構(gòu)和不同責(zé)任主體之間的關(guān)系。
【關(guān)鍵詞】人工智能 新聞倫理 道德行動者 倫理治理
【中圖分類號】G210 【文獻(xiàn)標(biāo)識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2018.24.001
隨著信息革命的深入,新聞傳播業(yè)的生產(chǎn)工具與生產(chǎn)方式出現(xiàn)了巨大變化。人工智能不僅可以通過機(jī)器寫作重塑新聞生產(chǎn)流程,還能通過智能算法革新新聞分發(fā)方式,更會對新聞傳媒生態(tài)的信息終端、用戶系統(tǒng)、互動模式等進(jìn)行多方位重塑。在這種結(jié)構(gòu)性變革的面前,傳統(tǒng)新聞倫理學(xué)的研究與實(shí)踐也面臨著更加復(fù)雜的挑戰(zhàn)。在新聞傳播領(lǐng)域,機(jī)器寫作、智能分發(fā)、算法推薦等技術(shù)帶來了更具個(gè)性化的服務(wù)和更高的傳播效率,但后真相、個(gè)人和國家數(shù)據(jù)安全、算法偏見、被遺忘權(quán)等問題,也激起了廣泛的討論。機(jī)器越自由,就越需要道德準(zhǔn)則(溫德爾·瓦拉赫、科林·艾倫,2017)。
在科技進(jìn)步主義話語主導(dǎo)社會發(fā)展的語境下,技術(shù)的制度化作用被進(jìn)一步放大,新聞倫理的傳統(tǒng)理論假設(shè)也需要在新的技術(shù)條件和社會環(huán)境下予以系統(tǒng)反思。媒體倫理通常是對兩個(gè)問題的問責(zé):“對什么負(fù)責(zé)?”“對誰負(fù)責(zé)?”(Glasser,1989:179),而人工智能發(fā)展到今日,我們可能要增加一個(gè)答案看似顯而易見,卻實(shí)則眾說紛紜的問題:“誰來負(fù)責(zé)?”
人工智能及其對新聞倫理的影響
新聞及其生產(chǎn)慣例一直受到技術(shù)的影響(Parry,2011;Pavlik,2000),在演變的過程中,各種價(jià)值觀被刻入其中形成新聞倫理共識。大眾化報(bào)紙誕生以來,新聞業(yè)長期被期待為沒有干預(yù)的事實(shí)再現(xiàn),發(fā)展了客觀性、中立性、可確認(rèn)性和中介作用等價(jià)值(Dörr & Hollnbuchner,2017)。對客觀性原則的反思,催生了調(diào)查性報(bào)道、解釋性新聞,它們試圖在報(bào)道和闡述之間取得平衡,并增加不同的道德價(jià)值面向以形成公眾輿論(Selgado & Stromback,2012)。
新聞傳播的數(shù)字化和國際化對媒體倫理傳統(tǒng)假定帶來進(jìn)一步的沖擊。首先,在線新聞,特別是基于社交媒體的信息傳播模式,使得傳統(tǒng)的“驗(yàn)證新聞”及其嚴(yán)格的事實(shí)檢查正在被非專業(yè)化的新聞形式取代(Kovach & Rosenstiel,2007)。新聞專業(yè)人員把控信息流的壟斷地位被打破,傳統(tǒng)媒體一直遵循的倫理價(jià)值,如客觀公正、把關(guān)控制等,也被大量即時(shí)性用戶生成的內(nèi)容遮蔽。而全球化新聞業(yè)的出現(xiàn),不僅導(dǎo)致文化價(jià)值的沖突,也產(chǎn)生了一個(gè)更難解決的問題,即如何設(shè)想和界定全球化新聞傳播的相關(guān)責(zé)任(Ward,2011:208)。
人工智能的兩大支柱——算法和大數(shù)據(jù),已經(jīng)多維度地進(jìn)入新聞傳播領(lǐng)域,特別是智能推薦算法作為兩者的集成,已經(jīng)在信息傳播領(lǐng)域產(chǎn)生巨大的影響。目前主流的推薦算法有三種:基于內(nèi)容的推薦、基于協(xié)同過濾的推薦和基于時(shí)序流行度的推薦。
基于內(nèi)容的算法,其主要邏輯是受眾偏好與新聞內(nèi)容特征的匹配。通過用戶特征數(shù)據(jù)和網(wǎng)絡(luò)行為的分析,確立興趣模型;利用分詞技術(shù)等模式計(jì)算內(nèi)容文本特征,選取兩者之間相關(guān)度高的形成推薦列表。這種算法能夠有效增加用戶黏性,但對于個(gè)人信息的標(biāo)簽化分析,也容易引發(fā)個(gè)人數(shù)據(jù)安全性的爭議。近期斯坦福大學(xué)研發(fā)的算法可以通過交友網(wǎng)站信息判定性取向,準(zhǔn)確率高達(dá)91%(Yilun Wang & Michal Kosinski,2018),這一研究立即招致公眾批評,也讓公眾對于算法的信息挖掘能力產(chǎn)生倫理質(zhì)疑。
協(xié)同過濾算法的基本邏輯是人以群分,通過計(jì)算用戶的特征數(shù)據(jù)將其編入一個(gè)用戶群體,按照群體共享度較高的偏好推薦內(nèi)容。這種做法將計(jì)算單位有效地下降為群體,減少了數(shù)據(jù)處理量。谷歌新聞最早采取的就是這類推薦算法。但是這種算法的倫理困境在于容易產(chǎn)生信息繭房,且將人群分類可能產(chǎn)生潛在的算法歧視,不僅觸犯個(gè)人隱私,而且易于強(qiáng)化社會偏見。
基于時(shí)序流行度的推薦算法,將單位時(shí)間的瞬時(shí)點(diǎn)擊率等動態(tài)特征作為考量因素,將特定時(shí)間窗口內(nèi)流行度較高的新聞推薦給用戶。這種算法模型很好地解決了內(nèi)容冷啟動問題,但是對于“標(biāo)題黨”和“三俗”信息的免疫力相對較低。
信息聚合平臺往往綜合使用上述三種推薦算法,并且針對用戶體驗(yàn)不斷優(yōu)化各指標(biāo)的權(quán)重,以更好地預(yù)測用戶行為。之前智能推薦算法的研發(fā)并沒有置于新聞倫理的框架予以關(guān)切,使得互聯(lián)網(wǎng)信息平臺公司在算法的設(shè)置中很少內(nèi)嵌傳統(tǒng)新聞倫理價(jià)值。社交媒體時(shí)代,信息推薦和信息過濾等智能算法實(shí)際上具有了議程設(shè)置的功能,取代傳統(tǒng)媒體引導(dǎo)輿論。而智能算法設(shè)計(jì)者沒有受到傳統(tǒng)新聞倫理約束,這就在一定程度上使得新聞專業(yè)主義的行業(yè)傳統(tǒng)和價(jià)值基礎(chǔ),與智能算法的社會影響之間產(chǎn)生了鴻溝。Facebook的“偏見門”(Bakshy et al.,2015;方師師,2016;韓鴻、彭璟論,2016)和算法推薦下“后真相”時(shí)代的假新聞泛濫(邁克爾·舒德森、周蘭,2017;彭蘭,2017;史安斌、王沛楠,2017;潘忠黨、陸曄,2017;支庭榮、羅敏,2018),也許就是不受傳統(tǒng)新聞倫理約束的信息智能系統(tǒng)所造成的社會代價(jià)。
過度依賴算法推薦的新聞價(jià)值排序,會產(chǎn)生傳播權(quán)(新聞價(jià)值權(quán)重排序決策權(quán))、信息自由(人的傳播自主性)、信息觸達(dá)(服務(wù)的普適性、信息的不當(dāng)觸達(dá))、信息隱私權(quán)和數(shù)字身份及其保護(hù)的問題。目前有兩種倫理風(fēng)險(xiǎn)已經(jīng)引起廣泛的關(guān)注:數(shù)據(jù)安全和算法偏見。
機(jī)器學(xué)習(xí)是一種從數(shù)據(jù)中挖掘和發(fā)現(xiàn)固有模式的一種方法。機(jī)器學(xué)習(xí)的有效性取決于用來進(jìn)行訓(xùn)練的數(shù)據(jù)質(zhì)量和數(shù)量,機(jī)器是否有權(quán)進(jìn)行個(gè)人信息挖掘等問題引發(fā)了重大的倫理爭議。
算法偏見和糾偏也是一個(gè)倫理關(guān)注焦點(diǎn)。2018年美國公民自由聯(lián)盟批評亞馬遜Rekognition人臉識別工具。經(jīng)過測試表明,對于膚色較深的人,Rekognition的識別效果較差。谷歌所研制的圖像標(biāo)注系統(tǒng)曾錯(cuò)誤地將黑人標(biāo)記為“大猩猩”(Sandvig et al.,2016),這就不得不讓人們對算法強(qiáng)化社會原有偏見的可能性充滿憂慮。
以歐盟為代表的國家和地區(qū)開始強(qiáng)勢介入人工智能立法,《通用數(shù)據(jù)保護(hù)條例(GDPR)》的實(shí)行產(chǎn)生了巨大的行業(yè)震動,導(dǎo)至行業(yè)寒蟬效應(yīng)。相對于規(guī)制硬約束,在人工智能社會構(gòu)建前景尚未明朗之前,倫理軟約束則更加適合。有效的倫理治理需要分清楚責(zé)任主體,特別是在智能技術(shù)深度介入新聞信息傳播的當(dāng)下,一些原本不在新聞倫理探討范圍內(nèi)的行動者進(jìn)入該領(lǐng)域,他們的作用和問責(zé)方式,亟待理論梳理。
人工智能時(shí)代新聞倫理的道德行動者
一般意義上,倫理是“對我們應(yīng)該做的事情的研究”(Merrill,2011:3)。在元倫理和規(guī)范倫理學(xué)層面,倫理研究通常被區(qū)分為三種傳統(tǒng)。首先是強(qiáng)調(diào)人類相互作用的責(zé)任和義務(wù)的道德義務(wù)論,康德認(rèn)為可以通過相關(guān)正式準(zhǔn)則,特別是普遍性準(zhǔn)則將道德規(guī)則和其他行為規(guī)則區(qū)分開來(Kant,1785)。其次是邊沁(Bentham,1785)、密爾(Mill,1962)開創(chuàng)的功利主義傳統(tǒng)。該傳統(tǒng)把最大化社會效用作為最基本的道德準(zhǔn)則,這種傳統(tǒng)也被稱為后果論。最后是美德論,核心問題不是正確行動,而是美好生活,道德也不在于行事原則,更在于人們的品質(zhì),這就重回亞里士多德 “我應(yīng)該成為什么樣的人”的經(jīng)典論述。
在應(yīng)用倫理學(xué)層面的分析中,基于問責(zé)的考量往往需要區(qū)分道德行動者。一般認(rèn)為,具有道德意向性和能動性,并具有行動力和對自身行動的解釋能力(Taylor Paul,1986:14),是道德行動者的基本條件。技術(shù)人工物一定程度上突破了倫理道德的人類中心主義,倫理學(xué)家開始將意向性視為道德能動性的一個(gè)“不錯(cuò)但卻不必要的條件”,與道德能動性相關(guān)的唯一事物是行動者的行為是否是“道德上可修飾的”,即是否引發(fā)道德上的善或惡(Floridi L,Sanders J W,2004)。
新聞倫理屬于應(yīng)用倫理學(xué)研究,研究起點(diǎn)是基于行業(yè)的實(shí)際倫理難題進(jìn)行價(jià)值判斷?,F(xiàn)代性大眾傳播觀念和倫理觀念根植于以啟蒙運(yùn)動為代表的知識革命,笛卡爾、洛克、彌爾頓、穆勒等學(xué)者的經(jīng)典論述是其中的主要智識資源。施拉姆結(jié)合媒體發(fā)展現(xiàn)實(shí)指出,如何妥善處理大眾品味、企業(yè)盈利和社會責(zé)任三者的關(guān)系是大眾媒體面對的主要問題(Wilbur Schramm,1957),其中知情權(quán)和隱私權(quán)、表達(dá)權(quán)和名譽(yù)權(quán)持續(xù)產(chǎn)生張力,就此,政府、媒體和公眾成為新聞倫理關(guān)系的核心行動者。
人工智能時(shí)代,隨著算法在不同的生活領(lǐng)域產(chǎn)生建構(gòu)性影響,算法作為內(nèi)容創(chuàng)建者的制度化引發(fā)了專業(yè)新聞的各種倫理挑戰(zhàn)。其中,互聯(lián)網(wǎng)信息平臺公司,對算法研發(fā)起到核心作用的工程師團(tuán)隊(duì),甚至是技術(shù)本身是否應(yīng)該作為倫理行動者進(jìn)入了新聞倫理的話語框架,值得細(xì)致分析。
新聞倫理的傳統(tǒng)行動者。1、政府:倫理治理的規(guī)則制定者與底線管控者。變革性技術(shù)總是同時(shí)帶來正面和負(fù)面效應(yīng),人類也逐漸摸索出一套技術(shù)控制模式。這種模式一般包含兩個(gè)方面,其一是社會規(guī)范性的,如法律、法規(guī);其二是技術(shù)性的,即對技術(shù)設(shè)計(jì)和運(yùn)用制定標(biāo)準(zhǔn)。這兩項(xiàng)工作都需要國家,甚至國家間的合作方能達(dá)成。
對于人工智能的管理,政府顯性地扮演兩種角色。首先,是在國家戰(zhàn)略層面,通過行業(yè)規(guī)劃和部署,將技術(shù)開發(fā)、產(chǎn)業(yè)發(fā)展作為核心戰(zhàn)略要素,在國際競爭的語境下予以通盤考慮。在我國,國務(wù)院于2017年7月印發(fā)了《新一代人工智能發(fā)展規(guī)劃》和《促進(jìn)新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計(jì)劃(2018~2020年)》等政策,讓中國的人工智能發(fā)展有了明確的時(shí)間表和路線圖。2016年10月美國政府出臺了“美國國家人工智能研發(fā)規(guī)劃”,加拿大、英國、德國、法國等國家也針對人工智能研究和機(jī)器人設(shè)計(jì)出臺專門的戰(zhàn)略規(guī)劃和規(guī)范性報(bào)告。其次,是從司法實(shí)踐角度,各國也有專門法規(guī),如歐盟《一般數(shù)據(jù)保護(hù)條例》和美國《人工智能未來法案》等。
值得注意的是,各國對人工智能的倫理反應(yīng)早于立法研究,歐盟于2006年發(fā)布《機(jī)器人倫理路線圖》,2007年韓國工商能源部頒布《機(jī)器人倫理憲章》等,體現(xiàn)政府相關(guān)部門對人工智能倫理治理的關(guān)注。這些倫理研究報(bào)告其實(shí)在為其后的立法和規(guī)制進(jìn)行倫理學(xué)和法理學(xué)的籌備,對自主智能體的主體地位、問責(zé)模式和人類行為規(guī)范,作了初步設(shè)想。
著名的“科林格瑞治困境”指出了技術(shù)評估的兩難困境:在技術(shù)發(fā)展的早期控制其應(yīng)用方向相對容易,但此時(shí)決策者缺少合理控制的專業(yè)知識;當(dāng)技術(shù)應(yīng)用的風(fēng)險(xiǎn)顯露時(shí),對它的控制卻幾近不可能(卡爾·米切姆、朱勤、安延明,2007)。各國政府的人工智能倫理治理和立法實(shí)踐如此迅速,某種程度上也在規(guī)避上述規(guī)制困境,尤其是人工智能被普遍認(rèn)為是一個(gè)具備高度社會建構(gòu)性能力的系統(tǒng),各國政府不約而同采取了相對前置的治理模式。
2、媒體:新聞倫理的日常踐行者。媒體是新聞倫理中最為核心的部分,因?yàn)閭鹘y(tǒng)新聞生產(chǎn)、分發(fā)都在該系統(tǒng)內(nèi)完成。自1923年美國報(bào)紙編輯協(xié)會提出美國首個(gè)新聞業(yè)自律規(guī)范《報(bào)人守則》,新聞倫理就與新聞工作者的職業(yè)倫理和行業(yè)自律掛鉤。
在前互聯(lián)網(wǎng)時(shí)代,新聞倫理通常與報(bào)道內(nèi)容及其選擇相掛鉤,責(zé)任、獨(dú)立、真實(shí)準(zhǔn)確、公正、公平等原則以不同的形式予以表達(dá)。在絕大部分的媒體體制之下,媒體不僅具有社會公共性,本身作為承擔(dān)一定經(jīng)營活動的組織,也需要考慮經(jīng)濟(jì)層面的可持續(xù)發(fā)展問題。因此,大眾化媒體如何處理公共服務(wù)和商業(yè)利益之間的張力,以兼顧經(jīng)濟(jì)效益和社會效益,是新聞倫理的主要關(guān)切點(diǎn)。在此間所產(chǎn)生的媒體與國家的關(guān)系、媒體與社會的關(guān)系、媒體與個(gè)體的關(guān)系,也是新聞倫理的核心焦點(diǎn)。
社交媒體和智能推薦算法的結(jié)合,改變了受眾獲得信息的主要渠道和接受模式,傳統(tǒng)媒體的議程設(shè)置功能受到較大沖擊,部分媒體開始被迫跟隨社交媒體表達(dá)模式改變自身的新聞生產(chǎn)方式。但是2016年美國大選所引發(fā)的“后真相”討論,恰恰說明社會仍然需要“不可愛的新聞界” (邁克爾·舒德森、周巖,2017)。潘忠黨、陸曄(2017)認(rèn)為“后真相”一詞的流行更加凸顯新聞專業(yè)主義不僅是對媒介和新聞從業(yè)者的職業(yè)期許,更是全社會所遵循的文化價(jià)值體系的一部分。新聞界需要做的是將尋求、核查、鑒定事實(shí)和真相的過程置于公共討論之中,重構(gòu)交往的倫理規(guī)范。(潘忠黨、陸曄,2018)
3、公眾:“用腳投票”的新聞倫理批評者。自20世紀(jì)20年代杜威和李普曼的爭論為起始,公眾是具有公共目的的社會有機(jī)統(tǒng)一體,還是原子化的消極“幻影”,存在根本性的學(xué)術(shù)分歧。而學(xué)術(shù)界對公眾在新聞傳播系統(tǒng)中的作用,也始終存在爭議。
在傳統(tǒng)新聞傳播中,公眾作為信息的接收者,處于被動地位。但是即便在這種相對的被動位置中,施拉姆指出閱聽大眾應(yīng)以傳播動力的主要推動者自任。大眾的基本責(zé)任是運(yùn)用一切可能,使自己成為機(jī)警而又有鑒別能力的閱聽大眾,學(xué)習(xí)如何運(yùn)用媒體,并積極地對媒體展開睿智的批評(Wilbur Schramm,1957)。
在人工智能時(shí)代,“你關(guān)心的就是頭條”的算法邏輯,使得公眾或者說用戶的地位得到了進(jìn)一步提升。信息平臺認(rèn)為自身不存在新聞立場,算法的主要目的在于加強(qiáng)用戶的黏性。2016年以來,F(xiàn)acebook推出一系列機(jī)制,強(qiáng)調(diào)保障用戶對最終內(nèi)容的選擇權(quán),其中尤為強(qiáng)調(diào)3F原則(Friends and Family First),即好友分享的優(yōu)先級高于新聞媒體發(fā)布的消息。這一算法權(quán)重變化的目的在于,從“幫助你找到相關(guān)的內(nèi)容”轉(zhuǎn)向“實(shí)現(xiàn)用戶有意義的社會互動”,即促成用戶間的討論和深度參與。賦權(quán)用戶而非傳統(tǒng)強(qiáng)勢機(jī)構(gòu),是算法所強(qiáng)調(diào)的平權(quán)價(jià)值。但是其后所引發(fā)的虛假消息充斥社交媒體,也是傳統(tǒng)機(jī)構(gòu)媒體權(quán)重下降后的副作用。
人工智能系統(tǒng)非常有效地通過用戶日漸增多的網(wǎng)絡(luò)行為數(shù)據(jù)進(jìn)行精準(zhǔn)內(nèi)容推薦,公眾是被動接受偏好的信息從而陷入信息繭房,還是有意識地通過綜合使用媒體平臺,形成更加理性而多元的社會認(rèn)知,其重任日益集中到個(gè)體自身。因此現(xiàn)階段至少可以相對確定地說,公眾作為新聞倫理的行動者,在人工智能時(shí)代所肩負(fù)的責(zé)任將更加重大。
人工智能時(shí)代的新增新聞倫理行動者。當(dāng)下,互聯(lián)網(wǎng)信息平臺公司在新聞傳播過程中產(chǎn)生了日益重要的中介作用,傳統(tǒng)關(guān)于信息和新聞的分野也變得模糊。弗洛里迪在《信息倫理學(xué)》中指出,信息是一種資源、一種產(chǎn)品,也是一種目標(biāo)。借助信息與通訊技術(shù)手段為媒介的信息生產(chǎn)與傳播引發(fā)了倫理后果,合理應(yīng)對這些后果需要更多的智識動員和道德行動者(盧恰克·弗洛里迪,2018)。
在線平臺傳統(tǒng)上不屬于新聞傳播范疇,互聯(lián)網(wǎng)企業(yè)也往往不承認(rèn)自身的“媒體”性質(zhì),而傾向?qū)⒆陨砻枋龀尚畔鞑サ幕A(chǔ)設(shè)施,平臺上傳輸和交換的是數(shù)據(jù)(data)而非傳統(tǒng)意義的新聞內(nèi)容。但是當(dāng)人類的交往活動和商業(yè)活動日益集中到網(wǎng)絡(luò)平臺,互聯(lián)網(wǎng)信息平臺公司的角色就發(fā)生了變化。研究指出,像谷歌、Facebook這樣的公司往往起步于具體的垂直應(yīng)用,例如搜索、社交,但是為了將用戶進(jìn)一步固定在自身的商業(yè)平臺上,他們的功能日益多元。因此在更加廣泛的意義上,網(wǎng)絡(luò)生態(tài)嵌入了更廣大的社會文化和政治經(jīng)濟(jì)語境之中(Jose Van Dijck,2013),這一趨勢伴隨著科技所導(dǎo)致的社會形態(tài)變化,變得勢不可擋。
近年來互聯(lián)網(wǎng)信息平臺公司已經(jīng)成為傳播倫理的核心關(guān)注區(qū)域。2018年Facebook的扎克伯格和今日頭條的張一鳴,近乎在同一天面對主管部門的質(zhì)詢,并向公眾道歉。
Facebook信任危機(jī)的觸發(fā)點(diǎn)在于個(gè)人隱私泄露最終形成干預(yù)選舉的危害。據(jù)披露,F(xiàn)acebook上超過5000萬用戶信息數(shù)據(jù)被一家名為“劍橋分析”(Cambridge Analytica)的公司泄露,用于在2016年美國總統(tǒng)大選中針對目標(biāo)受眾推送廣告,從而影響大選結(jié)果,此事在世界范圍內(nèi)引發(fā)了軒然大波。扎克伯格就此接受美國國會質(zhì)詢。
而字節(jié)跳動公司則因旗下產(chǎn)品存在低俗內(nèi)容和導(dǎo)向問題,受到主管部門處罰。應(yīng)用市場下架了今日頭條客戶端,并暫停服務(wù)三周;“內(nèi)涵段子”客戶端軟件及公眾號被責(zé)令永久關(guān)停;短視頻應(yīng)用抖音APP刪除了所有用戶評論。此后“今日頭條”品牌口號也從“你關(guān)心的就是頭條”轉(zhuǎn)變?yōu)?ldquo;信息創(chuàng)造價(jià)值”。
對互聯(lián)網(wǎng)信息平臺上存在的倫理失范內(nèi)容,平臺應(yīng)該承擔(dān)怎樣的法律責(zé)任,學(xué)術(shù)界存在爭議,也存在實(shí)際的問責(zé)困境。被廣泛應(yīng)用的避風(fēng)港原則成為互聯(lián)網(wǎng)平臺抗辯的主要依據(jù),判定并不直接生產(chǎn)和編輯內(nèi)容的互聯(lián)網(wǎng)平臺企業(yè)侵權(quán),難度很大。但平臺企業(yè)在內(nèi)容處理方面的失誤,將極大地影響社會,因此它們不可避免地需要承擔(dān)平衡不同權(quán)利主體的重任。但是直到最近,遏制非法、不恰當(dāng)內(nèi)容的重任始終在用戶身上,平臺主要通過舉報(bào)來發(fā)現(xiàn)類似信息。
當(dāng)然,平臺主動遏制它所界定的不適宜行為,也面臨挑戰(zhàn)。例如Facebook公司曾經(jīng)通過機(jī)器鑒別遏制裸體展示,哺乳婦女的照片和反映越戰(zhàn)的知名攝影作品《戰(zhàn)火中的女孩》也因此歸入此類,這兩件事都讓Facebook公司承受了巨大的壓力,并引發(fā)關(guān)于平臺歧視的擔(dān)憂。總體而言,平臺公司類似舉措都容易導(dǎo)致偏愛主流人群而壓抑邊緣人群的結(jié)果。雖然類似舉措未必隱含制度化和規(guī)?;娜后w歧視,但的確提出平臺如何更好履行責(zé)任的疑慮(Raso F. A.,Hilligoss H.,Krishnamurthy V.,Bavitz C. & Kim L.,2018)。在線平臺日益發(fā)現(xiàn),算法可以有效增進(jìn)用戶黏性,卻在內(nèi)容審核和審美品鑒方面無法全面掌握復(fù)雜而多元的人類行為變量。例如,機(jī)器目前對于模式不斷轉(zhuǎn)換且非常主觀化的仇恨言論,判定表現(xiàn)就不是太好。
關(guān)于人工智能時(shí)代的平臺責(zé)任的討論,往往也牽扯出智能技術(shù)本身的倫理主體地位問題。在廣為引用的《關(guān)于人工能動者的道德》一文中,牛津大學(xué)教授弗洛里迪和桑德斯依據(jù)行動者之互動關(guān)系標(biāo)準(zhǔn),確立交互性、自主性和適應(yīng)性三個(gè)標(biāo)準(zhǔn)以判定智能技術(shù)是否具備倫理責(zé)任主體地位。他們認(rèn)為,一個(gè)與其環(huán)境持續(xù)產(chǎn)生交互的系統(tǒng),如果在沒有響應(yīng)外部刺激的情況下也能行動,也有在不同的環(huán)境中行動的能力,這個(gè)系統(tǒng)就可以被視作行動者(Floridi L,Sanders J W,2004)。
倫理學(xué)界對技術(shù)人工物的道德主體地位存在較大爭議。在新聞倫理的探討范疇中,智能技術(shù)對信息傳播權(quán)重的計(jì)算的確在很大程度上影響了新聞信息交流活動。但是直到目前,智能技術(shù)尚未完全達(dá)到自主性和適應(yīng)性,將其判定為獨(dú)立的倫理行動者論據(jù)不足。
所以就目前的技術(shù)發(fā)展?fàn)顩r而言,更為重要的是確立互聯(lián)網(wǎng)信息平臺公司的新聞倫理地位。依據(jù)目前他們在人類信息傳播活動中的重要性,以及他們實(shí)際可以起到的信息推薦中介效應(yīng),互聯(lián)網(wǎng)信息平臺應(yīng)該被納入新聞倫理的范疇,并作為其間一個(gè)重要的機(jī)構(gòu)行動者予以關(guān)照。
平臺也開始意識到自身的倫理主體責(zé)任,主動開始在技術(shù)研發(fā)和產(chǎn)品開發(fā)的過程中嵌入倫理考慮。2016年9月,亞馬遜、谷歌、Facebook、IBM和微軟宣布成立一家非營利組織:人工智能合作組織(Partnership on AI),目標(biāo)是為人工智能的研究制定和提供范例,推進(jìn)公眾對人工智能的了解,并作為一個(gè)開放的平臺來吸引民眾及社會的參與和討論。目前各國的司法實(shí)踐,也在強(qiáng)迫他們認(rèn)識到自身不僅需要承擔(dān)技術(shù)倫理和商業(yè)倫理,也需要在新聞倫理的框架內(nèi)規(guī)制自身的行為。
人工智能時(shí)代的新聞倫理結(jié)構(gòu)
綜上所述,人工智能時(shí)代新聞倫理的道德行動者出現(xiàn)了變化,顯性地表現(xiàn)為增加了一個(gè)重要的機(jī)構(gòu)行動者,我們姑且將它們稱為互聯(lián)網(wǎng)信息平臺公司。與此同時(shí),傳統(tǒng)的道德行動者——政府、媒體、公眾,它們在倫理圖景中的位置和行為模式也產(chǎn)生了變化。政府在規(guī)制方面采取了更加前瞻式的模式以應(yīng)對變革性技術(shù)的社會構(gòu)建動能。公眾在人工智能時(shí)代的個(gè)性化信息服務(wù)背景下,其倫理素養(yǎng)和媒介素養(yǎng)變得更加事關(guān)全局。而傳統(tǒng)媒體機(jī)構(gòu)在算法推薦邏輯下,面臨權(quán)重下降的境遇,其傳統(tǒng)新聞生產(chǎn)流程和倫理價(jià)值面臨沖擊。
為了更清晰地展現(xiàn)各道德行動者之間的倫理互動結(jié)構(gòu),有必要進(jìn)一步區(qū)分不同行動者的區(qū)位。個(gè)人倫理層次、組織倫理層次、社會倫理層次的區(qū)分有助于進(jìn)一步明晰對此問題的論述。
第一,個(gè)人倫理層次,主要包括新聞專業(yè)主義和工程師倫理。傳統(tǒng)新聞倫理具有很強(qiáng)的個(gè)人倫理色彩,記者、編輯就自己生產(chǎn)的新聞內(nèi)容承擔(dān)風(fēng)險(xiǎn)、享受贊譽(yù)。在新聞專業(yè)主義理論體系下,個(gè)人層次的倫理認(rèn)知,不僅是職業(yè)認(rèn)知的重要組成部分,也是新聞機(jī)構(gòu)權(quán)威性的主要來源??陀^、公正、服務(wù)公共利益,是新聞工作者長期珍視的倫理傳統(tǒng)。
自動化新聞平臺將工程師也納入新聞傳播領(lǐng)域,他們所編寫的代碼直接影響新聞倫理。因此工程師團(tuán)體需要通過合理的結(jié)構(gòu)代碼完成其倫理責(zé)任。
責(zé)任是知識和力量的函數(shù)。在智能信息時(shí)代,科學(xué)家、工程師不僅人數(shù)眾多而且參與社會重大的決策和管理,他們的行為會對他人、對社會帶來比其他人更大的影響,因此他們應(yīng)負(fù)更多的倫理責(zé)任(曹南燕,2000)。
在過去25年中,工程倫理領(lǐng)域的主要成就之一就是工程師們越來越意識到自身的價(jià)值觀對設(shè)計(jì)進(jìn)程的影響,以及此過程中他們對他人價(jià)值觀的敏感度(Wallach & Allen,2008)。2000年,美國工程和技術(shù)認(rèn)證委員會(ABET)在其標(biāo)準(zhǔn)中明確指出,工程教育必須證明他們的學(xué)生“對職業(yè)和道德責(zé)任的理解”(Downey et al.,2007)。奧巴馬政府2016年10月將“理解并解決人工智能的道德、法律和社會影響”列入美國國家人工智能戰(zhàn)略,并建議AI從業(yè)者和學(xué)生都要接受倫理培訓(xùn)(曹建峰,2016)。
與此同時(shí),鑒于大量的媒體內(nèi)容來自用戶生成內(nèi)容,涉足其間的個(gè)體制作者及其倫理素養(yǎng)也在此列。目前在直播和短視頻平臺時(shí)常出現(xiàn)倫理失范行為,個(gè)體內(nèi)容生產(chǎn)者是直接的道德行動者,需要在與平臺倫理原則磨合的過程中形成行為規(guī)則共識。
對于亞里士多德來說,具備關(guān)于倫理規(guī)則的知識和自覺遵守倫理規(guī)則的能力是兩個(gè)不同的方面。只有當(dāng)人們在內(nèi)在本性和對善生活的追求基礎(chǔ)上,自覺地尊重倫理規(guī)則,才是符合倫理和美德的個(gè)體(麥金泰爾,1996)。在內(nèi)容龐雜的社交媒體和互聯(lián)網(wǎng)信息平臺中,美德論對于個(gè)體層次的倫理治理,也許具有更大的啟示意義。
第二,組織倫理層次,主要涉及新聞組織和互聯(lián)網(wǎng)信息平臺。傳統(tǒng)新聞媒體對其生產(chǎn)的內(nèi)容及其經(jīng)濟(jì)運(yùn)行負(fù)有倫理責(zé)任,與此同時(shí),媒體的言論對政治、經(jīng)濟(jì)和社會都有巨大影響。雖然在傳統(tǒng)生產(chǎn)流程中,記者作為顯性的新聞倫理踐行者,對自身的報(bào)道肩負(fù)倫理責(zé)任,但是媒體承擔(dān)著重要的把關(guān)功能,并在科層式的生產(chǎn)模式中內(nèi)化組織宗旨和目標(biāo)。在媒體組織內(nèi)部,知情權(quán)與隱私權(quán)、表達(dá)權(quán)和名譽(yù)權(quán)的權(quán)衡,公共服務(wù)和經(jīng)營目標(biāo)的平衡,形成多組競爭性倫理價(jià)值,需要在新聞媒體組織層面根據(jù)其倫理傳統(tǒng)針對具體問題予以價(jià)值排序。長期以來,客觀、公正和最小傷害成為十分重要的組織倫理出發(fā)點(diǎn)。
到了人工智能時(shí)代,互聯(lián)網(wǎng)信息平臺實(shí)際上部分起到了新聞媒體的功能。與傳統(tǒng)新聞媒體更多關(guān)注新聞的生產(chǎn)不同,目前的互聯(lián)網(wǎng)企業(yè)并不直接涉足新聞內(nèi)容制作,但是其推薦算法實(shí)際在對新聞價(jià)值的不同維度予以賦值,隨著越來越多的民眾將互聯(lián)網(wǎng)作為主要的新聞信息來源,互聯(lián)網(wǎng)信息平臺在新聞分發(fā)和互動環(huán)節(jié)產(chǎn)生了巨大的動能?;ヂ?lián)網(wǎng)信息平臺的倫理關(guān)注點(diǎn)主要在數(shù)據(jù)和代碼(算法)兩個(gè)體系,如何合理利用平臺積淀的用戶數(shù)據(jù),如何合理通過算法的中介,提高社會總體福利水平,是此類組織的倫理責(zé)任。
目前技術(shù)本身的倫理地位也存在爭議,在用戶偏好挖掘的機(jī)器學(xué)習(xí)機(jī)制中,平臺公司會部分采取無監(jiān)督學(xué)習(xí)模式,這使得學(xué)習(xí)結(jié)果存在客觀上的算法黑箱。這也是智能系統(tǒng)設(shè)計(jì)的悖論:一方面系統(tǒng)需要更大的自由度以體現(xiàn)其智能效能,但具備自主學(xué)習(xí)能力的系統(tǒng)在技術(shù)上和倫理上都存在風(fēng)險(xiǎn);另一方面,若將倫理規(guī)則嵌入智能系統(tǒng),那么設(shè)計(jì)出來的系統(tǒng)就缺乏充分的靈活性,也就不夠“智能”。但是從目前的倫理問責(zé)和司法實(shí)踐看,互聯(lián)網(wǎng)信息平臺作為算法的直接開發(fā)者和版權(quán)所有者,有義務(wù)將智能系統(tǒng)設(shè)計(jì)為道德智能體,將社會長期珍視的倫理價(jià)值內(nèi)嵌至平臺系統(tǒng)。據(jù)此,大眾傳播責(zé)任的兩種形態(tài)行動——自律制度、專業(yè)精神,同樣適用于互聯(lián)網(wǎng)信息平臺公司。
第三,社會倫理層次,包括政治和公眾兩個(gè)維度。在政治維度,如何處理互聯(lián)網(wǎng)信息平臺、新聞媒體和社會其他部門的關(guān)系,如何管理技術(shù)的發(fā)展方向、媒體信息的作用范圍,是政治層面關(guān)注的焦點(diǎn),也因此與新聞系統(tǒng)產(chǎn)生權(quán)力博弈和倫理話語沖突。
電氣和電子工程師協(xié)會(IEEE)2017年發(fā)布《人工智能設(shè)計(jì)的倫理準(zhǔn)則》白皮書(Ethically Aligned Design),這份報(bào)告不僅對工程師群體的倫理設(shè)計(jì)提出要求,并且在宏觀上希望政府、司法機(jī)構(gòu)審慎使用數(shù)據(jù),必要的時(shí)候嚴(yán)格測試和評估內(nèi)嵌于系統(tǒng)的倫理原則和運(yùn)算邏輯。而且政府和產(chǎn)業(yè)利益相關(guān)者需要明確,哪些核心決策權(quán)不能交由智能系統(tǒng)。
因此在更加宏觀的社會倫理治理層次,政府作為主要的道德行動者,需要從社會整體福利水平和國家信息安全的高度理解人工智能系統(tǒng)的信息中介效應(yīng),對其引導(dǎo)輿論、影響個(gè)體的能力保持倫理警覺,并逐漸清晰政府的管控底線。
在公眾維度,以往新聞很大程度上依賴于記者的信譽(yù),如今在網(wǎng)絡(luò)信息發(fā)布過程中,受眾不再被動,任何人都有權(quán)利批評報(bào)道、增加事實(shí)和發(fā)表評論。就此,新聞發(fā)表從個(gè)人化的行為(組織化的行為)轉(zhuǎn)變?yōu)楣驳男袨椋╓ard, 2011)。在智能時(shí)代,公眾的倫理素養(yǎng)至少包含明確是誰作出或者支持智能系統(tǒng)的倫理決策,并且理解自動技術(shù)系統(tǒng)的社會影響的能力。公眾需要更加清晰智能系統(tǒng)的運(yùn)作模式和社會影響機(jī)制,運(yùn)用理性力量加強(qiáng)自身的信息自律能力,而不要成為機(jī)械刺激性快樂的被捕獲者,從而喪失了對康樂生活的追求和反思能力。
媒體的智能化,大大延伸了媒體的外延,將新聞傳播推向“萬物皆媒”的時(shí)代。新聞倫理學(xué)的研究范疇也隨之由新聞工作者、新聞機(jī)構(gòu)、新聞受眾延向了傳播技術(shù)和社交平臺。由于人工智能技術(shù)的出現(xiàn),更多的行動者開始參與或影響新聞的生產(chǎn)與發(fā)布,新聞工作者不再是唯一的道德行動者,泛信息系統(tǒng),特別是互聯(lián)網(wǎng)信息平臺的影響力正在逐漸上升。
自治、公平、正義、責(zé)任、服務(wù)公共利益等原則是長期以來新聞倫理的基本組成部分。智媒時(shí)代,除了進(jìn)一步堅(jiān)持傳統(tǒng)媒體倫理價(jià)值體系之外,還需要融合基于技術(shù)和平臺的倫理要求。機(jī)器人倫理提出的人的尊嚴(yán)和人權(quán)、責(zé)任、透明度、避免濫用和共生繁榮等原則,也是人工智能時(shí)代新聞倫理的智識來源。而互聯(lián)網(wǎng)平臺公司,如谷歌提倡的“七條準(zhǔn)則”:有益于社會、避免創(chuàng)造或增強(qiáng)偏見、對人們有說明義務(wù)、根據(jù)原則確定合適的應(yīng)用等,也同樣適合新媒體背景下的新聞倫理。
(本文系“數(shù)字化變革中媒體從業(yè)者倫理勝任力建模及提升策略”課題的階段性成果,課題編號:2018FZA121;同時(shí)受中央高?;究蒲袠I(yè)務(wù)費(fèi)專項(xiàng)資金資助)
參考文獻(xiàn)
Bakshy E, Messing S, Adamic L A., 2015, "Exposure to ideologically diverse news and opinion on Facebook", Science, vol. 348, pp. 1130-1132.
Bentham J., 1996, The collected works of Jeremy Bentham: An introduction to the principles of morals and legislation, Clarendon Press.
Bill Kovach, Tom Rosenstiel, 2007, The Elements of Journalism, New York: Three Rivers Press.
Downey, Gary Lee, Juan C. Lucena and Carl Mitcham., 2007, "Engineering Ethics and Identity: EmergingInitiatives in Comparative Perspective", Science & Engineering Ethics, No. 4, pp. 463-487.
Dörr, K. N. & Hollnbuchner K., 2017, "Ethical challenges of algorithmic journalism", Digital Journalism, 5(4), pp. 404-419.
Filippo A. Raso,Hannah Hilligoss, Vivek Krishnamurthy, Christopher Bavitz , Levin Kim , 2018, Artificial Intelligence & Human Rights: Opportunities & Risks, Berkman Klein Center Research Publication.
Glasser T. L., 1989, "Three Views on Accountability", Media Freedom and Accountability, edited by E. E. Dennis, D. M. Gillmor, and T. L. Glasser, New York: Praeger, pp. 179-193.
Jeffrey Rosen, 2013, "The Deciders: Facebook, Google, and the Future of Privacy and Free Speech", Constitution 3.0: Freedom and Technological Change. ed. Jeffrey Rosen and Benjamin Wittes, Brookings Institution Press; Jonathan Zittrain, 2008, The future of the internet--and how to stop it, Yale University Press.
Jose Van Dijck, 2013, The Culture of Connectivity: A Critical History of Social Media, Oxford University Press.
Kant I, Schneewind J. B., 2002, Groundwork for the Metaphysics of Morals, Yale University Press.
Kovach B. & Rosenstiel T., 2007, The elements of journalism (Rev. ed.), New York: Three Rivers Press.
Luciano Floridi, J.W. Sanders, 2004, "On the morality of artificial agents", Minds and Machines , vol.14, pp. 349-379.
Merrill, J. C. , 2011, "Theoretical Foundations for Media Ethics", in A.D. Gordon, J.M. Kittross, J.C. Merrill, W. Babcock, and M. Dorsher (eds), Controversies in Media Ethics, pp.3-32.
Mill, J. S., 1962, Utilitarianism, on liberty, essay on Bentham, ed. Mary Warnock, London: Fontana.
Parry R., 2011, The Ascent of Media: From Gilgamesh to Google via Gutenburg, London: Nicholas Brealey.
Pavlik J., 2000, "The impact of technology on journalism, Journalism Studies", No.2, pp. 229-237.
Paul Taylor, 1986, Respect of Nature: A Theory of Environmental Ethics, Princeton University Press.
Sandvig C, Hamilton K, Karahalios K, et al., 2016, "Automation, algorithms, and politics| when the algorithm itself is a racist: Diagnosing ethical harm in the basic components of software", International Journal of Communication, No.10, pp. 4972–4990.
Selgado, Susana and Jesper Strömbäck, 2012,"Interpretive Journalism: A Review of Concepts, Operationalizations and Key Findings", Journalism Theory Practice & Criticism, No.13 (2), pp. 144–161.
Taylor Paul, W., 1986, Respect for Nature: A Theory of Environmental Ethics.
Ward, Stephen J. A., 2011, Ethics and the media: An introduction, Cambridge University Press.
Wallach W. and Allen, C., 2008, Moral Machines: Teaching Robots Right from Wrong, Oxford University Press.
Wilbur Schramm, 1957, Responsibility in Mass Communication, New York:Harper & Brothers.
Yilun Wang and Michal Kosinski, 2018, "Deep neural networks are more accurate than humans at detecting sexual orientation from facial images", Journal of Personality and Social Psychology, No.2, pp. 246-257.
曹建峰,2016,《人工智能:機(jī)器歧視及應(yīng)對之策》,《信息安全與通信保密》,第12期,第15~19頁。
曹南燕,2000,《科學(xué)家和工程師的倫理責(zé)任》,《哲學(xué)研究》,第1期,第45~51頁。
方師師,2016,《算法機(jī)制背后的新聞價(jià)值觀——圍繞“Facebook 偏見門”事件的研究》,《新聞記者》,第9期,第39~50頁。
韓鴻、彭璟論,2017,《智媒時(shí)代社交媒體的社會責(zé)任——對2016美國大選中Facebook假新聞事件的反思》,《新聞界》,第5期,第89~93頁。
[美]卡爾·米切姆、朱勤、安延明,2007,《關(guān)于技術(shù)與倫理關(guān)系的多元透視》,《哲學(xué)研究》,第11期,第79~82頁。
劉則淵、王國豫,2007,《技術(shù)倫理與工程師的職業(yè)倫理》,《哲學(xué)研究》,第11期,第75~78頁。
[英]盧恰克·弗洛里迪,2018,《信息倫理學(xué)》,薛平譯,上海譯文出版社。
[美]阿拉斯戴爾·麥金泰爾,1996,《誰之正義?何種合理性?》,萬俊人、吳海針、王今一譯,北京:當(dāng)代中國出版社。
[美]邁克爾·舒德森、周巖,2017年,《新聞的真實(shí)面孔—— 如何在“后真相”時(shí)代尋找“真新聞”》,《新聞記者》,第5期,第75~77頁。
潘忠黨、陸曄,2017,《走向公共:新聞專業(yè)主義再出發(fā)》,《國際新聞界》,第10期,第91~124頁。
彭蘭,2017,《更好的新聞業(yè),還是更壞的新聞業(yè)?——人工智能時(shí)代傳媒業(yè)的新挑戰(zhàn)》,《中國出版》,第24期,第3~8頁。
史安斌、王沛楠,2017,《作為社會抗?fàn)幍募傩侣?mdash;—美國大選假新聞現(xiàn)象的闡釋路徑與生成機(jī)制》,《新聞記者》,第6期,第4~12頁。
[美]溫德爾·瓦拉赫、科林·艾倫,2017,《道德機(jī)器:如何讓機(jī)器人明辨是非》,北京大學(xué)出版社。
支庭榮、羅敏,2018,《“后真相”時(shí)代:話語的生成、傳播與反思——基于西方政治傳播的視角》,《新聞界》,第1期,第54~59頁。
責(zé) 編/馬冰瑩
Journalistic Ethics in the Age of Artificial Intelligence: Action and Governance
Zhao Yu
Abstract: In the context of artificial intelligence, the production tools and production methods of news communication have undergone tremendous changes. The journalistic ethical tradition of respecting objectiveness, fairness and minimal harm is facing challenges. The research scope extends from journalists, news organizations and news audiences to smart technologies and social platforms, their position and behavioral pattern in the landscape of news ethics have also changed. On the basis of the algorithmic ethics and big data ethics as well as the specific changes of the news communication mode in the intelligent age, this paper clarifies the action areas of specific moral actors from the individual ethical level, organizational ethics level and social ethics level respectively, which can demonstrate the ethical interaction structure between the various moral actors more clearly, and comprehensively present the relationship between the ethical structure of journalism and the different responsible subjects in the era of artificial intelligence.
Keywords: artificial intelligence, news ethics, moral actor, ethical governance
趙瑜,浙江大學(xué)傳媒與國際文化學(xué)院教授、博導(dǎo)。研究方向?yàn)閭鞑フ摺⑿旅襟w傳播和倫理治理。主要著作有《從數(shù)字電視到互聯(lián)網(wǎng)電視——媒介政策范式及其轉(zhuǎn)型》《中國藍(lán)——省級衛(wèi)視創(chuàng)新發(fā)展的浙江實(shí)踐》等。