j8又粗又硬又大又爽又长国产,色久网站,国产免费自拍视频,无码国产一区流畅有码av,Comwww在线播放,美女网站黄页免费,国产免费观看a∧wwwww.

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 理論前沿 > 深度原創(chuàng) > 正文

算法治理:網(wǎng)絡空間治理的新挑戰(zhàn)

【摘要】加強網(wǎng)絡空間治理是維護國家與社會安全,發(fā)展新媒體產(chǎn)業(yè)與數(shù)字經(jīng)濟,促進新聞輿論工作良性運轉的重要保障。隨著媒介智能化發(fā)展的加速,算法治理已成為網(wǎng)絡空間治理的新挑戰(zhàn),算法環(huán)境導致了虛假信息快速繁殖、價值偏見隱蔽滲透、引導與迎合的矛盾尖銳、個人隱私與過度監(jiān)控、輿論斗爭與計算宣傳等問題。未來,應以算法治理為中心加強網(wǎng)絡空間治理,發(fā)揮算法在網(wǎng)絡與社會治理中的積極作用,明確算法行為的責任主體,提升公眾媒介素養(yǎng),構建多元主體共同參與的綜合治理體系。

【關鍵詞】算法 網(wǎng)絡空間 智能傳播 媒介素養(yǎng) 【中圖分類號】G206 【文獻標識碼】A

習近平總書記指出:“從全球范圍看,媒體智能化進入快速發(fā)展階段。我們要增強緊迫感和使命感,推動關鍵核心技術自主創(chuàng)新不斷實現(xiàn)突破,探索將人工智能運用在新聞采集、生產(chǎn)、分發(fā)、接收、反饋中,用主流價值導向駕馭‘算法’,全面提高輿論引導能力。”當前,算法的發(fā)展推動著媒介形態(tài)與傳播模式的變化,不僅深刻改變了形成于傳統(tǒng)媒體及大眾傳播時代的新聞傳播規(guī)律,其塑造的智能傳播環(huán)境亦有別于新媒體傳播早期的網(wǎng)絡空間。在信息生產(chǎn)端,基于算法的文本生成、圖像處理、語音合成愈發(fā)普及,重組了信息生產(chǎn)的主體結構與職業(yè)陣容;在信息傳播過程中,智能算法推薦取代了傳統(tǒng)的“把關人”,內容生產(chǎn)由引導受眾轉向迎合受眾,信息繭房的高墻越筑越高,社交機器人成為網(wǎng)絡輿論的助推手。在信息接收端,用戶在算法邏輯下被制造成“數(shù)字畫像”,個體的豐富性被可量化的群體標簽取代,個人信息泄露風險陡增。如同人類歷史上諸多科學技術產(chǎn)物一樣,算法是一把“雙刃劍”,一方面其提升了信息生產(chǎn)及分發(fā)的效率,解決了海量信息與網(wǎng)絡用戶間的適配問題,豐富了媒介產(chǎn)品形態(tài),滿足了用戶的個性化需求,甚至在一定情境與程度下克服了人性的固有缺陷,有助于傳播的公平正義。但另一方面其也引發(fā)了諸多風險與問題,危及著現(xiàn)代人類社會的政治外交、新聞輿論、思想文化、公共交往、倫理道德,對網(wǎng)絡與社會治理發(fā)起了全新的挑戰(zhàn)。在中國式現(xiàn)代化視域下,營造健康清朗的網(wǎng)絡環(huán)境,推進國家治理體系和治理能力現(xiàn)代化,必須深刻認識與把握算法及其相關技術應用對新媒體以及社會的影響,構建以算法治理為核心的網(wǎng)絡空間治理體系。

算法對網(wǎng)絡傳播生態(tài)的影響

算法環(huán)境構筑了智能監(jiān)控社會。社會監(jiān)控并非網(wǎng)絡與算法傳播時代的全新事物,但基于算法的智能監(jiān)控在程度上遠甚人類歷史中的任何時段,監(jiān)控的程度被充分發(fā)揮,甚至使社會公眾的一言一行、一舉一動都呈現(xiàn)“透明化”。具體來說,算法傳播得以運作離不開作為基礎養(yǎng)料的大數(shù)據(jù),這些數(shù)據(jù)源于網(wǎng)絡用戶的個人信息,包括相對固定的個人身份信息以及源源不斷生產(chǎn)的網(wǎng)絡行為信息,瀏覽、收藏、點贊、評論等一切使用互聯(lián)網(wǎng)所留下的痕跡,都正在被各類應用程序收集與處理,形成用戶畫像以供內容推薦與廣告分發(fā)。此外,算法因其代碼書寫的專業(yè)壁壘與商業(yè)競爭等因素,一直存在透明性問題,常被喻為“黑箱”,或不可解釋的隱憂①。社會公眾往往只能被動得到算法處理的結果,并不知悉算法的具體邏輯與機制。其實,在眾多變量與算法疊加的復雜系統(tǒng)內,即便是算法工程師也難以從整體上理解系統(tǒng)的價值與偏向。許多學者認為,算法不僅僅是計算機代碼與程序,在政治與社會學的意義上算法即權力。但是,以算法為中心架構起的智能監(jiān)控社會并非是一種平等的結構,算法在通過技術權力制約傳統(tǒng)社會權力時,其背后也隱藏著資本的權力②,技術及其所有者可以憑借算法成功隱蔽于公眾視野之外,而一般公眾則在交出了全部個人隱私之后,成為被技術、商業(yè)、資本所控制的對象。

算法新聞導致傳統(tǒng)“把關人”的主體與流程失效,機器由媒介逐漸成為傳播者。在大眾傳播時代,新聞生產(chǎn)及分發(fā)尤為注重“把關人”的作用,無論是編輯、記者的個體把關,還是新聞編輯部的組織把關,把關責任主要掌握在職業(yè)傳播者及其機構手中,把關流程因流水線一般的新聞生產(chǎn)常規(guī)也具有相對穩(wěn)定性。隨著互聯(lián)網(wǎng)的發(fā)展,對新聞傳播的把關更強調多元主體參與的作用,但這時技術之于把關活動更多還只是工具,并不具有自主性。而在算法環(huán)境下,機器與人的關系開始發(fā)生變化,傳統(tǒng)“把關人”的主體及流程開始失效,雖然人工生產(chǎn)與審核信息的工作仍舊存在,但其已不具有壟斷性與支配性,甚至逐漸走向輔助性工作。面對社會信息系統(tǒng)中人機關系的變化,一種人機共生的網(wǎng)絡傳播生態(tài)正在形成,并隨著人工智能技術的發(fā)展而日益深化。在智能媒介平臺的新聞生產(chǎn)中,傳統(tǒng)的“人主體”正在消融,人與智能技術共同構成了新聞生產(chǎn)的全新媒介網(wǎng)絡③。技術與人之間也形成了雙向的“馴化”過程,算法在發(fā)掘用戶特征與喜好、滿足用戶個性化需求的同時,內容生產(chǎn)者也在不斷尋找與適應算法的邏輯思維,以此被算法“青睞”而獲得更多的流量。甚至在部分場合及更遠的未來中,機器或許比我們認為的更具創(chuàng)造性,而人類可能比我們想象的更具機械性,機器人和人類共同成為一個二元體系使得他們成為彼此的衡量尺度④??傊?,過去的新聞傳播工作更多是將技術視為連接或承載內容的媒介,關注的重心是傳播中的信息文本,而如今技術既是媒介也是傳播者,算法使技術的地位提高到了前所未有的程度,“人機共生”成為算法環(huán)境下網(wǎng)絡傳播生態(tài)的基本特征。

算法以大數(shù)據(jù)思維及用戶需求為中心,使網(wǎng)絡社會成員被標簽化、圈層化與繭房化。新聞是一種現(xiàn)實的社會建構,其很難達到對客觀實在的完美復刻,只能通過塑造擬態(tài)環(huán)境以幫助人們把握現(xiàn)實世界。盡管專業(yè)新聞生產(chǎn)一直致力于描繪出更加契合真實世界的擬態(tài)環(huán)境,然而這一愿景卻屢遭挫折,尤其在算法時代面臨著更大挑戰(zhàn)。以個性化算法推薦應用為例,其基本的技術邏輯是對信息與用戶數(shù)據(jù)進行標簽化,進而通過數(shù)學模型尋找變量間的相關性,以實現(xiàn)所謂的精準分發(fā)。標簽是一種對復雜事物的簡化歸類方法,必然會制造出類屬與圈層。由此,個性化推薦的信息分發(fā)機制導致了擬態(tài)環(huán)境的分化,不同圈層的人眼中的世界差異將越來越大,并且在信息繭房的作用下,對擬態(tài)環(huán)境的“執(zhí)念”可能愈發(fā)堅定,致使不同圈層之間的對話可能進一步減少,網(wǎng)絡空間中的共識愈發(fā)難以達成,輿論爭辯的聲音更多是基于“三觀”的不同而形成的不可調和性沖突,而非理性的觀點討論或意見磋商。信息繭房及其相關概念(過濾氣泡、選擇性接觸、回音室效應等)雖然并非是算法傳播時代的獨有現(xiàn)象,但無疑算法的傳播加劇了這些效應。盡管不同平臺的算法模型存在細節(jié)差異,但基本且通用的規(guī)律都是迎合用戶的喜好。也就是說,用戶能夠看到的內容大多由其過去的網(wǎng)絡行為決定,但“以過去決定現(xiàn)在,以現(xiàn)在決定未來”的標準忽略了人類思維與行動的復雜多變性。在這一過程中,信息繭房的高墻越筑越高,用戶能夠接收到的信息逐漸窄化,與之相應的擬態(tài)環(huán)境也就更為分化且偏頗,并在網(wǎng)絡空間與現(xiàn)實空間的融合進程中,擬態(tài)環(huán)境的“環(huán)境化”會進一步加劇,影響人們的現(xiàn)實生存⑤。

算法環(huán)境下網(wǎng)絡空間治理的新挑戰(zhàn)

其一,網(wǎng)絡謠言與虛假信息的快速繁殖。基于算法的自動化內容生產(chǎn)在近十余年間不斷成熟,但受限于自然語言處理模型的局限性與使用者不同的動機及目的,算法的內容生成一直因虛假信息與謠言的滋生而被詬病。并且,相比傳統(tǒng)媒體時代與互聯(lián)網(wǎng)發(fā)展的早期,算法環(huán)境讓虛假新聞得以更加隱蔽且快速地被制造與傳播。在傳播過程中,算法助推網(wǎng)絡謠言與“后真相”時代群體心理的結合,在實踐中具體表現(xiàn)為個性化算法推薦與人工智能內容生產(chǎn)兩類應用。一方面,算法推薦技術加劇了虛假信息的擴散速率,甚至形成病毒式傳播,以事后核查為主的網(wǎng)絡內容治理工作往往要受到傳播速度的制約,這也加大了對謠言與虛假信息治理的難度。另一方面,虛假信息的生產(chǎn)與傳播主體在人機共存的智能媒介網(wǎng)絡中變得更為復雜且隱蔽,社交機器人通過充當擬人化的傳播主體,可以用于對網(wǎng)絡輿論的蓄意影響;基于生成式人工智能技術(AIGC)的相關應用也可被用于虛假信息的生產(chǎn)與傳播??梢哉f,無論是深度偽造技術下的合成圖像或語音,還是ChatGPT等語言模型生成的文本,虛假信息的可辨識性會隨著技術升級而越來越模糊,相關審查及執(zhí)法工作的難度逐漸加大。

其二,更加隱蔽的偏見與價值觀滲透。偏見與價值觀多被視為人性的特質,算法在本體層面上雖不具有和人類一樣的心智,但在行為結果層面卻可以將人類的價值觀與偏見進行反映或呈現(xiàn),這種效果還可能在宏觀上產(chǎn)生更大的影響力。計算機學習需要基于對海量數(shù)據(jù)的收集與處理,但現(xiàn)有的大數(shù)據(jù)集仍然無法達到理想中的“全數(shù)據(jù)集”⑥,這其中既有技術等客觀條件的制約,也存在人為的主觀因素,致使算法傳播始終無法實現(xiàn)客觀與全面,偏見或特定價值觀往往會伴隨算法的信息識別、分析、生產(chǎn)及分發(fā)。例如,谷歌曾出現(xiàn)過將黑色人種圖片識別為大猩猩的丑聞,由此產(chǎn)生尖銳的種族歧視問題,直接原因就在于其支持算法運作的數(shù)據(jù)庫中的黑色人種相關數(shù)據(jù)較少。如果算法依托的數(shù)據(jù)庫不能達到理想中的全數(shù)據(jù),關于不同對象群體的數(shù)據(jù)資源則會存在差異,甚至是“數(shù)據(jù)孤島”,導致算法在處理不同信息時的準確度與結果并不相同。從人性的角度出發(fā)演繹,機器或許可以在部分情境或事項中做得比人更加客觀、公平,但從更大范圍與更為本質的層面看,經(jīng)由人類創(chuàng)造與使用的機器仍舊不能擺脫人的價值觀與偏見,并且還可能基于算法所處理數(shù)據(jù)規(guī)模的增大,將固有偏見與價值觀的影響進一步擴大化。

其三,引導受眾與迎合用戶的矛盾尖銳化。新聞媒體具有引導、教育受眾的功能和使命,盡管這種功能的表現(xiàn)形態(tài)存在不同語境下的差異,但始終對于政治與社會而言具有極為重要的意義。然而,算法推薦的機制卻對新聞媒體的引導功能構成了挑戰(zhàn)?;趥€性化推薦的基本邏輯,只有用戶喜歡看的東西才能夠被看到,偏離用戶興趣的媒體主動議程設置愈發(fā)困難。而引導受眾的前提是信息的可到達,如若信息不能到達用戶,一切議程設置都難以成立,由此新聞生產(chǎn)就必須順應算法的邏輯。當前,算法環(huán)境下多元主體參與的新聞傳播活動在“引導—迎合”的辯證關系中明顯以后者為矛盾的主要方面,其中不乏有一些主流的、官方的媒體也對這一對矛盾關系存在錯誤理解。引導和迎合作為新聞媒體工作的不同層面,本身具備內部的統(tǒng)一性,即完全脫離迎合的引導或完全脫離引導的迎合都是難以存在的。在實踐中,新聞工作多以迎合受眾為手段,以引導受眾為目的,但算法環(huán)境正在使這種“手段—目的”的關系發(fā)生異化,迎合受眾成為了目的,而媒體的部分功能與規(guī)范正在被淡化。

其四,網(wǎng)絡用戶的隱私保障與過度監(jiān)控。現(xiàn)代法律中的隱私權一般被視為人格權,任何個人都享有私人生活安寧不受他人非法侵擾,私人秘密不受他人非法收集、刺探和公開的權利,只有認可對個人私生活秘密和私生活安寧的法律保護,人才能自由和有尊嚴地生存和生活⑦。然而,在大數(shù)據(jù)與算法環(huán)境下,個人信息隱私的被動讓渡與主動收集愈發(fā)嚴重。隨著《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》《中華人民共和國民法典》等相關法律法規(guī)的出臺,我國網(wǎng)絡用戶的個人信息保護已有法可依,但在實際中仍然存在一些問題,如超級平臺的市場壟斷效應、信息收集往往超出“最小原則”與“必要原則”、鼓勵社交與分享的新媒體商業(yè)文化等。此外,威脅個人隱私的網(wǎng)絡空間將加重“監(jiān)控”的程度,而過度、持久、全面的“監(jiān)控”容易致使公眾陷入對技術的躲避與抗拒,面對數(shù)字化記憶不可控的預期損耗和風險形成公共表達的“寒蟬效應”⑧。

其五,國際關系中的輿論斗爭與計算宣傳。算法將影響到國際傳播、公共外交與全球互聯(lián)網(wǎng)輿論斗爭。比如,社交機器人、深度偽造等技術被廣泛用于烏克蘭危機中,生產(chǎn)與轉發(fā)了大量虛假信息,在網(wǎng)絡輿論的演化中被蓄意充當助推手并產(chǎn)生了一定影響。此前已有實證研究發(fā)現(xiàn),在社交媒體推特(Twitter)上,有超過五分之一與中國相關的推文疑似由機器人發(fā)布⑨。傳播者試圖運用智能算法操縱輿論、開展對外宣傳或反宣傳,這種通過大數(shù)據(jù)與算法手段的新宣傳方式也被稱為計算宣傳,計算宣傳所生產(chǎn)的虛假信息相比傳統(tǒng)網(wǎng)絡虛假信息而言更具誤導性、操縱性、攻擊性、政治性、虛假性。當下,算法已成為影響國際傳播效果的重要變量之一,必須重視對算法的防范及利用。

算法治理的進路與展望

2022年1月12日,國務院印發(fā)《“十四五”數(shù)字經(jīng)濟發(fā)展規(guī)劃》明確指出,“推進云網(wǎng)協(xié)同和算網(wǎng)融合發(fā)展。加快構建算力、算法、數(shù)據(jù)、應用資源協(xié)同的全國一體化大數(shù)據(jù)中心體系”。算法是數(shù)字社會、數(shù)字經(jīng)濟的重要基礎,不僅涉及到市場治理,還涉及到社會治理與國家總體安全。為此,應加大算法技術本身的研究以及技術攻關突破的力度,集聚產(chǎn)業(yè)、用戶、平臺、算法研究方共同協(xié)作,構建一個良性的可持續(xù)發(fā)展的生態(tài)。

發(fā)揮算法在網(wǎng)絡與社會治理中的積極作用,促進“算法向善”。盡管算法的應用總是存在一定的局限性,并給新聞傳播實踐帶來了許多風險,但若因此產(chǎn)生對一切算法傳播的排斥或抵抗,無異于“因噎廢食”。從宏觀上看,大數(shù)據(jù)、人工智能等新興科技是推動新媒體產(chǎn)業(yè)與數(shù)字經(jīng)濟發(fā)展必不可少的技術支持,其未來富有相當廣闊的前景,智能傳播作為新媒體發(fā)展的新階段已是可以預見的趨勢。因此,如何在有效控制的基礎上利用好算法的優(yōu)勢,真正做到“算法向善”,是智能傳播時代下需要持續(xù)思考的問題與提升的能力。例如,算法可以作為國家行政部門開展網(wǎng)絡安全治理的技術手段,更為智能化的算法模型可以提升網(wǎng)絡輿情治理水平。基于新媒體輿情發(fā)展的生命周期理論,輿情處理的基本原則是“處置越早,成本越低,效果越好”⑩,把握輿論發(fā)展態(tài)勢需要依托網(wǎng)絡輿情監(jiān)測系統(tǒng)。大數(shù)據(jù)與算法的應用可以有效提升輿情監(jiān)測系統(tǒng)的智能程度,從而更好地在輿情發(fā)展的早期階段予以處置。在個性化算法推送的場景下,除了一味追求流量與廣告的商業(yè)媒體外,官方媒體與主流媒體也可以采用不同的算法推送模型,在尊重個性化定制的基礎上,降低或過濾低俗、娛樂化的信息,增加符合社會主義核心價值觀的內容比重,促進黨和國家的新聞宣傳、思想教育工作的精準傳播。在我國參與的國際傳播場景下,還可以利用算法技術實現(xiàn)內容的智能化生產(chǎn),助力國際傳播渠道的即時化、場景化、精準化分發(fā),滿足國際傳播受眾的個性化推送和多元化需求???偠灾?,技術本體并無善惡之分,算法應用的結果能否向善還要取決于“人主體”的動機與目的,需以算法規(guī)制算法,收編技術衍生的權力,使之為公共利益服務。

明確算法行為的責任主體,完善預防機制與追責制度。針對過渡收集及濫用個人信息,以及利用算法從事自然語言生成與傳播、音視頻深度合成(偽造),對知識產(chǎn)權、肖像權、隱私權等法定權利造成侵害的問題,必須明確算法行為的責任主體,進而在事前預防與事后追責兩個方面加大治理力度。隨著算法相關應用在近年來的快速發(fā)展與普及,現(xiàn)階段圍繞算法傳播相關的責任歸屬仍存模糊與爭議。例如,由AI生成的內容是否享有著作權,其權利與義務的主體又是誰,是算法模型的研發(fā)企業(yè),還是引入技術的第三方應用平臺,抑或是作為最終使用者的用戶,參與智能傳播的不同主體之間的權利與義務的權重如何規(guī)范,這些問題尚未得到清晰的界定。從法律與倫理的層面看,盡管各種智能傳播現(xiàn)象不斷凸顯機器在新聞生產(chǎn)與信息流動網(wǎng)絡中的地位,“人主體”“機器主體”以及“人—機主體”的說法均有之,但算法及其實體化的智能體終究不具有自然人的屬性,無法獨立承擔責任和義務,如若不能將新聞活動的終極責任落實于具體的人或組織,所謂的“機器主體”與“人—機主體”很可能在實踐中成為規(guī)避義務的擋箭牌。由此可知,面對直接或間接使用算法技術參與新聞活動的多元主體,需要進一步區(qū)分不同主體、場景、目的下的責任歸屬及權重,法律的制定及修訂需要更為迅速地對新傳播現(xiàn)象作出響應,最大限度減少歸責盲區(qū)。同時,除了對相關責任的劃定及追究外,還需加強預防機制建設,例如優(yōu)化改善算法模型以增強社會效益,提升算法透明度并納入行政控制,確定個性化推送、深度合成、機器寫作等算法應用的場合及限度等。

構建多元主體共同參與的綜合治理體系,提升公眾的智能媒介素養(yǎng)。從長遠來看,以算法治理為中心的網(wǎng)絡空間治理必須依托多元主體的力量,包括但不局限于政府、新聞媒體、互聯(lián)網(wǎng)平臺、技術公司、自媒體、普通用戶等,未來尤其要重視對公眾參與治理積極性、廣泛性的調動。但受限于多種結構性因素,目前我國公眾的人文科學素養(yǎng)與科技反思意識仍有較大提升空間,公眾的媒介素養(yǎng)水平參差不齊,整體上尚不足以同日益發(fā)展的智能傳播環(huán)境相適配,尤其是使用算法技術的智能媒介素養(yǎng)亟待提升。媒介素養(yǎng)主要指人們使用媒介的綜合能力,包括理解媒介信息、促進個人與社會發(fā)展、作出反思與批判等不同維度,一個良好的公眾參與治理的網(wǎng)絡環(huán)境必須建立在較高的媒介素養(yǎng)基礎上,但也正因為提升社會公眾的媒介素養(yǎng)并非是立竿見影的事情,故此也往往在實踐中被忽略或輕視。當前,由于算法技術及其傳播過程的隱蔽性、便利性與不透明性,公眾對于自身參與算法傳播的感知、態(tài)度及反思程度尚且薄弱,例如當網(wǎng)絡用戶并不了解算法的運行機制時,可能沉迷于算法推送的個性化信息服務,進而陷入算法的負面效應?。未來,應當進一步提升用戶對算法推送的感知,如對個人隱私的關注,對接收信息的識別與反思,對制作及發(fā)布內容時知識產(chǎn)權的關注,對網(wǎng)絡安全相關法律法規(guī)的普及等。

(作者為中國人民大學新聞學院教授、博導;中國人民大學新聞學院博士研究生姜澤瑋對本文亦有重要貢獻)

【注釋】

①賈開:《人工智能與算法治理研究》,《中國行政管理》,2019年第1期。

②陳鵬:《算法的權力:應用與規(guī)制》,《浙江社會科學》,2019年第4期。

③吳璟薇、郝潔:《智能新聞生產(chǎn):媒介網(wǎng)絡、雙重的人及關系主體的重建》,《國際新聞界》,2021年第2期。

④[美]N.凱瑟琳·海勒著、黃斐譯:《計算人類》,《全球傳媒學刊》,2019年第1期。

⑤彭蘭:《新媒體時代擬態(tài)環(huán)境建構的變化及其影響》,《中國編輯》,2022年第12期。

⑥匡文波、黃琦翔:《大數(shù)據(jù)熱的冷思考》,《國際新聞界》,2016年第8期。

⑦張新寶:《從隱私到個人信息:利益再衡量的理論與制度安排》,《中國法學》,2015年第3期。

⑧匡文波:《對個性化算法推薦技術的倫理反思》,《上海師范大學學報(哲學社會科學版)》,2021年第5期。

⑨師文、陳昌鳳:《分布與互動模式:社交機器人操縱Twitter上的中國議題研究》,《國際新聞界》,2020年第5期。

⑩匡文波:《新媒體輿論》,北京:中國人民大學出版社,2022年,第281頁。

?匡文波、秦瀚杰:《算法:我國國際傳播的助力器》,《對外傳播》,2022年第10期。

?匡文波、鄧穎:《短視頻監(jiān)管與多重把關主體的范式轉型:把關理論的研究視角》,《中國編輯》,2021年第4期。

責編/孫渴 美編/陳媛媛

聲明:本文為人民論壇雜志社原創(chuàng)內容,任何單位或個人轉載請回復本微信號獲得授權,轉載時務必標明來源及作者,否則追究法律責任。

[責任編輯:周小梨]