【摘要】人工智能對隱私權的影響主要體現在可能干擾個人對自身隱私的自治,可能削弱現有的個人信息保護機制,而且以人工智能為基礎的監(jiān)視系統(tǒng)對隱私信息實施無差別收集。因此,降低甚至消除人工智能對隱私權的影響,既要通過加強隱私權的立法保護和強化技術標準,構建隱私權的事前保護法律制度,也要建立以公益訴訟和消費者集體訴訟為主體的事后救濟機制。
【關鍵字】人工智能 隱私權 公益訴訟 集體訴訟 【中圖分類號】D923 【文獻標識碼】A
人工智能技術的興起為公眾日常生活帶來了巨大變化,無人駕駛、智能助理以及人臉識別等一系列技術已經得到廣泛應用,無人機、無人駕駛汽車也開始進入民用領域,這些技術極大的便利了人們的工作與生活,但其對個人隱私造成的影響也引起了公眾的普遍擔憂。例如,無人駕駛汽車是否會擅自收集存儲乘客的出行信息?人臉識別技術是否會導致客戶面部信息遭到濫用?等等。在互聯網行業(yè)愈發(fā)白熱化的競爭背景下,這樣的擔憂是具有合理性的。
在人工智能時代下,個人自治的隱私中所包含的“是否愿意接受監(jiān)控”的問題顯得尤為突出
法律意義上的隱私權主要包括“個人自治”和“個人信息”兩方面內容,其中個人自治是指個人對自身隱私的自由處置權利;個人信息則是指能夠單獨或者與其他信息結合,以識別特定個人身份或者反映特定個人活動情況的各種信息。
人工智能可能干擾個人對自身隱私的自治。一般而言,個人自治通過個人的控制能力實現,以人工智能中的無人駕駛技術為例,乘客主動選擇無人駕駛汽車出行是個人自治,但人工智能技術可能影響這種行為的“自治性”,因為無人駕駛的便利性是以收集和使用乘客的個人信息為基礎,因此,乘客表面上雖享受到人工智能技術的便利,實際上卻是在“便利性”與“讓渡個人信息”二者之間作出選擇。隨著技術的不斷發(fā)展與普及,當無人駕駛成為主流出行方式后,乘客將在實質上失去自由選擇的權利,只能被迫將出行習慣、工作地址等個人隱私上傳給汽車服務商,喪失對于自身隱私的自治權。
人工智能可能削弱現有的個人信息保護機制。現有法律關于個人隱私的保護機制主要圍繞“當事人自愿”來構建,即只有在經過用戶的同意后,他人才可收集用戶的隱私信息。但人工智能的應用卻使一些公司在未經用戶同意的情況下也能獲取其個人信息,并可能用于盈利活動,例如,使用手機助理時用戶與手機之間存在文字、語音交流,但用戶的本意只是希望手機助理為其查詢資料,但手機廠商卻利用技術記錄并上傳此次對話內容;又如乘坐無人駕駛汽車時,乘客必須對汽車下達語音指令,但其本意只是希望告知此次出行的目的地,但汽車廠商卻可能借此存儲并分析乘客的出行習慣;在使用人臉識別產品時,用戶為了通過認證需要展現自己的完整面部,但相關服務商卻可能將其面部特征予以存儲并用于其他方面??梢?,基于人工智能技術的產品通常具有很強的人機交互性,用戶在使用這類產品時必然會與機器產生互動,這就決定了有些人工智能公司有能力不經用戶同意而直接收集其個人隱私信息。
以人工智能為基礎的監(jiān)視系統(tǒng)對隱私信息實施無差別收集。人工智能技術可以讓各類產品具備“無差別監(jiān)視”的能力,在一定區(qū)域內以非歧視的方式全面收集信息。比如,無人機送貨時會以無差別監(jiān)視的方式收集沿路地形地貌、建筑物高度等信息,以校準位置、實現準確投送;無人駕駛汽車上安裝的傳感器和攝像頭會持續(xù)不斷地收集行進時的周遭道路狀況,以區(qū)分和避開障礙,這樣的無差別監(jiān)視使得無人機、無人駕駛汽車收集的信息十分全面系統(tǒng),以達到足夠構建出區(qū)域內的完整地貌、街景的程度。對此,美國聯邦通信委員會已經表現出極大的擔憂,并下令禁止了谷歌公司以開發(fā)地圖軟件的名義收集道路街景信息??梢灶A見的是,如果任由人工智能產品實施無差別的信息收集,那么其運行過程中可能不會區(qū)分各類信息是否屬于隱私權的保護范疇,這可能將對信息安全和隱私權保護造成威脅。
通過立法保護和強化技術標準,構建隱私權的事前保護法律制度
加強隱私權的立法保護,做到有法可依。首先,應當完善隱私權的相關立法,明令禁止通過人工智能技術非法獲取個人隱私的行為,為隱私權的保護提供清晰的法律依據?!吨腥A人民共和國網絡安全法》中雖然有強調“不得侵害個人隱私”的條款,但該法主要是針對線上網絡活動,這些活動與人工智能技術有所差異,因此,有必要通過完善立法的方式擴大隱私權的保護范圍,諸如將線下人工智能產品、基于人工智能的公共設施等納入法律調整范圍。其次,在合同法層面,要明確細化人工智能產品方的合同義務,對其制定的格式合同提出更為詳盡的要求,比如,必須寫明其收集個人信息的具體方式、范圍和用途,并禁止產品方利用合同條款強迫用戶讓渡隱私權。再次,強化人工智能產品方的告知義務,一旦出現用戶隱私信息泄露或被他人非法獲取的情形,人工智能產品方應及時通知相關部門、采取補救措施,并及時告知受影響的相關個人。最后,規(guī)范人工智能產品方的信息收集行為,制定合法收集個人信息的認定標準。重點針對實踐中各大互聯網公司普遍采用的“數據脫敏”技術,即通過“數據脫敏”將個人信息轉化為“無法識別特定個人身份”的大數據,以符合法律要求,但目前一些公司的“數據脫敏”執(zhí)行標準不嚴格,采用非法手段簡單“脫敏”進而無法達到保護個人隱私的效果。因此,有必要制定“數據脫敏”方面的相關法律法規(guī),建立“數據脫敏”的審查制度,以及允許個人主動刪除自身隱私信息的授權制度等,全面系統(tǒng)地規(guī)范人工智能公司的“數據脫敏”行為。
強化技術標準,實現精準防控。由于人工智能技術含有大量的編程、統(tǒng)計學等技術性內容,僅通過立法手段,難以對這些技術細節(jié)進行專門規(guī)范,因此還需進一步制定配套的技術標準,統(tǒng)一規(guī)范人工智能產品的設計、安全措施的制定等。一方面,應規(guī)范人工智能產品的“隱私設計”,從源頭上加強對信息的保障。“隱私設計”是一種全新的產品開發(fā)手段,旨在防止用戶身份信息泄露,這一技術在區(qū)塊鏈領域內得到了廣泛應用。以無人駕駛為例,由于汽車本身產生的數據極其重要,是監(jiān)控汽車安全性不可或缺的信息,故有必要全面進行收集,但同時這種信息收集又可能牽涉到乘客隱私,故一些汽車廠商使用“隱私設計”技術,在設計無人駕駛系統(tǒng)時將“車輛運行信息”與“個人隱私”分別存儲,分類制定不同的信息處理方式,確保個人隱私得到保護。另一方面,還可以建立人工智能產品的許可制度,構建權威的審批機構來負責審查各類人工智能產品的“隱私設計”情況,給合格者頒發(fā)許可證,禁止不合格產品的發(fā)行,通過行政監(jiān)管的力量對人工智能市場實施適度干預。
建立以公益訴訟和消費者集體訴訟為主體的事后救濟機制
人工智能產品侵害隱私權的案件通常具有影響范圍廣、后果擴散迅速、損失較為嚴重的特點,還會牽涉到復雜的取證調查、技術鑒定等問題,僅靠個人力量很難實施維權,因此,一方面,可以發(fā)揮公益訴訟在重大民事案件維權方面的優(yōu)勢,完善相關程序法,明晰公益訴訟負責機關相應的職責職能,將運用人工智能技術所導致的隱私侵犯案件納入到公益訴訟的范圍內。另一方面,建立針對人工智能公司的消費者集體訴訟制度,集體訴訟的最大特點是受害者遵循“默認參加”的原則,即除非受害者明確表示退出訴訟,否則一律認定受害者為集體訴訟的參與者。這一制度有利于補公益訴訟的原告主體范圍較窄僅能由專門機關提起訴訟的短板,從根本上解決人工智能所導致的隱私侵犯案件中受害者人數眾多而且分散的問題。
為構建系統(tǒng)的事后救濟機制,首先,需要對《中華人民共和國民事訴訟法》《中華人民共和國消費者權益保護法》予以相應地調整和完善,明確公益訴訟、消費者集體訴訟的適用情形、管轄權分配等制度;其次,要發(fā)揮信息時代互聯網平臺的優(yōu)勢,在損失記錄、維權人員身份登記確認、公告通知、賠償執(zhí)行等方面實施創(chuàng)新管理,利用互聯網技術實現高效服務,降低大規(guī)模訴訟的成本費用;最后,應加強司法機關與信息安全部門的協(xié)作,在技術鑒定、損失界定、調解和解、案件執(zhí)行等方面形成合力,從而更好地開展隱私權的事后救濟工作。
(作者為上海財經大學法學院博士研究生)
【參考文獻】
①張愛軍:《人工智能:國家治理的契機、挑戰(zhàn)與應對》,《哈爾濱工業(yè)大學學報(社會科學版)》,2020年第1期。
責編/謝帥 美編/楊玲玲
聲明:本文為人民論壇雜志社原創(chuàng)內容,任何單位或個人轉載請回復本微信號獲得授權,轉載時務必標明來源及作者,否則追究法律責任。