原標題:強化人工智能安全治理(新論)
作為新一輪科技革命和產業(yè)變革的重要驅動力量,人工智能技術發(fā)展與應用拓展正在按下“快進鍵”。今年11月,習近平總書記主持召開的中央政治局會議強調,加快提升生物安全、網絡安全、數據安全、人工智能安全等領域的治理能力。這為推動人工智能健康發(fā)展提供了重要指引。
在人機協同、跨界融合、共創(chuàng)分享的智能時代,人工智能的應用場景愈發(fā)廣泛。人工智能為經濟社會發(fā)展注入活力的同時,也給人類生活帶來了新的風險挑戰(zhàn),比如對個人隱私權、知情權、選擇權的侵犯,以及竊取、篡改、泄露等非法收集利用個人信息的行為,等等。為此,迫切需要加快提升人工智能安全治理能力,加強人工智能相關法律、倫理、社會問題等研究,建立健全保障人工智能健康發(fā)展的法律法規(guī)與倫理體系。
加快提升人工智能安全治理能力,需要完善相關的法律法規(guī)及行業(yè)標準。人工智能的安全秩序包含算法安全、數據安全、倫理安全、國家安全等維度。2019年以來,中國先后發(fā)布《新一代人工智能治理原則——發(fā)展負責任的人工智能》《全球數據安全倡議》等文件,明確了人工智能治理框架和行動指南。今年9月發(fā)布的《新一代人工智能倫理規(guī)范》強調,將倫理道德融入人工智能全生命周期,促進公平、公正、和諧、安全,避免偏見、歧視、隱私和信息泄露等問題,為從事人工智能相關活動的自然人、法人和其他相關機構等提供了倫理指引。
加快提升人工智能安全治理能力,要引導社會公眾正確認識人工智能。人工智能監(jiān)管者要提高站位,加強宏觀戰(zhàn)略研究與風險防范;人工智能研發(fā)者要堅持正確價值導向,避免可能存在的數據與算法偏見,努力實現人工智能系統的普惠性、公平性和非歧視性;人工智能的技術提供者要明確告知義務,加強應急保障;人工智能產品的使用者,應當保證這一技術不被誤用、濫用或惡用。要對各類倫理道德風險保持高度警惕,堅持以人為本,落實科技向善理念,弘揚社會主義核心價值觀。
加強人工智能發(fā)展的潛在風險研判和防范,確保人工智能安全、可靠、可控,也是擺在世界各國面前的重要課題。在推動完善人工智能全球治理方面,中國是積極倡導者,也是率先踐行者。2020年9月,中國發(fā)布《全球數據安全倡議》,明確提出秉持共商共建共享理念,齊心協力促進數據安全;今年5月,中國擔任聯合國安理會輪值主席期間,主持召開“新興科技對國際和平與安全的影響”阿里亞模式會議,推動安理會首次聚焦人工智能等新興科技問題,為國際社會探討新興科技全球治理問題提供了重要平臺,體現了大國責任擔當。
數字化浪潮撲面而來,信息化、數字化、智能化趨勢不斷演進。主動加強對人工智能的倫理與法律規(guī)范,才能更好適應人工智能快速發(fā)展的新變化、新要求,在法治軌道上推動人工智能向善發(fā)展、造福人類。
(作者為北京理工大學法學院教授)