在AI治理中,我更為關注算法治理和數(shù)據(jù)權利保護問題。就AI來講,它是一種生活要素數(shù)據(jù)化和機器自動化決策為核心的人工智能算法系統(tǒng)。因此,算法問題和數(shù)據(jù)權利保護是AI領域的核心問題,而這兩個問題也是傳統(tǒng)法學研究和治理研究關注不夠的問題。
當前關于AI治理,我認為存在的爭議問題主要包括是否需要給AI賦予法律主體地位,人工智能創(chuàng)作的作品是否以及如何進行知識產權保護,算法決策出現(xiàn)價值沖突如何進行選擇,數(shù)據(jù)權、信息權和隱私權的關系等問題。
對于AI治理,我認為首先應當研究AI的運作邏輯,探求AI帶來社會問題的結構性因素,然后,在法律治理的精神引領下,建立政府-平臺-商戶、公權力-社會權力-私權利三元結構的治理模式。政府除了需要改變過去那種“命令加控制”的管控方式外,還需要構建算法規(guī)制的合作治理路徑。在這種合作治理中,政府監(jiān)管機構應當通過“提高標準化程度和自動化程度”和使用“司法測試和新技術”來敦促算法相關企業(yè)遵守法律法規(guī)和其他內控性質的規(guī)范。社會第三方力量應當提供全自動的算法風險分析和控制。算法平臺和企業(yè),應當嚴格履行防范算法風險的義務,不斷調整信息技術系統(tǒng),制定個性化的內部算法風險管理流程。
(作者為山東大學法學院與網絡安全學院教授)