庫茲韋爾認(rèn)為,人工智能可以全面超越人類智能,而且超越的速度遠(yuǎn)超過人們的預(yù)期。他認(rèn)為,2045年是“奇點”到達(dá)的時期,這將是極具深刻性和分裂性的時間點,非生物智能在這一年將會10億倍于今天所有人類的智慧。④當(dāng)然,大多數(shù)科學(xué)家和人工智能專家對人工智能全面超越人類持否定態(tài)度,認(rèn)為這是杞人憂天式的臆想,對人工智能征服人類的擔(dān)心就像擔(dān)心火星上塞車一樣。航天器發(fā)明之前,其可能墜毀的風(fēng)險擔(dān)憂并沒有阻止航空航天事業(yè)的發(fā)展。從這一點說,我們幾乎沒有可能阻止人工智能的快速發(fā)展,但從現(xiàn)在起,給予人工智能更多的人文關(guān)注、價值判斷和理性思考,是一種比較正確的態(tài)度。事實上,人文社會科學(xué)的發(fā)展應(yīng)該走在自然科學(xué)的前面,在人工智能安全問題之前做好充分的理論準(zhǔn)備。
第二類問題是人工智能可能引發(fā)的安全問題。其一是操作權(quán)失控或惡意使用導(dǎo)致的安全威脅。人工智能對人類的利害作用取決于掌控和使用人工智能的人。例如,黑客可能通過智能方法發(fā)起網(wǎng)絡(luò)攻擊,還可利用人工智能技術(shù)非法竊取私人信息。其二是技術(shù)失控或管理不當(dāng)所致的安全問題。某些技術(shù)缺陷也會導(dǎo)致人工智能系統(tǒng)出現(xiàn)安全隱患,比如深度學(xué)習(xí)采用的黑箱模式會使模型可解釋性不強,機器人、無人智能系統(tǒng)的設(shè)計、生產(chǎn)不當(dāng)會導(dǎo)致運行異常等。
第三類是人工智能倫理規(guī)范的挑戰(zhàn)。倫理問題是人工智能技術(shù)應(yīng)用值得關(guān)注的問題。如人工智能的行為規(guī)則問題,人工智能技術(shù)的應(yīng)用正在將一些生活中的倫理性問題在系統(tǒng)中規(guī)則化。系統(tǒng)的研發(fā)設(shè)計必須要與社會倫理匹配對接,機器規(guī)范和人類規(guī)范必須兼容,從而導(dǎo)致社會損害。再如機器人的“人格”和權(quán)力問題。目前在司法、醫(yī)療、指揮等領(lǐng)域正在發(fā)揮作用,不遠(yuǎn)的將來,人工智能在審判分析、疾病診斷上將替代人類。但是,在給機器授予決策權(quán)后,人們不僅要考慮人工智能的安全風(fēng)險,而且還要面臨一個新的倫理問題,即機器獨立行使專業(yè)決策的資格。有倫理學(xué)家認(rèn)為,未來機器人不僅有感知、認(rèn)知和決策能力,人工智能在不同環(huán)境中學(xué)習(xí)和演化,還會形成不同的個性。所以機器人使用者需要承擔(dān)類似監(jiān)護(hù)人一樣的道德責(zé)任甚至法律責(zé)任,以免對社會文明產(chǎn)生不良影響。⑤
第四類問題是人工智能可能引發(fā)的隱私問題。大數(shù)據(jù)驅(qū)動模式主導(dǎo)了近年來人工智能的發(fā)展,隱私問題是數(shù)據(jù)資源開發(fā)利用中的主要威脅之一,人工智能應(yīng)用中必然存在隱私侵犯風(fēng)險。比如數(shù)據(jù)采集中的隱私侵犯。隨著各類數(shù)據(jù)采集設(shè)施的廣泛使用,智能系統(tǒng)掌握了個人的大量信息,如果出于商業(yè)目的非法使用某些私人信息,就會造成隱私侵犯。再如云計算中的隱私風(fēng)險。因為云計算技術(shù)使用便捷、成本低廉,許多用戶開始將數(shù)據(jù)存儲至云端。將隱私信息存儲至云端后,這些信息就容易遭到各種威脅和攻擊。目前在許多人工智能應(yīng)用中,云計算已經(jīng)被配置為主要架構(gòu),因此云端隱私保護(hù)是需要考慮的問題。還有知識抽取中的隱私問題。由數(shù)據(jù)到知識的抽取是人工智能的重要能力,知識抽取工具正在變得越來越強大,無數(shù)個看似不相關(guān)的數(shù)據(jù)片段可能被整合在一起,識別出個人行為特征甚至性格特征。但是,這些個性化定制過程又伴隨著對個人隱私的發(fā)現(xiàn)和曝光,如何規(guī)范隱私保護(hù)是需要與技術(shù)應(yīng)用同步考慮的一個問題。⑥