j8又粗又硬又大又爽又长国产,色久网站,国产免费自拍视频,无码国产一区流畅有码av,Comwww在线播放,美女网站黄页免费,国产免费观看a∧wwwww.

網(wǎng)站首頁 | 網(wǎng)站地圖

每日推薦
首頁 > 原創(chuàng)精品 > 成果首發(fā) > 正文

認知智能對計算和感知智能的挑戰(zhàn)

【摘要】生成式人工智能的出現(xiàn),對傳統(tǒng)人工智能的計算智能和感知智能形成挑戰(zhàn),初步形成認知智能這一新型智能形態(tài)。認知智能在人工智能領域的發(fā)展突出對自然語言的理解能力,帶來語境化人工智能、倫理人工智能以及可解釋人工智能等更人性、更智能的文化人工智能。這些不同形態(tài)的文化人工智能是認知智能要拓展的具體形態(tài),也是提升大語言模型認知能力的具體路徑。

【關鍵詞】認知智能 計算智能 感知智能 生成式人工智能 文化人工智能

【中圖分類號】 TP18 【文獻標識碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2025.11.008

【作者簡介】魏屹東,山西大學哲學學院教授、博導。研究方向為科學史與科學哲學、認知哲學和人工智能哲學。主要著作有《科學表征:從結(jié)構(gòu)解析到語境建構(gòu)》《科學認知:從心性感知到適應性表征》《認知哲學手冊》《認知科學哲學問題研究》等。

 

在人工智能(AI)領域,認知智能被視為繼傳統(tǒng)人工智能的計算智能和感知智能之后的一種新型智能形態(tài)。認知智能是認知心理學與人工智能的有機結(jié)合,其在理解能力這一認知屬性上顯著超越前兩種智能,是實現(xiàn)“具身”或“通用”人工智能的必然趨勢。實際上,“認知智能”一詞源自心理學領域,是與“情感智能”相對的概念。因此,“認知智能”常被稱為“智商”,“情感智能”則被稱為“情商”。鑒于人工智能借用了心理學的概念,那么“認知”性能在人工智能中應有所體現(xiàn),即賦予人工智能系統(tǒng)“人性化”“心性化”或“文化化”的特征。這正是筆者倡導的“文化人工智能”(Artificial Cultural Intelligence,ACI)[1]的內(nèi)涵,即通過將人類特有的文化屬性(包括社會性、交互性、倫理性)嵌入人工智能系統(tǒng),從而創(chuàng)造出“文化智能體”或“文化機器人”?;诖?,本文首先對“智能”的含義及其認知屬性進行梳理和分析,進而探討認知智能在語言理解和決策能力方面的表現(xiàn),并圍繞語言發(fā)展探討文化人工智能的不同形態(tài),包括語境化人工智能、倫理人工智能以及可解釋人工智能,旨在為新一代人工智能(具身人工智能或通用人工智能)的發(fā)展提供理論洞見與實踐思路。

認知智能對計算智能和感知智能的超越

心理學和人工智能領域?qū)?ldquo;智能”的定義和理解存在顯著差異。20世紀中期,斯滕伯格(R. J. Sternberg)提出智力三元理論,將智能定義為適應、塑造和選擇環(huán)境以實現(xiàn)個人和社會文化目標的能力,[2]并進一步將智能劃分為分析性智能、創(chuàng)造性智能和實踐性智能。[3]分析性智能主要體現(xiàn)在學術(shù)問題的解決和計算能力上,具體表現(xiàn)為分析、評估、判斷、比較以及解決問題的能力;創(chuàng)造性智能則表現(xiàn)為設計或想象問題和情境解決方案的能力,包括為意想不到的問題找到新穎的解決方案、創(chuàng)作精美的藝術(shù)作品或文學作品;實踐性智能則涉及主體行動的能力,通常被用于在日常生活中尋找行之有效的解決方案。斯騰伯格的理論強調(diào)智能的社會文化背景及其對個體行為的影響,因此其定義主要針對“人類智能”,而非“人工智能”。

霍金斯(J. Hawkins)在其經(jīng)典著作《千腦:智能新論》中提出“智能”的四個屬性[4]:一是學習多重模型,即智能體(agent)能夠?qū)κ澜绲母鱾€方面單獨建模,或者說,一個模型能夠描述如何預測和捕捉球,另一個模型則描述如何投擲;二是通過運動和感覺來學習,即智能體通過運動傳感器了解被建模的事物;三是使用通用參照系,即海馬神經(jīng)回路(網(wǎng)格細胞、位置細胞等)在進化過程中為空間導航提供服務,現(xiàn)在可能支持所有類型的學習,而大部分知識的存儲和推理都是通過類地圖的通用結(jié)構(gòu)進行;四是持續(xù)學習,即智能體能夠在不覆蓋已有知識的情況下學習新知識?;艚鹚拐J為,這四個屬性是創(chuàng)造真正智能機器的關鍵,而目前的學習算法缺乏這些屬性。然而,霍金斯的理論更多地描述了智能模型的特性,而非智能的本質(zhì)。[5]

阿格沃爾(U. A. Agarwal)等人將智能理解為主體根據(jù)所處環(huán)境調(diào)整自己行為的能力。[6]這種適應能力是人們了解個體差異的關鍵因素。心理測量表明智能是一系列能力的集合,并將其表述為對認知能力的單一測量。如信息處理能力描述了人們智能思考和解決問題的過程,這種方法側(cè)重于研究智能行為的認知功能,而解決問題的認知能力是創(chuàng)造性的關鍵。解決問題指的是成功處理復雜和意外情況并找到解決方案的能力,這有助于確定問題發(fā)生的原因以及如何解決。這一點恰恰是人工智能缺乏的,這就是“認知智能”——自然進化形成的認知能力。

在心理學中,智能通常被分為認知智能與情感智能。[7]認知智能(Cognitive Intelligence)是指通過感覺和思維過程獲取知識和理解的智能,主要體現(xiàn)在工程、數(shù)學和科學研究領域,因為快速準確地處理信息的能力至關重要。如軟件工程師利用認知智能編寫高效代碼、開發(fā)復雜的軟件解決方案。情感智能(Emotional Intelligence)則包括自我覺知(意識)、自我管理、社會意識和關系管理四個方面。[8]認識和解釋自己情緒的能力與技巧被稱為“情緒素養(yǎng)”,包括監(jiān)測、理解和調(diào)節(jié)自己情緒與行為以應對社會環(huán)境和情境的能力。這是一種主體主動調(diào)節(jié)和自我修正的能力,即適應性表征能力。然而,如何讓人工智能擁有情感智能是一個棘手的問題。從適應性表征視角看,情感智能是一種具有適應性的心理調(diào)節(jié)能力,人工智能研究者若能夠?qū)⑦@種適應性嵌入物理裝置或機器人中,制造出具有情感的機器人并非不可能。

認知智能是衡量智能實體(人類或機器)解決復雜問題和理解抽象概念能力的關鍵指標,側(cè)重于認知過程和邏輯推理,其決策能力是衡量智能實體是否有智能的關鍵。就因果關系而言,在因果關系明確的簡單情境中,決策過程相對直接;然而,在因果關系不明確的復雜和混沌情境中,決策變得極具挑戰(zhàn)性。情感智能則關注情感意識、情緒管理和社交技能。與之相比,傳統(tǒng)人工智能主要側(cè)重于計算智能(Computational Intelligence)和感知智能(Perceptual Intelligence)的研究,而新一代人工智能則致力于認知智能(智商)和情感智能(情商)嵌入機器,即具身人工智能(Embodied AI)或通用人工智能(General AI)的研究。

在人工智能領域,不同的研究范式對智能的理解存在顯著差異。計算主義(Computationalism)的智能特指計算能力或計算智能,即基于計算機的符號操作和推理能力,主張“計算即智能”。動力主義(Dynamicism)的智能是指感知能力或感知智能,強調(diào)使計算機執(zhí)行視覺、聽覺和觸覺等感知任務,如語音識別、語音合成和計算機視覺,主張“感知即智能”。具身人工智能是指學習和理解能力,即認知智能,要求機器能夠更好地理解和分析概念、關系和邏輯。其中,基于語境進行語言理解是認知智能的核心,[9]主張認知和理解才是智能。

從發(fā)展歷程看,認知智能是繼計算智能和感知智能后的一種新型“具身智能”,其內(nèi)在能動性超越了前兩者。認知智能有何獨特之處?為什么超越了計算智能和感知智能?從認知心理學來看,與計算智能和感知智能相比,認知智能是一種包含了各種心理過程[10]的高級智能,即認知能力。美國心理學學會的心理學詞典將認知定義為“人們學習、記憶、推理、解決問題以及作出明確判斷的能力,特別是與情感智能比較而言”。因此,認知智能有時也指“智商”(相對于“情商”),簡稱為“認知”,包括獲得知識和通過心智的理解、生命體驗和感覺。[11]在這個意義上,認知智能就是人類的理性思維和判斷能力,以及在語境中學習和處理信息的能力,包括集中注意力、回憶和儲存記憶、學習和獲得語言及其他信息、感知環(huán)境中的刺激、處理數(shù)據(jù)、回應各種問題、決策和解決問題等。斯滕伯格的智力三元理論將認知智能定義為“言語、數(shù)字和空間能力的結(jié)合,這種結(jié)合能力包括視覺化、運用記憶、詞語流暢性、言語關系、感知速度、歸納和演繹”。[12]由此可見,認知智能的超越性體現(xiàn)在其對環(huán)境的主動理解和適應能力。

認知智能與一般心理能力不同,后者是衡量個人認知能力整體水平和工作表現(xiàn)的重要指標,主要包括流動智能和結(jié)晶智能兩方面。流動智能是指個人在遇到問題時能夠使抽象信息變得有意義并找到解決路徑的能力;結(jié)晶智能則是指基于經(jīng)驗和先驗信息所掌握的知識與理解,包括知識的歸因和保留。流動智能是主體解決問題和邏輯推理的能力,是與多種認知能力相關的最重要特征之一,[13]實際上是主體的思維能力;結(jié)晶智能則是個體對特定文化中語言、信息和概念的掌握程度,是一種記憶保持能力,通常會隨著年齡增長而持續(xù)提升,直到老年階段才開始下降。[14]

認知智能是可測量的,可通過標準化測試對各種認知能力進行量化評估。韋氏成人智力測驗量表(WAIS)和斯坦福-比奈智力測量表是目前使用最為廣泛的智商評估工具,用于評估語言理解、感知推理、工作記憶和處理速度等一系列認知技能。情感智能評估則側(cè)重于評價情感和社交能力,主要工具包括情商量表(EQ-i)和梅耶爾-薩洛維-卡魯索情商測試(MSCEIT)。EQ-i主要測量情緒和社會功能,如自我認知、壓力管理和人際交往技能,而MSCEIT則評估個體感知、理解和管理情緒的能力。人工智能作為輔助工具,可以應用于認知智能和情感智能的測試。如人工智能作為認知科學的理論工具,[15]可以支持理論構(gòu)建和智能評估。ChatGPT和DeepSeek等大模型已廣泛應用于科研、醫(yī)療和教育等領域。在這種背景下,人類認知被視為一種假設性的計算形式。在此假設下,人工智能作為計算工具——包括框架、概念、形式、模型、證明、模擬等——可以為認知科學的理論研究提供支持,即將人工智能作為智能工具應用于科研、生產(chǎn)和日常生活。然而,讓人工智能和智能機器人同時具備認知智能和情感智能難度極高,我們將其稱為“人工智能認知難題”,即如何制造出“人類水平的”或“超人的”智能體。因此,使用人工智能作為智能工具與讓人工智能真正擁有認知智能和情感智能是完全不同的兩件事。

對機器來說,認知測量在智能制造的發(fā)展中引入了更加自主的系統(tǒng),這些系統(tǒng)需要利用機器狀態(tài)、傳感器數(shù)據(jù)和領域知識等多模態(tài)數(shù)據(jù)來進行復雜的決策制定過程。[16]這不僅是認知信息學(cognitive informatics)[17]集中研究的“智能機器工具”[18]問題,也是新興的“認知物理學”的研究目標,即研發(fā)可交互、會學習、自成長的認知機器。[19]認知測量作為一種認知計算方法,將人的心智視為信息加工系統(tǒng),通過模擬人的思維和智能,建立自動化、計算機化的心智模型,并測試機器的推理能力,使其行為與人類相似。如認知計算作為醫(yī)療保健領域一項不斷發(fā)展的技術(shù),能夠優(yōu)化臨床認知過程。[20]分布式“認知無線電網(wǎng)絡”[21]是人工智能領域“認知測量”的例子,它包括頻譜感知路由、基于機器學習的方法、博弈論啟發(fā)的策略和生物啟發(fā)過程,智能路由在動態(tài)情況下可提供更好的彈性、適應性和頻譜效率。[22]認知測量表明,認知智能可以通過計算在機器中實現(xiàn),如對自然語言的計算理解和文化理解。

認知智能對人工智能自然語言理解力的提升

認知智能的核心在于處理和理解自然語言。從語言這個文化核心看,認知智能是智能科學的高級階段,旨在對人類的自然語言、知識表達、邏輯推理和自主學習等能力進行深入的機理研究與計算機模擬,從而使機器具備類似人類的智能,甚至掌握人類專家在各領域的知識積累和應用能力。[23]顯然,這些方面均與自然語言相關,如大語言模型(LLM)就是用來處理自然語言。自然語言作為人類表達和交流思想的基本工具,在人工智能中對應的是自然語言處理(NLP),即利用計算機處理人類語言。自然語言處理作為人工智能領域的核心,具有多義性、語境相關性、模糊性、非系統(tǒng)性、環(huán)境相關性以及知識面廣的特點,也是人工智能中最具挑戰(zhàn)性的領域之一。一般來說,自然語言處理主要包括認知、理解和生成三個部分。其中,認知和理解是指讓計算機將輸入的語言轉(zhuǎn)化為具有特定含義的符號和關系,并根據(jù)用戶的需要進行相應處理。因此,人工智能的自然語言生成系統(tǒng)本質(zhì)上是將計算機數(shù)據(jù)轉(zhuǎn)化為自然語言的系統(tǒng)。

如果計算機能夠理解和處理自然語言,那么人與計算機或機器人之間就可以使用母語進行信息交流,這標志著人工智能技術(shù)的重大突破。如各種生成式人工智能大語言模型的出現(xiàn)。自然語言作為高級智能的體現(xiàn),是揭示人類智能奧秘的關鍵,有助于我們深入理解語言能力和思維本質(zhì)。在人工智能的發(fā)展歷程中,自然語言處理經(jīng)歷了三個主要階段[24]:一是符號人工智能階段,即基于規(guī)則階段(20世紀60至80年代)。在這一時期,喬姆斯基將自然語言和程序語言置于同一高度,通過統(tǒng)一的數(shù)學方法進行解釋和定義,構(gòu)建了自然語言理解系統(tǒng),試圖將語法、推理、語境三者結(jié)合起來。二是統(tǒng)計人工智能階段,即基于統(tǒng)計和語料庫階段(20世紀90年代以來)。在語料庫語言學中,統(tǒng)計處理技術(shù)是從語料庫中獲取各種知識的主要手段,其基本思想是將語料庫作為知識的唯一信息源,通過統(tǒng)計方法獲取知識,并在統(tǒng)計學習的意義上解釋知識。三是生成式人工智能階段,即深度學習階段(2008年以來)。在這一階段,自然語言處理的研究開始轉(zhuǎn)向深度學習,包括神經(jīng)詞袋模型(把文本序列中每個詞的嵌入平均化作為整個序列的表征)、循環(huán)神經(jīng)網(wǎng)絡(對無限長的句子進行編碼)、卷積神經(jīng)網(wǎng)絡(通過多個卷積層和子采樣層得到一個定長向量)以及編碼-解碼技術(shù)(實現(xiàn)從一個句子到另一個句子的轉(zhuǎn)換)。

自然語言處理的演變表明,人工智能本質(zhì)上是“類腦智能”。經(jīng)過幾十年的發(fā)展,人工智能在深度學習、大數(shù)據(jù)和計算能力的共同推動下獲得了重生。根據(jù)解決問題的不同階段,人工智能大致可分為感知智能、認知智能和決策智能三個階段。[25]感知智能以語音識別、圖像理解、字符識別為主要任務,表現(xiàn)為“能聽、能說、能看、能認”,在專項任務上已接近或超過人類水平。如在數(shù)萬甚至數(shù)十萬小時的標注語音數(shù)據(jù)基礎上,深度學習在語音識別方面可達到甚至超過人類的聽寫水平。認知智能則以推理、決策、學習為主要任務,表現(xiàn)為“能理解、會思考、有認知”。如智能機器人對天氣狀況的預報不僅需要了解當前天氣情況,還需要掌握導致航班延誤的常識以及航空公司或機場的特定起飛標準。這表明語言理解的背后是常識和推理,而文字只是認知空間的形式表達。然而,認知智能的研究仍處于起步階段,機器認知能力相對較低,這種低認知水平的人工智能難以作出令人滿意的決策。因此,提升人工智能的“自主性”和“能動性”至關重要,以便更好地應對復雜情況,這也是決策智能進一步發(fā)展的關鍵,涉及人機信任、交互智能、人與智能系統(tǒng)的合作研究。決策智能也是認知智能的一部分,因為決策應基于理性智能,而非情感。

近年來,基于認知智能的人機協(xié)同決策逐漸成為研究熱點。如人機協(xié)同系統(tǒng)實現(xiàn)、人機智能集成機制和協(xié)同決策過程中的人機交互研究,揭示了智能機器正朝著人機融合智能的方向演進。[26]這一機器思維過程離不開認知計算的支持。機器思維是指機器模擬人類認知過程的能力,包括感知、推理、決策和解決問題的能力。過去20多年間,人工智能經(jīng)歷了一場驚人的革命,其概念已從傳統(tǒng)的規(guī)則驅(qū)動轉(zhuǎn)變?yōu)閿?shù)據(jù)挖掘,即智能應用的主要來源變成了數(shù)據(jù)。因此所提供的數(shù)據(jù)質(zhì)量在很大程度上決定了人工智能模型的成敗。[27]從自然智能(人類和動物智能)到人工智能的發(fā)展歷程清楚地表明,人工智能技術(shù)有助于滿足機器思維在認知和類人推理方面的需求。如以模型為中心的人工智能和以數(shù)據(jù)為中心的人工智能。然而,問題在于哪種模型更適合機器?如何縮小機器智能與人類智能之間的差距?是否可以利用增強智能這種人類與機器之間的共生關系來增強認知能力、促進創(chuàng)新和解決問題?

我們知道,機器學習、深度學習和大語言模型算法是現(xiàn)代人工智能的關鍵組成部分。機器學習側(cè)重于模式檢測和預測建模,能夠集中學習大型數(shù)據(jù),實現(xiàn)流程自動化并解決問題。深度學習作為機器學習的一個子集,已成為涉及大量數(shù)據(jù)(包括圖像、文本和序列數(shù)據(jù))任務中的主導技術(shù)。其中,深度神經(jīng)網(wǎng)絡是深度學習模型背后的“大腦”,推動了計算機視覺、自然語言處理和語音識別領域的進步。這些模型具有分層特征學習結(jié)構(gòu),能夠理解數(shù)據(jù)中的復雜關系和模式。大語言模型算法作為深度學習的一個子集,改變?nèi)藗兝斫夂蜕勺匀徽Z言的方式。憑借龐大的規(guī)模和預訓練的理解能力,這些模型能夠以前所未有的水平理解、生成和處理人類語言,廣泛應用于內(nèi)容創(chuàng)建、翻譯、問答等領域,改變?nèi)藗兣c人工智能系統(tǒng)的交互方式。如心智編程和認知思維建模使這些系統(tǒng)能夠模擬和理解人類認知。由機器學習和自然語言處理等先進技術(shù)驅(qū)動的認知分析,可提供預測能力和個性化體驗,推動人工智能認知系統(tǒng)朝著個性化、自適應學習甚至情感智能和道德智能的方向發(fā)展。

目前,人工智能正在改變我們的生活、工作和娛樂方式。在物聯(lián)網(wǎng)領域,人工智能驅(qū)動的分析和預測模型能夠從數(shù)十億數(shù)據(jù)流中提取洞察力,簡化操作并提高安全性。在醫(yī)療保健領域,人工智能有助于診斷、藥物發(fā)現(xiàn)和個性化治療計劃,如人工智能在醫(yī)院的應用有助于改善患者護理。在農(nóng)業(yè)領域,人工智能有助于提高精準度、優(yōu)化資源使用和改善作物管理。在音樂領域,人工智能有助于作曲、音樂制作和推薦,鼓勵創(chuàng)造力。在教育領域,人工智能驅(qū)動的個性化學習和智能輔導以及虛擬教室改變了傳統(tǒng)教學方法。這些應用展示了人工智能如何提高各種不同領域的效率、可持續(xù)性和創(chuàng)新性。總之,機器思維使機器和人工智能系統(tǒng)能夠像人類思維一樣處理信息、推理和決策,所使用的算法和計算模型模擬感知、學習、解決問題和決策等認知過程,從而在很大程度上替代人類思維和決策。人工智能的發(fā)展不僅提升認知智能,還達到人類特有的文化水平,這就是文化人工智能。

文化人工智能作為認知智能的高級形態(tài)

目前,文化智能仍是人類所特有的。如果人工智能擁有了文化,那么其就實現(xiàn)了“通用性”。何為文化?《人類學詞典》對文化的早期定義是“包括知識、信仰、藝術(shù)、道德、法律、風俗以及人類或社會成員獲得的任何其他能力和習慣的復雜整體”,[28]這種復雜整體就是“文化智能”,其是一種基于認知智能和情感智能的高級智能形式。如果能將文化中的知識、信仰、道德、法律、風俗和習慣嵌入人工智能,那么我們就將實現(xiàn)文化人工智能。一般來說,具有情商的人能夠理解人與人之間的差異,而具有文化智能的人則能夠解讀個人及其所屬群體的特征。

埃利(P. C. Earley)和莫薩科夫斯基(E. Mosakowski)將文化智能定義為“局外人看似天生的能力,能夠以其同胞的方式解讀一個人不熟悉的、模棱兩可的姿態(tài)”,[29]這種文化智能由認知、身體和情感動機三部分組成,存在于人的身體和頭腦中。根據(jù)這些要素,他們將文化智能分為六類:一是外省型,即能與背景相似的人愉快合作,但與背景迥異的人相處時顯得力不從心;二是分析型,即試圖通過各種途徑了解異域文化的規(guī)范和期望,如在去另一個國家旅行前購買該國的短語手冊;三是自然型,即擁有學習文化的直覺天賦,不需要系統(tǒng)的學習過程;四是大使型,即能夠輕松與其他文化進行交流,并在不了解該文化的情況下讓該文化中的人感到舒適;五是模仿型,即能讓客人感到自在,善于在不同文化間建立信任并捕捉文化線索;六是易變型,即擅長文化智能的所有三個組成部分,甚至可能被誤認為是外星人。

安格(S. Ang)等人提出了一種衡量文化智能的方法,將其定義為“一個人在跨文化環(huán)境中有效發(fā)揮作用的能力”。[30]文化智能并不是針對某一特定文化,而是在跨文化環(huán)境中有效工作的能力。范·戴恩(Van Dyne)等人認為,文化智能包括元認知(計劃、意識、檢查)、認知(學習、推理)、動機(目標、意圖)和行為(包括言語和肢體的表現(xiàn)方式)等方面。[31]這些方面雖然不完全等同,但為我們提供了衡量文化智能的多維視角。顯然,文化人工智能必須借鑒人類的文化智能。

在新一代人工智能研究中,為了適應新的信息環(huán)境,肖人彬提出將傳統(tǒng)人工智能(AI1.0)推進到人工智能新階段(AI2.0)的觀點。他認為,人工智能中的集體智能(CI1.0),即蜂群智能(低等生物的覓食行為),正向群體智能(CI2.0)演進,后者是由復雜任務驅(qū)動產(chǎn)生的人類合作行為。他還指出,在這一演進過程中存在一個被忽視的過渡階段(CI1.5),即低等/高等生物的合作行為模仿。肖人彬進一步將錢學森的“智慧元綜合”視為集體智能的升級版本,即仿生智能的高級階段(CI3.0),這一階段由心理行為驅(qū)動,涌現(xiàn)出高級智能。他認為具有深度不確定性的大語言模型和大數(shù)據(jù)的雙輪驅(qū)動是CI2.0向CI3.0的演進路徑,從而形成了完整的集體智能發(fā)展框架(CI1.0、CI1.5、CI2.0和CI3.0)。[32]筆者認為,這種群體智能的演進是一個適應性表征過程,而CI3.0正是文化人工智能的具體形態(tài)。

問題在于,文化如何融入人工智能呢?這正是建構(gòu)文化人工智能認知架構(gòu)的核心問題(見圖1)。圖1展示了這一過程:具有文化屬性的價值(情感、道德等)通過人工智能實現(xiàn)物理化,而人工智能則通過符號表征(字符串等)形成可解釋性假設集(表現(xiàn)形式)來實現(xiàn)價值,這一過程是循環(huán)往復的。以文化融合抵制認知帝國主義方法[33]為例:這種方法強調(diào)如何將本土知識體系(特定文化)融入人工智能開發(fā),以抵制認知帝國主義(或認知霸權(quán)主義),并促進包容性,通過批判西方認識論的主導地位,強調(diào)偏見的風險,并主張納入多樣化的認識論來實現(xiàn)。這種文化融合方法借鑒人工智能倫理學、原住民研究和后殖民理論,強調(diào)與原住民社區(qū)的共同創(chuàng)造、原住民數(shù)據(jù)管理的倫理協(xié)議以及人工智能算法的適應性。

wei1png

這種文化嵌入人工智能的典型案例旨在使人工智能更適合特定民族(如少數(shù)民族)和特定人群(如老年人群體)。其中涉及幾個關鍵概念和方法:一是本土知識體系為人工智能發(fā)展的基礎提供豐富的整體理解,強調(diào)系統(tǒng)內(nèi)所有要素的相互聯(lián)系;二是參與式設計和共同創(chuàng)造,即一種獨特的參與式設計方法,包括本土社區(qū)在內(nèi)的利益相關者應積極參與人工智能設計過程;三是兩眼觀察,即主張利用本土和西方的科學知識體系來更全面地認識世界;四是人工智能開發(fā)的倫理框架,即遵循負責任地開發(fā)人工智能的原則,包括尊重自主性、防止傷害、公平性和解釋性;五是數(shù)據(jù)主權(quán)和原住民協(xié)議,即數(shù)據(jù)主權(quán)涉及原住民的數(shù)據(jù)權(quán)利和管理;六是文化介入的人工智能算法,即開發(fā)有文化背景的人工智能算法,需要重新思考數(shù)據(jù)來源、學習過程和這些算法的輸出;七是本土語言與語義的融合,即將本土語言融入人工智能進行自然語言處理,這不僅是一項技術(shù)挑戰(zhàn),也是一項倫理挑戰(zhàn)。這需要開發(fā)能夠理解和處理這些語言的復雜語義與結(jié)構(gòu)模型,其中許多語言所蘊含的文化含義不易被翻譯成其他語言。

為了將本土認識論納入人工智能,必須采用新穎且尊重本土認識論的方法,這些方法包括:一是參與式設計,即讓原住民社區(qū)參與人工智能開發(fā),確保以尊重原住民的方式將其前沿知識和觀點融入其中;二是合乎道德的數(shù)據(jù)收集,即這一過程要尊重本土數(shù)據(jù)主權(quán)和知識產(chǎn)權(quán);三是適應人工智能算法,即適應人工智能算法以反映本土知識體系,需要重新評估和修改傳統(tǒng)的數(shù)據(jù)結(jié)構(gòu)與處理方法;四是機器學習中的文化語境,即將特定文化語境納入機器學習模型需要超越傳統(tǒng)的統(tǒng)計方法,如新型智能手機需要考慮漢語的簡體和繁體。

這些方法表明,文化完全可以影響或塑造人工智能設計。人類文化學表明,文化造就了人類認知的獨特性,這就是人類特有的“文化智能”。[34]那么,不同的文化智能的核心是什么?托馬塞羅(M. Tomasello)認為是“共享意向性”——文化智能的一個關鍵差異制造者——不僅提供了新的心理過程,支持新形式的合作社會性和累積文化,而且徹底改變了人類認知。所謂的“共享意向性”是一套社會認知技能和合作動機,構(gòu)成或促成共同關注和代理、合作交流和學習,其將類人猿的個體思維方式轉(zhuǎn)變?yōu)槿祟惡献鞯乃季S方式,并使協(xié)作和累積文化及其所有認知高峰得以實現(xiàn)。然而,莫爾(H. Moll)認為,“共享意向性”只有在社會領域才會產(chǎn)生關鍵性的差異,人類獨特的社會發(fā)展在其獨特的“共享意向性”形式的內(nèi)在驅(qū)動下,會產(chǎn)生全面的差異,而且會一直持續(xù)下去。而托馬塞羅則堅持認為,“共享意向性”不應被視為一種具有認知模塊通常特征的生物適應性,因為其影響著不同領域的人類認知和問題解決的模式或形式。[35]

為了回應莫爾的異議,托馬塞羅提出了“文化智能假設”:人類獨特的認知成就可歸因于人類獨特的社會認知適應性,即創(chuàng)造、傳播和參與合作性和累積性的文化技能、實踐和知識。根據(jù)這一假設,動物在系統(tǒng)發(fā)育和本體發(fā)育過程中,認知的三個核心方面(表征、推理和自我調(diào)節(jié))均發(fā)生了轉(zhuǎn)變。在表征方面,動物如猿類對事物的抽象表征和分類,首先轉(zhuǎn)化為從多個不同的社會視角對事物的多個不同方面的社會表征,隨后進一步發(fā)展為對共同客觀世界的完全命題表征,將其作為不同視角的共同目標。這些視角可能匹配,也可能不匹配,但同樣對其正確性負責。在推理方面,基于意向、因果(或原邏輯)關系的推論首先轉(zhuǎn)變?yōu)樯鐣暯堑倪f歸推論,隨后進一步發(fā)展為完全反思的、基于邏輯的推理,并受到集體共享的、代理人中立的正確論證或思考規(guī)范的約束。在自我調(diào)節(jié)方面,猿類對個人(第一人稱)目標導向過程的自我監(jiān)控和自我調(diào)節(jié)首先轉(zhuǎn)變?yōu)榈诙朔Q版本,隨后進一步發(fā)展為集體的、規(guī)范的版本。這些轉(zhuǎn)變標志著從猿進化到人的三個關鍵認知過程。

如果承認表征、推理和自我調(diào)節(jié)是認知的核心要素,那么也必須承認它們構(gòu)成了通用智能的核心。通用智能假設認為,主體所擁有的支持更高通用智能的作用越大,其獨特的行為靈活性、生態(tài)半徑和適應性就越強,從而能夠更可靠、更高效地處理和解決各種認知問題。通用智能假設反過來似乎支持了文化智能假設。這就是說,靈長類動物普遍進化出了與同類競爭和合作的復雜社會認知技能,而人類則在此基礎上進化出了能夠?qū)嶋H創(chuàng)造不同文化群體的技能,這些群體各有一套獨特的人工制品、符號、社會實踐和制度。如人類兒童若想在其所出生的文化世界中有效生存與發(fā)展,就必須學會使用這些人工制品和工具,并參與這些實踐活動,而這一過程需要借助社會學習、交流和模仿等特殊的社會認知技能。因此,人類在本體發(fā)育早期所展現(xiàn)出的強大的社會文化認知技能,可被視為推動人腦認知復雜發(fā)展的一種“啟動器”,這就是“文化智能假說”。[36]隨后,莫爾進一步提出變革性文化智能假說,即“共享意向性”作為社會性智能,一直處于不斷變革之中。人類的認知,包括生理方面,皆被人類的社會性和意向性等文化因素徹底改變,最終發(fā)生了質(zhì)的改變。[37]由此觀之,人工智能借助文化智能實現(xiàn)質(zhì)的飛躍,關鍵在于借助語境(一種人類獨特文化體現(xiàn))的力量。

作為文化人工智能的語境化人工智能

人類是文化的物種,語言的出現(xiàn)使人類進化成為語境化的物種。為了實現(xiàn)更智能的人機交互,人工智能也需要具備語境化[38]和形式化[39]的能力,這就是所謂的“語境中的人工智能”——一種人機交互的人工智能。關于人機關系,可能存在一種“虛假洞察”,即構(gòu)建人與人工智能之間富有成效的關系的核心在于定義人工智能與人之間從屬關系的需求集合。如交談人工智能(Talk AI)需要具備可理解性、多功能性、可定制性和可管理性以及語境感知能力。[40]事實上,交談人工智能并不要求選擇特定的算法,而是通過逐步展示機器學習過程,以人為中心研究和應用人工智能系統(tǒng),其核心是定義一系列改變?nèi)斯ぶ悄芘c人之間從屬關系的需求。因此,人工認知智能應具備連貫性、多用途性、可控性以及語境感知能力。在這里,交談人工智能的智能性(intelligibility)是指其認知架構(gòu)必須能夠自我表述,向用戶說明其知道什么、如何知道以及圍繞用戶在做什么,這意味著交談人工智能需要具備可理解性(comprehensibly)。適應性是評估一個人工智能架構(gòu)智能性的關鍵指標,即當人工智能為特定的環(huán)境設計時,其是否能夠提供足夠的能力,從而在不同的環(huán)境或語境中進行實質(zhì)性調(diào)整,并滿足用戶的愿望。如一個控制房間的機器人“知道”用戶的偏好,但當用戶詢問時,其是否能夠解釋用戶的家庭情況?這是機器人在特定語境中對自然語言的理解能力問題。

那么,如何讓人工智能系統(tǒng)真正理解人類語言呢?量子計算語義學方法可能是一種更有效方法,即通過量子糾纏對自然語言進行語境化處理。一般來說,語句的意義不僅取決于其各個組成部分,還取決于整個語境。尤其是在講故事等語言表達中,組合詞形成的意義是通過復雜語境產(chǎn)生的,故事的整體語境起著重要作用。每添加一個新詞,語境就會更新一次,這個過程會一直重復,直到所有的詞都出現(xiàn)在文本中,這種依賴語境決定詞和語句意義的方式比大模型的統(tǒng)計概率方式更準確。量子計算語義學借用量子力學中的“糾纏”概念來說明這個過程,即一個文本中的不同詞語是如何“糾纏”在一起從而構(gòu)成文本意義的。或者說,量子計算語義學利用量子理論對語言的語義功能進行建模,以此來捕捉句子的意義。該模型假設,量子信息量表征了意義,如表征量子系統(tǒng)狀態(tài)的希爾伯特空間的密度算子。疊加、糾纏和不確定性是量子理論所允許的整體和語境特征的例子,其可以解釋為什么語句能夠根據(jù)語境具有多重含義。這意味著人類的感知和思維本質(zhì)上不是單一的,而是合成的。經(jīng)典語義學的分析和構(gòu)成框架之所以不能很好地捕捉到格式塔思維,是因為其基本上是從一個復合表達式的各組成部分之含義來推導其整體含義的。

在量子計算語義學中,意義通??梢员碚鳛橐饬x的疊加,并被視為基本的動態(tài)對象。[41]整體意義決定部分意義,而部分意義往往較整體意義更加模糊,因為部分意義具有片面性和碎片性。量子計算邏輯可能解決這一問題。如基于量子形式主義的特殊整體特征的語義學認為,語言中的每個公式都會產(chǎn)生一個量子回路,并以可逆的方式將公式的密度算子轉(zhuǎn)換為原子亞公式的密度算子。[42]這一過程違反了從整體到部分的構(gòu)成性原則,[43]從而為盧卡西維茨量子計算邏輯(即多值邏輯)的新量子邏輯提供了語義特征。

在微觀物理系統(tǒng)中,“糾纏”是量子信息和量子計算中的一個有用的概念工具。若將這一概念用于人工智能領域來組合概念(概念或單詞糾纏),會帶來怎樣的結(jié)果呢?糾纏感知向量編碼算法[44]是一種無須翻譯的基于認知圖像的新方法,智能體無須事先了解與概念相關的術(shù)語,而是選擇更加直觀的方式進行處理。這項研究的附加值體現(xiàn)在一個自動系統(tǒng)上,可以教人工智能識別和處理糾纏概念。這是文本表征形式從抽象符號到語義向量(矢量)發(fā)展的一個重大突破,讓人工智能可以理解其處理的向量的意義,因為向量本身包含了語義。這也是適應性表征的一個實例,表明語義向量表征優(yōu)于符號表征,并且解決了抽象符號的“符號接地問題”。語義向量表征的出現(xiàn)有力地說明,表征方式的變革是人工智能研究突破的關鍵所在。[45]沒有好的表征方式,就不會有好的認知結(jié)果。

顯然,在概念使用上,量子計算語義學利用了“糾纏”這一概念,這就是“概念借用”。[46]作為一種實用方法,糾纏概念可用來確定概念是否糾纏在一起。如運用糾纏感知向量編碼算法將概念組合擴展到了兩個視覺概念,即根據(jù)頻率和附加語義信息來構(gòu)建一種狀態(tài),并確定編碼糾纏的真實向量,從而完成原始編碼。又如當“動物”和“行為”這兩個獨立概念結(jié)合成“動物行為”這一整體概念時,它們就會糾纏在一起,而“動物行為”會進一步與“食物”“捕食”“交配”等概念糾纏,因為動物需要“吃飯”和“繁衍”。

更為重要的是,這種概念糾纏的觀點同樣適用于人工智能。人工智能中的許多概念來自其他學科,如“適應性”來自生物學,“表征”來自心理學,組合概念“適應性表征”指的是人工系統(tǒng)如何隨著時間的推移不斷修正自身行為以更好地完成任務。來自認知科學的“具身性”是指人工智能利用物理相互作用來實現(xiàn)表征和控制的屬性。來自系統(tǒng)科學的“涌現(xiàn)性”可說明意識或智能是復雜、分散的人工智能系統(tǒng)的特性,即意識行為產(chǎn)生于組件之間的相互作用。這種廣泛的概念借用使人工智能最終將計算機擬人化(如機器人)和思維計算機化(如智能計算),即通過廣泛的概念借用,人工智能將計算機描述為具有心理邏輯特性的計算大腦,而腦科學和認知科學則從計算和信息的角度將大腦和心智描述為生物計算機。

作為文化人工智能的倫理人工智能和可解釋人工智能

文化人工智能作為認知智能的高級形式,其具體表現(xiàn)形態(tài)是多方面的,倫理人工智能和可解釋人工智能是其中兩種主要形式,這是因為倫理和解釋均具有文化屬性。倫理人工智能并非指人工智能的倫理問題,而是指具有道德屬性的人工智能,但也包括倫理問題,這類似于道德的人和人的道德的關系。人們期望人工智能在倫理方面與人類保持一致,從這個意義上講,人工智能的倫理是微觀人工智能的一部分。此處的微觀是指的技術(shù)層面,人工智能技術(shù)在幫助人們提高工作效率的同時,可能會在使用者毫無察覺的情況下加速認知技能衰減并阻礙技能發(fā)展。[47]因此,隨著人工智能技術(shù)日益普及,我們有必要深入探討人工智能對人類技能的影響,尤其是在健康資源、腦機接口、機器人手術(shù)等關乎人類生命和健康的領域。

這就需要構(gòu)建人工智能倫理的認知架構(gòu)。[48]眾所周知,人工智能的“黑箱”問題導致了其應用的責任困境。未來的人工智能將面臨許多其創(chuàng)造者未曾預見的倫理困境,而且其解決方案無法通過硬編碼實現(xiàn)。正如馬庫斯(G. Marcus)和戴維斯(E. Davis)指出,“通過‘算法’計算出來的程序所作的決定,有一種客觀性的光環(huán),它給官員和公司高管留下了深刻印象,也讓普通公眾感到害怕。程序的運作是神秘的——訓練數(shù)據(jù)是保密的,程序是專有的,決策過程是一個‘黑箱’,甚至程序設計人員也無法解釋——因此,個人幾乎不可能對他們認為不公正的決定提出任何質(zhì)疑”。[49]

鑒于此類社會和倫理困境的敏感性及其對人類社會的重大影響,當人工智能作出錯誤選擇時,我們需要了解它們是如何走到這一步的,以便糾正錯誤并防止其再次發(fā)生。要做到這一點,就必須打開人工智能的“黑箱”,尤其是當它們在人類世界中行動、互動和適應時,以及它們與這個世界中的其他智能體互動時,如何將認知架構(gòu)應用于倫理人工智能,即如何讓人工智能具有透明性[50]、可解釋性[51]并具備責任感[52],目前仍然是一個亟待解決的難題。

要實現(xiàn)這種“偉大的人工智能權(quán)衡”,[53]就必須更好地了解人工智能的認知架構(gòu)。認知架構(gòu)是智能思維的概念模型,無論是人類、動物還是人工智能都必須能學習、處理、存儲和重復使用已有知識和信息,并針對所面臨的問題作出決策并執(zhí)行決策。人工智能系統(tǒng)無疑可以改善我們的生活,但我們是否應該擁抱人工智能系統(tǒng)的能力,使其得到更廣泛的應用?還是說,鑒于當前人工智能存在的不可預測的錯誤、易受偏見影響、易受黑客攻擊以及決策缺乏透明度等問題,我們應該更加謹慎?在不同的人工智能應用中,人類需要在多大程度上保持參與?我們應該對人工智能系統(tǒng)提出怎樣的要求,才能給予足夠的信任使其自主工作?

迪格納姆(V. Dignum)將倫理人工智能分為三個重點領域:一是設計中的倫理,即支持人工智能設計和評估的監(jiān)管/工程流程,因為其適用于社會利益;二是通過設計的倫理,即人工智能的倫理行為,也被稱為倫理人工智能;三是針對設計的倫理,即人工智能研究、設計、建造、使用、運行和維護以及退役的行為準則、標準、法規(guī)和認證程序。[54]具體而言,設計中的倫理關注人工智能系統(tǒng)融入現(xiàn)代社會時,支持其設計和評估的監(jiān)管和工程流程;通過設計的倫理是指人工智能的倫理行為以及實現(xiàn)這一目標的技術(shù)手段;針對設計的倫理側(cè)重于確保人工智能研究、設計、開發(fā)、部署和管理/維護的研究人員誠信的實際要求。在人工智能領域,將心智視為智能體的集合(即許多認知代理或過程集,它們之間幾乎無法相互理解)的想法并不新鮮,但目前的人工智能仍然缺乏因果思維、表征和行動方式的多樣性。

這就需要一個人工智能的倫理認知架構(gòu),[55]要求系統(tǒng)中的智能體是人工道德主體,這是可能且可行的。一方面,我們不能完全要求社會中的每個個體都是道德主體(通過教育來規(guī)訓),但我們可以設計制造人工道德主體(就像制造有用的、安全可靠的工具),既然我們能夠?qū)χ悄苓M行認知測量和解釋,當然也應該在人工智能中設計出人工道德主體,而且是可解釋的,否則認知測量就失去了意義。認知作為理性活動的一般結(jié)構(gòu),其過程模型以信息結(jié)構(gòu)處理的交互功能塊的形式呈現(xiàn)。根據(jù)這種活動方法,自然智能和人工智能的概念得以澄清,并確定了知識本質(zhì)的特征屬性,證明智能、知識與活動是共生關系。[56]這種對人工認知智能的計算表征研究[57]有助于建構(gòu)倫理人工智能,因為道德屬性嵌入人工智能離不開計算和表征。

另一方面,倫理人工智能必須具備可解釋性,即可解釋人工智能。而最佳的解釋與理解密切相關。這就需要引入科學解釋的視角。哈利法(K. Khalifa)等人認為,[58]科學理解超越了單純的知識獲取,還涉及對現(xiàn)象的因果機制、結(jié)構(gòu)和功能方面的深入認識。支持科學理解模式的三個原則分別是解釋原則、關聯(lián)原則和知識轉(zhuǎn)換原則。具體而言,第一個原則是“解釋性基礎”,即理解“為什么是Y”需要對該問題進行正確的解釋;第二個原則是“關聯(lián)原則”,即對Y的正確解釋信息(即Y的解釋性關聯(lián))的數(shù)量與對Y的理解能力的提升成正比;第三個原則是科學知識原則,它將科學認知轉(zhuǎn)化為科學知識,即隨著人們對Y的解釋性信息的學習,對Y的理解會提升,這與我們對Y的解釋性信息所附加的科學認知具有更高的相似性。這種科學解釋性知識指的是主體對“為什么是Y”的知識,只有當存在某種X時,主體S認為X解釋了Y,這才能被視為S的科學解釋性評價的正確結(jié)果。在認知科學中,存在四種主要解釋方式:機制的、計算的、拓撲的和動態(tài)的。要實現(xiàn)完整而深入的理解,就需要將這些不同的解釋方式進行整合。如通過多元性、解釋一致性、實效性、多學科合作和非還原性等手段,[59]即基于理解的整合和基于機制的整合,旨在將各種不同的解釋性整合為一種機制性解釋。

當然,這種基于表征的科學解釋存在一定的爭議。反表征主義將認知描述為一個更簡單的過程,而表征主義則將心理內(nèi)容視為行為體的認知和行為狀態(tài)與環(huán)境之間的中介。反表征主義主張解釋要考慮認知主體和環(huán)境可供性的關系,傳統(tǒng)的認知主義則通常不會考慮這些因素,因為認知主義是以神經(jīng)為中心的。從認知生成視角看,“具身心智”觀點值得關注,該觀點認為“認知不是由一個被賦予的心智對一個被賦予的世界的呈現(xiàn),而是在一個被賦予的世界所表現(xiàn)的各種反應的歷史基礎上對世界和心智的作用”。[60]顯然,這一觀點挑戰(zhàn)了傳統(tǒng)認知科學及其認知模式,后者將人腦視為數(shù)字計算機,在符號處理的基礎上進行規(guī)劃、學習、理解和解釋。

結(jié)語

在當今人工智能蓬勃發(fā)展的時代,以ChatGPT和DeepSeek等大型語言模型為代表的人工智能技術(shù)正被廣泛應用于各個領域,其帶來的諸多問題亟待我們認真應對。從智能發(fā)展的視角看,計算智能和感知智能正逐步向認知智能演進,而認知智能亦將逐漸融入文化屬性,形成文化人工智能。若要實現(xiàn)人工智能的通用化和倫理對齊,需著重關注人工智能的語境化、倫理對齊、可解釋性與可靠性,從而推動具身人工智能或通用人工智能的實現(xiàn)。這一過程復雜且充滿挑戰(zhàn),絕非一蹴而就之事。然而,人工智能終將邁向通用化、可解釋以及安全可靠的發(fā)展階段。

(本文系國家社會科學基金重大項目“人工認知對自然認知挑戰(zhàn)的哲學研究”的階段性成果,項目編號:21&ZD061)

注釋

[1]魏屹東:《建構(gòu)文化人工智能的可能路徑》,《人民論壇·學術(shù)前沿》,2024年第14期。

[2]R. J. Sternberg, Beyond IQ: A Triarchic Theory of Human Intelligence, Cambridge University Press, 1985.

[3]R. J. Sternberg, A Triarchic View of Intelligence in Cross-Cultural Perspective, In S. H. Irvine & J. W. Berry (eds.), Human Abilities in Cultural Context, Cambridge University Press, 1988.

[4]J. Hawkins and R. Dawkins, A Thousand Brains: A New Theory of Intelligence, New York: Basic Books, 2021.

[5]M. Bardal and E. Chalmers, "Four Attributes of Intelligence, a Athousand Questions," Biological Cybernetics, 2023, 117(6).

[6][8]U. A. Agarwal and K. Jain et al., Managing People in Projects for High Performance, Springer Nature Singapore Pte Ltd, 2023.

[7]Ori Learning, "Cognitive Intelligence vs Emotional Intelligence: Key Insights," 4 October 2024, https://orilearning.com/cognitive-intelligence-vs-emotional-intelligence/.

[9]近年來,機器閱讀理解已成為所有語言處理研究中最流行、最具潛力的方向之一,其使計算機能夠像人一樣存儲文章、分析語義和回答問題。隨著深度學習技術(shù)的發(fā)展,機器閱讀理解在某些特定任務中已經(jīng)可以與人類水平相媲美,這依賴于人工智能邏輯系統(tǒng)的三個關鍵因素——平臺、數(shù)據(jù)和算法??梢灶A計,隨著計算機的算力和數(shù)據(jù)量的不斷增長,對算法的探索和改進已成為人工智能研究備受關注的領域之一,如DeepSeek在算法而非算力上勝出。

[10]這些心理過程包括注意、知識形成、工作記憶、問題解決、推理和計算、判斷、理解力、語言表達和信息處理等。

[11]SelfCareFundamentals, "Cognitive Intelligence: A Guide To What It Is & Why It Is Important," 16 October 2024, selfcarefundamentals.com.

[12]R. J. Sternberg, Cognitive Psychology, Harcourt Brace College Publishers, 1996.

[13]V. Varriale and M. W. van der Molen et al., "Mental Rotation and Fluid Intelligence: A Brain Potential Analysis," Intelligence, 2018, 69(C).

[14]D. Góngora and M. Vega-Hernández et al., "Crystallized and Fluid Intelligence Are Predicted by Microstructure of Specific White-Matter Tracts," Human Brain Mapping, 2020, 41(4).

[15]I. van Rooij and O. Adolfi et al., "Reclaiming AI as a Theoretical Tool for Cognitive Science," Computational Brain & Behavior, 2024, 7(4).

[16]F. El Kalach and I. Yousif et al., "Cognitive Manufacturing: Definition and Current Trends," Journal of Intelligent Manufacturing, 2024, 35(6).

[17]認知信息學作為一門新興學科,研究自然智能和人腦中的信息處理和認知過程,為理解解決難題、學習、決策和意識等人類認知過程提供了理論框架,并已應用于認知機器人、認知學習系統(tǒng)和認知代理系統(tǒng)。參見:T. Jiang and J. Zhou et al., "A Multi-Dimensional Cognitive Framework for Cognitive Manufacturing Based on OAR Model," Journal of Manufacturing Systems, 2022(65)。

[18]T. Jiang and J. Zhou et al., "A Systematic Multi-Layer Cognitive Model for Intelligent Machine Tool," Journal of Intelligent Manufacturing, 2024, 35(8).

[19]李德毅:《認知物理學基礎:認知自然和人類自身的奠基石》,《人民論壇·學術(shù)前沿》,2024年第14期。

[20]M. Srivani and A. Murugappan et al., "Cognitive Computing Technological Trends and Future Research Directions in Healthcare—A Systematic Literature Review,"

Artificial Intelligence In Medicine, 2023, 138.

[21]R. Priyadarshi and R. R. Kumar et al., "Techniques Employed in Distributed Cognitive Radio Networks: A Survey on Routing Intelligence," Multimedia Tools and Applications, 2025(84).

[22]S. Parvina and F. K. Hussainb et al., "Cognitive Radio Network Security: A Survey," Journal of Network and Computer Applications, 2012, 35(6).

[23][24][25]Z. Shi, Intelligence Science: Leading the Age of Intelligence, Beijing: Tsinghua University Press, 2021.

[26]M. Ren and N. Chen et al., "Human-Machine Collaborative Decision-Making: An Evolutionary Roadmap Based on Cognitive Intelligence," Springer, 2023, 15(7).

[27]M. R. Velankar and P. N. Mahalle et al., Cognitive Computing for Machine Thinking, Springer, 2024.

[28]T. Barfield, The Dictionary of Anthropology, Blackwell, 2000.

[29]P. C. Earley and E. Mosakowski, "Cultural Intelligence," Harvard Business Review, 2004, 83(1).

[30]S. Ang and L. V. Dyne et al., "Cultural Intelligence: Origins, Conceptualization, Evolution and Methodological Diversity," Oxford University Press, 2015.

[31]L. V. Dyne and S. Ang et al., "Sub-Dimensions of the Four-Factor Model of Cultural Intelligence: Expanding the Conceptualization and Measurement of Cultural Intelligence," Social and Personality Psychology Compass, 2012, 6(4).

[32]R. B. xiao, "Four Development Stages of Collective Intelligence," Front Inform Technol Electron Eng, 2024, 25(7).

[33]Y. Ofosu?Asare, "Cognitive Imperialism in Artificial Intelligence: Counteracting Bias with Indigenous Epistemologies," AI & SOCIETY, 2024.

[34]L. Koreň, "Cultural Intelligence, Shared Intentionality and Human Cognitive Uniquenes,"

Biology & Philosophy, 2024, 39(30).

[35]M. Tomasello, "A Natural History of Human Thinking," Cambridge: Harvard University Press, 2014.

[36]E. Herrmann and J. Call et al., "Humans Have Evolved Specialized Skills of Social Cognition: the Cultural Intelligence Hypothesis," Science, 2007, 317(5843).

[37]H. Moll, "The Transformative Cultural Intelligence Hypothesis: Evidence from Young Children's Problem-Solving," Review of Philosophy and Psychology, 2018, 9(1).

[38]魏屹東:《自語境化:智能機似人思維的關鍵》,《中國社會科學報》, 2013年6月10日,第461期。

[39]陳小平:《大模型關聯(lián)度預測的形式化和語義解釋研究》,《智能系統(tǒng)學報》,2023年第4期。

[40]R. Shrivastava and M. Jain et al., "Cross-Cultural Translation Studies in the Context of Artificial Intelligence: Challenges and Strategies," Cognitive Science and Technology, 2023.

[41]D. Aerts, S. Sozzo, "Quantum Structure in Cognition: Why and How Concepts Are Entangled," Lecture Notes in Computer Science, 2011(6571); D. Aerts, S. Sozzo, "Quantum Entanglement in Concept Combinations," International Journal of Theoretical Physics, 2014, 53(10); D. Aerts and L. Beltran et al., "Quantum-Theoretic Modeling in Computer Science," International Journal of Theoretical Physics, 2021, 60(1).

[42]M. L. Dalla Chiara and R. Giuntini et al., "Quantum Computation and Logic: How Quantum Computers Have Inspired Logical Investigations," Zurich: Springer, 2018.

[43]構(gòu)成性原理是說,一個整體的意義完全由其組成部分的意義及其組合順序來決定。這是加和意義上的整體,不是整合或糾纏意義上的整體。

[44]R. Leporini, "Extending a Model Language to Handle Entangled Concepts in Artificial Intelligence," Foundations of Science, 2024.

[45]李德毅、張?zhí)炖住㈨n威等:《認知機器的結(jié)構(gòu)和激活》,《智能系統(tǒng)學報》,2024年第6期。

[46]L. Floridi, A. C. Nobre, "Anthropomorphising Machines and Computerising Minds: The Crosswiring of Languages between Artificial Intelligence and Brain & Cognitive Sciences," Minds and Machines, 2024, 34(5).

[47]B. N. Macnamara and I. Berber et al., "Does Using Artificial Intelligence Assistance Accelerate Skill Decay and Hinder Skill Development without Performers' Awareness?" Cognitive Research: Principles and Implications, 2024, 9(46).

[48]S. J. Bickley, B. Torgler, "Cognitive Architectures for Artificial Intelligence Ethics," AI & Society, 2023, 38(2).

[49]G. Marcus, E. Davis, Rebooting AI: Building Artificial Intelligence We Can Trust, Pantheon Books, 2019.

[50]S. Larsson, F. Heintz, "Transparency in Artificial Intelligence," Internet Policy Review, 2020, 9(2).

[51]S. Milli and F. Lieder et al., "A Rational Reinterpretation of Dual-Process Theories," Cognition, 2021.

[52]F. Doshi-Velez and M. Kortz et al., "Accountability of AI Under the Law: The Role of Explanation," Berkman Klein Center Research Publication, 2017.

[53]M. Mitchell, Artificial Intelligence: A Guide for Thinking Humans, Farrar, Straus and Giroux, 2019.

[54]V. Dignum, Responsible Artificial Intelligence: How to Develop and Use AI in a Responsible Way, Springer Nature, Basingstoke, 2019.

[55]S. Cervantes and S. López et al., "Toward Ethical Cognitive Architectures for the Development of Artificial Moral Agents," Cognitive Systems Research, 2020.

[56]N. V. Maksimov, "Knowledge and Information in the Context of Natural and Artificial Intelligence," Scientific and Technical Information Processing, 2024, 51(1).

[57]N. Lee, Artificial Cognitive Intelligence, Cham: Springer, 2024.

[58]K. Khalifa and F. Islam et al., "Integrating Philosophy of Understanding with the Cognitive Sciences," Frontiers in Systems Neuroscience, 2022, 16(1).

[59]G. Galli, "Scientific Understanding and the Explanatory Integration in Cognitive Sciences," In: Aldini, A. (eds.), Software Engineering and Formal Methods, SEFM 2023 Collocated Workshops, Lecture Notes in Computer Science, Springer Nature Switzerland, 2024.

[60]F. J. Varela and E. Thompson et al., "The Embodied Mind: Cognitive Science and Human Experience," Cambridge MA: MIT Press, 1991, p. 9.

The Challenge of Cognitive Intelligence to Computational

Intelligence and Perceptual Intelligence

Wei Yidong

Abstract: The emergence of generative AI has challenged the traditional computational and perceptual intelligence of AI, and initially formed a new form of intelligence called "cognitive intelligence". The development of cognitive intelligence in the field of AI highlights the ability to understand natural language, which brings more humanity and intelligent cultural AI, such as contextualized AI, ethical AI, and explainable AI. These different forms of cultural AI are the specific forms of cognitive intelligence to be expanded, and they are also the specific paths to improve the cognitive ability of large language models.

Keywords: cognitive intelligence, computational intelligence, perceptual intelligence, generative artificial intelligence, cultural artificial intelligence

責 編∕楊 柳 美 編∕周群英

[責任編輯:楊 柳]