【摘要】從認知人類學的視角,對人工智人的發展展開思考,其核心問題可以表述為:人工智人以何為人?何以為人?人工智能的“二次性問題”,本來是人工智人以何為人的基礎,目前卻成為人類的挑戰,甚至挑戰著現有的社會價值和結構。在機器通過人工智能走向人工智人的同時,人類在很多方面已經開始受制于人工智能。特別是人工智能帶來的標準化、去文化、去主體性,以及最終的去人性,使得人類正在走向人類機器。“文化”是人類社會之腦,一旦人類被人工智能統治,會導致人類按照人工智能的規范去“二次文化”。鑒于此,一方面要約束人工智人,防止其以“科技暴力”統治并“文化”人類;另一方面基于人類學本體論轉向的文化認知,不應將人工智人簡單視為一種工具,而是應將其當作“人”,約束其成為有文化、有倫理的人。由此才能實現人工智能與人類長久和平共生。
【關鍵詞】人工智能 人工智人 人類學 認知人類學 二次性問題 文化
【中圖分類號】C912.4 【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2023.24.008
張小軍,清華大學社會科學院社會學系教授、博導,人類學與民族學研究中心主任。研究方向為歷史人類學、經濟人類學、發展人類學和認知人類學。主要著作有《社會場論》、《讓“經濟”有靈魂:文化經濟學思想之旅》、《讓歷史有“實踐”——歷史人類學思想之旅》、《讓“社會”有“文化”——人類學自我本土化反省》、《人工智能感官的主體性:感觀人類學視角的思考》(論文)等。
問題的提出
“我們的交通工具已經從獨木舟變成帆船,變成汽船,變成飛機,再變成航天飛機,但是我們還是不知道自己應該前往的目的地。我們擁有的能力比以往任何時候都更強大,但幾乎不知道該怎樣使用這些力量。我們讓自己變成了神,而唯一剩下的只有物理法則,我們也不用對任何人負責。……擁有神的能力,但是不負責任、貪得無厭,甚至連想要什么都不知道,天下危險,莫此為甚!”[1]
16世紀初人類學在歐洲發端,最初是以人體解剖學對“人”進行理解的。人之所以為人,是因為人體不同于其他生物,這奠定了人類學最早期關于“人”的理解和研究人的學科——體質人類學(physical anthropology)。體質人類學中有關早期的古人類學、人種學以及今天的生物人類學、分子人類學、遺傳人類學的研究,都表明了人類的生物和動物屬性。然而,這一點正在受到人工智人的挑戰。“人工智人(Artificial Intelligence Person, AIP)”指的是無肉身、有智腦的機器人,從某種程度上而言,是當前“人工智能(Artificial Intelligence, AI)”的仿人進階版。人工智人將人類從肉身中“解放”出來,重新提出了“人是什么”的基本問題。擁有智腦的人工智人在某些方面的能力超過人類,正在并已經改變著人類的生存以及存在方式,甚至正在改變對“人類”本質的相關理解。
最近,谷歌的AlphaFold,在一項極其困難的任務中擊敗了所有對手,成功根據基因序列預測了生命基本分子——蛋白質的三維結構。它和打敗圍棋高手的AlphaGo可謂“孿生兄弟”,只是將其人工智能轉向了人類科學中最棘手的領域——基因醫療科學。[2]面對這一突破,制造人類似乎已經曙光在即?未來的人類,是否會被人工智人所取代?最近幾年,一些世界頂級AI科學家和企業家因為ChatGPT4的出現,聯名呼吁限制AI研究。而對AI引發的危險,霍金也早有預見。
在機器通過人工智能走向人工智人的同時,人類在很多方面已經開始受制于人工智能,特別是人工智能帶來的標準化、去文化、去主體性,以及最終的去人性,使得人類越來越走向人類機器。圖1呈現了機器與人類通過AI的關聯走向。
由此,本文嘗試從認知人類學的角度,提出對人工智人/人工智腦的幾點思考,其核心問題可以表述為:“人工智人”以何為人?何以為人?
以何為人?——人工智人的“二次性問題”
“以何為人”的問題,是在問人工智人能否成為與我們同樣的“人”?憑什么可能成為“人”?進一步的問題是:人工智人有思維、語言和文化嗎?
仿人:人工智腦對人腦的挑戰。仿人(humanoid)是人工智能的基本出發點,在人工智人的發展中,人的思維、意識和語言等能力一直是其追求的目標。駱利群總結了人腦與智腦的區別,發現人工智腦(Artificial Intelligence Brain, AIB)在速度和精度上超越人腦。[3]筆者嘗試整理比較了AIB和人腦的能力,如表1所示。
表1表明,AIB只有兩個方面,即運算速度和精度,遠遠高于人腦,其他能力都弱于人腦。比較而言,人腦的優越性十分明顯,但AIB也在迅速追趕。比如,人腦比計算機慢1000萬倍(將來相對量子計算可能要慢億萬倍),卻為何如此高效?人類大腦由大約1000億個神經元組成,并由約100萬億個神經突觸連接。[4]大腦的一個顯著特點是以并行方式執行任務,而計算機主要是以串行方式。不過,學習人腦使用并行多核處理器已經是現代計算機設計的趨勢。大腦的另一個顯著特點是神經元之間的連接強度可以根據活動和經驗進行修改,重復訓練使得神經元網絡可以更好地執行任務。這也帶來人工智能領域的“深度學習”這一重要分支和方向,即采用多層結構來表示越來越抽象的特征(例如視覺過程),通過機器學習來調整不同層之間的連接權重,而不再依賴工程師的設計。不過,大腦依然比先進的計算機更具靈活性、泛化和學習能力。盡管如此,超高的速度、數量度和精度依然帶來了AI超高的數據處理能力,并產生了相應的超級腦力。AIP已經對人類提出了全面的挑戰。
第一個挑戰來自“思維”。思維是什么?這是理解AIP的基礎。人腦是人的信息處理器,在數億年的生物進化中,面對周圍復雜的世界,生物體逐漸形成了獨特的信息處理器官,包括現在仍在不斷進化的人腦。所謂“思維”,就是人腦通過處理信息獲得“秩序”的信息動力學過程。例如人觀察到山川河流,給它們以概念,同時建立起與自身的聯系,形成了關于山川河流的理解和文化意義編碼,這就是思維的過程和結果。人腦通過信息處理,即通過思維和認知來建立人與人、人與自然的行為秩序。AIB本身并不會完全像人腦一樣感知與處理信息,但是可以通過學習人腦的思維,獲得二次思維。
第二個挑戰來自“意識”。意識是來自人腦的一種能力,AI可否有意識?2023年10月,《神經科學趨勢》發表論文,認為AI系統抽象了生物過程,因此現有AI系統可能已經抽象了意識本身,困在無休止的模擬意識特征,卻不得意識之要領。[5]而在2023年8月,圖靈獎得主Y. Bengio等人曾論證了人類要想構建有意識的AI系統是完全可能的。[6]同時他與另兩位圖靈獎得主G. Hinton及姚期智在23年10月聯合重磅發文,提出降低AI帶來的傷害和風險。[7]一般來說,“意識”是一種信息方式的存在。AI用算法,人腦有神經系統,但這只是表面現象,因為AI也可以仿人來做神經網絡。兩者的關鍵區別是:人有自主意識,即自己根據需要進行“意識”的過程;而AI是仿人的學習能力,是訓練出來的非自主意識。通過“思維鏈(chain-of-thought)”可以不斷訓練模型,使AI學習人的思維方式,形成“意識”。但即便如此,這也是“二次意識”。
第三個挑戰來自“語言”。AI的語言能力已經由ChatGPT4給出了答案:在自然語言方面,其至少不輸人類,甚至可以超過一般人類;具有自然生成的語言能力,如寫報告、論文甚至小說和詩歌;可以自由地與人對話。這其中包括情景學習、思維鏈、自然指令學習等,都需要人的參與和仿人的學習機制。ChatGPT是對現有網絡語言秩序的歸納性處理,其行為是“為語言而語言”的標準化的“二次語言”,而不是為人類交流和有新意的創造活動而語言的。不過,隨著大語言模型(Large Language Model, LLM)的完善,其語言智能將超過一般人類個體,極大改變人類之間以及人與物的交流方式,甚至可以引導和改變未來的人類語言,形成“AI語言反噬”。這帶來了有關ChatGPT的終極之問。[8]也引發了其“二次語言”的問題。
第四個挑戰來自“文化”。文化的本質是人類社會的意義編碼體系,是人類社會的信息致序機制,相當于“人類腦”,幫助人類構建社會秩序。人類從小就在不斷的“文化化(culturalization)”過程中。AI可以學習語言,但可否學習文化?上述問題,人文與科學主義有著截然不同的出發點,周劍銘、柳渝嘗試用科學/人文的二分框架來解決人工智能深層次問題。其中提到“阿爾法狗(AlphaGo)”的原理性局限,認為圍棋是文化的行為,而“狗”沒有文化。[9]“阿爾法狗”的圍棋只是將圍棋的輸贏進行了所謂的智能化,不可能取代人類有文化的圍棋游戲和在其中的文化享受。不過,AI帶來的廣泛文化影響已經是事實。如有文章探討人工智能創造宗教的互聯網文化基因(meme),其所帶來的高可視度的文化產品反映出新的宗教及其背后的人文主義敘事。[10]更有甚者,有研究探討了由于人們對此身生活的局限而感到沮喪,于是期待一個虛擬世界的彼身,虛擬世界由智能機器和離開自己身體的人類居住。將自己的意識下載到機器中后,人類將擁有增強的心智能力,并通過其無限的可復制性而不朽。[11]人類逃避現世而變成AI人類,由此改變現世的倫理和文化邏輯,這已經成為一種想象。也由此帶來了“二次文化”的問題。
第五個挑戰來自“情感”。情感是當今AIB研究中最令人沮喪的領域,甚至讓人無從下手,因為不知情感從何而來。不過,AI依然可以與人進行情感互動,通過音樂、舞蹈、繪畫、電影、藝術等帶來情感知覺,包括興奮、愉悅、哀愁、凄涼,等等。但這只是人的單向感受,且在對同一內容(例如同一首音樂)的“集體狂歡”中,人們的細節感受也是不同的,是多樣性的。而這種在日常中眾多方面的不同,恰恰是構成相同體驗對話的重要基礎,這是因為正是人們日常的差異,才有找到共鳴的狂歡和不同“同類”的情感真諦。如果情感被AI不斷標準化,則將沒有情感可言。悲劇在于,即使沒有AI,我們的情感也在物欲中被物化,由此帶來標準化的“二次情感”。
第六個挑戰來自“生命”。一篇關于全球首個“數字人類”的報道記述了一位名為卡普蘭(A. Kaplan)的自然人希望自己所愛的人在他過世后能夠接觸到他一生的故事,于是同意成為數字人“AndyBot”,這樣他將在云上永生。類似地,弗拉霍斯(J. Vlahos)于2017年創建“Dadbot”,是在他得知父親即將死于癌癥,于是想利用AI讓父親“永生”。在父親生命的最后3個月,他將與父親就各種話題的談話、講述用攝像機錄下來,記錄了91970個單詞,訓練出一個對話AI——“Dadbot”。由此他可以與逝去父親的計算機化身交換文本和音頻信息,談論他的生活、聽歌、閑聊和說笑。[12]“AndyBot”和“Dadbot”提出了人的不朽的本質和存在目的之復雜哲學問題,是否意味著“二次生命”的來臨?
人文主義和科學主義是理解人工智能的兩種不同視角,人文主義的極端視角認為人工智腦是反人文、反人本、反人類的;科學主義的極端視角認為人工智腦是可以全面替代人類的,特別是ChatGPT的出現,更令人誤以為人工智腦無所不能。新的人工智能理論更強調智能主體(agent,能動者)是一個有自主學習能力的主體。這些理論多是注重AI的表面機器行為方式,而忽略了人腦的思維、語言、情感、文化與生命過程,尚缺乏文化主義的視角,即缺乏人類腦及“文化”的視角。“文化”作為人類社會之腦,其所進行的復雜信息處理的本質,是構建人類社會的秩序。重要的是,人腦不是為秩序而秩序,而是以人類生存為目標,是不斷尋找最優的人類秩序。這其中,必然涉及人類的倫理價值,必然有情感存在其中,必然是長期的文化積累。這是目前AI還難以突破的。
人工智人的“二次性問題”。由上述討論,可以提出AI的“二次性問題(Quadratic problem)”。所謂“二次性(Quadratic property)”,是指AI的上述所有能力——思維、意識、語言、文化、情感、生命,都不是AI本來的存在屬性,而是機器仿人的結果。表面上,AI只是人類發明的新工具,“二次性”似乎是常識。不過,隨著AIP逐漸逼近、融合甚至超過和取代人類,這個問題已經變得十分嚴峻。
論及人腦與AIB的基本區別,人們可以說出腦結構、腦神經系統、信息處理方式等方面的不同。而從人類學的角度看,兩者主要是文化認知方式的不同。限于篇幅,這里只討論一個最基本,也是人類學中最重要的概念:經驗。
從人類學(而非哲學)的角度,經驗是人腦處理復雜信息的主要方式,是在數十萬年中人腦處理信息能力不斷進化的結果,它既不是AI算法,也不是大數據的統計。無論思維、意識、語言、文化,等等,本質上都是經驗的。因此可以廣義稱之為“經驗智能”。經驗智能是人們生活的主要智能,是直接智能。人工智能雖然有算法,但很大程度上是以人類的經驗來仿人的,本質上是一種二次經驗智能,是間接智能。在認知的意義上,“經驗”是一種借助感官進行信息采集,再通過大腦進行信息加工的動力學過程。人文科學就是一門“經驗的學科”,人類學尤其如此。社會學雖然有數理統計方法,但是也離不開經驗,統計事實可以說是基于人類經驗的數學抽象。康德(Immanuel Kant)在《純粹理性批判》中,討論了“經驗”和“數學”兩種思維,認為經驗的原理和數學的原理都是來自人們經驗(經驗在此為動詞)事物之前“物自體”本身的規則和秩序。[13]人類學家特納(V. Turner)更對經驗的重要性直言不諱:“對所有人文科學和研究來說,人類學是最深厚地植根于調查者的社會和主觀經驗之中。每件事情都來自自我的經驗,被觀察的每件事情最終都是按照他(她)的脈搏而跳動。”[14]
經驗本質上是人腦處理信息能力之結晶。目前所有的AI算法本質上也是經驗算法。無論是圖像識別,還是ChatGPT,本質上都是以人類的“經驗能力”為基礎的。從人腦的信息動力學內涵探討人腦的“經驗”對于智腦的本質性影響,這可被稱為“人工智能的經驗主義”:經驗是人腦認知世界(信息處理)的主要方式。人工智能的本質是人類的經驗智能,是對人類經驗認知的經驗學習和經驗計算,是一種“二次經驗”。人類經驗的本質是文化的。智腦的二次經驗目前只能模仿性學習人類行為,還無法理解性學習行為背后的文化。
具體來說,人腦在處理信息中存在“經驗”和“算法”兩種基本的思維運行方式,并由此延伸,形成了“人文(經驗的)”與“科學(計算的)”的分野,兩者都是人腦的存在及其產物。人工智腦的運行來自在表層將經驗思維和計算思維的結合,但是在深層,依然是以“二次經驗”為主的智腦思維。“二次經驗”為主的智腦思維與人腦思維的根本區別在于,前者“沒文化”,而后者有。智腦以其所謂的“科學技術”對人類進行標準化的“去文化(de-culture)”。甚而,智腦可能超越人腦,人工智人可能超越人類,最后反噬人類。
進一步看,從人腦作為信息處理器的基本信息處理的文化方式出發,人腦的信息處理可以分為兩個并行的基本部分:冷思維與熱思維。前者對經驗信息的處理是直接分析與處理,沒有社會溫度,AIB比較容易達到;后者包括了社會倫理道德、情感、文化等影響,AIB很難模仿。處理信息的“冷思維”,主要包括經驗思維和計算思維。經驗思維是人類基本的思維方式,也是人文科學的基礎思維方式,自然科學同樣是人腦的認知結果,包括經驗思維和計算思維。這樣看,人文和自然科學都是人腦的思維活動結果,區別只是兩者以不同的思維方式看世界。有社會溫度的“熱思維”與冷思維不同,是以倫理道德規范、情感等為基礎的文化思維。其本質是建立良好的人類秩序,而不是強化某種人腦的能力。
人是有“人性”的。人性中基本的理性、情性、感性、習性及其延伸出的真、善、美、愛的價值追求、道德倫理,以及信仰,等等,機器人可以產生嗎?可以自己生成嗎?答案是不行。人性,絕非簡單的物理和生物構造。一個人的“人性”是在其一生中鑄就的。最重要的是,人性是不能通過簡單學習得來的。目前機器人被訓練出了高水平的學習能力,但是愛情可以“學習”而來嗎?信仰可以“學習”而來嗎?答案也是不行。一個人因為某個偶然的反應而“一見鐘情”,因為一個偶然的閃念靈動而皈依,這都不是學習來的,而是一種嵌入身體生物學系統(神經等系統)的信息動力學機制。
人類為什么會生成情感、思想、倫理?因為這些是人類生成秩序的需要。秩序(包括特納所言的“離反秩序”——anti-structure)是萬物的自然追求。人腦最終遵循的是自組織信息動力學,情感、思想、倫理都是這個自組織信息動力學機制的產物。為什么這樣說?因為人伴隨著宇宙的演化,生成了許多“元秩序”,人腦作為信息處理系統,就要滿足這些秩序。情感,是建立秩序的一種機制;思想,是選擇、適應、改變秩序的一類思考;倫理,是維系秩序的一種方式。人工智人還做不到“情感智能”、“思想智能”和“倫理智能”。比如弗洛伊德所說的“libido”(性力、欲力),其中包括了愛和性。愛是人性,愛需要有他人,需要有社會。AIP沒有充分的社會性生活,沒有家庭生活,如何產生愛。因此,AI只能模仿情感表現的表面行為,并不能真正生成情感。人腦如果沒有他人、外界信息的刺激,就不會有語言能力,“狼孩”就是例子,而機器人與狼孩一樣也沒有必要刺激。同樣,因為有性的成長,才有了人的老幼之別、“生死之戀”、男女之分,才有了家庭婚姻和親屬制度。因此人工智人沒有性,從根本上就不可能具備情感、倫理,而只能最多是表面的、標準化的行為模仿。有報道說某國家有人與AIP做夫妻,你當然可以愛一個AIP,但是它只會用算法和二次經驗來“愛”你,也難有愛的情感涌現(一見鐘情)和復雜的、個性的、深度的情感表達。
幾年前,筆者發表了《人工智能感官的主體性:感觀人類學視角的思考》一文,論述了各種感官的人工智能帶來的AI的“二次經驗”、標準化以及“去主體性”“去文化”等問題。[15]以視覺為例,AI的圖像識別實質上不過是眾多常人識別的經驗大數據分析之結果。這些經驗算法是否能得到人類經驗的真諦,是否符合人們的真實經驗?答案是否定的。目前的圖像識別只是對圖像對錯的判斷,基本不能涵蓋不同人對同一圖像的不同情感、不同經歷帶來的不同感受以及不同文化意義上的不同理解。ChatGPT4的出現,似乎改變了上面的很多結論,其實不然。伽達默爾(Hans-Georg Gadamer)在《真理與方法》中提出,“人是一種語言的存在”[16],強調語言信息在人類溝通和建立社會秩序中的基本作用,甚至認為語言就是人的存在本身。ChatGPT4把“人的存在”重新定義,讓人類有些不知所措。通過超強的“經驗組合”與編輯能力,ChatGPT4似乎可以具有很多“文化行為”,例如寫報告、寫小說、編故事。但是,人們忘記了人還有一個更重要的存在——“人是一種文化的存在”;同時,文化也是人的存在本身,人必然是“文化人”。ChatGPT4局限于語意的放大和創造能力,這遠不是文化信息及其生成秩序的能力。ChatGPT4本質上還是語言的二次經驗,只是在信息處理能力上有了飛躍(“涌現”產生),形成了一種高水平的超常人的大數據二次經驗。
對于人類學來說,經驗本質上是文化的,沒有不文化的經驗。[17]由此,AI的二次經驗,也是“二次文化(second culture)”的。但是,AI的二次文化,有些是對一次文化的異化,如科技暴力就是對原文化的“文化強暴”。人類一直強調善用科技,防止科技發明帶來的反人類的科技暴力,然而AI科技暴力卻越來越肆無忌憚,甚至AI武器也被大量生產。鑒于此,我們有必要回到原來的文化基點,賦予AI以人的健康文化。
何以為人?——人類的文化本質
“何以為人”,是問機器人智腦有“人性”“思想”“信仰”“倫理”嗎?其最終的問題是,智腦有“文化”嗎?如果沒有,他們“何以為人”?
人工智人的文化歸宿。“文化”是人類的意義編碼的運行軟件系統,也是人類的秩序和致序過程。人類文化是衡量AIP能否為人的最基本層面。人類與AIP之爭,最根本的不是思維能力之爭、語言能力之爭,而是文化之爭。筆者曾經給出如下“文化”定義:文化是人類遵照其相應的自組織規律與社會及其周圍事物的各種聯系,運用信息進行秩序創造并共享其意義的具有再生產性的復雜編碼體系。
簡言之,“文化”是人類社會之腦,自組織的自發有序是人類秩序之母。文化中蘊含了思想、情感、信仰等復雜的信息能力(文化本身的信息過程就包含了經驗和動力學兩個方面),這些能力不可能像AI一樣單獨產生。沒有文化經歷,人們不可能產生這些復雜的信息能力和結果。危險的是,一旦人類被機器統治,會導致人類文化按照機器的規范建立。所以,一方面,要防止被AIP(通常借助某些權力)統治并“二次文化”人類;另一方面,要限制AIP,讓其有文化。
金觀濤曾從“科學與人文”的視角,強調當前這場人工智能革命實質是對“智能”認識的某種退步,AlphaGo的工作原理是仿生學,而人類智能的內核——創造并使用符號的能力卻遭到忽視。究其原因,這是現代社會中人文精神喪失與科學被技術異化的惡果。人類智能不同于生物本能之處在于,人不僅具備選擇的能力,還具備創造符號以及利用符號系統把握世界并賦予世界意義的能力。[18]
AI對人類的標準化、去主體性、去文化,是顛覆人類的根本性問題。筆者曾對機器人與人類的感官經驗進行比較,分析兩者感官經驗的生成方式以及基于感官經驗的與外部世界互動的方式,由此理解機器感官與人類感官的根本區別與關聯。機器人的“感官經驗”將人類單一感官處理物的信息的經驗抽離出來,是“去文化”“標準化”的計算產物。理解機器人感官與人類感官的根本區別在于“文化”,人類的身體感官是以高聚能、低能耗的最優秩序為原則而進行感知的。[19]
AIP無文化,卻可以有“二次文化”,還可以對我們進行二次文化,當然也可以被我們“文化”。有學者從麥克盧漢的“媒介延伸論”看人工智能威脅論,認為人工智能消除主客界限,是人類的延伸,沒有威脅。[20]問題在于,既然人工智能可以消除主客觀屏障,成為人類的延伸,也就意味著可以延伸人類之惡。因此,賦予人工智人以人類真善美的倫理文化,而不是邪惡、丑陋、奴役人類的倫理文化,這一點至關重要。
同時,AI可能會使人類失去創造力。ChatGPT是對自然語言進行標準化的典型——只要是同樣的提問,便會得到同樣的結果。它讓人們的倫理判斷“失聰”,因為標準化的ChatGPT讓人誤以為,只要是大多數人的說法、做法、看法,就是對的。AI永遠不具備真正的文化能力(但可以模仿文化行為),而人類一旦被AI標準化,也會喪失文化能力。AI的創造力表面上似乎不亞于絕大多數人的想象力,但是實際上,AI帶來的生活多樣性的喪失正在把人類變成機器。此外,AI還讓人們之間的信任變成了“技術信任”或“機器(制度)信任”。但是,人們還未意識到,技術信任會降低人與人之間的直接信任,改變人類的信任生態。
人工智能領域有關“常識”的討論很有意義。人們在日常生活中依賴“常識”而行為。現實中,機器的常識是人給予的,而人的“常識”首先是經驗的,其次必然是文化的。在人類學中,“常識”主要指日常生活的知識。常識的形成本身就是一個文化的經驗過程,沒有不文化的常識。有什么樣的文化,就會引出什么樣的“常識”,并不存在孤立的“常識”。但是,機器人的常識背后是沒有文化的,其只是通過大數據來模擬計算出一般的常識,是“標準化”的常識,完全不能進行真實人類的替代。
從技術上看,AI超越一般人的某些能力完全不成問題。人類從制造工具開始,就已經在創造某方面能超越自己的東西。在技術決定論的進化論者眼中,人類的演化歷史就是工具的演化歷史。[21]那么,AI,例如ChatGPT4(如果)超越人類,是否會給人類帶來災難,是否可以被理解為一種AI“原子彈”?筆者認為,AI已經不是如原子彈一般的“工具”,而是在成為人、取代人。其殺傷力不是瞬間的沖擊波,而是緩慢的文化信息波——通過改變人類文化而讓人類“墮落”。例如,取代人類工作而造成大量失業,幫助抄襲“開綠燈”而導致道德敗壞,非法獲取商業機密、個人信息和隱私數據等而侵犯他人權益,等等。
因此,其一,所有人工智人的控制軟件都應該加入相關的倫理程序甚至法律程序,要有“人”的責任代碼。其二,AI有關的法律問題,可以通過立法來解決。如我國公布實施了《生成式人工智能服務管理暫行辦法》,旨在促進生成式人工智能健康發展和規范應用,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權益。其三,AI的相關倫理問題,如ChatGPT4是否應該讓資本贏利而讓大量人員失業,是否應將其用在教育上而阻礙學生自身寫作等能力的形成,這些根本上還是人類社會的文化問題——AI何以為人的問題。
AI的“去文化”“去人性”等特點,可能令人的主體性、主體意識弱化甚至喪失,帶來教育標準化、勞動能力退化、認知能力退化、身體能力退化。AI思維、AI語言、AI文化的“災害”包括:盲目標準化的教育、喪失勞動力的市場、泯滅創造力的設計、忽視多數人的信仰、缺乏多樣性的生態、抹殺獨立性的思想,等等。前有心理學研究支持抖音等推薦系統帶來個性和多樣性的結果。[22]后有清華大學團隊在《Nature》子刊《Nature Machine Intelligence》上發文,討論網絡推薦系統這類軟件如何制造“信息繭”,如何使人們作繭自縛——表面上有個性的多樣性推送如何使人類在與AI的日常互動中逐漸失去信息的多樣性,而被困于“信息繭房”之中。[23]還有社會學家提出,算法的背后是一個商業的資本邏輯,商家利用人們的消費習慣和傾向,通過算法進一步刺激消費,結果消費行為不自覺地被商業引導而發生改變。[24]不管是“信息繭房”,還是“算法控制”,實質上都是AI反身訓練人類和賦予人類“二次文化”,放大人類不良文化的典型。
在人類學領域,已經有學者思考“機器人公民”的概念。陶慶曾專門討論新政治人類學與“類人機器人”猜想,包括“機器人公民”工具性與自主意識、“機器人公民”公共性與社會責任。[25]現實中,索菲亞作為歷史上首個獲得公民身份的機器人,在被詢問“你想毀滅人類嗎”時,其在片刻的面無表情后立即回答“我將會毀滅人類”。很多人對此提出抗議,其中包括馬斯克,他認為人類應該限制機器人,不然不受限制的人工智能在未來極有可能成為人類的大患。[26]因此,亟需給AIP以倫理和法律等約束,即把AIP當作“人”,而不是工具,應讓AIP與人一樣,有倫理、有文化。
法國著名思想家莫蘭(Edgar Morin)認為,鑒于科學固有的兩可性,我們知道它所產生的新能量既可以被用于行善,也能被用于作惡。[27]正如沃伊切霍夫斯基所言:“科技在取得成功的同時也失敗了。成功在物質上,失敗在道德上。”人工智能的發展可能將人類從一些職業的束縛及其所屬的任務中解放出來,但是,盡管這樣也無法回避一種假設,那就是人工智能擺脫了伺服裝置的控制,反過來變成控制者。更何況它在一定程度上已經成為資本和權力的工具。從人類學的角度看,倫理并非人類的終點,而是人類的起點。一般來說,人類社會有三種所謂的規范,第一種是倫理道德,第二種是民規民約,第三種是法律規范。從規范的強制性上看,從第一種到第三種依次增強。人類學所研究的初民社會是沒有法律的,初民使用倫理道德和民規民約就可以建立良好的社會秩序。隨著現代社會問題增多,人們才開始使用強制性的法律。但是,沒有倫理道德的社會,法治是不可能實現的,或者只能是扭曲的實現,甚至成為少數人的權力和利益工具。在這個意義上,倫理是人類社會良性運行的基礎,也同樣應該被賦予人工智人,因此應開展人工智人的倫理制度建設。
基于人類學本體論轉向中的文化認知,最重要的是把AIP當作“人”,而不是視其為一種工具。近年來,人類學的本體論轉向成為熱潮。拉圖爾(Bruno Latour)提出“行動者網絡理論(Actor-Network Theory, ANT)”,抹消了人與“非人”的界限,[28]后又提出人與自然的“對稱性人類學”,都是在去人類中心。[29]進一步,卡斯特羅(Eduardo·Viveiros de Castro)的“視角主義(perspectivism)”將尼采(F. Nietzsche)的相關概念引入人類學的研究,并基于“視角主義”研究美洲大陸原住民,強調“多元自然主義(multinaturalism)”[30]筆者認為,去人類中心的本體論轉向其實蘊含著兩個方向,即平等原則下“都視為物”或者“都視為人”,也即皆為agent(能動者)。過去,我們把AIP當作科技工具,與人分離,于是,產生了“科技暴力”。現在,我們要把AIP當作“人”,讓其承擔作為“人”的社會義務以及倫理道德和法律責任,這樣才能讓AIP更好地為人類服務,促進人類和平、幸福、美好的文化前景,而不是相反。
從文化思考人工智人:認知人類學角度。自然界超越人的能力者千千萬萬,植物、昆蟲、動物,都有過人之處,人類唯一的優勢是人腦。但是大家忽略了另一個“唯一”,那就是群體人類的社會腦——文化。人類學家認為,在進化的鏈條上,文化是人類唯一與動物的不同之處。對于文化腦來說,無論是人文經驗還是科學計算的能力,最終都是一種文化能力。人類不可能有無文化的人文經驗,也不可能進行無文化的數字、符號和公式的計算。文化是人類腦信息處理的起點、過程和結果,也是人類認知進化的結果。古迪納夫(W. H. Goodenough)清楚地表明了認知人類學的文化觀:文化系統將個人的認知世界與個體意識和行為聯系起來形成社會。所謂文化,就是個人的認知世界相互關聯而形成的解釋模式,即圍繞某個社會的知識體系形成的觀念模式。[31]
與人工智能研究最為接近的,是認知科學(cognitive science)。有人類學家,如格爾茲(C. Geertz)曾對認知科學提出批評,“最近隨著認知科學發展起來,有一種趨勢出現了:文化和心靈這兩個術語幾乎完全被巧妙打發,代之以談論神經回路和計算加工、接受人工智能的可編程系統——這個策略讓思想的社會居所問題和意義的個人根基問題都不被觸及也不可觸及”[32]。這一批評十分犀利,提醒認知科學的發展不應該走向“科學主義”,而應該走向“文化主義”,因為認知科學最終應該為人類服務,而不是為“科學”作腳注。類似地,對于人工智能而言,取“文化主義”而非“科學主義”,從某種程度上說也同樣是“應然”和“必要”。
認知科學包含了與人工智能相關的所有主要學科。其學科組成如圖2所示。認知科學有6個基礎支撐學科:神經科學(腦)、計算機科學(信息)、哲學(思維)、語言學(語言)、心理學(意識)和人類學(文化)。其中4個是人文核心學科,即認知哲學、認知語言學、認知人類學和認知心理學,這些正是與人工智能相關的主要研究領域。此外,認知科學還包括11個交叉學科:腦神經信息科學(腦-機交互)、神經語言學、神經心理學、計算心理學(認知計算機仿真)、計算語言學(智能語言)、心理語言學/語言心理學、哲學心理學/心理哲學、語言哲學/哲學語言學、語言人類學(社會語言學)、心理人類學/文化心理學、腦進化/腦人類學。另外,還可補充4個交叉學科(如圖2虛線所示):哲學/倫理人類學、AI和信息哲學、文化信息學/AI人類學、腦哲學。可見,人類學構成了認知科學多個擴展交叉學科的基礎與支撐,而認知人類學為認知人工智人帶來了新的視角。
認知人類學作為人類學的一個分支學科,與心理認知、語言認知等學科的區別是文化認知。20世紀認知人類學的發展一般可以分為如下階段:50年代是“民族科學”的早期形式化階段;60年代是研究民俗模式的普遍認同的中期階段;70年代以后是科學化階段,形成心理學的轉向,也吸收了結構主義和語言學的理論要素和方法論;80年代是文化先驗圖式研究和共識理論的發展階段;90年代開始的文化認知與進化理論階段,主要有關聯理論(relevance theory)等。當代認知人類學試圖發現人類行為的文化認知基礎以及激發人類行為的深層致序原理(行為動機)。人工智能無疑涉及這一層面,因而也正在成為認知人類學的重要研究領域。當前認知人類學的研究領域(詳見表2)主要包括語義學、知識結構、模式和系統以及話語分析,這些均與人工智能關聯密切。
借鑒人工智能和認知心理學,認知人類學曾提出3個模型[33]:其一,信息過程模型(information-processing models),探討人工智能架構的一般原則及其對人類認知的影響,如“并行分布處理”(PDP)和“聯接式處理”(connectionism)。其二,認知發展模型(cognitive-developmental models),重在對不同文化進行比較,發現共同的認知發展軌跡。其中,列維-斯特勞斯的結構主義試圖發現人類的心智結構(mantel structure)——不是現象的共同,而是深層認知機制的共同。[34]比如著名的“二分模式”,以及關于神話和親屬制度的結構研究,都是文化認知的心智結構。其三,感知經驗模型(perception and experiential models ),認為在環境中共享感知過程和經驗會形成跨文化的認知模式。其中,拉科夫(G. Lakoff)和約翰遜(M. Johnson)主張“不受主觀主義和客觀主義概念陷阱影響的經驗現實主義(experiential realism)”,強調身體活動及其在空間的位置產生了知識結構與推理模式,其主要方式是通過基本的生理體驗產生系統性結構化的隱喻(意義體系),例如“上”“下”。[35]除上述3個認知人類學模型外,“文化認知模型”是探討研究人工智能的重要路徑,應給予重視。
結論
從認知人類學的視角出發,人工智人發展的核心問題可以表述為:“人工智人”以何為人?何以為人?人工智能的“二次性問題”——包括二次思維、二次意識、二次語言、二次文化等,本來是人工智人為人的基礎,目前卻逐漸成為人類的挑戰,挑戰著現有的社會價值和結構。在機器通過人工智能走向人工智人的同時,人工智能帶來的標準化、去文化、去主體性以及最終的去人性,使得人類正在走向人類機器。人工智能“文化”是人類社會之腦,一方面,要約束人工智人,防止人工智人以“科技暴力”統治并“文化”人類;另一方面,基于人類學本體論轉向的文化認知,不是應將人工智人簡單視為一種工具,而是應把其當作“人”,約束并規范其成為有文化、有倫理的人。由此人工智人才能與人類長久和平共生。
盲目的人工智人恐懼癥不利于人工智能的發展。我們應清醒地認識到:人工智能依然是人類社會文化結構的投射。在人工智能武器、人工智能違法、人工智能道德敗壞等負面情況的背后,本質上依然是人類社會中資本、權力、戰爭、貪婪等在起作用,前者是后者的反映。人工智能反噬只不過是現實社會“上梁不正下梁歪”的科技推手。因此,在人工智能發展的同時,在對人工智人進行倫理道德和文化賦權的同時,反省人類自己的社會文化結構以及倫理道德缺失,才是人工智能與人類和平共生的深層基礎。
注釋
[1]尤瓦爾·赫拉利:《人類簡史:從動物到上帝》,林俊宏譯,北京:中信出版社,2014年。
[2]《谷歌突然宣布:上帝的密碼防線逐漸崩潰!人工智能有可能是人類文明史的終結!》,2021年12月4日,https://www.sohu.com/a/505156893_686587。
[3]駱利群:《為何人腦比計算機慢1000萬倍,卻如此高效?》,2018年5月30日,https://zhuanlan.zhihu.com/p/37485630。
[4]參見L. G. Luo, "Architectures of Neuronal Circuits," Science, 2021, 373, p. 6559.
[5]J. Aru; M. E. Larkum; J. M. Shine, "The Feasibility of Artificial Consciousness Through the Lens of Neuroscience, Trends in Neurosciences", 18 Oct 2023, https://doi.org/10.1016/j.tins.2023.09.009.
[6]P. Butlin; R. Long; E. Elmoznino; Y. Bengio et al., "Consciousness in Artificial Intelligence: Insights From the Science of Consciousness," 22 Aug 2023, https://arxiv.org/pdf/2308.08708.pdf.
[7]Y. Bengio; G. Hinton; A. Yao, et al., "Managing AI Risks in an Era of Rapid Progress," https://doi.org/10.48550/arXiv.2310.17688;也參見何懷宏:《GPT的現實挑戰與未來風險——從人類的觀點看》,《探索與爭鳴》, 2023年第6期。
[8]圓桌:《潘多拉魔盒還是文明利器——大文明視野中的ChatGPT反思》,《探索與爭鳴》,2023年第5期。
[9]周劍銘、柳渝:《兩種“兩種文化”交匯中的人工智能》,《科學與社會》,2018年第1期。
[10]B. Singler, "The AI Creation Meme: A Case Study of the New Visibility of Religion in Artificial Intelligence Discourse," Religions, 2020, 11(5), p. 253.
[11]R. M. Geraci, "Apocalyptic AI Religion and the Promise of Artificial Intelligence," Journal of the American Academy of Religion, 2008.
[12]《全球首個“數字人類”曝光!意識在云端永生》,2019年8月29日,https://www.washingtonpost.com/technology/2019/08/29/hey-google-let-me-talk-my-departed-father/。
[13]約翰·華特生選編:《康德哲學原著選讀》,韋卓民譯,北京:商務印書館,1987年,第89頁。
[14]V. W. Turner, Dewey, Dilthey, and Drama: An Essay in the Anthropology of Experience, The Anthropology of Experience, V. Turner & E. M. Bruner(eds.), Champaign: University of Illinois Press, 1986, p. 33.
[15][19]張小軍、楊宇菲:《人工智能感官的主體性:感觀人類學視角的思考》,《中央民族大學學報》,2020年第2期。
[16]伽達默爾:《真理與方法》,洪漢鼎譯,北京:商務印書館,2007年。
[17]張小軍、木合塔爾:《走向“文化志”的人類學:傳統民族志概念反思》,《民族研究》,2014年第4期。
[18]金觀濤,《反思“人工智能革命”》,《文化縱橫》,2017年第4期。
[20]姚庚君:《用麥克盧漢的“媒介延伸論”及其現象學哲學基礎審視“人工智能威脅論”》,《硅谷》,2015年第05期。
[21]懷特:《文化科學——人與文明的研究》,曹錦清等譯,杭州:浙江人民出版社,1988年。
[22]《清華大學社科院課題組:抖音算法提供多元信息,95%用戶選擇開啟個性化推薦》,2023年1月19日,https://www.163.com/dy/article/HRFJ0TSK0519C6T9.html。
[23]J. H. Piao; J. Z. Liu; F. Zhang; J. Su and Y. Li, "Human–AI Adaptive Dynamics Drives the Emergence of Information Cocoons," Nature Machine Intelligence, 09 Oct 2023, https://www.nature.com/articles/s42256-023-00731-4.
[24]嚴飛:《我們如何逃脫算法營造的信息繭房?》,2022年12月14日,https://www.sohu.com/a/438231008_114988;《清華大學社科院課題組:抖音算法提供多元信息,95%用戶選擇開啟個性化推薦》,2023年1月19日,https://www.163.com/dy/article/HRFJ0TSK0519C6T9.html。
[25]陶慶:《新政治人類學與國家–社會關系》,北京:社會科學文獻出版社,2018年。
[26]《曾揚言要摧毀人類的機器人索菲亞,擁有沙特公民身份后,如今怎樣?》,2023年9月7日,https://www.sohu.com/a/713867585_121161354。
[27]埃德加·莫蘭:《倫理》,于碩譯,上海:學林出版社,2017年。
[28]B. Latour, Reassembling the Social, New York: Oxford University Press, 2005.
[29]布魯諾·拉圖爾:《我們從未現代過:對稱性人類學論集》,劉鵬、安涅思譯,上海文藝出版社,2022年。
[30]Eduardo Viveiros de Castro, "Cosmological Deixis and Amerindian Perspectivism," The journal of the Royal Anthropological Institute, 1998, 4(3), pp. 469–488;愛德華多·科恩:《森林如何思考:超越人類的人類學》,毛竹譯,上海文藝出版社,2023年。
[31]W. H. Goodenough, "Cultural Anthropology and Linguistics," Georgetown University Monograph Series on Languages and Linguistics, 1957, 9, pp. 167–173; W. Strurteant, "Studies in Ethnoscience," American Anthropologist, 1964, 66(2), pp. 99–131.
[32]克利福德·格爾茨:《燭幽之光:哲學問題的人類學省思》,甘會斌譯,上海世紀出版集團,2013年,第189頁。
[33]T. Barfield, The Dictionary of Anthropology, Oxford: Blackwell Publishers Ltd, 1997, pp. 67–69.
[34]克洛德·萊維–斯特勞斯:《結構人類學》,謝維揚譯,上海譯文出版社,1995年。
[35]G. Lakoff and M. Johnson, Metaphors We Live By, Chicago: University of Chicago Press, 1980.
Cognitive Anthropological Reflections on Artificial Homo Sapiens
Zhang Xiaojun
Abstract: From the perspective of cognitive anthropology, this paper tries to put forward some thoughts on the development of AI. The core questions can be expressed as follows: With what AIP to become human? How is AIP as a human being? The "quadratic problem" of AI, which was originally the basis of AIP, has now become a challenge for human beings. In particular, the powerful language function of ChatGPT-4 is even challenging the existing social values and structures.While machines use AI to reach AIP , humans have begun to be subject to AI in many ways. In particular, the standardization, deculture and desubjectivity brought about by AI is ultimately the dehumanization, making human beings moving towards human-machines. "Culture" is the brain of human society. Once human beings are ruled by AI, it will lead to human beings to "secondary culture" according to the norms of AI. Therefore, on the one hand, AIP should be restrained to prevent AIP from ruling and "culturing" us with "technological violence"; on the other hand, based on the cultural cognition of the anthropological ontological turn, AIP should not be regarded simply as a tool but as a "human being", and should be treated as a "human being" that is bound to become a cultured and ethical person. This will lead to a long-lasting and peaceful coexistence with human beings.
Keywords: AI, AIP, anthropology, cognitive anthropology, secondary issues, culture