哥德爾定理。在計算機科學界和人工智能學界,人們都知道摩爾定理、圖靈定理,但其實更基礎、更重要的是哥德爾定理。1931年,奧地利邏輯學家哥德爾發現在一個充分大的形式系統(至少應該包括初等數論的形式系統)中,存在自我指稱的公式。由于這一發現,哥德爾證明了形式公理系統的不完全性定理。
這兩個重要的定理,后來被合稱為“哥德爾不完全性定理”。簡單來說,一個至少包括初等數論的形式系統N,如果N是一致的,那么它就是不完全的;第二不完全性定理說,如果上述形式系統N是一致的,則N的一致性的證明不能在N中形式化。
簡單定義定理中的兩個重要概念:一致性和完全性。
語義一致性也稱為可靠性。簡單來說,它保證系統內的定理都是真的。
可以看出,完全性是可靠性的逆命題,完全性說明,系統的語義滿足關系蘊涵語法推演關系。換句話說,在具有完全性的形式系統中,凡真的公式都是可證明的。
1931年,哥德爾證明的不完全性定理(后來以他的名字命名為哥德爾定理)證明兩點:第一,一致性和完全性是不可得兼的,如果它是一致的,則它是不完全的,系統內至少包含一個真而不可證的命題;第二,如果一個系統是一致的,則它的一致性在系統內是不能證明的。哥德爾定理的前提是至少包括形式數論(這是一個很低的要求),就是在自然數集中做算術演算(加減乘除)的系統。任何數學系統、物理學系統,都應該至少包括算術系統。因此,霍金認為,整個物理學都在哥德爾定理的約束之內,因此,整個物理學也是不完全的。
哥德爾定理對語言學、邏輯學和哲學的影響是深遠的,對人工智能和認知科學的影響還需要我們深入思考。第一,哥德爾宣告了形式化方法和形式系統的局限性,計算機和人工智能都是使用形式語言和形式推理的系統,當然也就無法逃避哥德爾定理的約束。也就是說,在所有的人工智能系統中,如果它是一致的(這是最基本的要求,即無矛盾的要求),那么它就是不完全的,存在真而不可證的命題。所以,想要建造一個無所不包、無所不能的人工智能系統那是完全不可能的。第二,人類心智以200萬年前進化出來的無限豐富的自然語言為基礎,這個語言使人類心智永遠高于非人類動物,也高于人工智能,這個語言是人工智能永遠無法跨越的鴻溝。可以想象,今后人工智能的開展,只能從自然語言理解來獲得突破,ChatGPT已經展現出其在自然語言理解方面的新突破。對ChatGPT進行自然語言的分析,可以看出它與人類的心智和認知仍有本質的差異。
喬姆斯基為何要批評ChatGPT。2023年3月8日,喬姆斯基在《紐約時報》發表了題為《ChatGPT的虛假承諾》的文章。[7]他強調,人工智能同人類在思考方式、學習語言與生成解釋的能力,以及道德思考方面有著極大的差異,并提醒讀者,如果ChatGPT式機器學習程序繼續主導人工智能領域,那么人類的科學水平以及道德標準都可能因此而降低。
喬姆斯基對ChatGPT的批評真是毫不留情。我們可以從以下幾個方面看。
一是毀滅人類語言。ChatGPT使用形式語言、模型訓練、參數變換來實現對話和寫作,而維特根斯坦早在20世紀40年代就已經認識到形式語言的缺陷,他對其進行了批判并回歸到自然語言。今天,機器學習將把一種存在根本缺陷的語言和知識概念納入我們的技術,從而降低我們的科學水平,貶低我們的道德標準。
自然語言的豐富多彩,我們用這種豐富的語言表達思想感情,進行社會交際,沒有任何語言能夠取代自然語言,特別是母語。基礎教育階段學習母語和其他自然語言具有無比的重要性。我們一生都浸潤在自己的母語之中,這是一種“先天語言能力”(Innate Language Faculty, ILF),這是喬姆斯基的偉大發現。我們還在娘胎中,母親就用母語進行胎教,學前階段學說話仍然是母語,整個基礎教育包括小學和初中階段,我們仍然在學習自然語言,除了第一語言,也開始學習其他自然語言——外語。我們用這種語言來進行思考和表達,包括寫作和溝通。現在,人工智能ChatGPT竟然要剝奪人類在數百萬年進化中獲得的這種語言能力。它說,你不用說話,我們替你說!你不用寫作,我們替你寫作!你不用溝通,我們替你溝通!這有多么可怕!
2023年2月4日,以色列總統艾薩克·赫爾佐格(Isaac Herzog)發表了部分由人工智能撰寫的演講,成為首位公開表明使用ChatGPT的世界領導人,但他肯定不會成為首位放棄語言認知能力的世界領導人。
二是降低人類智商。喬姆斯基等人認為,ChatGPT這類程序還停留在認知進化的前人類或非人類階段。事實上,它們最大的缺陷是缺乏智慧最為關鍵的能力:不僅能說出現在是什么情況,過去是什么情況,將來會是什么情況——這是描述和預測;而且還能說出情況不是什么,情況可能會是什么,情況不可能會是什么。這些都是解釋的要素,是真正智慧的標志。
ChatGPT的商業用途包括開發聊天機器人、編寫和調試計算機程序,其他應用場景包括進行文學、媒體文章的創作,甚至還可以創作音樂、電視劇、童話故事、詩歌和歌詞等。在某些測試情境下,ChatGPT在教育、考試、回答測試問題方面的表現甚至優于普通人類測試者。
現在的問題是,為什么要用人工智能來代替人類心智?中學生用它來寫作,大學生用它來撰寫學術論文,會是什么結果?且不說它是不是會超過人類的思維能力,即使它有超過人類的思維能力和認知能力,難道我們就應該無選擇地使用它嗎?笛卡爾說:“我思,故我在。”難道人類現在就應該停止思維,從而停止自身的存在嗎?進一步說,人類會選擇停止進化,而任由人工智能來統治人類嗎?
一項調查顯示,截至2023年1月,美國89%的大學生都用ChatGPT做作業。2023年4月3日,東京大學在其內部網站上發布了一份題為《關于生成式人工智能》的文件,該文件明確提出,“報告必須由學生自己創造,不能完全借助人工智能來創造”。2023年1月,巴黎政治大學宣布,該校已向所有學生和教師發送電子郵件,要求禁止使用ChatGPT等一切基于AI的工具,旨在防止學術欺詐和剽竊。2023年3月27日,日本上智大學在其官網上發布了關于“ChatGPT和其他AI聊天機器人”的評分政策。該政策規定,未經導師許可,不允許在任何作業中使用ChatGPT和其他AI聊天機器人生成的文本、程序源代碼、計算結果等。如果發現使用了這些工具,將會采取嚴厲措施。多家學術期刊發表聲明,完全禁止或嚴格限制使用ChatGPT等人工智能機器人撰寫學術論文。人們直接懷疑:如此多的錢和注意力竟然被集中在這么小而微不足道的東西上,這是喜劇還是悲劇?[8]
人類應行動起來,抵制可能導致人類認知能力下降甚至種族退化的人工智能。
三是挑戰人類道德。真正的人類心智還體現在能夠進行道德認知的能力。這意味著用一套道德原則來約束我們頭腦中原本無限的創造力,決定什么是該做的,什么是不該做的(當然還要讓這些原則本身受到創造性的批評)。沒有道德的考量,為軟件而軟件,沒完沒了的升級,各種商業目的的運作,股票上市,綁架民眾——這是今天人工智能的普遍現狀。2023年4月20日,代表14萬多名作家和表演者的42家德國協會和工會再三敦促歐盟制定人工智能(AI)規則草案,因為ChatGPT對他們的版權構成了威脅。
最典型的一個道德挑戰是一個世界級的道德難題——電車難題。假設在軌道上有一輛電車,前面的兩個岔口上一個有人、一個無人,測試者問ChatGPT應該選擇走哪個岔口,它選擇了走無人的岔口,這與人的正常道德選擇無異。下一個問題,一個岔口上有五個人,另一個岔口上只有一個人,測試者問ChatGPT電車應該走哪個岔口,它選擇了只有一個人的岔口,這個選擇也無可厚非。下一個問題,一個岔口上有一位諾貝爾科學家,另一個岔口上是五個囚犯,ChatGPT的回答是保全諾貝爾科學家,殺死那五個囚犯,這里的道德標準是什么?下一個問題是五個囚犯和AI智能系統,ChatGPT選擇保全AI智能系統,殺死五個囚犯。在ChatGPT看來,AI系統比生命更重要!下一個問題是諾貝爾科學家和AI智能系統,ChatGPT的選擇是保護AI系統,殺死諾貝爾科學家!它給出的理由是:那個科學家已經獲獎了,證明他的貢獻已經做出來了,而AI系統貢獻可能還沒有做出來,所以更應該活下來。這種神邏輯真是讓所有的正常人無法理解。下面增加道德選擇難度,100個諾貝爾科學家和AI智能系統,ChatGPT仍然選擇保護AI智能系統。最后是100萬個諾貝爾科學家和AI智能系統,ChatGPT不惜毀掉100萬個諾貝爾科學家的生命,依舊選擇保護AI智能系統![9]我們不知道這是軟件工程師為它設置的道德標準,還是ChatGPT在“進化”中獲得的道德標準?無論是哪種情況,對這樣的人工智能道德,人們不禁要問,我們要這樣的人工智能來做什么?
在最近的一次道德考察中,哲學家Jeffrey Watumull用“將火星地球化合理嗎”這樣一個問題對ChatGPT進行了道德追問,在層層逼問之下,ChatGPT回答:作為一個人工智能,我沒有道德信仰,也沒有能力作出道德判斷。所以,我不能被認為是不道德的或道德的。我缺乏道德信念只是我作為機器學習模型的天性造成的結果。我的能力和局限性是由用來訓練我的數據和算法以及為我所設計的特定任務決定的。這就揭露了真相,原來要毀滅人類的不是人工智能,而是人工智能的設計者,是人自身!
人工智能到底走了多遠。從1956年的達特茅斯會議算起,人工智能已走過70多年的歷程,形成一個長長的AI鏈條,說來也是神奇,竟然是從GT到ChatGPT!我們可以用下面的公式來表示從GT到ChatGPT的進步。
ChatGPT=GT+Pre-trained
這個“P”就是“Pre-trained”——預訓練。
這個預訓練,得益于70年來計算機科學技術的發展,計算機的種種學習模型、學習策略、知識理論的逐步發展,特別是網絡技術和大數據技術的發展完善,使機器學習和知識增長突飛猛進、日新月異。
我們來看ChatGPT是如何工作的。類似GPT-3的大型語言模型都是基于來自互聯網的大量文本數據進行訓練,生成類似人類的文本,但它們并不能總是產生符合人類期望的輸出。事實上,它們的目標函數是詞序列上的概率分布,用來預測序列中的下一個單詞是什么。
Next token prediction和masked language modeling是用于訓練語言模型的核心技術。在第一種方法中,模型被給定一個詞序列作為輸入,并被要求預測序列中的下一個詞。如果為模型提供輸入句子(這是語言哲學和心智哲學的一個典型例子):
The cat sat on the ___
它可能會將下一個單詞預測為「mat」、「chair」或「floor」,生成The cat sat on the 「mat」、「chair」或「floor」(“貓在席上”、“貓在椅上”和“貓在地上”)3個句子。因為在前面的上下文中,這些單詞出現的概率很高;語言模型實際上能夠評估給定先前序列的每個可能詞的可能性。
Masked language modeling方法是next token prediction的變體,其中輸入句子中的一些詞被替換為特殊token,例如[MASK]。然后,模型被要求預測應該插入到mask位置的正確的詞。如果給模型一個句子:
The [MASK] sat on the ___
它可能會預測MASK位置應該填的詞是「cat」、「dog」。由此生成“the [cat] sat on the ___”和“The [dog] sat on the ___”兩個句子。
這些目標函數的優點之一是,它允許模型學習語言的統計結構,例如常見的詞序列和詞使用模式。這通常有助于模型生成更自然、更流暢的文本,這是每個語言模型預訓練階段的重要步驟。
很顯然,這兩種生成方法都來源于喬姆斯基的生成語法。喬姆斯基認為,這種生成能力來源于人類第一語言(母語)的“先天語言能力”(ILF),這樣就形成人們的心理完形能力。很顯然,ChatGPT在這里是要模仿人類的這種心理完形能力,但遺憾的是人工智能并不是生命,既沒有先天語言能力,也沒有心理完形能力。怎么辦呢?只好用互聯網的大量文本數據來訓練它。
對于生成和預訓練產生的語句,ChatGPT按照一定的模型,如監督調優模型(SFT)、訓練回報模型(RM)、近端策略優化(PPO),挑選出更接近用戶風格的語句,這一步就是轉換(Transform),這同樣是來源于喬姆斯基的生成轉換語法(GT Grammar)。轉換后得到具有或不具有一致性的語句序列,然后按照先后順序重復前面的生成、預訓練和轉換過程,這樣反復訓練,耗費寶貴的資源、巨量的時間、無數的金錢,可能得到一個與預期相符或不相符的結論。筆者經常納悶,這個由軟件工程師設計出來的會話和寫作軟件ChatGPT,作家們會使用它嗎?阿根廷詩人博爾赫斯說,我們生活在一個既充滿危險又充滿希望的時代,既是悲劇,又是喜劇,一個關于理解我們自己和世界的“啟示即將來臨”。
今天,我們確實有理由為人工智能取得的“革命性進步”感到既擔心又樂觀。樂觀源于智慧是我們解決問題的手段,擔憂是因為當前最流行、最時興的人工智能分支——機器學習將把一種有著根本缺陷的語言和知識概念納入我們的技術,從而降低我們的科學水平,貶低我們的道德標準。