【摘要】隨著相關技術的不斷進步,大模型發展呈現出與數據要素深度融合、其日益沉淀為基礎設施、發展焦點從底座模型轉移至應用生態等新的趨勢。針對大模型產業發展呈現出的新態勢、新動向,我們要樹立大模型發展的全局觀和整體觀,積極采取加快建設人工智能教育體系、建立以智能科學為核心的跨學科研究體系、推動大模型與數據要素協同發展并堅持多元化的大模型發展路徑等新的應對舉措。作為一種先進技術,大模型具有兩面性,我們在積極采取措施促進其良性發展并釋放其應用價值的同時,也要密切關注其濫用、誤用與惡用所帶來的虛假內容泛濫、影響人類心智和能力的發展與培育等負面問題,未雨綢繆積極做好風險治理與管控。
【關鍵詞】大模型 人工智能 風險管控 大模型應用落地
【中圖分類號】TP18/F49 【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2024.13.004
【作者簡介】肖仰華,復旦大學計算機科學技術學院教授、博導,上海市數據科學重點實驗室主任。研究方向為知識圖譜、知識工程、大數據管理與挖掘。主要著作有《圖對稱性理論及其在數據管理中的應用》、《知識圖譜:概念與技術》(合著)、《生成式語言模型與通用人工智能:內涵、路徑與啟示》(論文)等。
自2022年底OpenAI發布ChatGPT以來,大模型產業發展先后經歷了百模大戰、追求更大參數、刷榜競分,直到近期各大廠商相繼加入價格戰,可謂熱點紛呈。大模型的技術形態也從單純文本發展到了多模態,從模擬人類大腦的認知功能發展到操控機器身體進而與復雜環境交互,從通用發展到專業與行業大模型,大模型技術生態日益繁榮。熱鬧的產業發展背后涌動的是科技巨頭對通用人工智能(Artificial General Intelligence,簡稱AGI)技術賽道的激烈拼搶,是大國科技競爭態勢的愈演愈烈。如果說ChatGPT打響了通用人工智能技術革命的第一槍,那么當下AGI產業競爭似乎進入了多點開花、犬牙交錯的局面,未來走勢并不清晰。與此同時,大模型產業發展過程中的各種問題也日益突出:各廠商仍在艱難摸索大模型變現路徑、研發投入仍在持續增長、需求方的耐心不斷被消磨,對生成式大模型的根本性問題(比如幻覺問題)仍然缺乏有效應對策略、大模型訓練與應用的資源與能源消耗問題日益突出。久而久之,大模型廠商成本壓力增大,市場也逐漸冷靜。此外,大模型技術大規模應用所帶來的各種社會問題也逐漸凸顯。大模型產業似乎進入了一個中場階段,盤點與反思當前發展態勢、梳理與總結發展中的問題、展望與謀劃未來對策成為推動大模型產業進一步發展的重要議題。
大模型發展的新態勢
大模型日益成為人工智能產業發展的基礎設施。從大模型的基本內涵來看,其勢必演變為人工智能產業發展的基礎設施。從字面上的意義來看,大模型即大規模參數化的深度神經網絡,海量參數是其根本特征。大模型需要大規模算力和海量數據進行訓練,也因此成為人工智能的重型裝備,這也宣告AI(Artificial Intelligence,人工智能)進入了重工業發展階段,而重型裝備往往是產業發展基礎設施的代名詞。大模型在學術界有時又被翻譯為基礎模型(Foundation Model),是指經過預訓練而得并能夠在多種下游任務中發揮基礎作用的模型。[1]例如,代碼基礎模型經過少量下游任務提示就可以用于代碼生成、改寫、檢測、推薦、搜索等任務。由此可見,大模型發展趨勢之一就是成為人工智能產業發展的重要基礎設施。
從功用來看,大模型往往被用作海量知識的容器、模擬人類心智能力的認知引擎、驅動智能體與環境交互的大腦、協同不同組件與工具的操作系統、人機自然交互的接口。傳統AI解決問題需要面向特定任務進行針對性的模型研發,而當前這一范式讓位于基于統一大模型進行任務微調或者指令指引的新范式。大模型的功用與應用范式決定了其在智能系統架構中日益下沉為整個架構的基礎,不僅支撐著豐富多樣的上層應用,也支撐著復雜意圖的理解與用戶需求的滿足。[2]近期打響的價格戰也從側面展現了大模型的基礎設施地位,唯有基礎設施才需要以持續走低的價格鎖定海量的忠實用戶,而只有持續增長的用戶和規模化應用才能有效分攤大模型巨大的前期研制成本。
大模型成為新質生產力的代表。大模型是AGI最重要的技術形態之一,是一種先進生產力,也可以說是新質生產力的代表。勞動力是生產力諸要素中起決定性作用的要素,只有勞動力才能支配與使用其他生產要素(土地、資本、數據等)。大模型驅動的數字與機器員工將成為新型勞動力,這是大模型作為先進生產力的本質,人類迎來了可以與人類勞動力媲美的新型勞動力。AGI旨在達到或接近人類智力,一旦相關技術成熟,AGI驅動的智能機器,包括有形的機器勞動力和虛擬的數字勞動力等,將成為人類勞動力的重要補充。而機器和數字勞動力在可靠性、可用性以及對復雜與惡劣環境的適應性等很多方面具有相較于人類勞動力的巨大優勢。
從某種程度上說,以生成式大模型為代表的AGI將可能成為超越人類的先進勞動力。語言大模型一定程度上再現了人類的言說能力、寫作能力以及基于語言的邏輯表達與情感表達能力。多模態大模型能夠進一步完成多模態內容的生成任務,甚至實現了復雜世界的建模。具身大模型則側重于使智能機器具備規劃能力與理解復雜環境及進行自適應交互的能力,機器操控各類工具完成復雜任務成為現實。[3]各種科學大模型、專業大模型則專注于具體科學任務,使得專業性工作提質增效,比如蛋白質結構大模型使得蛋白質結構預測效率得到極大提升。最近OpenAI推出的GPT-4o更是將機器的自然交互水平推向了新高度,機器已經能在多人對話場景中實時理解人類的語音、姿態、情緒、意圖,具備了一定的認知人類社會的能力。單單就GPT-4o所展現出的能力可以預見,未來涉及人類情感交流的諸多行業,比如教培、護理、心理咨詢等都將被AI賦能。[4]從腦力代替到體力代替、從文案生成到問題求解、從事實檢索到邏輯推理,可以說大模型正在全面進入人類智力的領地,除了自我意識等少部分人類自身也未能準確定義與理解的問題外,但凡能夠精準描述、刻畫、定義的大多數人類能力在不遠的將來都可能被大模型掌握。
值得注意的是,即便AI勞動力再先進,我們也必須堅持構建人機協作的和諧人機關系。一方面,生成式AI短期內仍將存在包括幻覺問題、過度能耗在內的諸多局限,其生成過程與結果仍然需要人類的提示、控制與評判。另一方面,為推動實現人機和諧共處,人類不應放棄決策自主權,即便未來機器能夠在某項任務中代替人類,人類仍然應該掌握最終的確認與決策權,這也是人類應該積極承擔和難以免除的責任。從短期來看,機器還難以被視作責任主體,“機器協作+人類決策”仍將是人機混合的勞動力市場的基本形態。從中長期來看,我們需要重新梳理人類的責權體系,機器有可能成為非關鍵責任主體或部分責任主體,在此過程中,我們要警惕人類推卸責任的傾向。
數據將成為大模型發展的決定性要素。大模型工程的本質是數據工程,數據決定了大模型的落地效果。大模型的預訓練、指令微調、價值對齊、評估評測等都依賴高質量數據。當前的研究與實踐證明高質量數據是決定大模型性能與效果的關鍵因素,甚至是決定性因素。而大模型訓練過程中的數據合成、數據配比、數據治理也能決定大模型的訓練效果。[5]總體而言,高質量數據以及高水平的數據工程方法是大模型發展的關鍵。此外,數據規模與復雜性會隨著人類社會的發展而增長。換言之,伴隨著技術進步與社會發展,數據的規模只會不斷創造新的記錄,數據的多樣性只會提升,而數據給技術帶來的挑戰也會進一步增加。隨著人才、算力等瓶頸被進一步突破,數據可能成為大模型發展的長期性、根本性、戰略性問題,甚至可能成為AGI發展的最大制約。
具體而言,一方面,構建面向大模型的優質數據集仍需付出較大代價。訓練語料、優質指令、評測數據總體上呈現一種分散狀態,需要通過匯聚、清洗、去重、合成、篩選才能夠成為訓練大模型的優質語料、指令與評測數據。[6]大模型總體上呈現出對于高質量數據的“饑渴”狀態,近期大模型產業發展的一些新動向多多少少都與搶占數據有關。例如,有傳統媒體狀告Google等企業在未經授權的情況下使用媒體數據進行模型訓練,以及OpenAI與Quora(國際版知乎)深度合作、OpenAI與蘋果智能深度合作,上述動向本質上都是大模型頭部企業尋求優質數據的努力,表現出大模型產業發展對媒體數據、高質量社區問答數據甚至個人數據的渴求。[7]另一方面,數據供應不暢、數據治理能力薄弱等,都是大模型向縱深發展的限制性因素。從長期來講,數據問題的緩解需要數據要素市場的充分發展,當下數據交易的一個重要動力就是構建高質量的行業大模型訓練語料。但數據要素市場目前仍處于發展與完善進程中,其制度和基礎設施建設不僅需要時間,也需要大量實踐的反饋與優化。此外,隨著大模型的進一步發展,其與千行百業的深度融合成為趨勢。在這一進程中,高質量、高價值行業數據的價值更加凸顯,決定了大模型在各行業中的應用效果。目前,行業數據對于大模型能力的價值還未得到充分釋放,這是大模型賦能高價值行業之前必須解決的重大問題。可以說,數據是大模型競爭的決定性因素,而從根本上緩解數據對大模型發展的制約,需要持續性、系統性的努力。
大模型產業發展焦點從基礎模型走向應用生態。當大模型具備了人類智能的基本能力,如何用好大模型就成為了重點。值得強調的是,用好大模型絕不比研發大模型容易。事實上,自ChatGPT誕生至今,大模型并未給人類切實創造多少價值,這一窘狀不應歸咎于大模型自身的不足,而應該歸因于人類自身能力的不足,特別是大模型應用水平的不足。大模型好比武俠小說中的利器,唯有強者才能駕馭這一利器,進而釋放其價值。大部分人對于大模型的應用可能就僅限于閑聊、文字潤飾。大模型本質上是智者的利器,換言之,只有洞悉大模型特性的知識精英或者行家里手才能將大模型的能力淋漓盡致地發揮出來。用好大模型本身就是個人、組織、國家未來的核心競爭力之一。
如果將大模型視作一種電能,那么圍繞大模型打造的應用就好比電器,形式多樣的電器是電能賦能千家萬戶的最終形態。我們不能否認發電的價值,但更應該肯定電器制造的價值。圍繞大模型打造相關應用,解決千行百業的痛點問題,將成為大模型產業未來發展的焦點。這決定了大模型下一階段發展的重點勢必是從通用走向專用,從開放走向私域,從基礎模型走向應用生態。大模型能否解決金融決策輔助、醫療決策輔助、生產流程優化、質量提升、風險管控等問題,決定了其價值密度。一旦大模型能在千行百業發揮作用,將釋放更大的產業能級。
大模型的應用生態百花齊放,其中以下四類應用尤為值得注意。一是硬件終端的智能升級。大模型賦能各種終端是正在發生的一個重大產業趨勢,PC、音箱、家電、手機、手表、智能車等都將被大模型賦能,而大模型將借助這些硬件載體為人類帶來更強大的意圖理解、更自然的人機交互、更細致的任務規劃以及更精準的信息服務。二是個人消費服務的智能升級。購物、出行、游戲、文化、教育、健康等涉及個人服務的場景將被大模型顯著賦能,比如大模型驅動游戲中的NPC(Non-Player Character),能夠顯著提升NPC的智能水平,提升游戲玩家體驗;英語外教等教培行業也正在被大模型重塑。三是企業信息服務的智能升級。大模型對于推動企業數字化轉型具有革命性意義。在大模型驅動下,企業經營管理和決策過程將發生根本性、革命性的升級,大模型將在傳統企業運營流程中扮演重要角色,代替人類專家、小模型以及專家系統,完成流程中的諸多環節。此外,大模型對于開放世界的理解能力有助于提高企業數字化解決方案對于市場變化的響應效率,增強系統的敏捷應對能力。四是行業智能化應用。行業應用的本質是認知決策,大模型豐富的知識儲備和強大的認知能力使其能在各行各業的商務決策過程中扮演重要輔助角色,如金融市場決策、醫療診斷決策等。同時,大模型將成為人類專家的決策助手,拓展專家的認知范圍,提供更多的決策變量、方案選擇和決策路徑指引,提示潛在風險,對人類方案提出優化建議等等。
大模型發展的新舉措
針對大模型產業發展呈現出的新態勢、新動向,我們要樹立大模型發展的全局觀和整體觀,提前研判、積極應對。大模型產業發展涉及要素眾多,不能僅從大模型自身發展的核心要素進行思考。一方面,要統籌考慮大模型與數據要素市場發展;另一方面,要將大模型置于推動我國各行業轉型升級、高質量發展,全面深化改革以及解決或緩解當前我國經濟社會發展中諸多問題的重要科技引擎的新角色中進行思考;此外,更要從大模型作為一種先進生產力對生產關系、人類發展、社會發展的影響等宏觀角度進行思考。
加快人工智能教育體系的建設。如果有人問,人類為迎接即將到來的AI技術革命所需要開展的第一項工作是什么?筆者認為答案應是教育變革。AI作為一種先進生產力,它的發展勢必要求生產關系與之相適應。生產關系的調整過程涉及整個社會諸要素的調整,涉及因素眾多,其中最基礎、最首要的一環就是教育。為在大模型國際競爭賽道上搶占先機,我們必須培養大量人工智能專業技術人才,具體而言,不僅需要培養跨行業融合的AI人才,以將AI技術應用于千行百業;還需要培養跨學科的AI人才,以重塑人文社科的學科內涵,加速自然科學的知識發現進程。此外,我們還需要提升全體國民的AI素養,使AI技術像電腦與互聯網一樣得到廣泛應用,唯有如此,AI才有可能成為全社會發展的引擎。
在AGI時代即將全面到來之際,教育本身的內涵需要重塑。教師教什么?學生學什么?教育管什么?這些問題都需要重新回答。現代文明所追求的知識發現與獲取能力或將逐步褪去光環,生存與發展的智慧將更具價值。除了作為現代文明人所必要的核心素養與能力之外,審美、判斷、鑒賞、提問、批判能力將更加重要。事實的記憶、繁瑣的運算、常規內容的生成,基本上都可以交給人工智能。在未來AGI大發展時代,如何駕馭與使用AI將成為人類最有價值的技能之一。然而,隨著AGI的日益復雜及其能力的增長,認知并駕馭AI也將愈加困難,AI教育的使命日益艱巨。
推動AI教育的首要任務在于確立AI技術在教育中安全應用的基本原則。當前,很多組織和高校都在積極推動AI教育,各國政府也紛紛發出了AI與教育深度融合的呼聲,這對推動AI技術在教育教學中的普及與應用有著積極的意義。然而,我們要尤為注意的是,AI在教育中的應用需“有所為、有所不為”,而不能越界,否則將可能違背教育的初衷。對于AI在教育中的應用,需仔細甄別其對于學習者自身能力的習得是有利還是有弊,而不能不加選擇地盲目濫用。試想一下,如果一個仍在學習寫作的小學生使用AIGC(Aritificial Intelligence Generated Content,生成式人工智能)進行作文輔助,如果學生在做每一道數學題之前都先去問問AI,那么學生們的寫作與計算能力如何才能形成呢?與此相反,教師、家長利用AGI進行備課、輔導卻是十分有益的。由此可見,AI技術在教育中的應用需具體問題具體分析,其中針對學習者的AI應用應該極為謹慎,否則可能事與愿違。
學習者是否應該使用AI,如何使用AI?解決此類問題需要十分細致而繁瑣的甄別工作。其基本原則在于,在學習者的某項核心能力形成之前,應該謹慎借助AI的此項能力。因此,對學習者的能力進行精準刻畫,進而進行分級分類的AI應用管控是促進學習者更好利用AI的基本思路,除此之外的其他分類依據都存在一定的不合理之處。例如,有觀點認為大學生可以肆無忌憚地使用AI,這樣的分類原則顯然過于武斷了,比如對于一個第一次學習日語的日語系新生而言,他/她完全是日語語言習得的門外漢,而對AI的濫用可能導致其永遠也無法習得日語言說的能力。
建立以智能科學為核心的跨學科研究體系。學科劃分使得人類對于客觀世界和人類社會的有限經驗與理性思考逐漸走向專門化、專業化,也在一定程度上造成了人類對世界統一性、整體性認知被分解。部分細分學科內部同質化研究泛濫,原始創新動力不足,未來最為重要的任務在于重建關于世界本原的整體性認知。
AGI擁有不同學科知識,為人類的跨學科認知進而整體性把握世界帶來了重大機遇。大模型通過通用語料訓練習得了不同學科的知識,同時具備了一定的組合創新能力,因而擅長將不同學科的知識進行組合以解決問題。大模型的跨學科知識將是協助人類開展跨學科融合研究的利器。對于人文社科而言,AI帶來的絕不僅僅是工具的革新,而是重塑傳統人文社科的一次重大機遇。人工智能通過實現一個無限接近于人的智能體,在不斷追問人的本質、智能的本質、自我的本質,而實現本身就是一種理解。AI的快速進步需要我們重塑理解“人與社會”的既有概念與理論框架。從本質上來講,認知人文社會現象的隱喻對象發生了根本變化,從傳統的動物轉變成了智能機器。智能機器通過不同于人類的機制甚至實現了很多超越人的根本特性,這就可能從根基上撼動現有人文社科的理論框架。同時,AGI也呈現出強大的世界建模能力,以Sora為代表的大模型建模能力達到了新的高度。從一定意義上說,對于某個特定現象的重建能力就可以被視作一種理解能力,AI一旦具備世界建模能力,其對世界認知的廣度與深度就可能超越人類,AI對世界本原的認知也就有可能超越人類的現有認知。未來科學研究的重大任務之一就是借助AGI對復雜世界的編碼與建模能力,重建對于世界本原的認知。
跨學科研究另一個方向的重要使命在于“為機器立心、為智能立命”。加深對于AGI本身的認知,建立理解AGI的概念框架,是推動AGI進一步發展以及幫助人類更好地駕馭與管控AGI的根本所在。人工智能以人類智能為拓版,而今卻日益呈現出其專有特性。幾千年來,人類已經建立起的對于人以及由人所構成社會的認知體系與理論框架,這是我們理解AI的心智以及智能體社會的有益參考。至少可以說,以人類為模板去理解AI是理解AI的第一步。隨著AGI日益融入人類生活,如何理解與控制AI個體以及群體的心智、角色、行為,是實現AI安全可控的關鍵,是促使AI造福人類而不致危害人類的關鍵。為AI“立心立命”,讓AI守規守矩,是智能時代到來之前我們需要做好充分應對準備的難題之一。
加速數據要素市場發展,推動大模型與數據要素的協同發展。大模型產業進一步發展對高質量數據的需求更為迫切,大模型與數據要素的發展日益融合,二者協同發展勢在必行。第一,大模型有望成為激活數據要素價值的智能引擎。以生成式大語言模型為代表,大模型已具備強大的世界建模能力、數據認知與操控能力,這將促使其成為激活數據要素價值、實現數據要素累乘效應的智能引擎。大模型與數據要素的融合發展,有望賦能千行百業成為數據價值變現的重要方式。第二,大模型將為緩解數據治理技術瓶頸帶來新的機遇。數據治理代價大、成本高,已經成為數據要素價值變現的堵點與痛點。大模型有著強大的開放數據的理解和操控能力,因而有望利用大模型等人工智能技術手段構建智能化數據治理體系,進而實現自動化、智能化數據治理,減少治理過程對人力的依賴。第三,基于大模型智能體技術有望打造貫穿數據價值變現流程的數據挖掘、分析、操控智能體,全面提升數據要素價值變現的效率。大模型對于數據、數據庫系統、數據處理過程的理解與操控能力,使其可能成為釋放數據要素價值的數據智能體。第四,圍繞大模型行業語料所形成的高價值數據產品可以檢驗數據要素市場機制。目前,數據要素市場中仍然缺乏商業價值明確、交易機制清晰、安全可靠合規的數據產品。相較于其他涉及國計民生的數據產品,大模型訓練語料接近教學科普類書籍的內容,與個人隱私、行業安全關聯不大,其交易相對安全、可靠、合規,因而容易形成高價值的數據產品,進而檢驗我國數據要素市場制度建設和基礎設施建設的合理性。
數據要素市場的進一步健全、數據要素技術的進一步完善,也將為大模型的發展注入強勁動力。首先,數據要素市場為大模型的數據集提供了合法合規的獲取渠道與機制。通過數據產品的合規交易,各行業大模型訓練所需要的高質量訓練語料有望得以匯集,從而緩解大模型在行業落地過程中對于高質量數據的“饑渴”狀態。其次,強大的數據合成與治理能力可以用于進一步提升大模型訓練語料、指令數據的質量與規模。面向大模型訓練的語料集建設、指令集構建、價值對齊數據構建等都對數據治理、數據處理、數據合成等技術提出了較高要求,而大模型驅動的智能化的數據能力體系能夠滿足相應要求。
堅持多元化的大模型發展路徑。以大模型為代表的AGI形態與發展路徑是多種多樣的,為此應堅持多元化的發展戰略。從參數規模角度來看,大模型會向越來越大和越來越小兩個方向同時發展。當前,大模型發展的一個重要趨勢是參數量越來越大,主流參數在十億、百億到千億級,不同參數規模有著不同的智能潛能,適合不同的應用場景。大模型的能力隨著參數規模、訓練數據和訓練時間的增加而持續增長。增大模型參數量仍是探索機器智能極限的重要方式之一,而更大參數的模型也是進一步發揮大模型的標度律(scaling law)效應的方式之一。[8]值得深思的問題是,大模型發展到終極狀態,標度律是否仍然成立。換言之,大模型的能力提升是否存在天花板,也就是說再多的數據、再多的訓練、再多的參數也不再能提升大模型的能力。提出這個問題的理由是充分的,一方面,大模型訓練正在迅速耗盡人類的優質數據;另一方面,能源消耗存在天花板,人類社會的能源開發和利用仍然存在制約,因而人類不可能無限、單向度地向大模型供給能源。此外,歷史上任何技術發展曲線最終都會遭遇天花板。由此,對大模型的標度律進行質疑是合理且充分的。
但是,以大模型為代表的AGI也呈現出自我提升與自我完善的可能性。這與人類相似,人類一直在追求并實現對于前代的超越,上升似乎是人類水平的智能族群的基本特征之一。那么,當AGI達到或超越人類智能水平之后,同樣有著充分的理由推斷AGI可能實現持續上升從而保持標度律持續有效。因此,對于AGI天花板是否存在這一問題,保持一種謹慎而開放的態度是合適且必要的。然而,當前一些現實因素可能會制約大模型能力的進一步增長。首先,優質數據生產速度可能遠遠跟不上大模型學習數據的速度;其次,人類新能源開發與利用的效率難以滿足大模型能源消耗的需求。[9]因此,筆者傾向于認為大模型的能力最終會進入一個或至少會保持一段時間的徘徊期。在這個徘徊期內,大模型會隨著所學習數據的增多,持續拓展其認知的事實與知識邊界,但是決定其智商與情商的核心能力,如思維能力、邏輯能力、推理能力以及與人類共情的能力的發展可能會遭遇天花板。康德曾經將人類的智能分為知性與理性,所謂知性是指感性而雜多的事實性知識,而理性則是一種將這些雜多的知識進行有序組織的能力。套用康德的分類,筆者傾向于認為大模型所代表的AI在知性方面將仍然遵守標度律,但在理性方面則將遭遇天花板。
如果說更大規模參數的大模型是在幫我們探索智能的極限,那么更加小型而實用化的模型則是夯實AGI現實應用的基礎。大模型的小型化是推動大模型在更加泛在的低端硬件和邊緣環境應用落地的必然舉措。大模型的小型化從表面上看是大模型的瘦身,涉及大模型的蒸餾機制,[10]但是從本質來看,其涉及的是大模型可解釋機理等根本問題。[11]如果將大模型類比于人類大腦的神經網絡,那么與人腦類似,至今對人類諸多能力的實現與表達是分布式還是集中式(抑或是宏觀上集中,微觀上分布),仍存在爭議。對于“祖母”細胞是否在大腦中存在這一問題,理解之關鍵在于確證大腦神經元是否存在特定區域完成特定功能的傾向,事實上,一些解剖學研究成果證明大腦存在一定的功能區域,比如人腦的海馬體為人類提供認知地圖的能力。目前,大模型是否也存在著類似的功能分區(或者說相對集中)仍然不得而知,一定程度上,剖析大模型并不比剖析人腦的神經網絡更為簡單。唯有從源頭上厘清大模型的參數分布與模型能力之間的因果關系,才能從根本上響應大模型的小型化等應用訴求。
AI智能體重塑社會關系與行業發展形態,塑造社會科學新內涵。大模型的應用普及將重塑各行各業的發展形態,人類社會甚至存在被AI代理全面接盤的可能。以內容生產與傳播行業為例,AIGC提高了內容創作效率,內容與信息呈泛濫之勢,普通人已經無法完全閱讀仍在快速增長的新聞,科學家也無法盡閱每天生產的海量文獻。作為生物智能的人類的有限認知能力使其淹沒于內容海洋,對世界準確的整體性理解越發困難。而破題的關鍵仍然在于用好AI,讓AI成為每個個人的數字分身,完整復制每個個體的價值與情感偏好,使其成為我們的內容生產與消費的忠實代理。未來,AI生成的泛濫必然催生內容生產和消費的AI代理模式。內容生成將由人類授意的AI代理智能體完成,內容的閱讀與消費同樣由人類的AI代理完成。這些AI代理將協助人類完成內容的生產、分發、篩選、傳播與消費。
一個數字分身或者智能代理泛濫的時代又會是個怎樣的時代呢?這是個更加值得深入思考的問題。你的數字分身或者AI代理在多大程度上能夠行使你的主體意志,每個個體又在多大程度上能夠讓渡主體意志給AI呢?未來社會可能將日益演變成人類及其AI代理構成的社會,人與人的關系已經無法完整地定義社會關系,人與自己的AI代理、AI代理與AI代理,成為了社會關系的必要構成。社會科學的全部內涵因此而被刷新,重建我們的社會科學成為新的歷史使命。AI智能體社會的到來,勢必要求重新建構人類的倫理框架、道德體系、情感框架,構建和諧的人機關系將成為社會關系發展的重要目標之一,而不單單是人與人的關系。
AI代理參與的社會也將重塑人類的生活方式和行業業態。比如,出于功能性的消費活動完全可以由AI代理完成,人類消費的真正價值可能僅在于情感體驗,如精挑細選的樂趣,而不再是買到商品這一樸素目的。從這個意義上來講,購物的功能性內涵將消失。再比如內容生產與傳播行業,如果AI代理將代替人類成為內容生產與傳播的主要受眾或對象,那么傳統的面向人的圖書編輯與出版、新聞內容的生成與傳播將何去何從?一定程度上可以說,幾乎所有的行業都要正視一個新的事實:服務對象從人變成人的AI代理,而這一變化勢必要求重塑傳統行業形態。
大模型發展過程中的風險管控
作為一種先進技術,大模型具有兩面性,運用得當將成為先進生產力,但運用不當也可能成為巨大破壞力。安全可控必須是發展大模型的前提,為此,我們必須未雨綢繆,對未來大模型的大規模應用所帶來的諸多負面問題做好提前研判與積極準備,從全局考慮AI應用問題,不能唯生產力論AI,而應兼顧AI應用所帶來的方方面面影響,并深入研判AI應用的長期影響。
加大大模型風險管控力度,加強大模型合規應用的制度建設。大模型會對人類社會的哪些方面產生影響?這種提問已不合時宜。其相反的問題更有價值,即人類社會的哪些方面不會受到大模型影響?答案可能是“并不多”,大模型對人類社會的影響是廣泛而深遠的。人類社會方方面面的發展都需要運用人類的智力,而但凡人類智識所及之處皆可為大模型用武之地。正是基于這個原因,大模型的負面影響,更加值得我們高度關注。
隨著大模型的普及應用,其所帶來的負面問題日益顯現,如虛假內容泛濫、價值觀偏差、侵犯版權、隱私泄露、人群偏見、新型信息繭房等。其一是大模型驅動的AIGC技術使得內容生成與制作的門檻大大降低,虛假內容呈現泛濫態勢。[12]傳媒生態所賴以存在的信息真實性前提受到前所未有的挑戰。其二是大模型存在暴露偏差等問題,即大模型訓練語料可能存在各種偏差與傾向,比如種族偏見、性別偏見、文化偏見、意識形態偏見。[13]其三是大模型給版權保護帶來了前所未有的挑戰。一方面,大模型廠商可能在未經授權的情況下使用版權所有者的數據進行訓練。另一方面,大模型的使用者可能使用大模型生成的內容作為自主知識產權的內容。由此可見,大模型給傳統知識產權概念框架與實踐操作均帶來了重大挑戰。[14]其四是大模型訓練數據對用戶隱私的侵犯,進而對傳統的隱私框架提出了新要求。例如一個教授在學校網站上公開了自己的聯系方式,但這并不意味著該教授希望自己的聯系方式被大模型習得而為所有人認知。[15]其五是新型信息繭房的形成,隨著大模型日益成為各類互聯網信息系統的新基座,信息消費者的認知將難以掙脫由大模型所編織的新型信息繭房[16]。這些隨大模型普及應用而正在逐漸顯現的問題都需要有關部門加強研究,加大大模型風險管控力度,加快大模型合規應用的制度建設。
AI大規模濫用對人類自身發展帶來的長期負面影響。顯性的負面影響容易覺察,但更為致命的則是不易覺察的問題。因此,我們更需要高度警惕AI(特別是AGI技術)大規模濫用帶來的隱性、長期的負面影響。所謂AI濫用是指過度地、不加限制地使用AI技術,這種濫用往往出于眼前的或者短期巨大利益的考量而有意無意忽視AI發展的長期問題,最終對人類福祉或者特定群體利益造成長期的難以彌補的侵害。AI濫用往往有著溫和甚至是極具吸引力的外表,如果在推動AI成為先進生產力的過程中對AI的應用不加以區分與選擇,對AI的負面問題視而不見,久而久之,AI濫用會像溫水煮青蛙一般以一種緩慢而難以察覺的進程給人類帶來難以挽回的傷害。鑒于此,我們需高度警惕AI的濫用問題,認識到AI應用應該“有所為、有所不為”,盡快為AI的安全應用設立基本原則。
從本質上看,大規模AI的長期濫用可能會帶來人之為人的本性倒退。技術的每一次進步都可能帶來人類某種能力的倒退,例如輸入法技術的進步帶來的是很多人的提筆忘字。但是,當達到人類智力水平的AGI大量代替人類腦力勞動時,隨之而來的可能的腦力倒退卻是人類難以承受的。具體而言,在個體具備某項能力之前(比如寫作),不加克制地濫用AI的相應能力,將會阻礙個體獲得此項能力。因而即使計算機早就能代替人類進行計算,但是我們的兒童必須付諸艱苦的訓練掌握基本的計算能力。我們必須警惕人類心智的核心能力因為AI的濫用而倒退,人類心智水平的倒退,勢必帶來主體意志的逐步消退,而AI對于人類主體意志的侵犯,將導致難以承受的后果。
由此可見,無論AI技術發展到何種水平,AI應用都應該以保障人性和人類智能的核心素養與能力的充分發展為前提。AI應用應該為人類智力、能力的訓練與實踐留下充足的機會和空間,面向青少年的基礎教育階段恰恰是人類核心能力的形成時期,因而對于此階段的AI應用應高度謹慎。同時,人類社會的大部分工作崗位,都必須保留特定規模的人群從事相應的手工工作,人類的所有技術應該像非物質文化遺產一樣,指定足夠規模的人類群體進行傳承和發展,而AI應用應該適當“留白”。
生產關系、社會價值觀念、文化藝術創作等與AI生產力的適應性問題。作為先進生產力,大模型對整個社會和各行各業進行全面滲透并產生革命性影響幾乎是不可避免的。這就要求關系到價值觀念、倫理體系、文化教育、生產關系等社會發展的方方面面都要作出積極變革和適應性調整,才能適應這種先進生產力的發展。
從短期來看,大模型等AGI技術將給就業市場帶來直接影響。AGI應用的過程本質上就是AI勞動力逐步代替人類勞動力的過程,在這個過程中,越來越多的任務、工作逐步交給了效率更高、效果更好的機器。而AI代替人類的過程必須是緩慢、漸進、有序的過程,以避免劇烈的就業結構調整所帶來的社會震蕩。從更長時期的范圍來看,大規模AI應用也可能影響現有的社會階層結構。未來,因為AI智能水平參考線的存在,人類群體將可能被分為AI智識水平之上和之下兩大層次。對于人類個體而言,跨越AI的智識水平線將變得日趨困難。隨之可能帶來的階層固化甚至對立是需要正視的問題。此外,AI無節制地介入人類情感生活會讓人迷失于虛擬的情感世界、甚至產生畸形的情感依賴。人與人之間的真摯情感將可能被人機虛擬情感所干擾,進而引發人類情感混亂。
大規模AI應用對人類思想、文化、藝術等方面產生的更長期的影響同樣值得注意。當前,生成式人工智能已經涉足音樂、繪畫、影視等幾乎一切人類的藝術創作形式。人類的生命是有限的,而即使人類生命延長似乎也無法趕上藝術品生產的速度,那么,人類在有限的生命里何以享受這過于豐盛的藝術盛宴。歷史上,人類從未像今天一樣面臨窘境:我們淹沒在審美的海洋中,試問,我們會不會因此而窒息呢?如果人類個體的一生都處于審美的高亢興奮體驗之中,這樣的人生又有怎樣的價值與意義呢?美之泛濫是否會消滅美的本身呢?生成式人工智能的泛濫將會打破美的稀缺性,而這可能進一步消弭審美需求,進而影響傳統藝術形式的發展。AI創作似乎正在快速窮盡藝術創作的組合空間,比如AI生成音樂可能很快窮舉我們所能感知的絕大部分曲調,繼而危及音樂這種藝術形式的存在。
為使社會發展能夠以和諧的方式適應人工智能這一先進生產力,我國應充分發揮在統籌社會方面的制度優勢,在生產關系調整、教育體系革新等方面作出富有前瞻性與建設性的系統謀劃,并積極、嚴密、細致地推進相應的布局調整,避免出現劇烈沖擊和較大的震蕩。目前我國正處于全面深化改革的關鍵時期,進一步全面深化改革,要抓住主要矛盾和矛盾的主要方面,“進一步解放和發展社會生產力、增強社會活力,推動生產關系和生產力、上層建筑和經濟基礎更好相適應”[17]。推動以大模型為代表的AGI技術與生產關系、上層建筑更好地適應,無疑是踐行這一方針的具體措施之一。
結語
當前,大模型發展日益呈現出與數據要素融合發展、其逐漸沉淀為基礎設施、發展焦點從底座模型轉移至應用生態等新的趨勢。以大模型為代表的AGI將成為先進生產力的代表,我們在擁抱這一先進生產力的興奮之余,也要密切關注其濫用、誤用與惡用所帶來的負面問題。要以更為深入的思考、更加長遠的眼光、更加全面的梳理和更加精準的研判,做好全面、積極、主動的應對,確保AI成為人類之福,而不是人類之禍。
在AGI快速發展的時代,如何打發閑暇時光,如何安置靈魂成為人類需要直面的問題。從表面上看這似乎是個幸福的煩惱,然而,筆者更愿意稱其為“戴著和善面具的惡魔”。未來,人類應對AGI的利用加以適當引導與控制。即便有AI的助力,以卓越精神仰望星空也仍需要付諸常人所不能想象的艱辛和長期堅持。
古代歐洲的貴族們往往都有貼心的管家幫助其料理與經營生活,這成就了一批貴族精英代表人類專心致志、心無旁騖地探索未知世界,但更為常見的情形卻是養出了大批“好吃懶做、肥頭大耳”的精神侏儒。AGI日漸成為人類的貼心管家,AI代理人類社會似乎成為必然趨勢,而在這一過程中人類更應奮發向上,借助AI力量去勤奮地探索未知世界,不斷開辟新的認知疆域。
注釋
[1]R. Bommasani, D. A. Hudson et al., “On the Opportunities and Risks of Foundation Models,“ arXiv preprint arXiv:2108.07258, 2021; A. Young, B. Chen, C. Li et al., “Yi: Open Foundation Models by 01.AI,“ arXiv preprint arXiv:2403.04652, 2024.
[2]X. Chen, L. Li, L. Chang et al., “Challenges and Contributing Factors in the Utilization of Large Language Models (LLMs),“ arXiv preprint arXiv:2310.13343, 2023.
[3]S. Pang, E. Nol, K. Heng, “ChatGPT-4o for English Language Teaching and Learning: Features, Applications, and Future Prospects,“ SSRN Electronic Journal, 2024; S. N. Wadekar, A. Chaurasia, A. Chadha et al., “The Evolution of Multimodal Model Architectures,“ arXiv preprint arXiv:2405.17927, 2024.
[4]S. Pang, E. Nol, K. Heng, “ChatGPT-4o for English Language Teaching and Learning: Features, Applications, and Future Prospects,“ SSRN Electronic Journal, 2024.
[5]D. Zhang, Y. Yu, C. Li et al., “MM-LLMs: Recent Advances in Multimodal Large Language Models,“ arXiv preprint arXiv:2401.13601, 2024.
[6]D. Zhang, Y. Yu, C. Li et al., “MM-LLMs: Recent Advances in Multimodal Large Language Models,“ arXiv preprint arXiv:2401.13601, 2024; Y. Liu, J. Cao, C. Liu et al., “Datasets for Large Language Models: A Comprehensive Survey,“ arXiv preprint arXiv:2402.18041, 2024.
[7]《7天內2次收購!OpenAI豪擲重金接連吞并兩家初創》,2024年6月26日, https://www.thepaper.cn/newsDetail_forward_27859971;《違規使用新聞出版商數據訓練大模型,谷歌在法被罰2.5億歐》,2024年3月26日, https://new.qq.com/rain/a/20240326A0A27N00。
[8]J. Kaplan, S. McCandlish, T. Henighan et al., “Scaling Laws for Neural Language Models,“ arXiv preprint arXiv:2001.08361, 2020.
[9]N. Muennighoff, A. Rush, B. Barak et al., “Scaling Data-Constrained Language Models,“ Advances in Neural Information Processing Systems, 2024, 36; Y. Liu, J. Cao, C. Liu et al., “Datasets for Large Language Models: A Comprehensive Survey,“ arXiv preprint arXiv:2402.18041, 2024.
[10]X. Xu, M. Li, C. Tao et al., “A Survey on Knowledge Distillation of Large Language Models,“ arXiv preprint arXiv:2402.13116, 2024.
[11]D. Chen, J. P. Mei, H. Zhang et al., “Knowledge Distillation with the Reused Teacher Classifier,“ 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), New Orleans, LA, USA, 2022.
[12]X. Li, Y. Zhang, E. C. Malthouse, “Large Language Model Agent for Fake News Detection,“ arXiv preprint arXiv:2405.01593, 2024;《又遭投訴!Meta因利用用戶數據訓練人工智能模型遭挪威“開火”》,2024年6月14日,https://www.sohu.com/a/785794320_114984。
[13]T. Hosking, P. Blunsom, M. Bartolo, “Human Feedback Is Not Gold Standard,“ arXiv preprint arXiv:2309.16349, 2023; J. Yang, H. Jin, R. Tang et al., “Harnessing the Power of LLMs in Practice: A Survey on ChatGPT and Beyond,“ ACM Transactions on Knowledge Discovery from Data, 2024, 18(6).
[14]《一文讀懂:AI大模型訓練中的核心版權問題》,2023年10月19日, http://news.sohu.com/a/729633870_455313;《大模型版權爭議再起 紐約時報起訴OpenAI和微軟》,2023年12月28日,https://finance.sina.com.cn/jjxw/2023-12-28/doc-imzzpyuc6959399.shtml。
[15]D. Yu, P. Kairouz, S. Oh et al., “Privacy-Preserving Instructions for Aligning Large Language Models,“ arXiv preprint arXiv:2402.13659, 2024; V. Patil, P. Hase, M. Bansal, “Can Sensitive Information Be Deleted from LLMs? Objectives for Defending Against Extraction Attacks,“ 2023, https://openreview.net/pdf?id=7erlRDoaV8.
[16]《違規使用新聞出版商數據訓練大模型,谷歌在法被罰2.5億歐》,2024年3月26日, https://new.qq.com/rain/a/20240326A0A27N00。
[17]《習近平主持召開企業和專家座談會強調:緊扣推進中國式現代化主題 進一步全面深化改革》,2024年5月23日,https://www.gov.cn/yaowen/liebiao/202405/content_6953237.htm?menuid=197。
責 編∕包 鈺 美 編∕梁麗琛
New Situation of and Reflection on the Development of Large Model of Artificial Intelligence
Xiao Yanghua
Abstract: With the continuous progress of related technologies, the development of large models presents new trends such as deep integration with data elements, increasingly becoming infrastructure, and shifting the focus of large model development from base models to application ecology. In response to the new situation and new trend of the development of the large model industry, we must establish a holistic and comprehensive view of the development of large models, and actively adopt new countermeasures such as accelerating the construction of artificial intelligence education system, establishing an interdisciplinary research system with intelligent science as the core, promoting the coordinated development of large models and data elements, and adhering to the diversified development path of large models. As an advanced technology, large model has two sides. While actively taking measures to promote its benign development and release the potential of its application value, we should also pay close attention to the negative issues caused by its abuse, misuse and evil use, such as the proliferation of false content, and affecting the development and cultivation of human mind and ability. We should take proactive measures to manage and control risks.
Keywords: large model, artificial intelligence, risk control, large model application