【摘要】大型語言模型等人工智能的迅猛發展對當前的教育體系提出了挑戰。從認知科學、腦科學、機器學習、行為經濟學和科學史的跨學科視角來看,在強大的智能技術面前,教育體系需要培養學生三種核心能力以確保人類的競爭力,即人工智能素養、處理異常的能力、理解人類行為的能力。相較于人工智能,人類有很多獨有的優勢,如處理異常和偏離常規的數據,而更重要的是,在涉及法律、道德等問題上,人類還需要規制智能技術的使用界限,這些都要求人類對人工智能的底層邏輯和人類的思維與行為加深理解。人工智能是服務于人類需求的工具,人類需要更好地熟悉和使用它。
【關鍵詞】教育系統 人工智能素養 人類行為 處理異常
【中圖分類號】G434/TP18 【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2023.18.005
【作者簡介】Stella Christie(蔣黛蘭),清華大學腦與智能實驗室首席研究員、社會科學學院教授、THBI兒童認知研究中心創始人。研究方向為類比推理的形成與發展、認知科學。主要著作有《Structure Mapping for Social Learning》(論文)、《Why Play Equals Learning: Comparison as a Learning Mechanism in Play》(論文)、《Learning Sameness: Object and Relational Similarity Across Species》(論文)等。
引言
人工智能快速發展,其程序和應用執行任務的能力持續增強,并在一定程度上呈現追平甚至超越人類的表現。更值得關注的是,人工智能系統能夠在短時間內通過自主學習加速自身的迭代。例如,AlphaGo在2016年擊敗了圍棋世界冠軍李世石,這在當時被認為是人工智能發展的里程碑式的成就,而就在短短幾年后,人類無法與人工智能在圍棋和國際象棋等策略游戲中競爭已經成為常態。這引發人們進一步思考:人工智能時代,人類應該如何學習?
分析人工智能對教育系統的影響至關重要。從個體層面來看,這決定著學生未來進入勞動力市場時的競爭力;從國家層面來看,這對中國未來的經濟發展和技術創新至關重要。總的來說,本文的分析基于三個判斷:其一,未來十年甚至更長時間內,人工智能將是影響全球經濟發展水平和社會關系的最具變革性的要素;其二,人工智能發展非常迅速,教育系統的設計不應僅基于當前的人工智能生態系統,而應前瞻性地基于十年或十五年后的人工智能環境進行考量和設計;其三,現階段,學生應該注重學習人工智能當前尚未掌握并且在未來二十年內也無法掌握的技能。
前瞻性地針對未來人工智能環境設計教育系統,本身就是一個很復雜的問題。長期以來,人們關于人工智能到底掌握了哪些技能的辯論并沒有明確的答案,更不用說學生應該學習什么技能。一方面,除了在大型語言模型方面的顯見成就,人工智能的發展也遭遇了一些挫折。一些表面的問題是容易修復的,如與ChatGPT 3對話時,機器聲稱47大于64(Marcus, 2023),而另一些根源于人工智能底層數據集的問題則很難在短時間內得到解決,如由于數據集的偏見導致人工智能生成有偏見的推薦(Obermeyer et al., 2019; Mehrabi et al., 2021)。另一方面,當前人工智能發展存在嚴重的局限性,主要體現在人工智能無法將知識遷移到新的環境(Forbus, 2021),而且也無法靈活地適應新的環境(Marcus and Davis, 2019)。這一問題無法通過單純增大數據量來改進解決。上述人工智能發展的局限對于如何設計教育系統具有重要參考意義。此外,這些局限的程度也在動態變化,理想狀態下的教育系統應當能夠預見十年或更長時間范圍內的新變化。
本文認為,在人工智能時代,學生在教育系統中應該獲得三種與人工智能相關的核心能力,即人工智能素養、處理異常的能力和理解人類行為的能力。下文將分別分析這些核心能力的關聯,論述其重要性,詳細闡釋人工智能時代這三種能力是如何發揮作用的。
人工智能素養
人工智能素養意味著學生需要了解什么是人工智能,特別是需要理解人工智能的局限和優勢,只有這樣,學生才能有效并負責任地運用人工智能。當下存在著一種思維誤區,一部分人認為人工智能素養就是熟練掌握人工智能及其接口的使用方式。例如,許多人主張為年幼的兒童開設如何與人工智能互動的課程(以下簡稱AI使用課程)。出于多種原因,AI使用課程并不能正確或有效地構建人工智能素養。
首先,兒童通常會自發地學習如何使用基于人工智能的技術,就像他們會本能地探知周遭事物一樣,無需專門的課程。研究表明,兒童將人工智能視為一種社會個體,與其他人類沒有太大的區別,即,他們認為人工智能是友好且可以互動的(Druga et al., 2017; Tanaka et al., 2007)。從這個角度看,開設AI使用課程是沒有必要的。其次,AI使用課程可能增加兒童在日常問題解決中對人工智能的依賴,這對他們的整體表現、認知與文化能力培育將產生不良影響。一個易于理解的實證案例是,當學生做筆記時,手寫筆記往往比在計算機上輸入的筆記質量更高(Mueller and Oppenheimer, 2014)。流行的AI使用課程可能會產生一些影響,例如,過度依賴人工智能工具,并以此替換了實際效果更好的傳統技能。這樣的課程還有可能在高科技的掩飾下,給人一種學生在進行復雜學習的假象。從這個意義上說,AI使用課程可能會得到與學習的初衷相反的結果。最后,AI使用課程產生的優勢都是有時效的,當學生真正進入勞動力市場使用人工智能技術時,課程中的技術就已經過時了。
對人工智能素養的正確理解在于知悉人工智能技術的原理和局限。具體來說,一個具備人工智能素養的學生應該能夠:(1)評估哪些問題可以完全由人工智能解決,哪些需要人類介入解決;(2)闡述為什么人工智能可以或不可以用于某些類型問題的解決,及其深層次原因;(3)制定解決問題的綜合性措施和策略,并且對人工智能和人類的局限和優勢進行統籌考慮。
能力(1)實質是指學生必須知道并應用相關原則作出這種決定。判斷一個問題可能不適合人工智能解決的關鍵因素包括:問題是非常規的、數據有限或數據質量差、數據中存在偏見,以及開創性的工作,如顛覆性科學發現等。
能力(2)要求學生必須知道人工智能模型的工作原理是識別和使用大數據中的統計規律。如果問題是非常規的(其解決方案不是可以通過大數據模型來統計歸納的),或者可用的數據質量差、有限或存在偏見,那么這種統計歸納就不能成功。顛覆性的發現總是“反統計”的,與普遍觀點相異,受少數例外情況所啟發。例如,如果讓只知道傳統導體和絕緣體的工程師來收集數據,從該數據庫歸納發現半導體是難以實現的。基于這些原則,具備人工智能素養的學生應該能夠判別并證明為什么給定的問題適合或不適合人工智能解決。
能力(3)需要進一步解釋。可以預見,在人工智能愈加普遍的未來,受過良好教育的畢業生的大部分專業工作將專注于人工智能無法解決的問題,但這并不意味著在解決這些問題時不需要人工智能。問題的完全解決通常需要人類使用人工智能作為支持,包括記錄整理、秘書任務、提供百科全書式的知識和數據庫檢索等。在這種情況下,學生可以獲得的最寶貴的技能是通過結合人類和人工智能各自的優勢來解決問題。一般來說,人類在開放性問題的解決上表現更優秀,而人工智能在精確和狹義問題的解決上具有優勢。因此,通過結合二者各自優勢來解決問題的能力意味著將問題分解為較小的組件,這些組件要么是開放的(需要人類),要么是封閉的(人工智能自動化的)。
舉例來說,讓學生通過看照片確定照片拍攝的地點,規則是他可以向人工智能系統詢問關于照片的各種問題,但不允許直接將照片上傳。這是一項開放的任務,因為選擇詢問的問題沒有固定的模版或規律,學生如何選擇反映了人類的優勢。這時,學生應該利用的人工智能優勢是其提供關于世界的必要事實知識,因為這些知識對學生來說可能是陌生的。照片顯示了一個港口、有一艘游輪、一個可辨認的街道標志,地上有雪、遠處的背景是山。學生問:“這個標志是用什么語言寫的?”答案是阿根廷的西班牙文。學生再問:“阿根廷的海洋港口有哪些?”“在這些城市中,哪些城市在冬天會下雪?”得到的答案是烏斯懷亞。最后,學生可以問一個驗證的問題:“烏斯懷亞周圍有山嗎?”學生根據人工智能給出的答案最終確定拍攝地點。人工智能時代,一個理想的教育系統應該培養學生解決此類問題的能力。
人工智能素養的一個關鍵內容是能夠準確解讀并批判性地評估人工智能生成的推薦。從這個角度說,人工智能素養的培養對象應更為廣泛,因為科技公司在包括金融、醫療和教育等多個領域向客戶提供人工智能生成的建議,這些推薦建議幾乎涉及社會的所有層面。由此,教育系統必須現在就開始讓學生為此做好準備,培養他們成為明智而自信的人工智能平臺用戶。這對于政府和社會各領域管理者來說尤為重要。
從交通路線設計到醫療方案制定,許多領域已經開始使用人工智能系統提供關于政策制定和發展規劃的建議。例如,醫療設備供應商和保險公司越來越常用智能算法進行風險評估:識別具有較大可能性需要昂貴治療的患者,或者估算保險套餐和健康福利產品的成本等。鑒于醫療和健康數據的復雜性,相比純粹的人類判斷,智能算法確實可以提高評估的準確性。然而,一項研究顯示,這種智能算法會出錯并表現出系統性偏見(Obermeyer et al., 2019)。這說明人工智能生成的推薦不應被視為最終決定,而只應作為輔助人類決策的依據之一,人類應當依靠自身作出有影響力和敏感度的決定。教育系統必須培養未來的決策者如何正確解讀人工智能生成的推薦,如何為了社會利益更好地使用它們。
事實上,人們必須通過培訓才能達到分析人工智能生成的推薦的能力。上述關于人工智能會生成包含偏見的醫療推薦的研究,使用的是來自美國一家醫院的大數據集。結果顯示,算法預測相同風險水平的病例中,黑人患者實際上比白人患者的病情更嚴重。這樣的智能算法在配置病人的治療方案時,黑人患者只有比白人患者病情更嚴重才能得到與后者同樣的治療方案。種族信息不是智能算法數據庫的內容,因此偏見的來源并非直接出自數據本身,而是由歷史數據中的醫療費用引起的。由于美國社會存在一些經濟和社會因素,導致黑人患者不能像白人患者那樣具備經常看病的醫療條件,所以算法將黑人標定為需要較少醫療服務的群體。這項研究說明了正確解讀人工智能生成的建議事實上有多么復雜。
由此,教育系統必須培養學生以下能力:準確指明人工智能可能協助解決的問題;理解底層數據和人工智能生成建議的局限性;識別系統性偏見和造成事實扭曲的因素;權衡人工智能推薦的成本和收益,評估其他外部因素和人工智能無法計算的因素,以便最大程度地造福社會。
處理異常的能力
在使學生獲得人工智能素養(即理解人工智能系統的統計基礎,以及靈活使用人工智能系統的能力)的基礎上,教育系統的下一個目標是教授其人類獨有的處理異常的能力。在可預見的未來,人工智能模型在這方面的表現不會有明顯的突破。學生需要認識到在解決問題時具備處理異常情況能力的重要性和挑戰,并意識到分析和利用異常的能力是人類獨有的優勢。教育系統需要實現的目標是,使學生有能力和信心在解決問題過程中處理好異常情況。
前文已經提及,對異常情況和離群數據的分析在科技創新中發揮著重要作用。在解決問題和創新的過程中,進步和發現的機會通常蘊藏在最離群的數據中,即統計工具無法覆蓋的區域。這也是我們不能依賴人工智能系統來引領科學和技術創新的部分原因,從很大程度上說,科技創新只能由人來完成。
許多科學突破都能夠歸因于對異常的關注和好奇心。舉例來說,達爾文進化論的提出主要是受雀鳥喙部變異情況所啟發,而雀鳥生活在偏遠的加拉帕戈斯群島。一個偏遠群島上的奇特鳥類以及關于它們的有限數據事實上就是我們所稱的離群數據,同時,由于雀鳥具備許多與“典型”鳥類不同的特征,這也意味著雀鳥的情況屬于異常范疇。在當前人工智能系統的邏輯下,關注到諸如雀鳥喙部變異的情況幾乎是不可能的。相較于此,達爾文正是通過關注異常特征,認真分析來自偏遠島嶼的一種鳥類的數據,才實現了改變世界的科學突破。這種突破對于目前存在的以統計為驅動的人工智能模型來說是不可能的。
上述例子說明了兩種相關的能力,這兩種能力在可預見的未來將始終為人類所獨有,同時應該在現代教育系統中得到進一步鼓勵和培養。一個是好奇心,即不由外部獎勵驅動,而是自主產生對現象、事實、模式的興趣(Loewenstein, 1994; Kidd and Hayden, 2015);另一個是提出“為什么”的驅動力,例如,達爾文不僅僅是觀察并描述雀鳥的喙,而是不斷詢問這些觀察背后的內在原因。這兩種能力與一個人處理異常的能力密切相關。只有一個好奇的人才會更好地關注到異常數據,只有一個敢于提出“為什么”的人才會分析異常并得到收獲。
可以預見,人類的好奇心與敢于提出“為什么”的能力將在很長時間內持續領先于人工智能系統,所以這些能力的培養應當成為教育系統的重點目標。然而,當前的教育系統并沒有集中培養這些能力。學校教育系統的諸多努力都是為了培育學生掌握事實知識,而這些知識其實可以很容易地由人工智能系統提供。教育系統更應優先培養的是將教育重點從掌握事實知識轉向提出好問題和正確分析實證的能力,例如異常和離群數據這樣的實證。
愿意并能夠分析異常不僅在科技創新中極具重要性,在實際工作生活中也能夠發揮很大作用。以協助進行醫療診斷為例,由于大多數患者和疾病都符合統計分析的規律性模式,因此,在很多地方,人工智能系統已經被用于輔助醫療診斷。這并不令人驚訝,因為在醫療診斷方面,可用的數據量大,且數據的規律較為明顯。但值得注意的是,人工智能模型無法診斷出患有罕見基礎疾病的患者。如果一種病癥是罕見的,那么可用的數據集并不足以讓人工智能模型作出正確的、統計上有根據的推薦療法。更為重要的是,使用一個以統計為驅動的人工智能模型來診斷罕見病患者是十分危險的,因為統計上對常見病有益的推薦療法可能恰恰是對罕見病患者有害的診斷。例如,進行性肌肉骨化癥(FOP)會導致患者身體的肌肉以及結締組織逐漸骨化并累及全身,這一疾病的預估發病率為1/200萬。如果用人工智能模型協助診斷,那么幾乎一定會誤診此病的患者,并推薦有害的治療方案(對FOP患者的手術干預會加速骨骼的異常生長)。這一案例說明,對異常的關注應當成為各類職業的基礎素養的必要內容。
在人工智能時代,大部分的人類智慧活動將集中在處理異常上。如果教育系統不重視對細節和異常的關注,將無法幫助現在的學生在未來環境中做好準備和取得成功。當前教育系統更偏重教育學生對典型案例進行理解,而不強調對異常的關注,這體現為當前學校教育中常見的重復訓練的教學方法,如根據做題的速度評估能力等。應當優化現有教育系統,注重培育并引導學生關注并分析異常。
理解人類行為的能力
人工智能對未來勞動力市場和技術環境的影響仍是不確定的。已經發生的變化與所謂的“弱AI”相關,例如,文書類任務的自動化、自動售票、配送和支付、面部識別、交通執法,等等。而未來,人工智能將執行更為復雜的任務,如廣泛使用自動駕駛車輛。
勞動力和技術環境的轉型在人工智能發展到接近所謂的“強AI”閾值時,將會更具顛覆性。“強AI”是指具備自主選擇能力并能夠解決新問題的人工智能。在這一發展過程中重要的里程碑是實現與人類相近的交互,并且能夠做到無法與真正的人類相區分,這個閾值被稱為圖靈測試(Turing, 1950)。“現有的大型語言模型是否已接近強AI的閾值”是一個有爭議的問題。無論如何,朝著強AI不斷靠近的發展趨勢將使得未來人工智能可能影響更大比例的受過更高教育的人口,包括藝術家、工程師、醫生和計算機程序員等。
在討論如何優化面向人工智能時代的教育系統時,不僅要考慮已經由弱AI引發的變化,還要預判即將由強AI或類強AI引發的變化。要做到這一點,需要研究歷史上那些首次引入顛覆性技術的領域發生了什么,可以深入研究的案例包括印刷機、蒸汽機或洗衣機等。新技術對勞動力市場的影響主要包括三個方面:一是某些工作被淘汰或被自動化替代;二是創造出新的工作;三是由于新工作的誕生在時間上滯后于舊工作的消失,將會存在持續一段時間的失業現象。
人工智能時代,推動教育系統轉型應從上述三個方面著手。針對舊工作消失,教育系統應該預先降低學生選擇即將消失的職業的比重;針對創造新工作,教育系統應培養在新工作中最有用的技能;針對預期的暫時性失業,我們應該在人工智能變革效應發揮之前做好前瞻性規劃。
考慮到這些因素,當前亟需回答的關鍵問題是:在新工作中,哪些技能將是最有用的?雖然這些新工作現在還不存在,但隨著人工智能的逐步發展將會被創造出來。對于這個問題,先前的技術變革也是一個很好的借鑒參考。當手抄工因印刷機而失業,當馬車夫因火車而失業,當家庭主婦因洗衣機的引入而有了更多空閑時間時,隨之而出現的是什么工作或活動呢?當然,首先一些新工作是由新設備的操作者承擔的——如印刷工、火車司機和洗衣店員工。在當前的背景下進行類比,則這些工作在某種程度上類似于人工智能開發者的角色。然而,這樣的工作只占新工作的一小部分。這表明,對即將到來的人工智能變革的最佳應對方式并不是增加人工智能開發或計算機編程課程的比例,因為只有一小部分新工作會要求熟練掌握人工智能模型技術。那么,哪些新的技能和工作將占據未來勞動力市場上的競爭優勢呢?
答案是,依賴人與人互動的工作。有幾個原因能夠支持這個預判。首先,這是在歷史上技術變革中多次發生的現象,我們沒有理由懷疑人工智能技術變革在這方面會有所不同。新技術出現時將產生各類問題,在社會層面上去解決這些問題需要創建新的工作,而這些工作的關鍵內容就是人與人的互動。其次,相較于人類員工,人工智能模型并不擅長與人類客戶進行互動。最后,由于某些倫理和政治因素,人類員工在這些領域是無法被替代的。基于這些原因,在人工智能時代,理解人類行為應成為教育的重要內容和核心目標。下文將詳細闡述人際互動和人類參與將如何改變勞動力市場。
內容創作。隨著人工智能技術的廣泛應用,許多新的工作將涉及人工智能輔助的內容創作。當前,數字經濟已經創造了大量新的創意工作,而在十年前根本難以想象這些工作。人工智能技術新的發展將使復雜內容創作變得更加容易,這一趨勢將在未來幾年加速凸顯。一方面,人工智能輔助的內容創作的受眾仍是人類用戶,因此如何理解人類行為對此類工作至關重要;另一方面,人工智能輔助的內容創作工作不要求掌握太多的人工智能技術知識,更進一步說,并不會比當前計算機輔助工作所要求的計算機知識更多。因此,這些工作實際上要求教育系統進一步提高對人文、藝術和創造性工作的關注度。
用戶體驗。目前,基于人工智能的創新產品主要應用于服務領域,包括無人配送、智能客服、網上銀行、聊天機器人等。這些產品的服務對象依舊是人,評價產品質量的最重要指標是用戶滿意度,這意味著成功的產品開發將需要大量的用戶體驗測試員和評估員。更進一步說,產品開發者必須在人類行為、感知和認知方面進行學習,以避免過多試錯、更快地滿足用戶需求。在以人工智能為核心驅動力的智能經濟背景下,卓越產品的大部分競爭優勢將來自卓越的用戶體驗,而不是產品的技術規格。理想的教育系統應當可以使未來的勞動者在用戶體驗領域為競爭更好地作出準備。
首先,從高中階段開始,將人類行為、感知和認知的元素引入通用課程。在以人工智能為核心驅動力的智能經濟下,對這些技能的需求幾乎是普遍存在的,因此有必要向廣大學生群體教授這些技能,而不僅局限于大學階段選擇相關專業的少數人。當前,中國部分大學教授人機交互(HCI)課程,這是朝著正確的方向邁出的重要一步,然而這些課程體系還需持續優化并在更大范圍內加以普及。同時,我們還需要在高中階段引入這一領域的基礎元素。
其次,強調使用定量工具研究用戶體驗的必要性。在作為認知科學教授的工作經歷中,筆者發現許多涉及用戶體驗領域的專業人士缺少適當的定量工具來正確評估用戶的滿意度或偏好。對此,應將相關定量方法的研究引入大學課程體系,特別是計算機科學相關專業。長遠來看,將認知科學和心理學的教學從社會科學學院轉移到自然科學學院將是大有裨益的。這將鼓勵自然科學的學生選修心理學和認知科學課程,并為其設定一個預期:這些領域的研究和教學必須遵循假設檢驗、通過可復現的實驗進行驗證并采用定量分析的科學范式。
這些變化將使當前的學生做好準備,成為更有效的、具有競爭力的和靈活的人工智能產品設計者。這種準備對于他們在未來勞動力市場上的個人競爭力提升來說至關重要。在國家層面,這樣的準備也將有力推動各領域的高質量發展,顯著提高中國的國際競爭力。
收益分配。當機器生成的作品產生收入時,誰應該獲得收益?當機器生成的產品引發事故時,誰應該在道德、經濟乃至法律上負責?隨著人工智能技術進一步發展,這些問題將變得更加重要,也更為微妙,因為這些問題的產生離不開人的參與。例如,MidJourney生成的藝術產品贏得藝術比賽,被用于雜志封面,我們應該如何分配著作貢獻?藝術家在創作藝術品之前訓練人工智能的基礎數據庫,并輸入描述預期效果的提示詞;人工智能不像簡單的畫筆或顏料,開發人工智能技術的團隊也有貢獻。如何為人工智能生成的工作產品分配著作貢獻是一個復雜的問題,需要仔細評估道德、經濟和法律等諸多因素。
隨著時間的推移,復雜的案例和相關政策的實施將需要企業中的專業人員以及政府相應部門的專門人員介入,這正是人工智能技術創造的新工作崗位需求。這些工作要求對人工智能技術的原則有較為深入的理解,更要求能夠與利益相關者或智能產品創造者、制造者進行有效的人際互動,教育系統必須為當前的學生做好相關的準備。
使用限制。技術越先進,設定其使用限制和界限的問題就越復雜。在什么情況下可以接受使用機器?類似難題已經開始給教育者和學生造成困惑。例如,隨著像ChatGPT、Google Bard或ChatGLM這樣的大型語言模型的出現,學生在多大程度上可以使用這些平臺來準備作業?教師在備課或考試時是否可以使用ChatGPT?這些問題非常復雜,不能割離社會價值觀和規范來回答。換言之,這類問題需要由能夠成熟地評估智能技術對人類影響的人來解決。
在實踐中,未來的人工智能環境需要人工智能管理員來設定智能技術在特定領域的部署規則。這不僅僅是宏觀上法律系統的問題,微觀上許多企業和地方機構也將需要專門人員來評估智能技術在特定問題上的使用。例如,各個學校可能需要自己的智能技術管理員來設定關于學生和教師在學校層面使用智能技術的規定。因為沒有一個政策可以通用于所有學校的具體實際情況。小學和大學、職業和非職業學校、鄉村和城市學校,都需要根據自己的實際情況和社會地理環境調整政策。對智能技術管理員有需求的可能遠不只學校,還包括商業企業、醫療機構、政府機關等。這些專門人員需要接受人類行為和認知方面的培訓,以便在特定任務中評估使用智能技術是否有助于機構的整體發展目標。
為了理解類似智能技術管理員這樣的專門人員需要解決的問題類型,我們可以先了解學生使用人工智能系統做作業的問題。首先,不同的學校需要有不同的政策:人工智能系統在作業中的最佳輔助邊界對于小學生和大學生來說是截然不同的。其次,需要細致且有針對性地調整允許使用人工智能系統輔助的方式。如寫論文的學生使用人工智能系統找到支持證據是可以被允許的,但讓人工智能系統進行寫作是絕對不被允許的。最后,人工智能系統使用的界限不能過于僵硬,否則學生將難以形成和具備我們前文討論的“AI+人類”綜合性解決問題的能力。這個例子帶給我們三個方面的啟示:設定人工智能系統使用界限的復雜性;需要在具體的情境中切合實際,而不是設定統一的界限;專門人員發揮的效能取決于其對人類行為和認知的知識掌握程度。
在前文提及的醫院使用智能技術為患者選擇治療方法的案例中,經濟、倫理和社會因素變得更加重要。人工智能技術發展的主要推動力之一是其能夠提高決策的準確性、提升經濟效率。然而,如例所示,因遵循有誤的人工智能系統生成建議而產生的錯誤的醫療責任劃分,實則涉及到重大的倫理問題,而類似的各方面的問題本質上都屬于人類應當處理的問題范疇。教育系統必須培養能夠分析和權衡人工智能技術部署的成本和效益的未來人才。
結語
人工智能的飛速發展要求教育系統進行相應的調整和變化。鑒于人工智能迭代的速度,教育系統的調整變化不應僅僅是被動地回應,而應主動預判和積極應對智能技術的變化與社會的變革。與常見的觀點正相反,人工智能發展引發的勞動力市場變革乃至社會變革,不僅不會“威脅”或“取代”人類,反而會帶來更多對與人類相關的技能的需求,而這要求我們在人工智能時代更重視研究人類行為、感知和認知。教育系統的調整應當注重培育學生三種與人工智能相關的核心能力,即人工智能素養、處理異常的能力、理解人類行為的能力,而這些調整在當下應盡快進行。
參考文獻
S. Druga et al., 2017, “'Hey Google Is It Ok If I Eat You?': Initial Explorations in Child-Agent Interaction,“ Proceedings of the 2017 Conference on Interaction Design and Children.
K. Forbus, 2021, "Evaluating Revolutions in Artificial Intelligence from a Human Perspective," AI and the Future of Skills, Volume 1, Paris: OECD Publishing.
C. Kidd and B. Y. Hayden, 2015, “The Psychology and Neuroscience of Curiosity,“ Neuron, 88(3).
G. Loewenstein, 1994, “The Psychology of Curiosity: A Review and Reinterpretation,“ Psychological Bulletin, 116(1).
G. Marcus and E. Davis, 2019, Rebooting AI: Building Artificial Intelligence We Can Trust, New York: Pantheon Books.
G. Marcus, 2023, “Elon Musk Thinks We're Close to Solving AI. That Doesn't Make It True.“ https://www.vox.com/future-perfect/23622120/elon-musk-solve-ai-chatgpt-wrong.
N. Mehrabi et al., 2021, “A Survey on Bias and Fairness in Machine Learning,“ ACM Computing Surveys, 54(6).
P. A. Mueller and D. M. Oppenheimer, 2014, “The Pen Is Mightier Than the Keyboard: Advantages of Longhand Over Laptop Note Taking,“ Psychological Science, 25(6).
Z. Obermeyer et al., 2019, “Dissecting Racial Bias in an Algorithm Used to Manage the Health of Populations,“ Science, 366(6464).
F. Tanaka et al., 2007, “Socialization Between Toddlers and Robots at an Early Childhood Education Center,“ Proceedings of the National Academy of Sciences, 104(46).
A. M. Turing, 1950, “Computing Machinery and Intelligence,“ Mind, 59.
Education System Should Focus on Instilling Three Core Abilities in the Era
of Artificial Intelligence
Stella Christie
Abstract: Rapid advances in Artificial Intelligence, including large language models, present a challenge to the current education system. Using interdisciplinary perspectives of cognitive and brain sciences, machine learning, behavioral economics, and history of science, this paper argues for three core abilities that need to be instilled in the new education system: AI literacy, the ability to handle exceptions, and the ability to understand human behavior. Compared with AI, humans have many unique advantages, such as dealing with abnormal and unconventional data. More importantly, when it comes to issues involving law, ethics, etc., humans need to regulate the boundaries of intelligent technology usage, which requires a deeper understanding of the underlying logic of AI and human thinking and behavior. AI is a tool that serves human needs, and humans need to become more familiar with and proficient in its use.
Keywords: education system, AI literacy, human behavior, ability to handle exceptions