国产亚洲tv在线观看,精品国产污污免费网站Av,欧美日韩无砖专区一中文字,亚洲欧美日韩国产综合五月天

網站首頁 | 網站地圖

大國新村
首頁 > 原創精品 > 學界熱點 > 正文

算法治理的技術迷思與行動選擇

北京大學中國社會與發展研究中心主任 邱澤奇

【摘要】算法對人類社會生活影響的普遍性和深刻性讓算法成為堪比自然環境的人工環境,算法影響的利弊兩面性以及算法侵害的不斷出現將人類推入算法治理時代。伴隨算法影響不斷擴大的是算法自身復雜性的增強,算法已經從古老的計算演化為實時關系模型的自我迭代與演進,進而讓算法的過程治理既在技術上不可行,也在管理上代價高昂。中美歐在算法治理領域的探索實踐呈現不同格局,美國從防范算法侵害入手,形成了政府和第三方的問責模式;歐盟從數據保護入手,逐漸與美國的問責模式匯流;中國從網絡安全入手實施治理,但尚未形成有法理邏輯和明確操作路徑的算法治理模式,邁向問責模式似乎是中國算法治理可能的且有效的行動選擇。

【關鍵詞】算法治理 算法技術 問責模式

【中圖分類號】D922.16 【文獻標識碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2022.10.003

對算法治理的討論盡管早在20世紀80年代已初現端倪,可真正廣泛進入人們的視線還是始于近些年中美歐相關法律的落地和文獻數量的爆發式增長。

1984年是桌面計算機進入流行的初始階段,也是人們對算法開始警覺的起點。次年,美國國會技術評估辦公室的一份報告指出,在過去20年間,聯邦政府四分之一的部門已經將計算機系統用于執法調查或情報搜集與分析。[1]其中的“計算機系統”便內含了算法。隨后,同一間辦公室的報告《電子記錄系統與個人隱私》則明確意識到了算法治理的挑戰。報告指出,運用電子記錄進行個人畫像意味著求解個體特征和行為模式以及其與特定行為的關聯,進而直接涉及使用個人記錄畫像、產生算法歧視等隱私和自由問題。[2]

其實,早在20世紀60年代后期,人們已有對自動化的擔憂,類似于當下人們對算法的顧慮。值得記錄的一項反思是對人的特殊性和目的性的強調,認為自動化的設計、制造、存在都是應該圍繞人展開的,人的尊嚴是自動化的第一理念。[3]此后,人們對信息技術的迭代演進、信息技術的數字化,以及數字技術向生產和生活各領域不斷滲透帶來的影響一直保持著關注。只是這些關注始終呈現為有限的探討,沒有形成持續的努力。

人工智能的新一輪爆發[4]引發了近些年對算法治理的關注。大多數涉及算法治理的文獻甚至不謀而合地形成了一種套路式表述,如:隨著大數據、云計算、人工智能技術應用的普及,算法已廣泛且深度地進入平臺經濟、智慧城鄉、政府治理等政治、市場、社會領域,成為影響人類生產與生活的關鍵力量,算法在帶來數字經濟繁榮、政府治理有效、社會發展活躍的同時,也潛藏著政治、經濟、社會、法律等一系列風險,且相關風險在逐漸顯現。為此,政府或社會亟需關注……。中國知網的數據顯示,以算法治理為主題的社會科學文獻在2013年左右只有零星幾篇,2018年開始呈現急劇上升趨勢,2022年前4個月發表的文獻數量幾乎與2020年整年的數量相若。

在既有的探討中,盡管不少文獻直奔算法治理主題,盡抒胸臆地表達對算法治理的關注,卻無意或有意地忽視了一些基本問題,如,算法是一個舊已有之的存在,如今為什么要特別關注?到底什么是算法?如果關注,又能關注什么?本文試圖從算法對人類社會生產和生活的廣泛和深刻影響的程度入手,闡述算法已經成為人類生產和生活的普遍環境,不得不予以關注;本文還將進一步分析算法的技術邏輯,說明關注過程治理、試圖對算法進行實時監測難以實現算法治理目標;最后本文將探討算法治理的可能路徑及中美歐的行動選擇。

進入算法治理時代

在套路化闡述算法治理的文獻中,人們認為,關注算法的必要性來自于大數據、云計算、人工智能等數字技術的廣泛應用。問題是,為何相關技術廣泛應用之后必需治理算法呢?換個問法,數字技術的廣泛應用與算法有什么關系?不用算法,可行嗎?即使運用算法,不治理,行嗎?我們認為,回答這些問題是理解算法治理必要性的前提。

算法古已有之。在中國之外,算法的最早證據可以追溯到古代美索不達米亞的巴比倫數學,在伊拉克巴格達附近發現的一塊公元前2500年左右蘇美爾時期的粘土碑上的除法算法便是證據,[5]古巴比倫的天文學采用算法程序計算重大天文事件的時間和地點。[6]在中國,算法的最早證據則可追溯到《黃帝歷》,時間大約在公元前2700年,人們用算法理解天體之間的運動規律,安排人類的生產和生活。[7]如此可知,算法在人類歷史中始終存在,在近代社會也沒有停止演化,且早已運用于生產和生活之中。[8]可是,為什么直到現在,人們才那么關注算法治理?

歸納既有文獻,我們觀察到三種主要理由。一種理由認為,算法侵害[9]是觸發人們關注算法治理的根由。人們認為,現實生產和生活中已經出現了算法歧視、算法偏見、算法共謀、算法壟斷、算法黑箱、算法遮蔽、算法短視、算法霸權、算法操縱、算法劫持、算法剝削等與算法關聯的社會、經濟、甚至政治侵害,給人類社會的政治、經濟、社會生活帶來了負面影響。

另一種理由認為,算法風險[10]是觸發算法治理的根由。人們認為,在個體層次,算法強化著信息繭房,帶來人的認知窄化風險。在市場層次,算法遵循商業邏輯,醞釀著監控資本主義的風險。在國家層次,算法隱藏著被特定利益集團用于社會控制和政治權力再生產的政治風險。從個體層次到國家層次的風險給人類社會的政治、經濟、社會生活帶來巨大的不確定性。

除了算法帶來的侵害和風險,還有人將算法影響上升到制度層次,認為算法權力、算法規則是觸發規則競爭、權力競爭甚至規則壟斷、權力壟斷的根由。值得特別注意的是,這也是西文文獻探討算法治理的主流。早在中文文獻關注算法之前,西文文獻就以著作形態探討算法權力(power of algorithms)了。奧賽羅和佩特里希編輯的論文集[11]運用歷史與現實視角刻畫算法對日常生活的影響,如導航、搜索、保密通信、油鹽醬醋、觀看電視、導購、游戲等,算法已經介入人們的日常生活,成為影響甚至支配人們日常生活的權力。在一般權力之外,社會學家似乎偏愛算法的社會權力(social power of algorithms)。人們認為,算法正在從人類手里獲得決策權,在越來越多的領域或行動中成為人類的代理人,不僅在日常生活中代理個體,還在組織行動中代理組織或機構。如果個體和組織層次的代理行動涉及社會秩序的建構和預測,在邏輯上,算法已經進入政治生活領域,[12]直接觸碰到了政治權力。在中文文獻中,算法權力也在成為一個重要論題。[13]

同樣,西文文獻也早在以著作形態探討算法規則,這些甚至早于對算法權力的探討。[14]萊辛格直言,代碼即法律。在短短五年內對著作的兩次修訂中,萊辛格明確指出,代碼建構了數字空間的規則,同樣約束著人類行動。計算機代碼與制度具有同樣的規制效應。萊辛格擔心的是,商業公司的逐利性會讓規則朝著有利于盈利的方向偏移,進而影響代碼規則在數字空間的公共性。通俗地說,如果我們把法律作為人類公共性的產物,那么,萊辛格擔心的是,在數字空間,代碼會將法律的公共性引向為資本牟利。進一步的討論甚至將算法規則提升到更高規則層級,[15]認為算法給憲法帶來了挑戰,對人的自由及其他基本權利造成不利影響,更不用說對制度、規制、公共政策等的影響了。

的確,算法向生產和生活的不斷滲透對人類社會產生著深刻的影響,小到個體的日常生活決策如食物、衣裝、出行等,中到人與社會每個層次的關系如群體、組織、市場、社會、國家等,大到人類的基本權利如自由等。問題是,自算法進入人類生產與生活開始,算法的影響始終存在,人們為什么要在當下關注算法侵害、算法風險、算法權力、算法規則呢?換一種方式提問,假設這些影響只涉及極少數人,而不涉及整個人類社會,我們還需要如此關注算法么?答案是否定的。即使有人關注也無需將其推送到整個社會面前,正如20世紀初人們對生產流水線的關注、20世紀60年代人們對自動化的關注一樣,算法可以成為少數人的興趣或學術探討的前沿,而無須成為整個社會關注的焦點。

我們認為,社會關注聚焦于算法治理其實是由兩個因素推動的,除了算法影響的廣度和深度,還有算法影響的覆蓋面。遺憾的是,既有文獻極少涉及后者。事實上,不僅因為算法影響了從個體決策、行動到國家憲法等人類社會生活的各個領域,還因為算法影響了世界的大多數社會、大多數人,可以說,整個人類社會的方方面面都處在算法的影響之下,人類參與的政治、經濟、社會生活,處處都有算法的影響,一些領域甚至根本是由算法在推動。

那么,算法影響的覆蓋面到底有多大呢?其實,接受算法影響是有條件的,不滿足相應的條件,算法影響便覆蓋不到。要觀察算法影響的覆蓋面,還需從算法影響發生的條件入手。對算法影響條件的分析也從另一個角度幫助我們理解,算法始終與人類的生產與生活相伴隨,長期以來算法影響覆蓋的人群卻一直非常有限,如同流水線、自動化等在不同層次影響的人群始終是有邊界的。

在數字時代,算法影響的第一個條件是接入互聯網絡。沒有互聯網絡的接入,就沒有個體或組織行動與數字網絡的數據交換,也不會有任何數字化算法介入,無論是個體還是機構或組織都被排除在算法的影響之外。根據國際電信聯盟(ITU)的數據,截至2021年,世界上依然有37%左右[16]的人口沒有接入互聯網。根據中國互聯網信息中心的數據,截至2021年12月,在中國以人口總體為分母的互聯網接入率為73.0%,10.32億接入用戶,其中鄉村用戶占27.6%,城鎮用戶占72.4%。如果以接入設施覆蓋面觀察,以最小行政單元為計量單位,中國的寬帶覆蓋率為100%,光纖覆蓋率為98%。[17]綜合相關數據可以獲得的判斷是,盡管世界上依然有超過三分之一的人口沒有接入互聯網,尚處在算法影響的范圍之外,中國卻實現了互聯網接入的充分供給,如果以家庭為單位計算,則人口整體處于算法影響的覆蓋之內。在數字接入的意義上,算法有機會影響到幾乎每一位中國人,如果愿意,每一位中國人也有機會接受算法的影響。算法覆蓋的無邊界性,在歷史上是不曾出現的現象。一個直接的例子是,新冠肺炎疫情流行的近三年來,一塊方寸大小的健康狀況二維碼,讓每一位生活在中國的人都感受到了算法影響的強烈沖擊。

算法影響的第二個條件是數據成為人類生產與生活的環境。如果只是接入網絡,也不足以讓算法影響觸達每一個接入的節點(人、組織、事物等)。與算法一致,網絡也始終伴隨著人類社會存在。人際網絡是基礎網絡,由此衍生的網絡林林總總。可是,網絡并沒有因為覆蓋面的擴大而改變網絡的本質屬性,網絡還是人與人、人與事、人與物、物與事等事物之間的一種連接關系。當然,連接的性質會因為關系屬性的差異而發生變化,從血緣網絡、地緣網絡,衍生出供應網絡、生產網絡、創新網絡、貿易網絡、社會網絡、政治網絡等。在網絡上,兩個節點之間流動的只要不是不斷產生的數據,不管流動的是什么,即使伴隨著算法,算法的影響也僅限于有限的節點之間,不足以引發廣泛的社會關注。可是,當網絡上流動的是關系性數據時,算法影響的溢出點便出現了。

數據對算法影響溢出的推動不在于數據本身,而在于數據的量。在互聯網上,有人專門關注數字網絡產生的數據量,如“數據從不睡覺(Data Never Sleeps)”9.0版[18]顯示,在數字網絡上每分鐘產生的20類數據中,任何一類的數據量都是人腦的計算能力無法勝任的,甚至也是個人電腦的處理能力難以勝任的。數據量巨大到遠遠超出人類加上簡單工具的處理能力,在歷史上也是不曾出現的現象。數字網絡進入社會化應用以來,人類活動產生和積累的數據量早已超出傳統的處理能力,不借助算法,人類根本無力運用數據資源進行生產,難以提高生活質量。數據已經成為接入數字網絡的人口之生產和生活環境,巨量的數據和應用是人類依靠其生物屬性無力應付和處理的,由此帶來的直接后果是:算法成為了人類生產與生活必備的外生性能力。這樣我們就可以理解,為什么智能手機在日常生活中會成為人們的第一陪伴。

算法影響的第三個條件是算法成為人類生產和生活的必備工具。數據和算法的組合正在從根本上改變人類的生產,推動著人類從工業經濟邁向數字經濟;也在從根本上改變人類的生活,推動著人類從工業社會邁向數字社會,數據和算法因此成為人類邁向數字時代的標志性指標。

在經濟領域,上市公司的市值排名不只標示企業價值規模,也指示關鍵技術的影響力和社會的取舍。根據公開數據,在市值排名前十的公司中,1990年有6家銀行、1家通信硬件公司;2020年則有7家互聯網公司、2家金融公司。在過去四十年,以設施設備等硬件為基礎,以組織和社會應用為目標,數字技術快速邁過其擴散臨界點,進入變革的起飛階段。中國信通院的數據顯示,2020年中國數字經濟增加值為39.2萬億元人民幣,占GDP的比重躍升至38.6%,[19]這意味著,中國數字經濟已越過技術擴散起飛的臨界點而進入起飛初始階段。預計,2025年中國數字經濟占GDP的比重將超過50%,[20]中國將真正進入數字經濟時代。

在社會領域,數字終端已經成為人們的必備工具,且不細說數字企業、數字政府如何運用算法改善生產、改善治理,只從人們日常生活對數字工具的應用中便能看到由數據量推動的算法帶來的影響。在中國互聯網用戶群體中,90%的人使用即時通訊、80%的人使用政務服務、70%的人使用數字支付,哪一項應用的實現都依賴算法。例如,運籌起點到終點的行車路線是出租車司機的基本職業能力,現如今,司機們卻說,離開了即時導航都無法行車了。

在政務領域,省部級政務接入國家政務平臺的比例快速上升,居民跨行政區辦理業務的便利性極大增強。在政務平臺上,實名注冊個人數達7.74億,法人數量達7.27億。審批等行政許可事項實現網上受理和最多跑一次的比例達82.13%;一半以上行政許可事項平均時限壓縮超過40%;政府事項網上可辦率超過了90%。[21]數字連接正在推動中國治理體系和治理能力的現代化。

任何一項終端工具應用的背后都有算法,算法的工具化無處不在。我們甚至可以認為:無算法,不生產;無算法,不生活。在生產領域,數據已成為人類的新生產資料,算法則成為人類新的生產工具。在生活領域,數據已成為人類提升生活質量的素材,算法則成為人類新的生活工具。

人類正在加速進入算法時代,人們之所以關注算法侵害、算法風險、算法權力、算法規則,不是因為侵害、風險、權力、規則本身,而是因為侵害、風險、權力、規則直接影響到大多數人的利益和福祉,直接影響到經濟發展的可持續性,直接影響到社會發展的平等性,直接影響到政治發展的公平性。換句話說,在人類邁向數字時代的同時,我們無法回避算法給人類帶來的如此深重且本質性的影響。問題是,算法又是何方神圣,何以有如此魔力?在既有的討論中,一些重要的觀點可能源自對算法的誤解,為此,下文有必要交代我們對算法的理解。

算法治理的技術迷思

盡管算法早已存在于人類社會,可作為概念,算法的詞源卻來自波斯數學家花剌子模(Mu?ammad ibn Mūsā al-Khwārizmī)的名字。花剌子模名字的拉丁語寫法(Algoritmi)便是今天人們見到的算法作為術語的拼寫原型。算法的現代意義源自公元9世紀花剌子模向西方譯介印度計算方法。[22]可是,直到計算機和計算機科學進入人們的生產和生活之前,人們都沒有算法的概念,正如計算機科學創始人諾斯(Donald Knuth)所說,直到20世紀70年代,“絕大多數受過教育的人都不知道算法,并且說實話,無論如何,也幾乎沒有必要知道”。[23]

那么,算法到底是什么?在不同的歷史階段、不同的應用場景中,算法有著不同所指,從最簡單的算法到最復雜的算法。可在本質上,算法只是一種求解邏輯。舉例盡管常常不是準確的定義方法,卻是幫助人們理解概念準確定義最有效的方法,還是舉一個例子吧。

在一座超大城市,假設您是乘客,在地點A上了一輛出租車,告訴司機您要去地點B,您希望盡快到達目的地。一位出色的出租車司機通常對服務范圍的道路非常熟悉。在您告訴司機目的地的瞬間,司機的頭腦中會快速盤算行車路線,譬如,路線一可能會遇到堵車,路線二不是最短路徑,路線三可能正好適中,或者還有更優的滿足盡快到達目的地需求的路線,只是司機不了解。

其中,從A點到B點,是需要解決的問題。有多個與問題相關的因素,至少涉及交通工具、道路狀況、交通動態、選擇偏好。給定乘客的選擇偏好:盡快;再給定交通工具:出租車;司機的路線選擇至少還涉及道路狀況和交通動態。再假設道路狀況已知,便有了司機的三條路線選擇。

如果說司機的三條路線選擇是從A點到B點問題的數學解,算法則是司機路線選擇的求解過程。在過程中,從A點到B點的路線用時是因變量,交通工具、道路狀況、交通動態、選擇偏好等是自變量,其中,每一個自變量對因變量的影響并非等價,如交通工具是條件變量,道路狀況也可以是條件變量,交通工具與道路狀況一起又會衍生出其他變量如路線備選集,交通動態可能是直接的自變量,卻是只能憑借司機經驗的自變量。運用與事實相吻合的關聯邏輯,建立自變量與自變量的關系結構,進一步建構自變量與因變量的關系結構,形成求解的計算邏輯,就是算法。

這個例子表明,第一,算法是面對問題的,無論是現實問題還是理論問題,總之是需要解決的問題。盡快到達目的地是需要解決的現實問題,如何把某個商品賣給愿意出高價的人是需要解決的理論和現實問題,人們為什么在搜索引擎上搜索感冒藥也是需要解決的理論和現實問題。人類需要解決的問題無處不在,故算法從不缺乏需要解決的問題。

第二,算法是通過計算解決問題的。因此,任何用到算法的問題,都需要將問題數學化為可計算模型。其中又內含著一個問題的兩面。一方面,要解決的問題可以被數學化即用數學模型刻畫,不能建模或暫時不能建模的問題是無法運用算法的,如人類或許暫時還無力將A愛戀B的程度數學化。另一方面,建構的數學模型是可計算的。滿足可計算的條件是,至少有用于計算的數據,至少計算可以獲得解,即存在著運用數據進行計算而獲得的解。沒有數據,無法計算;有數據卻沒有計算解也無法計算。通俗地說,運用計算機不是為了計算,而是為了運用計算機的算力更有效率地獲得計算的解。哈雷爾(David Harel)之所以將算法定義為計算機科學的靈魂,[24]或許理由正是在此。

算法正是每一位出租車司機頭腦中交通路線的運籌過程。在這個意義上,算法與人類的存在相伴隨。可是,人們關注算法,并不是因為某位出租車司機頭腦里的交通路線,一個人的算法并不會對其他人構成影響,除非存在某種組織結構,更不會對大多數人構成影響,進而也不會成為社會關注的焦點。

如果不是一位出租車司機,而是成千上萬的出租車和非出租車司機,是幾百萬輛機動車行駛在道路上,即同時有幾百萬個算法在發生,不僅如此,幾百萬個算法還因為都與道路資源有關而構成相互影響,即每一位司機算法的效率都以其他司機的算法為條件,而且,每一位司機的行車路線、行駛狀態、駕駛行為都可以成為影響交通路線選擇的因素。在這樣的環境下,如果還希望獲得最優行駛路線,運用人的生物屬性已經無力達成目標,即人類的生物屬性沒有能力處理哪怕是交通路線選擇之類的算法之間的關系。

如果道路條件、每一個路口的交通燈變化、道路上每一輛機動車的行駛路線、行駛狀態、每一個駕駛者的駕駛行為都被數據化,都匯集到一個數據池,且希望依據數據來獲得最優行車路線,即盡快從A點到達B點;那么,此時出租車司機面對的不再只是交通路線選擇,而是多出了許許多多工作,且不說相關數據如何測量、匯集,只說匯集后如何識別、整理與運用,每一項活動都是人類的生物屬性能力難以處理的,唯一可以借用的,只有算法。

第三,算法是一系列問題和求解數學模型的集合。從一個人的算法到一座城市的算法,在數量規模擴大的同時,算法也完成了它的華麗轉身,從一個數學模型變成了無數個數學模型,且無數個數學模型之間不是獨立的,相互之間不僅有關系,而且關系還異常復雜,可能形成有條件的、多層次卷積的、多卷積關聯網絡的或更加復雜的關系,且模型之間的關系不僅有結構,還有時序,結構與時序之間還不是確定的。以前置算法為條件的算法以及人類對計算效率的追求,還促進了算法的自我迭代,即以算法為數據而改進算法。

算法不僅與算法交互,也與人類行為或事物的發展變化交互。還是以城市道路交通為例,道路上的每一位機動車駕駛員都有隨機應變的能力和行動,而每一個隨機應變都有機會改變前一個時點算法的結果,也意味著被運用于計算的算法需要面對人類行為的改變、道路狀態的改變、交通環境的改變而迭代和優化。如此,算法的實際運行遠比人們想象的復雜,一個看起來只呈現了紅橙黃綠交通狀態的即時導航系統,卻是異常復雜算法融合的結果。以谷歌流感模型為例,算法科學家運用用戶搜索數據呈現的2007年流感模型是在4.5億個模型中篩選綜合的結果。[25]

可是,如何把不同的算法整合到一起形成求解模型的集合呢?且不說4.5億個模型,即使是45個模型,也是人類的生物屬性無法處理的,數45個數還常常出錯呢,算45個模型且將45個模型建立關聯,更不是人類的生物屬性可以無錯應對的了。那么,如何讓用于解決問題的模型不變成進一步需要解決的問題,而真正解決人類問題呢?算法對代碼的需要出現了。

第四,算法是由代碼連接且結構化的一系列問題和求解數學模型的集合。通俗地說,任何由計算機執行的指令都是代碼。復雜算法的代碼量可以多達數億行,可代碼向計算機傳遞的每一條指令卻只有一個動作,做(do)或不做(else),再復雜的數學模型都需要將其轉化為向計算機傳達的簡單指令。復雜的簡單也因此變成了復雜的復雜的一部分,計算機代碼也因此成為了算法的有機組成部分。實現算法代碼化的不是別人,正是人們將數學模型轉化為結構化的計算邏輯(如Alonzo Church)和被稱為電子計算機鼻祖的圖靈(Alan Turing)將計算邏輯轉化為可由計算機執行的指令邏輯,其中,每一條指令都以代碼形式呈現。在算法代碼化的進程中,代碼(code)的確是規則,代碼的確在指示計算機做或不做。由此推演下去,表面上,正是由代碼攜帶的簡單指令構成的復雜算法影響著計算結果的輸出,帶來了文獻關注的算法侵害、算法風險、算法權力、算法規則。可是,一旦我們進一步了解了代碼與算法的關系,或許會有不一樣的觀點。

綜上所述,如果僅從技術上觀察,算法不過是面對理論和現實問題的數學求解過程,只是因為求解面對的復雜性超出了人類生物屬性的能力范圍,人們創造出一種機器,且機器能夠理解人類將復雜求解過程簡化為做或不做的機器指令,交給機器去求解而已。通俗地說,理解當下熱議的算法治理,我們必須認識到,算法對人類社會的影響是隨著第一臺可編程電子計算機和第一種計算機編程語言的出現而出現的,隨著計算機和計算機科學的發展,算法才真正開始在解決人類問題的需求中發揮核心作用,從初期的軍事和科學領域,到商業和管理領域,再到當下的日常生產和生活領域,算法的影響隨著算法應用的拓展和對人群覆蓋性的擴大而呈現。“是計算機科學的快速發展,特別是對算法的研究,改變了這一切。如今,算法已變得必不可少。”[26]只是,從解決問題的需求到問題解決的數學求解,從極為簡單的數學求解到數學求解之間的關系結構化、復雜化、動態化,算法已經不再簡單如出租車司機的行車路線運籌,在數字時代,算法已經轉型為一系列關系和關系動態的代碼化,問題、模型、代碼已經成為算法的內核。

算法治理的行動選擇

上文討論已經證明,算法之所以會成為社會關注的焦點,不在于算法有多復雜,而在于算法會對許多人甚或對整個社會帶來影響。如果說數字連接、數據豐盈、人類必備是算法影響的三項必要條件,問題求解對能力的要求超出人類生物屬性的極限是算法影響的充分條件;那么,在人類跨入數字時代、中國進入數字發展加速期的當下,算法又如何產生影響呢?我們認為,只有理解算法影響人類的機理,才能從出發點找對算法治理的方向。

既有文獻對算法影響社會的機制認識大致可以歸結為兩個本質性的爭議。第一,算法是中立的還是有偏見的?斯廷森(Catherine Stinson)指出,人們以為算法是中立的,干凈的數據和良好的意圖可以消除偏見,其實,算法并不是中立的,除了有偏見的數據和算法生產者以外,算法自身也會產生偏見。這種偏見不一定來自于數據,也不一定來自算法生產者,而是來自于機器學習的進程,算法在不斷的迭代中從用戶對算法推薦的響應中進行學習,創建著針對用戶的選擇性偏差,即偏見。[27]這些偏見不僅具有統計學意義,也會帶來不同類型不同程度的算法侵害后果,如學者們筆下的算法共謀、算法壟斷、算法黑箱、算法遮蔽、算法短視、算法霸權、算法操縱、算法劫持、算法剝削等,即我們統稱的算法侵害,而算法決策的普遍性會讓算法侵害對人類社會構成侵害。未來的侵害對當下而言即是風險,即學者們說的算法風險。[28]

第二,算法是人類意志的產物還是自主自為的?認同“算法即規則”[29]觀點的研究者認為,算法已經作為獨立行為主體參與人類生產、生活,算法規則也外化為社會行為規則,對人類產生深度影響。例如,算法的自動化和智能化特征可能誘使技術研發者和應用者在提高效率、降低成本的引導下,更多追求控制乃至替代人類行為的自主性。[30]有人甚至認為,算法的自主自為性形成了算法利維坦,成為建構人類環境的重要乃至決定性的力量,不僅每一位社會成員正逐漸在成為算法的附庸,國家權力運行也在日益依賴算法,社會的技術理性至上實踐建構了算法的絕對權威。[31]

在探討算法治理行動之前,我們認為有必要針對算法影響機制的爭議進行澄清和回應。實踐總是最客觀的出發點,讓我們通過一項實證研究來厘清。一項對谷歌圖片算法的研究,對4個以上種族所有年齡段的4萬多張面孔的算法展開的審查顯示,谷歌圖片算法再現了白人男性父權制結構。算法對白人男性有更多樣化的和更積極的刻畫,對其他人群的描述則更簡單,更加呈現如刻板印象、歧視女性等社會歧視。[32]不過,研究團隊的工作沒有就此停止,而是借鑒布迪厄的文化再生產理論對算法進行再培訓。結果顯示,經過再培訓的算法呈現了算法對社會文化實踐的刻畫,改善了之前呈現的社會歧視。[33]

這項研究告訴我們,如果代碼生產者以客觀為由,真實地擬合社會現實,那么,算法的確會攜帶偏見,進而制造算法侵害。復刻部分人群(如代碼編寫者、數據匯集者等)的社會歧視和刻板印象,不只是將現實社會的社會歧視和刻板印象算法化,還意味著將部分人群的社會歧視和刻板印象通過高度互聯的社會網絡傳遞給不明真相的用戶,因此也不再只是布迪厄意義上的文化再生產,而是對社會歧視的擴散與傳播,甚至是社會歧視的教唆。

對算法再培訓帶來的算法改善則清晰地說明,第一,算法侵害看起來是算法偏見制造的,實際卻是編寫算法的人群制造的,算法只是做了算法可做的事:有效率地運行代碼,為人類提供計算結果。無論是通過算法迭代還是自編碼,算法都只是放大人類在初始階段植入的偏見和規則,而不是算法自主自為地形成偏見和規則。以為算法存在獨立于算法生產者之外的偏見或規則,以為算法不再是人類生產的產品,其實是一種方向性的誤解。第二,算法并不具有自主自為性。算法的確可以自我改善,自己編寫代碼,可是算法卻沒有自帶偏見、也沒有自造規則,即使有偏見、有規則,也是人類將自己的偏見和規則變成算法代碼形成的偏見和規則。沒有人類輸入的第一行代碼,便不會有算法的其他代碼,算法的自主性自為性便失去了載體,也根本沒有機會。第三,支持算法偏見和規則影響力的不是算法本身,而是對算法的運用。如前所述,算法的個體應用不會對其他人群產生影響,算法的平臺化運用則是促成算法影響力的機會和力量,無論是算法偏見、算法規則,還是其他。[34]當然,算法的平臺運用并非只是出租車司機頭腦里的交通路線運籌,而是更廣泛的行動關系(復雜算法、網絡算法),一方面是面對問題的技術解決方案,另一方面是平臺組織與技術解決方案的關系體系。同時,由于技術解決方案和平臺都是面向用戶的,龐大的用戶規模又具有社會性,最終形成的是技術解決方案、平臺組織、社會之間的不僅關涉生產效率,還牽扯社會平等的綜合關系體系。

如此,算法治理的方向選擇直接擺在了我們的面前。第一,算法不具有自由意志,算法是人類行動的產出,沒有脫離人類行動的算法,從最簡單的算法到最復雜的算法,都是如此。因此,算法治理是針對人類生產算法的行動治理。把算法偏見歸咎于算法本身,無異于同風車作戰。有人依據算法承擔的任務將算法在人類行動里承擔的角色劃分為純粹執行者、輔助決策者、獨立決策者。[35]這一劃分看似來自實踐,實際上卻對算法自由意志的設定含混不清,一方面假設算法是人類產品,另一方面又假設算法具有自主自為性。

第二,算法治理一方面是針對算法偏見的治理,另一方面也是針對算法平臺運用的治理。算法治理的目標,前者是為算法糾偏,后者則是約束算法運用的方向和范圍,以期最大限度地減少算法偏見帶來的算法侵害,維系和促進社會平等。在現實生活中,算法的主要生產者是平臺,制造算法影響力的也是平臺,是故,算法治理便可以匯聚為針對平臺的算法治理。

在中文語境中,算法治理有雙重含義。第一,用算法進行治理(governance by algorithm)。第二,對算法進行治理(governance to algorithm)。英文語境卻沒有算法治理(algorithm governance)概念,也很難找到一個對應的概念,維基百科中甚至沒有相應詞條。縱觀中文文獻對算法治理的探討,大多探討的是第二重含義。在接下來的討論中,我們也在第二種意義上使用算法治理,在給定算法不具有自由意志、且不具有自主自為性的前提下,探討針對算法偏見帶來的算法侵害之治理行動。

算法治理發端于美國,[36]美國如何應對算法侵害呢?直接的答案是,問責模式,[37]問責對象是有潛力讓算法產生廣泛且深刻影響的算法生產者和使用者,問責內容包括算法內容和非算法流程,問責的主體是政府或第三方。

2017年1月12日,美國計算機協會下屬的美國公共政策委員會(USACM)發布的《算法透明度和責任聲明》指出:“生活中無處不在的算法促使我們應該專注于解決與算法設計和技術相關的挑戰,并從一開始就防止偏見。”圍繞算法公平,從建立算法公平意識到實現算法公平的算法檢驗,這項《聲明》提出了7項促進算法透明度和可靠性的原則,建立了算法治理的外部問責和控制模式。

在州、市一級的算法治理中,2017年12月,紐約市議會通過了第一部針對人工智能監管的《政府部門自動決策系統法案》(Auto Decision System Task Force Law),要求成立包括自動化決策系統專家和受自動化決策系統影響的公民組織代表在內的工作組,對市政機構運用自動決策算法的公平性、問責性和透明度等進行監督,由此開啟了算法治理外部問責與控制的實踐模式。

2019年4月,美國國會參眾兩院通過了《算法問責法案》,授權美國聯邦貿易委員會(FTC)要求并監督企業對其人工智能系統的“準確性、公平性、偏見、歧視、隱私和安全性”等問題進行自我審查,且約定這一法案適用于年收入超過5000萬美元或擁有超過100萬用戶數據的數據代理商和企業。由此建立了治理對象的范圍。

2021年5月,美國參議院引入《算法正義與在線平臺透明度法案》,要求規范算法過程,進而保護個人信息,保障個人特征不因算法而受到歧視。《法案》建立了算法安全性和有效性標準,對歧視的判斷標準進行了詳細解釋,還要求在線平臺為非算法流程承擔責任,包括算法運行的可靠性、個人數據的可攜帶性和將個人數據作為司法證據的可實現性,由此建立了將個人數據證據化、將算法偏見歸責化的邏輯閉環。

簡單地說,美國把因算法偏見帶來的不良社會后果直接歸責到算法生產者和使用者,而沒有歸咎于算法自身。

在數字時代的三方國際力量中,歐盟是重要一方。盡管歐盟沒有針對算法的專門法律,可針對數據保護的一系列法律在實踐中也直接約束了算法的生產和運用。1995年頒布的《數據保護指令》確認了數據主體的權利、數據保護的監管機構,對數據的跨國流通等也作出詳細規定,建立了以數據保護為出發點的算法治理的邏輯起點。2000年頒布的《電子商務指令》則規范了數字服務提供者的責任。2015年歐盟進一步出臺的《數字單一市場戰略》雖不具有法律效應,卻在理論上奠定了針對數字市場的監管框架,把算法產出(如搜索結果、廣告鏈接等)透明度,數據流動的組織間關系、數據流動的意愿與約束等都納入市場監管范圍,為算法治理指出了方向。2017年頒行的《機器人民事責任法案》則把算法偏見帶來的算法侵害,如對個人決策帶來的負面影響,對政府行政、司法、公共政策帶來的不利影響等,明確歸責于算法的生產者和使用者,并且在道德層面對算法生產和使用提出了要求。由此,我們觀察到,歐盟的算法治理從守勢的數據保護即通過保護數據來保障權益也轉向了不得不面對的算法侵害,并與美國一致,將算法侵害歸責到算法的生產者和使用者,而不是算法自身。

歐盟2018年頒布的《通用數據保護條例》(GDPR)將自1995年以來零碎的算法治理理念具體化為數據保護規制的重要組成部分,更具體地定義了數據,對數據的提供、匯集等作了更明確的規定,還詳細約定了數據主體的數據訪問權、糾正權、被遺忘權、限制處理權、反對權、拒絕權和自主決定權等權利,更對數據的處理和運用進行了嚴格的限制,明確禁止可能造成算法侵害的數據運用,如揭示種族或民族出身,揭示政治觀點、宗教或哲學信仰,刻畫自然人健康、性取向等。歐洲議會秘書處2019年發布的《算法問責和透明治理框架》(A governance framework for algorithmic accountability and transparency)提出了負責任的研究與創新(RRI)概念,從道德、法律到實踐,明確了算法治理的問責框架。歐盟委員會2020年提案的《數字服務法案》和《數字市場法案》在數字治理上則進一步向美國靠攏,強化了算法生產者和使用者的責任;2021年提案的《人工智能法案》則區分了規則算法(rule-based algorithms)和學習算法(learning algorithms),建立了基于算法風險的算法治理改進路徑,再次強調算法生產者和使用者的責任,強調問責機制。

總體上看,雖然歐盟與美國一樣在形成算法治理的邏輯閉環,卻在實踐中從數據保護入手,建立了保護個體、組織不受算法侵害的防御性治理框架和法律制度,在算法治理理念上則已向美國靠攏,即采用政府和第三方問責模式治理算法可能帶來的侵害,且將算法侵害責任歸咎于算法生產者和使用者。

到這里為止,其實我們需要問一個問題,為什么美國的算法治理要采用問責模式?為什么歐盟會向美國靠攏也采用問責模式?前一節其實已經回答了這個問題的技術部分,即,算法的復雜性使得算法自身始終處于迭代之中。換句話說,在生產和生活中運行的算法不是一個確定現象,而是一個動態。譬如,人們熟悉且經常使用的乘用車即時導航系統。無論采用哪一家數字平臺提供的導航系統,都會有一項服務:道路交通動態實時更新。在從A點駛向B點的進程中,只要出現道路動態變化,系統都會提醒您前方可能的優化備選路線和道路上的事故或擁堵動態,呈現在用戶屏幕上的、變化著的、從綠色到深紅色的道路標記變化正是實時計算的產出,也意味著算法在被使用進程中的自我迭代。

算法的實時迭代意味著對算法代碼進行實時督導(monitoring)和審查(auditing)需要具備與算法生產和使用相當或超越的技術能力。僅此,便意味著在技術上不可行;或者即使可行,至少也是艱難的和代價高昂的。對超出能力范圍的技術過程進行監管,需要跳出技術和技術過程本身,尋求算法治理的關鍵節點和效率節點,正如俗語說的,打蛇要打在七寸上。

那么,算法治理的關鍵節點在哪里呢?算法的生產是一個過程,從算法設計、代碼編寫到算法產品;算法的應用也是一個過程,從算法部署、算法迭代到算法產出。如果沿著算法的生產與應用邏輯和流程進行治理,可以稱之為過程治理。一旦算法投入應用并達到足夠的規模,算法便會產生相應的社會后果,包括算法偏見。如果針對算法的產出展開治理,可以稱之為結果治理。算法治理的社會特征在于過程治理的不可行性或代價高昂以及結果治理的簡單易行,是故,算法治理的關鍵節點便已不言而喻,那就是,針對算法結果進行治理。

算法問責便是對結果的治理,也顯然采用了刪繁就簡原則。第一,在法律上約定算法可追責性。要求算法透明、算法解釋、數據證據化等,正是為結果可追責提供事實前提和法理邏輯前提。第二,在規則上約定算法責任實體性。盡管算法即規則,可算法規則只適用于計算過程,不適用于外化的社會過程,算法生產者和使用者才是算法的責任主體,即算法的責任主體是人或人的集合體,不是算法自身。一些人以為算法的行動責任已經向機器轉移,事實上并沒有,機器行動依然是人類行動的一部分或人類行動的目的性延伸。如果我們把算法向人工智能甚至通用人工智能領域的拓展理解為人類對效率追求的時代發展,在提高效率、降低成本的引導下,即使人類會忽視算法偏見的存在甚至助長算法偏見,算法也依然只是算法,算法的自主性是人類賦予甚至縱容的自主性,在本質上還是人類的行動選擇,而不是機器的主動侵入。讓機器為人類的選擇偏見背鍋是人類卸責的行動,不是機器的行動。

有鑒于此,作為數字時代三方國際力量之一的中國,又在如何進行算法治理呢?從1994年制定第一部相關行政指令《計算機信息系統安全保護條例》到目前,中國共出臺了60多部相關法律法規和行政指令。從時間順序來看,可以認為中國的算法治理是從總體安全出發的。

雖然早在2000年9月國務院就頒布了《互聯網信息服務管理辦法》,可該《辦法》更多是行政許可對服務內容相關的約定,屬于數據經營監管類的行政指令。進入算法治理時代以來,第一部相關法律《中華人民共和國網絡安全法》(以下簡稱《網絡安全法》)雖不直接涉及算法,卻奠定了算法治理的基本方向,即以安全為依歸。2017年6月實施的《網絡安全法》的焦點是網絡空間安全,也可以被理解為網絡環境安全。網絡安全也被廣泛傳播為國土安全的拓展,即將網絡空間作為國土空間的一部分,從守護安全出發強調數字基礎設施、網絡運行、網絡信息的安全與保障。第二部相關法律是2019年1月實施的《中華人民共和國電子商務法》,焦點在于交易安全,部分內容涉及對算法結果的治理,如支付指令發生錯誤時的處理等,卻沒有專門涉及算法侵害的內容。2019年10月實施的《兒童個人信息網絡保護規定》雖聚焦于個人信息,卻依然強調了信息安全,這里也出現了一個新的動向,即對兒童信息相關運營商的責任約定。2020年3月實施的《網絡信息內容生態治理規定》依然是安全導向的,強調網絡信息生產與發布、網絡內容服務的無害性,即內容安全,只有在關于內容服務的第十二條涉及了算法治理,不過,依然是從內容安全出發的。第十二條規定:“網絡信息內容服務平臺采用個性化算法推薦技術推送信息的,應當設置符合本規定第十條、第十一條要求的推薦模型,建立健全人工干預和用戶自主選擇機制。”第十條、第十一條規定的都是內容屬性,而不涉及算法侵害。2021年9月實施的《中華人民共和國數據安全法》則將網絡安全進一步延伸到數據領域,焦點依然是安全,即在總體國家安全觀的指導下建立健全數據安全治理體系。

2021年11月實施的《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)才真正涉及算法治理,出現了與歐盟GDPR相似的內容,不過,安全指向依然清晰明確。個人信息權益、個人信息處理及個人信息跨境流動,都清晰地指向了個人信息安全。值得指出的是,其中也有一個清晰的轉向,即在知情同意的意義上,明確了個人信息的個人權屬性,區分了一般個人信息和敏感個人信息,說明了個人在個人信息處理中的權利,也規定了違反個人信息處理規則的法律責任,如明確涉及算法的第七十條規定“個人信息處理者違反本法規定處理個人信息,侵害眾多個人的權益的,人民檢察院、法律規定的消費者組織和由國家網信部門確定的組織可以依法向人民法院提起訴訟”。問題是,《個人信息保護法》依然只是原則性規定,還沒有完成個人信息保護的司法證據化約定。

2022年3月實施的《互聯網信息服務算法推薦管理規定》(以下簡稱《規定》)才是第一部針對算法的管理規定。《規定》雖然只是四部委的行政指令,卻有了針對算法黑箱、算法歧視、信息繭房、輿論操控、不正當競爭等算法侵害的規范。與既往的相關法律和行政指令不同,《規定》明確了信息服務規范、用戶權益保護、監督管理責任和法律責任,將監管責任主體明確為四部委(網信辦、工信部、公安部、市場監管總局),并將相關違規的法律責任監管納入國家相關部門管理之中。不過,聯系2021年9月國家互聯網信息辦公室、中央宣傳部等九部門聯合發布的《關于加強互聯網信息服務算法綜合治理的指導意見》(以下簡稱《指導意見》)可以看出,《規定》依然是一部以安全為導向的行政指令,因為《指導意見》中明確指出要堅持正確導向、依法治理、風險防控、權益保障、技術創新等五項基本原則,要“利用三年左右時間,逐步建立治理機制健全、監管體系完善、算法生態規范的算法安全綜合治理格局”的主要目標。即使如此,遺憾的是,到此為止,中國的算法治理只有目標,相關法律法規尚沒有像歐美那樣形成從治理理念到判例實踐的閉環,其中,尤其是還看不出算法治理的法治理念,更沒完成算法治理的司法證據化約定。

如果說算法偏見帶來的算法侵害是算法治理面對的核心問題;那么,在給定算法偏見人因化或組織化,給定算法技術處于不斷迭代且動態演化的場景下,實施算法治理的行動選擇其實不多。

第一,鑒于算法的技術復雜性和動態性,約定算法透明是讓算法可以作為算法審查[38]和追責的前提,卻不是實施算法監測的理由。如前所述,算法的技術迷思已經宣告了算法監測的低效率和高成本,因此,過程治理不是算法治理的可選項。可是,針對過程的治理要求卻是其他治理選項的必備條件。

第二,如果我們把算法安全風險理解為算法侵害的一個類型,則結果治理即使不是算法治理的唯一選擇,也是有效選擇。防范風險是保障安全的一種策略,治理侵害則是防范風險的明智之舉。在算法無處不在且覆蓋廣泛而深刻的數字時代,算法已經成為人類生產和生活的環境,這也意味著算法風險時時刻刻無處不在,而不只是學者們列出的個體、組織、國家,政治、經濟、社會的風險。對時時刻刻無處不在的風險,優化的行動選擇是治理出現的侵害并將其作為未來可能的風險源,而不是治理出現概率極小的、可能出現侵害的預設風險。

第三,算法侵害的人因化意味著治理行動的對象是算法的生產者和使用者,而不是算法。在相當長一段時間內,支持通用人工智能的算法還不會出現,算法依然是人類的產品,即使算法具備學習能力,第一行代碼依然是人類編寫的。因此,算法治理的關鍵是約束算法生產者寫對第一行代碼,約束算法使用者用對第一行代碼,問責模式至少是當下可行且有效的治理模式。

第四,鑒于算法的生產者和使用者以及對人類構成廣泛且深刻影響的主要是平臺組織,把算法治理納入平臺治理、作為平臺治理的一項內容,在形成成熟的算法治理進程中至少可以作為一項過渡性的行動選擇。的確,平臺組織匯集了人類的代碼精英,[39]用問責模式敦促平臺組織約束代碼精英在代碼生產中融入人類的積極價值觀,融入人類共同的倫理,[40]融入保障人類平等的相關法律和法規,可以從源頭治理算法偏見,預防算法侵害,進而最大限度地降低算法風險。

結論

伴隨數字連接邁向人類整體連接的是各類數字終端包括移動終端和傳感器的時時刻刻無處不在,如此廣泛且深刻的數字連接因連接的“節點—中心”結構而形成的是數據的匯流與應用的分發模式。在匯流與分發之間,算法成為運用數據資源促進人類發展和平等的關鍵所在。

事實是,算法在帶來數字紅利的同時,也在帶來算法侵害。人們關注算法侵害不是因為算法侵害本身,而是因為算法利弊之影響對人群的覆蓋。算法古已有之,算法侵害古已有之,之所以沒有形成廣泛的甚至令人焦慮的關注是因為它不涉及大多數乃至人類社會整體。如今,數字連接已經覆蓋了世界人口的67%,覆蓋了中國的幾乎所有家庭,算法侵害無孔不入,有機會讓每一位處在數字網絡中的人感同身受,人們關注算法侵害正是源于算法影響的廣泛性和深刻性,人們關注算法治理也源于人們試圖阻止算法侵害的普遍發生。

如果說算法侵害是算法帶來的不利后果,學者們則用更多源于事實的歸納來具體化這樣的侵害,如算法歧視、算法偏見、算法共謀、算法壟斷、算法黑箱、算法遮蔽、算法短視、算法霸權、算法操縱、算法劫持、算法剝削等。算法給人們帶來的負面影響還可以列出更多,甚至是一個無窮列表。試圖阻止算法具體的負面影響并不足以防止算法侵害。

算法侵害源于算法偏見。可是算法偏見不是算法自己的偏見,而是人類偏見在算法中的再現甚至放大。在通用人工智能出現之前(甚至出現之后),盡管算法已經從人類的簡單計算活動邁向機器的自編碼,算法始終還是人類的產品,而不是獨立于人類的、具有自由意志的、與人類并行的客觀存在。沒有人類輸入的第一行代碼,便不會有動態演化的機器算法。如此,阻止乃至防止算法偏見還需首先糾正人類的偏見。

針對算法偏見來糾正人類的偏見有兩個基本路徑,一是針對偏見發生的過程,二是針對偏見帶來的后果。落實到算法治理中,前者是過程治理,后者是結果治理。算法的技術迷思決定了過程治理是低效率的和高成本的,算法的動態性也決定了試圖通過過程治理來預防算法侵害無異于與風車作戰。針對算法偏見帶來的結果進行治理在理論上是更加有效的行動選擇。

在數字時代的國際三方中,美國的算法治理采用了算法侵害的事后問責模式,同時,也為問責實現如便于算法審查作了算法透明、數據證據化等約定,形成了從算法治理法理到實踐的邏輯閉環。歐盟的算法治理從保護數據的守勢入手,也在邁向美國的算法問責模式。中國的算法治理以網絡安全為起點,以總體安全為目標,尚未呈現清晰的法理,在實踐上頒布了一些點位性規則,卻還沒有形成以法理為依據、以社會平等為依歸的算法治理邏輯。我們認為,針對算法偏見的事后問責或許是殊途同歸的有效選擇。

(本文系國家社科基金重大項目“新技術應用背景下數字社會特征研究”子課題“數字社會的國家治理研究”成果的一部分,項目編號:19ZDA143)

注釋

[1]U.S. Congress; Office of Technology Assessment, Federal Government Information Technology: Electronic Surveillance and Civil Liberties, U.S. Government Printing Office, 1985, pp. 3-4, 14-15.

[2]U.S. Congress; Office of Technology Assessment, Federal Government Information Technology: Electronic Record Systems and Individual Privacy, U.S. Government Printing Office, 1986, pp. 89-95.

[3]Sterling, T. D., "Guidelines for Humanizing Computerized Information Systems: A Report from Stanley House", Communications of the ACM, 1974, 17(11) , pp. 609-613.

[4]姜李丹、薛瀾:《我國新一代人工智能治理的時代挑戰與范式變革》,《公共管理學報》,2022年第2期。

[5]Chabert, J. L., A History of Algorithms: From the Pebble to the Microchip, Springer Science & Business Media, 2012, pp. 7–8.

[6]Aaboe, A., Episodes from the Early History of Astronomy, New York: Springer, 2001, pp. 40–62.

[7]陳久金、楊怡:《中國古代的天文與歷法》,北京:商務印書館,1998年。

[8]邱澤奇:《算法向善選擇背后的權衡與博弈》,《人民論壇》,2021年2月中下期。

[9]肖紅軍:《算法責任:理論證成、全景畫像與治理范式》,《管理世界》,2022年第4期;陽鎮、陳勁:《算法治理:成為責任型數智企業》,《清華管理評論》,2021年第4期;丁曉東:《算法與歧視:從美國教育平權案看算法倫理與法律解釋》,《中外法學》,2017年第6期。

[10]孟天廣、李珍珍:《治理算法:算法風險的倫理原則及其治理邏輯》,《學術論壇》,2022年第1期;張愛軍:《“算法利維坦”的風險及其規制》,《探索與爭鳴》,2021年第1期;賈開:《人工智能與算法治理研究》,《中國行政管理》,2019年第1期。

[11]Ausiello, G. and Petreschi, R., The Power of Algorithms: Inspiration and Examples in Everyday Life, Springer Science & Business Media, 2013.

[12]Beer, D., "The Social Power of Algorithms", Information, Communication & Society, 2017, 20(1), pp. 1–13.

[13]張愛軍、王首航:《算法:一種新的權力形態》,《治理現代化研究》,2020年第1期。

[14][29]Lessig L., Code: And Other Laws of Cyberspace (New edition), New York: Basic Books, 1999. 第二版于2006年出版,基于第二版的中文版于2018年出版。參見[美]勞倫斯·萊斯格:《代碼2.0:網絡空間中的法律(修訂版)》,北京:清華大學出版社,2018年。

[15]Micklitz, H. W.; Pollicino O.; Reichman A., et al., Constitutional Challenges in The Algorithmic Society, New York: Cambridge University Press, 2022.

[16]參見國際電聯(ITU)網站:https://www.itu.int/en/ITU-D/Statistics/Pages/stat/default.aspx.

[17]中國互聯網絡信息中心:《第49次中國互聯網絡發展狀況統計報告》,2022年。

[18]參見https://www.domo.com/learn/infographic/data-never-sleeps-9.

[19][21]主要依據綜合自中國信通院:《中國數字經濟發展白皮書》,2022年;中國互聯網絡信息中心:《中國互聯網絡發展狀況統計報告》,2022年。對兩類報告均參考了其初期和近兩年的數據。

[20]李稻葵在2021年亞洲博鰲論壇上的發言,參見媒體報道。

[22]Referred to "Al-Khwarizmi biography," www-history.mcs.st-andrews.ac.uk, Archived from the original on August 2, 2019. Retrieved May 3, 2017.

[23][26]Knuth, D., The Art of Computer Programming. Volume 1: Fundamental Algorithms, New York: Addison-Wesley Professional, 1997.

[24]Harel D. and Feldman. Y., Algorithmics: The Spirit of Computing (3rd ed), Harlow: Addison-Wesley, 2004.

[25]Butler, D., "Web Data Predict Flu", Nature, 2008, 456 (7220), pp. 287–288.

[27]Stinson C., "Algorithms Are Not Neutral: Bias in Collaborative Filtering", ArXiv, 2021. 2105.01031.

[28]孟天廣、李珍珍:《治理算法:算法風險的倫理原則及其治理邏輯》,《學術論壇》,2022年第1期。

[30]賈開、薛瀾:《第四次工業革命與算法治理的新挑戰》,《清華管理評論》,2021年第4期。

[31]張愛軍:《“算法利維坦”的風險及其規制》,《探索與爭鳴》,2021年第1期。

[32][33]Papakyriakopoulos O., and Mboya A. M., "Beyond Algorithmic Bias: A Socio-Computational Interrogation of the Google Search by Image Algorithm", ArXiv, 2021, 2105.12856.

[34]算法不只是因偏見帶來侵害,更主要還是因效率帶來算法紅利,算法紅利是數字紅利的核心。人類對數字技術的追逐正是由于數字紅利的吸引。參見邱澤奇、張樹沁、劉世定等:《從數字鴻溝到紅利差異——互聯網資本的視角》,《中國社會科學》,2016年第10期。算法紅利不在本文討論范圍,故略去。

[35]肖紅軍:《算法責任:理論證成、全景畫像與治理范式》,《管理世界》,2022年第4期。

[36]許可:《馴服算法:算法治理的歷史展開與當代體系》,《華東政法大學學報》,2022年第1期。

[37]孫逸嘯、鄭浩然:《算法治理的域外經驗與中國進路》,《信息安全研究》,2021年第1期。

[38]Shen, H.; DeVos, A.; Eslami, M. et al., "Everyday Algorithm Auditing: Understanding the Power of Everyday Users in Surfacing Harmful Algorithmic Behaviors", ArXiv, 2021, 2105.02980.

[39]Burrell, J. and Fourcade, M., "The Society of Algorithms", Annual Review of Sociology, 2021, 47(1), pp. 213–237.

[40]Timcke, S., Algorithms and the End of Politics: How Technology Shapes 21st Century American Life, Bristol University Press, 2021.

責 編/陳璐穎

邱澤奇,北京大學博雅特聘教授、中國社會與發展研究中心主任、數字治理研究中心主任、社會學系教授,教育部“長江學者”特聘教授。研究方向為數字社會、數字治理。主要著作有《邊區企業的發展歷程:國有大企業和企業型城市的集體企業》《中國大陸社會分層狀況的變遷》《社會學是什么?》《費孝通與江村》《朋友在先——中國對烏干達衛生發展援助案例研究》《技術與組織:學科脈絡與文獻》等。

The Technical Myth and Action Choice of Algorithmic Governance

Qiu Zeqi

Abstract: Due to their pervasive and profound influence on the human society and life, algorithms have become an artificial environment comparable to the natural environment. Their advantages and disadvantages as well as the continuous emergence of algorithmic infringement have pushed mankind into the era of algorithmic governance. The influence of algorithms has been increasing, so has their complexity. Algorithms have evolved from the ancient calculation to the self-iteration and evolution of the real-time relationship model, which makes the process governance of algorithms not only technically infeasible, but also costly in management. The exploration and practice in the field of algorithmic governance in China, the United States and Europe show different patterns. The United States has formed an accountability model dominated by the government and the third party with an aim to prevent algorithmic infringement; focusing on data protection, Europe gradually follow the example of the accountability model of the United States; China implements governance from the perspective of Internet security, but has not yet established an algorithmic governance model with a legal logic and clear operation path. Moving towards the accountability model seems to be a possible and effective action choice for China's algorithmic governance.

Keywords: algorithmic governance, algorithmic technology, accountability model

[責任編輯:張曉]

    1. <menu id="zcyhi"></menu>