中國信息通信研究院副院長 胡堅波
【摘要】開展算法治理是依法加強網絡社會治理的重要組成部分,也是貫徹黨中央國務院決策部署、引導產業健康發展、順應國際趨勢的重要舉措。近年來,算法在繁榮數字經濟、促進社會發展等方面發揮重要作用,但與此同時,算法操縱信息、濫用數據、算法霸權等問題仍然存在,引發內容安全風險、侵害用戶合法權益、破壞數字市場秩序、影響社會公共治理等問題,亟需深入治理。應堅持以人為本、安全可控、公平公正、透明可釋等基本原則理念,積極構建多元主體協同的治理模式,以硬性法律制度夯實安全底線,以柔性治理手段激勵算法向上向善,穩步推進算法綜合治理體系建設,推動我國數字經濟和算法產業發展行穩致遠。
【關鍵詞】算法治理 算法風險 多元治理 科技倫理
【中圖分類號】 D922.6/TP391.3 【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2022.10.002
當前,新一輪科技革命和產業變革突飛猛進,數字化、網絡化、智能化加速推進,數字技術與經濟社會發展、人民生產生活交織融合,數字經濟發展速度之快、輻射范圍之廣、影響程度之深前所未有。作為數字時代一項關鍵信息技術,算法早已無處不在,被嵌入社會運行的諸多層次,并日益廣泛地應用在新聞推薦、電子商務、無人駕駛、司法判決、智能診療等商業和公共領域,成為推動企業數字化轉型和國家治理能力現代化的重要力量。與此同時,算法對社會生活的影響也“無遠弗屆”,在造福人類的同時,實踐中算法歧視、算法霸權、算法黑箱等問題層出不窮,日益威脅著個人權利、公共利益乃至國家利益,因此,加強算法治理成為亟需全球共同面對的重要議題。
算法治理的重要性緊迫性日益凸顯
落實中央決策部署的重要舉措。開展算法治理是依法加強網絡社會管理的重要組成部分,也是認真貫徹黨中央、國務院決策部署的重要舉措。習近平總書記多次強調,要依法加強網絡社會管理,加強網絡新技術新應用的管理,確保互聯網可管可控。習近平總書記在十九屆中央政治局第十二次集體學習時的講話中強調,用主流價值導向駕馭“算法”。2020年12月,中共中央印發《法治社會建設實施綱要(2020-2025年)》,明確提出依法治理網絡空間,“制定完善對網絡直播、自媒體、知識社區問答等新媒體業態和算法推薦、深度偽造等新技術應用的規范管理辦法”。近年來,國家互聯網信息辦公室、工業和信息化部等監管部門貫徹落實黨中央、國務院決策部署,持續組織開展算法治理工作,聚焦人民群眾反映強烈、社會高度關注的算法推薦、信息繭房等問題,迅速出擊、積極作為,切實解決人民群眾最關心最直接最現實的問題。2021年9月,國家互聯網信息辦公室、工業和信息化部等九部門聯合發布《關于加強互聯網信息服務算法綜合治理的指導意見》,提出用三年左右時間,逐步建立治理機制健全、監管體系完善、算法生態規范的算法安全綜合治理格局。
引導產業健康發展的現實需要。算法治理水平對于數字經濟發展環境和算法相關產業發展具有重要影響。作為數字經濟時代的重要底層架構,算法逐步成為影響內容分發、服務提供、資源配置的基礎性力量,與此同時,算法也引發了群體歧視、算法合謀、不正當競爭等一系列問題,影響了數字經濟市場秩序,阻礙了算法推薦服務等相關產業的健康發展。深入開展算法治理是適應當前我國數字經濟高質量發展的關鍵舉措,也是防范化解安全風險、促進算法服務行業健康發展的現實需要。我國已進入高質量發展階段,這并不是意味著我國已經實現了高質量發展,而是指我國發展已經到了必須以高質量發展為主要目標要求的階段。習近平總書記在十九屆中央政治局第三十四次集體學習的講話中強調,要規范數字經濟發展,堅持促進發展和監管規范兩手抓、兩手都要硬,在發展中規范、在規范中發展。推進算法治理不僅是一項具有重大社會效益的益民舉措,也是為算法相關產業持續健康發展營造公平競爭環境的重要保障。
順應國際發展趨勢的普遍做法。從全球范圍來看,隨著算法技術演進和應用普及,起草制定算法監管相關法律政策、規制引導算法技術和應用向善發展,是全球數字經濟發展背景下的大勢所趨,推進算法治理已經成為國際社會廣泛關注的重要議題和普遍做法。在國際組織層面,聯合國、經濟發展與合作組織(OECD)、二十國集團(G20)等發布多項相關倫理指南,推動算法實現透明可釋、公平公正、安全可控。在區域和國家層面,歐盟提出技術主權話語體系,重點關注算法帶來的人類自主性、人性尊嚴威脅以及日益突出的極端言論、政治生態等問題。歐盟早在2016年通過的《通用數據保護條例》(GDPR)中就規定了免受自動化決策權。此后,歐盟又相繼發布《數字服務法案》《數字市場法案》《人工智能法案》等,對算法利用和大型平臺展開全面監管。美國在聯邦和地方層面提出多項算法相關立法,重點關注政府公共部門、人臉識別等領域產生的種族歧視、政治選舉操縱等問題。2017年12月,美國紐約市議會通過《關于政府機構使用自動化決策系統的當地法》,對法院、警方等公權力機構使用的人工智能自動化決策系統進行安全規制。2019年4月,美國參議員提出聯邦《算法問責法案》,要求美國聯邦貿易委員會對企業進行算法審查,強調通過訴諸專業性的行政機構或外部監督主體,對算法決策問題進行審查。
我國算法治理仍面臨諸多風險挑戰
近年來,在黨中央、國務院統一決策部署下,我國相關政府部門密切配合,積極推進算法治理相關工作,出臺了全球第一部系統性規制算法推薦的法律文件——《互聯網信息服務算法推薦管理規定》,取得了階段性明顯成效。但與此同時,作為引領未來的戰略性技術,算法發展變化快,新情況新問題不斷出現,目前仍面臨諸多問題和挑戰,需要持續深入推進算法治理工作。
算法操縱信息引發內容安全風險。目前,算法已經成為互聯網信息分發的重要工具,代表了網絡宣傳的新范式。在信息大爆炸的背景下,算法推薦將信息獲取從“大海撈針”轉為“私人定制”,極大地提升了信息分發的效率和精準度。但是,算法應用也呈現一系列突出問題。一是以獲取流量為核心目標,缺乏價值觀和客觀性。用戶流量是企業盈利的重要來源,算法所追求的技術中立僅限于形式和運行程序中立,無法真正實現價值中立。在缺乏價值觀引領的前提下,算法作為企業獲客、增加用戶粘性的重要工具,容易優先推送博人眼球的虛假信息、標題黨、極端內容、低俗泛娛樂等信息。二是容易導致信息單一性,形成信息繭房。一方面,長期困于信息繭房、屏蔽異己信息,不利于個人理性思想塑造和觀點養成。另一方面,信息繭房容易激化矛盾、加劇社會焦慮情緒,甚至造成群體極化。三是算法具有操縱用戶思想、影響社會輿論的能力。算法通過大數據深度分析并實施有針對性信息推送,使人們潛移默化地遵循其所控制的技術系統的規范和要求,無形中對特定個人或人群進行精準思想“操縱”,影響公共空間意見的來源和構成。
算法濫用數據侵害用戶合法權益。海量的數據“喂養”是算法創新的前提。伴隨算法、物聯網、5G等技術的快速發展,全球數據呈現爆發增長、海量集聚的特點。在對數據收集處理的過程中,算法容易產生侵害用戶個人信息權益、算法歧視等典型問題。一方面,個人信息違規處理問題突出,嚴重侵犯用戶隱私等權益。例如,在未經用戶同意情況下,過度收集用戶行為數據、人臉數據等個人信息,進行算法畫像并精準推送信息或商品,侵害用戶知情權、自主權和選擇權。另一方面,大數據殺熟等算法歧視問題突出。平臺依據用戶消費習慣、地理位置、需求迫切程度等信息進行定價,部分消費者在未知情況下支付更高價格。根據總臺報道,電商平臺大數據殺熟現象突出,平臺對價格不敏感用戶、蘋果手機用戶或老用戶、會員用戶定價更高,侵害消費者公平交易權和知情權,損害社會公平交易秩序。
利用算法霸權破壞數字市場秩序。在市場競爭領域,算法有助于促進服務創新,降低決策成本,在改善商品定價模型、提供定制化服務、分析預測價格趨勢等方面發揮積極作用。但與此同時,平臺利用算法實施限制交易、虛假宣傳等不正當競爭和壟斷行為,也對數字經濟發展環境和市場競爭秩序帶來負面影響。一是部分平臺企業利用算法給自營業務以“優待”。在市場競爭中,平臺扮演了“參賽選手”和“裁判員”雙重角色,易于利用算法操縱商品展示、推薦和排序的優先級進行自我優待。二是利用算法達成共謀協議。作為一種更高效的工具,算法在傳統的反競爭行為當中可能起到支持、促進實施、維持和隱藏的作用,可能促進橫向壟斷協議和縱向壟斷協議的達成和維持,例如,促成價格聯合行為,檢測固定或最低轉售價格的偏差。三是利用算法限制交易。平臺經營者通過算法進行搜索降權、流量限制等懲罰性措施來保障“二選一”行為的實施。在市場監管總局公布的調查中,個別電商平臺憑借市場力量和算法等技術手段,對不執行平臺“二選一”等要求的平臺內經營者實施處罰,包括減少促銷活動資源支持、搜索降權等,破壞了公平有序的市場競爭秩序。
算法問責困境影響社會公共治理。在公共領域,算法顯著提升了公共治理效率,例如,智慧交通系統的應用大大提升了通勤效率。然而,算法在帶來便利的同時也為國家安全、公共利益和個人權利帶來新問題新挑戰,算法治理不足成為制約我國新發展階段數字經濟提速和國家治理能力現代化的障礙。一是缺乏說明解釋、公眾參與等正當程序要求。例如在社會福利分配、員工聘用等算法程序中,對于算法作出對用戶有重大影響的決定所造成的用戶權益損害,缺乏權利救濟的程序。二是通過算法實現對勞動者的行為監控,侵害其主體權益。“困在算法中的外賣騎手”、被技術支配的網約車司機、被智能手環實時監控的環衛工人等都身處算法規訓的牢籠之中。三是責任歸屬難題。在自動駕駛、智能醫療、輔助量刑等應用中,對于因算法錯誤帶來的人身、財產損害,如何在設計者、平臺、用戶等主體間分配責任,成為當前制約算法應用的重要障礙。
以“算法向善向上”明確我國算法治理的原則理念
開展算法治理首先需要明確治理的基本原則和理念,從觀念和道德層面提出各方主體開展算法活動應遵循的基本要求,同時有效彌補法律滯后性的缺陷,解決算法治理過程中法律規范的“時間差”“空白區”等問題,引導算法向善向上發展。
堅持以人為本是算法治理的基本導向。開展算法治理工作必須堅持以人民為中心的發展思想,不斷增強人民獲得感、幸福感、安全感,促進人類社會和平發展和可持續發展。習近平總書記強調,“讓億萬人民在共享互聯網發展成果上有更多獲得感”。以人為本強調以人作為價值的核心和社會的本位,把人的生存與發展作為最高的價值目標。要堅守以人為本的宗旨,秉持良善的技術設計倫理原則來設計算法。當前,以人為本成為國際社會算法治理普遍認可的價值導向,例如,聯合國教科文組織同世界科學知識與技術倫理委員會2016年聯合發布的《機器人倫理初步報告草案》,倡導以人為本,努力促使“機器人尊重人類社會的倫理規范”;再如,歐盟2020年發布的《人工智能白皮書》也指出要以人為本、合乎道德、可持續發展。以人為本強調人是算法的目的而非工具,在算法應用中,利用算法操縱人類思想、行為,利用算法窺探人類隱私、濫用個人信息等行為,均違背了以人為本的基本導向。因此,在算法設計、部署、應用的全流程中,均應牢固樹立以人為本的價值導向,確保算法尊重和維護人類利益和福祉 。
堅持安全可控是算法治理的核心目標。新技術快速迭代應用的同時,也不斷帶來新的風險和安全隱患,隱患所涉領域從網絡安全到數據安全,再到算法安全,焦點持續演進。算法安全與政治安全、國土安全、軍事安全、經濟安全、文化安全、社會安全等一起,成為我國總體安全體系中的關鍵環節。習近平總書記指出,“沒有網絡安全就沒有國家安全”,“安全是發展的前提,發展是安全的保障,安全和發展要同步推進”。當前,算法泛化能力差、算法自我更新迭代不可控、數據質量和樣本不足等技術應用現狀,導致算法應用和產品存在被攻擊、被欺騙、被操縱等多重風險。安全可控是確保算法可信和算法創新的重要前提。中共中央辦公廳、國務院辦公廳印發的《關于加強科技倫理治理的意見》明確指出,“科技活動應客觀評估和審慎對待不確定性和技術應用的風險,力求規避、防范可能引發的風險,防止科技成果誤用、濫用,避免危及社會安全、公共安全、生物安全和生態安全”。
堅持公平公正是算法治理的價值追求。公平公正是歷史悠久的價值目標和價值準則,也是我國《民法典》《個人信息保護法》等諸多法律法規規定的基本原則。習近平總書記指出,“積極營造開放、公平、公正、非歧視的數字發展環境”。《互聯網信息服務算法推薦管理規定》明確規定,提供算法推薦服務,應當遵循公正公平、公開透明、科學合理和誠實信用的原則。公平強調人人平等和機會均等,避免歧視對待,帶有明顯的工具性,即用同一尺度衡量所有的人或事,要求一視同仁。公正帶有明顯價值取向,強調這種價值取向的正當性。一方面,治理算法歧視問題需要將公平公正作為算法治理的價值取向。算法歧視可分為人為造成的歧視、數據驅動造成的歧視和機器自我學習造成的歧視,其本質是社會歧視在算法應用中的映射。另一方面,算法自我優待、操縱排序等不正當競爭行為同樣違背了公平公正原則,是新技術推動下平臺利用算法權力謀取私利,損害社會公正的表現。在我國進行算法治理的過程中,應當堅持公平公正的價值追求,尊重民族、種族、身體條件、宗教信仰等差異,包容地對待不同社會群體,避免各類歧視和偏見。
堅持透明可釋是算法治理的重要保障。算法透明是指對算法相關信息的可訪問性和可解釋性,是算法責任分配的基礎。《關于加強互聯網信息服務算法綜合治理的指導意見》明確提出,“督促企業及時、合理、有效地公開算法基本原理、優化目標、決策標準等信息,做好算法結果解釋,暢通投訴通道,消除社會疑慮,推動算法健康發展”。由于算法技術的復雜性,尤其是自主學習算法的自我迭代和產生的算法“黑箱”等問題,導致算法成為不可解釋的技術黑箱,引發算法問責的倫理難題。算法透明成為克服算法問責難題的重要前提和保障。算法透明首先意味著算法模型和輸入、輸出數據的透明可見,實現用戶的知情權和監管部門對信息的獲取。算法透明并不要求算法源代碼的公開,僅要求對算法基本原理、主要運行機制的公示。通過算法透明,可有效發揮公眾監督、行業監督和政府監管的效力,避免算法黑箱下的平臺權力濫用。同時,算法透明還意味著算法運行后的可解釋性。在自動駕駛、金融、醫療等應用場景下,算法如果難以實現可解釋,將阻礙相關主體損害救濟的實現,進而降低算法可信賴性。因此,從技術、法律和倫理等多層面實現算法在重大風險領域的可解釋性,是當前算法治理的重要保障。
多措并舉加快構建算法綜合治理體系
算法治理工作涉及主體眾多、情況復雜多樣,是一項非常艱巨的系統工程,需要堅持問題導向,多措并舉,推動建立涵蓋“多主體”“多手段”的算法綜合治理格局。積極構建多元主體協同的治理模式,加快推進軟硬結合的治理手段,以硬性的法律制度夯實算法安全發展底線,以柔性的規范手段激勵算法向上向善發展。
積極構建多元主體協同的治理模式。治理主體的多元化是算法治理的重要特征,依賴于包括政府、行業組織、企業、公眾在內的多利益攸關方的參與合作,各方各司其職、各盡所能,以適當的角色、最佳的方式協同共治,從而構建嚴謹、全面、有效的全新治理模式。
一是發揮政府在算法治理中的主導作用。算法治理工作需要公權力發揮主導作用,政府監管是算法治理最主要的推動力量。近年來,算法技術在輿論宣傳、市場決策,乃至軍事等領域普及應用,算法風險的廣泛性、全局性、不可控性凸顯,單憑個人或私人機構力量難以有效對抗算法風險,需要公權力的干預和引導。國家政府部門作為肩負公共事務管理職責的公權力機關,應當依據職責和相關法律法規積極開展算法治理工作。《關于加強互聯網信息服務算法綜合治理的指導意見》提出,要健全算法安全治理機制,網信部門會同宣傳、教育、科技、工信、公安、文化和旅游、市場監管、廣電等部門,建立部門協同聯動長效機制,履行監管職責,共同開展算法安全治理工作。《互聯網信息服務算法推薦管理規定》也規定,國家網信部門、國務院電信、公安、市場監管等有關部門以及地方相關部門依據各自職責負責算法推薦服務監督管理工作。未來,建議相關部門充分發揮監管主體作用,健全完善算法規則標準、強化監管執法活動、加大算法規范普法宣傳,持續提升算法治理水平和能力,推動算法應用向上向善發展。
二是規范企業切實履行算法治理主體責任。企業是最主要的市場主體,與傳統領域治理相比,互聯網企業是當前算法最大的擁有者、開發者和使用者,因此也是算法治理的重要實踐者與行動者,是確保算法技術在正確道路上發展的重要防線,其履責水平的高低直接關系到算法治理工作的水平。尤其是頭部平臺企業,作為算法技術的主要開發者和擁有者,掌握了資金、技術、人才、市場、政策扶持等大量資源,在推動算法治理規則和標準落地上發揮著決定性作用,理應承擔相關主體責任,嚴格遵守法律法規、科技倫理和技術標準,以高標準進行自我約束與監督,實現有效的行業自律自治。面對算法所引發的社會擔憂與質疑,應當引導平臺企業主動研究算法倫理問題,推動科技向善,積極探索算法評估、算法透明、算法可釋等企業最佳實踐,推動算法事前、事中、事后全流程風險把控,開發差分隱私、隱私計算、算法透明度工具等技術手段,并積極參與和引領算法國際標準制定,在算法治理中發揮重要作用。
三是引導行業組織積極參與算法治理。行業組織作為兼顧服務、溝通、自律、協調等功能的社會團體,是協調算法治理、制定算法應用產業標準的先行者和積極實踐者。算法行業只有通過不斷地自律發展,更多地履行法律義務和社會責任,更好地發揮政府和市場各自的作用,才能走向良性循環,才能滿足人民的需要,才能在國際上更具競爭力。從國際社會來看,電氣與電子工程師協會(IEEE)、美國計算機協會(ACM)、人工智能促進協會(AAAI)等行業協會,以及國際標準化組織(ISO)、國際電工委員會(IEC)等標準化組織在算法、人工智能治理領域發揮了重要作用。從國內來看,我國目前也成立了人工智能產業技術創新戰略聯盟、人工智能產業發展聯盟等行業組織,成員涵蓋了國內主要的算法企業。下一步,在算法治理中,建議進一步發揮行業組織作用,積極搭建政產學研溝通平臺,組織開展算法治理相關研究,制定算法技術及產品標準,推動行業各方落實算法治理要求,持續貢獻行業治理經驗。
四是鼓勵公眾參與算法治理,完善社會監督。公眾是算法技術、產品的主要服務對象,擁有對算法治理相關內容的監督、意見反饋等權利。公眾參與是實現算法有效治理不可缺少的重要力量。治理好算法,需要著力暢通各個治理主體間溝通渠道,加強社會公眾與平臺、政府等主體間的對話與協商,合作制定應對算法風險挑戰的整體解決方案。公眾要積極參與算法治理的規則制定,適當介入相關監督、監管過程,為算法治理獻計獻策,形成自下而上的協同治理模式,使算法服務真正地“以人為本,造福人類”。此外,新聞媒體是社會監督的重要力量,在算法治理中可以充分發揮輿論監督功能,暢通社會監督表達渠道,著力發現問題、化解矛盾,力求通達社情民意、弘揚社會正氣,保障公眾知情權、參與權、監督權。
五是深化算法治理國際合作。習近平總書記指出,我們要攜手合作,共同營造有利于數字經濟發展的國際環境,要推動建設和平、安全、開放、合作的網絡空間,探索建立多邊、透明、包容的數字領域國際貿易規則。算法技術發展和應用具有跨國界、國際分工的特征,治理算法需要國際社會共同發力。由于各國在算法技術研發上的關注與投入不同,算法技術在各國的發展參差不齊,有關算法治理的需求和要求也各不相同。可以考慮依托聯合國、上合組織、G20、金磚等國際組織和多邊場合,汲取各國關于算法治理的共性原則和最佳實踐,深入參與并積極宣介中國在算法治理領域的經驗做法,引導算法治理穩步前進并達成國際共識。
以硬性法律制度夯實算法安全底線。法律是治國之重器,法治是國家治理體系和治理能力的重要依托,是互聯網治理特別是算法治理工作不可或缺的重要手段。要妥善解決算法發展中治理的一系列突出矛盾和重大問題,必須密織法律之網、強化法治之力,劃清行為底線、明確違法違規高壓線,堅持在法治軌道上統籌社會力量、平衡社會利益、調節社會關系、規范社會行為,推動構建涵蓋算法備案、分級分類、算法審查等舉措在內的科學監管體系,逐步形成算法治理長效機制,確保算法發展既生機勃勃又井然有序。
一是健全完善算法備案制度,從服務入口實現登記備查。算法備案制度是一項推動實現算法透明的重要創新制度。備案制度在我國有著較為廣泛的運用,一般是指備案主體向行政主管機關就要求事項提供書面材料,主管機關接受備案主體材料,予以登記并存檔備查。通過算法備案制度,可在算法服務入口獲取算法設計部署階段的算法系統相關信息。當算法的使用造成實際損害時,既有的算法備案信息也可以為監督部門提供便捷的故障溯源與追責途徑,有利于及時便捷地保障國家、社會、個人的權利。特別是在算法應用領域仍在拓展、影響尚不明確的情況下,采取算法備案這一監管措施,可以在保持風險防控力的同時,隨時對算法發展和運用的情況進行觀察與研判。目前,在互聯網信息服務領域,根據《互聯網信息服務算法推薦管理規定》,我國已經上線運行了算法備案系統。針對算法種類繁多、形式多樣的特性,應通過立法方式進一步擴展備案范圍,完善備案程序、細化備案主體義務,穩步推進算法備案工作。
二是建立分級分類管理制度,依風險大小實現差異監管。分級分類管理體現了科學化、精細化的算法治理基本思路,是平衡安全和發展的重要制度方案。當前,以風險為導向的分級分類管理理念在國際社會得到廣泛認可。例如,歐盟《通用數據保護條例》推行“基于風險的路徑”(risk-based approach),將風險作為判定個人數據保護義務的重要衡量標準;2021年,歐盟《人工智能法案》延續“基于風險”的監管理念,對人工智能技術應用進行風險劃分,確立了不可接受的風險、高風險、低風險、極低風險等四級人工智能。再如,加拿大《自動化決策指令》將算法風險劃分為四級,分別介于I(代表最小風險)和IV(代表最大風險)之間。在我國,分級分類管理已在多個領域得到普遍適用。例如,在數據安全領域,《中華人民共和國數據安全法》要求國家建立數據分類分級保護制度。2021年出臺的《互聯網信息服務算法推薦管理規定》將算法推薦技術分為生成合成類、個性化推送類、排序精選類、檢索過濾類、調度決策類等五大類,同時,《互聯網信息服務算法推薦管理規定》明確要求,根據算法推薦服務的輿論屬性或者社會動員能力、內容類別、用戶規模、算法推薦技術處理的數據重要程度、對用戶行為的干預程度等對算法推薦服務提供者實施分級分類管理。下一步,應研究制定算法分級分類管理的具體制度要求,全面調查評估算法風險等級,通過出臺規范性文件、行業標準等明確細化算法分級分類的可操作標準,通過企業最佳實踐形成算法分級分類方案。
三是建立算法審查制度,深入平臺內部實現穿透式監管。算法審查是由監管部門對算法的流程、要素進行合規性審查,旨在揭示算法是否遵循了適當程序,并發現侵害事實與算法損害結果的關聯性,以實現有效追責的監管方式。近年來,國外由司法部門進行的算法審查和由第三方機構進行的算法審計在算法治理中逐漸發揮重要作用。例如,美國威斯康星州最高法院對Wisconsin v. Loomis案中使用算法是否造成種族歧視的問題進行司法審查。再如,2020年,荷蘭審計署對荷蘭政府使用算法的情況進行為期一年的審計工作,以評估算法帶來的社會影響。適應算法治理新形勢的需要,我國應盡快建立算法審查制度,從審查機構、審查范圍、審查流程、審查內容等方面推進算法治理和算法責任落實。一方面,可依法建立算法審查專門機構,負責對算法進行隨機抽查或定向抽檢,從技術上對算法進行審查檢驗,對算法風險提出更正、補救措施。另一方面,建立健全算法審查機制,對算法運行的全過程,包括數據輸入、算法設計、算法運行、結果影響進行有效的審查監督,注重對數據偏見的審查,確保數據樣本的公平客觀;注重對算法模型開發和運行階段的人工干預,降低算法決策偏差所帶來的影響。
以柔性的規范手段激勵算法向上向善。算法風險作為數字智能時代的新型風險類型,具有明顯的廣泛性、復雜性,僅靠法律手段難以完全實現全面治理。以算法評估、技術治理、行業標準為代表的柔性規范手段,不僅彌補了法律滯后性帶來的治理空白,引導算法向上向善發展;同時也避免了法律制度的強制性約束,為企業創新和業務探索留下了空間。
一是利用算法評估提前研判安全風險。算法評估是自我監督和外部強制性監督結合的治理機制。算法評估目的是建立風險適應型的算法治理,在設計、部署、運行和結果輸出全生命周期進行評估,不同評估結果對應不同治理強度。這一制度要求在算法模型設計完成后、投入使用前,由專門機構對算法可能造成的潛在歧視影響進行事前評估,尤其要對其是否將對特定受保護群體產生不成比例的差別性影響加以評估。具體來看,算法評估從程序和實質上創建了合理的算法透明度,保證算法系統的可追溯性、穩健性和準確性。當前,算法評估制度已成為國內外算法治理的重要手段。例如,2021年,歐盟《算法責任與透明治理框架》提出建立“算法影響評估”機制,以應對算法對內容與用戶行為的“過程操縱”。我國《互聯網信息服務算法推薦管理規定》也規定了有關部門依法開展算法評估和監督檢查的工作職責,并要求算法推薦服務提供者對評估和監督檢查工作提供必要的數據、技術等支持或協助。下一步,應盡快建立配套的算法安全檢查評估機制,推動算法推薦服務提供者開展算法安全自評估,督促相關主體建設安全檢查評估力量,支撐有關部門對算法推薦服務進行安全檢查,督促算法推薦服務提供者及時發現和整改相關問題。
二是利用技術手段預警日常風險隱患。技術治理是化解算法風險、實現日常預警隱患的重要手段。隨著人工智能的持續發展,算法技術治理方式也在不斷突破創新,方法種類不斷豐富,作用效果逐步提升。一方面,在設計和開發階段構建可信人工智能框架、堅持倫理與法治的設計原則、加強對算法系統的測試和驗證、建立服務質量指標體系等;另一方面,在算法部署全流程中,加強技術實時監測、通過技術手段實現算法系統的可解釋性等。從算法安全監管體系的角度來看,算法風險監測致力于對算法的數據使用、應用場景、影響效果等開展日常監測,感知算法應用帶來的網絡傳播趨勢、市場規則變化、網民行為等信息。從實踐來看,目前部分企業已通過數據篩選、算法設計、模型優化等技術手段,將倫理原則“嵌入”算法應用與產品中,從而解決諸如隱私泄露、算法偏見、非法內容審核等問題,以達到科技向善的目的。在我國算法治理過程中,應進一步強化研究攻關算法全生命周期安全監測等關鍵技術問題,開展網絡算法第三方監測、評估等方面研究,實現算法標準化及可評估以促進技術創新和成果轉化,提高算法產品服務質量與國際競爭力,助力打造公平開放的算法產業生態。
三是利用行業標準明確算法運行底層邏輯。在軟法治理的工具箱中,行業標準是國際社會普遍依托的重要抓手。行業標準是對企業和市場需求的規則回應,有助于細化具體要求,引導企業承擔社會責任,促進算法應用向上向善。在算法治理過程中,行業標準可在算法規范中嵌入倫理價值,例如,國際標準化組織《ISO/IEC 30122》、電氣和電子工程師協會《IEEE P7001》等文本中均嵌入了算法透明、安全可控等價值。與此同時,行業標準是一種編碼化的知識,可將技術的某項特性或路徑轉換為技術規范,進而促使產品達到規范要求。此外,技術標準可以結合應用場景和系統類型探索最佳方案,為人工智能產品的設計者提供清晰指引,確保系統生成可靠、完整且不可篡改的確鑿記錄作為追溯驗證的依據。總體來看,行業標準對算法治理具有基礎性、支撐性、引領性作用,同時也是我國算法法律制度的細化和補充。我國《個人信息保護法》《數據安全法》提出,要建立與人臉識別、人工智能等新技術新應用相關的標準體系。下一步,應積極回應算法技術標準建構的迫切需求,盡快細化算法相關立法中的規范要求,明確對算法的技術性規制需求,注重算法標準之間的銜接與配套、標準評估機制、標準實施機制等問題,建設能夠有效協同法律規范和技術標準的算法治理體系。
結語
當前,面對算法治理的痛點和難點,積極構建算法治理體系,最大限度地發揮技術潛力和優勢,有效應對其引發的社會和倫理影響已逐漸成為全球共識。未來算法治理路徑應放在不同的場景、業務下進行討論,并綜合運用多手段、多主體協同治理。根據算法使用場景、影響范圍、可能的危害程度的不同,采用分級分類、基于風險治理的思路。對涉及重大敏感利益等“高風險”的算法應用場景,應當加強事前監管,依據合理審慎原則設置必要的準入限制和約束條件。對于“低風險”算法應用領域,采取基于結果的規制思路,側重于事中事后的監管。應采用倫理規范、行業標準、算法備案、算法審查等軟硬法并舉,通過國家政府、行業組織、企業、公眾等不同主體協同治理。在算法治理國際合作方面,既需要突出全球各國的共同理想和追求,也需要尊重和理解各國制度設計中存在的不同,通過合作的方式共同尋求合理有效的算法治理路徑。
參考文獻
中國信息通信研究院、中國人工智能產業發展聯盟,2020,《人工智能治理白皮書》,北京:中國信息通信研究院、中國人工智能產業發展聯盟。
張凌寒,2021,《權力之治:人工智能時代的算法規制》,上海人民出版社。
朱寶麗,2018,《行政備案制度的實踐偏差及其矯正》,《山東大學學報(哲學社會科學版)》,第5期。
許可、劉暢,2022,《論算法備案制度》,《人工智能》,第1期。
張欣,2021,《我國人工智能技術標準的治理效能、路徑反思與因應之道》,《中國法律評論》,第5期。
許可,2022,《算法規制體系的中國建構與理論反思》,《法律科學》,第1期。
蔡星月,2021,《人工智能的“標準之治”》,《中國法律評論》,第5期。
林凌,2021,《哲學視域下的智能傳播》,《山東師范大學學報(社會科學版)》,第6期。
畢勛磊,2012,《論作為知識的技術標準》,《自然辯證法通訊》,第5期。
責 編/桂 琰
胡堅波,中國信息通信研究院副院長,教授級高級工程師,中國通信學會信息通信戰略咨詢委員會主任委員。研究方向為信息通信技術政策、網絡規劃、移動互聯網及智能終端。主要著作有《統籌發展和安全 提升數字化治理效能》(論文)、《5G助力數字經濟新發展,兩岸產業合作迎來新機遇》(論文)等。
Take Multiple Measures to Promote Algorithmic Governance in China
Hu Jianbo
Abstract: Algorithmic governance is an important part of strengthening the governance of the cyber society according to the law. It is also an important measure to implement the decisions and arrangements of the CPC Central Committee and the State Council, guide the healthy development of the industry, and adapt to the international trends. In recent years, algorithms have played an important role in prospering the digital economy and promoting social development. However, at the same time, problems such as information manipulation, abuse of data and algorithmic hegemony still exist, which causes content security risks, infringes on the legitimate rights and interests of users, disrupts the digital market order and affects social public governance, as well as other problems that need to be resolved completely. This article argues that we should adhere to the basic principle and concept of putting people first and pursuing an algorithmic governance that is safe and controllable, fair and just, and transparent and visible; actively build a multi-party collaborative governance model; consolidate the bottom line of security with a rigid legal system; encourage algorithms to develop for social good with flexible governance means; steadily establish a comprehensive algorithmic governance system; and promote the stable and long-term development of China's digital economy and algorithmic industry.
Keywords: algorithmic governance, algorithmic risks, diversified governance, technological ethics