摘 要:算法的設計或許可以在數學邏輯上做到完美,但缺乏對人性和社會環境的綜合考慮,從“真空”環境中誕生的算法本身帶有機械性。一味追求效率、不斷壓縮配送時間的外賣配送算法,即體現了算法程序的不盡合理之處。面對算法缺陷及其產生的問題,應將算法嵌入到整個社會體系中評估,分析算法運行所牽涉的各個環節,以體系化的思維為算法向善提供解決方案。
關鍵詞:人工智能 大數據 算法治理
【中圖分類號】D630 【文獻標識碼】A
法缺陷及其產生的問題
以外賣配送系統為例,外賣平臺利用大數據分析計算最優配送路徑,極大縮短了騎手的配送時間,提高了配送效率。但也存在諸多問題,有些是算法本身缺陷所導致的,有些則因其他社會問題與算法相伴而產生。
算法程序中可能存在不盡合理之處。算法中的程序幾乎是算法控制者單方設定的,即使程序中可能有不盡合理之處,算法相對方也只能被動接受。例如,外賣配送系統中設定了騎手等級,騎手需要通過每日登錄APP、分享邀請有禮活動鏈接、上傳健康證、完成各種訂單配送等方式獲取晉升等級所需要的積分。其中也有減分項目,比如配送超時減3分,獲得一星差評或不滿意評價減5分等,甚至一個差評或延時會直接扣除騎手工資。在這種規則之下,配送時間成為非常重要的考核指標,騎手面臨很大壓力。盡管這些規則在人性化、合理性上還值得商榷,但騎手只能被動適應,接受算法規則的約束,甚至對算法產生依賴。
算法容易使個體失去自主性。自泰勒提出標準化管理模式之后,工作逐漸被標準化和簡單化,工人操作的自由度降低了,簡單重復的動作讓人越來越像機器。正如媒體曾經報道的富士康工廠的情況一樣,在高度標準化的生產中,工人的工作效率以秒來計算,工人往往處于高度疲態和枯燥之中。算法的運行與此相似,算法具有隱蔽性和高度專業性的特征,每個參與算法的個體就是一個數據節點,在算法高速運轉中,個體只能被動接受信息并執行算法命令。騎手屬于勞動密集型職業,工作中需要耗費大量精力,若只受算法支配而喪失自主性,他們作為勞動者的休息權則無法得到保障。同時,騎手與社會其他群體具有緊密聯系,一旦發生事故不僅會傷害自己,還會傷及他人。從這一點來看,保障騎手休息的權利也在一定程度上意味著保護社會公共利益。
僅靠算法的自我迭代難以有效解決問題。算法的設計或許可以在數學邏輯上做到完美,但缺乏對人性和社會環境的綜合考慮,從“真空”環境中誕生的算法本身帶有機械性。在外賣配送算法中,為了追求效率,可以對所有阻礙因素進行優化,把配送時間不斷壓縮。但如果因為計算最優路徑而忽視了實際道路狀況、實時天氣狀況和小區管理情況等影響因素,計算結果往往就會不準確,算法不斷迭代的過程也就可能演變成了加大騎手困難的過程。實際上,其他社會因素會深刻影響算法的運轉情況。現實中經常可以看到,由于城市交通違章查處、電動車限速標準執行不夠嚴格,大量違章、超速外賣騎手電動車上路等現象。除了交通規則外,一些小區的管理也需要調整,如一些商務樓、醫院、小區等不允許騎手進入,騎手只能在外等待或者步行送餐,最后導致送餐延遲。如果忽視這些問題,單靠算法本身的迭代是無法有效解決問題的。
算法治理的路徑
為應對上述算法的缺陷,可以從內部的算法自我優化與外部的監督規范中找到解決路徑。
設計算法應該走出“真空”接受社會實驗。算法背后是代碼,代碼是“冰冷”的,沒有人文溫度,忽視人性的算法無法為人類帶來福祉。在現行外賣配送算法中,如果騎手因偶然因素實現了快速送餐,算法就會提供獎勵,讓騎手接到更多訂單。這樣一來,騎手出于利益最大化的動機,肯定會追求速度越快越好,訂單越多越好,由此陷入惡性循環。為了避免速度成為唯一的考量因素,算法評價機制中也應該引入其他考量因素,比如為從來沒有發生交通事故的騎手提供獎勵,引導騎手更加注意安全。
制定算法規則需要多方參與盡量避免不合理之處。基于機器學習的算法具有“黑箱”特征,算法相對方無法就算法規則提出建議或意見,只能被迫“追趕”算法設定的目標。多方參與規則制定是正當程序的必然要求,比如一些電商平臺推出“規則眾議院”,平臺上的買賣雙方都可以通過眾議院機制就規則制定發表意見。也有學者提出算法解釋權,即賦予主體知曉及理解算法運行邏輯的權利。該觀點認為,受到自動化決策不利影響的人應有權知曉決定的內容與理由,并擁有申訴和申辯的機會。算法解釋權是賦予個體對抗“算法權力”的重要武器,因為個體知悉算法規則后才能就其不合理之處提出建議,并參與到規則的制定之中。
應對算法的負外部性需要多種公共政策相互補充。算法實際是嵌入在社會的多樣應用場景中的,各個場景所牽涉的主體、外部因素和行為規范都不相同。因此,不能將算法視為單純的技術問題進行治理,而要匹配不同政策工具進行綜合治理。對于“困在系統”中的騎手,國家應該重視對這部分人群勞動權益的保障,特別是休息、薪酬、安全等合法權益。外賣平臺應該參照其他平臺的舉措,設置強制騎手休息的規則,保障騎手安全,進而維護社會安全。為了應對騎手闖紅燈、超速等問題,交通管理部門也應該嚴格制定和執行交管規則,對騎手進行外部約束。社區管理部門也應參與其中,對外賣、快遞進社區等管理規范進行完善細化,如允許騎手安全送餐,或者配置取餐柜等,緩解騎手“最后一公里”送餐難的問題。
為算法建立法律監管與道德約束機制。2017年1月,美國計算機協會專門發布了算法治理倫理原則,涵蓋利益相關者責任、救濟機制、算法使用機構責任、鼓勵可解釋算法研發、數據治理、算法審查要求、實時檢查責任等七個方面的內容。2019年4月,美國參議員提出《2019年算法問責法案》,要求美國聯邦貿易委員會對企業進行算法審查。歐盟也在《人工智能時代:確立以人為本的歐盟人工智能戰略》《通用數據保護條例》和《人工智能道德準則》等多個文件中,強調以價值觀引導人工智能技術的發展。需要從外部規范的角度為算法制定倫理標準,并建立相應的倫理審查制度。特別是在算法設計和研發的標準、規則和透明度等方面出臺法律規范,并建立算法問責機制,保障個體權利,包括算法解釋的權利、更正或修改數據的權利、退出算法決策的選擇權等。
算法治理的理念
治理算法需要以基本原則和理念為指導,并根據情況的變化適時調整算法治理的具體方法。
算法治理應堅持利益平衡原則。利益平衡既包括算法內部所涉主體之間的利益平衡,也包括算法使用者與社會公眾之間的利益平衡。通常外賣平臺將消費者置于首位,而商家次之。在這種機制下,平臺為了消費者的滿意只能“壓迫”騎手。算法使用者應該平衡好這三方的利益,對算法的治理也應該平衡好企業與社會公眾之間的利益,在尊重企業逐利天性的基礎上為算法立規矩,保證算法在正確的軌道上運行,只有這樣才不會因噎廢食。
算法治理應堅持人本主義。在算法時代,尊重個體主體性、自治性和人格尊嚴始終是發展底線,算法治理也應該注重保護人類尊嚴、公民權利以及社會公平。特別是要加大對弱勢群體的關注,避免“數字鴻溝”,實現實質公平。可以通過強化企業社會責任的方式在算法治理中體現人文主義,比如從社會福利的角度評估企業在關懷弱勢群體、保護用戶隱私、尊重個體人格以及勞動者休息權利等方面作出的努力。
總之,算法治理是一項長期工程,算法在不斷演進,對算法的治理也應該不斷迭代,其中算法問責機制、算法評估機制、算法監督機制都是需要繼續討論的重要話題。對算法的治理不應局限于算法本身,而是需要將算法嵌入到整個社會體系中評估,分析算法運行所牽涉的各個環節,以體系化的思維為算法向善提供解決方案。
【本文作者為清華大學公共管理學院教授、清華大學人工智能國際治理研究院副院長;清華大學公共管理學院博士后曾雄對本文亦有貢獻】
責編:羅 婷 / 司文君
聲明:本文為《國家治理》周刊原創內容,任何單位或個人轉載請回復國家治理周刊微信號獲得授權,轉載時務必標明來源及作者,否則追究法律責任。