【摘要】人工智能在眾多行業領域掀起顛覆性革新的同時,也在科技倫理方面引發了一些爭議與憂慮。科技倫理治理既要把握科技發展規律,又要防止科技發展過程中可能出現的違反道德倫理的行為。應聚焦人工智能發展應用面臨的數據隱私、算法偏見和責任規則等科技倫理挑戰,在推動人工智能創新發展的同時,完善數據保護與隱私立法,優化算法設計與公平性審查,提高人工智能決策的透明度與可解釋性,明確責任主體,提高監管水平,防范和規制人工智能技術的濫用。
【關鍵詞】人工智能 科技倫理 科技法治 【中圖分類號】D923 【文獻標識碼】A
“現代計算機、博弈論之父”約翰·馮·諾依曼(John von Neumann)曾說:“技術日新月異,人類生活方式正在快速轉變,這一切給人類歷史帶來了一系列不可思議的奇點。我們曾經熟悉的一切,都開始變得陌生。”當前,人工智能(AI)的快速發展正在眾多行業領域掀起一場顛覆性的行業革新。2024年政府工作報告提出,深化大數據、人工智能等研發應用,開展“人工智能+”行動,這是我國政府工作報告首次提出“人工智能+”。“人工智能+”的概念,旨在鼓勵各行各業重視人工智能技術的應用和落地。
自1956年約翰·麥卡錫(John McCarthy)首次提出“人工智能”概念以來,人工智能已經取得了重大發展。對于AI帶來的發展機遇以及與之相伴的科技倫理治理挑戰應給予辨證的理解。一方面,AI技術應用展現出巨大的商業價值,在降低成本、提升效率、加快創新等方面發揮了重要作用,許多企業將其視為尋求突破、改變競爭格局的新途徑。另一方面,隨著AI的發展和應用,人們面臨的科技倫理挑戰也日益增多,譬如,AI“復活”已故明星視頻在互聯網各大視頻平臺爆火, AI“復活”親人業務的網絡熱度急速飆升。從動態圖片到“可以對話的視頻”,再到能提供情感交互的虛擬體驗,這些圍繞AI技術新應用的社會現象也引發了一些倫理憂慮。數字人作為AI技術率先落地的重要使用場景,仍存在法律與倫理上的爭議,亟需重新思考科學技術的倫理底線與合法性邊界。
當前,我國科技倫理治理存在體制機制尚不健全、領域發展不均衡等問題,難以適應AI科技創新發展的現實需要。在從實驗室技術研發走向商業化和社會化的過程中,AI發展應用“數字公地”(digital commons)屬性逐步增強,設定科技倫理法律規則的必要性愈發凸顯。AI科技倫理法治體系的構建需厘清科技開發應用、科技倫理設定、法律規則介入三者之間的關系,尋求科技發展、倫理引導及法律實現之間的平衡點,提升科技倫理法治能力,有效防范科技倫理風險,不斷推動科技向善、造福人類。
AI技術發展與科技倫理的關系
人工智能是引領新一輪科技革命和產業變革的戰略性技術。我國人工智能的應用場景豐富、用戶群體規模和數據量龐大、產業需求與消費需求旺盛,政府高度重視AI產業創新發展,大力促進人工智能與實體經濟深度融合。推動AI技術創新發展,對于培育新質生產力具有重要作用。科技倫理是科技活動必須遵循的價值理念和行為規范,不僅要把握科技發展規律,同時應約束科技發展可能出現的違反道德倫理的行為。當下,AI科技倫理是一項復雜的實踐活動,貫穿于AI全生命周期的技術設計、產品行為、應用場景等一系列環節,涉及諸多實施行為主體、技術路線開發者、基礎設施所有者以及社會公眾等多方參與者的利益訴求和多種利益沖突。基于此,AI的技術設計與應用全周期應遵守科技倫理規范。科技發展與科技倫理之間并不是“二元對立”的關系,科技倫理通過防止科技發展的復雜性給社會帶來的倫理沖擊,更好地實現數字科技與人類、數字科技與自然、科技創新與科技倫理之間的和諧共生。
2022年3月,中共中央辦公廳、國務院辦公廳印發《關于加強科技倫理治理的意見》,明確強調人工智能等是科技倫理治理的重點領域,充分表明國家對AI科技倫理治理的高度重視。不僅提出了“倫理先行、依法依規、敏捷治理、立足國情、開放合作”的治理要求,還提出了“增進人類福祉、尊重生命權利、堅持公平公正、合理控制風險、保持公開透明”的治理原則。2023年7月,國家網信辦等七部門聯合公布《生成式人工智能服務管理暫行辦法》,為科技倫理治理指明了發展方向。2023年9月,科技部等十部門聯合研究起草、經中央科技委員會同意并印發了《科技倫理審查辦法(試行)》,將人工智能列入應設立科技倫理(審查)委員會的科技活動單位范圍內,在7大類需要實行清單管理的重大風險新興科技活動中,有4大類涉及人工智能倫理審查。這些規范性文件凸顯了AI科技倫理治理的必要性、緊迫性和重要性。與快速迭代的技術相比,AI科技倫理治理落地實施的制度尚不完善,合規底線不夠明確,倫理審查與監管存在空白,配套的懲戒措施缺乏力度。對此,一方面,要秉持科技向善的人文理念和倫理先行的價值觀念,將倫理道德融入AI全生命周期,增強全社會的AI科技倫理意識與行為自覺。另一方面,要加強科技倫理治理,尤其需要加強法律監管,明確責任主體,強化倫理審查,推進依法治理,實現科技發展與倫理治理相互促進、動態調適。
AI發展應用面臨的主要科技倫理挑戰
一是數據隱私。AI的本質之一是數據驅動,數據往往包含用戶個人信息,是隱私與AI之間的重要連接要素。隨著AI技術的應用,數據隱私和個人信息安全成為重要課題,需要正視數據隱私風險,平衡技術發展與隱私保護之間的關系。
第一,數據不正當收集與數據過度收集風險。在通過自動識別算法、網絡爬蟲等技術方式獲取數據時,AI模型對于個人數據的收集邊界是模糊的。在網上公開數據源和商務采購時,由于目前數據共享、交易和流通的市場化機制不健全,存在非法數據、違規買賣數據、暗網數據等不正當收集行為和一些未經授權的收集行為。這些數據的獲取缺乏用戶知情同意,實際并沒有獲得采集權限,存在侵害用戶數據隱私的風險。
第二,數據存儲的隱私泄露風險。一方面,在對數據進行存儲時,如果沒有對數據采取充分的技術安全防護,且沒有明確的隱私界定與標注,則可能會出現涉及隱私的數據被用于公開的AI訓練的情況,或通過網絡攻擊等黑客行為竊取數據而導致個人隱私泄露。另一方面,在AI數據處理使用的過程中,涉及眾多數據處理、存儲等環節。對于種類多、數據量大的數據集,數據的頻繁讀取、傳輸、存儲等環節難以真正實現全環節監控和管理,存在被非法使用者利用、拷貝等安全隱患。
第三,數據流通的隱私泄露風險。由于大量AI企業會委托第三方公司或采用眾包的方式實現海量數據的采集、標注、分析和算法優化,數據將會在供應鏈的各個主體之間形成復雜、實時的交互流通,可能會因為各主體數據安全能力的參差不齊,產生數據泄露或濫用的風險。此外,在全球數字經濟發展不均衡的背景下,大型科技巨頭將AI的數據資源供給、數據分析能力、算法研發優化、產品設計應用等環節分散在不同的國家,數據跨境流動的場景增多也會對國家安全和個人信息保護造成不可控的風險。
二是算法偏見。算法模型是AI運算階段的核心技術特征,但算法并不具有絕對中立性,它的客觀性僅僅體現在算法運行中。算法不僅具有內在錯誤或無意識偏見,而且算法偏見產生的負面影響抑制著AI的創新發展與應用,存在損害多方主體權益、固化社會偏見的風險。
算法偏見的本質是AI時代社會偏見的一種體現,這種偏見可能源自數據、模型或者算法設計人員。AI系統訓練數據本身可能記錄了社會中存在的偏見。基于模型的復雜性,它可以捕捉到微小的數據模式,甚至是噪音,在不斷的優化迭代中強化學習效果,可能在學習中產生偏見。算法設計人員的主觀意識總是有意或無意地融入整個運行過程,他們的知識背景和立場是否受過專業訓練,是否有足夠的背景知識及理念的構成,都會對算法的公正性、客觀性造成挑戰。
算法偏見可能造成實質不平等。譬如,商家為吸引更多用戶,通過給予新人優惠、回歸補貼等差異化定價手段,造成“大數據殺熟”,侵害用戶利益。算法偏見還可能造成就業招聘時排除特定地域、特定性別的人群,在金融信貸行業錯誤識別信用不良人士或給予特定人群優待,在公共服務領域給特定人士錯誤地打上危險標簽。這些算法偏見容易導致人們對AI應用產生信任危機。
“可信”是AI產業健康持續發展的內在要求,AI是否可信不僅會影響社會治理體系的運行,也關乎AI的創新發展。在醫療、金融、司法等應用領域,算法的不公平性甚至可能對生命、財產和自由產生威脅,使得人智協同發展難以實現。因此,應審慎對待算法偏見風險,充分尊重人的主體性,將人類社會價值體系、倫理道德、法律法規、生態環境等內在需求納入AI生態全盤考量,確保AI生態系統的健康有序、和諧共生與可持續發展,避免出現與人類社會價值相悖的負面應用。
三是責任劃分。隨著AI應用的規模化使用,實踐中造成損害的事例屢見不鮮,包括但不限于創造性成果歸屬、刑事犯罪規制、人格權及知識產權侵權損害救濟等,AI侵權爭議的增多與責任主體的模糊之間形成了巨大的“責任鴻溝”,AI的法律責任承擔問題尚不明確。在此背景下,亟待厘清AI責任主體及其責任分配,解決無人擔責的困境。
從理論層面出發,學界對于“AI法律主體地位”“AI是不是法律意義上的人”“AI能不能成為權利義務的最終歸屬”等問題的看法尚未統一。根據現有的法律體系設置及實踐,AI尚沒有法律意義上的權利與義務內容,難以成為民事法律主體。然而一些學者認為,部分AI已經具備類人化意識與行為能力的基本形態,在擬制主體對人類經濟社會發展發揮巨大作用的前提下,可以考慮由AI自身承擔部分責任,但由于其責任能力的限制以及以人為本的倫理基礎,對該責任能力應當進行明確限定。
從實踐層面出發,AI侵權案件與傳統侵權案件引發的損害和風險的形式不同,AI的不透明性、不可預測性對傳統責任歸因機制產生了沖擊。以往構成責任的前提條件通常包括“控制條件”和“認知條件”兩方面,然而,一方面,AI的不透明性和不可解釋性導致結果的不確定性,在某種情況下會超出人類的控制范圍;另一方面,囿于AI使用情境和使用者的不同產生的多重穩定性,使得對AI的認知以及相應責任的追究更為困難。譬如,根據《中華人民共和國侵權責任法》的規定,制造商和銷售商是主要責任主體,但在AI情景下,還應當明確開發者的安全注意義務,建立新的AI侵權責任機制,促使發展“負責任的AI”成為符合人類共同利益的選擇。
構建與完善AI發展應用的科技倫理法治化進路
AI發展日新月異,面臨諸多變量,應對AI科技倫理挑戰則應把握這些變化中的“不變”,把握好堅守技術創新前沿動態的科學觀、充滿人本主義情懷的倫理觀、兼顧技術發展與制度進步的法治觀以及預判評估技術并進行決策的治理觀。
一是明確AI規制目標與重點。AI技術的發展邏輯顛覆了傳統的社會治理模式,全新的治理模式期待全新的規制和監管路徑。當前的規制目標在于實現以規制促發展,堅持安全可信的法治之維、科技向善的倫理之維、創新發展的技術之維,圍繞“社會—人類—機器”等要素,從“法律—倫理—技術”等維度展開規制,在法治軌道上鼓勵技術創新。
首先,從法治維度出發,應建立負責任的AI治理機制,建立AI安全可信的標準和評價體系,筑牢安全底線,促進AI健康發展。AI大模型訓練及AI場景應用中的數據濫用、隱私泄露、算法偏見以及侵權責任等問題不時出現,筑牢安全底線刻不容緩。當前,針對AI應用立法仍存在不足和空白,應對AI應用的安全性、可信性、倫理合規性等方面進行量化評估,為AI技術的發展提供明確的方向和參考。在此背景下,為進一步推進AI治理法治化,應樹立完善的技術發展與應用理念,保證AI應用在面對攻擊和威脅時能夠保持正常運行和數據安全,加快推動完善針對AI的法律地位、AI成果權利歸屬、AI損害后果的責任劃分、AI風險的法律控制等重點問題的法律規范,著力平衡AI產業發展和社會安全,保證AI輸出結果是可預測的、可解釋的,并且符合人類的價值觀和倫理準則,防止技術在利益的裹挾下無序應用,以法治保障AI健康發展。
其次,從科技倫理維度出發,應建立一整套相對完整的制度規范體系,這一體系應基于增進人類福祉、促進公平公正、保護隱私安全、確保可控可信、強化責任擔當以及提升倫理素養這六項基本倫理要求,推動AI朝著通用、可信、負責任的方向發展。一方面,應為AI產品研發設計人員制定道德規范和行為守則;另一方面,應構建多層次的倫理道德判斷結構以及人機協作的倫理框架。在AI等數字科技倫理治理過程中,應堅持以人民為中心的發展思想,踐行科技向善的人文理念,并結合不同的數字化應用場景,確保AI應用的合理合規、公開透明。
最后,從技術維度出發,應在確保AI安全可信、科技向善、符合倫理的前提下,積極鼓勵AI技術的融合與創新,不斷拓展其應用場景,并努力嘗試跨學科交叉融合,以推動AI應用的可持續發展。具體而言,AI技術應進一步與物聯網、云計算、大數據等深度融合,構建更加智能、高效、便捷的服務體系。同時,還應不斷拓展AI在智能家居、自動駕駛、醫療診斷、金融分析等多個領域的應用,加強跨學科交叉融合。例如,在醫療診斷領域,AI技術可以輔助醫生進行疾病診斷、制定治療方案;在金融分析領域,AI技術可以實現風險評估、優化投資策略等功能。
二是完善AI相關制度設計與實踐進路。科技法治是鼓勵與規范科技創新的基石,而科技倫理則致力于優化和改善科技創新。無論是科技倫理還是科技法治,都旨在推動科技創新的同時,遏制科技不端行為和科技濫用違法現象。為此,應完善相關法律制度的設計與實踐路徑,加強行業監管,明確行為底線,多方協作,對AI應用中的不法行為進行有效監管,確保AI技術的健康與可持續發展。
首先,加強數據保護與隱私立法。應完善數據相關法律法規,明確數據收集、存儲、處理和共享的規范,為AI技術開發與應用中的數據相關行為提供法律指引。《生成式人工智能服務管理暫行辦法》對數據安全和隱私保護作出了具體規定,包括服務提供者需確保數據來源的合法性,以及關于訓練數據的特性、個人信息與知識產權的保護規定。該辦法還將相關監督檢查和法律責任納入我國網絡安全和數據隱私保護的基礎性法律框架內。在不斷完善法律規范的同時,還應加大監管執法力度,嚴厲打擊侵犯個人隱私的行為,確保法律的有效實施。此外,面對經濟全球化背景下數據跨境流動帶來的發展機遇與數據安全挑戰,應加強在數據保護和隱私立法方面的國際合作,消除數據跨境傳輸過程中存在的數據泄露和隱私侵犯的隱患,共同維護全球數據安全和隱私權益。
其次,優化算法設計與公平性審查。算法是AI發展的核心技術工具,只有合規、良善的算法才能更好地促進AI的安全、可信、負責任發展。第一,優化法律體系配置,重點關注算法偏見問題,并加強法律法規間的協同,構建全方位、多層次、立體化的算法偏見規制體系,涵蓋法律、行政規章及地方性法規,為個人提供充分的數據權利保障,為抵御算法偏見侵害提供堅實法律支撐。第二,實施算法分類分級管理,細化《互聯網信息服務算法推薦管理規定》中的分類標準,并制定相應的風險等級和監管舉措,完善基于算法分類分級的算法備案、算法評估、算法安全風險監測和算法審計制度,提升制度的明確性和可操作性。第三,探索建立算法偏見公益訴訟制度,結合民事與行政公益訴訟,完善救濟途徑,保障公共利益,引導算法在法治框架內有序發展,推動數字化進程更加成熟完善。
再次,提高AI決策的透明度與可解釋性。透明度是AI確保其內部算法可見性的關鍵屬性,包括公開數據、特征、模型、算法、訓練方法和質量保證程序,以便外部監督和審查。可解釋性的目標是增強理解,使目標受眾更好地理解AI的行動與決策。因此,應建立公開透明、可解釋的AI監管體系。第一,提升AI模型技術和數據源的透明度,公開AI在系統開發、數據收集、管理、結果可操作化等過程的信息,使用戶了解AI模型決策的過程、依據和規則,打破黑箱壁壘,增強用戶對模型的信任。第二,強化公眾審查和監督,落實算法備案、算法審計等制度,協助用戶追溯數據輸入、輸出、運行過程與自動化決策結果間的因果關系,全面審視數據收集方法、自我審核流程、價值承諾及利益相關者參與等過程。當利益相關者的權益可能因自動化決策受損時,可解釋性能及時解答疑問,提供救濟。第三,完善AI備案制度,優化互聯網信息服務算法備案系統,拓展備案信息范圍,要求備案主體公開更多技術要素,如運作原理、系統架構、數據集、訓練模型及參數等,并闡述其價值觀和要解決的技術問題。同時,也要將相關外國主體納入備案范疇,確保其遵守我國相關規定。
最后,明確責任主體與加大監管力度。雖然AI應用帶來了傳統“主體—行為—責任”理論下的“責任鴻溝”問題,但AI算法技術的應用,如算法的設計與部署,都蘊含了價值觀和主觀意圖,這是法律追責的核心,也是判定法律責任的關鍵。因此,應尊重技術邏輯,構建機器/人—機聯合體,并根據侵權場景的類型化,確立多方責任主體的識別路徑,聚焦行為正當性的判斷。以AI算法設計部署中的主觀過錯作為追責的基礎,結合聯合體內的責任與經濟利益的關聯,實現責任分配的公正性。此外,還需增強《中華人民共和國民法典》《中華人民共和國刑法》等法律在AI應用場景中對主體責任和產品質量缺陷等問題的適用性,強化對AI設計和應用監督的雙重監管。在責任判定中,應綜合考慮行為人和AI服務提供商在侵權行為及損害后果中的實際作用。如果發生損害,可參考《中華人民共和國民法典》中的產品生產者責任條款,即產品缺陷造成他人損害的,生產者應承擔侵權責任,被侵權人有權向產品提供者索賠。這要求AI提供者,通常是平臺主體,履行高度注意義務。賦予AI提供者相應責任義務,有助于規范生成內容的合法性。當然,若平臺已履行其義務,鑒于其對創新發展的貢獻,在責任承擔上不宜過于嚴苛,以免阻礙AI技術發展和未來商業應用。
隨著AI技術發展和應用場景的縱深拓展,AI治理面臨著道德倫理約束和法律規制的雙重現實困境。我國AI的科技倫理規范和相關立法應秉持包容審慎的態度,既不能只建立回應型立法,也不能推行過于嚴苛的制度限制AI的發展應用。因此,應繼續探索合理的AI科技倫理及合法性邊界,堅持科技倫理與法律規范雙管齊下,在有序的制度框架內完善數據算法的糾偏功能,推動AI技術與產業向安全、可信、負責任的方向發展。
(作者為南開大學法學院副院長、教授、博導,南開大學競爭法研究中心主任)
【注:本文系2023年度最高人民法院司法研究重大課題“數據權益知識產權司法保護問題研究”(項目編號:ZGFYZDKT202317-03)及教育部人文社會科學重點研究基地重大項目“全球數據競爭中人權基準的考量與促進研究”(項目編號:19JJD820009)階段性成果】
【參考文獻】
①岳平、苗越:《社會治理:人工智能時代算法偏見的問題與規制》,《上海大學學報(社會科學版)》,2021年第6期。
②陳兵:《生成式人工智能可信發展的法治基礎》,《上海政法學院學報(法治論叢)》,2023年第4期。
③陸小華、陸賽賽:《論生成式人工智能侵權的責任主體——以集體主義為視角》,《南昌大學學報(人文社會科學版)》,2024年第1期。
責編/銀冰瑤 美編/楊玲玲
聲明:本文為人民論壇雜志社原創內容,任何單位或個人轉載請回復本微信號獲得授權,轉載時務必標明來源及作者,否則追究法律責任。