人工智能正加速改變著產業、社會和世界,成為當前國際技術競爭與規則競爭的關鍵領域。今年5月,全國人大常委會公布的2024年度立法工作計劃將“人工智能健康發展等方面的立法項目”列入預備審議項目。國務院公布的2024年度立法工作計劃中,亦明確“預備提請全國人大常委會審議人工智能法草案”。強化對人工智能的立法保障,既要注重“治當下”,還應兼顧“謀長遠”,既要解決人民群眾迫切關心的問題,也要從宏觀上把握促進和規范的尺度,在法治軌道上促進行業高質量健康發展。
黨的十八大以來,黨中央高度重視人工智能技術在推動科技跨越式發展、產業優化升級、生產力整體提升等方面的巨大驅動力,不斷優化和改善人工智能產業發展的政策環境,按照邊發展邊規范的思路,不斷劃定人工智能技術的發展“底線”和安全“紅線”。近年來,我國先后制定了《中華人民共和國網絡安全法》《網絡信息內容生態治理規定》《中華人民共和國數據安全法》《中華人民共和國個人信息保護法》《互聯網信息服務算法推薦管理規定》《互聯網信息服務深度合成管理規定》等法律法規,促進了人工智能技術推廣和人工智能產業發展。2023年4月28日,中共中央政治局會議強調“重視通用人工智能發展,營造創新生態,重視防范風險”。2023年7月,國家網信辦等七部門聯合公布《生成式人工智能服務管理暫行辦法》,與《互聯網信息服務算法推薦管理規定》《互聯網信息服務深度合成管理規定》協同聯動,構成了我國人工智能治理的“三駕馬車”。總體來看,我國對人工智能的治理已經形成了獨特的規范方式和治理模式,即依托于生成式人工智能服務提供者、算法推薦服務提供者、深度合成服務提供者的權利義務、主體責任漸次展開,并以提供者主體責任為規范主線。但是,伴隨著不斷出現的新的法律風險和社會治理難題,需要進一步總結生成式人工智能的技術特性、運行規律,以便更加科學地把握人工智能治理的發展規律,并以此為基礎建立一套行之有效的法律制度體系,妥善規范人工智能技術可能帶來的風險挑戰。
我國人工智能技術在發展中呈現出了如下新的特點:生態復雜化、風險多元化,應用場景特點各異、區分明顯,算法規范不足、缺乏透明性,技術周期短、法律規范滯后等。面對這些新特點,傳統治理模式出現了應對較為滯后、彈性較為不足等治理挑戰,與生成式人工智能的技術特性還有不相匹配之處。目前,我國已經出臺了針對生成式人工智能的專門法規,但尚未形成通用立法和治理框架,必須加強前瞻性研究,建立以人工智能專門法為主、相關法律法規為輔的法律規范體系,在重視防范風險的同時,充分重視行業公約、倫理規范等“軟法”作用,最終實現人工智能規范與發展的動態平衡。
建立基礎模型、專業模型、服務應用模型的分層治理體系
基于所運用的人工智能模型的不同特點和功能,人工智能業態可以進一步細分為基礎模型層、專業模型層和服務應用模型層。基礎模型是人工智能的基石,為專業模型和服務應用模型提供了生存空間和運行底座。專業模型是在基礎模型的支撐下,為滿足特定領域、行業或場景需求而開發的在特定領域內通用的模型。服務應用模型面向用戶并直接給用戶提供服務、解決問題。分層治理體系兼顧了人工智能業態的層次性和規范構建的科學性。我國現行法律法規對人工智能數據、算法、主體、場景的相關規定較為零散、破碎,系統性、連貫性、協調性還不夠強,個別規定存在“內部打架”現象。為改進上述不足,在未來立法中可采取綜合治理模式,劃分技術、產品與服務三個層次,關注基礎模型、專業模型、服務應用等不同層次生產要素要求,通過出臺統一、規范的人工智能專門立法,對生成式人工智能全產業、全業態進行綜合性監管與規治,通過采用復合性、系統性的治理模式,為我國抓住人工智能大模型發展窗口提供有力制度支撐和法律保障。
完善以鼓勵發展和支持創新為導向的基礎模型層法律制度
生成式人工智能基礎大模型迭代周期短的特點導致其發展窗口期非常短暫,基礎模型作為新型數字基礎設施具有高成本、高風險、高收益的顯著特點,在法律制度層面應以搶占先機、鼓勵發展為導向,大力鼓勵基礎模型層的技術創新、研發投入,明確其在科技倫理審查、訓練數據來源、模型參數可靠、算法安全風險等方面的恰當義務。例如,完善《中華人民共和國著作權法》中的數據挖掘法定許可制度,建立面向人工智能研發的“公共數據池”等新規則,為基礎模型研發提供相對自由的制度空間。
完善以審慎包容、分級分類為導向的專業模型層法律制度
第一,對專業模型層的監管應堅持審慎包容的理念。生成式人工智能專業模型主要對基礎模型進行適應各專業垂直細分領域的個性化精調,在整個產業鏈中起到承上啟下的作用。對專業模型層的監管應根據專業模型所處行業,引入分類、分行業管理規則,關注關鍵領域、關鍵模型,重視專業領域訓練數據來源與安全,適時引入新興監管工具,給新興技術發展留下試錯空間。第二,生成式人工智能專業模型層一般有具體應用場景和垂直行業劃分,應將開發者及“模型”本身作為法律規制對象和責任主體,結合專業模型層應用的具體場景“量體裁衣”,區分應用領域、風險級別的差異,采取不同的監管規范策略。第三,專業模型既是基礎模型層的商業端用戶,又是服務應用層的模型服務提供者,這就要求專業模型開發者不僅應對訓練數據的合法性負責,還要遵循相關行業規范的具體要求,所以在未來進行人工智能立法時,對專業模型層大模型的規定要合理設計兜底條款,強化法律之間銜接配套,爭取實現監管的同向發力、協調統一。
完善以風險管理、敏捷治理為導向的服務應用模型層法律制度
服務應用模型層直接面向用戶,最容易侵害用戶利益,立法的重點是在有效區分已知風險和未知風險等不同風險等級的基礎上構建法律與技術相結合的監管工具箱,通過治理手段、治理強度的差異性安排有效控制服務應用層的風險,最大限度保護用戶權益。例如,在未來立法中,可按照服務應用模型層對個人基本權利產生威脅的程度,將相關人工智能技術劃分為“不可接受風險、高風險、低風險、最小風險”幾種等級,并對人工智能技術提出風險管理體系建設、提供高質量數據集、數據處理可追溯、適當人為監督等法定義務,還可規定智能生成內容提示告知、信息披露等差異化監管要求。此外,針對生成式人工智能服務應用層未知的長期風險,可以嘗試建立“通知+刪除”制度,建立一種彈性的監管框架。同時,注重發揮技術規范、行業標準在人工智能治理中的重要作用,通過政府、行業主管部門等出臺的技術政策、技術標準、技術指南等,為各技術參與者在設計、開發和使用人工智能技術的過程中有效識別、評估和處理相關風險提供指引,并在技術專家、平臺主體、行業自律組織、用戶等社會力量的協同下,共同探索各類場景、功能下生成式人工智能的全行業自律公約、倫理規范。