黨的二十屆三中全會審議通過的《中共中央關于進一步全面深化改革 推進中國式現代化的決定》提出,要“加強網絡安全體制建設,建立人工智能安全監管制度”。人工智能安全是國家安全的重要組成部分。全國網絡安全標準化技術委員會于2024年發布的《人工智能安全治理框架》1.0版也提倡人工智能的發展要遵循“以人為本、智能向善”的方向,有效防范化解人工智能安全風險。近年來,“人本人工智能”這一理念引起了學界和業界的廣泛關注,它符合人類對人工智能和諧友好、尊重隱私、安全可控、開放協作的希望。為促進人工智能技術朝著以人為本的方向發展,需從人工智能的研發、使用和監管三個方面協同發力。
秉持智能向善、安全透明、公平無偏的人工智能研發理念。“向善”是人工智能發展的基本原則。人工智能技術研發工作的各項內容都應將倫理道德納入考量范疇。在人工智能深度學習的輸入和輸出之間,存在著普通用戶甚至是開發者都難以洞悉的“算法黑箱”,不僅為人工智能的安全性和可靠性帶來了挑戰,也影響了人工智能在一些關鍵領域的應用,如醫療診斷、金融決策等。算法黑箱可能會隱藏算法中的偏見,這些偏見來源于并不中立的訓練數據,這些數據產生自真實的人類社會活動,可能存在不平等性、排斥性和歧視性。因此,在數據采集環節,應加強倫理審查,杜絕有意識的偏見,并盡可能減少無意識的隱性偏見。在算法設計和實現環節,提升算法自動化決策的透明性、可解釋性和可理解性,逐步實現可驗證、可審核、可監督、可追溯、可預測、可信賴。
構建合法合規、責權明確、尊重隱私的人工智能使用原則。技術不是超越社會的、“中性的”力量,而是寓于現實的多重關系之中。人工智能作為一種通用技術,在造福人類的同時,也存在著被惡意使用的風險。人工智能一方面放大了現有威脅,如釣魚郵件、惡意軟件和隱私侵犯等;另一方面引入了新型威脅,如人工智能自動化攻擊、人工智能深度偽造等。因此,人工智能產品或服務在為人類所使用之前,需經過嚴格的論證與評估,充分考慮利益相關主體的合法權益,避免誤用濫用,禁止違規惡用。此外,要警惕由人工智能技術構建的“圓形監獄”。人工智能時代的一個特征便是人與技術融為一體,人類身處技術之中,依賴甚至依附于技術。由技術建構的“圓形監獄”不僅可能產生對人類活動的隱匿監控,甚至可能加劇了人類的物化和異化現象,對人類的本質、主體地位、基礎認知能力和創造力等形成強烈沖擊。因此,在充分挖掘人工智能技術對人類生活賦能潛力的同時,也要避免人工智能反向作用。
實施全面監督、動態調整、公眾參與的人工智能監管機制。要想將人工智能技術作為人類社會高質量發展的穩定引擎,就需要警惕由技術發展過快所帶來的治理落后問題,摒棄以犧牲安全為代價的粗放增長,遵循“邊發展、邊治理”的準則。首先要建立健全公開透明的人工智能技術監管體系,搭建人工智能設計問責和應用監督的雙層監管結構,實現對人工智能算法設計、產品開發和成果應用等的全過程監管。鑒于人工智能技術的迭代速度極快,其相應的監管方式也需與時俱進。應考慮技術特點、行業領域、應用場景等因素,科學動態地調整人工智能技術研發和落地應用標準。推進人工智能與網絡安全、信息安全等領域融合,防范數據泄露、惡意攻擊和其他安全威脅,通過高效的科學監管來提升人工智能安全治理水平。更為重要的是,持續推動人工智能健康發展,需要多方協同、共建共治,從而使人工智能技術始終符合人類的道德規范和價值標準。可嘗試構建多部門協調、多學科融合、多方主體參與的人工智能安全治理框架和工作體系,搭建公眾參與治理的線上線下平臺,建立起人人有責、人人盡責、人人享有的人工智能安全治理規范,攜手打造開放、公平、非歧視的人工智能發展環境,共同走向更加美好的智能未來。
作者:姜婷婷,武漢大學數據智能研究院;許艷閏,武漢大學信息管理學院