當前,我們正處于人工智能的啟蒙時代。被稱為人類歷史上第四次革命的人工智能,以其迅猛發展帶動人類社會從信息時代跨入智能時代。這無疑會更加充分地實現人的自由,并帶來前所未有的發展機遇。但同時,如同硬幣的兩面,機遇總是伴隨著風險。人工智能技術的創新與應用正在逐步改變原有的社會結構,產生新型的社會關系和法律關系,引發新型的社會沖突。這都在迫使我們去持續思考應該如何防范、轉化和規制人工智能帶來的風險。
人工智能發展帶來的新風險
人工智能與以往其他革命性技術的不同在于,它不僅具有技術屬性,而且具有社會屬性。正因為如此,人工智能的風險不僅僅集中在技術層面,還滲透于社會和人類生活空間的諸多層面,具有全球性、廣泛性和互聯性的特征。在諸多風險當中,以下幾種風險尤其引人關注:
技術不確定性帶來的安全風險
人工智能技術起源于二十世紀六十年代,在幾十年的發展歷程當中經歷了三起三落。現階段人工智能技術的復興,一方面得益于計算機技術快速發展所帶來的算力提高,另一方面取決于深度學習技術的應用。深度學習是機器學習研究中的一個新領域,其動機在于建立、模擬人腦進行分析學習的神經網絡,模仿人腦的機制來解釋數據。這是機器學習中一種基于對數據進行表征學習的方法。在深度學習模型中,通常人們只需要給定、輸入數據和標簽,即可獲得輸出結果。至于網絡中間層的內部學習如何進行,在當下的研究階段,人們還不得而知。換言之,機器學習的結果不僅很難直觀解釋,而且很難控制。這種技術不確定性所帶來的風險,使人們恐懼于AI失控所帶來的嚴重后果。尤其是當AI用于軍事、金融、醫療等高風險領域,一旦實際的計算結果與人們的期待出現較大偏差,產生AI的異化現象,將對社會造成不可預測的負面影響。
不平等的社會效益風險
一直以來,在聯合國的推動下,各國都在努力彌補數字鴻溝。然而,現階段的一個普遍現象是:人工智能技術的應用及其與互聯網公司的深度融合,進一步加劇了互聯網巨頭公司的信息壟斷和數據壟斷,擴大了各階層之間的數字鴻溝。而在數字經濟形態下,數據已經超越了其固有的物理屬性,成為了新的生產要素。數據優勢在技術發展的助攻下,可以快速轉換成商業優勢和經濟優勢,幫助大數據持有者以更大的規模、更快的速度,實現財富集中,形成財富的壟斷。
與此同時,人工智能技術也對現有的勞動力市場造成了沖擊。雖然根據某些權威經濟學家的預測,以未來的視角來看,人工智能技術發展帶來的新增勞動就業崗位將抵消由其引發的失業現象。然而未來尚未到來,當下的失業問題卻已擺在人們面前。在各大銀行的分支機構中,原來的柜員已悄然削減,取而代之的是智能化柜員機器人;在許多停車場的出入口,收費人員被解雇,因為自動化付款模式不再需要他們的出現。最近,麥肯錫的一份報告透漏,2018年,人工智能驅動的自動化導致德國和美國三分之一的勞動力重新尋找工作。這與上述巨額財富向少數人手里集中的現象形成了鮮明的對比。
法律制度缺失的風險
正如德國社會學家烏爾里希•貝克在《風險社會》一書中所表述的那樣:當代社會的本質是“風險社會”,科技風險是風險社會的重要內容。而科技風險的產生,一方面是由于科學技術本身的發展造成的,另一方面則是由于制度在回應科技發展過程中的缺失。換言之,科技風險與制度風險是共生的、一體的。這是導致現代社會高風險的重要原因。
人工智能風險無疑屬于風險社會中科技風險的范疇。作為現代社會治理的最主要方式,法律遵循著自身固有的屬性與腳步,習慣于對科學技術發展產生的社會問題作出緩慢和滯后的回應。法律的穩定性和滯后性,與人工智能技術的快速發展及其由此而產生的新的法律需求,形成了強烈的對比。2017年10月,當人們還在討論人工智能是否具有人格時,沙特阿拉伯已經授予機器人索菲亞公民身份。而更加讓人驚詫的是,這個世界上第一個機器人公民卻揚言要毀滅全人類。在自動駕駛領域,技術創新和秩序安全兩種價值始終在進行博弈。除了少數國家頒布了無人駕駛新立法,大多數國家的交通法律制度還停留在前互聯網階段。但無人駕駛的車輪已經越走越遠,即便世界范圍內已經出現了多起無人駕駛引發的交通事故,也未能阻擋新的嘗試。此外,侵權的責任如何界定也尚未清晰。類似此種法律制度的缺失,包括智能系統生成的作品著作權問題、強制保險問題、隱私問題、算法的透明度問題等。這些不是個別部門法需要面臨的難題,而是幾乎全部法學領域均有涉及的全局性問題。
完善人工智能相關立法的幾點思考
談及人工智能的規制構建問題,法律人其實并不孤獨,國際關系學者、倫理學家、政治學家等多個領域的社會學者都沖在研究和實踐的第一線。雖然法律并不是現代文明社會唯一的治理和調解方式,但卻是最主要和最有效的方式。在新的治理方式取代法治治理之前,人類社會應該致力于完善人工智能相關的法律規制,為人工智能發展制定規則的邊界。這是一項繁雜且重要的任務,不可能一蹴而就。為此,在立法初始階段,對一些基本范疇的思考,具有極其重要的意義。
人工智能立法要兼顧安全與發展
正如著名法學家徐顯明曾經闡述的那樣,自人類社會開始構建規則以來,安全始終是人們追求的第一價值目標。社會秩序安全是技術發展的重要保證。立法者不僅要考慮安全的價值,也要從產業促進的角度進行考量。在進行人工智能立法時,尤其要進行安全與發展的價值衡量。這是因為人工智能技術已經成為世界主要大國的戰略性技術,對一國的發展至關重要。如果過于嚴格的立法阻礙了本國人工智能技術和產業的發展,勢必會使國家在大國競爭的時代處于不利的地位。
2018年5月5日,歐盟《通用數據保護條例》生效。這是迄今為止世界范圍內最為嚴格的個人數據保護法案,引起了廣泛的關注。然而我們也應該看到,歐盟正在積極推進立法促進人工智能的發展。相比之下,美國一直以來都比較偏重于對人工智能技術研發和產業的促進與保護。這從美國最近的兩個司法判例中可窺見一斑。在路米斯訴威斯康辛州法院的案件中,法院支持算法屬于商業秘密。在搜索王訴谷歌的算法第一案中,法院認為網頁排名是一種意見,支持了谷歌認為算法是言論自由的主張,將算法置于美國憲法第一修正案的保護之下。在中美博弈的大背景下,中國的立法更應該科學協調安全與發展這兩對范疇,做到保護人們基本權利和促進人工智能發展相統一。
“傳統法+”與分散式立法
在實現真正的超人工智能前,人工智能還要經歷專門人工智能和通用人工智能階段。專門人工智能僅具備某項認知能力,能夠在封閉的環境中實現單一任務。通用人工智能具備人類的所有認知能力,可以由同一個智能系統實現不同的認知任務。而超人工智能將在所有認知能力和領域全面超過人類。目前,我們正處于專門人工智能向通用人工智能轉變的時代,語音識別、圖像識別、智能金融等仍舊屬于專門人工智能的應用。
立法者在構建人工智能法律體系時,雖然可以具備一定的前瞻性和先進性,但必須立足于人工智能現在的發展階段。也就是說,立法必須是現實的,作為上層建筑的法律體系,必須根據科學家對人工智能的賦能現實而制定。在專門人工智能階段,人工智能更多程度上仍舊是實現人類自由的一種工具,雖然現有的法律體系面對人工智能引發的新型法律關系產生了一定的法律空白,但并不是所有的人工智能問題都是法律上的新問題。相反,在專門人工智能階段,大部分的問題仍舊可以置于原有的法律框架之下。而對于新問題的規制,相較于集中式立法的模式,更適合采用分散式立法的方法來推進。這并非頭痛醫頭、腳痛醫腳的雜亂安排,而恰巧是科學立法的貫徹和實施。具體來說,一是因為人工智能在每個領域的發展與應用程度并不相同,對法律原則和規則的需求不同;二是因為集中式立法對于立法技術、人力和物力有著更高的要求,往往也需要花費更多的時間,顯然與人工智能技術的快速發展不相符。
積極參與人工智能國際立法
在傳統社會,風險具有地域性,風險在地緣因素的影響下傳播。然而,現代社會的技術、人才、資本、文化等要素在全球范圍流動,全球化的發展使風險跨越了國界,風險全球化成為風險社會的重要特征。人工智能帶來的軍備競賽、核武器風險增加、人權保護等問題,只靠國內機制顯然得不到有效解決,應該放在國際治理的角度下進行討論。
與國際法在網絡空間適用的問題具有相似性,國際法在人工智能領域的適用,也面臨著兩個基本問題:第一,原有的國際法規則是否適用于人工智能相關問題,即既有規則的繼受問題;第二,如何構建新的人工智能國際規則。2013年,第三屆聯合國信息安全政府專家組通過報告,確認國際法特別是《聯合國憲章》適用于網絡空間,并且宣示:國家主權和源自國家主權的國際規范和原則適用于國家進行的信息通信技術活動,以及國家在其領土內對信息通信技術基礎設施的管轄權。借鑒此結論,對于在人工智能領域原有國際規則的繼受問題,答案也應該是肯定的。當然,這并不妨礙在國際法的立法真空地帶,針對新的人工智能問題構建新的國際規則。然而,對于如何在人工智能領域對原有國際規則進行解釋,即到底如何適用原有規則,以及如何構建新的國際規則,各個國家基于不同的法律文化和本國利益,持有不同的觀點,仍舊處在激烈的討論和博弈階段。中國作為世界第二大經濟體和聯合國常任理事國,特別是人工智能技術和產業蓬勃發展的國家,應該積極參與到人工智能國際規則的解釋與制定當中,體現我國的軟實力。
總而言之,法律并非一成不變,法律的生命力體現在其融合時代的不斷演進之中。法律規制只有不斷進行調整,才能回應人工智能對法律制度帶來的挑戰,最終形成人工智能時代的法律體系。
【本文作者為中國電子科學研究院研究員、美國福特漢姆大學訪問學者】
責編:趙博藝 / 蔡圣楠