人工智能治理難題
盡管對人工智能風險認識和評價有相當大的分歧和爭議,但學界、業界以及政界對人工智能治理的必要性已形成基本共識。不僅霍金、馬斯克等人發起倡議的《人工智能23條原則》,強調人工智能的規范發展必須納入正確軌道,而且各國政府和行業協會在其人工智能發展戰略規劃或行業報告中,都有比較明確的人工智能監管和治理要求,如2016年9月,英國標準協會發布《機器人和機器系統的倫理設計和應用指南》,是業界第一個關于機器人倫理設計的公開標準,旨在指導機器人設計研究者和制造商如何對一個機器人做出道德風險評估,以保證人類生產出來的智能機器人能夠融入人類社會現有的道德規范。⑦2016年6月,日本AI學會的倫理委員會發布人工智能研究人員應該遵守的倫理指標草案,以引導和規范研究人員正確處理人工智能進一步發展導致的倫理道德、安全問題。⑧美國的《國家人工智能研究和發展戰略計劃》全面搭建了美國推動人工智能研發的實施框架,并強調保障人工智能系統的友好性,推動人工智能系統的公平、透明與符合倫理。同時,確保人工智能系統的安全可靠,提高信任度、可驗證和可確認性,并實現自我安全防御與優化。⑨
問題的關鍵不是人工智能需不需要治理的問題,而是人工智能究竟應該如何治理、治理什么的問題,人工智能本身的復雜性特征使得人工智能在治理機制設計和構建中遭遇多重難題。
首先是事前的風險識別和預防難題。不同于原子能、化工等研究開發的基礎設施的大規模性、風險源的明確性,監管者或治理行為體能夠非常容易地確定潛在的公共危險源的制造者和發生地。人工智能研發具有秘密性、分散性、不連續性及不透明性。秘密性是指人工智能的研究與開發只需要極少的可見設施;分散性是指研究人工智能系統不同組成部分的研發人員可能分布在不同的地方;不連續性是指人工智能的研發不需要所有的部件同時就位,也不需要不同部門的研究人員通力合作;不透明性,是指人工智能系統運行可能處在秘密狀態,由于信息的嚴重不對稱,外部人員很難發現人工智能系統中潛在的危險而無法采取針對性的監管措施。⑩人工智能這些特征,為其事前監管帶來許多不便,也為有效的人工智能治理設計帶來困惑,畢竟科學的風險識別和預防機制的構建是治理有效性的關鍵。
其次是風險發生的不可預知性難題。人工智能與其他傳統科技最大的不同是可以獨立完成預定任務的自主性,但是人工智能自主行為與人類的決策和行動存在根本的不同,盡管人工智能系統設計總是模仿人腦的工作方式。人類智能由于其在限定的時間里的計算速度有限,很難在窮舉中得出最優解,而往往通過經驗、直覺等方法得出自認為滿意的答案,而非一個最佳的解決方法,經濟學家Herbert Simon稱之為“滿意法”。?而人工智能通過合并算法和深度學習可以在極短的時間內精確計算所有的可能性,從而使得它們能夠選擇人類完全沒有考慮過而“出人意料”的解決問題方法,做出的結論可能同人類的認知系統做出的決策產生極大的不同。一個能夠自主學習的人工智能系統的行為部分依靠其后天的經歷,即使是最細心的設計者、編程者以及制造者都沒有辦法控制或者預測人工智能系統在脫離他們之后將會經歷些什么。?所以,人工智能的不可預知性,使得人工智能系統在做出難以預測的損害性行為時,讓設計者承擔責任可能會導致不公平和非正義。值得注意的是,對于產品生產者的嚴格責任,規定有“當前科學水平尚不能發現缺陷”的免責事由。但是這項免責事由在人工智能領域是否適用值得討論。盡管在深度學習訓練數據和學習過程存在不可預見性,但考慮到人工智能的算法完全由開發者編寫,開發者對風險源頭具有絕對的控制力,司法機關可能會推定開發者應當預見算法執行中的可能風險或要求開發者對風險程度的增加承擔責任。
再次是事后責任認定和分配的難題。以規則為基礎的治理是現代治理的根本特征,法律法規作為正式規則主體形式使得“法治”構成有效社會治理的核心,人工智能的治理難題集中表現為法律困惑和政策困境。一是人工智能的不可控性導致的監管兩難。隨著人工智能技術升級到強人工智能階段,不可控性可能成為一個嚴峻的問題,未雨綢繆人工智能的局部失控乃至可能出現的全面失控是當代人的責任。從現在來講,各國不會像用法律禁止克隆人一樣規避人工智能風險,人們所焦慮的是如何在不束縛人工智能良性發展的前提下最大限度地防控人工智能風險。二是人工智能風險主體的多元性和不可預知性問題也導致了對其監管的法律困惑,由于參與人工智能系統部件的主體多元和不可預知,很難確定出責任主體。例如,人工智能系統的部件的制造者可能沒有想到他們生產的部件被用在了人工智能系統上,如果造成了損害就更非他們的本意了。在這種情況下,將責任分配給人工智能系統某一部件的設計者,就顯得非常的不公平,同樣,人工智能系統運轉的不透明讓法院也不能輕易判斷將人工智能系統造成第三人損害的責任歸責于運營者還是使用者。三是人工智能法律主體的難題。人工智能的自主性隨著人工智能技術進步進化到強人工智能階段后,人工智能載體如機器人是不是人格意義的道德體、行為體乃至法律主體?由于機器可以像人類一樣獨立思考和決策,該階段的人工智能如果和人類一樣,成為獨立的主體享有權利,并對自己的行為承擔責任,傳統法律體系將產生巨大的沖擊。?