【摘要】人工智能技術發展如火如荼,也引發了相關法律問題的激烈討論。面對人工智能帶來的新型權利分配和責任承擔問題,有人提出應賦予強人工智能,甚至是特定的弱人工智能以某種形式的法律主體地位來應對。然而這一路徑看似便捷,卻忽視了人工智能無法充分承擔責任的情形,也未充分考慮人工智能發展與人類中心主義的社會規則產生的沖突。
【關鍵詞】人工智能 法律主體 人類中心主義 【中圖分類號】D90 【文獻標識碼】A
人工智能已成為近幾年的熱門詞匯,發展勢頭迅猛,這也同時引發了人們對人工智能可能造成的法律風險的熱烈討論,其中一個非常重要的理論問題就是人工智能是否應被視為法律主體。法律主體是能夠締結法律關系的“人”,因各個國家法律制度的差異,大致包括自然人、法人、非法人團體,甚至是一些非生命物體,如河流、公園、生態環境等。法律主體的確定對解決任何爭議都至關重要,因為只有先確定法律主體,才能接下來討論法律責任的分配問題。對人工智能應否被承認為法律主體的討論也因此而起。
人工智能可以劃分為弱人工智能和強人工智能,法律主體地位問題主要針對強人工智能
然而,并非所有人工智能都具備成為法律主體的特征。按照目前普遍接受的分類方式,人工智能分為弱人工智能和強人工智能。弱人工智能系統只能執行為其設計好的任務,如語言翻譯、導航等,除了其既定程序之外做不了別的事情,因此其能力范圍很窄。目前應用的所有人工智能,包括最復雜的通過機器學習以及深度學習來自主提升的人工智能,都屬于弱人工智能的范疇。強人工智能可以完全像人類一樣學習、認知、理解并行動,能夠完成多個目標,甚至可以在不確定或者模糊的情況下獨立設定新目標。事實上,強人工智能就是我們在電影、文學作品中所熟悉的機器人和人工智能的形象。但是,目前強人工智能還不存在,也有人對強人工智能究竟是否可能出現持懷疑態度。
因為目前應用的各類人工智能都屬于弱人工智能,也就是專注于且只能解決特定領域問題的人工智能,例如我們所熟知的AlphaGo。這些人工智能因能力所限,還屬于工具的范疇,是法律上的客體,人們對此定位并無爭議,也不在我們這里的討論范圍之內。人們爭議的焦點是強人工智能,即能勝任人類所有工作的人工智能。雖然目前技術上還無法實現強人工智能,但是很多科學家都很樂觀,認為這一天很快會到來,因此針對此類人工智能的法律主體地位問題開展前瞻性的討論非常有必要。我們后面所提到的人工智能都是指強人工智能。
不少人提出人工智能應成為法律主體,認為人工智能可以自主決策、享受權利、承擔法律責任
目前,國內外不少人認為應考慮賦予人工智能或者與法人主體類似或者具有一定限制的法律主體地位,主要基于以下幾點理由:一是人工智能可以自主決策,具備和人類一樣的“理性”和“自由意志”。持此觀點的人認為,法律上主客體的根本區別在于是否具有“自由意志”,人工智能可以自主決策,表現出與人類似的行為,能力與人類已經無異,符合法律主體的“自由意志”的要件,應賦予其主體地位。況且,人工智能表現得與人如此類似,人類很容易與之共情,再將其視為工具或者為人類服務的電子奴隸,倫理上和感情上都難以接受,賦予其法律主體地位才更為恰當。
二是人工智能可以享受權利。人工智能成為法律主體可以解決目前人工智能創造物的知識產權權利分配的難題。事實上,人工智能創作出來的歌曲、詩歌等已經達到了讓普通人類受眾難以將之與其他人類作品區分開來的水平,不少人認為應將這樣的作品視為知識產權意義上的“作品”。但是這種做法卻難以在由誰來擁有這個作品的問題上達成共識。目前認為由算法設計者或者人工智能所有者擁有作品,或者甚至使此類作品進入公共流通領域的解決方案都難以自圓其說,若承認人工智能為法律主體,則此類問題立即迎刃而解。
三是人工智能可以承擔法律責任,從而解決人工智能致害的責任分配問題。在人工智能可以享受權利的情況下,其既可以擁有知識產權權利,也可以擁有其他財產權利以及獲得報酬等。因此,在對其他法律主體造成損害的情況下,人工智能可以用其所擁有的財產提供金錢上的救濟。從這個意義上來講,人工智能與法人非常類似:獨立決策、擁有財產并承擔法律責任。而且因為人工智能自主決策,其導致的損害如果讓設計者、生產者或者擁有者其中任何一方或者共同來承擔責任都有失公平,讓人工智能獨立承擔責任更為恰當。
人工智能成為法律主體存在不少潛在風險,不應賦予人工智能法律主體地位
盡管人工智能成為法律主體可以解決上述諸多問題,但是此種做法帶來的不利后果卻應更加重視。首先,人工智能的自主決策能力是算法運行的結果,是對人類行為的模擬,而非其自發產生的能力。實際上,人工智能是人造出來的產物,其生命產生機理以硅基為基礎,與人類這樣的碳基生物完全不同。因此,盡管人工智能可以學習、思考、決策,卻不會與人類一樣感受痛苦,也不必面臨死亡。如果人工智能成為法律主體,因為其能力已經與人類無異,將來甚至有可能迅速過渡到超人工智能時代。屆時整個社會將不再以“人類為中心”。人工智能也許可以與人類和平共處,但其更有可能成為人類的強大競爭對手,而且因其不會死亡,無法感知痛苦,允許人工智能成為和人類一樣的法律主體,人類很可能失去主體地位,淪為客體,甚至滅亡。
其次,權利對人工智能可能具有與人類不同的意義。人工智能作為法律主體,可以享有大部分其他法律主體享有的權利,如包括知識產權在內的財產權利,締約權利,甚至言論自由權利等。但是人工智能作為人造物,其價值追求與人類并不一定相同,這些權利對其而言可能并不具備與對人類相同的價值。比如人工智能無需積累財富,提升生活水平,追求幸福等。人工智能也可能不像人類那樣有各種各樣的消費需求。因此,人工智能在對其財產作出處分決定的時候可能并不會遵循人類社會的經濟規律。如果為了規避這一問題而給人工智能配備監護人,則人工智能的“自主決策”能力就失去了意義,也為人類主體侵犯人工智能的財產權利留下了空間。
最后,人工智能承擔的法律責任有限。人工智能致人損害時,僅能通過金錢賠償的方式提供救濟,在此種救濟方式不充分的情況下,通常適用于人類的懲罰方式如緩刑、監禁、死刑等都不適用于人工智能,因為人工智能既不會感知痛苦,也不會死亡,有些甚至沒有固定的實體,這些刑罰方式對人工智能沒有震懾作用。雖然人工智能可以比較充分地承擔民事責任,但是其作為與人類一樣擁有“自由意志”的法律主體,自主決策,并非像其他非人類主體一樣由人類代表其意志,卻可以不受懲罰地侵害其他法律主體的利益,或者更確切地說,懲罰方式對人工智能失去了效用,就會形成一塊法律責任的“真空地帶”。這就造成了一個局面,即能力上人工智能與人類相同,行為后果上,人工智能比人類承擔的責任要少。在這種情況下,承認人工智能的法律主體地位,人類相當于主動把自己置于一個劣勢的不平等位置,可能導致人類受到人工智能的欺壓,甚至直接面臨生存危機。
從上面的討論中,我們可以看出:人工智能不應被承認為法律主體,因為人類將為此承擔不必要的風險,甚至有可能威脅全體人類的生存。但是人工智能技術的發展不容忽視,未來必將更多地融入并影響人類的生活。應對人工智能引發的法律問題,一方面需要深入研究如何規范人工智能算法的倫理,使設計者、生產者和使用者都成為利益相關者,盡量增強算法的透明度和可解釋性,確保人工智能技術的發展與人類的價值和愿望相符合。另一方面,可能需要我們打破傳統的主客體二元范式,不再局限于傳統的人類以及非人類法人實體的討論,創造出新的可以適用于人工智能的規則。
(作者為對外經濟貿易大學英語學院講師)
【注:本文系北京市社科基金青年項目“首都人工智能發展中的民事責任研究”(項目編號:18FXC019)的研究成果】
【參考文獻】
①吳漢東:《人工智能時代的制度安排與法律規制》,《法律科學》(西北政法大學學報),2017年第5期。
②潘文軒:《人工智能技術發展對就業的多重影響及應對措施》,《湖湘論壇》,2018年第4期。
責編/于洪清 美編/王夢雅
聲明:本文為人民論壇雜志社原創內容,任何單位或個人轉載請回復本微信號獲得授權,轉載時務必標明來源及作者,否則追究法律責任。