【摘要】人工智能技術在推動社會發展的同時也對社會秩序造成了一定沖擊。面對這樣的問題,應以法律為武器調整科技與社會之間的關系。我國人工智能發展法治建設要正確認識人工智能發展的社會影響,明確技術開發者的法律責任,加強對人工智能技術發展的法律監督,并同步強化倫理道德建設,促進人工智能技術與社會的穩步發展。
【關鍵詞】人工智能 科技 法律 倫理道德 【中圖分類號】D92 【文獻標識碼】A
人工智能技術已經成為下一輪科技競爭的焦點,世界各國也紛紛布局人工智能發展戰略,搶抓新的發展機遇。2017年7月,國務院印發《新一代人工智能發展規劃》,將發展人工智能技術納入到國家級戰略規劃的層面當中。面對人工智能技術日新月異的發展,我們也要深刻認識到“科學技術是一把雙刃劍”,建立完善相關法律法規,規范人工智能的發展。
以人工智能為代表的科技快速發展往往會導致法律秩序產生新的變化
科技的快速發展改變了傳統的社會關系,擴大了立法范圍。在經濟社會中,科技往往表現為能夠推動社會發展的生產力,這就必然會導致生產關系發生同步變化,新的法律問題也就會隨之出現。要想解決與之對應的社會矛盾需要不斷擴大立法范圍,增強對科技本身以及社會發展的監管。現如今,科技法在我國已經成為了一個獨立的法律部門,同時其規模體系也在不斷趨于完善。借鑒其他國家面對科技發展的立法經驗,現階段我國科技法的基本做法是通過立法來干預科技發展的方向,并對因科技發展而異化的社會關系進行調整。當前我國已經進入到科技發展的快車道,科技立法工作也必須要同步跟進才能滿足社會的發展需求。
在知識經濟時代,科技發展本身也屬于社會經濟活動的一部分,需要以法律維護科技創新的健康穩定發展。隨著創新驅動發展戰略的全面推進,科技創新在社會生產中的重要性逐漸凸顯出來,同時圍繞著科技發展所展開的資源爭奪、市場競爭變得異常激烈,這些都要求我們必須要圍繞科技發展的基本情況,出臺行之有效的法律法規,引領科技發展走上正確的道路。
人工智能技術的發展是人類歷史上一次偉大的技術革命,同時也將對人類社會的既有法律秩序造成強烈沖擊。我國現行法律法規缺乏對人工智能影響的充分考慮,在對受人工智能影響的社會加以引導與調整上存在不足。為此,就需要建立健全人工智能法律體系,降低技術發展對社會公眾所造成的潛在負面影響,同時為人工智能的發展提供一個和諧穩定的法治空間。由于人工智能技術屬于多學科的交叉技術,所涉及的內容相對較為復雜,人工智能法律創新必須從實際出發對既有法律法規進行升級,促進社會與技術發展。
明確界定人工智能技術開發主體所須承擔的對應法律責任
人工智能技術與傳統科技之間最大的差異在于能夠實現對人的模擬,完成開發的人工智能技術具有類似于人的思維能力,甚至能獨立展開思考。由此可見,人工智能技術對人類社會所帶來的沖擊將會是前所未有的。人工智能技術的開發者作為潛在風險的創造者必然需要承擔相應的法律責任。
要明確界定人工智能的成果的法律歸屬問題。人工智能技術最大的優勢在于能夠獨立完成一些具有創新性的工作,那么由人工智能技術所生產的新知識也具有知識產權的基本特征。實際上由于人工智能技術并不能像人一樣去行使自己的知識產權權利,同時技術本身也無法作為人工智能的法律主體。因此,應當將知識產權歸屬于人工智能技術的生產主體,歸根究底人工智能技術所生產的新知識依然是由人所創造的算法而生成的,其本質依然是人的主觀能動創作。法律法規也需要補充相關規定,將人工智能技術的創新成果歸于技術主體。另外,為了避免人工智能技術用于違法犯罪等不合理的場景,對于人工智能技術所造成的負面效應也應由技術主體承擔。
嚴格規范人工智能技術的生產、銷售與使用等多個環節,降低人工智能技術對社會發展的非理性沖擊。一是要對人工智能技術的開發者進行嚴格的法律約束,要求所有開發者必須要堅持以人為本的基本理念,堅守社會道德倫理,切不可故意挑戰正常的社會關系,對于濫用人工智能技術的開發者要給予嚴厲的法律制裁。二是要給予人工智能技術的銷售者與使用者必要的法律約束,引導社會公眾正確對待人工智能技術,合理應用人工智能技術。對于所有從事人工智能產品銷售的商家要嚴格遵守法律法規規定,銷售合格的人工智能產品,使用者也要在具體產品的說明指引下合理利用人工智能技術,并且不能對他人的合法權益造成損害。同時,法律還需要明確界定人工智能技術所引發的損害中不同主體的責任分擔機制。三是應要求所有新興人工智能產業建立產品溯源機制,為社會公眾所面臨的潛在科技風險提供充分的法律支撐。四是要規范人工智能技術對公民信息的加工利用。現如今人工智能技術在大數據層面的應用最為廣泛,而其中最為成熟的就是在消費數據挖掘方面的應用。為此,要加強對公民信息安全與隱私的法律保護,應禁止任何主體利用人工智能技術侵犯公民的信息安全。
人工智能技術的法律規制既要落實法律監督也要加強倫理道德建設
加強對人工智能技術的法律監督,降低潛在發展風險。一是對人工智能技術的發展要抱有敬畏之心,對可能存在的潛在風險要從技術發展之初就做好防控措施。法律監督是實施技術發展風險全方位布控的重要手段,立法者要密切關注人工智能技術發展動態,確保風險防控法治化進程的有效落實。例如,立法機關在通過加強對人工智能的專利保護激勵相關主體提升技術創新熱情的同時,也要有效規避因人工智能技術的不合理使用而引發的不必要風險。與此同時,人工智能法律法規還需要在現行科技法的基礎之上建立對人工智能技術開發、應用等全過程的法律約束,并明確不同行為所需承擔的法律責任。二是需要進一步明確技術防控的法律職責,提升人工智能技術風險防控效率。人工智能技術風險防控切不可脫離技術層面而實施純粹的“法律監督”,但技術防控也需要借助法律的權威性方可實現。在具體法律實踐當中,與技術防控相關的法律監督主要體現在政策的制定、倫理規制的構建以及法律法規的優化,要將責任制落實到這些工作當中,賦予不同主體對應的技術防控責任。三是充分借調社會力量參與人工智能發展法律監督當中,完善風險防控機制。現行法律制度需要從長遠角度出發明確社會公眾監督對于人工智能技術發展的重要意義,為此,應將引導公眾反饋人工智能技術細節的法律職責歸置于企業或技術開發者身上,引導企業與開發者通過多路徑落實社會公眾對人工智能技術發展的監督。
人工智能時代社會關系的調整還需從倫理道德方面發力。法律與道德是調整社會關系的兩大重要武器,通過倫理道德的調整范式社會矛盾能得以有效緩和。針對人工智能技術所產生的潛在社會秩序矛盾,倫理道德也能充分發揮積極的作用。另外,倫理道德相比于法律更加靈活,對技術發展的適應性也更強。法律的制定較為嚴謹,需要經過繁瑣的立法程序,耗時較長,在時效性方面相對較弱,這與人工智能技術的快速發展之間存在著明顯沖突。然而倫理道德則能夠對技術發展保持高度的敏感性。近年來,美國、德國、日本等人工智能發展較為迅速的國家都強化了倫理道德的建設來應對人工智能技術的潛在風險,谷歌、甲骨文、百度等人工智能技術企業也增強了人工智能專家的倫理職責,并對人工智能技術的社會學屬性進行了全方位的解讀。由此可見,在借助法律作用規制人工智能技術發展的同時,也要突出倫理道德的優勢,進一步加強對人工智能技術發展的監管。一方面,要制定人工智能倫理道德準則,設置人工智能技術發展的道德底線,始終將人工智能技術控制在理性倫理范圍內。另一方面,要通過倫理道德去約束科技工作者,倡導科技工作者以社會需求為導向開發人工智能技術產品,促進社會和諧。
(作者為西安交通大學法學院博士研究生)
【參考文獻】
①梁志文:《論人工智能創造物的法律保護》,《法律科學》(西北政法大學學報),2017第5期。
②吳習彧:《論人工智能的法律主體資格》,《浙江社會科學》,2018年第6期。
③程龍:《從法律人工智能走向人工智能法學:目標與路徑》,《湖北社會科學》,2018年第6期。
責編/于洪清 美編/陳琳(見習)