国产亚洲tv在线观看,精品国产污污免费网站Av,欧美日韩无砖专区一中文字,亚洲欧美日韩国产综合五月天

網站首頁 | 網站地圖

大國新村
首頁 > 理論前沿 > 深度原創 > 正文

如何規避人工智能帶來的倫理問題

核心提示: 當前,人工智能是否會挑戰人類社會秩序,進而帶來倫理問題,已經成為各方關注的焦點。對于人工智能可能帶來的倫理問題,我們應通過完善相關立法、加強對相關技術與產品的管理力度,以及提升群眾的認知素養來進行規避。

【摘要】當前,人工智能是否會挑戰人類社會秩序,進而帶來倫理問題,已經成為各方關注的焦點。對于人工智能可能帶來的倫理問題,我們應通過完善相關立法、加強對相關技術與產品的管理力度,以及提升群眾的認知素養來進行規避。

【關鍵詞】人工智能  倫理問題  立法    【中圖分類號】B82-057    【文獻標識碼】A

2018年7月9日,在中國發展研究基金會和微軟公司聯合舉辦的《未來基石——人工智能的社會角色與倫理》報告發布會上,微軟公司總裁施博德指出,為設計出可信賴的人工智能,需要采取體現道德原則的解決方案,在給予計算機更強大力量的同時,也應當借助社會倫理對其進行合理引導。實際上,科技的發展是否會對人類的生存造成威脅,取決于人類是否能夠借助適應性的治理方式來應對。因此,面對人工智能可能帶來的倫理問題,我們需要做的便是合理規避。

人工智能可能會帶來何種倫理問題

人工智能帶來的究竟是福祉還是挑戰,這一問題其實已經在眾多文學、影視作品中進行過探討。比如,在《最強大腦》第四季首期節目中,植入百度大腦的小度機器人借助人臉識別技術與深度學習能力戰勝了世界記憶大師王峰;谷歌研發的人工智能“阿爾法狗”接連擊敗了各國圍棋高手,登上了人類智力游戲的頂峰。然而,當前部分以人機對戰為噱頭的綜藝節目,對人工智能的概念進行了曲解,人為地營造出了一種人機之間劍拔弩張的對立氛圍。事實上,這些對人工智能的曲解可能會導致真正問題的出現。

目前,人工智能可能帶來的倫理問題主要體現在兩個方面:一方面,一旦人工智能具備了超越機器的屬性,愈發類似于人的時候,人類是否應當給予其一定的“人權”;另一方面,人工智能正在逐步被人類賦予思想、學習和決策能力,在某些社會生產、生活領域逐漸替代人類,那么其在生產、生活中造成的過錯應當如何解決。針對這些情況,如何基于倫理視角引導人工智能服務于人類,已經成為人工智能發展必然要面對的問題。

美國學者雷·庫茲韋爾在《如何創造思維》一書中提出,至本世紀三十年代前后,人類將有能力制造出極為智能的機器人,其能夠與人類產生一定程度的情感聯系,并具備自我意識。因此,當前人類應加快討論可能出現的倫理問題,即一旦高智能機器人誕生,出現了自我意識,人類是應當遏制其進一步成長,還是給予其“人權”。部分學者認為,賦予人工智能以“人權”是對人工智能的放縱,將對人類的生命安全造成威脅。持相反觀點者則認為,人類能夠開發出符合人類道德的人工智能產品,因此可以給予人工智能部分基礎的“人權”。

當人工智能取代人類站在某些工作崗位上時,其造成的過錯應當由何人來負責,從責任倫理視角來看,這是值得討論的問題。比如,當人工智能取代了部分醫療人員的崗位,誤診出現時,人們應當向誰追責,是醫療機器人的使用方,還是生產方,抑或是其本身?實際上,這并非是遠離人類當前生活的問題,在測試階段便已事故頻發的無人駕駛汽車已然將這一問題推到了人類面前。

人工智能為何會帶來倫理問題

隨著人工智能技術的快速發展,其可能引發的倫理問題也愈發突顯。那么,人工智能為何會帶來倫理問題呢?

首先,是因為相關法律保障的不足。目前,人工智能的智慧增長速度日益加快,已然走進了人類生產、生活的各個方面,使人類深切地感受到了其帶來的便利。但當前針對人工智能的相關立法工作還較為緩慢。雖然人工智能的智慧程度還不足以撼動人類的主導地位,但人工智能的立法工作已然迫在眉睫。

其次,是因為相關技術的不成熟。以“阿爾法狗”與李世石的對戰為例,雖然“阿爾法狗”在運算能力上遠勝于人類,通過計算每一步的最大勝率來進行下一步操作,但其卻在第四局比賽中敗給了運算能力明顯更弱的人類。由此可知,人工智能極有可能在實際運作過程中出現問題,需要進行技術完善與優化。

最后,是因為人類片面的認知。Facebook研究團隊曾在試驗中令兩個人工智能機器人進行對話,但隨著對話的深入,人們發現人工智能竟然發明出了人類難以理解的特殊語言,這使得研究人員大驚失色,及時進行了干預,避免人工智能通過對話實現超出人類預期的升級。這一事件的發生,加劇了人工智能威脅論支持者的擔憂情緒,但作為反對者的扎克伯格則認為,人類花費大量資源研發人工智能,就是希望其在某些方面優于人類,以便更好地服務于人類。因此,從目前來看,人工智能引發倫理問題的重要原因,就在于人類對人工智能的片面認知。

如何規避人工智能帶來的倫理問題

一是完善相關立法。法律是保障人類各項基本權益的重要武器。首先,要加強事前立法,借助法律手段規范人工智能的發展,確保其始終在人類可控范圍內,規避可能發生的倫理問題。其次,要加強事中立法,即針對人工智能可能帶來的倫理問題進行相關立法,明確責任劃分依據與標準,從而保證研發責任人、生產責任人、銷售責任人以及使用責任人都能夠較好地履行自身對人工智能產品的義務。最后,要加強事后立法,確保人工智能技術得到廣泛運用,并進入群眾生活。總之,通過相關法律規范人工智能產品的開發與利用,能夠避免人工智能產品脫離控制,進而規避可能產生的倫理問題。

二是加強對相關技術與產品的管理力度。一旦技術發展成熟,人工智能便能夠正式參與人類生活。因此,我們要加強對人工智能技術與產品的管理,使其具備優良的“倫理品質”。首先,要加強對人工智能技術的管理,要對人工智能產品的應用程序進行審查,確保程序未被嵌入惡意性代碼。同時,要提高行業準入門檻,確保技術安全性。其次,要加強對人工智能產品的管理。每一個出廠的產品都應設置唯一的識別碼,同時,應在產品內部放置監控器,確保能夠對產品進行實時遠程控制,避免意外事件的發生。

三是提高群眾的認知素養。人工智能的發展方向很大程度上取決于人類自身。如果人類一味地拒絕接受該項技術,人工智能勢必無法服務人類;如果人類不假思索地接受該項技術,則勢必會為倫理問題的發生埋下隱患。因此,唯有提升群眾的認知素養,才能使人工智能更好地為人類服務。首先,應提高科研人員的認知素養,使其堅持對人類和社會負責,在人工智能研究方向、研究方法以及研究成果應用的過程中,始終保持謹慎的態度,既不因為應用效果較好而過分樂觀,也不因當前存在的不足而萬分驚恐,甚至全然抵制。其次,應提高普通群眾的認知素養,引導群眾認識了解人工智能,理性發展技術。

(作者分別為中國勞動經濟學會研究員;中國社會科學院研究生院博士研究生)

【參考文獻】

①張正清、黃曉偉:《作為“他者”而承擔道德責任的智能機器——一種人工智能成為道德能動者的可能性》,《道德與文明》,2018年第4期。

②潘宇翔:《大數據時代的信息倫理與人工智能倫理——第四屆全國賽博倫理學暨人工智能倫理學研討會綜述》,《倫理學研究》,2018年第2期。

③王勇:《人工智能時代的法律主體理論構造——以智能機器人為切入點》,《理論導刊》,2018年第2期。

責編/陳楠  孫渴    美編/宋揚

聲明:本文為人民論壇雜志社原創內容,任何單位或個人轉載請回復本微信號獲得授權,轉載時務必標明來源及作者,否則追究法律責任。

[責任編輯:趙橙涔]
標簽: 人工智能   倫理   問題  

    1. <menu id="zcyhi"></menu>