国产亚洲tv在线观看,精品国产污污免费网站Av,欧美日韩无砖专区一中文字,亚洲欧美日韩国产综合五月天

網站首頁 | 網站地圖

大國新村
首頁 > 理論前沿 > 深度原創 > 正文

人工智能帶來的倫理與社會挑戰

【摘要】人工智能所引發的一般性倫理與社會問題包括:失業問題、隱私問題、算法偏見、安全問題、機器權利和道德代碼等。為了應對人工智能帶來的倫理與社會挑戰,世界各國和相關國際組織都開始致力于推動人工智能倫理與社會問題的研究,積極建立規范與指南,推動社會各界就人工智能的倫理與社會監管達成共識。

【關鍵詞】人工智能  機器倫理  社會挑戰    【中圖分類號】TP18    【文獻標識碼】A 

人工智能(Artificial Intelligence,簡稱AI)起源于人類的幻想,1651年英國學者霍布斯(Hobbes)在《利維坦》一書中指出可以制造一種“人工動物”,正因如此,歷史學家戴森(Dyson)稱霍布斯為人工智能的先驅。早期的人工智能只能基于預先設定的程序完成一些需要進行大量計算的具體任務,如下象棋、拼接圖案、進行圖片分類、回答簡單問題等。當前借助深度學習等最新技術,一些人工智能設備實現了全自動化,能夠自主推理解決現實生活中的問題,如語言翻譯、自動交易、人臉識別、無人駕駛等。人工智能技術的開發和應用將深刻改變人類的生活,不可避免會沖擊現有的倫理與社會秩序,帶來一些倫理與社會問題。

人工智能的發展會帶來一定的失業擔憂

在許多領域,人工智能有望在一些特定類型的工作中取代人類,如流水線生產、汽車駕駛等。早在20世紀80年代,人工智能發展和應用尚未成熟之時,就已有學者對人工智能可能引發的就業問題進行了討論。諾貝爾經濟學獎得主列昂季耶夫(Leontief) 曾預測未來三四十年將有大量工人被人工智能取代,從而形成巨大的就業與轉業問題,就像上世紀大量馬匹被機械取代一樣,只不過這些后果將發生在人的身上罷了,除非政府能夠對新技術帶來的紅利進行再分配。然而,多數人對人工智能發展的經濟影響持樂觀態度,認為人工智能在取代現有工作崗位的同時,還會創造出很多新的就業機會,就像機器大工業出現后,大量農民轉變為工人那樣。

從長遠來看,人工智能將是推動社會生產力前進的強大動力,能夠創造出大量的新的社會財富,使人類擁有更多的可自由支配的時間。但是,人們對人工智能引發失業問題的擔憂并非只是杞人憂天,至少這種擔憂隱含著一個深層次的問題,即如何讓每個人都能夠從人工智能所創造的財富中獲得收益,而不是一部分人獲得財富與自由,另一部分人卻失去工作,陷入生活相對貧困之中。

人工智能的發展可能會侵犯人的隱私

人工智能的發展離不開大量數據的積累,通過大量數據訓練算法,可使人工智能具備更加顯著的問題解決能力,但這也使個人的隱私受到了威脅。大數據并非只是針對數據規模而言的,它通常具有3V性質,即海量(volume)、多樣(variety)和實時(velocity)。在大數據技術和設備的支持下,個人的很多重要信息,如健康信息、位置信息和網絡痕跡等,都可以被實時地采集和保存。應用數據挖掘技術,數據掌控者可以基于不完全的、模糊的碎片數據很方便地提取出一些有用的個人信息。這樣,個人便失去了對自身隱私的控制,一些隱私甚至處于隨時被窺探的狀態。例如,谷歌旗下的一家位于倫敦的公司近期已獲取了三家醫院近160萬病人的醫療數據,其中就涉及到非常敏感的個人健康信息。

現有的商業模式高度依賴對消費者數據的分析,因此消費者通過讓渡隱私權獲取相應收益的行為會受到多方鼓勵。隨著人工智能技術的發展,這些主動提供的個人信息,與不經意間暴露的個人信息以及被非法竊取的個人信息一道,都有可能被應用于牟利。因此,如何在人工智能的發展過程中加強對個人數據的管控和對個人隱私的保護,已成為必須予以關注的問題。

人工智能可能隱含著各種算法偏見

人工智能的算法雖說只是一種數學表達,看似與價值無涉,但實際上卻不可避免地存在著主觀偏見。這種偏見的來源是多方面的,既有可能來自于訓練系統的數據輸入,又有可能來自于編程人員的價值觀嵌入。當算法使用過去的數據來預測未來時,那么計算結果便會受到所輸入的數據和所設定的模型的影響。如果偏見已存在于算法之中,經深度學習后,這種偏見還有可能在算法中得到進一步加強,形成一個“自我實現的歧視性反饋循環”。例如,一位哈佛大學的非裔美籍博士生發現,她使用谷歌進行搜索時計算機屏幕上會出現“你是否有被捕記錄”的廣告,而白人同學進行同樣的搜索時并不會出現這一廣告。其原因在于谷歌在設定算法時將黑人常用名與“你是否有被捕記錄”的廣告聯系在一起了。這說明機器處理各類數據的算法中,很可能隱含著某種偏見。

與人類決策相比,基于人工智能的決策有望極大地減少重要決策中的偏見。但我們也應注意到,人的偏見是個體化的、局部性的,而人工智能算法的偏見則是系統的,一旦形成將會產生廣泛的影響。因此,有必要盡最大努力將那些違反社會共識與法律規范的偏見,從人工智能的算法中清除出去。

人工智能的應用可能會對人身、財產安全構成威脅

人工智能機器對任務的解讀可能會出現偏差,這將導致人工智能機器根據錯誤的理解,以錯誤地方式來完成任務,如我們將人工智能機器的任務設定為讓我們微笑,其可能以麻痹人類面部肌肉的方式來實現。當人工智能機器把在特定環境中學習到的行動策略應用到新的環境,可能會帶來負面后果,如清潔機器人將在工廠環境中學習到的粗放工作方式應用到家庭環境,可能會破壞物品。

人工智能技術可能被用于開發武器,借助人臉識別、自動控制等技術開發的人工智能武器,可以實現全自動攻擊目標。如果賦予人工智能武器自行選擇并殺害人類的能力,將給我們的人身安全與自由構成極大威脅。除此之外,人工智能還有許多其他值得探討的安全問題。這些問題都應在技術產品商業化之前,予以妥善解決。

人工智能的發展可能會引發機器權利爭論

未來的人工智能機器可能具備人類的思維和情感能力,并深入參與社會生活。這時,我們必須考慮是否以及如何保護人工智能機器的道德地位和法律權利。

在家庭領域,若人類與人工智能機器人建立了情感聯系,我們可能需要以人道方式對待它們。陪伴型機器人不僅具備人的外貌特征,也可以對人類的情感進行識別與回應。在外貌方面,機器人與人類的相似程度一旦超過一定界限,人與機器之間可能產生移情作用。在情感方面,軟銀公司開發的機器人已可以通過面部表情和語調來判斷人類情感,實現了機器與人的情感互動。

在商業領域,人工智能創作引發了知識產權問題的廣泛討論。20世紀50年代,美國就曾出現“機器創作”的法律屬性爭論,然而最終美國版權局明確規定其保護范圍僅限于人的創作。人工智能發展將使機器人具備了更強的創作能力,如何界定這些知識產品的法律歸屬是一個亟待解決的問題。例如,谷歌機器人可以作畫,機器人“薇薇”可以創作詩歌。在這方面,日本政府計劃給機器人的創作權予以保護,并擬修訂《著作權法》。

人工智能有可能會獲得完全的道德自主性

未來,隨著人工智能道德自主性的提升,人工智能將從完全由人做出道德判斷到獲得完全的道德自主性。如何賦予人工智能道德判斷能力,是開發人工智能技術面臨的一個現實問題。道德是人類社會中特有的現象,因此,將人類的道德規范寫入人工智能程序是解決這一問題的最直接方式。這時,人工智能程序作為人類的道德代理來完成任務,其道德行為在人類的可控范圍之內。

如果技術進一步發展,人工智能可能具備完全的道德自主性。美國達特茅斯學院的摩爾(Moor)教授認為達到這一狀態的標準是人工智能程序具備成年人的平均道德水平。在這一階段,人工智能將自主制定行動策略、自主做出道德選擇,其行為將不受人類控制。這將給現有的社會秩序與倫理規范帶來強烈沖擊。為了避免出現這一局面,需將人工智能的道德自主性限定在合理范圍,使其行為可被人類預期。

人工智能社會問題的規范

人工智能應用可能帶來的各種倫理與社會問題已經受到廣泛關注。近年來,世界各國和相關國際組織已開始致力于推動人工智能倫理與社會問題的研究,積極建立規范與指南。

第一,評估道德風險。2016年9 月,英國標準協會(BSI)發布《機器人和機器系統的倫理設計和應用指南》,旨在幫助機器人制造商在設計階段評估產品的道德風險,包括機器人欺詐、機器人與人的情感聯系、種族及性別歧視等。

第二,明確人類優先。2016年12月,電氣和電子工程師協會( IEEE)發布《以倫理為基準的設計指南》,鼓勵科研人員將倫理問題置于人工智能設計和研發的優先位置,強調人工智能應當符合人類價值觀,服務于人類社會。

第三,建立共識網絡。2017年1月,來自全球的人工智能領域專家在Beneficial AI會議上聯合簽署了“阿西洛馬人工智能原則”,明確了安全性、利益共享等23條原則,并呼吁人工智能領域的工作者遵守這些原則,共同保障人類未來的利益和安全。

在社會各界的努力下,我們有理由對人工智能的發展保持樂觀的態度。縱觀技術發展歷史,人類一邊創造新的技術,一邊又適應這種技術。核能、克隆等技術的發展過程都伴隨著各種擔憂,隨著人們就倫理問題達成共識,技術發展得到有效的監管。解決人工智能的倫理與社會問題,要求相關部門采取必要的監管措施,對新出現的諸如就業、隱私等問題有更好的把握,削弱人工智能的不利影響,努力實現人工智能與人類之間的和諧共生。

(作者分別為北京大學哲學系教授、博導,醫學人文研究院院長;北京大學醫學人文研究院博士后、講師)

【參考文獻】

①Nilsson N J, The Quest for Artificial Intelligence: A History of Ideas and Achievements, Cambridge University Press, 2009 : 13.

②曹建峰:《怎樣應對人工智能帶來的倫理問題》,《學習時報》,2017年6月14日。

③[英]波斯特洛姆著,張體偉、張玉青譯:《超級智能:路徑、危險性與我們的戰略》,北京:中信出版社,2015年。

④杜嚴勇:《情侶機器人對婚姻與性倫理的挑戰初探》,《自然辯證法研究》,2014年第9期。

⑤竇新穎:《人工智能創作不斷沖擊現有法律》,《中國知識產權報》,2017年6月2日。

⑥段偉文:《機器人倫理的進路及其內涵》,《科學與社會》,2015年第2期。

責編/溫祖俊    美編/楊玲玲

上一頁 1 2下一頁
[責任編輯:張蕾]
標簽: 人工智能   倫理   社會  
  • <dfn id="3kwm1"></dfn>
    <dfn id="3kwm1"><div id="3kwm1"><label id="3kwm1"></label></div></dfn>

      <abbr id="3kwm1"></abbr>

      1. <menu id="3kwm1"><nobr id="3kwm1"></nobr></menu>