国产亚洲tv在线观看,精品国产污污免费网站Av,欧美日韩无砖专区一中文字,亚洲欧美日韩国产综合五月天

網站首頁 | 網站地圖

大國新村
首頁 > 人民智庫 > 專家觀點 > 正文

為何擔心人工智能沖擊國際安全

科學家普遍認為,當前人工智能尚處于“弱人工智能”階段,即只能出色地完成某一項特定的任務或解決某一類特定問題。但也有一些專家斷言,人工智能軍事化就如同1945年美國第一次進行的核爆實驗及在長崎和廣島投下的原子彈般橫空出世,一定會給國際戰略格局帶來范式性的沖擊。然而,這場革命究竟會如何向世人呈現其真實全貌還未可知。但就武器產生的變革效應和方式而言,核武器與人工智能在性質上頗為不同。核武器在誕生之初即展示出驚人的破壞力,進而對國際安全和國際軍控產生顛覆性的深遠心理和物理影響。而人工智能是賦能技術,必須與其他武器技術相結合才能引發戰場革命。一些比較悲觀的專家則進一步預言,現有理論研究的內在不足將限制人工智能的發展前景,人工智能在未來無可避免地陷入“寒冬”。既然人工智能帶來的革命性影響是一個未知數,為何國際社會開始急于尋找關于人工智能的國際安全治理的答案呢?

當下的三種爭論

我們在近期眾多的國內外會議以及相關文獻中發現,包括政策制定者、科學家、工程師、政治學者在內的專業人士對人工智能是否會沖擊國際安全及如何沖擊國際安全,其實持有頗為不同的觀點和視角。倘若以人工智能對國際安全的影響程度來區分,這些討論大體可被歸為三種,即主張革命性沖擊的變革派、尚未達到“質變”的演進派以及影響受限的謹慎派。

在這場大爭論中,變革派預測人工智能將對國際安全產生顛覆性影響,斷言其軍事影響力可與核武器相提并論。在他們看來,人工智能在軍事領域的廣泛應用極大地提高了士兵的戰場態勢感知能力和戰略決策效率,其與機器人的結合一定會顯示出比人類要強大得多的行動力和協調力。在核戰略較量中,戰略威懾不僅通過理性計算和技術實施,而且也是最高決策者之間的心理較量。而深度學習算法可排除恐懼、焦慮和疲勞引發的錯誤認知和判斷,剔除人類心理的干擾作用。盡管決策者獲得了更加理性的政策建議,但人工智能介入戰略博弈反而加大了對手理解信號的難度。人工智能賦能的自主武器具備成本低、反應迅速、打擊精準的優點。為了追求更大的戰場優勢和國際權勢,一些國家會謀求大量部署自主武器,繼而引發軍備競賽;或者減少對智能武器的限制,最終出現完全自主的致命性殺傷武器。此外,科技的不斷發展還會侵蝕戰略威懾的基礎,動搖大國間越發脆弱的戰略穩定。擁核國家將加強部署更具有生存能力的第二次打擊,確保對手不敢發動第一次打擊。因此,確保報復可信度成為大國核戰略博弈的重要基礎。變革派認為,人工智能目前尚存缺陷的探查能力可剛好削弱第二次核打擊能力的可信度,進而威脅到防守方的核報復打擊能力,顛覆大國核戰略博弈的理論前提。

演進派則認為人工智能更應被看作是武器的“放大器”,其作為武器本身并不是直接引發國際安全范式性變革的主要因素。他們并不否認人工智能有潛力掀起一場戰爭革命,但推斷它對軍事的影響是演進性的。盡管一些國家有可能為了擴大自主武器帶來的戰略紅利而將無人化和智能化作為技術發展方向,但人類的理性和合作精神始終是決定性因素。致命性自主武器的戰場投放面臨著諸如道德和法律的約束、戰略文化的限制以及官僚機構的制約。這些抑制性因素決定了人類在戰爭中的決定性地位不會被最終替代。演進派認同人工智能加大戰略不穩定性的觀點,但強調人工智能尚未導致國家陷入你死我活的困境中。在理想的情況下,如果獲取更全面的情報和分析,一定程度上會降低戰爭風險。即使人工智能可定位一國的導彈發射井,戰略對手也可提升發射井的打擊承受力,從而保留第二次打擊的戰略性力量,形成戰略威懾。①

相比于變革派和演進派對人工智能的信心,謹慎派認為人工智能給國家在戰爭中帶來多大的好處模糊不清。新美國安全中心研究員保羅·斯查瑞指出,操作人員能否適應復雜的人工智能系統,人工智能系統是否能不被惡意操控,都是重要的安全問題。②對戰場具有革命性影響的新技術往往會復雜化戰略決策和決策組織間互動的過程。作戰部門適應人工智能復雜系統的速度不同,可能給各個部門間協調造成障礙,反而降低軍事部署的效率。而且,人工智能無法理解人類與生俱來的意圖、期望、情感以及戰爭中的榮譽。這種缺乏理解阻礙了創建安全、高效的人機協作關系。不論是在戰場上還是在官僚機構中,部署人工智能都要面臨長時間的安全審查。在某些傳統的戰略文化制約下,新技術所起到的效用可能不如預期。尤其是在人工智能技術還不夠成熟的背景下,一個更為謹慎的觀點是不應將其用在高度敏感的核安全領域。此外,人工智能未來發展面臨技術發展的瓶頸期阻滯,會顯著偏離很多國際安全專家的樂觀期待。一些專家斷言,現在的人工智能算法家族的發展潛力只有十年。如果沒有很多重要技術諸如高效的芯片和先進的量子計算機的跨越式突破,將根本性地限制人工智能的未來發展。③

目前來看,人工智能未來的發展充滿不確定性,在現實應用中的表現也不如想象的完美。或許,正是因為以上兩點剛好能允許戰略博弈的雙方找到應對方法,進而給這場爭論創造了巨大空間。一方面,變革派對人工智能技術的未來發展報以極高的期待,但對人類事務的看法十分悲觀。這讓他們能夠以敏銳的目光發現國際安全面臨的潛在挑戰和安全問題的本質。另一方面,部分謹慎派的人工智能專家對這項技術的未來發展持保守態度。他們的悲觀預測反而使決策者和國際安全研究者緊張的神經得到放松。不同于變革派將人工智能影響最大化的邏輯,演進派仍然在現有國際安全現實結構和秩序中展開討論,決定了他們必然犧牲部分長遠和深邃的戰略眼光。然而,他們的研究在人工智能還沒有帶來即視的安全沖擊的當下,提供了國際安全治理的可能線索。只要人工智能帶來的安全挑戰不是顛覆性的,當下圍繞人工智能競爭激烈的中美兩國就可以在歷史經驗和現有理論中找到大國協調的答案,存在共同維護戰略穩定和構建國際規范的相對確定預期。

人工智能增加了國際安全的不確定性

在人工智能競賽中,有贏家,也有輸家。沒能成功開發人工智能技術并搶占市場的國家將遭受經濟和福利損失。同樣,軍事應用的投資和開發不足的國家面臨更大的安全威脅,其地緣影響力無疑會被削弱。換言之,技術競爭絕非是中性的。隨著通信技術的不斷發展,有先發優勢的國家想要確保在全球數字轉型中獲取更大的權勢,或者防止自己屈居人下。故此,圍繞著科技制高點的爭奪,在一些觀察家看來將不可避免地引發一場“大國政治的悲劇”。

中美之間的貿易戰和科技領導權之爭,似乎印證了這一論斷。政策制定者一般傾向于高估技術突破帶來的權勢變化,低估國家間的合作可以穩定國際安全的可能。按照現實主義的邏輯,大國怯于在這場影響國運的競爭中放松神經,因為它們既不確定自己會否成為贏家,也難以猜想在新的技術秩序變革中自身將出現何種地位的變化。于是,在悲觀而固執的零和思維驅使下,美中之間的大國競爭油然而起,正危險地滑向導致世界分裂成兩個對立體系之勢。為此,聯合國秘書長安東尼奧·古特雷斯發出危險警告:“世界上最大的兩個經濟體創造了兩個獨立的、相互競爭的世界,各自擁有自己的主導貨幣、貿易和金融規則、自己的互聯網和人工智能能力,以及自己的零和地緣政治和軍事戰略。”④

令人擔憂的不只是國際秩序向對抗性方向演進。人工智能已經具備了幫助人類從大量信息中篩選出導彈發射平臺的能力。強大的偵察力已越來越讓中國和俄羅斯擔憂美國跟蹤和鎖定移動導彈發射器技術發展成熟后會威脅到它們的核報復能力。⑤如果無人武器設備的隱蔽性和突破性足夠強大,國家就有風險更低、打擊效能更高的攻擊選擇。⑥雖然這種戰術不能保證自身免遭第二次打擊,但這種可能性本身就已經十分可怕。面對核威懾,決策者不得不在極其有限的時間內作出決策,因而要承受更大的發動第一次打擊的壓力。或者,國家需要發展更加危險的傳統武器來平衡威懾不足。由此引發的軍備競賽迫使國家部署不安全的人工智能系統,并進一步加大戰略不穩定。對于防守方來說還有另一種選擇,那就是攻擊敵方的探查器件,生成對抗性網絡或采取戰略欺騙的方式來防止對方打擊自己的報復力量。這些努力在一定程度上可確保己方核報復設施的隱蔽性和安全性。但是,這種安全困境的加劇反而會導致意外沖突升級和加大戰略部署判斷的復雜性和誤判可能性。最終,國家不得不面對要么提前發動進攻,要么輸掉戰爭的兩難選擇。

有技術優勢的國家會率先在戰場上部署更加先進的武器裝備或建立新的指揮作戰概念。技術落后的國家則因缺少應對策略而陷入相對劣勢。按照現實主義的安全互動模式,大國可能尋求相對優勢以規避他國的軍事進步威脅自己的安全,或者在其他地方尋找抵消對手優勢的方法。在軍備競賽的螺線軌跡上,自主武器越發先進,以至于戰爭速度快到超出人類的反應,由此導致國家爭相部署不安全的人工智能武器,這都將給決策者帶來巨大的心理壓力,扭曲人類戰略應對的固有理性判斷。

此外,自主武器擴散降低了戰爭門檻,加大國家間戰爭風險。軍事行動往往伴隨著人員傷亡的高風險。國家領導人要顧及到民眾對戰爭傷亡的敏感性,因而不敢輕易發動對外軍事行動。但是,自主武器減少傷亡率預期的特點促使改變戰略決策過程。決策者可以竭力說服民眾只需較小的代價就能獲得更高的戰爭回報,進而擺脫使用武力的國內限制,更有利于它們對外投射自己的軍事影響力。不過,自主武器擴散的最大受益人或許并不是大國而是技術基礎較好的中等國家。它們可以借此彌補資源和人口上的劣勢,從而改變國際常規武力的對比,提高自己在國際均勢體系中的地位。在致命性自主殺傷武器缺乏有效國際規范的局勢下,大國和這些中等國家的均勢變動將給國際安全體系帶來怎樣的沖擊,令人擔憂。加之人工智能技術本身的脆弱性,更加大了突發事件發生的概率。

探索人工智能國際安全治理的演化路徑

人工智能是一項處于不斷發展進程的賦能技術,很難找到一個完美的定義。它帶來的變革效應正在全球顯現,完全禁止已然不可能,任由其肆意發展也與國際關切和人類共同命運不符。那么,如何對其進行國際治理呢?對政策制定者來說,所需要關注的并非只是技術在國際安全上引發的眾多不確定性,還有他們對這項技術認識的不斷豐富,進而改變對當下以及未來的治理選擇。擺在我們面前的并不是一個注定的悲劇,而是一個承擔人類發展重任的抉擇。

在聯合國框架下,有多個機制都對限制自主武器發展進行了國際探討。其中,聯合國《特定常規武器公約》談判機制自從2014年起已召開了三次非正式專家會議和三次正式政府專家組會議。盡管在國際機制和國際規范的建立上取得了一定的突破,但是參與討論的各方對于致命性自主武器的適用定義分歧嚴重,均認為其指涉對象十分模糊。現在來看,不論各方討論的是怎樣的定義,都在一定程度上與既有使用武器的規則存在矛盾。根據瑞典斯德哥爾摩和平研究所對154種武器系統的統計分析發現,只有49種武器可以在人類監管但不介入的情況下進行合法交戰。它們主要用于對己方設施進行防御,比如保護軍艦或基地、應對來襲導彈等。⑦而致命性自主武器帶來的戰略紅利牽動著各國的安全利益,給后續軍控行動增加了困難和挑戰。

盡管如此,這并不意味著我們無計可施而注定陷入絕望的無謂爭論之中。在前述2014年第一次非正式專家會議中,各方分歧明顯。有的國家代表認為,致命性自主武器易于擴散且極其危險,終將給人類帶來巨大威脅,需要全面禁止開發和使用。與之相反的觀點則認為,應該發展致命性自主武器,因為它未來足夠“聰明”,能夠理解人類戰爭中的道德規范,甚至可為人類提供一種更加人道的戰爭選擇。兩種觀點都預設了人工智能最終足夠強大,卻給出了完全對立的應對方案。時至今日,他們的預想都缺乏足夠的支持,但看似不可調和的爭論中日漸出現共識。參與討論的各方同意,致命性自主武器的軍控行為不應阻礙民用技術的開發和促進經濟發展,即使定義不清也不妨礙其他問題取得進展。這表明,決策者的認知不是一成不變的。相關軍控談判不會是一次性達成具有約束力的國際條約,而是制定出致命性自主武器的底線后采取多種軍控手段結合的漸進方式以建立共識性的“軟法”。這需要國家采取自我限制,達成國家之間的非約束性協議,比如符合現行國際法和國際準則的“行為準則”。這種做法可以應對自主武器引發的倫理道德問題,但是對于維護戰略穩定作用不大。最好的方法或許是國家在尚未出現激烈的軍備競賽前,利用好窗口機遇期,盡早劃出一條能夠確保人類掌握自己生死命運的紅線。

“大分裂”并不是中美兩國唯一的選擇。我們應樂觀地相信,人工智能競賽不是零和游戲。它應當是一項促進人類福祉和推動國家合作的工具。雖然特朗普政府的美國對外政策表現出部分領域“脫鉤”的趨勢,中美兩國的科研合作反而呈現出更加緊密的需求。通過對科學和工程領域的著作進行文獻統計,有研究發現中美兩國學者在2014至2018年間共同發表的論文數量增長了55.7%,因此如果美國貿然切斷同中國的科研合作可能導致美國的發表成果數量大幅下降。⑧從人類歷史而言,科學技術的發展和在世界范圍的傳播使得各國受益。即便在人工智能技術競爭加劇的今天,一國的技術突破也可能有利于另一國的經濟社會發展。比如,位于北京的微軟亞洲研究院曾支持四名中國年輕學者發表的一篇關于深度殘差學習的論文,成為近年來該領域的重要引用文獻。在論文發表后,四位作者中有一位前往美國臉書公司任職,其余三位則加入到中國國內的人工智能創業行列之中。他們的成功無疑讓中美兩國企業和整個人工智能研發都有所受益。

在國際安全事務的歷史進程中,不確定性是常態,確定性反而是稀缺的。隨著人工智能技術的發展,對致命性自主武器的定義不再只限制在技術層面而在于自主能力范圍的問題上。例如,武器的智能化程度成為判定其性質和限制的標準。政策制定者最需要擔心的并不是那些不確定性導致的潛在權勢流失,而是這種認知的固化帶來的長遠風險。他們不應期待以“技術治理技術”的手段獲得穩健安全的人工智能系統來解決國際安全困境。安全的軍事系統會在技術層面降低國家之間突發事件發生的可能性,但這意味著一國獲得了只有它才有的利器。這將不可避免地加劇軍備競賽,甚至動搖戰略穩定而產生災難性后果。同時,國家也不應為了贏得軍備競賽的勝利而爭相部署不安全的人工智能系統。政策制定者既不能低估不同的戰略文化對使用新技術的影響,也不應高估人工智能帶來的安全沖擊。

在人類走過的道路上,到處可見文明破滅的廢墟殘骸、帝國崩潰的殘碑破冢、信仰者和衛道者的尸首斷骨,他們被一波波時代的浪潮淹沒,沒能在人類社會進化的道路中找到延續的崎嶇小道。然而,正是他們的犧牲照亮了我們未來前進的道路,使人類文明有可能免于走向錯誤的演化道路。回望過去遙望未來,任何對人工智能帶來美好未來的華麗辭藻以及其中所包含的美好期待,都不應掩飾或漠視其中所蘊含的種種危險。而任何否定人工智能的抵觸情緒和對人性的過度信任,都無法阻擋技術發展帶來的種種好處。我們需要承認,不確定性決定著人工智能的安全治理是一個動態的過程,基于在未來出現最好或者最壞結果的極端預設可能都很難實現。面對不斷變動的國際環境,我們需要在不斷發展的技術和不變的人性中去尋找國際合作的空間。

(作者分別為清華大學戰略與安全研究中心秘書長、教授;清華大學戰略與安全研究中心研究員)

[責任編輯:王博]

    1. <menu id="zcyhi"></menu>