国产亚洲tv在线观看,精品国产污污免费网站Av,欧美日韩无砖专区一中文字,亚洲欧美日韩国产综合五月天

網站首頁 | 網站地圖

大國新村
首頁 > 原創精品 > 成果首發 > 正文

人工智能時代的算法黑箱與信任重建

【摘要】信任是人機互動和人際互動的基石。然而,由于算法黑箱的不透明性和不可解釋性,人工智能系統及其服務在賦權和便利一部分人的同時,算法濫用、算法誤用和算法壟斷也在侵蝕、排斥和邊緣化另外一部分人的利益。就此而言,算法即重構、程序即政治,在智能化環境中,信任被破壞和侵蝕不僅存在于人機互動之間,人與人之間的傳統信任關系也因在線匿名和算法驅動而陷入衰退。正是考慮到人工智能帶來的種種社會信任挑戰,以算法規制為核心的人工智能治理首先應著眼于以人為本構建可信賴人工智能生態體系,并基于技術秉性和道德法律框架重建人機信任關系和人際信任關系。

【關鍵詞】算法黑箱 人機信任 人際信任 計算政治

【中圖分類號】TP301.6 【文獻標識碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2024.16.008

【作者簡介】董青嶺,對外經濟貿易大學國際關系學院教授、博導,國家安全計算實驗室(CLNS)主任。研究方向為大數據海外輿情監測與沖突預警、國際關系自然語言處理與社會情感挖掘、機器學習與國際關系智能分析。主要著作有《大數據與機器學習:復雜社會的政治分析》《復合建構主義:進化沖突與進化合作》等。

 

長期以來,信任一直是人類互動的基石,是社會、經濟和政府賴以建立的基礎。伴隨著人工智能技術的日臻成熟和應用普及,現實世界事實上已經演變成為一個被各種算法所包裹的社會計算空間。在這樣一個計算空間中,人人皆為算法使用者,同時又皆為算法對象,不停地被各種算法所影響和操控。作為一種新質生產力、新的權力類型和新的認知工具,人工智能正逐步滲入個人感知、商業交易甚至政府決策之中,由此導致的算法無處不在已然成為當下智能社會建構的重要技術特征。然而,在現實生活中,算法從來就不是客觀中立的,至少不是像人們所想象的那樣“公正無私”,算法在賦權和便利一部分人的同時,算法濫用、算法誤用和算法壟斷也在排斥和邊緣化另外一部分人,并使之日趨淪落為“算法難民”[1]或“人工智能的奴役對象”。由此可見,算法在改善治理、提升效率和創新服務的同時,也帶來了算法歧視、技術霸凌和社會信任侵蝕等問題。

智能系統及其服務的信任危機:從不信任到過度信任

毫無疑問,智能技術的進步及其應用正在給人類社會帶來前所未有的改變。由數據和算法所驅動的人工智能究竟是促進了社會信任還是使得社會信任變得更為脆弱?2023年12月22日,美國華盛頓郵報與喬治·梅森大學政府與政策學院聯合發布了一項關于民眾對社交媒體信任度的調查報告,結果顯示:近四分之三的美國人不信任Facebook、WhatsApp、Instagram、YouTube等平臺;約70%的美國人表示,他們懷疑自己的智能手機等數字設備會在未經允許的情況下監聽他們的談話,因為在他們與朋友談論某件事之后,再次登錄Facebook等平臺時就會收到相關主題的商品或服務推薦。雖然科技巨頭們都對此予以否認,但許多美國人還是感到不安。與此同時,約82%的受調民眾對人工智能算法下的定向廣告推送持負面看法。[2]信任是網絡秩序的基石,是數字交互的基礎和前提。然而,頻繁的網絡攻擊、數據泄露、數據濫用和隱私侵害等安全風險會嚴重削弱社會主體的安全感,進而破壞人機之間乃至人與人之間的社會信任關系。

首先,社會對人工智能系統及其所承載服務的不信任在很大程度上源自不完整數據和錯誤數據的使用。僅就算法模型產生過程而言,人工智能算法是由人類生成的數據集所塑造的,算法在訓練過程中不可避免地會繼承數據固有的偏見和成見。如果輸入的數據受到數據源不準確、樣本偏差或社會偏見的影響,那么人工智能的輸出結果很可能會反映這些缺陷,并加劇和放大諸如種族、膚色、性別、宗教、學歷和地域歧視等社會爭議話題。就此而言,算法本身就是社會偏見和數據缺陷的產物,任何一種算法都不是完美的,因其自帶的偏見所產生的算法歧視在實踐中更是難以消除。在此情形下,信任人工智能系統及其所提供的服務意味著人們相信數據的真實性和可靠性,而如果數據本身是殘缺或錯誤的,那么由算法邏輯所驅動的人工智能應用就會給用戶帶來焦慮、懷疑和不安,進而破壞人機之間的信任和交互。

其次,人工智能算法黑箱的不透明性使得社會信任問題正變得越來越復雜。如果算法流程和算法工作原理是不透明的,那么人機之間的交互就會變得異常脆弱而不可信。因為用戶如果不知道數據是如何被收集、使用和處理的,那么他們就無從確定涉及自身利益和隱私的數據會不會被誤用、濫用或被泄露給第三方,基于人工智能算法的服務也就變得不安全。這種因黑箱問題而導致的透明度匱乏很容易引起懷疑和不信任,特別是當人工智能驅動的決策會對現實世界產生重大影響時,人們會愈加擔心算法工具失去控制并造成難以挽回的損失,由此,要求監管人工智能的呼聲日益高漲,監管機構和游說團體也如雨后春筍般出現。但如果外部監督者本身不值得信任,則外部審查也無法促進信任。此時,在不信任的情況下披露信息可能會引發社會群體對人工智能系統及其服務更大的誤解。換言之,當算法黑箱不透明或難以透明時,即便是監管,也難以落到實處。此時,不可靠或無法評估人工智能算法的可靠性便成為人機之間不信任的來源。

再次,算法泛濫和人工智能應用的過度部署正在威脅個人隱私安全。在數字時代,國家通常會為信息的傳播建立一系列法律和技術屏障,算法則是其中的關鍵技術環節。借助于算法,政府可以在網絡平臺中限制危害社會公共安全的不良信息傳播,從而在減少網絡犯罪現象的同時,又能對公民進行有效監視與管理。然而,隨處可見的智能探頭、移動端APP和各種傳感設備在提升公共安全時,算法也正在打著風險管控的旗號廣泛參與人們的生活,以至于人們在享受智能化便利的同時也在承擔著隱私泄露的風險。批評者和支持者都認為,算法監視可能會限制溝通與表達自由,人工智能的過量部署可能會給人類生活帶來意想不到的嚴重后果,譬如隱私泄露會導致電子欺詐、網絡勒索、關系破壞和社會混亂,特別是在社會矛盾積聚、人們對政府和組織機構信任度下降的背景下,這些擔憂就會更加尖銳和突出。

最后,數據壟斷和算法壟斷會進一步強化社會利益分配的不均并助長平臺的數字話語霸權。一般情況下,高質量的數據很難獲得或獲取成本較高,數據資源的壟斷會使一些算法模型只服務于政府和某些公司的利益,在此情形下,算法擁有者和使用者會出于利益最大化對算法模型進行技術控制,進而出現參數調整型偏差修正,這些修改動因諸如公司裁員、形象維護和過失遮蔽等,以至于一些人的利益在特定算法規則下被漠視和犧牲,而另外一些人的利益則被算法控制性強化和放大,典型操作如流量明星的影響力排名、產品的競爭力排行榜以及基于算法的薦房、薦股等投資推薦行為等。至此,算法本身已不能簡單地被視之為“價值中立”的技術發明,它是利益壟斷的產物,在應用推廣中又不斷強化本就不公平的利益分配格局,并通過強勢的話語霸權進一步侵犯了弱勢群體的利益。隨著公司和政府越來越多地依賴人工智能開展服務和業務,不信任會隨著利益分配的不均勻性顯著增加。以此觀之,算法是智能服務的承載,更是利益分配的工具,社交媒體平臺上因算法應用而損害和違背用戶利益的例子比比皆是。此時,公司利益與用戶利益存在系統性分歧,不信任及其引起的警惕本身就是為了防止被剝削或免遭不公平對待。

此外,人工智能算法應用有時還會引發一種被稱之為“蓋爾曼失憶癥”的過度信任現象,這指的是用戶即使看到人工智能算法模塊在某些熟悉的話題上犯了令人尷尬的錯誤,卻依然傾向于信任人工智能系統在其他問題上的服務。其邏輯類同于防盜攝像頭可以拍到每一個敲門人,但并非每個敲門人都是小偷,只要漏報和誤報在精確度范圍內就可接受。這也就是說,人工智能只要成功抓住一次小偷就可以彌補多次失敗所造成的信任缺失。另外,在很多人類本身無法觸及或難以完成任務的領域,人們往往更信任人工智能所產生的解題結果,如購物推薦等。如果系統提供了推薦性操作,人們更愿意嘗試相信系統推薦的方案而不是長期保持懷疑。

計算政治的崛起:被算法化的人際互動與在線虛假宣傳

在信任問題上,伴隨著大數據和人工智能技術的應用,現代政治運行愈發朝向一種前所未有的“算法”政治生態演進。人工智能不僅僅是一場新的技術革命,更是一場社會生活革命和信任革命,它所帶來的不僅僅是技術的創新和社會生活的便利,同時還有各種智能化風險和政治力量的重新分化組合,算法的嵌入式應用不僅正在改變人與機器之間的信任關系,同時更在重塑人與人之間的社會信任關系。在數字空間中,人們已不再盲目相信所謂的“權威信息來源”和“機構發布”,任何一條信息在網絡發酵之后都會被反復地交叉驗證、否證和辟謠,即便當事人親自出面澄清,人們也不再相信所謂的“還原事實真相”。就此而言,算法即重構、程序即政治,信任被破壞和侵蝕不僅存在于人機互動之間,人與人之間的傳統信任關系也因在線匿名和算法驅動而陷入衰退。依托于現代社交網絡和數字基礎設施,政治機器人已經成為在線政治溝通的重要工具,在政治咨詢領域有些政治機器人將代替人工職員發揮無人值守、無人巡航甚至自動應答的作用,但在另外一些方面,一些政客也可以利用機器人所生成的虛假賬號和虛假信息轉移斗爭視線、抹黑對手形象、逃避政治責任或爭取民心支持,使自己盡快擺脫政治困境。

放眼未來,隨著時間的推移和技術的進步,由智能算法所驅動的計算政治操作將變得越來越復雜,其對社會信任的影響也將越來越難以控制。概括而言,這些變化中的挑戰包括如下幾個方面。

第一,政治機器人的應用正在將政治運行帶入虛實之間。政治機器人通常使用虛假賬戶或盜竊他人身份發布信息,為了看起來像是一個人類行為體,它會虛構自己的個人資料照片、曾經發布的帖子,同時生成大量的粉絲關注者,以此偽裝成人類行為體來分發政治聲明、傳播虛假信息或偽造政治議題,通過自動點贊或自動轉發來擴大社會影響,甚至以發帖子或回復評論等形式來虛構政治互動。此外,通過調用編程接口(API),社交機器人還可以假裝人類操作員訪問社交網絡,并接收和發送信息,甚至就某些選中的話題以預先設定的自然語言進行政治交流,進而給人一種置身人機互動情景中的錯覺。

第二,大模型和深度偽造正在急劇模糊真假信息的邊界。在過去的幾年里,由于生成式人工智能技術的進步特別是ChatGPT和深度偽造技術的盛行,假新聞現象出現得越來越頻繁。為了辟謠和降低假新聞的負面影響,事實核查人員需要夜以繼日地分析政治人物的在線演講、新聞報道、出版物和政府統計數據等。但鑒于虛假信息的龐大數量,以及虛假信息在各種社交平臺像病毒一樣的繁殖和變異能力,只有極少數有爭議的文章能夠在時間、人力、物力和技術的承受范圍內得到徹底的事實核查。據報道,在美國人工智能研究領域,識別假新聞的研究所受到的關注和支持要遠比創建假新聞的研究少得多。[3]有學者為此慨嘆道:“與檢測假新聞相比,深度偽造方面的研究人數是100比1。我們檢測的能力被造假的能力遠遠超過。”[4]正因如此,在社交媒體上創建和傳播假新聞越來越成為一個難以遏制的現象,在某些國家和地區假新聞肆虐猖獗甚至已經開始影響當地的政治選舉進程和國際關系狀態。

第三,在線有組織地協同網絡攻擊和輿論壓制越來越頻繁。[5]這突出的表現為世界各地的政府和政治組織正在花費大量資源來組建“網絡宣傳隊”和“數字水軍”,意圖在數字空間中有目的地運用計算宣傳技術開展虛假宣傳和政治抹黑活動,這些參與者依靠自動化、算法和大數據分析來影響或欺騙數字用戶。與黑客團體或其他非國家行為體不同,盡管都使用計算宣傳技術進行網絡動員和政治溝通,“網絡數字水軍”通常由國家財政資金支持、設有嚴密的組織機構并配合專業的技能培訓,以便能夠步調一致地展開在線宣傳并制造虛假共識。這些有組織的計算宣傳活動形式多樣、目標不一,有的目的在于歪曲事件真相,有的意圖轉移視線,還有的試圖制造熱點、吸引公眾注意力。事實上,國家行為體和非國家行為體都正在試圖利用算法驅動在數字時代行使權力,甚至有不少國家將計算宣傳特別是網絡數字水軍列為“網絡戰武器庫”中重要的戰略手段。

第四,由計算宣傳所導致的政治不信任擴散效應越來越明顯。通過社交媒體平臺操縱輿論、表達政治訴求并尋求實現政治意愿,已經成為當代數字社會的一個普遍現象。鑒于計算宣傳在政治領域中所展示出來的在線“吸粉”與網絡動員效應,越來越多的計算宣傳技術正在從政治領域擴散到其他領域。譬如,在醫療保健和公共衛生治理領域,社交機器人一度被用于放大圍繞疫苗的種種在線辯論的傳播效果,以求喚起公眾對某些觀點和政策的響應支持;在自然災害和恐怖襲擊事件中,各種虛假信息頻出,深度偽造正成為各類謠言滋生的“技術溫床”;在科學研究和娛樂領域,內容推薦正被用來創建大量相關主題鏈接,社交機器人產生的各種虛假評論正在營造虛假的文章引用和電影好評。

綜上所述,伴隨著社會生活“網絡化”和“智能化”趨勢的加速發展,一方面,由算法驅動的計算宣傳正在成為數字政治溝通的常態操作;另一方面,算法又存在著被別有用心的個人、機構和國家濫用的風險,算法恐懼的陰霾可能無處不在。放眼未來,無論是在國際政治還是在國內政治中,公眾對于計算宣傳威脅個人決策自由和機器人賬戶主導政治對話的擔心都在與日俱增,由計算宣傳所導致的社會信任風險治理和防范迫在眉睫。

朝向可信人工智能:在不信任的世界里重建信任關系

顯而易見,人工智能已成為我們生活的一部分,它是一項正在進行的偉大技術突破,其深遠影響尚未真正顯現。但由于其算法黑箱的非解釋性和不透明性,人機關系連帶人際關系都在遭受信任侵蝕。大量的算法實踐表明,未經審查、不受限制和未經許可的算法應用不僅會侵犯個人隱私、泄露商業機密和危害國家安全,而且不公平、不透明和不受約束的算法應用還極易引發并放大種族主義、性別歧視、地域歧視和其他社會偏見,進而使其演化為政治懷疑并激發社會沖突。譬如,2024年2月,美國新罕布什爾州民主黨選民的自動電話通話中就出現了模仿美國總統拜登聲音的深度偽造音頻,敦促選民不要在該州共和黨初選中投票。此類人工智能工具的應用引發了人們對在線信息來源的不信任。為此,美國政府正在起草新的法律,以禁止生產和傳播冒充個人的深度偽造內容。[6]除此以外,歐盟就《人工智能法案》已達成一致,預計2026年生效;東盟則希望盡快完善《人工智能道德和治理指南》。

總體而言,人工智能應該尊重隱私和數據保護法規,以安全可靠、透明和負責任的方式運行,并盡力減少偏見和歧視,如此,智能化方能更好地促進創新并帶動社會經濟增長。一言以蔽之,在智能化的社會中,我們需要透明、可信賴的人工智能。為此,2019年4月8日,人工智能高級別專家組提出了《可信人工智能道德準則》,認為人工智能系統應滿足以下至少七項關鍵要求,才能被認為是值得信賴的。這些要求大體可歸結為:其一,人工智能應該賦能人類決策,在使人們能夠作出明智的決定、維護人類基本權利的同時,還需要確保在過程中始終存在適當的人類監督;其二,人工智能需要具備技術穩健性和安全性,在出現安全問題時要有后備計劃并確保最大限度地減少和預防意外傷害;其三,在尊重隱私保護的同時,還必須建立健全數據治理機制,既要考慮數據的完整性和質量,也要確保數據的合法訪問;其四,人工智能系統及商業模式應該透明可解釋,要確保用戶充分了解系統的功能和局限,且因人工智能使用所產生的后果責任應該可追溯;其五,人工智能算法應具有非歧視性和公平性,其使用要向所有人開放并全力避免弱勢群體的邊緣化,其監督和管理應遵循利益相關者參與的多樣性原則;其六,人工智能系統應該是可持續的和環境友好的,要造福全人類包括子孫后代,同時也要關照環境和其他生物需求;其七,人工智能系統應該具有可審計性,以評估算法、數據和設計流程中的責任并以此設立問責機制和補救措施。[7]

綜上所述,每一項偉大的技術變革背后都隱藏著難以預見的風險。首先,我們要構建可解釋的人工智能。目前,即使是數據科學家也難以解釋人工智能模型的全部工作原理,以至于在人機關系中,算法服務要么被接受、要么被強制接受。如果不能解釋這些模型或這些模型不具有“可解釋性”,則人機關系就會處于緊張的不被信任狀態。正是考慮到這一點,歐盟《通用數據保護條例》(GDPR)明確要求數據處理須透明且流程要清晰。模型解釋對于增進機器及其服務的可接受性至關重要。在最近的一項美國專利申請中,英特爾提出了一種神經網絡可理解技術,該技術可識別在機器學習訓練階段觀察到的結果與在操作過程中獲得的結果之間的差異,但從算法可理解到算法可解釋仍有很長的路要走。為此,無論是學界和業界都要加強算法從“全黑箱”到“白箱”的努力,以使算法在可解釋的前提下作出可信決策。當然,這種解釋權目前僅僅歸于開發者和運營者是遠遠不夠的,用戶有權要求獲得相關算法決策的基本原理并了解其中的安全風險。

其次,要增強人工智能的透明度。用戶需要了解AI系統是如何作出決策的,以及背后的依據是什么,通過揭示人工智能算法的內部運作原理并揭示影響其決策的因素,人們不僅可以塑造一個符合自身價值觀、愿望和尊嚴的人工智能賦能系統,而且還可以識別人工智能算法中隱藏的偏見。因此,研究人員需致力于開發可解釋性模型,以使決策過程能夠被理解和驗證。有關這一點,學界和產業界是有共識的。譬如,2022年,由59位世界級學者共同撰寫的《邁向可信賴的人工智能:可驗證聲明的支持機制》報告,詳細闡述了可信賴人工智能應該涵蓋的透明機制。整個報告由OpenAI牽頭,涉及機構多達30多家,谷歌大腦、圖靈研究所和很多歐美大學都有參與。由此,人工智能的數據收集和訓練應遵循合規性和透明度原則,并通過加密、去標識化等手段確保數據的安全性。只有加強透明度、遵循道德準則、確保數據隱私和防止惡意攻擊,人工智能才能最大程度釋放潛力為社會創造更多價值。

再次,建立算法模型倫理指南與監管問責機制。考慮到人工智能技術驚人的進步與迭代速度,監管協調與監管協作已成為人工智能治理領域的一個熱點話題。2024年3月13日,歐洲議會高票通過《人工智能法》,旨在針對快速發展的人工智能領域制定全面的監管措施。2024年3月21日,聯合國大會通過了一項決議,呼吁抓住“安全、可靠和值得信賴的”人工智能系統帶來的機遇,讓人工智能給人類帶來“惠益”,并以此促進可持續發展。而在此前,2017年7月,我國就發布了《新一代人工智能發展規劃》,規劃呼吁要確保人工智能安全、可靠、可控發展;2019年2月,科技部在北京召開新一代人工智能發展規劃暨重大科技項目啟動會,成立了新一代人工智能治理專業委員會;同年6月,國家新一代人工智能治理專業委員會發布了《新一代人工智能治理原則》;2021年9月,《新一代人工智能倫理規范》正式發布,細化落實《新一代人工智能治理原則》,將倫理道德融入人工智能全生命周期;2023年4月11日,國家互聯網信息辦公室發布《生成式人工智能服務管理辦法(征求意見稿)》,擬對生成式人工智能在我國的開發及應用進行規范。

可以看出,正是考慮到人工智能的不可解釋性和不透明性所帶來的種種社會信任挑戰,以算法為驅動的人工智能服務才需要在設計之初就充分考慮信任、透明度和容錯性等問題,并基于前敘規則和規范受到監管,如此方能向善、造福人類社會。當然,目前由于數字鴻溝的存在,各國對人工智能風險的理解也不盡相同,各國需要在技術上兼容、在認知上交流、在監管上協調、在開發應用上協作。

結論

在一個由技術創新和全球互聯互通驅動的世界中,一方面,人們正在尋求值得信賴的人工智能;另一方面,社會對政府、機構、媒體和人際關系的信任正在遭受威脅。在這場信任危機中,人工智能正處于信任對話的中心。當人們越來越多地求助人工智能系統來幫助決策、提供建議并分析信息時,人工智能在很多時候不僅沒有消解人類固有的偏見和錯誤,反而因其算法黑箱的不可解釋性和不透明性固化并放大了社會歧視。未來,對智能社會的信任關系維護,必須在全球層面建立相關機構以監測和報告人工智能系統的脆弱性,并對人工智能系統應用所帶來的社會穩定破壞給出及時且有效的應對。為此,我們可以考慮在算法開發者、應用者、銷售者、傳播者以及管理者之間建立起溝通橋梁,并以國際規范為基礎設立問責和管控機制,定期評估人工智能的風險和影響,以便重建人機互信關系和人際互信關系,形成一個公平、公正、智能化、可信賴的社會生態體系。

注釋

[1]B. Combes, “Digital Natives or Digital Refugees? Why We Have Failed Gen Y?“ 2021, https://www.researchgate.net/publication/238050945_Digital_Natives_or_Digital_Refugees_Why_we_have_failed_Gen_Y.

[2]H. Kelly and E. Guskin, “Americans Widely Distrust Facebook, TikTok and Instagram with Their Data, Poll Finds,“ 2021, https://www.washingtonpost.com/technology/2021/12/22/tech-trust-survey/.

[3]J. Vincent, “Deepfake Detection Algorithms Will Never Be Enough,“ 2019, https://www.theverge.com/2019/6/27/18715235/deepfake-detection-ai-algorithms-accuracy-will-they-ever-work.

[4]A. Engler, “Fighting Deepfakes When Detection Fails,“ 2019, https://www.brookings.edu/research/fighting-deepfakes-when-detection-fails/.

[5]S. Bradshaw and P. N. Howard, “The Global Disinformation Order 2019 Global Inventory of Organised Social Media Manipulation,“ 2019, https://demtech.oii.ox.ac.uk/wp-content/uploads/sites/12/2019/09/CyberTroop-Report19.pdf.

[6]S. Torkington, “The US is Drafting New Laws to Protect Against AI-Generated Deepfakes,“ 2024, https://www.weforum.org/agenda/2024/02/ai-deepfakes-legislation-trust/.

[7]The High-Level Expert Group, “Ethics Guidelines for Trustworthy AI,“ 2019, https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai.

Algorithmic Black Box and Trust Reconstruction in the Era of Artificial Intelligence

Dong Qingling

Abstract: Trust is the cornerstone of both human-machine interaction and interpersonal interaction. However, due to the opacity and non-interpretability of the algorithmic black box, AI systems and their services, while empowering and facilitating some individuals, are also eroding, excluding, and marginalizing the interests of others through algorithmic abuse, misuse, and monopolization. In this sense, algorithms are reconstructions, and programs are politics. In intelligent environments, trust is undermined and eroded not only in human-machine interactions but also in traditional interpersonal relationships, which are declining due to online anonymity and algorithm-driven. Considering the various social trust challenges brought by AI, AI governance centered on algorithmic regulation should firstly focus on constructing a trustworthy AI ecosystem with a people-oriented approach and rebuild human-machine and interpersonal trust based on technological nature and ethical and legal frameworks.

Keywords: algorithmic black box, human-machine trust, interpersonal trust, computational politics

[責任編輯:李思琪]

    1. <menu id="zcyhi"></menu>