摘 要:智能技術接入媒體,促進用戶、信息、服務與場景的連接,提升內容產制與傳播的效率,但技術風險在媒介傳播實踐中可能轉換生成算法的倫理、法律、文化與意識形態風險。倫理倡導和法律規制是算法治理“在地化”的有效路徑。智能傳播的算法治理,需要平衡價值觀與創新觀、技術崇拜與內容供給、技術迭代與法律規制之間的關系,實現倫理、法律、文化等維度的協同治理。
關鍵詞:智能傳播 算法 風險治理 意識形態 協同治理
【中圖分類號】G206 【文獻標識碼】A
全球范圍內興起的“人工智能熱”,推動了我國一系列國家戰略和政策的出臺,如2017年7月8日,國務院印發《新一代人工智能發展規劃》;12月13日,工業和信息化部又發布了《促進新一代人工智能產業發展三年行動計劃(2018-2020年)》等。信息產業的發展趨勢、媒介變革的行業需求,推動著智能傳播形態、業態與生態的變革。智能媒體不斷嵌入公眾的社會生活與個人的日常生活。智能技術基于信息、服務、商品、場景的連接,使人、物與地點的信息匹配變得愈發便捷,但也引發了倫理、法律和文化等領域的諸多風險。
智能算法在傳播中的應用及其影響
塔勒頓·吉萊斯皮(2014)認為,算法的理解有狹義和廣義之分:狹義的理解將其視為特殊的決策技術;廣義的理解將其視為建構社會秩序的理性模型。智能算法在媒體行業的接入和可持續性應用,產生了重要的社會影響。
機器算法在傳播中的應用
伴隨著智能媒體化和媒體智能化的雙向進程,智能媒體逐漸成為傳媒領域的新主體。作為一種高度匹配信息與用戶需求的媒介形態,智能媒體引導傳播實踐向存儲云端化、內容垂直化、需求場景化及行業智能化邁進[1]。算法在傳媒業主要應用于內容產品生成、分發兩個環節。
內容的自動化生產創造了新的媒體形態。機器人新聞(robot journalism)、傳感器新聞、AI主播和AI配音等,便是大數據、機器學習等技術運用的結晶。例如,新華社的“快筆小新”在自動采集體育、財經或氣象等信息后,2—3秒鐘便可生成相應稿件;今日頭條的“張小明(xiaomingbot)”會根據體育賽事實況調整新聞表達并自動配圖;英國《衛報》推出的“#Open001”和《精讀》(The Long Good Read)等產品,用算法編輯報紙以迎合讀者喜好。智能算法有望幫助傳媒從業者從機械式勞作中解脫出來。例如,騰訊的寫稿機器人“Dreamwriter”不僅全時段無休、年均發稿50萬篇,還能智能審核、反饋、糾錯;“AI合成主播”依托音視頻合成、機器學習等技術,能在特殊情境下取代傳統主播的工作。
此外,信息判斷的價值取向從經驗主義向計算主義偏轉,信息分發模式從大眾傳播走向個性化推薦。“連接”是互聯網的要義[2],而平臺、用戶與信息的算法“再連接”(rewiring/reconnecting)是智能傳播的核心。
在平臺連接中,智能媒體平臺通過協同過濾、社交推薦和流量池推薦等多種算法機制,提供人與信息的連接服務。當前的服務類型主要有以谷歌為代表的搜索引擎類、以Facebook為代表的社交媒體類和以“今日頭條”為代表的信息聚合類三種。算法推薦信息的標準被稱為“算法價值”,因平臺性質不同,具體信息推送標準與優先級會存在差異。在用戶連接中,算法主要依賴虛擬空間的用戶畫像,包括用戶的個體信息(如年齡、性別等人口學特征)、行為信息(如點贊、收藏和轉發等記錄)以及場景信息等。而在移動傳播的場景連接中,“場景”成為信息匹配的重要依據,它涉及大數據、移動設備、社交媒體、傳感器、定位系統五項要素(羅伯特·斯考伯等,2014)。算法的個性化推薦高度依賴信息、平臺、用戶和場景的連接。
機器算法對傳播的影響
智能技術在宏觀上重塑傳媒生態,在中觀層面形塑傳媒業態,在微觀層面改變傳媒形態。首先,智能技術嵌入國家、社會、媒介與個人的復雜互動,從根本上改變了傳媒的生態。基于大數據、物聯網與機器學習的智能傳播,重構了現有的媒介版圖、營銷邏輯與規制模式。其次,技術與媒介的聯結,催生了平臺媒體、計算廣告、智能語音等產業。最后,智能技術再造新聞生產流程與分發模式,不僅提高了信息生產效率與分發精準度,還發展出機器人新聞、AI主播和AI配音、傳感器新聞、智能推薦等業態。
智能技術的“算法轉向”,用技術創新改變著傳媒形態、業態與生態,也在傳播思維、文化觀念與意識形態等層面啟發著關于媒介技術與現代性的思考。然而,新技術總是陷入“解決老問題—引發新問題”的循環之中。個人意識形態陷阱、算法倫理、算法侵權、文化及意識形態等風險,凸顯出算法治理的迫切性,亟需引起廣泛關注。
智能傳播的算法風險
技術的不確定性不斷向制度、心理和文化滲透,帶來技術風險。智能技術的風險既涉及客觀事實層面,也包括主觀意識層面,還可能轉化為經濟、政治或文化等領域的現實危機。而當算法被建構為新聞客觀主義、技術樂觀主義的載體時,無議價能力的機器勞動、個性化推薦以及算法的商業秘密身份在一定程度上遮蔽了技術的風險。
算法的倫理風險
個人意識形態陷阱。智能技術充當了傳媒業和用戶的中介,借助用戶畫像實現內容的個性化推薦。而算法借代理用戶進行信息篩選的契機,控制了注意力市場和媒體信息系統,但這卻可能導致用戶“失去意外發現好文章的機會”(尼爾·瑟曼,2011)。算法的內容審查排斥了強化公民意識、社會責任的嚴肅新聞,將用戶禁錮在個人意識形態之中(伊萊·帕理澤,2013)。用戶使用算法推薦,也是不自覺地接受平臺及其資本邏輯反向規訓的過程。在計算思維的主導下,算法平臺難以提供造就“公共性”所必需的反思意識(芬威克·麥凱維,2014)。也就是說,算法內容分發的千人千面在一定程度上對構建公共對話的基礎提出了挑戰。
算法偏見及歧視。智能傳播過程中,用戶信息可能被濫用,引發算法偏見及歧視等倫理風險。科德·戴維斯(2016)認為,倫理影響是高度依賴語境的,忽視了倫理影響的“在場”就等于主動向創新利益與風險損失間的失衡招手。機器算法也包含價值嵌入,它模糊了人的決策過程,容易讓信息被誤用并形成偏見。現有的機器無法分辨數據中隱藏的價值偏向,會歸納、同構并放大人類的偏見與歧視(彭蘭,2018)。社會偏見融入算法的技術設計和運行過程,又在用戶的日常使用中形成偏見循環。
算法的侵權風險
“以隱私讓渡換取個性化推薦”是算法推薦的交易法則。算法的技術復雜性、不透明性和商業保密性將用戶的知情權擱置,形成智能傳播的“黑箱效應”。算法不透明的張力潛隱于智能傳播的算法邏輯中。
代碼的權力隱含于算法之中。大數據時代的遺忘是特例,記憶是常態。在這個意義上,大數據社會也是一個“監控社會”(surveillance society)。互聯網平臺的隱私條款往往是單方面且難以追責的。用戶的知情權、隱私權和被遺忘權等個人權利,面臨著在不知不覺中被侵犯的風險。語音、指紋、面部特征等伴隨終生的生物信息,一旦被授權使用,將會帶來多方面且長期性的風險。用戶的行為、心理等隱私信息若被泄露或非法使用,也會對用戶的肖像權、人身和財產安全造成威脅。
算法的文化風險
算法推薦強調的是依據程序指令完成“實然”面向,卻忽視了人文價值判斷、公眾責任意識等“應然”面向。
智能平臺的整體設計為負面文化蔓延提供了溫床。美國社交網站Reddit的“玩家門事件”和“名人照片泄露事件”凸顯出一種“有毒的技術文化”——平臺的治理策略和算法邏輯縱容了種族主義與“反女性主義”的活動(阿德里安·馬薩納里,2017)。
智能算法的文化風險不僅關涉平臺媒體的信息內容及其傳播過程,還關乎平臺與社會的互構關系。例如,“你關心的,才是頭條”“記錄美好生活”“記錄世界,記錄你”等“平民修辭”“趨勢排行”和“頁面排名”的“真實”鏡像,在一定程度上體現了強烈的私有性、排他性、利益相關性。因此,泰德·斯特瑞佛斯(2015)認為,算法是維持而非打破既有結構的文化使徒,算法文化是一種精英文化的變體,背棄了文化的公共性原則。
算法的公共輿論風險
智能傳播時代,社交媒體升級為輿論博弈的主要場域,社交機器人則成為輿論動員的工具。研究發現,Twitter上存在大量攻擊、對抗中國政府的虛假信息和機器人賬戶(吉莉安·博爾索弗、菲利普·霍華德,2019)。而社交媒體上的算法操縱、信息聚合平臺的價值觀紊亂,必然導致公眾輿論風險。具體體現在:智能算法與新型傳播機制,打破了主流媒體的渠道壟斷,影響了主流價值觀的形塑;缺乏價值觀引導的技術迭代以及資本逐利的本性,將引發意識形態的新社會風險;智能技術的工具理性躍升價值理性之上,導致算法神話的誕生;一些非理性、煽動性的信息以個性化、互動化和場景化的形式向活躍的青年用戶群體傳播,解構著社會共識。
智能傳播的算法治理路徑
算法在提高社會運行效率的同時,也帶來“不可解釋隱憂”“自我強化困境”“主體性難題”等新社會風險[3]。算法治理是在數據公正、算法透明和算法問責的基礎上追求算法正義的過程[4]。算法的風險治理呈現出跨學科、協同治理的路徑依賴特征。
數據倫理的倡導
好的技術須是可被專業人員理解、具有高可塑性與低依賴性的[5],其發展應當提升“人的價值”并導向人類的“理想生活”(good life)。美國的“阿西洛馬人工智能原則”(Asilomar AI Principles)強調人工智能應符合一般的“人的價值”(尊嚴、權利、自由和文化等),并列出了安全性、透明性、與人類價值觀保持一致、隱私保護、分享利益、共同繁榮、人類控制、非顛覆以及禁止智能裝備競賽等倫理原則。
“智能技術并非價值中立,其媒介應用需要倫理導向”已成為一種社會共識。如《人工智能時代:確立以人為本的歐盟人工智能戰略》《通用數據保護條例》和《人工智能道德準則》,皆采取重視智能技術的倫理問題,強調以價值觀引導智能技術,造福個人和社會的一貫立場。這些研究和舉措可以為我國智能傳播的倫理規制提供借鑒。
智能算法的法律規制
算法治理應當從技術、經濟、倫理和政治等多維度,平衡技術創新與風險規避。但是,有效的算法治理并非易事。算法問責、算法透明與公開、言論自由與版權保護等,成為智能傳播法律規制的關鍵議題。
近年來,針對算法透明及可理解性,算法與言論自由保護范圍的爭議,階層固化、認知偏差和社會歧視的復制、延續和再生產,種族與性別歧視“自我循環”,算法主體性風險,算法內容版權等問題,各國都在尋求法律規制的可行性路徑。
如果說歐盟側重于從源頭進行規制,美國注重以案例提供法律參照,那么中國則傾向于針對不同領域進行分散式立法[6]。與片面主張算法透明與公開不同,有研究者認為,更有效的治理方式是“從算法被影響者的角度觀察、考量算法的應用結果”[7]。例如,在針對智能技術立法時,網絡用戶的知情權和參與權也應當被納入進來。當然,因智能技術處于動態發展之中,技術迭代和法律規制的兼容問題仍需進一步探索。
多元協同的治理
算法實踐及其影響的復雜性需要進一步結合“在地化”過程來理解,算法治理模式的探索也應如此。智能傳播的算法治理,不僅需要新聞從業者、編程者、規制者等多元主體的共同參與,也需要傳統媒體、智能算法平臺及政府部門等多部門的支持。
一是主流媒體的價值引領。我國對智能媒體的算法規制由主流媒體與政府部門共同主導[8],且往往是主流媒體發聲監督在前,政府部門規制在后。智能算法導致傳播權力流動,使傳統的主流價值觀及相關話語塑造體系面臨挑戰。主流媒體的價值引領,主要有話語建構和技術采納兩種途徑。2017年,《人民日報》、人民網多次質疑算法的倫理問題;2018年上半年,國家網信辦針對內容“三俗”問題約談多個短視頻平臺并要求整改;2018年下半年,人民日報社牽頭打造有價值觀的“黨媒算法”和新型主流平臺。主流媒體的系列舉措,既是對社會化媒體的監督,也是一種把握傳播話語權、規避意識形態風險、參與協同治理的策略。
二是監管部門的制度完善。基于互聯網治理的經驗,智能傳播的算法風險被納入政府監管當中。國家網信辦出臺了一系列規定,將算法治理的理念具象化為相關的條文條例,如《互聯網新聞信息服務管理規定》(2017年)《網絡安全威脅信息發布管理辦法(征求意見稿)》(2019年)等。此外,歸網信辦管轄的違法和不良信息舉報中心,在借助群眾力量共同進行算法治理,并通過專項整治和集中約談等方式在互聯網清理規范方面發揮了重要作用。
三是算法平臺的技術治理。智能平臺的技術干預,是以“技術之力”治理技術風險。憑借大數據和智能算法,阿里巴巴集團推出的“AI謠言粉碎機”,能夠通過信源判斷、內容特征對比及用戶態度計算等方法進行智能辟謠。今日頭條的“反謠言技術路線圖”披露了謠言從被審核、被識別到被沉淀至謠言庫的整個生命周期。智能語言處理、語音及圖像識別等人工智能技術,也在推動著自動化事實核查(automated fact-checking)的發展。算法平臺的技術治理,體現了從提升信息生產效率到追求信息準確性的取向轉變。
算法治理中的觀念平衡
面對技術和倫理上的雙重困境,各國的本土化發展戰略展示出不同治理邏輯。歐美算法治理理念的差異,在數據利用和隱私保護構成的矛盾關系方面尤為明顯。針對智能算法帶來的技術風險,歐盟主張信息行為主體對其網絡信息的有效控制,充分尊重刪除權、被遺忘權等權益,將“個人隱私保護”視為一種人格尊嚴和基本權利,通過對“人工智能價值觀”的重視來彰顯其獨特優勢。人工智能技術領先的美國,則偏向維護技術發展的創新觀,傾向于將隱私視為一種“基本價值”,側重“保護言論自由”(Steven C. Bennett,2012)。而實現人工智能的價值觀與創新觀、技術崇拜與內容供給間的平衡[9],是我國在智能傳播時代進行算法治理的必然選擇。
從倫理、法律、文化等多維度進行多元協同治理,有助于規避智能傳播的算法風險,營造風清氣正的網絡空間。
【本文作者為華中科技大學新聞與信息傳播學院教授;本文系中央高校基本科研業務經費資助文科重大及交叉項目“‘可見性’視角下的社交媒體信息安全研究”(項目編號:2015AD007)、文科前沿探索項目“大數據時代社交媒體中的信息風險及其治理研究”(項目編號:2015AB016)階段性成果;華中科技大學新聞與信息傳播學院碩士研究生郭瑞陽對本文亦有貢獻】
注釋
[1]胡正榮:《智能化:未來媒體的發展方向》,《現代傳播》,2017年第11期,第1-4頁。
[2]彭蘭:《連接的演進——互聯網進化的基本邏輯》,《國際新聞界》,2013年第12期,第7頁。
[3]賈開:《人工智能與算法治理研究》,《中國行政管理》,2019年第1期,第19-20頁。
[4]郭小平、秦藝軒:《解構智能傳播的數據神話:算法偏見的成因與風險治理路徑》,《現代傳播》,2019 年第9期,第22-24頁。
[5][美]蘭登·溫納:《自主性技術:作為政治思想主題的失控技術》,楊海燕譯,北京:北京大學出版社,2014年,第280頁。
[6]汪慶華:《人工智能的法律規制路徑:一個框架性討論》,《現代法學》,2019年第2期,第54-63頁。
[7]賈開:《人工智能與算法治理研究》,《中國行政管理》,2019年第1期,第21頁。
[8]張志安:《算法推薦及其應用實踐的中國“在地性”思考》,《新聞界》,2019年第7期,第14頁。
[9]郭小平、汪亞純:《智能媒體:傳媒業態、形態與生態的重構及其反思》,《新華文摘》,2019年第18期,第128-130頁。
責編:羅 婷 / 王茂磊
聲明:本文為《國家治理》周刊原創內容,任何單位或個人轉載請回復國家治理周刊微信號獲得授權,轉載時務必標明來源及作者,否則追究法律責任。