【摘要】 人工智能技術應用于新聞傳播領域,在為傳媒業帶來變革的同時也帶來了一些新的倫理法規問題,如對數據的非法采集和過度分析,存在算法偏見,算法不透明,涉及隱私的數據保護缺位等。可以從法規建設、傳媒應具備的責任意識和完善技術規避風險等角度探索解決問題的路徑。算法在傳媒業的應用凸顯了技術理性的優勢,但卻忽略了價值理性所提倡的人的主導性和價值觀,人機協同推進技術理性和價值理性的交融,有助于人工智能在新聞傳播領域的健康發展。
【關鍵詞】人工智能 新聞傳播 新聞倫理與法規 數據保護
【中圖分類號】TU984.2 【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2018.24.006
人工智能是什么?它會如何發展?它會給我們的生活、工作帶來哪些影響?由于學科領域的不同,關于其定義和邊界很難形成共識。人工智能對傳媒業的影響,包括如何提高新聞生產的效率,是否對新聞從業者造成職業壓力,以及是否會對新聞倫理與法規產生沖擊等,已經成為新聞傳播領域的關注點。
人工智能引發了新聞倫理與法規的新問題
在傳統媒體時代,傳媒業相互競爭、追逐利潤,引發了諸如虛假新聞、有償新聞、媒體審判、新聞侵權等違背新聞倫理與法規的現象。當前,人工智能技術逐漸滲透到新聞產品的生產、傳播過程中,在實現精準推送、高效生產的同時,也帶來了新的倫理與法規問題。
數據的非法采集和過度分析。數據是人工智能時代的重要資源,擁有足夠體量的數據是進行數據分析、深度挖掘的前提。因此,為了擁有大量的數據,數據的采集范圍日漸廣泛,采集方式也日漸隱蔽,無形中就增加了個人數據被非法收集和過度分析的風險。
信息劇增時代是一個生產大量數據和消費大量數據的時代,人們日益繁雜的社會活動在不斷地產生著不可計量的數據。從所有權的角度來看,依據法律,每個人不僅擁有個人數據的所有權,而且有權利知道是哪些機構在收集自己的數據、收集了哪些數據、被收集的數據將用于何處,等等。如果在未告知對方的情況下收集個人數據,這就是一種違背職業倫理和相關法規的行為。
當前,社交媒體的普及和大數據分析技術的不斷升級,不僅使得技術人員能夠從看似沒有價值的事物中提取信息,將其轉化成有用的數據,而且也為大數據企業深入分析數據、找到數據之間的關聯性提供了便利。一組孤立的、零散的數據也許不具備較高的價值,但是,如果與其他組數據放在一起考慮,發現其中的相關關系以及相關關系的強弱,將有助于我們比以往更容易、更清晰地分析事物,尤其是在發現商業價值,以及預測某類事物的發展趨勢方面。“互聯網+”為創造新的商業模式開辟了思路,而大數據分析技術則為實現商業價值奠定了技術基礎。當前,為建設一個透明、高效的服務型政府,政府部門在逐漸開放數據庫,一些網站尤其是社交媒體平臺也不同程度地開放了用戶的實時信息,這就為個別大數據商業機構提供了抓取和挖掘數據的機會。當數據(尤其是包含了用戶個人的經濟狀況、社交范圍的數據)間的關系被建立起來,這些數據越是被深度挖掘,其商業價值就越大。在傳統媒體主導的時代,受眾的注意力是最值錢的,而現在則發生了根本性變化,受眾的透明度——所留下的各種行為痕跡(數據)更值錢、更好賣。因此,建立數據采集、數據分析的實施規則,有助于消除個人數據的違規采集和過度挖掘現象。
算法偏見和算法透明度。按照常理,算法作為一種數學表達,理應拋棄了人類在信息傳播中具有的獵奇、歧視、偏見等不良因素,但現實并非如此。所謂的算法偏見(algorithmic bias),是指在看似客觀中立的算法程序的研發中,其實帶有研發人員的偏見、歧視等,或者所采用的數據帶有偏見或歧視。[1]算法是通過數據運算來預測未來的,運算過程將涉及數據的質量、研發人員對數據的篩選等因素。其中,數據的體量、準確性、適用范圍等直接關系到算法決策和運算的結果。在研發人工智能系統的過程中,研發人員所使用的訓練數據的分布狀況,以及對算法進行應力測試的過程,都會影響人工智能的決策與選擇,使得各式各樣的偏見、歧視被技術客觀性的外衣包裹。另外,算法和數據驅動產品總是會反映其建造者的設計選擇,如若程序員們本身帶有偏見,那么編寫出來的程序帶有偏見就不足為奇了。[2]當前,算法偏見主要有如下幾種:一是“互動偏見”,指在算法系統與用戶互動過程中使算法產生的偏見,當機器被設定為向周圍環境學習時,它們不能決定要保留或者丟棄哪些數據,也無法判斷哪些數據是對的或錯的;二是“潛意識偏見”,指算法將錯誤的觀念與種族和性別等因素連結起來;三是“選擇偏見”,指受數據影響的算法,導致過于放大某一族群或群組,從而使該算法對其有利,而代價是犧牲其他群體;四是“數據導向的偏見”,指用來訓練算法的原始數據已經存在偏見了,機器不會質疑所接收到的數據,只是單純地尋找其中的模式。如果數據一開始就被扭曲,那么其輸出的結果,也將會反映這一點。[3]
算法的透明度問題本質上也是新聞生產的透明度問題。傳統的新聞生產流程較為簡單,從素材的采集加工,到編輯整合,再到播發,公眾多多少少都有所了解。而披著“高科技”外衣的“算法”則讓人感覺有些“高深莫測”了。諸如“是哪些人研發了這個算法”“這個算法的運算目的是什么”“誰對運算的結果負責”以及“設計推薦算法需要參考哪些指標”等類似的問題在等待著回答,但遺憾的是,算法自身的復雜性再加上無法洞悉的“算法黑箱”的存在,增加了公眾對算法的設計原理、運行邏輯的理解難度。算法的透明度不僅牽涉新聞生產流程的“客觀性”“公平公正”,而且關聯著公眾對新聞傳媒、新聞產品質量的信任,更使得“算法”的透明度問題日益被人們關注。因此,提升算法透明度的意義非同尋常,特別是隨著算法在新聞生產、新聞推送的應用日漸增多,“透明度”越來越多地被用作合法化新聞的規范基礎,透明度不僅可以對新聞算法的功能進行有價值的檢查,還可以提高算法對道德、文化和認識論的影響力。[4]
對隱私權與數據保護的憂慮。隨著人們與外界交往活動的增加,以及記錄、存儲和傳播信息的技術日益完善,大量涉及公眾個人的數據被卷入了信息洪流之中,人們掌控自己信息的權利和能力被削弱,變得愈加透明,正如麻省理工學院的研究人員所發現的,只需掌握四個時空移動數據,就可以辨識出95%的個人身份信息。[5]大數據時代使得隱私被侵犯的概率以及善后的難度成倍增加,一旦造成傷害,就無法補救,即使你刪除了原文,無數影像文件依然存在。[6]
近幾年,推薦算法是國內外大多數新聞APP和社交媒體平臺使用的主流,通過機器學習持續關注用戶的閱讀數據,來提升新聞生產的個性化和新聞推送的準確率。推薦算法的實質就是大數據分析。通過抓取和分析用戶的年齡、性別、職業、文化水平、收入水平等人文信息,以及閱讀時的接觸時長、接觸頻率、接觸動機等行為信息,將用戶的零散數據匯聚在一起,運用算法實現用戶的精準畫像,推測出用戶的個人特征、閱讀偏好等。
我們在使用互聯網的時候經常遇到“授權提示”,通過授權我們獲取了某些操作上的便捷和高效,實質上,這是用戶在“被愿意”的情況下,通過“讓渡”隱私來換取便利。2013年以來,美國傳媒行業開始利用傳感器采集數據并將之用于新聞報道。安裝在公共場所的各類傳感器可以24小時不間斷地采集人們的信息,此外,運動手環、智能手機、電子閱讀器等配置的一些軟件也可以隨時隨地采集使用者的個性化數據。在各式各樣的傳感設備面前,人們幾乎無隱私可言,而且無法知曉自身的哪些信息被采集了,被采集的數據又是如何被使用的。當我們在社會活動中產生的信息,尤其是一些較為敏感的數據,在不知不覺地被收集、被分析,甚至被用于商業目的時,或者原本屬于個人的私密空間被他人“窺視”和“分享”時,這就預示著人們在保護個人隱私、控制和管理個人數據上已經處于弱勢地位了。
如何應對人工智能技術對新聞傳播的負面影響
技術紅利與技術缺陷是相伴相生的,作為一個還不完善的新生事物,人工智能不可避免會產生一些新聞倫理與法規方面的問題。分析問題的根源以規避負面影響的產生,將有助于人工智能最大化地發揮自身價值。
法規建設層面。倫理是人類文明的朝陽,法規是人類文明的落日,是規范社會行為時不得已而為之的他律。第一部個人數據保護法,是1973年的《瑞典數據法》。而美國則是第一個明確提出保護隱私權,并在1974年通過了《隱私法》的國家,1988年制定了《電腦匹配與隱私權法》,1998年美國國會又通過了《網上兒童隱私權保護法》。為解決互聯網時代對用戶個人數據的收集、使用等問題,1996年歐盟通過了《關于個人數據處理保護與自由流動指令》,2016年又制定了《通用數據保護條例》(GDPR),并于2018年5月25日在歐盟28個成員國生效。
為了加強對電信、金融、醫療等服務機構中使用個人數據信息的管理,2013年2月,我國開始實施《信息安全技術公共及商用服務信息系統個人信息保護指南》,該標準的顯著特點是將個人信息劃分為一般信息和敏感信息兩個類別,個人信息的使用前提是知情同意,并且要求在被使用后予以刪除等。
2017年6月1日開始施行的《網絡安全法》也有關于保護公民合法權益的規定:網絡運營者應當對其收集的用戶信息嚴格保密;網絡運營者收集、使用個人信息,應當遵循合法、正當、必要的原則,公開收集、使用規則,明示收集、使用信息的目的、方式和范圍,并經被收集者同意;網絡運營者不得泄露、篡改、毀損其收集的個人信息;未經被收集者同意,不得向他人提供個人信息。[7]為了最終將個人信息的控制權歸還給用戶本人,各國相繼出臺的個人數據保護法規主要有以下幾個關鍵點:一是采集數據信息時,必須得到用戶本人的知情同意;二是將知情程度延展到數據抓取的方法、數據使用目的、是否同意再次出讓;三是用戶有權隨時查看、更正和刪除數據,發現錯誤數據時,有權要求修改;四是建立投訴、舉報制度,并制定了明確的處罰條例。
長期以來,法律的制定與實施往往滯后于新技術、新實踐的發展。當前,明確責任的歸屬問題以及由此衍生的人們對人工智能的信任問題,已經成為影響人工智能技術發展的瓶頸。人工智能在眾多領域的應用,尤其是無人駕駛汽車、醫療機器人等的誕生,加速了構建適用于人工智能的法律體系的步伐。目前,在缺乏參照系的情況下,對于新出現的人工智能案例,可以適用現有法律(如侵犯隱私、一般的侵權等)[8],但這僅僅是權宜之計,作出前瞻性的立法布局,在恰當的時候制定適用于人工智能的法律法規體系,從根本上解決問題,則是各國在人工智能時代的最佳應對策略。
媒體責任層面。快速與個性化是人工智能應用于傳媒業的最顯著的特征。人工智能對新聞價值的判別主要基于算法,致使其在生產和推送中更側重于那些公眾“欲知而未知”的內容,而那些涉及公共利益,包含一定政策性、知識性的內容,即廣大公眾“應知而未知”的內容,則較難納入生產和推送的范圍。算法的存在價值就是幫助人們作出選擇,而選擇本身就意味著放棄。如果公眾長期受到智能生產、智能排序和智能推薦的影響,接觸到和所選擇的僅僅是基于個人偏好或者智能軟件所推送的新聞信息,就難免限制公眾的視野,使公眾處于信息溝通與交流的孤島之中。由此所形成“信息繭房”,對個體而言,主要影響的是公眾個人社會化的過程與結果,但對整個社會而言,就會減少不同聲音之間的碰撞、不同觀點之間的交鋒,社會輿論趨于單一和一致化。在多元的社會輿論環境中求得動態的平衡,才是社會和諧發展的正常過程。因此,新聞傳媒不能以人工智能有助于為自身的發展帶來轉機為借口,而忽略了新聞傳播的多樣性和多元化。
當前,人工智能技術使得新聞產品的商業屬性被突出強調,原來的新聞“5W”要素有了新的解讀,變成了:誰在乎;他們為此想付出什么;媒體和廣告商在哪里可以找到這些人;什么時候提供這些新聞才是有利可圖的;為什么這個可以賺錢。[9]這種轉變預示著以消費者為導向的商業模式加劇了對傳統新聞生產模式的侵蝕,新聞傳播的公共服務性再次被削弱。
在我國,新聞傳媒不僅是信息傳播渠道,還擔負著宣導撫慰的職責,需要與政府良性互動,進而發揮協調利益、疏導矛盾的功能。目前,人工智能技術還不具備從宏觀上透徹地了解社會現狀與發展進程的能力,也無法在新聞的生產與發布上體現大局意識。在把尊重公眾的知情權、回應公眾的關切與政府當前的工作重心結合起來,把服務、滿足公眾需求與教育引導公眾、提高公眾的素養結合起來等方面,人工智能還有很長的路要走。當在新聞信息傳播中出現倫理失范和違反法律法規時,“這是算法的結果”和“這是機器生成的”不能成為傳媒推卸責任的“擋箭牌”。
技術完善層面。當前,加強個人隱私和數據保護是較為緊迫的任務,切實可行的方法有研發“匿名化處理”技術和推廣具有個人數據保護功能的軟件產品。匿名化處理是指互聯網公司或數據機構在實施數據分析之前,移除所采集的數據中可識別個人信息的部分,使數據主體不再被識別出來。這種做法既可以降低暴露個人敏感信息的風險,還有助于保證用戶對大數據技術和人工智能的信任度。
國外互聯網市場上所研發的有助于保護個人數據隱私的產品和服務主要有兩類:一是協助加密、反追蹤或者銷毀個人數據的軟件,二是去掉了數據搜集功能的搜索引擎。用戶的網上信息對于商業公司,尤其是對于在線廣告公司有著極高的商業價值。Do Not Track(Dnt)是一款杜絕在線跟蹤用戶行為的功能。如在谷歌、微軟、火狐等具有 “Do not track” 功能的瀏覽器中就有一個“發送不跟蹤”的按鈕,網民開啟這項功能之后,就能夠避免自己的網上行為被追蹤,從而避免隱私泄露。傳統的搜索引擎為了提高效率,都會對用戶數據進行詳盡地收集和分析,從倫理法規的角度看這是一種侵犯用戶隱私的行為。近年國外開發并推行的Duck Duck Go就是一款不監控用戶搜索行為、不記錄用戶搜索內容的互聯網搜索引擎,其最大特色就是能夠有效保護用戶的隱私。
隨著人工智能技術的日漸成熟,越來越多的規則被程序員以代碼的形式寫進了算法程序。算法、代碼開始影響各種決策,從技術層面或者說在機器學習過程中嵌入“機會平等”的概念、構建技術公平原則,在人工智能日漸代替人類作出抉擇的時代顯得非常重要。國外已經有研究團隊依據約翰·羅爾斯的公平技術定義及其“機會公平平等”理論,引入了“歧視指數”的概念,提出了設計“公平”算法的構想。[10]
技術引發的新聞倫理和法規問題不能成為否定技術本身的理由,相反的,我們應當有針對性地剖析問題的根源,糾正并克服人工智能技術在倫理法規上的失范,多渠道、全方位地探索出有效的路徑,保證人工智能技術在新聞傳播領域的良性發展。
在人機協同中實現技術理性與價值理性的交融
新聞傳媒業的發展可以說與傳播技術的發展是同步的,新技術不僅改變了人們的生活狀態,也推動了傳媒業的變革與發展。從媒介技術的角度而言,就是解決如何以最方便、最靈活、最快捷、最經濟、最有效的手段和方法提高信息生產與傳播效率問題,它的內在邏輯是技術理性或工具理性。[11]但是,新聞傳播是人的社會實踐活動,僅靠技術理性的驅動是不夠的,需要將追求效果的最大化與關注人的情感和精神價值結合起來。
人機共生、人機協同是傳媒業的發展趨勢。計算機科學家高德納曾經評價人工智能:人工智能已經在幾乎所有需要思考的領域超過了人類,但是在那些人類和其他動物不需要思考就能完成的事情上,還差得很遠。[12]人工智能盡管在新聞報道的人文情懷、創意構思上還有不盡如人意的地方,但也具備了高效的生產、精準的推送,以及渠道的拓展等人力所無法比肩的優勢。結合3D成像技術、語音識別技術等,如今人工智能已經開始扮演傳播者“人”的身份,并且進入現實的新聞傳播活動之中。但是,事實告訴我們,新聞傳播是一種極富專業性和“創意”的智力活動,同時也是涉及政治思想、文化宗教等意識形態領域的高級精神勞動,因此,揚長避短是比較明智的選擇,把機器或者程序能做的交給機器和程序,從而把人力解放出來,去從事具有創新要求和需要發揮想象力的工作,這是自工業革命以來自動化革命的基本理念。[13]
面對人工智能技術對傳媒領域的逐漸滲透,新聞從業者將與人工智能進行科學的分工與互補性的協作,在“人機共生”的環境中各展所長,媒體通過算法來發現新聞線索、整理分析數據以及撰寫初稿,新聞從業者則將精力用于對重要人物的采訪、稿件內容的深化等能夠施展人類才華、體現職業理想和人文情懷的地方。從傳媒業的整體布局來看,不僅要構建“人機協同”的生產模式,更要鼓勵二者在協同中實現創新,這或許是傳媒業在人工智能時代的最佳選擇。
價值理性與技術理性的相互協調。人機協同不僅是指新聞生產中新聞從業者與算法系統的相互配合,更指在新聞傳播中,價值理性和技術理性之間的平衡。法蘭克福學派的代表人物赫伯特·馬爾庫塞認為,技術作為一種生產方式,……同時也是組織和維持(或改變)社會關系的一種方式,它體現了主導性的思考和行為模式,是控制和支配的工具。[14]以前主要靠暴力來統治社會,而在現代社會中,技術成為社會控制的新形式,技術理性已經成為一種意識形態來統治和控制社會。技術理性強調的是通過技術來推動社會的發展,改善人們的生活,技術有著顯著的實用性、目的性,其效果往往是立竿見影,容易被廣大公眾親身感受到,在技術推崇備至的情況下,技術理性引導著人們更關心利益的獲取和物的追求,致使人們的自主意識和獨立判斷能力在悄無聲息中被消解。
相比于技術理性,價值理性是一種以人為中心的理性,它不以功利為最高目的,其目標是推護人的尊嚴、提升人的價值、滿足人的長遠需要、促進人的全面發展和完善。價值理性解決的是“做什么”的問題,為實踐主體指明了方向,至于“如何做”的問題則主要由工具理性來解決。技術理性雖然增強了人的生存和發展能力,帶來了物質的豐富和文化的繁榮,但是隨著技術理性被無限放大,價值理性的發揮受到了擠壓和限制。在新聞傳播活動中,既要重視節約生產成本、提高傳播效率,同時也要考慮新聞傳媒如何更好地發揮引領輿論、協調利益、疏導心理等充滿人文情懷的功能。人機交互、人機協同本質上是在強調人的主體性,在人工智能中融入人的價值觀和人文情懷,通過提升人工智能的價值理性,將價值理性和工具理性統一于新聞實踐中。
結語
人工智能為新聞傳媒業的發展開啟了一扇窗戶,在改變著新聞信息的生產和傳播方式的同時,也需要原有的新聞倫理與法規作出相應的調適。因人工智能技術應用于傳媒領域而引發問題不是技術發展的失敗,而是對技術理性與價值理性能否相互協調、相互融合的考驗,也是對新聞倫理法規開放性的考驗。因此,考察人工智能技術在新聞傳播領域的應用,以及由此帶來的問題,不僅拓展了新聞倫理與法規的研究視野,更有助于指導不斷變革中的新聞實踐。
(本文系中國人民大學科學研究基金[中央高校基本科研業務費專項資金資助]項目“數據新聞可視化的產品評價指標體系研究”的研究成果,項目編號:17XNL003)
注釋
[1]《算法偏見是如何產生的?》,新華網,2018年3月22日,http://xw.xinhuanet.com/news/detail/779138/。
[2]Misty:《致程序員:算法為何帶有偏見?》,雷鋒網,2016年6月27日,https://www.leiphone.com/news/201606/tnedws8svgubagll.html。
[3]Francisco Socal:《人工智能算法偏見的根源在人類》,電子工程專輯EE Times China網,2018年3月22日,https://www.eet-china.com/news/201803220600.html。
[4]Matt Carlson, "Automating judgment? Algorithmic judgment, news knowledge, and journalistic professionalism", New Media & Society, 2018, Vol. 20(5) , pp. 1755-1772.
[5]Yves-Alexandre de Montijoye, et al., "Unique in the Crowd: The Privacy Bounds of Human Mobility", Scientific Reports, 25 March, 2013, www.nature.com/srep/2013/130325/srep01376/full/ srep01376.html.
[6]彭增軍:《新聞業的救贖:數字時代新聞生產的16個關鍵問題》,北京:中國人民大學出版社,2018年,第119~120頁。
[7]《中華人民共和國網絡安全法》,中國人大網,2016年11月7日,http://www.npc.gov.cn/npc/xinwen/2016-11/07/content_2001605.htm。
[8]喬路、白雪:《人工智能的法律未來》,北京:知識產權出版社,2018年,第32頁。
[9]彭增軍:《新聞業的救贖:數字時代新聞生產的16個關鍵問題》,北京:中國人民大學出版社,2018年,第141頁。
[10]Matthew Joseph, Michael Kearns, Jamie Morgenstern, Seth Neel, Aaron Roth, Rawlsian Fairness for Machine Learning, Submitted on 29 October 2016 (v1), revised 1 November 2016 (this version, v2), latest version 29 June 2017.
[11]郭慶光:《傳播學教程》(第二版),北京:中國人民大學出版社,2011年,第116頁。
[12]王天一:《人工智能革命:歷史、當下與未來》,北京時代華文書局,2017年,第43頁。
[13]金兼斌:《機器新聞寫作:一場正在發生的革命》,《新聞與寫作》,2014年第9期。
[14]Herbert Marcuse, "Some Social Implications of Modern Technology", Studies in Philosophy & Social Science, 1941, pp. 138-139.
責 編/馬冰瑩
Thoughts on News Ethics and Regulations in the Age of Artificial Intelligence
Xu Xiangdong
Abstract: While the AI technology brings great changes to the media industry, it also causes certain ethical and regulatory issues, such as illegal collection and over-analysis of data, algorithmic biases, opaque algorithms, and lack of protection of privacy-related data. The path of problem solving can be explored from the perspectives of law making, the responsibility of the media, and the improvement of technology to avoid risks. The application of algorithm in the media industry highlights the advantages of technical rationality, but ignores the dominance and values advocated by value rationality. Promoting the blending of technical rationality and value rationality through the human-machine coordination can help AI to develop in a healthy manner in the field of news communication.
Keywords: artificial intelligence, news communication, news ethics and regulations, data protection
許向東,中國人民大學新聞學院教授、博導,中國人民大學新聞與社會發展研究中心研究員。研究方向為新聞媒體、新聞實務。主要著作有《數據新聞可視化——如何用可視化講故事》《數據新聞——新聞報道新模式》《信息圖表編輯》等。