人妻少妇中文在线视频,丁香五月婷婷激情网,日本韩国黄色成人网站,亚洲综合99伊人四虎

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 原創(chuàng)精品 > 成果首發(fā) > 正文

關于人工智能時代新聞倫理與法規(guī)的思考

【摘要】 人工智能技術應用于新聞傳播領域,在為傳媒業(yè)帶來變革的同時也帶來了一些新的倫理法規(guī)問題,如對數(shù)據(jù)的非法采集和過度分析,存在算法偏見,算法不透明,涉及隱私的數(shù)據(jù)保護缺位等??梢詮姆ㄒ?guī)建設、傳媒應具備的責任意識和完善技術規(guī)避風險等角度探索解決問題的路徑。算法在傳媒業(yè)的應用凸顯了技術理性的優(yōu)勢,但卻忽略了價值理性所提倡的人的主導性和價值觀,人機協(xié)同推進技術理性和價值理性的交融,有助于人工智能在新聞傳播領域的健康發(fā)展。

【關鍵詞】人工智能  新聞傳播  新聞倫理與法規(guī)  數(shù)據(jù)保護

【中圖分類號】TU984.2                        【文獻標識碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2018.24.006

人工智能是什么?它會如何發(fā)展?它會給我們的生活、工作帶來哪些影響?由于學科領域的不同,關于其定義和邊界很難形成共識。人工智能對傳媒業(yè)的影響,包括如何提高新聞生產(chǎn)的效率,是否對新聞從業(yè)者造成職業(yè)壓力,以及是否會對新聞倫理與法規(guī)產(chǎn)生沖擊等,已經(jīng)成為新聞傳播領域的關注點。

人工智能引發(fā)了新聞倫理與法規(guī)的新問題

在傳統(tǒng)媒體時代,傳媒業(yè)相互競爭、追逐利潤,引發(fā)了諸如虛假新聞、有償新聞、媒體審判、新聞侵權等違背新聞倫理與法規(guī)的現(xiàn)象。當前,人工智能技術逐漸滲透到新聞產(chǎn)品的生產(chǎn)、傳播過程中,在實現(xiàn)精準推送、高效生產(chǎn)的同時,也帶來了新的倫理與法規(guī)問題。

數(shù)據(jù)的非法采集和過度分析。數(shù)據(jù)是人工智能時代的重要資源,擁有足夠體量的數(shù)據(jù)是進行數(shù)據(jù)分析、深度挖掘的前提。因此,為了擁有大量的數(shù)據(jù),數(shù)據(jù)的采集范圍日漸廣泛,采集方式也日漸隱蔽,無形中就增加了個人數(shù)據(jù)被非法收集和過度分析的風險。

信息劇增時代是一個生產(chǎn)大量數(shù)據(jù)和消費大量數(shù)據(jù)的時代,人們?nèi)找娣彪s的社會活動在不斷地產(chǎn)生著不可計量的數(shù)據(jù)。從所有權的角度來看,依據(jù)法律,每個人不僅擁有個人數(shù)據(jù)的所有權,而且有權利知道是哪些機構在收集自己的數(shù)據(jù)、收集了哪些數(shù)據(jù)、被收集的數(shù)據(jù)將用于何處,等等。如果在未告知對方的情況下收集個人數(shù)據(jù),這就是一種違背職業(yè)倫理和相關法規(guī)的行為。

當前,社交媒體的普及和大數(shù)據(jù)分析技術的不斷升級,不僅使得技術人員能夠從看似沒有價值的事物中提取信息,將其轉(zhuǎn)化成有用的數(shù)據(jù),而且也為大數(shù)據(jù)企業(yè)深入分析數(shù)據(jù)、找到數(shù)據(jù)之間的關聯(lián)性提供了便利。一組孤立的、零散的數(shù)據(jù)也許不具備較高的價值,但是,如果與其他組數(shù)據(jù)放在一起考慮,發(fā)現(xiàn)其中的相關關系以及相關關系的強弱,將有助于我們比以往更容易、更清晰地分析事物,尤其是在發(fā)現(xiàn)商業(yè)價值,以及預測某類事物的發(fā)展趨勢方面。“互聯(lián)網(wǎng)+”為創(chuàng)造新的商業(yè)模式開辟了思路,而大數(shù)據(jù)分析技術則為實現(xiàn)商業(yè)價值奠定了技術基礎。當前,為建設一個透明、高效的服務型政府,政府部門在逐漸開放數(shù)據(jù)庫,一些網(wǎng)站尤其是社交媒體平臺也不同程度地開放了用戶的實時信息,這就為個別大數(shù)據(jù)商業(yè)機構提供了抓取和挖掘數(shù)據(jù)的機會。當數(shù)據(jù)(尤其是包含了用戶個人的經(jīng)濟狀況、社交范圍的數(shù)據(jù))間的關系被建立起來,這些數(shù)據(jù)越是被深度挖掘,其商業(yè)價值就越大。在傳統(tǒng)媒體主導的時代,受眾的注意力是最值錢的,而現(xiàn)在則發(fā)生了根本性變化,受眾的透明度——所留下的各種行為痕跡(數(shù)據(jù))更值錢、更好賣。因此,建立數(shù)據(jù)采集、數(shù)據(jù)分析的實施規(guī)則,有助于消除個人數(shù)據(jù)的違規(guī)采集和過度挖掘現(xiàn)象。

算法偏見和算法透明度。按照常理,算法作為一種數(shù)學表達,理應拋棄了人類在信息傳播中具有的獵奇、歧視、偏見等不良因素,但現(xiàn)實并非如此。所謂的算法偏見(algorithmic bias),是指在看似客觀中立的算法程序的研發(fā)中,其實帶有研發(fā)人員的偏見、歧視等,或者所采用的數(shù)據(jù)帶有偏見或歧視。[1]算法是通過數(shù)據(jù)運算來預測未來的,運算過程將涉及數(shù)據(jù)的質(zhì)量、研發(fā)人員對數(shù)據(jù)的篩選等因素。其中,數(shù)據(jù)的體量、準確性、適用范圍等直接關系到算法決策和運算的結果。在研發(fā)人工智能系統(tǒng)的過程中,研發(fā)人員所使用的訓練數(shù)據(jù)的分布狀況,以及對算法進行應力測試的過程,都會影響人工智能的決策與選擇,使得各式各樣的偏見、歧視被技術客觀性的外衣包裹。另外,算法和數(shù)據(jù)驅(qū)動產(chǎn)品總是會反映其建造者的設計選擇,如若程序員們本身帶有偏見,那么編寫出來的程序帶有偏見就不足為奇了。[2]當前,算法偏見主要有如下幾種:一是“互動偏見”,指在算法系統(tǒng)與用戶互動過程中使算法產(chǎn)生的偏見,當機器被設定為向周圍環(huán)境學習時,它們不能決定要保留或者丟棄哪些數(shù)據(jù),也無法判斷哪些數(shù)據(jù)是對的或錯的;二是“潛意識偏見”,指算法將錯誤的觀念與種族和性別等因素連結起來;三是“選擇偏見”,指受數(shù)據(jù)影響的算法,導致過于放大某一族群或群組,從而使該算法對其有利,而代價是犧牲其他群體;四是“數(shù)據(jù)導向的偏見”,指用來訓練算法的原始數(shù)據(jù)已經(jīng)存在偏見了,機器不會質(zhì)疑所接收到的數(shù)據(jù),只是單純地尋找其中的模式。如果數(shù)據(jù)一開始就被扭曲,那么其輸出的結果,也將會反映這一點。[3]

算法的透明度問題本質(zhì)上也是新聞生產(chǎn)的透明度問題。傳統(tǒng)的新聞生產(chǎn)流程較為簡單,從素材的采集加工,到編輯整合,再到播發(fā),公眾多多少少都有所了解。而披著“高科技”外衣的“算法”則讓人感覺有些“高深莫測”了。諸如“是哪些人研發(fā)了這個算法”“這個算法的運算目的是什么”“誰對運算的結果負責”以及“設計推薦算法需要參考哪些指標”等類似的問題在等待著回答,但遺憾的是,算法自身的復雜性再加上無法洞悉的“算法黑箱”的存在,增加了公眾對算法的設計原理、運行邏輯的理解難度。算法的透明度不僅牽涉新聞生產(chǎn)流程的“客觀性”“公平公正”,而且關聯(lián)著公眾對新聞傳媒、新聞產(chǎn)品質(zhì)量的信任,更使得“算法”的透明度問題日益被人們關注。因此,提升算法透明度的意義非同尋常,特別是隨著算法在新聞生產(chǎn)、新聞推送的應用日漸增多,“透明度”越來越多地被用作合法化新聞的規(guī)范基礎,透明度不僅可以對新聞算法的功能進行有價值的檢查,還可以提高算法對道德、文化和認識論的影響力。[4]

對隱私權與數(shù)據(jù)保護的憂慮。隨著人們與外界交往活動的增加,以及記錄、存儲和傳播信息的技術日益完善,大量涉及公眾個人的數(shù)據(jù)被卷入了信息洪流之中,人們掌控自己信息的權利和能力被削弱,變得愈加透明,正如麻省理工學院的研究人員所發(fā)現(xiàn)的,只需掌握四個時空移動數(shù)據(jù),就可以辨識出95%的個人身份信息。[5]大數(shù)據(jù)時代使得隱私被侵犯的概率以及善后的難度成倍增加,一旦造成傷害,就無法補救,即使你刪除了原文,無數(shù)影像文件依然存在。[6]

近幾年,推薦算法是國內(nèi)外大多數(shù)新聞APP和社交媒體平臺使用的主流,通過機器學習持續(xù)關注用戶的閱讀數(shù)據(jù),來提升新聞生產(chǎn)的個性化和新聞推送的準確率。推薦算法的實質(zhì)就是大數(shù)據(jù)分析。通過抓取和分析用戶的年齡、性別、職業(yè)、文化水平、收入水平等人文信息,以及閱讀時的接觸時長、接觸頻率、接觸動機等行為信息,將用戶的零散數(shù)據(jù)匯聚在一起,運用算法實現(xiàn)用戶的精準畫像,推測出用戶的個人特征、閱讀偏好等。

我們在使用互聯(lián)網(wǎng)的時候經(jīng)常遇到“授權提示”,通過授權我們獲取了某些操作上的便捷和高效,實質(zhì)上,這是用戶在“被愿意”的情況下,通過“讓渡”隱私來換取便利。2013年以來,美國傳媒行業(yè)開始利用傳感器采集數(shù)據(jù)并將之用于新聞報道。安裝在公共場所的各類傳感器可以24小時不間斷地采集人們的信息,此外,運動手環(huán)、智能手機、電子閱讀器等配置的一些軟件也可以隨時隨地采集使用者的個性化數(shù)據(jù)。在各式各樣的傳感設備面前,人們幾乎無隱私可言,而且無法知曉自身的哪些信息被采集了,被采集的數(shù)據(jù)又是如何被使用的。當我們在社會活動中產(chǎn)生的信息,尤其是一些較為敏感的數(shù)據(jù),在不知不覺地被收集、被分析,甚至被用于商業(yè)目的時,或者原本屬于個人的私密空間被他人“窺視”和“分享”時,這就預示著人們在保護個人隱私、控制和管理個人數(shù)據(jù)上已經(jīng)處于弱勢地位了。

如何應對人工智能技術對新聞傳播的負面影響

技術紅利與技術缺陷是相伴相生的,作為一個還不完善的新生事物,人工智能不可避免會產(chǎn)生一些新聞倫理與法規(guī)方面的問題。分析問題的根源以規(guī)避負面影響的產(chǎn)生,將有助于人工智能最大化地發(fā)揮自身價值。

法規(guī)建設層面。倫理是人類文明的朝陽,法規(guī)是人類文明的落日,是規(guī)范社會行為時不得已而為之的他律。第一部個人數(shù)據(jù)保護法,是1973年的《瑞典數(shù)據(jù)法》。而美國則是第一個明確提出保護隱私權,并在1974年通過了《隱私法》的國家,1988年制定了《電腦匹配與隱私權法》,1998年美國國會又通過了《網(wǎng)上兒童隱私權保護法》。為解決互聯(lián)網(wǎng)時代對用戶個人數(shù)據(jù)的收集、使用等問題,1996年歐盟通過了《關于個人數(shù)據(jù)處理保護與自由流動指令》,2016年又制定了《通用數(shù)據(jù)保護條例》(GDPR),并于2018年5月25日在歐盟28個成員國生效。

為了加強對電信、金融、醫(yī)療等服務機構中使用個人數(shù)據(jù)信息的管理,2013年2月,我國開始實施《信息安全技術公共及商用服務信息系統(tǒng)個人信息保護指南》,該標準的顯著特點是將個人信息劃分為一般信息和敏感信息兩個類別,個人信息的使用前提是知情同意,并且要求在被使用后予以刪除等。

2017年6月1日開始施行的《網(wǎng)絡安全法》也有關于保護公民合法權益的規(guī)定:網(wǎng)絡運營者應當對其收集的用戶信息嚴格保密;網(wǎng)絡運營者收集、使用個人信息,應當遵循合法、正當、必要的原則,公開收集、使用規(guī)則,明示收集、使用信息的目的、方式和范圍,并經(jīng)被收集者同意;網(wǎng)絡運營者不得泄露、篡改、毀損其收集的個人信息;未經(jīng)被收集者同意,不得向他人提供個人信息。[7]為了最終將個人信息的控制權歸還給用戶本人,各國相繼出臺的個人數(shù)據(jù)保護法規(guī)主要有以下幾個關鍵點:一是采集數(shù)據(jù)信息時,必須得到用戶本人的知情同意;二是將知情程度延展到數(shù)據(jù)抓取的方法、數(shù)據(jù)使用目的、是否同意再次出讓;三是用戶有權隨時查看、更正和刪除數(shù)據(jù),發(fā)現(xiàn)錯誤數(shù)據(jù)時,有權要求修改;四是建立投訴、舉報制度,并制定了明確的處罰條例。

長期以來,法律的制定與實施往往滯后于新技術、新實踐的發(fā)展。當前,明確責任的歸屬問題以及由此衍生的人們對人工智能的信任問題,已經(jīng)成為影響人工智能技術發(fā)展的瓶頸。人工智能在眾多領域的應用,尤其是無人駕駛汽車、醫(yī)療機器人等的誕生,加速了構建適用于人工智能的法律體系的步伐。目前,在缺乏參照系的情況下,對于新出現(xiàn)的人工智能案例,可以適用現(xiàn)有法律(如侵犯隱私、一般的侵權等)[8],但這僅僅是權宜之計,作出前瞻性的立法布局,在恰當?shù)臅r候制定適用于人工智能的法律法規(guī)體系,從根本上解決問題,則是各國在人工智能時代的最佳應對策略。

媒體責任層面。快速與個性化是人工智能應用于傳媒業(yè)的最顯著的特征。人工智能對新聞價值的判別主要基于算法,致使其在生產(chǎn)和推送中更側重于那些公眾“欲知而未知”的內(nèi)容,而那些涉及公共利益,包含一定政策性、知識性的內(nèi)容,即廣大公眾“應知而未知”的內(nèi)容,則較難納入生產(chǎn)和推送的范圍。算法的存在價值就是幫助人們作出選擇,而選擇本身就意味著放棄。如果公眾長期受到智能生產(chǎn)、智能排序和智能推薦的影響,接觸到和所選擇的僅僅是基于個人偏好或者智能軟件所推送的新聞信息,就難免限制公眾的視野,使公眾處于信息溝通與交流的孤島之中。由此所形成“信息繭房”,對個體而言,主要影響的是公眾個人社會化的過程與結果,但對整個社會而言,就會減少不同聲音之間的碰撞、不同觀點之間的交鋒,社會輿論趨于單一和一致化。在多元的社會輿論環(huán)境中求得動態(tài)的平衡,才是社會和諧發(fā)展的正常過程。因此,新聞傳媒不能以人工智能有助于為自身的發(fā)展帶來轉(zhuǎn)機為借口,而忽略了新聞傳播的多樣性和多元化。

當前,人工智能技術使得新聞產(chǎn)品的商業(yè)屬性被突出強調(diào),原來的新聞“5W”要素有了新的解讀,變成了:誰在乎;他們?yōu)榇讼敫冻鍪裁?;媒體和廣告商在哪里可以找到這些人;什么時候提供這些新聞才是有利可圖的;為什么這個可以賺錢。[9]這種轉(zhuǎn)變預示著以消費者為導向的商業(yè)模式加劇了對傳統(tǒng)新聞生產(chǎn)模式的侵蝕,新聞傳播的公共服務性再次被削弱。

在我國,新聞傳媒不僅是信息傳播渠道,還擔負著宣導撫慰的職責,需要與政府良性互動,進而發(fā)揮協(xié)調(diào)利益、疏導矛盾的功能。目前,人工智能技術還不具備從宏觀上透徹地了解社會現(xiàn)狀與發(fā)展進程的能力,也無法在新聞的生產(chǎn)與發(fā)布上體現(xiàn)大局意識。在把尊重公眾的知情權、回應公眾的關切與政府當前的工作重心結合起來,把服務、滿足公眾需求與教育引導公眾、提高公眾的素養(yǎng)結合起來等方面,人工智能還有很長的路要走。當在新聞信息傳播中出現(xiàn)倫理失范和違反法律法規(guī)時,“這是算法的結果”和“這是機器生成的”不能成為傳媒推卸責任的“擋箭牌”。

技術完善層面。當前,加強個人隱私和數(shù)據(jù)保護是較為緊迫的任務,切實可行的方法有研發(fā)“匿名化處理”技術和推廣具有個人數(shù)據(jù)保護功能的軟件產(chǎn)品。匿名化處理是指互聯(lián)網(wǎng)公司或數(shù)據(jù)機構在實施數(shù)據(jù)分析之前,移除所采集的數(shù)據(jù)中可識別個人信息的部分,使數(shù)據(jù)主體不再被識別出來。這種做法既可以降低暴露個人敏感信息的風險,還有助于保證用戶對大數(shù)據(jù)技術和人工智能的信任度。

國外互聯(lián)網(wǎng)市場上所研發(fā)的有助于保護個人數(shù)據(jù)隱私的產(chǎn)品和服務主要有兩類:一是協(xié)助加密、反追蹤或者銷毀個人數(shù)據(jù)的軟件,二是去掉了數(shù)據(jù)搜集功能的搜索引擎。用戶的網(wǎng)上信息對于商業(yè)公司,尤其是對于在線廣告公司有著極高的商業(yè)價值。Do Not Track(Dnt)是一款杜絕在線跟蹤用戶行為的功能。如在谷歌、微軟、火狐等具有 “Do not track” 功能的瀏覽器中就有一個“發(fā)送不跟蹤”的按鈕,網(wǎng)民開啟這項功能之后,就能夠避免自己的網(wǎng)上行為被追蹤,從而避免隱私泄露。傳統(tǒng)的搜索引擎為了提高效率,都會對用戶數(shù)據(jù)進行詳盡地收集和分析,從倫理法規(guī)的角度看這是一種侵犯用戶隱私的行為。近年國外開發(fā)并推行的Duck Duck Go就是一款不監(jiān)控用戶搜索行為、不記錄用戶搜索內(nèi)容的互聯(lián)網(wǎng)搜索引擎,其最大特色就是能夠有效保護用戶的隱私。

隨著人工智能技術的日漸成熟,越來越多的規(guī)則被程序員以代碼的形式寫進了算法程序。算法、代碼開始影響各種決策,從技術層面或者說在機器學習過程中嵌入“機會平等”的概念、構建技術公平原則,在人工智能日漸代替人類作出抉擇的時代顯得非常重要。國外已經(jīng)有研究團隊依據(jù)約翰·羅爾斯的公平技術定義及其“機會公平平等”理論,引入了“歧視指數(shù)”的概念,提出了設計“公平”算法的構想。[10]

技術引發(fā)的新聞倫理和法規(guī)問題不能成為否定技術本身的理由,相反的,我們應當有針對性地剖析問題的根源,糾正并克服人工智能技術在倫理法規(guī)上的失范,多渠道、全方位地探索出有效的路徑,保證人工智能技術在新聞傳播領域的良性發(fā)展。

在人機協(xié)同中實現(xiàn)技術理性與價值理性的交融

新聞傳媒業(yè)的發(fā)展可以說與傳播技術的發(fā)展是同步的,新技術不僅改變了人們的生活狀態(tài),也推動了傳媒業(yè)的變革與發(fā)展。從媒介技術的角度而言,就是解決如何以最方便、最靈活、最快捷、最經(jīng)濟、最有效的手段和方法提高信息生產(chǎn)與傳播效率問題,它的內(nèi)在邏輯是技術理性或工具理性。[11]但是,新聞傳播是人的社會實踐活動,僅靠技術理性的驅(qū)動是不夠的,需要將追求效果的最大化與關注人的情感和精神價值結合起來。

人機共生、人機協(xié)同是傳媒業(yè)的發(fā)展趨勢。計算機科學家高德納曾經(jīng)評價人工智能:人工智能已經(jīng)在幾乎所有需要思考的領域超過了人類,但是在那些人類和其他動物不需要思考就能完成的事情上,還差得很遠。[12]人工智能盡管在新聞報道的人文情懷、創(chuàng)意構思上還有不盡如人意的地方,但也具備了高效的生產(chǎn)、精準的推送,以及渠道的拓展等人力所無法比肩的優(yōu)勢。結合3D成像技術、語音識別技術等,如今人工智能已經(jīng)開始扮演傳播者“人”的身份,并且進入現(xiàn)實的新聞傳播活動之中。但是,事實告訴我們,新聞傳播是一種極富專業(yè)性和“創(chuàng)意”的智力活動,同時也是涉及政治思想、文化宗教等意識形態(tài)領域的高級精神勞動,因此,揚長避短是比較明智的選擇,把機器或者程序能做的交給機器和程序,從而把人力解放出來,去從事具有創(chuàng)新要求和需要發(fā)揮想象力的工作,這是自工業(yè)革命以來自動化革命的基本理念。[13]

面對人工智能技術對傳媒領域的逐漸滲透,新聞從業(yè)者將與人工智能進行科學的分工與互補性的協(xié)作,在“人機共生”的環(huán)境中各展所長,媒體通過算法來發(fā)現(xiàn)新聞線索、整理分析數(shù)據(jù)以及撰寫初稿,新聞從業(yè)者則將精力用于對重要人物的采訪、稿件內(nèi)容的深化等能夠施展人類才華、體現(xiàn)職業(yè)理想和人文情懷的地方。從傳媒業(yè)的整體布局來看,不僅要構建“人機協(xié)同”的生產(chǎn)模式,更要鼓勵二者在協(xié)同中實現(xiàn)創(chuàng)新,這或許是傳媒業(yè)在人工智能時代的最佳選擇。

價值理性與技術理性的相互協(xié)調(diào)。人機協(xié)同不僅是指新聞生產(chǎn)中新聞從業(yè)者與算法系統(tǒng)的相互配合,更指在新聞傳播中,價值理性和技術理性之間的平衡。法蘭克福學派的代表人物赫伯特·馬爾庫塞認為,技術作為一種生產(chǎn)方式,……同時也是組織和維持(或改變)社會關系的一種方式,它體現(xiàn)了主導性的思考和行為模式,是控制和支配的工具。[14]以前主要靠暴力來統(tǒng)治社會,而在現(xiàn)代社會中,技術成為社會控制的新形式,技術理性已經(jīng)成為一種意識形態(tài)來統(tǒng)治和控制社會。技術理性強調(diào)的是通過技術來推動社會的發(fā)展,改善人們的生活,技術有著顯著的實用性、目的性,其效果往往是立竿見影,容易被廣大公眾親身感受到,在技術推崇備至的情況下,技術理性引導著人們更關心利益的獲取和物的追求,致使人們的自主意識和獨立判斷能力在悄無聲息中被消解。

相比于技術理性,價值理性是一種以人為中心的理性,它不以功利為最高目的,其目標是推護人的尊嚴、提升人的價值、滿足人的長遠需要、促進人的全面發(fā)展和完善。價值理性解決的是“做什么”的問題,為實踐主體指明了方向,至于“如何做”的問題則主要由工具理性來解決。技術理性雖然增強了人的生存和發(fā)展能力,帶來了物質(zhì)的豐富和文化的繁榮,但是隨著技術理性被無限放大,價值理性的發(fā)揮受到了擠壓和限制。在新聞傳播活動中,既要重視節(jié)約生產(chǎn)成本、提高傳播效率,同時也要考慮新聞傳媒如何更好地發(fā)揮引領輿論、協(xié)調(diào)利益、疏導心理等充滿人文情懷的功能。人機交互、人機協(xié)同本質(zhì)上是在強調(diào)人的主體性,在人工智能中融入人的價值觀和人文情懷,通過提升人工智能的價值理性,將價值理性和工具理性統(tǒng)一于新聞實踐中。

結語

人工智能為新聞傳媒業(yè)的發(fā)展開啟了一扇窗戶,在改變著新聞信息的生產(chǎn)和傳播方式的同時,也需要原有的新聞倫理與法規(guī)作出相應的調(diào)適。因人工智能技術應用于傳媒領域而引發(fā)問題不是技術發(fā)展的失敗,而是對技術理性與價值理性能否相互協(xié)調(diào)、相互融合的考驗,也是對新聞倫理法規(guī)開放性的考驗。因此,考察人工智能技術在新聞傳播領域的應用,以及由此帶來的問題,不僅拓展了新聞倫理與法規(guī)的研究視野,更有助于指導不斷變革中的新聞實踐。

(本文系中國人民大學科學研究基金[中央高?;究蒲袠I(yè)務費專項資金資助]項目“數(shù)據(jù)新聞可視化的產(chǎn)品評價指標體系研究”的研究成果,項目編號:17XNL003)

注釋

[1]《算法偏見是如何產(chǎn)生的?》,新華網(wǎng),2018年3月22日,http://xw.xinhuanet.com/news/detail/779138/。

[2]Misty:《致程序員:算法為何帶有偏見?》,雷鋒網(wǎng),2016年6月27日,https://www.leiphone.com/news/201606/tnedws8svgubagll.html。

[3]Francisco Socal:《人工智能算法偏見的根源在人類》,電子工程專輯EE Times China網(wǎng),2018年3月22日,https://www.eet-china.com/news/201803220600.html。

[4]Matt Carlson, "Automating judgment? Algorithmic judgment, news knowledge, and journalistic professionalism", New Media & Society, 2018, Vol. 20(5) , pp. 1755-1772.

[5]Yves-Alexandre de Montijoye, et al., "Unique in the Crowd: The Privacy Bounds of Human Mobility", Scientific Reports, 25 March, 2013, www.nature.com/srep/2013/130325/srep01376/full/ srep01376.html.

[6]彭增軍:《新聞業(yè)的救贖:數(shù)字時代新聞生產(chǎn)的16個關鍵問題》,北京:中國人民大學出版社,2018年,第119~120頁。

[7]《中華人民共和國網(wǎng)絡安全法》,中國人大網(wǎng),2016年11月7日,http://www.npc.gov.cn/npc/xinwen/2016-11/07/content_2001605.htm。

[8]喬路、白雪:《人工智能的法律未來》,北京:知識產(chǎn)權出版社,2018年,第32頁。

[9]彭增軍:《新聞業(yè)的救贖:數(shù)字時代新聞生產(chǎn)的16個關鍵問題》,北京:中國人民大學出版社,2018年,第141頁。

[10]Matthew Joseph, Michael Kearns, Jamie Morgenstern, Seth Neel, Aaron Roth, Rawlsian Fairness for Machine Learning, Submitted on 29 October 2016 (v1), revised 1 November 2016 (this version, v2), latest version 29 June 2017.

[11]郭慶光:《傳播學教程》(第二版),北京:中國人民大學出版社,2011年,第116頁。

[12]王天一:《人工智能革命:歷史、當下與未來》,北京時代華文書局,2017年,第43頁。

[13]金兼斌:《機器新聞寫作:一場正在發(fā)生的革命》,《新聞與寫作》,2014年第9期。

[14]Herbert Marcuse, "Some Social Implications of Modern Technology", Studies in Philosophy & Social Science, 1941, pp. 138-139.

責 編/馬冰瑩

Thoughts on News Ethics and Regulations in the Age of Artificial Intelligence

Xu Xiangdong

Abstract: While the AI technology brings great changes to the media industry, it also causes certain ethical and regulatory issues, such as illegal collection and over-analysis of data, algorithmic biases, opaque algorithms, and lack of protection of privacy-related data. The path of problem solving can be explored from the perspectives of law making, the responsibility of the media, and the improvement of technology to avoid risks. The application of algorithm in the media industry highlights the advantages of technical rationality, but ignores the dominance and values advocated by value rationality. Promoting the blending of technical rationality and value rationality through the human-machine coordination can help AI to develop in a healthy manner in the field of news communication.

Keywords: artificial intelligence, news communication, news ethics and regulations, data protection

許向東,中國人民大學新聞學院教授、博導,中國人民大學新聞與社會發(fā)展研究中心研究員。研究方向為新聞媒體、新聞實務。主要著作有《數(shù)據(jù)新聞可視化——如何用可視化講故事》《數(shù)據(jù)新聞——新聞報道新模式》《信息圖表編輯》等。

[責任編輯:馬冰瑩]
標簽: 人工智能   倫理   法規(guī)   時代   新聞