人妻少妇中文在线视频,丁香五月婷婷激情网,日本韩国黄色成人网站,亚洲综合99伊人四虎

網站首頁 | 網站地圖

大國新村
首頁 > 原創(chuàng)精品 > 成果首發(fā) > 正文

人工智能時代的新聞倫理:行動與治理

    【摘要】人工智能背景下新聞傳播的生產工具和生產方式出現(xiàn)了巨大變化,尊崇客觀、公正、最小傷害的新聞倫理傳統(tǒng)面臨沖擊,研究范疇由新聞工作者、新聞機構、新聞受眾延伸至智能技術和社交平臺,它們在新聞倫理圖景中的位置和行為模式也產生了變化。以算法倫理和大數(shù)據倫理為主要的邏輯起點,結合智能時代新聞傳播模式的具體變化,從個體倫理層次、組織倫理層次和社會倫理層次厘清具體道德行動者的行動領域,可以更為清晰地展現(xiàn)各道德行動者之間的倫理互動結構,并且綜合呈現(xiàn)人工智能時代的新聞倫理結構和不同責任主體之間的關系。

【關鍵詞】人工智能  新聞倫理  道德行動者  倫理治理

【中圖分類號】G210                            【文獻標識碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2018.24.001

隨著信息革命的深入,新聞傳播業(yè)的生產工具與生產方式出現(xiàn)了巨大變化。人工智能不僅可以通過機器寫作重塑新聞生產流程,還能通過智能算法革新新聞分發(fā)方式,更會對新聞傳媒生態(tài)的信息終端、用戶系統(tǒng)、互動模式等進行多方位重塑。在這種結構性變革的面前,傳統(tǒng)新聞倫理學的研究與實踐也面臨著更加復雜的挑戰(zhàn)。在新聞傳播領域,機器寫作、智能分發(fā)、算法推薦等技術帶來了更具個性化的服務和更高的傳播效率,但后真相、個人和國家數(shù)據安全、算法偏見、被遺忘權等問題,也激起了廣泛的討論。機器越自由,就越需要道德準則(溫德爾·瓦拉赫、科林·艾倫,2017)。

在科技進步主義話語主導社會發(fā)展的語境下,技術的制度化作用被進一步放大,新聞倫理的傳統(tǒng)理論假設也需要在新的技術條件和社會環(huán)境下予以系統(tǒng)反思。媒體倫理通常是對兩個問題的問責:“對什么負責?”“對誰負責?”(Glasser,1989:179),而人工智能發(fā)展到今日,我們可能要增加一個答案看似顯而易見,卻實則眾說紛紜的問題:“誰來負責?”

人工智能及其對新聞倫理的影響

新聞及其生產慣例一直受到技術的影響(Parry,2011;Pavlik,2000),在演變的過程中,各種價值觀被刻入其中形成新聞倫理共識。大眾化報紙誕生以來,新聞業(yè)長期被期待為沒有干預的事實再現(xiàn),發(fā)展了客觀性、中立性、可確認性和中介作用等價值(Dörr & Hollnbuchner,2017)。對客觀性原則的反思,催生了調查性報道、解釋性新聞,它們試圖在報道和闡述之間取得平衡,并增加不同的道德價值面向以形成公眾輿論(Selgado & Stromback,2012)。

新聞傳播的數(shù)字化和國際化對媒體倫理傳統(tǒng)假定帶來進一步的沖擊。首先,在線新聞,特別是基于社交媒體的信息傳播模式,使得傳統(tǒng)的“驗證新聞”及其嚴格的事實檢查正在被非專業(yè)化的新聞形式取代(Kovach & Rosenstiel,2007)。新聞專業(yè)人員把控信息流的壟斷地位被打破,傳統(tǒng)媒體一直遵循的倫理價值,如客觀公正、把關控制等,也被大量即時性用戶生成的內容遮蔽。而全球化新聞業(yè)的出現(xiàn),不僅導致文化價值的沖突,也產生了一個更難解決的問題,即如何設想和界定全球化新聞傳播的相關責任(Ward,2011:208)。

人工智能的兩大支柱——算法和大數(shù)據,已經多維度地進入新聞傳播領域,特別是智能推薦算法作為兩者的集成,已經在信息傳播領域產生巨大的影響。目前主流的推薦算法有三種:基于內容的推薦、基于協(xié)同過濾的推薦和基于時序流行度的推薦。

基于內容的算法,其主要邏輯是受眾偏好與新聞內容特征的匹配。通過用戶特征數(shù)據和網絡行為的分析,確立興趣模型;利用分詞技術等模式計算內容文本特征,選取兩者之間相關度高的形成推薦列表。這種算法能夠有效增加用戶黏性,但對于個人信息的標簽化分析,也容易引發(fā)個人數(shù)據安全性的爭議。近期斯坦福大學研發(fā)的算法可以通過交友網站信息判定性取向,準確率高達91%(Yilun Wang & Michal Kosinski,2018),這一研究立即招致公眾批評,也讓公眾對于算法的信息挖掘能力產生倫理質疑。

協(xié)同過濾算法的基本邏輯是人以群分,通過計算用戶的特征數(shù)據將其編入一個用戶群體,按照群體共享度較高的偏好推薦內容。這種做法將計算單位有效地下降為群體,減少了數(shù)據處理量。谷歌新聞最早采取的就是這類推薦算法。但是這種算法的倫理困境在于容易產生信息繭房,且將人群分類可能產生潛在的算法歧視,不僅觸犯個人隱私,而且易于強化社會偏見。

基于時序流行度的推薦算法,將單位時間的瞬時點擊率等動態(tài)特征作為考量因素,將特定時間窗口內流行度較高的新聞推薦給用戶。這種算法模型很好地解決了內容冷啟動問題,但是對于“標題黨”和“三俗”信息的免疫力相對較低。

信息聚合平臺往往綜合使用上述三種推薦算法,并且針對用戶體驗不斷優(yōu)化各指標的權重,以更好地預測用戶行為。之前智能推薦算法的研發(fā)并沒有置于新聞倫理的框架予以關切,使得互聯(lián)網信息平臺公司在算法的設置中很少內嵌傳統(tǒng)新聞倫理價值。社交媒體時代,信息推薦和信息過濾等智能算法實際上具有了議程設置的功能,取代傳統(tǒng)媒體引導輿論。而智能算法設計者沒有受到傳統(tǒng)新聞倫理約束,這就在一定程度上使得新聞專業(yè)主義的行業(yè)傳統(tǒng)和價值基礎,與智能算法的社會影響之間產生了鴻溝。Facebook的“偏見門”(Bakshy et al.,2015;方師師,2016;韓鴻、彭璟論,2016)和算法推薦下“后真相”時代的假新聞泛濫(邁克爾·舒德森、周蘭,2017;彭蘭,2017;史安斌、王沛楠,2017;潘忠黨、陸曄,2017;支庭榮、羅敏,2018),也許就是不受傳統(tǒng)新聞倫理約束的信息智能系統(tǒng)所造成的社會代價。

過度依賴算法推薦的新聞價值排序,會產生傳播權(新聞價值權重排序決策權)、信息自由(人的傳播自主性)、信息觸達(服務的普適性、信息的不當觸達)、信息隱私權和數(shù)字身份及其保護的問題。目前有兩種倫理風險已經引起廣泛的關注:數(shù)據安全和算法偏見。

機器學習是一種從數(shù)據中挖掘和發(fā)現(xiàn)固有模式的一種方法。機器學習的有效性取決于用來進行訓練的數(shù)據質量和數(shù)量,機器是否有權進行個人信息挖掘等問題引發(fā)了重大的倫理爭議。

算法偏見和糾偏也是一個倫理關注焦點。2018年美國公民自由聯(lián)盟批評亞馬遜Rekognition人臉識別工具。經過測試表明,對于膚色較深的人,Rekognition的識別效果較差。谷歌所研制的圖像標注系統(tǒng)曾錯誤地將黑人標記為“大猩猩”(Sandvig et al.,2016),這就不得不讓人們對算法強化社會原有偏見的可能性充滿憂慮。

以歐盟為代表的國家和地區(qū)開始強勢介入人工智能立法,《通用數(shù)據保護條例(GDPR)》的實行產生了巨大的行業(yè)震動,導至行業(yè)寒蟬效應。相對于規(guī)制硬約束,在人工智能社會構建前景尚未明朗之前,倫理軟約束則更加適合。有效的倫理治理需要分清楚責任主體,特別是在智能技術深度介入新聞信息傳播的當下,一些原本不在新聞倫理探討范圍內的行動者進入該領域,他們的作用和問責方式,亟待理論梳理。

人工智能時代新聞倫理的道德行動者

一般意義上,倫理是“對我們應該做的事情的研究”(Merrill,2011:3)。在元倫理和規(guī)范倫理學層面,倫理研究通常被區(qū)分為三種傳統(tǒng)。首先是強調人類相互作用的責任和義務的道德義務論,康德認為可以通過相關正式準則,特別是普遍性準則將道德規(guī)則和其他行為規(guī)則區(qū)分開來(Kant,1785)。其次是邊沁(Bentham,1785)、密爾(Mill,1962)開創(chuàng)的功利主義傳統(tǒng)。該傳統(tǒng)把最大化社會效用作為最基本的道德準則,這種傳統(tǒng)也被稱為后果論。最后是美德論,核心問題不是正確行動,而是美好生活,道德也不在于行事原則,更在于人們的品質,這就重回亞里士多德 “我應該成為什么樣的人”的經典論述。

在應用倫理學層面的分析中,基于問責的考量往往需要區(qū)分道德行動者。一般認為,具有道德意向性和能動性,并具有行動力和對自身行動的解釋能力(Taylor Paul,1986:14),是道德行動者的基本條件。技術人工物一定程度上突破了倫理道德的人類中心主義,倫理學家開始將意向性視為道德能動性的一個“不錯但卻不必要的條件”,與道德能動性相關的唯一事物是行動者的行為是否是“道德上可修飾的”,即是否引發(fā)道德上的善或惡(Floridi L,Sanders J W,2004)。

新聞倫理屬于應用倫理學研究,研究起點是基于行業(yè)的實際倫理難題進行價值判斷?,F(xiàn)代性大眾傳播觀念和倫理觀念根植于以啟蒙運動為代表的知識革命,笛卡爾、洛克、彌爾頓、穆勒等學者的經典論述是其中的主要智識資源。施拉姆結合媒體發(fā)展現(xiàn)實指出,如何妥善處理大眾品味、企業(yè)盈利和社會責任三者的關系是大眾媒體面對的主要問題(Wilbur Schramm,1957),其中知情權和隱私權、表達權和名譽權持續(xù)產生張力,就此,政府、媒體和公眾成為新聞倫理關系的核心行動者。

人工智能時代,隨著算法在不同的生活領域產生建構性影響,算法作為內容創(chuàng)建者的制度化引發(fā)了專業(yè)新聞的各種倫理挑戰(zhàn)。其中,互聯(lián)網信息平臺公司,對算法研發(fā)起到核心作用的工程師團隊,甚至是技術本身是否應該作為倫理行動者進入了新聞倫理的話語框架,值得細致分析。

新聞倫理的傳統(tǒng)行動者。1、政府:倫理治理的規(guī)則制定者與底線管控者。變革性技術總是同時帶來正面和負面效應,人類也逐漸摸索出一套技術控制模式。這種模式一般包含兩個方面,其一是社會規(guī)范性的,如法律、法規(guī);其二是技術性的,即對技術設計和運用制定標準。這兩項工作都需要國家,甚至國家間的合作方能達成。

對于人工智能的管理,政府顯性地扮演兩種角色。首先,是在國家戰(zhàn)略層面,通過行業(yè)規(guī)劃和部署,將技術開發(fā)、產業(yè)發(fā)展作為核心戰(zhàn)略要素,在國際競爭的語境下予以通盤考慮。在我國,國務院于2017年7月印發(fā)了《新一代人工智能發(fā)展規(guī)劃》和《促進新一代人工智能產業(yè)發(fā)展三年行動計劃(2018~2020年)》等政策,讓中國的人工智能發(fā)展有了明確的時間表和路線圖。2016年10月美國政府出臺了“美國國家人工智能研發(fā)規(guī)劃”,加拿大、英國、德國、法國等國家也針對人工智能研究和機器人設計出臺專門的戰(zhàn)略規(guī)劃和規(guī)范性報告。其次,是從司法實踐角度,各國也有專門法規(guī),如歐盟《一般數(shù)據保護條例》和美國《人工智能未來法案》等。

值得注意的是,各國對人工智能的倫理反應早于立法研究,歐盟于2006年發(fā)布《機器人倫理路線圖》,2007年韓國工商能源部頒布《機器人倫理憲章》等,體現(xiàn)政府相關部門對人工智能倫理治理的關注。這些倫理研究報告其實在為其后的立法和規(guī)制進行倫理學和法理學的籌備,對自主智能體的主體地位、問責模式和人類行為規(guī)范,作了初步設想。

著名的“科林格瑞治困境”指出了技術評估的兩難困境:在技術發(fā)展的早期控制其應用方向相對容易,但此時決策者缺少合理控制的專業(yè)知識;當技術應用的風險顯露時,對它的控制卻幾近不可能(卡爾·米切姆、朱勤、安延明,2007)。各國政府的人工智能倫理治理和立法實踐如此迅速,某種程度上也在規(guī)避上述規(guī)制困境,尤其是人工智能被普遍認為是一個具備高度社會建構性能力的系統(tǒng),各國政府不約而同采取了相對前置的治理模式。

2、媒體:新聞倫理的日常踐行者。媒體是新聞倫理中最為核心的部分,因為傳統(tǒng)新聞生產、分發(fā)都在該系統(tǒng)內完成。自1923年美國報紙編輯協(xié)會提出美國首個新聞業(yè)自律規(guī)范《報人守則》,新聞倫理就與新聞工作者的職業(yè)倫理和行業(yè)自律掛鉤。

在前互聯(lián)網時代,新聞倫理通常與報道內容及其選擇相掛鉤,責任、獨立、真實準確、公正、公平等原則以不同的形式予以表達。在絕大部分的媒體體制之下,媒體不僅具有社會公共性,本身作為承擔一定經營活動的組織,也需要考慮經濟層面的可持續(xù)發(fā)展問題。因此,大眾化媒體如何處理公共服務和商業(yè)利益之間的張力,以兼顧經濟效益和社會效益,是新聞倫理的主要關切點。在此間所產生的媒體與國家的關系、媒體與社會的關系、媒體與個體的關系,也是新聞倫理的核心焦點。

社交媒體和智能推薦算法的結合,改變了受眾獲得信息的主要渠道和接受模式,傳統(tǒng)媒體的議程設置功能受到較大沖擊,部分媒體開始被迫跟隨社交媒體表達模式改變自身的新聞生產方式。但是2016年美國大選所引發(fā)的“后真相”討論,恰恰說明社會仍然需要“不可愛的新聞界” (邁克爾·舒德森、周巖,2017)。潘忠黨、陸曄(2017)認為“后真相”一詞的流行更加凸顯新聞專業(yè)主義不僅是對媒介和新聞從業(yè)者的職業(yè)期許,更是全社會所遵循的文化價值體系的一部分。新聞界需要做的是將尋求、核查、鑒定事實和真相的過程置于公共討論之中,重構交往的倫理規(guī)范。(潘忠黨、陸曄,2018)

3、公眾:“用腳投票”的新聞倫理批評者。自20世紀20年代杜威和李普曼的爭論為起始,公眾是具有公共目的的社會有機統(tǒng)一體,還是原子化的消極“幻影”,存在根本性的學術分歧。而學術界對公眾在新聞傳播系統(tǒng)中的作用,也始終存在爭議。

在傳統(tǒng)新聞傳播中,公眾作為信息的接收者,處于被動地位。但是即便在這種相對的被動位置中,施拉姆指出閱聽大眾應以傳播動力的主要推動者自任。大眾的基本責任是運用一切可能,使自己成為機警而又有鑒別能力的閱聽大眾,學習如何運用媒體,并積極地對媒體展開睿智的批評(Wilbur Schramm,1957)。

在人工智能時代,“你關心的就是頭條”的算法邏輯,使得公眾或者說用戶的地位得到了進一步提升。信息平臺認為自身不存在新聞立場,算法的主要目的在于加強用戶的黏性。2016年以來,F(xiàn)acebook推出一系列機制,強調保障用戶對最終內容的選擇權,其中尤為強調3F原則(Friends and Family First),即好友分享的優(yōu)先級高于新聞媒體發(fā)布的消息。這一算法權重變化的目的在于,從“幫助你找到相關的內容”轉向“實現(xiàn)用戶有意義的社會互動”,即促成用戶間的討論和深度參與。賦權用戶而非傳統(tǒng)強勢機構,是算法所強調的平權價值。但是其后所引發(fā)的虛假消息充斥社交媒體,也是傳統(tǒng)機構媒體權重下降后的副作用。

人工智能系統(tǒng)非常有效地通過用戶日漸增多的網絡行為數(shù)據進行精準內容推薦,公眾是被動接受偏好的信息從而陷入信息繭房,還是有意識地通過綜合使用媒體平臺,形成更加理性而多元的社會認知,其重任日益集中到個體自身。因此現(xiàn)階段至少可以相對確定地說,公眾作為新聞倫理的行動者,在人工智能時代所肩負的責任將更加重大。

人工智能時代的新增新聞倫理行動者。當下,互聯(lián)網信息平臺公司在新聞傳播過程中產生了日益重要的中介作用,傳統(tǒng)關于信息和新聞的分野也變得模糊。弗洛里迪在《信息倫理學》中指出,信息是一種資源、一種產品,也是一種目標。借助信息與通訊技術手段為媒介的信息生產與傳播引發(fā)了倫理后果,合理應對這些后果需要更多的智識動員和道德行動者(盧恰克·弗洛里迪,2018)。

在線平臺傳統(tǒng)上不屬于新聞傳播范疇,互聯(lián)網企業(yè)也往往不承認自身的“媒體”性質,而傾向將自身描述成信息傳播的基礎設施,平臺上傳輸和交換的是數(shù)據(data)而非傳統(tǒng)意義的新聞內容。但是當人類的交往活動和商業(yè)活動日益集中到網絡平臺,互聯(lián)網信息平臺公司的角色就發(fā)生了變化。研究指出,像谷歌、Facebook這樣的公司往往起步于具體的垂直應用,例如搜索、社交,但是為了將用戶進一步固定在自身的商業(yè)平臺上,他們的功能日益多元。因此在更加廣泛的意義上,網絡生態(tài)嵌入了更廣大的社會文化和政治經濟語境之中(Jose Van Dijck,2013),這一趨勢伴隨著科技所導致的社會形態(tài)變化,變得勢不可擋。

近年來互聯(lián)網信息平臺公司已經成為傳播倫理的核心關注區(qū)域。2018年Facebook的扎克伯格和今日頭條的張一鳴,近乎在同一天面對主管部門的質詢,并向公眾道歉。

Facebook信任危機的觸發(fā)點在于個人隱私泄露最終形成干預選舉的危害。據披露,F(xiàn)acebook上超過5000萬用戶信息數(shù)據被一家名為“劍橋分析”(Cambridge Analytica)的公司泄露,用于在2016年美國總統(tǒng)大選中針對目標受眾推送廣告,從而影響大選結果,此事在世界范圍內引發(fā)了軒然大波。扎克伯格就此接受美國國會質詢。

而字節(jié)跳動公司則因旗下產品存在低俗內容和導向問題,受到主管部門處罰。應用市場下架了今日頭條客戶端,并暫停服務三周;“內涵段子”客戶端軟件及公眾號被責令永久關停;短視頻應用抖音APP刪除了所有用戶評論。此后“今日頭條”品牌口號也從“你關心的就是頭條”轉變?yōu)?ldquo;信息創(chuàng)造價值”。

對互聯(lián)網信息平臺上存在的倫理失范內容,平臺應該承擔怎樣的法律責任,學術界存在爭議,也存在實際的問責困境。被廣泛應用的避風港原則成為互聯(lián)網平臺抗辯的主要依據,判定并不直接生產和編輯內容的互聯(lián)網平臺企業(yè)侵權,難度很大。但平臺企業(yè)在內容處理方面的失誤,將極大地影響社會,因此它們不可避免地需要承擔平衡不同權利主體的重任。但是直到最近,遏制非法、不恰當內容的重任始終在用戶身上,平臺主要通過舉報來發(fā)現(xiàn)類似信息。

當然,平臺主動遏制它所界定的不適宜行為,也面臨挑戰(zhàn)。例如Facebook公司曾經通過機器鑒別遏制裸體展示,哺乳婦女的照片和反映越戰(zhàn)的知名攝影作品《戰(zhàn)火中的女孩》也因此歸入此類,這兩件事都讓Facebook公司承受了巨大的壓力,并引發(fā)關于平臺歧視的擔憂??傮w而言,平臺公司類似舉措都容易導致偏愛主流人群而壓抑邊緣人群的結果。雖然類似舉措未必隱含制度化和規(guī)?;娜后w歧視,但的確提出平臺如何更好履行責任的疑慮(Raso F. A.,Hilligoss H.,Krishnamurthy V.,Bavitz C. & Kim L.,2018)。在線平臺日益發(fā)現(xiàn),算法可以有效增進用戶黏性,卻在內容審核和審美品鑒方面無法全面掌握復雜而多元的人類行為變量。例如,機器目前對于模式不斷轉換且非常主觀化的仇恨言論,判定表現(xiàn)就不是太好。

關于人工智能時代的平臺責任的討論,往往也牽扯出智能技術本身的倫理主體地位問題。在廣為引用的《關于人工能動者的道德》一文中,牛津大學教授弗洛里迪和桑德斯依據行動者之互動關系標準,確立交互性、自主性和適應性三個標準以判定智能技術是否具備倫理責任主體地位。他們認為,一個與其環(huán)境持續(xù)產生交互的系統(tǒng),如果在沒有響應外部刺激的情況下也能行動,也有在不同的環(huán)境中行動的能力,這個系統(tǒng)就可以被視作行動者(Floridi L,Sanders J W,2004)。

倫理學界對技術人工物的道德主體地位存在較大爭議。在新聞倫理的探討范疇中,智能技術對信息傳播權重的計算的確在很大程度上影響了新聞信息交流活動。但是直到目前,智能技術尚未完全達到自主性和適應性,將其判定為獨立的倫理行動者論據不足。

所以就目前的技術發(fā)展狀況而言,更為重要的是確立互聯(lián)網信息平臺公司的新聞倫理地位。依據目前他們在人類信息傳播活動中的重要性,以及他們實際可以起到的信息推薦中介效應,互聯(lián)網信息平臺應該被納入新聞倫理的范疇,并作為其間一個重要的機構行動者予以關照。

平臺也開始意識到自身的倫理主體責任,主動開始在技術研發(fā)和產品開發(fā)的過程中嵌入倫理考慮。2016年9月,亞馬遜、谷歌、Facebook、IBM和微軟宣布成立一家非營利組織:人工智能合作組織(Partnership on AI),目標是為人工智能的研究制定和提供范例,推進公眾對人工智能的了解,并作為一個開放的平臺來吸引民眾及社會的參與和討論。目前各國的司法實踐,也在強迫他們認識到自身不僅需要承擔技術倫理和商業(yè)倫理,也需要在新聞倫理的框架內規(guī)制自身的行為。

人工智能時代的新聞倫理結構

綜上所述,人工智能時代新聞倫理的道德行動者出現(xiàn)了變化,顯性地表現(xiàn)為增加了一個重要的機構行動者,我們姑且將它們稱為互聯(lián)網信息平臺公司。與此同時,傳統(tǒng)的道德行動者——政府、媒體、公眾,它們在倫理圖景中的位置和行為模式也產生了變化。政府在規(guī)制方面采取了更加前瞻式的模式以應對變革性技術的社會構建動能。公眾在人工智能時代的個性化信息服務背景下,其倫理素養(yǎng)和媒介素養(yǎng)變得更加事關全局。而傳統(tǒng)媒體機構在算法推薦邏輯下,面臨權重下降的境遇,其傳統(tǒng)新聞生產流程和倫理價值面臨沖擊。

為了更清晰地展現(xiàn)各道德行動者之間的倫理互動結構,有必要進一步區(qū)分不同行動者的區(qū)位。個人倫理層次、組織倫理層次、社會倫理層次的區(qū)分有助于進一步明晰對此問題的論述。

第一,個人倫理層次,主要包括新聞專業(yè)主義和工程師倫理。傳統(tǒng)新聞倫理具有很強的個人倫理色彩,記者、編輯就自己生產的新聞內容承擔風險、享受贊譽。在新聞專業(yè)主義理論體系下,個人層次的倫理認知,不僅是職業(yè)認知的重要組成部分,也是新聞機構權威性的主要來源??陀^、公正、服務公共利益,是新聞工作者長期珍視的倫理傳統(tǒng)。

自動化新聞平臺將工程師也納入新聞傳播領域,他們所編寫的代碼直接影響新聞倫理。因此工程師團體需要通過合理的結構代碼完成其倫理責任。

責任是知識和力量的函數(shù)。在智能信息時代,科學家、工程師不僅人數(shù)眾多而且參與社會重大的決策和管理,他們的行為會對他人、對社會帶來比其他人更大的影響,因此他們應負更多的倫理責任(曹南燕,2000)。

在過去25年中,工程倫理領域的主要成就之一就是工程師們越來越意識到自身的價值觀對設計進程的影響,以及此過程中他們對他人價值觀的敏感度(Wallach & Allen,2008)。2000年,美國工程和技術認證委員會(ABET)在其標準中明確指出,工程教育必須證明他們的學生“對職業(yè)和道德責任的理解”(Downey et al.,2007)。奧巴馬政府2016年10月將“理解并解決人工智能的道德、法律和社會影響”列入美國國家人工智能戰(zhàn)略,并建議AI從業(yè)者和學生都要接受倫理培訓(曹建峰,2016)。

與此同時,鑒于大量的媒體內容來自用戶生成內容,涉足其間的個體制作者及其倫理素養(yǎng)也在此列。目前在直播和短視頻平臺時常出現(xiàn)倫理失范行為,個體內容生產者是直接的道德行動者,需要在與平臺倫理原則磨合的過程中形成行為規(guī)則共識。

對于亞里士多德來說,具備關于倫理規(guī)則的知識和自覺遵守倫理規(guī)則的能力是兩個不同的方面。只有當人們在內在本性和對善生活的追求基礎上,自覺地尊重倫理規(guī)則,才是符合倫理和美德的個體(麥金泰爾,1996)。在內容龐雜的社交媒體和互聯(lián)網信息平臺中,美德論對于個體層次的倫理治理,也許具有更大的啟示意義。

第二,組織倫理層次,主要涉及新聞組織和互聯(lián)網信息平臺。傳統(tǒng)新聞媒體對其生產的內容及其經濟運行負有倫理責任,與此同時,媒體的言論對政治、經濟和社會都有巨大影響。雖然在傳統(tǒng)生產流程中,記者作為顯性的新聞倫理踐行者,對自身的報道肩負倫理責任,但是媒體承擔著重要的把關功能,并在科層式的生產模式中內化組織宗旨和目標。在媒體組織內部,知情權與隱私權、表達權和名譽權的權衡,公共服務和經營目標的平衡,形成多組競爭性倫理價值,需要在新聞媒體組織層面根據其倫理傳統(tǒng)針對具體問題予以價值排序。長期以來,客觀、公正和最小傷害成為十分重要的組織倫理出發(fā)點。

到了人工智能時代,互聯(lián)網信息平臺實際上部分起到了新聞媒體的功能。與傳統(tǒng)新聞媒體更多關注新聞的生產不同,目前的互聯(lián)網企業(yè)并不直接涉足新聞內容制作,但是其推薦算法實際在對新聞價值的不同維度予以賦值,隨著越來越多的民眾將互聯(lián)網作為主要的新聞信息來源,互聯(lián)網信息平臺在新聞分發(fā)和互動環(huán)節(jié)產生了巨大的動能?;ヂ?lián)網信息平臺的倫理關注點主要在數(shù)據和代碼(算法)兩個體系,如何合理利用平臺積淀的用戶數(shù)據,如何合理通過算法的中介,提高社會總體福利水平,是此類組織的倫理責任。

目前技術本身的倫理地位也存在爭議,在用戶偏好挖掘的機器學習機制中,平臺公司會部分采取無監(jiān)督學習模式,這使得學習結果存在客觀上的算法黑箱。這也是智能系統(tǒng)設計的悖論:一方面系統(tǒng)需要更大的自由度以體現(xiàn)其智能效能,但具備自主學習能力的系統(tǒng)在技術上和倫理上都存在風險;另一方面,若將倫理規(guī)則嵌入智能系統(tǒng),那么設計出來的系統(tǒng)就缺乏充分的靈活性,也就不夠“智能”。但是從目前的倫理問責和司法實踐看,互聯(lián)網信息平臺作為算法的直接開發(fā)者和版權所有者,有義務將智能系統(tǒng)設計為道德智能體,將社會長期珍視的倫理價值內嵌至平臺系統(tǒng)。據此,大眾傳播責任的兩種形態(tài)行動——自律制度、專業(yè)精神,同樣適用于互聯(lián)網信息平臺公司。

第三,社會倫理層次,包括政治和公眾兩個維度。在政治維度,如何處理互聯(lián)網信息平臺、新聞媒體和社會其他部門的關系,如何管理技術的發(fā)展方向、媒體信息的作用范圍,是政治層面關注的焦點,也因此與新聞系統(tǒng)產生權力博弈和倫理話語沖突。

電氣和電子工程師協(xié)會(IEEE)2017年發(fā)布《人工智能設計的倫理準則》白皮書(Ethically Aligned Design),這份報告不僅對工程師群體的倫理設計提出要求,并且在宏觀上希望政府、司法機構審慎使用數(shù)據,必要的時候嚴格測試和評估內嵌于系統(tǒng)的倫理原則和運算邏輯。而且政府和產業(yè)利益相關者需要明確,哪些核心決策權不能交由智能系統(tǒng)。

因此在更加宏觀的社會倫理治理層次,政府作為主要的道德行動者,需要從社會整體福利水平和國家信息安全的高度理解人工智能系統(tǒng)的信息中介效應,對其引導輿論、影響個體的能力保持倫理警覺,并逐漸清晰政府的管控底線。

在公眾維度,以往新聞很大程度上依賴于記者的信譽,如今在網絡信息發(fā)布過程中,受眾不再被動,任何人都有權利批評報道、增加事實和發(fā)表評論。就此,新聞發(fā)表從個人化的行為(組織化的行為)轉變?yōu)楣驳男袨椋╓ard, 2011)。在智能時代,公眾的倫理素養(yǎng)至少包含明確是誰作出或者支持智能系統(tǒng)的倫理決策,并且理解自動技術系統(tǒng)的社會影響的能力。公眾需要更加清晰智能系統(tǒng)的運作模式和社會影響機制,運用理性力量加強自身的信息自律能力,而不要成為機械刺激性快樂的被捕獲者,從而喪失了對康樂生活的追求和反思能力。

媒體的智能化,大大延伸了媒體的外延,將新聞傳播推向“萬物皆媒”的時代。新聞倫理學的研究范疇也隨之由新聞工作者、新聞機構、新聞受眾延向了傳播技術和社交平臺。由于人工智能技術的出現(xiàn),更多的行動者開始參與或影響新聞的生產與發(fā)布,新聞工作者不再是唯一的道德行動者,泛信息系統(tǒng),特別是互聯(lián)網信息平臺的影響力正在逐漸上升。

7Z67]8R9[D$LBT[2)_S$Q}Q

 

自治、公平、正義、責任、服務公共利益等原則是長期以來新聞倫理的基本組成部分。智媒時代,除了進一步堅持傳統(tǒng)媒體倫理價值體系之外,還需要融合基于技術和平臺的倫理要求。機器人倫理提出的人的尊嚴和人權、責任、透明度、避免濫用和共生繁榮等原則,也是人工智能時代新聞倫理的智識來源。而互聯(lián)網平臺公司,如谷歌提倡的“七條準則”:有益于社會、避免創(chuàng)造或增強偏見、對人們有說明義務、根據原則確定合適的應用等,也同樣適合新媒體背景下的新聞倫理。

(本文系“數(shù)字化變革中媒體從業(yè)者倫理勝任力建模及提升策略”課題的階段性成果,課題編號:2018FZA121;同時受中央高?;究蒲袠I(yè)務費專項資金資助)

參考文獻

Bakshy E, Messing S, Adamic L A., 2015, "Exposure to ideologically diverse news and opinion on Facebook", Science, vol. 348, pp. 1130-1132.

Bentham J., 1996, The collected works of Jeremy Bentham: An introduction to the principles of morals and legislation, Clarendon Press.

Bill Kovach, Tom Rosenstiel, 2007, The Elements of Journalism, New York: Three Rivers Press.

Downey, Gary Lee, Juan C. Lucena and Carl Mitcham., 2007, "Engineering Ethics and Identity: EmergingInitiatives in Comparative Perspective", Science & Engineering Ethics, No. 4, pp. 463-487.

Dörr, K. N. & Hollnbuchner K., 2017, "Ethical challenges of algorithmic journalism", Digital Journalism, 5(4), pp. 404-419.

Filippo A. Raso,Hannah Hilligoss, Vivek Krishnamurthy, Christopher Bavitz , Levin Kim , 2018, Artificial Intelligence & Human Rights: Opportunities & Risks, Berkman Klein Center Research Publication.

Glasser T. L., 1989, "Three Views on Accountability", Media Freedom and Accountability, edited by E. E. Dennis, D. M. Gillmor, and T. L. Glasser, New York: Praeger, pp. 179-193.

Jeffrey Rosen, 2013, "The Deciders: Facebook, Google, and the Future of Privacy and Free Speech",  Constitution 3.0: Freedom and Technological Change. ed. Jeffrey Rosen and Benjamin Wittes, Brookings Institution Press; Jonathan Zittrain, 2008, The future of the internet--and how to stop it, Yale University Press.

Jose Van Dijck, 2013, The Culture of Connectivity: A Critical History of Social Media, Oxford University Press.

Kant I, Schneewind J. B., 2002, Groundwork for the Metaphysics of Morals, Yale University Press.

Kovach B. & Rosenstiel T., 2007, The elements of journalism (Rev. ed.), New York: Three Rivers Press.

Luciano Floridi, J.W. Sanders, 2004, "On the morality of artificial agents", Minds and Machines , vol.14, pp. 349-379.

Merrill, J. C. , 2011, "Theoretical Foundations for Media Ethics", in  A.D. Gordon, J.M. Kittross, J.C. Merrill, W. Babcock, and M. Dorsher (eds), Controversies in Media Ethics, pp.3-32.

Mill, J. S., 1962, Utilitarianism, on liberty, essay on Bentham, ed. Mary Warnock, London: Fontana.

Parry R., 2011, The Ascent of Media: From Gilgamesh to Google via Gutenburg, London: Nicholas Brealey.

Pavlik J., 2000, "The impact of technology on journalism, Journalism Studies", No.2, pp. 229-237.

Paul Taylor, 1986, Respect of Nature: A Theory of Environmental Ethics, Princeton University Press.

Sandvig C, Hamilton K, Karahalios K, et al., 2016, "Automation, algorithms, and politics| when the algorithm itself is a racist: Diagnosing ethical harm in the basic components of software", International Journal of Communication, No.10, pp. 4972–4990.

Selgado, Susana and Jesper Strömbäck,   2012,"Interpretive Journalism: A Review of Concepts, Operationalizations and Key Findings", Journalism Theory Practice & Criticism, No.13 (2), pp. 144–161.

Taylor Paul, W., 1986, Respect for Nature: A Theory of Environmental Ethics.

Ward, Stephen J. A., 2011, Ethics and the media: An introduction, Cambridge University Press.

Wallach W. and Allen, C., 2008, Moral Machines: Teaching Robots Right from Wrong, Oxford University Press.

Wilbur Schramm, 1957, Responsibility in Mass Communication, New York:Harper & Brothers.

Yilun Wang and Michal Kosinski, 2018, "Deep neural networks are more accurate than humans at detecting sexual orientation from facial images", Journal of Personality and Social Psychology, No.2, pp. 246-257.

曹建峰,2016,《人工智能:機器歧視及應對之策》,《信息安全與通信保密》,第12期,第15~19頁。

曹南燕,2000,《科學家和工程師的倫理責任》,《哲學研究》,第1期,第45~51頁。

方師師,2016,《算法機制背后的新聞價值觀——圍繞“Facebook 偏見門”事件的研究》,《新聞記者》,第9期,第39~50頁。

韓鴻、彭璟論,2017,《智媒時代社交媒體的社會責任——對2016美國大選中Facebook假新聞事件的反思》,《新聞界》,第5期,第89~93頁。

[美]卡爾·米切姆、朱勤、安延明,2007,《關于技術與倫理關系的多元透視》,《哲學研究》,第11期,第79~82頁。

劉則淵、王國豫,2007,《技術倫理與工程師的職業(yè)倫理》,《哲學研究》,第11期,第75~78頁。

[英]盧恰克·弗洛里迪,2018,《信息倫理學》,薛平譯,上海譯文出版社。

[美]阿拉斯戴爾·麥金泰爾,1996,《誰之正義?何種合理性?》,萬俊人、吳海針、王今一譯,北京:當代中國出版社。

[美]邁克爾·舒德森、周巖,2017年,《新聞的真實面孔—— 如何在“后真相”時代尋找“真新聞”》,《新聞記者》,第5期,第75~77頁。

潘忠黨、陸曄,2017,《走向公共:新聞專業(yè)主義再出發(fā)》,《國際新聞界》,第10期,第91~124頁。

彭蘭,2017,《更好的新聞業(yè),還是更壞的新聞業(yè)?——人工智能時代傳媒業(yè)的新挑戰(zhàn)》,《中國出版》,第24期,第3~8頁。

史安斌、王沛楠,2017,《作為社會抗爭的假新聞——美國大選假新聞現(xiàn)象的闡釋路徑與生成機制》,《新聞記者》,第6期,第4~12頁。

[美]溫德爾·瓦拉赫、科林·艾倫,2017,《道德機器:如何讓機器人明辨是非》,北京大學出版社。

支庭榮、羅敏,2018,《“后真相”時代:話語的生成、傳播與反思——基于西方政治傳播的視角》,《新聞界》,第1期,第54~59頁。

責 編/馬冰瑩

Journalistic Ethics in the Age of Artificial Intelligence: Action and Governance

Zhao Yu

Abstract: In the context of artificial intelligence, the production tools and production methods of news communication have undergone tremendous changes. The journalistic ethical tradition of respecting objectiveness, fairness and minimal harm is facing challenges. The research scope extends from journalists, news organizations and news audiences to smart technologies and social platforms, their position and behavioral pattern in the landscape of news ethics have also changed. On the basis of the algorithmic ethics and big data ethics as well as the specific changes of the news communication mode in the intelligent age, this paper clarifies the action areas of specific moral actors from the individual ethical level, organizational ethics level and social ethics level respectively, which can demonstrate the ethical interaction structure between the various moral actors more clearly, and comprehensively present the relationship between the ethical structure of journalism and the different responsible subjects in the era of artificial intelligence.

Keywords: artificial intelligence, news ethics, moral actor, ethical governance

趙瑜,浙江大學傳媒與國際文化學院教授、博導。研究方向為傳播政策、新媒體傳播和倫理治理。主要著作有《從數(shù)字電視到互聯(lián)網電視——媒介政策范式及其轉型》《中國藍——省級衛(wèi)視創(chuàng)新發(fā)展的浙江實踐》等。

[責任編輯:馬冰瑩]
標簽: 人工智能   倫理   行動   時代   新聞