人妻少妇中文在线视频,丁香五月婷婷激情网,日本韩国黄色成人网站,亚洲综合99伊人四虎

網(wǎng)站首頁 | 網(wǎng)站地圖

人民論壇網(wǎng)·國家治理網(wǎng)> 前沿理論> 正文

智能傳播的算法風險及其治理路徑

摘 要:智能技術(shù)接入媒體,促進用戶、信息、服務與場景的連接,提升內(nèi)容產(chǎn)制與傳播的效率,但技術(shù)風險在媒介傳播實踐中可能轉(zhuǎn)換生成算法的倫理、法律、文化與意識形態(tài)風險。倫理倡導和法律規(guī)制是算法治理“在地化”的有效路徑。智能傳播的算法治理,需要平衡價值觀與創(chuàng)新觀、技術(shù)崇拜與內(nèi)容供給、技術(shù)迭代與法律規(guī)制之間的關(guān)系,實現(xiàn)倫理、法律、文化等維度的協(xié)同治理。

關(guān)鍵詞:智能傳播 算法 風險治理 意識形態(tài) 協(xié)同治理

【中圖分類號】G206 【文獻標識碼】A

全球范圍內(nèi)興起的“人工智能熱”,推動了我國一系列國家戰(zhàn)略和政策的出臺,如2017年7月8日,國務院印發(fā)《新一代人工智能發(fā)展規(guī)劃》;12月13日,工業(yè)和信息化部又發(fā)布了《促進新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃(2018-2020年)》等。信息產(chǎn)業(yè)的發(fā)展趨勢、媒介變革的行業(yè)需求,推動著智能傳播形態(tài)、業(yè)態(tài)與生態(tài)的變革。智能媒體不斷嵌入公眾的社會生活與個人的日常生活。智能技術(shù)基于信息、服務、商品、場景的連接,使人、物與地點的信息匹配變得愈發(fā)便捷,但也引發(fā)了倫理、法律和文化等領(lǐng)域的諸多風險。

智能算法在傳播中的應用及其影響

塔勒頓·吉萊斯皮(2014)認為,算法的理解有狹義和廣義之分:狹義的理解將其視為特殊的決策技術(shù);廣義的理解將其視為建構(gòu)社會秩序的理性模型。智能算法在媒體行業(yè)的接入和可持續(xù)性應用,產(chǎn)生了重要的社會影響。

機器算法在傳播中的應用

伴隨著智能媒體化和媒體智能化的雙向進程,智能媒體逐漸成為傳媒領(lǐng)域的新主體。作為一種高度匹配信息與用戶需求的媒介形態(tài),智能媒體引導傳播實踐向存儲云端化、內(nèi)容垂直化、需求場景化及行業(yè)智能化邁進[1]。算法在傳媒業(yè)主要應用于內(nèi)容產(chǎn)品生成、分發(fā)兩個環(huán)節(jié)。

內(nèi)容的自動化生產(chǎn)創(chuàng)造了新的媒體形態(tài)。機器人新聞(robot journalism)、傳感器新聞、AI主播和AI配音等,便是大數(shù)據(jù)、機器學習等技術(shù)運用的結(jié)晶。例如,新華社的“快筆小新”在自動采集體育、財經(jīng)或氣象等信息后,2—3秒鐘便可生成相應稿件;今日頭條的“張小明(xiaomingbot)”會根據(jù)體育賽事實況調(diào)整新聞表達并自動配圖;英國《衛(wèi)報》推出的“#Open001”和《精讀》(The Long Good Read)等產(chǎn)品,用算法編輯報紙以迎合讀者喜好。智能算法有望幫助傳媒從業(yè)者從機械式勞作中解脫出來。例如,騰訊的寫稿機器人“Dreamwriter”不僅全時段無休、年均發(fā)稿50萬篇,還能智能審核、反饋、糾錯;“AI合成主播”依托音視頻合成、機器學習等技術(shù),能在特殊情境下取代傳統(tǒng)主播的工作。

此外,信息判斷的價值取向從經(jīng)驗主義向計算主義偏轉(zhuǎn),信息分發(fā)模式從大眾傳播走向個性化推薦。“連接”是互聯(lián)網(wǎng)的要義[2],而平臺、用戶與信息的算法“再連接”(rewiring/reconnecting)是智能傳播的核心。

在平臺連接中,智能媒體平臺通過協(xié)同過濾、社交推薦和流量池推薦等多種算法機制,提供人與信息的連接服務。當前的服務類型主要有以谷歌為代表的搜索引擎類、以Facebook為代表的社交媒體類和以“今日頭條”為代表的信息聚合類三種。算法推薦信息的標準被稱為“算法價值”,因平臺性質(zhì)不同,具體信息推送標準與優(yōu)先級會存在差異。在用戶連接中,算法主要依賴虛擬空間的用戶畫像,包括用戶的個體信息(如年齡、性別等人口學特征)、行為信息(如點贊、收藏和轉(zhuǎn)發(fā)等記錄)以及場景信息等。而在移動傳播的場景連接中,“場景”成為信息匹配的重要依據(jù),它涉及大數(shù)據(jù)、移動設(shè)備、社交媒體、傳感器、定位系統(tǒng)五項要素(羅伯特·斯考伯等,2014)。算法的個性化推薦高度依賴信息、平臺、用戶和場景的連接。

機器算法對傳播的影響

智能技術(shù)在宏觀上重塑傳媒生態(tài),在中觀層面形塑傳媒業(yè)態(tài),在微觀層面改變傳媒形態(tài)。首先,智能技術(shù)嵌入國家、社會、媒介與個人的復雜互動,從根本上改變了傳媒的生態(tài)?;诖髷?shù)據(jù)、物聯(lián)網(wǎng)與機器學習的智能傳播,重構(gòu)了現(xiàn)有的媒介版圖、營銷邏輯與規(guī)制模式。其次,技術(shù)與媒介的聯(lián)結(jié),催生了平臺媒體、計算廣告、智能語音等產(chǎn)業(yè)。最后,智能技術(shù)再造新聞生產(chǎn)流程與分發(fā)模式,不僅提高了信息生產(chǎn)效率與分發(fā)精準度,還發(fā)展出機器人新聞、AI主播和AI配音、傳感器新聞、智能推薦等業(yè)態(tài)。

智能技術(shù)的“算法轉(zhuǎn)向”,用技術(shù)創(chuàng)新改變著傳媒形態(tài)、業(yè)態(tài)與生態(tài),也在傳播思維、文化觀念與意識形態(tài)等層面啟發(fā)著關(guān)于媒介技術(shù)與現(xiàn)代性的思考。然而,新技術(shù)總是陷入“解決老問題—引發(fā)新問題”的循環(huán)之中。個人意識形態(tài)陷阱、算法倫理、算法侵權(quán)、文化及意識形態(tài)等風險,凸顯出算法治理的迫切性,亟需引起廣泛關(guān)注。

智能傳播的算法風險

技術(shù)的不確定性不斷向制度、心理和文化滲透,帶來技術(shù)風險。智能技術(shù)的風險既涉及客觀事實層面,也包括主觀意識層面,還可能轉(zhuǎn)化為經(jīng)濟、政治或文化等領(lǐng)域的現(xiàn)實危機。而當算法被建構(gòu)為新聞客觀主義、技術(shù)樂觀主義的載體時,無議價能力的機器勞動、個性化推薦以及算法的商業(yè)秘密身份在一定程度上遮蔽了技術(shù)的風險。

算法的倫理風險

個人意識形態(tài)陷阱。智能技術(shù)充當了傳媒業(yè)和用戶的中介,借助用戶畫像實現(xiàn)內(nèi)容的個性化推薦。而算法借代理用戶進行信息篩選的契機,控制了注意力市場和媒體信息系統(tǒng),但這卻可能導致用戶“失去意外發(fā)現(xiàn)好文章的機會”(尼爾·瑟曼,2011)。算法的內(nèi)容審查排斥了強化公民意識、社會責任的嚴肅新聞,將用戶禁錮在個人意識形態(tài)之中(伊萊·帕理澤,2013)。用戶使用算法推薦,也是不自覺地接受平臺及其資本邏輯反向規(guī)訓的過程。在計算思維的主導下,算法平臺難以提供造就“公共性”所必需的反思意識(芬威克·麥凱維,2014)。也就是說,算法內(nèi)容分發(fā)的千人千面在一定程度上對構(gòu)建公共對話的基礎(chǔ)提出了挑戰(zhàn)。

算法偏見及歧視。智能傳播過程中,用戶信息可能被濫用,引發(fā)算法偏見及歧視等倫理風險。科德·戴維斯(2016)認為,倫理影響是高度依賴語境的,忽視了倫理影響的“在場”就等于主動向創(chuàng)新利益與風險損失間的失衡招手。機器算法也包含價值嵌入,它模糊了人的決策過程,容易讓信息被誤用并形成偏見?,F(xiàn)有的機器無法分辨數(shù)據(jù)中隱藏的價值偏向,會歸納、同構(gòu)并放大人類的偏見與歧視(彭蘭,2018)。社會偏見融入算法的技術(shù)設(shè)計和運行過程,又在用戶的日常使用中形成偏見循環(huán)。

算法的侵權(quán)風險

“以隱私讓渡換取個性化推薦”是算法推薦的交易法則。算法的技術(shù)復雜性、不透明性和商業(yè)保密性將用戶的知情權(quán)擱置,形成智能傳播的“黑箱效應”。算法不透明的張力潛隱于智能傳播的算法邏輯中。

代碼的權(quán)力隱含于算法之中。大數(shù)據(jù)時代的遺忘是特例,記憶是常態(tài)。在這個意義上,大數(shù)據(jù)社會也是一個“監(jiān)控社會”(surveillance society)。互聯(lián)網(wǎng)平臺的隱私條款往往是單方面且難以追責的。用戶的知情權(quán)、隱私權(quán)和被遺忘權(quán)等個人權(quán)利,面臨著在不知不覺中被侵犯的風險。語音、指紋、面部特征等伴隨終生的生物信息,一旦被授權(quán)使用,將會帶來多方面且長期性的風險。用戶的行為、心理等隱私信息若被泄露或非法使用,也會對用戶的肖像權(quán)、人身和財產(chǎn)安全造成威脅。

算法的文化風險

算法推薦強調(diào)的是依據(jù)程序指令完成“實然”面向,卻忽視了人文價值判斷、公眾責任意識等“應然”面向。

智能平臺的整體設(shè)計為負面文化蔓延提供了溫床。美國社交網(wǎng)站Reddit的“玩家門事件”和“名人照片泄露事件”凸顯出一種“有毒的技術(shù)文化”——平臺的治理策略和算法邏輯縱容了種族主義與“反女性主義”的活動(阿德里安·馬薩納里,2017)。

智能算法的文化風險不僅關(guān)涉平臺媒體的信息內(nèi)容及其傳播過程,還關(guān)乎平臺與社會的互構(gòu)關(guān)系。例如,“你關(guān)心的,才是頭條”“記錄美好生活”“記錄世界,記錄你”等“平民修辭”“趨勢排行”和“頁面排名”的“真實”鏡像,在一定程度上體現(xiàn)了強烈的私有性、排他性、利益相關(guān)性。因此,泰德·斯特瑞佛斯(2015)認為,算法是維持而非打破既有結(jié)構(gòu)的文化使徒,算法文化是一種精英文化的變體,背棄了文化的公共性原則。

算法的公共輿論風險

智能傳播時代,社交媒體升級為輿論博弈的主要場域,社交機器人則成為輿論動員的工具。研究發(fā)現(xiàn),Twitter上存在大量攻擊、對抗中國政府的虛假信息和機器人賬戶(吉莉安·博爾索弗、菲利普·霍華德,2019)。而社交媒體上的算法操縱、信息聚合平臺的價值觀紊亂,必然導致公眾輿論風險。具體體現(xiàn)在:智能算法與新型傳播機制,打破了主流媒體的渠道壟斷,影響了主流價值觀的形塑;缺乏價值觀引導的技術(shù)迭代以及資本逐利的本性,將引發(fā)意識形態(tài)的新社會風險;智能技術(shù)的工具理性躍升價值理性之上,導致算法神話的誕生;一些非理性、煽動性的信息以個性化、互動化和場景化的形式向活躍的青年用戶群體傳播,解構(gòu)著社會共識。

智能傳播的算法治理路徑

算法在提高社會運行效率的同時,也帶來“不可解釋隱憂”“自我強化困境”“主體性難題”等新社會風險[3]。算法治理是在數(shù)據(jù)公正、算法透明和算法問責的基礎(chǔ)上追求算法正義的過程[4]。算法的風險治理呈現(xiàn)出跨學科、協(xié)同治理的路徑依賴特征。

數(shù)據(jù)倫理的倡導

好的技術(shù)須是可被專業(yè)人員理解、具有高可塑性與低依賴性的[5],其發(fā)展應當提升“人的價值”并導向人類的“理想生活”(good life)。美國的“阿西洛馬人工智能原則”(Asilomar AI Principles)強調(diào)人工智能應符合一般的“人的價值”(尊嚴、權(quán)利、自由和文化等),并列出了安全性、透明性、與人類價值觀保持一致、隱私保護、分享利益、共同繁榮、人類控制、非顛覆以及禁止智能裝備競賽等倫理原則。

“智能技術(shù)并非價值中立,其媒介應用需要倫理導向”已成為一種社會共識。如《人工智能時代:確立以人為本的歐盟人工智能戰(zhàn)略》《通用數(shù)據(jù)保護條例》和《人工智能道德準則》,皆采取重視智能技術(shù)的倫理問題,強調(diào)以價值觀引導智能技術(shù),造福個人和社會的一貫立場。這些研究和舉措可以為我國智能傳播的倫理規(guī)制提供借鑒。

智能算法的法律規(guī)制

算法治理應當從技術(shù)、經(jīng)濟、倫理和政治等多維度,平衡技術(shù)創(chuàng)新與風險規(guī)避。但是,有效的算法治理并非易事。算法問責、算法透明與公開、言論自由與版權(quán)保護等,成為智能傳播法律規(guī)制的關(guān)鍵議題。

近年來,針對算法透明及可理解性,算法與言論自由保護范圍的爭議,階層固化、認知偏差和社會歧視的復制、延續(xù)和再生產(chǎn),種族與性別歧視“自我循環(huán)”,算法主體性風險,算法內(nèi)容版權(quán)等問題,各國都在尋求法律規(guī)制的可行性路徑。

如果說歐盟側(cè)重于從源頭進行規(guī)制,美國注重以案例提供法律參照,那么中國則傾向于針對不同領(lǐng)域進行分散式立法[6]。與片面主張算法透明與公開不同,有研究者認為,更有效的治理方式是“從算法被影響者的角度觀察、考量算法的應用結(jié)果”[7]。例如,在針對智能技術(shù)立法時,網(wǎng)絡用戶的知情權(quán)和參與權(quán)也應當被納入進來。當然,因智能技術(shù)處于動態(tài)發(fā)展之中,技術(shù)迭代和法律規(guī)制的兼容問題仍需進一步探索。

多元協(xié)同的治理

算法實踐及其影響的復雜性需要進一步結(jié)合“在地化”過程來理解,算法治理模式的探索也應如此。智能傳播的算法治理,不僅需要新聞從業(yè)者、編程者、規(guī)制者等多元主體的共同參與,也需要傳統(tǒng)媒體、智能算法平臺及政府部門等多部門的支持。

一是主流媒體的價值引領(lǐng)。我國對智能媒體的算法規(guī)制由主流媒體與政府部門共同主導[8],且往往是主流媒體發(fā)聲監(jiān)督在前,政府部門規(guī)制在后。智能算法導致傳播權(quán)力流動,使傳統(tǒng)的主流價值觀及相關(guān)話語塑造體系面臨挑戰(zhàn)。主流媒體的價值引領(lǐng),主要有話語建構(gòu)和技術(shù)采納兩種途徑。2017年,《人民日報》、人民網(wǎng)多次質(zhì)疑算法的倫理問題;2018年上半年,國家網(wǎng)信辦針對內(nèi)容“三俗”問題約談多個短視頻平臺并要求整改;2018年下半年,人民日報社牽頭打造有價值觀的“黨媒算法”和新型主流平臺。主流媒體的系列舉措,既是對社會化媒體的監(jiān)督,也是一種把握傳播話語權(quán)、規(guī)避意識形態(tài)風險、參與協(xié)同治理的策略。

二是監(jiān)管部門的制度完善?;诨ヂ?lián)網(wǎng)治理的經(jīng)驗,智能傳播的算法風險被納入政府監(jiān)管當中。國家網(wǎng)信辦出臺了一系列規(guī)定,將算法治理的理念具象化為相關(guān)的條文條例,如《互聯(lián)網(wǎng)新聞信息服務管理規(guī)定》(2017年)《網(wǎng)絡安全威脅信息發(fā)布管理辦法(征求意見稿)》(2019年)等。此外,歸網(wǎng)信辦管轄的違法和不良信息舉報中心,在借助群眾力量共同進行算法治理,并通過專項整治和集中約談等方式在互聯(lián)網(wǎng)清理規(guī)范方面發(fā)揮了重要作用。

三是算法平臺的技術(shù)治理。智能平臺的技術(shù)干預,是以“技術(shù)之力”治理技術(shù)風險。憑借大數(shù)據(jù)和智能算法,阿里巴巴集團推出的“AI謠言粉碎機”,能夠通過信源判斷、內(nèi)容特征對比及用戶態(tài)度計算等方法進行智能辟謠。今日頭條的“反謠言技術(shù)路線圖”披露了謠言從被審核、被識別到被沉淀至謠言庫的整個生命周期。智能語言處理、語音及圖像識別等人工智能技術(shù),也在推動著自動化事實核查(automated fact-checking)的發(fā)展。算法平臺的技術(shù)治理,體現(xiàn)了從提升信息生產(chǎn)效率到追求信息準確性的取向轉(zhuǎn)變。

算法治理中的觀念平衡

面對技術(shù)和倫理上的雙重困境,各國的本土化發(fā)展戰(zhàn)略展示出不同治理邏輯。歐美算法治理理念的差異,在數(shù)據(jù)利用和隱私保護構(gòu)成的矛盾關(guān)系方面尤為明顯。針對智能算法帶來的技術(shù)風險,歐盟主張信息行為主體對其網(wǎng)絡信息的有效控制,充分尊重刪除權(quán)、被遺忘權(quán)等權(quán)益,將“個人隱私保護”視為一種人格尊嚴和基本權(quán)利,通過對“人工智能價值觀”的重視來彰顯其獨特優(yōu)勢。人工智能技術(shù)領(lǐng)先的美國,則偏向維護技術(shù)發(fā)展的創(chuàng)新觀,傾向于將隱私視為一種“基本價值”,側(cè)重“保護言論自由”(Steven C. Bennett,2012)。而實現(xiàn)人工智能的價值觀與創(chuàng)新觀、技術(shù)崇拜與內(nèi)容供給間的平衡[9],是我國在智能傳播時代進行算法治理的必然選擇。

從倫理、法律、文化等多維度進行多元協(xié)同治理,有助于規(guī)避智能傳播的算法風險,營造風清氣正的網(wǎng)絡空間。

【本文作者為華中科技大學新聞與信息傳播學院教授;本文系中央高?;究蒲袠I(yè)務經(jīng)費資助文科重大及交叉項目“‘可見性’視角下的社交媒體信息安全研究”(項目編號:2015AD007)、文科前沿探索項目“大數(shù)據(jù)時代社交媒體中的信息風險及其治理研究”(項目編號:2015AB016)階段性成果;華中科技大學新聞與信息傳播學院碩士研究生郭瑞陽對本文亦有貢獻】

注釋

[1]胡正榮:《智能化:未來媒體的發(fā)展方向》,《現(xiàn)代傳播》,2017年第11期,第1-4頁。

[2]彭蘭:《連接的演進——互聯(lián)網(wǎng)進化的基本邏輯》,《國際新聞界》,2013年第12期,第7頁。

[3]賈開:《人工智能與算法治理研究》,《中國行政管理》,2019年第1期,第19-20頁。

[4]郭小平、秦藝軒:《解構(gòu)智能傳播的數(shù)據(jù)神話:算法偏見的成因與風險治理路徑》,《現(xiàn)代傳播》,2019 年第9期,第22-24頁。

[5][美]蘭登·溫納:《自主性技術(shù):作為政治思想主題的失控技術(shù)》,楊海燕譯,北京:北京大學出版社,2014年,第280頁。

[6]汪慶華:《人工智能的法律規(guī)制路徑:一個框架性討論》,《現(xiàn)代法學》,2019年第2期,第54-63頁。

[7]賈開:《人工智能與算法治理研究》,《中國行政管理》,2019年第1期,第21頁。

[8]張志安:《算法推薦及其應用實踐的中國“在地性”思考》,《新聞界》,2019年第7期,第14頁。

[9]郭小平、汪亞純:《智能媒體:傳媒業(yè)態(tài)、形態(tài)與生態(tài)的重構(gòu)及其反思》,《新華文摘》,2019年第18期,第128-130頁。

責編:羅 婷 / 王茂磊

聲明:本文為《國家治理》周刊原創(chuàng)內(nèi)容,任何單位或個人轉(zhuǎn)載請回復國家治理周刊微信號獲得授權(quán),轉(zhuǎn)載時務必標明來源及作者,否則追究法律責任。

責任編輯:賀勝蘭