中國傳媒大學(xué)國際傳媒教育學(xué)院院長 金雪濤
【摘要】如果說數(shù)據(jù)是數(shù)字經(jīng)濟(jì)時代的核心生產(chǎn)要素,那么算法則是推進(jìn)這一核心生產(chǎn)要素資產(chǎn)化和價值化的運(yùn)行基礎(chǔ)。當(dāng)數(shù)字技術(shù)賦能各個領(lǐng)域,催生了新產(chǎn)品、新組織模式、新商業(yè)模式和新產(chǎn)業(yè)業(yè)態(tài)的同時,也帶來了諸如算法歧視、算法操縱、算法協(xié)同、算法黑箱等潛在風(fēng)險。不同類型的算法經(jīng)由設(shè)計和實(shí)施,其帶來的算法應(yīng)用潛在風(fēng)險不同,并可能導(dǎo)致政府失靈與市場失靈。圍繞“治理主體—治理對象—治理工具措施”探索算法治理的體系架構(gòu),可以融合多元主體協(xié)同、利益均衡和敏捷治理等三種機(jī)制,在元規(guī)制和全過程管理理念的基礎(chǔ)上優(yōu)化算法治理措施,推動三種機(jī)制并行。
【關(guān)鍵詞】算法風(fēng)險 算法類型 治理體系 治理措施
【中圖分類號】D630 【文獻(xiàn)標(biāo)識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2022.10.004
引言
從技術(shù)的角度看,算法是一個解決問題的計算過程,是一個包含算數(shù)運(yùn)算、邏輯運(yùn)算、關(guān)系運(yùn)算的從輸入到輸出的程序;從社會學(xué)的角度看,算法是設(shè)計者與算法參數(shù)(運(yùn)算過程)及算法對象之間的互動,這個互動過程也伴隨技術(shù)倫理問題的產(chǎn)生;從經(jīng)濟(jì)學(xué)的角度看,算法是完成對數(shù)據(jù)資源“輸入—輸出”的分析系統(tǒng),提高生產(chǎn)力的同時也會影響生產(chǎn)關(guān)系。伴隨數(shù)字技術(shù)的普及應(yīng)用,社會體系中的微觀、中觀、宏觀等各層級無一不被嵌入算法的技術(shù)環(huán)境與契約環(huán)境之中。依靠機(jī)器學(xué)習(xí)的算法通過數(shù)據(jù)分析更精準(zhǔn)地掌握了需求側(cè)的偏好,極大地促進(jìn)了供給側(cè)的生產(chǎn)、管理與運(yùn)營效率的提升。然而,算法在深度賦能社會經(jīng)濟(jì)生活方方面面的同時,也帶來了諸如算法歧視、算法操縱、算法共謀、算法黑箱等潛在風(fēng)險。
算法的技術(shù)中立性產(chǎn)品特點(diǎn)與算法應(yīng)用后“技術(shù)權(quán)力”濫用及壟斷的矛盾,促使我們重新審視算法應(yīng)用與潛在風(fēng)險之間的關(guān)系。我們需要深入分析算法應(yīng)用產(chǎn)生風(fēng)險的特征以及風(fēng)險產(chǎn)生的機(jī)理,本研究將從技術(shù)權(quán)力向資本權(quán)力和對公共資源控制轉(zhuǎn)化的角度闡釋算法應(yīng)用所導(dǎo)致的市場失靈與政府失靈。進(jìn)一步地,圍繞“治理主體—治理對象—治理工具措施”探索算法治理的體系架構(gòu),提出融合多元主體協(xié)同、利益均衡和敏捷治理等三種機(jī)制,在元規(guī)制和全過程管理理念的基礎(chǔ)上優(yōu)化算法治理措施。
算法治理研究溯源
算法研究的總體趨勢。早在公元前1世紀(jì),我國《周髀算經(jīng)》就對四分歷法進(jìn)行說明,同時用商高問答解釋了“勾三股四玄五”這一勾股定律的特例,已經(jīng)有了數(shù)學(xué)及算法的雛形。算法(Algorithm)一詞來自于波斯數(shù)學(xué)天才花剌子模(Mu?ammad ibn Mūsā al-Khwārizmī)名字的拉丁化,在他的書籍中不僅闡釋了如何將復(fù)雜的問題分解為更為簡單的部分并加以解決,也闡釋了沿用至今的“算數(shù)運(yùn)算”“關(guān)系運(yùn)算”等概念。此后在人類文明的進(jìn)程中,推進(jìn)幾何學(xué)系統(tǒng)化的歐幾里德算法、“軟件之母”Ada Byron的程序設(shè)計流程圖、抽象了數(shù)學(xué)計算過程的圖靈機(jī),以及“Pascal創(chuàng)始者”Nicklaus Wirth提出的“算法+數(shù)據(jù)結(jié)構(gòu)=程序”等,每一次探索與進(jìn)步都堅實(shí)了算法的應(yīng)用基礎(chǔ)。當(dāng)人類從工業(yè)社會、信息化社會步入數(shù)字經(jīng)濟(jì)時代之后,依托高速互聯(lián)的網(wǎng)絡(luò)、大數(shù)據(jù)存儲及計算能力,算法已融入個人的吃穿住行、企業(yè)的生產(chǎn)運(yùn)營和政府的公共治理之中。
筆者對2000年~2021年國內(nèi)外關(guān)于算法治理、算法規(guī)制的學(xué)術(shù)論文成果進(jìn)行檢索分析。國外文獻(xiàn)數(shù)據(jù)來自Web of Science核心合集數(shù)據(jù)庫,為了保證數(shù)據(jù)的全面性,利用專業(yè)檢索,構(gòu)造檢索式“TS=(algorithm*)AND TS=(governance OR regulation)”、選擇語言“English”、選擇文獻(xiàn)類型“Article”,選擇時間截至“2021年”,最終獲取到828篇國外文獻(xiàn)。國內(nèi)文獻(xiàn)數(shù)據(jù)來自中國知網(wǎng),為了保證數(shù)據(jù)的全面性,利用專業(yè)檢索,構(gòu)造檢索式“SU='算法'*('治理'+'規(guī)制')”,選擇CSSCI期刊為檢索范圍,選擇時間截至“2021年”,最終獲取到526篇國內(nèi)文獻(xiàn)。每年中外發(fā)表的論文數(shù)量變化的整體趨勢如圖1所示。綜合來看,國外的研究起步早于國內(nèi),文章數(shù)量多于國內(nèi)。國內(nèi)外在算法治理領(lǐng)域的研究都是從2017年開始顯著增加,這與2016年是算法編輯超越人工編輯的拐點(diǎn)之年密切相關(guān),更佐證了算法技術(shù)應(yīng)用廣度與深度不斷拓展的現(xiàn)實(shí)。
聚焦國內(nèi)算法治理問題,研究發(fā)現(xiàn),國內(nèi)相關(guān)研究中最熱關(guān)鍵詞是“人工智能”,該關(guān)鍵詞節(jié)點(diǎn)的“原點(diǎn)”最大,代表算法治理中與人工智能相關(guān)的研究最多。在國內(nèi)研究排名前20的關(guān)鍵詞中,有5個詞與“算法”關(guān)聯(lián),分別是算法歧視、算法風(fēng)險、算法規(guī)制、算法權(quán)力和算法倫理,說明學(xué)術(shù)界非常關(guān)注算法風(fēng)險的成因、算法風(fēng)險的類型和治理措施探索;有6個詞與“治理”關(guān)聯(lián),分別是“治理”、“數(shù)據(jù)治理”、“社會治理”、“協(xié)同治理”、“技術(shù)治理”和“政治治理”,這說明當(dāng)前針對算法應(yīng)用的治理問題研究不是只停留在微觀層面,也在中觀和宏觀層面都有所涉及。
算法治理的研究重點(diǎn)。國內(nèi)外關(guān)于算法治理的相關(guān)研究主要聚焦在傳播學(xué)、社會學(xué)、政治經(jīng)濟(jì)學(xué)、經(jīng)濟(jì)學(xué)和法學(xué)等領(lǐng)域,表1列示了代表性學(xué)者的研究觀點(diǎn)。
從傳播學(xué)的視角看,算法的直接影響是產(chǎn)生信息繭房(Information Cocoons)、回聲室效應(yīng)(Echo Chamber)和信息過濾泡(Filter Bubble)。這三個概念均指因算法支撐的數(shù)據(jù)分析及內(nèi)容精準(zhǔn)推送,在無形的網(wǎng)絡(luò)空間中打造了相對封閉、高度同質(zhì)化的信息空間,人們的視界被熟悉的內(nèi)容和思維所限制并進(jìn)一步固化,甚而這種固有之見會被推向極端形成群體極化(Group Polarization)。
從社會學(xué)和政治經(jīng)濟(jì)學(xué)的視角看,盡管算法技術(shù)并非數(shù)字鴻溝、數(shù)字勞動、個人隱私保護(hù)等問題存在的唯一因素,但算法應(yīng)用使得橫亙在互聯(lián)網(wǎng)觸達(dá)者和互聯(lián)網(wǎng)無法觸達(dá)者之間的橫向數(shù)字鴻溝,政府、企業(yè)、個人等在縱向管理關(guān)系上因?qū)?shù)據(jù)(信息)掌握程度和決策能力不同而導(dǎo)致的縱向數(shù)字鴻溝等更加顯著;算法應(yīng)用也令有酬和無酬的數(shù)字勞動者的勞動付出被機(jī)器判斷與指令控制,從而數(shù)字勞動被進(jìn)一步商品化和資本化;算法應(yīng)用也會因隱私(數(shù)據(jù))主體喪失了控制權(quán)從而產(chǎn)生隱私泄漏等風(fēng)險。
從經(jīng)濟(jì)學(xué)的角度看,泛在的網(wǎng)絡(luò)平臺是數(shù)字經(jīng)濟(jì)的基礎(chǔ)設(shè)施,也是數(shù)字生產(chǎn)要素利用與配置的場域,更是算法得以應(yīng)用產(chǎn)生價值增值的舞臺。傳統(tǒng)經(jīng)濟(jì)中企業(yè)通過協(xié)議或相互暗示可以形成策略行為的共謀,以限制競爭實(shí)現(xiàn)合作集團(tuán)內(nèi)部利益最大化。數(shù)字經(jīng)濟(jì)和人工智能環(huán)境下,算法應(yīng)用更有助于網(wǎng)絡(luò)平臺通過收集個人或企業(yè)的基礎(chǔ)信息及行為信息,通過加工分析而洞悉平臺上的價格趨勢、產(chǎn)品結(jié)構(gòu)以及各類參與方的行為特征,令共謀行為更易達(dá)成?;趥€人用戶基礎(chǔ)數(shù)據(jù)和行為數(shù)據(jù)分析的算法,還可以針對個人用戶的偏好實(shí)施動態(tài)的價格歧視或服務(wù)歧視,剝奪了更多的消費(fèi)者剩余。
從法學(xué)的角度看,中外學(xué)者對算法權(quán)力的形成及其對社會資源和數(shù)據(jù)的控制作用進(jìn)行了分析,同時對算法權(quán)力嵌入商業(yè)領(lǐng)域、嵌入公權(quán)力程序所形成的異化風(fēng)險提出了警示,從立法的角度考慮了治理的架構(gòu)與措施。
伴隨大數(shù)據(jù)分析技術(shù)的升級與智能技術(shù)的普及,算法應(yīng)用帶來的風(fēng)險隱患受到了廣泛關(guān)注,很多國家政府通過立法和標(biāo)準(zhǔn)制定對算法應(yīng)用的相關(guān)領(lǐng)域進(jìn)行實(shí)質(zhì)維度的治理與監(jiān)管,不同行業(yè)、企業(yè)也通過建立算法應(yīng)用的倫理指南來實(shí)現(xiàn)自我規(guī)制。
算法應(yīng)用的潛在風(fēng)險及形成機(jī)理
算法應(yīng)用的潛在風(fēng)險。1.算法歧視(Algorithmic Bias)。算法歧視是指通過數(shù)字自動化決策,特定條件的數(shù)據(jù)分析導(dǎo)致對特定數(shù)據(jù)主體產(chǎn)生基于性別、價格及其他條件的不公正對待,濫用排序、大數(shù)據(jù)殺熟等都是算法歧視的直接表現(xiàn)。算法歧視可能是源于算法設(shè)計者的文化差異、判斷差異、目的差異,也可能源于算法使用過程中意外出現(xiàn)的突發(fā)結(jié)果。不管是哪一種情況,算法歧視都會產(chǎn)生偏見強(qiáng)化、消費(fèi)者剩余被蠶食、個人自主選擇被剝奪等不利影響。
現(xiàn)實(shí)生活中,經(jīng)常使用打車APP的人和使用外賣平臺APP的會員,他們訂車或訂外賣支付的金額有時反而會比不經(jīng)常使用的人更高;又比如企業(yè)在專業(yè)招聘平臺上招人,會存在因算法歧視而導(dǎo)致選擇范圍過窄等問題。根據(jù)2019年北京消費(fèi)者協(xié)會的社會調(diào)查數(shù)據(jù),有56.92%的被調(diào)查者有過被大數(shù)據(jù)“殺熟”的經(jīng)歷;調(diào)查還顯示購物類、旅游類、打車類等平臺APP均存在著大數(shù)據(jù)“殺熟”現(xiàn)象(劉朝,2022)。
2.算法操縱(Algorithmic Manipulation)。算法操縱是指當(dāng)算法部分(或全部)替代“人”成為發(fā)出指令和進(jìn)行決策的主體時,數(shù)據(jù)(信息、隱私)的所有者、企業(yè)決策主體、勞動主體喪失了控制權(quán),會造成信息繭房、回音室效應(yīng)、信息過濾泡以及隱私泄漏等問題。
針對消費(fèi)者的算法操縱包括新聞、文娛、廣告等推送主要依靠對用戶行為的數(shù)據(jù)分析,算法推斷用戶偏好并只呈現(xiàn)該種類內(nèi)容,比如Facebook的新聞投喂算法(News Feed Algorithm),這使得信息繭房、回音室效應(yīng)、信息過濾泡等構(gòu)筑“信息隔離空間”的效能大大增強(qiáng);與此同時,在算法操縱對個人用戶基本數(shù)據(jù)和行為數(shù)據(jù)的收集、分析、預(yù)測和使用過程中,因數(shù)據(jù)(信息、隱私)主體喪失了控制權(quán),有可能導(dǎo)致個人數(shù)據(jù)或隱私被泄漏和不當(dāng)利用。
針對勞動者的算法操控,最直接的表現(xiàn)就是對數(shù)字勞動的“剝削”。作為工具革命代表的算法能夠?qū)?shù)字勞動的價值精準(zhǔn)計量和控制,比如外賣騎手走哪條線路能夠最有效率地送出外賣,粉絲收看視頻的完播率、轉(zhuǎn)發(fā)數(shù)量和評論數(shù)量能夠創(chuàng)造多少流量價值等。數(shù)字技術(shù)通過對數(shù)字勞動的屬性、行為計算出最佳方案,并以一種可見或不可見的方式推進(jìn)各類數(shù)字勞動去“行動”,數(shù)字勞動所創(chuàng)造的信息內(nèi)容、流量以及生產(chǎn)效率,部分或全部地?zé)o償參與資本擴(kuò)張與增值過程。
針對同業(yè)競爭者的算法操縱集中地體現(xiàn)在網(wǎng)絡(luò)平臺通過算法設(shè)置條件,控制搜索結(jié)果或排名呈現(xiàn),構(gòu)筑了市場進(jìn)入壁壘,當(dāng)然算法操縱也會導(dǎo)致同業(yè)競爭企業(yè)的數(shù)據(jù)(信息)被泄漏或不當(dāng)利用。算法操縱破壞了公平競爭,同時也給消費(fèi)者帶來了不良體驗。比如韓國最大的搜索引擎Naver在2020年利用搜索服務(wù)禁止其內(nèi)容供應(yīng)商與它的競爭對手合作,并將自己的產(chǎn)品設(shè)置在搜索結(jié)果的高排名中,將競爭對手的產(chǎn)品設(shè)置在低排名中,這種既欺騙消費(fèi)者又阻礙公平競爭的行為被韓國公平貿(mào)易委員會(Korea Fair Trade Commission, KFTC)罰款280.2億韓元。
3.算法協(xié)同(Algorithmic Collaboration)。協(xié)同行為(共謀行為)是在特定產(chǎn)業(yè)中多個企業(yè)通過協(xié)議或暗示,采取共同限制價格、限制產(chǎn)量、控制銷售渠道等一致性行為來壓制競爭,獲得超額壟斷利潤的策略。在數(shù)字經(jīng)濟(jì)時代,數(shù)據(jù)、算法、算力已經(jīng)貫穿了所有的生產(chǎn)要素和各類社會經(jīng)濟(jì)活動,基于互聯(lián)網(wǎng)平臺的運(yùn)營企業(yè)和平臺內(nèi)參與企業(yè)均有能力對消費(fèi)者、競爭同行的大數(shù)據(jù)進(jìn)行收集與分析,并可自動地形成在價格、服務(wù)標(biāo)準(zhǔn)或產(chǎn)量上的共謀。
英國學(xué)者阿里爾·扎拉奇(Ariel Ezrachi)和莫里斯·E·斯圖克(Maurice E. Stucke)將算法協(xié)同(共謀)分為四類:1)信使型共謀是通過分享算法傳遞的信息達(dá)成對價格或銷售條件等的共謀,算法的角色類似“信使”;2)軸輻型共謀最為常見,是指作為平臺的運(yùn)營企業(yè)(平臺樞紐)利用算法形成價格指導(dǎo)(車軸),協(xié)同平臺其他參與企業(yè)(輻條)形成上下游縱向共謀,或作為平臺參與企業(yè)(輻條)之間在平臺樞紐的影響形成下游橫向的共謀,從而封閉市場成立,限制了競爭;3)預(yù)測型共謀需要依靠更智能的算法,由算法(特別是價格算法)充當(dāng)企業(yè)高管的代理人角色,動態(tài)監(jiān)控市場價格的變化,通過信息差來獲得定價優(yōu)勢;4)自主型共謀是在機(jī)器學(xué)習(xí)不斷深化的過程中,算法可以完成自我學(xué)習(xí)與自我決策的不斷優(yōu)化,形成了自動探索優(yōu)化利潤的路徑,從而成為操縱市場的力量,盡管目前自主型共謀還處于概念和實(shí)驗階段,但其危害值得我們更多關(guān)注。
在現(xiàn)實(shí)中,亞馬遜網(wǎng)站上的書商因定價算法設(shè)計上的漏洞,其銷售的書籍定價追隨用戶的留言與評價機(jī)械地發(fā)生并無限循環(huán),導(dǎo)致一本普通的生物遺傳學(xué)教科書的定價高達(dá)2000多萬美金,這是信使型共謀的典例;2016年歐盟法院審理的E-Turas案是E-Turas這家線上旅游預(yù)訂系統(tǒng)通過對所有會員單位的報價信息分析,自動將折扣限制在3%以內(nèi),而不論成員單位的自我價格折扣是多少,這是一種典型的軸輻型共謀。
4.算法黑箱(Algorithmic Black Box)。“黑箱”是一種隱喻,指存在于人工智能深度學(xué)習(xí)的輸入與輸出之間,難以為外界所觀察和理解的隱層。算法設(shè)計者和算法應(yīng)用者作為專業(yè)人士對算法內(nèi)容和機(jī)制會有更多了解,但非專業(yè)人士只能觀察到算法系統(tǒng)的輸入與輸出,很難掌握算法的內(nèi)容與邏輯。算法“黑箱”對多數(shù)主體或個人是具有不透明性和不公開性的,這種不透明性和不公開性必然導(dǎo)致數(shù)據(jù)(信息)的不可控,而數(shù)據(jù)(信息)的不可控又加劇了輸出結(jié)果與事實(shí)相悖、或算法決策責(zé)任性缺失,關(guān)聯(lián)地或可能侵犯公眾知情權(quán)和自主決策權(quán),威脅個人信息安全,甚至可能引發(fā)公共數(shù)據(jù)資源的使用危機(jī)。算法黑箱也使算法歧視、算法操縱和算法共謀等以更隱蔽的狀態(tài)產(chǎn)生風(fēng)險蔓延。
算法應(yīng)用存在風(fēng)險的機(jī)理。OECD將算法分為四類:一是“監(jiān)控式算法”(Monitoring Algorithms),指按既定目標(biāo),利用數(shù)據(jù)(內(nèi)容信息)爬取技術(shù),通過數(shù)據(jù)收集完成監(jiān)控過程,在監(jiān)控式算法使用過程中,“人”是發(fā)出指令的控制主體和進(jìn)行決策的主體,算法只是工具;二是“平行式算法”(Parallel Algorithms),依然是根據(jù)既定目標(biāo)通過特定算法對數(shù)據(jù)進(jìn)行收集、分析和監(jiān)控,“人”是發(fā)出指令的控制主體,但通過算法設(shè)計讓渡了部分“決策權(quán)”給算法;三是“信號式算法”(Signaling Algorithms),是在算法對數(shù)據(jù)收集、分析和預(yù)測的基礎(chǔ)上,按照設(shè)計程序可以自動發(fā)布信號和處理信號,此類算法已開始對“人發(fā)出指令和進(jìn)行決策的功能”產(chǎn)生部分的替代;四是“自我學(xué)習(xí)式算法”(Self-learning Algorithms),是在人工智能的相關(guān)技術(shù)加持下,擁有智能認(rèn)知的算法可以實(shí)現(xiàn)從發(fā)出指令到完成決策的全過程,具有了對“人發(fā)出指令和進(jìn)行決策的功能”完全替代的可能性。
不同類型的算法經(jīng)由設(shè)計和實(shí)施,對算法應(yīng)用潛在風(fēng)險影響不同(如圖2所示):監(jiān)控式算法不存在發(fā)出指令和完成決策的機(jī)器替代,主要功能是收集和分析數(shù)據(jù),并產(chǎn)生導(dǎo)向型的數(shù)據(jù)輸出,因此它是產(chǎn)生基于基礎(chǔ)數(shù)據(jù)和基于行為數(shù)據(jù)的算法歧視的主要助力,同時監(jiān)控式算法也會加劇信息繭房、回聲室效應(yīng)、信息過濾泡和信使型共謀所產(chǎn)生的風(fēng)險;平行式算法的指令發(fā)出主體仍然是人,但部分決策控制權(quán)出現(xiàn)向算法的轉(zhuǎn)移,這種算法的輸出背離事實(shí)的可能性會推動基于行為數(shù)據(jù)的算法歧視產(chǎn)生、信息過濾泡的構(gòu)建、個人隱私和公共數(shù)據(jù)的泄漏等,平行式算法的自動分析與決策過程也便利了軸輻型共謀的達(dá)成;信號式算法已開始對“人發(fā)出指令和進(jìn)行決策的功能”產(chǎn)生部分的替代,因此與算法對象間的互動更為密切,對于具主動性的數(shù)字勞動進(jìn)行控制、形成預(yù)測型共謀和算法黑箱,信號式算法更有效率;自我學(xué)習(xí)式算法更加智能,算法能夠獨(dú)立完成發(fā)出指令并優(yōu)化決策,因此基于機(jī)器學(xué)習(xí)的自主型共謀和更高難度的算法黑箱有了實(shí)施支撐。
當(dāng)作為技術(shù)的算法,通過數(shù)據(jù)分析和輸出結(jié)果導(dǎo)向?qū)?jīng)濟(jì)活動或社會活動主體的決策與行為產(chǎn)生了一定程度的支配力與控制力,特別是智能技術(shù)的深入融合不斷增強(qiáng)算法的自我學(xué)習(xí)能力,算法可以部分甚至完全替代人這個主體“發(fā)出指令”“完成決策”,進(jìn)一步地算法對生產(chǎn)力和生產(chǎn)關(guān)系都會產(chǎn)生影響,從單純的技術(shù)工具逐漸轉(zhuǎn)變?yōu)榫哂兄黧w性的“技術(shù)權(quán)力者”。而當(dāng)這種技術(shù)權(quán)力與商業(yè)程序相結(jié)合時,形成了“算法(技術(shù)權(quán)力)——數(shù)據(jù)收集、分析與結(jié)果輸出——經(jīng)濟(jì)資源控制+行為影響——社會利益分配重構(gòu)(資本權(quán)力)——市場失靈”的作用機(jī)制路徑;當(dāng)這種技術(shù)權(quán)力與行政程序相結(jié)合時,則有可能導(dǎo)致“算法(技術(shù)權(quán)力)——數(shù)據(jù)收集、分析與結(jié)果輸出——公共資源(含數(shù)據(jù)/信息)控制——政府失靈”的作用機(jī)制路徑。
算法應(yīng)用治理體系構(gòu)建
對算法應(yīng)用進(jìn)行治理的難點(diǎn)。算法其實(shí)是一種分析利用數(shù)據(jù)的智能手段,它將數(shù)據(jù)輸入(原因)通過既定的程序變?yōu)閿?shù)據(jù)輸出(結(jié)果)。首先,算法應(yīng)用的過程中,人們知道“因和果”,卻難以了解過程,這種算法的不透明性源于數(shù)據(jù)安全性的考慮,也源于技術(shù)的專業(yè)性,更源于智能技術(shù)的應(yīng)用實(shí)現(xiàn)了“機(jī)器自我學(xué)習(xí)”,可以說算法的不透明性與生俱來,這給治理帶來了難題。其次,算法的研發(fā)具有物理上的隱蔽性、算法的應(yīng)用具有廣泛的分散性,當(dāng)深度學(xué)習(xí)嵌入算法推動人的“決策”向機(jī)器讓渡,對算法潛在風(fēng)險的評估和責(zé)任主體的確認(rèn)就變得更為困難。最后,算法的應(yīng)用基于各領(lǐng)域的平臺,平臺是聯(lián)接著不同主體的多邊市場,算法應(yīng)用涉及的潛在風(fēng)險既涉及個人用戶、平臺運(yùn)營企業(yè)(平臺樞紐)和平臺參與企業(yè),也涉及平臺上的數(shù)字勞動者和政府管理部門,算法治理主體和算法治理對象都是多元的,相較于其他領(lǐng)域的治理問題,算法治理的難度更大。
算法應(yīng)用治理體系構(gòu)建。1.算法治理體系的構(gòu)成要件?;谒惴ㄖ卫碇黧w和對象的多元特點(diǎn),算法治理的復(fù)雜性,算法治理需要構(gòu)建體系。這需要厘清治理主體與治理對象之間的關(guān)系和職責(zé),同時考慮市場失靈和政府失靈的雙重影響,通過治理主體的一系列工具措施與治理對象之間形成有效的互動,實(shí)現(xiàn)治理目標(biāo)。算法治理體系的構(gòu)成要件包含治理主體、治理對象、治理工具與措施。
需要說明的是,算法治理的主體和治理對象并非截然分開的,算法治理主體有時與算法治理對象具有一致性。比如算法治理的主體包括相關(guān)政府部門、行業(yè)協(xié)會、第三方社會組織等,但這些主體也會使用算法進(jìn)行數(shù)字資源的使用與控制,所以要接受公眾的監(jiān)督;算法治理的對象如算法設(shè)計開發(fā)方、使用算法的平臺運(yùn)營企業(yè)、平臺參與企業(yè)、公共組織等,也會采取自我規(guī)制來實(shí)現(xiàn)技術(shù)倫理責(zé)任。傳統(tǒng)的治理工具主要依賴于政府干預(yù)(外部規(guī)制)和自我治理(自我規(guī)制)等具體措施工具,前者是治理主體通過治理工具與措施從外部設(shè)定標(biāo)準(zhǔn)等對治理對象進(jìn)行引導(dǎo)和監(jiān)管,比如市場準(zhǔn)入,技術(shù)標(biāo)準(zhǔn),正面及負(fù)面清單等;后者是治理對象基于社會責(zé)任、倫理道德等對自身施以主動管理的行為,比如企業(yè)責(zé)任、技術(shù)和道德倫理原則等。算法治理主體通過外部治理、算法治理對象通過自我治理,以及近年來理論界與實(shí)踐界關(guān)注度不斷提高的對治理過程本身或治理主體的“元規(guī)制”,在明晰各類主體權(quán)責(zé)和應(yīng)承擔(dān)技術(shù)倫理責(zé)任的基礎(chǔ)上,形成多元化主體協(xié)同機(jī)制、利益均衡機(jī)制和敏捷治理機(jī)制,實(shí)現(xiàn)算法治理體系的穩(wěn)健運(yùn)行。
2.算法治理體系的運(yùn)行機(jī)制。一是多主體協(xié)同機(jī)制。算法治理首先需要相關(guān)政府部門采取由上而下的行政賦能,通過立法立規(guī)明晰不同算法應(yīng)用所涉及的各類主體的權(quán)責(zé),通過系列的工具和措施來實(shí)現(xiàn)對算法的評估、對算法的問責(zé)、對算法的審計,建立責(zé)罰相當(dāng)?shù)闹卫砜蚣?。其次,厘清算法治理主體與治理對象間的關(guān)系,提高相關(guān)企業(yè)、社會組織和公眾對算法應(yīng)用的技術(shù)及倫理的認(rèn)知與理解,推動自下而上的多主體、多元化的參與進(jìn)程。在這樣的機(jī)制下,可以充分調(diào)動算法所涉及的各類主體的積極性與能動性,形成對公共部門作為單一治理主體的有益補(bǔ)充。
二是利益均衡機(jī)制。算法治理工作的目的是保障和實(shí)現(xiàn)公共利益,而公共利益意味著一定社會條件下或特定范圍內(nèi)不特定多數(shù)主體利益相一致。利益均衡首先要明確主體利益,然后建立主體利益規(guī)范機(jī)制。算法治理涉及的主體利益既包括用戶個體和數(shù)字勞動者的隱私權(quán)、他們對算法的知情權(quán)和要求解釋權(quán),也包括算法設(shè)計者或控制方應(yīng)享有合法使用信息與數(shù)據(jù)的權(quán)利,以及在知識產(chǎn)權(quán)保護(hù)下獲得算法應(yīng)用的收益權(quán),還包括公共部門合法使用算法的權(quán)利等。利益均衡機(jī)制需要依靠立法的權(quán)威和社會性的、經(jīng)濟(jì)性的規(guī)制手段來協(xié)調(diào)各方主體,在利益共存和相容的基礎(chǔ)上通過科學(xué)治理程序和具體治理工具解決制衡與保護(hù)等問題。
三是敏捷治理(Agile Governance)機(jī)制。如果說多主體協(xié)同機(jī)制與利益均衡機(jī)制更多地是從算法涉及的治理主體與治理對象的復(fù)雜性出發(fā)構(gòu)建治理體系的原則與基礎(chǔ),那么敏捷治理機(jī)制則是從算法治理的效率與效果出發(fā)推動算法治理體系可持續(xù)運(yùn)行。當(dāng)數(shù)字技術(shù)應(yīng)用超越了傳統(tǒng)治理體系范疇,敏捷治理機(jī)制是為應(yīng)對技術(shù)帶來的新風(fēng)險和新挑戰(zhàn)而開展的新型治理。敏捷治理機(jī)制依托“政府為核心+多元參與主體”的模式,通過跨部門合作形成自上而下與自下而上相結(jié)合的治理程序;從對需求的被動響應(yīng)轉(zhuǎn)向?qū)π枨蟮闹鲃禹憫?yīng),從結(jié)果導(dǎo)向的治理轉(zhuǎn)向過程導(dǎo)向的治理,在不斷的自反性學(xué)習(xí)過程中,動態(tài)調(diào)整并優(yōu)化治理工具與措施。盡管敏捷治理在理論研究和實(shí)踐應(yīng)用中仍存在目標(biāo)與效果的差距,但不可否認(rèn)的是,集合各方力量、以迅速響應(yīng)和不斷自反性學(xué)習(xí)為原則的敏捷治理機(jī)制,可以有效地推進(jìn)算法治理中多主體協(xié)同與利益均衡的實(shí)現(xiàn)。
3.算法治理的措施優(yōu)化。推動以上三種機(jī)制并行,算法治理的措施優(yōu)化應(yīng)堅持過程導(dǎo)向和主動響應(yīng)需求的原則,引入“元規(guī)制”理念,強(qiáng)調(diào)多主體權(quán)責(zé)的明確和系統(tǒng)參與,加強(qiáng)事前、事中和事后全過程的管理。
首先,算法治理的措施優(yōu)化體現(xiàn)在外部治理和自我治理基礎(chǔ)上元規(guī)制理念的引入。“元規(guī)制”是指規(guī)制本身成為被規(guī)制的對象(Bronwen Morgan, 2003)。顯然,元規(guī)制不僅對治理主體進(jìn)行規(guī)制,也強(qiáng)調(diào)對治理過程的管控。實(shí)踐中元規(guī)制的主旨不在于對算法風(fēng)險個案解決,而在于對算法應(yīng)用進(jìn)行整體的技術(shù)標(biāo)準(zhǔn)指引,并對“算法類型—算法風(fēng)險”的生成機(jī)制予以過程性管理的回應(yīng)。例如,國際標(biāo)準(zhǔn)化組織已于2018年開始制定針對消費(fèi)者數(shù)據(jù)信息保護(hù)的標(biāo)準(zhǔn),旨在改善算法帶來的“價格歧視”問題;2019年,德國數(shù)據(jù)倫理委員會發(fā)布“針對數(shù)據(jù)和算法的建議”,建立數(shù)字服務(wù)企業(yè)使用數(shù)據(jù)的5級風(fēng)險評級制度,對不同風(fēng)險類型的企業(yè)采取不同的監(jiān)管措施。目前,我國已出臺的《中華人民共和國個人信息保護(hù)法》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》進(jìn)一步明確算法推薦服務(wù)商在保護(hù)個人信息、防止過度消費(fèi)、秉持道德倫理等方面的責(zé)任和算法需備案、定期審核等要求,對打破算法黑箱大有裨益。但目前我國尚缺乏對不同類型算法的技術(shù)標(biāo)準(zhǔn)和對算法風(fēng)險分級分類管理的標(biāo)準(zhǔn),從元規(guī)制視角出發(fā),這些標(biāo)準(zhǔn)應(yīng)盡快出臺,以實(shí)現(xiàn)將治理原則和目標(biāo)融入技術(shù)開發(fā)和應(yīng)用中,推動治理對象的自我治理和治理過程的全覆蓋。
其次,算法規(guī)制的措施優(yōu)化體現(xiàn)在對算法應(yīng)用全過程的管理。在《中華人民共和國個人信息保護(hù)法》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》頒布之前,我國對于算法的治理較明顯地體現(xiàn)為事后治理,比如2018年8月頒布的《電子商務(wù)法》第十九條規(guī)定“電子商務(wù)經(jīng)營者搭售商品或者服務(wù),應(yīng)當(dāng)以顯著方式提醒消費(fèi)者注意,不得將搭售商品或者服務(wù)作為默認(rèn)同意的選項”,對這一條款的違規(guī)處罰上限為50萬元罰款。再比如2021年2月出臺的《國務(wù)院反壟斷委員會關(guān)于平臺經(jīng)濟(jì)領(lǐng)域的反壟斷指南》中明確指出“認(rèn)定平臺經(jīng)濟(jì)領(lǐng)域的濫用市場支配地位行為,適用《反壟斷法》第三章和《禁止濫用市場支配地位行為暫行規(guī)定》”,認(rèn)定過程及行政處罰等也是通過舉報、調(diào)查等事后追索。因為算法技術(shù)的迭代更新,事后治理或追責(zé)往往無法有效應(yīng)對算法應(yīng)用引致風(fēng)險的廣泛性和破壞性,增強(qiáng)事中,特別是事前的治理才有利于前瞻性地防范算法風(fēng)險的產(chǎn)生。2021年12月出臺的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》強(qiáng)調(diào)“算法風(fēng)險防控機(jī)制備案”“建立健全算法機(jī)制機(jī)理審核與評估”“驗證算法機(jī)制機(jī)理、模型、數(shù)據(jù)和應(yīng)用結(jié)果”等,這已充分說明我國已逐漸實(shí)現(xiàn)算法問責(zé)前置,推進(jìn)事前和事中治理工作。在此基礎(chǔ)上,需進(jìn)一步探索算法內(nèi)容(原理)的備案路徑、拓展第三方算評估(審計)的范圍等,讓原則與要求具有落地基礎(chǔ);同時要關(guān)注算法影響的平臺參與企業(yè)、消費(fèi)者、數(shù)字勞動者等多重個體,可以通過分類別的負(fù)面清單方式,阻斷算法風(fēng)險的產(chǎn)生。
總體而言,算法應(yīng)用產(chǎn)生的風(fēng)險是多維度的,是算法應(yīng)用中技術(shù)權(quán)力轉(zhuǎn)化為資本權(quán)力和對公共資源的控制,從而導(dǎo)致了市場失靈或政府失靈。技術(shù)本無善惡,是具有中立性的工具和手段。技術(shù)應(yīng)用達(dá)到何種目的,產(chǎn)生何種影響,均有賴于使用和控制技術(shù)的主體。因此,發(fā)揮算法推動社會向善發(fā)展的作用,需要深入分析算法應(yīng)用產(chǎn)生風(fēng)險的特征以及風(fēng)險產(chǎn)生的機(jī)理,并推進(jìn)多元主體協(xié)同、利益均衡和敏捷治理機(jī)制,通過動態(tài)優(yōu)化治理工具與措施,構(gòu)筑“負(fù)責(zé)任的算法”的基石。
參考文獻(xiàn)
胡泳,2015,《新詞探討:回聲室效應(yīng)》,《新聞與傳播研究》,第6期。
陳昌鳳、霍婕,2018,《權(quán)力遷移與人本精神:算法式新聞分發(fā)的技術(shù)倫理》,《新聞與寫作》,第1期。
[美]伊萊·帕里澤,2020,《過濾泡:互聯(lián)網(wǎng)對我們的隱秘操縱》,方師師、楊媛譯,北京:中國人民大學(xué)出版社。
張愛軍、梁賽,2019,《網(wǎng)絡(luò)群體極化的負(fù)面影響和規(guī)避措施》,《學(xué)術(shù)界》,第4期。
郭小平、秦藝軒,2019,《解構(gòu)智能傳播的數(shù)據(jù)神話:算法偏見的成因與風(fēng)險治理路徑》,《現(xiàn)代傳播》,第9期。
單勇,2019,《跨越“數(shù)字鴻溝”:技術(shù)治理的非均衡性社會參與應(yīng)對》,《中國特色社會主義研究》,第5期。
Brown B., 2014, "Will Work For Free: The Biopolitics of Unwaged Digital Labour", TripleC (Cognition, Communication, Co-Operation): Open Access Jo, 12(2).
Nixon B., 2014, "Toward a Political Economy of 'Audience Labour' in the Digital Era", TripleC, 12(2), pp. 713-734.
吳鼎銘,2017,《網(wǎng)絡(luò)“受眾”的勞工化:傳播政治經(jīng)濟(jì)學(xué)視角下網(wǎng)絡(luò)“受眾”的產(chǎn)業(yè)地位研究》,《國際新聞界》,第6期。
郭春鎮(zhèn)、馬磊,2020,《大數(shù)據(jù)時代個人信息問題的回應(yīng)型治理》,《法制與社會發(fā)展》,第2期。
Ezrachi A.; Stucke M. E., 2016, Virtual Competition: The Promise and Perils of the Algorithm-Driven Economy, Cambridge MA: Harvard University Press, pp. 35-70.
Kirsten M., 2018, "Ethical Implications and Accountability of Algorithms", Journal of Business Ethics, 3, pp. 1-16.
黃曉偉,2019,《互聯(lián)網(wǎng)平臺壟斷問題的算法共謀根源及協(xié)同治理思路》,《中國科技論壇》,第2期。
John Cheneyey-lippold, 2011, "A New Algorithmic Identity: Soft Biopolityics and the Modulation of Control", Theory, Culture & Society, 28, pp. 164-168.
Zuboff S., 2015, "Big Other: Surveillance Capitalism and the Prospects of an Informal Civilization", Journal of Information Technology, 30, pp. 75-89.
鄭戈,2018,《算法的法律與法律的算法》,《中國法律評論》,第2期。
張凌寒,2019,《算法權(quán)力的興起、異化及法律規(guī)制》,《法商研究》,第6期。
劉朝,2022,《算法歧視的表現(xiàn)、成因與治理策略》,《人民論壇》,第2期。
[英]阿里爾·扎拉奇(Ariel Ezrachi)、[英]莫里斯·E·斯圖克(Maurice E. Stucke),2018,《算法的陷阱》,余瀟譯,北京:中信出版社,第130~155頁。
Morgan B., 2003, Social Citizenship in the Shadow of Competition: The Bureaucratic Politics of Regulatory Justification, Aldershot, England: Ashgate Publishing Ltd, p. 2.
責(zé) 編/張 曉
金雪濤,中國傳媒大學(xué)國際傳媒教育學(xué)院院長,中國傳媒大學(xué)經(jīng)濟(jì)與管理學(xué)院教授、博導(dǎo)。研究方向為產(chǎn)業(yè)經(jīng)濟(jì)學(xué),數(shù)字經(jīng)濟(jì)和傳媒經(jīng)濟(jì)。主要著作有《文化產(chǎn)業(yè)投融資:理論與案例》《數(shù)字媒體經(jīng)濟(jì)學(xué)》《中國電影產(chǎn)業(yè)國際競爭力測度研究》等。
Algorithmic Governance: System Building and Measures
Jin Xuetao
Abstract: If data is the core factor of production in the digital economy era, then algorithms are the operation foundation for making it an asset and capitalizing on its value. By empowering various fields, the digital technology gives birth to new products, new organizational models, new business models and new industrial formats. But at the same time, it also brings potential risks such as algorithmic bias, algorithmic manipulation, algorithmic collaboration, algorithmic black box and so on. Different types of algorithms have different effects on the potential risks of algorithmic application through design and implementation and may lead to government failure and market failure. To explore the architecture of algorithmic governance surrounding "the governing party - the governed - governance tools and measures", this article suggests integrating the three mechanisms of multi-party collaboration, interest balance and agile governance and making use of them by optimizing algorithmic governance measures on the basis of the concepts of meta regulation and whole process management.
Keywords: algorithmic risks, algorithm types, governance system, governance measures