人妻少妇中文在线视频,丁香五月婷婷激情网,日本韩国黄色成人网站,亚洲综合99伊人四虎

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 原創(chuàng)精品 > 學(xué)界熱點 > 正文

算法治理的正義尺度

華東政法大學(xué)法律學(xué)院教授  馬長山

【摘要】算法治理是數(shù)字時代的一個核心問題,它反映著數(shù)字社會的生活規(guī)律和運行邏輯,已經(jīng)超出了工商社會的治理機(jī)制與體系框架,其價值尺度也突破了物理空間的正義范圍,新型的數(shù)字正義則應(yīng)運而生。因此,在算法治理過程中,應(yīng)適時確立數(shù)字正義原則,框定數(shù)字正義領(lǐng)域,探索數(shù)字正義實現(xiàn)路徑,從而構(gòu)建科技向善、以人為本的算法治理秩序,促進(jìn)我國的數(shù)字法治建設(shè)。

【關(guān)鍵詞】算法治理 數(shù)字正義 敏捷治理 數(shù)字法治

【中圖分類號】D90 【文獻(xiàn)標(biāo)識碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2022.10.006

在新興科技革命的推動下,人類開始邁進(jìn)“萬物數(shù)字化、一切可計算”的新時代。算法不僅成為生產(chǎn)生活的重要組織者,還是社會秩序的重要建構(gòu)者,但它所帶來的問題和風(fēng)險也日漸凸顯。為此,世界主要國家都在積極探索構(gòu)建算法治理體系,從而促進(jìn)科技向善,推動數(shù)字化轉(zhuǎn)型和社會變革進(jìn)步。然而,算法治理帶有顯著的技術(shù)性、風(fēng)險性、迭代性,使其難以套用傳統(tǒng)的治理模式與機(jī)制,信息技術(shù)倫理也突破了物理空間的正義視域和尺度,這樣,確立與之相應(yīng)的數(shù)字正義,就成為構(gòu)建算法秩序的方向指引和價值支撐。

算法治理的正義原則

在當(dāng)今數(shù)字社會,人類的一切活動都會生成數(shù)據(jù)、時刻都在交換信息,并通過數(shù)據(jù)分析、信息控制和建模計算來確保數(shù)字化生產(chǎn)生活的正常運行。正是基于這一全新的數(shù)字生態(tài),多環(huán)信息圈開始在任何空間中彌散,[1]“不論是人的、動物的或是機(jī)械的,都是信息論的組成部分”。[2]因此,數(shù)據(jù)信息就在物理世界(世界1)、精神世界(世界2)之外,形成了一個獨立平行的數(shù)據(jù)世界(世界3)。[3]這個數(shù)據(jù)世界固然是物理世界和精神世界的數(shù)字化呈現(xiàn),但又不是對它們的簡單映射,而是以信息中樞地位來實現(xiàn)對物理世界和精神世界的無界鏈接、分享重構(gòu)和互動控制。其中,數(shù)據(jù)信息的分享利用是基礎(chǔ),它并不會像面包那樣,你吃掉一半我就少了一半,恰恰是在不斷的流動分享、復(fù)制挖掘和賦值利用中才能生成更多數(shù)據(jù),附加更多意義,創(chuàng)造更多價值;但同時,如果這種分享利用不受節(jié)制,那也必然對數(shù)字人格、數(shù)字財產(chǎn)、數(shù)字交易、乃至分享利用本身帶來嚴(yán)重威脅。相對于分享利用,算法的建模計算則是數(shù)字引擎,它既是一個數(shù)據(jù)信息處理系統(tǒng),也是替代決策系統(tǒng)、透析評價系統(tǒng),一方面,憑借算法可以創(chuàng)造出智能化、自動化的生產(chǎn)和服務(wù),讓全社會都能夠分享數(shù)字化的發(fā)展福利;另一方面,算法也會形成多重穿透、讓隱藏事物可視化、以及誘導(dǎo)操縱的能力,從而帶來令人不安的數(shù)字化控制。由此看來,數(shù)據(jù)信息和算法的背后,蘊含著分享與控制的數(shù)字生活悖論。算法治理的核心就在于消解這一悖論,確立并遵循數(shù)字時代的正義原則。

自主選擇原則。隨著數(shù)字化轉(zhuǎn)型的不斷加速和智能化水平的不斷提高,人們在日常生活中必然會面臨越來越多的算法推薦和算法決策,進(jìn)而享受智慧便捷的數(shù)字生活。但是,算法并不是無邊界的,用算法來處理人類特有的一些活動,植入太多的計算機(jī)邏輯,就“有可能使這些活動喪失最根本的人性”;[4]而算法在生活中的泛化替代和誤用濫用,也很容易演化成一種“要么接受、要么離開”的數(shù)字化強(qiáng)迫。因此,在算法決策之外保留必要的平行選項,維護(hù)人類的自主性、個人的選擇性,無疑是數(shù)字正義的根本要求。我國的相關(guān)法律、法規(guī)也有相應(yīng)規(guī)定,主要包括:一是關(guān)鍵領(lǐng)域的自主保留。即在涉及個人尊嚴(yán)和基本生存的服務(wù)領(lǐng)域,政府或者經(jīng)營者應(yīng)當(dāng)控制算法決策的范圍與功能,從而為公民(消費者)保留是否接受自動化決策的選擇空間,提供人類決策(人工服務(wù))的通道。二是個性服務(wù)的便捷拒絕。即在政府或者經(jīng)營者基于個人敏感信息、或者針對個人特征而進(jìn)行算法決策的情況下,應(yīng)尊重公民(消費者)的同意權(quán)和拒絕權(quán),確保用戶有可以關(guān)閉這些算法的便捷渠道,并提供拒絕后的其他選項。三是通暢可靠的救濟(jì)保障。即當(dāng)公民(消費者)對算法決策結(jié)果產(chǎn)生質(zhì)疑、并不能接受該結(jié)果時,應(yīng)當(dāng)為公民(消費者)提供人類決策的救濟(jì)渠道。這樣,才能有效制約算法決策可能產(chǎn)生的數(shù)字控制傾向,更好地發(fā)揮算法決策的積極效能、釋放數(shù)字福利、分享智慧生活,因此,自主選擇是算法治理必須遵循的重要價值原則。

公開透明原則。算法推薦和算法決策之所以備受推崇,很重要的原因就在于它具有勝出人類決策的一些優(yōu)勢,如基于大數(shù)據(jù)分析的科學(xué)性、沒有情感立場的客觀性、快速超能計算的高效率等。然而,算法并不是完美的,也不是萬能的,它并不能“解決”所有問題。更為重要的是,無論是在政務(wù)服務(wù)領(lǐng)域還是在商業(yè)交易領(lǐng)域,算法服務(wù)的提供方與接受方都在信息和技術(shù)上處于明顯的不對稱狀態(tài),彼此之間也沒有“面對面”的對話互動。此時,算法推薦和算法決策就猶如“盲盒”一樣,“用戶們無法看清其中的規(guī)則,無法提出不同意見,也不能參與決策過程,只能接受最終的結(jié)果”,[5]從而形成了眾所周知的算法黑箱,其中難免會蘊含“不穩(wěn)定、不公平和不勞而獲的因素”。[6]為破解這一難題,世界各國的法律和倫理規(guī)范都要求算法具有可解釋性、公開性、可責(zé)性。我國《個人信息保護(hù)法》第七條、《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第四條、第十六條也規(guī)定:信息處理者應(yīng)當(dāng)公開個人信息處理規(guī)則,明示處理的目的、方式和范圍;提供算法推薦服務(wù),應(yīng)以適當(dāng)方式公示算法推薦服務(wù)的基本原理、目的意圖和主要運行機(jī)制等。這樣才能大幅增強(qiáng)人們對算法服務(wù)的便利分享和理性監(jiān)督,有效抑制算法誤用與算法濫用,從而為強(qiáng)化算法治理、促進(jìn)其友好向善提供必要的價值基準(zhǔn)。

公平合理原則。近代以來,在工商社會邏輯和啟蒙思想的基礎(chǔ)上,構(gòu)建了以人格權(quán)、物權(quán)、債權(quán)等為核心的現(xiàn)代法律制度,形成了私權(quán)神圣、契約自由、責(zé)任歸己的正義價值觀,并在公法和私法領(lǐng)域確立起相應(yīng)的公平合理原則。然而,隨著信息革命的到來,網(wǎng)絡(luò)化、數(shù)字化、智能化轉(zhuǎn)型顛覆了人類生活的慣常方式,“從開車到股票交易再到公司人員配置等一系列重大決策權(quán),從人手中轉(zhuǎn)移到算法手中”。[7]現(xiàn)代法律的正義價值觀和公平合理原則正在面臨嚴(yán)峻挑戰(zhàn),進(jìn)而發(fā)生根本性重塑和時代轉(zhuǎn)型。

首先,維護(hù)交換平衡。在萬物互聯(lián)、數(shù)據(jù)說話的時代,每個人都既是信息生產(chǎn)者又是信息消費者,數(shù)據(jù)信息也因此在生產(chǎn)生活中占據(jù)中樞地位。[8]人們面對網(wǎng)約租車、刷臉支付、個性化推薦、智能投顧、智慧醫(yī)療等數(shù)字化服務(wù)時,都需要提供或分享必要的個人信息才能完成。也即在線生活和算法應(yīng)用提供了智慧便捷服務(wù),但同時,人們也必須把一些必要信息交給平臺和算法,從而形成互惠交換、合理利用的數(shù)字生態(tài)。此刻,就難以僵化地堅守個人隱私權(quán)利,也不能簡單搬用“物理時代”的正義原則,而應(yīng)秉持開放包容的精神,一方面加強(qiáng)對個人敏感隱私信息的保護(hù),另一方面強(qiáng)化個人一般信息的商業(yè)利用和公共利用,[9]從而以算法服務(wù)提供方和接受方的互惠交換與利益平衡為基點,確立起數(shù)據(jù)信息處理和算法規(guī)制的新型公平合理原則,實現(xiàn)數(shù)字正義,構(gòu)建數(shù)字法治秩序。

其次,秉持正當(dāng)合理。算法無疑是人類的設(shè)計之物,無論是AI編寫AI代碼,還是復(fù)雜的神經(jīng)網(wǎng)絡(luò)算法,都是在人類的控制和教導(dǎo)下完成的。即便存在程序員也可能說不太清的算法黑箱,但算法也并沒有失控,仍在人類的掌控范圍內(nèi)。事實上,從數(shù)據(jù)清洗標(biāo)注、繪制知識圖譜、到算法建模、代碼編寫,都不可避免地嵌入了設(shè)計者、操作者的價值理念,都“吸收了設(shè)計師的社會觀念和社會目標(biāo),并試圖在未來重制它們”。[10]因此,如何限定算法的價值偏好,將其納入正當(dāng)合理的規(guī)范框架內(nèi),無疑是算法治理的根本任務(wù)和重要使命。我國《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》明確要求,“提供算法推薦服務(wù),應(yīng)當(dāng)遵守法律法規(guī),尊重社會公德和倫理,遵守商業(yè)道德和職業(yè)道德,遵循公正公平、公開透明、科學(xué)合理和誠實信用的原則”。具體包括:算法要堅持主流價值導(dǎo)向,避免非法虛假信息傳播,不得利用算法實施屏蔽、操縱、誘導(dǎo)、歧視、不合理限制、不公平不公正對待、以及實施壟斷和不正當(dāng)競爭等行為。這些都是確保科技向善、正當(dāng)合理的基本規(guī)范和價值尺度,需要基于不同的應(yīng)用場景、不同的權(quán)益屬性、不同的類別等級、不同的數(shù)字關(guān)系進(jìn)行厘定和確認(rèn)。

再次,遵循比例原則。如前所述,算法是一個數(shù)據(jù)信息處理系統(tǒng),它必然以數(shù)據(jù)信息為基礎(chǔ),直接關(guān)乎用戶、企業(yè)和政府等多方的數(shù)據(jù)信息權(quán)益;同時,算法又是一個決策系統(tǒng),其決策結(jié)果也會對用戶、企業(yè)和政府等多方權(quán)益產(chǎn)生重要影響。這樣,算法治理就包含了私權(quán)利、私權(quán)力和公權(quán)力之間的相互關(guān)系和權(quán)益邊界,也就應(yīng)遵循比例原則來加以權(quán)衡。我國《個人信息保護(hù)法》在涉及信息處理、合同訂立履行等方面的多個條款中,均有“不得過度”“影響最小”“最小范圍”“合理范圍”“所必需的范圍和限度”“所必要的最短時間”等規(guī)定,這些規(guī)定正是比例原則的基本要求,也是算法治理的重要支撐。與以往比例原則所不同的是,應(yīng)遵循以下衡量基準(zhǔn):一是立足數(shù)據(jù)信息的分享與控制屬性;二是堅持算法服務(wù)于人、分享數(shù)字發(fā)展福利的主導(dǎo)方向;三是保護(hù)數(shù)字人格和數(shù)字生存發(fā)展等基本權(quán)利;四是對不對稱關(guān)系中處于弱勢地位的算法服務(wù)接受方提供必要的優(yōu)先保護(hù)。

最后,避免誤用濫用。算法是一種數(shù)字技術(shù)應(yīng)用,在很多領(lǐng)域、很多方面的計算能力和處理能力都超過人類,但并“不是所有可以計算的東西都重要,也不是所有重要的東西都可以被計算”,[11]它也會有自身的局限,如算法錯誤、算法黑箱、算法歧視、算法共謀、算法操控等,這些都會產(chǎn)生嚴(yán)重背離公平合理的不良后果。因此,避免算法誤用和濫用,是公平合理原則的底線要求,是維護(hù)算法治理秩序的重要保障。

數(shù)字人權(quán)原則。在數(shù)字時代,個人信息已經(jīng)全方位覆蓋了從搖籃到墳?zāi)沟娜克饺松睿?ldquo;直至在計算機(jī)數(shù)據(jù)庫中形成一個‘人’。”[12]因此,在日常生活中,每個人都既是自然人也是數(shù)字人;而在數(shù)字政府的制度框架下,人們則是數(shù)字公民。其中,無論商業(yè)交易中的算法還是自動化行政中的算法,都有產(chǎn)生數(shù)字鴻溝、算法歧視、算法操控的可能,這就會給人們在數(shù)字社會的生存發(fā)展帶來嚴(yán)重障礙,從而出現(xiàn)數(shù)字人權(quán)問題。算法技術(shù)應(yīng)用應(yīng)堅持以人為本,以提高人類的數(shù)字生活能力和生活質(zhì)量為標(biāo)準(zhǔn),而不能異化為限制人、操控人的自動手段。聯(lián)合國教科文組織推出的《人工智能倫理問題建議書》就明確指出,人工智能這類技術(shù)極具侵入性,它們可能會侵犯人權(quán)和基本自由,且被廣泛使用。因此,應(yīng)明確禁止使用人工智能系統(tǒng)進(jìn)行社會評分和大規(guī)模監(jiān)控,個體也應(yīng)該有權(quán)訪問甚至刪除其個人數(shù)據(jù)記錄,各國應(yīng)采取改善數(shù)據(jù)保護(hù)和保障個體對自身數(shù)據(jù)的了解和控制權(quán)的行動。[13]因此,維護(hù)和保障數(shù)字人權(quán),就成為算法治理不可或缺的重要準(zhǔn)則。

算法治理的正義領(lǐng)域

以往的正義觀念和理論,基本上都是圍繞身份、地位、財富、機(jī)會和條件的分配,以自由、平等和權(quán)利的形態(tài)來展開的。然而進(jìn)入數(shù)字時代后,萬事萬物都會通過網(wǎng)絡(luò)化、數(shù)字化、智能化方式加以表達(dá)、鏈接、交互和流轉(zhuǎn),數(shù)據(jù)信息與建模算法就擔(dān)負(fù)起重要的關(guān)系建構(gòu)和秩序塑造的功能。此時,公平正義的領(lǐng)域和范圍就不再局限于物理方式的資源分配模式與機(jī)制,而是形成了數(shù)字方式的“分享/控制”模式與機(jī)制。它所產(chǎn)生的一個嚴(yán)重后果是,相當(dāng)一部分自由、平等、權(quán)利、公正的內(nèi)涵已被數(shù)字化掏空變現(xiàn),只剩“外殼”尚在。例如,外賣騎手的勞動權(quán)利一直存在,但“逐低競爭”的算法派單機(jī)制卻讓他們形成了難以自控的嚴(yán)重“內(nèi)卷”;商業(yè)交易中的合同權(quán)利依然如故,但大數(shù)據(jù)殺熟、算法歧視卻悄然“釜底抽薪”;同樣,老年人的各種權(quán)利都未改變,但數(shù)字鴻溝卻使他們失去了實現(xiàn)自己生活權(quán)利的能力。這表明,算法治理的重心是應(yīng)對數(shù)字控制、實現(xiàn)數(shù)字正義。這里的數(shù)字控制,并不是以實物流轉(zhuǎn)方式和人為手段來直接分配資源,而是通過數(shù)據(jù)信息處理和算法控制來隱性地匹配資源與調(diào)動行為,于是就披上了技術(shù)的客觀外衣,建立了自動實現(xiàn)的執(zhí)行機(jī)制。因此,抑制數(shù)字控制也就成為數(shù)字正義的主要領(lǐng)域。

對數(shù)據(jù)信息的控制。對數(shù)據(jù)信息的控制,是指通過數(shù)據(jù)信息收集、存儲、加工、傳輸、提供、公開、刪除等方式,實現(xiàn)對相對方的數(shù)字錨定。它既是掌控目標(biāo)對象的前提,也是算法建模的基礎(chǔ)。眾所周知,隨著從商品經(jīng)濟(jì)向數(shù)字經(jīng)濟(jì)的迭代轉(zhuǎn)型,數(shù)據(jù)信息已成為關(guān)鍵的生產(chǎn)要素,算法也成為重要的生產(chǎn)力。為此,信息“與其說是旨在儲藏,不如說旨在流通”,[14]進(jìn)而把數(shù)字經(jīng)濟(jì)打造成一種“不求所有、但求所用”“可用不可見”的分享經(jīng)濟(jì)樣態(tài)。由于數(shù)字時代的一切社會行為都“圍繞著生產(chǎn)與信息控制”,[15]因此,在大量數(shù)據(jù)分享利用的同時,對數(shù)據(jù)信息的控制就顯得十分關(guān)鍵。具言之,一方面,社會生活中個人的數(shù)據(jù)信息隨時會生產(chǎn)出來,也隨時會以提供、傳輸、抓取等方式被互聯(lián)網(wǎng)平臺、技術(shù)公司和政府機(jī)構(gòu)所收集存儲和挖掘使用,從而形成了信息優(yōu)勢方和信息弱勢方之間的明顯分野。另一方面,算法治理并不僅限于代碼編寫和計算過程本身,而是一個包括數(shù)據(jù)信息處理在內(nèi)的“數(shù)據(jù)輸入—建模計算—結(jié)果輸出”的系統(tǒng)化形態(tài)。收集、存儲、使用、加工、傳輸、提供等數(shù)據(jù)信息處理過程,反映著信息處理者的不同價值觀和利益偏好,而消費者或公民往往對此難以察覺、也無策應(yīng)對??梢姡瑪?shù)據(jù)信息控制上的不公平、不合理,實質(zhì)上是數(shù)據(jù)信息控制能力和數(shù)字行動能力上的鴻溝,從而引發(fā)更嚴(yán)重、更廣泛的社會不公。這就要求在算法治理中貫徹數(shù)字正義原則,設(shè)置合法、合理、安全的數(shù)據(jù)信息處理框架,強(qiáng)化消費者或公民的數(shù)據(jù)信息控制能力,從而將分享與控制置于數(shù)字正義尺度之中。

基于算法的控制?;谒惴ǖ目刂?,主要是指依托算法推薦或者算法服務(wù),向相對方施加或明或暗的影響,從而干預(yù)誘導(dǎo)相對方思想和行為的控制方式,它屬于一種由外及內(nèi)的間接干預(yù)策略。這種控制主要通過如下步驟來完成。首先,全景敞視。即通過大數(shù)據(jù)收集、分析而進(jìn)行數(shù)據(jù)畫像。如果說在1993年一只狗匿名上網(wǎng)發(fā)表言論,人們并不知道它是一只狗的話;那么到了2013年,“新版的互聯(lián)網(wǎng)不僅僅知道你是一只狗,它還了解你的品種,想賣給你一碗上等的粗粒狗糧。”[16]這時,每個人在大數(shù)據(jù)和算法面前,都只是一個全景敞視的“透明個體”,大數(shù)據(jù)和算法形成了一個“沒人能夠逃離的電子牢籠”。[17]其次,算法投喂。數(shù)字時代的一個重要特征是,“誰掌控數(shù)據(jù)信息、處理數(shù)據(jù)信息,誰就擁有了控制他人行為和思想的能力。”[18]曾經(jīng)的臉書新聞就設(shè)計了一種投喂算法,計算出用戶的個性特征喜好,然后通過“過濾泡”投其所好,定向推送信息。而在美國總統(tǒng)大選中,F(xiàn)acebook、Twitter、YouTube等平臺公司通過大量用戶信息分析,進(jìn)行數(shù)據(jù)畫像和個性化推送,從而操縱選民的意識和行為,“這種影響不會觸發(fā)用戶的意識,而是一種潛意識,使它們成為你思想的一部分,還讓你覺得這是自己的主見。”[19]同樣,英國脫歐決策過程中,也顯示出一場“新型政治形態(tài)革命”——“未來操控政治的,將是數(shù)據(jù),而不是你的大腦”。[20]最后,歸納偏置。有研究者指出,自動學(xué)習(xí)技術(shù)以及所有的人工智能技術(shù)幾乎都反映了其創(chuàng)立者的一種先驗偏置,他們在算法中給我們提供了一個預(yù)設(shè)性的、已經(jīng)解釋了的世界。這樣,我們所看到的世界“恰好只是我們期望看見的或我們從訓(xùn)練中看見的”。[21]這些帶有預(yù)設(shè)性的看法或者偏愛如果不受限制,將會“在更大程度上操控我們的生活”。[22]由上可見,基于算法的控制,會對人格尊嚴(yán)、自由選擇、平等參與、民主權(quán)利等產(chǎn)生深刻影響,這就需要按照數(shù)字正義原則,防范算法對人們的偏好誘導(dǎo)、思想控制和行為影響,從而維護(hù)數(shù)字人權(quán),實現(xiàn)算法治理的正義目標(biāo)。

通過算法的控制。通過算法的控制,主要是指通過算法決策來預(yù)測、分類、調(diào)配或者判定某個事項,進(jìn)而對相對方的權(quán)益和生活產(chǎn)生重要影響的控制方式,它屬于一種自動執(zhí)行的直接干預(yù)策略,主要包括以下幾種類型。一是預(yù)測評估。近年來,國內(nèi)外一些金融、投資、警局等公私部門都在大量開發(fā)算法預(yù)測評估系統(tǒng),例如,2004年9月至2007年4月,美國科羅拉多的公共福利系統(tǒng)開發(fā)自動化服務(wù)系統(tǒng);2013年1月,美國南加州阿罕布拉市警察局運用“預(yù)測犯罪”系統(tǒng)(PredPol);其他國家也在開發(fā)金融風(fēng)險評估系統(tǒng)、城市安全風(fēng)險評估系統(tǒng);等等。然而,這些對個人的評分和評估——就業(yè)、貸款資格、危險級別,其目的主要是目標(biāo)篩選,這就很可能形成一種有意或者無意的算法偏見。[23]更為重要的是,它將導(dǎo)致一種被重新分類、評價、比較、甚至被看透的“控制革命”,[24]平等、自由、公正和民主原則都將遭遇重大挑戰(zhàn)和貶損危險。二是算法指令。例如,外賣騎手和網(wǎng)約車的算法派單、平臺的算法定價、算法成交單、智能合約等,它們都是由算法發(fā)出自動化指令,進(jìn)而實現(xiàn)對人力物力資源的調(diào)配。在這里,算法系統(tǒng)已經(jīng)由簡單工具變成了重要“決策者”和指令發(fā)布者,基于此,“依靠算法決定行動方向的人,可能會被導(dǎo)向固定的路線,就像演員只能照著劇本表演一樣”。[25]一旦存在明顯的價值偏好或者出現(xiàn)錯誤,就可能帶來嚴(yán)重的不良后果。三是算法裁決。2021年8月,俄羅斯在線支付服務(wù)公司Xsolla使用算法作出的“不敬業(yè)、效率低下”判斷,解雇了147名員工。無獨有偶,2019年美國亞馬遜內(nèi)部的AI系統(tǒng),就通過追蹤物流倉儲部門員工的工作效率,自動生成解雇的指令。[26]這些無疑都是缺少溫度、漠視人性的算法濫用。在我國,自動化判定、自動化行政、智能裁判的情況也不斷增多,如自動化招投標(biāo)系統(tǒng)、自動化執(zhí)法系統(tǒng)、自動化裁判系統(tǒng)(智能輔助裁判)等,這些系統(tǒng)都是通過算法決策,來對相應(yīng)事項做出裁決,經(jīng)由負(fù)責(zé)人員確認(rèn)后生效。這些算法決策在效率性、客觀性、一致性等方面固然能夠超過人類,但它也存在著出現(xiàn)算法錯誤、算法偏見、算法歧視、算法黑箱、算法霸權(quán)等問題的可能,甚至?xí)a(chǎn)生“數(shù)字決策系統(tǒng)鎖定”的社會風(fēng)險。美國的算法實踐表明,算法裁決也可能會“將原有的歧視予以自動化,加劇了不平等”。[27]因此,需要按照自主選擇、公開透明、公平合理和數(shù)字人權(quán)原則,對通過算法的控制加以有效約束和規(guī)制,建立科技向善的算法治理秩序。

算法治理的正義路徑

算法治理是數(shù)字時代的全新課題,是一個融合技術(shù)、倫理和制度的高度復(fù)雜系統(tǒng),其治理方式、治理策略和治理導(dǎo)向均已超出了傳統(tǒng)治理范圍。因此,需要構(gòu)建新型的治理范式,踐行數(shù)字正義原則,立足數(shù)字正義領(lǐng)域,探索實現(xiàn)數(shù)字正義的新路徑、新策略。

確立敏捷治理的監(jiān)管機(jī)制。敏捷治理是數(shù)字時代的新興治理理念,旨在形成快速靈活、包容平衡、共同參與、以人為本的治理模式和機(jī)制,從而應(yīng)對新興技術(shù)挑戰(zhàn)、解決創(chuàng)新發(fā)展難題和推進(jìn)構(gòu)建智慧治理體系。2022年3月,中共中央辦公廳、國務(wù)院辦公廳印發(fā)的《關(guān)于加強(qiáng)科技倫理治理的意見》就明確要求敏捷治理、倫理先行,“加強(qiáng)科技倫理風(fēng)險預(yù)警與跟蹤研判,及時動態(tài)調(diào)整治理方式和倫理規(guī)范,快速、靈活應(yīng)對科技創(chuàng)新帶來的倫理挑戰(zhàn)。”為此,探索敏捷治理的算法監(jiān)管機(jī)制,已經(jīng)勢在必行。

首先,秉持?jǐn)?shù)字法治立場。即擺脫傳統(tǒng)法治的慣性思維,從數(shù)字法治理念和立場出發(fā),按照數(shù)據(jù)信息的基本屬性、算法治理的基本規(guī)律、數(shù)字權(quán)益的基本邏輯,來制定監(jiān)管規(guī)則、設(shè)立監(jiān)管程序、實施合理規(guī)制策略,既要為創(chuàng)新“踩油門”,又要為秩序“踩剎車”,其標(biāo)準(zhǔn)就是算法“以人為本”、遵循數(shù)字正義,如國家七部委要求以“算法取中”來優(yōu)化外賣送餐的派單機(jī)制等,就是重要的嘗試和努力。

其次,探索精細(xì)敏捷的治理策略。包括基于算法服務(wù)和算法決策的相關(guān)重要程度、用戶規(guī)模、動員能力、干預(yù)強(qiáng)度等,依法建立精細(xì)化的分級分類監(jiān)管機(jī)制;建立網(wǎng)信、電信、公安、市場監(jiān)管等政府部門的快捷協(xié)同機(jī)制、安全評估和監(jiān)督檢查機(jī)制;完善科技倫理審查和監(jiān)管制度,建立及時高效的跟蹤、監(jiān)測、預(yù)警科技倫理風(fēng)險機(jī)制;建立靈活多樣、包容審慎的算法合規(guī)機(jī)制,實施及時有效的正向激勵監(jiān)管;等等。

再次,強(qiáng)化共同參與合作。針對算法的敏捷治理,技術(shù)性、復(fù)雜性、系統(tǒng)性、風(fēng)險性都非常高,僅憑政府力量是難以做好的,因此,需要動員社會力量廣泛參與,包括科技公司、網(wǎng)絡(luò)平臺、行業(yè)組織、技術(shù)人員、消費者、新聞媒體等,共同維護(hù)數(shù)字正義價值,創(chuàng)造遵規(guī)守法的算法治理環(huán)境。

確立責(zé)任明確的自律機(jī)制。算法治理在很大程度上依賴于技術(shù)規(guī)程和操作控制,因此,基于主體責(zé)任的算法自律機(jī)制就十分關(guān)鍵了。目前,世界各國都在積極探索算法治理的自治模式,如微軟、谷歌、IBM等科技公司制定了人工智能開發(fā)的倫理原則。我國企業(yè)在《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》《新一代人工智能倫理規(guī)范》等政策規(guī)范的指引下,也正在積極行動,促進(jìn)可信AI的發(fā)展應(yīng)用。根據(jù)《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》和相應(yīng)倫理規(guī)范的要求,我國算法治理的自律機(jī)制主要包括以下四個方面。

一是落實算法主體責(zé)任。算法服務(wù)或者算法決策提供者應(yīng)建立健全算法機(jī)制機(jī)理審核、數(shù)據(jù)安全和個人信息保護(hù)等管理制度和技術(shù)措施,進(jìn)行嚴(yán)密的自我規(guī)范;應(yīng)綜合運用內(nèi)容去重、打散干預(yù)等策略,優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性;建立完善的用戶自主選擇機(jī)制,充分尊重用戶的自主權(quán)、選擇權(quán)等。

二是建立風(fēng)險評估預(yù)警機(jī)制。定期審核、評估、驗證算法機(jī)制機(jī)理、模型、數(shù)據(jù)和應(yīng)用結(jié)果,發(fā)現(xiàn)問題及時整改修正。同時,可以借鑒美國推特2021年7月推出的“算法偏見賞金”,在社會上公開征求針對平臺“算法偏見”問題的舉措,以打造算法治理的“眾包模式”,[28]從而推進(jìn)算法自律的機(jī)制創(chuàng)新。

三是積極研發(fā)倫理工具。通過科技研發(fā),推進(jìn)以技術(shù)規(guī)制技術(shù)的能力和水平,向市場需求方提供合適的風(fēng)險評估工具和相應(yīng)的算法修復(fù)服務(wù),推動倫理服務(wù)的精細(xì)化和專業(yè)化發(fā)展。[29]

四是推進(jìn)AI倫理行業(yè)約束。這是一種全球趨勢,聯(lián)合國教科文組織于2019年啟動撰寫全球AI倫理建議書,于2021年11月在第41屆聯(lián)合國教科文組織大會上通過了全球首份《人工智能倫理問題建議書》。2019年歐盟委員會高級AI專家組(AI HLEG)發(fā)布了《可信賴AI倫理指南》,各主要國家也在積極響應(yīng)和推進(jìn)算法治理。在我國,2019年6月,國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》;2019年5月,人工智能倫理與安全研究中心、新一代人工智能產(chǎn)業(yè)技術(shù)創(chuàng)新戰(zhàn)略聯(lián)盟和其他學(xué)術(shù)機(jī)構(gòu)及產(chǎn)業(yè)組織共同發(fā)布《人工智能北京共識》;2019年8月,深圳人工智能行業(yè)協(xié)會與曠視科技、科大訊飛等數(shù)十家企業(yè)聯(lián)合發(fā)布《新一代人工智能行業(yè)自律公約》。此外,百度、騰訊等主要科技企業(yè)也提出了企業(yè)自身的AI倫理準(zhǔn)則;曠視科技還在制定準(zhǔn)則的基礎(chǔ)上,成立了人工智能道德委員會,[30]進(jìn)而推動人工智能安全可靠、可控可信和可持續(xù)發(fā)展。通過這些機(jī)制,就可以建立健全行業(yè)標(biāo)準(zhǔn)、行業(yè)準(zhǔn)則、自律管理制度和服務(wù)規(guī)范,從而更好地促進(jìn)算法治理,維護(hù)新時代的數(shù)字正義。

建立健全有效的社會監(jiān)督機(jī)制。在數(shù)字時代,算法應(yīng)用改變著生產(chǎn)生活的一切,對每個人都會有切實的重要影響。但算法具有很強(qiáng)的技術(shù)性、隱形性、復(fù)雜性、自動性特征,又讓人們對其難以接近、難以洞察、難以把握。因此,亟需建立健全有效的社會監(jiān)督機(jī)制。

其一,暢通社會監(jiān)督渠道?!痘ヂ?lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》明確要求,算法推薦服務(wù)提供者應(yīng)制定完善服務(wù)規(guī)范、依法提供服務(wù)并接受社會監(jiān)督,設(shè)置便捷有效的用戶申訴和公眾投訴、舉報入口,明確處理流程和反饋時限,及時受理、處理并反饋處理結(jié)果。但這一規(guī)定要落到實處,尚需很多努力。而且,政府部門、行業(yè)組織等的監(jiān)督渠道也有待暢通和拓展。

其二,激活監(jiān)督能力。其實,我國的社會組織、基層組織、新聞媒體等并不少,但是并不都能發(fā)揮有效的監(jiān)督作用。因此,激活它們的監(jiān)督能力就至關(guān)重要。如2019年南京市建鄴區(qū)要求環(huán)衛(wèi)工人佩戴智能手環(huán)“監(jiān)工”,2020年蘇州推出“蘇城文明碼”等事件,受到社會的關(guān)注和質(zhì)疑,當(dāng)?shù)卣罱K在算法治理邊界的建議下回歸到審慎行政的策略上,社會監(jiān)督起到了良好效果。

其三,強(qiáng)化數(shù)字能力。我們每個人都具有權(quán)利能力和行為能力,并藉此行使自己的權(quán)利、履行自己的義務(wù)。但進(jìn)入數(shù)字時代后,每個人不僅要有權(quán)利能力和行為能力,還需要有掌握、運用、操作數(shù)字產(chǎn)品和在線處理事務(wù)的能力,這樣才能適應(yīng)和參與數(shù)字生活。因此,面對算法的社會監(jiān)督,就需要人們形成良好的數(shù)字素養(yǎng)和數(shù)字能力,更好地認(rèn)識算法、體驗算法,并運用數(shù)字能力來監(jiān)督算法,從而維護(hù)自身的合法權(quán)益。這無疑是推進(jìn)算法治理,實現(xiàn)數(shù)字正義的廣泛力量。

確立公正可靠的司法保障機(jī)制。在法治社會,司法救濟(jì)是最后的權(quán)益保護(hù)和公平獲得通道,也是社會治理的根本支撐。因此,算法治理也不例外。換言之,在算法治理過程中,司法救濟(jì)無疑設(shè)置了一道維護(hù)數(shù)字正義的重要屏障。

由于算法推薦和算法決策帶有調(diào)配性和控制性,因此,算法治理中的司法救濟(jì)也會更為復(fù)雜,利益關(guān)系更加重要。其司法救濟(jì)方式主要包括:一是算法的司法審查機(jī)制,即一旦發(fā)生算法訴訟,司法機(jī)關(guān)應(yīng)啟動司法程序上的算法審計,并根據(jù)算法審計結(jié)果來進(jìn)行權(quán)益衡量和司法裁決;二是算法案件的公益訴訟機(jī)制,將涉及公共利益、弱勢群體權(quán)益的算法案件,納入公益訴訟來進(jìn)行維權(quán)保護(hù);三是重要領(lǐng)域、重要權(quán)益的重點保護(hù),如對算法訴訟中消費者或數(shù)字公民的基本權(quán)益、反壟斷和反不正當(dāng)競爭、老年人和未成年人的基本權(quán)利、關(guān)乎生存和發(fā)展的數(shù)字人權(quán)等,均需要重點保護(hù)。只有這樣,才能體現(xiàn)科技向善、以人為本的精神,也才能更好地實現(xiàn)數(shù)字正義原則,構(gòu)建良好的算法治理秩序。

結(jié)語

事實表明,新興技術(shù)應(yīng)用既具有創(chuàng)造性,也具有破壞性。為此,聯(lián)合國教科文組織發(fā)布的《人工智能倫理問題建議書》突破了“發(fā)展先行”抑或“治理先行”的兩難選擇,強(qiáng)調(diào)二者的協(xié)同共進(jìn)。我國需要秉持包容審慎的治理策略,積極構(gòu)建科技向善的算法治理制度。然而,科技向善的基準(zhǔn)已不再是以物質(zhì)分配為核心的“物理”正義;而是以信息分享/控制為核心的數(shù)字正義。這就需要基于數(shù)字生產(chǎn)生活方式和數(shù)字行為規(guī)律,有效探索并重建數(shù)字正義理念、數(shù)字正義原則、數(shù)字正義領(lǐng)域、數(shù)字正義程序等,從而為我國的數(shù)字法治建設(shè)提供核心動力,奠定堅實基礎(chǔ)。

(本文系國家社科基金重大項目“數(shù)字社會的法律治理體系與立法變革”的前期成果之一,項目編號:20&ZD177)

注釋

[1]參見[英]盧恰諾·弗洛里迪:《信息倫理學(xué)》,薛平譯,上海譯文出版社,2018年,第426頁。

[2][14][美]維納:《人有人的用處——控制論與社會》,陳步譯,北京大學(xué)出版社,2010年,第12、109頁。

[3]董春雨、薛永紅:《大數(shù)據(jù)哲學(xué)——從機(jī)器崛起到認(rèn)識論方法的變革》,北京:中國社會科學(xué)出版社,2021年,第37頁。

[4][5][美]盧克·多梅爾:《算法時代:新經(jīng)濟(jì)的新引擎》,胡小銳等譯,北京:中信出版社,2016年,第223、139~140頁。

[6][美]弗蘭克·帕斯奎爾:《黑箱社會——控制金錢和信息的數(shù)據(jù)法則》,趙亞男譯,北京:電子工業(yè)出版社,2015年,第294頁。

[7][美]克里斯托弗·斯坦納:《算法帝國》,李筱瑩譯,北京:人民郵電出版社,2017年,第197頁。

[8]參見馬長山:《數(shù)字法學(xué)的理論表達(dá)》,《中國法學(xué)》,2022年第3期。

[9]參見張新寶:《從隱私到個人信息:利益再衡量的理論與制度安排》,《中國法學(xué)》,2015年第3期。

[10][11]Deakin, S. and Markou, C. (ed.), Is Law Computable? Critical Perspectives on Law and Artificial Intelligence, Oxford: Hart Publishing Bloomsbury Publishing Plc, 2020, pp. 135, 104.

[12][英]約翰·帕克:《全民監(jiān)控——大數(shù)據(jù)時代的安全與隱私困境》,關(guān)立深譯,北京:金城出版社,2015年,第14頁。

[13]《193個成員國簽署全球首份人工智能與倫理協(xié)議,應(yīng)對隱私相關(guān)等問題 》,https://www.sohu.com/a/505874289_120076174,2021年4月29日訪問。

[15][荷蘭]約斯·德·穆爾:《賽博空間的奧德賽——走向虛擬本體論與人類學(xué)》,麥永雄譯,桂林:廣西師范大學(xué)出版社,2007年,第16頁。

[16][美]伊萊·帕里澤:《過濾泡——互聯(lián)網(wǎng)對我們的隱秘操縱》,方師師等譯,北京:中國人民大學(xué)出版社,2020年,第6頁。

[17][美]安德魯·基恩:《科技的狂歡》,趙旭譯,北京:中信出版集團(tuán),2018年,第177頁。

[18][19]《算法操控大選,數(shù)據(jù)左右美國》,https://new.qq.com/rain/a/20201015a025hs00,2021年9月28日訪問。

[20]《新型政治形態(tài)革命,用網(wǎng)絡(luò)操控你有多簡單?》,https://www.sohu.com/a/300329750_488672,2021年3月3日訪問;《英國首相背后的男人:策劃脫歐、贏下大選、改寫歷史》,https://ishare.ifeng.com/c/s/7sp1UqmIVAe,2021年3月3日訪問。

[21][美]George F. Luger:《人工智能——復(fù)雜問題求解的結(jié)構(gòu)和策略》,郭茂祖等譯,北京:機(jī)械工業(yè)出版社,2017年,第483頁。

[22][美]凱西·奧尼爾:《算法霸權(quán)——數(shù)學(xué)殺傷性武器的威脅》,馬青玲譯,北京:中信出版集團(tuán),2018年,前言第V頁。

[23]參見[英]凱倫·楊等編:《馴服算法——數(shù)字歧視與算法規(guī)制》,林少偉等譯,上海人民出版社,2020年,第232頁。

[24][德]克里斯多夫·庫克里克:《微粒社會——數(shù)字化時代的社會模式》,黃昆等譯,北京:中信出版社,2018年,前言第VII~VIII頁。

[25][美]盧克·多梅爾:《算法時代:新經(jīng)濟(jì)的新引擎》,第138、126、127頁。

[26]《被算法“監(jiān)控”的打工人,這家公司150人被算法裁定為“不敬業(yè)”》,https://www.sohu.com/a/484291096_115128,2022年5月17日訪問。

[27][美]弗吉尼亞·尤班克斯:《自動不平等——高科技如何鎖定、管制和懲罰窮人》,李明倩譯,北京:商務(wù)印書館,2021年,第5、173~174頁。

[28]佘宗明:《人,是算法的尺度》,https://www.163.com/dy/article/H7AP8V3Q0521N4E0.html,2022年5月18日訪問。

[29]參見曹建峰、胡錦浩:《倫理即服務(wù):科技倫理與可信AI的下一個浪潮》,https://36kr.com/p/1358610582701448,2022年2月5日訪問。

[30]孫明春:《人工智能技術(shù)發(fā)展中的倫理規(guī)范與行業(yè)自律》,https://finance.sina.com.cn/review/jcgc/2021-01-13/doc-ikftssan5687816.shtml,2022年5月18日訪問。

責(zé) 編/陳璐穎

馬長山,華東政法大學(xué)法律學(xué)院教授、博導(dǎo),國家“萬人計劃”哲學(xué)社會科學(xué)領(lǐng)軍人才,教育部“長江學(xué)者”特聘教授,華東政法大學(xué)數(shù)字法治研究院院長,《華東政法大學(xué)學(xué)報》主編。研究方向為法學(xué)理論、數(shù)字法治、法社會學(xué)。主要著作有《邁向數(shù)字社會的法律》《國家、市民社會與法治》等。

The Justice Criterion of Algorithmic Governance

Ma Changshan

Abstract: Algorithmic governance is a core issue in the digital age. It reflects the law governing people's life in the digital society as well as its operational logic. It has gone beyond the governance mechanism and system framework of the industrial and commercial society. Its value criterion has also broken through the scope of justice in the physical space. A new type of digital justice came into being. Therefore, in the process of algorithmic governance, this article holds that China should promptly establish the principle of digital justice, define the field of digital justice, and explore the path of realizing digital justice, so as to foster an algorithmic governance order that harnesses technology for social good and puts people first, and promote digital rule of law in China.

Keywords: algorithmic governance, digital justice, agile governance, digital rule of law

[責(zé)任編輯:張曉]