人妻少妇中文在线视频,丁香五月婷婷激情网,日本韩国黄色成人网站,亚洲综合99伊人四虎

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 原創(chuàng)精品 > 成果首發(fā) > 正文

國家治理法治化語境中的精準治理

【摘要】人工智能技術在國家治理現(xiàn)代化的過程中有著廣泛的應用前景。通過打造統(tǒng)一的政府信息平臺,并在此基礎上借助機器分析海量數(shù)據(jù),可以為政府決策提供精準的信息支持。同時,更多的動態(tài)數(shù)據(jù)掌握在平臺企業(yè)手中,公共信息與市場信息的互通和共享是實現(xiàn)精準治理的前提條件之一。在打造好大數(shù)據(jù)基礎設施的前提下,人工智能技術可以給治理工作帶來許多創(chuàng)新手段,比如社會信用治理和預測性執(zhí)法。同時,我們也應當看到這些新的治理手段帶來的結(jié)構性變化以及對公民權利的沖擊。因此,法治保障也應當緊緊跟上技術發(fā)展的步伐。

【關鍵詞】人工智能 大數(shù)據(jù) 精準治理 法治 權利

【中圖分類號】D63 【文獻標識碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2018.10.004

 

【作者簡介】

鄭戈,上海交通大學凱原法學院教授。研究方向為中國憲法、比較憲法和法理學。主要著作有《香港司法如何做到無懼無私?》(論文)、《公民權的身份、財產(chǎn)與契約維度:一種基于公共信托原理的公民權理論》(論文)等。

 

物聯(lián)網(wǎng)時代的到來使得數(shù)據(jù)量呈幾何級數(shù)增長,存儲技術的迅猛發(fā)展在提升數(shù)據(jù)存儲能力的同時極大地降低了數(shù)據(jù)存儲的成本,量子計算機和并行計算的出現(xiàn)使計算能力得到幾何級數(shù)的提升,智能算法不僅使數(shù)據(jù)處理和數(shù)據(jù)分析變得更加精準,還進一步以大數(shù)據(jù)為學習素材而迅速提升著機器的智能。這一系列技術領域的發(fā)展首先改變著生產(chǎn)力和生產(chǎn)關系:傳感器、智能算法和執(zhí)行器的結(jié)合催生了3D乃至4D打印技術,改變著制造業(yè)的生產(chǎn)模式,還使得無人駕駛汽車全面取代人類駕駛的時代日益迫近;同樣的技術也已經(jīng)被應用到農(nóng)業(yè)領域,精準農(nóng)業(yè)定點解決方案已經(jīng)成為新的發(fā)展方向。如果說機器取代人的體力勞動是工業(yè)革命以來一直延續(xù)的趨勢,那么人工智能在醫(yī)療、金融和法律等服務業(yè)領域日益廣泛的應用則是這一輪技術革命的新特點。精準醫(yī)療、金融科技(FinTech)、預測式執(zhí)法日漸成為社會生活的現(xiàn)實。去中心化的區(qū)塊鏈技術來勢洶洶,其鼓吹者號稱要消滅交易環(huán)節(jié)的所有的中介,由此,銀行和律師將首當其沖地被取代。在改變?nèi)祟惿鐣慕?jīng)濟基礎的同時,這一系列信息技術也改變著上層建筑,算力正在成為與政治權力競爭的新的權力形態(tài),算法正在侵蝕法律的領地。面對這些遠遠超出技術范圍的深刻而復雜的變化,國家治理的頂層設計、底線思維和中層機制顯然都需要全方位的調(diào)整。一方面,技術為治理提供了新的工具,使得治理有可能變得更加精準和智能化;另一方面,技術也增加了治理的難度,使主權國家面對著商業(yè)力量、境外大數(shù)據(jù)掌控者和黑客在影響和控制人的行為方面的多重競爭。本文旨在從法律的角度厘清人工智能技術給國家治理現(xiàn)代化帶來的機遇和挑戰(zhàn)。文章的第二部分梳理智能化的精準治理的可能模式,第三部分討論如何把這種新的治理模式限定在法治的框架之內(nèi)。第四部分是結(jié)論。

人工智能與精準治理

人工智能技術是計算機技術發(fā)展的新階段。以往的計算機編程模式的特點是將復雜問題簡單化從而寫入代碼并且讓軟件執(zhí)行編程者所設定的任務,神經(jīng)網(wǎng)絡、遺傳算法等智能算法使機器具有了自主學習的能力,從而能夠直接處理復雜問題,在輸入端越來越接近人類認知界面,比如可以理解人類自然語言,能夠識別圖像和語音,在輸出端可以提供準確的判斷、預測乃至決策,而不是簡單地羅列搜索結(jié)果或計算結(jié)果。機器甚至已經(jīng)能夠自我編程:劍橋大學和微軟的Deepcoder[1]、彭博和英特爾的AI Programmer[2]以及谷歌的AutoML[3]都是已有的自我編程系統(tǒng)。這些自我編程算法都是結(jié)合了神經(jīng)網(wǎng)絡或遺傳算法架構和網(wǎng)絡搜索,從人類程序員的編程經(jīng)驗中去學習,從而在特定場景中達到超過人類程序員的編程水平。正如業(yè)內(nèi)人士所言:“授計算機以數(shù)據(jù),夠它用一毫秒;授計算機以搜索,夠它用一輩子。”隨著可供機器學習的各類數(shù)據(jù)的迅猛增長,計算機在人類涉足的各個專業(yè)領域都將獲得超越人類的“智能”。對于這種正在迫近的未來圖景,樂觀主義者認為這將極大地強化人類能力,使人類最終得以借助數(shù)碼技術超越生物學規(guī)律,迎來智能飛躍的“奇點”[4];悲觀主義者則認為這意味著機器將成為人類無法控制的力量,人工智能對人類社會構成了“最大的生存威脅”,對人工智能的不加約束的應用就好像是在“召喚魔鬼”。[5]

無論是對人工智能的未來發(fā)展前景持樂觀主義還是悲觀主義的立場,都不得不面對這種技術迅猛發(fā)展和廣泛應用的現(xiàn)實。技術是導致經(jīng)濟——社會變革的重要變量之一,而且是不可逆轉(zhuǎn)的變量。法國哲學家德布雷寫道:“歸根到底,唯一跳出星球運轉(zhuǎn)的循環(huán)意義外的革命不是政治革命而是技術革命,因為只有它們才是不復返的。有了電流后就不再用蠟燭,有了汽輪船就不再用帆船。然而有了十月革命還是回到了東正教。”[6]率先完成第一輪工業(yè)革命的國家利用船堅炮利的優(yōu)勢將東方文明古國變成自己的殖民地,這是盡人皆知的歷史。同樣,在新一輪信息技術革命中取得優(yōu)勢地位的國家如何利用這種技術來影響他國政治,也是一個不斷出現(xiàn)新鮮實例的當代史。比如,2009年古巴移動(Cubacel)的一名員工偷偷摸摸地把50萬個古巴手機用戶的號碼發(fā)給了一位在西班牙定居的古巴移民,這位海外古巴人隨后免費把這些數(shù)據(jù)交給了美國國際開發(fā)署(USAID),該機構又把數(shù)據(jù)給了自己的承包商Creative Associates International。這家營利性公司隨后“創(chuàng)造性”地建立了一個自動化的手機短信發(fā)送平臺,先向古巴境內(nèi)的這些手機用戶免費發(fā)送足球、娛樂和天氣信息。等到訂戶數(shù)量穩(wěn)定下來之后,再向他們發(fā)送政治信息。用美國國際開發(fā)署官員的話來說,這樣做的目的是“重新調(diào)整國家與社會之間的權力平衡”。換句話說,這是為了在古巴境內(nèi)煽動政治動亂,促成“古巴之春”。這套被稱為ZunZuneo的古巴版twitter系統(tǒng)應用智能算法來分析用戶對不同類型信息的反應,將他們歸類為“支持革命的”“不關心政治的”和“反對革命的”,并且針對不同類別的人發(fā)送不同的信息。[7]它一直運轉(zhuǎn)到2012年中,因為經(jīng)費用完才終止。

層出不窮的實例讓我們看到,面對人工智能的大潮,如果不去主動掌握它、應用它,就會被它(實際上是被掌握它的國家、商業(yè)組織和個人)所掌控和利用。馴服一匹烈馬的辦法不是擋在它面前,而是奮力騎上它,在駕馭的過程中馴服它,同樣的道理也適用于人工智能這種新技術。要使人工智能成為國家治理現(xiàn)代化的技術手段之一,需要理解它的性質(zhì)和可能應用場景。

智能政務的頂層設計。在提到人工智能的時候,許多人會想到機器人或人形機器,但有形的智能機器(無論是不是人形)都只是人工智能的終端、外設或執(zhí)行器,而不是人工智能的“智能”所在。人工智能研究的先驅(qū)者之一馬文·明斯基曾經(jīng)指出:人工智能就是“讓機器能夠做人類需要運用智能來做的那些事情的科學。”[8]這是一個功能主義的定義,它覆蓋了可以實現(xiàn)“讓機器具備智能”這一功能的全部科學和技術手段。實際上,這一功能主要是依靠算法(即軟件或程序)來實現(xiàn)的。如果要用機器人來打比方,我們可以說“如今的算法是擁有自主適應和學習能力的數(shù)碼‘機器人’”[9]。從這個意義上來理解人工智能,就可以發(fā)現(xiàn)它早已進入我們的日常生活。從百度到淘寶,從微信到攜程,各個平臺企業(yè)都在利用海量的用戶數(shù)據(jù)訓練自己的“數(shù)碼機器人”,然后再用這種無形的“機器人”來分析用戶數(shù)據(jù)、預測用戶行為、向用戶投放量身定制的廣告和產(chǎn)品推薦。智能算法所提供的個性化服務不一定都是符合用戶利益的,“大數(shù)據(jù)殺熟”“搶票軟件”等都是商家運用智能算法利用客戶弱點從而使其利益最大化的新現(xiàn)象。政府必須服務于公共利益,在將人工智能這種蘊含著不可控風險的技術應用于國家治理工作之前,需要先進行可行性研判。

世界各主要國家都已經(jīng)針對人工智能技術在政府工作中的可能應用前景進行過縱觀全局式的初步分析。比如,美國奧巴馬政府曾經(jīng)委托國家科技委員會全面研究了如何做好準備迎接人工智能技術所主導的未來,其中對政府提出了這樣幾項具體建議:(1)加大對人工智能基礎和應用研究的投入;(2)充當人工智能技術及其應用的早期客戶;(3)支持前沿技術項目并提供真實世界場景中的試驗場所;(4)強化公眾獲得數(shù)據(jù)的能力;(5)設立人工智能領域的創(chuàng)新獎項,激勵技術發(fā)展;(6)識別并迎接“巨大的挑戰(zhàn)”,為人工智能發(fā)展確立雄偉而可實現(xiàn)的目標;(7)營造一方面繁榮創(chuàng)新另一方面保護公眾免受傷害的政策、法律和規(guī)制環(huán)境。這份報告同時指出,美國聯(lián)邦政府應用人工智能技術來改善公共服務的能力受到各部門接觸創(chuàng)新的機會、自身資源和研發(fā)能力以及與私營部門創(chuàng)新團隊的關系等因素的影響,呈現(xiàn)出極度不均衡的狀態(tài)。有些部門,比如國防部下屬的國防高級研究計劃局(DARPA)和國家醫(yī)療衛(wèi)生研究院都擁有數(shù)百億美元的研發(fā)預算,而勞動部則只有1400萬美元的預算,這會導致各部門的“智能化”程度嚴重失衡。[10]

我國政府也陸續(xù)發(fā)布了《中國制造2025》(2015年5月)、《國務院關于積極推動“互聯(lián)網(wǎng)+”行動的指導意見》(2015年7月)、《機器人產(chǎn)業(yè)發(fā)展規(guī)劃》(2016年4月)、《“互聯(lián)網(wǎng)+”人工智能三年行動實施方案》(2016年5月)、《新一代人工智能發(fā)展規(guī)劃》(2017年7月)和《促進新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃(2018~2022)》(2017年12月)等一系列基于宏觀戰(zhàn)略研究的政策性文件。其中《新一代人工智能發(fā)展規(guī)劃》在“推進社會治理現(xiàn)代化”部分提出要“圍繞行政管理、司法管理、城市管理、環(huán)境保護等社會治理的熱點難點問題,促進人工智能技術應用,推動社會治理現(xiàn)代化”。此外,在“利用人工智能提升公共安全保障能力”部分也指出了社會綜合治理、新型犯罪和反恐等需要應用人工智能技術的重點領域。教育、醫(yī)療、養(yǎng)老等迫切民生需求領域也被提及,作為人工智能技術亟需進入的重點領域,以便“為公眾提供個性化、多元化、高品質(zhì)服務”[11]。但這一類政策性文件側(cè)重于營造人工智能技術和產(chǎn)業(yè)發(fā)展的支持性制度環(huán)境,而對技術應用的現(xiàn)實制約因素和應用過程中蘊涵的風險和不確定性缺乏分析。隨著人工智能技術的進一步發(fā)展以及應用場景的不斷增加,風險防范和法律規(guī)制應當成為頂層設計的重要組成部分。

政務數(shù)據(jù)基礎平臺。如上所言,人工智能的核心是機器學習,而機器學習的素材是大數(shù)據(jù)。雖然AlfaZero所使用的強化學習技術突破了AlfaGo依賴人類經(jīng)驗的深度學習方法,在只學習規(guī)則而不學習棋譜的情況下通過自我博弈完敗了基于大數(shù)據(jù)的機器學習,但這種技術目前只適用于規(guī)則明確、信息完備的博弈場景,還不能用來解決人類社會中的復雜性問題。尤其是政府工作中所使用的人工智能,不能離開人類經(jīng)驗和人類需求去尋找數(shù)學上完美的優(yōu)化解決方案,因此,匯集各類政府工作信息的大數(shù)據(jù)平臺是政務智能技術開發(fā)的前提條件。

早在人工智能成為大眾關注的熱點概念之前,我國已經(jīng)全面展開了政府工作信息化(即電子政務)的建設。電子政務,是指國家機關在履行政府職能的過程中全面應用現(xiàn)代信息技術、網(wǎng)絡技術以及辦公自動化技術等進行辦公、管理和為社會提供公共服務的一種工作方式。[12]人工智能等新一代信息技術促使電子政務向“智慧政府”發(fā)展。[13]如果說電子政務發(fā)展的早期主要是利用互聯(lián)網(wǎng)作為政府與公民之間的信息溝通渠道從而解決信息不對稱問題、實現(xiàn)政府信息公開、方便群眾網(wǎng)上辦理注冊登記、報稅、繳費等簡單業(yè)務的話,智慧政府所應用的信息技術則不再只是中立和被動的平臺,而是能夠?qū)W習、分析、預測甚至決策的智能算法。但是,智能算法的分析、預測準確性取決于數(shù)據(jù)的數(shù)量,大數(shù)據(jù)是智慧政府的基礎設施。

目前,我國尚未建成統(tǒng)一的政務信息平臺,政府信息存在分散化和區(qū)隔化的特點。以司法信息為例,如今,無論律師、檢察官還是法官,大多是用計算機來完成文書寫作,但各部門還是要求提交紙面材料。隨著智慧檢務、智慧法院建設的開展,又要求對辦案流程中的各種文書進行掃描存入系統(tǒng),這不僅造成了很大的資源浪費增加了行政成本,而且公安、檢察院和法院各自建設自己的數(shù)據(jù)庫,整個辦案流程中的數(shù)據(jù)無法實現(xiàn)整合。除了部門區(qū)隔外,各地方的政務和司法數(shù)據(jù)是相互分割、無法共享的。同時,不同的政府部門以及地方政府使用的可能是不同服務商所提供的政務云服務,這進一步給數(shù)據(jù)整合造成了困難。如此零散的數(shù)據(jù)限制了智能算法學習治理經(jīng)驗的素材,使人工智能技術在政府工作中的應用大為受限。因此,建設智慧政府的前提條件是打破數(shù)據(jù)壁壘,實現(xiàn)政府信息的縱向與橫向整合,打造政務信息平臺。

人工智能時代的“編戶齊民”。對人口和財產(chǎn)進行統(tǒng)計、認證、分類和評分是國家治理的基礎,其中的認證能力被學者稱為“國家基礎能力的基礎”。[14]“所謂‘認證’就是在數(shù)據(jù)與人或物之間建立一一對應的關系。”[15]現(xiàn)代社會人、財、物的快速流動給認證帶來了很大的挑戰(zhàn),同一個人在不同的場景會以不同的假名、行為方式和表達方式而出現(xiàn),乃至有人戲稱“在互聯(lián)網(wǎng)上沒人知道你是一條狗。”但人工智能技術為互聯(lián)網(wǎng)時代的“編戶齊民”提供了新的技術手段,使“社會計算化”成為可能。“所謂‘社會的計算化’,是指隨著互聯(lián)網(wǎng)的普及,越來越多的社會活動都通過互聯(lián)網(wǎng)進行,人類因此而在互聯(lián)網(wǎng)上留下海量而且相互關聯(lián)的數(shù)據(jù)足跡,基于這些數(shù)據(jù)足跡,大量原本不可追蹤、檢索、匯編、計量和運算的社會活動,變得可以追蹤、檢索、匯編、計量和運算。”[16]與過去由政府主導的認證工作不同,如今的社會計算化主要是由商業(yè)力量推動和控制的,這給治理工作帶來了新的問題。政府一方面需要與平臺企業(yè)合作來獲取數(shù)據(jù)、購買產(chǎn)品和服務,另一方面又需要作為企業(yè)與消費者之間的中立第三方來對企業(yè)進行監(jiān)管。

由于人的大部分線上活動都不是在政府平臺上進行的,而是通過搜索引擎、購物平臺、社交網(wǎng)絡等由私人企業(yè)運營的商業(yè)平臺進行,這些平臺借助帳戶注冊、用戶協(xié)議和平臺管理而掌握了比政府所掌握的更多的個人數(shù)據(jù),并且借助智能算法追蹤、匯集和分析個人行為的電子蹤跡,從而能夠?qū)€人進行數(shù)字畫像,準確預測個人行為,并根據(jù)歷史數(shù)據(jù)對賬戶進行信用評級。從表面上看,政府掌握著個人從出生、入學、就業(yè)、婚姻、生育到死亡的全流程信息,但這些信息是靜態(tài)的、孤立的和表面化的,在實時動態(tài)性、連續(xù)性和完整性方面都遠不如商業(yè)平臺所掌握的反映個人行為軌跡的信息。政府雖然可以在行政、司法和執(zhí)法的過程中要求企業(yè)提供特定的個人數(shù)據(jù),但這種要求只能在具體個案中針對特定人物提起,而不能成為可供機器學習的大數(shù)據(jù)。而且,即使是在這種場合,也可能遭到企業(yè)以保護商業(yè)秘密或合同關系為由的拒絕。比如,蘋果公司曾經(jīng)因拒絕政府要求披露用戶信息而獲得自由主義者們的普遍贊譽。2015年12月2日,美國加州圣貝納迪諾發(fā)生了美國本土自9·11之后最嚴重的恐怖襲擊,宣誓效忠“伊斯蘭國”的賽義德·法魯克(Syed Rizwan Farook)和塔什芬·馬利克(Tashfeen Malik)在開槍射殺14人、射傷20多人后被警察擊斃。聯(lián)邦調(diào)查局查獲了法魯克的iphone手機,為了獲得犯罪調(diào)查和反恐所需要的信息,它在獲得法院授權的情況下向蘋果公司發(fā)出了解鎖該手機的要求。但蘋果公司拒絕合作,公司總裁蒂姆·庫克還在公司網(wǎng)站上發(fā)布了一封公開信,譴責聯(lián)邦調(diào)查局的要求“破壞了我們的政府旨在保護的那種權利和自由。”[17]對蘋果公司而言,這是一次成功的公眾形象宣傳,而對于美國的國家安全和公眾的生命安全而言,這顯然不是件好事。

企業(yè)一方面以拒絕與政府合作披露用戶信息的姿態(tài)來維護自己的公眾形象,另一方面自己又偷偷摸摸地濫用著個人信息。大數(shù)據(jù)分析公司“劍橋分析”利用Facebook泄露的5000萬用戶的帳戶信息幫助特朗普競選團隊量身定制地投放政治廣告從而幫助特朗普在2016年美國總統(tǒng)大選獲勝的新聞,便是這方面一個現(xiàn)成例子。[18]

基本公共服務(包括國防和治安)領域的公、私權力關系是未來治理需要解決的首要問題。以政府為主要規(guī)制和防范對象的現(xiàn)有公法體系需要考慮技術革新和權力結(jié)構變化所帶來的新問題,一方面將透明、公開、程序合法、說明理由等對公權力行使者的要求延伸到實際上行使著“準公權力”的平臺企業(yè),使算法等技術化的監(jiān)控和決策手段不再是無法被問責的“黑箱”,另一方面調(diào)整傳統(tǒng)的公法概念(包括“公共服務”)和規(guī)制手段,以應對現(xiàn)時代公私合作、公私共治的普遍現(xiàn)象。

分類、評分和社會信用體系。機器學習的“推理”方式是基于統(tǒng)計學方法的歸納推理,目前的智能算法善于從海量數(shù)據(jù)中找出規(guī)律和模式。如果再由人工給不同的行為模式貼上標簽,比如反社會傾向、潛在恐怖主義分子或者政治上激進等,就可以由機器來針對某種標簽所代表的人或行為進行監(jiān)控、預測,甚至自動采取“行動”(比如斷網(wǎng)、斷電、列入某類服務的“黑名單”,等等)。智能算法還可以根據(jù)平臺用戶的搜索記錄、購物記錄、點贊記錄等對用戶進行評分,授予不同的VIP等級和相應權限。而政府也可以利用政府信息平臺上的可得信息來對個人進行社會信用評級,確定需要重點監(jiān)控的對象,甚至剝奪某些失信者的特定民事權利和自由,比如,國家發(fā)展改革委員會、中央文明辦、最高人民法院等八部門于2018年3月聯(lián)合發(fā)文,決定限制特定嚴重失信人乘坐火車。嚴重失信人包括嚴重影響鐵路運行安全和生產(chǎn)安全者(比如在動車組列車上吸煙或者在其他列車的禁煙區(qū)域吸煙的人)、違反稅收法規(guī)者、在財政資金管理使用領域中有弄虛作假等嚴重失信行為者等。這種讓當事人在已承擔法律規(guī)定的責任之后額外背負“失信”標簽并承受相應后果的做法是否符合立法保留、比例原則和正當程序原則,這是法學界關心的問題。

如果應用得當,人工智能可以使信用評分更加精準、動態(tài)化和語境化。傳統(tǒng)的個人信用和風險評分是商業(yè)銀行和保險公司針對個人信貸或保險客戶的違約風險、健康風險、職業(yè)風險和行為風險等所作的評分,用以支持貸款或保費決策。隨著個人商業(yè)活動和社交活動的網(wǎng)絡化,平臺企業(yè)開始借助自己所掌握的賬戶活動信息而進行更加精準的信用評分。以回歸分析為主要方法的統(tǒng)計學模式,最近鄰法、決策樹法和數(shù)據(jù)包絡法等非參數(shù)方法,以線性規(guī)劃法為主要方法的運籌學方法都隨著計算機技術的發(fā)展而得到強化,同時,神經(jīng)網(wǎng)絡和支持向量機等智能算法的出現(xiàn)進一步解決了傳統(tǒng)方法的小樣本、線性化、無反饋等問題。但是,技術上存在可能并不意味著實踐上一定能達成。人工智能評分系統(tǒng)的準確性取決于前期的人工投入,政府人員需要與技術人員合作列出參數(shù)和指標,確定它們的權重,確保違背法律和倫理的評價指標(比如種族、民族和性別歧視因素)不會進入算法。如果沒有這種前期的把關和持續(xù)的監(jiān)督,智能算法就可能變成“數(shù)學殺傷武器”[19]。類型化和標簽化固然有助于管理,但其中也蘊含著固化、歧視和簡單化的傾向。從腦科學角度來看,貼標簽是認知弱化而不是智能的體現(xiàn)。比如,網(wǎng)絡空間中給中年男性的“油膩”“猥瑣”標簽,便是人云亦云、盲從跟風的結(jié)果。[20]機器學習的素材是用語言和符號表達的人類經(jīng)驗,其中也包含人類偏見。一旦這種偏見用算法的形式固定下來,便會逃過人們的審視和反思。

2017年6月23日,由上海市第十四屆人民代表大會常務委員會第三十八次會議通過的《上海市社會信用條例》是規(guī)范大數(shù)據(jù)時代社會信用評分的比較有代表性的地方性立法。該條例將社會信用信息定義為“可用以識別、分析、判斷信息主體守法、履約狀況的客觀數(shù)據(jù)和資料”,并且將社會信用信息區(qū)分為公共信用信息和市場信用信息。該條例不僅提出了公共信用信息的互通、共享要求,還提出要建立公共信用信息與市場信用信息的互通、共享機制。此外,該條例也規(guī)定了信息主體所享有的權益以及相應的救濟程序。這是將社會社會信息的收集、分析和利用法治化的有益嘗試。隨著社會信用評分日益成為一種常規(guī)化的社會治理手段,全國性的《社會信用法》也應當及時出臺。

預測性執(zhí)法?;诖髷?shù)據(jù)的人工智能技術可以比較準確地找出某一類人或被重點監(jiān)控的某一個人的行為模式,并對未來的行為作出比較準確的預測。在美國,相關實證研究表明,大多數(shù)犯罪行為都是一小部分慣犯所犯下的,因此剝奪這一小撮人的犯罪能力可以指數(shù)級地減少犯罪率。蘭德公司的一份報告因此提出了“有針對性地剝奪犯罪能力”(Selective incapacitation),指出:“有針對性地剝奪犯罪能力是一種戰(zhàn)略,它旨在使用客觀的精算證據(jù)來提升既有系統(tǒng)識別和羈押那些對社會構成最嚴重威脅的人物之能力。”[21]預測性執(zhí)法在預防犯罪、禁毒和反恐等領域已經(jīng)得到普及。

從法律的角度看,預測性執(zhí)法涉及到違反正當程序、系統(tǒng)性歧視和侵犯隱私等問題。哥倫比亞大學法學院哈克特教授專門寫了一本叫做《反對預測》的書。他提出了三點理由:首先,根據(jù)對未來犯罪行為的預測來執(zhí)法會削弱執(zhí)法本身的首要目的,即減少犯罪;其次,對概率論方法的依賴會造成數(shù)據(jù)偏差,過分針對被監(jiān)禁人口,而忽略了未被監(jiān)禁的人口;第三,精算方法的廣泛應用扭曲了人們對何謂公正懲罰的認知。刑法的規(guī)范價值被忽視了。[22]不過,如果不采取預先拘禁和搜查等明顯侵犯個人權利的強制措施,而是采取在據(jù)預測可能發(fā)生犯罪或恐怖襲擊的地方加派警力巡邏、在犯罪高發(fā)地區(qū)加裝照明和攝錄設施、動員基層群眾自治組織或發(fā)動群眾盯控可能的犯罪分子等非干預性的手段,則可以在強化法治的前提下維護秩序。

基于大數(shù)據(jù)的人工智能技術的發(fā)展正在使孔德在一個半世紀前試圖建立的“社會物理學”成為可能。按照孔德的設想,隨著理性的科學認知的不斷推進,社會科學最終將發(fā)展到物理學的“成熟狀態(tài)”。人們將可以通過觀察、統(tǒng)計和分析而發(fā)現(xiàn)近似于自然規(guī)律的社會規(guī)律,從而“研究現(xiàn)狀以便推斷未來。”[23]在孔德的時代,由于技術手段的欠缺,他的野心還無法變?yōu)楝F(xiàn)實?;谟邢迾颖镜慕y(tǒng)計分析還遠遠無法使社會預測達到物理預測那樣的精準性。但大數(shù)據(jù)存儲和人工智能分析已經(jīng)使樣本分析有可能為整全數(shù)據(jù)分析所取代,并且日益實現(xiàn)動態(tài)化和分析者與對象之間的互動化。正如當代社會物理學的鼓吹者彭特蘭所言:“社會物理學是一門定量的社會科學,旨在描述信息和想法的流動與人類行為之間可靠的數(shù)學關系。社會物理學有助于我們理解想法是如何通過社會學習機制在人與人之間流動的,以及這種想法的流動最終如何形成公司、城市和社會的規(guī)范、生產(chǎn)率和創(chuàng)意產(chǎn)出。”[24]在社會物理學當?shù)赖氖澜纾潞笞坟熜偷娜祟惙蓪⒈粩?shù)理定律所取代,物理性和生物性的安排將取代制度性的安排。臉書創(chuàng)辦人馬克·扎克伯格曾經(jīng)指出:“基本的數(shù)學法則主導著人與人之間的關系,它控制著我們心之所系的盈虧。”[25]而他也的確利用算法實現(xiàn)著對人心和人的行為的操控。人工智能正使我們越來越接近于發(fā)現(xiàn)這些數(shù)學法則,并借此控制人的行為乃至動機。人工智能的進一步發(fā)展則可能使人類連編寫代碼、設計算法的工作都省了,由機器來自我編程,建構“完美可控”的人間秩序。[26]在這種背景下,我們不能只看到人工智能在助力精準治理方面的作用,同時應當考慮如何用法治來引導它的發(fā)展方向,從而使它服務于社會公共利益。

國家治理現(xiàn)代化與智能法律

黨的十八屆三中全會提出:“全面深化改革的總目標是完善和發(fā)展中國特色社會主義制度,推進國家治理體系和治理能力現(xiàn)代化。”[27]現(xiàn)代化的國家治理體系的主要外在形式就是法治,“國家治理法治化是國家治理現(xiàn)代化的必由之路。”[28]我國推進國家治理法治化和現(xiàn)代化的過程很碰巧地與新一輪信息技術革命同時發(fā)生,人工智能是這一輪技術革命中最為引人注目的領域。在利用人工智能技術來建設智慧政府,實現(xiàn)精準治理的同時,需要把人工智能的各種應用場景,包括治理工作,納入法治軌道。要實現(xiàn)精準治理的法治化,需要落實以下幾方面的制度安排。

算法可解釋性。在美國,已經(jīng)有案例涉及到算法黑箱問題。2013年初,威斯康辛州指控艾瑞克·魯米斯(Eric Loomis)五項刑事罪行,都和一起駕車槍擊事件有關。魯米斯否認自己參與了槍擊,但承認自己在案發(fā)當晚駕駛過那輛車。在辯訴交易中,他承認了兩項較輕的罪名:“企圖逃避交警以及未經(jīng)車主同意擅自駕車”。在量刑階段,法院收到州政府罪犯改造部門提交的一份量刑前調(diào)查報告(PSI),其中包含再犯風險評估內(nèi)容(COMPAS)。在初審判決中,法院在量刑部分援引了COMPAS評估的內(nèi)容,并且部分基于這一評估判處魯米斯6年監(jiān)禁外加5年監(jiān)外管制。在申請定罪后救濟動議(motion for post-conviction relief)被拒后,威斯康辛州上訴法院批準了向州最高法院上訴。魯米斯的上訴理由是法院對COMPAS評估的依賴侵犯了他的正當程序權利。正當程序權利包括獲得個別化量刑考量的權利(the right to an individualized sentence)以及基于準確信息而受量刑的權利(the right to be sentenced on accurate information)。由于COMPAS評估報告提供的數(shù)據(jù)是類型化的,未能充分體現(xiàn)個人特殊性,同時由于作出評估的方法是COMPAS算法的提供者Northpointe公司的商業(yè)秘密,其可靠性無從判斷,魯米斯主張自己的上訴兩項權利受到了侵犯。此外,他還聲稱該算法評估將他的性別作為一個因素加以考量,侵犯了他的平等權。[29]

威斯康辛州最高法院支持了初審法院的判決。在安·布拉德利(Ann Walsh Bradley)大法官撰寫的多數(shù)派意見中,魯米斯的正當程序和平等權主張被一一否定。首先,法院認為性別因素是作為提升評估準確性的目的而非歧視目的而進入算法參數(shù)的,而且魯米斯無法證明法院在量刑時的確考量了性別因素,因此他的平等權并未受到侵犯。其次,因為COMPAS所分析的數(shù)據(jù)是記錄在案的公共數(shù)據(jù)(犯罪紀錄)和被告自己提供的數(shù)據(jù)(他對137個問題的回答),因此,被告在算法評估結(jié)果出來之前本來就有機會否認或解釋相關信息,也有機會驗證相關信息的準確性,因此質(zhì)疑信息準確性的主張站不住腳。最后,關于量刑個別化問題,法院承認COMPAS算法評估的結(jié)論揭示的是與魯米斯相似的一類人的再犯風險,但指出該評估結(jié)論不是法院作出量刑判決的唯一依據(jù),由于法院擁有在其認為適當?shù)那闆r下不同意評估結(jié)論的裁量權和相關證據(jù),因此該量刑判決是充分個別化的。[30]

從這個案例可以看出,當算法涉嫌針對個人作出了歧視性的或錯誤的評估或決策的時候,至少在美國,法院傾向于保護算法產(chǎn)品廠商的商業(yè)秘密,這種權益被視為沒有爭議的前提,法院不會要求廠商公開算法代碼,也沒有要求廠商用自然語言解釋算法的設計原理、功能和目的。但算法可解釋性是“算法的法律”可以成立的前提。人不可能控制或約束自己不懂的東西。之所以說人工智能算法進行深入學習的過程是個黑盒子,主要的原因除了它的保密性外,更重要的是即使公開了法官和律師也看不懂。算法可解釋性乃至可視化是一個可以用技術解決的問題,一旦法律提出了相關要求,技術界便會想方設法使算法成為可解釋的。比如,在2018年3月7日,谷歌大腦團隊的克里斯·歐拉(Chris Olah)公布了一項題為“可解釋性的基礎構件”的研究成果[31],該成果解決了神經(jīng)網(wǎng)絡這種最令人難以捉摸的算法的可視化問題,谷歌將其比喻為人工神經(jīng)網(wǎng)絡的核磁共振成像(MRI)。如果說神經(jīng)網(wǎng)絡算法所處理的海量數(shù)據(jù)及其復雜運算過程會使人腦“超載”的話,這種可視化解釋技術簡化了相關信息,使算法的工作狀態(tài)回到了“人類尺度”,能夠被普通人看懂和理解。谷歌還對這種“解釋算法的算法”做了開源化處理,使其他技術人員能夠在此基礎上編寫適用于不同算法和場景的解釋性算法。

由此可見,法律進入算法不能靠立法者和規(guī)制者的單方面努力,而需要法律人與技術人員的合作。正如李彥宏等人在《算法革命》中所指出的那樣:“……也許真要靠算法的頂層設計來防止消極后果。人工智能技術可能不只是理工科專業(yè)人士的領域,法律人士以及其他治理者也需要學習人工智能知識,這對法律人士和其他治理者提出了技術要求。法治管理需要嵌入生產(chǎn)環(huán)節(jié),比如對算法處理的數(shù)據(jù)或生產(chǎn)性資源進行管理,防止造成消極后果。”[32]法律人可以向技術人員解釋法律規(guī)則的要求,而技術人員可以設計出符合法律要求的算法。法律和技術都是非自然的“人工”造物,兩者都服務于使人類生活更加美好的目的。在人工智能時代,一種新的職業(yè)——法律知識工程師——正在誕生,這種職業(yè)是由能夠用技術解決法律問題的人士和能夠用法律服務技術發(fā)展并將技術套上法律韁繩的人士共同組成的。人工智能是能夠在給定問題的前提下通過深度學習和強化學習尋求最優(yōu)解的智能算法,它需要人類提出正確的問題,對錯誤問題的正確解答可能帶來災難性的后果。法律就是用來劃定問題域之邊界的,它不能確保最佳問題的出現(xiàn),但可以防止最邪惡問題的提出。

矯正正義。法律,尤其是私法,所體現(xiàn)的核心價值是交換正義和矯正正義。對于自愿的交易,法律旨在確保承諾的履行,合同法便是為了實現(xiàn)這一功能而出現(xiàn)的。對于非自愿發(fā)生的初始狀態(tài)改變,對損害給予救濟的侵權法原則和對不當?shù)美枰苑颠€的民法原則(restitution)是主要的法律介入形式。將矯正正義的形式法則應用于各種事實場景的技藝被認為是法律的獨特技藝所在,體現(xiàn)了柯克所說的“人為理性”。[33]影響甚大的多倫多大學新形式主義法律學派將矯正正義的概念化、類型化和系統(tǒng)化處理視為法學維持自身獨立品格、避免受法律和社會科學交叉學科侵蝕的關鍵所在。[34]

矯正正義模式通過事后追責的救濟手段給技術創(chuàng)新保留足夠的空間,在人工智能的應用領域,這意味著繼續(xù)以傳統(tǒng)的侵權法—司法救濟模式來保護個人權利。大數(shù)據(jù)對個人自治的威脅最集中地體現(xiàn)在一個領域,這就是“完美個人化”(perfect personalization)。完美個人化所要做到的就是使個人變得越來越“可識別”,這在歐洲顯然會遭遇個人數(shù)據(jù)保護法的嚴格限制,乃至于不可能發(fā)生。但中美兩國卻已經(jīng)在這方面走得很遠。正如美國總統(tǒng)科技顧問委員會(PCAST)在2014年提交的一份報告中指出的那樣,“各種類型數(shù)據(jù)的融合以及實時處理產(chǎn)生出一種力量,在這種力量幫助下,政府和企業(yè)可以在個人表達需求、甚至意識到需求前向他們準確提供量身定制的信息、產(chǎn)品和服務??不幸的是,‘完美個人化’也會給定價、服務和機會方面隱秘或者公開的歧視留下空間??隨著像數(shù)據(jù)融合這樣的使大數(shù)據(jù)分析變得越來越有力的技術不斷發(fā)展,人們目前的隱私預期也受到越來越嚴峻的挑戰(zhàn)”[35]。這份報告同時提出了一套包含五個環(huán)節(jié)的應對方案。第一,法律和政策回應不必針對大數(shù)據(jù)的搜集和分析,而應針對大數(shù)據(jù)的實際使用,也就是對個人權利產(chǎn)生實際不利影響的具體事件和案件。法律和政策不應指定特定的技術化解決方案,而應當點明具體的政策目標,把解決方案留給技術界去尋找。第二,在發(fā)展大數(shù)據(jù)分析技術的同時,政府和業(yè)界應鼓勵發(fā)展大數(shù)據(jù)背景下的隱私保護技術,同時開展大數(shù)據(jù)普及教育,培育大數(shù)據(jù)時代的隱私權意識。第三,禁止利用大數(shù)據(jù)分析來進行歧視性的分類和評級。種族、民族、性別等憲法上可疑的分類標準不能被寫到“算法”和程序中去。第四,提高大數(shù)據(jù)分析的透明度,強化大數(shù)據(jù)使用的問責機制。第五,數(shù)據(jù)是一種公共資源,應用于公共利益目的,應當使越來越多的人有機會分享智能化大數(shù)據(jù)分析所帶來的利益。

在政府利用人工智能技術對個人數(shù)據(jù)進行分析處理并實現(xiàn)精準治理的場合,矯正正義模式要求有確定的政府機關為此負責,從而使公民可以通過行政復議和行政訴訟獲得救濟?!渡虾J猩鐣庞脳l例》第36條提供了明確的救濟渠道:市公共信用信息服務中心是責任單位,信息主體認為社會信用信息的歸集、采集、保存或者提供存在錯誤、遺漏等情形或者侵犯其商業(yè)秘密、個人隱私和其他個人信息等合法權益的,可以向該中心提出異議。此外,根據(jù)信用信息作出具體行政行為的機關也可以成為行政訴訟的被告。

預防模式。對于一種深刻改變著社會而其中包含的風險尚無法確知的技術,損害發(fā)生之后的司法救濟顯然無法確保社會的公共利益。因此,許多國家都試圖設立專門的規(guī)制機構來負責人工智能研發(fā)和產(chǎn)品化過程中的風險評估、風險溝通和風險管理。比如,在簽署歐洲議會報告過程中便提議設立一個“歐洲機器人和人工智能局”來統(tǒng)籌該領域的風險規(guī)制工作。2017年12月,美國眾議院討論了由議員約翰·德萊尼提出的《人工智能的未來法案》,其中的主要內(nèi)容也是要求在商務部內(nèi)設立一個“聯(lián)邦人工智能發(fā)展與應用顧問委員會”,就人工智能涉及的技術、商業(yè)、國家安全等問題進行綜合研判并向政府提供立法和規(guī)制建議。該法案特別強調(diào)了促進人工智能發(fā)展與防止其負面影響之間的平衡問題,指出人工智能人工智能技術的持續(xù)發(fā)展對于美國的經(jīng)濟繁榮、社會穩(wěn)定和國家安全具有至關重要(critical)的意義,不能因為擔憂其不可控的風險就采取過多的抑制措施。

當一種新技術對社會的影響在科學上尚無定論的時候,如果這種影響有可能是負面的、巨大的和不可逆轉(zhuǎn)的,決策者就應該假定它會造成這種影響,并據(jù)此來制定相關和政策和法律。這就是“風險預防原則”(Precautionary Principle)。對該原則的最廣為人知的表述出現(xiàn)在1992年的《里約宣言》中,該宣言的第十五條原則指出:“在嚴重的或不可逆轉(zhuǎn)的損害威脅存在的領域,缺乏充分的科學確定性不應成為暫緩采取有成本效益的措施來防止環(huán)境惡化的理由”。[36]這一原則現(xiàn)在也正在被適用到人工智能領域。

機器學習以大數(shù)據(jù)為素材,采取預防模式的歐盟選取了數(shù)據(jù)這個源頭作為切入點來杜絕可能帶來權利侵害的算法。即將于2018年生效的《一般數(shù)據(jù)保護條例》一體適用于對個人數(shù)據(jù)的自動化(即算法處理)和非自動化處理(第二條),其目的在于保護數(shù)據(jù)流動和數(shù)據(jù)處理過程中自然人所享有的數(shù)據(jù)權利(第一條)。而個人數(shù)據(jù)的定義十分寬泛,包括與已被識別出(identified)或可被識別出(identifiable)的自然人相關的任何信息。其中對“可別識別出的”個人數(shù)據(jù)的保護對算法設計者提出了很高的要求,包括采取匿名化等一系列使數(shù)據(jù)無法被關聯(lián)到具體個人的技術手段(第四條)。對個人數(shù)據(jù)的處理要符合合法、公平、透明、目的具體且有限、準確、安全等原則(第五條)。除非是在法律明確規(guī)定的條件(比如數(shù)據(jù)主體明確同意)下,處理數(shù)據(jù)的方式不得顯示出個人的種族、民族、政治觀點、宗教或哲學信仰、工會成員身份,等等。處理的對象不得包括基因數(shù)據(jù)、使某個人被識別出來的生物計量學數(shù)據(jù)、健康數(shù)據(jù)以及性生活或性取向數(shù)據(jù)(第九條)。[37]該條例明確列舉了數(shù)據(jù)主體的若干具體權利,包括充分知情權、要求更正權、要求刪除權(被遺忘權)和限制處理權(第15~18條),旨在強化數(shù)據(jù)主體對涉及自身的所有數(shù)據(jù)的控制能力。在鼓勵創(chuàng)新和保護權利之間,歐盟立法者選擇了后者,預先給智能算法的發(fā)展劃定了界限。[38]

不僅如此,控制機器學習可用的數(shù)據(jù)來源的做法基本忽視了智能算法的現(xiàn)有技術狀態(tài)。對個人身份的已識別或可識別狀態(tài)往往是數(shù)據(jù)分析的結(jié)果而不是起點,現(xiàn)有的智能算法已經(jīng)能夠?qū)A康臒o結(jié)構數(shù)據(jù)(包括百度搜索記錄、淘寶購物記錄、手機GPS信息等各種電子痕跡)進行分析和處理,最終實現(xiàn)“完美個人化”,即準確識別出某一特定個人的身份、社會屬性和偏好。從數(shù)據(jù)是否已包含個人身份信息入手來規(guī)制算法無法達到保護個人權益的目的。我國目前尚未通過《個人數(shù)據(jù)保護法》,在制定這一類法律的時候應當更多地聽取法律專家、人工智能專家和大數(shù)據(jù)平臺企業(yè)等多方面的意見,平衡技術創(chuàng)新、國家—社會治理和個人權利保護三方面的利益。

結(jié)論

首先,主流的法治理論認為法治與法制的主要區(qū)別在于:后者是工具主義的,法律被當成統(tǒng)治的工具,但無法約束統(tǒng)治者本身;后者是權利本位的,法律不僅約束公民,更約束公權力。在這種法治框架下,政府成為法律(尤其是公法)的監(jiān)控對象。但大數(shù)據(jù)分析技術和人工智能正在改變社會的治理結(jié)構和秩序生成機制,誰掌握了數(shù)據(jù)和分析數(shù)據(jù)的技術,誰就能影響和控制人的行為。大到總統(tǒng)選舉,小到日常購物,智能化的數(shù)據(jù)分析和行為誘導機制在其中發(fā)揮著越來越大的作用,而背后的操縱者往往不再是政府。新技術的發(fā)明者、投資者和鼓吹者們往往會夸大技術帶來的“解放”效應,宣稱人工智能和區(qū)塊鏈等技術將使一切中心和中介變得沒有必要,從而瓦解人類社會的金字塔結(jié)構,使有序的人際關系變得越來越呈網(wǎng)狀分布,每個人都是中心,每個人也都不可能控制整個網(wǎng)絡。但實際結(jié)果卻是,金字塔依然存在,基底依然是蕓蕓眾生,但塔尖卻分裂成了政府、資本力量和技術力量。這三種力量有時會合并起來,有時又相互對峙,但它們之間的關系并不受基座的影響。藐視政治權威的技術達人(黑客)并不會解放全人類,而只會破壞既定的法律秩序。與政府討價還價的商業(yè)力量也不會“制衡”公權力,而只是追逐利潤。對“數(shù)力”(vires in numeris)的迷信與對暴力的迷信一樣是無助于實現(xiàn)社會正義的。上文中提到的“劍橋分析”公司助力特朗普贏得美國總統(tǒng)大選的例子表明,大數(shù)據(jù)掌控者已經(jīng)不只是通過數(shù)據(jù)分析來進行預測,還有能力將某些預測變成自我實現(xiàn)的預言。同時,法律所建構起來的公與私、政治權力與商業(yè)力量之間的區(qū)隔已經(jīng)變得弱不經(jīng)風。因此,法治在人工智能時代面對的首要問題是重新界定權力和權利,一方面用公共權力來馴服算力,讓它為公共利益服務,另一方面賦予公民新的數(shù)據(jù)權利,以制衡無限擴張的算力統(tǒng)治。

其次,在技術日益智能化的時候,法律的日益技術化會使它很容易被技術所取代,而如果兩者都趨向于只講手段不問目的的工具理性,則人類將被引向不可知的未來,這個未來很可能是萬劫不復的深淵。工具理性取代價值理性的趨勢在現(xiàn)代化的早期便已經(jīng)暴露無疑了,現(xiàn)代政治思想的奠基者霍布斯系統(tǒng)打造了人類無中生有地創(chuàng)造和管理世界的理論,法律和工程技術都是這種“創(chuàng)世”工作的工具。奧克肖特敏銳地指出了“意志與人造物”在霍布斯思想中的核心地位,他發(fā)現(xiàn)霍布斯“通常不會提及理性,這一將人與上帝聯(lián)系的人類心智的神性光亮;他提及的是推理(reasoning)。”[39]霍布斯十分明確地寫道:“舊道德哲學家所說的那種極終的目的和最高的善根本不存在。欲望終止的人,和感覺與映像停頓的人同樣無法生活下去。幸福就是欲望從一個目標到另一個目標不斷地發(fā)展,達到前一個目標不過是為后一個目標鋪平道路。所以如此的原因在于,人類欲望的目的不是在一頃間享受一次就完了,而是要永遠確保達到未來欲望的道路。”[40]從某種意義上講,人類的欲望種類從未改變,只是滿足欲望的技術手段越來越先進。沒有方向和目標地追求欲望的滿足在以人工智能作為技術手段的時代比任何時候都更危險。法律和公共政策不能一味地追求用新的技術手段來實現(xiàn)對人的控制,而應當體現(xiàn)公平、正義和民生福祉等基本的價值目標。

最后,人工智能所體現(xiàn)的技術理性有明顯的化約主義傾向,我們可以借助它來提高效率,取代一部分無需創(chuàng)造性和價值判斷的工作,但不能由它來作出事關人類福祉的最終決策。法律所調(diào)整的是人與人之間的關系,因此法律不必去直接規(guī)制技術,而應當規(guī)制使用技術的人。從更深的層面上講,法律應當去規(guī)制被技術改變后的社會中的人,從而使技術對人類社會的影響能夠朝著善和正義的方向去發(fā)展。人不應當允許自己的自我認識被技術所左右;他應當象反抗任何導致主體性喪失的支配關系一樣去反抗對技術的依賴;如果他想要拯救自己的人性和自主性,他就應該把自己從技術和支配所導致的異化中拯救出來。因此,盡管人工智能技術可以被用來設計出自動決策系統(tǒng),但這種系統(tǒng)只能被用來處理事實和價值方面沒有爭議的簡單事項,比如闖紅燈罰款,而在涉及事實爭議和價值選擇的復雜問題上,人工智能只能被用來強化人類智能,而由人來作出最終的選擇和判斷。

注釋

[1]MatejBalog, Alexander L. Gaunt, et al., "Deepcoder: Learning to Writing Programs," ICLR 2017會議論文,https://www.microsoft.com/en-us/research/wp-content/uploads/2017/03/main.pdf.

[2]http://www.sohu.com/a/193242602_473283.

[3]www.automl.org/.

[4] RayKurzweil, The Singularity Is Near: When Humans Transcend Biology, New York: The Viking Press, 2006.

[5] Samuel Gibbs, Elon Musk: "Artificial Intelligence Is Our Biggest Existential Threat", GUARDIAN (Oct. 27, 2014, 6:26 AM), http://www.theguardian.com/technology/2014/oct/27/elon-musk-artificialintelligence-ai-biggest-existential-threat [https://perma.cc/SZD4-7WCL].

[6][法]雷吉斯·德布雷、趙汀陽:《兩面之詞:關于革命問題的通信》,張萬申譯,北京:中信出版社,2015年,第23頁。

[7]Desmond Butler, Jack Gillum, and Alberto Arce,US Secretly Created" Cuban Twitter" to Stir Unrest, Associated Press, April 4, 2014.

[8]Minsky, in M. Yazdani and A. Narayanan, Artificial Intelligence: Human Effects, Chichester, UK: Ellis Horwood, 1984.

[9]Cary Coglianese and David Lehr, "Regulating by Robot: Administrative Decision Making in the Machine Learning Era," 105 Georgetown Law Journal, 1147 (2017), p.1148.

[10]Executive Office of the President National Science and Technology Council Committee on Technology, Preparing for the Future of Artificial Intelligence, October, 2016, pp.15-16.

[11]《國務院關于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》,國發(fā)[2017]35號。

[12]汪玉凱:《中國政府信息化與電子政務》,《新視野》,2002年第2期,第54~56頁。

[13]金江軍:《智慧政府:電子政務發(fā)展的新階段》,《信息化建設》,2011年第11期,第16~17頁。

[14]歐樹軍:《國家基礎能力的基礎》,北京:中國社會科學出版社,2013年。

[15]王紹光:《序一》,歐樹軍:《國家基礎能力的基礎》,北京:中國社會科學出版社,2013年,第1頁。

[16]馮仕政,陸美賀:《社會計算如何可能?》,《貴州師范大學學報·社會科學版》,2016年第6期,第27~30頁。

[17]Tim Cook, "A Message to Our Customers", APPLE (Feb. 16, 2016), https://www.apple.com/customer-letter/.

[18]Carole Cadwalladr and Emma Gaham-Harrison, "Revealed: 50 Million Facebook Profiles Harvested for Cambridge Analytica in Major Data Breach", Guardian, 17 March 2018, https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election.

[19]Cathy O 'Neil, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, New York: Crown Publishers, 2016.

[20]蔣建國:《油膩中年男的媒介呈現(xiàn)、認知標簽與社會化戲謔》,《探索與爭鳴》,2018年第1期,第123~127頁。

[21] Peter W. Greenwood and Allan Abrahamse, 1982. Selective Incapacitation. Santa Monica, CA: Rand Corporation, 1982.

[22] Bernard E. Harcourt, Against Prediction: Profiling, Policing, and Punishing in an Actuarial Age, University of Chicago Press, 2007.

[23] [法]奧古斯特·孔德:《論實證精神》,黃建華譯,北京:商務印書館,2001年,第12頁。

[24][美]阿萊克斯·彭特蘭:《智慧社會:大數(shù)據(jù)與社會物理學》,王小帆、汪容譯,杭州:浙江人民出版社,2015年,第7頁。

[25] Michael Rundle, "Zuckerberg: Telepathy is the Future of Facebook," Wired UK, July 1, 2015, http://www.wired.co.uk/article/facebook-zuckerberg-qa-the-future.

[26] Jason Tanz, "The Rise of Artificial Intelligence and the End of Code", Wired, June 2016.

[27] 《中共中央關于全面深化改革若干重大問題的決定》,北京:人民出版社,2013 年,第3 頁。

[28] 張文顯:《法治與國家治理現(xiàn)代化》,《中國法學》,2014年第4期,第5~27頁。

[29] State v. Loomis, 881 N. W. 2d 749 (Wisconsin, 2016).

[30]State v. Loomis, 881 N. W. 2d 749 (Wisconsin, 2016)。還可參見:Jason Tashea, "Calculating Crime: Attorneys Are Challenging the Use of Algorithms to Help Determine Bail, Sentencing and Parole Decisions," 103 A.B.A Journal 54 (March 2017), P.P. 54-60,該文提到了若干與Loomis案類似的涉及“算法量刑”的案例。

[31] Chris Olah, "The Building Blocks of Interpretability", https://distill.pub/2018/building-blocks/.

[32] 李彥宏等:《智能革命:迎接人工智能時代的社會、經(jīng)濟與文化變革》,北京:中信出版集團,2017,第312頁。

[33] Charles Fried, "Artificial Reason of the Law or: What Lawyers Know", 60 Texas Law Review, 35 (1981).

[34]Ernest J. Weinrib, The Idea of Private Law, Oxford University Press, 1995; Ernest J. Weinrib, Corrective Justice, Oxford University Press, 2012; Stephen Waddams, Dimensions of Private Law, Cambridge University Press, 2003.

[35] Executive Office of the President, Big Data: Seizing Opportunities, Preserving Values, The White House, May 2014.

[36] United Nations Environment Programme (UNEP), Rio Declaration on Environment and Development, Principle 15, Rio de Janeiro, Brazil, June 14, 1992.

[37]http://gdpr-info.eu.

[38] 鄭戈:《在鼓勵創(chuàng)新與保護人權之間:法律如何回應大數(shù)據(jù)技術革新的挑戰(zhàn)》,《探索與爭鳴》,2016年第7期,第79~85頁。

[39] Michael Oakeshott, "Hobbes on Civil Association", Indianapolis, IN.: Liberty Fund, 1975, p.27.

[40] [英]霍布斯:《利維坦》,黎思復、黎廷弼譯,北京:商務印書館,1985年,第72頁。

Precision Governance in the Context of Law-based Governance of China

Zheng Ge

Abstract: Artificial intelligence (AI) has a wide application prospect in modernizing China's governance system. By creating a unified government information platform and using machine to analyze massive data, it can provide well-targeted information support for government decision-making. At the same time, massive dynamic data is gathered in the hands of platform companies. The sharing of public information and market information is one of the prerequisites for achieving precision governance. Under the premise of building the big data infrastructure well, the AI technology can bring many innovative measures to the governance work, such as social credit management and predictive law enforcement. Meanwhile, we should also see the structural changes caused by these new governance measures and their impact on civil rights. Therefore, the protection by the rule of law should also closely follow the pace of technological progress.

Keywords: Artificial intelligence, big data, precision governance, rule of law, rights

責 編/楊昀赟

[責任編輯:楊昀赟]
標簽: 語境   國家