【摘要】電車難題向自動駕駛技術(shù)L5場景的延伸會帶來一個新難題:倫理和法律責任主體缺場。對此,自動駕駛技術(shù)創(chuàng)新與應(yīng)用的先進國家在規(guī)制上形成了兩條路徑:真人駕駛員路徑和算法駕駛員路徑。前者解決了主體缺失難題卻不適用于L5場景,后者適用于L5場景卻沒有解決主體缺場難題。L5場景的主體缺場,在本質(zhì)上是社會行動者缺場,確認L5場景的社會行動性質(zhì)有助于我們從社會互動邏輯出發(fā)尋找缺場的社會行動者。研究表明,L5場景缺失的主體其實是一個社會行動者關(guān)系鏈,處于前端的是自動駕駛車輛的制造商。
【關(guān)鍵詞】自動駕駛 社會行動 電車難題
【中圖分類號】C912 【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2021.04.004
邱澤奇,北京大學博雅特聘教授、中國社會與發(fā)展研究中心主任、數(shù)字治理研究中心主任。研究方向為數(shù)字技術(shù)應(yīng)用與社會發(fā)展、數(shù)字治理。主要著作有《社會學是什么?》、《技術(shù)化社會治理的異步困境》(論文)、《從數(shù)字鴻溝到紅利差異——互聯(lián)網(wǎng)資本的視角》(論文)、《回到連通性——社會網(wǎng)絡(luò)研究的歷史轉(zhuǎn)向》(論文)等。
前言
面對自動駕駛技術(shù)應(yīng)用的社會后果,有一系列基于電車難題(Trolley problem)的探討,重點關(guān)注了倫理與法律兩個維度。[1]電車難題是一個經(jīng)典的倫理思想實驗,最早是夏普(Frank Chapman Sharp)道德問卷里的場景訪題(Anchoring Vignettes)。幾經(jīng)演化之后,福特(Philippa Ruth Foot)提出了一系列場景,其中的一個場景與夏普場景非常接近,也是后來被廣泛引用和衍生的場景:
設(shè)想一位駕駛員正駕駛一輛有軌電車,他面對兩條軌道。在兩條軌道中,一條軌道上有5個人在工作,另一條軌道上只有1個人在工作。無論選擇哪一條軌道,在軌道上工作的人必死無疑。問題是:駕駛員應(yīng)該選擇哪一條軌道?[2]
在電車難題中,駕駛員之所以會面對選擇難題,他糾結(jié)的不是死亡者數(shù)量,而是死亡本身。這是因為對死人的倫理定義,既不取決于駕駛員,也不取決于在軌道上作業(yè)的工人,而是取決于駕駛場景的社會。我們認為,如果缺失社會維度的探討,倫理和法律維度的詰問便缺乏主體。
當把電車難題延伸至針對自動駕駛場景時,[3]新難題出現(xiàn)了:在真人駕駛員消失的場景下,誰來承擔真人駕駛員的責任?當真人駕駛員存在時,責任的主體是明確的,隨著真人駕駛員從場景中消失,進一步的難題還有:如何確認責任主體?對此,一些討論把倫理與法律責任的承擔者引向了算法(algorithm),認為算法與電車駕駛員一樣,是駕駛行動的主體。[4]
無論是電車難題中的倫理責任主體,還是自動駕駛中的倫理與法律責任主體,駕駛,毫無疑問是社會行動,在本質(zhì)上還是社會行動者之間的社會互動。在后面的討論中,我們試圖用思想實驗證明,在自動駕駛場景中,算法就是算法,算法只是提高效率的工具。在倫理與法律責任的遞歸中,對社會行動主體的確認是基礎(chǔ),且宜從社會行動者互動邏輯出發(fā)探索其倫理與法律責任主體,而不宜讓沒有社會行動主體性的算法成為替罪羊。這是因為,在算法背后依然存在社會行動主體。本文關(guān)注自動駕駛技術(shù)應(yīng)用的現(xiàn)實難題,將從自動駕駛技術(shù)應(yīng)用演化三階段的社會行動者變化入手,探討自動駕駛中的社會行動、社會行動者,最后探討藏身于算法背后的社會行動者,以回應(yīng)電車難題的衍生難題。
自動駕駛發(fā)展三階段的啟發(fā)
為討論的方便和簡潔,我們先基于現(xiàn)實來約定討論針對的場景。在自動駕駛領(lǐng)域,第一個現(xiàn)實是自動駕駛的概念圖景。[5]在世界范圍內(nèi),在自動駕駛技術(shù)創(chuàng)新與應(yīng)用領(lǐng)域走在前列的大多數(shù)國家包括中國,采用的多是美國汽車工程師協(xié)會(SAE)和美國高速公路安全管理局(NHTSA)的分類標準。[6]在這個標準里,自動駕駛依照智能化水平被分為6個等級:L0,真人駕駛員完全操控汽車;L1,真人駕駛員操控汽車為主導(dǎo),自動駕駛系統(tǒng)偶爾幫助人工駕駛;L2,自動駕駛系統(tǒng)可進行部分駕駛操作,真人駕駛員應(yīng)關(guān)注駕駛環(huán)境并主導(dǎo)駕駛操作;L3,自動駕駛系統(tǒng)可自行觀察駕駛環(huán)境并完成駕駛,真人駕駛員應(yīng)隨時準備在緊急情況下接管汽車;L4,在特定環(huán)境下自動駕駛系統(tǒng)完全操控汽車;L5,自動駕駛系統(tǒng)完全操控汽車。
第二個現(xiàn)實是自動駕駛技術(shù)應(yīng)用的實踐圖景。在自動駕駛技術(shù)應(yīng)用的實踐領(lǐng)域,說起來非常熱鬧,實際上只有兩股力量。第一是傳統(tǒng)汽車的駕駛自動化,即汽車制造傳統(tǒng)強國對自動駕駛技術(shù)的創(chuàng)新與應(yīng)用。第二是將互聯(lián)網(wǎng)技術(shù)應(yīng)用到汽車駕駛中,即把人工智能的學習、感知、控制技術(shù)運用到對自動駕駛技術(shù)的創(chuàng)新與應(yīng)用。在產(chǎn)業(yè)推動上,大致可以分為兩派:互聯(lián)網(wǎng)派和汽車派。汽車派如通用、奧迪、寶馬、豐田等傳統(tǒng)汽車制造商,他們的方式是從L1、L2按順序來做。從互聯(lián)網(wǎng)直接進入自動駕駛領(lǐng)域的互聯(lián)網(wǎng)派,大多數(shù)是直接從L4切入,把自動駕駛技術(shù)嫁接到汽車上。
美國兼有第一股和第二股力量,也是自動駕駛技術(shù)創(chuàng)新與實踐發(fā)展的領(lǐng)頭羊。在美國,特斯拉已于2020年10月向少量車主發(fā)布了全自動駕駛功能(Full Self-Driving,F(xiàn)SD,即L5)測試版本。埃隆·馬斯克(Elon Musk)表示,F(xiàn)SD已經(jīng)基本做好向大眾開放的準備。[7]字母表(Alphabet)的微末(Waymo)2019年在鳳凰城商業(yè)化運營一年已載客超過10萬人。近期,微末還宣布,到2020年底測試里程數(shù)將達到650萬英里,相當于一位持證真人駕駛員500年的駕駛里程。[8]
中國是美國之外互聯(lián)網(wǎng)派的代表。在中國,中央政府出臺了一系列政策推動自動駕駛技術(shù)的實景應(yīng)用。[9]2020年4月,百度在長沙全面開放阿波羅自動駕駛出租車服務(wù)(Apollo Robotaxi);[10]2020年6月,滴滴也宣布,面向公眾開放自動駕駛服務(wù)。[11]
兩個現(xiàn)實交互產(chǎn)生的一個直接問題便是:L5自動駕駛的駕駛主體是誰?為方便討論,社會學上通常把對其他社會主體產(chǎn)生影響的行動稱之為社會行動(social action),把具體社會行動主體從場景中抽離出來,將其歸納為一個抽象概念,社會行動者(social actor),簡稱“行動者”(actor),把行動者之間的社會行動稱為社會互動(social interaction)。自動駕駛顯然會對其他社會主體產(chǎn)生影響,是典型的社會行動。問題是,在L5場景,駕駛行動的行動者是誰?在任何社會場景,知道自己面對的對象是社會行動得以成立的前提條件。假如某人是自動駕駛的用戶(user),如乘客,那么,用戶在與誰進行社會互動?
自動駕駛從L0-L5的發(fā)展是從有真人駕駛員到無真人駕駛員的過程,通常認為,從人到機器的切換發(fā)生在L3-L4。在這個演化中,從社會行動者的主體性出發(fā),我們可以把自動駕駛發(fā)展中社會行動的演化劃分為三個階段:L0-L2,真人駕駛員掌控;L3-L4真人駕駛員與機器共同掌控;L5,機器掌控。在這三個階段中,社會行動者發(fā)生了轉(zhuǎn)換,從人類的社會行動者切換成了機器。
經(jīng)典社會學認為,互動是社會主體間的交互,是社會行動的典型形式。駕駛員與用戶,無論用戶是乘客還是自動駕駛客戶,只要是人或人的集合體,都會在社會環(huán)境經(jīng)歷社會化過程,都被認為具有社會行動者屬性,即社會行動主體性。可是,當人或人的集合體的互動對象演變?yōu)闄C器時,一個具有挑戰(zhàn)性的問題便產(chǎn)生了:機器具有社會行動者屬性嗎?如果具有,當然可以接替人類社會行動者,成為倫理與法律責任的主體。如果不具有,機器何以承擔人類的倫理與法律責任呢?我們認為,對自動駕駛倫理與法律責任主體的追問需要進一步追索機器的社會主體性,即機器行動是否可以被理解為社會行動?只有弄清了自動駕駛的社會行動主體,才能進一步厘清倫理和法律責任主體。
社會行動與自動駕駛中的行動者
對非社會學領(lǐng)域的讀者而言,社會行動不是一個容易理解的概念。即使在社會學學科領(lǐng)域,對社會行動的分析與探討也沒有在細節(jié)上達成一致。為討論的簡潔,我們需要對社會行動的理論脈絡(luò)進行最簡化梳理,以便與讀者建立暫時的討論場景共識。
社會行動是社會學家在對工業(yè)社會進行理論探索中提出的概念,也是社會學的核心概念。最初提出并讓這個概念獲得共識的是德國社會學家韋伯(Max Weber)。韋伯認為,社會是由人的行動構(gòu)成的,沒有人的行動便只會見到一個一個的人。人的行動對其他人造成影響,進一步,引發(fā)他人反應(yīng),也產(chǎn)生行動,形成了萬花筒般的社會。對他人具有社會意義的行動,被韋伯稱之為社會行動。
在韋伯看來,可以把形形色色的社會行動劃分為三個理想類型。第一類,理性行動,其中,又可以被區(qū)分為工具理性行動和價值理性行動。前者又被稱之為目的理性行動,指為實現(xiàn)具體目標,采用精確計算方式實施的行動,在社會科學的其他學科中又被簡稱為理性行動(rational action)。后者,指基于價值觀產(chǎn)生理性選擇的行動,如信念行動、宗教行動。第二類,情感行動,指受情感如感覺、激情、期待等驅(qū)使的行動。第三類,傳統(tǒng)行動,指受內(nèi)化規(guī)則如文化、習俗、教養(yǎng)、小群體規(guī)范等驅(qū)使的行動。在韋伯看來,從農(nóng)業(yè)社會到工業(yè)社會的發(fā)展,是社會從傳統(tǒng)行動、情感行動等非理性行動向價值理性行動和工具理性行動過渡的過程,理性行動的普及構(gòu)成了現(xiàn)代社會的基本特征,即社會的理性化。[12]
理性化的本質(zhì)在于行動者賦予行動以社會意義,以表達行動者的主觀意志。正是主觀意志的存在支撐了行動者的社會主體性??蓛H有主觀意志并不會對其他行動者產(chǎn)生影響,只有行動發(fā)生才會在表達行動者主觀意志的同時對其他社會行動者產(chǎn)生影響,使主觀意志產(chǎn)生社會后果。可是,在社會行動中,行動的發(fā)生并非是自然的、均等的。行動的發(fā)生受行動者主觀意志的支配,也受行動者行動能力的約束。在這個邏輯中,行動能力內(nèi)涵被英國社會學家吉登斯(Anthony Giddens)承接,建構(gòu)了能動的社會行動者(agent)概念,賦予了社會行動新的意義。吉登斯的另一項貢獻是從社會行動者的能動性出發(fā),認為社會行動不是行動者的單向行動,而是基于其他社會行動者反應(yīng)的行動。在能動的社會互動中,社會行動者不是機器,而是能動的,會對其他社會行動者的反應(yīng)進行預(yù)設(shè),進而反觀自己的行動,即反思性。吉登斯進一步認為,社會行動者不僅具有能動性,還具有反思性(reflexibility)。[13]
對社會行動的能動性和反思性拓展,深化了理性行動的內(nèi)涵。我們認為,能動性和反思性才是對社會行動的真實刻畫,也才是社會行動者在實施社會行動時主體性的本質(zhì)特征。當我們把社會學對社會行動的認識運用到自動駕駛?cè)A段場景中時,會有怎樣的發(fā)現(xiàn)呢?
在有真人駕駛員掌控的場景,類似于當下常見的交通場景,適用于對社會行動的一般理解,真人駕駛員對駕駛行動負有完全的倫理和法律責任。在真人駕駛員和機器共同掌控的場景,真人駕駛員的在場會讓我們習慣性地認為真人駕駛員應(yīng)該對駕駛行動負有完全的倫理和法律責任。支配這一習慣的假設(shè)是常見的大眾認知:“機器,又不是人。”在社會學家的思維里,大眾認知是社會規(guī)則邏輯的產(chǎn)物,是社會行動獲得社會合法性的基石,它滿足社會學家對社會行動的一般分析。第一,機器具備對場景的“刺激—反應(yīng)”性,卻不具備主觀能動性,機器沒有自己的主觀意志,更不可能將主觀意志付諸于社會行動。第二,機器具備對后果的預(yù)見性,卻不具備反思性,機器也沒有對后果的后果的反思性。
在機器完全掌控的場景,真人駕駛員的缺場,意味著駕駛行動作為社會行動的主體缺場,也意味著社會互動的一方缺場。在經(jīng)典社會學看來,只要有社會互動,就一定存在至少兩方行動者,沒有主體對象的社會行動是不存在的??涩F(xiàn)實場景是,自動駕駛的第三階段的確出現(xiàn)了沒有真人(human)的社會行動主體,只有一方行動者且社會互動依然發(fā)生的情形?;隈{駛行動和社會互動存在的現(xiàn)實,一些人把機器當成了社會行動的主體和社會互動的另一方,也因此導(dǎo)致了學術(shù)界的廣泛爭論,甚至直接影響到自動駕駛的國家規(guī)則制定。
自動駕駛規(guī)制中行動主體設(shè)定的分歧
既然自動駕駛帶來的電車難題是從實踐開始的,那么,我們就從實踐應(yīng)對開始,探討既有實踐策略對行動主體的認知。在應(yīng)對性實踐策略中,法律是最重要的領(lǐng)域,下面我們以主要國家在自動駕駛領(lǐng)域的法律實踐為例來探討規(guī)制中對倫理和法律責任主體的處理。
依據(jù)時間線,在自動駕駛領(lǐng)域,美國是最早出現(xiàn)相關(guān)規(guī)制的國家。到目前為止,美國已有20多個州相繼出臺了50余部與自動駕駛相關(guān)的法案。早在2011年,內(nèi)華達州(Nevada)便通過了自動駕駛汽車合法化的法律,頒布了一系列相關(guān)管理法規(guī),包括自動駕駛汽車概念的確定以及上路測試的流程。此后,加利福尼亞州(California)于2014年、密歇根州(Michigan)于2016年也都通過了相關(guān)法律,允許在州內(nèi)的任何路段開展車輛共享等商業(yè)運營服務(wù),允許將自動駕駛車輛出售給消費者。2016年,美國高速公路安全管理局(NHTSA)推出了《聯(lián)邦自動駕駛汽車政策指南(AV1.0)》,時隔一年,2017年又發(fā)布了《聯(lián)邦自動駕駛系統(tǒng)指南:安全展望(AV2.0)》。2017年,美國眾議院一致通過《自動駕駛法案》(Safely Ensuring Lives Future Deployment and Research In Vehicle Evolution Act,簡稱Self Drive Act)。2018年,NHTSA發(fā)布了《為交通運輸?shù)奈磥碜鰷蕚洌鹤詣玉{駛車輛(AV3.0)》,2020年又頒布了《確保美國自動駕駛領(lǐng)先地位:自動駕駛汽車(AV4.0)》。
美國最初的有關(guān)法律規(guī)制是在既有法律框架內(nèi)延展的,保留了真人駕駛員的角色地位,即倫理和法律責任遞歸的社會行動主體。內(nèi)華達州最初的法律要求是,在測試時至少有兩人在車內(nèi),且至少有一人持有駕照。在這里,持照駕駛員是自動駕駛活動重要的、有機的組成部分??墒牵贏V1.0版中,真人駕駛員的行動卻被轉(zhuǎn)化為了算法行動。盡管聯(lián)邦政府在法律中特別要求在安全性、流動性和合法性目標產(chǎn)生沖突時,解決沖突的算法對聯(lián)邦和州的監(jiān)管機構(gòu)、駕駛員、乘客和脆弱的道路用戶應(yīng)該是公開的。問題是,算法公開是否可以替代真人駕駛員?算法行動是否具有真人駕駛員的能動性和反思性?即使算法具有社會行動者的能動性和反思性,依然還有一個問題,那就是,算法尚不具有社會的主體性,又如何承擔倫理和法律責任呢?遺憾的是,這個問題,直到AV4.0也沒有獲得回應(yīng)。
作為發(fā)達經(jīng)濟體最集中的區(qū)域,以及傳統(tǒng)汽車技術(shù)最發(fā)達的地區(qū),歐洲是自動駕駛技術(shù)的重要陣地。歐洲議會于2017年通過了《就機器人民事法律規(guī)則向歐盟委員會的立法建議[2015/2103(INL)]》。該《建議》認為,具備深度學習能力與自主性的機器人能夠從經(jīng)驗中學習并作出“準獨立”的決策,使其越來越接近于能夠與環(huán)境發(fā)生交互并且作出重大改變的智能體(agents),從而考慮賦予智能機器人以“電子人格”(electronic person)的法律地位和責任主體地位。[14]
雖然歐洲議會賦予了人工智能體電子人格,德國聯(lián)邦參議院于2017年頒布的《道路交通法》(第八修訂案)還是側(cè)重對L3自動駕駛系統(tǒng)進行規(guī)制,明確了使用自動駕駛系統(tǒng)時真人駕駛員的權(quán)利以及需要履行的義務(wù),提高了自動駕駛導(dǎo)致交通事故中責任人的最高賠償金額。此外,德國交通運輸與數(shù)字基礎(chǔ)建設(shè)部道德委員會還公布了針對自動駕駛的道德準則,在價值追求基礎(chǔ)上,前瞻性地對L4和L5自動駕駛車輛存在的技術(shù)決策風險提出警醒。[15]尤其是,德國的規(guī)制允許真人駕駛員有權(quán)在完全自動駕駛期間不親自進行駕駛操作,卻要求真人駕駛員承擔警覺義務(wù)和接管義務(wù)。對這些制度設(shè)計,我們可以理解為,自動駕駛試圖避免的是傳統(tǒng)駕駛場景里真人駕駛員的決策和操作失誤,而不是承擔真人駕駛員的倫理和法律責任,真人駕駛員依然是駕駛行動的社會行動主體。
在亞洲,日本是傳統(tǒng)汽車技術(shù)大國,日本內(nèi)閣府也在制度層面為自動駕駛技術(shù)的測試與試用打開了方便之門。以道路交通法為依據(jù),日本警察廳于2016年頒布了《自動駕駛汽車道路測試指南》,明確駕駛?cè)藨?yīng)當坐在駕駛位上,測試車輛和駕駛?cè)司鶓?yīng)符合并遵守現(xiàn)行法律法規(guī)。2017年發(fā)布的《遠程自動駕駛系統(tǒng)道路測試許可處理基準》則允許汽車在駕駛位無人狀態(tài)下進行上路測試,且將遠程監(jiān)控員定位為遠程存在、承擔現(xiàn)行道路交通法規(guī)上規(guī)定義務(wù)和責任的駕駛?cè)?。[16]對這些制度設(shè)計,同樣,我們可以理解為,至少在當下,日本的國家規(guī)制沒有將真人駕駛員從自動駕駛場景中抹去,真人駕駛員或控制員還是自動駕駛社會行動的主體,是真人駕駛員倫理和法律責任的承擔者。
中國是自動駕駛技術(shù)應(yīng)用的重要推動者之一。北京市于2017年制訂了《北京市關(guān)于加快推進自動駕駛車輛道路測試有關(guān)工作的指導(dǎo)意見(試行)》及《北京市自動駕駛車輛道路測試管理實施細則(試行)》。上海市也于2018年發(fā)布了《上海市智能網(wǎng)聯(lián)汽車道路測試管理辦法(試行)》,并頒發(fā)中國首批智能網(wǎng)聯(lián)汽車開放道路測試號牌,劃定了5.6公里高安全性城市道路作為第一階段智能網(wǎng)聯(lián)汽車開放測試道路。隨后,重慶市、杭州市、深圳市、長沙市等城市也紛紛準備加入自動駕駛開放道路測試的行列中。不過,在中國的規(guī)制中,尚沒有涉及L5自動駕駛的倫理和法律責任主體問題。
由上可知,針對自動駕駛的社會行動主體,世界上大致在規(guī)制層面形成了兩種基本立場。第一種是以美國為代表的算法主體,第二種是以德國為代表的真人主體。盡管各國的自動駕駛技術(shù)與產(chǎn)品依然處于大規(guī)模商用前的測試階段,對駕駛作為一種社會行動的主體認定貌似已然在規(guī)制層面形成了差異,甚至潛在著可能性沖突。因此,厘清自動駕駛中的社會行動者,是落實電車難題倫理與法律責任主體、掃除L5自動駕駛共識障礙的必要前提。
自動駕駛中的社會行動者回歸
德國和日本對真人駕駛員的主體性約定是用傳統(tǒng)方法解決自動駕駛帶來的新場景難題。這樣的約定,適用于L0-L4場景,卻不適用L5場景。因為在L5場景下,車內(nèi)根本沒有真人駕駛員,甚至也沒有日本規(guī)則設(shè)定的遠程控制場景和遠程控制人員。
美國對算法的主體性約定的確是在用新方法解決自動駕駛帶出的新場景難題,也適用于L0-L5所有場景。除了美國,其他國家如英國,也有類似的實踐,規(guī)制希望用算法公開性來解決社會行動者缺場難題。英國下議院科學和技術(shù)委員會2016年發(fā)布的《機器人與人工智能》報告,特別強調(diào)了決策系統(tǒng)透明化對人工智能安全和管控的作用。[17]世界科學知識與技術(shù)倫理委員會發(fā)布的機器人倫理初步草案報告則提出,應(yīng)當在機器人及機器人技術(shù)的倫理與法律監(jiān)管中確立可追溯性,保證機器人的行為及決策處于全程監(jiān)管之下。[18]這些實踐與規(guī)制與美國的監(jiān)管邏輯一致,認為算法公開可以解決社會行動者缺場難題。
我們認為,對算法公開性的強調(diào)隱含著一個不可能存在的假設(shè):人們對算法的理解具有同一性,監(jiān)管機構(gòu)不僅能理解自動駕駛的決策過程,還能判定算法運行的責任歸屬。事實上,人們對算法的理解并不存在同一性。算法是數(shù)字科學的前沿,是處于探索中的技術(shù)前沿,不僅科學家和工程技術(shù)人員對算法的開發(fā)與應(yīng)用存在多種路徑,一般場景中人們對算法的理解也存在巨大的差異性。除非是前沿的專業(yè)人員,普通用戶根本不知道算法為何物。最重要的是,算法并非傳統(tǒng)的物質(zhì)性產(chǎn)品,而是不斷變化和迭代的數(shù)字產(chǎn)品。面對變化的、不確定的算法,要達成理解和判定目標,既需要監(jiān)管機構(gòu)與技術(shù)開發(fā)機構(gòu)具有同等且并行的技術(shù)能力,還需要耗費巨大的監(jiān)管成本。在實踐中,這根本不可能落地。
面對算法的行動者替代,還有人認為,監(jiān)管算法的規(guī)制并未擺脫為人類行為設(shè)定規(guī)范的窠臼,不過是將原先為真人駕駛員設(shè)置的行為規(guī)范轉(zhuǎn)變?yōu)榱藢ψ詣玉{駛設(shè)計者和生產(chǎn)者設(shè)定的行為規(guī)范;主張代碼而非算法才是自動駕駛汽車決策程序的原子形態(tài),才是人機共生場景下既規(guī)制“人”、又規(guī)制“機”的公因式;倡導(dǎo)立法者與代碼作者的合作,主動進行法律編碼化的研究和實踐,構(gòu)建以代碼為基礎(chǔ)的論證和決策的計算模型,以代碼化的行為標準主動保障算法正義。[19]聽起來,這是一段美妙的陳述,但在邏輯上卻可能是想象的烏托邦,對代碼正義的想象不過是對算法公開性想象的另一個版本而已。這是因為,代碼并不是文字,法律代碼化的基礎(chǔ)是法律,而不是代碼。法律規(guī)范的是社會行動者的行動,一旦社會行動者缺場,正義便失去了基礎(chǔ)。何況,將法律代碼化和將代碼化的法律植入自動駕駛技術(shù)之中依然需要通過算法來實現(xiàn),進而同樣要面對立法機構(gòu)和技術(shù)開發(fā)機構(gòu)的技術(shù)能力對稱性和技術(shù)迭代不確定性問題。
這意味著,從社會行動出發(fā),算法公開或法律代碼化都不可能讓算法或代碼承接真人駕駛員的主體性。為此,我們需要拓展一個新的思路,既適用于自動駕駛的所有場景,又能承接真人駕駛員的社會行動者角色,進而確認L5場景的社會行動者。在社會互動意義上,我們認為,只有確認無人駕駛場景的社會行動者,駕駛行動作為一種社會行動才成立,社會互動才能復(fù)盤,電車難題的倫理和法律責任主體才會歸位。
一個簡單且直接的策略是從社會后果出發(fā),在L5場景下,讓自動駕駛車輛的生產(chǎn)商承擔真人駕駛員社會行動者角色。理由既簡單也充分。第一,作為真人與機器互動的直接界面,組織行動者是社會行動者,承載著個體行動者的人類倫理,法律也賦予了其承擔責任的權(quán)利。第二,作為自動駕駛技術(shù)的應(yīng)用者和產(chǎn)品化的實踐者,生產(chǎn)商處于算法與代碼創(chuàng)新與生產(chǎn)的技術(shù)前沿,對技術(shù)不確定性的倫理和法律風險理應(yīng)具有充分的研判能力,也是L5場景下倫理和法律風險的始作俑者。第三,也是最重要的,組織行動者是人類個體聚合的社會行動者,具有超越個體能力的能動性和反思性,事實上,人類的軍事史和工業(yè)史表明,組織行動者的創(chuàng)新性遠遠高于個體行動者,充分展現(xiàn)著行動者的能動性;與此同時,組織行動者對格局、對環(huán)境、對互動對象的判斷能力也遠遠高于個體行動者,[20]也充分展示著行動者的反思性。
現(xiàn)代生產(chǎn)技術(shù)供應(yīng)鏈變革告訴我們,自動駕駛車輛生產(chǎn)商不可能創(chuàng)造或擁有L5車輛的所有技術(shù),大部分技術(shù)會通過技術(shù)供應(yīng)鏈系統(tǒng)從大量供應(yīng)商那里獲得,如此,生產(chǎn)商又如何卸載不應(yīng)該由自己承擔的倫理和法律責任呢?我們認為,社會行動主體性邏輯同樣適用于生產(chǎn)商與供應(yīng)商之間的關(guān)系處理。其中的關(guān)鍵是,關(guān)系的雙方都具有社會行動者屬性。依此邏輯,便可以溯源到最后一位社會行動者,形成在L5場景下的社會行動者關(guān)系鏈。若如此,L5場景下,自動駕駛車輛也一定會學會如何判斷交通優(yōu)先權(quán),以解決“四向停車難題”(Four Way Stop),包括經(jīng)典的電車難題。這是因為,經(jīng)典電車難題根本不是技術(shù)難題,而是人類社會倫理共識難題。對這類難題的破解無法依靠技術(shù)進步來解決,而需要回到人類社會本身。因此,讓社會行動者在L5場景下回歸才是解決電車難題衍生難題的基本前提。
結(jié)論
在社會發(fā)展的進程中,人類始終追尋著用技術(shù)解決社會難題的思路。電車難題便是其中一例。在自動駕駛技術(shù)進入社會應(yīng)用時,又出現(xiàn)了新難題:真人駕駛員從駕駛場景消失帶來的倫理和法律責任主體缺場難題。
對此,美國、歐洲、日本、中國都在形成相關(guān)的規(guī)制,大致呈現(xiàn)出兩種基本傾向。第一,在L5尚未普及的環(huán)境下保留真人駕駛員的存在。第二,假設(shè)L5場景普及,則倡導(dǎo)算法公開。在學術(shù)探討中,有人主張將算法前推一步,建構(gòu)人機共有的代碼,實現(xiàn)法律代碼化。
從社會行動者理論出發(fā),L5場景下的社會行動不只是法律難題,更大的是倫理難題。且不說算法公開或法律代碼化的可實現(xiàn)性和可應(yīng)用性,即使可實現(xiàn)、可應(yīng)用,也解決不了真人駕駛員面對的倫理問題。
算法公開和法律代碼化之所以解決不了電車難題和電車難題衍生難題的倫理和法律責任歸屬,在本質(zhì)上是因為算法和代碼都不具有社會行動者的能動性和反思性。溯及人類倫理的難題,在社會學家那里,不存在技術(shù)性解決方案,而只能由社會自己來解決,那就是在社會行動者之間建立共識。正是在這個邏輯下,澄清自動駕駛中的社會行動主體不僅重要,而且必要。讓社會行動者回歸L5場景的自動駕駛才是難題的解決之道。
(本文系國家社會科學基金重大項目“新技術(shù)應(yīng)用背景下數(shù)字社會特征研究”子課題“數(shù)字社會的國家治理研究”成果的一部分,項目編號:19ZDA143)
注釋
[1]檢索中國知網(wǎng)和科學之網(wǎng)(web of science),涉及自動駕駛社會科學探討的主題絕大多數(shù)都是倫理和法律維度的內(nèi)容。
[2]Philippa Foot, "The Problem of Abortion and the Doctrine of the Double Effect", Virtues and Vices, Oxford: Basil Blackwell, 1978, originally appeared in the Oxford Review, Number 5, 1967.
[3][日]平野晉:《AI網(wǎng)絡(luò)時代的制造物責任法》,[日]福田雅樹等編著:《AI聯(lián)結(jié)的社會:人工智能網(wǎng)絡(luò)化時代的倫理與法律》,宋愛譯,北京:社會科學文獻出版社,2020年,第255~272頁。
[4]王珀:《自動駕駛與算法倫理:一種后果主義的算法設(shè)計倫理框架》,《自然辯證法研究》,2018年第10期;劉培、池忠軍:《算法歧視的倫理反思》,《自然辯證法通訊》,2019年第10期;孫保學:《人工智能算法倫理及其風險》,《哲學動態(tài)》,2019年第10期;鄭智航:《人工智能算法的倫理危機與法律規(guī)制》,《法律科學》(西北政法大學學報),2021年第1期。
[5]沒有駕駛員的自動駕駛尚沒有進入普及階段,我們的討論針對當下的現(xiàn)實,也針對即將到來的現(xiàn)實。
[6]涉及美國高速公路安全管理局的文獻,請訪問:https://www.nhtsa.gov/。
[7]涉及特斯拉FSD的數(shù)據(jù),請訪問:https://www.tesla.com/。
[8]涉及微末的數(shù)據(jù),請訪問:https://waymo.com/。
[9]國家發(fā)展與改革委員會在2018年發(fā)布的《智能汽車創(chuàng)新發(fā)展戰(zhàn)略(征求意見稿)》中將智能汽車定義為:“通過搭載先進傳感器、控制器、執(zhí)行器等裝置,運用信息互通、互聯(lián)網(wǎng)、大數(shù)據(jù)、云計算、人工智能等新技術(shù),具有部分或完全自動駕駛功能,由單純交通運輸工具逐步向智能移動空間轉(zhuǎn)變的新一代汽車。”2020年2月,國家11部委聯(lián)合印發(fā)《智能汽車創(chuàng)新發(fā)展戰(zhàn)略》,推進智能化道路基礎(chǔ)設(shè)施及關(guān)聯(lián)基礎(chǔ)設(shè)施建設(shè)。2020年10月9日,國務(wù)院常務(wù)會議通過《新能源汽車產(chǎn)業(yè)發(fā)展規(guī)劃》,指出要協(xié)調(diào)推動智能路網(wǎng)設(shè)施建設(shè),滿足高級別自動駕駛智能網(wǎng)聯(lián)汽車應(yīng)用。2020年10月26~29日召開的黨的十九屆五中全會提出了交通強國戰(zhàn)略。
[10]《百度宣布全面開放Apollo Robotaxi自動駕駛出租車服務(wù)》,環(huán)球網(wǎng),2020年4月20日,https://baijiahao.baidu.com/s?id=1664470974889322406&wfr=spider&for=pc。
[11]《滴滴首次面向公眾開放自動駕駛服務(wù),程維:司機不會因此消失》,澎拜新聞,2020年6月27日,https://baijiahao.baidu.com/s?id=1670624437405361076&wfr=spider&for=pc。
[12][德]馬克斯·韋伯:《韋伯作品集VII:社會學的基本概念》,顧忠華譯,桂林:廣西師范大學出版社,2005年。
[13][英]安東尼·吉登斯:《社會的構(gòu)成》,李康、李猛譯,北京:生活·讀書·新知三聯(lián)書店,1998年;[英]安東尼·吉登斯:《現(xiàn)代性的后果》,田禾、黃平譯,南京:譯林出版社,2000年。
[14]See with Recommendations to the Commission on Civil Law Rules on Robotics, https://www.europarl.europa.eu/doceo/document/A-8-2017-0005_EN.html.
[15]張韜略、蔣瑤瑤:《德國智能汽車立法及〈道路交通法〉修訂之評介》,《德國研究》,2017年第3期。
[16]王羽、宋瑞、楊晨光、鄭碧琪:《國內(nèi)外智能汽車法律法規(guī)現(xiàn)狀分析及發(fā)展建議》,《汽車工業(yè)研究》,2018年第7期。
[17]涉及英國機器人與人工智能前沿的請訪問:https://www.ukras.org/。
[18]See United Nations Educations, Scientific and Cultural Organization (UNESCO) and World Commission On the Ethics of Scientific Knowledge and Technology (COMEST): Preliminary draft reports on COMEST on roboticsethics, 2015, http://unesdoc.unesco.org/images/0024/002455/245532E.pdf.
[19]崔俊杰:《自動駕駛汽車準入制度:正當性、要求及策略》,《行政法學研究》,2019年第2期。
[20][美]阿萊克斯·彭特蘭:《智慧社會:大數(shù)據(jù)與社會物理學》,汪小帆、汪容譯,杭州:浙江人民出版社,2015年。
責 編/張 曉
Analysis of Social Actors in Auto-Driving
Qiu Zeqi
Abstract: The extension of problems with the electric vehicles to the L5 scene of auto-driving technologies will bring a new problem: the absence of ethical and legal responsibility takers. In this regard, the advanced countries in innovation and application of auto-driving technologies have found two regulation paths: the real driver path and the algorithmic driver path. The former solves the problem of missing driver, but it is not suitable for L5 scenes. The latter is suitable for L5 scenes, but it does not solve the problem of missing driver. The absence of driver in the L5 scene is essentially the absence of social actors. Confirming the nature of social action in the L5 scene helps us to find the absent social actors from the logic of social interaction. The research shows that the missing driver in L5 scenes is actually a relationship chain of social actors, and the manufacturer of auto-driving vehicles is at the front end.
Keywords: auto-driving, social action, electric car problems