人妻少妇中文在线视频,丁香五月婷婷激情网,日本韩国黄色成人网站,亚洲综合99伊人四虎

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 理論前沿 > 前沿理論 > 正文

人工智能成為法律主體不存在理論障礙

【學術(shù)爭鳴】 

人工智能,從技術(shù)層面而言,特指使計算機程序呈現(xiàn)出人類智能的技術(shù);從客觀存在層面而言,泛指能夠表現(xiàn)出人類智能的機器設備。一般認為,智能機器人是人工智能的最高級形式,但并不限于人形機器人,電影《流浪地球》中的MOSS、2023年引發(fā)全球關(guān)注的ChatGPT也屬于典型的智能機器人。伴隨大數(shù)據(jù)技術(shù)發(fā)展,以深度學習和機器學習為基礎(chǔ)的傳統(tǒng)人工智能技術(shù)已經(jīng)得到飛速發(fā)展。在此背景下,學術(shù)界就人工智能是否可以成為法律主體的問題展開激烈爭論。對此,筆者持肯定觀點:不論從哲學、倫理學抑或法學層面來看,人工智能成為法律主體均不存在理論障礙。

哲學的視角

其一,人工智能成為法律主體與馬克思主義哲學對“人”本質(zhì)的界定并不矛盾。誠然,馬克思主義哲學將人的社會屬性界定為社會實踐活動,而人的主體地位表現(xiàn)為人的社會屬性,但這并不意味著不屬于社會關(guān)系總和的人工智能就不能成為法律主體。因為馬克思主義哲學對人的社會屬性的界定,是針對自然人而言的,人工智能所能享有的法律人格與自然人并不完全等同——以自然人的社會屬性來論證人工智能不能享有法律人格,缺乏說服力。而且,人工智能的程序運算,本身也可視為人類活動的延續(xù)與意思表示,認為其不具有人的價值性和實踐性的論斷,值得商榷。

其二,人工智能成為法律主體與哲學領(lǐng)域?qū)θ酥黧w性要素的認識也不矛盾。人是情感、理性及多種元素的復合體,人的主體性要素在哲學中被定義為基于需要和自我意識形成的價值觀念,而人工智能只能模擬人的某些特定的功能,無法模擬真正的人,兩者存在本質(zhì)差別。盡管如此,也不能以人工智能不具備自我意識為由,認定其不能成為法律主體,因為將人工智能的法律人格與自然人等同,并以此否定人工智能成為法律主體的合理性,這一論證邏輯本身就是錯誤的。從目前學術(shù)界的爭論來看,肯定論者并未主張要將人工智能完全等同于人類,即使是理論假設中未來可能出現(xiàn)的具有自我意識的強人工智能,也無法與人類等同。特別值得注意的是,哲學層面對人主體性要素的認識,實際上只限于正常人類,對處于發(fā)病狀態(tài)的精神病患者、植物人等無民事行為能力人,要認定其具有心理意識和自我意識、具有法律規(guī)范遵從能力的意志性恐難成立,但這并不影響無民事行為能力人的法律人格。

倫理學的視角

其一,人工智能成為法律主體并不違反倫理道德。誠然,以人為本是最高的倫理原則,但賦予人工智能以法律人格并非不道德,因為賦予人工智能以法律人格并不會影響人的主體地位,不是要將人作為客體對待,所以不存在所謂的倫理困境?;蛘哒f,人工智能成為法律主體這一立場,并不存在混淆主體與客體的錯誤,根本就不會動搖“人是主體”這一定論。而且,法律上的“人”所擁有的主體資格本質(zhì)上是一種社會人格,彰顯的是法律對作為“人”的特定群體所擁有力量和地位的尊重。即使人工智能的這種社會人格是以算法程序、代碼規(guī)則實現(xiàn)的智能,也可以得到法律的肯定——法律上的“人”本身并非均要求具備生理性特征,其本身與現(xiàn)實社會中的“人”就是兩個不同的概念,現(xiàn)代各國民事立法對于法人人格的承認足以證明民事主體理論已經(jīng)突破倫理人的范疇。

其二,人工智能成為法律主體也不會貶低人的主體地位。如前所述,賦予人工智能以法律人格,這一立場的根源就是為了更好地服務人類,且并不意味著要將具有人類智能的機器等同于“自然人”,所以不會導致人的主體地位受到貶低。賦予人工智能以特定的法律人格本身就是基于功利主義的考量,是出于人類利益的最大化追求,既不是要將人工智能上升為哲學層面的“人”,也不要求人工智能的智能程度和產(chǎn)品外形等同于自然人,而是源于前述被社會現(xiàn)實所需要的社會人格,這從某種程度上恰恰能凸顯人的主體地位。而且,未來立法在價值權(quán)衡的基礎(chǔ)上,完全可以在肯定人工智能享有法律人格的同時,肯定人類就人工智能本身仍能享有所有權(quán),從而將其作為客體對待。

法學的視角

其一,人工智能成為法律主體與法律人格理論并不矛盾。法律人格理論發(fā)展至今,始終貫徹人類中心主義思維,由此,自然人的內(nèi)涵、外延均無法涵蓋人工智能,法人亦與其背后的自然人密切相關(guān);而且,具有人類智能的機器確實也只是人類活動的結(jié)果,其不具有與自然人類似的內(nèi)在感知、觀察、判斷、選擇等一系列復雜行為所構(gòu)成的意思能力,也不具有責任主體必備的道德良知、倫理、規(guī)矩和習慣,更不具有生命權(quán)能。與此同時,由于“技術(shù)黑箱”的存在,人類確實尚無法解釋相應編碼與決策結(jié)果之間的因果關(guān)系。但上述結(jié)論并不意味著賦予人工智能法律人格有違法理,也不意味著混淆了自動化科學中的工具自動化決策與人類主體性之間的區(qū)別、混淆了人之主體能力本質(zhì)與為人所創(chuàng)造工具的工作能力表象之間的區(qū)別。因為人工智能的自動化決策,是人類所“投喂”大數(shù)據(jù)與計算機程序共同合力形成的結(jié)果,兩者均是人類智性的延續(xù)與“放任”,相應結(jié)果可被解釋為“投喂者”與程序設計者的概括性意思表示。因為所“投喂”的大數(shù)據(jù)中蘊含的價值理念本身就是自然人特有的智性、心性、靈性的外在體現(xiàn),而人類創(chuàng)設的程序所產(chǎn)生的數(shù)字運算本身,也是基于人類意志所衍生出的意思表示。從這一角度來說,法人本質(zhì)是自然人的集合體,其所做出的決策是人類的直接意志體現(xiàn);而人工智能所做決策也與人類意志緊密相關(guān),與現(xiàn)有法律人格理論并不矛盾。

其二,人工智能成為法律主體與“法律根據(jù)人的理性而設”這一法理并不矛盾。否定論者認為,作為利益負擔者的人,會因為自身情緒等的影響做出非理性的錯誤決定,法律也正是因此才有存在的必要;但是人工智能不會出現(xiàn)類似錯誤,其并不具有價值判斷能力和道德感,其所謂的出錯也只是“執(zhí)行算法”中出現(xiàn)的“程序BUG”。筆者認為,上述見解將法律完全視為防止人類犯錯的工具,過于片面,比如,法律確認權(quán)利歸屬的功能就與人類會犯錯無關(guān)。而且,發(fā)明人工智能本身就是人類理性的體現(xiàn),法律調(diào)整人工智能產(chǎn)生的相應法律關(guān)系,本質(zhì)上仍然是調(diào)整人與人之間的法律關(guān)系,仍以人的理性為基礎(chǔ)。

其三,人工智能成為法律主體與民事主體的責任能力理論并不矛盾。否定論者認為,人工智能最終的責任承擔者是自然人,故賦予其法律人格純粹多余。這一見解,顯然是錯誤的:一方面,賦予人工智能法律人格與人工智能能否獨立承擔責任兩者之間并無因果關(guān)系,不能以人工智能不能獨立承擔責任為由否認賦予其法律人格的合理性。從現(xiàn)行法角度來看,個體工商戶、合伙企業(yè)、個人獨資企業(yè)均屬于法律主體,但其最終責任承擔者并非主體本身。另一方面,從實操層面來看,人工智能也并非不能獨立承擔責任。借鑒法人的注冊資本制度,未來立法完全可以在賦予人工智能以法律人格的同時,通過構(gòu)建強制責任保險制度奠定人工智能獨立承擔責任的財產(chǎn)基礎(chǔ)。

其四,賦予人工智能法律人格與現(xiàn)有法律制度體系和結(jié)構(gòu)很難說存在嚴重沖突。一方面,否定論者認為,如果認為人工智能是主體或者具有人格屬性,那么就要從根本上改變民法的人與物二分法的基本體系,就要針對人工智能創(chuàng)造出調(diào)整現(xiàn)有人與物之外的第三種基本規(guī)則來調(diào)整人工智能這種存在形式。但是,即使承認人工智能具有相應法律人格,也并不需要否認人類本身對人工智能享有所有權(quán)這一事實;換言之,法律在肯定人工智能可以享有民事財產(chǎn)權(quán)的同時,并不改變?nèi)斯ぶ悄鼙旧硐鄬τ谌祟惗缘目腕w屬性。這一制度構(gòu)建并不存在體系效應,不會對現(xiàn)有法律制度和結(jié)構(gòu)產(chǎn)生嚴重影響。另一方面,一國法律體系和結(jié)構(gòu)本身就處于不斷完善的過程之中,以保持現(xiàn)有法律制度體系和結(jié)構(gòu)的穩(wěn)定性為由,否定法律發(fā)展的合理性,存在邏輯瑕疵、缺乏因果關(guān)系。

值得注意的是,否定論者還認為,人工智能所引發(fā)的問題,完全可以在既有的法律體系中得到解決,沒有必要通過將人工智能擬制為法律上的主體來予以應對。客觀而言,通過重構(gòu)版權(quán)法理論、侵權(quán)法理論,確實能夠解決諸如人工智能生成物能否受到版權(quán)保護、自動駕駛責任如何承擔等問題,但是,這種理論重構(gòu)本身與肯定人工智能可以成為法律主體一樣,都屬于解決發(fā)展人工智能所帶來法律問題的可選方案,不能以前者否認后者的合理性。換言之,未來立法賦予人工智能以特殊法律人格同樣也是社會的現(xiàn)實需求,不能因為存在其他解決方案就否認這一可選路徑本身的合理性。而且,以有無必要來論證是否可行,本身就存在偷換概念的邏輯問題,兩者之間欠缺因果關(guān)系。

綜上所述,人工智能成為法律主體并不意味著其就必須與自然人一樣,其所能享有的只能是有限人格,即在承認人工智能可以享有財產(chǎn)權(quán)、能夠作為創(chuàng)作主體的同時,仍應認可其歸屬于人類這一客體屬性。基于特殊的政策考量,在必要的情況下,可以參照公司法人的資本制度,通過出廠設定強制責任保險的方式保障人工智能的責任財產(chǎn)。這一立場尊重了人工智能的發(fā)展趨勢、符合未來社會的客觀需要,具有法理正當性與立法方案的可行性,其本質(zhì)上是為更好地實現(xiàn)人類利益。

(作者:石冠彬,系華東師范大學教授)

[責任編輯:周艷]