【摘要】 針對人工智能發(fā)展的現狀,著重分析如下問題:第一,智能與人工智能的概念;第二,人工智能發(fā)展背后的哲學意義,其中包括人工智能發(fā)展的本體論與認識論意義、人工智能發(fā)展面臨的倫理學和政治哲學問題;第三,人工智能可能帶來的社會治理問題,以及若干可以參考的治理建議。
【關鍵詞】人工智能 科學技術哲學 意義 治理建議
【中圖分類號】TP311 【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2018.10.002
2016~2017年可以說是“人工智能”年。在這近兩年的時間里,以阿爾法狗(AlphaGo)及其系列為代表的“人機大戰(zhàn)”開啟了人工智能熱,從學術界到企業(yè)界,從精英到平民,大街小巷所談的大多是“人工智能”。其中,最主要的話題就是人工智能是否會超過人類,甚至會形成“人機雜合體”,從而變成新新人類,奴役或取代現在的人類。對于人工智能及其發(fā)展眾說紛紜,其中既有深刻之見,也有淺陋之言,不管如何,討論背后都蘊含著極為深刻的意義,如不深入揭示,則可能有意無意地產生某種遮蔽,因此有必要進一步討論這個重大問題。
關于人工智能的概念分析
人工智能,這個概念的內涵與外延其實都非常豐富。
首先是智能(intelligence)概念。何為智能,眾說紛紜:就內涵而言,智能是一個歷史和心理測評概念,主要是比對整體人類智力發(fā)展水平,以及依據一定的問題求解比對個體智力發(fā)展水平;智能概念是一種測評、手段性的概念,運用最多的是以人類智力發(fā)展水平比對其他物種特別是靈長類動物的問題求解能力如何;肖恩·萊格與胡特一起提出了對智能的理解——智能就是在各種各樣的紛繁復雜的環(huán)境中實現目標的能力(集智俱樂部,2015:122)。實際上,以上對于“智能”的定義和理解,是一種功能意義或行為主義的理解。這讓智能的操作變得可能,但并沒有在根本上、實質上理解何為“智能”。人類智能實際上包含了“邏輯思維”能力、“直覺”能力、自主學習能力,以及許多應變策略甚至犯錯誤糾錯的能力,就這個意義上講,人類智能是一種通用的、歷史演化的智能。人類的能力,就單個方面而言,不如許多其他物種,例如大腦協(xié)調小腦進行奔跑及其改變路線的能力不如捕殺獵物的豹子,視覺辨別的能力(它也需要大腦的思考與理解)不如空中盤旋搜尋的鷹隼。就歷史演化而言,早期生活在野外的人類感知能力可能強過現代都市的人們的感知能力,例如,卡西爾在其著名的《人論》中就講述過原始先民對于空間的感受是一種行動空間的感受,這種感受明顯強于現代人類,然而,他們卻沒有幾何空間或邏輯空間的理解能力;而現代人建立的空間概念,明顯是歐式幾何的空間,是邏輯的空間(如百度地圖,或高德地圖)。有鑒于此,下述對于智能概念的理解似乎不錯:
1)一個人的智能就是他理解和學習事物的能力(Someone's intelligence is their ability to understand and learn things);
2)智能是一種思考和理解的能力,而不是依賴本能或無意識地做事(Intelligence is the ability to think and understand instead of doing things by instinct or automatically,Essential English Dictionary, Collins, 1990,轉引自M. Negnevitsky,2005:1)。
其次是人工智能(Artificial Intelligence, AI)概念。自第一臺電腦誕生,人們就開始夢想制造一臺像人腦一樣會思考的機器。由于這個概念是將機器類比于人類,單指被人類建造的機器具有智力水平,具備智能,即人類建造的類似具有人之智能的機器,所以在概念上被稱為“人工智能”。一般的人工智能概念是一種測試和操作意義的概念,最典型的測試是圖靈測試。一般認為通過了圖靈測試的人工實體是具有智能的(R. Neapolitan & X. Jiang, 2012: 2)。從功能上看,人工智能就是讓計算機完成人類心智能做的各種事情(瑪格麗特·博登,2017: 3)。
在學科技術種類上,人工智能是計算機科學的一個分支,是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統(tǒng)的一門新的技術科學。它企圖了解智能的實質,并生產出一種新的能以人類智能相似的方式做出反應的智能機器,該領域的研究主要包括機器人、語言識別、圖像識別、自然語言處理和專家系統(tǒng)等。人工智能從誕生以來,理論和技術日益成熟,應用領域也不斷擴大,可以設想,未來的人工智能,將會是人類智慧的“容器”,也可能超過人的智能。例如,有“現實版鋼鐵俠”之稱的SpaceX公司,其創(chuàng)始人埃隆·馬斯克(Elon Musk)提出“人工智能威脅論”,聲稱AI將很可能引發(fā)第三次世界大戰(zhàn)。長久以來,對人工智能發(fā)動戰(zhàn)爭的恐懼一直是馬斯克在公共場合發(fā)表言論的主論調。2017年8月,他與其他一百多人聯名簽署了一封建議信,呼吁聯合國禁止研發(fā)“機器人殺手”(能致人死亡的自動武器)(埃隆·馬斯克,2017)。
在研究發(fā)展分類上,人工智能研究有兩類:通用人工智能(Artificial General Intelligence, AGI)研究與類腦智能(Brain-Like Intelligence, BI)研究。這是完全不同的兩類人工智能研究。
通用人工智能特別強調兩個特征,即強調與專用領域無關的通用性智能,強調具有多功能協(xié)同的整體性智能;但通用人工智能并不否認專用人工智能的價值。目前,通用人工智能的進展很慢,水平很低,離具有人類智能的目標還有很長的路要走。
而類腦智能主要指,“受腦啟發(fā),以計算建模為手段,通過軟硬件協(xié)同實現信息處理機制上類腦、認知行為和智能水平上類人的機器智能。目標是使機器以類腦的方式實現各種人類具有的認知能力及其協(xié)同機制,最終達到通用智能”(中科院曾毅研究員語)。類腦智能的進展目前也并不是很大,用目前居于前沿的研究人員的話說,只是萬里長征邁出了小小的半步。
就人工智能發(fā)展的階段或目標而言,有三個。
第一,狹義人工智能(Artificial Narrow Intelligence, ANI)階段,ANI的特征:一是僅具備某項認知能力,實現某項技能;二是無法推廣至實現其他功能。所以,狹義人工智能又稱“弱人工智能”。例如,AlphaGo圍棋程序這種人工智能,就是典型的狹義人工智能。即便是后來全新的強化學習算法阿爾法元——可以從零開始,通過自我對弈精通棋藝,堪稱“通用棋類AI”——也是狹義的人工智能。凡是具有特定、專門用途的機器人,都屬于狹義人工智能,如語音/面孔識別、人工智能翻譯系統(tǒng)、無人機、自動駕駛汽車、工業(yè)機器人、家用掃地機器人,等等。目前這個領域的人工智能發(fā)展最為迅猛,而且有望在各個領域獲得廣泛應用。2016~2017年引起社會轟動的也主要是這個方面,這也是人工智能界發(fā)展的主流目標。
第二,通用人工智能階段,又稱為強人工智能階段,即指具有人類水平的人工智能。它的主要特征:一是具備所有的人類認知能力;二是可以由同一智能系統(tǒng)執(zhí)行不同的認知功能。這個階段的研究正在展開,但是目前遠未達到其愿景目標。
第三,超級人工智能(Artificial Super Intelligence, ASI)階段,其預期的主要特征:一是在所有領域超過人類;二是所有的認知效率超過人類認知。這個階段還遠未到來,是一種遙遠的未來預期。而且,究竟是否需要把人工智能發(fā)展到此階段,目前存在重大爭議。
人們對人工智能的爭論恰好就處于這樣的境地:身處人工智能發(fā)展的第一階段、初級階段,即狹義人工智能階段,而思想已經飛躍到第三階段,即超級人工智能階段,想象著這種強大無比的人工智能是否會取代人類,或奴役人類。人們既想發(fā)展人工智能代替人力勞作與思考,又擔憂有一天強大的人工智能把人類作為自己的奴隸而奴役。大多數人工智能專家不主張發(fā)展強人工智能,當然也會有人工智能專家認為應該發(fā)展,不用擔憂。
關于人工智能發(fā)展背后的深刻哲學意義
人工智能發(fā)展的本體論與認識論意義。人工智能,是人類創(chuàng)造的機器智能,首先仍涉及這個智能為何種智能的認識論問題——是類似人的智能還是非人的機器或其他類型的智能。這涉及發(fā)展人工智能是否必須依賴于人類智能,或者必須仿造人類智能而去“克隆”機器。其次,人類能否發(fā)展非人的“其他人工智能”?假如我們不是按照本體論的意義定義人工智能,而是從功能角度定義人工智能,那么,比人解決問題更為快速、更為清晰和更為強大的智能就是我們需要的智能,狹義的人工智能是可以實現這一目標的。智能的核心是意識,是心智,讓人工智能具有類似人的意識,或者非人的意識,或者超人的意識,實在是一個極為深刻但又極難的問題。類腦人工智能走的道路是發(fā)展類似人類的智能,但是其他人工智能研究走的路線不一定是類人的路線,就功能主義而言,其他人工智能解決某種類型問題的能力,可以肯定的說,必然超越人類;因為,人工智能在可形式化的、可表征化的數據處理方面,的確大大地強于人類,而且這種優(yōu)勢仍然在不斷地擴大。這在本體論意義上并不可怕,可怕的是其社會學意義,這意味著它替代了人類許多行業(yè),可能引起大規(guī)模失業(yè)。而事實上,人工智能之所以能夠讓大量的人失業(yè),是因為它確實在各個產業(yè)內巨幅降低成本,從而增加更大利潤空間。在這個意義上說,引起大規(guī)模失業(yè),問題不在人工智能本身,而在資本的利益驅使。這類問題是社會如何預先應對失業(yè)和風險、管控資本的野心的問題,而不是產生新的“物種”可以奴役人類的問題。
人工智能專家試圖在本體論上解決此類問題的研究進路,即類腦人工智能研究進路。所謂類腦,就是讓人工智能在結構機理上與人腦相似;在實現機理上全部采用類腦神經網絡,使之在網絡結構、腦區(qū)、神經環(huán)路、神經元功能和計算模式上接近人腦,而且從單任務態(tài)向多任務、多通道、多腦區(qū)協(xié)同處理發(fā)展。此外,類腦還表現在認知行為上類人,即能感知現實世界,并對環(huán)境做出實時反應,自適應能力不斷增強;能對不同類型的問題進行識別,設計問題求解步驟,自行解決問題;從自主學習過程上模仿人,包括學習人類動作。通過類人的智能行為實現與現實世界人—機—物的持續(xù)交互、不斷地自主學習、自主地智能生長與演化。所以,從哲學上看,類腦人工智能的科學發(fā)展方向就是通過類腦機理研究達到類人行為上的強人工智能;其他人工智能研究,包括通用人工智能,基本上是一種功能主義的研究,即人工智能在解決問題的領域足以和人類一樣聰明,或比人類更強。問題在于,我們人類在面對未來時,是否會滿足于有一個只在功能主義意義上解決問題的“伙伴”,這個答案分析起來其實也是極其復雜的。我們手里握有一個智能手機時,通常會滿足于它是一個功能主義的“工具”,是為我所用的工具。但是我們對面有一個“人”,它是你的智能助手,或是在未來社會里(假定實現了通用人工智能)你偶遇的一個聊得開心的“人”,你想要判斷它是人還是非人嗎?這是否是一個問題呢?是否是一個極其重要的先決條件呢?人工智能所涉及的認識論或本體論問題,就是它是否具有人的意識與身體。近年來,反對人工智能一定要具有人之意識的人,從認知科學哲學角度提出涉身認知觀點,認為機器不可能具有人之肉身,因此機器永遠不可能有人的意識與智慧。但是如果意識如同軟件可以上載到不同硬件上的觀點可以成立的話,那么,機器意識依然是可能的。
由于有上述擔心,所以有人提出一種解決方案,即以實施人機結合的方式,如腦機接口,生成某種半人—半機器的“人”(賽博格),這被稱為“人機協(xié)同的混合增強智能”。在某個微信公眾號上關于該不該研究強人工智能的爭論中,有學者認為,人機融合可以讓人的智能和機器的智能協(xié)同發(fā)揮作用。人有知識,機器長于采集數據;人有經驗和常識,機器則長于進行公理推理;人有直覺,而機器長于邏輯。當人和機器有了足夠的默契,人能理解機器如何看待世界,而機器也能熟悉人的所思所想,未來的機器也可以有一些特殊特定的意向性(彌補人類認知的不足),而當兩者成為搭檔甚至知己時,強人工智能也就到來了。“人機協(xié)同的混合增強智能”作為人工智能2.0的一個重要方向,旨在通過人機交互和協(xié)同,提升人工智能系統(tǒng)的性能,使人工智能成為人類智能的自然延伸和拓展;通過人機協(xié)同更加高效地解決復雜問題,具有深刻的科學意義和巨大的產業(yè)化前景。人機融合還受到了開始于2000年的四大融合技術(納米技術[Nanotechnology]、生物科技[Biotechnology]、認知科學[Cognitive Science]和信息技術[Information Technology])觀念發(fā)展的支持。但是,在本體論和認識論上,這種方案仍然有一些需要討論的問題。首先,如何融合?是一種松散地聯合還是在硬件上緊密地融合?其次,融合中誰起主導作用,是“人的部分”指揮“機器的部分”,還是相反?(Weld D.S.; Mausam C.H.L. and Bragg J., 2015: 89)
由此可見,人工智能的發(fā)展在理論上和實踐上都面臨一大堆問題。那種對于人工智能發(fā)展的極端擔心、狂熱追捧,以及不加分析的一概而論的意見,都如同一個硬幣兩面中的一面,都是不切實際的,都無法透徹理解人工智能及其發(fā)展帶來的社會問題。我們需要細致、深入的思考。
人工智能發(fā)展面臨的倫理學和政治哲學問題。人們對人工智能發(fā)展最主要的擔心,是人工智能強大到奴役人類。而關于奴役的思想,源自人類本身。這種擔心其實不僅有深刻的人類中心主義的觀念,而且?guī)в袕娏业?、根深蒂固?ldquo;等級—區(qū)隔”的政治哲學觀念。在進化論的視野里,人類這種高等靈長類的智能似乎居于所有智能最高等級的位置。人類對其他物種的支配、使用或奴役,似乎有一種自然正確性(natural right)。人類還把這種自然權利置于生命安排中,似乎有一種自然的等級制度或秩序、一種天然的高等生命支配低等生命的權力與秩序。這是人類中心主義的理念。在人類社會,平等、自由本來應該是一個民主社會的共有理念,社會主義社會作為民主社會的一類也不例外。人生而平等,是人權的基本原則。但人類中心主義的“等級—區(qū)隔”理念何以滲透到人類社會中呢????、阿倫特以及近年來的阿甘本都分析過這種等級鑲嵌的權力如何以“政治正確”的名義滲透到生命層面、物種層面和種族層面。不僅如此,人類在自己的生活和社會內部也進一步制造并隱秘地實施這種“等級—區(qū)隔”,把社會達爾文主義視為當然。例如,第二次世界大戰(zhàn)期間的納粹,就把猶太人視為低等的人、“人類中的渣子”,把猶太人從人類中“區(qū)隔”出去,關入集中營,甚至實行集體屠殺。“人—動物”關系中的等級制人類中心主義在這里變成了“人—人”關系中區(qū)隔性的人類等級主義,在這種觀念看來,低端的人是可以驅逐的,沒有什么不妥,這種思想也可以合適地移植到“人—機”關系中。
人工智能中“人工”(artificial)一詞的含義,已經清晰地表明,人工智能是人創(chuàng)造的,因此,創(chuàng)造出來的人工智能是為人服務的。如吳冠軍認為robot應該譯為“機奴”,事實上人類一開始就把機器人看成為人服務的“機奴”(吳冠軍,2017a)。我們害怕機器人超越人類,對人類實施奴役,而提倡對人工智能的智能進行倫理規(guī)范以形成機器人的“善智”,吳冠軍甚至認為“善智”實則是讓機器人更好地成為服服帖帖的“機奴”。換言之,人工智能作為智能即使再發(fā)展,也應該是一種低于人類、為人類服務的智能。所以,這仍然是一種政治學意義上的人類中心主義統(tǒng)治下的人工智能發(fā)展方案,或是阿甘本意義上的“人類學機器”的體現(吳冠軍,2017b)。
在人工智能的發(fā)展中,人們還擔心人工智能會取代人類社會的許多職業(yè)。人們從許多角度解讀這種取代的可能性,預測被取代工作、職業(yè)的種類,然而很少有人從政治哲學的視角看待這種可能的取代。
“取代”有兩個政治哲學后果。第一,被取代的工作,據說都是低端的、可以成規(guī)模的、無法個性化的工作,如出租汽車司機,被取代工作的這類人群,從此成為“閑人”;而且當代所謂高端的工作、職業(yè),如醫(yī)生、律師,也可能被人工智能取代。這必定使大量的人口落入被取代的人群,從而加速了政治哲學意義上的“等級—區(qū)隔”,這意味著,人類的等級從符號性社會學層面轉變成為真實的生物學/人類學層面。第二,取代還意味著種類的變化,這種取代更為可怕,因為它可能是人機協(xié)同的混合增強智能取代純粹生物學的人。加上器官移植、再生醫(yī)學、基因工程等技術,人之中的一小部分“權—貴”則可能在生物學+人工智能融合的新生命體系中完全不同于現在的人類。所以,如何使全人類具有平等機會享受最新科技帶來的利益,才是最新科技,特別是人工智能發(fā)展的最好“善治”。
而且,在有平等機會享受人工智能帶來的利益的同時,人類需有勇氣考慮,人工智能的非人智能和非人“意識”的研究是否可能呈現或凸顯出來。這是一種非人類中心主義視角的思考。當然,其可能的風險評估也需要在研究進行中提早納入議事議程。
關于人工智能可能帶來的社會問題與社會治理
人工智能可能帶來的社會變化與社會問題。人工智能超越人類、可能奴役人類的問題還可能比較久遠,目前對人類社會構不成威脅;而且人工智能的發(fā)展并非都是不好的,也有利好人類社會的可能性與現實,所以我們需要提前了解和密切關注人工智能研究的理論進展與實踐研究進展。目前大多數狹義人工智能的研究都是基于利好人類社會的工作的,比如智能機器人可以用于救災,如核泄漏;可以用于家庭服務和養(yǎng)老,如語音/面孔識別、人工智能翻譯,還有無人機、自動駕駛汽車、工業(yè)機器人、家用掃地機器人,等等。大略來說,人工智能可能給社會帶來這樣一些變化。
第一,一些重復性強的工業(yè)化研究與生產,可能越來越被智能機器取代。其實這個過程早就開始了,比如越來越多的公司,其真正在一線工作的工人越來越少,而且工人也越來越需要知識化。有些行業(yè)整體失業(yè)發(fā)生的概率由于人工智能的介入而加大了。這是第一級效應。這一級效應還可能引發(fā)更大的、更深的效應,如“蝴蝶效應”那樣波及其他相關行業(yè)和社會生活的方方面面。特別是人工智能可能帶來工作的本質改變(杰瑞·卡普蘭,2016:xviii)。
第二,用于利好人類社會的人工智能也可能被濫用。如智能識別(語音和圖像識別),也可能被用于破解識別碼、安全鎖和網上支付系統(tǒng)。再比如,智能無人機,可以民用,也可以軍用,最近一些人士呼吁禁止發(fā)展自主性智能無人機,表明這種濫用并非沒有可能。這些人工智能在社會生活方方面面可能濫用的現象,從根本上來說,取決于高端的人工智能研究人員的職業(yè)倫理和職業(yè)行規(guī)。
第三,人工智能的使用可能帶來人類社會等級區(qū)隔的加大。如果馬斯克等人設想的人機融合的四大技術能實現,那么就可能在資本—權力的人為社會等級之上,再進一步增加生物—機器智能的生物等級區(qū)隔,由此造成不同的“新人類”。這些“新人類”的出現雖然就其整體而言似乎還是個神話,但是局部的生物—機器融合其實已經開始,如給大腦植入芯片、給肌肉加裝增強技術產物。這種局部的人機融合的“賽博格”的出現,有極強的兩面性:一方面它可以補全患有盲視、失聰、肢體缺失以及癱瘓的人的機能;另一方面,當它用于所謂的健康人身上,則極大地增強了人的能力,使人類物種中出現了一種“增強人”——賽博格,如同體育比賽中吃了增強藥物的運動員,可以跑得更快,跳得更高,有更為持久耐用的身體。這對沒有吃增強藥物的運動員的公平性可想而知。表面上帶來的新的社會不公平問題,實際上是造成了人類物種的新生物—機器的不平等區(qū)隔。
人工智能發(fā)展的社會治理。如上所說的人工智能發(fā)展的社會問題只是冰山一角,人工智能的發(fā)展勢不可擋,因此有必要對人工智能的發(fā)展未雨綢繆,及早做出可能的社會治理預案。
第一,謹慎研究和發(fā)展人工智能,建立有區(qū)別的人工智能研究與發(fā)展行業(yè)政策。
當代人工智能的研究勢在必行。各國在權力與資本逐利過程中,不可能不發(fā)展人工智能,就科學研究而言,也不可能在研究上過早設置禁區(qū)。人工智能不同類型的研究(如狹義人工智能、通用人工智能、類腦人工智能、人機結合等),不同發(fā)展階段的研究(弱人工智能、強人工智能、超級人工智能),不同行業(yè)的研究(一般工業(yè)、特殊工業(yè)、民用和軍用),都應該建立相應的人工智能研究政策、行業(yè)規(guī)則以及相應的倫理規(guī)約。我們不僅要關注國際人工智能界的研究進展,同步建立相應的研究與發(fā)展政策,而且應該提早研究由研究和發(fā)展人工智能帶來的各類社會風險問題,特別是人工智能在應用到不同行業(yè)、不同領域和不同部門時可能帶來的社會風險(物質安全、信息安全和網絡安全)。在可以大力發(fā)展人工智能的領域,也需要研究相應的可能的社會風險。
第二,認真研究和注意人工智能發(fā)展的環(huán)境代價與效應。任何工業(yè)制造業(yè)都有環(huán)境效應,發(fā)展人工智能產業(yè)可能會有更大的環(huán)境效應,這要根據國情綜合考慮。如果發(fā)展代價太大,就需要對其發(fā)展有所限制,特別需要提早考慮可能的環(huán)境代價。
第三,特別需要注意研究人工智能發(fā)展的政治哲學后效。前文已經論證了人工智能作為“機奴”可能的政治哲學后效,有兩個需要提早進行規(guī)約的方面。
其一,時時刻刻注意人工智能應用的社會平等性。無論是經濟方面還是政治方面,都需要給予社會公民平等享用人工智能利好的機會。當然這主要是政府需要注意的事情,通過匯率或利率調節(jié)的方式,向不能直接享用人工智能利好的階層轉移支付利好比例。就人工智能的研究者而言,也需要注意,不要讓人工智能研究帶來“等級—區(qū)隔”的擴大與延伸。
其二,當人工智能發(fā)展存在取代某些行業(yè)/職業(yè)或人群的可能性已經出現時,智庫類研究機構和政府就需要做出評估,并且對這些行業(yè)/職業(yè)涉及人群的可能轉型給出合理建議與安置。
涉及人工智能發(fā)展的社會治理是一個極為復雜的巨系統(tǒng)工程這種說法,實際上缺失了人文和社會思考的維度,而且常常容易使人把這種問題理解為可以按照工程和技術的方式加以解決。事實上,這種工程不是技術本身可以解決的,需要人文、社會科學多學科的交叉和合作研究,需要科學、技術、倫理、政治學(包括政治哲學)的多學科視野,我們特別建議,建立相應的全國委員會,除人工智能專家外,還需要包含哲學家(倫理學家、科技哲學家),特別是政治哲學家。
如若在起始階段,由人類研究的人工智能可以自主地發(fā)展出非人類的智能與意識,那人類能夠容忍其自主發(fā)展嗎?如若人類不容忍,那此時不容忍是對的么?如若這時的人工智能已經比人類更為聰明,那人類還要消滅它們嗎?人類還能消滅它們嗎?比人還聰明的人工智能此時還是人工智能嗎?它要奴役、消滅人類還是與人類合作?它把人類看成為伙伴嗎?它會建立起一套相應的“社會政策”與“倫理原則”嗎?這些問題雖然還很遙遠,但可以在將心比心的思考中幫助我們提前理解當代人工智能發(fā)展的哲學問題。有人就認為,一個獨立的機器世界由于是人類建立和發(fā)展起來的,所以必然繼承了人類文明,那么由機器掌管整個世界又有什么不好呢?(集智俱樂部,2016: 208)繼續(xù)在理性與情感、自我與他者的交集中爭論人工智能的哲學問題,是極其有益的。
參考文獻
M. Negnevitsky, 2005, Artificial Intelligence: A Guide to Intelligent Systems, Second Edition, Boston: Addison-Wesley.
R. Neapolitan and X. Jiang, 2012, Contemporary Artificial Intelligence, Florida: CRC Press.
Weld, D.S.; Mausam, C.H.L. and Bragg, J., 2015, "Artificial Intelligence and Collective Intelligence", in Thomas M. and Michael B., (eds.), Handbook of Collective Intelligence, Cambridge (Massachusetts): the MIT Press.
[美]埃隆·馬斯克,2017,《人工智能將引發(fā)第三次世界大戰(zhàn)》,http://www.24en.com/e/ DoPrint/?classid=66&id=196183。
[英]瑪格麗特·博登,2017,《AI:人工智能的本質與未來》,孫詩惠譯,北京:中國人民大學出版社。
[美]杰瑞·卡普蘭,2016,《人工智能時代》,李盼譯,杭州:浙江人民出版社。
集智俱樂部編著,2015,《科學的極致——漫談人工智能》,北京:人民郵電出版社。
集智俱樂部編著,2016,《走近2050:注意力、互聯網與人工智能》,北京:人民郵電出版社。
吳冠軍,2017a,《人工智能與未來社會:三個反思》,《探索與爭鳴》,第10~13頁。
吳冠軍,2017b,《神圣人、機器人與“人類學機器”——二十世紀大屠殺與當代人工智能討論的政治哲學反思》,《中國青年哲學論壇(2017)暨首屆賀麟青年哲學獎評審會議論文集》,第155~176頁。
責 編/刁 娜
Several Philosophical Reflections on the Development and Governance of Artificial Intelligence
Wu Tong
Abstract: According to the current situation of the development of artificial intelligence (AI), this paper mainly analyzes the following issues: first, the concept of intelligence and AI; second, the philosophical significance of the development of AI, including the ontological and epistemological significance, and the ethical and political philosophical issues affecting the development of AI; third, the social governance problems that AI may cause, and several governance suggestions that can be used for reference.
Keywords: Artificial intelligence, philosophy of science and technology, significance, governance suggestions
吳彤,清華大學科學技術與社會研究所教授、博導。研究方向為科學實踐哲學、系統(tǒng)科學哲學、科技與社會。主要著作有《復歸科學實踐——一種科學哲學的新反思》《自組織方法論研究》《現代科學技術與當代社會》等。