人妻少妇中文在线视频,丁香五月婷婷激情网,日本韩国黄色成人网站,亚洲综合99伊人四虎

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 原創(chuàng)精品 > 成果首發(fā) > 正文

關(guān)于人工智能治理問題的若干思考(3)

人工智能治理難題

盡管對人工智能風險認識和評價有相當大的分歧和爭議,但學界、業(yè)界以及政界對人工智能治理的必要性已形成基本共識。不僅霍金、馬斯克等人發(fā)起倡議的《人工智能23條原則》,強調(diào)人工智能的規(guī)范發(fā)展必須納入正確軌道,而且各國政府和行業(yè)協(xié)會在其人工智能發(fā)展戰(zhàn)略規(guī)劃或行業(yè)報告中,都有比較明確的人工智能監(jiān)管和治理要求,如2016年9月,英國標準協(xié)會發(fā)布《機器人和機器系統(tǒng)的倫理設計和應用指南》,是業(yè)界第一個關(guān)于機器人倫理設計的公開標準,旨在指導機器人設計研究者和制造商如何對一個機器人做出道德風險評估,以保證人類生產(chǎn)出來的智能機器人能夠融入人類社會現(xiàn)有的道德規(guī)范。⑦2016年6月,日本AI學會的倫理委員會發(fā)布人工智能研究人員應該遵守的倫理指標草案,以引導和規(guī)范研究人員正確處理人工智能進一步發(fā)展導致的倫理道德、安全問題。⑧美國的《國家人工智能研究和發(fā)展戰(zhàn)略計劃》全面搭建了美國推動人工智能研發(fā)的實施框架,并強調(diào)保障人工智能系統(tǒng)的友好性,推動人工智能系統(tǒng)的公平、透明與符合倫理。同時,確保人工智能系統(tǒng)的安全可靠,提高信任度、可驗證和可確認性,并實現(xiàn)自我安全防御與優(yōu)化。⑨

問題的關(guān)鍵不是人工智能需不需要治理的問題,而是人工智能究竟應該如何治理、治理什么的問題,人工智能本身的復雜性特征使得人工智能在治理機制設計和構(gòu)建中遭遇多重難題。

首先是事前的風險識別和預防難題。不同于原子能、化工等研究開發(fā)的基礎設施的大規(guī)模性、風險源的明確性,監(jiān)管者或治理行為體能夠非常容易地確定潛在的公共危險源的制造者和發(fā)生地。人工智能研發(fā)具有秘密性、分散性、不連續(xù)性及不透明性。秘密性是指人工智能的研究與開發(fā)只需要極少的可見設施;分散性是指研究人工智能系統(tǒng)不同組成部分的研發(fā)人員可能分布在不同的地方;不連續(xù)性是指人工智能的研發(fā)不需要所有的部件同時就位,也不需要不同部門的研究人員通力合作;不透明性,是指人工智能系統(tǒng)運行可能處在秘密狀態(tài),由于信息的嚴重不對稱,外部人員很難發(fā)現(xiàn)人工智能系統(tǒng)中潛在的危險而無法采取針對性的監(jiān)管措施。⑩人工智能這些特征,為其事前監(jiān)管帶來許多不便,也為有效的人工智能治理設計帶來困惑,畢竟科學的風險識別和預防機制的構(gòu)建是治理有效性的關(guān)鍵。

其次是風險發(fā)生的不可預知性難題。人工智能與其他傳統(tǒng)科技最大的不同是可以獨立完成預定任務的自主性,但是人工智能自主行為與人類的決策和行動存在根本的不同,盡管人工智能系統(tǒng)設計總是模仿人腦的工作方式。人類智能由于其在限定的時間里的計算速度有限,很難在窮舉中得出最優(yōu)解,而往往通過經(jīng)驗、直覺等方法得出自認為滿意的答案,而非一個最佳的解決方法,經(jīng)濟學家Herbert Simon稱之為“滿意法”。?而人工智能通過合并算法和深度學習可以在極短的時間內(nèi)精確計算所有的可能性,從而使得它們能夠選擇人類完全沒有考慮過而“出人意料”的解決問題方法,做出的結(jié)論可能同人類的認知系統(tǒng)做出的決策產(chǎn)生極大的不同。一個能夠自主學習的人工智能系統(tǒng)的行為部分依靠其后天的經(jīng)歷,即使是最細心的設計者、編程者以及制造者都沒有辦法控制或者預測人工智能系統(tǒng)在脫離他們之后將會經(jīng)歷些什么。?所以,人工智能的不可預知性,使得人工智能系統(tǒng)在做出難以預測的損害性行為時,讓設計者承擔責任可能會導致不公平和非正義。值得注意的是,對于產(chǎn)品生產(chǎn)者的嚴格責任,規(guī)定有“當前科學水平尚不能發(fā)現(xiàn)缺陷”的免責事由。但是這項免責事由在人工智能領(lǐng)域是否適用值得討論。盡管在深度學習訓練數(shù)據(jù)和學習過程存在不可預見性,但考慮到人工智能的算法完全由開發(fā)者編寫,開發(fā)者對風險源頭具有絕對的控制力,司法機關(guān)可能會推定開發(fā)者應當預見算法執(zhí)行中的可能風險或要求開發(fā)者對風險程度的增加承擔責任。

再次是事后責任認定和分配的難題。以規(guī)則為基礎的治理是現(xiàn)代治理的根本特征,法律法規(guī)作為正式規(guī)則主體形式使得“法治”構(gòu)成有效社會治理的核心,人工智能的治理難題集中表現(xiàn)為法律困惑和政策困境。一是人工智能的不可控性導致的監(jiān)管兩難。隨著人工智能技術(shù)升級到強人工智能階段,不可控性可能成為一個嚴峻的問題,未雨綢繆人工智能的局部失控乃至可能出現(xiàn)的全面失控是當代人的責任。從現(xiàn)在來講,各國不會像用法律禁止克隆人一樣規(guī)避人工智能風險,人們所焦慮的是如何在不束縛人工智能良性發(fā)展的前提下最大限度地防控人工智能風險。二是人工智能風險主體的多元性和不可預知性問題也導致了對其監(jiān)管的法律困惑,由于參與人工智能系統(tǒng)部件的主體多元和不可預知,很難確定出責任主體。例如,人工智能系統(tǒng)的部件的制造者可能沒有想到他們生產(chǎn)的部件被用在了人工智能系統(tǒng)上,如果造成了損害就更非他們的本意了。在這種情況下,將責任分配給人工智能系統(tǒng)某一部件的設計者,就顯得非常的不公平,同樣,人工智能系統(tǒng)運轉(zhuǎn)的不透明讓法院也不能輕易判斷將人工智能系統(tǒng)造成第三人損害的責任歸責于運營者還是使用者。三是人工智能法律主體的難題。人工智能的自主性隨著人工智能技術(shù)進步進化到強人工智能階段后,人工智能載體如機器人是不是人格意義的道德體、行為體乃至法律主體?由于機器可以像人類一樣獨立思考和決策,該階段的人工智能如果和人類一樣,成為獨立的主體享有權(quán)利,并對自己的行為承擔責任,傳統(tǒng)法律體系將產(chǎn)生巨大的沖擊。?

上一頁 1 2345678下一頁
[責任編輯:樊保玲]
標簽: 人工智能   問題