2020年12月18日由清華大學主辦、聯(lián)合國開發(fā)計劃署作為國際支持單位的人工智能合作與治理國際論壇上,中國科學院自動化研究所研究員,北京智源人工智能研究院人工智能倫理與可持續(xù)發(fā)展中心主任曾毅在“人工智能治理促進可持續(xù)發(fā)展”分論壇進行了題為《通過負責任的人工智能及其治理推進全球可持續(xù)發(fā)展》的主旨報告。以下是曾毅研究員的報告主要內(nèi)容:
當我們討論人工智能愿景的時候,會看到來自全球不同的努力。我們可以將這些努力分布在一個光譜上,最左邊是以人類為中心的人工智能,以人為本的人工智能、與人類兼容的人工智能、友善的人工智能、可信的人工智能等愿景都是這個觀點不同程度的延伸。而光譜的右側是以生態(tài)為中心的人工智能,圍繞這個議題分布在這個光譜上的還有有益的人工智能、負責任的人工智能、面向可持續(xù)發(fā)展的人工智能、以及和諧人工智能。每一種愿景都分布在以人為中心和以生態(tài)為中心的愿景之中,很顯然,未來人工智能的發(fā)展不僅僅要考慮對人類有益,人類是生態(tài)的一部分,人類的未來根植于整個生態(tài)的可持續(xù)發(fā)展,而這些愿景也從不同視角表達了我們應當去向何方。
全球已經(jīng)發(fā)布的近80個面向人工智能的原則提案在議題方面具有廣泛的一致性。主要聚焦在以人為本、公平、透明、隱私、安全、可問責、合作、可持續(xù)、以及與長遠人工智能有關的議題。而就某一個議題進行的細節(jié)討論時又可以看到來自不同的提案的觀點如何互為補充,形成人工智能倫理原則的全球圖景。
全球人工智能倫理構建于各個地域的文化與價值觀之上。秉承“和而不同”的理念,是為人類構建全球人工智能倫理共識的基石。在我作為特別專家組成員參與聯(lián)合國教科文組織的人工智能全球倫理規(guī)范撰寫時,我們的專家組集中討論了“和諧”這個議題。我向其他國家的專家組成員介紹:和諧的思想可以追溯到孔子對和諧的解釋。從古至今,并與現(xiàn)代技術發(fā)展融合,可以認為“和諧”指自我、家庭、社會其他成員、政府之間的和諧,不同種族、不同國家之間的和諧,人與環(huán)境的和諧,未來甚至是人與人工智能的和諧。而日本哲學中“和諧”意味著一個社會群體內(nèi)部的和平統(tǒng)一,在這個群體中,成員更傾向于構建一個和諧的社區(qū),而不是專注于他們的個人利益。而來自非洲的專家則表達了和諧的思想與非洲哲學非常相似,即知道自己屬于一個更大的整體,當其他人受到羞辱或削弱時,當其他人受到酷刑或壓迫時,自己也會因此受到影響。針對可持續(xù)發(fā)展而言,我們不能夠停留在文化傳承,而應該通過人工智能作為一種使能技術推進文化交互,實現(xiàn)文化與人類群體的可持續(xù)發(fā)展。
通過對利用人工智能推進可持續(xù)發(fā)展議題來自產(chǎn)業(yè)界和學術界近8000個案例的分析我們發(fā)現(xiàn),雖然可持續(xù)發(fā)展的17個議題每一個議題都是至關重要的,但目前人工智能主要貢獻于有明顯商業(yè)利益的領域,這主要涉及健康、教育、產(chǎn)業(yè)創(chuàng)新;而對那些商業(yè)利益相對不明顯的議題關注度明顯有很大差異,例如相對很少的研究著眼于保護陸地和水生生命、以及減少貧困;但是我們也相對欣喜的看到,相比這些主題,氣候變化與人工智能的融合近期得到了相對多的關注。然而值得我們警惕和關注的是:據(jù)我們的初步統(tǒng)計,目前在人工智能與計算機科學領域,發(fā)表的論文數(shù)量約800萬,如此看來研究領域的產(chǎn)出只有0.1%的努力與可持續(xù)發(fā)展目標直接相關。因此我們應當鼓勵有更多的產(chǎn)學研界深度協(xié)同,思考并實踐通過人工智能推進可持續(xù)發(fā)展目標這個人類共同愿景與未來的實現(xiàn),這是科研工作者、產(chǎn)業(yè)創(chuàng)新者與政府機構的共同責任。
為了凝聚力量并形成全球協(xié)作,更好地推進人工智能促進可持續(xù)發(fā)展目標的實現(xiàn),我們發(fā)起并成立了面向可持續(xù)發(fā)展的人工智能協(xié)作網(wǎng)絡(AI4SDGs Cooperation Network)。至今為止,我們非常感謝來自全球15個國家的專家學者對這個網(wǎng)絡的支持和直接參與。劍橋大學生存風險研究中心、蒙特利爾人工智能倫理研究所、新加坡管理大學人工智能與數(shù)據(jù)治理研究中心等來自全球的學術機構,以及百度、曠視、滴滴、小米、依圖、醫(yī)渡云等人工智能企業(yè)作為成員單位給予大力支持。彌足珍貴的是來自學術界和企業(yè)界的學者圍繞可持續(xù)發(fā)展的各個議題組成的工作組,推進每個議題通過人工智能的善用善治實質(zhì)性推進可持續(xù)發(fā)展。
在人工智能與兒童這個議題上,我們成立了專門的工作組,關注并推進人工智能助力兒童健康成長,避免兒童受到技術發(fā)展的傷害。推進對社會最脆弱群體的特別關注,因為他們是這個世界真正的未來。今年9月,由北京智源人工智能研究院推動,并聯(lián)合高校和科研機構、產(chǎn)業(yè)、兒童基金會等機構共同發(fā)布了《面向兒童的人工智能北京共識》,并引起麻省理工科技評論等國內(nèi)外媒體的普遍關注與報道。在具體的原則落地實踐中我們發(fā)現(xiàn),去年在中國、美國、歐洲相關國家出現(xiàn)的教室內(nèi)人臉與姿態(tài)識別應用之所以得到各國民眾的普遍反對,其原因不僅僅是對學生隱私信息的泄露風險,更嚴重的是跟本地改變了學生和老師的交流方式,并會對學生產(chǎn)生長期負面影響乃至對新技術的抵觸與厭惡。很顯然這樣的應用是人工智能在教育領域不可持續(xù)的應用,理應得到社會的反對。然而這并不意味著人臉識別等技術對于學校的環(huán)境是沒有意義的,例如對于校園霸凌等場景,仍有其積極意義。只是要在人工智能善用的同時,防止可能存在的潛在隱患。
人工智能目前固然是我們發(fā)明的有用工具,然而目前的人工智能只是停留在處理信息,而非真正的理解世界。圖靈提出了“機器是否能思考”的終極科學與哲學問題,然而我們現(xiàn)代的人工智能很顯然還不能思考。正是因為如此,在60年之前控制論的奠基人羅伯特.維納就指出“我們最好非常確定我們讓計算機執(zhí)行的目標是我們真正想讓他們做的事情”。他的遠見正是現(xiàn)代人工智能所有安全隱患的根源,也非常遺我們現(xiàn)代人工智能的發(fā)展并沒有在他的真知灼見中獲得實質(zhì)性進展。也正因為如此,目前的人工智能無法成為責任的主體,人工智能的設計、研發(fā)、使用和部署各個環(huán)節(jié)涉及到的人和組織仍然并將長期作為人工智能的責任主體。未來只有人工智能獲得了一定程度的自我感知、認知共情等高等認知功能,才有基礎和可能討論是否能夠承擔部分責任。
日本倡導人工智能成為人類的伙伴,日本人工智能學會的倫理原則中提到:“如果人工智能想要成為社會的準成員或成員,必須遵循人類制定的原則”。西方社會一般將人工智能視作工具,而科幻電影中的人工智能絕大多數(shù)扮演人類公敵。未來的人工智能在社會中扮演什么決策真正取決于我們?nèi)绾稳崿F(xiàn)和實現(xiàn)什么樣的通用智能和超級智能。
我希望我們未來的社會是“可持續(xù)的共生社會”,在這個社會中,人類、動物、人工智能、其他生命、自然環(huán)境形成和諧共生。人類與人工智能深度協(xié)作,實現(xiàn)真正意義的長遠可持續(xù)發(fā)展。