人工智能治理是其技術(shù)和運用發(fā)展到一定階段的必然結(jié)果,更是對其研究、開發(fā)、生產(chǎn)和運用過程中出現(xiàn)的公共安全、道德倫理等問題加以規(guī)范和治理的過程。對此要從三方面加以思考:
一是要注意平衡一對關(guān)系,一方面,人工智能通過科技產(chǎn)業(yè)的發(fā)展帶來經(jīng)濟效益,即社會福利、企業(yè)的營利活動還有知識產(chǎn)權(quán)應用法案的提出;另一方面,為了防止企業(yè)面對過重的責任負荷,應適當?shù)乜紤]企業(yè)的責任有限化等問題,以避免對人工智能管理過嚴。過分強調(diào)法治會對人工智能產(chǎn)業(yè)的發(fā)展、人工智能技術(shù)的探索造成一定限制,所以我們需要辯證地看待這個問題。和產(chǎn)業(yè)、經(jīng)濟利益相對的是現(xiàn)在比較缺乏的人工智能治理,為解決現(xiàn)實問題應特別強調(diào)個人權(quán)利、信息安全、隱私等,在我們評價維度中表現(xiàn)為公平正義及對政府行為的法律制約。人工智能治理中,應注意這樣一對關(guān)系,在發(fā)展產(chǎn)業(yè)的同時保障權(quán)利、實現(xiàn)公平,不應顧此失彼。
二是從國際規(guī)則博弈角度來說,需要注意幾個問題,如數(shù)據(jù)安全、面部識別技術(shù)的應用等。個人隱私保護與產(chǎn)業(yè)發(fā)展的對立統(tǒng)一關(guān)系是我們需要考慮的范疇。如何準確傳達加強數(shù)據(jù)治理、防治人工智能風險的意圖,如何切實完善制度設計非常重要。此外,算法黑箱也是一個重要且難以解決的問題,人工智能的預測能力越強、功能越強,越容易導致算法黑箱問題。我們希望算法可以解釋、說明及透明化,但實際上這很難完全做到。如果不能恰當?shù)刈龅?,就會產(chǎn)生連鎖反應,使人工智能治理機制瓦解。要從法律的角度來認識人工智能治理,如果人工智能“黑箱化”,將會導致問責艱難,甚至會導致失去原有的人工智能治理效力。
三是在考慮人工智能治理中強調(diào)法治,往往會涉及法律、政策、規(guī)則對人工智能技術(shù)的開發(fā)和人工智能產(chǎn)業(yè)的發(fā)展的過分嚴苛限制。解決這個問題,我們應該注意人工智能治理中“軟法”與“硬法”相結(jié)合。在評選案例時,更應注重軟硬結(jié)合。其中,軟法主要是指道德,如從現(xiàn)有案例可以看到,當前美國的企業(yè)已經(jīng)從道德入手,制定企業(yè)內(nèi)部規(guī)則或是技術(shù)操作規(guī)則。
【作者為上海交通大學文科資深教授、中國法與社會研究院院長,教育部“長江學者”特聘教授。本文根據(jù)作者在2021年1月14日“2020全球十大人工智能治理事件專家內(nèi)部研討會”上的發(fā)言整理】