人妻少妇中文在线视频,丁香五月婷婷激情网,日本韩国黄色成人网站,亚洲综合99伊人四虎

網站首頁 | 網站地圖

大國新村
首頁 > 理論前沿 > 深度原創(chuàng) > 正文

生成式人工智能治理的態(tài)勢、挑戰(zhàn)與展望

核心提示: 作為引領新一輪科技革命和產業(yè)變革的關鍵技術,以ChatGPT為代表的生成式人工智能不斷催生新場景、新業(yè)態(tài)、新模式和新市場,改變了信息和知識的生產方式,重塑了人類與技術的交互模式,對教育、金融、媒體和游戲等行業(yè)均產生重大影響。在此背景下,全球各國紛紛出臺人工智能發(fā)展戰(zhàn)略和具體政策,搶占戰(zhàn)略制高點。與此同時,生成式人工智能暴露出的數(shù)據(jù)泄露、虛假內容生成、不當利用等安全風險也引起各國廣泛關注。生成式人工智能的發(fā)展、運用和治理,不再是某一國而是整個國際社會面臨的共同挑戰(zhàn)。

【摘要】作為引領新一輪科技革命和產業(yè)變革的關鍵技術,以ChatGPT為代表的生成式人工智能不斷催生新場景、新業(yè)態(tài)、新模式和新市場,改變了信息和知識的生產方式,重塑了人類與技術的交互模式,對教育、金融、媒體和游戲等行業(yè)均產生重大影響。在此背景下,全球各國紛紛出臺人工智能發(fā)展戰(zhàn)略和具體政策,搶占戰(zhàn)略制高點。與此同時,生成式人工智能暴露出的數(shù)據(jù)泄露、虛假內容生成、不當利用等安全風險也引起各國廣泛關注。生成式人工智能的發(fā)展、運用和治理,不再是某一國而是整個國際社會面臨的共同挑戰(zhàn)。為有效應對生成式人工智能對信息內容治理的新挑戰(zhàn),應當平衡安全和發(fā)展的關系、技術創(chuàng)新和技術治理的關系、企業(yè)合規(guī)義務和企業(yè)負擔能力的關系。

【關鍵詞】生成式人工智能 治理模式 立法 內外部挑戰(zhàn) 多維平衡 【中圖分類號】D92 【文獻標識碼】A

生成式人工智能(Generative AI)是人工智能發(fā)展過程中出現(xiàn)的新型技術,可使用統(tǒng)計方法根據(jù)概率生成新內容,如視頻、音頻、文本甚至軟件代碼。通過使用Transformer(一種基于自注意力機制的神經網絡模型),生成式人工智能可深入分析現(xiàn)有數(shù)據(jù)集,識別其中的位置連接和關聯(lián)關系,再借助人類反饋強化學習算法(Reinforcement Learning from Human Feedback)不斷優(yōu)化訓練形成大語言模型,最終能夠為新內容的生成作出決策或預測。①除了文本生成和內容創(chuàng)作之外,生成式人工智能還擁有廣泛的應用場景,如客戶服務、投資管理、藝術創(chuàng)作、學術研究、代碼編程、虛擬協(xié)助等。概言之,自我生成、自我學習并快速迭代是生成式人工智能區(qū)別于傳統(tǒng)人工智能的基本特點。

國家網信辦等七部門正式發(fā)布的《生成式人工智能服務管理暫行辦法》(以下簡稱《暫行辦法》)自2023年8月15日起施行,旨在促進生成式人工智能健康發(fā)展和規(guī)范應用,維護國家安全和社會公共利益。作為引領新一輪科技革命和產業(yè)變革的關鍵技術,以ChatGPT為代表的生成式人工智能不斷催生新場景、新業(yè)態(tài)、新模式和新市場,改變了信息和知識的生產方式,重塑了人類與技術的交互模式,對教育、金融、媒體和游戲等行業(yè)均產生重大影響。在此背景下,全球各國紛紛出臺人工智能發(fā)展戰(zhàn)略和具體政策,搶占戰(zhàn)略制高點。與此同時,生成式人工智能暴露出的數(shù)據(jù)泄露、虛假內容生成、不當利用等安全風險也引起各國廣泛關注??梢钥隙ǖ刂v,生成式人工智能的發(fā)展、運用和治理,不再是某一國而是整個國際社會面臨的共同挑戰(zhàn)。

國外人工智能主要監(jiān)管模式評析

人工智能是一把“雙刃劍”,在促進社會進步的同時,也帶來了風險與挑戰(zhàn)。國際社會致力于持續(xù)推動人工智能向善發(fā)展。例如,聯(lián)合國教科文組織通過了首份人工智能倫理問題全球性協(xié)議——《人工智能倫理問題建議書》,明確了相稱性和不損害、安全和安保、公平和非歧視等十項原則。歐盟自2018年以來持續(xù)推進人工智能的設計、開發(fā)和部署,同時努力規(guī)范人工智能及機器人的使用和管理。2024年初生效的歐盟《人工智能法案》助推此項工作達到高潮,甚至成為人工智能治理史上的里程碑。美國更注重人工智能發(fā)展,以《人工智能權利法案藍圖》(以下簡稱《權利法案藍圖》)為主要舉措對人工智能發(fā)展進行規(guī)制。鑒于歐盟和美國的人工智能治理措施相對成熟且具有代表性,下文以二者為例探討不同監(jiān)管模式的優(yōu)劣,希冀為我國人工智能的健康發(fā)展和有效治理提供借鑒。

歐盟人工智能立法:安全優(yōu)先,兼顧公平。從立法歷程上看,2021年4月,歐盟委員會發(fā)布了立法提案《歐洲議會和理事會關于制定人工智能統(tǒng)一規(guī)則(人工智能法) 和修訂某些歐盟立法的條例》(以下簡稱《人工智能法案》),開啟了人工智能治理的“硬法”道路。2022年12月形成了《人工智能法案》折衷草案的最終版。2023年6月,歐洲議會通過了《人工智能法案》的談判授權草案,并修訂了原始提案。2023年12月8日,歐洲議會、歐洲理事會和歐盟委員會三方就《人工智能法案》達成協(xié)議,法案規(guī)定了對人工智能領域的全面監(jiān)管。從總體上看,《人工智能法案》在歐盟建立起人工智能開發(fā)、使用的道德和法律框架,并輔以《人工智能責任指令》確保落地執(zhí)行?!度斯ぶ悄芊ò浮返亩噍営懻撝饕獓@以下內容:

一是人工智能的定義與法案適用范圍。《人工智能法案》第3條將人工智能定義為一種或多種技術和方法開發(fā)的軟件,其能夠影響交互環(huán)境的輸出(如內容、預測、建議或決策),實現(xiàn)人為指定的特定目標。該定義范圍較為廣泛,可能涵蓋大量傳統(tǒng)上不被視為人工智能的軟件,不利于人工智能的發(fā)展和治理。因而,當前版本將人工智能定義限縮為“基于機器學習或邏輯和知識的系統(tǒng)”,旨在以不同的自主性水平運行,并且為了明確或隱含的目標,可以影響物理或虛擬環(huán)境的預測、建議或決策等輸出。同時,刪除了附件一和歐盟委員會修改人工智能定義的授權?!度斯ぶ悄芊ò浮冯m未涉及生成式人工智能,但ChatGPT的出現(xiàn),使得立法者在修正案中增加了通用人工智能和基礎模型相關定義,并要求生成式人工智能遵守額外的透明度要求,如披露內容來源、設計模型禁止非法生成?!度斯ぶ悄芊ò浮肪哂杏蛲庑Я?,適用于所有人工智能系統(tǒng)的提供商和部署者(無論是在歐盟還是在第三國建立的)以及所有分銷商和進口商、提供商的授權代表、在歐盟建立或位于歐盟的某些產品的制造商,以及健康、安全或基本權利因使用人工智能系統(tǒng)而受到重大影響的歐盟數(shù)據(jù)主體。

二是人工智能的監(jiān)管模式?!度斯ぶ悄芊ò浮凡捎昧嘶陲L險的分級監(jiān)管方法(risk-based approach),根據(jù)對健康、安全和自然人基本權利的潛在風險對其進行分類并設置不同義務:第一是不可接受的風險,禁止任何企業(yè)或個人部署;第二是高風險,允許相關主體在履行事前評估等義務后投放市場或使用,同時要求事中、事后持續(xù)監(jiān)測;第三是有限風險,無須取得特殊牌照、認證或履行報告、記錄等義務,但應遵循透明度原則,允許適當可追溯性和可解釋性;第四是低風險或最低風險,相應主體可依據(jù)自由意志部署和使用。具體到生成式人工智能而言,由于其沒有特定目的并且可應用于不同場景,故不能基于一般方式或操作模式對其進行風險分級,而應當按照開發(fā)或使用生成式人工智能的預期目的和具體應用領域。②

三是人工智能的一般原則。具體包括:人類代理和監(jiān)督:人工智能系統(tǒng)的開發(fā)和使用必須作為服務于人類的工具,尊重人類尊嚴、個人自主性和功能,并由人類適當控制和監(jiān)督;技術穩(wěn)健性和安全性:人工智能的開發(fā)和部署應最大限度地減少意外和意外的損害,確保在出現(xiàn)意外問題時的穩(wěn)健性,以及在惡意第三方試圖改變人工智能系統(tǒng)性能而非法使用時的彈性;隱私和數(shù)據(jù)保護:人工智能系統(tǒng)必須按照現(xiàn)有的隱私和數(shù)據(jù)保護規(guī)則開發(fā)和使用,同時處理在質量和完整性方面符合高標準的數(shù)據(jù);透明度:人工智能系統(tǒng)的開發(fā)和使用方式必須允許適當?shù)目勺匪菪院涂山忉屝?,讓人類意識到他們與人工智能系統(tǒng)進行通信或互動,并適當?shù)馗嬷脩羧斯ぶ悄艿哪芰途窒扌?,以及受影響之人享有的權利;非歧視和公平:人工智能系統(tǒng)的開發(fā)和使用必須包括不同參與者,促進平等使用、性別平等和文化多樣性,同時避免歐盟或國家法律禁止的歧視性影響和不公平偏見;社會和環(huán)境福祉:人工智能系統(tǒng)應以可持續(xù)和環(huán)保的方式開發(fā)和使用,讓所有人受益,同時監(jiān)測和評估對個人、社會和民主的長期影響。

歐盟意圖通過《人工智能法案》建立人工智能監(jiān)管全球標準,進而使歐洲在國際智能競爭中取得優(yōu)勢地位?!度斯ぶ悄芊ò浮窞樘幚砣斯ぶ悄芟到y(tǒng)制定了相對合理的規(guī)則,在一定程度上可以避免歧視、監(jiān)視和其他潛在危害,特別是在與基本權利相關的領域。例如,《人工智能法案》列出了禁止人工智能的某些用途,公共場所的面部識別便是其一。此外,其將確定減輕風險的控制措施整合到可能出現(xiàn)風險的業(yè)務部門中,能夠幫助各組織了解人工智能系統(tǒng)的成本效益,開展合規(guī)(自我)審查明確責任和義務,最終自信地采用人工智能。但同時,《人工智能法案》在風險分級、監(jiān)管力度、權利保護與責任機制等方面亦有缺陷,如其采用的是橫向立法,試圖把所有人工智能都納入監(jiān)管范圍,而未深入考量人工智能之間的不同特性,可能會導致相關風險防范措施面臨無法執(zhí)行的問題。③

美國人工智能立法:強調自我監(jiān)管,支持技術創(chuàng)新。在人工智能法律和政策制定的全球背景下,美國逐漸形成以自愿原則為基礎的監(jiān)管框架。美國較為全面的監(jiān)管舉措是白宮科技政策辦公室(OSTP)于2022年10月發(fā)布的《權利法案藍圖》,其旨在支持自動化系統(tǒng)設計、部署和治理過程中,保護公民權利。在《權利法案藍圖》指導下,聯(lián)邦各部門開始各司其職,著手制定具體政策,如美國勞工部制定了《公正的人工智能行動手冊》,旨在避免人工智能對求職者與員工產生基于種族、年齡、性別等特征的偏見?!稒嗬ò杆{圖》的核心內容是五項原則:安全有效的系統(tǒng):公眾受到保護,免受不安全或無效的系統(tǒng)的影響;算法歧視保護:公眾不應面臨算法和系統(tǒng)的歧視,自動化系統(tǒng)應當以公平的方式使用和設計;數(shù)據(jù)隱私:自動化系統(tǒng)應該有內置的保護措施保障公眾的數(shù)據(jù)不被濫用,并且確保公眾享有使用數(shù)據(jù)的主導權;知悉和解釋:公眾有權知道其正在使用自動化系統(tǒng),并且理解它是什么以及如何產生對公眾有影響的結果;可替代性原則:在適當?shù)那闆r下,公眾應該能夠選擇不使用自動化系統(tǒng),并使用人工替代方案或其他可選方案。④由于以上原則不受監(jiān)管而缺少約束力,故《權利法案藍圖》并非一份具有立法保護的可執(zhí)行的“權利法案”,更多的是立足未來設想的前瞻性治理藍圖。

目前美國國會對人工智能的監(jiān)管采取了相對不干涉的方法,盡管民主黨領導層已經表示打算引入一項監(jiān)管人工智能的聯(lián)邦法。美國參議院多數(shù)黨領袖查克·舒默(Chuck Schumer)提出了指導未來人工智能立法和監(jiān)管的新框架,具體包括“何人”“何處”“如何”與“保護”四道護欄,要求科技公司在發(fā)布人工智能系統(tǒng)之前進行審查和測試,并向用戶提供結果。但在美國兩黨互相制衡的情況下,該法律通過國會的可能性較低,即使有機會通過,也需經過多輪修改。與之相對,面對歐盟《人工智能法案》帶來的戰(zhàn)略競爭壓力以及以ChatGPT為代表的生成式人工智能的多領域安全風險,美國聯(lián)邦機構采取了積極介入的態(tài)度,在管轄權限內進行監(jiān)管。例如,美國聯(lián)邦貿易委員會(FTC)通過執(zhí)行《公平信貸報告法》《聯(lián)邦貿易委員會法》等法規(guī),積極監(jiān)管與人工智能有關的欺騙性和不公平行為,OpenAI面臨的第一起調查正是FTC進行的;2023年1月,美國國家標準與技術研究院(NIST)制定了《人工智能風險管理框架》,對人工智能存在的風險進行了詳盡的分級分類;2023年4月,美國商務部就人工智能問責措施公開征求意見,包括人工智能模型在發(fā)布前是否應經過認證程序。

從美國地方層面上看,加州通過了《2018加州消費者隱私法案》(CCPA),作為對歐盟《通用數(shù)據(jù)保護條例》的積極回應。2023年,在議員鮑爾·卡漢(Bauer Kahan)的推動下,加州提出AB331(Automated decision tools)法案,要求部署者和自動化決策工具的開發(fā)者在2025年1月1日或之前,以及此后每年,對其使用的任何自動化決策工具進行影響評估,其中包括自動化決策工具的目的及其預期收益、用途和部署環(huán)境的聲明。紐約市頒布了《自動化就業(yè)決策工具法》(《AEDT Law》),要求在招聘和晉升決策中使用“自動化就業(yè)決策工具”的雇主和職業(yè)平臺,對人工智能系統(tǒng)進行全新的、徹底的審查以及更全面的風險測試,評估其是否落入《AEDT Law》的適用范圍。此外,得克薩斯州、佛蒙特州和華盛頓州的立法機構均引入相關立法,要求州機構對正在開發(fā)、使用的人工智能系統(tǒng)進行審查,有效披露人工智能的使用情況??梢姡绹胤秸畬θ斯ぶ悄苤卫磉€是持積極態(tài)度。地方面臨的主要挑戰(zhàn)是,如何在最小妨礙的基礎上監(jiān)管硅谷的人工智能創(chuàng)新。以加州為例,為了克服這一挑戰(zhàn),其所提出的法案作了兩方面的規(guī)定:一是將人工智能治理的重心放在了算法決策對公民的權利、機會和獲得關鍵服務的風險,而不是具體技術的細節(jié)上,能夠允許人工智能的創(chuàng)新發(fā)展;二是確立了人工智能透明度,要求開發(fā)人員和用戶向加州民權部提交能夠詳細說明所涉及的自動化工具類型的年度影響評估,供公眾訪問。開發(fā)人員還需制定一個治理框架,詳細說明該技術的使用方式和可能的影響。此外,加州法案還提到私人訴訟權的問題,通過允許個人在權利受到侵犯時提起訴訟,為權利保障提供了救濟途徑。⑤

目前美國人工智能監(jiān)管重點仍是將現(xiàn)有法律適用于人工智能,而不是制定專門性人工智能法律。例如,F(xiàn)TC多次表示《聯(lián)邦貿易委員會法》第5條“禁止不公平或欺詐行為”完全可適用于人工智能和機器學習系統(tǒng)。⑥事實上,如何協(xié)調現(xiàn)有法律與人工智能之間的沖突,不僅是某一國家的當務之急,亦是國際社會面臨的緊迫問題。目前,美國國會尚未就人工智能監(jiān)管的聯(lián)邦立法達成共識,包括監(jiān)管框架、風險分類分級等具體內容。美國參議院多數(shù)黨領袖查克·舒默主張對人工智能進行類似歐盟的全面監(jiān)管,并通過制定框架、專題論壇等途徑加速國會立法進程,這與美國的自愿原則存在一定沖突,因而,聯(lián)邦層面人工智能監(jiān)管立法的出現(xiàn)還需較長時日。

生成式人工智能對信息內容治理的新挑戰(zhàn)

一般來講,人工智能面臨的風險主要來自技術、市場與規(guī)范等三個方面。⑦以ChatGPT為代表的生成式人工智能在靠近通用人工智能目標的同時,也帶來了信息內容治理的全新挑戰(zhàn),亟需前瞻性、針對性的理論研究。學界分析生成式人工智能風險的主要視角包括:一是基于人工智能一般風險,并結合生成式人工智能獨有特點,對其在智能倫理、知識產權保護、隱私與個人數(shù)據(jù)保護等方面的風險展開研究;⑧二是結合特定領域,研究生成式人工智能在該領域內的風險與治理,如生成式人工智能在司法裁判中的量刑偏差風險;三是立足生成式人工智能的運行結構,分別從準備、運算到生成階段研究其中的風險問題,進而采用相應措施,如采用技管結合糾正生成式人工智能在運算階段的算法歧視風險。⑨本文認為還可從內外部視角展開分析,內部挑戰(zhàn)是模型自身存在的挑戰(zhàn),包括輸入質量問題、處理過程問題、輸出質量問題;外部挑戰(zhàn)則是來自非模型自身的挑戰(zhàn),包括不當利用風險以及法律監(jiān)管風險。

輸入質量問題:人工智能由算法、算力和數(shù)據(jù)要素組成,其中數(shù)據(jù)是人工智能的基礎,在一定程度上決定著其輸出的準確性與可靠性。生成式人工智能系人工智能的一種,故其輸出(生成的內容)同樣會受到數(shù)據(jù)的數(shù)量和質量影響。生成式人工智能必須用高質量數(shù)據(jù)進行訓練,一旦數(shù)據(jù)集被污染或篡改,訓練出的生成式人工智能便可能損害用戶基本權利、知識產權、個人隱私和信息數(shù)據(jù)權,甚至產生社會偏見。

處理過程問題:除數(shù)據(jù)外,訓練時使用的算法模型同樣會影響人工智能的輸出結果。如果將人工智能的訓練看作一場料理,訓練數(shù)據(jù)是以“材料”的角色影響著最終料理的質量,而算法模型則是以“菜譜”的角色發(fā)揮著自身作用,兩者缺一不可。一旦選用的算法模型存在問題或與預期目的不一致,即便輸入再多、再好的數(shù)據(jù)也無法得到表現(xiàn)良好的人工智能系統(tǒng)。由機器學習算法和訓練數(shù)據(jù)所引發(fā)的人工智能歧視和偏見問題,統(tǒng)稱為先行存在的算法偏見,與新知識、新業(yè)態(tài)、新場景出現(xiàn)后引發(fā)的突發(fā)性算法偏見相對應。技術更迭并未杜絕虛假生成問題,只是將其進行了包裝和掩飾,所以生成式人工智能會經常出現(xiàn)突發(fā)性算法偏見,進一步增加了使用風險和治理難度,因而需要更為精準的防護措施。

輸出質量問題:事實上,風險本質上源于人們對事物認知和控制能力不夠,無法在問題萌芽甚至爆發(fā)前及時解決。從該角度來講,技術的可控程度與其風險高低是成反比的,技術越難控制則風險越高。大語言模型和思維鏈在賦予生成式人工智能邏輯推導能力的同時,也使得其輸出內容越來越難以預測,換言之,生成式人工智能的可控程度較低,具有較高的潛在風險。比如,由于社會文化差異,生成式人工智能的輸出在一種文化背景下可能是合適的,但在另一種文化環(huán)境下卻是冒犯性的。人類能辨析此類區(qū)別,但生成式人工智能可能因缺少文化方面的前置設計而無法區(qū)分文化的細微差別,在無意中產生不恰當?shù)膬热荨?/p>

不當利用風險:生成式人工智能在具備高智能的同時,使用的難度和成本較低,這就為部分人員利用其強大力量從事非法活動提供了可能空間,不當利用風險由此產生。我國教育部起草的《中華人民共和國學位法(草案)》中對利用人工智能代寫學位論文等行為及其處理作出明確規(guī)定。OpenAI公司稱其正在向ChatGPT進行敏感詞訓練,當用戶的提問明顯違反已嵌入的倫理和立法時,ChatGPT會拒絕回答。即便如此,部分人員仍然能夠繞過ChatGPT預先設置的“防火墻”,指示其生成非法內容或完成非法操作,不當利用風險未得到有效遏制。長此以往,生成式人工智能可能引發(fā)社會信任危機,使社會民眾陷入真假難辨、人人自危的困境,最終造成“真相的終結”,使人類社會進入“后真相時代”。⑩

法律監(jiān)管風險:生成式人工智能內部的輸入質量問題、處理過程問題和輸出質量問題,以及外部的不當利用風險共同將其監(jiān)管難度推向新的高峰,造成了監(jiān)管失效的法律風險。生成式人工智能的法律風險不局限于某一特定領域,而是橫貫多個領域,需要多個部門的協(xié)同治理。生成式人工智能的使用條款往往缺乏對用戶交互數(shù)據(jù)的授權處理,可能會引發(fā)個人隱私和國家安全問題,因為大型企業(yè)中的部分數(shù)據(jù)已經具有了公共屬性,一旦出現(xiàn)泄露事件不僅會損害企業(yè)利益,更可能對國家安全造成威脅。除此之外,生成式人工智能決策過程不夠透明的問題,也會對法律監(jiān)管造成影響,甚至成為監(jiān)管機關禁止其在特定領域部署的決定性理由。

解決方案:尋求多維平衡

面對生成式人工智能的巨大應用價值和內外部的風險挑戰(zhàn),我們需要作出合理抉擇。目前,世界各國雖然對生成式人工智能的安全性有所質疑,但一致認可其在國際競爭、經濟發(fā)展、數(shù)字政府建設等方面的應用潛力,通過制定相關政策和法規(guī)嘗試處理好安全與發(fā)展、技術創(chuàng)新與公共利益之間的關系,為生成式人工智能的使用奠定前提和保障。我國亦不例外。從《暫行辦法》第1條規(guī)定看,該法制定目的正是“為了促進生成式人工智能健康發(fā)展和規(guī)范應用,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權益”。第3條更是明確指出立法者對于生成式人工智能治理的總體態(tài)度,即“堅持發(fā)展和安全并重、促進創(chuàng)新和依法治理相結合的原則”。事實上,透過該原則便可發(fā)現(xiàn)當前適合我國國情的解決方案,即尋求生成式人工智能治理的多維平衡。

首先,應當平衡安全和發(fā)展的關系。在總體國家安全觀下,安全是發(fā)展的前提,發(fā)展是安全的保障,不發(fā)展就是最大的不安全。我國必須積極發(fā)展生成式人工智能等現(xiàn)代科技手段促進經濟發(fā)展和社會進步,不斷增強我國國際競爭力。《暫行辦法》第3條指出,“對生成式人工智能服務實行包容審慎和分類分級監(jiān)管”。關于具體的措施,《暫行辦法》也給出方案:第5條和第6條明確了鼓勵發(fā)展的方向和內容,如支持行業(yè)組織、企業(yè)、教育和科研機構、公共文化機構、有關專業(yè)機構等在生成式人工智能技術創(chuàng)新、數(shù)據(jù)資源建設、轉化應用、風險防范等方面開展協(xié)作;第7條和第8條分別從預訓練、優(yōu)化訓練等訓練數(shù)據(jù)處理和數(shù)據(jù)標注對生成式人工智能的安全提出了要求,如生成式人工智能服務提供者應當使用具有合法來源的數(shù)據(jù)和基礎模型,不得侵害他人依法享有的知識產權等。

其次,應當平衡技術創(chuàng)新和技術治理的關系。在采取措施加快生成式人工智能創(chuàng)新發(fā)展的同時,也要認識到其所帶來的內外部風險挑戰(zhàn),相應地進行治理。簡言之,應當在創(chuàng)新中治理,在治理中創(chuàng)新,保證技術創(chuàng)新在法治軌道上運行。為此,一方面,發(fā)揮政策引領經濟社會發(fā)展的作用,通過簡化行政許可、減少稅收等途徑積極鼓勵企業(yè)進行技術創(chuàng)新,同時引導企業(yè)利用自身發(fā)展推動經濟社會發(fā)展,對其正當權益通過立法的形式予以確認;另一方面,堅守依法治理底線,對于企業(yè)可能的違規(guī)違法行為予以及時規(guī)范和處理。具體而言,根據(jù)《暫行辦法》第19條之規(guī)定,有關主管部門依據(jù)職責對生成式人工智能服務開展監(jiān)督檢查,提供者應當依法予以配合;對于生成式人工智能提供者違反《中華人民共和國網絡安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》等法律法規(guī)的行為,予以罰款、責令停止提供服務、追究刑事責任等相應處罰;如果現(xiàn)有法律法規(guī)無法有效規(guī)范技術發(fā)展的新業(yè)態(tài),可先由主管部門予以警告、通報批評,責令限期改正,之后及時進行立法(需要考慮特殊立法與一般立法、國家立法與地方立法的辯證關系),確保有法可依、依法行政。

最后,應當平衡企業(yè)合規(guī)義務和企業(yè)負擔能力的關系。生成式人工智能的有效治理,需要開展模型訓練、提供生成服務的企業(yè)承擔相應的合規(guī)義務,但此種義務必須是適當?shù)?,不應超過企業(yè)的負擔能力。對此,可從《暫行辦法》的相關規(guī)定中尋得規(guī)范支撐:其一,第3條要求對生成式人工智能服務進行分類分級監(jiān)管,言下之意就是要依據(jù)具體風險大小進行治理,對在不同領域提供不同生成式人工智能義務的企業(yè)提出有程度差別的合規(guī)義務,這一點與《人工智能法案》基于風險的分級監(jiān)管頗為相似;其二,與原先征求意見稿相比,第7條和第8條明顯降低了企業(yè)研發(fā)、訓練生成式人工智能的合規(guī)要求,如原有第7條第(4)項“能夠保證數(shù)據(jù)的真實性、準確性、客觀性、多樣性”改為“采取有效措施提高訓練數(shù)據(jù)質量,增強訓練數(shù)據(jù)的真實性、準確性、客觀性、多樣性”,原有第8條“抽樣核驗標注內容的正確性”改為“抽樣核驗標注內容的準確性”;其三,第9條和第14條通過重新分配服務提供者與用戶的權利義務,給予了提供者更為靈活的合規(guī)空間,以增強其主動合規(guī)的意愿。例如,將“內容生產者責任”改為“網絡信息內容生產者責任”,使提供服務的企業(yè)不必為用戶惡意濫用生成式人工智能生成的非法內容承擔責任。

生成式人工智能技術已經在商業(yè)貿易、新聞傳播等多行業(yè)掀起巨大波瀾,如何進行有效監(jiān)管使其服務于人類社會是各國應當長期思考和解決的現(xiàn)實命題。不同國家選擇的人工智能監(jiān)管模式反映著特定的社會價值觀和國家優(yōu)先事項,這些不同的要求可能相互沖突,如注重保障用戶隱私和促進技術創(chuàng)新,因而造成了更為復雜的監(jiān)管環(huán)境。歐盟的“安全優(yōu)先,兼顧公平”和美國的“強調自我監(jiān)管,支持技術創(chuàng)新”雖然有諸多不同之處,但也存在著共識部分,或多或少能促進生成式人工智能的技術創(chuàng)新、安全使用與依法治理。同時,透明度和可解釋性將是遵守新興法規(guī)和培養(yǎng)對生成式人工智能技術信任的關鍵所在。歐美立法動向也提醒我國要盡快進行國家層面的人工智能立法,確定人工智能治理的基本原則,以及風險管理制度、主體責任分配、法律責任等內容,統(tǒng)籌全國的治理布局,還要充分發(fā)揮地方積極性,通過地方立法先行先試,避免無法可用的同時為國家層面的人工智能立法積累經驗。

(作者為浙江大學光華法學院教授、博導)

【注:本文系國家社科基金重大項目“建立健全我國網絡綜合治理體系研究”(項目編號:20ZDA062)階段性成果】

【注釋】

①Ouyang L,Wu J,Jiang X,et al."Training language models to follow instructions with human feedback",Advances in Neural Information Processing Systems,2022(35),pp.27730-27744.

②Natali Helberger,Nicholas Diakopoulos."ChatGPT and the AI Act",Internet Policy Review,2023,12(1).

③曾雄、梁正、張輝:《歐盟人工智能的規(guī)制路徑及其對我國的啟示——以〈人工智能法案〉為分析對象》,《電子政務》,2022年第9期。

④The White House,"Blueprint for an AI Bill of Rights",October 2022.

⑤Friedler, Sorelle, Suresh Venkatasubramanian, Alex Engler,"How California and other states are tackling AI legislation",Brookings,March 2023.

⑥Müge Fazlioglu."US federal AI governance: Laws, policies and strategies",International Association of Privacy Professionals,June 2023.

⑦程樂:《人工智能發(fā)展趨勢研判與規(guī)范引導思路》,《國家治理》,2023年第6期。

⑧程樂:《生成式人工智能的法律規(guī)制——以ChatGPT為視角》,《政法論叢》,2023年第4期。

⑨劉艷紅:《生成式人工智能的三大安全風險及法律規(guī)制——以ChatGPT為例》,《東方法學》,2023年第4期。

⑩張廣勝:《生成式人工智能的國家安全風險及其對策》,《人民論壇·學術前沿》,2023年第7期。

責編/靳佳 美編/王夢雅

聲明:本文為人民論壇雜志社原創(chuàng)內容,任何單位或個人轉載請回復本微信號獲得授權,轉載時務必標明來源及作者,否則追究法律責任。

[責任編輯:孫渴]