人妻少妇中文在线视频,丁香五月婷婷激情网,日本韩国黄色成人网站,亚洲综合99伊人四虎

網(wǎng)站首頁(yè) | 網(wǎng)站地圖

大國(guó)新村
首頁(yè) > 原創(chuàng)精品 > 成果首發(fā) > 正文

人工智能時(shí)代教育系統(tǒng)應(yīng)著力培養(yǎng)三種核心能力

【摘要】大型語(yǔ)言模型等人工智能的迅猛發(fā)展對(duì)當(dāng)前的教育體系提出了挑戰(zhàn)。從認(rèn)知科學(xué)、腦科學(xué)、機(jī)器學(xué)習(xí)、行為經(jīng)濟(jì)學(xué)和科學(xué)史的跨學(xué)科視角來(lái)看,在強(qiáng)大的智能技術(shù)面前,教育體系需要培養(yǎng)學(xué)生三種核心能力以確保人類的競(jìng)爭(zhēng)力,即人工智能素養(yǎng)、處理異常的能力、理解人類行為的能力。相較于人工智能,人類有很多獨(dú)有的優(yōu)勢(shì),如處理異常和偏離常規(guī)的數(shù)據(jù),而更重要的是,在涉及法律、道德等問(wèn)題上,人類還需要規(guī)制智能技術(shù)的使用界限,這些都要求人類對(duì)人工智能的底層邏輯和人類的思維與行為加深理解。人工智能是服務(wù)于人類需求的工具,人類需要更好地熟悉和使用它。

【關(guān)鍵詞】教育系統(tǒng) 人工智能素養(yǎng) 人類行為 處理異常

【中圖分類號(hào)】G434/TP18 【文獻(xiàn)標(biāo)識(shí)碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2023.18.005

【作者簡(jiǎn)介】Stella Christie(蔣黛蘭),清華大學(xué)腦與智能實(shí)驗(yàn)室首席研究員、社會(huì)科學(xué)學(xué)院教授、THBI兒童認(rèn)知研究中心創(chuàng)始人。研究方向?yàn)轭惐韧评淼男纬膳c發(fā)展、認(rèn)知科學(xué)。主要著作有《Structure Mapping for Social Learning》(論文)、《Why Play Equals Learning: Comparison as a Learning Mechanism in Play》(論文)、《Learning Sameness: Object and Relational Similarity Across Species》(論文)等。

引言

人工智能快速發(fā)展,其程序和應(yīng)用執(zhí)行任務(wù)的能力持續(xù)增強(qiáng),并在一定程度上呈現(xiàn)追平甚至超越人類的表現(xiàn)。更值得關(guān)注的是,人工智能系統(tǒng)能夠在短時(shí)間內(nèi)通過(guò)自主學(xué)習(xí)加速自身的迭代。例如,AlphaGo在2016年擊敗了圍棋世界冠軍李世石,這在當(dāng)時(shí)被認(rèn)為是人工智能發(fā)展的里程碑式的成就,而就在短短幾年后,人類無(wú)法與人工智能在圍棋和國(guó)際象棋等策略游戲中競(jìng)爭(zhēng)已經(jīng)成為常態(tài)。這引發(fā)人們進(jìn)一步思考:人工智能時(shí)代,人類應(yīng)該如何學(xué)習(xí)?

分析人工智能對(duì)教育系統(tǒng)的影響至關(guān)重要。從個(gè)體層面來(lái)看,這決定著學(xué)生未來(lái)進(jìn)入勞動(dòng)力市場(chǎng)時(shí)的競(jìng)爭(zhēng)力;從國(guó)家層面來(lái)看,這對(duì)中國(guó)未來(lái)的經(jīng)濟(jì)發(fā)展和技術(shù)創(chuàng)新至關(guān)重要??偟膩?lái)說(shuō),本文的分析基于三個(gè)判斷:其一,未來(lái)十年甚至更長(zhǎng)時(shí)間內(nèi),人工智能將是影響全球經(jīng)濟(jì)發(fā)展水平和社會(huì)關(guān)系的最具變革性的要素;其二,人工智能發(fā)展非常迅速,教育系統(tǒng)的設(shè)計(jì)不應(yīng)僅基于當(dāng)前的人工智能生態(tài)系統(tǒng),而應(yīng)前瞻性地基于十年或十五年后的人工智能環(huán)境進(jìn)行考量和設(shè)計(jì);其三,現(xiàn)階段,學(xué)生應(yīng)該注重學(xué)習(xí)人工智能當(dāng)前尚未掌握并且在未來(lái)二十年內(nèi)也無(wú)法掌握的技能。

前瞻性地針對(duì)未來(lái)人工智能環(huán)境設(shè)計(jì)教育系統(tǒng),本身就是一個(gè)很復(fù)雜的問(wèn)題。長(zhǎng)期以來(lái),人們關(guān)于人工智能到底掌握了哪些技能的辯論并沒(méi)有明確的答案,更不用說(shuō)學(xué)生應(yīng)該學(xué)習(xí)什么技能。一方面,除了在大型語(yǔ)言模型方面的顯見(jiàn)成就,人工智能的發(fā)展也遭遇了一些挫折。一些表面的問(wèn)題是容易修復(fù)的,如與ChatGPT 3對(duì)話時(shí),機(jī)器聲稱47大于64(Marcus, 2023),而另一些根源于人工智能底層數(shù)據(jù)集的問(wèn)題則很難在短時(shí)間內(nèi)得到解決,如由于數(shù)據(jù)集的偏見(jiàn)導(dǎo)致人工智能生成有偏見(jiàn)的推薦(Obermeyer et al., 2019; Mehrabi et al., 2021)。另一方面,當(dāng)前人工智能發(fā)展存在嚴(yán)重的局限性,主要體現(xiàn)在人工智能無(wú)法將知識(shí)遷移到新的環(huán)境(Forbus, 2021),而且也無(wú)法靈活地適應(yīng)新的環(huán)境(Marcus and Davis, 2019)。這一問(wèn)題無(wú)法通過(guò)單純?cè)龃髷?shù)據(jù)量來(lái)改進(jìn)解決。上述人工智能發(fā)展的局限對(duì)于如何設(shè)計(jì)教育系統(tǒng)具有重要參考意義。此外,這些局限的程度也在動(dòng)態(tài)變化,理想狀態(tài)下的教育系統(tǒng)應(yīng)當(dāng)能夠預(yù)見(jiàn)十年或更長(zhǎng)時(shí)間范圍內(nèi)的新變化。

本文認(rèn)為,在人工智能時(shí)代,學(xué)生在教育系統(tǒng)中應(yīng)該獲得三種與人工智能相關(guān)的核心能力,即人工智能素養(yǎng)、處理異常的能力和理解人類行為的能力。下文將分別分析這些核心能力的關(guān)聯(lián),論述其重要性,詳細(xì)闡釋人工智能時(shí)代這三種能力是如何發(fā)揮作用的。

人工智能素養(yǎng)

人工智能素養(yǎng)意味著學(xué)生需要了解什么是人工智能,特別是需要理解人工智能的局限和優(yōu)勢(shì),只有這樣,學(xué)生才能有效并負(fù)責(zé)任地運(yùn)用人工智能。當(dāng)下存在著一種思維誤區(qū),一部分人認(rèn)為人工智能素養(yǎng)就是熟練掌握人工智能及其接口的使用方式。例如,許多人主張為年幼的兒童開(kāi)設(shè)如何與人工智能互動(dòng)的課程(以下簡(jiǎn)稱AI使用課程)。出于多種原因,AI使用課程并不能正確或有效地構(gòu)建人工智能素養(yǎng)。

首先,兒童通常會(huì)自發(fā)地學(xué)習(xí)如何使用基于人工智能的技術(shù),就像他們會(huì)本能地探知周遭事物一樣,無(wú)需專門(mén)的課程。研究表明,兒童將人工智能視為一種社會(huì)個(gè)體,與其他人類沒(méi)有太大的區(qū)別,即,他們認(rèn)為人工智能是友好且可以互動(dòng)的(Druga et al., 2017; Tanaka et al., 2007)。從這個(gè)角度看,開(kāi)設(shè)AI使用課程是沒(méi)有必要的。其次,AI使用課程可能增加兒童在日常問(wèn)題解決中對(duì)人工智能的依賴,這對(duì)他們的整體表現(xiàn)、認(rèn)知與文化能力培育將產(chǎn)生不良影響。一個(gè)易于理解的實(shí)證案例是,當(dāng)學(xué)生做筆記時(shí),手寫(xiě)筆記往往比在計(jì)算機(jī)上輸入的筆記質(zhì)量更高(Mueller and Oppenheimer, 2014)。流行的AI使用課程可能會(huì)產(chǎn)生一些影響,例如,過(guò)度依賴人工智能工具,并以此替換了實(shí)際效果更好的傳統(tǒng)技能。這樣的課程還有可能在高科技的掩飾下,給人一種學(xué)生在進(jìn)行復(fù)雜學(xué)習(xí)的假象。從這個(gè)意義上說(shuō),AI使用課程可能會(huì)得到與學(xué)習(xí)的初衷相反的結(jié)果。最后,AI使用課程產(chǎn)生的優(yōu)勢(shì)都是有時(shí)效的,當(dāng)學(xué)生真正進(jìn)入勞動(dòng)力市場(chǎng)使用人工智能技術(shù)時(shí),課程中的技術(shù)就已經(jīng)過(guò)時(shí)了。

對(duì)人工智能素養(yǎng)的正確理解在于知悉人工智能技術(shù)的原理和局限。具體來(lái)說(shuō),一個(gè)具備人工智能素養(yǎng)的學(xué)生應(yīng)該能夠:(1)評(píng)估哪些問(wèn)題可以完全由人工智能解決,哪些需要人類介入解決;(2)闡述為什么人工智能可以或不可以用于某些類型問(wèn)題的解決,及其深層次原因;(3)制定解決問(wèn)題的綜合性措施和策略,并且對(duì)人工智能和人類的局限和優(yōu)勢(shì)進(jìn)行統(tǒng)籌考慮。

能力(1)實(shí)質(zhì)是指學(xué)生必須知道并應(yīng)用相關(guān)原則作出這種決定。判斷一個(gè)問(wèn)題可能不適合人工智能解決的關(guān)鍵因素包括:?jiǎn)栴}是非常規(guī)的、數(shù)據(jù)有限或數(shù)據(jù)質(zhì)量差、數(shù)據(jù)中存在偏見(jiàn),以及開(kāi)創(chuàng)性的工作,如顛覆性科學(xué)發(fā)現(xiàn)等。

能力(2)要求學(xué)生必須知道人工智能模型的工作原理是識(shí)別和使用大數(shù)據(jù)中的統(tǒng)計(jì)規(guī)律。如果問(wèn)題是非常規(guī)的(其解決方案不是可以通過(guò)大數(shù)據(jù)模型來(lái)統(tǒng)計(jì)歸納的),或者可用的數(shù)據(jù)質(zhì)量差、有限或存在偏見(jiàn),那么這種統(tǒng)計(jì)歸納就不能成功。顛覆性的發(fā)現(xiàn)總是“反統(tǒng)計(jì)”的,與普遍觀點(diǎn)相異,受少數(shù)例外情況所啟發(fā)。例如,如果讓只知道傳統(tǒng)導(dǎo)體和絕緣體的工程師來(lái)收集數(shù)據(jù),從該數(shù)據(jù)庫(kù)歸納發(fā)現(xiàn)半導(dǎo)體是難以實(shí)現(xiàn)的。基于這些原則,具備人工智能素養(yǎng)的學(xué)生應(yīng)該能夠判別并證明為什么給定的問(wèn)題適合或不適合人工智能解決。

能力(3)需要進(jìn)一步解釋??梢灶A(yù)見(jiàn),在人工智能愈加普遍的未來(lái),受過(guò)良好教育的畢業(yè)生的大部分專業(yè)工作將專注于人工智能無(wú)法解決的問(wèn)題,但這并不意味著在解決這些問(wèn)題時(shí)不需要人工智能。問(wèn)題的完全解決通常需要人類使用人工智能作為支持,包括記錄整理、秘書(shū)任務(wù)、提供百科全書(shū)式的知識(shí)和數(shù)據(jù)庫(kù)檢索等。在這種情況下,學(xué)生可以獲得的最寶貴的技能是通過(guò)結(jié)合人類和人工智能各自的優(yōu)勢(shì)來(lái)解決問(wèn)題。一般來(lái)說(shuō),人類在開(kāi)放性問(wèn)題的解決上表現(xiàn)更優(yōu)秀,而人工智能在精確和狹義問(wèn)題的解決上具有優(yōu)勢(shì)。因此,通過(guò)結(jié)合二者各自優(yōu)勢(shì)來(lái)解決問(wèn)題的能力意味著將問(wèn)題分解為較小的組件,這些組件要么是開(kāi)放的(需要人類),要么是封閉的(人工智能自動(dòng)化的)。

舉例來(lái)說(shuō),讓學(xué)生通過(guò)看照片確定照片拍攝的地點(diǎn),規(guī)則是他可以向人工智能系統(tǒng)詢問(wèn)關(guān)于照片的各種問(wèn)題,但不允許直接將照片上傳。這是一項(xiàng)開(kāi)放的任務(wù),因?yàn)檫x擇詢問(wèn)的問(wèn)題沒(méi)有固定的模版或規(guī)律,學(xué)生如何選擇反映了人類的優(yōu)勢(shì)。這時(shí),學(xué)生應(yīng)該利用的人工智能優(yōu)勢(shì)是其提供關(guān)于世界的必要事實(shí)知識(shí),因?yàn)檫@些知識(shí)對(duì)學(xué)生來(lái)說(shuō)可能是陌生的。照片顯示了一個(gè)港口、有一艘游輪、一個(gè)可辨認(rèn)的街道標(biāo)志,地上有雪、遠(yuǎn)處的背景是山。學(xué)生問(wèn):“這個(gè)標(biāo)志是用什么語(yǔ)言寫(xiě)的?”答案是阿根廷的西班牙文。學(xué)生再問(wèn):“阿根廷的海洋港口有哪些?”“在這些城市中,哪些城市在冬天會(huì)下雪?”得到的答案是烏斯懷亞。最后,學(xué)生可以問(wèn)一個(gè)驗(yàn)證的問(wèn)題:“烏斯懷亞周圍有山嗎?”學(xué)生根據(jù)人工智能給出的答案最終確定拍攝地點(diǎn)。人工智能時(shí)代,一個(gè)理想的教育系統(tǒng)應(yīng)該培養(yǎng)學(xué)生解決此類問(wèn)題的能力。

人工智能素養(yǎng)的一個(gè)關(guān)鍵內(nèi)容是能夠準(zhǔn)確解讀并批判性地評(píng)估人工智能生成的推薦。從這個(gè)角度說(shuō),人工智能素養(yǎng)的培養(yǎng)對(duì)象應(yīng)更為廣泛,因?yàn)榭萍脊驹诎ń鹑?、醫(yī)療和教育等多個(gè)領(lǐng)域向客戶提供人工智能生成的建議,這些推薦建議幾乎涉及社會(huì)的所有層面。由此,教育系統(tǒng)必須現(xiàn)在就開(kāi)始讓學(xué)生為此做好準(zhǔn)備,培養(yǎng)他們成為明智而自信的人工智能平臺(tái)用戶。這對(duì)于政府和社會(huì)各領(lǐng)域管理者來(lái)說(shuō)尤為重要。

從交通路線設(shè)計(jì)到醫(yī)療方案制定,許多領(lǐng)域已經(jīng)開(kāi)始使用人工智能系統(tǒng)提供關(guān)于政策制定和發(fā)展規(guī)劃的建議。例如,醫(yī)療設(shè)備供應(yīng)商和保險(xiǎn)公司越來(lái)越常用智能算法進(jìn)行風(fēng)險(xiǎn)評(píng)估:識(shí)別具有較大可能性需要昂貴治療的患者,或者估算保險(xiǎn)套餐和健康福利產(chǎn)品的成本等。鑒于醫(yī)療和健康數(shù)據(jù)的復(fù)雜性,相比純粹的人類判斷,智能算法確實(shí)可以提高評(píng)估的準(zhǔn)確性。然而,一項(xiàng)研究顯示,這種智能算法會(huì)出錯(cuò)并表現(xiàn)出系統(tǒng)性偏見(jiàn)(Obermeyer et al., 2019)。這說(shuō)明人工智能生成的推薦不應(yīng)被視為最終決定,而只應(yīng)作為輔助人類決策的依據(jù)之一,人類應(yīng)當(dāng)依靠自身作出有影響力和敏感度的決定。教育系統(tǒng)必須培養(yǎng)未來(lái)的決策者如何正確解讀人工智能生成的推薦,如何為了社會(huì)利益更好地使用它們。

事實(shí)上,人們必須通過(guò)培訓(xùn)才能達(dá)到分析人工智能生成的推薦的能力。上述關(guān)于人工智能會(huì)生成包含偏見(jiàn)的醫(yī)療推薦的研究,使用的是來(lái)自美國(guó)一家醫(yī)院的大數(shù)據(jù)集。結(jié)果顯示,算法預(yù)測(cè)相同風(fēng)險(xiǎn)水平的病例中,黑人患者實(shí)際上比白人患者的病情更嚴(yán)重。這樣的智能算法在配置病人的治療方案時(shí),黑人患者只有比白人患者病情更嚴(yán)重才能得到與后者同樣的治療方案。種族信息不是智能算法數(shù)據(jù)庫(kù)的內(nèi)容,因此偏見(jiàn)的來(lái)源并非直接出自數(shù)據(jù)本身,而是由歷史數(shù)據(jù)中的醫(yī)療費(fèi)用引起的。由于美國(guó)社會(huì)存在一些經(jīng)濟(jì)和社會(huì)因素,導(dǎo)致黑人患者不能像白人患者那樣具備經(jīng)??床〉尼t(yī)療條件,所以算法將黑人標(biāo)定為需要較少醫(yī)療服務(wù)的群體。這項(xiàng)研究說(shuō)明了正確解讀人工智能生成的建議事實(shí)上有多么復(fù)雜。

由此,教育系統(tǒng)必須培養(yǎng)學(xué)生以下能力:準(zhǔn)確指明人工智能可能協(xié)助解決的問(wèn)題;理解底層數(shù)據(jù)和人工智能生成建議的局限性;識(shí)別系統(tǒng)性偏見(jiàn)和造成事實(shí)扭曲的因素;權(quán)衡人工智能推薦的成本和收益,評(píng)估其他外部因素和人工智能無(wú)法計(jì)算的因素,以便最大程度地造福社會(huì)。

處理異常的能力

在使學(xué)生獲得人工智能素養(yǎng)(即理解人工智能系統(tǒng)的統(tǒng)計(jì)基礎(chǔ),以及靈活使用人工智能系統(tǒng)的能力)的基礎(chǔ)上,教育系統(tǒng)的下一個(gè)目標(biāo)是教授其人類獨(dú)有的處理異常的能力。在可預(yù)見(jiàn)的未來(lái),人工智能模型在這方面的表現(xiàn)不會(huì)有明顯的突破。學(xué)生需要認(rèn)識(shí)到在解決問(wèn)題時(shí)具備處理異常情況能力的重要性和挑戰(zhàn),并意識(shí)到分析和利用異常的能力是人類獨(dú)有的優(yōu)勢(shì)。教育系統(tǒng)需要實(shí)現(xiàn)的目標(biāo)是,使學(xué)生有能力和信心在解決問(wèn)題過(guò)程中處理好異常情況。

前文已經(jīng)提及,對(duì)異常情況和離群數(shù)據(jù)的分析在科技創(chuàng)新中發(fā)揮著重要作用。在解決問(wèn)題和創(chuàng)新的過(guò)程中,進(jìn)步和發(fā)現(xiàn)的機(jī)會(huì)通常蘊(yùn)藏在最離群的數(shù)據(jù)中,即統(tǒng)計(jì)工具無(wú)法覆蓋的區(qū)域。這也是我們不能依賴人工智能系統(tǒng)來(lái)引領(lǐng)科學(xué)和技術(shù)創(chuàng)新的部分原因,從很大程度上說(shuō),科技創(chuàng)新只能由人來(lái)完成。

許多科學(xué)突破都能夠歸因于對(duì)異常的關(guān)注和好奇心。舉例來(lái)說(shuō),達(dá)爾文進(jìn)化論的提出主要是受雀鳥(niǎo)喙部變異情況所啟發(fā),而雀鳥(niǎo)生活在偏遠(yuǎn)的加拉帕戈斯群島。一個(gè)偏遠(yuǎn)群島上的奇特鳥(niǎo)類以及關(guān)于它們的有限數(shù)據(jù)事實(shí)上就是我們所稱的離群數(shù)據(jù),同時(shí),由于雀鳥(niǎo)具備許多與“典型”鳥(niǎo)類不同的特征,這也意味著雀鳥(niǎo)的情況屬于異常范疇。在當(dāng)前人工智能系統(tǒng)的邏輯下,關(guān)注到諸如雀鳥(niǎo)喙部變異的情況幾乎是不可能的。相較于此,達(dá)爾文正是通過(guò)關(guān)注異常特征,認(rèn)真分析來(lái)自偏遠(yuǎn)島嶼的一種鳥(niǎo)類的數(shù)據(jù),才實(shí)現(xiàn)了改變世界的科學(xué)突破。這種突破對(duì)于目前存在的以統(tǒng)計(jì)為驅(qū)動(dòng)的人工智能模型來(lái)說(shuō)是不可能的。

上述例子說(shuō)明了兩種相關(guān)的能力,這兩種能力在可預(yù)見(jiàn)的未來(lái)將始終為人類所獨(dú)有,同時(shí)應(yīng)該在現(xiàn)代教育系統(tǒng)中得到進(jìn)一步鼓勵(lì)和培養(yǎng)。一個(gè)是好奇心,即不由外部獎(jiǎng)勵(lì)驅(qū)動(dòng),而是自主產(chǎn)生對(duì)現(xiàn)象、事實(shí)、模式的興趣(Loewenstein, 1994; Kidd and Hayden, 2015);另一個(gè)是提出“為什么”的驅(qū)動(dòng)力,例如,達(dá)爾文不僅僅是觀察并描述雀鳥(niǎo)的喙,而是不斷詢問(wèn)這些觀察背后的內(nèi)在原因。這兩種能力與一個(gè)人處理異常的能力密切相關(guān)。只有一個(gè)好奇的人才會(huì)更好地關(guān)注到異常數(shù)據(jù),只有一個(gè)敢于提出“為什么”的人才會(huì)分析異常并得到收獲。

可以預(yù)見(jiàn),人類的好奇心與敢于提出“為什么”的能力將在很長(zhǎng)時(shí)間內(nèi)持續(xù)領(lǐng)先于人工智能系統(tǒng),所以這些能力的培養(yǎng)應(yīng)當(dāng)成為教育系統(tǒng)的重點(diǎn)目標(biāo)。然而,當(dāng)前的教育系統(tǒng)并沒(méi)有集中培養(yǎng)這些能力。學(xué)校教育系統(tǒng)的諸多努力都是為了培育學(xué)生掌握事實(shí)知識(shí),而這些知識(shí)其實(shí)可以很容易地由人工智能系統(tǒng)提供。教育系統(tǒng)更應(yīng)優(yōu)先培養(yǎng)的是將教育重點(diǎn)從掌握事實(shí)知識(shí)轉(zhuǎn)向提出好問(wèn)題和正確分析實(shí)證的能力,例如異常和離群數(shù)據(jù)這樣的實(shí)證。

愿意并能夠分析異常不僅在科技創(chuàng)新中極具重要性,在實(shí)際工作生活中也能夠發(fā)揮很大作用。以協(xié)助進(jìn)行醫(yī)療診斷為例,由于大多數(shù)患者和疾病都符合統(tǒng)計(jì)分析的規(guī)律性模式,因此,在很多地方,人工智能系統(tǒng)已經(jīng)被用于輔助醫(yī)療診斷。這并不令人驚訝,因?yàn)樵卺t(yī)療診斷方面,可用的數(shù)據(jù)量大,且數(shù)據(jù)的規(guī)律較為明顯。但值得注意的是,人工智能模型無(wú)法診斷出患有罕見(jiàn)基礎(chǔ)疾病的患者。如果一種病癥是罕見(jiàn)的,那么可用的數(shù)據(jù)集并不足以讓人工智能模型作出正確的、統(tǒng)計(jì)上有根據(jù)的推薦療法。更為重要的是,使用一個(gè)以統(tǒng)計(jì)為驅(qū)動(dòng)的人工智能模型來(lái)診斷罕見(jiàn)病患者是十分危險(xiǎn)的,因?yàn)榻y(tǒng)計(jì)上對(duì)常見(jiàn)病有益的推薦療法可能恰恰是對(duì)罕見(jiàn)病患者有害的診斷。例如,進(jìn)行性肌肉骨化癥(FOP)會(huì)導(dǎo)致患者身體的肌肉以及結(jié)締組織逐漸骨化并累及全身,這一疾病的預(yù)估發(fā)病率為1/200萬(wàn)。如果用人工智能模型協(xié)助診斷,那么幾乎一定會(huì)誤診此病的患者,并推薦有害的治療方案(對(duì)FOP患者的手術(shù)干預(yù)會(huì)加速骨骼的異常生長(zhǎng))。這一案例說(shuō)明,對(duì)異常的關(guān)注應(yīng)當(dāng)成為各類職業(yè)的基礎(chǔ)素養(yǎng)的必要內(nèi)容。

在人工智能時(shí)代,大部分的人類智慧活動(dòng)將集中在處理異常上。如果教育系統(tǒng)不重視對(duì)細(xì)節(jié)和異常的關(guān)注,將無(wú)法幫助現(xiàn)在的學(xué)生在未來(lái)環(huán)境中做好準(zhǔn)備和取得成功。當(dāng)前教育系統(tǒng)更偏重教育學(xué)生對(duì)典型案例進(jìn)行理解,而不強(qiáng)調(diào)對(duì)異常的關(guān)注,這體現(xiàn)為當(dāng)前學(xué)校教育中常見(jiàn)的重復(fù)訓(xùn)練的教學(xué)方法,如根據(jù)做題的速度評(píng)估能力等。應(yīng)當(dāng)優(yōu)化現(xiàn)有教育系統(tǒng),注重培育并引導(dǎo)學(xué)生關(guān)注并分析異常。

理解人類行為的能力

人工智能對(duì)未來(lái)勞動(dòng)力市場(chǎng)和技術(shù)環(huán)境的影響仍是不確定的。已經(jīng)發(fā)生的變化與所謂的“弱AI”相關(guān),例如,文書(shū)類任務(wù)的自動(dòng)化、自動(dòng)售票、配送和支付、面部識(shí)別、交通執(zhí)法,等等。而未來(lái),人工智能將執(zhí)行更為復(fù)雜的任務(wù),如廣泛使用自動(dòng)駕駛車輛。

勞動(dòng)力和技術(shù)環(huán)境的轉(zhuǎn)型在人工智能發(fā)展到接近所謂的“強(qiáng)AI”閾值時(shí),將會(huì)更具顛覆性。“強(qiáng)AI”是指具備自主選擇能力并能夠解決新問(wèn)題的人工智能。在這一發(fā)展過(guò)程中重要的里程碑是實(shí)現(xiàn)與人類相近的交互,并且能夠做到無(wú)法與真正的人類相區(qū)分,這個(gè)閾值被稱為圖靈測(cè)試(Turing, 1950)。“現(xiàn)有的大型語(yǔ)言模型是否已接近強(qiáng)AI的閾值”是一個(gè)有爭(zhēng)議的問(wèn)題。無(wú)論如何,朝著強(qiáng)AI不斷靠近的發(fā)展趨勢(shì)將使得未來(lái)人工智能可能影響更大比例的受過(guò)更高教育的人口,包括藝術(shù)家、工程師、醫(yī)生和計(jì)算機(jī)程序員等。

在討論如何優(yōu)化面向人工智能時(shí)代的教育系統(tǒng)時(shí),不僅要考慮已經(jīng)由弱AI引發(fā)的變化,還要預(yù)判即將由強(qiáng)AI或類強(qiáng)AI引發(fā)的變化。要做到這一點(diǎn),需要研究歷史上那些首次引入顛覆性技術(shù)的領(lǐng)域發(fā)生了什么,可以深入研究的案例包括印刷機(jī)、蒸汽機(jī)或洗衣機(jī)等。新技術(shù)對(duì)勞動(dòng)力市場(chǎng)的影響主要包括三個(gè)方面:一是某些工作被淘汰或被自動(dòng)化替代;二是創(chuàng)造出新的工作;三是由于新工作的誕生在時(shí)間上滯后于舊工作的消失,將會(huì)存在持續(xù)一段時(shí)間的失業(yè)現(xiàn)象。

人工智能時(shí)代,推動(dòng)教育系統(tǒng)轉(zhuǎn)型應(yīng)從上述三個(gè)方面著手。針對(duì)舊工作消失,教育系統(tǒng)應(yīng)該預(yù)先降低學(xué)生選擇即將消失的職業(yè)的比重;針對(duì)創(chuàng)造新工作,教育系統(tǒng)應(yīng)培養(yǎng)在新工作中最有用的技能;針對(duì)預(yù)期的暫時(shí)性失業(yè),我們應(yīng)該在人工智能變革效應(yīng)發(fā)揮之前做好前瞻性規(guī)劃。

考慮到這些因素,當(dāng)前亟需回答的關(guān)鍵問(wèn)題是:在新工作中,哪些技能將是最有用的?雖然這些新工作現(xiàn)在還不存在,但隨著人工智能的逐步發(fā)展將會(huì)被創(chuàng)造出來(lái)。對(duì)于這個(gè)問(wèn)題,先前的技術(shù)變革也是一個(gè)很好的借鑒參考。當(dāng)手抄工因印刷機(jī)而失業(yè),當(dāng)馬車夫因火車而失業(yè),當(dāng)家庭主婦因洗衣機(jī)的引入而有了更多空閑時(shí)間時(shí),隨之而出現(xiàn)的是什么工作或活動(dòng)呢?當(dāng)然,首先一些新工作是由新設(shè)備的操作者承擔(dān)的——如印刷工、火車司機(jī)和洗衣店員工。在當(dāng)前的背景下進(jìn)行類比,則這些工作在某種程度上類似于人工智能開(kāi)發(fā)者的角色。然而,這樣的工作只占新工作的一小部分。這表明,對(duì)即將到來(lái)的人工智能變革的最佳應(yīng)對(duì)方式并不是增加人工智能開(kāi)發(fā)或計(jì)算機(jī)編程課程的比例,因?yàn)橹挥幸恍〔糠中鹿ぷ鲿?huì)要求熟練掌握人工智能模型技術(shù)。那么,哪些新的技能和工作將占據(jù)未來(lái)勞動(dòng)力市場(chǎng)上的競(jìng)爭(zhēng)優(yōu)勢(shì)呢?

答案是,依賴人與人互動(dòng)的工作。有幾個(gè)原因能夠支持這個(gè)預(yù)判。首先,這是在歷史上技術(shù)變革中多次發(fā)生的現(xiàn)象,我們沒(méi)有理由懷疑人工智能技術(shù)變革在這方面會(huì)有所不同。新技術(shù)出現(xiàn)時(shí)將產(chǎn)生各類問(wèn)題,在社會(huì)層面上去解決這些問(wèn)題需要?jiǎng)?chuàng)建新的工作,而這些工作的關(guān)鍵內(nèi)容就是人與人的互動(dòng)。其次,相較于人類員工,人工智能模型并不擅長(zhǎng)與人類客戶進(jìn)行互動(dòng)。最后,由于某些倫理和政治因素,人類員工在這些領(lǐng)域是無(wú)法被替代的。基于這些原因,在人工智能時(shí)代,理解人類行為應(yīng)成為教育的重要內(nèi)容和核心目標(biāo)。下文將詳細(xì)闡述人際互動(dòng)和人類參與將如何改變勞動(dòng)力市場(chǎng)。

內(nèi)容創(chuàng)作。隨著人工智能技術(shù)的廣泛應(yīng)用,許多新的工作將涉及人工智能輔助的內(nèi)容創(chuàng)作。當(dāng)前,數(shù)字經(jīng)濟(jì)已經(jīng)創(chuàng)造了大量新的創(chuàng)意工作,而在十年前根本難以想象這些工作。人工智能技術(shù)新的發(fā)展將使復(fù)雜內(nèi)容創(chuàng)作變得更加容易,這一趨勢(shì)將在未來(lái)幾年加速凸顯。一方面,人工智能輔助的內(nèi)容創(chuàng)作的受眾仍是人類用戶,因此如何理解人類行為對(duì)此類工作至關(guān)重要;另一方面,人工智能輔助的內(nèi)容創(chuàng)作工作不要求掌握太多的人工智能技術(shù)知識(shí),更進(jìn)一步說(shuō),并不會(huì)比當(dāng)前計(jì)算機(jī)輔助工作所要求的計(jì)算機(jī)知識(shí)更多。因此,這些工作實(shí)際上要求教育系統(tǒng)進(jìn)一步提高對(duì)人文、藝術(shù)和創(chuàng)造性工作的關(guān)注度。

用戶體驗(yàn)。目前,基于人工智能的創(chuàng)新產(chǎn)品主要應(yīng)用于服務(wù)領(lǐng)域,包括無(wú)人配送、智能客服、網(wǎng)上銀行、聊天機(jī)器人等。這些產(chǎn)品的服務(wù)對(duì)象依舊是人,評(píng)價(jià)產(chǎn)品質(zhì)量的最重要指標(biāo)是用戶滿意度,這意味著成功的產(chǎn)品開(kāi)發(fā)將需要大量的用戶體驗(yàn)測(cè)試員和評(píng)估員。更進(jìn)一步說(shuō),產(chǎn)品開(kāi)發(fā)者必須在人類行為、感知和認(rèn)知方面進(jìn)行學(xué)習(xí),以避免過(guò)多試錯(cuò)、更快地滿足用戶需求。在以人工智能為核心驅(qū)動(dòng)力的智能經(jīng)濟(jì)背景下,卓越產(chǎn)品的大部分競(jìng)爭(zhēng)優(yōu)勢(shì)將來(lái)自卓越的用戶體驗(yàn),而不是產(chǎn)品的技術(shù)規(guī)格。理想的教育系統(tǒng)應(yīng)當(dāng)可以使未來(lái)的勞動(dòng)者在用戶體驗(yàn)領(lǐng)域?yàn)楦?jìng)爭(zhēng)更好地作出準(zhǔn)備。

首先,從高中階段開(kāi)始,將人類行為、感知和認(rèn)知的元素引入通用課程。在以人工智能為核心驅(qū)動(dòng)力的智能經(jīng)濟(jì)下,對(duì)這些技能的需求幾乎是普遍存在的,因此有必要向廣大學(xué)生群體教授這些技能,而不僅局限于大學(xué)階段選擇相關(guān)專業(yè)的少數(shù)人。當(dāng)前,中國(guó)部分大學(xué)教授人機(jī)交互(HCI)課程,這是朝著正確的方向邁出的重要一步,然而這些課程體系還需持續(xù)優(yōu)化并在更大范圍內(nèi)加以普及。同時(shí),我們還需要在高中階段引入這一領(lǐng)域的基礎(chǔ)元素。

其次,強(qiáng)調(diào)使用定量工具研究用戶體驗(yàn)的必要性。在作為認(rèn)知科學(xué)教授的工作經(jīng)歷中,筆者發(fā)現(xiàn)許多涉及用戶體驗(yàn)領(lǐng)域的專業(yè)人士缺少適當(dāng)?shù)亩抗ぞ邅?lái)正確評(píng)估用戶的滿意度或偏好。對(duì)此,應(yīng)將相關(guān)定量方法的研究引入大學(xué)課程體系,特別是計(jì)算機(jī)科學(xué)相關(guān)專業(yè)。長(zhǎng)遠(yuǎn)來(lái)看,將認(rèn)知科學(xué)和心理學(xué)的教學(xué)從社會(huì)科學(xué)學(xué)院轉(zhuǎn)移到自然科學(xué)學(xué)院將是大有裨益的。這將鼓勵(lì)自然科學(xué)的學(xué)生選修心理學(xué)和認(rèn)知科學(xué)課程,并為其設(shè)定一個(gè)預(yù)期:這些領(lǐng)域的研究和教學(xué)必須遵循假設(shè)檢驗(yàn)、通過(guò)可復(fù)現(xiàn)的實(shí)驗(yàn)進(jìn)行驗(yàn)證并采用定量分析的科學(xué)范式。

這些變化將使當(dāng)前的學(xué)生做好準(zhǔn)備,成為更有效的、具有競(jìng)爭(zhēng)力的和靈活的人工智能產(chǎn)品設(shè)計(jì)者。這種準(zhǔn)備對(duì)于他們?cè)谖磥?lái)勞動(dòng)力市場(chǎng)上的個(gè)人競(jìng)爭(zhēng)力提升來(lái)說(shuō)至關(guān)重要。在國(guó)家層面,這樣的準(zhǔn)備也將有力推動(dòng)各領(lǐng)域的高質(zhì)量發(fā)展,顯著提高中國(guó)的國(guó)際競(jìng)爭(zhēng)力。

收益分配。當(dāng)機(jī)器生成的作品產(chǎn)生收入時(shí),誰(shuí)應(yīng)該獲得收益?當(dāng)機(jī)器生成的產(chǎn)品引發(fā)事故時(shí),誰(shuí)應(yīng)該在道德、經(jīng)濟(jì)乃至法律上負(fù)責(zé)?隨著人工智能技術(shù)進(jìn)一步發(fā)展,這些問(wèn)題將變得更加重要,也更為微妙,因?yàn)檫@些問(wèn)題的產(chǎn)生離不開(kāi)人的參與。例如,MidJourney生成的藝術(shù)產(chǎn)品贏得藝術(shù)比賽,被用于雜志封面,我們應(yīng)該如何分配著作貢獻(xiàn)?藝術(shù)家在創(chuàng)作藝術(shù)品之前訓(xùn)練人工智能的基礎(chǔ)數(shù)據(jù)庫(kù),并輸入描述預(yù)期效果的提示詞;人工智能不像簡(jiǎn)單的畫(huà)筆或顏料,開(kāi)發(fā)人工智能技術(shù)的團(tuán)隊(duì)也有貢獻(xiàn)。如何為人工智能生成的工作產(chǎn)品分配著作貢獻(xiàn)是一個(gè)復(fù)雜的問(wèn)題,需要仔細(xì)評(píng)估道德、經(jīng)濟(jì)和法律等諸多因素。

隨著時(shí)間的推移,復(fù)雜的案例和相關(guān)政策的實(shí)施將需要企業(yè)中的專業(yè)人員以及政府相應(yīng)部門(mén)的專門(mén)人員介入,這正是人工智能技術(shù)創(chuàng)造的新工作崗位需求。這些工作要求對(duì)人工智能技術(shù)的原則有較為深入的理解,更要求能夠與利益相關(guān)者或智能產(chǎn)品創(chuàng)造者、制造者進(jìn)行有效的人際互動(dòng),教育系統(tǒng)必須為當(dāng)前的學(xué)生做好相關(guān)的準(zhǔn)備。

使用限制。技術(shù)越先進(jìn),設(shè)定其使用限制和界限的問(wèn)題就越復(fù)雜。在什么情況下可以接受使用機(jī)器?類似難題已經(jīng)開(kāi)始給教育者和學(xué)生造成困惑。例如,隨著像ChatGPT、Google Bard或ChatGLM這樣的大型語(yǔ)言模型的出現(xiàn),學(xué)生在多大程度上可以使用這些平臺(tái)來(lái)準(zhǔn)備作業(yè)?教師在備課或考試時(shí)是否可以使用ChatGPT?這些問(wèn)題非常復(fù)雜,不能割離社會(huì)價(jià)值觀和規(guī)范來(lái)回答。換言之,這類問(wèn)題需要由能夠成熟地評(píng)估智能技術(shù)對(duì)人類影響的人來(lái)解決。

在實(shí)踐中,未來(lái)的人工智能環(huán)境需要人工智能管理員來(lái)設(shè)定智能技術(shù)在特定領(lǐng)域的部署規(guī)則。這不僅僅是宏觀上法律系統(tǒng)的問(wèn)題,微觀上許多企業(yè)和地方機(jī)構(gòu)也將需要專門(mén)人員來(lái)評(píng)估智能技術(shù)在特定問(wèn)題上的使用。例如,各個(gè)學(xué)??赡苄枰约旱闹悄芗夹g(shù)管理員來(lái)設(shè)定關(guān)于學(xué)生和教師在學(xué)校層面使用智能技術(shù)的規(guī)定。因?yàn)闆](méi)有一個(gè)政策可以通用于所有學(xué)校的具體實(shí)際情況。小學(xué)和大學(xué)、職業(yè)和非職業(yè)學(xué)校、鄉(xiāng)村和城市學(xué)校,都需要根據(jù)自己的實(shí)際情況和社會(huì)地理環(huán)境調(diào)整政策。對(duì)智能技術(shù)管理員有需求的可能遠(yuǎn)不只學(xué)校,還包括商業(yè)企業(yè)、醫(yī)療機(jī)構(gòu)、政府機(jī)關(guān)等。這些專門(mén)人員需要接受人類行為和認(rèn)知方面的培訓(xùn),以便在特定任務(wù)中評(píng)估使用智能技術(shù)是否有助于機(jī)構(gòu)的整體發(fā)展目標(biāo)。

為了理解類似智能技術(shù)管理員這樣的專門(mén)人員需要解決的問(wèn)題類型,我們可以先了解學(xué)生使用人工智能系統(tǒng)做作業(yè)的問(wèn)題。首先,不同的學(xué)校需要有不同的政策:人工智能系統(tǒng)在作業(yè)中的最佳輔助邊界對(duì)于小學(xué)生和大學(xué)生來(lái)說(shuō)是截然不同的。其次,需要細(xì)致且有針對(duì)性地調(diào)整允許使用人工智能系統(tǒng)輔助的方式。如寫(xiě)論文的學(xué)生使用人工智能系統(tǒng)找到支持證據(jù)是可以被允許的,但讓人工智能系統(tǒng)進(jìn)行寫(xiě)作是絕對(duì)不被允許的。最后,人工智能系統(tǒng)使用的界限不能過(guò)于僵硬,否則學(xué)生將難以形成和具備我們前文討論的“AI+人類”綜合性解決問(wèn)題的能力。這個(gè)例子帶給我們?nèi)齻€(gè)方面的啟示:設(shè)定人工智能系統(tǒng)使用界限的復(fù)雜性;需要在具體的情境中切合實(shí)際,而不是設(shè)定統(tǒng)一的界限;專門(mén)人員發(fā)揮的效能取決于其對(duì)人類行為和認(rèn)知的知識(shí)掌握程度。

在前文提及的醫(yī)院使用智能技術(shù)為患者選擇治療方法的案例中,經(jīng)濟(jì)、倫理和社會(huì)因素變得更加重要。人工智能技術(shù)發(fā)展的主要推動(dòng)力之一是其能夠提高決策的準(zhǔn)確性、提升經(jīng)濟(jì)效率。然而,如例所示,因遵循有誤的人工智能系統(tǒng)生成建議而產(chǎn)生的錯(cuò)誤的醫(yī)療責(zé)任劃分,實(shí)則涉及到重大的倫理問(wèn)題,而類似的各方面的問(wèn)題本質(zhì)上都屬于人類應(yīng)當(dāng)處理的問(wèn)題范疇。教育系統(tǒng)必須培養(yǎng)能夠分析和權(quán)衡人工智能技術(shù)部署的成本和效益的未來(lái)人才。

結(jié)語(yǔ)

人工智能的飛速發(fā)展要求教育系統(tǒng)進(jìn)行相應(yīng)的調(diào)整和變化。鑒于人工智能迭代的速度,教育系統(tǒng)的調(diào)整變化不應(yīng)僅僅是被動(dòng)地回應(yīng),而應(yīng)主動(dòng)預(yù)判和積極應(yīng)對(duì)智能技術(shù)的變化與社會(huì)的變革。與常見(jiàn)的觀點(diǎn)正相反,人工智能發(fā)展引發(fā)的勞動(dòng)力市場(chǎng)變革乃至社會(huì)變革,不僅不會(huì)“威脅”或“取代”人類,反而會(huì)帶來(lái)更多對(duì)與人類相關(guān)的技能的需求,而這要求我們?cè)谌斯ぶ悄軙r(shí)代更重視研究人類行為、感知和認(rèn)知。教育系統(tǒng)的調(diào)整應(yīng)當(dāng)注重培育學(xué)生三種與人工智能相關(guān)的核心能力,即人工智能素養(yǎng)、處理異常的能力、理解人類行為的能力,而這些調(diào)整在當(dāng)下應(yīng)盡快進(jìn)行。

參考文獻(xiàn)

S. Druga et al., 2017, “'Hey Google Is It Ok If I Eat You?': Initial Explorations in Child-Agent Interaction,“ Proceedings of the 2017 Conference on Interaction Design and Children.

K. Forbus, 2021, "Evaluating Revolutions in Artificial Intelligence from a Human Perspective," AI and the Future of Skills, Volume 1, Paris: OECD Publishing.

C. Kidd and B. Y. Hayden, 2015, “The Psychology and Neuroscience of Curiosity,“ Neuron, 88(3).

G. Loewenstein, 1994, “The Psychology of Curiosity: A Review and Reinterpretation,“ Psychological Bulletin, 116(1).

G. Marcus and E. Davis, 2019, Rebooting AI: Building Artificial Intelligence We Can Trust, New York: Pantheon Books.

G. Marcus, 2023, “Elon Musk Thinks We're Close to Solving AI. That Doesn't Make It True.“ https://www.vox.com/future-perfect/23622120/elon-musk-solve-ai-chatgpt-wrong.

N. Mehrabi et al., 2021, “A Survey on Bias and Fairness in Machine Learning,“ ACM Computing Surveys, 54(6).

P. A. Mueller and D. M. Oppenheimer, 2014, “The Pen Is Mightier Than the Keyboard: Advantages of Longhand Over Laptop Note Taking,“ Psychological Science, 25(6).

Z. Obermeyer et al., 2019, “Dissecting Racial Bias in an Algorithm Used to Manage the Health of Populations,“ Science, 366(6464).

F. Tanaka et al., 2007, “Socialization Between Toddlers and Robots at an Early Childhood Education Center,“ Proceedings of the National Academy of Sciences, 104(46).

A. M. Turing, 1950, “Computing Machinery and Intelligence,“ Mind, 59.

Education System Should Focus on Instilling Three Core Abilities in the Era

of Artificial Intelligence

Stella Christie

Abstract: Rapid advances in Artificial Intelligence, including large language models, present a challenge to the current education system. Using interdisciplinary perspectives of cognitive and brain sciences, machine learning, behavioral economics, and history of science, this paper argues for three core abilities that need to be instilled in the new education system: AI literacy, the ability to handle exceptions, and the ability to understand human behavior. Compared with AI, humans have many unique advantages, such as dealing with abnormal and unconventional data. More importantly, when it comes to issues involving law, ethics, etc., humans need to regulate the boundaries of intelligent technology usage, which requires a deeper understanding of the underlying logic of AI and human thinking and behavior. AI is a tool that serves human needs, and humans need to become more familiar with and proficient in its use.

Keywords: education system, AI literacy, human behavior, ability to handle exceptions

[責(zé)任編輯:李思琪]