鄧國民1, 李 梅2
(1.貴陽學(xué)院 教育科學(xué)學(xué)院, 貴州 貴陽 550005;2.北京開放大學(xué) 教育學(xué)院, 北京 100081)
[摘 要] 文章旨在揭示智能化時(shí)代的教育將面臨哪些新的倫理問題,并在人工智能倫理和教育倫理的基礎(chǔ)上,探討教育人工智能的倫理原則。運(yùn)用文獻(xiàn)研究和邏輯推理方法,系統(tǒng)梳理了教育人工智能應(yīng)用的特點(diǎn)和優(yōu)勢,及其可能引發(fā)的新的倫理問題:(1)角色層面,系統(tǒng)創(chuàng)建者、教師、學(xué)生和監(jiān)測員等利益相關(guān)者將面臨更加復(fù)雜的倫理困境;(2)技術(shù)層面,涉及自動(dòng)化決策倫理問責(zé)、算法倫理和數(shù)據(jù)倫理等方面的問題;(3)社會(huì)層面,可能轉(zhuǎn)變就業(yè)市場、改變?nèi)穗H關(guān)系和引發(fā)新的社會(huì)不公平。因此,需要對教育人工智能倫理問題的復(fù)雜性有充分的認(rèn)識(shí),同時(shí)需要遵循一般的人工智能倫理原則和教育倫理原則,其中,最核心的內(nèi)容為二者之間的交集,具體包括:(1)福祉;(2)是非善惡;(3)公平正義;(4)人權(quán)和尊嚴(yán);(5)自由自治;(6)責(zé)任和問責(zé)。
[關(guān)鍵詞] 教育人工智能; 人工智能倫理; 教育倫理; 數(shù)據(jù)倫理; 算法倫理; 倫理原則
一、引 言
當(dāng)前,人工智能、大數(shù)據(jù)和物聯(lián)網(wǎng)等新技術(shù)的發(fā)展正在推動(dòng)人類社會(huì)從信息時(shí)代進(jìn)入智能化時(shí)代。信息時(shí)代的教育仍然帶有明顯的工業(yè)化特征:借助現(xiàn)代信息技術(shù),提高教育資源創(chuàng)建、傳遞和共享的效率,打破時(shí)空的限制,實(shí)現(xiàn)人才培養(yǎng)的批量化和效率的最大化。然而,信息時(shí)代的教師資源仍然短缺,而且教師深陷于大量瑣碎的日常工作中,使得真正意義上的因材施教難以實(shí)現(xiàn)。
教育人工智能是在教育領(lǐng)域應(yīng)用的人工智能技術(shù)及系統(tǒng),能夠憑借其高度智能化、自動(dòng)化和高精準(zhǔn)性的數(shù)據(jù)分析處理能力與主動(dòng)學(xué)習(xí)能力,承擔(dān)一部分過去只有教師才能夠勝任的工作,從而有效地解決信息時(shí)代的教育所面臨的一系列問題:(1)利用基于自然語言處理和深度學(xué)習(xí)的自動(dòng)問答技術(shù),能夠自動(dòng)回答學(xué)生提出的問題[1];(2)自動(dòng)評(píng)價(jià)學(xué)生的學(xué)習(xí)與作業(yè),并提供符合其認(rèn)知狀態(tài)的反饋和支持[2];(3)利用情感檢測技術(shù)自動(dòng)識(shí)別學(xué)生的身體動(dòng)作和面部表情,識(shí)別學(xué)生學(xué)習(xí)過程中的情感需求,提供個(gè)性化情感支持[3];(4)模擬教師、管理者、學(xué)習(xí)伙伴、合作者和競爭者等不同的角色,促進(jìn)交流與合作[4];(5)構(gòu)建自適應(yīng)學(xué)習(xí)環(huán)境,分析和診斷學(xué)習(xí)者的學(xué)習(xí)風(fēng)格、學(xué)習(xí)需要,為他們提供自適應(yīng)學(xué)習(xí)支持服務(wù);(6)利用決策管理技術(shù)輔助教師的教學(xué)決策和學(xué)習(xí)者的學(xué)習(xí)決策[5]。因此,教育人工智能能夠更有效地支持個(gè)性化教學(xué),甚至在某些學(xué)習(xí)支持服務(wù)方面的能力已經(jīng)超越了人類教師。
然而,教育人工智能強(qiáng)大的數(shù)據(jù)整合與分析能力,同時(shí)也會(huì)引發(fā)一系列新的倫理問題,例如:可能會(huì)給用戶的私人數(shù)據(jù)和隱私保護(hù)帶來潛在的風(fēng)險(xiǎn);模糊教師、學(xué)生和人工智能代理等角色之間的界限。因此,教育人工智能的設(shè)計(jì)、開發(fā)和教學(xué)實(shí)踐應(yīng)用都需要對其倫理問題的復(fù)雜性有充分的認(rèn)識(shí),并認(rèn)真思考應(yīng)該遵循何種倫理原則。
二、教育人工智能面臨的倫理問題
(一)利益相關(guān)者倫理問題
探討教育人工智能的倫理問題,首先需要確定其涉及哪些利益相關(guān)者。湯姆塞特(Tomsett)等人從人工智能的可解釋性或透明度的角度,定義了人工智能生態(tài)系統(tǒng)中的六種不同的角色,分別是系統(tǒng)創(chuàng)建者、系統(tǒng)操作員、決策執(zhí)行者、決策主體、數(shù)據(jù)主體以及系統(tǒng)監(jiān)測員[6]。教育人工智能是在教育領(lǐng)域應(yīng)用的人工智能技術(shù)及系統(tǒng),其利益相關(guān)者同樣應(yīng)該包括這些角色。首先,創(chuàng)建者包括開發(fā)教育人工智能的軟件公司、員工及與其合作的相關(guān)專業(yè)人員和研究人員。其次,教師和學(xué)生均承擔(dān)了操作員、執(zhí)行者、決策主體和數(shù)據(jù)主體等角色,因?yàn)樵诮虒W(xué)過程中,教師起主導(dǎo)作用,學(xué)生具有主體地位,他們都會(huì)直接與教育人工智能進(jìn)行交互,為系統(tǒng)提供輸入并接收系統(tǒng)輸出的信息。師生均會(huì)在教育人工智能輸出的信息的基礎(chǔ)上作出決策,而且會(huì)受到對方?jīng)Q策的影響。他們的個(gè)人信息均可能用于訓(xùn)練教育人工智能,豐富和完善其智能導(dǎo)師代理、學(xué)習(xí)者模型和教學(xué)法模型。最后,監(jiān)測員是指對教育人工智能進(jìn)行審查的代理機(jī)構(gòu)或人員,由他們對教育人工智能的應(yīng)用效果和可能產(chǎn)生的潛在風(fēng)險(xiǎn)進(jìn)行審查。因此,在構(gòu)建教育人工智能的過程中,需要同時(shí)考慮系統(tǒng)創(chuàng)建者、教師、學(xué)生和監(jiān)測員等利益相關(guān)者的倫理問題。
1. 系統(tǒng)創(chuàng)建者倫理問題
教育人工智能的創(chuàng)建者包括系統(tǒng)設(shè)計(jì)師、軟件架構(gòu)師、程序員等設(shè)計(jì)開發(fā)人員。他們在設(shè)計(jì)、開發(fā)教育人工智能的過程中,需要在綜合考慮其教學(xué)應(yīng)用效果的同時(shí),兼顧教師和學(xué)生的利益。他們需要在保證教育人工智能的穩(wěn)健性、安全性、可解釋性、非歧視性和公平性的同時(shí),支持教師和學(xué)生的主觀能動(dòng)性,重視師生的身心健康和學(xué)生綜合素質(zhì)的全面發(fā)展,而且需要能夠支持問責(zé)追因。為了滿足這些方面的要求,教育人工智能的創(chuàng)建者應(yīng)該清楚各自承擔(dān)了什么樣的倫理責(zé)任。首先,設(shè)計(jì)師需要了解不同用戶之間存在的能力、需求及社會(huì)文化等方面的差異,真正基于善良的動(dòng)機(jī)設(shè)計(jì)產(chǎn)品,避免任何形式的傷害與歧視。軟件架構(gòu)師需要構(gòu)建安全、可靠和透明的系統(tǒng)架構(gòu)體系,在保護(hù)用戶個(gè)人數(shù)據(jù)安全、保障系統(tǒng)可靠運(yùn)行的同時(shí),更好地支持問責(zé)追蹤。而對程序員來說,需要設(shè)計(jì)無偏見的算法,使其能夠公平、公正地對待每一位用戶。
2. 教師倫理問題
人工智能技術(shù)將會(huì)實(shí)現(xiàn)很多職業(yè)的自動(dòng)化。教師的日常工作,如教學(xué)評(píng)價(jià)、教學(xué)診斷、教學(xué)反饋以及教學(xué)決策中的很大一部分都將由教育人工智能分擔(dān),教師角色將會(huì)不斷深化,最終發(fā)生轉(zhuǎn)變。一方面,教師將從一些重復(fù)的、瑣碎的日常事務(wù)中解放出來,能夠有更多的時(shí)間和精力投入到更具創(chuàng)造性、人性化和關(guān)鍵性的教學(xué)工作中去,例如:創(chuàng)造和部署更加復(fù)雜的智能化學(xué)習(xí)環(huán)境,利用和擴(kuò)充自身的專業(yè)知識(shí),在恰當(dāng)?shù)臅r(shí)間為學(xué)習(xí)者提供更有針對性的支持。另一方面,對技術(shù)重要性的加持,將對教師工作及角色產(chǎn)生直接影響,例如:可能會(huì)掩蓋教師的個(gè)人能力、知識(shí)及人格等方面的重要性,削弱教師的主觀能動(dòng)性[5]。因此,在智能化教學(xué)環(huán)境下,教師將面臨一系列新的倫理困境:(1)如何定義和應(yīng)對自己新的角色地位及其與智能導(dǎo)師之間的關(guān)系;(2)利用教育人工智能采集和使用學(xué)生的學(xué)習(xí)行為數(shù)據(jù)為其提供教學(xué)支持服務(wù)的過程中,該如何保護(hù)他們的隱私及個(gè)人安全;(3)在新的教學(xué)實(shí)踐環(huán)境下,教師應(yīng)該具備什么樣的倫理知識(shí),需要遵循什么樣的倫理準(zhǔn)則以作出倫理決策。因此,教育人工智能將對教師的能力素質(zhì)與知識(shí)結(jié)構(gòu)提出更多新的要求,他們不僅需要具備一定的關(guān)于教育人工智能設(shè)計(jì)、開發(fā)和應(yīng)用方面的能力與知識(shí),而且還需要具備一定的倫理知識(shí),使其能夠以符合倫理原則的方式將教育人工智能融入教育實(shí)踐[7]。
3. 學(xué)生倫理問題
智能化時(shí)代對學(xué)生的學(xué)習(xí)、能力、素養(yǎng)提出了更多新的要求,也使學(xué)生面臨的倫理問題更加復(fù)雜化。第一,人工智能可能改變未來的就業(yè)市場,就業(yè)導(dǎo)向的教育很可能過時(shí),因此,學(xué)習(xí)者對于自己所學(xué)習(xí)的內(nèi)容和目標(biāo)都需要進(jìn)行重新思考[8]。第二,人的神經(jīng)系統(tǒng)是可塑的,教育人工智能能夠給學(xué)習(xí)者提供個(gè)性化的學(xué)習(xí)支持服務(wù),但同時(shí)也可能會(huì)剝奪他們的很多思維訓(xùn)練和學(xué)習(xí)體驗(yàn)的機(jī)會(huì),改變他們的大腦結(jié)構(gòu)和認(rèn)知能力,尤其是在學(xué)習(xí)者大腦發(fā)育的關(guān)鍵期過度使用認(rèn)知技術(shù),將可能帶來不可逆轉(zhuǎn)的嚴(yán)重后果,這對他們發(fā)展更高級(jí)的認(rèn)知技能和創(chuàng)新能力是非常不利的[9]。第三,教育人工智能的發(fā)展,使知識(shí)產(chǎn)權(quán)和誠信等倫理問題變得更加微妙和復(fù)雜。如果學(xué)生利用教育人工智能自動(dòng)生成論文、作業(yè)或作品,其中涉及的知識(shí)產(chǎn)權(quán)的歸屬問題,目前仍缺乏明確的倫理規(guī)范[10]。第四,教育人工智能的使用會(huì)不會(huì)給學(xué)習(xí)者帶來身體的重復(fù)性勞損、視力問題和肥胖問題等,會(huì)不會(huì)影響他們的視覺、觸覺和聽覺等感官的敏感性,會(huì)不會(huì)剝奪他們體驗(yàn)簡單快樂生活的機(jī)會(huì)[11]。第五,教育人工智能可能會(huì)剝奪大量的學(xué)習(xí)者與教師和同伴交流的機(jī)會(huì),這會(huì)不會(huì)影響他們參與有意義的人類社會(huì)活動(dòng)的能力。第六,教育人工智能的認(rèn)知能力、計(jì)算能力和信息處理能力在某些方面遠(yuǎn)遠(yuǎn)超越了人類學(xué)習(xí)者,會(huì)不會(huì)讓他們變得沮喪,降低他們的學(xué)習(xí)動(dòng)機(jī),使其不再愿意去主動(dòng)解決問題和進(jìn)行理性思考。
4. 監(jiān)測員倫理問題
在教育人工智能場景下,監(jiān)測員包括制定教育人工智能標(biāo)準(zhǔn)的機(jī)構(gòu)或相關(guān)人員、數(shù)據(jù)專員等,他們主要負(fù)責(zé)對系統(tǒng)的一致性、安全性和公平性等方面進(jìn)行測試、調(diào)查和審查[6]。安全測試一般在教育人工智能部署之前進(jìn)行,而審查需要檢查系統(tǒng)過去的輸出,因此,需要一個(gè)備份系統(tǒng)存儲(chǔ)教育人工智能的數(shù)據(jù)、決策及解釋。監(jiān)測員正是通過這些數(shù)據(jù)、解釋與教育人工智能進(jìn)行交互,分析和審查教育人工智能作出教學(xué)支持服務(wù)決策的一致性、安全性和公平性,并提出相應(yīng)的整改措施。因此,保證教育人工智能的可解釋性,需要對其作出的決策、判斷和學(xué)習(xí)支持服務(wù)建立相應(yīng)的存儲(chǔ)保留機(jī)制和解釋方案,供監(jiān)測員審查,通過第三方機(jī)構(gòu)來保證教育人工智能的設(shè)計(jì)、開發(fā)和應(yīng)用是符合教育教學(xué)倫理規(guī)范的。審查之后,監(jiān)測員還需要向創(chuàng)建者提供如何改進(jìn)教育人工智能的反饋,如重新訓(xùn)練模型、提高模型的公平性和保護(hù)學(xué)生隱私數(shù)據(jù)的安全策略。
(二)技術(shù)倫理問題
1. 自動(dòng)化決策倫理問責(zé)問題
隨著教育人工智能的自主控制和自主決策能力不斷增強(qiáng),它們也需要意識(shí)到自身行為的倫理含義,而不是依賴于設(shè)計(jì)人員預(yù)置的規(guī)則。因此,需要給教育人工智能引入倫理原則和規(guī)則,構(gòu)建智能道德代理,使其具有一定的倫理決策能力,并能夠?qū)ψ约旱臎Q策、行為和后果進(jìn)行判斷,協(xié)調(diào)各方利益,但這樣也會(huì)引發(fā)出一些新的倫理問題[12]。首先,規(guī)則與算法是由設(shè)計(jì)者、程序員定制的,而不是由教育人工智能自主建構(gòu)的,權(quán)威、權(quán)力和影響力會(huì)越來越多地體現(xiàn)在算法的開發(fā)和實(shí)施上。在各方利益沖突的情況下,教育人工智能應(yīng)該優(yōu)先服務(wù)于誰的利益,設(shè)計(jì)者、程序員、教師還是學(xué)生?其次,教育人工智能的應(yīng)用可能會(huì)導(dǎo)致學(xué)習(xí)的失敗,其中潛在的責(zé)任主體包括設(shè)計(jì)開發(fā)人員、教師、學(xué)生和智能代理等,出現(xiàn)這種情況時(shí)應(yīng)該向誰問責(zé),軟件、數(shù)據(jù)、教師和學(xué)生各自應(yīng)該承擔(dān)什么樣的責(zé)任,目前還缺乏相應(yīng)的問責(zé)機(jī)制。最后,教育人工智能本身的自動(dòng)化和復(fù)雜性,意味著我們很難確定系統(tǒng)的決策機(jī)制是如何運(yùn)行的,也很難對其進(jìn)行追溯和解釋。
2. 算法倫理問題
目前,人工智能主要通過機(jī)器學(xué)習(xí)和深度學(xué)習(xí)算法進(jìn)行學(xué)習(xí)和訓(xùn)練,基于過去記錄的歷史數(shù)據(jù)作出決策和判斷。如果利用教育人工智能對學(xué)習(xí)者及其學(xué)習(xí)進(jìn)行評(píng)價(jià),那么只能根據(jù)過去的標(biāo)準(zhǔn)和方法,如特定歷史文化背景下的成功衡量標(biāo)準(zhǔn)來進(jìn)行,這將會(huì)使學(xué)習(xí)算法不可避免地產(chǎn)生歷史或文化的偏差與偏見,局限于依據(jù)歷史案例的平均化數(shù)據(jù)進(jìn)行處理,而在處理具有創(chuàng)造性和創(chuàng)新性的學(xué)習(xí)活動(dòng)過程方面面臨極大的挑戰(zhàn)[9]。從基本的倫理觀點(diǎn)來看,教師和學(xué)生能動(dòng)性的表達(dá)需要的不僅僅是重復(fù)過去的歷史選擇,而是需要強(qiáng)調(diào)人的創(chuàng)造性和創(chuàng)新性,不能只是停留在過去。教育人工智能可能提供更多個(gè)性化和多樣化的學(xué)習(xí)路徑和學(xué)習(xí)資源的選擇,但目前的做法一般是根據(jù)用戶過去的選擇和決定將其確定為不同的個(gè)人畫像,然后過濾掉不符合其個(gè)人畫像的學(xué)習(xí)內(nèi)容和路徑。這種方式可能會(huì)限制學(xué)習(xí)者對學(xué)習(xí)內(nèi)容多樣化的需求,忽視人的學(xué)習(xí)和發(fā)展的靈活性、多樣性和不確定性。
3. 數(shù)據(jù)倫理問題
教育人工智能的正常運(yùn)行需要大量數(shù)據(jù)的支持,因而需要記錄大量關(guān)于學(xué)習(xí)者的能力、情緒、策略和誤解等方面的數(shù)據(jù),其中涉及大量新的數(shù)據(jù)倫理問題。首先,在數(shù)據(jù)的分析和處理過程中是否會(huì)涉及數(shù)據(jù)意外泄露的問題,教師和學(xué)生應(yīng)該在何種程度上控制自己的數(shù)據(jù),保護(hù)自己不受到傷害和歧視。其次,誰擁有這些數(shù)據(jù),其中涉及什么樣的隱私問題,如果發(fā)生個(gè)人信息泄露,誰應(yīng)該對此負(fù)責(zé)。最后,對于這些數(shù)據(jù),應(yīng)該如何分析、解釋和共享,如何糾正可能對個(gè)別學(xué)生的合法權(quán)利產(chǎn)生負(fù)面影響的偏見(有意識(shí)和無意識(shí)的),尤其是在考慮到種族、社會(huì)地位和收入不平等的情況下。因此,教育人工智能的倫理原則不能被簡化為關(guān)于數(shù)據(jù)或計(jì)算方法的問題,還需要考慮數(shù)據(jù)倫理和教育倫理。教育人工智能的倫理問題,實(shí)際上是數(shù)據(jù)倫理、計(jì)算倫理和教育倫理的綜合應(yīng)用[13]。
(三)社會(huì)倫理問題
1. 轉(zhuǎn)變就業(yè)市場和人才培養(yǎng)的方向
現(xiàn)行教育系統(tǒng)的關(guān)鍵作用之一是培養(yǎng)學(xué)習(xí)者參與社會(huì)經(jīng)濟(jì)生活的能力。教育制度的歷史與工業(yè)社會(huì)的發(fā)展密切相關(guān),雇傭勞動(dòng)仍然是當(dāng)今社會(huì)及其日常生活的核心組織原則。但是,人工智能將可能代替人類的很多工作,這會(huì)不會(huì)導(dǎo)致失業(yè)率的上升?縱觀歷次工業(yè)革命,每次都會(huì)出現(xiàn)類似的擔(dān)憂,但最后對人才的需求量反而越來越大,因?yàn)殡S著人口的增長和社會(huì)的發(fā)展,對產(chǎn)品和服務(wù)都會(huì)提出新的需求[9]。一些簡單的、重復(fù)性的勞動(dòng)將由人工智能承擔(dān),人類則將從事一些富有創(chuàng)造性、挑戰(zhàn)性和不可替代性的工作,例如:人工智能系統(tǒng)的設(shè)計(jì)與開發(fā)、人工智能哲學(xué)問題和社會(huì)問題的研究等。他們將有更多的時(shí)間和精力投入自己感興趣的領(lǐng)域,真正實(shí)現(xiàn)人性的解放。因此,未來的就業(yè)市場格局將面臨根本性的轉(zhuǎn)變,社會(huì)對人才的能力和素養(yǎng)也會(huì)提出更多新的要求,這將對人才培養(yǎng)的質(zhì)量標(biāo)準(zhǔn)和規(guī)格帶來革命性的影響。
2. 改變教學(xué)過程中的人際關(guān)系
教育人工智能的技術(shù)化過程可能會(huì)忽略師生之間以及學(xué)生之間的正確關(guān)系(“我―你”而不是“我―他”),弱化我們對教育的理解,進(jìn)而只是將其理解為學(xué)習(xí)技能,而不是人的培養(yǎng),從而容易忽略教師和教學(xué)在教育過程中的重要性[14]。教育人工智能將對師生關(guān)系產(chǎn)生重要的影響,它可能會(huì)削弱師生之間和學(xué)生之間的聯(lián)系水平,以及他們之間建立聯(lián)系的能力,同時(shí)也可能削弱教學(xué)過程和學(xué)習(xí)過程,弱化教師作為專業(yè)人員的地位。師生關(guān)系質(zhì)量對于學(xué)習(xí)者的個(gè)人自尊、學(xué)習(xí)動(dòng)機(jī)和挑戰(zhàn)新問題的信心等影響學(xué)業(yè)成績的因素都具有重要的影響。教師對學(xué)生的友善態(tài)度和及時(shí)反饋有助于他們獲得自信心,促進(jìn)他們健康情感的發(fā)展。而且,我們也無法保證所有的教育人工智能使用者都是基于一種良好的意圖,教育人工智能的濫用和不良使用,例如:獲取他人的隱私數(shù)據(jù),模仿他人的筆跡、語音和會(huì)話風(fēng)格去獲取非法利益,以及將教育人工智能生成的知識(shí)、報(bào)告和藝術(shù)作品據(jù)為己有,都可能降低教學(xué)過程中人與人之間的信任感。
3. 引發(fā)新的社會(huì)不公平
教育人工智能的初衷是要增進(jìn)教育系統(tǒng)內(nèi)各利益相關(guān)者的福祉,讓更多的教師和學(xué)生受益,需要盡量避免因?yàn)閿?shù)字鴻溝而導(dǎo)致的新的社會(huì)不公平。教育人工智能領(lǐng)域的數(shù)字鴻溝,不是簡單地由社會(huì)經(jīng)濟(jì)地位差異而導(dǎo)致的對技術(shù)設(shè)備擁有和訪問權(quán)的懸殊引起的,而是由一系列復(fù)雜的影響因素構(gòu)成,如信息素養(yǎng)、人工智能素養(yǎng)、對待教育人工智能的態(tài)度、應(yīng)用能力和使用意向等,它們會(huì)影響教師和學(xué)生應(yīng)用教育人工智能的目的、方法和策略,進(jìn)而影響最終的教與學(xué)效果,帶來新的教育不公平[5]。歷史經(jīng)驗(yàn)也表明,新技術(shù)的應(yīng)用往往并不會(huì)縮小教育的不平等,反而可能擴(kuò)大教育的不平等,這其中涉及技術(shù)應(yīng)用的能力、效果和效率等方面的問題。
三、教育人工智能倫理原則
人工智能本身的自動(dòng)化、自主性和能動(dòng)性等方面的特征,使其同時(shí)扮演道德行動(dòng)者和容受者的角色,并具有一定的倫理責(zé)任和道德決策能力。教育人工智能的應(yīng)用可能會(huì)使各利益相關(guān)者面臨眾多新的倫理兩難問題,并帶來一系列新的技術(shù)倫理和社會(huì)倫理困境。因此,教育人工智能的應(yīng)用絕不僅僅是一個(gè)技術(shù)層面的問題,還涉及技術(shù)與人類的關(guān)系、科技哲學(xué)及社會(huì)學(xué)等層面的問題,如果對其倫理困境的復(fù)雜性沒有深刻的認(rèn)識(shí),將可能帶來不可估量的負(fù)面影響。一方面,教育人工智能是人工智能技術(shù)及系統(tǒng)在教育領(lǐng)域的具體應(yīng)用,需要遵循一般的人工智能倫理原則;另一方面,它又是一種具體的教育教學(xué)實(shí)踐活動(dòng),需要遵循教育倫理原則。
根據(jù)對國際電氣和電子工程師協(xié)會(huì)(IEEE)2019年發(fā)布的《合倫理設(shè)計(jì):利用人工智能和自主系統(tǒng)最大化人類福祉的愿景(第一版)》[15]、歐盟委員會(huì)2019年發(fā)布的《值得依賴的人工智能倫理準(zhǔn)則》以及其他人工智能倫理指南文件的分析[16],可以發(fā)現(xiàn),盡管各國存在文化傳統(tǒng)方面的差異,但在通用人工智能倫理方面表現(xiàn)出一定的趨同性,主要包括可解釋性、公平正義、責(zé)任、隱私和數(shù)據(jù)治理、善待、非惡意、自由自治、信任、尊嚴(yán)、穩(wěn)健性、福祉、有效性、慎用、勝任和人權(quán)等方面。教育倫理原則主要包括:(1)能否給教育活動(dòng)的全體利益相關(guān)者帶來福祉;(2)能否明辨是非善惡標(biāo)準(zhǔn);(3)是否尊重教育公平和教育正義;(4)是否保護(hù)人的教育權(quán)、自由權(quán)和隱私權(quán)等基本人權(quán);(5)是否尊重人,是否維護(hù)人的道德尊嚴(yán);(6)是否履行教育的道德責(zé)任與義務(wù)[17]??梢?,人工智能倫理和教育倫理在福祉、是非善惡、公平正義、人權(quán)和尊嚴(yán)、自由自治和責(zé)任等方面存在交叉重疊之處,如圖1所示。
(1.貴陽學(xué)院 教育科學(xué)學(xué)院, 貴州 貴陽 550005;2.北京開放大學(xué) 教育學(xué)院, 北京 100081)
[摘 要] 文章旨在揭示智能化時(shí)代的教育將面臨哪些新的倫理問題,并在人工智能倫理和教育倫理的基礎(chǔ)上,探討教育人工智能的倫理原則。運(yùn)用文獻(xiàn)研究和邏輯推理方法,系統(tǒng)梳理了教育人工智能應(yīng)用的特點(diǎn)和優(yōu)勢,及其可能引發(fā)的新的倫理問題:(1)角色層面,系統(tǒng)創(chuàng)建者、教師、學(xué)生和監(jiān)測員等利益相關(guān)者將面臨更加復(fù)雜的倫理困境;(2)技術(shù)層面,涉及自動(dòng)化決策倫理問責(zé)、算法倫理和數(shù)據(jù)倫理等方面的問題;(3)社會(huì)層面,可能轉(zhuǎn)變就業(yè)市場、改變?nèi)穗H關(guān)系和引發(fā)新的社會(huì)不公平。因此,需要對教育人工智能倫理問題的復(fù)雜性有充分的認(rèn)識(shí),同時(shí)需要遵循一般的人工智能倫理原則和教育倫理原則,其中,最核心的內(nèi)容為二者之間的交集,具體包括:(1)福祉;(2)是非善惡;(3)公平正義;(4)人權(quán)和尊嚴(yán);(5)自由自治;(6)責(zé)任和問責(zé)。
[關(guān)鍵詞] 教育人工智能; 人工智能倫理; 教育倫理; 數(shù)據(jù)倫理; 算法倫理; 倫理原則
一、引 言
當(dāng)前,人工智能、大數(shù)據(jù)和物聯(lián)網(wǎng)等新技術(shù)的發(fā)展正在推動(dòng)人類社會(huì)從信息時(shí)代進(jìn)入智能化時(shí)代。信息時(shí)代的教育仍然帶有明顯的工業(yè)化特征:借助現(xiàn)代信息技術(shù),提高教育資源創(chuàng)建、傳遞和共享的效率,打破時(shí)空的限制,實(shí)現(xiàn)人才培養(yǎng)的批量化和效率的最大化。然而,信息時(shí)代的教師資源仍然短缺,而且教師深陷于大量瑣碎的日常工作中,使得真正意義上的因材施教難以實(shí)現(xiàn)。
教育人工智能是在教育領(lǐng)域應(yīng)用的人工智能技術(shù)及系統(tǒng),能夠憑借其高度智能化、自動(dòng)化和高精準(zhǔn)性的數(shù)據(jù)分析處理能力與主動(dòng)學(xué)習(xí)能力,承擔(dān)一部分過去只有教師才能夠勝任的工作,從而有效地解決信息時(shí)代的教育所面臨的一系列問題:(1)利用基于自然語言處理和深度學(xué)習(xí)的自動(dòng)問答技術(shù),能夠自動(dòng)回答學(xué)生提出的問題[1];(2)自動(dòng)評(píng)價(jià)學(xué)生的學(xué)習(xí)與作業(yè),并提供符合其認(rèn)知狀態(tài)的反饋和支持[2];(3)利用情感檢測技術(shù)自動(dòng)識(shí)別學(xué)生的身體動(dòng)作和面部表情,識(shí)別學(xué)生學(xué)習(xí)過程中的情感需求,提供個(gè)性化情感支持[3];(4)模擬教師、管理者、學(xué)習(xí)伙伴、合作者和競爭者等不同的角色,促進(jìn)交流與合作[4];(5)構(gòu)建自適應(yīng)學(xué)習(xí)環(huán)境,分析和診斷學(xué)習(xí)者的學(xué)習(xí)風(fēng)格、學(xué)習(xí)需要,為他們提供自適應(yīng)學(xué)習(xí)支持服務(wù);(6)利用決策管理技術(shù)輔助教師的教學(xué)決策和學(xué)習(xí)者的學(xué)習(xí)決策[5]。因此,教育人工智能能夠更有效地支持個(gè)性化教學(xué),甚至在某些學(xué)習(xí)支持服務(wù)方面的能力已經(jīng)超越了人類教師。
然而,教育人工智能強(qiáng)大的數(shù)據(jù)整合與分析能力,同時(shí)也會(huì)引發(fā)一系列新的倫理問題,例如:可能會(huì)給用戶的私人數(shù)據(jù)和隱私保護(hù)帶來潛在的風(fēng)險(xiǎn);模糊教師、學(xué)生和人工智能代理等角色之間的界限。因此,教育人工智能的設(shè)計(jì)、開發(fā)和教學(xué)實(shí)踐應(yīng)用都需要對其倫理問題的復(fù)雜性有充分的認(rèn)識(shí),并認(rèn)真思考應(yīng)該遵循何種倫理原則。
二、教育人工智能面臨的倫理問題
(一)利益相關(guān)者倫理問題
探討教育人工智能的倫理問題,首先需要確定其涉及哪些利益相關(guān)者。湯姆塞特(Tomsett)等人從人工智能的可解釋性或透明度的角度,定義了人工智能生態(tài)系統(tǒng)中的六種不同的角色,分別是系統(tǒng)創(chuàng)建者、系統(tǒng)操作員、決策執(zhí)行者、決策主體、數(shù)據(jù)主體以及系統(tǒng)監(jiān)測員[6]。教育人工智能是在教育領(lǐng)域應(yīng)用的人工智能技術(shù)及系統(tǒng),其利益相關(guān)者同樣應(yīng)該包括這些角色。首先,創(chuàng)建者包括開發(fā)教育人工智能的軟件公司、員工及與其合作的相關(guān)專業(yè)人員和研究人員。其次,教師和學(xué)生均承擔(dān)了操作員、執(zhí)行者、決策主體和數(shù)據(jù)主體等角色,因?yàn)樵诮虒W(xué)過程中,教師起主導(dǎo)作用,學(xué)生具有主體地位,他們都會(huì)直接與教育人工智能進(jìn)行交互,為系統(tǒng)提供輸入并接收系統(tǒng)輸出的信息。師生均會(huì)在教育人工智能輸出的信息的基礎(chǔ)上作出決策,而且會(huì)受到對方?jīng)Q策的影響。他們的個(gè)人信息均可能用于訓(xùn)練教育人工智能,豐富和完善其智能導(dǎo)師代理、學(xué)習(xí)者模型和教學(xué)法模型。最后,監(jiān)測員是指對教育人工智能進(jìn)行審查的代理機(jī)構(gòu)或人員,由他們對教育人工智能的應(yīng)用效果和可能產(chǎn)生的潛在風(fēng)險(xiǎn)進(jìn)行審查。因此,在構(gòu)建教育人工智能的過程中,需要同時(shí)考慮系統(tǒng)創(chuàng)建者、教師、學(xué)生和監(jiān)測員等利益相關(guān)者的倫理問題。
1. 系統(tǒng)創(chuàng)建者倫理問題
教育人工智能的創(chuàng)建者包括系統(tǒng)設(shè)計(jì)師、軟件架構(gòu)師、程序員等設(shè)計(jì)開發(fā)人員。他們在設(shè)計(jì)、開發(fā)教育人工智能的過程中,需要在綜合考慮其教學(xué)應(yīng)用效果的同時(shí),兼顧教師和學(xué)生的利益。他們需要在保證教育人工智能的穩(wěn)健性、安全性、可解釋性、非歧視性和公平性的同時(shí),支持教師和學(xué)生的主觀能動(dòng)性,重視師生的身心健康和學(xué)生綜合素質(zhì)的全面發(fā)展,而且需要能夠支持問責(zé)追因。為了滿足這些方面的要求,教育人工智能的創(chuàng)建者應(yīng)該清楚各自承擔(dān)了什么樣的倫理責(zé)任。首先,設(shè)計(jì)師需要了解不同用戶之間存在的能力、需求及社會(huì)文化等方面的差異,真正基于善良的動(dòng)機(jī)設(shè)計(jì)產(chǎn)品,避免任何形式的傷害與歧視。軟件架構(gòu)師需要構(gòu)建安全、可靠和透明的系統(tǒng)架構(gòu)體系,在保護(hù)用戶個(gè)人數(shù)據(jù)安全、保障系統(tǒng)可靠運(yùn)行的同時(shí),更好地支持問責(zé)追蹤。而對程序員來說,需要設(shè)計(jì)無偏見的算法,使其能夠公平、公正地對待每一位用戶。
2. 教師倫理問題
人工智能技術(shù)將會(huì)實(shí)現(xiàn)很多職業(yè)的自動(dòng)化。教師的日常工作,如教學(xué)評(píng)價(jià)、教學(xué)診斷、教學(xué)反饋以及教學(xué)決策中的很大一部分都將由教育人工智能分擔(dān),教師角色將會(huì)不斷深化,最終發(fā)生轉(zhuǎn)變。一方面,教師將從一些重復(fù)的、瑣碎的日常事務(wù)中解放出來,能夠有更多的時(shí)間和精力投入到更具創(chuàng)造性、人性化和關(guān)鍵性的教學(xué)工作中去,例如:創(chuàng)造和部署更加復(fù)雜的智能化學(xué)習(xí)環(huán)境,利用和擴(kuò)充自身的專業(yè)知識(shí),在恰當(dāng)?shù)臅r(shí)間為學(xué)習(xí)者提供更有針對性的支持。另一方面,對技術(shù)重要性的加持,將對教師工作及角色產(chǎn)生直接影響,例如:可能會(huì)掩蓋教師的個(gè)人能力、知識(shí)及人格等方面的重要性,削弱教師的主觀能動(dòng)性[5]。因此,在智能化教學(xué)環(huán)境下,教師將面臨一系列新的倫理困境:(1)如何定義和應(yīng)對自己新的角色地位及其與智能導(dǎo)師之間的關(guān)系;(2)利用教育人工智能采集和使用學(xué)生的學(xué)習(xí)行為數(shù)據(jù)為其提供教學(xué)支持服務(wù)的過程中,該如何保護(hù)他們的隱私及個(gè)人安全;(3)在新的教學(xué)實(shí)踐環(huán)境下,教師應(yīng)該具備什么樣的倫理知識(shí),需要遵循什么樣的倫理準(zhǔn)則以作出倫理決策。因此,教育人工智能將對教師的能力素質(zhì)與知識(shí)結(jié)構(gòu)提出更多新的要求,他們不僅需要具備一定的關(guān)于教育人工智能設(shè)計(jì)、開發(fā)和應(yīng)用方面的能力與知識(shí),而且還需要具備一定的倫理知識(shí),使其能夠以符合倫理原則的方式將教育人工智能融入教育實(shí)踐[7]。
3. 學(xué)生倫理問題
智能化時(shí)代對學(xué)生的學(xué)習(xí)、能力、素養(yǎng)提出了更多新的要求,也使學(xué)生面臨的倫理問題更加復(fù)雜化。第一,人工智能可能改變未來的就業(yè)市場,就業(yè)導(dǎo)向的教育很可能過時(shí),因此,學(xué)習(xí)者對于自己所學(xué)習(xí)的內(nèi)容和目標(biāo)都需要進(jìn)行重新思考[8]。第二,人的神經(jīng)系統(tǒng)是可塑的,教育人工智能能夠給學(xué)習(xí)者提供個(gè)性化的學(xué)習(xí)支持服務(wù),但同時(shí)也可能會(huì)剝奪他們的很多思維訓(xùn)練和學(xué)習(xí)體驗(yàn)的機(jī)會(huì),改變他們的大腦結(jié)構(gòu)和認(rèn)知能力,尤其是在學(xué)習(xí)者大腦發(fā)育的關(guān)鍵期過度使用認(rèn)知技術(shù),將可能帶來不可逆轉(zhuǎn)的嚴(yán)重后果,這對他們發(fā)展更高級(jí)的認(rèn)知技能和創(chuàng)新能力是非常不利的[9]。第三,教育人工智能的發(fā)展,使知識(shí)產(chǎn)權(quán)和誠信等倫理問題變得更加微妙和復(fù)雜。如果學(xué)生利用教育人工智能自動(dòng)生成論文、作業(yè)或作品,其中涉及的知識(shí)產(chǎn)權(quán)的歸屬問題,目前仍缺乏明確的倫理規(guī)范[10]。第四,教育人工智能的使用會(huì)不會(huì)給學(xué)習(xí)者帶來身體的重復(fù)性勞損、視力問題和肥胖問題等,會(huì)不會(huì)影響他們的視覺、觸覺和聽覺等感官的敏感性,會(huì)不會(huì)剝奪他們體驗(yàn)簡單快樂生活的機(jī)會(huì)[11]。第五,教育人工智能可能會(huì)剝奪大量的學(xué)習(xí)者與教師和同伴交流的機(jī)會(huì),這會(huì)不會(huì)影響他們參與有意義的人類社會(huì)活動(dòng)的能力。第六,教育人工智能的認(rèn)知能力、計(jì)算能力和信息處理能力在某些方面遠(yuǎn)遠(yuǎn)超越了人類學(xué)習(xí)者,會(huì)不會(huì)讓他們變得沮喪,降低他們的學(xué)習(xí)動(dòng)機(jī),使其不再愿意去主動(dòng)解決問題和進(jìn)行理性思考。
4. 監(jiān)測員倫理問題
在教育人工智能場景下,監(jiān)測員包括制定教育人工智能標(biāo)準(zhǔn)的機(jī)構(gòu)或相關(guān)人員、數(shù)據(jù)專員等,他們主要負(fù)責(zé)對系統(tǒng)的一致性、安全性和公平性等方面進(jìn)行測試、調(diào)查和審查[6]。安全測試一般在教育人工智能部署之前進(jìn)行,而審查需要檢查系統(tǒng)過去的輸出,因此,需要一個(gè)備份系統(tǒng)存儲(chǔ)教育人工智能的數(shù)據(jù)、決策及解釋。監(jiān)測員正是通過這些數(shù)據(jù)、解釋與教育人工智能進(jìn)行交互,分析和審查教育人工智能作出教學(xué)支持服務(wù)決策的一致性、安全性和公平性,并提出相應(yīng)的整改措施。因此,保證教育人工智能的可解釋性,需要對其作出的決策、判斷和學(xué)習(xí)支持服務(wù)建立相應(yīng)的存儲(chǔ)保留機(jī)制和解釋方案,供監(jiān)測員審查,通過第三方機(jī)構(gòu)來保證教育人工智能的設(shè)計(jì)、開發(fā)和應(yīng)用是符合教育教學(xué)倫理規(guī)范的。審查之后,監(jiān)測員還需要向創(chuàng)建者提供如何改進(jìn)教育人工智能的反饋,如重新訓(xùn)練模型、提高模型的公平性和保護(hù)學(xué)生隱私數(shù)據(jù)的安全策略。
(二)技術(shù)倫理問題
1. 自動(dòng)化決策倫理問責(zé)問題
隨著教育人工智能的自主控制和自主決策能力不斷增強(qiáng),它們也需要意識(shí)到自身行為的倫理含義,而不是依賴于設(shè)計(jì)人員預(yù)置的規(guī)則。因此,需要給教育人工智能引入倫理原則和規(guī)則,構(gòu)建智能道德代理,使其具有一定的倫理決策能力,并能夠?qū)ψ约旱臎Q策、行為和后果進(jìn)行判斷,協(xié)調(diào)各方利益,但這樣也會(huì)引發(fā)出一些新的倫理問題[12]。首先,規(guī)則與算法是由設(shè)計(jì)者、程序員定制的,而不是由教育人工智能自主建構(gòu)的,權(quán)威、權(quán)力和影響力會(huì)越來越多地體現(xiàn)在算法的開發(fā)和實(shí)施上。在各方利益沖突的情況下,教育人工智能應(yīng)該優(yōu)先服務(wù)于誰的利益,設(shè)計(jì)者、程序員、教師還是學(xué)生?其次,教育人工智能的應(yīng)用可能會(huì)導(dǎo)致學(xué)習(xí)的失敗,其中潛在的責(zé)任主體包括設(shè)計(jì)開發(fā)人員、教師、學(xué)生和智能代理等,出現(xiàn)這種情況時(shí)應(yīng)該向誰問責(zé),軟件、數(shù)據(jù)、教師和學(xué)生各自應(yīng)該承擔(dān)什么樣的責(zé)任,目前還缺乏相應(yīng)的問責(zé)機(jī)制。最后,教育人工智能本身的自動(dòng)化和復(fù)雜性,意味著我們很難確定系統(tǒng)的決策機(jī)制是如何運(yùn)行的,也很難對其進(jìn)行追溯和解釋。
2. 算法倫理問題
目前,人工智能主要通過機(jī)器學(xué)習(xí)和深度學(xué)習(xí)算法進(jìn)行學(xué)習(xí)和訓(xùn)練,基于過去記錄的歷史數(shù)據(jù)作出決策和判斷。如果利用教育人工智能對學(xué)習(xí)者及其學(xué)習(xí)進(jìn)行評(píng)價(jià),那么只能根據(jù)過去的標(biāo)準(zhǔn)和方法,如特定歷史文化背景下的成功衡量標(biāo)準(zhǔn)來進(jìn)行,這將會(huì)使學(xué)習(xí)算法不可避免地產(chǎn)生歷史或文化的偏差與偏見,局限于依據(jù)歷史案例的平均化數(shù)據(jù)進(jìn)行處理,而在處理具有創(chuàng)造性和創(chuàng)新性的學(xué)習(xí)活動(dòng)過程方面面臨極大的挑戰(zhàn)[9]。從基本的倫理觀點(diǎn)來看,教師和學(xué)生能動(dòng)性的表達(dá)需要的不僅僅是重復(fù)過去的歷史選擇,而是需要強(qiáng)調(diào)人的創(chuàng)造性和創(chuàng)新性,不能只是停留在過去。教育人工智能可能提供更多個(gè)性化和多樣化的學(xué)習(xí)路徑和學(xué)習(xí)資源的選擇,但目前的做法一般是根據(jù)用戶過去的選擇和決定將其確定為不同的個(gè)人畫像,然后過濾掉不符合其個(gè)人畫像的學(xué)習(xí)內(nèi)容和路徑。這種方式可能會(huì)限制學(xué)習(xí)者對學(xué)習(xí)內(nèi)容多樣化的需求,忽視人的學(xué)習(xí)和發(fā)展的靈活性、多樣性和不確定性。
3. 數(shù)據(jù)倫理問題
教育人工智能的正常運(yùn)行需要大量數(shù)據(jù)的支持,因而需要記錄大量關(guān)于學(xué)習(xí)者的能力、情緒、策略和誤解等方面的數(shù)據(jù),其中涉及大量新的數(shù)據(jù)倫理問題。首先,在數(shù)據(jù)的分析和處理過程中是否會(huì)涉及數(shù)據(jù)意外泄露的問題,教師和學(xué)生應(yīng)該在何種程度上控制自己的數(shù)據(jù),保護(hù)自己不受到傷害和歧視。其次,誰擁有這些數(shù)據(jù),其中涉及什么樣的隱私問題,如果發(fā)生個(gè)人信息泄露,誰應(yīng)該對此負(fù)責(zé)。最后,對于這些數(shù)據(jù),應(yīng)該如何分析、解釋和共享,如何糾正可能對個(gè)別學(xué)生的合法權(quán)利產(chǎn)生負(fù)面影響的偏見(有意識(shí)和無意識(shí)的),尤其是在考慮到種族、社會(huì)地位和收入不平等的情況下。因此,教育人工智能的倫理原則不能被簡化為關(guān)于數(shù)據(jù)或計(jì)算方法的問題,還需要考慮數(shù)據(jù)倫理和教育倫理。教育人工智能的倫理問題,實(shí)際上是數(shù)據(jù)倫理、計(jì)算倫理和教育倫理的綜合應(yīng)用[13]。
(三)社會(huì)倫理問題
1. 轉(zhuǎn)變就業(yè)市場和人才培養(yǎng)的方向
現(xiàn)行教育系統(tǒng)的關(guān)鍵作用之一是培養(yǎng)學(xué)習(xí)者參與社會(huì)經(jīng)濟(jì)生活的能力。教育制度的歷史與工業(yè)社會(huì)的發(fā)展密切相關(guān),雇傭勞動(dòng)仍然是當(dāng)今社會(huì)及其日常生活的核心組織原則。但是,人工智能將可能代替人類的很多工作,這會(huì)不會(huì)導(dǎo)致失業(yè)率的上升?縱觀歷次工業(yè)革命,每次都會(huì)出現(xiàn)類似的擔(dān)憂,但最后對人才的需求量反而越來越大,因?yàn)殡S著人口的增長和社會(huì)的發(fā)展,對產(chǎn)品和服務(wù)都會(huì)提出新的需求[9]。一些簡單的、重復(fù)性的勞動(dòng)將由人工智能承擔(dān),人類則將從事一些富有創(chuàng)造性、挑戰(zhàn)性和不可替代性的工作,例如:人工智能系統(tǒng)的設(shè)計(jì)與開發(fā)、人工智能哲學(xué)問題和社會(huì)問題的研究等。他們將有更多的時(shí)間和精力投入自己感興趣的領(lǐng)域,真正實(shí)現(xiàn)人性的解放。因此,未來的就業(yè)市場格局將面臨根本性的轉(zhuǎn)變,社會(huì)對人才的能力和素養(yǎng)也會(huì)提出更多新的要求,這將對人才培養(yǎng)的質(zhì)量標(biāo)準(zhǔn)和規(guī)格帶來革命性的影響。
2. 改變教學(xué)過程中的人際關(guān)系
教育人工智能的技術(shù)化過程可能會(huì)忽略師生之間以及學(xué)生之間的正確關(guān)系(“我―你”而不是“我―他”),弱化我們對教育的理解,進(jìn)而只是將其理解為學(xué)習(xí)技能,而不是人的培養(yǎng),從而容易忽略教師和教學(xué)在教育過程中的重要性[14]。教育人工智能將對師生關(guān)系產(chǎn)生重要的影響,它可能會(huì)削弱師生之間和學(xué)生之間的聯(lián)系水平,以及他們之間建立聯(lián)系的能力,同時(shí)也可能削弱教學(xué)過程和學(xué)習(xí)過程,弱化教師作為專業(yè)人員的地位。師生關(guān)系質(zhì)量對于學(xué)習(xí)者的個(gè)人自尊、學(xué)習(xí)動(dòng)機(jī)和挑戰(zhàn)新問題的信心等影響學(xué)業(yè)成績的因素都具有重要的影響。教師對學(xué)生的友善態(tài)度和及時(shí)反饋有助于他們獲得自信心,促進(jìn)他們健康情感的發(fā)展。而且,我們也無法保證所有的教育人工智能使用者都是基于一種良好的意圖,教育人工智能的濫用和不良使用,例如:獲取他人的隱私數(shù)據(jù),模仿他人的筆跡、語音和會(huì)話風(fēng)格去獲取非法利益,以及將教育人工智能生成的知識(shí)、報(bào)告和藝術(shù)作品據(jù)為己有,都可能降低教學(xué)過程中人與人之間的信任感。
3. 引發(fā)新的社會(huì)不公平
教育人工智能的初衷是要增進(jìn)教育系統(tǒng)內(nèi)各利益相關(guān)者的福祉,讓更多的教師和學(xué)生受益,需要盡量避免因?yàn)閿?shù)字鴻溝而導(dǎo)致的新的社會(huì)不公平。教育人工智能領(lǐng)域的數(shù)字鴻溝,不是簡單地由社會(huì)經(jīng)濟(jì)地位差異而導(dǎo)致的對技術(shù)設(shè)備擁有和訪問權(quán)的懸殊引起的,而是由一系列復(fù)雜的影響因素構(gòu)成,如信息素養(yǎng)、人工智能素養(yǎng)、對待教育人工智能的態(tài)度、應(yīng)用能力和使用意向等,它們會(huì)影響教師和學(xué)生應(yīng)用教育人工智能的目的、方法和策略,進(jìn)而影響最終的教與學(xué)效果,帶來新的教育不公平[5]。歷史經(jīng)驗(yàn)也表明,新技術(shù)的應(yīng)用往往并不會(huì)縮小教育的不平等,反而可能擴(kuò)大教育的不平等,這其中涉及技術(shù)應(yīng)用的能力、效果和效率等方面的問題。
三、教育人工智能倫理原則
人工智能本身的自動(dòng)化、自主性和能動(dòng)性等方面的特征,使其同時(shí)扮演道德行動(dòng)者和容受者的角色,并具有一定的倫理責(zé)任和道德決策能力。教育人工智能的應(yīng)用可能會(huì)使各利益相關(guān)者面臨眾多新的倫理兩難問題,并帶來一系列新的技術(shù)倫理和社會(huì)倫理困境。因此,教育人工智能的應(yīng)用絕不僅僅是一個(gè)技術(shù)層面的問題,還涉及技術(shù)與人類的關(guān)系、科技哲學(xué)及社會(huì)學(xué)等層面的問題,如果對其倫理困境的復(fù)雜性沒有深刻的認(rèn)識(shí),將可能帶來不可估量的負(fù)面影響。一方面,教育人工智能是人工智能技術(shù)及系統(tǒng)在教育領(lǐng)域的具體應(yīng)用,需要遵循一般的人工智能倫理原則;另一方面,它又是一種具體的教育教學(xué)實(shí)踐活動(dòng),需要遵循教育倫理原則。
根據(jù)對國際電氣和電子工程師協(xié)會(huì)(IEEE)2019年發(fā)布的《合倫理設(shè)計(jì):利用人工智能和自主系統(tǒng)最大化人類福祉的愿景(第一版)》[15]、歐盟委員會(huì)2019年發(fā)布的《值得依賴的人工智能倫理準(zhǔn)則》以及其他人工智能倫理指南文件的分析[16],可以發(fā)現(xiàn),盡管各國存在文化傳統(tǒng)方面的差異,但在通用人工智能倫理方面表現(xiàn)出一定的趨同性,主要包括可解釋性、公平正義、責(zé)任、隱私和數(shù)據(jù)治理、善待、非惡意、自由自治、信任、尊嚴(yán)、穩(wěn)健性、福祉、有效性、慎用、勝任和人權(quán)等方面。教育倫理原則主要包括:(1)能否給教育活動(dòng)的全體利益相關(guān)者帶來福祉;(2)能否明辨是非善惡標(biāo)準(zhǔn);(3)是否尊重教育公平和教育正義;(4)是否保護(hù)人的教育權(quán)、自由權(quán)和隱私權(quán)等基本人權(quán);(5)是否尊重人,是否維護(hù)人的道德尊嚴(yán);(6)是否履行教育的道德責(zé)任與義務(wù)[17]??梢?,人工智能倫理和教育倫理在福祉、是非善惡、公平正義、人權(quán)和尊嚴(yán)、自由自治和責(zé)任等方面存在交叉重疊之處,如圖1所示。
還沒有評(píng)論,來說兩句吧...