人工智能正在成为国(guó)际竞(jìng)争的新焦点,同时也为人类社会带来了新的发展机遇。机器学习、自然语言处理、情感计算(suàn)、虚拟现实等(děng)技(jì)术的迅猛(měng)发展(zhǎn),不仅为学生获取更高(gāo)质(zhì)量的教(jiāo)育体(tǐ)验提供了有力支撑(chēng),也有助于进一(yī)步扩展教(jiāo)师(shī)自由发展的空间。但(dàn)与此同时(shí),智能导师系统(tǒng)、智能数据挖掘等人工智能技(jì)术在教育(yù)应用中面临众多伦理问题,例如数据(jù)泄露(lù)、公共安全、恶意竞争等(děng)。
人工(gōng)智能(Artificial Intelligence,简称(chēng)AI)是计算机(jī)科学的一部(bù)分,包(bāo)括研究(jiū)、开发用于模(mó)拟、延伸(shēn)和扩(kuò)展人的智(zhì)能(néng)的理论、方法、技(jì)术及应用系统等方面。教育人工智能伦理则是用(yòng)以规范教育人工智(zhì)能开发及应用过程中关系(xì)、行(háng)为的(de)道理及准则。
教育人工智能虽具备强大的数据(jù)整合与分析(xī)能(néng)力,但同时也会引(yǐn)发一系列新的伦理风险,系统来看,其主要体现在以下四个方面。
其一,信息安全。人工智能(néng)助力教(jiāo)育教学的同时,不仅为(wéi)师生发展创(chuàng)造(zào)机遇,也产生了(le)海量教育数(shù)据如个人(rén)身(shēn)份信息(xī)、行为(wéi)轨(guǐ)迹、学习偏好等。若此类(lèi)数据(jù)并未得以有效保护(hù)或者被(bèi)非法使用,则会引发一系列信息安全问题,例如个人隐(yǐn)私资(zī)料被恶意泄露及不(bú)正当(dāng)使(shǐ)用、电子邮件的恶(è)意推送、非法电子监控、网(wǎng)络(luò)诈骗、数据侵权等,师生的(de)隐私权利在人工智能透视镜(jìng)下将变得十分(fèn)脆弱。
其二,目标冲突。教育人工智能的目标冲(chōng)突(tū)风险主要(yào)由人工智能开发商、用户的基(jī)本目标不(bú)一致所产(chǎn)生的。对私营部门来说,由于商(shāng)业(yè)利益(yì)至(zhì)上(shàng)的理念根深蒂固,可能(néng)会依托人(rén)工智能(néng)技术工具过度追逐私利。而且,不少教(jiāo)育(yù)人工智能设计(jì)者(zhě)与开发者缺乏致力于“教育公共服(fú)务”的责任意识,欠(qiàn)缺(quē)对教育成(chéng)长的价值关怀(huái)。若(ruò)人工智能(néng)开发商(shāng)、学校管理团(tuán)队(duì)未在人(rén)工智能的教育应(yīng)用方面达成(chéng)目(mù)标共识,则师生自身(shēn)利益难以(yǐ)得到长期的(de)有(yǒu)效保障。
其三(sān),缺乏制(zhì)度约束。当前,用于约束(shù)教育人工智(zhì)能(néng)开发与应用(yòng)的(de)制度体系(xì)尚未健全,教育用(yòng)户的合法权益难以得到有效(xiào)保障。而且,专业(yè)制度约束体系的缺位、失位及(jí)错(cuò)位(wèi)成(chéng)为导致(zhì)教育人(rén)工智能不道德行(háng)为出(chū)现的重要因素。若缺(quē)乏有效(xiào)的技术标准与“强制性(xìng)”法律手(shǒu)段加(jiā)以(yǐ)规约,教育人工智能的设计开发与(yǔ)实践应用(yòng)可能会逐渐(jiàn)偏离教育价(jià)值与人文立场。应(yīng)对违反教(jiāo)育人工智(zhì)能伦理规(guī)范的行为与举措实施问责(zé)与制裁(cái),以便合理规约人工智能开发人(rén)员、教育用户等人的(de)行为。
其四,过(guò)度资源(yuán)依赖。当前,机器学习和算法(fǎ)推荐虽然可实(shí)现教学资源的个性(xìng)化推送,但这种看似公平合(hé)理的人工智能应用(yòng),隐含着不(bú)为(wéi)人知的(de)算法歧视与技术偏向,可能导致学生所获取的教学(xué)资源高度同质化,学生逐渐(jiàn)形成资源依(yī)赖,不愿跳脱(tuō)僵化思维(wéi),进而(ér)影响了(le)学(xué)生视野的开(kāi)阔及(jí)创新发(fā)展。而且,教师也可能为节(jiē)省自(zì)身时间及工作成(chéng)本,过度依赖人工智(zhì)能(néng)推送的(de)教学资(zī)源,丧失自身对于教育教学(xué)的独特理解及思考(kǎo)。
理(lǐ)清相关伦理风险的(de)消解(jiě)路径,有利于促使教育能够合乎道德(dé)地利用人(rén)工智(zhì)能机遇,并实现公平和道(dào)德的教(jiāo)育决策(cè)。
第一,注重智能时代师生信息素养培育。首先,需注重(chóng)师生信息分辨力培育。学校(xiào)应(yīng)引(yǐn)导师生对于信息资源获取(qǔ)及筛选(xuǎn)、信息伦理风险等问题的理解与思考,增(zēng)强师生信息分辨能(néng)力。其次,关注师生信息反馈力培育。学(xué)校应引导师生合理反馈人工智能(néng)的信息(xī)安(ān)全(quán)、伦(lún)理、舒适感问题,并(bìng)构(gòu)建畅通的(de)信息(xī)反馈渠(qú)道,以便持续改(gǎi)善人工智能的教(jiāo)育应(yīng)用成效。
第二,完善教育(yù)人(rén)工智能算法(fǎ)审查及决议机制(zhì)。首先,应注(zhù)重(chóng)构建人工智(zhì)能算法(fǎ)的审查机制。人工(gōng)智能算法的运行偏差有可能持续存在,甚至会被(bèi)放大。应制(zhì)定有关人工智能算法(fǎ)培训和测试的基本规范(fàn)与安全协议,对(duì)人工智能算法模型的前(qián)提(tí)假设进行教育本质层(céng)面的剖析,尤其应审查教育人工智能算法系(xì)统是否包含(hán)算法歧(qí)视与滥用问题,以便(biàn)能(néng)最(zuì)大限度保障(zhàng)用户数据及信息的精确(què)性、隐(yǐn)私(sī)安全以及伦理(lǐ)规范。其次,需明确人工智能教育应用(yòng)方案的(de)决议机(jī)制。政府、学校(xiào)、企业等均需秉承集思(sī)广益的(de)决策原则,鼓励不同意(yì)见的提出与开放讨论,思考通过某种形式的投票与评价来决(jué)定教育人工智能应用的最优决定,致力于(yú)实现教育公共利益诉求的合理(lǐ)满足。
第三,加强(qiáng)人工智能及(jí)数据的(de)法规监管。当前教育人工智(zhì)能发展(zhǎn)暴露出(chū)众(zhòng)多(duō)技术及数据失范(fàn)问(wèn)题,因此,要完善智(zhì)能技术及教育数据风险(xiǎn)问(wèn)责(zé)机制,实现智(zhì)能技(jì)术及(jí)数据的规范监管(guǎn)。首先,可尝试(shì)制定及(jí)颁布具(jù)有法律约束力的(de)教育人工智能法规,规范技术(shù)开发及(jí)应用的伦理责任,非法(fǎ)开发、使用(yòng)及销售人工智能的行为(wéi)将面(miàn)临法律后果及(jí)责任(rèn)。其(qí)次,注重教育(yù)人工智能应(yīng)用过程中的(de)数据监管,构建专业(yè)的数据隐私(sī)监管组织(zhī)或(huò)机(jī)构。隐私监(jiān)管(guǎn)组织或机(jī)构应在某项(xiàng)人工智能(néng)技术(shù)推广应(yīng)用之前,评(píng)估该技(jì)术的数据安全情况,避免非法(fǎ)分享和使(shǐ)用(yòng)数据。
第四,加强教育人工智能伦理风险排查与评估。实(shí)现有道(dào)德的教育(yù)人工(gōng)智能,不可仅仅依靠技(jì)术改进(jìn),还应采用(yòng)“系(xì)统(tǒng)化思想”审视与排查教育人(rén)工智能的伦理风险,这对于最大(dà)化保障教育公(gōng)共利益是(shì)至关重要的。教育人工(gōng)智能伦理(lǐ)风险的存在不仅涉及开发阶段,也涉及(jí)生产和分销阶段(duàn)。除了确保教(jiāo)育人工智能设计的安(ān)全性外(wài),还应仔细评估智能算法伦理风险、教育(yù)数据伦(lún)理风险等的危害(hài)等级,以(yǐ)便及时制定教(jiāo)育人工智能(néng)伦理风险(xiǎn)化解方案。
第五(wǔ),构建校本化教育人工智能伦理(lǐ)规范体系。校本化(huà)的教育人工智能伦理(lǐ)规范体系必(bì)须高(gāo)度公(gōng)正且具(jù)有可解释性,明(míng)确规定人工智(zhì)能在学校(xiào)应用的基本要求、审查程序及伦(lún)理规范,并对技术开(kāi)发商、学校管理人员等人在教育人工智能伦理监管的职责、权利(lì)和义务予以合理划分(fèn)与限定。学校管理人员可基于学校层面(miàn)教育人工(gōng)智能(néng)伦(lún)理规(guī)范体系,为人工智能在(zài)学校教育中的应(yīng)用设置许可权限。若某(mǒu)项人(rén)工智能技术在应用中产生了重大伦(lún)理风险,则(zé)应根据伦理风险的评估等级对人工智能的应用(yòng)许可权限进行适当(dāng)限制。