[提要]马克思认为,技术异化会带来人的异化和教育的异化,技术并不必然向善的方向发展,技术从发明走向成熟都需要经历一个批判的过程。人工智能引发包括教育在内社会各领域的连锁反应,技术进步的已然性和社会适应的滞后性构成了社会系统平衡失调的基本矛盾,需要通过对技术的伦理批判完成技术的社会化改造。把技术批判的场域由“工作场”转移到“学校场”,对人工智能教育进行价值审视、公平性审视、人性审视、责任审视和终极目标的审视,目的在于防范人工智能异化的风险并促进人工智能教育更好地发展。
[关键词]马克思技术批判;人工智能;伦理
深度学习为人工智能产业带来再一次浪潮,人工智能成为大国竞赛的新领域,美国、欧洲、中国等世界主要国家和地区都加大了人工智能的投入,而且也进入与人息息相关的生活领域[1](P.18-24)。但是,人工智能也产生了许多伦理层面的不良反应,如2018年Uber自动驾驶汽车撞人致死而被判无罪,谷歌图片软件把黑人标记为“大猩猩”,快手短视频智能推送未成年怀孕视频,Target公司通过数据挖掘判断顾客是否怀孕并推荐妊娠物品等等。技术应用的实然性和应然性绝然不同,因此需要通过对技术伦理层面的应然性分析而对技术实然性的向善发展起规制作用。作为教育共同体人文本性的核心,教育伦理具有区别于其他领域的特殊性,有必要专门研究人工智能教育的伦理规范[2]。然而,在教育领域似乎低估了人工智能教育的风险,并且针对人工智能教育伦理风险的全面研究也非常少。本文基于马克思主义技术批判和人的全面发展理论,对人工智能教育进行价值、公平、人性、责任、目标的多维审视,并以此回答应不应该发展人工智能教育和如何发展人工智能教育的问题。
一、马克思技术批判:人的异化与教育的异化
马克思对技术的社会价值给予高度认可,认为科技是满足人类需求的生产力,是推动社会发展、实现人类解放和脱离物质贫乏的重要作用力,但是人们对技术的实际应用却无法预见,存在技术异化的风险[3](P.77)。技术实际上非中立且蕴含道德价值,包括机械自动化在内的技术并不必然向善的方向发展,因为技术本身往往会受到开发者个人偏好和价值观念的影响,技术研发的目标也往往是为了获得私人的利益。因此,在现实社会中,技术可能在根本上就是不公平的、带有歧视的和违背公共利益的,并最终成为资本家剥削劳动者的工具和帮凶,这与马克思人道主义的社会理想背道而驰,所以即便技术有促进社会发展的积极一面,也有必要对技术进行伦理层面的批判[4](P.25-30)。马克思主义技术批判不是完全否认技术的价值,而是在充分认识技术具有“造福人”和“奴役人”两面性的基础上审视技术伦理,同时防治技术异化的危害。任何技术从发明走向成熟都需要经历一个批判的过程,技术批判的目的是为了实现技术的完善,批判的标准是其是否促进人的精神自由而非物质利益,而且只有通过批判旧世界才能发现新世界[5](P.4-16)。在马克思对现实技术异化的描述中,“技术为富人带来巨额财富,却给工人带来赤贫;为富人生产宫殿,却给工人生产栩舍;生产了美,却使工人变得畸形;发明了机器代替人工,却使工人落入野蛮的劳动;科技文明发明了机器,却使工人成为工作的机器;生产了智慧,却让工人变得愚钝和痴呆”[5](P.43)。从某个方面来说,技术异化导致人的生存状态的异化和精神状态的异化,技术非但没有促进人的个性完善与全面发展,反而使人受制于人类创造出的技术工具,丧失了人的独立性和自主性。
马克思主义技术批判理论认为,技术异化导致人的异化,这体现在许多方面:首先,技术让人面临物化的风险,人成为机器的一个组成部分,因为工人终生从事同一种简单操作,把自己的整个身体变成了这种操作的自动化器官[6](P.376);其次,技术让人面临数字化的风险,资本家的商品经济原则建立在被计算和能被计算的基础之上,工人变成抽象的数字横躺在生产流水的账簿上而不再被视为活生生的人;再次,技术让劳动主体面临客体化的风险,工人不再是以自身主观能动性积极地参与到劳动中,而是消极的、痛苦的劳动客体,劳动者不是劳动果实的真正主人而是被压榨的对象;最后,技术让人面临原子化的风险,完整的生产过程被分解为许多孤立的部分,机器作为生产中介把人与社会之间有机的关系纽带隔成为疏离的原子[7]。
另一方面,在大机器生产时代的技术异化也导致了教育的异化。其一,技术异化削弱了劳动者教育投资的能力,由于机器对工人技能的替代导致了技能无用,直接熄灭了工人教育投资的积极性,削弱了儿童延长教育年限的动力并助涨了童工的非法使用,这进一步加剧了简单劳动力市场的竞争和劳动力的贬值,仅够糊口的收入让工人阶级难以实现资本的累积,使其失去了向自己教育投资的能力;其二,技术进步提升了教育投资的成本,机器对工人技能替代的过程符合由简单到复杂的规律,因此,工人若要不被机器淘汰必须持续地进行更多的教育投资以掌握机器尚无法取代的、更复杂的技能,这客观上增加了教育投资的成本,提高了获得技术工作的门槛;其三,技术异化让教育成为维持阶级不平等的工具,工人教育投资能力的下降和教育成本的提升导致工人和资本家在优质教育资源获取机会的不平等和高等教育机会的不平等,形成事实上的资本家对高层次教育资源的垄断,在经济上扼制了无产阶级通过教育向上层流动的可能性,使得教育成为资本主义社会维持阶级不平等的工具;其四,技术异化也导致了教育内容的异化,技术进步推动了无产阶级和资产阶级的分化和对立,统治者为了缓和阶级矛盾和破解无产阶级革命抗争,工人阶级的受教育内容不是实用性的知识而是异化为宣扬忍受和妥协的道德教育和宗教教育,教育反而成为愚昧大众阻碍社会进步的羁绊[8]。
技术进步并不等同于导致社会进步。技术导致了人的异化和教育的异化且具有必然性,但技术没有帮助人们实现劳动自主和个性解放,反而成为资本家操纵社会的工具,并助长了物欲至上和自私自利的社会观念,在精神上构造了囚禁无产阶级的牢笼。马克思技术批判主张由技术进步带来的社会福利应由全人类共享而非私人个体或者资本家等少数群体占有,以人为本评价技术道德,同时以人的发展为最终落脚点并实现人的全面发展和个性自由。马克思的技术批判和人的全面发展思想对当代教育和技术伦理都有深刻的指导意义,在某种意义上人工智能可以看作是马克思技术发展理论中由简单到复杂的较高级阶段,以大数据深度学习为核心的人工智能技术是更深层次的人的数字化和符号化,技术实现了更复杂的人类技能的替代。
马克思技术批判的情境是工人的劳动生产过程,其技术异化的主体是工人,而教育过程中的技术异化会更加复杂。首先,教育过程中的技术应用存在教师—学生双主体的现象,教师和学生都具有独立自由的人格并共同发展,人工智能作为一种教学工具或者学习工具,教师和学生都可能是智能技术的使用者;其二,教育领域的伦理标准具有特殊性和独立性,以私人产权为核心的经济领域和以文化共享为本质的教育领域的伦理原则并不相同。因此,人工智能教育的伦理审视要体现出对教师—学生两个群体防范教育技术异化的关怀,也要具有教育技术伦理的教育本性。总之,技术进步引发包括教育在内社会各领域的连锁反应,技术进步的已然性和社会适应的滞后性构成了社会系统平衡失调的基本矛盾,技术存在于人与人道德维度相互作用的张力之中,在由社会生态失调向新的社会生态平衡发展的过程中,只有通过对技术的伦理批判完成技术的社会化改造,才能够让技术真正地造福于人。
在华歧镇汪团村和汪川镇柏家沟村设置了2个农田残留地膜污染监测点,监测结果显示2018年秋季地膜残留量为34.05 kg/hm2,较春季地膜残留量(63 kg/hm2)下降45.95%。在华歧镇汪团村进行了农田覆盖地魔物理性能和力学性能测试田间试验,为秦州区机械收膜、一次性揭膜及一膜两用等技术提供了理论依据。在杨家寺金土地合作社和大门镇金光种养殖合作社开展了高效环保地膜种植黄瓜试验,试验结果表明高效环保地膜具有良好的保温、保墒作用,能够显著增加黄瓜产量。高效环保地膜的推广应用从源头上解决了地膜污染问题。
二、人工智能教育伦理的多维审视
本研究主要根据病人症状出现至确诊时间(也可理解为病程)来定义错失早期诊断时间,强调的是病人的症状可能对患者就医和医生诊断产生影响,症状反复出现增加就医的意愿和医生进一步肺功能检查的可能性,进而影响慢阻肺的诊断。这与文献报道[4]错失早期诊断概念并不完全一致,后者强调慢阻肺病人在确诊前至少经过一次医疗机构评估,更突出基层医疗机构对慢阻肺筛选的作用,但因为诊疗条件限制,漏诊率相对较高。相对而言,本研究更突出病人的早期诊治意识,也可以反映三甲医院慢阻肺早期诊断的现状。本研究提示病人越早地重视自身疾病并到正规医院就诊,更能早期诊断慢阻肺,这也支持慢阻肺早期诊断与病人症状感知密切相关[16-18]。
(一)人工智能教育的价值审视
人工智能教育公平性的另一个问题在于难以实现对智能教育程序公平的监督。程序公平是对智能技术运行过程的公平性判断,但无监督式深度学习算法的不透明性让过程监督不具有可操作性。无监督式深度学习可以自动地对接受到的数据进行标记,可以具有自主学习能力而超出人类的先验知识范围[17],而且人们不能观察到机器学习的隐层数据,也无法理解这些由智能技术所提取的知识,这使得无监督式深度学习的计算过程成为一个既看不透也看不懂的黑箱子[18]。另一方面,虽然监督式机器学习的特征提取和逻辑推理由人来控制,但也存在几种因素影响到算法的透明性:其一,数据所有权的不确定性,即如果数据所有权不归用户主体所有,那么智能技术公司可以将其作为垄断性的商业机密材料而拒绝公开;其二,技术盲导致法学界难以具有直接对智能算法进行公平性评估的能力,算法公平性评价也被限制在人工智能的小圈子内而无法扩展到受众主体[19]。因此,不论是对无监督式机器学习还是监督式机器学习,都难以实现对算法过程的监督,也难以保障程序公平。从结果公平和程序公平的角度,以大数据为核心的人工智能教育技术具有很大的公平性伦理风险,那么认为人工智能可以促进个性化教学的观点仍需进一步考量。
残差块中使用ReLU函数作为激活函数。与其它线性或非线性函数相比,ReLU函数仅需要设置阈值,表达能力更强,且处理方式简单。然而在训练网络时使用ReLU 激活函数,则非常容易导致训练中断,需要选用较小的网络学习率,但学习率过小则易使网络陷入局部最优。
人性既是教育的指向,也是教育的目标。人是人而非物,人既不是机器,也不是数字,更不是符号,而是一种集理性与感性于一体的生物,具有人所特有的尊严和人格。在教育过程中,要尊重人的生命本性,不仅要对学生进行智力教育,而且要进行感性教育,在现实生活及与他人的亲身交往中体验生命,以人性教育让学生理解人性,感受世界不同个体的生命智慧[20]。一般认为,只有人与人直接交流的教育才具有教育人性,只有教育人性才能实现人性教育[21]。学生需要一种现实生活中真实的生命体验,但随着教育技术的使用,教育中人的物化越来越严重,而且由于教育目标的功利化和具体化,教育具有医学化的趋势而演变为一种学生学习问题诊断的过程,可以预见医学伦理问题也将越来越多地出现在教育问题中。其一,机器成为连接教师和学生的中介,教师可以不直接与学生接触而通过浏览学生的电子档案袋来了解学生情况,通过学生的信息数据来对其进行针对性地教育指导,形成“教师—计算机—学生”的生冷关系,情感沟通不畅致使师生感情淡化;其二,学习诊断的精细化会让机器成为教师不可或缺的工具,过于强调技术的作用会忽视对学生的关怀和尊重,在教师视角学生物化为一组组的数据,在学生视角教师成为机器的一部分,教师学生双主体作为人的属性都被忽视;其三,教育生态可能受到严重挑战,假如发现一种基因编辑技术或者智能教育技术能够大幅提升学生的学习能力,那么竞争的公平性、人的独立性都会遭到破坏,也可能直接影响到人类的自然生存状态,甚至带来灾难性后果[22]。技术伦理之殇对教育人性构成挑战,学生需要在人与人的直接交流中感受真实的教育,教师要把学生当人看,学生也要把教师当人看,但计算机技术的应用让教育双主体存在物化的可能性,这也是在线教育不能够完全取代传统线下教育的原因。人工智能教育技术是教育技术的最新形式,能够实现对教师劳动的部分替代,但能否通过虚拟现实技术让学生获得一种真实的生命体验仍然具有不确定性,感情机器人也尚未达到人类难以分辨的水平,人工智能仍然只能具有辅助教学的功能,不能模拟出真实的感情和人性。即便未来人工智能已经能够发展出高度仿人的机器人,法律层面机器人也不可能获得与人一样的权力,机器人也不可能获得与人对等的关系,因此机器人只能实现对人自然属性的模仿,而不能实现对人社会属性的模仿,那么人也就不可能把机器人完全当人看,人工智能技术也就不可能实现人性教育的目标。
(二)人工智能教育的公平性审视
教育公平是教育活动的基本理念和伦理准则,而人工智能技术的教育公平性则是智能教育伦理的最大危机。教育学界和法学界、哲学界对人工智能技术公平性的研究结论大相径庭,教育学界普遍乐观地认为大数据教育可以促进个性化教学,而法学界和哲学界则认为歧视是大数据算法的本质特征[13]。智能是对外部世界的对偶反应,以深度学习为核心的人工智能本质上是“输入数据+算法处理+数据输出”的过程,该过程符合“偏见进,则偏见出”的规律[14],即如果现实世界所输入的数据是歧视性的,那么输出的数据必然是歧视性的。智能技术歧视的案例频发,譬如,微软公司研发的人工智能聊天机器人可以与人互动培养机器的聊天能力,但仅一天就被网民“教育”成一个反犹、性别歧视和种族歧视的不良机器人,由此可见,认为人工智能具有公平性的观点还是过于乐观的。马克思认为,公平是指参与实践活动的不同实践主体都能够接受的、具有合理性的关系准则。教育歧视和教育个性化在本质上都是一种对差异化学生主体的区别对待,而判断对学生的区别对待究竟是个性化教育还是教育歧视的依据在于是否具有合理性。然而,目前教育学界缺乏对教育个性化和教育歧视边界判定的标准,也缺乏相关的实证研究,但从大数据的商业应用来看人工智能的歧视性已经显现出来,大数据算法存在偏见代理、特征选择歧视和大数据“杀熟”的问题[15],可以肯定的是这些现象已经超出了消费主体可以接受的程度,已经构成歧视而不具有合理性,《白宫对未来人工智能技术发展准备的报告》分析了诸多人工智能歧视案例,认为性别、年龄、种族、阶层都有被AI算法滥用的风险[16]。
技术的价值属性是伦理审视的基础和前提。马克思认为,人的自然肢体具有先天局限性,难以在自然匮乏中获取丰富物质,只有通过技术来延长人的自然肢体成为满足人需求的必要方法,从而使技术价值的判断依据在于其是否满足了以人为主体的需求。马克思的实践论认为,人作为主体的存在形态有四种——个体主体、群体主体、社会主体和人类主体[10],当技术的价值判断具体到教育场景,技术价值的受益主体则应包括四类——具体的部分学生主体、具体的部分教师主体、学生共同体和教师共同体。人工智能教育若要具有价值属性,那么人工智能教育技术应当至少满足四类教育主体之一的教育需求。从学生的角度来看,教育技术的价值主要体现在能否满足学生对丰富和高质量的教育资源需求,以及能否提升学生在学习过程中的受教育体验等方面上。人工智能对提升学生学习质量的实证研究已经比较丰富,虽然存在争议但整体上呈现出积极正向的效用,譬如,倪慧文(2019)对2010-2018年关于增强现实技术对学习成绩影响的35份实验研究与准实验研究进行量化元分析,发现虚拟增强现实技术对科学、物理、天文等大部分学科学习成绩的提高具有中等程度的正向影响[11],这表明虽然存在部分学者研究认为,增强现实技术对提升学习成绩没有帮助,但是整体上而言,增强现实技术能够提升学习成绩的结论更加可信;周进(2019)对31项教育机器人能否促进学生学习效果的实验或准实验进行元分析,发现教育机器人能够有助于提升幼教、小学、大学阶段的学习效果,虽然存在部分教育机器人对学生学习效果没有显著影响或者具有消极影响的实验结论,但整体上教育机器人能够提升学生学习效果的结论更加可信[12]。从教师的角度来看,人工智能教育技术可以辅助教师处理许多重复性的工作,有助于把教师从劳动—休闲二元对立的矛盾中解放出来。教师是兼具体力劳动和脑力劳动的劳动者,而且教育职业工作强度大、工作时间长是全世界普遍存在的一个客观现实问题,尤其国内农村教育较高的社会期望和较低的工作回报让教师群体存在“角色超载”的现象,高强度劳动和休闲匮乏的矛盾直接导致了教师群体幸福感的缺失和对教育工作的自我否定;教师劳动—休闲的二元对立使得教师缺少足够自由支配的休闲时间实现自身的全面发展,知识更新慢、与社会外界群体交流机会少等问题突显,而且容易引起咽喉肿痛等生理疾病和抑郁焦虑等心理疾病。对于以上问题,人工智能技术可以通过减轻教师的必要劳动时间来进行缓解,譬如作业智能批改系统可以替代教师批改作业,智能导师系统可以替代教师进行学生问题诊断等等,让教师拥有更多自由发展的时间和空间。总体而言,人工智能教育技术已经展现出较高的教育价值,而且具有很好的发展潜力和期望价值,随着技术应用的扩散,人工智能技术的教育红利也将由部分学生/教师主体转变为学生/教师共同体,最终实现学生—教师双主体的全面发展。
马克思主义既源于时代又超越时代[9]。马克思技术批判理论为教育技术的向善发展提供了路径和方法,马克思人的全面发展理论又为教育发展指明了方向和目标。本文以马克思技术批判和人的全面发展理论为指导,把技术批判的场域由“工作场”转移到“学校场”,对人工智能教育进行价值审视、公平性审视、人性审视、责任审视和终极目标的审视,以防范人工智能异化的风险并促进人工智能教育更好地发展。
检查施工表面的干燥状况,均匀洒水进行保湿,待面层全部处理完成后采用专用喷涂机对表面进行均匀细致的喷涂一遍清洗剂,杜绝漏喷、多喷、堆积等现象;喷涂完成后表面用薄膜紧密的覆盖一层,用砖块、木方等重量物体压盖严实薄膜周边。
(三)教育技术的人性审视
They are also my friends.They are from England.What should I give them?Why?
(四)人工智能教育的责任审视
教育责任是教育伦理的一个重要内容,它显现在教育活动的每个角落,时刻影响着教育活动的内容和方式。教育责任具有狭义和广义之分,其中狭义的教育责任是一种过错责任,是指出现教育过失之后被强制性承担的后果;广义的教育责任是一种教育义务,是指作为教育者应该做的事情[23]。马克思认为,责任承担是建立在自由意志基础上的,只有人才是承担责任的主体[5](P.152-153),而机器不具有自由意志,当机器对他人造成损害时,责任应依据具体情境由机器的所有者或使用者承担,如果机器本身具有产品缺陷且是造成伤害的主要原因,那么责任应有机器制造商承担,这种责任观也是我国现代法律责任判定的依据。从狭义责任的角度,当教育活动中教育器材对学生造成损害,技术产品被认为是中立的而不承担责任,其承担者可能是教师、学校法人(或者相关负责人)或者器材生产商,如果该教育技术产品不符合国家或行业标准被鉴定为存在缺陷,根据《侵权责任法》和《产品质量法》,责任应由产品制造商承担[24]。可以看出,在传统教育技术的责任承担问题上是有清晰法律依据的,但是人工智能技术的责任判定对已有法律构成了挑战:其一,人工智能的程序设计和开发者并不具有对智能产品的完全控制力,机器学习让人工智能产品具有独立的判断、学习和决策能力,程序设计者只是制定了学习规则而无法准确判断其具体影响,人工智能甚至可以突破原有设定而学习到新的规则;其二,智能算法的黑箱化让人们难以分辨清楚造成损失的具体原因,智能产品也难以制定出可判定的行业标准[25];其三,人工智能产品不具有独立承担责任的能力,虽然人工智能可能具有完全的自主性,但是人工智能在法律层面不是与人一样的主体,对人工智能产品施以惩罚也没有意义[26]。可以看出目前人工智能的责任承担并不清晰,无法将智能产品缺陷的责任转移给制造者,人工智能责任承担问题仍然存在很大争议。从广义责任的角度,教育责任是一种更加主动、更加积极的关爱,教育者有义务促进学生更好的发展,这需要教师自觉地不断提高自身教育素质从而具备使用先进教育技术的能力,学校需要及时更新先进的教育器材,为学生提供更好的学习环境。但是教育技术的研发和更新并非是由学校完成的,学校通过企业购买或者外包获取技术,而生产商和教育技术都不具有广义的教育责任。教育者的目的是公益性的,而企业研发教育技术的目的是私利性的,人工智能的程序设计更有动力利用学生数据获取经济利益,却缺乏动力实现教育的至善,甚至会把教育打造为一种获利的产品,这会让教育技术的目标与教育的目标背道而驰。
(五)人工智能教育的终极目标审视
人的全面发展是马克思主义教育的终极目标和最高理想。人的全面发展是指人的智力和体力等素质的全面发展,马克思认为全面发展的人最终会替代只能承担局部职能的人[27](P.56),技术进步导致了人对机器的依赖加深,一方面导致劳动者个人的素质片面发展,另一方面形成一部分人(资本家)的发展限制了另一部分人(工人阶级)发展的局面,全面发展可以让人能够满足自我需求,而人的片面发展导致劳动者无法适应技术进步带来的不断变化的劳动需求而被技术所淘汰,所以要实现人的全面发展首先是以实现人的自由发展为条件的,需要摆脱机器和资本家对人发展的禁锢,所以技术在人的全面发展中体现出“限制人”和“满足人”的两面性——技术既增加了人对机器的依赖,又提高了满足人需要的能力。根据马克思全面发展理论,实现人的全面发展有两条路径:其一,促进人的自由发展;其二,实行全面发展的教育。人的自由发展不是由理想和空想决定的,而是存在于生产力所决定的合理范围之内[28](P.505-508),因此人的自由发展总是必然地受制于技术条件,人的自由发展和全面发展总是相对的[29]。技术异化的判断标准在于技术是否使得人的自由发展时间相对充足,从这个角度看,人工智能技术对人的全面发展显然有积极作用。首先,人工智能可以把人从重复且机械的劳动中解放出来,具有更多的自由时间来实现个性自由发展和潜力挖掘;其次,人工智能有益于提升教育资源的丰富度、教育质量和教育体验,可以促进人的素质更好地发展和更全面地发展。因此,可以判断人工智能对促进教育终极目标的实现具有积极作用,这既肯定了人工智能教育的价值,又肯定了人工智能教育发展的方向。
另一方面,人工智能既可以促进人的全面发展,也可以拓展人全面发展的内容,把人工智能的素养要求纳入到全面发展的范围之中。马克思认为,人的全面发展不仅体现在其素质的全面性,而且体现在全面发展的人可以主动地适应外部条件的变化,能够适应技术进步对社会带来的创新性破坏。人工智能时代的到来让数字素养或信息素养成为当代人社会生存必备的素质,既要推动以人工智能技术为支撑的现代化教育,又要实行以人工智能知识为内容的社会化教育。工业的历史和工业已经产生的对象性的存在,是一本打开了的关于人的本质力量的书[28](P.1-6)。伴随着人工智能产业化的发展,现代社会对人的素质要求也会发生巨大变化,因此要不断更新人全面发展教育的内容,以智能技术丰富人全面发展教育的手段,最终实现人的全面发展并以主动积极地姿态迎接和建设智能社会。
三、结语
事实判断和伦理判断并不具有逻辑关系,技术发明成为事实之后,必须对技术的应用作出“应该”或“不应该”的伦理考量[30]。本文以马克思技术批判和人的全面发展理论为指导,对人工智能教育进行价值审视、公平性审视、人性审视、责任审视和终极目标审视并得出几点认识:在人工智能技术价值层面,人工智能有助于满足学生对更高教育质量和更好教育体验的需求,有助于扩展教师自由发展的空间,这也就充分肯定了人工智能教育对学生—教师双主体的价值;在人工智能公平性层面,人工智能并不必然地促进人的个性化发展,在结果公平和程序公平两个方面都存在教育歧视的可能性;在人工智能教育人性层面,由于人与机器人关系的不对等,人不可能把机器人当人看,人工智能教育难以实现人性教育,也无法完全替代教师角色;在人工智能责任层面,认为人工智能在法律层面的责任划分并不清晰,也缺乏动力助推教育向至善的方向发展;在人工智能教育终极目标层面,人工智能有助于实现人的自由发展和全面发展,同时人工智能也拓展了人全面发展的内容。人工智能在教育领域应用的过程中,应该在防范人工智能公平和责任风险的前提下,积极推动人工智能与教育的深度融合,明确教师与人工智能的角色定位,实现教师人性教育和机器智能教育的优势互补,更新智能时代通识教育的内容,促进学生-教师双主体的全面发展。
从《人工智能北京共识》提出人工智能的研究和开发应该遵循合乎伦理、服务于人、善用与慎用、造福等15条原则,以及科技部《新一代人工智能治理原则——发展负责任的人工智能》提出安全可控、共担责任、敏捷治理等发展要求可以发现,对人工智能的伦理规制已经初步显现,但要应对人工智能风险开展好教育应用仍需注意以下几点:其一,进一步加强对人工智能技术基础研发的支持,提升人工智能识别和决策的准确性,避免出现因技术不成熟而出现的把“黑人”标注为“黑猩猩”等类似问题;其二,在技术推广之前应做好先试先验,通过试验者对人工智能技术的评价决定如何改进和是否推广;其三,人工智能应该是辅助人学习的工具而非取代人学习的工具,语音识别对阅读障碍适得其反的效果证明,取代人学习的主体地位具有危险性[31];其四,人应该在人工智能教育中不可或缺且占据主体地位,人机协同既要提升教育质量又要保持教育人性;其五,把教育领域的相关知识和伦理原则与人工智能相结合,引导教育向善发展。
参考文献:
[1]陈·巴特尔,苏明.人工智能的学科定位和发展战略[J].国家教育行政学院学报,2019(8).
[2]樊浩.教育的伦理本性与伦理精神前提[J].教育研究,2001(1).
[3]马克思.马克思恩格斯选集(第3卷)[M].北京:人民出版社,1995.
[4]李三虎.十字路口的道德抉择 马克思的技术伦理思想研究[M].上海:上海人民出版社,2006.
[5]马克思.马克思恩格斯选集(第1卷)[M].北京:人民出版社,1995.
[6]马克思.马克思恩格斯全集(第23卷)[M].北京:人民出版社,1975.
[7]衣俊卿.异化理论、物化理论、技术理性批判——20世纪文化批判理论的一种演进思路[J].哲学研究,1997(8).
[8]郭家宏.19世纪英国工人阶级教育问题探析[J].黑龙江社会科学,2012(6).
[9]新华网.源于时代超越时代——习近平这样论述马克思主义[EB/OL].[2019-05-05].http://www.xinhuanet.com//politics/xxjxs/2019-05/05/c_1124451966.htm
[10]查庆,田方林.构建主客体关系在马克思主义哲学中的作用和意义[J].四川大学学报(哲学社会科学版),2001(1).
[11]倪慧文,胡永斌.增强现实技术能促进学习吗?——基于2010-2018年国际英文期刊35项研究的元分析[J].开放教育研究,2019(1).
[12]周进,安涛,韩雪婧.教育机器人对学生学习效果影响的元分析[J].现代远程教育研究,2019(3).
[13]张玉宏,秦志光,肖乐.大数据算法的歧视本质[J].自然辩证法研究,2017(5).
[14]Editorial.More accountability for big-data algorithms[J].Nature,2016(9).
[15]郑智航,徐昭曦.大数据时代算法歧视的法律规制与司法审查——以美国法律实践为例[J].比较法研究,2019(4).
[16]National Science and Technology Council. The National Artificial Intelligence Research and Development Strategic Plan[EB/OL].[2016-10-13].http://www.raincent.com/uploadfile/2016/1013/201610130135318 97.pdf.
[17]Silver D,Schrittwieser J.Mastering the Game of Go without Human Knowledge[J].Nature,2017,550(7676):354-359.
[18]许可.人工智能的算法黑箱与数据正义[N].社会科学报,2018-03-29(6).
[19]Burrell J. How the Machine ‘Thinks’: Understanding Opacity in Machine Learning Algorithms[J]. Social Science Electronic Publishing,2015(3):1-33.
[20]刘济良.生命体验:道德教育的意蕴所在[J].教育研究,2006(1).
[21]肖绍明,扈中平.教育何以复归人性[J].高等教育研究,2010(6).
[22]杨国斌.现代医学伦理学面临的新挑战[J].医学研究生学报,2012(2).
[23]李保强,陈忠伟.教师责任范畴:内涵、外延及其架构[J].教育科学研究,2013(5).
[24]司晓,曹建峰.论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点[J].法律科学(西北政法大学学报),2017(5).
[25]Matthew U,Scherer. Regulating Artificial Intelligence Systems:Risks,Challenges,Competencies,and Strategies[J].Harvard Journal of Law&Technology,2016:354-400.
[26]叶良芳.人工智能是适格的刑事责任主体吗?[J].环球法律评论,2019(4).
[27]马克思.马克思恩格斯文集(第5卷)[M].北京:人民出版社,2009.
[28]马克思.马克思恩格斯全集(第3卷)[M].北京:人民出版社,2002.
[29]扈中平.“人的全面发展”内涵新析[J].教育研究,2005(5).
[30]孙伟平.休谟问题及其意义[J].哲学研究,1997(8).
[31]本刊讯.语音识别技术不应作为阅读障碍人群的解决方案[J].数据分析与知识发现,2019(6).
中图分类号:G40-011
文献标识码:A
文章编号:1004—3926(2019)11—0223—06
基金项目:教育部人文社会科学研究专项任务重点项目“人工智能与未来高等教育发展战略研究”(19JDGC003)、天津市教委重大项目“新时代天津市高等教育新使命与创新发展研究”(2018JWZD37)阶段性成果。
作者简介:苏明,南开大学周恩来政府管理学院博士生,研究方向:人工智能、高等教育;陈·巴特尔,南开大学周恩来政府管理学院教授、博士生导师,哈佛燕京学者,研究方向:高等教育。天津 300071
收稿日期2019-08-20
责任编辑程 融
标签:人工智能论文; 技术论文; 马克思论文; 全面发展论文; 伦理论文; 《西南民族大学学报(人文社会科学版)》2019年第11期论文; 教育部人文社会科学研究专项任务重点项目“人工智能与未来高等教育发展战略研究”(19JDGC003)天津市教委重大项目“新时代天津市高等教育新使命与创新发展研究”(2018JWZD37)阶段性成果论文; 南开大学周恩来政府管理学院论文;