博舍

李麒|人工智能伦理规范的初步探讨 人工智能伦理框架包括哪些内容

李麒|人工智能伦理规范的初步探讨

原创李麒上海市法学会东方法学收录于话题#上海法学研究379个#核心期刊591个#法学647个#原创首发739个

李麒

北京理工大学珠海学院民商法学院教授

要目

一、前言

二、伦理规范的理论基础

三、人工智能的伦理规范

四、建立伦理监督委员会

结论与建议

2019年5月25日北京智源人工智能研究院联合北京大学、清华大学、中国科学院自动化研究所、中国科学院计算技术研究所等单位,共同发布《人工智能北京共识》,提出人工智能的研发、使用、治理应该遵循有益于人类命运共同体建构和社会发展的15条原则。

一、前言

人工智能研发应符合伦理的设计方法,尽可能公正,减少系统歧视与偏见,提高系统透明性,增加系统可解释度、可预测性,使系统可追溯、可核查、可问责等。2019年7月,中国国家新一代人工智能管理委员会发布《新一代人工智能管理原则》,提出尊重人的隐私、尊严、自治和重视权利,不应使用人工智能伤害人类。另一方面,人工智能的伦理价值在美国也有广泛的讨论,大型科技公司提出人工智能伙伴关系等概念。2017年谷歌公司放弃与美国国防部续约,原因是美国国防部要求该公司将先进的人工智能技术应用于军事用途。1983年成立的计算机专业人员社会责任组织(ComputerProfessionalforSocialResponsibility,CPSR)及联合国人权观察组织都主张禁止全自动武器的条约,例如自主选择轰炸目标的无人机等。人工智能伦理问题向来受到各界广泛关注,包括联合国发布的《关于机器人伦理的研究报告》、国际标准化组织IEEE发布的《合理伦理设计:利用人工智能和自主系统最大化人类福祉的愿景》;由Hawking、ElonMusk等人推动的人工智能23条准则(或称阿西洛马人工智能原则);英国剑桥的存在风险研究中心(CSER)、牛津的人类未来研究所(FHI)、美国波士顿的未来生命研究院(FutureofLifeInstitute)。美国麻省理工学院媒体实验室(MITMediaLab)与哈佛大学伯克曼·克莱因互联网与社会研究中心(BerkmanKleinCenterforInternet&Society)合作推出的耗资2700万美元的AI伦理研究计划;加拿大蒙特利尔大学人工智能伦理小组发布的《负责地发展人工智能的蒙特利尔宣言》;等等。现代社会技术和法律时常处于紧张状态,虽然技术促进新的发明,但法律则趋向保守,基于社会道德或人类恐惧而禁止克隆就是一个例证。有人认为超级智能的发展,会因其优越性而超越人类,进而夺取道德评价的话语权,使人类失去道德尊严的主动权。这虽是对新兴科技发展的普遍忧虑,但法律不应成为科技创新的阻碍,因此2017年7月8日国务院制定《新一代人工智能发展规划》,提出制定促进人工智能发展的法律法规和伦理规范。工信部出台《促进新一代人工智能产业发展三年行动计划(2018—2020)》,教育部出台《高等学校人工智能创新行动计划》,中央全面深化改革委员会第七次会议审议通过《关于促进人工智能和实体经济深度融合的指导意见》。2020年7月27日,国家标准化管理委员会、中央网信办、国家发改委、科技部、工业和信息化部等五部委印发《国家新一代人工智能标准体系建设指南》,要求到2021年,明确人工智能标准化顶层设计,完成安全、伦理等重点标准的预研工作,2023年初步建立人工智能标准体系。上述文件均显示人工智能伦理发展受到高度重视。

以自动驾驶车辆的伦理规范设定为例,若以符合全体社会成员最大利益为原则,则会采取强制的伦理设定(mandatoryethicssetting,简称MES),而排除让每一个司机或乘客都选择个人化的伦理设定(personalethicssetting,简称PES),由于自动车驾驶涉及公共利益,片面尊重工具使用者的自主权,基于人类自利的本质,很可能导致公共安全与道德的双重危险,基于社会共同体的责任与价值利益考虑,强制伦理设定是比较妥适的作法。但是在具体设定算法时,如何避免算法偏见和歧视?若以功利主义为算法基础,为了拯救多数人,仅载有一名乘客的车辆有很大几率会成为事故撞击的目标;若采取最小化伤害原则的道德算法,德国制的自动驾驶车辆是否可能选择日本车为撞击对象,因为一般而言,日本车的防护钢板较薄弱,如何决定类似的伦理规范显然值得讨论。

二、伦理规范的理论基础

2018年世界人工智能大会发布的“上海倡议”提出建立与人工智能创新发展相适应的立法规范、法律体系、政策体系和伦理体系,制定技术设定阶段的法律规范,通过规则设定促进人工智能算法的公正、透明、安全,避免算法歧视,2019年中国国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则—发展负责任的人工智能》特别强调此理念。人工智能的伦理规范非常重要,主要包括为智能机器人预设道德准则、设定人工智能技术研发及应用标准,建立人工智能产品本身的道德指引,以及规制科研人员的伦理规范。科学技术要解决的是“能不能”的实然问题,伦理学要解决的是“该不该”的应然问题,人工智能不仅是单纯的技术问题,也是哲学问题。以下提出几种典型案例的思考方式,部分案例来自1985年美国教授JJ.Thomson提出的电车难题(TheTrolleyProblem):

典型案例:

案例1:电车难题

假设某辆电车沿着既定路线前行,电车突然发生故障而无法操控,如果电车继续前行会碾毙在既定路线上工作的五位作业员,此时刚好有一位作业员A站立于轨道分转器旁边,目击了现场状况,A如果使用轨道分转器切换路线,可以让电车转入另一条轨道而拯救五位作业员的性命,然而在切换后的轨道上有一位作业员B正在工作,轨道切换后电车会将B碾毙,试问A是否应该作出转换轨道的决定。不选择转换轨道将导致五位作业员死亡,选择转换轨道会导致作业员B死亡,A如果选择后者,法律上是否可以主张紧急避险。

案例2:陆桥上的胖子

突然失去控制的电车持续前行,如果继续前行会碾毙在既定路线上工作的五位作业员,A与完全不知情的C正好走在陆桥上,C体型非常肥胖,如果A突然将C推落桥下,以C作为障碍物则刚好可以让电车停止(题目设定为牺牲C一定会使电车停止),因而救助五位作业员的性命。A是否应该推C下桥?

案例3:自动驾驶车辆的情况

在深不可测的溪谷上有一条非常狭窄细长的陆桥(只能单线双向通行),A搭乘自动驾驶车辆(A并未操作车辆)正在桥上行进,对向开来一辆大巴士(有乘客40人),大巴司机突然失去意识导致该车越过车道线,直接冲向搭乘A的自动驾驶车辆,此时如果A的车辆加速前进稍微擦撞大巴车的侧边,可以保护A的安全,但是大巴车会掉落山谷,车上40人均会死亡;如果A的车辆不加速,直接与大巴士正面相撞,则A死亡,大巴士不会掉落山谷,车上乘客均会获救,A所搭乘的自动驾驶车辆应该加速,还是不应该加速?

案例4:社会评价体系下的自动驾驶车辆

甲为大学教授,具有名校毕业的博士学位,认真工作,乐善好施、义务担任社会服务工作,服务人群曾受政府表扬,人工智能系统赋予的社会评价分数为95分;乙未接受良好教育,无业而四处游荡,曾因盗窃罪在监狱服刑,人工智能系统给予的社会评价分数是20分,某日乙不遵守十字路口交通标志,违规闯红灯穿越马路,甲所搭乘的自动驾驶汽车正准备通过该路口,此时因不明原因汽车刹车失灵,汽车正迅速向乙接近,人工智能系统立即作出判断,无论直接撞击乙或右转撞击路树都可以使车停下来,此时人工智能作出何种选择会符合正义的要求?

伦理规范的哲学理论与案例思考

伦理规范是划定个人行为与社会组织界限的一种方法,西方社会有两种主要的道德理论,一是边沁的功利主义理论,利益最大化作为道德标准,在以效用主义为基础的博弈论在人工智能中经常被用于理解个体与群体的相互作用,为算法的伦理分析提供基础。二是康德的义务道德论,道德动机是人类行为的准则,理性且具有自由意志的人是道德主体,能作出最终决策,人本身就是目的,任何人都不能将他人作为工具,或达成特定目的的方法或手段。问题在于此种绝对律令的观点,如何转换为人工智能的正确规则。温德尔·瓦拉赫、科林·艾伦认为机器人可以根据人类的普遍道德法则作出是非判断,具有理性能力。康德认为自主性是人类自我意识的根本条件,如果机器人可以超越人类控制,这种自主技术性的概念会令人感到不安,因为赋予人工智能自主性,代表人的自主性被替代,主客体的地位将发生变化。可能的解决方法是在人工智能设计之始,将一些伦理规则作为绝对律令,以代码的方式写入人工智能的程序中,例如机器绝对不能攻击人类,特别是老弱妇孺,植入规范性伦理程序就是康德道德律令的代表。

人工智能道德伦理的责任议题,包括人权伦理、责任伦理、道德地位伦理、代际理论、环境理论以及大数据伦理与隐私,以联合国宣言为基础,有人认为应将人类责任与机器人责任伦理的标准同等对待,主要包括正义与团结、相互尊重与合作、信任与容忍、基本人性准则等。建立在亚里士多德道德观念上的人工智能道德理念,是自下而上的理论体系,机器可以自主学习,而具有类似神经网络链接机制的机器人就有可能具备道德判断能力。

如果采取边沁的功利主义,应当追求“最大多数人的最大幸福”,案例1及案例2都会作出拯救5人的生命利益大于牺牲1人的生命利益的决定。案例3自动驾驶车辆不加速与大巴士直接相撞,才能拯救车上40位乘客的生命,A的生存机会势必被选择放弃,人工智能设计师必须预先设定“牺牲自驾车乘客”的程序模式,在这种情况下,是否还有人选择使用自动驾驶车辆?如果采取康德的道义责任论,无论在任何情况下,人的生命都不可以因为特定目的而被利用,则案例1及案例2都会作出不救助5个作业员的决定,因为生命的价值没有数量或高低的区别。在案例3的情况由于生命价值相等,自动车加速与否都会造成生命损失,程序设计师是否应该优先考虑使用者的安全,保护使用者(消费者)安全是否为产品制造或设计者的法律义务?

其次,针对案例4,若采取功利主义,AI的设计者应该会选择让汽车直接撞击乙,因为甲的社会评价分数90分远高于乙的20分;如果采取康德的道义责任论,人始终是目的,而不能成为达成特定目的的方法或手段,所以不能把人单纯当作客体对待,由于每一个人的生命价值相同,AI的设计者应当会让汽车右转撞树而导致甲死亡或受伤。由上可知,AI对于甲、乙生死的决定取决于工程师对于算法的设计。无论AI选择直接撞击或转向都会导致对人工智能数理逻辑算法的疑虑,直接撞击会造成阶级对立,加剧社会精英与普通民众的紧张关系;转向则会使无人驾驶汽车失去用户,因为每一次驾驶都类似俄罗斯赌盘,搭乘者可能会因突发事件而被牺牲,个人没有过错却必须成为被选择牺牲的对象。

案例3及案例4的自动驾驶车辆程序设计者必须面对一项难题,应当对人工智能输入何种价值选择标准,在更复杂的情形下,例如一方车辆的乘客只有5年的余命,另一方乘客有20年的余命,哪一辆车的安全应当优先考虑(事实设定为两辆车可以自动交换乘客信息)?又如果两车乘客的余命完全相同时,一方是高额纳税人,另一方是欠税大户,自动驾驶车辆的程序参数(parameter)又应该如何设计?

另一种观点认为,根据哲学上的双重效果原则(Doctrineofdoubleeffect),行为人虽然应该对于自己意图决定所产生的损害结果负责,但即使发生损害且能预见结果的发生,若损害不是根据有害意图的行动所造成,就不应该追究行为人的责任(前提是此行为是人道的、或至少是道德中立的、或不会为自己带来直接利益)。案例1中A转动换轨器时虽然预见B的死亡,但A的意图是为了拯救5个作业员的生命,因此B的死亡只是附随发生的结果;案例2中A的直接意图是将C推落桥下,C的死亡附随产生救助5名作业员的结果,根据双重效果原则,案例1可以被正当化,但案例2则不能被正当化。

人工智能的伦理规范必须保留人类的基本价值观。一般而言,人工智能采取的是工具理性表现方式,人类行为则具有价值理性的思维,将此种价值理性转化为精确的算法设计十分困难,而且不同的文化习俗、宗教信仰、社会公德自有不同的价值判断标准,人工智能面对价值体系如何选定价值体系,其本身虽是一个难点,但是在算法中嵌入公平、正义、良善等价值观的追求应该是正确的方向。具体的方法是将人的道德理性融入算法程序,研发“道德代码”以明确人工智能的道德主体责任,道德代码指程序员除了按科学方式编码外,同时在代码中融入道德感情,使编码在执行程序时具有道德价值判断功能,亦即编码本身应具备道德功能。人工智能的道德属性源于人类自身的道德认识,这种道德属性需要专家的技术设计,所以健全程序设计者的伦理体系与道德观是根本的问题。

三、人工智能的伦理规范

域外的人工智能伦理规范

1.欧洲

欧洲议会的法务委员会(JURLCommittee)于2015年1月召开关于机器人与AI进化的法律问题工作会议,同时设立专责工作小组,该委员会于2017年1月提出“关于机器人民事法规则的欧洲委员会建议”报告,认为欧洲应该设置管理机器人与伦理规则的专责机构并建立适用于欧洲全境的管理规则,长期而言,未来对于自律型的机器人可以讨论赋予电子人格的可能性。本报告提出广泛受到重视的五项伦理原则,内容包括自由、隐私、人性尊严、自己决定权等,对于机器人运用所造成的影响实施评估;人们拒绝使用人工智能,但仍会因人工智能对生活产生实质影响时,应当对于人工智能决策的各种可能性,寻求理论依据;AI的算法必须能还原为人类可以理解的型态或方式;强人工智能的逻辑程序决定程序,必须全程予以记录备案,不能存有黑箱的现象,确保“透明性原则”的落实。同时在附录部分(Annex),提出对人工智能工程师的伦理行为准则(CodeofEthicalConductforRoboticsEngineers),这个准则属于建议、指导的性质,没有强制性,对于人工智能工程师的具体行动方针包括

(1)善行(Beneficence):人工智能的行为必须符合人类利益。

(2)无害(Non-maleficence):无论在任何情况下,机器人都不能伤害人类。

(3)自主性(Autonomy):使用机器人所提供的人类信息,不能以强制方式取得,必须根据人类的自由意志作成决定。

(4)正义(Justice):特别是居家治疗,使用照护式机器人时应当给予公正的利益分配。

2017年6月德国交通部伦理委员会公布《自动和联网驾驶》报告,提出自动车驾驶的20条伦理规则,其核心内容包括保护个人优先于其他一切功利主义的考虑;当危险情况不能避免时,保护人类生命优先于其他法律利益,为了避免人员伤亡,在编程上允许对给动物或者财产造成损害;道德困境下的决策依赖于现实的具体情况,无法清楚地给予明确标准;处于无法避免事故发生的境况下,禁止以年龄、性别、生理或心理状况等人身特征进行歧视性决策,不得牺牲无关的他人。2016年4月德国政府通过法律,将“驾驶员”定义扩大到能够完全控制车辆的自动人工智能系统,同时提高无人驾驶的保险费与赔偿费。

为了避免算法歧视,我们应当有合理的AI设计,可以将人类社会的法律、道德等规范和价值嵌入AI系统,根据国际标准化组织IEEE提议,首先是规范和价值的发现,确定AI系统应当遵守哪些规范,在价值相互冲突时又应该如何抉择;其次是法律或道德规范能否转换为计算器代码写入AI系统,采取方法是自上而下地将规则写入系统,要求人工智能遵守规则,还是自下而上由机器自我学习价值与伦理规则,目前尚无定论;最后是对人工智能采取的价值和规范进行评估,从三方面加以评估,包括使用者评估、主管部门评估和行业组织评估。

2.日本

日本政府于2016年5月30日设置“关于人工智能与人类社会恳谈会”,经过6次讨论,于2017年3月24日提出正式报告,该报告提出人工智能的伦理论点:(1)随着人工智能技术不断进步,人工智能技术机器与人类关系可能会逐渐产生变化,对于未来新关系所形成伦理观的内容应事先设想规划;(2)应用人工智能技术所产生的服务,在作成决策的评价标准与处理优先次序时,仍会受到人类心智或行动的控制,此类决策如果受某些特定的人类感情、情绪或信念的制约,就会令一般人产生不安全感,特别是在我们没有察觉,一切决定都受程序操控的状况下,伦理规范的讨论显得更为重要;(3)运用人工智能技术会扩展人类在时空或身体领域的范围,但是应该注意人工智能与人类能力与情感方面的相互作用,适度加以调适;(4)对于与人工智能技术有关的行为或创新价值,应给予适当评价,而这种价值观要考虑社会接受程度,尽可能的采取多元化的观点。2017年7月日本总务省情报通信研究所在《2017报告书—关于推动AI网络化国际议题的讨论》报告书中提出《AI发展纲领》,提出伦理原则的内容是“开发者应当尊重人性尊严与个人自主,在开发与人类脑部或身体相连的AI系统时,应注意有关生命伦理的争议,并予以特别慎重的考虑。开发者参照技术的特性在可能的范围内,应努力排除包含AI系统学习数据在内,所形成的一切偏见和其他不当差别对待的措施。开发者应遵守国际人权法、国际人道法,随时注意AI系统是否有不符合人类价值的行为”。

3.美国

2016年5月美国奥巴马政府在白宫召开AI所带来利益风险的工作会议,会议结论,提出《对未来人工智能的准备》(PreparingfortheFutureofArtificialIntelligence),该报告提出面对未来人工智能的23点事项,其中也涉及AI伦理问题,所有的事项都可以提供美国联邦政府及各界参考,第16点是“联邦政府机关应当考虑如何确保人工智能的有效性与公平性”,第17点强调人工智能系统透明性的重要性。第18点要求在各级学校的重要课程中,例如人工智能、机器学习、计算器与数据科学等的科目,在安全性与隐私方面设计出与伦理规范有关的主题。第23点提及对全自动或半自动武器的相关政策要符合国际人道法的规定。报告结论认为随着人工智能的持续进步,如何确保人工智能的透明性与说明可能性显得十分重要,人工智能的理解过程与人类理性的思维间如何取得平衡也应受到重视。

4.民间组织

(1)电器和电子工程师协会IEEE(TheInstituteofElectricalandElectronicsEngineers)

IEEE是总部设在美国的电器工学、电子工学技术的学会,该学会是世界最大的技术者研究团体。IEEE于2016年4月通过《伦理因素的自动化系统设定的全球化倡议》(TheGlobalInitiativeforEthicalConsiderationsintheDesignofAutonomousSystems),认为在谋求伦理、法律和社会目标一致性的前提下,确有必要对于AI系统的设计方法予以研究,因而提出此项计划。2016年12月接着公布第1版《伦理指引—以人类福为的优先人工智能与自动系统》(EthicallyAlignedDesign-AVisionforPrioritizingHumanWellbeingwithArtificialintelligenceandautonomousSystem,Vision1forPublicDiscussion),〔2018年2月整理了来自全世界包含美国、欧洲、中南美洲在内的官方与民间专家约250人的意见后,公布了该指引的第2版。该版本共263页,大致分为下列主题:(1)一般原则;(2)自律智能系统价值观的内容;(3)伦理研究和设计的导入方法;(4)一般人工智能(AGI)与超人工智能(ASI)的安全性;(5)取得与使用个人信息的限制;(6)自主兵器系统的再规制;(7)经济与人道的问题;(8)法律;(9)人工智能对人类感情与情绪的影响;(10)政策;(11)自主智能系统的古典理论;(12)信息通讯技术(ICT)的复合实现(MR);(13)人类幸福(自主智能系统的应有目标)。作为总论部分的“一般原则”包括(1)如何确保AI不会侵害人权(2)就社会繁荣度的指标而言,AI可以带来人类的幸福?(3)如何确认AI设计者、制造者、所有者与运用者的责任?(4)如何确保AI的透明度?(5)如何获得利益最大、风险最小的AI技术。各论部分对于现有指引内容过于抽象提出检讨,对于指引内容尽可能的予以明确化,例如对于“自律智能系统价值观的内容”的主题,其价值观内容固然应当符合社会的期待,不能违反法律规定与现存文化,但就规范与价值观而言,每个人的举止行为、语言、文化、艺术品味等各有自己的主观判断,自主智能AI系统应当如何设定学习方式就成为难点。不同形式的自主智能系统应如何搭配特定的规范或价值观,事实上也难以决定。首先,只能从特定群体(community)着手,针对符合特定工作(task)的自主智能人工系统,尝试寻求出可以遵循的规范内容。对于“自主智能系统的古典理论”的主题,AI的开发的伦理议题,不能仅围绕着西方伦理(功利主义、义务论、道德伦理学等)讨论,对佛教、儒教、日本神道等其他领域也应当加以考虑。

(2)人工智能百年研究(OneHundredYearStudyonArtificialIntelligence)

该组织由斯坦福大学毕业生所创立,以今后100年AI长期发展为研究目标,判断人工智能对于社会有何种影响,每五年提出观察、分析报告的一项研究计划,其成果是2016年9月发表的《ArtificialIn-telligenceandLifein2030》研究报告,报告分为交通、居家服务机器人、健康照护、教育、低资源消耗共同体的实现、公共安全和保障、职场与雇用、娱乐等8个部分,从长期展望加以分析,特别是交通部分的自动驾驶汽车、无人机运用部分有较多的描述,在法政策方面则主要讨论隐私权、创新政策、民事责任、刑事责任、代理、资格、劳动、税、政治等问题。

(3)人工智能合作组织(PartnershiponArtificialIntelligencetoBenefitPeopleandSociety,Partner-shiponAI)

PartnershiponAI是2016年9月由Amazon、Google、DeepMind(Google)、Facebook、IBM、Microsoft等成员所设立,2017年Apple、OpenAI等新成员加入,日本Sony也希望加入,这是一个发展人工智能的世界企业联合组织。该组织提出主题支柱(ThematicPillars)重点有:①重视AI安全性(Safty-CriticalAI);②公平、透明而具可说明能性的AI(Fair,Transparent,andAccountable);③人们与AI系统的协调(Collab-orationBetweenPeopleandAISystems);④AI、劳动与经济(AILaborandtheEconomy);⑤AI社会的影响(SocialandSocietalInfluencesofAI);⑥AI和社会利益(AIandSocialGood);⑦特别提议(SpecialInitiatives)。针对AI研究与技术的信赖、国际习惯和尊重人权、说明可能性等重要问题,该组织提出8大信条(Tenets)供各界参考。

(4)生命未来研究机构(FutureLifeInstitute)

该组织简称FLI,2015年由Skype共同创始人JaanTallinn等人所创设,该组织的咨询委员会由太空探索技术公司SpaceX社的埃隆·马斯克(ElonMusk)、宇宙物理学家史蒂芬·霍金(StephenHawking)、演员摩根·费理曼(MorganFreeman)等14位人士组成。2017年1月在美国加州阿西洛马(Asilomar)以“人工智能对人类有何利益”为主题,同年2月公开发表阿西洛马AI原则(AsilomarAIPrinciples),该原则有23条,其中与伦理价值观有关的课题,整理如下:

四、建立伦理监督委员会

为处理人工智能伦理问题,德国成立数据伦理委员会,个别企业也设立道德指引的规则,鉴于人工智能使用数字化的风险,由国家制定法律作为规范固然重要。但企业自主规制与建立伦理委员会也是不可欠缺的机制,欧盟委员会欧洲科学与新技术伦理小组,提出尊重人性、自主性等伦理清单。本文介绍日本人工智能的伦理监督委员会,以供参考。

日本人工智能学会成立于1986年,学会的伦理委员会设立于2014年。2017年2月学会公布《人工智能学会伦理指针》,整理其具体内容提供参考:

结论与建议

探讨人工智能道德理论的法律论文数量很多,但能提出具体解决方案的有限,甚至有人认为人工智能设计者、使用者或法律规定的道德选择不在其讨论机器人道德范围内。本文认为这是一个必须面对的难题,根据“理论—规则”驱动进路,将特定群体认可的价值观和道德标准程序化为道德代码,嵌入智能系统,内置道德决策场景的指导性抉择标准。理论上伊曼纽尔·康德(ImmanuelKant)的道义论、约翰·密尔(JohnMill)的功利主义和约翰·罗尔斯(JohnRawls)的正义论都可以成为参考选项。

人类自由意志的问题,在哲学上争论甚久,波蓝尼悖论(Polany’sParadox)认为,“我们知道的可能比我们能说出来的更多,如同司机的技能不可能完全用驾校的驾驶汽车理论来替代”。人工智能以海量数据信息为基础,可以按照既定算法进行预测,但人类拥有自由意志,在面对突发状况时也许会采取出人意料的决策,因为人类大脑掌握的能力高于既定的知识,可以说人类的思维存在着某种不确定的点,人们不是按照既定程序做决策,而是根据自由意志下判断。否定人类有自由意志的观点则认为人类的所有感受没有所谓“自由意志”,一切只是哺乳动物及鸟类拥有的生化机制,用来快速运算生存和繁殖的几率,直观的感受其实只是一套生化演算的结果。无论采取自由意志或生化演算的观点,人工智能的设计者都应当在算法设计阶段做好价值嵌入的程序,融入包括绿色、伦理、守法、自由、关爱在内的“共同善”的价值。

本文前述案例所提及的复杂问题,人类本身至今亦未能有一致的“正确”判断标准,如何期待程序设计者能够为人工智能嵌入一套具备普世价值的判断标准?马克思·韦伯提出诸神之争的本质是现代社会中价值观念之间的冲突,道德规范属于“应然”领域的价值判断,科学无法解决价值判断问题,沟通协调与坦然面对是理智成熟的解决方式,此部分仍有待人类共同努力。所以现阶段人工智能伦理规范多集中于外在规制层面,强调多元伦理原则,至于伦理规范的实质内容,或许可从人本主义为思考起点,以人性尊严作为人工智能立法的价值基础,以人的基本安全为底线,建立人工智能和机器人应用的基本伦理架构,作为人工智能规范政策的最高指导原则。在法制层面制定人工智能发展法,授权人工智能专门监管机构,建立全流程监管体系,成立“数据伦理委员会”,强化数据信息与隐私权保护,也是一个可行的方案。

2017年7月8日国务院制定的《新一代人工智能发展规划》强调采取三步走的战略目标:到2020年,部分领域的人工智能伦理规范和政策法规初步建立;到2025年,初步建立人工智能法律规范、伦理规范和政策体系;2030年,建成更加完善的人工智能法律法规、伦理规范和政策体系。在技术层面,国家标准化管理委员会于2018年1月成立国家人工智能标准化总体组,已发布《人工智能伦理风险分析报告》,目前正研究人工智能术语、人工智能伦理风险评估等标准。2019年我国亦发布《人工智能北京共识》《新一代人工智能管理原则》等重要文件,本文建议持续参考国内外伦理规范资料,设计政府部门的全国性监管方式、制定人工智能道德准则、成立各级人工智能伦理委员会,从而使得我国的人工智能规范更加完善。

原标题:《李麒|人工智能伦理规范的初步探讨》

阅读原文

人工智能教育的全球治理:框架、挑战与变革

1

人工智能教育全球治理的背景与际遇

❖(一)新人文主义在人工智能发展中的价值

近年来,新一代人工智能(AI2.0)作为新科技发展的引擎,带动着智能机器人、云计算与边缘计算、5G与物联网、数字孪生等技术的快速发展。以智能制造、数据科学、计算思维、虚拟仿真等为特征的智能时代,人工智能正以空前的速度、深度和广度影响和改变着人类社会。人工智能的技术发展和广泛应用,直接引发人类生活、思维、伦理、工作业态及社会关系的变化。以脑机接口为代表的人工智能与脑科学的迅速发展,使得人的认知方式、学习方式和自我认同也将发生根本改变。目前,人们对大脑活动规律和意识生成机制的研究依旧十分有限,通过哲学层面抽象的思辨、推理、归纳和分析,难以从本质上把握思维活动的客观结构和规律。在未来,借助人工智能可为其提供新的研究路径和技术手段,可进一步强化大脑思维活动的研究,建立具有适切性的新模型。随着AI+脑科学,尤其是脑机接口、类脑、人工智能脑等技术的不断成熟并应用,对社会伦理、法律以及人与人关系等,将带来巨大的挑战。

当下,智能机器人的诞生与不断应用,人类身边已经出现了一批虽无血无肉但却具备经专门训练即可获得模仿、学习能力的“另类人”。随着智能机器人的进化而“变聪明”,人的性质也为之发生了改变,这可能导致“人”不再具有和其他个体唯一可区别的人格和身份。与此同时,人工智能技术也在冲击人类在智能层面的独尊地位。例如,AlphaGoZero只需通过自我学习、掌握基本规则的前提下,就可击败人类顶尖棋手,说明未来社会许多专业性工作,有可能被人工智能所替代。很多传统职业将被淘汰,新兴的职业类型将需要高专业化、高技能水平的人才,这必然会使一部分人无法胜任以智能、技术和知识为核心的工作。甚至有朝一日,机器人智能会超越人的智能,如同未来学家雷·库兹韦尔(RayKurzweil)所预言的,这一“奇点时刻”迟早会降临。这一切,会引发诸多社会问题。

基于此,构建人工智能时代的新人文主义就显得尤为重要。新人文主义作为解决新问题的一种哲学理念,要求人类持有更开放的心态去迎接智能时代,并有效面对未来的不确定性与多变性,帮助人类积极回应由人工智能等快速发展所带来的诸多现实问题。例如,人的意识与思维、人本质属性的变化、新的伦理规范等。从新人文主义的视角审视,人工智能的发展始终不能脱离“人”的本质属性,更不能摈弃人文主义精神的内在意蕴,应在坚守人文主义底线的基础上,寻求人的理性弘扬与智能发展多元性的兼容,使得新科技的力量永远服务、促进人类社会的健康发展与人性的进步。

❖(二)数智驱动下呼唤数据安全与智能伦理

随着智能技术+大数据的迅猛发展,数智(大数据+人工智能)驱动下的人类社会已从自我控制的信息时代进入到了迭代创新的大数据时代。数据的汇集、分类、分析和处理成为智能社会最典型的特征。在这场智能化革命中,以人工智能技术为基础的大数据多元化和智能化的应用,使得数智融合的趋势变得愈发明显,数智融合下的数据正成为一种重要资源,即一切皆可“数据化”,它是信息流背后事件、物和人的总和。大数据的广泛应用,改变了人类认知世界的能力和行为方式。在数智融合的新背景下,当前的数据驱动已经进入了自动化与智能化的阶段。即大数据与人工智能的紧密结合,使得数据被赋予了推理、理解和感知等能力,海量数据的分析与处理成为可能,最终形成数据与智能融合、驱动的全新生态。

❖(三)零工经济与“云劳动”等变迁与人机协同新场域的产生

进入智能化时代,人工智能正引发全球范围内劳动关系的巨大变化,进而对传统的劳动关系产生颠覆性的影响。这种影响表现为:劳动关系主体的不确定、劳动时间的不确定、报酬支付的不确定、劳动保障的不确定、劳动风险的不确定、工作责任的不确定、法律救济的不确定。在此影响下,零工经济和“云劳动”将成为未来社会主流的就业途径。零工经济是指短期且灵活的工作形式,它利用互联网和移动技术快速匹配供需方,通过“自我雇佣”的模式,实现雇主利益的最大化,已经成为推动我国就业增长不可或缺的力量。有关数据显示,零工经济所带动的新就业机会占总就业机会的6.4%。一些专家预测,零工经济将成为未来劳动者就业的首选模式。与此相类似的是,在人工智能技术的冲击下,各行各业出现了“技术性失业”,由此产生了一种颠覆传统的工作模式:“云劳动”。即劳动者根据自己的工作余力与需求,通过网端对工作资源进行快速弹性供应。它是一种被人工智能所塑造的新型工作形式,使得以往的全职工作者转变为自由的职业者,通过云端与企业广泛建立动态化的新型工作关系,有弹性、有选择地参与工作并获得报酬。

零工经济与“云劳动”的出现,代表着人工智能技术正在深刻影响社会和经济结构的变化,促进着工作职业岗位的快速迭代:高创造、高价值、高科技的职业和劳动将取代传统的劳动模式;人际协作较为简单、规则性较强的智力活动,以及标准化程度较高、重复性较强的机械劳动,将被人工智能所颠覆和淘汰;现有的大量岗位与职业,将与人工智能紧密结合并实现改造与升级。换言之,智能机器人渗透工作与岗位的范围与进程正在加快,智能化革命使得机器人日益智能化和人性化。人机协作、人机交互的工作领域、场景越来越普遍,甚至已经渗透到教育等领域,在国内外的一些学校和课堂已经出现了代理师生事务、管理教学和辅助教学的智能机器人。这些智能机器人在赋能教育教学的同时,也在催生学习方式的创新与教学变革。这就带来一个全新的命题:从微观层面的工作场所到宏观层面的社会生活,人类该如何面对并学会与“机”相处?尤其是如何进行人机交互、人机协同、人机协作,这也是摆在我们面前需要思考并进行治理的崭新课题。

2

人工智能教育全球治理的进展、特征与框架

随着人工智能技术的发展,人工智能赋能教育趋向整体性的变革,人工智能催生人机协同共生时代的来临,也带来关于人工智能教育的科学伦理、制度规范、社会关系等诸多方面的调整与治理。因此,我们需要准确把握人工智能教育治理的现状、发展与特征,方能构建起治理框架并有效实施。

❖(一)人工智能教育全球治理的研究进展

人工智能不同于以往的工业时代、信息时代等阶段性的技术,其并不是局限于某一特定产业,而是能够支撑整个社会发展和产业变革的通用性技术。人工智能作为一种新兴技术,对教育的影响也是如此。几百年来,技术在教育领域中的发展演化,大致经历了三个阶段,治理方式也各不相同(见表1)。

表1不同时代技术的教育形态与治理方式

新一代人工智能的兴起,不仅是技术或产业领域的重大革命,更是经济、社会、政治各领域的基础性和综合性变革,由此产生的治理挑战要求公共政策框架进行重构与创新。为了应对人工智能带来的治理挑战,美国2016年颁布了《为人工智能的未来做好准备》等政策框架,从治理角度探讨政府在人工智能治理过程中的作用,并强调基于风险评估和成本收益考量的原则,以决定是否对人工智能技术的研发与应用施以监管;同年,英国发布了《人工智能:未来决策制定的机遇与影响》,对如何利用人工智能做了科学规划,英国越来越多的大学致力于传授与人工智能相关的伦理、道德;法国在《人工智能战略》中强调要加强对人工智能技术的“共同监控”,充分保护人工智能运用中的个人权力和公共利益。

可见,人工智能教育具有技术优势和社会属性高度融合的特征,不仅能够为教育治理提供信息筛选、学习分析、情境再现等关键性技术;还能够通过神经网络、智能校园、自适应学习系统等辅助教育治理的决策行为,从而产生新的教育治理方式。人工智能教育治理在全球范围内已经引起了高度关注,有研究指出,人工智能教育正逐渐改变全球的教育治理机制,虽然人工智能教育并不会自然消解全球治理中的霸权逻辑或歧视现象,但能够有助于增进国际间的相互理解,达成“全球善智”和“全球合智”这一人工智能全球治理的发展目标。即,人工智能教育全球治理,已是智能时代之大势所趋。

❖(二)人工智能教育全球治理的内涵及特征

人工智能教育是依托于人工智能技术兴起的一种崭新的教育形态和教育理念,与传统教育不同,人工智能教育强调的是一种跨界的教育观,即将智能技术全方位地融入到教育发展之中。正如联合国教科文组织在《教育中的人工智能:可持续发展的挑战与机遇》报告中所指出的:要充分利用人工智能改善与促进教育公平,为未来学习者做好准备,并迎接人工智能教育应有的挑战和对政策的影响。该报告既为人工智能教育发展指明了方向,也蕴含了对人工智能教育治理的价值追求。

鉴于人工智能教育的发展已经涉及全球不同国家、地区、组织、个体以及与之相关的广泛利益关系,人工智能教育全球治理自然成为国际社会的共同诉求,其基本要义包括:全球治理的价值、规则、治理主体、治理客体和治理绩效等五个方面;全球治理的方式在于自由参与、多方谈判与积极合作,强调程序正义;全球治理体系中最重要的三个治理主体是主权国家、政府间国际组织、非政府间国际组织。

基于上述内涵,我们认为,人工智能教育全球治理旨在通过国际社会各利益相关方通过协商、合作及博弈等多种方式,有效参与人工智能教育的事务管理,以促进人工智能教育为人类更好的发展服务,以维持合理、和谐、建设性的国际秩序这样一个活动过程。具体而言,它包括制定人工智能教育发展的价值准则、共同遵守人工智能教育伦理规范、共同防范人工智能教育社会风险等方面。人工智能教育全球治理具有协同化、系统化、数据化、精准化等特点:

一是协同化。在全球化时代,技术、信息、商品、人才、资本等具有极强的流动性,风险也更具有扩散性与全球化特征。正因为人工智能所引发的潜在风险具有世界波及性、影响的不均衡性、伦理标准的区域差异性和危害预测的不确定性,世界各国有必要共同协调,构建起畅通、快速、多边、民主、透明的人工智能教育全球治理体系。与此相应,人工智能教育全球治理之方案与行动计划等,也必须要各利益相关方协同进行,才能够达到共同治理之目标。

二是系统化。人工智能教育是一个系统性的整体与复杂工程,主要表现在三方面:宏观层面影响全球教育和主权国家教育系统的发展,中观层面影响各级各类学校机构、学习组织与团队等的教育方式,微观层面会影响每个学习个体的教学过程、学习方式与评价管理。因此,人工智能教育治理必须以系统观的视野来审视具体问题,比如,智能化在改变劳动力市场关系,影响社会经济发展,那么教育该如何应对或治理?是从宏观入手为主,还是微观层面解决?这一系统化的特点,意味着在关注治理的时候,不能“盲人摸象”仅从某一部分着手,而需要遵循系统科学的理论,科学、系统地进行治理。

三是数据化。大数据、移动互联、云计算等是人工智能技术发展的基础,“人人互联”与无处不在的快速连接,重构了当今的全球化世界,5G+物联网等技术的快速成熟,使得网络空间中的海量数据(包括大量的学习资源),成为教育治理的新场域;人工智能技术不仅能够深度挖掘海量数据,还能够对大量与学习相关的数据进行精细化分析。所以,智能化新技术正越来越多地被运用到教育评价、学校管理之中。比如,智能教学系统的开发、“区块链+”学习过程与学位管理。有研究指出,大数据和人工智能技术不仅可能、而且应该是评估学习者通识能力的更优选择。而人工智能教育全球治理作为更广泛多元主体行动,势必依赖于大数据以及基于数据分析的支持。

四是精准化。有效治理的目标之一就是要做到精准施策、及时到位。正如前述,社会治理的智能化在于充分运用大数据等技术,使得社会治理能够更加精准分析、精准服务、精准施策、精准监督、精准反馈。在教育领域也如此,人工智能技术深刻影响着每一个学习者,个性化学习、自适应学习等成为智能技术与教育深度融合的最佳表现形式。在以机器学习和深度学习为核心的人工智能技术的强力支撑下,正对面向未来社会所需要的学习者进行重塑和再造,为学习者提供符合其个性需求的精准内容及学习分析反馈等,以促进自我导向的有意义学习。即人工智能教育治理其本质就在于实现教与学的精准化治理,从而培养大量具有创新性的一代新人。

❖(三)人工智能教育全球治理的框架

自工业革命以来,教育的发展一直与科技的进步息息相关。当前,人工智能新技术所驱动的教育变革,被国外学者称之为“第四次教育革命”,它以多元智能、全球化视野和个性化教育为主要特征。2020年1月,世界经济论坛(WorldEconomicForum)发布了题为《未来学校:为第四次工业革命定义新的教育模式》的报告,提出了“教育4.0”的全球框架,指出人类进入以智能技术为代表的“第四次工业革命”之后,未来各国教育发展的方向。在此背景下,人工智能教育全球治理研究逐步进入人们的研究视野,一些研究将人工智能教育定位于人工智能伦理风险,认为人工智能教育全球治理的关键在于解决人工智能教育伦理的困境;还有一些研究则认为,人工智能的发展给全球化和世界政治经济进程带来了科学、技术、数据、网络、信息等多重影响。同时,人工智能也可能导致新的全球化问题出现,需要主要行为体尤其是主权国家积极参与人工智能时代的全球治理。不难发现,人工智能教育牵涉到国家体制形态、网络空间权力、国际人才流动、学历资格认证等诸多方面,应是一个全局性、系统性的治理过程。

在宏观层面,人工智能教育全球治理,需要各主权国家、政府机构、国际组织等利益相关方通力合作,以进行人工智能准则的顶层调控与决策。为实现“推动人工智能教育的全球合作,为人类社会提供福祉,促进教育公平”的治理目标,需要强化在人工智能教育中的数智驱动、人机协同教育、网络与数据安全、5G应用、虚拟现实、数字孪生等新技术的创新、实施、伦理等诸多方面,进行有效的合作,共同制定人工智能教育发展的国际准则,以推动人类教育的可持续、公平与健康发展目标的实现。

在中观层面,人工智能教育全球治理涉及跨领域的学习资源供给与教育公共利益保障,需要学校机构以及社会学习组织推动学习技术、学习方式、学习环境等的改善,致力于区域教育优质与均衡发展,为学习者提供更加符合社会发展和个体社会发展需要的学习资源,将人工智能技术融合在智慧校园、教学设计、教师信息素养、学习分析、区块链教育评价等方面,以保证区域中各类主体良性与持续互动。比如,人工智能赋能智慧校园建设已经成为国内外许多国家追求的目标。在此基础上,创设泛在互联的“5G+智能教育”环境,搭建师生本位的智能教育课程资源及学习服务平台,统筹构建智能教育大数据的治理体系,已经成为人工智能场域下智慧校园建设的关键路径。

在微观层面,人工智能教育全球治理涉及促进每一位学习者的全面发展以及师生服务的效率,需要教师、学生等学习者个体重塑学习发展观念,通过AI+教与学中的精准化学习分析、学习场景构建、个性化推送与反馈等人工智能技术,进一步改善“教”与“学”之间的关系,从而改进学习绩效,提高学习能力。有研究指出,人工智能对教育活动具有强劲的助推力和潜在的副作用。强劲的助推力表现为基于网络与交互的泛在教育渐趋流行,个体化学习、体验式学习、游戏化学习和读屏学习蔚然成风。潜在的副作用包括分散人的注意力、降低学习能力和消解学习文化。因此,人工智能教育全球治理就是要消除学习过程中潜在的副作用,辨析其优劣所在,以体验学习与量体裁衣的对话教学方式,全面提升学习质量。

综上,我们认为,人工智能教育全球治理是不同国家权力主体、学校组织、学习者个体等多元利益方,通过协商合作解决人工智能教育发展中存在的各种问题这一过程。国家、学校、学习者个体是治理的主体,人工智能教育运用是治理的客体,不同主体、客体之间相互联接、共同作用,从而构建起人工智能教育全球治理框架,如图1所示。

图1人工智能教育全球治理框架

3

人工智能教育全球治理面临的挑战

❖(一)宏观层面:人工智能教育全球治理合作欠缺

人工智能作为一项新技术可以融合到社会的各行各业之中,这就决定了人工智能是一种跨领域、跨行业的全域化发展模式。在今天的全球化时代,人工智能作为支撑所有产业的通用性技术,其产生的社会影响同样也是全球性的,任何一个国家或地区均不能单独面对人工智能所带来的挑战。鉴于这种挑战及其所带来的风险广度和深度,加强人工智能的全球治理,包括教育领域中的治理,已成为国际社会关注的焦点。

今年以来,面对疫情这场突发性的全球公共事件,人工智能教育治理的意义和作用更加凸显。当前,全球正处于防控COVID-19疫情的关键时期,世界各国积极推动线下教学转向线上教学。人工智能技术与教育教学的融合突破了学习时间与空间限制,满足了学习者居家学习的需求,成为一种安全可靠、过程可控的教与学模式。然而我们也看到:在重大疫情面前,在线教育发展仍远不能满足学习者的需求,全球各个国家、地区之间的差异明显,尤其是在欠发达地区,教育教学处于半停滞状态,全球教育治理合作欠缺。在世界各国为减缓COVID-19疫情的蔓延态势而选择暂时关闭学校的情形下,UNESCO积极地与受影响国家(地区)的教育部门合作,通过引入或扩大远程教育模式以保证所有学生学习的可持续性;OECD发布的《2020应对COVID-19教育指南》也指出,各国教育系统之间普遍存在着缺乏数字化基础设施和有深度的多方合作,学校难以保证学生的学习质量,教师缺乏ICT能力和教师之间的深度合作,弱势学生群体的基本学习条件无法得到保障等问题。这些问题的存在,让不同主权国家、国际组织等利益相关方清醒地认识到,疫情之下,加强人工智能教育全球治理已迫在眉睫。

显然,人工智能教育全球治理所面对的问题,远不止疫情下的在线教育问题。有学者提出,随着5G、大数据、XR和智能技术的发展和应用,通过数智融合的“全链网络”可赋能教育均衡。然而,能有效表征过程性学习质量的非结构化、半结构化的数据难以采集,或者技术难度较高。而当前各校园、区域数据标准不统一,使得现有数据难以汇聚融通,这使得现有各类智适应平台、智能学习系统只能服务于特定的教学场景。此外,伴随着数智融合出现的网络与数据安全、人工智能伦理风险等问题依然存在,在没有有效构建起人工智能教育全球治理的国际规则、合作机制之前,人类面对人工智能所带来的风险,防范还十分脆弱;道德与伦理框架层面研究的滞后,让人类时时处于尴尬的境地。正如一些知名人士,如埃隆·马斯克(ElonMusk)、比尔·盖茨(BillGates)等呼吁的,必须要对人工智能的研究与应用加强监管,霍金甚至提出要警惕“人工智能成为人类文明史的终结者”。为此,有研究强调指出,伦理对人工智能的嵌入价值,体现为作为道德能动体的人类,对其发展需要进行管理与责任承担,人工智能的不确定性为人类对其进行治理提供了可能。可见,人工智能教育的全球治理,当务之急,不是人工智能教育的持续性发展问题,而是如何推动人工智能教育的全球化合作,并研究这种全球化合作的有效机制。

❖(二)中观层面:智慧校园建设亟待深化

自20世纪80年代以来,网络与信息技术的发展,促进了学校组织在硬件设施、校园管理、教育教学等方面得以不断改善,借助互联网技术与校园资源的整合,数字校园等应运而生。但一直以来,一些学校组织秉承工具理性,将学校信息化建设的重点放在利用信息技术对传统学校设施、教育环节等方面进行改良。但单纯的网络基础设备、数字化资源建设和网络化沟通载体的搭建,并没有对教与学带来根本性的变革。COVID-19疫情爆发以来,在线教育存在的缺陷仍暴露无疑。一方面,全球范围内还有数量庞大的学校组织不能够提供正常线上教学和学习服务。正如联合国秘书长安东尼奥·古特雷斯(AntonioGuterres)指出的,截至2020年4月18日,全球有188个国家停课,数亿儿童及青少年的福祉受到严重影响;另一方面,能够提供线上教育资源的学校也同样存在不能够满足学习者需求等问题,在线教育存在着设备欠缺、流量不足、卡顿塞车、教师成为“十八线主播”、家长和学生不适应等诸多问题,甚至凸显出教育不公平现象。总体来看,这些问题存在的原因之一,在于多年来的数字校园、智慧校园建设注重表面而忽视内涵所致,即人工智能教育未能真正融入到学校教学过程、服务管理功能之中。

❖(三)微观层面:个性化学习尚任重道远

人工智能技术的发展,推动了个性化学习、项目式学习、体验式学习等的变革,在大数据、学习分析等新兴技术的支持下,自适应学习方式兴起,这种学习模式解决了传统学习方式中学生主体性受限的问题,致力于为学生提供精准的个性化学习体验。即通过人工智能技术,能够及时捕捉、聚焦和分析来自多个不同方面的数据流,包括学习应用程序、在线资源、出版商和其他学习管理系统,从而构建基于学生个人学习行为的多模态数据及数字模型。例如,通过即时分析的学生数据可实时生成报告、进行数据分析和可视化,并将其输入到教师的工作流程中。随着时间的推移,这不仅可以帮助老师掌握学生学习成功所需要的内容;同时,也让教师了解在过去的工作中可能隐藏会抑制未来发展的那些缺陷。

人工智能促进教育变革的核心价值,在于助力学生的个性化发展,赋能教学、辅助教师工作,改善教育管理、优化教育供给。但由于学习者个体之间存在的“数智鸿沟”会造成教育资源利用的不均衡现象,难以满足学习者的个性化需求。人工智能技术同样难以解决教育公平性和包容性需求,在“数字鸿沟”日益加剧的情况下,甚至会在一定程度上增加教育的不公平现象。因为智慧学习、智慧课堂等智慧教育的具体形态,从本质上说都是一种算法支持下的学习,而新的“数智鸿沟”主要体现在对人工智能算法等认识和运用上。这一个看似“客观中立”过程,却一直遭受伦理方面的争议。对于大多数人而言,算法被视为一个“黑匣子”。由于数据鸿沟、算法黑箱、效率优先等众多因素的叠加影响,导致算法支持下的学习依然存在自我强化偏差、技术控制困境、主体性危机等治理难题,数据建模能否真实描述客观事实、数据分析是否带有偏见、数据解读是否存在主观数据清理等,也让教育公平、教育平等、教育效率等传统议题,在人工智能时代显得更加突出。从全球范围来看,这些问题在信息弱势群体,如,网络不发达地区学习者、工人、难民、残障者等群体上,表现得较为严重,他们甚至没有机会接触或使用网络与数字化学习资源,更遑论拥有个性化的学习体验。

4

人工智能教育全球治理的变革之道

人工智能正在爆发式增长,在智能制造、5G技术、泛在物联网、数字孪生等技术的支撑下,人工智能教育的应用领域越来越广泛。特别是5G通讯传播从经典的流量服务模式向全要素生态链模式转变,成为赋能于虚拟现实、增强现实、人工智能、大数据、云计算等新兴技术场域。但我们也需要认识到,人工智能教育带来的影响具有不确定性与复杂性。其中,人工智能教育主要涉及三个层面的问题:一是宏观层面上,智能新技术与人的共处何以可能?如何构建人机协同发展的全球治理新秩序?二是中观层面上,如何实现学校教育与智能技术的融合?三是微观层面上,人工智能对个体发展的价值是什么?如何促进人的个性化发展?因此,加强人工智能教育发展的国际合作,共同应对人工智能教育产生的风险,维护人类福祉,应成为人工智能教育全球治理的主流和基本诉求。

❖(一)宏观层面:推动数字孪生等新技术的融合与创新治理

正如前述,数智融合成为当下发展的大趋势。其具体表现为人们通过收集大量数据并量化分析形成系统性的报告,为决策提供重要支持。以数据智能驱动的人工智能教育,正在改变传统的学习形态,从人机协同、虚实共生、全域交互、教育均衡等多方面赋能未来教育新形态。以数字孪生为例,在数据驱动的主导下,通过孪生对象与虚拟孪生体间的交互映射,形成数据自动决策对物理实体进行系统优化。其中,教师、学生、学校、学习资源等都可以成为数字孪生架构中的“实体”。数字孪生技术与扩展现实、全息技术的结合,将为未来教育带来颠覆性的变革,孕育虚实共生的教学环境和沉浸式的学习场域。

具体体现在:(1)为学生提供全域感知的学习空间和量身定制的学习内容。数字孪生可打破传统机器记录与人工诊断割裂的局面,高效监测学生学习过程的实时状态,并根据学生不同的学习偏好、先前知识、认知水平等,实现学习精确诊断与学习反馈的无缝衔接,促进学生对知识的深度理解和思维能力的提升,真正实现因材施教。(2)为教师提供虚实共生的教学环境和沉浸式交互的课堂场景。让学生具身于虚拟或充满探究的场景中,感受启发性、具身性、互动性的学习体验,进一步激发学生的学习兴趣。进而实现从表层学习向深度学习的跃迁。(3)为学校提供多维、动态管理和评价方式。数字孪生可全方位实时监控和分析学习者和教学者的生理状态、心理状态,根据实时数据形成评估结果,实现对教学过程的及时干预。同时,形成动态数据支撑下的教师评价、同伴评价、自我评价“三位一体”评价方式。教师可以根据虚拟学生及物理学生的多方反馈,全面掌握学生在学习情境中获得的知识、技能、情感、态度,保证教学输出与学生知识输入、学习资源与学生认知水平的精准匹配。

这也要求高等院校及科研所必须筹建多学科协同的研究平台,广泛整合社会学、系统工程、管理学、大数据、脑科学等,探索多学科交叉协同的研究机制,为人工智能教育治理提供理论依据或论证,以破解新技术驱动教育治理现代化过程中的痛点与难点问题。

❖(二)中观层面:强化智能技术应用于教师教学管理与智慧校园治理

目前,国内中小学、大学教师都面临着工作负荷过大的问题。“人工智能+教育”的应用理应成为人工教育治理的一项重要内容,使之有助于让教师摆脱日常繁重的琐事,把主要精力放在教学设计、项目活动开展等方面,并为教师开展人机协作、人机交互教学提供辅助。落实在具体的教学情境中,这种人机交互可由二元交互(人类老师、学生)转化为三元交互(人类老师、学生、机器人)。智能机器人不仅可以辅助教师与学生交互,支持学生的动态化、个性化学习;而且可将学生的多模态学习行为数据,及时准确地进行采集、分析、研判和反馈,以帮助研究者和管理者根据学习者的不同需求和能力,及时设计或调整教学进度、优化教学方式。

❖(三)微观层面:实现对学习者个性化、自适应学习的支撑与治理

不断进化的智能辅助教育系统,也让人工智能教育治理辅助学生的个性化学习成为可能:第一,学习者的情绪、语言、交互将会通过数字和图像等可视化形式动态呈现,让学习的内容适切于每一个学习者个体的内在需求和能力,为学生构建含有学习策略、学习诊断、学习内容推送、学习结果评价等关键环节的适应性学习模式。第二,为学习者创设沉浸式、充满探究意义的虚拟学习环境,利用虚拟现实技术、全息技术等为学生提供身临其境般的学习环境,旨在帮助学生结合自身的学习兴趣,采用符合自己的学习策略或进度,对相关信息、知识进行深度加工,建立起新旧知识间的关联与迁移,在对知识进行理的解基础上提升批判性思维,发展创新性能力,这也是人工智能教育的核心价值之所在。

5

结语

随着后疫情时代的到来,基于全球化的防控和面对突发性事故的社会需求,为人工智能教育发展与治理,提供了新的机遇和挑战。当前,世界许多发达国家或地区已利用技术优势、工业实力、经济能力等为人工智能的发展赢得了先机,但一些欠发达国家或者地区由于社会经济条件等的限制,在这场竞争中很有可能落伍,这进一步导致了全球“数字鸿沟”和“智能鸿沟”的加剧,从而成为全球不稳定的影响因素。

我们认为,人工智能教育的全球治理应以多元主体视角审视教育新秩序、教育活力、教育效能、教育公平等诸多问题。首先,提倡加强全球化合作,增进各主权国家、国际组织等利益相关方的共同理解与进步,协商制定人工智能教育全球治理规则或指南;其次,充分利用人工智能等新技术改善校园环境,推进智慧校园的建设;最后,聚焦“以人为本”、人性至上的教育理念,充分运用人工智能技术重塑教与学关系,为所有学生提供个性化的学习资源与服务。

我国作为发展中国家,人工智能发展既面临着国际压力,也需要应对国内挑战。随着人工智能进一步融入社会生活,地区之间、群体之间、个体之间的教育资源分配不均、新的教育公平问题等也会凸显。我们需要未雨绸缪,尽快制定人工智能应用的伦理原则和相关法规,鼓励企业、社会组织和其他利益相关者参与到人工智能发展的规划、设计中来。必须坚持以人为本的发展战略,利用人工智能促进人类福祉。要密切关注和防范人工智能发展过程中所带来的负面问题,对可能引发的社会问题应做好提前防范和部署措施,竭力弥补因人工智能发展带来“数字鸿沟”或社会经济发展不平衡等,对于落后地区或公益领域要加大扶持力度。这一切,应该成为人工智能教育治理的永恒追求。

参考文献:略

作者简介:卢迪1、段世飞2、胡科2、李福华1、陈熠舟3

1淮北师范大学教育学院

2清华大学教育研究院

3北京师范大学教育学部

本文转载自微信公众号MOOC,原载于《远程教育杂志》2020年第6期返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇