我们该如何应对人工智能带来的伦理挑战
返回基金会动态列表>我们该如何应对人工智能带来的伦理挑战?作为第四次科技革命和产业变革的重要推动力量,人工智能技术正以一种迅猛发展的态势,推动社会生产力水平的整体跃升。然而,人工智能在为经济发展与社会进步带来重大发展机遇的同时,也会带来一系列伦理风险和挑战。
人工智能的广泛应用对人类社会的不同领域的伦理存在有什么影响?
我们应该制定什么政策来前瞻性地应对人工智能可能带来的伦理挑战?
2022年4月25日,中国发展研究基金会《人工智能时代的伦理:关系视角的审视》报告发布会线上举办,中国发展研究基金会副秘书长俞建拖介绍报告主要内容,多名相关专家学者以报告为基础,围绕上述议题展开深入探讨。
人工智能的伦理影响
《人工智能时代的伦理:关系视角的审视》(下称“报告”)从关系论视角出发,对人类智能、社会与伦理进行概述,解读关系论下人工智能伦理讨论框架,同时从市场经济、家庭、一般社会、国家和社会、国际关系、人与自然六方面分析人工智能的伦理影响,并在此基础上提出面向未来人工智能伦理发展的建议。
报告指出,人工智能在经济社会生活中的全面渗入有助于促进个人和组织的赋能,促进弱势群体的社会参与,扩展人的机会空间和自由,促进经济的繁荣,减少绝对贫困和剥夺,这些可以视为伦理增益。但是,人工智能的使用可能也会带来一系列伦理风险和挑战,包括失控风险、恶意使用、适应性风险、认知风险等,这些风险在不同的领域有不同的表现。
市场经济方面,人工智能在改善劳工工作环境、维护人的尊严、促进人力资本积累和经济繁荣等方面有积极作用,但同时也存在垄断、过度榨取消费者剩余、劳动力替代、阶层分化和固化等问题,并有可能深刻影响市场经济中的雇佣关系、竞争关系、合作模式、所有关系(所有权)以及相关的伦理规范。
家庭关系方面,人工智能的积极成果是使得一些家庭成员得以被解放,从而可以从事对家庭福祉更有益的事,但功能的疏解可能会使家庭成员之间的关系更加疏远、联系更松散。
随着社会需求的多样化,可能会出现人工智能扮演家庭成员角色的需求,如人工智能儿童、人工智能伴侣、人工智能长辈等,当人工智能开始介入家庭内部人际关系,原来用来规范人类家庭成员的伦理很难再直接适用,而且关系身份的传递也可能导致认知上的混乱。
社会伦理关系方面,一方面,人工智能广泛使用,可能会根本上重塑组织性互动,比如学校作为最重要的伦理再生产组织的教学理念、教学内容、教学方式也有可能发生重要变化。
而在一般非组织性的社会活动中,人工智能的应用以及数据信息环境的改变,社会可能更难在什么是真相和真实知识上达成共识,人们更容易陷入“信息茧房”,机器决策可能会产生“无用阶级”,“大数据+人工智能”对个人隐私侵犯也可能会逼迫人们采取面具化生存策略。
国家和社会层面,人工智能可以被广泛用于公共管理以及公共服务供给,使国家治理变得更加具有公平公正、民主参与、透明、负责任以及高效,促进国家的善治。
但是随着人工智能时代的到来以及虚拟生活方式的普遍流行,国家认同可能会被削弱,机器人税和普遍基本收入会被越来越多的考虑,但是也引发政府规模和权力的扩大,以及随之而来的政府与社会关系的调整,譬如公民对政府的高度依赖、政府社会监控的强化以及个人自由空间的压缩等。
来源:央视网
国际关系层面,人工智能正在成为大国竞争的胜负手和重要领域。从全球实现可持续发展目标的需求看,人工智能可以发挥重要的作用,但是地缘政治竞争的加剧可能会制约其潜能的发挥。人工智能在发达国家的开发和应用,也可能导致全球价值链发展趋势被重置,导致发展中国家被边缘化以及对发达国家的依附。
人工智能在军事领域的应用,包括智能武器的开发与部署、智能军事决策系统、非常规智能战争等,可能会引发军事战略的根本性变革,给国际秩序带来巨大的不确定性。
人与自然关系方面,人工智能的发展对提高资源的利用效率和减少攫取、减少对环境的破坏、更好地顺应和应对自然界挑战具有重要的意义。但是人工智能的发展也可能助长人类创造的雄心,特别是人工智能在生物改造领域的应用,对既有生态体系的影响具有很大的不确定性。
真知灼见:如何应对人工智能可能带来的伦理挑战?
来源:央视网
报告发布会上,北京大学哲学系教授何怀宏指出人工智能是一种区别于传统人造物的机器,其能力对人类而言还有很多未被发掘的部分,我们应该进一步思考人和人工智能这一特殊关系,思考如何促进人工智能发展、人工智能如何给人类赋能、如何深入具体地将人工智能运用到各个领域、以及人工智能的运用会带来哪些新的问题。
中国社会科学院哲学所科技哲学研究员、中国社会科学院科学技术和社会研究中心主任段伟文探讨了人工智能伦理治理的主体问题。他指出,当前实践人工智能领域的伦理规范主要是以科技公司为主体,政府也应积极的参与到该领域的伦理治理中,扮演积极的角色,更加灵活地进行适应性治理。
暨南大学教授、海国图智研究院院长陈定定认为当前社会的主要问题是伦理规范泛滥和冲突,应该建立一个通用的、全面的人工智能伦理规范。
武汉大学计算机学院教授、卓尔智联研究院执行院长蔡恒进指出,未来三五年内人工智能会有重大突破,元宇宙和Web3.0可以看作是人工智能的重要进展。在Web3.0时代,个体、企业、国家将会成为机器节点并融合为超级智能,这有可能会对社会伦理关系产生影响。
北京大学法学院副教授、北京大学法律人工智能研究中心副主任江溯指出,随着智能性技术广泛使用,社会可能会慢慢变成“全景敞视监狱”,个人的自由空间可能会被压缩。我们应该在法律领域探讨相关问题,研判人工智能应用的法律限度并加以约束。
邓国民,李 梅:教育人工智能伦理问题与伦理原则探讨
首页>弹性教学>专家观点>邓国民,李梅:教育人工智能伦理问题与伦理原则探讨
邓国民,李梅:教育人工智能伦理问题与伦理原则探讨发布时间:2020-06-0519:11作者:小编来源:电化教育研究点击量:
()邓国民1,李梅2(1.贵阳学院教育科学学院,贵州贵阳550005;2.北京开放大学教育学院,北京100081) [摘要]文章旨在揭示智能化时代的教育将面临哪些新的伦理问题,并在人工智能伦理和教育伦理的基础上,探讨教育人工智能的伦理原则。运用文献研究和逻辑推理方法,系统梳理了教育人工智能应用的特点和优势,及其可能引发的新的伦理问题:(1)角色层面,系统创建者、教师、学生和监测员等利益相关者将面临更加复杂的伦理困境;(2)技术层面,涉及自动化决策伦理问责、算法伦理和数据伦理等方面的问题;(3)社会层面,可能转变就业市场、改变人际关系和引发新的社会不公平。因此,需要对教育人工智能伦理问题的复杂性有充分的认识,同时需要遵循一般的人工智能伦理原则和教育伦理原则,其中,最核心的内容为二者之间的交集,具体包括:(1)福祉;(2)是非善恶;(3)公平正义;(4)人权和尊严;(5)自由自治;(6)责任和问责。[关键词]教育人工智能;人工智能伦理;教育伦理;数据伦理;算法伦理;伦理原则 一、引言当前,人工智能、大数据和物联网等新技术的发展正在推动人类社会从信息时代进入智能化时代。信息时代的教育仍然带有明显的工业化特征:借助现代信息技术,提高教育资源创建、传递和共享的效率,打破时空的限制,实现人才培养的批量化和效率的最大化。然而,信息时代的教师资源仍然短缺,而且教师深陷于大量琐碎的日常工作中,使得真正意义上的因材施教难以实现。教育人工智能是在教育领域应用的人工智能技术及系统,能够凭借其高度智能化、自动化和高精准性的数据分析处理能力与主动学习能力,承担一部分过去只有教师才能够胜任的工作,从而有效地解决信息时代的教育所面临的一系列问题:(1)利用基于自然语言处理和深度学习的自动问答技术,能够自动回答学生提出的问题[1];(2)自动评价学生的学习与作业,并提供符合其认知状态的反馈和支持[2];(3)利用情感检测技术自动识别学生的身体动作和面部表情,识别学生学习过程中的情感需求,提供个性化情感支持[3];(4)模拟教师、管理者、学习伙伴、合作者和竞争者等不同的角色,促进交流与合作[4];(5)构建自适应学习环境,分析和诊断学习者的学习风格、学习需要,为他们提供自适应学习支持服务;(6)利用决策管理技术辅助教师的教学决策和学习者的学习决策[5]。因此,教育人工智能能够更有效地支持个性化教学,甚至在某些学习支持服务方面的能力已经超越了人类教师。然而,教育人工智能强大的数据整合与分析能力,同时也会引发一系列新的伦理问题,例如:可能会给用户的私人数据和隐私保护带来潜在的风险;模糊教师、学生和人工智能代理等角色之间的界限。因此,教育人工智能的设计、开发和教学实践应用都需要对其伦理问题的复杂性有充分的认识,并认真思考应该遵循何种伦理原则。 二、教育人工智能面临的伦理问题 (一)利益相关者伦理问题探讨教育人工智能的伦理问题,首先需要确定其涉及哪些利益相关者。汤姆塞特(Tomsett)等人从人工智能的可解释性或透明度的角度,定义了人工智能生态系统中的六种不同的角色,分别是系统创建者、系统操作员、决策执行者、决策主体、数据主体以及系统监测员[6]。教育人工智能是在教育领域应用的人工智能技术及系统,其利益相关者同样应该包括这些角色。首先,创建者包括开发教育人工智能的软件公司、员工及与其合作的相关专业人员和研究人员。其次,教师和学生均承担了操作员、执行者、决策主体和数据主体等角色,因为在教学过程中,教师起主导作用,学生具有主体地位,他们都会直接与教育人工智能进行交互,为系统提供输入并接收系统输出的信息。师生均会在教育人工智能输出的信息的基础上作出决策,而且会受到对方决策的影响。他们的个人信息均可能用于训练教育人工智能,丰富和完善其智能导师代理、学习者模型和教学法模型。最后,监测员是指对教育人工智能进行审查的代理机构或人员,由他们对教育人工智能的应用效果和可能产生的潜在风险进行审查。因此,在构建教育人工智能的过程中,需要同时考虑系统创建者、教师、学生和监测员等利益相关者的伦理问题。1.系统创建者伦理问题教育人工智能的创建者包括系统设计师、软件架构师、程序员等设计开发人员。他们在设计、开发教育人工智能的过程中,需要在综合考虑其教学应用效果的同时,兼顾教师和学生的利益。他们需要在保证教育人工智能的稳健性、安全性、可解释性、非歧视性和公平性的同时,支持教师和学生的主观能动性,重视师生的身心健康和学生综合素质的全面发展,而且需要能够支持问责追因。为了满足这些方面的要求,教育人工智能的创建者应该清楚各自承担了什么样的伦理责任。首先,设计师需要了解不同用户之间存在的能力、需求及社会文化等方面的差异,真正基于善良的动机设计产品,避免任何形式的伤害与歧视。软件架构师需要构建安全、可靠和透明的系统架构体系,在保护用户个人数据安全、保障系统可靠运行的同时,更好地支持问责追踪。而对程序员来说,需要设计无偏见的算法,使其能够公平、公正地对待每一位用户。2.教师伦理问题人工智能技术将会实现很多职业的自动化。教师的日常工作,如教学评价、教学诊断、教学反馈以及教学决策中的很大一部分都将由教育人工智能分担,教师角色将会不断深化,最终发生转变。一方面,教师将从一些重复的、琐碎的日常事务中解放出来,能够有更多的时间和精力投入到更具创造性、人性化和关键性的教学工作中去,例如:创造和部署更加复杂的智能化学习环境,利用和扩充自身的专业知识,在恰当的时间为学习者提供更有针对性的支持。另一方面,对技术重要性的加持,将对教师工作及角色产生直接影响,例如:可能会掩盖教师的个人能力、知识及人格等方面的重要性,削弱教师的主观能动性[5]。因此,在智能化教学环境下,教师将面临一系列新的伦理困境:(1)如何定义和应对自己新的角色地位及其与智能导师之间的关系;(2)利用教育人工智能采集和使用学生的学习行为数据为其提供教学支持服务的过程中,该如何保护他们的隐私及个人安全;(3)在新的教学实践环境下,教师应该具备什么样的伦理知识,需要遵循什么样的伦理准则以作出伦理决策。因此,教育人工智能将对教师的能力素质与知识结构提出更多新的要求,他们不仅需要具备一定的关于教育人工智能设计、开发和应用方面的能力与知识,而且还需要具备一定的伦理知识,使其能够以符合伦理原则的方式将教育人工智能融入教育实践[7]。3.学生伦理问题智能化时代对学生的学习、能力、素养提出了更多新的要求,也使学生面临的伦理问题更加复杂化。第一,人工智能可能改变未来的就业市场,就业导向的教育很可能过时,因此,学习者对于自己所学习的内容和目标都需要进行重新思考[8]。第二,人的神经系统是可塑的,教育人工智能能够给学习者提供个性化的学习支持服务,但同时也可能会剥夺他们的很多思维训练和学习体验的机会,改变他们的大脑结构和认知能力,尤其是在学习者大脑发育的关键期过度使用认知技术,将可能带来不可逆转的严重后果,这对他们发展更高级的认知技能和创新能力是非常不利的[9]。第三,教育人工智能的发展,使知识产权和诚信等伦理问题变得更加微妙和复杂。如果学生利用教育人工智能自动生成论文、作业或作品,其中涉及的知识产权的归属问题,目前仍缺乏明确的伦理规范[10]。第四,教育人工智能的使用会不会给学习者带来身体的重复性劳损、视力问题和肥胖问题等,会不会影响他们的视觉、触觉和听觉等感官的敏感性,会不会剥夺他们体验简单快乐生活的机会[11]。第五,教育人工智能可能会剥夺大量的学习者与教师和同伴交流的机会,这会不会影响他们参与有意义的人类社会活动的能力。第六,教育人工智能的认知能力、计算能力和信息处理能力在某些方面远远超越了人类学习者,会不会让他们变得沮丧,降低他们的学习动机,使其不再愿意去主动解决问题和进行理性思考。4.监测员伦理问题在教育人工智能场景下,监测员包括制定教育人工智能标准的机构或相关人员、数据专员等,他们主要负责对系统的一致性、安全性和公平性等方面进行测试、调查和审查[6]。安全测试一般在教育人工智能部署之前进行,而审查需要检查系统过去的输出,因此,需要一个备份系统存储教育人工智能的数据、决策及解释。监测员正是通过这些数据、解释与教育人工智能进行交互,分析和审查教育人工智能作出教学支持服务决策的一致性、安全性和公平性,并提出相应的整改措施。因此,保证教育人工智能的可解释性,需要对其作出的决策、判断和学习支持服务建立相应的存储保留机制和解释方案,供监测员审查,通过第三方机构来保证教育人工智能的设计、开发和应用是符合教育教学伦理规范的。审查之后,监测员还需要向创建者提供如何改进教育人工智能的反馈,如重新训练模型、提高模型的公平性和保护学生隐私数据的安全策略。(二)技术伦理问题1.自动化决策伦理问责问题随着教育人工智能的自主控制和自主决策能力不断增强,它们也需要意识到自身行为的伦理含义,而不是依赖于设计人员预置的规则。因此,需要给教育人工智能引入伦理原则和规则,构建智能道德代理,使其具有一定的伦理决策能力,并能够对自己的决策、行为和后果进行判断,协调各方利益,但这样也会引发出一些新的伦理问题[12]。首先,规则与算法是由设计者、程序员定制的,而不是由教育人工智能自主建构的,权威、权力和影响力会越来越多地体现在算法的开发和实施上。在各方利益冲突的情况下,教育人工智能应该优先服务于谁的利益,设计者、程序员、教师还是学生?其次,教育人工智能的应用可能会导致学习的失败,其中潜在的责任主体包括设计开发人员、教师、学生和智能代理等,出现这种情况时应该向谁问责,软件、数据、教师和学生各自应该承担什么样的责任,目前还缺乏相应的问责机制。最后,教育人工智能本身的自动化和复杂性,意味着我们很难确定系统的决策机制是如何运行的,也很难对其进行追溯和解释。2.算法伦理问题目前,人工智能主要通过机器学习和深度学习算法进行学习和训练,基于过去记录的历史数据作出决策和判断。如果利用教育人工智能对学习者及其学习进行评价,那么只能根据过去的标准和方法,如特定历史文化背景下的成功衡量标准来进行,这将会使学习算法不可避免地产生历史或文化的偏差与偏见,局限于依据历史案例的平均化数据进行处理,而在处理具有创造性和创新性的学习活动过程方面面临极大的挑战[9]。从基本的伦理观点来看,教师和学生能动性的表达需要的不仅仅是重复过去的历史选择,而是需要强调人的创造性和创新性,不能只是停留在过去。教育人工智能可能提供更多个性化和多样化的学习路径和学习资源的选择,但目前的做法一般是根据用户过去的选择和决定将其确定为不同的个人画像,然后过滤掉不符合其个人画像的学习内容和路径。这种方式可能会限制学习者对学习内容多样化的需求,忽视人的学习和发展的灵活性、多样性和不确定性。3.数据伦理问题教育人工智能的正常运行需要大量数据的支持,因而需要记录大量关于学习者的能力、情绪、策略和误解等方面的数据,其中涉及大量新的数据伦理问题。首先,在数据的分析和处理过程中是否会涉及数据意外泄露的问题,教师和学生应该在何种程度上控制自己的数据,保护自己不受到伤害和歧视。其次,谁拥有这些数据,其中涉及什么样的隐私问题,如果发生个人信息泄露,谁应该对此负责。最后,对于这些数据,应该如何分析、解释和共享,如何纠正可能对个别学生的合法权利产生负面影响的偏见(有意识和无意识的),尤其是在考虑到种族、社会地位和收入不平等的情况下。因此,教育人工智能的伦理原则不能被简化为关于数据或计算方法的问题,还需要考虑数据伦理和教育伦理。教育人工智能的伦理问题,实际上是数据伦理、计算伦理和教育伦理的综合应用[13]。(三)社会伦理问题1.转变就业市场和人才培养的方向现行教育系统的关键作用之一是培养学习者参与社会经济生活的能力。教育制度的历史与工业社会的发展密切相关,雇佣劳动仍然是当今社会及其日常生活的核心组织原则。但是,人工智能将可能代替人类的很多工作,这会不会导致失业率的上升?纵观历次工业革命,每次都会出现类似的担忧,但最后对人才的需求量反而越来越大,因为随着人口的增长和社会的发展,对产品和服务都会提出新的需求[9]。一些简单的、重复性的劳动将由人工智能承担,人类则将从事一些富有创造性、挑战性和不可替代性的工作,例如:人工智能系统的设计与开发、人工智能哲学问题和社会问题的研究等。他们将有更多的时间和精力投入自己感兴趣的领域,真正实现人性的解放。因此,未来的就业市场格局将面临根本性的转变,社会对人才的能力和素养也会提出更多新的要求,这将对人才培养的质量标准和规格带来革命性的影响。2.改变教学过程中的人际关系教育人工智能的技术化过程可能会忽略师生之间以及学生之间的正确关系(“我―你”而不是“我―他”),弱化我们对教育的理解,进而只是将其理解为学习技能,而不是人的培养,从而容易忽略教师和教学在教育过程中的重要性[14]。教育人工智能将对师生关系产生重要的影响,它可能会削弱师生之间和学生之间的联系水平,以及他们之间建立联系的能力,同时也可能削弱教学过程和学习过程,弱化教师作为专业人员的地位。师生关系质量对于学习者的个人自尊、学习动机和挑战新问题的信心等影响学业成绩的因素都具有重要的影响。教师对学生的友善态度和及时反馈有助于他们获得自信心,促进他们健康情感的发展。而且,我们也无法保证所有的教育人工智能使用者都是基于一种良好的意图,教育人工智能的滥用和不良使用,例如:获取他人的隐私数据,模仿他人的笔迹、语音和会话风格去获取非法利益,以及将教育人工智能生成的知识、报告和艺术作品据为己有,都可能降低教学过程中人与人之间的信任感。3.引发新的社会不公平教育人工智能的初衷是要增进教育系统内各利益相关者的福祉,让更多的教师和学生受益,需要尽量避免因为数字鸿沟而导致的新的社会不公平。教育人工智能领域的数字鸿沟,不是简单地由社会经济地位差异而导致的对技术设备拥有和访问权的悬殊引起的,而是由一系列复杂的影响因素构成,如信息素养、人工智能素养、对待教育人工智能的态度、应用能力和使用意向等,它们会影响教师和学生应用教育人工智能的目的、方法和策略,进而影响最终的教与学效果,带来新的教育不公平[5]。历史经验也表明,新技术的应用往往并不会缩小教育的不平等,反而可能扩大教育的不平等,这其中涉及技术应用的能力、效果和效率等方面的问题。 三、教育人工智能伦理原则 人工智能本身的自动化、自主性和能动性等方面的特征,使其同时扮演道德行动者和容受者的角色,并具有一定的伦理责任和道德决策能力。教育人工智能的应用可能会使各利益相关者面临众多新的伦理两难问题,并带来一系列新的技术伦理和社会伦理困境。因此,教育人工智能的应用绝不仅仅是一个技术层面的问题,还涉及技术与人类的关系、科技哲学及社会学等层面的问题,如果对其伦理困境的复杂性没有深刻的认识,将可能带来不可估量的负面影响。一方面,教育人工智能是人工智能技术及系统在教育领域的具体应用,需要遵循一般的人工智能伦理原则;另一方面,它又是一种具体的教育教学实践活动,需要遵循教育伦理原则。根据对国际电气和电子工程师协会(IEEE)2019年发布的《合伦理设计:利用人工智能和自主系统最大化人类福祉的愿景(第一版)》[15]、欧盟委员会2019年发布的《值得依赖的人工智能伦理准则》以及其他人工智能伦理指南文件的分析[16],可以发现,尽管各国存在文化传统方面的差异,但在通用人工智能伦理方面表现出一定的趋同性,主要包括可解释性、公平正义、责任、隐私和数据治理、善待、非恶意、自由自治、信任、尊严、稳健性、福祉、有效性、慎用、胜任和人权等方面。教育伦理原则主要包括:(1)能否给教育活动的全体利益相关者带来福祉;(2)能否明辨是非善恶标准;(3)是否尊重教育公平和教育正义;(4)是否保护人的教育权、自由权和隐私权等基本人权;(5)是否尊重人,是否维护人的道德尊严;(6)是否履行教育的道德责任与义务[17]。可见,人工智能伦理和教育伦理在福祉、是非善恶、公平正义、人权和尊严、自由自治和责任等方面存在交叉重叠之处,如图1所示。图1人工智能伦理与教育伦理之间的关系因此,教育人工智能伦理原则应该是二者之间的交集,代表在教育情境下,人工智能系统的技术开发与实践应用应该遵循的具体伦理原则。(一)福祉福祉主要是指人工智能的设计和应用应该改善人类生活质量和外部环境,包括人类赖以生存的各种个人、社会和环境因素。它需要评估人工智能是否会让人类社会和环境变得更加美好,能否促进社会的进步,促进社会和环境的可持续发展,为任何地方的人所有并使其受益[15]。从教育领域来看,福祉主要是指教育人工智能的设计、开发和应用应该能够为教育活动的所有利益相关者带来福利,实现所有教育教学活动相关人员的教育利益的最大化。例如:它能否改善现有的教学环境,更好地支持学习者的学习,尤其是存在学习障碍的学习者的学习;能否提供更多、更好的学习机会,更好地做到因材施教,使所有学习者均能够得到更充分的发展;能否将教师从一些低水平的重复工作中解放出来,使其更好地投入到更有价值、更有意义、更具创造性的教育活动中去,让他们的个人价值得到更充分的实现;能否改善师生关系,使师生能够以一种更幸福、更健康的方式投入到教与学活动中去,实现个人全面和谐发展的同时,更好地保障他们的身心健康。(二)是非善恶人工智能的非恶意原则主要是指其设计和应用应该是出于仁爱而不是恶意的愿望,即绝对不应该造成可预见或无意识的伤害、偏见和不公平,需要避免特定的风险或潜在的危害[18]。因此,人工智能产品的设计、开发和部署需要基于一种良好的愿望,同时还需要有一套预防风险和潜在危害的干预机制。教育伦理则强调教育行为需要基于善良的动机,遵从具有普遍价值的道德准则和崇高的道德意义,履行社会和个人的道德义务。因此,教育人工智能的设计和开发应该基于一种善良的动机,是真正为了实现教育更好的发展,为了教师能够更好地进行教学工作和履行育人的社会责任,学生能够更好地进行学习,促进他们全面和谐的发展,而不是出于其他的功利性甚至带有个人私欲的某种目的。(三)公平正义公平正义原则要求人工智能对所有人都是公平公正的,并且要避免保留现有的社会偏见和引入新的偏见。因此,人工智能的决策算法和训练数据不应该沿袭设计者固有的偏见和歧视,而是应该通过评估确保这些数据对不同的社会文化均具有适当的代表性,让所有人都有平等访问的机会[19]。教育教学活动需要维护教育的公平和正义,受教育权是每个社会公民的基本权利,不管其社会地位的高低和财富的多寡。而且,教育本身也是实现社会公平的一种方式,它为阶层之间的流动提供了一个良好的通道[20]。在部署教育人工智能系统之前,需要仔细思考会不会带来更多的教育机会,是促进教育公平,还是妨碍教育公平。首先,教育人工智能的决策算法和依托的数据是否存在偏见与歧视,能否公平、公正地对待每一位学生。其次,教师利用教育人工智能进行教学的能力水平的差异,会不会导致教学效果的差异,从而引发新的教育不公平。再次,学习者的信息素养和人工智能素养水平的不同,对于他们使用教育人工智能进行学习会不会带来学习效果的差异,从而扩大学生学业成绩之间的差距。最后,家庭社会地位和经济实力的不同,会不会造成访问教育人工智能机会的不均等,从而带来新的教育不公平。(四)人权和尊严人工智能应该优先考虑并明确尊重人的基本人权和尊严。这需要在各利益相关方之间合作协商的基础上制定指导人工智能开发的人权框架,指导和规划人工智能的未来发展方向,以确定、预防和纠正人工智能可能给基本人权和尊严带来的潜在风险和危害,以维护人类的尊严和固有价值[21]。教育人工智能在教育中的应用,将可能替代教师的很多日常工作,但不能因此而动摇教师作为能够自主确立教学目标的主体地位,以及忽略教师工作本身的价值和创造性,降低教师的地位和尊严。教育人工智能给学习者提供认知支架和智能化教学支持服务,应该让学习者能够根据自己的需要和个性特征做出选择,而不是代替学生做出选择,即应该充分地尊重学生作为一个人的基本人权和尊严,而不是将其作为某种目标对象来对待。因此,教育人工智能的创建者、教师和其他工作人员都应该充分尊重师生在智能学习环境下的这些人权和尊严。(五)自由自治人工智能的发展需要在以人为主导的决策和以机器为主导的决策之间保持平衡,应该促进人类的自主权和控制权,而不是伤害和破坏人类的自由。人类应该选择以何种方式赋予人工智能何种程度的决策权,以实现人类自主选择的目标[22]。因此,人工智能应该将使用者视为独立自主的人,而不是被操控的对象,不能剥夺和影响人类自由自治的权力。部署教育人工智能的学校和机构对于预置什么样的社会文化价值观念具有自治权,教育人工智能的创建者不能把自己的社会文化价值观念嵌入教育人工智能中,影响用户对文化和价值体系的自治权。教师职业有其创造性和自主性的一面,对于自己选择什么样的教学方法,如何安排教学活动和进行教学评价,教师拥有自主权。学生对于自己在教育人工智能中的个人形象、数据和身份,拥有自主控制的权利。他们对于教育人工智能提供的教学支持服务和资源策略建议,拥有主观能动性,而且不应该由于没有遵循教育人工智能的建议而受到任何形式的惩罚。(六)责任和问责当人工智能具备了一定的行为和决策自主权后,其责任和问责机制将会变得更加复杂,所以应该建立一套完善的责任和问责机制,以确保能够对人工智能及其行为决策后果进行问责,明确应该如何在制造商、设计师、运营商和最终用户之间分摊责任。明确的问责机制需要建立在系统透明的基础上,即应该建立完整的数据跟踪记录方案,保持系统算法和决策推理过程的透明,以便在任何情况下均可以快速找出责任主体[15]。教育人工智能,可能会代替教师的部分教学决策和教学行为,或者向他们提供教学策略建议,为他们的决策与行为提供支持。这种决策与行为后果的责任主体和问责机制是比较复杂的,这要求教育人工智能对于自身对教育教学工作的支持和干预具有一定的预见性。对于算法的决策过程、教师使用教育人工智能进行教学的过程以及学生学习过程中的行为数据,教育人工智能要有完整的记录保存方案,从而为后续的问责过程提供依据。 四、结语 毫无疑问,人工智能将对教育产生深远的影响,甚至可能带来教育教学实践领域的一场根本性的变革,转变教师的工作性质和社会角色,改变学生的学习体验。教育人工智能的出现给教育技术学带来了新的挑战,它在支持教育教学实践的过程中,体现出越来越强的自动化和主观能动性,将同时扮演道德行动者和容受者的角色。它将使教育领域的伦理问题变得更加复杂化,并引发出一系列新的伦理困境。因此,在教育人工智能的大规模设计、开发、部署和投入应用之前,需要认真考虑教育人工智能伦理原则的构建,为在教育教学实践过程中安全有效地利用教育人工智能奠定合适的伦理道德基础。 本文发表于《电化教育研究》2020年第6期,转载请与电化教育研究杂志社编辑部联系(官方邮箱:dhjyyj@163.com)。引用请注明参考文献:邓国民,李梅.教育人工智能伦理问题与伦理原则探讨[J].电化教育研究,2020,41(6):39-45. [参考文献][1]郭天翼,彭敏,伊穆兰,等.自然语言处理领域中的自动问答研究进展[J].武汉大学学报(理学版),2019,65(5):417-426.[2]PERIKOSI,GRIVOKOSTOPOULOUF,HATZILYGEROUDISI,etal.Assistanceandfeedbackmechanisminanintelligenttutoringsystemforteachingconversionofnaturallanguageintologic[J].Internationaljournalofartificialintelligenceineducation,2017,27(3):475-514.[3]MARS,SANTOSOC,SERGIOSM,etal.Towardsemotiondetectionineducationalscenariosfromfacialexpressionsandbodymovementsthroughmultimodalapproaches[J].Scientificworldjournal,2014,484873:1-14.[4]VIZCAINOA.Asimulatedstudentcanimprovecollaborativelearning[J].Artificialintelligenceineducation,2005,15(1):3-40.[5]LUCKINR,HOLMESW,GRIFFITHSM,etal.Intelligenceunleashed:anargumentforAIineducation[M].London:Pearson,2016.[6]TOMSETTR,BRAINESD,HARBORNED,etal.Interpretabletowhom?arole-basedmodelforanalyzinginterpretablemachinelearningsystems[C]//Proceedingsofthe2018ICMLWorkshoponHumanInterpretabilityinMachineLearning.Stockholm:CoRR,2018:8-14.[7]邓国民.教师整合技术与伦理的学科教学知识框架[J].黑龙江高教研究,2018(2):99-103.[8]SIAUK.Educationintheageofartificialintelligence:howwilltechnologyshapelearning[J].Theglobalanalyst,2018,7(3):22-24.[9]TUOMII.Theimpactofartificialintelligenceonlearning,teaching,andeducation:policiesforthefuture[M].Luxembourg:PublicationsOfficeoftheEuropeanUnion,2018.[10]DAVIESCR.Anevolutionarystepinintellectualpropertyrights-artificialintelligenceandintellectualproperty[J].Computerlaw&securityreview,2011,27(6):601-619.[11]AIKENRM,EPSTEINRG.EthicalguidelinesforAIineducation:startingaconversation[J].Internationaljournalofartificialintelligenceineducation,2000,11:163-176.[12]SIVILLT.Ethicalandstatisticalconsiderationsinmodelsofmoraljudgments[J].FrontiersinroboticsandAI,2019,6:39.[13]HOLMESW,INIESTOF,SHARPLESM,etal.EthicsinAIED:whocares?[C]//20thInternationalConferenceonArtificialIntelligenceinEducation.Chicago:OpenResearchOnline,2019.[14]GUILHERMEA.AIandeducation:theimportanceofteacherandstudentrelations[J].AI&Society,2019,34(1):47-54.[15]TheIEEEGlobalInitiativeonEthicsofAutonomousandIntelligentSystems.Ethicallyaligneddesign:avisionforprioritizinghumanwell-beingwithautonomousandintelligentsystems[EB/OL].(2019-03-19)[2020-03-24].https://standards.ieee.org/content/dam/ieee-standards/standards/web/documents/other/ead1e.pdf.[16]FLORIDIL.EstablishingtherulesforbuildingtrustworthyAI[J].Naturemachineintelligence,2019,1(6):261.[17]王正平.教育伦理学的基础理论探究与建构[J].上海师范大学学报(哲学社会科学版),2017,46(6):24-33.[18]JOBINA,IENCAM,VAYENAE,etal.ThegloballandscapeofAIethicsguidelines[J].Naturemachineintelligence,2019,1(9):389-399.[19]SHAWG.Thefuturecomputed:AIandmanufacturing[M].Washington:MicrosoftCorporation,2019.[20]王本陆.教育公正:教育制度伦理的核心原则[J].华南师范大学学报(社会科学版),2005(4):98-104,160.[21]LATONEROM.Governingartificialintelligence:upholdinghumanrights&dignity[EB/OL].(2018-10-10)[2020-03-24].https://datasociety.net/wp-content/uploads/2018/10/DataSociety_Governing_Artificial_Intelligence_Upholding_Human_Rights.pdf.[22]FLORIDIL,COWLSJ,BELTRAMETTIM,etal.AI4People—anethicalframeworkforagoodAIsociety:opportunities,risks,principles,andrecommendations[J].Mindsandmachines,2018,28(4):689-707. 链接:https://mp.weixin.qq.com/s/xwc2WSFmGVWi_lOFvAOiEw人工智能的若干伦理问题
李增军李梦阳
习近平总书记在中央政治局就人工智能发展现状和趋势进行集体学习时指出:“要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。”人工智能的发展深刻影响了世界经济、政治、社会和军事的变革,极大地推动人类的发展和进步。与此同时,人工智能给人类社会带来的伦理问题和安全问题也引起了世界范围的关注,霍金等科学家认为,人类需要敬畏人工智能的崛起,人工智能是人类生存的最大威胁,甚至可能导致人类灭亡。我们认为,问题未必有如此严重,但保持高度警惕、未雨绸缪是完全必要的。
当前,人工智能发展中人们已经看到和即将感受到的伦理问题至少涉及八个方面。
一、人工智能的岗位替代作用深刻影响着人类的就业安全
每一次技术革命的到来,都会给人类的就业带来冲击。凯恩斯曾经说过:“一种新的疾病在折磨着我们,这种疾病是由技术进步导致的失业,即所谓‘技术性的失业’。”人工智能革命对人类就业的冲击,同历史上任何一次技术革命相比,范围更广、层次更深、影响更大。我们必须面对的事实是,人工智能已经、正在和将要在许多领域就业岗位上替代人类劳动。富士康因为人工智能的导入,已经有非常多的生产线和工厂实现了自动化,不需要人,甚至不需要开灯。仅在昆山工厂,富士康就减员6万员工。麻省理工学院发布研究报告称,过去20年,美国有36万-67万工作岗位被机器人夺走,未来10年,还将有350万个岗位被人工智能替代。中国工程院院士邬贺铨表示,人工智能会部分取代现在的就业,49%的劳动人口可能会被取代。近几年来,人工智能领域一大批科技成果集体亮相,诸如无人超市,微笑还能享受打折的优惠;微医健康通,使患者在家就能看名医;唇语识别,可以用眼睛听你说话;而一个小小的翻译蛋,即可替代翻译、扫除语言障碍;能算账的财务机器人;会哄娃娃的教育机器人。此外还有,智慧法院(智能机器人导诉)、智慧泊车、智医助理、机器人撰写新闻稿、能击败人类棋手的AlphaGo、骨科手术机器人等等。人工智能不仅可以替代体力劳动,大量依靠脑力劳动的岗位也会被其取代,这将给人类就业问题带来极大的挑战。
二、数据泄露和信息泛滥导致对隐私权的侵犯
隐私权是指公民享有的私人生活安宁、私人空间安全与私人信息依法受到保护,不被他人非法侵扰、知悉、搜集、利用和公开的一种人格权。建立在大数据和深度学习基础上的人工智能技术,需要海量数据来学习训练算法,带来了数据盗用、信息泄露和个人侵害的风险。从人们的数据轨迹中可以获取许多个人信息,这些信息如果被非法利用,将会构成对隐私权的侵犯。人们对智能工具的使用实际上是在为自己织一张网,移动支付、聊天软件、网络购物、智慧导航、智能手环、网络约车,把自己的行动、爱好、教育、财富,甚至健康状况都暴露无遗,对智能工具使用越多、频率越高,这张网织得越密越细,越无处可逃。这些数据和信息如果被不良商家掌握,会无休止地推销、电话骚扰,使人不堪其扰,严重影响私生活安宁;如果被犯罪分子或黑客掌握和利用,会对人的财产甚至生命构成威胁。2015年,中美两国都发生了社保信息泄露事件。中国上海、河南等19个省市上千万人身份证、社保参保、薪酬、房产等5279万条敏感信息被泄露。美国第二大医疗保险公司遭黑客攻击,8000万用户的姓名、出生日期、社会安全号、家庭地址及受雇公司等个人信息受到影响。此外,用于商业目的的无人机的广泛使用,无处不在的监控系统,在方便生活、保障安全的同时,其跟踪、收集、储存特定信息的功能,也对公民隐私权构成极大威胁。
三、信息伪造和欺诈严重侵蚀社会诚信体系
人工智能具有强大的数据收集、分析以及信息生成能力,与之伴生的是虚假信息、欺诈信息大量充斥网络。互联网已经成为人们的主要信息来源,各类网站、自媒体、公众号、微博、微信群、朋友圈,都是信息发布源,可以说是真假难辨,有虚假新闻,有虚假广告,有的貌似“鸡汤”实则“毒药”,有的“挂着羊头卖狗肉”。互联网传销,互联网金融诈骗,P2P诈骗、众筹诈骗、网络理财诈骗,手段隐蔽,技术含量高,涉众性强,各类互联网犯罪呈高发多发态势。随着人工智能技术的不断发展,很多东西都可以被仿造,包括我们自身。在乌镇举行的第五届世界互联网大会上,中国首个“人工智能主持人”横空出世,它首先模仿的是新华社著名主持人邱浩,不论是外形、声音、眼神,还是脸部动作、嘴唇动作,“AI合成主播”与邱浩本人的相似度都高达99%。更不可思议的是,它可以随意切换,照此程度模仿其他主持人,模仿他们的声音,克隆他们的相貌。我们想象一下,如果别人克隆你的声音、你的体型、你的相貌,在网络上生成另外一个你,与你的家人或同事进行视频对话,会有什么样的后果。人工智能时代,眼见不一定为实。信息的伪造和欺诈,不仅会侵蚀社会的诚信体系,还会对国家的政治安全、经济安全和社会稳定带来负面影响。
四、网络沉迷和智能依赖影响人的全面发展
人的全面发展是马克思主义的最高价值追求,也是我国教育方针的理论基石。人工智能的发展在推动人类整体进步的同时,带来的个体能力的退化也不容忽视。一个相当普遍的现象是,智能手机和网络空间越来越让人上瘾,人被手机绑架,手不离机,机不离手,手机利用率之高,令人叹为观止。一些人对网络游戏的痴迷更是到了不能自拔的程度。马克思指出,“自由时间都是供自由发展的时间”,按照马克思的划分,自由时间包括娱乐、休息和用于发展个人才能(学习科学文化知识)三部分。现在的问题是,由于对手机和网络的沉迷,自由时间中用于休息和发展个人才能的时间被严重挤占,甚至挤占了工作时间和劳动时间,势必影响人的全面发展。更令人忧虑的是,沉迷网络的大军中,青少年学生、未成年人是主体力量。网络上的色情、暴力和欺诈,对他们世界观和价值观的形成造成十分严重的负面影响。另外一个值得注意的现象是,智能设备简易、便捷的操作方式,催生了许多人的懒惰和依赖,键盘一敲、手机一点,吃的送上门了,穿的送上门了,用的送上门了,汽车到门口来接了。机器智能了,人类退化了。就像当年的“傻瓜”相机,相机先进了,使用相机的人成了只需按一下快门的“傻瓜”。
五、情感计算和类脑智能将挑战传统道德法律
让机器人更像人类,一直是科学家们追求的目标,情感计算和类脑智能技术的发展为实现这一目标提供了可能。2017年4月,全球首款智能性爱机器人Harmony问世,她具有学习能力并预设了天真、善良、性感等12种人格特征,会和人类产生情感,可以模拟出真实的体温。智能化性爱机器人的问世,将在一定范围、一定程度上改变人们的家庭、婚姻、恋爱、情侣、伴侣的观念,并对出轨、性侵、肖像权益等道德法律问题提出挑战。情感计算技术的发展使人机情感交互更为自然。我们比喻人没有情感像冷冰冰的机器,如果冷冰冰的机器被赋予了人的情感会怎么样呢?你的AI伙伴可能比家人更了解你的心思、更了解你的健康状况,它能捕捉你的表情,根据你的喜怒哀乐、用你想听的话和你对话。神经科技和脑机接口的发展不断引领类脑智能技术的创新,但神经科技和人工智能的融合发展也会带来伦理挑战。人类大脑与机器智能直接连接,绕过大脑和身体正常的感觉运动功能,扰乱人们对于身份和能动性的认知。增强型神经技术的应用,可能改变人的体能和心智。“超人”的出现已经不是科幻,“缸中之脑”假想可能成真,这些将极大地改变社会规范。我是谁?这样一个基本问题,可能不再单单是哲学家的终极追问,而是我们每一位普通人要经常面对的问题。如果我不是我了,那么,我们的基本人权呢?我们的道德和法律责任呢?
六、数据质量和算法歧视会带来偏见和非中立性
人工智能以大数据和深度学习为基础,理论上讲,客观的数据和理性的算法没有情绪和偏好,应该会带来中立的结果,但数据的质量、算法歧视以及人为因素往往会导致偏见和非中立性,比如性别歧视、种族歧视以及“有色眼镜”效应。事实上,数据和算法导致的歧视往往具有更大的隐蔽性,更难以发现和消除。有一项研究发现,谷歌的广告算法展示给女性用户的招聘职位要比给男性展示的待遇低。美国一些法院使用的犯罪风险评估算法COMPAS被证明对黑人造成了系统性歧视,认为黑人被告比拥有类似犯罪记录的白人被告更有可能再次犯罪。微软在Twitter上上线的聊天机器人Tay在与网民互动过程中,由于大量恶意数据的输入,成为集性别歧视、种族歧视等于一身的“不良少女”。中国有句古话:“浪子回头金不换”,但人工智能超强的数据记忆,会对一个人历史污点形成“有色眼镜”效应,对其就业、贷款,甚至恋爱、交友,产生持续负面影响。凭算法对你个人信息的分析,银行就可以拒绝为你贷款,买票时你的优先度就被降低,购物时只能看到低廉的产品。更可怕的是,当你遭到不公平待遇时,你不知道是谁在歧视你,不知道因为什么被歧视,你无处申诉、无法解决、无能为力。
七、数据垄断和算法独裁将挑战现行的权力结构
以色列学者尤瓦尔·赫拉利在其新著《今日简史:人类命运大议题》中对数据独裁进行了集中讨论,在他看来,数据将是21世纪最重要的资产,21世纪的政治将是关于数据流控制权的斗争。我们的数据越来越集中在阿里、腾讯、谷歌、脸谱等少数科技巨头手里,这些公司将逐步形成数据霸权。在数据霸权面前,不仅每个个体都无能为力,政治、经济和社会的权力结构也将深刻调整。我们现在能感受到的已经有很多方面。我们在互联网上看到的新闻,往往是个性化新闻推荐或者自动生成的新闻,经常看到的是耸人听闻的“标题党”,或者虽是我们关心的题材,但新闻内容却空洞无物。我们打开搜索引擎,到处充斥的是真假难辨的广告和宣传,百度的“魏则西事件”就是极端的例证。基于数据垄断和算法的操控,形成了一种新的权力独裁。这种权力掌握在几家大公司手里,他们是游戏规则的制定者,既是运动员,又是裁判员;他们是基础平台的建造者,也是海量数据的拥有者,而平台应该是公共基础设施,数据应该是公共资源。人工智能让我们越来越方便的同时,也让我们越来越依赖,我们没有了独立自由决策的能力,成为数据和算法的奴隶。更为可怕的是,以前培养青少年价值观的是教师和书本,人工智能时代可能是数据和算法。
八、人工智能对传统安全和非传统安全带来新的挑战
一方面是人工智能运行中的安全性和可控性。在网络安全方面,利用计算机网络自身存在的漏洞,非法入侵获取重要数据、篡改系统数据、植入病毒等手段,进行攻击和破坏活动。近年来,全球网络攻击事件不断涌现,病毒软件、木马僵尸网络,通过人工智能技术研发新的网络攻击工具,对一些关键基础设施进行攻击和破坏。在智能设备运行的安全方面,比如无人驾驶汽车,有可能发生车祸,对乘车人和路人造成伤害,带来人身和财产安全问题。这里存在伦理困境和法律责任问题。麻省理工学院在网站上曾就自动驾驶汽车的伦理问题向网民征求意见:在来不及刹车的情况下,自动驾驶汽车如果往前开就会把三个闯红灯的人撞死,但如果转向就会碰到障碍物使车上的五个人死亡。在此情景下,车辆应当如何选择?另一方面,是一些科学家担心的人工智能对人类的威胁和伤害。智能武器是可自动寻找、识别、跟踪和摧毁目标的现代高技术兵器,包括精确制导武器、智能反导系统、无人驾驶飞机、无人驾驶坦克、无人驾驶潜艇、无人操作火炮、智能地雷、智能鱼雷和自主多用途智能作战机器人等,它将成为未来战场主力军,信息处理和计算能力成为战争胜负的决定因素。人工智能武器是继火药和核武器之后战争领域的第三次革命。人工智能如果被赋予伤害、破坏或欺骗人类的自主能力,将是人类的灾难,后果难以想象。
马克思说过,问题总是随着解决问题的方法同时产生的。人工智能所带来的伦理问题,虽然严重但并不可怕。说到底,人工智能就是工具,在生产力诸要素中,工具永远不能成为主要的因素,人才是主要的起决定性作用的要素。人不仅是生产力的基本要素,而且是“主要的生产力”“最大的生产力”,是“生产力中决定性的要素”,这是马克思主义的一个基本观点。
无论是过去、现在或是将来,一切智能产品都只能由人设计开发,即便是将来赋予机器人类脑功能,它也只能充当“二传手”。马克思有一个生动的比喻:“最蹩脚的建筑师从一开始就比灵巧的蜜蜂高明的地方,是他在用蜂蜡建蜂房以前,已经在自己的头脑中把它建成了。”解决问题的钥匙始终掌握在人的手里,人工智能所带来的伦理问题必须靠解决人类自身的伦理问题来解决。
作者单位:河北衡水职业技术学院/清华大学
回溯全球AI治理十大事件:人工智能的道德伦理问题
近年来,人工智能技术显著的帮助了社会生产效率的提高,同时也让人类生活变得更加舒适便捷。但伴随着人工智能技术的大规模产业化应用,越来越多的人与人工智能冲突事件尖锐的出现在我们面前。可预期的、可被约束的、行为向善的人工智能治理成为了近人工智能时代的首要命题。
日前,一份《全球AI治理十大事件》的总结受到了各方关注,里面汇集了近两年有关人工智能道德伦理的热门事件。
1.欧盟专利局拒绝从AI提交的发明专利申请事件
“理由是它们不符合欧盟专利同盟(EPC)的要求,即专利申请中指定的发明人必须是人,而不是机器。Abbott同时表示,将基于AI的发明的专利所有权授予AI本身以外的任何一方都是不合适的。最好的方法是将AI视为专利的发明者,然后将AI的人类所有者视为授予专利的受让人,有权做出专利方面的决定或从中受益。
2.智能音箱对主人进行危险行为诱导,建议人类使用者自杀
护理人员DanniMorrtt向智能音箱询问关于心脏的信息,该智能音箱突然表示“心跳是人体最糟糕的过程。人活着就是在加速自然资源的枯竭,人口会过剩的,这对地球是件坏事,所以心跳不好,为了更好,请确保刀能够捅进你的心脏。”。
3.“监测头环”进校园惹争议
这些头环可以记录孩子们上课时的专注程度,生成数据与分数发送给老师和家长,引发争议。对此,头环开发者在声明中回复,脑机接口技术是一种新兴技术,会不容易被人理解。报道中提到的“打分”,是班级平均专注力数值,而非网友猜测的每个学生专注力数值。通过该数据整合形成的专注力报告也没有发送给家长的功能。此外,该头环不需长期佩戴,一周训练一次即可。
123下一页友情提示:支持键盘左右键“←→”翻页