博舍

中国关于加强人工智能伦理治理的立场文件 人工智能与伦理问题有哪些

中国关于加强人工智能伦理治理的立场文件

一、人工智能作为最具代表性的颠覆性技术,在给人类社会带来潜在巨大发展红利的同时,其不确定性可能带来许多全球性挑战,甚至引发根本性的伦理关切。在伦理层面,国际社会普遍担心如不加以规范,人工智能技术的误用滥用恐将损害人的尊严和平等、侵犯人权和基本自由、加剧歧视和偏见、冲击现有法律体系等,并对各国政府管理、国防建设、社会稳定其至全球治理产生深远影响。

中国始终致力于在人工智能领域构建人类命运共同体,积极倡导“以人为本”和“智能向善”理念,主张增进各国对人工智能伦理问题的理解,确保人工智能安全、可靠、可控,更好赋能全球可持续发展,增进全人类共同福祉。为实现这一目标,中国呼吁各方秉持共商共建共享理念,推动国际人工智能伦理治理。

二、2021年12月,中国发布《关于规范人工智能军事应用的立场文件》,呼吁各方遵守国家或地区人工智能伦理道德准则。中国现结合自身在科技伦理领域的政策实践,参考国际社会相关有益成果,从人工智能技术监管、研发、使用及国际合作等方面提出以下主张:

(一)监管

各国政府应坚持伦理先行,建立并完善人工智能伦理准则、规范及问责机制,明确人工智能相关主体的职责和权力边界,充分尊重并保障各群体合法权益,及时回应国内和国际相关伦理关切。

各国政府应重视人工智能伦理与法律的基础理论问题研究,逐步建立并完善人工智能伦理规范、法律法规和政策体系,形成人工智能伦理指南,建立科技伦理审查和监管制度,加强人工智能安全评估和管控能力。

各国政府应增强底线思维和风险意识,加强研判人工智能技术的潜在伦理风险,逐步建立有效的风险预警机制,采取敏捷治理,分类分级管理,不断提升风险管控和处置能力。

各国政府应立足自身人工智能发展阶段及社会文化特点,遵循科技创新规律,逐步建立符合自身国情的人工智能伦理体系,健全多方参与、协同共治的人工智能伦理治理体制机制。

(二)研发

各国政府应要求研发主体加强对人工智能研发活动的自我约束,主动将伦理道德融入人工智能研发过程各环节,避免使用可能产生严重消极后果的不成熟技术,确保人工智能始终处于人类控制之下。

各国政府应要求研发主体努力确保人工智能研发过程的算法安全可控,在算法设计、实现、应用等环节,不断提升透明性、可解释性、可靠性,逐步实现可审核、可监督、可追溯、可预测、可信赖。

各国政府应要求研发主体努力提升人工智能研发过程的数据质量,在数据收集、存储、使用等环节,严格遵守所在国的数据安全规定、伦理道德及相关法律标准,提升数据的完整性、及时性、一致性、规范性和准确性等。

各国政府应要求研发主体加强对数据采集和算法开发伦理审查,充分考虑差异化诉求,避免可能存在的数据采集与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。

(三)使用

各国政府应禁止使用违背法律法规、伦理道德和标准规范的人工智能技术及相关应用,强化对已使用的人工智能产品与服务的质量监测和使用评估,研究制定应急机制和损失补偿措施。

各国政府应加强人工智能产品与服务使用前的论证和评估,推动人工智能伦理培训机制化,相关人员应充分了解人工智能技术的功能、特点、局限、潜在风险及后果,并具备必要的专业素质与技能。

各国政府应保障人工智能产品与服务使用中的个人隐私与数据安全,严格遵循国际或区域性规范处理个人信息,完善个人数据授权撤销机制,反对非法收集利用个人信息。

各国政府应重视公众人工智能伦理教育,保障公众知情权与有效参与,发挥科技相关社会团体作用,引导社会各界自觉遵守人工智能伦理准则与规范,提高人工智能伦理意识。

(四)国际合作

各国政府应鼓励在人工智能领域开展跨国家、跨领域、跨文化交流与协作,确保各国共享人工智能技术惠益,推动各国共同参与国际人工智能伦理重大议题探讨和规则制定,反对构建排他性集团、恶意阻挠他国技术发展的行为。

各国政府应加强对人工智能领域国际合作研究活动的伦理监管,相关科技活动应符合各方所在国家的人工智能伦理管理要求,并通过相应的人工智能伦理审查。

中国呼吁国际社会在普遍参与的基础上就人工智能伦理问题达成国际协议,在充分尊重各国人工智能治理原则和实践的前提下,推动形成具有广泛共识的国际人工智能治理框架和标准规范。

人工智能的伦理挑战

原标题:人工智能的伦理挑战

控制论之父维纳在他的名著《人有人的用处》中曾在谈到自动化技术和智能机器之后,得出了一个危言耸听的结论:“这些机器的趋势是要在所有层面上取代人类,而非只是用机器能源和力量取代人类的能源和力量。很显然,这种新的取代将对我们的生活产生深远影响。”维纳的这句谶语,在今天未必成为现实,但已经成为诸多文学和影视作品中的题材。《银翼杀手》《机械公敌》《西部世界》等电影以人工智能反抗和超越人类为题材,机器人向乞讨的人类施舍的画作登上《纽约客》杂志2017年10月23日的封面……人们越来越倾向于讨论人工智能究竟在何时会形成属于自己的意识,并超越人类,让人类沦为它们的奴仆。

维纳的激进言辞和今天普通人对人工智能的担心有夸张的成分,但人工智能技术的飞速发展的确给未来带来了一系列挑战。其中,人工智能发展最大的问题,不是技术上的瓶颈,而是人工智能与人类的关系问题,这催生了人工智能的伦理学和跨人类主义的伦理学问题。准确来说,这种伦理学已经与传统的伦理学旨趣发生了较大的偏移,其原因在于,人工智能的伦理学讨论的不再是人与人之间的关系,也不是与自然界的既定事实(如动物,生态)之间的关系,而是人类与自己所发明的一种产品构成的关联,由于这种特殊的产品――根据未来学家库兹威尔在《奇点临近》中的说法――一旦超过了某个奇点,就存在彻底压倒人类的可能性,在这种情况下,人与人之间的伦理是否还能约束人类与这个超越奇点的存在之间的关系?

实际上,对人工智能与人类之间伦理关系的研究,不能脱离对人工智能技术本身的讨论。在人工智能领域,从一开始,准确来说是依从着两种完全不同的路径来进行的。

首先,是真正意义上的人工智能的路径,1956年,在达特茅斯学院召开了一次特殊的研讨会,会议的组织者约翰・麦卡锡为这次会议起了一个特殊的名字:人工智能(简称AI)夏季研讨会。这是第一次在学术范围内使用“人工智能”的名称,而参与达特茅斯会议的麦卡锡和明斯基等人直接将这个名词作为一个新的研究方向的名称。实际上,麦卡锡和明斯基思考的是,如何将我们人类的各种感觉,包括视觉、听觉、触觉,甚至大脑的思考都变成称作“信息论之父”的香农意义上的信息,并加以控制和应用。这一阶段上的人工智能的发展,在很大程度上还是对人类行为的模拟,其理论基础来自德国哲学家莱布尼茨的设想,即将人类的各种感觉可以转化为量化的信息数据,也就是说,我们可以将人类的各种感觉经验和思维经验看成是一个复杂的形式符号系统,如果具有强大的信息采集能力和数据分析能力,就能完整地模拟出人类的感觉和思维。这也是为什么明斯基信心十足地宣称:“人的脑子不过是肉做的电脑。”麦卡锡和明斯基不仅成功地模拟出视觉和听觉经验,后来的特里・谢伊诺斯基和杰弗里・辛顿也根据对认知科学和脑科学的最新进展,发明了一个“NETtalk”的程序,模拟了类似于人的“神经元”的网络,让该网络可以像人的大脑一样进行学习,并能够做出简单的思考。

然而,在这个阶段中,所谓的人工智能在更大程度上都是在模拟人的感觉和思维,让一种更像人的思维机器能够诞生。著名的图灵测试,也是在是否能够像人一样思考的标准上进行的。图灵测试的原理很简单,让测试一方和被测试一方彼此分开,只用简单的对话来让处在测试一方的人判断,被测试方是人还是机器,如果有30%的人无法判断对方是人还是机器时,则代表通过了图灵测试。所以,图灵测试的目的,仍然在检验人工智能是否更像人类。但是,问题在于,机器思维在作出自己的判断时,是否需要人的思维这个中介?也就是说,机器是否需要先绕一个弯路,即将自己的思维装扮得像一个人类,再去作出判断?显然,对于人工智能来说,答案是否定的,因为如果人工智能是用来解决某些实际问题,它们根本不需要让自己经过人类思维这个中介,再去思考和解决问题。人类的思维具有一定的定势和短板,强制性地模拟人类大脑思维的方式,并不是人工智能发展的良好选择。

所以,人工智能的发展走向了另一个方向,即智能增强(简称IA)上。如果模拟真实的人的大脑和思维的方向不再重要,那么,人工智能是否能发展出一种纯粹机器的学习和思维方式?倘若机器能够思维,是否能以机器本身的方式来进行。这就出现了机器学习的概念。机器学习的概念,实际上已经成为发展出属于机器本身的学习方式,通过海量的信息和数据收集,让机器从这些信息中提出自己的抽象观念,例如,在给机器浏览了上万张猫的图片之后,让机器从这些图片信息中自己提炼出关于猫的概念。这个时候,很难说机器自己抽象出来的猫的概念,与人类自己理解的猫的概念之间是否存在着差别。不过,最关键的是,一旦机器提炼出属于自己的概念和观念之后,这些抽象的概念和观念将会成为机器自身的思考方式的基础,这些机器自己抽象出来的概念就会形成一种不依赖于人的思考模式网络。当我们讨论打败李世石的阿尔法狗时,我们已经看到了这种机器式思维的凌厉之处,这种机器学习的思维已经让通常意义上的围棋定势丧失了威力,从而让习惯于人类思维的棋手瞬间崩溃。一个不再像人一样思维的机器,或许对于人类来说,会带来更大的恐慌。毕竟,模拟人类大脑和思维的人工智能,尚具有一定的可控性,但基于机器思维的人工智能,我们显然不能作出上述简单的结论,因为,根据与人工智能对弈之后的棋手来说,甚至在多次复盘之后,他们仍然无法理解像阿尔法狗这样的人工智能如何走出下一步棋。

不过,说智能增强技术是对人类的取代,似乎也言之尚早,至少第一个提出“智能增强”的工程师恩格尔巴特并不这么认为。对于恩格尔巴特来说,麦卡锡和明斯基的方向旨在建立机器和人类的同质性,这种同质性思维模式的建立,反而与人类处于一种竞争关系之中,这就像《西部世界》中那些总是将自己当成人类的机器人一样,他们谋求与人类平起平坐的关系。智能增强技术的目的则完全不是这样,它更关心的是人与智能机器之间的互补性,如何利用智能机器来弥补人类思维上的不足。比如自动驾驶技术就是一种典型的智能增强技术,自动驾驶技术的实现,不仅是在汽车上安装了自动驾驶的程序,更关键地还需要采集大量的地图地貌信息,还需要自动驾驶的程序能够在影像资料上判断一些移动的偶然性因素,如突然穿过马路的人。自动驾驶技术能够取代容易疲劳和分心的驾驶员,让人类从繁重的驾驶任务中解放出来。同样,在分拣快递、在汽车工厂里自动组装的机器人也属于智能增强类性质的智能,它们不关心如何更像人类,而是关心如何用自己的方式来解决问题。

这样,由于智能增强技术带来了两种平面,一方面是人类思维的平面,另一方面是机器的平面,所以,两个平面之间也需要一个接口技术。接口技术让人与智能机器的沟通成为可能。当接口技术的主要开创者费尔森斯丁来到伯克利大学时,距离恩格尔巴特在那里讨论智能增强技术已经有10年之久。费尔森斯丁用犹太神话中的一个形象――土傀儡――来形容今天的接口技术下人与智能机器的关系,与其说今天的人工智能在奇点临近时,旨在超越和取代人类,不如说今天的人工智能技术越来越倾向于以人类为中心的傀儡学,在这种观念的指引下,今天的人工智能的发展目标并不是产生一种独立的意识,而是如何形成与人类交流的接口技术。在这个意义上,我们可以从费尔森斯丁的傀儡学角度来重新理解人工智能与人的关系的伦理学,也就是说,人类与智能机器的关系,既不是纯粹的利用关系,因为人工智能已经不再是机器或软件,也不是对人的取代,成为人类的主人,而是一种共生性的伙伴关系。当苹果公司开发与人类交流的智能软件Siri时,乔布斯就提出Siri是人类与机器合作的一个最朴实、最优雅的模型。以后,我们或许会看到,当一些国家逐渐陷入老龄化社会之后,无论是一线的生产,还是对这些因衰老而无法行动的老人的照料,或许都会面对这样的人与智能机器的接口技术问题,这是一种人与人工智能之间的新伦理学,他们将构成一种跨人类主义,或许,我们在这种景象中看到的不一定是伦理的灾难,而是一种新的希望。

(作者:蓝江,系南京大学哲学系教授)

人工智能引发伦理争议不断,有的问题直接颠覆你的三观!

0分享至

作者:袁勇

当前,人工智能浪潮方兴未艾,在很多领域展示出巨大应用前景。然而,随着人工智能技术的不断发展,它引发的伦理争议也不断出现。

近日,中国发展研究基金会发布报告——《未来基石——人工智能的社会角色与伦理》。针对人工智能伦理问题,报告在提出一系列建议的同时,也希望推动问题的充分讨论。

对人工智能的讨论足够了吗

迄今为止,我们对人工智能可能会带来的挑战仍知之甚少,严肃的公共讨论还十分缺乏

要理解人工智能的社会影响,首先要认识人工智能在社会发展中的独特作用。在人类发展进程中,知识的增长和社会协作体系的扩展起到了重要作用,而这一切都离不开人类大脑提供的智能基础。

报告认为,人工智能的发展,将带来知识生产和利用方式的深刻变革,人工智能不仅意味着前沿科技和高端产业,未来也可以广泛用于解决人类社会面临的长期性挑战。从消除贫困到改善教育,从提供医疗到促进可持续发展,人工智能都大有用武之地。

法国生产的EZ10无人驾驶公交车已正式投入运行,随着人工智能技术不断发展,相关法律、法规亟待完善。(资料图片)

例如,人工智能可以大幅度降低医疗服务的成本,缓解医疗人才不足的局面。在教育领域,人工智能能够分析人们获取知识的方式,然后利用这些信息开发出相应模型,来预测人们的投入和理解程度。人工智能还可以改变贫困地区高水平教师不足、教学质量低下的局面,促进教育公平。

此外,人工智能可以服务于残障人士。例如,微软最近在ios应用程序商店推出了一款名为“seeingAI”的产品,帮助失明和弱视人群应对日常生活中的问题。“seeingAI”的开发团队包括一名在7岁时就失明的工程师,这一应用程序尽管还处于早期阶段,但已证明人工智能可以捕捉用户周围的图像并即时描述。比如,它可以读取菜单、清点货币等,从而帮助残障人士提高生活能力。

然而,迄今为止,我们对人工智能可能会带来的挑战仍知之甚少,严肃的公共讨论还十分缺乏。社会公众对人工智能的想象在很大程度上仍被科幻小说和影视作品所主导,而对于人工智能在未来可能产生的影响,更是缺乏认知和关切。在政策层面,对于人工智能的关注很大程度上仍集中于技术和经济层面,缺乏整体性的思考和讨论。尽管有少数哲学和社科领域的学者开始关注人工智能带来的伦理问题和社会挑战,但这些讨论并未进入公共政策视界,而且讨论的重点也多集中在超级人工智能这样仍相对遥远的议题上。

报告认为,在人工智能问题上,围绕可能出现的挑战,无知、忽视、偏狭、误解交织在一起,可能会导致真正的风险。

人工智能会带来哪些伦理挑战

从人文视角来看,人工智能带来了一些有可能撼动社会基础的根本性问题

中国发展研究基金会副理事长兼秘书长卢迈表示,人工智能发展将进一步释放社会活力,中国应积极拥抱人工智能,充分利用好它对生产力的解放效应。但是,把握机遇的前提是了解并预防风险,这需要我们在伦理学和社会治理上下功夫。

中国发展研究基金会秘书长助理、研究一部主任俞建拖认为,社会应该正视人工智能带来的挑战,并超越纯技术和经济的视角,从社会和人文视角去探讨人工智能带来的影响。

报告认为,从人文视角来看,人工智能带来了一些已经在发生或即将发生、有可能撼动我们社会基础的根本性问题。

随着人工智能的不断发展,我们对于人的理解越来越物化和去意义化,人和机器的边界越来越模糊,我们需要思考这种边界模糊的后果。我们该如何对待机器和自身的关系?人和机器应该整合吗?如果人对快乐和痛苦的感受可以通过其他物理和化学手段来满足,那么,人还有参与社会互动的需要和动力吗?

人工智能还带来了新的社会权力结构问题。借助人工智能,企业可以赋予每个用户大量的数据标签,并基于这些标签了解人的偏好和行为,甚至超过用户对自己的了解,这是巨大的权利不对称。

此外,人工智能可能会造成偏见强化。在社交媒体中,人工智能将观点相近的人相互推荐,新闻推送也常常存在路径依赖。当人们的信息来源越来越依赖于智能机器,偏见会在这种同化和路径依赖中被强化。

人工智能还使社会的信息和知识加工处理能力被极大放大,信息和知识的冗余反而使人陷入选择困境。如果人参与社会互动的次数和范围缩小,而人工智能越来越多介入到知识的生产中,知识与人的需求之间的关系将变得越来越间接,甚至会反过来支配人的需求。

尽管人工智能也会推动进一步的专业化分工和创造新的工作机会,但并非所有人都有能力迈过技术性和社会性壁垒。尤瓦尔·赫拉利在《未来简史》中警告,未来社会可能会出现“无用阶级”,这种担心并非全无道理。

人工智能也对传统的法律法规和社会规范提出了挑战。譬如,无人驾驶汽车一旦出现事故,我们究竟该归因于开发产品的企业、产品拥有者还是人工智能产品本身?

如何构建人工智能的伦理规范

考虑到人工智能的深远影响,需要全社会共同努力,制定开发和应用的伦理规范和政策方向

人工智能正帮助人类社会向充满不确定性的未来疾驰。在冲进未知之门之前,需要给它装上刹车,让它真正能行稳致远,这个刹车就是伦理规范和公共政策准则。

当前,已经有一些人工智能领先企业关注人工智能开发和应用的伦理问题。微软公司总裁施博德表示,要设计出可信赖的人工智能,必须采取体现道德原则的解决方案,因此微软提出6个道德基本准则:公平、包容、透明、负责、可靠与安全、隐私与保密。谷歌公司也表示,在人工智能开发应用中,坚持包括公平、安全、透明、隐私保护在内的7个准则,并明确列出了谷歌“不会追求的AI应用”。

报告认为,这些企业的前瞻性探索十分重要。但是,考虑到人工智能对未来社会的深远影响,还需要全社会和各国政府的共同努力,制定人工智能开发和应用的伦理规范和政策方向,为其未来健康发展奠定基础。

为此,报告提出了一系列建议:在社会层面,高校和研究机构开展前瞻性科技伦理研究,为相关规范和制度的建立提供理论支撑;各国政府、产业界、研究人员、民间组织和其他利益攸关方展开广泛对话和持续合作,通过一套切实可行的指导原则,鼓励发展以人为本的人工智能;人工智能企业应该将伦理考量纳入企业社会责任框架中;投资机构应将伦理问题纳入ESG(环境、社会和治理)框架,引导企业进行负责任的人工智能产品开发;社会组织可以通过培训、发布伦理评估报告、总结代表性案例等方式,推动人工智能伦理规范的构建。

报告建议,在公共政策层面,人工智能研发和应用的政策应该将人置于核心,满足人全面发展的需求,促进社会的公平和可持续发展;政府需要设立专项资金,支持大学和研究机构开展人工智能等前沿科技的伦理研究;政府还需要给予不同人群以学习了解人工智能的机会,推动全社会对人工智能的知识普及和公共政策讨论;优先鼓励人工智能应用于解决社会领域的突出挑战,包括减少贫困和不平等,促进弱势群体融入社会并参与社会发展进程;应组建由政府部门和行业专家组成的人工智能伦理委员会,对人工智能的开发和应用提供伦理指引,并对具有重大公共影响的人工智能产品进行伦理与合法性评估。

此外,对于人工智能的规范发展也需要更广泛的国际合作。清华大学公共管理学院院长薛澜表示,“人工智能的发展将在创新治理、可持续发展和全球安全合作3个方面对现行国际秩序产生深刻影响,需要各国政府与社会各界从人类命运共同体的高度予以关切和回应。只有加强各国之间的合作与交流,才可能真正构建起一套全球性的、共建共享、安全高效、持续发展的人工智能治理新秩序”。

报告也建议,各国政府应促进数据共享技术,为人工智能培训和测试提供共享的公共数据集。在个人信息得到保护的前提下,促进数据的自由流通;并加强国际合作,建立多层次的国际人工智能治理机制。各国政府应通过联合国、G20以及其他国际平台,将人工智能发展纳入国际合作议程,利用人工智能推动联合国2030年可持续发展目标的实现。

来源:经济日报

往期相关文章推荐

王沙飞院士:人工智能与电磁频谱战

孙正义:未来30年的人工智能和物联网

解密首批人工智能4支国家队内幕

雄安:人类历史上第一个人工智能城市正在崛起

回复关键字,获取相关主题精选文章关键字:军民融合|一带一路|电磁武器|网络战|台海局势|朝鲜半岛|南海问题|中美关系|十三五|经济|科技|科研|教育|政策|创新驱动|军工混改|重大项目|第三方评估|人工智能|颠覆性技术|无人系统|机器人|虚拟现实|3D/4D打印|生物科技|智能制造|大数据|5G通讯|量子计算|新材料|太赫兹|卫星|北斗|高性能芯片|半导体元器件|航空母舰|无人机|新型轰炸机|先进雷达|新型导弹|高超声速武器|军队改革|外军动态|综合安全|军事安全|信息安全|太空安全|发展安全|大国博弈|贸易战|习近平|DARPA|王凤岭|名家言论|政策法规|产业快讯|科技前沿应用|创新科技|人才培养其他主题文章陆续整理中,敬请期待······小蓝君微信:lhcq6666电话:17319474019

蓝海长青系列自媒体

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.

/阅读下一篇/返回网易首页下载网易新闻客户端

人工智能教育应用的伦理与限制

作者:杨俊锋(杭州师范大学经亨颐教育学院教授、教育部教育信息化战略研究基地[北京]副主任);陈睿宁(杭州师范大学)

人工智能技术在各行各业的应用,促进了技术变革和产业升级,有力地推动了数字中国和现代化建设,也为促进教育数字化转型提供了强大动力。习近平总书记在致国际人工智能与教育大会的贺信中指出,中国高度重视人工智能对教育的深刻影响,积极推动人工智能和教育深度融合,促进教育变革创新。

2022年11月,基于人工智能的聊天工具ChatGPT上线仅两个月,活跃用户超过了1亿。ChatGPT能根据上下文理解用户输入的信息,帮助用户生成问题的解决方案,如写论文、编代码、当客服等。当其逐渐应用到教与学的过程中,出现了如人机协同教学、个性化学习、智能化评价、辅助学术研究等典型应用。但是,应用中的伦理问题,如学术不端、数据泄露、社会偏见、教育价值偏颇等,逐渐浮现并产生了负面影响。因此,如何在充分发挥人工智能教育应用价值的同时,有效规避其中的伦理风险亟待探讨和解决。

ChatGPT的教育应用助力学与教变革

ChatGPT的应用有利于促进学生的个性化学习。ChatGPT能够为学生提供个性化的自适应学习体验,通过ChatGPT的自然语言处理技术,将学生提出的问题转化为结构化的数据,并将其与相关知识库进行匹配,提供最优解答,并且ChatGPT会记录每一次的问答,针对学生的问题进行分析,深入了解学生的学习习惯、学习水平等从而使学生可以获得个性化和高效的学习指导,提高学生的学习效率。

ChatGPT的应用有助于推动教师的自动化教学。ChatGPT可以与教师实现协同工作,辅助教师进行课程设计和材料生成,为教师生成有针对性的学科知识、教学材料、教学大纲、教学案例和教学策略等。通过与ChatGPT进行模拟课堂对话,教师可以更好地了解学生的问题,提高课堂教学的灵活性。在课后教师可以使用ChatGPT对学生上课的提问与回答进行教学诊断,帮助教师了解学生的学习情况、困难,及时调整教学策略和内容。ChatGPT会自动对学生的作业或试卷进行评分和批改,教师可以快速而准确地对学生的作业和试卷进行评分和批改。

ChatGPT的应用有益于辅助学术研究。ChatGPT可以为研究者提供模型预测和数据分析的支持。

研究者提供相关数据,这些数据可以包括实验数据、问卷数据、统计数据等,ChatGPT将使用自然语言处理技术分析这些数据,从中发现有价值的信息,并进行数据分析和模型预测,之后ChatGPT将提供分析报告,其中包括数据可视化展示、结果说明和推荐建议等内容,让研究者更加便捷地了解数据和模型的特征、趋势。最后,研究者可以基于分析结果进行进一步的科研探索和实验研究,同时对模型和数据进行优化和改进,从而促进科研工作的深入开展。

ChatGPT应用引发的教育伦理问题亟待破解

教师和学生在应用ChatGPT的过程中产生了亟待解决的伦理问题,包括数据泄露、算法偏见与歧视、学术不端、教育价值偏颇、人文关怀缺失等,这些问题给教育的可持续发展带来了很大的挑战。

数据泄露有可能引起学生权益受损。ChatGPT需要处理与存储大量数据,这些数据存在被泄露的风险。在学习、教学与评价场景中,学生、教师与ChatGPT对话中可能涉及个人隐私信息、学术记录、行为模式、学生成绩、班级信息与答题信息等。由于技术漏洞、相关人员缺乏安全意识、黑客攻击等使这些数据的安全不能得到保障,可能会导致被未经授权的人员访问、篡改或滥用。如果不采取相应措施来规避风险,将会给学生与教育机构带来严重的后果,包括个人信息被利用引来学生被诈骗或骚扰、对学生的学业产生负面影响、学校声誉受损从而家校关系恶化等。

算法不透明或可导致教育偏见与歧视。ChatGPT在算法设计与调整时,可能存在一定的偏见。由于算法设计人员本身的偏见或盲区,或收集的语料本身存在的如种族、地区等偏见,ChatGPT的输出也会受到影响。若算法不透明,我们无法判断其作出决策的依据,也无法得知其中是否存在隐含偏见。学生与ChatGPT进行知识问答时,ChatGPT可能会给出不准确的回答,或者以不当的方式引导学生学习和行为,影响学生的学习效果和公平性,加剧数字技能鸿沟甚至损害教育的公平性。

过度依赖或可导致学术不端与教育价值偏颇。ChatGPT可以根据研究任务生成说服性强且有一定逻辑的文本,若滥用可能产生剽窃、抄袭等学术不端问题。ChatGPT在一定程度上可以帮助学生提升学习效率,但学生若对其呈现的结果不加批判地全盘接受,会导致思维的惰化,从而其影响全面发展。长此以往,学生的元认知、创新性思维、批判性思维、独立解决问题的能力均可能受到不同程度的损害,这与教育“培养全面发展的人”背道而驰。同时,在教学中,若教师过分依赖ChatGPT,在教育中忽视和缺失了人文关怀的情感教育,也不利于培养学生的健全人格与身心健康。

应对ChatGPT教育应用伦理问题的策略

规范开发人工智能教育应用场景。ChatGPT具有强大的文本生成能力,可能的应用场景包括教、学、管、考、评、测、研等诸多方面,学校可以加强应用场景的规范开发,明确人工智能技术的育人价值,从教学全流程、全要素、全业务的角度深度思考,将智能技术与教学深度融合,打造典型的应用模式,破解教育和教学的核心问题,从而塑造学校人工智能教育应用的特色场景。

明确制定人工智能教育应用限度。正确认识ChatGPT等人工智能的功能特点、核心价值,谨慎处理其潜在风险。人工智能教育应用过程中,在数据采集、数据筛选、数据处理、数据应用等方面,容易出现个人信息泄露、数据安全受损、育人价值偏颇等问题。在应用过程中,从数据的全生命周期角度,需明确应用的具体限度,指导教师和学生在安全可信的前提下合理使用ChatGPT等人工智能,确保数据安全,保证教育的育人价值不出偏颇。

提高师生的人工智能素养和伦理意识。教师和学生的人工智能素养是将新一代人工智能技术融入教和学的基础,而伦理风险意识则是保证师生安全可靠应用人工智能技术的前提条件。为提高师生的人工智能素养和伦理意识,组织开发人工智能教育应用与伦理意识相关课程和培训,并将相关内容渗透到各科课程中去,让学生了解智能技术的应用可能带来的伦理风险。同时可引入人工智能检测工具,建立相应的监督和管理机制对学生的学术行为进行监督,对学术不端行为进行惩处。

强化学生的高阶思维能力培养。ChatGPT等生成性人工智能对学生的逻辑思维、提问能力、批判性思维、协作能力、沟通能力等提出了新的要求,只有具备了这些高阶思维能力,学生才能与ChatGPT等人工智能应用形成良性的人机协同,促进自身的全面发展。要充分利用智能工具,推动教学理念更新、课堂范式转型、教学模式转变,推动学生高阶思维能力的培养,让学生能够在未来复杂和不确定的世界中诗意地生存。

(本文系国家社科基金重点课题“人工智能教育场景应用的伦理与限度[ACA220027]”的成果)

[责编:李彬]

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇