博舍

人工智能伦理问题的现状分析与对策 如何应对人工智能伦理困境问题论文

人工智能伦理问题的现状分析与对策

中国网/中国发展门户网讯  人工智能(AI)是第四次产业革命中的核心技术,得到了世界的高度重视。我国也围绕人工智能技术制定了一系列的发展规划和战略,大力推动了我国人工智能领域的发展。然而,人工智能技术在为经济发展与社会进步带来重大发展机遇的同时,也为伦理规范和社会法治带来了深刻挑战。2017年,国务院印发的《新一代人工智能发展规划》提出“分三步走”的战略目标,掀起了人工智能新热潮,并明确提出要“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架”。2018年,习近平总书记在主持中共中央政治局就人工智能发展现状和趋势举行的集体学习时强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。2019年,我国新一代人工智能发展规划推进办公室专门成立了新一代人工智能治理专业委员会,全面负责开展人工智能治理方面政策体系、法律法规和伦理规范研究和工作推进。《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》中专门强调要“探索建立无人驾驶、在线医疗、金融科技、智能配送等监管框架,完善相关法律法规和伦理审查规则”。这些均体现了我国对人工智能伦理及其治理的密切关注程度和积极推进决心,同时也突出了这一问题的重要性。

当前人工智能伦理问题

伦理是处理人与人之间关系、人与社会之间关系的道理和秩序规范。人类历史上,重大的科技发展往往带来生产力、生产关系及上层建筑的显著变化,成为划分时代的一项重要标准,也带来对社会伦理的深刻反思。人类社会于20世纪中后期进入信息时代后,信息技术伦理逐渐引起了广泛关注和研究,包括个人信息泄露、信息鸿沟、信息茧房、新型权力结构规制不足等。信息技术的高速变革发展,使得人类社会迅速迈向智能时代,其突出表现在带有认知、预测和决策功能的人工智能算法被日益广泛地应用在社会各个场景之中;前沿信息技术的综合运用,正逐渐发展形成一个万物可互联、万物可计算的新型硬件和数据资源网络,能够提供海量多源异构数据供人工智能算法分析处理;人工智能算法可直接控制物理设备,亦可为个人决策、群体决策乃至国家决策提供辅助支撑;人工智能可以运用于智慧家居、智慧交通、智慧医疗、智慧工厂、智慧农业、智慧金融等众多场景,还可能被用于武器和军事之中。然而,迈向智能时代的过程如此迅速,使得我们在传统的信息技术伦理秩序尚未建立完成的情况下,又迫切需要应对更加富有挑战性的人工智能伦理问题,积极构建智能社会的秩序。

计算机伦理学创始人 Moore将伦理智能体分为4类:伦理影响智能体(对社会和环境产生伦理影响);隐式伦理智能体(通过特定软硬件内置安全等隐含的伦理设计);显示伦理智能体(能根据情势的变化及其对伦理规范的理解采取合理行动);完全伦理智能体(像人一样具有自由意志并能对各种情况做出伦理决策)。当前人工智能发展尚处在弱人工智能阶段,但也对社会和环境产生了一定的伦理影响。人们正在探索为人工智能内置伦理规则,以及通过伦理推理等使人工智能技术的实现中也包含有对伦理规则的理解。近年来,越来越多的人呼吁要赋予人工智能机器一定的道德主体地位,但机器能否成为完全伦理智能体存在巨大的争议。尽管当前人工智能在一些场景下的功能或行为与人类接近,但实则并不具有“自由意志”。从经典社会规范理论来看,是否能够成为规范意义上的“主体”来承担责任,并不取决于其功能,而是以“自由意志”为核心来构建的。黑格尔的《法哲学原理》即以自由意志为起点展开。因此,当前阶段对人工智能伦理问题的分析和解决路径构建应主要围绕着前3类伦理智能体开展,即将人工智能定性为工具而非主体。

当前阶段,人工智能既承继了之前信息技术的伦理问题,又因为深度学习等一些人工智能算法的不透明性、难解释性、自适应性、运用广泛等特征而具有新的特点,可能在基本人权、社会秩序、国家安全等诸多方面带来一系列伦理风险。例如:人工智能系统的缺陷和价值设定问题可能带来公民生命权、健康权的威胁。2018年,Uber自动驾驶汽车在美国亚利桑那州发生的致命事故并非传感器出现故障,而是由于 Uber在设计系统时出于对乘客舒适度的考虑,对人工智能算法识别为树叶、塑料袋之类的障碍物做出予以忽略的决定。人工智能算法在目标示范、算法歧视、训练数据中的偏失可能带来或扩大社会中的歧视,侵害公民的平等权。人工智能的滥用可能威胁公民隐私权、个人信息权。深度学习等复杂的人工智能算法会导致算法黑箱问题,使决策不透明或难以解释,从而影响公民知情权、程序正当及公民监督权。信息精准推送、自动化假新闻撰写和智能化定向传播、深度伪造等人工智能技术的滥用和误用可能导致信息茧房、虚假信息泛滥等问题,以及可能影响人们对重要新闻的获取和对公共议题的民主参与度;虚假新闻的精准推送还可能加大影响人们对事实的认识和观点,进而可能煽动民意、操纵商业市场和影响政治及国家政策。剑桥分析公司利用 Facebook上的数据对用户进行政治偏好分析,并据此进行定向信息推送来影响美国大选,这就是典型实例。人工智能算法可能在更不易于被察觉和证明的情况下,利用算法歧视,或通过算法合谋形成横向垄断协议或轴辐协议等方式,破坏市场竞争环境。算法决策在社会各领域的运用可能引起权力结构的变化,算法凭借其可以处理海量数据的技术优势和无所不在的信息系统中的嵌入优势,对人们的权益和自由产生显著影响。例如,银行信贷中通过算法进行信用评价将影响公民是否能获得贷款,刑事司法中通过算法进行社会危害性评估将影响是否进行审前羁押等,都是突出的体现。人工智能在工作场景中的滥用可能影响劳动者权益,并且人工智能对劳动者的替代可能引发大规模结构性失业的危机,带来劳动权或就业机会方面的风险。由于人工智能在社会生产生活的各个环节日益广泛应用,人工智能系统的漏洞、设计缺陷等安全风险,可能引发个人信息等数据泄露、工业生产线停止、交通瘫痪等社会问题,威胁金融安全、社会安全和国家安全等。人工智能武器的滥用可能在世界范围内加剧不平等,威胁人类生命与世界和平……

人工智能伦理风险治理具有复杂性,尚未形成完善的理论架构和治理体系。人工智能伦理风险的成因具有多元性,包括人工智能算法的目标失范、算法及系统缺陷、受影响主体对人工智能的信任危机、监管机制和工具欠缺、责任机制不完善、受影响主体的防御措施薄弱等。人工智能技术和产业应用的飞速发展,难以充分刻画和分析其伦理风险及提供解决方案。这要求我们必须克服传统规范体系的滞后性,而采用“面向未来”的眼光和方法论,对人工智能的设计、研发、应用和使用中的规范框架进行积极思考和构建,并从确立伦理准则等软法开始,引领和规范人工智能研发应用。

关于人工智能的发展,我们既不能盲目乐观,也不能因噎废食,要深刻认识到它可以增加社会福祉的能力。因此,在人类社会步入智能时代之际,必须趁早从宏观上引导人工智能沿着科学的道路前行,对它进行伦理反思,识别其中的伦理风险及其成因,逐步构建科学有效的治理体系,使其更好地发挥积极价值。 

人工智能伦理准则、治理原则及进路

当前全球人工智能治理还处于初期探索阶段,正从形成人工智能伦理准则的基本共识出发,向可信评估、操作指南、行业标准、政策法规等落地实践逐步深入,并在加快构建人工智能国际治理框架体系。

伦理准则

近几年来,众多国家、地区、国际和国内组织、企业均纷纷发布了人工智能伦理准则或研究报告。据不完全统计,相关人工智能伦理准则已经超过40项。除文化、地区、领域等因素引起的差异之外,可以看到目前的人工智能伦理准则已形成了一定的社会共识。

近年来,中国相关机构和行业组织也非常积极活跃参与其中。例如:2018年1月,中国电子技术标准化研究院发布了《人工智能标准化白皮书(2018版)》,提出人类利益原则和责任原则作为人工智能伦理的两个基本原则;2019年5月,《人工智能北京共识》发布,针对人工智能的研发、使用、治理 3 个方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和社会发展的15条原则;2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能发展的8项原则,勾勒出了人工智能治理的框架和行动指南;2019年7月,上海市人工智能产业安全专家咨询委员会发布了《人工智能安全发展上海倡议》;2021年9月,中关村论坛上发布由国家新一代人工智能治理专业委员会制定的《新一代人工智能伦理规范》等。从发布内容上看,所有准则在以人为本、促进创新、保障安全、保护隐私、明晰责任等价值观上取得了高度共识,但仍有待继续加深理论研究和论证,进一步建立共识。

治理原则

美国、欧洲、日本等国家和地区在大力推动人工智能技术和产业发展的同时,高度重视人工智能的安全、健康发展,并将伦理治理纳入其人工智能战略,体现了发展与伦理安全并重的基本原则。

习近平总书记高度重视科技创新领域的法治建设问题,强调“要积极推进国家安全、科技创新、公共卫生、生物安全、生态文明、防范风险、涉外法治等重要领域立法以良法善治保障新业态新模式健康发展”。近年来,我国在应对新技术新业态的规制和监管方面,形成了“包容审慎”的总体政策。这项基本政策在2017年就已正式提出。在2020年1月1日起实施的《优化营商环境条例》第55条中更是专门规定了“包容审慎”监管原则:“政府及其有关部门应当按照鼓励创新的原则,对新技术、新产业、新业态、新模式等实行包容审慎监管,针对其性质、特点分类制定和实行相应的监管规则和标准,留足发展空间,同时确保质量和安全,不得简单化予以禁止或者不予监管。”这为当前人工智能伦理治理提供了基本原则和方法论。一方面,要注重观察,认识到新技术新事物往往有其积极的社会意义,亦有其发展完善的客观规律,应予以一定空间使其能够发展完善,并在其发展中的必要之处形成规制方法和措施。另一方面,要坚守底线,包括公民权利保护的底线、安全的底线等。对于已经形成高度社会共识、凝结在法律之中的重要权益、价值,在执法、司法过程中都要依法进行保护。这既是法律对相关技术研发者和使用者的明确要求,也是法律对于在智能时代保护公民权益、促进科技向善的郑重承诺。

治理进路

在人工智能治理整体路径选择方面,主要有两种理论:“对立论”和“系统论”。

“对立论”主要着眼于人工智能技术与人类权利和福祉之间的对立冲突,进而建立相应的审查和规制制度。在这一视角下,一些国家和机构重点关注了针对人工智能系统本身及开发应用中的一些伦理原则。例如,2020年《人工智能伦理罗马倡议》中提出7项主要原则——透明、包容、责任、公正、可靠、安全和隐私,欧盟委员会于2019年《可信赖人工智能的伦理指南》中提出人工智能系统全生命周期应遵守合法性、合伦理性和稳健性3项要求,都体现了这一进路。

“系统论”则强调人工智能技术与人类、其他人工代理、法律、非智能基础设施和社会规范之间的协调互动关系。人工智能伦理涉及一种社会技术系统,该系统在设计时必须注意其不是一项孤立的技术对象,而是需要考虑它将要在怎样的社会组织中运作。我们可以调整的不仅仅是人工智能系统,还有在系统中与之相互作用的其他要素;在了解人工智能运作特点的基础上,可以在整个系统内考虑各个要素如何进行最佳调配治理。当前在一些政策和法规中已有一定“系统论”进路的体现。例如,IEEE(电气与电子工程师协会)发布的《合伦理设计》11中提出的8项原则之一即为“资质”(competence),该原则提出系统创建者应明确对操作者的要求,并且操作者应遵守安全有效操作所需的知识和技能的原则,这体现了从对使用者要求的角度来弥补人工智能不足的系统论视角,对智能时代的教育和培训提出了新需求。我国国家新一代人工智能治理专业委员会2019年发布的《新一代人工智能治理原则——发展负责任的人工智能》中,不仅强调了人工智能系统本身应该符合怎样的伦理原则,而且从更系统的角度提出了“治理原则”,即人工智能发展相关各方应遵循的8项原则;除了和谐友好、尊重隐私、安全可控等侧重于人工智能开放和应用的原则外,还专门强调了要“改善管理方式”,“加强人工智能教育及科普,提升弱势群体适应性,努力消除数字鸿沟”,“推动国际组织、政府部门、科研机构、教育机构、企业、社会组织、公众在人工智能发展与治理中的协调互动”等重要原则,体现出包含教育改革、伦理规范、技术支撑、法律规制、国际合作等多维度治理的“系统论”思维和多元共治的思想,提供了更加综合的人工智能治理框架和行动指南。基于人工智能治理的特殊性和复杂性,我国应在习近平总书记提出的“打造共建共治共享的社会治理格局”的指导下,系统性地思考人工智能的治理维度,建设多元共治的人工智能综合治理体系。

我国人工智能伦理治理对策

人工智能伦理治理是社会治理的重要组成部分。我国应在“共建共治共享”治理理论的指导下,以“包容审慎”为监管原则,以“系统论”为治理进路,逐渐建设形成多元主体参与、多维度、综合性的治理体系。

教育改革

教育是人类知识代际传递和能力培养的重要途径。通过国务院、教育部出台的多项措施,以及联合国教科文组织发布的《教育中的人工智能:可持续发展的机遇与挑战》、《人工智能与教育的北京共识》13等报告可以看到,国内外均开始重视教育的发展改革在人工智能技术发展和应用中有着不可或缺的作用。为更好地支撑人工智能发展和治理,应从4个方面进行完善:普及人工智能等前沿技术知识,提高公众认知,使公众理性对待人工智能;在科技工作者中加强人工智能伦理教育和职业伦理培训;为劳动者提供持续的终身教育体系,应对人工智能可能引发的失业问题;研究青少年教育变革,打破工业化时代传承下来的知识化教育的局限性,回应人工智能时代对人才的需求。

伦理规范

我国《新一代人工智能发展规划》中提到,“开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架”。同时,还需制定人工智能产品研发设计人员及日后使用人员的道德规范和行为守则,从源头到下游进行约束和引导。当前有5项重点工作可以开展:针对人工智能的重点领域,研究细化的伦理准则,形成具有可操作性的规范和建议。在宣传教育层面进行适当引导,进一步推动人工智能伦理共识的形成。推动科研机构和企业对人工智能伦理风险的认知和实践。充分发挥国家层面伦理委员会的作用,通过制定国家层面的人工智能伦理准则和推进计划,定期针对新业态、新应用评估伦理风险,以及定期评选人工智能行业最佳实践等多种方式,促进先进伦理风险评估控制经验的推广。推动人工智能科研院所和企业建立伦理委员会,领导人工智能伦理风险评估、监控和实时应对,使人工智能伦理考量贯穿在人工智能设计、研发和应用的全流程之中。

技术支撑

通过改进技术而降低伦理风险,是人工智能伦理治理的重要维度。当前,在科研、市场、法律等驱动下,许多科研机构和企业均开展了联邦学习、隐私计算等活动,以更好地保护个人隐私的技术研发;同时,对加强安全性、可解释性、公平性的人工智能算法,以及数据集异常检测、训练样本评估等技术研究,也提出了很多不同领域的伦理智能体的模型结构。当然,还应完善专利制度,明确算法相关发明的可专利性,进一步激励技术创新,以支撑符合伦理要求的人工智能系统设计。

此外,一些重点领域的推荐性标准制定工作也不容忽视。在人工智能标准制定中,应强化对人工智能伦理准则的贯彻和支撑,注重对隐私保护、安全性、可用性、可解释性、可追溯性、可问责性、评估和监管支撑技术等方面的标准制定,鼓励企业提出和公布自己的企业标准,并积极参与相关国际标准的建立,促进我国相关专利技术纳入国际标准,帮助我国在国际人工智能伦理准则及相关标准制定中提升话语权,并为我国企业在国际竞争中奠定更好的竞争优势。

法律规制

法律规制层面需要逐步发展数字人权、明晰责任分配、建立监管体系、实现法治与技术治理有机结合。在当前阶段,应积极推动《个人信息保护法》《数据安全法》的有效实施,开展自动驾驶领域的立法工作;并对重点领域的算法监管制度加强研究,区分不同的场景,探讨人工智能伦理风险评估、算法审计、数据集缺陷检测、算法认证等措施适用的必要性和前提条件,为下一步的立法做好理论和制度建议准备。

国际合作

当前,人类社会正步入智能时代,世界范围内人工智能领域的规则秩序正处于形成期。欧盟聚焦于人工智能价值观进行了许多研究,期望通过立法等方式,将欧洲的人权传统转化为其在人工智能发展中的新优势。美国对人工智能标准也尤为重视,特朗普于2019年2月发布“美国人工智能计划”行政令,要求白宫科技政策办公室(OSTP)和美国国家标准与技术研究院(NIST)等政府机构制定标准,指导开发可靠、稳健、可信、安全、简洁和可协作的人工智能系统,并呼吁主导国际人工智能标准的制定。

我国在人工智能科技领域处于世界前列,需要更加积极主动地应对人工智能伦理问题带来的挑战,在人工智能发展中承担相应的伦理责任;积极开展国际交流,参与相关国际管理政策及标准的制定,把握科技发展话语权;在最具代表性和突破性的科技力量中占据发展的制高点,为实现人工智能的全球治理作出积极贡献。

(作者:张兆翔、谭铁牛,中国科学院自动化研究所;张吉豫中国人民大学法学院;《中国科学院院刊》供稿)

从人工智能难题反思AI伦理原则

   取代问题是物质性活动维度,即是人类实践活动能否被智能机器取代。在这一问题中,实际上具有双重意义:其一是从人类活动的本性看,机器取代人类活动是人类活动技术化的必然结果。如果某些人类活动可以自动化的话,意味着能够被自动机器取代,所以这种取代会根据人类活动的自动化趋势而扩展;其二是从超级智能的角度看,机器取代人类意味着机器获得自主意识之后产生的必然后果。当机器智能超越人类智能之后,按照进化逻辑,机器智能必然会以高级的形式来改造低级的形式,出现的结果就是取代人类活动。比如自动驾驶汽车取代人类司机、智能法官取代人类法官、智能医生取代人类医生。所以取代问题实质是双重的,人类活动的自动化趋势及其超级智能生成的结果。从第二个方面看,它是超越问题衍生的必然结果。

   首先我们考察第一点。何谓人类活动的技术化?在日常的表达中,人类活动的自动化意味着人类活动的一种本性,能够被某种功能同构的其他活动取代。人类活动技术化的整体经历了一个从身体部分的技术化、身体功能的技术化到个体身体的技术化以及人类整体的技术化的演变过程。这一点我们从技术发展史中可以感受到。以喝水为例,最初人们喝水是靠手捧,从河水里面捧水喝。但是这样的效率很低,随着不同种类的容器出现,容器的装水功能取代了人体[手]的功用,这样可以获得更多的水,效率也随着提高。在这个过程中,我们一方面看到的是喝水功能的演变,从手到容器的出现;另一方面看到的是手之容纳功能被同构的容器取代。这一点是人类学考察的结果。所以,这个过程是身体器官的技术化。所谓器官延伸论的哲学解释就是身体器官的技术化,身体功能能够以技术化的方式被替代,如同上面的被子的容纳功能取代了手的容纳功能。其次是身体功能的技术化,如五感的技术化,五感指的是视听味触嗅,它与身体相关,但不是身体部分,而是身体功能。人类的身体功能多半以感知功能的形式表达出来,如眼睛的远望、耳朵的倾听、腿部的、腰部的等器官的力量。大部分都可以实现技术化,人类身体的功能不断技术化在不同时代表现不同。接着是整体身体的技术化意味着人类个体的技术化,这一点已经是马尔库塞在《单向度的人》中加以揭示的结果,个体变成了技术系统上的一个环节,其功能被取代。这一取代的自然推演结果是人类整体的技术化,20世纪60年代以来,控制论-系统论等科学与人工智能技术带来的是自动化的趋势,这种取代更为彻底,实现的是整体身体的取代或者整个类的取代。所以,这个过程表现出的是不断技术化的过程,从身体部分、身体功能到个体身体和人类整体的技术化。从这个发展脉络出发,我们就可以看到不同社会中这一过程如何表现为社会难题了。身体部分与身体功能的技术化带来的社会问题并不是很明显,因为这个时期技术仅仅表现为具体的器物,以眼镜为例,望远镜、显微镜等器物的出现,掀起的仅仅是一些日常的争议,很快被人类社会所接受。但是当个体身体被技术化的时候,哲学家表示了极大的批判,这种技术导致的异化成为了猛烈的批判目标。人类整体的技术化更是如此。这种批判更加彻底化,我们从马克思那里能够感受到,当他讨论工业机器带来工人失业的问题时,更多不是指个体的被取代,而是人类整体的异化。所以,从这个角度来看,这是人类活动不断外化的结果,外化通过技术化的方式表现出来。

   其次,取代问题是超越问题的深度表现,即智能机器自主意识觉醒的必然结果。在上面我们提到,超越问题的基础是智能行动者,如果智能行动者具备自主意识或者自主意识获得觉醒,那么它就会成为一个与人类相异的他者。事实上,在我们的分析中已经指出,人工智能学者正在这一理解以根据。根据罗素的看法,人工智能是智能行动者,它能够基于特定的情境做出最优化的理性选择。这一点指出了人工智能体的行为与情境之间的特定关联,但是这一点的重要性很少被关注到。所以需要在后面加以进一步的分析。其次,根据DeepMind的研究成果显示:人工行动者具有和人类、动物一样的空间记忆表征结构。如果从此出发,我们会发现至少在这两个方面,人工智能表现出与人类一样的同构性。这种同构性的存在使得机器能够出现自主意识。只是差异在于人类进化经过了很长的时间,而且是在特定的自然环境条件下进化的结果。对于机器而言,同构性的存在意味着具有了先天的可能性。而大数据技术正在给人工智能体提供更加丰富的数据环境,在深度学习、增强学习的算法帮助下,自主意识以新的形式出现,也不是不可能的事情。所以本文的一个基本观点是,人类与机器的整体进化尽管不是同步的,但是同构性使得他们能够获得进化结果。在此基础上,自主意识觉醒后的逻辑结果是对待他者问题。在机器自我意识诞生之前,人工智能在各类游戏(围棋、国际象棋、桥牌)、疾病识别等方面表现出通过图灵测试的迹象。这说明在某种程度上人工智能可以作为独立主体存在,它能够创造艺术作品、能够写作新闻稿件,甚至产生论著。取代人类的知识生产的角色已经变得可能了。此外,随着人机融合程度的加大,我们即将面临新的纽拉特之船的迹象,人类器官不断被机器取代,最终会演变成机器躯壳。按照机器自身逻辑的结果,取代成为众多可能性之一。

   超越问题和取代问题会把我们带入到实体论中,即把人工智能看作是超越人类自身实体力量,能够自主进化、自主发展的力量。这会带来一个严重的伦理问题:人类创造的工具最终摆脱人类自身的控制,变成异化的力量。取代问题是技术异化的最终结果。人工智能何以发展出自主意识超越并且取代人类就成为难以理解的问题了,我们把这一问题称之为人工智能的不可解释性问题。目前,这一问题主要被看作是技术问题,而且这一问题的存在对人工智能伦理的构建产生了不容忽视的影响。尽管如此,上述考虑并没有充分意识到不可解释性问题从根本上来说还是哲学问题。

如何应对人工智能教育应用中的伦理挑战10篇高下载量论文发送给您!

  教育人工智能伦理问题与伦理原则探讨 

摘要:文章旨在揭示智能化时代的教育将面临哪些新的伦理问题,并在人工智能伦理和教育伦理的基础上,探讨教育人工智能的伦理原则。运用文献研究和逻辑推理方法,系统梳理了教育人工智能应用的特点和优势,及其可能引发的新的伦理问题:(1)角色层面,系统创建者、教师、学生和监测员等利益相关者将面临更加复杂的伦理困境;(2)技术层面,涉及自动化决策伦理问责、算法伦理和数据伦理等方面的问题;(3)社会层面,可能转变就业市场、改变人际关系和引发新的社会不公平。因此,需要对教育人工智能伦理问题的复杂性有充分的认识,同时需要遵循一般的人工智能伦理原则和教育伦理原则,其中,最核心的内容为二者之间的交集,具体包括:(1)福祉;(2)是非善恶;(3)公平正义;(4)人权和尊严;(5)自由自治;(6)责任和问责。 

关键词:教育人工智能;人工智能伦理;教育伦理;数据伦理;算法伦理;伦理原则;作者:邓国民;李梅来源:电化教育研究.2020(06)39-45点击此处查看论文原文  人工智能时代的教育风险及其规避 摘要:近年来,有关"人工智能+教育"的研究如火如荼,在教育学界掀起了一股"人工智能热"。人工智能的教育应用具体可分为教学类、学习类和管理类,运用风险理论对人工智能的教育应用进行分析,文章发现人工智能时代的教育存在智能教育治理风险、技术风险、伦理风险以及教师职业替代风险等潜在风险。为有效规避这些教育风险,文章提出在未来教育变革中应正确认识人工智能与教育的关系,探索人工智能教育精准治理新范式,推进人工智能教育应用的伦理建构,以及培养人才适应、驾驭人工智能的关键素养。

关键词:人工智能;未来教育;教育风险;风险规避;

作者:吴河江;涂艳国;谭轹纱

来源:现代教育技术. 2020(04)18-24

点击此处查看论文原文

  人工智能在教育应用中的伦理风险与理性抉择 摘要:教育是人类社会文明发展的重要领域,人工智能在教育领域的应用,对教育产生了革命性的影响;同时,也给教育伦理带来了一系列风险和挑战。人工智能在教育应用中导致的伦理困境和可能面临的伦理风险,主要表现在人工智能与教育主体的权利嬗变、算法推荐与学生个性的发展异化、人工情感与人机互动的情感危机、智能感知与教育数据的价值困境这四个方面。为了防范和消除这些伦理风险,"以人为本""以德为先""以法为界"是人工智能在教育应用中的理性选择,教育责任则是"可信赖的人工智能应该做什么"伦理准则的实践指向。 

关键词:人工智能;智能教育;教育伦理;教育大数据;人机伦理;技术异化;

作者:冯锐;孙佳晶;孙发勤

来源:远程教育杂志.2020(03)47-54

点击此处查看论文原文

  人工智能教育伦理的多维审视——基于马克思技术批判和人的全面发展理论 摘要:马克思认为,技术异化会带来人的异化和教育的异化,技术并不必然向善的方向发展,技术从发明走向成熟都需要经历一个批判的过程。人工智能引发包括教育在内社会各领域的连锁反应,技术进步的已然性和社会适应的滞后性构成了社会系统平衡失调的基本矛盾,需要通过对技术的伦理批判完成技术的社会化改造。把技术批判的场域由"工作场"转移到"学校场",对人工智能教育进行价值审视、公平性审视、人性审视、责任审视和终极目标的审视,目的在于防范人工智能异化的风险并促进人工智能教育更好地发展。  

关键词:马克思技术批判;人工智能;伦理;

作者:苏明;陈·巴特尔

来源:西南民族大学学报(人文社科版).2019(11)223-228

  智能时代的生命进化及其教育 摘要:回到原点,在智能时代重新认识人,找寻人的自我价值。探讨面对进化与重生的人类,教育何为。与此相关,如何重新审视教育实践的意义、如何理解教育与社会的关系、如何重新厘定教育实践的目标、教育要培养什么样的人、教育者与受教育者的关系是什么,这些教育实践中的基本问题,都会在人工智能时代重审和改变。智能时代的教育理论研究,需要接续思想传统、改变思维方式、确立学科立场。智能时代的教育政策制定,需要明晰政策导向、加强政策整合、深化政策创新。 

关键词:智能时代;生命进化;教育;实践;理论;政策;

作者:李政涛;罗艺

来源:教育研究. 2019(11)39-58

点击此处查看论文原文

  论教育与机器人的关系 摘要:在第四次工业革命方兴未艾的数据时代,教育学在研究、讨论教育与人的发展关系、教育与社会发展的关系时,需要以"教育与机器的关系"为中介。教育学应该从哲学本体论、价值论层面上思考和研究"教育与机器的关系",机器及其发展成为人与社会发展的一部分、机器成为教育者与受教育者本身、教育结构的变革建立在人工智能技术革命之上、学校成为万物互联的新型社会组织、机器发展与教育发展水平相互制约,都是必须面对和探讨的几个重要命题。这需要教育学及其研究作出变革,倡导建立新的教育发展观,探索建立信息化的教育学理论体系,研究构建"人工智能+教育"的政策体系。 

关键词:教育;人工智能;机器;关系;学科基础;

作者:刘复兴

来源:教育研究. 2019(11)28-38

点击此处查看论文原文

  智能教育时代下人工智能伦理的内涵与建构原则 

摘要:在智能教育时代,人机如何共处是人工智能伦理建构的关键。文章首先从技术悖论视角,厘清当前人工智能应用于教育在技术滥用、数据泄露、智能教学机器的身份与权力边界等方面存在的伦理挑战与困境;其次,利用内容分析法,结合多国与国际组织政策文件,对人工智能伦理相关的伦理要素进行分析与抽取,发现政府、高校、国际组织文件中多次提到的价值、人类利益、安全、隐私、责任等关键要素;最后,基于人机共处的考量,结合人工智能在教育领域的应用现状和伦理关键要素,归纳分析出智能教育伦理需遵循的原则,包括问责原则、隐私原则、平等原则、透明原则、不伤害原则、非独立原则、预警原则与稳定原则。 

关键词:智能教育;人工智能;机器伦理;国际政策;原则;APETHICS模型;作者:杜静;黄荣怀;李政璇;周伟;田阳来源:电化教育研究. 2019(07)21-29点击此处查看论文原文 

邓国民,李 梅:教育人工智能伦理问题与伦理原则探讨

首页>弹性教学>专家观点>邓国民,李梅:教育人工智能伦理问题与伦理原则探讨

邓国民,李梅:教育人工智能伦理问题与伦理原则探讨

发布时间:2020-06-0519:11作者:小编来源:电化教育研究点击量:

()邓国民1,李梅2(1.贵阳学院教育科学学院,贵州贵阳550005;2.北京开放大学教育学院,北京100081) [摘要]文章旨在揭示智能化时代的教育将面临哪些新的伦理问题,并在人工智能伦理和教育伦理的基础上,探讨教育人工智能的伦理原则。运用文献研究和逻辑推理方法,系统梳理了教育人工智能应用的特点和优势,及其可能引发的新的伦理问题:(1)角色层面,系统创建者、教师、学生和监测员等利益相关者将面临更加复杂的伦理困境;(2)技术层面,涉及自动化决策伦理问责、算法伦理和数据伦理等方面的问题;(3)社会层面,可能转变就业市场、改变人际关系和引发新的社会不公平。因此,需要对教育人工智能伦理问题的复杂性有充分的认识,同时需要遵循一般的人工智能伦理原则和教育伦理原则,其中,最核心的内容为二者之间的交集,具体包括:(1)福祉;(2)是非善恶;(3)公平正义;(4)人权和尊严;(5)自由自治;(6)责任和问责。[关键词]教育人工智能;人工智能伦理;教育伦理;数据伦理;算法伦理;伦理原则 一、引言当前,人工智能、大数据和物联网等新技术的发展正在推动人类社会从信息时代进入智能化时代。信息时代的教育仍然带有明显的工业化特征:借助现代信息技术,提高教育资源创建、传递和共享的效率,打破时空的限制,实现人才培养的批量化和效率的最大化。然而,信息时代的教师资源仍然短缺,而且教师深陷于大量琐碎的日常工作中,使得真正意义上的因材施教难以实现。教育人工智能是在教育领域应用的人工智能技术及系统,能够凭借其高度智能化、自动化和高精准性的数据分析处理能力与主动学习能力,承担一部分过去只有教师才能够胜任的工作,从而有效地解决信息时代的教育所面临的一系列问题:(1)利用基于自然语言处理和深度学习的自动问答技术,能够自动回答学生提出的问题[1];(2)自动评价学生的学习与作业,并提供符合其认知状态的反馈和支持[2];(3)利用情感检测技术自动识别学生的身体动作和面部表情,识别学生学习过程中的情感需求,提供个性化情感支持[3];(4)模拟教师、管理者、学习伙伴、合作者和竞争者等不同的角色,促进交流与合作[4];(5)构建自适应学习环境,分析和诊断学习者的学习风格、学习需要,为他们提供自适应学习支持服务;(6)利用决策管理技术辅助教师的教学决策和学习者的学习决策[5]。因此,教育人工智能能够更有效地支持个性化教学,甚至在某些学习支持服务方面的能力已经超越了人类教师。然而,教育人工智能强大的数据整合与分析能力,同时也会引发一系列新的伦理问题,例如:可能会给用户的私人数据和隐私保护带来潜在的风险;模糊教师、学生和人工智能代理等角色之间的界限。因此,教育人工智能的设计、开发和教学实践应用都需要对其伦理问题的复杂性有充分的认识,并认真思考应该遵循何种伦理原则。 二、教育人工智能面临的伦理问题 (一)利益相关者伦理问题探讨教育人工智能的伦理问题,首先需要确定其涉及哪些利益相关者。汤姆塞特(Tomsett)等人从人工智能的可解释性或透明度的角度,定义了人工智能生态系统中的六种不同的角色,分别是系统创建者、系统操作员、决策执行者、决策主体、数据主体以及系统监测员[6]。教育人工智能是在教育领域应用的人工智能技术及系统,其利益相关者同样应该包括这些角色。首先,创建者包括开发教育人工智能的软件公司、员工及与其合作的相关专业人员和研究人员。其次,教师和学生均承担了操作员、执行者、决策主体和数据主体等角色,因为在教学过程中,教师起主导作用,学生具有主体地位,他们都会直接与教育人工智能进行交互,为系统提供输入并接收系统输出的信息。师生均会在教育人工智能输出的信息的基础上作出决策,而且会受到对方决策的影响。他们的个人信息均可能用于训练教育人工智能,丰富和完善其智能导师代理、学习者模型和教学法模型。最后,监测员是指对教育人工智能进行审查的代理机构或人员,由他们对教育人工智能的应用效果和可能产生的潜在风险进行审查。因此,在构建教育人工智能的过程中,需要同时考虑系统创建者、教师、学生和监测员等利益相关者的伦理问题。1.系统创建者伦理问题教育人工智能的创建者包括系统设计师、软件架构师、程序员等设计开发人员。他们在设计、开发教育人工智能的过程中,需要在综合考虑其教学应用效果的同时,兼顾教师和学生的利益。他们需要在保证教育人工智能的稳健性、安全性、可解释性、非歧视性和公平性的同时,支持教师和学生的主观能动性,重视师生的身心健康和学生综合素质的全面发展,而且需要能够支持问责追因。为了满足这些方面的要求,教育人工智能的创建者应该清楚各自承担了什么样的伦理责任。首先,设计师需要了解不同用户之间存在的能力、需求及社会文化等方面的差异,真正基于善良的动机设计产品,避免任何形式的伤害与歧视。软件架构师需要构建安全、可靠和透明的系统架构体系,在保护用户个人数据安全、保障系统可靠运行的同时,更好地支持问责追踪。而对程序员来说,需要设计无偏见的算法,使其能够公平、公正地对待每一位用户。2.教师伦理问题人工智能技术将会实现很多职业的自动化。教师的日常工作,如教学评价、教学诊断、教学反馈以及教学决策中的很大一部分都将由教育人工智能分担,教师角色将会不断深化,最终发生转变。一方面,教师将从一些重复的、琐碎的日常事务中解放出来,能够有更多的时间和精力投入到更具创造性、人性化和关键性的教学工作中去,例如:创造和部署更加复杂的智能化学习环境,利用和扩充自身的专业知识,在恰当的时间为学习者提供更有针对性的支持。另一方面,对技术重要性的加持,将对教师工作及角色产生直接影响,例如:可能会掩盖教师的个人能力、知识及人格等方面的重要性,削弱教师的主观能动性[5]。因此,在智能化教学环境下,教师将面临一系列新的伦理困境:(1)如何定义和应对自己新的角色地位及其与智能导师之间的关系;(2)利用教育人工智能采集和使用学生的学习行为数据为其提供教学支持服务的过程中,该如何保护他们的隐私及个人安全;(3)在新的教学实践环境下,教师应该具备什么样的伦理知识,需要遵循什么样的伦理准则以作出伦理决策。因此,教育人工智能将对教师的能力素质与知识结构提出更多新的要求,他们不仅需要具备一定的关于教育人工智能设计、开发和应用方面的能力与知识,而且还需要具备一定的伦理知识,使其能够以符合伦理原则的方式将教育人工智能融入教育实践[7]。3.学生伦理问题智能化时代对学生的学习、能力、素养提出了更多新的要求,也使学生面临的伦理问题更加复杂化。第一,人工智能可能改变未来的就业市场,就业导向的教育很可能过时,因此,学习者对于自己所学习的内容和目标都需要进行重新思考[8]。第二,人的神经系统是可塑的,教育人工智能能够给学习者提供个性化的学习支持服务,但同时也可能会剥夺他们的很多思维训练和学习体验的机会,改变他们的大脑结构和认知能力,尤其是在学习者大脑发育的关键期过度使用认知技术,将可能带来不可逆转的严重后果,这对他们发展更高级的认知技能和创新能力是非常不利的[9]。第三,教育人工智能的发展,使知识产权和诚信等伦理问题变得更加微妙和复杂。如果学生利用教育人工智能自动生成论文、作业或作品,其中涉及的知识产权的归属问题,目前仍缺乏明确的伦理规范[10]。第四,教育人工智能的使用会不会给学习者带来身体的重复性劳损、视力问题和肥胖问题等,会不会影响他们的视觉、触觉和听觉等感官的敏感性,会不会剥夺他们体验简单快乐生活的机会[11]。第五,教育人工智能可能会剥夺大量的学习者与教师和同伴交流的机会,这会不会影响他们参与有意义的人类社会活动的能力。第六,教育人工智能的认知能力、计算能力和信息处理能力在某些方面远远超越了人类学习者,会不会让他们变得沮丧,降低他们的学习动机,使其不再愿意去主动解决问题和进行理性思考。4.监测员伦理问题在教育人工智能场景下,监测员包括制定教育人工智能标准的机构或相关人员、数据专员等,他们主要负责对系统的一致性、安全性和公平性等方面进行测试、调查和审查[6]。安全测试一般在教育人工智能部署之前进行,而审查需要检查系统过去的输出,因此,需要一个备份系统存储教育人工智能的数据、决策及解释。监测员正是通过这些数据、解释与教育人工智能进行交互,分析和审查教育人工智能作出教学支持服务决策的一致性、安全性和公平性,并提出相应的整改措施。因此,保证教育人工智能的可解释性,需要对其作出的决策、判断和学习支持服务建立相应的存储保留机制和解释方案,供监测员审查,通过第三方机构来保证教育人工智能的设计、开发和应用是符合教育教学伦理规范的。审查之后,监测员还需要向创建者提供如何改进教育人工智能的反馈,如重新训练模型、提高模型的公平性和保护学生隐私数据的安全策略。(二)技术伦理问题1.自动化决策伦理问责问题随着教育人工智能的自主控制和自主决策能力不断增强,它们也需要意识到自身行为的伦理含义,而不是依赖于设计人员预置的规则。因此,需要给教育人工智能引入伦理原则和规则,构建智能道德代理,使其具有一定的伦理决策能力,并能够对自己的决策、行为和后果进行判断,协调各方利益,但这样也会引发出一些新的伦理问题[12]。首先,规则与算法是由设计者、程序员定制的,而不是由教育人工智能自主建构的,权威、权力和影响力会越来越多地体现在算法的开发和实施上。在各方利益冲突的情况下,教育人工智能应该优先服务于谁的利益,设计者、程序员、教师还是学生?其次,教育人工智能的应用可能会导致学习的失败,其中潜在的责任主体包括设计开发人员、教师、学生和智能代理等,出现这种情况时应该向谁问责,软件、数据、教师和学生各自应该承担什么样的责任,目前还缺乏相应的问责机制。最后,教育人工智能本身的自动化和复杂性,意味着我们很难确定系统的决策机制是如何运行的,也很难对其进行追溯和解释。2.算法伦理问题目前,人工智能主要通过机器学习和深度学习算法进行学习和训练,基于过去记录的历史数据作出决策和判断。如果利用教育人工智能对学习者及其学习进行评价,那么只能根据过去的标准和方法,如特定历史文化背景下的成功衡量标准来进行,这将会使学习算法不可避免地产生历史或文化的偏差与偏见,局限于依据历史案例的平均化数据进行处理,而在处理具有创造性和创新性的学习活动过程方面面临极大的挑战[9]。从基本的伦理观点来看,教师和学生能动性的表达需要的不仅仅是重复过去的历史选择,而是需要强调人的创造性和创新性,不能只是停留在过去。教育人工智能可能提供更多个性化和多样化的学习路径和学习资源的选择,但目前的做法一般是根据用户过去的选择和决定将其确定为不同的个人画像,然后过滤掉不符合其个人画像的学习内容和路径。这种方式可能会限制学习者对学习内容多样化的需求,忽视人的学习和发展的灵活性、多样性和不确定性。3.数据伦理问题教育人工智能的正常运行需要大量数据的支持,因而需要记录大量关于学习者的能力、情绪、策略和误解等方面的数据,其中涉及大量新的数据伦理问题。首先,在数据的分析和处理过程中是否会涉及数据意外泄露的问题,教师和学生应该在何种程度上控制自己的数据,保护自己不受到伤害和歧视。其次,谁拥有这些数据,其中涉及什么样的隐私问题,如果发生个人信息泄露,谁应该对此负责。最后,对于这些数据,应该如何分析、解释和共享,如何纠正可能对个别学生的合法权利产生负面影响的偏见(有意识和无意识的),尤其是在考虑到种族、社会地位和收入不平等的情况下。因此,教育人工智能的伦理原则不能被简化为关于数据或计算方法的问题,还需要考虑数据伦理和教育伦理。教育人工智能的伦理问题,实际上是数据伦理、计算伦理和教育伦理的综合应用[13]。(三)社会伦理问题1.转变就业市场和人才培养的方向现行教育系统的关键作用之一是培养学习者参与社会经济生活的能力。教育制度的历史与工业社会的发展密切相关,雇佣劳动仍然是当今社会及其日常生活的核心组织原则。但是,人工智能将可能代替人类的很多工作,这会不会导致失业率的上升?纵观历次工业革命,每次都会出现类似的担忧,但最后对人才的需求量反而越来越大,因为随着人口的增长和社会的发展,对产品和服务都会提出新的需求[9]。一些简单的、重复性的劳动将由人工智能承担,人类则将从事一些富有创造性、挑战性和不可替代性的工作,例如:人工智能系统的设计与开发、人工智能哲学问题和社会问题的研究等。他们将有更多的时间和精力投入自己感兴趣的领域,真正实现人性的解放。因此,未来的就业市场格局将面临根本性的转变,社会对人才的能力和素养也会提出更多新的要求,这将对人才培养的质量标准和规格带来革命性的影响。2.改变教学过程中的人际关系教育人工智能的技术化过程可能会忽略师生之间以及学生之间的正确关系(“我―你”而不是“我―他”),弱化我们对教育的理解,进而只是将其理解为学习技能,而不是人的培养,从而容易忽略教师和教学在教育过程中的重要性[14]。教育人工智能将对师生关系产生重要的影响,它可能会削弱师生之间和学生之间的联系水平,以及他们之间建立联系的能力,同时也可能削弱教学过程和学习过程,弱化教师作为专业人员的地位。师生关系质量对于学习者的个人自尊、学习动机和挑战新问题的信心等影响学业成绩的因素都具有重要的影响。教师对学生的友善态度和及时反馈有助于他们获得自信心,促进他们健康情感的发展。而且,我们也无法保证所有的教育人工智能使用者都是基于一种良好的意图,教育人工智能的滥用和不良使用,例如:获取他人的隐私数据,模仿他人的笔迹、语音和会话风格去获取非法利益,以及将教育人工智能生成的知识、报告和艺术作品据为己有,都可能降低教学过程中人与人之间的信任感。3.引发新的社会不公平教育人工智能的初衷是要增进教育系统内各利益相关者的福祉,让更多的教师和学生受益,需要尽量避免因为数字鸿沟而导致的新的社会不公平。教育人工智能领域的数字鸿沟,不是简单地由社会经济地位差异而导致的对技术设备拥有和访问权的悬殊引起的,而是由一系列复杂的影响因素构成,如信息素养、人工智能素养、对待教育人工智能的态度、应用能力和使用意向等,它们会影响教师和学生应用教育人工智能的目的、方法和策略,进而影响最终的教与学效果,带来新的教育不公平[5]。历史经验也表明,新技术的应用往往并不会缩小教育的不平等,反而可能扩大教育的不平等,这其中涉及技术应用的能力、效果和效率等方面的问题。 三、教育人工智能伦理原则 人工智能本身的自动化、自主性和能动性等方面的特征,使其同时扮演道德行动者和容受者的角色,并具有一定的伦理责任和道德决策能力。教育人工智能的应用可能会使各利益相关者面临众多新的伦理两难问题,并带来一系列新的技术伦理和社会伦理困境。因此,教育人工智能的应用绝不仅仅是一个技术层面的问题,还涉及技术与人类的关系、科技哲学及社会学等层面的问题,如果对其伦理困境的复杂性没有深刻的认识,将可能带来不可估量的负面影响。一方面,教育人工智能是人工智能技术及系统在教育领域的具体应用,需要遵循一般的人工智能伦理原则;另一方面,它又是一种具体的教育教学实践活动,需要遵循教育伦理原则。根据对国际电气和电子工程师协会(IEEE)2019年发布的《合伦理设计:利用人工智能和自主系统最大化人类福祉的愿景(第一版)》[15]、欧盟委员会2019年发布的《值得依赖的人工智能伦理准则》以及其他人工智能伦理指南文件的分析[16],可以发现,尽管各国存在文化传统方面的差异,但在通用人工智能伦理方面表现出一定的趋同性,主要包括可解释性、公平正义、责任、隐私和数据治理、善待、非恶意、自由自治、信任、尊严、稳健性、福祉、有效性、慎用、胜任和人权等方面。教育伦理原则主要包括:(1)能否给教育活动的全体利益相关者带来福祉;(2)能否明辨是非善恶标准;(3)是否尊重教育公平和教育正义;(4)是否保护人的教育权、自由权和隐私权等基本人权;(5)是否尊重人,是否维护人的道德尊严;(6)是否履行教育的道德责任与义务[17]。可见,人工智能伦理和教育伦理在福祉、是非善恶、公平正义、人权和尊严、自由自治和责任等方面存在交叉重叠之处,如图1所示。图1人工智能伦理与教育伦理之间的关系因此,教育人工智能伦理原则应该是二者之间的交集,代表在教育情境下,人工智能系统的技术开发与实践应用应该遵循的具体伦理原则。(一)福祉福祉主要是指人工智能的设计和应用应该改善人类生活质量和外部环境,包括人类赖以生存的各种个人、社会和环境因素。它需要评估人工智能是否会让人类社会和环境变得更加美好,能否促进社会的进步,促进社会和环境的可持续发展,为任何地方的人所有并使其受益[15]。从教育领域来看,福祉主要是指教育人工智能的设计、开发和应用应该能够为教育活动的所有利益相关者带来福利,实现所有教育教学活动相关人员的教育利益的最大化。例如:它能否改善现有的教学环境,更好地支持学习者的学习,尤其是存在学习障碍的学习者的学习;能否提供更多、更好的学习机会,更好地做到因材施教,使所有学习者均能够得到更充分的发展;能否将教师从一些低水平的重复工作中解放出来,使其更好地投入到更有价值、更有意义、更具创造性的教育活动中去,让他们的个人价值得到更充分的实现;能否改善师生关系,使师生能够以一种更幸福、更健康的方式投入到教与学活动中去,实现个人全面和谐发展的同时,更好地保障他们的身心健康。(二)是非善恶人工智能的非恶意原则主要是指其设计和应用应该是出于仁爱而不是恶意的愿望,即绝对不应该造成可预见或无意识的伤害、偏见和不公平,需要避免特定的风险或潜在的危害[18]。因此,人工智能产品的设计、开发和部署需要基于一种良好的愿望,同时还需要有一套预防风险和潜在危害的干预机制。教育伦理则强调教育行为需要基于善良的动机,遵从具有普遍价值的道德准则和崇高的道德意义,履行社会和个人的道德义务。因此,教育人工智能的设计和开发应该基于一种善良的动机,是真正为了实现教育更好的发展,为了教师能够更好地进行教学工作和履行育人的社会责任,学生能够更好地进行学习,促进他们全面和谐的发展,而不是出于其他的功利性甚至带有个人私欲的某种目的。(三)公平正义公平正义原则要求人工智能对所有人都是公平公正的,并且要避免保留现有的社会偏见和引入新的偏见。因此,人工智能的决策算法和训练数据不应该沿袭设计者固有的偏见和歧视,而是应该通过评估确保这些数据对不同的社会文化均具有适当的代表性,让所有人都有平等访问的机会[19]。教育教学活动需要维护教育的公平和正义,受教育权是每个社会公民的基本权利,不管其社会地位的高低和财富的多寡。而且,教育本身也是实现社会公平的一种方式,它为阶层之间的流动提供了一个良好的通道[20]。在部署教育人工智能系统之前,需要仔细思考会不会带来更多的教育机会,是促进教育公平,还是妨碍教育公平。首先,教育人工智能的决策算法和依托的数据是否存在偏见与歧视,能否公平、公正地对待每一位学生。其次,教师利用教育人工智能进行教学的能力水平的差异,会不会导致教学效果的差异,从而引发新的教育不公平。再次,学习者的信息素养和人工智能素养水平的不同,对于他们使用教育人工智能进行学习会不会带来学习效果的差异,从而扩大学生学业成绩之间的差距。最后,家庭社会地位和经济实力的不同,会不会造成访问教育人工智能机会的不均等,从而带来新的教育不公平。(四)人权和尊严人工智能应该优先考虑并明确尊重人的基本人权和尊严。这需要在各利益相关方之间合作协商的基础上制定指导人工智能开发的人权框架,指导和规划人工智能的未来发展方向,以确定、预防和纠正人工智能可能给基本人权和尊严带来的潜在风险和危害,以维护人类的尊严和固有价值[21]。教育人工智能在教育中的应用,将可能替代教师的很多日常工作,但不能因此而动摇教师作为能够自主确立教学目标的主体地位,以及忽略教师工作本身的价值和创造性,降低教师的地位和尊严。教育人工智能给学习者提供认知支架和智能化教学支持服务,应该让学习者能够根据自己的需要和个性特征做出选择,而不是代替学生做出选择,即应该充分地尊重学生作为一个人的基本人权和尊严,而不是将其作为某种目标对象来对待。因此,教育人工智能的创建者、教师和其他工作人员都应该充分尊重师生在智能学习环境下的这些人权和尊严。(五)自由自治人工智能的发展需要在以人为主导的决策和以机器为主导的决策之间保持平衡,应该促进人类的自主权和控制权,而不是伤害和破坏人类的自由。人类应该选择以何种方式赋予人工智能何种程度的决策权,以实现人类自主选择的目标[22]。因此,人工智能应该将使用者视为独立自主的人,而不是被操控的对象,不能剥夺和影响人类自由自治的权力。部署教育人工智能的学校和机构对于预置什么样的社会文化价值观念具有自治权,教育人工智能的创建者不能把自己的社会文化价值观念嵌入教育人工智能中,影响用户对文化和价值体系的自治权。教师职业有其创造性和自主性的一面,对于自己选择什么样的教学方法,如何安排教学活动和进行教学评价,教师拥有自主权。学生对于自己在教育人工智能中的个人形象、数据和身份,拥有自主控制的权利。他们对于教育人工智能提供的教学支持服务和资源策略建议,拥有主观能动性,而且不应该由于没有遵循教育人工智能的建议而受到任何形式的惩罚。(六)责任和问责当人工智能具备了一定的行为和决策自主权后,其责任和问责机制将会变得更加复杂,所以应该建立一套完善的责任和问责机制,以确保能够对人工智能及其行为决策后果进行问责,明确应该如何在制造商、设计师、运营商和最终用户之间分摊责任。明确的问责机制需要建立在系统透明的基础上,即应该建立完整的数据跟踪记录方案,保持系统算法和决策推理过程的透明,以便在任何情况下均可以快速找出责任主体[15]。教育人工智能,可能会代替教师的部分教学决策和教学行为,或者向他们提供教学策略建议,为他们的决策与行为提供支持。这种决策与行为后果的责任主体和问责机制是比较复杂的,这要求教育人工智能对于自身对教育教学工作的支持和干预具有一定的预见性。对于算法的决策过程、教师使用教育人工智能进行教学的过程以及学生学习过程中的行为数据,教育人工智能要有完整的记录保存方案,从而为后续的问责过程提供依据。 四、结语 毫无疑问,人工智能将对教育产生深远的影响,甚至可能带来教育教学实践领域的一场根本性的变革,转变教师的工作性质和社会角色,改变学生的学习体验。教育人工智能的出现给教育技术学带来了新的挑战,它在支持教育教学实践的过程中,体现出越来越强的自动化和主观能动性,将同时扮演道德行动者和容受者的角色。它将使教育领域的伦理问题变得更加复杂化,并引发出一系列新的伦理困境。因此,在教育人工智能的大规模设计、开发、部署和投入应用之前,需要认真考虑教育人工智能伦理原则的构建,为在教育教学实践过程中安全有效地利用教育人工智能奠定合适的伦理道德基础。 本文发表于《电化教育研究》2020年第6期,转载请与电化教育研究杂志社编辑部联系(官方邮箱:dhjyyj@163.com)。引用请注明参考文献:邓国民,李梅.教育人工智能伦理问题与伦理原则探讨[J].电化教育研究,2020,41(6):39-45. [参考文献][1]郭天翼,彭敏,伊穆兰,等.自然语言处理领域中的自动问答研究进展[J].武汉大学学报(理学版),2019,65(5):417-426.[2]PERIKOSI,GRIVOKOSTOPOULOUF,HATZILYGEROUDISI,etal.Assistanceandfeedbackmechanisminanintelligenttutoringsystemforteachingconversionofnaturallanguageintologic[J].Internationaljournalofartificialintelligenceineducation,2017,27(3):475-514.[3]MARS,SANTOSOC,SERGIOSM,etal.Towardsemotiondetectionineducationalscenariosfromfacialexpressionsandbodymovementsthroughmultimodalapproaches[J].Scientificworldjournal,2014,484873:1-14.[4]VIZCAINOA.Asimulatedstudentcanimprovecollaborativelearning[J].Artificialintelligenceineducation,2005,15(1):3-40.[5]LUCKINR,HOLMESW,GRIFFITHSM,etal.Intelligenceunleashed:anargumentforAIineducation[M].London:Pearson,2016.[6]TOMSETTR,BRAINESD,HARBORNED,etal.Interpretabletowhom?arole-basedmodelforanalyzinginterpretablemachinelearningsystems[C]//Proceedingsofthe2018ICMLWorkshoponHumanInterpretabilityinMachineLearning.Stockholm:CoRR,2018:8-14.[7]邓国民.教师整合技术与伦理的学科教学知识框架[J].黑龙江高教研究,2018(2):99-103.[8]SIAUK.Educationintheageofartificialintelligence:howwilltechnologyshapelearning[J].Theglobalanalyst,2018,7(3):22-24.[9]TUOMII.Theimpactofartificialintelligenceonlearning,teaching,andeducation:policiesforthefuture[M].Luxembourg:PublicationsOfficeoftheEuropeanUnion,2018.[10]DAVIESCR.Anevolutionarystepinintellectualpropertyrights-artificialintelligenceandintellectualproperty[J].Computerlaw&securityreview,2011,27(6):601-619.[11]AIKENRM,EPSTEINRG.EthicalguidelinesforAIineducation:startingaconversation[J].Internationaljournalofartificialintelligenceineducation,2000,11:163-176.[12]SIVILLT.Ethicalandstatisticalconsiderationsinmodelsofmoraljudgments[J].FrontiersinroboticsandAI,2019,6:39.[13]HOLMESW,INIESTOF,SHARPLESM,etal.EthicsinAIED:whocares?[C]//20thInternationalConferenceonArtificialIntelligenceinEducation.Chicago:OpenResearchOnline,2019.[14]GUILHERMEA.AIandeducation:theimportanceofteacherandstudentrelations[J].AI&Society,2019,34(1):47-54.[15]TheIEEEGlobalInitiativeonEthicsofAutonomousandIntelligentSystems.Ethicallyaligneddesign:avisionforprioritizinghumanwell-beingwithautonomousandintelligentsystems[EB/OL].(2019-03-19)[2020-03-24].https://standards.ieee.org/content/dam/ieee-standards/standards/web/documents/other/ead1e.pdf.[16]FLORIDIL.EstablishingtherulesforbuildingtrustworthyAI[J].Naturemachineintelligence,2019,1(6):261.[17]王正平.教育伦理学的基础理论探究与建构[J].上海师范大学学报(哲学社会科学版),2017,46(6):24-33.[18]JOBINA,IENCAM,VAYENAE,etal.ThegloballandscapeofAIethicsguidelines[J].Naturemachineintelligence,2019,1(9):389-399.[19]SHAWG.Thefuturecomputed:AIandmanufacturing[M].Washington:MicrosoftCorporation,2019.[20]王本陆.教育公正:教育制度伦理的核心原则[J].华南师范大学学报(社会科学版),2005(4):98-104,160.[21]LATONEROM.Governingartificialintelligence:upholdinghumanrights&dignity[EB/OL].(2018-10-10)[2020-03-24].https://datasociety.net/wp-content/uploads/2018/10/DataSociety_Governing_Artificial_Intelligence_Upholding_Human_Rights.pdf.[22]FLORIDIL,COWLSJ,BELTRAMETTIM,etal.AI4People—anethicalframeworkforagoodAIsociety:opportunities,risks,principles,andrecommendations[J].Mindsandmachines,2018,28(4):689-707. 链接:https://mp.weixin.qq.com/s/xwc2WSFmGVWi_lOFvAOiEw

人工智能的伦理问题与治理原则

第一类问题来自我们对人工智能系统对其决策结果的伦理意义缺乏判断的忧虑。人工智能往往被用来解决一个具体问题,而且只能通过已有的有限数据来作出决策,往往无法像人一样理解更广的社会和伦理语境。故此,我们对人工智能缺乏对决策后果的伦理意义的认知有恐惧,这是完全可以理解的。当人工智能决策的后果涉及一个结果和另外一个结果之间的比较时,往往造成难以预料的后果。例如,人可能给人工智能系统一个获取食物的指令,结果这个系统却杀死了人的宠物。这是因为人工智能对某个结果的伦理意义无法完全理解,以致于错误地执行了指令。我们对人工智能对决策结果的伦理判断能力不足的忧虑,在人工智能技术本身缺乏透明度(黑箱问题)时就更加严重了。人工智能采纳的机器学习往往因为算法(例如机器学习)和算力限制的原因,无法回溯机器作出决定的具体机制。无法回溯会带来我们在事先预测后果和事后作出纠正的能力的局限,导致我们在决定是否应用人工智能技术的问题上踌躇不决。

第二类问题来自我们对人工智能的潜力的忧虑。人工智能可能成为人类全部决定的参与和影响者,但我们尚且不知道没有任何已知的伦理准则能指引上述行为。人类创造的“上帝”无力护理这个世界,这让我们恐惧震惊。我们担心随着人工智能的发展,它会导致已有的社会问题进一步恶化,同时可能带来新的社会问题。

从上述前提出发,笔者从目的、手段两个层面提出思考人工智能伦理(嵌入机器的伦理)的两个基本方向:技术必须促进人类的善(体现在人的根本利益原则);在越来越发达的机器的自主性背景下确认人的主体性(体现在责任原则)。换言之,认识到新的技术本身的特征和它的潜在社会影响,我们看到人工智能伦理要强调:(1)人可以利用人工智能得到更大的能力(行善/伤害),因此有更大的责任,所以应当更加强调归责性;(2)人工智能则必须服从人类设定的伦理规则。这也是《人工智能标准化白皮书(2018)》中提出了人工智能设计和应用中应遵循的两个基本原则的基本依据。违反人的根本利益原则的人工智能,无论是用来欺诈顾客的营销算法、用于司法造成歧视部分公民的司法决策系统,还是对个人信息的过度收集和滥用,都违反人工智能伦理原则。

根据人工智能伦理风险的具体性质与特征,可从算法、数据和应用三个方面度来梳理人工智能的风险。对伦理风险的治理,需要立法和政策明确各相关主体的责任,包括信息提供者、信息处理者和系统协调者。此外,人工智能还可能对社会产生远期发展的风险,如对既有的就业、市场竞争秩序、产权等法律制度的挑战,甚至生产方式的根本变革,这些我们将其归入长期和间接的伦理风险之中。

算法方面

算法方面的风险主要包括算法安全问题、算法可解释性问题、算法歧视问题和算法决策困境问题。算法安全问题产生于算法漏洞被黑客攻击和恶意利用的挑战,同时算法从设计、训练到使用中面临可信赖性问题和算法随时可用对可靠性带来挑战。

算法可解释性涉及人类的知情利益和主体地位,对人工智能的长远发展意义重大。国务院颁布《新一代人工智能发展规划》,同时,潘云鹤院士提到人工智能应用的一个需要关注的问题是算法的不可解释性。算法可解释性问题在国外也引起媒体和公众的关注。例如,电气和电子工程师协会(IEEE)在2016年和2017年连续推出的《人工智能设计的伦理准则》白皮书,在多个部分都提出了对人工智能和自动化系统应有解释能力的要求。美国计算机协会美国公共政策委员会在2017年年初发布了《算法透明性和可问责性声明》,提出了七项基本原则,其中一项即为“解释”,希望鼓励使用算法决策的系统和机构,对算法的过程和特定的决策提供解释。2017年,美国加州大学伯克利分校发布了《对人工智能系统挑战的伯克利观点》,从人工智能的发展趋势出发,总结了九项挑战和研究方向。其中之一,即第三项,就是要发展可解释的决策,使人们可以识别人工智能算法输入的哪些特性引起了某个特定的输出结果。

与可解释性问题常常同时出现的是算法歧视问题,即在看似中立的算法中,由于算法的设计者的认知存在某种偏见,或者训练算法使用了有问题的数据集等原因,带来了人工智能系统决策出现带有歧视性的结果。这类例子媒体时有报道,例如在金融领域“降低弱势群体的信贷得分”、“拒绝向‘有色人种’贷款”、“广告商更倾向于将高息贷款信息向低收入群体展示”等。

算法歧视主要分为“人为造成的歧视”“数据驱动的歧视”与“机器自我学习造成的歧视”三类。人为造成的歧视,是指由于人为原因而使算法将歧视或偏见引入决策过程中。数据驱动造成的歧视,是指由于原始训练数据存在偏见性,而导致算法执行时将歧视带入决策过程中。算法本身不会质疑其所接收到的数据,只是单纯地寻找、挖掘数据背后隐含的模式或者结构。如果数据一开始就存在某种选择上的偏见或喜好,那么算法会获得类似于人类偏见的输出结果。机器自我学习造成的歧视,是指机器在学习的过程中会自我学习到数据的多维不同特征,即便不是人为地赋予数据集某些特征,或者程序员或科学家刻意避免输入一些敏感的数据,但是机器在自我学习的过程中,仍然会学习到输入数据的其它特征,从而将某些偏见引入到决策过程中,这就是机器自我学习造成的歧视。

算法决策困境源于人工智能自学习能力导致的算法结果的不可预见性。为此要减少或杜绝算法决策困境,除了提高算法的可解释性,还可以引入相应的算法终结机制。

数据方面

数据方面的风险主要包括侵犯隐私的风险和个人敏感信息识别与保护的风险。在现代社会,隐私保护是信任和个人自由的根本,同时也是人工智能时代维持文明与尊严的基本方式。人工智能时代下侵犯隐私的风险更大,受害者也更多。

传统法律规范对隐私的保护集中于对个人在私人领域、私人空间活动的保护,以及个人私密的、非公开的信息保护。在个人信息的基础之上,法律规范区分普通个人信息和个人敏感信息。法律通常对个人敏感信息予以更高的保护,例如对个人敏感信息的处理需要基于个人信息主体的明示同意,或重大合法利益或公共利益的需要等,严格限制对个人敏感信息的自动化处理,并要求对其进行加密存储或采取更为严格的访问控制等安全保护措施。个人敏感信息在授权同意范围外扩散,或者个人信息的扩散超出收集、使用个人信息的组织和机构控制范围,以及使用者超出授权使用(如变更处理目的、扩大处理范围等),都可能对个人信息主体权益带来重大风险。

人工智能技术的应用极大地扩展了个人信息收集的场景、范围和数量。图像识别、语音识别、语义理解等人工智能技术实现海量非结构化数据的采集,而人工智能与物联网设备的结合丰富了线下数据采集的场景。例如,家用机器人、智能冰箱、智能音箱等各种智能家居设备走进人们的客厅、卧室,实时地收集人们的生活习惯、消费偏好、语音交互、视频影像等信息;各类智能助手在为用户提供更加便捷服务的同时,也在全方位地获取和分析用户的浏览、搜索、位置、行程、邮件、语音交互等信息;支持面部识别的监控摄像头,可以在公共场合且个人毫不知情的情况下,识别个人身份并实现对个人的持续跟踪。这些都需要法律进一步地规范。

社会方面

与社会相关的伦理问题主要包括算法滥用和误用。算法滥用和误用是指人们利用算法进行分析、决策、协调、组织等一系列活动中,其使用目的、使用方式、使用范围等出现偏差并引发不良影响或不利后果的情况。例如,人脸识别算法能够提高治安水平、加快发现犯罪嫌疑人的速度等,但是如果把人脸识别算法应用于发现潜在犯罪人或者根据脸型判别某人是否存在犯罪潜质,就属于典型的算法滥用。由于人工智能系统的自动化属性,算法滥用将放大算法所产生的错误效果,并不断强化成为一个系统的重要特征。

算法滥用主要由算法设计者出于经济利益或者其他动机的操纵行为、平台和使用者过度依赖算法、将算法的应用盲目拓展到算法设计未曾考虑的领域等。电商平台算法设计者推荐不符合用户利益的产品,或者娱乐平台为了自身的商业利益对用户的娱乐或信息消费行为进行诱导、导致用户沉迷等,都是算法设计者操纵行为的展现。在医疗领域过度依赖人工智能平台的读图诊断,导致误诊,以及在安防领域和犯罪误判导致的问题,都直接关系到公民的人身安全与自由。

应当注意的是,与社会相关的伦理问题有如下特性:其一,它们与个人切身利益密切相关,如算法应用在犯罪评估、信用贷款、雇佣评估等关切人身利益的场合,对个人切身利益的影响广泛。其二,它们带来的问题通常难以短时间应对,例如深度学习是一个典型的“黑箱”算法,如果深度学习为基础建立的模型存在歧视,应对时难以查清原因。其三,在商业应用中出现这类问题时,由于资本的逐利性,公众权益容易受到侵害。

人工智能治理原则与实践

人工智能技术的特质及其伦理挑战,给社会的治理带来了问题。传统上,治理所预设能够遵循规则的主体(Agent),也就是人本身。今天我们认识到人工智能的特征在于其高度的自主性,即其决策不再需要操控者进一步的指令,考虑到这种决策可能会产生人类预料不到的结果,人工智能技术的设计者和应用者必须在人工智能技术研发、应用的各个环节贯彻伦理原则,以实现对人工智能的有效治理。

在传统技术领域,常见的防止损害的方式是在造成伤害之后进行干预。但是,等待人工智能系统造成伤害之时才考虑干预,很多时候为时已晚。一个更好的方法是将即时和持续的伦理风险评估和合规体系建设作为系统运行的一个组成部分,即时和持续评估人工智能系统是否存在伦理风险、并在损害产生之前以及损害不大的时候就通过合规体系进行处理。即时和持续的风险评估对于人工智能系统的保障要比按下“紧急按钮”要有效得多。

故此,我们在讨论人工智能治理应遵循的思路和逻辑时,必须警醒行业自律的有限性和立法的滞后性。如阿西莫夫等科技伦理的思想者所意识到的,必须将伦理在技术层面就进行明确,才能保证治理的有效性。构建人工智能的伦理标准是治理不可或缺的一面。此外,根据法律和政策本身的特征来制定法律、完善政策、设立管制机构,也是治理必须执行的方法。

国内外人工智能治理方面的探索值得我们关注和借鉴。例如,欧盟通过对机器人规制体现了依据人工智能伦理来设计治理体系的前沿探索。美国于2016年出台的战略文件就提出要理解并解决人工智能的伦理、法律和社会影响。英国政府曾在其发布的多份人工智能报告中提出应对人工智能的法律、伦理和社会影响,最为典型的是英国议会于2018年4月发出的长达180页的报告《英国人工智能发展的计划、能力与志向》。

联合国于2017年9月发布《机器人伦理报告》,建议制定国家和国际层面的伦理准则。电气和电子工程师协会(InstituteofElectricalandElectronicsEngineers,IEEE)于2016年启动“关于自主/智能系统伦理的全球倡议”,并开始组织人工智能设计的伦理准则。在未来生命研究所(futureoflifeinstitute,FLI)主持下,近4000名各界专家签署支持23条人工智能基本原则。

我国也在这个方面开展了探索与实践。2017年发布的《新一代人工智能发展规划》提出了中国的人工智能战略,制定促进人工智能发展的法律法规和伦理规范作为重要的保证措施被提了出来。2018年1月18日,在国家人工智能标准化总体组、专家咨询组的成立大会上发布了《人工智能标准化白皮书(2018)》。白皮书论述了人工智能的安全、伦理和隐私问题,认为设定人工智能技术的伦理要求,要依托于社会和公众对人工智能伦理的深入思考和广泛共识,并遵循一些共识原则。

人工智能技术的开发和应用深刻地改变着人类的生活,不可避免地会冲击现有的伦理与社会秩序,引发一系列问题。这些问题可能表现为直观的短期风险,如算法漏洞存在安全隐患、算法偏见导致歧视性政策的制定等,也可能相对间接和长期,如对产权、竞争、就业甚至社会结构的影响。尽管短期风险更具体可感,但长期风险所带来的社会影响更为广泛而深远,同样应予重视。

人工智能技术的日新月异与治理体系相对稳定性之间不可避免地存在矛盾,这需要我们明确应对人工智能的基本原则。在国际范围内比较,人工智能伦理基本原则以2017年1月在阿西洛马召开的“有益的人工智能”(BeneficialAI)会议提出的“阿西洛马人工智能原则”(AsilomarAIPrinciples),以及电气和电子工程师协会(IEEE)组织开展的人工智能伦理标准的工作受到了最多的关注。此前,各国也提出了机器人原则与伦理标准。作者认为,我国人工智能的研究和应用应遵循两个人工智能伦理基本原则,即人的根本利益原则和责任原则。

人的根本利益原则

人的根本利益原则,即人工智能应以实现人的根本利益为终极目标。这一原则体现对人权的尊重、对人类和自然环境利益最大化以及降低技术风险和对社会的负面影响。人的根本利益原则要求:

(1)在对社会的影响方面,人工智能的研发与应用以促进人类向善为目的(AIforgood),这也包括和平利用人工智能及相关技术,避免致命性人工智能武器的军备竞赛。

(2)在人工智能算法方面,人工智能的研发与应用应符合人的尊严,保障人的基本权利与自由;确保算法决策的透明性,确保算法设定避免歧视;推动人工智能的效益在世界范围内公平分配,缩小数字鸿沟。

(3)在数据使用方面,人工智能的研发与应用要关注隐私保护,加强个人数据的控制,防止数据滥用。

责任原则

责任原则,即在人工智能相关的技术开发和应用两方面都建立明确的责任体系,以便在人工智能应用结果导致人类伦理或法律的冲突问题时,人们能够从技术层面对人工智能技术开发人员或设计部门问责,并在人工智能应用层面建立合理的责任体系。在责任原则下,在人工智能技术开发方面应遵循透明度原则;在人工智能技术应用方面则应当遵循权责一致原则。

透明度原则

透明度原则要求人工智能的设计中,保证人类了解自主决策系统的工作原理,从而预测其输出结果,即人类应当知道人工智能如何以及为何做出特定决定。透明度原则的实现有赖于人工智能算法的可解释性(explicability)、可验证性(verifiability)和可预测性(predictability)。

权责一致原则

权责一致原则,是指在人工智能的设计和应用中应当保证问责的实现,这包括:在人工智能的设计和使用中留存相关的算法、数据和决策的准确记录,以便在产生损害结果时能够进行审查并查明责任归属。权责一致原则的实现需要建立人工智能算法的公共审查制度。公共审查能提高相关政府、科研和商业机构采纳的人工智能算法被纠错的可能性。合理的公共审查能够保证一方面必要的商业数据应被合理记录、相应算法应受到监督、商业应用应受到合理审查,另一方面商业主体仍可利用合理的知识产权或者商业秘密来保护本企业的利益。

应当明确,我们所说的人工智能伦理原则,不仅应当由人工智能系统的研发和应用的人类主体遵守(包括在研究机构、行业领域的科技企业和科技工作者),而且这些原则应当嵌入人工智能系统本身。机器如何遵循伦理规则这一点,有人仍有质疑。典型的看法是,伦理规则只是给人的,没有可能给人工智能系统(包括机器人)设定伦理规则。的确,传统上伦理原则所针对的是能够遵循这些原则的主体(Agent)也就是人本身。但是,考虑到人工智能的特征在于机器对人的智能的“模拟、延伸和扩展”,即其决策不需要操控者一步步的指令,同时这种决策可能会产生人类预料不到的结果,人工智能系统也应当受到伦理规则的规制。

结论

社会必须信任人工智能技术能够给人带来的利益大于伤害,才有可能支持继续发展人工智能。而这种信任,需要我们认识和探讨人工智能领域的伦理和治理问题,并且在发展人工智能技术发展的早期就有意识地加以运用。今天学者、科技工作者和社会已经有基本共识,就是负责人工智能系统的研发和应用的人类主体,包括在研究机构、行业领域的科技企业和科技工作者,应当服从一些基本的伦理原则。本文提出的两个基本伦理原则,是国内在这方面思考的总结和升华。除了人工智能的基本伦理原则,前人给我们的另一个启发是人工智能伦理应该嵌入系统本身。当我们越来越依赖于机器人代替我们作出决策时,我们应当在这个决策过程中嵌入伦理思考,而不是等待决策结果已经给我们带来负面影响之后再去纠正。

本文希望用一种更清醒的眼光去看待人工智能伦理和治理问题。学者和公众需要一起探讨:我们有没有可能防止人工智能给个人和社会带来的损害?只有在这个问题得到更深入的思考和妥善解决的时候,人工智能的发展才有真正的基础。

转自丨法理杂志返回搜狐,查看更多

ChatGPT探索系列之五:讨论人工智能伦理问题及ChatGPT的责任

文章目录前言一、安全二、隐私和道德三、我们应该做什么总结前言

ChatGPT发展到目前,其实网上已经有大量资料了,博主做个收口,会出一个ChatGPT探索系列的文章,帮助大家深入了解ChatGPT的。整个系列文章会按照一下目标来完成:

理解ChatGPT的背景和应用领域;学习GPT模型系列的发展历程和原理;探究ChatGPT的训练、优化和应用方法;分析ChatGPT在各领域的实际案例;讨论人工智能伦理问题及ChatGPT的责任;思考ChatGPT的未来发展趋势和挑战。

本次ChatGPT探索系列之一的主题是讨论人工智能伦理问题及ChatGPT的责任。众所周知,ChatGPT虽然暂时无法拥有自我意识或情感,但它可以通过不断学习来提高自己的能力和性能。与此同时,ChatGPT也面临着一系列伦理和社会问题,例如如何保护用户的隐私和安全、如何避免歧视和偏见、如何确保其回答准确和合适等等。因此,讨论人工智能伦理问题及ChatGPT的责任是至关重要的。

人类最伟大的两个驱动力,贪婪和好奇心,将推动人工智能的发展。我们唯一的希望是我们可以控制它。在这篇文章中,我们将深入讨论人工智能伦理问题及ChatGPT的责任,一起分析ChatGPT在安全、隐私和道德方面的影响。

如果对ChatGPT相关资料感兴趣的同学,可以直接访问开源资料库:ChatGPT_Project

一、安全

在2023年3月16日接受美国广播公司新闻采访时,OpenAI联合创始人Altman被问及人工智能可能带来的最坏结果时,他提到了一系列潜在的问题,其中包括对大规模虚假信息的担忧。ChatGPT-3的一些功能展示了生成令人信服但虚假的信息的能力,这使得人们更加关注这一问题。此外,机器学习算法的准确代码生成能力也可能被滥用,用于调试和改进恶意软件,从而对计算机系统造成威胁。这些问题已经引起了研究人员的广泛关注和讨论。

对于AI技术而言,安全问题是一条双重道路,它可以被恶意行为者用来攻击受害者,同时它自身的安全性也容易被滥用。ChatGPT作为一种先进的AI技术,已经经历过至少一次违规行为。在2023年3月20日开始的一周内,OpenAI曾下线系统并修复用户信息暴露的漏洞,但后来发现其修复程序本身存在漏洞,并且ChatGPTAPI容易被绕过。因此,如何保障AI技术的安全性和可靠性已成为一个重要的课题。我们需要采取更多措施来确保AI技术的安全性和负责任性,并推动AI技术的可持续和良性发展。

二、隐私和道德

隐私问题是人工智能面临的最大挑战之一。道德或不道德的技术实施可能会推动隐私滥用的程度,这已引起了人们的广泛关注。IBM首席隐私与信任官兼AI伦理委员会主席克里斯蒂娜·蒙哥马利在接受SecurityWeek采访时表示:“这项技术的发展速度显然快于社会围绕它建立合理护栏的能力,而且其他科技公司如何保护与其系统交互的数据隐私仍然不够透明。”

蒙哥马利强调了政府和行业的重要性,他们必须共同解决人工智能带来的挑战。政府需要加强监管,制定更为严格的AI应用控制和监管规定,而行业必须更加重视道德使用原则,特别是在消费者环境中。IBM已经为AI的开发和使用制定了道德原则,包括将责任和道德放在首位。蒙哥马利指出,其他私营企业也应该加强这方面的努力,通过参与工作来增强人们对这项技术的信任。

然而,缺乏监管可能导致隐私侵犯行为的继续存在。一些大型科技公司收集大量数据的原因是为了获得培训数据,用于创建像GPT4这样的工具。这样的做法已经引起了人们对隐私风险的担忧。尽管存在一些适当的保护措施,但ChatGPT仍然存在一些缺点。因此,适当的监督变得更加重要,尤其是在消费者环境中。

消除偏见和提高培训质量也是重要的挑战之一。AI开发人员必须通过多样化、高质量的数据集和减少偏见的方法来改进培训过程。这是一个复杂的问题,因为它涉及到许多已经存在的、也许是无意识的偏见,需要开发人员在不断地努力中解决。

三、我们应该做什么

生命未来研究所在2023年3月29日发布了一封公开信,呼吁所有AI实验室立即暂停至少6个月的时间来训练比GPT-4更强大的AI系统。这封信引用了AsilomarAI原则,这是一个公认的AI治理原则清单,其中包括了需要关注和规划先进AI带来的深刻变化的条款。尽管这封信引起了广泛的讨论和反响,但在安全行业内部对此的反应却不尽相同。我在当时也写了一篇分析文章:预测“叫停GPT-4后续AI大模型”后续:这是一个囚徒困境

有些人认为这封信不会有太大的成就,因为这些模型的发展受到金钱和时间的限制。他们主张应该让企业做好安全可靠地使用这些模型的准备,而不是试图阻止它们的发展。但也有人支持暂停人工智能的发展,不仅是出于商业和隐私方面的考虑,还有出于安全和完整性的考虑。他们认为在了解如何评估数据隐私、模型完整性和对抗性数据的影响之前,人工智能的持续发展可能会导致未预期的社会、技术和网络后果。

无论如何,我们不能阻止人工智能的持续发展。人工智能已经成为了人类最伟大的两个驱动力之一,贪婪和好奇心的体现。我们的唯一希望是通过控制人工智能的使用和开发来最大程度地发挥它的潜力。尽管精灵已经从瓶子里出来,但我们可以努力让它为人类的利益所用,而不是为我们的伤害和损失服务。

总结

本文是ChatGPT探索系列之一,主题是讨论人工智能伦理问题及ChatGPT的责任。文章探讨了ChatGPT在安全、隐私和道德方面的影响,并指出了人工智能领域所面临的最大挑战之一——隐私问题。为了应对这些问题,需要采取更多措施来确保AI技术的安全性和负责任性,并推动AI技术的可持续和良性发展。文章还呼吁政府和行业加强监管和道德使用原则的制定,以确保人工智能的良性发展。

最后,文章强调了控制人工智能的使用和开发来最大程度地发挥其潜力的重要性。尽管精灵已经从瓶子里出来,但我们可以努力让它为人类的利益所用,而不是为我们的伤害和损失服务。

人工智能瓶颈:如何应对未来伦理问题

原标题:人工智能瓶颈:如何应对未来伦理问题

当人工智能变得越来越像人,人工智能伦理问题成为了技术行业、监管机构和大众最为关注的问题。

当下,对于人工智能商业价值的极度崇拜与对伦理崩塌的深度隐忧,构成了讨论人工智能的两种相反论调:一方面,商业机构不断描绘人工智能时代的便利美好,而许多影视作品则提醒人们人工智能具有潜在危险。这两方面的冲突,引发了人们不断的探讨。

“伦理困境”阻碍人工智能研发

从新闻客户端中越来越“懂你”的信息流,到开始尝试在封闭道路上自动驾驶的汽车,过去几年,各种包含人工智能技术的产品走入大众生活。据腾讯研究院院长司晓介绍,全球人工智能创业企业已经达到2000多家,在腾讯,有四个大实验室正在做人工智能相关项目。

事实上,有些人工智能商业场景迟迟不能落地,不是被技术“绊”住了,反而是伦理研究拖了后腿。司晓举例说,美国2016年的统计表明,自动驾驶的安全性已经明显高于人工驾驶,但自动驾驶中有一个著名的伦理困境,即当它无可避免要撞人时,撞向人多的一边还是人少的一边,如果这一问题不解决,自动驾驶汽车就无法上路。

展开全文

复旦大学哲学系教授王国豫提出,全景监狱和数据歧视的伦理困境也值得警惕。全景监狱是指摄像头可以将你的所有行动构成一个行动路线图,搜索引擎可以给你画像,在强人工智能下,就等于有人盯着你的一举一动;数据歧视是指将数据转化为人们能够理解的信息过程中充斥着人为的解读因素,如果数据显示某个区域的人跳槽率较高,就会影响这个地区的人找工作。

现如今,人工智能伦理问题已经引起世界关注,2016年英国标准组织发布机器人伦理标准《伦理设计与应用机器人》、微软提出人工智能六大原则,都在一定程度上促进人工智能发展。我国《新一代人工智能发展规划》中,“人工智能伦理”这一字眼出现了十五次之多,表明制定人工智能伦理规范已迫在眉睫,而我们也有理由相信,这些举措将更好的推进人工智能的发展。返回搜狐,查看更多

责任编辑:

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇