《新一代人工智能伦理规范》发布
9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(以下简称《伦理规范》),旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。
《伦理规范》经过专题调研、集中起草、意见征询等环节,充分考虑当前社会各界有关隐私、偏见、歧视、公平等伦理关切,包括总则、特定活动伦理规范和组织实施等内容。《伦理规范》提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理要求。同时,提出人工智能管理、研发、供应、使用等特定活动的18项具体伦理要求。《伦理规范》全文如下:
新一代人工智能伦理规范为深入贯彻《新一代人工智能发展规划》,细化落实《新一代人工智能治理原则》,增强全社会的人工智能伦理意识与行为自觉,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展,制定本规范。
第一章 总则
第一条 本规范旨在将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题。
第二条 本规范适用于从事人工智能管理、研发、供应、使用等相关活动的自然人、法人和其他相关机构等。(一)管理活动主要指人工智能相关的战略规划、政策法规和技术标准制定实施,资源配置以及监督审查等。(二)研发活动主要指人工智能相关的科学研究、技术开发、产品研制等。(三)供应活动主要指人工智能产品与服务相关的生产、运营、销售等。(四)使用活动主要指人工智能产品与服务相关的采购、消费、操作等。
第三条 人工智能各类活动应遵循以下基本伦理规范。(一)增进人类福祉。坚持以人为本,遵循人类共同价值观,尊重人权和人类根本利益诉求,遵守国家或地区伦理道德。坚持公共利益优先,促进人机和谐友好,改善民生,增强获得感幸福感,推动经济、社会及生态可持续发展,共建人类命运共同体。(二)促进公平公正。坚持普惠性和包容性,切实保护各相关主体合法权益,推动全社会公平共享人工智能带来的益处,促进社会公平正义和机会均等。在提供人工智能产品和服务时,应充分尊重和帮助弱势群体、特殊群体,并根据需要提供相应替代方案。(三)保护隐私安全。充分尊重个人信息知情、同意等权利,依照合法、正当、必要和诚信原则处理个人信息,保障个人隐私与数据安全,不得损害个人合法数据权益,不得以窃取、篡改、泄露等方式非法收集利用个人信息,不得侵害个人隐私权。(四)确保可控可信。保障人类拥有充分自主决策权,有权选择是否接受人工智能提供的服务,有权随时退出与人工智能的交互,有权随时中止人工智能系统的运行,确保人工智能始终处于人类控制之下。(五)强化责任担当。坚持人类是最终责任主体,明确利益相关者的责任,全面增强责任意识,在人工智能全生命周期各环节自省自律,建立人工智能问责机制,不回避责任审查,不逃避应负责任。(六)提升伦理素养。积极学习和普及人工智能伦理知识,客观认识伦理问题,不低估不夸大伦理风险。主动开展或参与人工智能伦理问题讨论,深入推动人工智能伦理治理实践,提升应对能力。
第四条 人工智能特定活动应遵守的伦理规范包括管理规范、研发规范、供应规范和使用规范。
第二章 管理规范
第五条 推动敏捷治理。尊重人工智能发展规律,充分认识人工智能的潜力与局限,持续优化治理机制和方式,在战略决策、制度建设、资源配置过程中,不脱离实际、不急功近利,有序推动人工智能健康和可持续发展。
第六条 积极实践示范。遵守人工智能相关法规、政策和标准,主动将人工智能伦理道德融入管理全过程,率先成为人工智能伦理治理的实践者和推动者,及时总结推广人工智能治理经验,积极回应社会对人工智能的伦理关切。
第七条 正确行权用权。明确人工智能相关管理活动的职责和权力边界,规范权力运行条件和程序。充分尊重并保障相关主体的隐私、自由、尊严、安全等权利及其他合法权益,禁止权力不当行使对自然人、法人和其他组织合法权益造成侵害。
第八条 加强风险防范。增强底线思维和风险意识,加强人工智能发展的潜在风险研判,及时开展系统的风险监测和评估,建立有效的风险预警机制,提升人工智能伦理风险管控和处置能力。
第九条 促进包容开放。充分重视人工智能各利益相关主体的权益与诉求,鼓励应用多样化的人工智能技术解决经济社会发展实际问题,鼓励跨学科、跨领域、跨地区、跨国界的交流与合作,推动形成具有广泛共识的人工智能治理框架和标准规范。
第三章 研发规范
第十条 强化自律意识。加强人工智能研发相关活动的自我约束,主动将人工智能伦理道德融入技术研发各环节,自觉开展自我审查,加强自我管理,不从事违背伦理道德的人工智能研发。
第十一条 提升数据质量。在数据收集、存储、使用、加工、传输、提供、公开等环节,严格遵守数据相关法律、标准与规范,提升数据的完整性、及时性、一致性、规范性和准确性等。
第十二条 增强安全透明。在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性、可靠性、可控性,增强人工智能系统的韧性、自适应性和抗干扰能力,逐步实现可验证、可审核、可监督、可追溯、可预测、可信赖。
第十三条 避免偏见歧视。在数据采集和算法开发中,加强伦理审查,充分考虑差异化诉求,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。
第四章 供应规范
第十四条 尊重市场规则。严格遵守市场准入、竞争、交易等活动的各种规章制度,积极维护市场秩序,营造有利于人工智能发展的市场环境,不得以数据垄断、平台垄断等破坏市场有序竞争,禁止以任何手段侵犯其他主体的知识产权。
第十五条 加强质量管控。强化人工智能产品与服务的质量监测和使用评估,避免因设计和产品缺陷等问题导致的人身安全、财产安全、用户隐私等侵害,不得经营、销售或提供不符合质量标准的产品与服务。
第十六条 保障用户权益。在产品与服务中使用人工智能技术应明确告知用户,应标识人工智能产品与服务的功能与局限,保障用户知情、同意等权利。为用户选择使用或退出人工智能模式提供简便易懂的解决方案,不得为用户平等使用人工智能设置障碍。
第十七条 强化应急保障。研究制定应急机制和损失补偿方案或措施,及时监测人工智能系统,及时响应和处理用户的反馈信息,及时防范系统性故障,随时准备协助相关主体依法依规对人工智能系统进行干预,减少损失,规避风险。
第五章 使用规范
第十八条 提倡善意使用。加强人工智能产品与服务使用前的论证和评估,充分了解人工智能产品与服务带来的益处,充分考虑各利益相关主体的合法权益,更好促进经济繁荣、社会进步和可持续发展。
第十九条 避免误用滥用。充分了解人工智能产品与服务的适用范围和负面影响,切实尊重相关主体不使用人工智能产品或服务的权利,避免不当使用和滥用人工智能产品与服务,避免非故意造成对他人合法权益的损害。
第二十条 禁止违规恶用。禁止使用不符合法律法规、伦理道德和标准规范的人工智能产品与服务,禁止使用人工智能产品与服务从事不法活动,严禁危害国家安全、公共安全和生产安全,严禁损害社会公共利益等。
第二十一条 及时主动反馈。积极参与人工智能伦理治理实践,对使用人工智能产品与服务过程中发现的技术安全漏洞、政策法规真空、监管滞后等问题,应及时向相关主体反馈,并协助解决。
第二十二条 提高使用能力。积极学习人工智能相关知识,主动掌握人工智能产品与服务的运营、维护、应急处置等各使用环节所需技能,确保人工智能产品与服务安全使用和高效利用。
第六章 组织实施
第二十三条 本规范由国家新一代人工智能治理专业委员会发布,并负责解释和指导实施。
第二十四条 各级管理部门、企业、高校、科研院所、协会学会和其他相关机构可依据本规范,结合实际需求,制订更为具体的伦理规范和相关措施。
第二十五条 本规范自公布之日起施行,并根据经济社会发展需求和人工智能发展情况适时修订。
国家新一代人工智能治理专业委员会
2021年9月25日
人民日报整版探讨:信息化带来伦理挑战
当前,以互联网、大数据、人工智能为代表的新一代信息技术蓬勃发展,深刻改变着人类的生存方式和社会交往方式,有可能带来伦理风险。我们应当认真研究思考并树立正确的道德观、价值观和法治观,有效提升公众诚信意识和社会信用水平,统筹兼顾人工智能应用和个人隐私保护。本期观察版的几篇文章围绕信息时代的伦理挑战进行探讨。
――编 者
信息时代的伦理审视(人民观察)
曾建平
■人与人工智能的关系,既不是主体与客体之间的关系,也不是主体之间的关系,而是一种主体与类主体之间的关系。
■信息技术已渗透到人们的日常生活,也深度融入国家治理、社会治理的过程中,对于实现美好生活、提升国家治理能力、促进社会道德进步发挥着越来越重要的作用。
■在可以预见的将来,人工智能将重塑生产力、生产关系、生产方式,重构社会关系、生活方式。
■从整体上看,应对信息化深入发展导致的伦理风险,应当遵循服务人类原则、安全可靠原则、以人为本原则、公开透明原则。
习近平同志指出,当前,以互联网、大数据、人工智能为代表的新一代信息技术日新月异,给各国经济社会发展、国家管理、社会治理、人民生活带来重大而深远的影响。现代信息技术的深入发展和广泛应用,深刻改变着人类的生存方式和社会交往方式,深刻影响着人们的思维方式、价值观念和道德行为。
信息时代的伦理变革
信息化正在广泛而深刻地影响和改变着人类社会,它不仅对人类引以为荣的智能唯一性发出有力挑战,而且有可能动摇人类的道德主体地位。
目前,智能机器已获得深度学习能力,可以识别、模仿人的情绪,能独立应对问题等。那么,智能机器能否算作“人”?人与智能机器之间的关系应当如何定位、如何处理?智能机器应当为其行为承担怎样的责任?智能机器的设计者、制造者、所有者和使用者又应当为其行为承担怎样的责任?人们会不会设计、制造并使用旨在控制他人的智能机器?这样的情况一旦出现,人类将面临怎样的命运?这一系列问题关乎人伦关系的根本性质和价值基础,也关乎人类整体的终极命运。
在传统意义上,人与物的关系是主体与客体的关系。信息时代,人工智能创造物已不仅仅是技术化的工具,而是越来越具有类似于人类思维的能力,甚至在某些方面具有超越人类思维的能力。可以说人与人工智能创造物的关系,既不是主体与客体之间的关系,也不是主体之间的关系,而是一种主体与类主体之间的关系。例如,倘若自动驾驶汽车出了交通事故,该由谁承担责任?面对诸如此类的问题伦理学应该如何确立“伦”与“理”?从伦理学角度看,当大数据和人工智能的发展改变甚至颠覆人类活动的主体地位时,传统伦理就会发生解构,人具有排他性主体地位的伦理时代就可能结束。
信息时代的伦理进步
信息技术已渗透到人们的日常生活中,也深度融入国家治理、社会治理的过程中,对于实现美好生活、提升国家治理能力、促进社会道德进步发挥着越来越重要的作用。
信息化深入发展有助于改善政府部门与人民群众的关系。比如,在政务服务领域,各地积极推进“互联网+政务服务”,推出“最多跑一次”事项清单,甚至部分事项“一趟不用跑”,打通政务服务的“最后一公里”,实现“让数据多跑路、让群众少跑腿”,不断增强人民群众的获得感幸福感安全感。又如,在反腐败领域,各地探索运用互联网、大数据和信息化手段,通过微信、微博、手机客户端等新媒体,让失德官员无处躲藏,权力运行更加阳光。
信息化深入发展为最大程度实现社会公平提供技术条件。例如,在教育领域,信息技术打破时空藩篱,让即便身在地球两端的学生也能同上一堂课;打破城乡壁垒,让农村孩子有机会与城里孩子享受到同等教育资源;打破线上线下界限,让学习无处不在、课堂互动“永不下线”,进一步促进优质资源共享和教育公平。
信息化深入发展扩大社会交往,提出更高的伦理道德要求。传统的社会交往主要局限于相对狭小的熟人范围,人们之所以遵守伦理道德很大程度上是因为相对狭小的熟人圈子中无所不在的外在监督,并且一些人对伦理道德的信守主要局限于相对狭小的熟人圈子,对圈子之外的人则未必守信。现代社会交往日益突破传统的熟人交往范围,建基于强大信息技术的互联网进一步打破传统交往的时空限制,使之成为普遍性的社会交往。这就要求人们具备更高程度的道德自律、更高程度的宽容与尊重,从而促进形成以普遍的诚实、守信为价值基础的现代社会公德。
互联网是一个实时、动态、开放的社交平台,各种悖德行为一旦曝光,就会在很短时间内遭到广泛的舆论谴责,在使悖德行为者承受压力的同时,让更多人受到潜移默化的教化。尤其是自媒体的广泛兴起,让人们随时随地能将身边的人和事拍摄下来、发到网上,更广泛有效地发挥社会舆论的监督、谴责与教化作用。
信息化深入发展使包括身份信息和行为信息在内的各类信息变得更透明、更对称、更完整,大大提升了对悖德行为乃至违法犯罪行为的防控、识别、监督、追究与惩处能力。例如,居民身份证存储着个人信息并实现全国联网,入住酒店、乘坐交通工具、购置房产以及其他一些有必要知晓行为人身份的行为或业务往来,都要求提供身份证明;政府部门借助发达的网络和信息传递技术,广泛而及时地向人们公布、推送失信人或其他违法犯罪分子的相关信息;重要公共场所安装高清摄像头,有的场所则配置更为先进的人脸识别技术。这使得悖德行为者及违法犯罪分子处于无所不在的监控之下而无处遁形,促使人们更审慎地权衡利弊并尽可能地减少、规避失信行为或其他违法犯罪行为,有效维护、巩固和增进以诚信为基础的主流伦理道德。
信息时代的道德风险
在可以预见的将来,人工智能将重塑生产力、生产关系、生产方式,重构社会关系、生活方式。
实际上,人工智能算法带来的歧视隐蔽而又影响深远。信息的不对称、不透明以及信息技术不可避免的知识技术门槛,客观上会导致并加剧信息壁垒、数字鸿沟等违背社会公平原则的现象与趋势。如何缩小数字鸿沟以增进人类整体福利、保障社会公平,这是一个具有世界性意义的伦理价值难题。
信息技术在加速大数据传播、搜集、共享的同时,也为一些国家或组织利用网络霸权干涉别国内政或实施网络攻击提供了漏洞和暗网,严重威胁国家主权和安全。因此,防范数据霸权是信息时代维护国家主权的重要内容。
互联网时代出现的一些现象和趋势,应当引起高度重视。例如,有些人沉迷于网络虚拟世界,厌弃现实世界中的人际交往。这种去伦理化的生存方式,从根本上否定传统社会伦理生活的意义和价值,放弃自身的伦理主体地位以及相应的伦理责任担当,已经触及价值观念基础这一更为根本的层面。
应对信息时代伦理风险的道德原则
习近平同志强调:“要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。”面对信息技术的迅猛发展,有效应对信息技术带来的伦理挑战,需要深入研究思考并树立正确的道德观、价值观和法治观。从整体上看,应对信息化深入发展导致的伦理风险应当遵循以下道德原则。
服务人类原则。要确保人类始终处于主导地位,始终将人造物置于人类的可控范围,避免人类的利益、尊严和价值主体地位受到损害,确保任何信息技术特别是具有自主性意识的人工智能机器持有与人类相同的基本价值观。始终坚守不伤害人自身的道德底线,追求造福人类的正确价值取向。
安全可靠原则。新一代信息技术尤其是人工智能技术必须是安全、可靠、可控的,要确保民族、国家、企业和各类组织的信息安全、用户的隐私安全以及与此相关的政治、经济、文化安全。如果某一项科学技术可能危及人的价值主体地位,那么无论它具有多大的功用性价值,都应果断叫停。对于科学技术发展,应当进行严谨审慎的权衡与取舍。
以人为本原则。信息技术必须为广大人民群众带来福祉、便利和享受,而不能为少数人所专享。要把新一代信息技术作为满足人民基本需求、维护人民根本利益、促进人民长远发展的重要手段。同时,保证公众参与和个人权利行使,鼓励公众提出质疑或有价值的反馈,从而共同促进信息技术产品性能与质量的提高。
公开透明原则。新一代信息技术的研发、设计、制造、销售等各个环节,以及信息技术产品的算法、参数、设计目的、性能、限制等相关信息,都应当是公开透明的,不应当在开发、设计过程中给智能机器提供过时、不准确、不完整或带有偏见的数据,以避免人工智能机器对特定人群产生偏见和歧视。
(作者为中国伦理学会副会长)
确保安全、可靠、可控
兼顾人工智能应用和隐私保护(势所必然)
杨明
作为新一轮科技革命和产业变革的重要驱动力量,人工智能正在深刻影响社会生活、改变发展格局。同时,人工智能如同一把“双刃剑”,如果应用不当,就可能带来隐私泄露的伦理风险。如何在人工智能应用中兼顾隐私保护,确保安全、可靠、可控,是一项亟须关注的伦理课题。
人工智能应用存在隐私泄露的伦理风险。人工智能应用需要以海量的个人信息数据作支撑。数据是人工智能的基础,正是由于大数据的使用、算力的提高和算法的突破,人工智能才能快速发展、广泛应用,并呈现出深度学习、跨界融合、人机协同、群智开放、自主操控等新特征。人工智能越是“智能”,就越需要获取、存储、分析更多的个人信息数据。可以说,海量信息数据是人工智能迭代升级不可缺少的“食粮”。获取和处理海量信息数据,不可避免会涉及个人隐私保护这一重要伦理问题。今天,各类数据信息采集无时不有、无处不在,几乎每个人都被置于数字化空间之中,个人隐私极易以数据的形式被存储、复制、传播,如个人身份信息数据、网络行为轨迹数据以及对数据处理分析形成的偏好信息、预测信息等。可以预见,在不远的未来,越来越多的人工智能产品将走进千家万户,在给人们生活带来便利的同时,也会轻易获取更多有关个人隐私的数据信息。借助获取的数据信息,基于日益强大的数据整合、处理能力,人工智能技术可以为用户精准“画像”,而其中就潜藏着不容忽视的隐私泄露风险。如果人工智能应用得不到合理管控,人类将被置于隐私“裸奔”的尴尬境地,从而产生严重的伦理风险。
人工智能应用与隐私保护并非不可兼得。尽管人工智能应用在一定程度上存在隐私泄露的风险,但这并不意味着它与隐私保护之间是绝对对立的关系。一方面,人工智能应用决不能以隐私泄露为代价。隐私权不容侵犯,它既是公民的基本权利,也是社会文明进步的显著标志。有效保护隐私有利于人们维护人格尊严、保持心情舒畅,有利于促进人的全面发展。人工智能技术无论如何发展、发展到什么程度,归根结底都是为了辅助人、服务人,为使用者提供便利,而不能成为肆意损害人格权利、恶意泄露个人隐私的工具。这是人工智能应用必须坚守的底线,否则人工智能技术就会失去价值,也难以走远。另一方面,不能因为存在隐私泄露的伦理风险,就延缓甚至放弃人工智能应用。目前,人工智能应用得到世界主要国家的高度重视,被认为是科技创新的下一个“超级风口”,具有溢出带动性很强的“头雁”效应。在一定程度上讲,谁把握住了人工智能技术,谁就把握住了未来。加快发展新一代人工智能技术,是我国发展必须牢牢抓住的宝贵机遇。我们既要有效防范伦理风险,又要加快人工智能技术发展。事实上,人工智能应用与个人隐私保护之间并不是非此即彼的关系,完全可以通过多种手段从伦理层面对人工智能应用加以正确引导,将隐私泄露的风险降至最低。作为一种新兴技术,人工智能本身并无善恶、对错之分,关键在于使用者能否在符合伦理规范的前提下对其进行正当应用。隐私泄露现象是人工智能应用不当导致的,从深层看则大多是利益驱动的结果。所以,不能将隐私泄露简单归为技术层面的问题,也不能简单归咎于人工智能。
在推进人工智能应用中加强隐私保护。习近平同志强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。在人工智能应用中加强隐私保护,需要加强人工智能应用的风险研判和防范,综合运用技术创新、伦理规范、法律制度等手段方式,防止其“野蛮生长”,确保在符合伦理规范的前提下实现人工智能健康发展。在技术层面,要加快研发和应用隐私保护的安全技术,可将用户隐私保护需求嵌入人工智能系统设计中,让最大限度保护隐私成为系统的默认规则。在伦理层面,要探索和确立保护个人隐私的原则。2019年6月17日,我国新一代人工智能治理专业委员会发布《新一代人工智能治理原则――发展负责任的人工智能》,要求人工智能发展应尊重和保护个人隐私,充分保障个人的知情权和选择权。人工智能从业人员要树立社会主义核心价值观,加强自律,规范技术应用的标准、流程、方法,最大限度尊重和保护个人隐私。在法律层面,应加快制定加强隐私保护的法规制度。当前,我国隐私保护法律体系还不能完全适应人工智能发展需求,应在相关法律法规中进一步强化隐私权保护,并在条件成熟时制定针对人工智能应用中保护公民隐私的法律条文细则,充分保障公民在人工智能应用中的知情权和选择权,严格规范人工智能应用中个人信息的收集、存储、处理、使用等程序,反对窃取、篡改、泄露和其他非法收集利用个人信息的行为。
(作者为南京艺术学院教授、江苏省伦理学会执行会长)
网络诚信建设刻不容缓(观察者说)
孙伟平
人无信不立,业无信不兴,国无信不强。诚信是公众必须具备的基本素养,也是文明社会不可或缺的基石。进入信息时代,快速发展的信息技术让人们生产生活更便捷、通信交流更畅通、信息获取更方便,但也带来了不同形式、不同程度的诚信缺失问题。信息时代呼唤诚信,迫切需要让诚实守信成为全社会的高度共识和行为自觉。
进入信息时代,智能手机、移动互联网、在线社交软件等日益普及,大数据、云计算、物联网、人工智能、区块链等新兴科技快速发展。截至2018年底,我国网民规模达到8.29亿,互联网普及率达到59.6%。数字经济规模达到31万亿元,约占国内生产总值的1/3。《数字中国建设发展报告(2018年)》显示,2018年31个省市区信息化发展指数平均达到67.15%,比上年提升4.88%。借助信息技术,人们在家中指尖轻点就可远程购物、远程学习、远程就医,“互联网+政务服务”让社会治理更加智能化、精准化、科学化。从迭出爆款的新媒体到热点不断的网络综艺,从如火如荼的电子商务到改变生活的共享经济,信息技术正在为社会生活带来越来越多的精彩和便利。
但也要看到,同其他新技术一样,信息技术具有明显的双刃剑效应,正当使用带来的是便利,不正当使用则会造成严重的伦理风险,这其中就包括诚信缺失问题。例如,利用信息技术,一些不法分子盗用他人社交账号诈骗钱财;极少数商家通过疯狂刷单来伪造好评;少数新媒体一味求快,未经调查核实就发布信息,导致新闻时有“反转”;等等。出现这些问题,一方面表明在信息时代少数人诚实守信的“螺丝帽”拧得还不够紧,另一方面反映出社会诚信建设仍存在一些亟须补齐的短板。
信息时代之所以出现诚信缺失问题,主要有以下几方面原因:从技术层面看,信息技术具有数字化、虚拟化、开放性等特点,借助信息技术,人与人之间的交流更多呈现符号化、超地域性、隐匿性等特征。这让人际交往似乎进入一个互不熟识、缺少监督的“陌生人社会”,从而使一些人放松或忽视了诚信自律,做出失信行为。从利益驱动层面看,少数门户网站、自媒体重经济效益轻社会效益,为最大程度攫取经济利益不惜当“标题党”,甚至传递虚假信息,恶意透支社会信用。从体制机制层面看,相较于快速更新迭代的信息技术,诚信监督体系建设比较滞后,对失信者的威慑和惩戒还不够及时、有力,甚至在个别领域存在“牛栏关猫”的现象,从而让失信者有机可乘,造成诚信缺失问题。
中华优秀传统文化历来具有讲诚信、重承诺的优良传统。我们党一贯高度重视诚信建设,将诚信作为社会主义核心价值观的重要内容之一,把说老实话、办老实事、做老实人作为立身做人、干事创业的基本准则。“人而无信,不知其可也”。如果听任诚信缺失现象蔓延,不仅会带来社会信息交流不畅,而且会导致人与人之间缺乏必要的信任感,甚至会出现信任危机。
在信息技术快速发展的当下,有效提升公众诚信意识和社会信用水平,关键是加强网络诚信建设,坚持法治与德治并举、线上与线下联动,推动网络诚信建设法规越来越严密、覆盖越来越广泛、要求越来越严格。要在不断完善顶层设计、解决突出问题、形成长效机制上下功夫,打好网络诚信建设“组合拳”,综合运用互联网、大数据、云计算、人工智能等信息技术手段,广泛发动公众监督举报网上失信行为,开展诚信等级评价,动态发布诚实守信“光荣榜”和失信者“黑名单”,让诚实守信者受到尊重,令失信违约者处处受限,在人人参与、多元共治中大力营造诚实守信的健康网络生态。
(作者为上海大学社会科学学部主任、马克思主义学院院长)
《人民日报》(2019年07月12日09版)
(责编:岳弘彬)分享让更多人看到
ChatGPT:人工智能发展中存在哪些伦理问题,应该如何解决
0分享至随着人工智能技术的快速发展和应用,引起了越来越多的伦理问题,主要涉及以下几个方面:1.隐私和安全问题:人工智能技术需要收集大量的数据,并进行分析和处理,但这些数据中可能包含用户的个人隐私信息。如何保护用户的隐私和数据安全,是一个需要重视的问题。2.恶意使用问题:人工智能技术可以实现自主决策和行动,在某些情况下可能被恶意使用,如自动造成人类伤害、进行犯罪活动等,这需要制定相关的法律和规章来管理和监管。3.歧视和不公问题:人工智能技术不会受到偏见或歧视影响,但在训练数据和算法产生的过程中,却可能隐藏着一些人类认知和社会偏见。因此,人工智能技术可能继承这些不公平内容导致产生与伦理原则相悖的行为。4.就业和社会影响问题:人工智能技术将会对大量的职业造成影响,如何解决技术带来的就业问题,也是一个需要解决的伦理问题。人工智能技术对社会的影响和发展也需要深入探讨和研究。解决以上的伦理问题,可以从以下几个方面入手:1.制定相关的法律和规章,对人工智能技术的开发和使用进行监管和管控。2.鼓励企业和组织发表道德、透明和公正方针,提高人工智能的伦理意识。3.加强人类在人工智能技术中的介入和监管,在算法中增加透明和解释性,以便更好地理解其产生的决策和影响。4.加强教育和科学普及,提高公众对人工智能技术的理解和意识,同时激发公众对惩治人工智能技术利用行为的积极性。如果您对ChatGPT感兴趣可以搜索关注公众号:2049AI,也可以在评论区参与讨论,文中使用的GPT工具在百度手机助手里搜索:AI大聪明特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.
/阅读下一篇/返回网易首页下载网易新闻客户端主动应对教育人工智能伦理困境 —中国教育在线
人工智能(AI)赋能教育,让教育插上了腾飞的翅膀。教育人工智能实现了人存在方式的转变、优质教育资源的共享、学习方式的革新等。如上海普陀的课堂以微视频的形式,呈现数学、物理、化学和信息技术等学科上百个知识点,既实现了区域内教育优质化和均衡化,又满足学生的个性化学习需求。教育人工智能在促进学习环境、教学方式和课堂管理的转型升级,形成精准化和个性化的教育服务体系等方面发挥着巨大作用,但也产生了“自主性弱化”“知识至上”“情感忽略”等伦理风险。
教育人工智能的伦理困境
首先,数据化表征异化人的本质。教育的对象是人。马克思认为:“人的本质不是单个人所固有的抽象物,在其现实性上,它是一切社会关系的总和。”可见,人是现实的、丰满的、完整的存在者,而不是抽象的、简化的数字或符号。数据是人工智能的养料,教育人工智能是通过精细行为识别系统将教育活动中的人和事进行数字化表征。如某些智能学情分析系统对学生在课堂上的“听讲”“书写”“瞌睡”“回答问题”和“互动”五种典型行为进行数字化表征,并开展实时的统计分析,以此作为开展教育活动的依据。教育人工智能通过数据认识教育主体,分析教育活动,人、行为或活动都是数据。数据化将人的本质简单化、线性化和机械化。当然,将教育中的人或活动进行数字化表征能创造更高的教育效益。但教育人工智能的数字化表征不仅侵犯了个体的隐私权,更严重是造成了人生命价值的破坏。
其次,精准供给削弱师生的自主性。自主性是人作为行动主体的人的基本特征之一,它是人类运用主观能动性、不断实现自我超越、推动社会发展的重要保证。因此,培养和发挥自主性既是学校教育的目标,也是促进学生学习的重要手段。人工智能在教育领域的运用使教育产品的开发和使用专业化、便捷化。教学过程中,教师只需要简单、机械地选择、运用这些教育产品,无需根据教育的情境、学生的需要和教学内容等要素,自主选择、自主决策、自主钻研,这导致教师的专业性日益丧失。在促进学生学习方面更是如此。教育人工智能能够通过检测学生的脑电波,感知学生的直觉偏好,分析学生的知识获取方式;同时,根据学生的学习数据,明确学生在学习过程中的缺陷和不足,教育人工智能可以根据学生的薄弱环节精准推送相应的知识点。学生只需坐等教育人工智能的定时定量定点的给喂。长此以往,学生对这种智能机器提供的知识来源越来越依赖,自主性也越来越缺失。
再其次,知识至上窄化育人内涵。联合国教科文组织在《反思教育:向“全球共同利益”的理念转变?》中强调,当今的教育要超越识字和算术,以学习环境和新的学习方法为重点,以人文主义为教育观和发展观,注重学生文化素养,培养学生尊重生命和人格尊严,坚持权利平等、社会正义、文化多样性、国际团结以及能为可持续的未来分担责任。换言之,当下的教育不应只关注知识,而忽视文化素养的养成。广泛运用于“教、学、评、测、练”的各个教学环节中的教育人工智能,归根到底是一种针对“知识”的教学系统。它根据学生的学习情况,精准地判断学生学习上存在的薄弱环节,明确哪些地方需要查缺补弱,然后,根据这些数据提供精准化的教学内容。教育人工智能实现了知识的精准化传授,提高了注知识教学的效果,但是也在某种程度上忽视发展和培养学生面向未来的六项关键技能(即6C):品德、公民、沟通能力、批判性思维和解决问题能力、合作能力、创造和想象能力,在教育过程中见“教书”不见“育人”。
另外,人机交互弱化情感体验。情感在促进学生开展深度学习方面具有重要价值。研究发现,个人的情感状态影响学习效果,而且个人的情感状态和对方的情感表达会影响互动的频率和层次。也就是说,教师的热情与学生情感的愉悦水平成正相关,教师向学生传递积极的情感信息,学生就能获取积极的情感体验,这有利于学生以更好的状态进行深度学习。教育人工智能在语音语调、体态语等富含情感要素的传递方面存在先天不足,即使当下人工智能在某些领域已经超越了人类,但是,它仍然无法获取、无法具备未被人类进行形式化表达的人类情感,如自适应学习系统、自动化辅导学习机器人和幼儿早教机器人等都无法进行情感表达。因此,在教学过程中,智能人无法、也没有向学生传达情感,无意中剥夺了学生的情感体验,同时也影响了学习效果。
人工智能技术与伦理规范协同发展保障“良心”
审视教育人工智能的伦理危机不是摒弃教育人工智能,而是通过对其伦理审视促进教育人工智能的更好发展,推动智能化手段与教育的深度融合。由于人工智能技术的不成熟和人工智能伦理保障机制未建立等原因,导致教育人工智能伦理问题随着人工智能技术的快速发展而日益凸显。面对教育人工智能存在的各种伦理问题,我们无需自塑为“卢德主义者”来抵制教育人工智能以消除可能存在的风险。因为,人类无法改变技术进步的历史进程,而技术也完全可被人类规训。因此,我们在开发、应用和治理教育人工智能,实现人工智能与教育的深度融合过程中,要坚持“以人为本”“合目的性与合规律性相统一”和“发展性”的基本原则,坚持人机协同发展,围绕“机芯”和“人心”两个维度,用“良心”造“良芯”。
人工智能的不科学、不合理开发和运用是造成教育人工智能的伦理困境的直接原因。人工智能技术与教育人工智能伦理规范协同发展是从源头保障教育人工智能开发与使用的安全性和规范性,使其符合“良心”的要求。“良心”强调教育人工智能产品的开发和设计要合乎伦理规范,并且确保智能技术得到善用,为师生的发展与成长服务。一是加强教育人工智能伦理研究。要加强教育人工智能的伦理研究,为伦理规范的制定提供指导性意见。二是制定教育人工智能行业伦理规范。2019年5月,OECD发布了首个由各国政府签署的AI原则,即“负责任地管理可信AI的原则”。这些原则之后被G20采纳,并于同年6月,在日本筑波市举行的G20部长级会议上提出了“G20人工智能原则”,包括“可信人工智能的负责任管理原则”和“实现可信人工智能的国家政策和国际合作的建议”。同时,《人工智能北京共识》也明确了人工智能的使用伦理与规范。可见,各国政府或组织已经初步尝试构建人工智能的伦理规范。教育人工智能应该根据教育行业的独特性,指向促进师生的成长与发展,结合教育人工智能的技术特点,设计切实可行的教育人工智能行业伦理规范。三是加强教育人工智能立法。加强教育人工智能事前、事中和事后立法,通过法律法规规范教育人工智能产品的设计、开发与利用,避免人工智能技术对教育活动造成破坏,规避教育人工智能的可能风险。
教育主体与智能技术协同发展确保“良芯”
化解教育与人工智能的融合过程中的伦理危机,一是建立教育人工智能的道德算法。为防御教育人工智能的伦理风险,需要借助深度神经网络,给教育人工智能构置道德算法,即“通过算法给智能机器嵌入人类的价值观和规范,以此让它们具有和人类一样的同情心、责任心、羞耻感等伦理道德。”让教育人工智能的算法遵循“善法”,如此可使教育人工智能在协助教师开展教育活动中进行道德决策,实施具有“教育性”的教学。
二是要树立和谐与优化共生的理念。人工智能无论如何发展都是“服务于人”。因此,我们要摒弃“机器——人”二元对立的观念,既要摆脱对人工智能的盲目崇拜,又需克服对人工智能的奴性心理。在教育人工智能的开发和应用过程中,自觉提升自身的数据素养、网络素养、媒体素养等,遵循人工智能的运作规律和教学规律,增强应用教育人工智能解决教育教学问题的能力,从而实现人与人工智能和谐共生,实现机器与人的协同共进。
三是在人工智能中设置预警机制。内置预警机制,实现风险预警,防范未来的风险,使未来可能出现的通用人工智能和超级人工智能能够服务于全人类的利益。通过开发设计“良芯”,保障“技术向善”,克服教育人工智能的伦理风险,发挥好教育人工智能“向善”潜力,服务于教育事业的发展。