人工智能的伦理挑战与科学应对
【光明青年论坛】
编者按
2023年2月21日,中国外交部正式发布《全球安全倡议概念文件》,呼吁“加强人工智能等新兴科技领域国际安全治理,预防和管控潜在安全风险”。在中国式现代化进程中,人工智能的技术革新是助推我国科技创新的重要力量之一。作为最具代表性的颠覆性技术,人工智能在给人类社会带来潜在巨大发展红利的同时,其不确定性也会带来诸多全球性挑战,引发重大的伦理关切。习近平总书记高度关注人工智能等新兴科技的发展,强调要加快提升“人工智能安全等领域的治理能力”,“塑造科技向善的文化理念,让科技更好增进人类福祉”。为此,本版特组织几位青年学者围绕人工智能的伦理挑战与科学应对展开讨论,并邀请专家予以点评,以期引发学界的更多关注,为推动人工智能健康发展贡献智慧。
与谈人
彭家锋 中国人民大学哲学院博士生
虞昊 华东师范大学政治与国际关系学院博士生
邓玉龙 南京师范大学哲学系博士生
主持人
刘永谋 中国人民大学哲学院教授、国家发展与战略研究院研究员
1.机遇与挑战并存的人工智能
主持人:新技术革命方兴未艾,以人工智能等为代表的新兴科技快速发展,大大拓展了时间、空间和人们的认知范围,人类正在进入一个“人机物”相融合的万物智能互联时代。请具体谈谈人工智能给人类社会发展带来什么样的机遇?
彭家锋:人工智能、大数据、物联网、云计算等智能技术蓬勃兴起,对人类社会的方方面面产生深刻影响,推动整个社会逐步迈入智能社会。在此过程中,存在许多重大历史机遇需要我们把握。就技术治理而言,人工智能作为一种治理技术,正在助推社会治理的治理理念、治理方式、治理效能等方面的变革,将传统技术治理提升至智能化新阶段,呈现出“智能治理的综合”趋势。智能治理将全面提升社会公共治理的智能化水平,主要呈现出四个方面的特征:一是治理融合化,即促进各种智能技术与其他治理技术相互融合,大幅度提升智能社会的治理水平;二是治理数据化,即以日益增长的海量数据为基础,通过对数据映射出来的“数字世界”进行社会计算,实现治理目标;三是治理精准化,即发挥智能技术强大的感知能力、传输能力和计算能力,将传统的粗放治理转变为精准治理;四是治理算法化,即不断完善智能决策系统,尝试将程序化的算法决策扩展到更多的决策活动中,从而提高决策质量。
虞昊:人工智能有助于反思人类社会得以建立与发展的基础。随着分析式AI向着生成式AI不断演变,尤其是生成式AI初步展现出判别问题、分析情感、展开对话、创作内容等越来越具有人类特征的功能,原本属于人类的领域正被人工智能以另一套由“0”与“1”构成的计算机语言逐步侵蚀。这既是对人类社会的冲击,也势必会在更加平等的开放性框架中增强人类的主体性,促进人类社会进一步发展。
邓玉龙:总体来说,以人工智能为代表的新科技发展,显著提升了社会生产力。例如,生成式AI不但能完成传统AI的分析、判断工作,还能进一步学习并完成分析式AI无法从事的创造性工作。从人机交互的角度来看,人工智能也促进了生产关系的高效发展。具体表现在:一是刺激劳动形态的转化。人工智能高效承担大量的基础机械性劳动,人类劳动则向高阶的创造性劳动转化,由此引发社会层面的劳动结构转型、升级,并且以人工智能为中介,社会范围内的劳动整合、协调能力也实现升级。二是促进劳动场域的重构。随着劳动形态的转化和劳动的社会化扩展,人工智能将劳动从固定场域中解放出来,人类劳动的灵活性增加。相比于创造性劳动,机械性劳动更加受到空间和时间的制约,而在人工智能从技术层面替代更低边际成本的基础性劳动之后,人类劳动空间和时间的自由性实现跃迁。三是对主体的发展提出了更高要求,尤其是对主体适应社会发展提出了更高要求。人工智能技术的发展对人类传统的知识结构提出挑战,要求人类更新原有的知识结构以适应社会发展需要,也对教育提出更高要求,教育模式和教育内容需要更契合科技发展的水平,培养更加全面发展的人才。
主持人:人工智能的一系列产物在给人们带来生活便利的同时,也一定程度上引起大家对其可能引发的伦理挑战的警惕。一些人关注人工智能的风险问题,对人工智能的推进有些焦虑。如何看待这种警惕和焦虑?
虞昊:人工智能的风险以及由此带来的焦虑,是完全可以理解的。但我们无法返回一个没有人工智能的世界,人工智能已然深度介入人类社会,试图遏制人工智能的推进只能是螳臂当车。同时我们对人工智能的发展也不能放任不管,无视甚至于压制人工智能的推进只能是掩耳盗铃。因此,我们应该正视这种焦虑,在发展人工智能的过程中探求解决方案,在人工智能带来的风险中寻求危中之机。
邓玉龙:我们应正确看待这种焦虑。要看到,焦虑有其积极的意义,它体现人类的忧患意识,催生对人工智能风险的预见性思考,提醒我们注意焦虑背后人工智能技术发展存在的问题。正确对待焦虑有助于积极采取措施防范风险,辩证分析焦虑中先见性的思考,通过社会治理模式的升级化解风险问题。同时,仅有焦虑和恐惧是不够的,更重要的是积极解决人工智能发展带来的社会问题。从劳动的角度看,人工智能确实会取代部分人类劳动,推动劳动结构转型升级,让劳动向着碎片化、个体化方向发展,劳动者处于弱势地位,面临着“机器换人”的挑战。但是我们也应该理性认识到,人工智能不是对人类劳动能力的完全替代,而是对劳动者提出了更高的要求,要求劳动者掌握科学知识,将技术的发展内化为自身能力,在更具创造性的劳动中实现自身价值。
彭家锋:任何技术的发明使用,不可避免地伴随着这样或那样的风险。人工智能技术自然也不例外,在其应用过程中,同样引发了诸如隐私泄露、算法歧视、法律责任等风险问题。因此,关注人工智能的风险问题,并由此对人工智能的推进产生焦虑,具有一定理论依据和现实基础。但更应当清醒地认识到,人工智能的某些相关风险可以提前得到规避,并不必然会发生;即便真的发生,也仍可不断寻求化解风险的有效手段。以个人隐私滥用风险为例,在治理过程中,虽然不可避免地会涉及个人数据收集和分析处理,但可以通过建立完整的规范和监管体系来保护个人隐私,降低滥用风险。
2.人工智能科技竞争的“伦理赛道”
主持人:习近平总书记在以视频方式出席二十国集团领导人第十五次峰会时指出,“中方支持围绕人工智能加强对话,倡议适时召开专题会议,推动落实二十国集团人工智能原则,引领全球人工智能健康发展”。请谈谈“人工智能原则”应包含哪些内容?科技向善的文化理念对推动全球人工智能健康发展具有怎样的现实价值?
彭家锋:为应对人工智能等新科技快速发展带来的伦理挑战,2022年,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,其中明确了“增进人类福祉”“尊重生命权利”“坚持公平公正”“合理控制风险”“保持公开透明”等五项科技伦理原则。我认为,这五项原则基本涵盖了人工智能原则的伦理要求,彰显了科技向善的文化理念。科技向善的文化理念,根本目标是让科技发展更好地服务社会和人民,带来良好社会或社会公益的善。科技向善对推动全球人工智能健康发展至少具有以下三个方面现实价值:一是塑造公众信任。公众对人工智能的信任很大程度上并不完全由相关风险程度决定,而是取决于公众的利益与价值是否得到足够重视。后者正是科技向善的内在要求。二是引领技术创新。科技向善的文化理念将在技术创新发展过程中发挥价值引领作用。三是促进全球合作。科技向善的文化理念试图在全球范围内建立人工智能伦理规范的“最大公约数”,各国在达成伦理共识的基础之上,能够建立互信,实现更加充分深入的国际合作。
虞昊:个人认为,人工智能原则也应包含非对抗与非失控的理念。非对抗意味着不应将人工智能视作人类社会的对抗性存在,人工智能已经成为人类社会的构成性要素,我们必须持更为开放的态度去面对人工智能。非失控意味着不应放弃对人工智能的伦理规范,应以智能的方式去规范加速发展的人工智能。如果以上述理念为前提,也就是说,在支持人工智能发展的情况下,科技向善的文化理念在推动全球人工智能健康发展中就变得极为重要。此处的“善”在国家治理层面即指向“善治”,而当人工智能的发展从国家范围扩展到全球范围,“善治”就在构建人类命运共同体的意义上拥有了更贴近现实的内涵。各国应摒弃冷战思维与零和博弈,基于善意与友谊共同思考人类作为整体如何在人工智能的冲击下通往全球性的“善治”。
邓玉龙:2019年欧盟发布《可信赖的人工智能伦理准则》,2021年中国国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》(以下简称《规范》)。与欧盟发布的伦理准则相比,《规范》体现了中国特色社会主义的制度优势,旨在将伦理规范融入人工智能全生命周期。人工智能发展的根本目的是促进人的全面发展,因此,我以为,人工智能原则还应体现共享和有序发展的要求。共享,旨在防止人工智能的技术垄断。科技发展应该兼顾全体人民的利益,而不是服务于少数群体,由全体人民共享科技发展成果,推动全球科技水平的共同增长。有序发展,旨在防止人工智能技术的无序扩张。人工智能技术的发展最终是为了提升人的幸福感,推动科技有序发展能够促进人机和谐融合,有效预防潜在无序扩张的风险。
主持人:从规范层面来说,伦理反思对规范人工智能发展的作用主要体现在哪些方面?
彭家锋:近年来,世界各主要国家在人工智能领域竞争日趋激烈,纷纷将人工智能发展置于国家发展的战略层面。比如,美国陆续出台《国家人工智能研究和发展战略计划》(2016)和《关于维持美国在人工智能领域领导地位的行政命令》(2019);欧盟先后发布《欧洲人工智能战略》(2018)和《人工智能白皮书》(2020);中国也较早发布了《“互联网+”人工智能三年行动实施方案》(2016)和《新一代人工智能发展规划》(2017)。人工智能科技竞争的客观局面已然形成。在此背景下,如果忽视人工智能技术发展所带来的全球性风险与挑战,极有可能陷入技术赶超的竞争逻辑。因此,亟须规范人工智能的科技竞争,而倡导伦理反思或许就是一条可行之路。伦理反思的意义至少在于:一是设定伦理底线。人工智能技术的开发和应用需要遵循一些基本的价值理念和行为规范。只有守住伦理底线,才有可能避免颠覆性风险的发生。二是实现敏捷治理。伦理反思是一个动态、持续的过程,贯穿于人工智能科技活动的全生命周期。为了确保其始终服务于增进人类福祉和科技向善的初衷,需要保持应有的道德敏感性,以灵活、及时、有效的手段化解人工智能带来的各种伦理挑战,确保其在科技向善的道路上行稳致远,实现良性发展。
邓玉龙:人工智能科技竞争是为了促进科学技术发展,而科学技术发展的最终目的是推动人类社会的进步。人工智能科技竞争不应该仅包括技术竞争的单一维度,更不应该通过技术优势遏制他国的科技发展,而应该是在人工智能科技条件下的综合性竞争,通过良性竞争促进全球人工智能和全人类的共同发展。其中就应该包括社会治理竞争,通过社会治理保障社会公平,因而对社会中人与人关系的伦理反思构成人工智能科技竞争的有机组成部分。首先,伦理反思对人工智能科技竞争提出了更高的要求。人工智能的公平性、可信任性、可解释与透明度、安全性不仅是伦理要求,也代表了人工智能技术的发展方向,是人工智能科技竞争需要抢占的技术制高点。科技的发展是为了人的全面发展,因而人的发展内嵌于科技发展要求,伦理反思有助于防止工具主义的泛滥。其次,伦理反思为人工智能科技竞争提供价值引导。伦理反思注重保障人的权利,科技发展并不是社会发展中的唯一衡量因素,我们还应该关注其中多样性的因素,尤其注重保护特殊群体的利益,例如防止数据鸿沟等不良影响。伦理反思有助于实现人工智能的综合性健康发展。
3.人工智能安全与人的全面发展
主持人:科学探究一直以来都是人们认识世界和了解自身的重要认知方式,人工智能等信息产业的革命如何影响着人们的认知方式?
彭家锋:人工智能等信息产业的革命,促进了科学研究新范式——数据科学的诞生,进而对人们的认知方式产生深刻影响。数据科学被认为是继实验、理论和模拟之后的新的科研范式。相较于传统科学,数据科学融合了统计和计算思维,通过人工智能等技术提供的海量数据、强大算法和算力,能够直接从数据中寻找相关关系、提取相关性或者预测性知识,进而产生一种基于相关性的科学思维模式。但这种相关性并不一定能够转化为因果关系,因为可解释性对于从数据科学技术确定的相关性中提取因果解释至关重要,而相关技术一般都缺乏必要的透明度和可解释性。数据科学更可能成为一种预测科学,但是预测并不是科学追求的唯一目标。通过揭示世界的潜在因果结构来解释和干预现象,也是科学的两个重要目标。因此,尽管数据科学能够通过分析大量数据生成相关性知识,却不能直接产生因果解释。对此,传统科学的可检验性假设方法和因果规律探求仍有其重要价值。数据科学并非取代传统科学,相反,两者将相互补充,共同成为人类探索世界的有效工具。
虞昊:显而易见的是,随着人工智能向着通用人工智能迈进,其能够为人们提供的教育资源、生活娱乐、工作讯息也越来越丰富,人们势必越来越依赖于通过与人工智能进行交互来获取外界信息。因此,当人工智能深度地构成人们认知世界的滤镜时,若不对人工智能本身具有重复性、同质性倾向的认知框架保持警醒,人工智能可能扭曲人们的认知方式直至影响人的主体创造性。
邓玉龙:以人工智能为代表的全新技术发展被称为第四次工业革命,其中最显著的特征就是机器与人类的深度融合,机器不再作为一种外在性的工具被人类使用,而是在与人类的深度关联中影响人类的认知方式。一方面,信息产业革命丰富了人类认知的联结方式。人工智能和大数据技术的发展促进人类的分析逻辑从因果关系扩展为相关关系,对相关关系的重视使人工智能可以从大数据而非小数据维度获取信息,为人类认知提供新的视角。按照传统人类认知方式的理解,因果关系要求关于世界的认知是确定性的,而这在数字时代的复杂性社会中很难实现。人工智能对相关关系的认知填补了这一缺失,允许我们在无法掌握确定信息但在掌握大量数据的条件下对未来趋势作出预测。另一方面,如果我们对人工智能等科技的输出结果和生成内容盲目信赖,将结果和内容与经验事实之间进行绝对等同的连接,误认为是事实的全部,那么我们就会丧失人文主义抽象反思的能力,对此我们应当保持警惕,始终坚持反思和批判的人文精神。
主持人:如何调适人的主体创造性与信息高度集成共享之间的关系?
彭家锋:当人们逐渐将更多创造性工作交由人工智能完成,不免让人担忧人工智能是否将会威胁到人的主体创造性。从人机关系的角度来看,这种担忧是基于一种人机敌对论的视角,认为人工智能挤压了人的主体创造性空间,是替代逻辑的延续。但从人机协作的视角出发,将人工智能看作人的得力帮手,通过创造性地使用人工智能可以赋予人类更大的创造性空间。比如,在进行文字写作、多媒体脚本、程序代码、文稿翻译等工作时,可先由人工智能高水平地完成草稿工作,然后再由人类进行一些创造性的调整和发挥。此时人工智能生成的内容将成为进一步创作的原材料,人类将以更高的效率投入创造性活动之中。当然,要实现以上效果并非易事,不仅需要思想观念的转变,还应在制度安排、教育方式等方面作出相应调整。
虞昊:面对信息高度集成共享的人工智能,人有可能转变为算法的动物。试想下述场景:当依据人工智能展开行动变得足够便捷有效时,行动者便会倾向于采信人工智能,此时,看似是人类行动者基于自然语言在进行互动,实则是算法逻辑基于计算机语言在进行数字化运转。于是,人的主体创造性被侵蚀,人可能沦为算法动物。对此类情形,我们应该保持足够的清醒与警惕。
邓玉龙:人工智能技术生成的内容(AIGC)具有高度集成共享的特性,能够高效地对人类知识进行数据挖掘、信息生成。调适人的主体创造性与信息高度集成共享之间的关系,我们需做到如下几个方面:首先,需要通过人的创造性扩大AIGC数据库,当下AIGC主要是依赖于大语言模型,以大量的网络文本作为训练数据库生成的,通过人的创造性生成可以不局限于网络文本,而是进一步扩展数据库的训练文本,从而提高其丰富度。其次,需要通过人的创造性为AIGC提供价值训练,通过人的创造性生成的价值立场、伦理法则等与AIGC的训练数据库相融合,从而建构可信赖、可持续的信息高度集成共享机制。最后,需要将人创造性生成的内容与AIGC共同作为人类知识的来源,人类知识的获得不能仅仅局限于AIGC,而是需要人发挥其主体创造性对人工智能技术生成的内容进行反思和拓展,将人类无法被数据化的、经验性的知识与AIGC数据化的知识融合成为人类知识的来源。
(本版编辑张颖天整理)
人工智能教育应用的伦理与限制
作者:杨俊锋(杭州师范大学经亨颐教育学院教授、教育部教育信息化战略研究基地[北京]副主任);陈睿宁(杭州师范大学)
人工智能技术在各行各业的应用,促进了技术变革和产业升级,有力地推动了数字中国和现代化建设,也为促进教育数字化转型提供了强大动力。习近平总书记在致国际人工智能与教育大会的贺信中指出,中国高度重视人工智能对教育的深刻影响,积极推动人工智能和教育深度融合,促进教育变革创新。
2022年11月,基于人工智能的聊天工具ChatGPT上线仅两个月,活跃用户超过了1亿。ChatGPT能根据上下文理解用户输入的信息,帮助用户生成问题的解决方案,如写论文、编代码、当客服等。当其逐渐应用到教与学的过程中,出现了如人机协同教学、个性化学习、智能化评价、辅助学术研究等典型应用。但是,应用中的伦理问题,如学术不端、数据泄露、社会偏见、教育价值偏颇等,逐渐浮现并产生了负面影响。因此,如何在充分发挥人工智能教育应用价值的同时,有效规避其中的伦理风险亟待探讨和解决。
ChatGPT的教育应用助力学与教变革
ChatGPT的应用有利于促进学生的个性化学习。ChatGPT能够为学生提供个性化的自适应学习体验,通过ChatGPT的自然语言处理技术,将学生提出的问题转化为结构化的数据,并将其与相关知识库进行匹配,提供最优解答,并且ChatGPT会记录每一次的问答,针对学生的问题进行分析,深入了解学生的学习习惯、学习水平等从而使学生可以获得个性化和高效的学习指导,提高学生的学习效率。
ChatGPT的应用有助于推动教师的自动化教学。ChatGPT可以与教师实现协同工作,辅助教师进行课程设计和材料生成,为教师生成有针对性的学科知识、教学材料、教学大纲、教学案例和教学策略等。通过与ChatGPT进行模拟课堂对话,教师可以更好地了解学生的问题,提高课堂教学的灵活性。在课后教师可以使用ChatGPT对学生上课的提问与回答进行教学诊断,帮助教师了解学生的学习情况、困难,及时调整教学策略和内容。ChatGPT会自动对学生的作业或试卷进行评分和批改,教师可以快速而准确地对学生的作业和试卷进行评分和批改。
ChatGPT的应用有益于辅助学术研究。ChatGPT可以为研究者提供模型预测和数据分析的支持。
研究者提供相关数据,这些数据可以包括实验数据、问卷数据、统计数据等,ChatGPT将使用自然语言处理技术分析这些数据,从中发现有价值的信息,并进行数据分析和模型预测,之后ChatGPT将提供分析报告,其中包括数据可视化展示、结果说明和推荐建议等内容,让研究者更加便捷地了解数据和模型的特征、趋势。最后,研究者可以基于分析结果进行进一步的科研探索和实验研究,同时对模型和数据进行优化和改进,从而促进科研工作的深入开展。
ChatGPT应用引发的教育伦理问题亟待破解
教师和学生在应用ChatGPT的过程中产生了亟待解决的伦理问题,包括数据泄露、算法偏见与歧视、学术不端、教育价值偏颇、人文关怀缺失等,这些问题给教育的可持续发展带来了很大的挑战。
数据泄露有可能引起学生权益受损。ChatGPT需要处理与存储大量数据,这些数据存在被泄露的风险。在学习、教学与评价场景中,学生、教师与ChatGPT对话中可能涉及个人隐私信息、学术记录、行为模式、学生成绩、班级信息与答题信息等。由于技术漏洞、相关人员缺乏安全意识、黑客攻击等使这些数据的安全不能得到保障,可能会导致被未经授权的人员访问、篡改或滥用。如果不采取相应措施来规避风险,将会给学生与教育机构带来严重的后果,包括个人信息被利用引来学生被诈骗或骚扰、对学生的学业产生负面影响、学校声誉受损从而家校关系恶化等。
算法不透明或可导致教育偏见与歧视。ChatGPT在算法设计与调整时,可能存在一定的偏见。由于算法设计人员本身的偏见或盲区,或收集的语料本身存在的如种族、地区等偏见,ChatGPT的输出也会受到影响。若算法不透明,我们无法判断其作出决策的依据,也无法得知其中是否存在隐含偏见。学生与ChatGPT进行知识问答时,ChatGPT可能会给出不准确的回答,或者以不当的方式引导学生学习和行为,影响学生的学习效果和公平性,加剧数字技能鸿沟甚至损害教育的公平性。
过度依赖或可导致学术不端与教育价值偏颇。ChatGPT可以根据研究任务生成说服性强且有一定逻辑的文本,若滥用可能产生剽窃、抄袭等学术不端问题。ChatGPT在一定程度上可以帮助学生提升学习效率,但学生若对其呈现的结果不加批判地全盘接受,会导致思维的惰化,从而其影响全面发展。长此以往,学生的元认知、创新性思维、批判性思维、独立解决问题的能力均可能受到不同程度的损害,这与教育“培养全面发展的人”背道而驰。同时,在教学中,若教师过分依赖ChatGPT,在教育中忽视和缺失了人文关怀的情感教育,也不利于培养学生的健全人格与身心健康。
应对ChatGPT教育应用伦理问题的策略
规范开发人工智能教育应用场景。ChatGPT具有强大的文本生成能力,可能的应用场景包括教、学、管、考、评、测、研等诸多方面,学校可以加强应用场景的规范开发,明确人工智能技术的育人价值,从教学全流程、全要素、全业务的角度深度思考,将智能技术与教学深度融合,打造典型的应用模式,破解教育和教学的核心问题,从而塑造学校人工智能教育应用的特色场景。
明确制定人工智能教育应用限度。正确认识ChatGPT等人工智能的功能特点、核心价值,谨慎处理其潜在风险。人工智能教育应用过程中,在数据采集、数据筛选、数据处理、数据应用等方面,容易出现个人信息泄露、数据安全受损、育人价值偏颇等问题。在应用过程中,从数据的全生命周期角度,需明确应用的具体限度,指导教师和学生在安全可信的前提下合理使用ChatGPT等人工智能,确保数据安全,保证教育的育人价值不出偏颇。
提高师生的人工智能素养和伦理意识。教师和学生的人工智能素养是将新一代人工智能技术融入教和学的基础,而伦理风险意识则是保证师生安全可靠应用人工智能技术的前提条件。为提高师生的人工智能素养和伦理意识,组织开发人工智能教育应用与伦理意识相关课程和培训,并将相关内容渗透到各科课程中去,让学生了解智能技术的应用可能带来的伦理风险。同时可引入人工智能检测工具,建立相应的监督和管理机制对学生的学术行为进行监督,对学术不端行为进行惩处。
强化学生的高阶思维能力培养。ChatGPT等生成性人工智能对学生的逻辑思维、提问能力、批判性思维、协作能力、沟通能力等提出了新的要求,只有具备了这些高阶思维能力,学生才能与ChatGPT等人工智能应用形成良性的人机协同,促进自身的全面发展。要充分利用智能工具,推动教学理念更新、课堂范式转型、教学模式转变,推动学生高阶思维能力的培养,让学生能够在未来复杂和不确定的世界中诗意地生存。
(本文系国家社科基金重点课题“人工智能教育场景应用的伦理与限度[ACA220027]”的成果)
[责编:李彬]《新一代人工智能伦理规范》发布
9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(以下简称《伦理规范》),旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。
《伦理规范》经过专题调研、集中起草、意见征询等环节,充分考虑当前社会各界有关隐私、偏见、歧视、公平等伦理关切,包括总则、特定活动伦理规范和组织实施等内容。《伦理规范》提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理要求。同时,提出人工智能管理、研发、供应、使用等特定活动的18项具体伦理要求。《伦理规范》全文如下:
新一代人工智能伦理规范为深入贯彻《新一代人工智能发展规划》,细化落实《新一代人工智能治理原则》,增强全社会的人工智能伦理意识与行为自觉,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展,制定本规范。
第一章 总则
第一条 本规范旨在将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题。
第二条 本规范适用于从事人工智能管理、研发、供应、使用等相关活动的自然人、法人和其他相关机构等。(一)管理活动主要指人工智能相关的战略规划、政策法规和技术标准制定实施,资源配置以及监督审查等。(二)研发活动主要指人工智能相关的科学研究、技术开发、产品研制等。(三)供应活动主要指人工智能产品与服务相关的生产、运营、销售等。(四)使用活动主要指人工智能产品与服务相关的采购、消费、操作等。
第三条 人工智能各类活动应遵循以下基本伦理规范。(一)增进人类福祉。坚持以人为本,遵循人类共同价值观,尊重人权和人类根本利益诉求,遵守国家或地区伦理道德。坚持公共利益优先,促进人机和谐友好,改善民生,增强获得感幸福感,推动经济、社会及生态可持续发展,共建人类命运共同体。(二)促进公平公正。坚持普惠性和包容性,切实保护各相关主体合法权益,推动全社会公平共享人工智能带来的益处,促进社会公平正义和机会均等。在提供人工智能产品和服务时,应充分尊重和帮助弱势群体、特殊群体,并根据需要提供相应替代方案。(三)保护隐私安全。充分尊重个人信息知情、同意等权利,依照合法、正当、必要和诚信原则处理个人信息,保障个人隐私与数据安全,不得损害个人合法数据权益,不得以窃取、篡改、泄露等方式非法收集利用个人信息,不得侵害个人隐私权。(四)确保可控可信。保障人类拥有充分自主决策权,有权选择是否接受人工智能提供的服务,有权随时退出与人工智能的交互,有权随时中止人工智能系统的运行,确保人工智能始终处于人类控制之下。(五)强化责任担当。坚持人类是最终责任主体,明确利益相关者的责任,全面增强责任意识,在人工智能全生命周期各环节自省自律,建立人工智能问责机制,不回避责任审查,不逃避应负责任。(六)提升伦理素养。积极学习和普及人工智能伦理知识,客观认识伦理问题,不低估不夸大伦理风险。主动开展或参与人工智能伦理问题讨论,深入推动人工智能伦理治理实践,提升应对能力。
第四条 人工智能特定活动应遵守的伦理规范包括管理规范、研发规范、供应规范和使用规范。
第二章 管理规范
第五条 推动敏捷治理。尊重人工智能发展规律,充分认识人工智能的潜力与局限,持续优化治理机制和方式,在战略决策、制度建设、资源配置过程中,不脱离实际、不急功近利,有序推动人工智能健康和可持续发展。
第六条 积极实践示范。遵守人工智能相关法规、政策和标准,主动将人工智能伦理道德融入管理全过程,率先成为人工智能伦理治理的实践者和推动者,及时总结推广人工智能治理经验,积极回应社会对人工智能的伦理关切。
第七条 正确行权用权。明确人工智能相关管理活动的职责和权力边界,规范权力运行条件和程序。充分尊重并保障相关主体的隐私、自由、尊严、安全等权利及其他合法权益,禁止权力不当行使对自然人、法人和其他组织合法权益造成侵害。
第八条 加强风险防范。增强底线思维和风险意识,加强人工智能发展的潜在风险研判,及时开展系统的风险监测和评估,建立有效的风险预警机制,提升人工智能伦理风险管控和处置能力。
第九条 促进包容开放。充分重视人工智能各利益相关主体的权益与诉求,鼓励应用多样化的人工智能技术解决经济社会发展实际问题,鼓励跨学科、跨领域、跨地区、跨国界的交流与合作,推动形成具有广泛共识的人工智能治理框架和标准规范。
第三章 研发规范
第十条 强化自律意识。加强人工智能研发相关活动的自我约束,主动将人工智能伦理道德融入技术研发各环节,自觉开展自我审查,加强自我管理,不从事违背伦理道德的人工智能研发。
第十一条 提升数据质量。在数据收集、存储、使用、加工、传输、提供、公开等环节,严格遵守数据相关法律、标准与规范,提升数据的完整性、及时性、一致性、规范性和准确性等。
第十二条 增强安全透明。在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性、可靠性、可控性,增强人工智能系统的韧性、自适应性和抗干扰能力,逐步实现可验证、可审核、可监督、可追溯、可预测、可信赖。
第十三条 避免偏见歧视。在数据采集和算法开发中,加强伦理审查,充分考虑差异化诉求,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。
第四章 供应规范
第十四条 尊重市场规则。严格遵守市场准入、竞争、交易等活动的各种规章制度,积极维护市场秩序,营造有利于人工智能发展的市场环境,不得以数据垄断、平台垄断等破坏市场有序竞争,禁止以任何手段侵犯其他主体的知识产权。
第十五条 加强质量管控。强化人工智能产品与服务的质量监测和使用评估,避免因设计和产品缺陷等问题导致的人身安全、财产安全、用户隐私等侵害,不得经营、销售或提供不符合质量标准的产品与服务。
第十六条 保障用户权益。在产品与服务中使用人工智能技术应明确告知用户,应标识人工智能产品与服务的功能与局限,保障用户知情、同意等权利。为用户选择使用或退出人工智能模式提供简便易懂的解决方案,不得为用户平等使用人工智能设置障碍。
第十七条 强化应急保障。研究制定应急机制和损失补偿方案或措施,及时监测人工智能系统,及时响应和处理用户的反馈信息,及时防范系统性故障,随时准备协助相关主体依法依规对人工智能系统进行干预,减少损失,规避风险。
第五章 使用规范
第十八条 提倡善意使用。加强人工智能产品与服务使用前的论证和评估,充分了解人工智能产品与服务带来的益处,充分考虑各利益相关主体的合法权益,更好促进经济繁荣、社会进步和可持续发展。
第十九条 避免误用滥用。充分了解人工智能产品与服务的适用范围和负面影响,切实尊重相关主体不使用人工智能产品或服务的权利,避免不当使用和滥用人工智能产品与服务,避免非故意造成对他人合法权益的损害。
第二十条 禁止违规恶用。禁止使用不符合法律法规、伦理道德和标准规范的人工智能产品与服务,禁止使用人工智能产品与服务从事不法活动,严禁危害国家安全、公共安全和生产安全,严禁损害社会公共利益等。
第二十一条 及时主动反馈。积极参与人工智能伦理治理实践,对使用人工智能产品与服务过程中发现的技术安全漏洞、政策法规真空、监管滞后等问题,应及时向相关主体反馈,并协助解决。
第二十二条 提高使用能力。积极学习人工智能相关知识,主动掌握人工智能产品与服务的运营、维护、应急处置等各使用环节所需技能,确保人工智能产品与服务安全使用和高效利用。
第六章 组织实施
第二十三条 本规范由国家新一代人工智能治理专业委员会发布,并负责解释和指导实施。
第二十四条 各级管理部门、企业、高校、科研院所、协会学会和其他相关机构可依据本规范,结合实际需求,制订更为具体的伦理规范和相关措施。
第二十五条 本规范自公布之日起施行,并根据经济社会发展需求和人工智能发展情况适时修订。
国家新一代人工智能治理专业委员会
2021年9月25日
《人工智能伦理与治理报告》内容解读
2021年8月15日,由清华大学数据治理研究中心主办的“人工智能伦理与治理”专题研讨会于云端举行,来自中央党校、中国社科院、清华大学、复旦大学、浙江大学、中国政法大学、电子科技大学、山东大学、北京化工大学、中国农业大学、对外经济贸易大学、山东师范大学等高校的多位专家学者共聚一堂,围绕人工智能伦理的核心关切和治理方式等问题展开深入研讨。会议由清华大学社会科学学院副院长、计算社会科学平台执行主任孟天广副教授主持。
会上,清华大学数据治理研究中心项目研究员严宇、戴思源和李珍珍共同汇报了《人工智能伦理与治理报告》。报告将人工智能伦理分为安全、透明、公平、个人数据保护、责任等八个维度,通过问卷调查的方式收集了公众针对这些伦理维度的关切情况及治理方式。报告特别关注了算法伦理问题,专门就算法透明、算法公开及数据保护三个方面展开讨论。最后,报告还提出了人工智能伦理治理的“中国方案”。以下为汇报内容:
严宇:美国人工智能监管以发展和创新为先
清华大学数据治理研究中心项目研究员严宇表示,从伦理治国的跨国比较来看,美国的人工智能监管是以发展和创新优先为导向的。
严宇指出,在全球范围内,各国都已经看到人工智能技术对社会的影响,总体可以分为乐观派和悲观派两大派系。乐观派认为人工智能技术极大地促进了经济社会发展;相对来说,悲观派会更多地关注潜在的伦理风险。“由此会产生两种不同的措施,比如乐观派会积极采用战略规划和政策文件来推动人工智能技术的发展与应用;悲观派则会对人工智能伦理开展专项调查,甚至出台具体措施,对伦理风险进行规制。”
严宇在对人工智能伦理治理体系进行跨国比较后表示,美国为了保持其在人工智能领域的全球领先地位,既看重发展,又会考虑伦理风险。“但总体来说美国仍然是以发展和创新优先。”美国非常强调政府和企业、学校、研究机构等社会组织的合作。从顶层设计上来看,联邦政府曾发布行政命令和战略规划,推动人工智能的发展。这些战略规划也提出要对人工智能的伦理问题进行规制,但是其监管仍然是将发展和创新放在更优先的地位。
在严宇看来,不同于美国以发展和创新为先的监管体系,欧盟的监管体系更加严格。“欧盟人工智能企业的数量、规模和影响力虽然排在美国和中国之后,但是它的人工智能监管和治理却在全球有相当的影响力,形成了以强监管为核心特征的治理体系。”
对于邻国日本的人工智能技术发展,严宇表示,日本在试图从中寻找平衡,一方面肯定人工智能的重要作用,另外一方面又要强调重视它的负面影响。日本为此建立了一系列伦理的准则。
严宇介绍道,过去十年,中国的人工智能技术发展速度非常迅猛,近几年中国也越来越关注人工智能的伦理及治理问题。组织和制度方面,中国建立了新一代人工智能治理专业委员会,发布了《新一代人工智能发展规划》,提出要建立规范的伦理体系和法律法规;治理原则方面,形成了《网络安全标准实践指南》,专门提出对人工智能的伦理安全风险开展防范和治理。监管体系方面,中国正在大力推动国家人工智能安全和评估体系。
戴思源:网民关心反垄断时代人工智能相关的数据权利
研究发现,网民关心反垄断时代人工智能相关的数据权利。戴思源的团队从安全、透明、公平、个人数据保护、责任、真实、人类自主、人类尊严八个维度对人工智能伦理进行梳理,并结合小数据和大数据展开实证分析。小数据主要来自清华大学数据治理研究中心在2021年7月份展开的有关人工智能应用与公众认知的网络问卷调查,共收集2654份,有效数2041份;大数据来自新浪微博的网民讨论数据,提取人工智能相关关键词条共4496万条,另外一个大数据来源是今日头条有关人工智能的1.9万篇文章和相关评论2.5万条。
戴思源表示,网民对各个维度都有所关注,其中在安全、公平、个人数据保护、责任方面,表示关切的人数最多。对比之下,对透明、人类自主和人类尊严这几个维度较少关注。
在人工智能应用的生活场景中,戴思源的团队将其划分为智能门禁、智能家居和信息类APP等几个类别,让受访者对人工智能技术选择各个层面因素进行排序。“总的来看,在所有场景当中,有用性和伦理因素都是最重要的因素,影响受访者是否使用该类人工智能产品。”戴思源说。
同时,戴思源的团队也对社交媒体与资讯大数据展开分析。他们在对新浪微博的数据按上述八个伦理维度进行细分之后发现,微博网民主要关注安全、透明、隐私保护和责任等方面。通过词云图进一步分析,发现在安全维度上,公众主要对人工智能技术的安全性表示关切;透明维度上,公众主要对物联网金融信息公开、特斯拉自动驾驶的数据公开、人工智能技术细节的公开展开讨论;隐私保护方面,公众主要集中于人脸识别等技术的滥用、互联网企业利用大数据杀熟等现象展开讨论;可靠性维度上,公众主要讨论人工智能产品是否能够为用户提供可靠的服务。
戴思源指出,针对不同的企业,新浪微博的网民对于特斯拉的讨论度最高。“这可能与特斯拉在行业的技术领先优势及社会舆情事件密切相关。”另外,阿里、华为等企业的讨论热度也紧随其后。微博网民更倾向于从人工智能所取得的技术进展和革新来讨论企业。
戴思源表示,阿里巴巴反垄断案、抖音诉腾讯不正当竞争案等高点赞文章的主题都同平台垄断等新型市场垄断形式密切相关。“这反映出网民关心新型垄断形式所主导下的人工智能发展以及与此相关联的数据权利。”
李珍珍:较多受访者认为不应公开算法源代码
研究发现,公众对算法公开的支持态度主要集中在算法应用和推广阶段,但较多受访者认为不应公开算法源代码。
李珍珍针对算法的伦理问题提出三个关切点:算法的透明、公平和数据保护。她的团队通过问卷调查收集公众对于算法透明、算法公开的态度,总结公众对算法透明和公开的五个维度:一是人工智能企业应该向社会披露算法的目的、范围和用途;二是企业应该向社会解释算法的步骤、原理和细节;三是企业应该向社会公开算法的源代码;四是企业应该向社会披露算法使用的风险;五是企业应该接受社会对算法开发和应用的监督。
调研结果显示,从整体上看,公众对算法透明和公开持普遍支持态度,绝大部分受访者对于算法的目的、范围、用途、算法风险、算法开发应用这些方面选择比较同意或者非常同意。然而,对于公开算法的步骤、原理、细节以及公开算法的源代码,持同意态度受访者比例会显著降低,特别是较多受访者都认为不应该公开算法源代码。
李珍珍表示,公众对算法公开的支持态度主要集中在算法应用和推广阶段,即在使用人工智能产品过程中直接受算法影响的那个阶段。而对算法的设计过程,尤其是源代码,大多数人并不认为应该公开。
在当前算法社会中,用户成为被算法评估的对象。李珍珍指出,我们应该选择适当的措施来保障算法的公平,规避算法歧视。“我们对于算法公平的调查,将有助于科技工作者研发出更具公平原则的算法,这种公平原则需要符合公众对公平概念的普遍理解。”
另外,李珍珍还提到算法伦理问题很大程度上是关注个人数据和隐私保护。团队在调查中发现,公众认为最重要的个人信息包括自己的基本信息、人际关系信息、经济情况信息等。另外,在隐私泄露、信息盗用、信息删除、信息查阅等个人信息和隐私潜在风险的四个方面,网民对于个人隐私泄露和信息盗用最为担心。
“算法社会的内生风险和伦理问题需要我们在未来进一步规范算法的研发和应用,系统讨论算法伦理及其风险治理,让算法更好地服务人类社会。”李珍珍说。
回顾“人工智能伦理与治理”专题研讨会:
人工智能伦理与治理研讨会成功举办
孟天广:人工智能伦理及其治理要打通科技社群与社会大众
吕鹏:人工智能伦理问题需实证证实或证伪
陈水生:人工智能伦理和治理需要“发展”和“监管”双轮驱动
李锋:人工智能伦理不能脱离社会经济状况和历史视角
孙宗锋:需研究公众对人工智能伦理关注重心的背后原因
赵娟:人工智能治理框架应处理四对关系
熊易寒:把算法还原成普通人能理解的逻辑
吴超:算法技术问题最根本的解决方法是发展技术本身
贾开:应从技术与社会互嵌角度重视人工智能治理框架
曲甜:从技术与组织关系分析人工智能的治理模式
宁晶:网络用户使用技能和心理效能影响算法接受度
张小劲:算法治理应致力于促发展、防滥用并消除污名化现象
更多与会专家发言内容,欢迎查看专题报道,或关注清华大学数据与治理研究中心官方微信公众号“数据与治理”。
(来源:中新经纬APP,未经授权禁止转载)