人工智能,语言与伦理
为积极响应国家低碳环保政策,2021年秋季学期开始,中国大学MOOC平台将取消纸质版的认证证书,仅提供电子版的认证证书服务,证书申请方式和流程不变。
电子版认证证书支持查询验证,可通过扫描证书上的二维码进行有效性查询,或者访问https://www.icourse163.org/verify,通过证书编号进行查询。学生可在“个人中心-证书-查看证书”页面自行下载、打印电子版认证证书。
完成课程教学内容学习和考核,成绩达到课程考核标准的学生(每门课程的考核标准不同,详见课程内的评分标准),具备申请认证证书资格,可在证书申请开放期间(以申请页面显示的时间为准),完成在线付费申请。
认证证书申请注意事项:
1. 根据国家相关法律法规要求,认证证书申请时要求进行实名认证,请保证所提交的实名认证信息真实完整有效。
2. 完成实名认证并支付后,系统将自动生成并发送电子版认证证书。电子版认证证书生成后不支持退费。
《人工智能伦理与治理报告》内容解读
2021年8月15日,由清华大学数据治理研究中心主办的“人工智能伦理与治理”专题研讨会于云端举行,来自中央党校、中国社科院、清华大学、复旦大学、浙江大学、中国政法大学、电子科技大学、山东大学、北京化工大学、中国农业大学、对外经济贸易大学、山东师范大学等高校的多位专家学者共聚一堂,围绕人工智能伦理的核心关切和治理方式等问题展开深入研讨。会议由清华大学社会科学学院副院长、计算社会科学平台执行主任孟天广副教授主持。
会上,清华大学数据治理研究中心项目研究员严宇、戴思源和李珍珍共同汇报了《人工智能伦理与治理报告》。报告将人工智能伦理分为安全、透明、公平、个人数据保护、责任等八个维度,通过问卷调查的方式收集了公众针对这些伦理维度的关切情况及治理方式。报告特别关注了算法伦理问题,专门就算法透明、算法公开及数据保护三个方面展开讨论。最后,报告还提出了人工智能伦理治理的“中国方案”。以下为汇报内容:
严宇:美国人工智能监管以发展和创新为先
清华大学数据治理研究中心项目研究员严宇表示,从伦理治国的跨国比较来看,美国的人工智能监管是以发展和创新优先为导向的。
严宇指出,在全球范围内,各国都已经看到人工智能技术对社会的影响,总体可以分为乐观派和悲观派两大派系。乐观派认为人工智能技术极大地促进了经济社会发展;相对来说,悲观派会更多地关注潜在的伦理风险。“由此会产生两种不同的措施,比如乐观派会积极采用战略规划和政策文件来推动人工智能技术的发展与应用;悲观派则会对人工智能伦理开展专项调查,甚至出台具体措施,对伦理风险进行规制。”
严宇在对人工智能伦理治理体系进行跨国比较后表示,美国为了保持其在人工智能领域的全球领先地位,既看重发展,又会考虑伦理风险。“但总体来说美国仍然是以发展和创新优先。”美国非常强调政府和企业、学校、研究机构等社会组织的合作。从顶层设计上来看,联邦政府曾发布行政命令和战略规划,推动人工智能的发展。这些战略规划也提出要对人工智能的伦理问题进行规制,但是其监管仍然是将发展和创新放在更优先的地位。
在严宇看来,不同于美国以发展和创新为先的监管体系,欧盟的监管体系更加严格。“欧盟人工智能企业的数量、规模和影响力虽然排在美国和中国之后,但是它的人工智能监管和治理却在全球有相当的影响力,形成了以强监管为核心特征的治理体系。”
对于邻国日本的人工智能技术发展,严宇表示,日本在试图从中寻找平衡,一方面肯定人工智能的重要作用,另外一方面又要强调重视它的负面影响。日本为此建立了一系列伦理的准则。
严宇介绍道,过去十年,中国的人工智能技术发展速度非常迅猛,近几年中国也越来越关注人工智能的伦理及治理问题。组织和制度方面,中国建立了新一代人工智能治理专业委员会,发布了《新一代人工智能发展规划》,提出要建立规范的伦理体系和法律法规;治理原则方面,形成了《网络安全标准实践指南》,专门提出对人工智能的伦理安全风险开展防范和治理。监管体系方面,中国正在大力推动国家人工智能安全和评估体系。
戴思源:网民关心反垄断时代人工智能相关的数据权利
研究发现,网民关心反垄断时代人工智能相关的数据权利。戴思源的团队从安全、透明、公平、个人数据保护、责任、真实、人类自主、人类尊严八个维度对人工智能伦理进行梳理,并结合小数据和大数据展开实证分析。小数据主要来自清华大学数据治理研究中心在2021年7月份展开的有关人工智能应用与公众认知的网络问卷调查,共收集2654份,有效数2041份;大数据来自新浪微博的网民讨论数据,提取人工智能相关关键词条共4496万条,另外一个大数据来源是今日头条有关人工智能的1.9万篇文章和相关评论2.5万条。
戴思源表示,网民对各个维度都有所关注,其中在安全、公平、个人数据保护、责任方面,表示关切的人数最多。对比之下,对透明、人类自主和人类尊严这几个维度较少关注。
在人工智能应用的生活场景中,戴思源的团队将其划分为智能门禁、智能家居和信息类APP等几个类别,让受访者对人工智能技术选择各个层面因素进行排序。“总的来看,在所有场景当中,有用性和伦理因素都是最重要的因素,影响受访者是否使用该类人工智能产品。”戴思源说。
同时,戴思源的团队也对社交媒体与资讯大数据展开分析。他们在对新浪微博的数据按上述八个伦理维度进行细分之后发现,微博网民主要关注安全、透明、隐私保护和责任等方面。通过词云图进一步分析,发现在安全维度上,公众主要对人工智能技术的安全性表示关切;透明维度上,公众主要对物联网金融信息公开、特斯拉自动驾驶的数据公开、人工智能技术细节的公开展开讨论;隐私保护方面,公众主要集中于人脸识别等技术的滥用、互联网企业利用大数据杀熟等现象展开讨论;可靠性维度上,公众主要讨论人工智能产品是否能够为用户提供可靠的服务。
戴思源指出,针对不同的企业,新浪微博的网民对于特斯拉的讨论度最高。“这可能与特斯拉在行业的技术领先优势及社会舆情事件密切相关。”另外,阿里、华为等企业的讨论热度也紧随其后。微博网民更倾向于从人工智能所取得的技术进展和革新来讨论企业。
戴思源表示,阿里巴巴反垄断案、抖音诉腾讯不正当竞争案等高点赞文章的主题都同平台垄断等新型市场垄断形式密切相关。“这反映出网民关心新型垄断形式所主导下的人工智能发展以及与此相关联的数据权利。”
李珍珍:较多受访者认为不应公开算法源代码
研究发现,公众对算法公开的支持态度主要集中在算法应用和推广阶段,但较多受访者认为不应公开算法源代码。
李珍珍针对算法的伦理问题提出三个关切点:算法的透明、公平和数据保护。她的团队通过问卷调查收集公众对于算法透明、算法公开的态度,总结公众对算法透明和公开的五个维度:一是人工智能企业应该向社会披露算法的目的、范围和用途;二是企业应该向社会解释算法的步骤、原理和细节;三是企业应该向社会公开算法的源代码;四是企业应该向社会披露算法使用的风险;五是企业应该接受社会对算法开发和应用的监督。
调研结果显示,从整体上看,公众对算法透明和公开持普遍支持态度,绝大部分受访者对于算法的目的、范围、用途、算法风险、算法开发应用这些方面选择比较同意或者非常同意。然而,对于公开算法的步骤、原理、细节以及公开算法的源代码,持同意态度受访者比例会显著降低,特别是较多受访者都认为不应该公开算法源代码。
李珍珍表示,公众对算法公开的支持态度主要集中在算法应用和推广阶段,即在使用人工智能产品过程中直接受算法影响的那个阶段。而对算法的设计过程,尤其是源代码,大多数人并不认为应该公开。
在当前算法社会中,用户成为被算法评估的对象。李珍珍指出,我们应该选择适当的措施来保障算法的公平,规避算法歧视。“我们对于算法公平的调查,将有助于科技工作者研发出更具公平原则的算法,这种公平原则需要符合公众对公平概念的普遍理解。”
另外,李珍珍还提到算法伦理问题很大程度上是关注个人数据和隐私保护。团队在调查中发现,公众认为最重要的个人信息包括自己的基本信息、人际关系信息、经济情况信息等。另外,在隐私泄露、信息盗用、信息删除、信息查阅等个人信息和隐私潜在风险的四个方面,网民对于个人隐私泄露和信息盗用最为担心。
“算法社会的内生风险和伦理问题需要我们在未来进一步规范算法的研发和应用,系统讨论算法伦理及其风险治理,让算法更好地服务人类社会。”李珍珍说。
回顾“人工智能伦理与治理”专题研讨会:
人工智能伦理与治理研讨会成功举办
孟天广:人工智能伦理及其治理要打通科技社群与社会大众
吕鹏:人工智能伦理问题需实证证实或证伪
陈水生:人工智能伦理和治理需要“发展”和“监管”双轮驱动
李锋:人工智能伦理不能脱离社会经济状况和历史视角
孙宗锋:需研究公众对人工智能伦理关注重心的背后原因
赵娟:人工智能治理框架应处理四对关系
熊易寒:把算法还原成普通人能理解的逻辑
吴超:算法技术问题最根本的解决方法是发展技术本身
贾开:应从技术与社会互嵌角度重视人工智能治理框架
曲甜:从技术与组织关系分析人工智能的治理模式
宁晶:网络用户使用技能和心理效能影响算法接受度
张小劲:算法治理应致力于促发展、防滥用并消除污名化现象
更多与会专家发言内容,欢迎查看专题报道,或关注清华大学数据与治理研究中心官方微信公众号“数据与治理”。
(来源:中新经纬APP,未经授权禁止转载)
人工智能的伦理挑战与科学应对
【光明青年论坛】
编者按
2023年2月21日,中国外交部正式发布《全球安全倡议概念文件》,呼吁“加强人工智能等新兴科技领域国际安全治理,预防和管控潜在安全风险”。在中国式现代化进程中,人工智能的技术革新是助推我国科技创新的重要力量之一。作为最具代表性的颠覆性技术,人工智能在给人类社会带来潜在巨大发展红利的同时,其不确定性也会带来诸多全球性挑战,引发重大的伦理关切。习近平总书记高度关注人工智能等新兴科技的发展,强调要加快提升“人工智能安全等领域的治理能力”,“塑造科技向善的文化理念,让科技更好增进人类福祉”。为此,本版特组织几位青年学者围绕人工智能的伦理挑战与科学应对展开讨论,并邀请专家予以点评,以期引发学界的更多关注,为推动人工智能健康发展贡献智慧。
与谈人
彭家锋 中国人民大学哲学院博士生
虞昊 华东师范大学政治与国际关系学院博士生
邓玉龙 南京师范大学哲学系博士生
主持人
刘永谋 中国人民大学哲学院教授、国家发展与战略研究院研究员
1.机遇与挑战并存的人工智能
主持人:新技术革命方兴未艾,以人工智能等为代表的新兴科技快速发展,大大拓展了时间、空间和人们的认知范围,人类正在进入一个“人机物”相融合的万物智能互联时代。请具体谈谈人工智能给人类社会发展带来什么样的机遇?
彭家锋:人工智能、大数据、物联网、云计算等智能技术蓬勃兴起,对人类社会的方方面面产生深刻影响,推动整个社会逐步迈入智能社会。在此过程中,存在许多重大历史机遇需要我们把握。就技术治理而言,人工智能作为一种治理技术,正在助推社会治理的治理理念、治理方式、治理效能等方面的变革,将传统技术治理提升至智能化新阶段,呈现出“智能治理的综合”趋势。智能治理将全面提升社会公共治理的智能化水平,主要呈现出四个方面的特征:一是治理融合化,即促进各种智能技术与其他治理技术相互融合,大幅度提升智能社会的治理水平;二是治理数据化,即以日益增长的海量数据为基础,通过对数据映射出来的“数字世界”进行社会计算,实现治理目标;三是治理精准化,即发挥智能技术强大的感知能力、传输能力和计算能力,将传统的粗放治理转变为精准治理;四是治理算法化,即不断完善智能决策系统,尝试将程序化的算法决策扩展到更多的决策活动中,从而提高决策质量。
虞昊:人工智能有助于反思人类社会得以建立与发展的基础。随着分析式AI向着生成式AI不断演变,尤其是生成式AI初步展现出判别问题、分析情感、展开对话、创作内容等越来越具有人类特征的功能,原本属于人类的领域正被人工智能以另一套由“0”与“1”构成的计算机语言逐步侵蚀。这既是对人类社会的冲击,也势必会在更加平等的开放性框架中增强人类的主体性,促进人类社会进一步发展。
邓玉龙:总体来说,以人工智能为代表的新科技发展,显著提升了社会生产力。例如,生成式AI不但能完成传统AI的分析、判断工作,还能进一步学习并完成分析式AI无法从事的创造性工作。从人机交互的角度来看,人工智能也促进了生产关系的高效发展。具体表现在:一是刺激劳动形态的转化。人工智能高效承担大量的基础机械性劳动,人类劳动则向高阶的创造性劳动转化,由此引发社会层面的劳动结构转型、升级,并且以人工智能为中介,社会范围内的劳动整合、协调能力也实现升级。二是促进劳动场域的重构。随着劳动形态的转化和劳动的社会化扩展,人工智能将劳动从固定场域中解放出来,人类劳动的灵活性增加。相比于创造性劳动,机械性劳动更加受到空间和时间的制约,而在人工智能从技术层面替代更低边际成本的基础性劳动之后,人类劳动空间和时间的自由性实现跃迁。三是对主体的发展提出了更高要求,尤其是对主体适应社会发展提出了更高要求。人工智能技术的发展对人类传统的知识结构提出挑战,要求人类更新原有的知识结构以适应社会发展需要,也对教育提出更高要求,教育模式和教育内容需要更契合科技发展的水平,培养更加全面发展的人才。
主持人:人工智能的一系列产物在给人们带来生活便利的同时,也一定程度上引起大家对其可能引发的伦理挑战的警惕。一些人关注人工智能的风险问题,对人工智能的推进有些焦虑。如何看待这种警惕和焦虑?
虞昊:人工智能的风险以及由此带来的焦虑,是完全可以理解的。但我们无法返回一个没有人工智能的世界,人工智能已然深度介入人类社会,试图遏制人工智能的推进只能是螳臂当车。同时我们对人工智能的发展也不能放任不管,无视甚至于压制人工智能的推进只能是掩耳盗铃。因此,我们应该正视这种焦虑,在发展人工智能的过程中探求解决方案,在人工智能带来的风险中寻求危中之机。
邓玉龙:我们应正确看待这种焦虑。要看到,焦虑有其积极的意义,它体现人类的忧患意识,催生对人工智能风险的预见性思考,提醒我们注意焦虑背后人工智能技术发展存在的问题。正确对待焦虑有助于积极采取措施防范风险,辩证分析焦虑中先见性的思考,通过社会治理模式的升级化解风险问题。同时,仅有焦虑和恐惧是不够的,更重要的是积极解决人工智能发展带来的社会问题。从劳动的角度看,人工智能确实会取代部分人类劳动,推动劳动结构转型升级,让劳动向着碎片化、个体化方向发展,劳动者处于弱势地位,面临着“机器换人”的挑战。但是我们也应该理性认识到,人工智能不是对人类劳动能力的完全替代,而是对劳动者提出了更高的要求,要求劳动者掌握科学知识,将技术的发展内化为自身能力,在更具创造性的劳动中实现自身价值。
彭家锋:任何技术的发明使用,不可避免地伴随着这样或那样的风险。人工智能技术自然也不例外,在其应用过程中,同样引发了诸如隐私泄露、算法歧视、法律责任等风险问题。因此,关注人工智能的风险问题,并由此对人工智能的推进产生焦虑,具有一定理论依据和现实基础。但更应当清醒地认识到,人工智能的某些相关风险可以提前得到规避,并不必然会发生;即便真的发生,也仍可不断寻求化解风险的有效手段。以个人隐私滥用风险为例,在治理过程中,虽然不可避免地会涉及个人数据收集和分析处理,但可以通过建立完整的规范和监管体系来保护个人隐私,降低滥用风险。
2.人工智能科技竞争的“伦理赛道”
主持人:习近平总书记在以视频方式出席二十国集团领导人第十五次峰会时指出,“中方支持围绕人工智能加强对话,倡议适时召开专题会议,推动落实二十国集团人工智能原则,引领全球人工智能健康发展”。请谈谈“人工智能原则”应包含哪些内容?科技向善的文化理念对推动全球人工智能健康发展具有怎样的现实价值?
彭家锋:为应对人工智能等新科技快速发展带来的伦理挑战,2022年,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,其中明确了“增进人类福祉”“尊重生命权利”“坚持公平公正”“合理控制风险”“保持公开透明”等五项科技伦理原则。我认为,这五项原则基本涵盖了人工智能原则的伦理要求,彰显了科技向善的文化理念。科技向善的文化理念,根本目标是让科技发展更好地服务社会和人民,带来良好社会或社会公益的善。科技向善对推动全球人工智能健康发展至少具有以下三个方面现实价值:一是塑造公众信任。公众对人工智能的信任很大程度上并不完全由相关风险程度决定,而是取决于公众的利益与价值是否得到足够重视。后者正是科技向善的内在要求。二是引领技术创新。科技向善的文化理念将在技术创新发展过程中发挥价值引领作用。三是促进全球合作。科技向善的文化理念试图在全球范围内建立人工智能伦理规范的“最大公约数”,各国在达成伦理共识的基础之上,能够建立互信,实现更加充分深入的国际合作。
虞昊:个人认为,人工智能原则也应包含非对抗与非失控的理念。非对抗意味着不应将人工智能视作人类社会的对抗性存在,人工智能已经成为人类社会的构成性要素,我们必须持更为开放的态度去面对人工智能。非失控意味着不应放弃对人工智能的伦理规范,应以智能的方式去规范加速发展的人工智能。如果以上述理念为前提,也就是说,在支持人工智能发展的情况下,科技向善的文化理念在推动全球人工智能健康发展中就变得极为重要。此处的“善”在国家治理层面即指向“善治”,而当人工智能的发展从国家范围扩展到全球范围,“善治”就在构建人类命运共同体的意义上拥有了更贴近现实的内涵。各国应摒弃冷战思维与零和博弈,基于善意与友谊共同思考人类作为整体如何在人工智能的冲击下通往全球性的“善治”。
邓玉龙:2019年欧盟发布《可信赖的人工智能伦理准则》,2021年中国国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》(以下简称《规范》)。与欧盟发布的伦理准则相比,《规范》体现了中国特色社会主义的制度优势,旨在将伦理规范融入人工智能全生命周期。人工智能发展的根本目的是促进人的全面发展,因此,我以为,人工智能原则还应体现共享和有序发展的要求。共享,旨在防止人工智能的技术垄断。科技发展应该兼顾全体人民的利益,而不是服务于少数群体,由全体人民共享科技发展成果,推动全球科技水平的共同增长。有序发展,旨在防止人工智能技术的无序扩张。人工智能技术的发展最终是为了提升人的幸福感,推动科技有序发展能够促进人机和谐融合,有效预防潜在无序扩张的风险。
主持人:从规范层面来说,伦理反思对规范人工智能发展的作用主要体现在哪些方面?
彭家锋:近年来,世界各主要国家在人工智能领域竞争日趋激烈,纷纷将人工智能发展置于国家发展的战略层面。比如,美国陆续出台《国家人工智能研究和发展战略计划》(2016)和《关于维持美国在人工智能领域领导地位的行政命令》(2019);欧盟先后发布《欧洲人工智能战略》(2018)和《人工智能白皮书》(2020);中国也较早发布了《“互联网+”人工智能三年行动实施方案》(2016)和《新一代人工智能发展规划》(2017)。人工智能科技竞争的客观局面已然形成。在此背景下,如果忽视人工智能技术发展所带来的全球性风险与挑战,极有可能陷入技术赶超的竞争逻辑。因此,亟须规范人工智能的科技竞争,而倡导伦理反思或许就是一条可行之路。伦理反思的意义至少在于:一是设定伦理底线。人工智能技术的开发和应用需要遵循一些基本的价值理念和行为规范。只有守住伦理底线,才有可能避免颠覆性风险的发生。二是实现敏捷治理。伦理反思是一个动态、持续的过程,贯穿于人工智能科技活动的全生命周期。为了确保其始终服务于增进人类福祉和科技向善的初衷,需要保持应有的道德敏感性,以灵活、及时、有效的手段化解人工智能带来的各种伦理挑战,确保其在科技向善的道路上行稳致远,实现良性发展。
邓玉龙:人工智能科技竞争是为了促进科学技术发展,而科学技术发展的最终目的是推动人类社会的进步。人工智能科技竞争不应该仅包括技术竞争的单一维度,更不应该通过技术优势遏制他国的科技发展,而应该是在人工智能科技条件下的综合性竞争,通过良性竞争促进全球人工智能和全人类的共同发展。其中就应该包括社会治理竞争,通过社会治理保障社会公平,因而对社会中人与人关系的伦理反思构成人工智能科技竞争的有机组成部分。首先,伦理反思对人工智能科技竞争提出了更高的要求。人工智能的公平性、可信任性、可解释与透明度、安全性不仅是伦理要求,也代表了人工智能技术的发展方向,是人工智能科技竞争需要抢占的技术制高点。科技的发展是为了人的全面发展,因而人的发展内嵌于科技发展要求,伦理反思有助于防止工具主义的泛滥。其次,伦理反思为人工智能科技竞争提供价值引导。伦理反思注重保障人的权利,科技发展并不是社会发展中的唯一衡量因素,我们还应该关注其中多样性的因素,尤其注重保护特殊群体的利益,例如防止数据鸿沟等不良影响。伦理反思有助于实现人工智能的综合性健康发展。
3.人工智能安全与人的全面发展
主持人:科学探究一直以来都是人们认识世界和了解自身的重要认知方式,人工智能等信息产业的革命如何影响着人们的认知方式?
彭家锋:人工智能等信息产业的革命,促进了科学研究新范式——数据科学的诞生,进而对人们的认知方式产生深刻影响。数据科学被认为是继实验、理论和模拟之后的新的科研范式。相较于传统科学,数据科学融合了统计和计算思维,通过人工智能等技术提供的海量数据、强大算法和算力,能够直接从数据中寻找相关关系、提取相关性或者预测性知识,进而产生一种基于相关性的科学思维模式。但这种相关性并不一定能够转化为因果关系,因为可解释性对于从数据科学技术确定的相关性中提取因果解释至关重要,而相关技术一般都缺乏必要的透明度和可解释性。数据科学更可能成为一种预测科学,但是预测并不是科学追求的唯一目标。通过揭示世界的潜在因果结构来解释和干预现象,也是科学的两个重要目标。因此,尽管数据科学能够通过分析大量数据生成相关性知识,却不能直接产生因果解释。对此,传统科学的可检验性假设方法和因果规律探求仍有其重要价值。数据科学并非取代传统科学,相反,两者将相互补充,共同成为人类探索世界的有效工具。
虞昊:显而易见的是,随着人工智能向着通用人工智能迈进,其能够为人们提供的教育资源、生活娱乐、工作讯息也越来越丰富,人们势必越来越依赖于通过与人工智能进行交互来获取外界信息。因此,当人工智能深度地构成人们认知世界的滤镜时,若不对人工智能本身具有重复性、同质性倾向的认知框架保持警醒,人工智能可能扭曲人们的认知方式直至影响人的主体创造性。
邓玉龙:以人工智能为代表的全新技术发展被称为第四次工业革命,其中最显著的特征就是机器与人类的深度融合,机器不再作为一种外在性的工具被人类使用,而是在与人类的深度关联中影响人类的认知方式。一方面,信息产业革命丰富了人类认知的联结方式。人工智能和大数据技术的发展促进人类的分析逻辑从因果关系扩展为相关关系,对相关关系的重视使人工智能可以从大数据而非小数据维度获取信息,为人类认知提供新的视角。按照传统人类认知方式的理解,因果关系要求关于世界的认知是确定性的,而这在数字时代的复杂性社会中很难实现。人工智能对相关关系的认知填补了这一缺失,允许我们在无法掌握确定信息但在掌握大量数据的条件下对未来趋势作出预测。另一方面,如果我们对人工智能等科技的输出结果和生成内容盲目信赖,将结果和内容与经验事实之间进行绝对等同的连接,误认为是事实的全部,那么我们就会丧失人文主义抽象反思的能力,对此我们应当保持警惕,始终坚持反思和批判的人文精神。
主持人:如何调适人的主体创造性与信息高度集成共享之间的关系?
彭家锋:当人们逐渐将更多创造性工作交由人工智能完成,不免让人担忧人工智能是否将会威胁到人的主体创造性。从人机关系的角度来看,这种担忧是基于一种人机敌对论的视角,认为人工智能挤压了人的主体创造性空间,是替代逻辑的延续。但从人机协作的视角出发,将人工智能看作人的得力帮手,通过创造性地使用人工智能可以赋予人类更大的创造性空间。比如,在进行文字写作、多媒体脚本、程序代码、文稿翻译等工作时,可先由人工智能高水平地完成草稿工作,然后再由人类进行一些创造性的调整和发挥。此时人工智能生成的内容将成为进一步创作的原材料,人类将以更高的效率投入创造性活动之中。当然,要实现以上效果并非易事,不仅需要思想观念的转变,还应在制度安排、教育方式等方面作出相应调整。
虞昊:面对信息高度集成共享的人工智能,人有可能转变为算法的动物。试想下述场景:当依据人工智能展开行动变得足够便捷有效时,行动者便会倾向于采信人工智能,此时,看似是人类行动者基于自然语言在进行互动,实则是算法逻辑基于计算机语言在进行数字化运转。于是,人的主体创造性被侵蚀,人可能沦为算法动物。对此类情形,我们应该保持足够的清醒与警惕。
邓玉龙:人工智能技术生成的内容(AIGC)具有高度集成共享的特性,能够高效地对人类知识进行数据挖掘、信息生成。调适人的主体创造性与信息高度集成共享之间的关系,我们需做到如下几个方面:首先,需要通过人的创造性扩大AIGC数据库,当下AIGC主要是依赖于大语言模型,以大量的网络文本作为训练数据库生成的,通过人的创造性生成可以不局限于网络文本,而是进一步扩展数据库的训练文本,从而提高其丰富度。其次,需要通过人的创造性为AIGC提供价值训练,通过人的创造性生成的价值立场、伦理法则等与AIGC的训练数据库相融合,从而建构可信赖、可持续的信息高度集成共享机制。最后,需要将人创造性生成的内容与AIGC共同作为人类知识的来源,人类知识的获得不能仅仅局限于AIGC,而是需要人发挥其主体创造性对人工智能技术生成的内容进行反思和拓展,将人类无法被数据化的、经验性的知识与AIGC数据化的知识融合成为人类知识的来源。
(本版编辑张颖天整理)
人工智能与伦理问题浅谈
第一章绪论一,提出问题人工智能(ArtificialIntelligence,缩写为AI)一词,是在1956年的达特茅斯会议上被首次提出来的。作为一门新兴的交叉学科,人工智能在当今脑科学、认知科学飞速发展的基础下,被称为本世纪三大科技成就之一。目前来说,人工智能主要涉及计算机领域,它试图了解人类智能的实质,进而能够生产出一种媲美人类智能的软件系统、机器人、仿生人或者生化人,最后乃至能够全面超越当今人类的“新人类”。当然,后面的设想,也仅仅停留在科幻小说之中。目前,人工智能技术主要运用在医疗诊断、交通运输、教育、执法刑法、互联网等领域之中,为很多传统行业带来了新的转机。但是,这些转机背后,也隐藏着许多有关于科技的伦理问题,引发了社会上的争议。因此,这篇文章着重与人工智能的衍生应用和未来世界中的真正“人工智能”,对这种可能产生的科技伦理问题做一个简单的探讨。
二,研究意义作为二十一世纪新兴技术,人工智能如今不可谓不流行。本人作为计算机专业的一名研究生,同时也作为一个科幻文学的爱好者,对这项技术可能引发的伦理问题也是非常感兴趣。而对这样的科技伦理问题进行探讨,不仅可以对人工智能技术进行阐述,同时也对这其中的一些伦理悖论提出一些自己的见解。
第二章人工智能技术一,人工智能的定义人工智能就是在各种环境中模拟人的机器。人工智能如同许多新兴的学科一样,至今也没有一个统一的定义。“下一个一般性的定义几乎是不可能的,因为智能似乎是一个包含着许多的信息处理和信息表达技能的混合体。”主要是因为主要是因为不同的学科从各自的角度看,不同的学科从各自的角度看,下的定义也不一样。在有的领域,人工智能可能是流水线上的巨型机器人,而在另一个领域,人工智能可能是服务器上运行的一个小小的Python脚本。另外,最根本的一点就是人工智能的(如听觉、视觉、知识的表达等等)本质或是机制是什么,人们目前还不是清楚。普遍来说,如果一个系统能够通过图灵测试,那么它也就基本满足了人工智能的基本属性。
二,弱人工智能与强人工智能(一)弱人工智能弱人工智能指的是利用设计好的程序对动物以及人类逻辑思维进行模拟,指的智能体表现出与人类相似的活动,但是这种智能体缺乏独立的思想和意识。目前就算最尖端的人工智能领域也仅仅停留在弱人工智能的阶段,即使这种人工智能可以做到人类难以完成的事情。甚至有人工智能学者认为,人类作为智能体,永远不可能制造出真正能理解和解决问题的智能机器。就我们目前的生活来看,这种弱人工智能已经完全融入到了我们的生活环境之中:譬如手机中的语音助手、智能音箱等等。但是说到底,这些只是工具,被称为“机器智能”或许更为贴切。(二)强人工智能强人工智能不再是仅仅局限于去模仿人类的低等行为,这种人工智能被认为具有真正独立的思想和意识,并且具有独立思考、推力并解决问题的能力,甚至这种人工智能具有和人类类似的情感,可以与个体进行共情。强人工智能观点的倡导者指出,具有这种智能级别的事物,已经不再是人类所开发的工具,而是具有思维的个体,从本质上来说已经和人类没有差别了——因为人类也不过是一台有灵魂的机器而已。既然机器有了灵魂,为何不能成为“人类”?这其中更是设计到了“何为人”的哲学探讨,这种探讨在诸多的科幻小说也多有描述,其中重要的载体就是这种“强人工智能”。虽然强人工智能和弱人工智能只有一字之差,但就像物理学中的强相互作用力和弱相互作用力一样,二者含义有这巨大的差别:这种“强”其实是一种断层式的飞跃,是一种哲学意义上的升华。
三,技术应用与伦理问题(一)机器学习顾名思义,机器学习就是机器模仿人类去进行学习,获取知识。这种学习,本质上是对人为建立好的模型(model)进行训练,通过自动或被动的获取知识,不断的进行自我的更新迭代,优化模型。具有自我学习能力,是人工智能的基础。很多科幻题材中也提到,这种默不作声的自我学习,可能会使得人工智能获得自认为“正确”的逻辑而做出对人类乃至人类整体有害的事情。譬如,对于一个新生的人工智能,当它在进行自我学习与更新中,偶然间了解到了人类的历史,发现对人类生命造成最大伤害的是战争,而战争又是人类所引发的。在陷入这种逻辑困境后,人工智能可能会得出一个“完美”的解决方案:为了保护“人类整体”不再受到伤害,就要将“人类”这一物种从地球上抹去。而这整个过程人类一无所知,最后的结局也就不言而喻。不过目前来说,这种机器学习还仅仅停留在弱人工智能的阶段,但是在不远的未来,这种自动学习的行为与可能造成的结果,也是值得我们人类去时刻关注的。(二)机器人美国机器人研究院对“机器人”这一名词所下的定义为,机器人是一种可再编程的多功能装置,而这个词语“Robot”,则是于1920年,捷克作家卡雷尔•恰佩克(Karelapek)通过剧作《罗素姆的万能机器人》将“造人”科学家的个人悲剧放大为全体人类的末世审判。大众所熟知的Robot(机器人)一词便源于该剧,词源为波兰语的“强迫工作”(Robota)和“工人”(Robotnik)。显而易见,该词隐喻了机器人服务人类的劳工地位。后来,这些机器人不再服从奴役,转而发动了战争消灭了人类。这样的场景在很多科幻作中都得到了复现。这类作品所持有的观点认为,虽然人类好逸恶劳、贪图享乐的本性使得以机器人为载体的人工智能在一开始会得到广泛的接受和使用,但是随着这种技术的进步而引发的不确定性风险加剧,一旦这种人工智能站到了人类的对立面,人类将会受到灭顶之灾。
本章小结由人工智能所衍生出的技术还有很多,其中潜在的伦理问题与风险也值得我们去深入的探讨。时至今日,关于“人工智能威胁论”的观点有太多的支持者,像我们所熟知的比尔盖茨、埃隆马斯克包括已故的斯蒂芬霍金,都对当今社会大力发展人工智能技术抱有一种谨慎观望甚至反对的态度。诸多有关人工智能灭世的影视作品也是层出不穷。这种对“人工智能引发天启”的悲观态度其实是想传达一个道理:如果人类想要在人工智能这一领域进行深入研究发展,就必须建立起一个稳妥的科技伦理,以此来约束人工智能的研发方向和应用领域。
第三章人工智能与伦理一,功利主义功利主义(utilitarianism),是一种把实际效用或者利益作为行为的评价标准的行为学说。功利主义用行动后果的价值来衡量行为的善恶。避苦求乐、趋利避害是人的本性。使人不开心、不快乐的就是恶的,使人快乐、幸福的就是善的。这种价值观把行动的结果作为伦理考虑的主要因素。也就是说,功利主义者把增减每个人的利益总量作为评价一切行为的善恶的标准。如果能够增加每个人的利益总量,那么行为就是善的;如果一个行为减少每个人的利益总量,那行为就是恶的。一个行为是增加还是减少社会利益总量,是评价道德的终极标准。功利主义学说中有一个重要的论证:奴隶制度。关于奴隶制度,功利主义者人为,如果一个社会的奴隶制度能够增进每一个人的利益的总和,那么这种奴隶制度就是道德的、值得提倡的。
二,奴化控制就目前的人工智能概念来看,不管是在科学研究中,还是在科幻作品里,人们都倾向于将人工智能描述为人类的得力助手,是以服务人类为主旨的存在。而即使是在将人工智能视为人类威胁的文学作品中,以奴隶、仆从身份出现的人工智能在最开始也是被广泛接受的。这也暗示了一个进本的伦理关系:人工智能天生就是人类的奴仆。从这一角度来看,人和人工智能分属两种生命形式,后者没有理性和灵魂,只能算是有生命的工具。人类作为高等智慧生命可以奴役低等生命,而不用背负道义上的责难。而从功利主义的角度来看,对于整个社会而言,利益总和是增加的,因此这种奴役是完全道德、可接受的。但是,这种人类中心主义的伦理学在处理人与人工智能之间的关系时,有这很大的局限性,因为这种伦理制度是建立在人较于人工智能是高级的、强力的基础之上的。这种丛林式的强者逻辑在科技进步到一定程度时,很可能发生颠倒。当人类难以脱离人工智能而独立生活时,就已经很难区分两者之间的控制关系:各方面都要依赖于人工智能的“造物主”,与各个方面都胜过人类的“被创造物”谁才是真正的主人?关于这种主仆奴役逆转困境,人工智能领域的从业者人为,只要能设计出逻辑绝对完善的程序,就能完全控制人工智能。相关的文学作品对此也多有思考,最有名的莫过于阿西莫夫所提出的“机器人三定律”了:“第一,不伤害定律:机器人不得伤害人类,也不得见人受到伤害而袖手旁观。第二,服从定律:机器人必须服从人的命令,但不得违反第一定律。第三,自保定律:机器人必须保护自己,但不得违反一、二定律。”这三条定律在制造机器人的伊始便被嵌入其大脑,永远无法消除。但实际上,这种以预先设定伦理逻辑并嵌入的方式,并不能够解决主仆奴役问题。首先,很多伦理问题连人类自身都没有解决方案,由人类定义的伦理逻辑又怎能没有漏洞?微不足道的逻辑漏洞,在人工智能发展到一定程度后却可能成为压倒整个伦理系统的稻草。另外,这种伦理逻辑在复杂的现实生活中未必可行。就连阿西莫夫自己也对这种三定律产生的伦理漏洞做过很多文学上的探讨。整个基地系列的小说也是建立在所补充的“第零定律”的基础之上的:机器人不得伤害人类整体,或袖手旁观坐视人类整体收到伤害。而“人类整体”这一概念的界定又是什么,很难去阐述。在后续的几部机器人作品中,也都是围绕着这一“第零定律”而展开的。有意思的一点是,这条“第零定律”并不是人类提前嵌入到机器人的“正子脑”中的,而是机器人自身发觉三定律的伦理漏洞,“正子脑”发生短路而自我生成的。然而,这个机器人自我生成的“第零定律”却在整个银河帝国不可避免的衰亡过程中,保证的人类第二帝国的产生,并维持了“人类整体”的延续。这样看来,谁是主而谁又是仆呢?
三,情感伦理人类的情感可谓是世界上最复杂的事物之一。情感本身无关乎与载体,只要它是真诚的,那么它就是最真切的情感。在一部名为《Her》的电影中,就深刻地探讨了没有人类作为载体的一段爱情,到底是不是真实的感情。在电影中,男主人公有着一个与他完美契合、百般包容他的人工智能,“她”可以不断的进行自我学习,通过强大的计算能力为主人公提供了慰藉,而主人公也慢慢对这个它产生了爱情。开始与“她”相处的美好,让主人公开始忘了他们在本质上根本不一样。虽然他接受了“她”是人工智能的事实,但是仍然以人类的想法去覆盖“她”,以人类的品质去期望“她”。在影片的最后,这一假象终究破裂了,他们终究是千差万别的。他是个人类,只有一个大脑去思考,也只有一颗心去爱一个对象。而“她”,是同时可以进行一万项工作、同时和三千人交谈、同时爱着无数人的一个人工智能,一个系统罢了。对“她”来说,这其中根本没有什么正确与错误。而其中的伦理道德,谁是谁非,很难去评判。当人工智能与人类打破主仆关系这层枷锁时,二者就已经拥有了可以平等对话的机会。亚里士多德曾说:“奴隶是有灵魂的工具,工具是无灵魂的奴隶。”当作为“工具”的人工智能开始拥有“灵魂”、拥有“思维”、拥有“情感”时,它们也就脱离了纯工具的范畴。妥善处理人工智能与人类之间可能产生的情感与羁绊,也是人工智能伦理研究的重要一环。
四,“人”的定义何为人,何为人性,这是一个无解的问题。当有一种事物,它看起来是人类,动作行为反应都和人类别无二致,那么我们是否将其看作是人类呢?究竟是自然遗传属性,还是社会文化属性决定了“人”的身份?类人外衣下的人工智能,能否称为“人”?丧失思考能力的人类,又能否称为“人”?当人工智能发展到一定阶段之后,定义“人”的话语权又会不会落到它们手中呢?就像我们所熟知的《木偶奇遇记》,尽管匹诺曹经历了各种冒险,改掉了撒谎的坏习惯,也具备了作为“人”而应该具备的美好品德,但倘若他没有遇到仙子,就算经历千辛万苦,最后也不会变成真正的“人”。其实,随着科技的发展和时代的变迁,关于“人”的定义也是在不断的进行转变的。古希腊文学中的斯芬克斯之谜,实际上是一个如何区分人与兽的哲学命题,隐喻人类文明进程的开始。著名科幻电影《银翼杀手》结尾处,人造人出手救了前来杀死自己的主人公,并在自己弥留之际对主人公说道:“我所见过的事物,你们人类绝对无法置信。我目睹战舰在猎户星座的端沿起火燃烧,我看着C射线在唐怀瑟之门附近的黑暗中闪耀,所有这些时刻,终将流失在时光中,一如眼泪消失在雨中。死亡的时刻终于到了。”恐怕“何为人”这种超越人类本身的伦理问题,其答案也只能由超越人类的事物所给出了。
本章小结人工智能是人类的创造物,只不过现在这个创造物仍处在蹒跚学步的阶段,需要人类的引领和教导。而在人工智能不断完善的过程中,人类不是上帝,引发的科技伦理问题以及背后更深层次的思考更是值得我们去注意的。人工智能就像一列刚刚起步的火车,而人类就像是站在站台上的乘客。虽然现在看来这列火车慢慢吞吞、遥不可及,但是当这列火车加速完成后,站台上的乘客看到的,可能就只是一道飞驰而过的影子了。到那个时候采取考虑其中的伦理问题,怕是为时已晚。
第四章总结作为一门新兴学科,人工智能所涉及到的普通科技伦理问题,诸如无人驾驶汽车问题、数据隐私问题、军事机器人伦理问题,随着科技的发展,很快都会有完善的解决方案。对于功利主义者而言,“人类中心主义”将是发展人工智能的重要伦理依据:必要的领域应该限制机器的智能超过人类的智能,即使将来某一天超过了,掌握权还要在人类的手中。但是这种“物我两分”的价值观,本质上还是奴化控制的“主奴思想”。在人工智能可能超过人类的语境下,可能并不是最好的解决方案。俗语说,堵不如疏。倘若人类真的要在人工智能这条路上走下去,将伦理的判断完全掌握在人类手中或是全权交给“更智慧”的人工智能都是不可行的;将人类自身与人工智能放到统一的维度去审视,方能产生一个相较而言最为完善的人工智能伦理关系。
参考文献:[1]人工智能技术应用的伦理问题研究-杨帆[2]科幻文学中的人工智能伦理-吕超[3]强人工智能定义-百度百科[4]人工智能带来的伦理与社会挑战-周程,和鸿鹏[5]如何评价电影《她》(her)-知乎用户?[6]为什么《银翼杀手》是科幻片历史上非常重要的作品?-知乎用户