人工智能的伦理挑战与科学应对
【光明青年论坛】
编者按
2023年2月21日,中国外交部正式发布《全球安全倡议概念文件》,呼吁“加强人工智能等新兴科技领域国际安全治理,预防和管控潜在安全风险”。在中国式现代化进程中,人工智能的技术革新是助推我国科技创新的重要力量之一。作为最具代表性的颠覆性技术,人工智能在给人类社会带来潜在巨大发展红利的同时,其不确定性也会带来诸多全球性挑战,引发重大的伦理关切。习近平总书记高度关注人工智能等新兴科技的发展,强调要加快提升“人工智能安全等领域的治理能力”,“塑造科技向善的文化理念,让科技更好增进人类福祉”。为此,本版特组织几位青年学者围绕人工智能的伦理挑战与科学应对展开讨论,并邀请专家予以点评,以期引发学界的更多关注,为推动人工智能健康发展贡献智慧。
与谈人
彭家锋 中国人民大学哲学院博士生
虞昊 华东师范大学政治与国际关系学院博士生
邓玉龙 南京师范大学哲学系博士生
主持人
刘永谋 中国人民大学哲学院教授、国家发展与战略研究院研究员
1.机遇与挑战并存的人工智能
主持人:新技术革命方兴未艾,以人工智能等为代表的新兴科技快速发展,大大拓展了时间、空间和人们的认知范围,人类正在进入一个“人机物”相融合的万物智能互联时代。请具体谈谈人工智能给人类社会发展带来什么样的机遇?
彭家锋:人工智能、大数据、物联网、云计算等智能技术蓬勃兴起,对人类社会的方方面面产生深刻影响,推动整个社会逐步迈入智能社会。在此过程中,存在许多重大历史机遇需要我们把握。就技术治理而言,人工智能作为一种治理技术,正在助推社会治理的治理理念、治理方式、治理效能等方面的变革,将传统技术治理提升至智能化新阶段,呈现出“智能治理的综合”趋势。智能治理将全面提升社会公共治理的智能化水平,主要呈现出四个方面的特征:一是治理融合化,即促进各种智能技术与其他治理技术相互融合,大幅度提升智能社会的治理水平;二是治理数据化,即以日益增长的海量数据为基础,通过对数据映射出来的“数字世界”进行社会计算,实现治理目标;三是治理精准化,即发挥智能技术强大的感知能力、传输能力和计算能力,将传统的粗放治理转变为精准治理;四是治理算法化,即不断完善智能决策系统,尝试将程序化的算法决策扩展到更多的决策活动中,从而提高决策质量。
虞昊:人工智能有助于反思人类社会得以建立与发展的基础。随着分析式AI向着生成式AI不断演变,尤其是生成式AI初步展现出判别问题、分析情感、展开对话、创作内容等越来越具有人类特征的功能,原本属于人类的领域正被人工智能以另一套由“0”与“1”构成的计算机语言逐步侵蚀。这既是对人类社会的冲击,也势必会在更加平等的开放性框架中增强人类的主体性,促进人类社会进一步发展。
邓玉龙:总体来说,以人工智能为代表的新科技发展,显著提升了社会生产力。例如,生成式AI不但能完成传统AI的分析、判断工作,还能进一步学习并完成分析式AI无法从事的创造性工作。从人机交互的角度来看,人工智能也促进了生产关系的高效发展。具体表现在:一是刺激劳动形态的转化。人工智能高效承担大量的基础机械性劳动,人类劳动则向高阶的创造性劳动转化,由此引发社会层面的劳动结构转型、升级,并且以人工智能为中介,社会范围内的劳动整合、协调能力也实现升级。二是促进劳动场域的重构。随着劳动形态的转化和劳动的社会化扩展,人工智能将劳动从固定场域中解放出来,人类劳动的灵活性增加。相比于创造性劳动,机械性劳动更加受到空间和时间的制约,而在人工智能从技术层面替代更低边际成本的基础性劳动之后,人类劳动空间和时间的自由性实现跃迁。三是对主体的发展提出了更高要求,尤其是对主体适应社会发展提出了更高要求。人工智能技术的发展对人类传统的知识结构提出挑战,要求人类更新原有的知识结构以适应社会发展需要,也对教育提出更高要求,教育模式和教育内容需要更契合科技发展的水平,培养更加全面发展的人才。
主持人:人工智能的一系列产物在给人们带来生活便利的同时,也一定程度上引起大家对其可能引发的伦理挑战的警惕。一些人关注人工智能的风险问题,对人工智能的推进有些焦虑。如何看待这种警惕和焦虑?
虞昊:人工智能的风险以及由此带来的焦虑,是完全可以理解的。但我们无法返回一个没有人工智能的世界,人工智能已然深度介入人类社会,试图遏制人工智能的推进只能是螳臂当车。同时我们对人工智能的发展也不能放任不管,无视甚至于压制人工智能的推进只能是掩耳盗铃。因此,我们应该正视这种焦虑,在发展人工智能的过程中探求解决方案,在人工智能带来的风险中寻求危中之机。
邓玉龙:我们应正确看待这种焦虑。要看到,焦虑有其积极的意义,它体现人类的忧患意识,催生对人工智能风险的预见性思考,提醒我们注意焦虑背后人工智能技术发展存在的问题。正确对待焦虑有助于积极采取措施防范风险,辩证分析焦虑中先见性的思考,通过社会治理模式的升级化解风险问题。同时,仅有焦虑和恐惧是不够的,更重要的是积极解决人工智能发展带来的社会问题。从劳动的角度看,人工智能确实会取代部分人类劳动,推动劳动结构转型升级,让劳动向着碎片化、个体化方向发展,劳动者处于弱势地位,面临着“机器换人”的挑战。但是我们也应该理性认识到,人工智能不是对人类劳动能力的完全替代,而是对劳动者提出了更高的要求,要求劳动者掌握科学知识,将技术的发展内化为自身能力,在更具创造性的劳动中实现自身价值。
彭家锋:任何技术的发明使用,不可避免地伴随着这样或那样的风险。人工智能技术自然也不例外,在其应用过程中,同样引发了诸如隐私泄露、算法歧视、法律责任等风险问题。因此,关注人工智能的风险问题,并由此对人工智能的推进产生焦虑,具有一定理论依据和现实基础。但更应当清醒地认识到,人工智能的某些相关风险可以提前得到规避,并不必然会发生;即便真的发生,也仍可不断寻求化解风险的有效手段。以个人隐私滥用风险为例,在治理过程中,虽然不可避免地会涉及个人数据收集和分析处理,但可以通过建立完整的规范和监管体系来保护个人隐私,降低滥用风险。
2.人工智能科技竞争的“伦理赛道”
主持人:习近平总书记在以视频方式出席二十国集团领导人第十五次峰会时指出,“中方支持围绕人工智能加强对话,倡议适时召开专题会议,推动落实二十国集团人工智能原则,引领全球人工智能健康发展”。请谈谈“人工智能原则”应包含哪些内容?科技向善的文化理念对推动全球人工智能健康发展具有怎样的现实价值?
彭家锋:为应对人工智能等新科技快速发展带来的伦理挑战,2022年,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,其中明确了“增进人类福祉”“尊重生命权利”“坚持公平公正”“合理控制风险”“保持公开透明”等五项科技伦理原则。我认为,这五项原则基本涵盖了人工智能原则的伦理要求,彰显了科技向善的文化理念。科技向善的文化理念,根本目标是让科技发展更好地服务社会和人民,带来良好社会或社会公益的善。科技向善对推动全球人工智能健康发展至少具有以下三个方面现实价值:一是塑造公众信任。公众对人工智能的信任很大程度上并不完全由相关风险程度决定,而是取决于公众的利益与价值是否得到足够重视。后者正是科技向善的内在要求。二是引领技术创新。科技向善的文化理念将在技术创新发展过程中发挥价值引领作用。三是促进全球合作。科技向善的文化理念试图在全球范围内建立人工智能伦理规范的“最大公约数”,各国在达成伦理共识的基础之上,能够建立互信,实现更加充分深入的国际合作。
虞昊:个人认为,人工智能原则也应包含非对抗与非失控的理念。非对抗意味着不应将人工智能视作人类社会的对抗性存在,人工智能已经成为人类社会的构成性要素,我们必须持更为开放的态度去面对人工智能。非失控意味着不应放弃对人工智能的伦理规范,应以智能的方式去规范加速发展的人工智能。如果以上述理念为前提,也就是说,在支持人工智能发展的情况下,科技向善的文化理念在推动全球人工智能健康发展中就变得极为重要。此处的“善”在国家治理层面即指向“善治”,而当人工智能的发展从国家范围扩展到全球范围,“善治”就在构建人类命运共同体的意义上拥有了更贴近现实的内涵。各国应摒弃冷战思维与零和博弈,基于善意与友谊共同思考人类作为整体如何在人工智能的冲击下通往全球性的“善治”。
邓玉龙:2019年欧盟发布《可信赖的人工智能伦理准则》,2021年中国国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》(以下简称《规范》)。与欧盟发布的伦理准则相比,《规范》体现了中国特色社会主义的制度优势,旨在将伦理规范融入人工智能全生命周期。人工智能发展的根本目的是促进人的全面发展,因此,我以为,人工智能原则还应体现共享和有序发展的要求。共享,旨在防止人工智能的技术垄断。科技发展应该兼顾全体人民的利益,而不是服务于少数群体,由全体人民共享科技发展成果,推动全球科技水平的共同增长。有序发展,旨在防止人工智能技术的无序扩张。人工智能技术的发展最终是为了提升人的幸福感,推动科技有序发展能够促进人机和谐融合,有效预防潜在无序扩张的风险。
主持人:从规范层面来说,伦理反思对规范人工智能发展的作用主要体现在哪些方面?
彭家锋:近年来,世界各主要国家在人工智能领域竞争日趋激烈,纷纷将人工智能发展置于国家发展的战略层面。比如,美国陆续出台《国家人工智能研究和发展战略计划》(2016)和《关于维持美国在人工智能领域领导地位的行政命令》(2019);欧盟先后发布《欧洲人工智能战略》(2018)和《人工智能白皮书》(2020);中国也较早发布了《“互联网+”人工智能三年行动实施方案》(2016)和《新一代人工智能发展规划》(2017)。人工智能科技竞争的客观局面已然形成。在此背景下,如果忽视人工智能技术发展所带来的全球性风险与挑战,极有可能陷入技术赶超的竞争逻辑。因此,亟须规范人工智能的科技竞争,而倡导伦理反思或许就是一条可行之路。伦理反思的意义至少在于:一是设定伦理底线。人工智能技术的开发和应用需要遵循一些基本的价值理念和行为规范。只有守住伦理底线,才有可能避免颠覆性风险的发生。二是实现敏捷治理。伦理反思是一个动态、持续的过程,贯穿于人工智能科技活动的全生命周期。为了确保其始终服务于增进人类福祉和科技向善的初衷,需要保持应有的道德敏感性,以灵活、及时、有效的手段化解人工智能带来的各种伦理挑战,确保其在科技向善的道路上行稳致远,实现良性发展。
邓玉龙:人工智能科技竞争是为了促进科学技术发展,而科学技术发展的最终目的是推动人类社会的进步。人工智能科技竞争不应该仅包括技术竞争的单一维度,更不应该通过技术优势遏制他国的科技发展,而应该是在人工智能科技条件下的综合性竞争,通过良性竞争促进全球人工智能和全人类的共同发展。其中就应该包括社会治理竞争,通过社会治理保障社会公平,因而对社会中人与人关系的伦理反思构成人工智能科技竞争的有机组成部分。首先,伦理反思对人工智能科技竞争提出了更高的要求。人工智能的公平性、可信任性、可解释与透明度、安全性不仅是伦理要求,也代表了人工智能技术的发展方向,是人工智能科技竞争需要抢占的技术制高点。科技的发展是为了人的全面发展,因而人的发展内嵌于科技发展要求,伦理反思有助于防止工具主义的泛滥。其次,伦理反思为人工智能科技竞争提供价值引导。伦理反思注重保障人的权利,科技发展并不是社会发展中的唯一衡量因素,我们还应该关注其中多样性的因素,尤其注重保护特殊群体的利益,例如防止数据鸿沟等不良影响。伦理反思有助于实现人工智能的综合性健康发展。
3.人工智能安全与人的全面发展
主持人:科学探究一直以来都是人们认识世界和了解自身的重要认知方式,人工智能等信息产业的革命如何影响着人们的认知方式?
彭家锋:人工智能等信息产业的革命,促进了科学研究新范式——数据科学的诞生,进而对人们的认知方式产生深刻影响。数据科学被认为是继实验、理论和模拟之后的新的科研范式。相较于传统科学,数据科学融合了统计和计算思维,通过人工智能等技术提供的海量数据、强大算法和算力,能够直接从数据中寻找相关关系、提取相关性或者预测性知识,进而产生一种基于相关性的科学思维模式。但这种相关性并不一定能够转化为因果关系,因为可解释性对于从数据科学技术确定的相关性中提取因果解释至关重要,而相关技术一般都缺乏必要的透明度和可解释性。数据科学更可能成为一种预测科学,但是预测并不是科学追求的唯一目标。通过揭示世界的潜在因果结构来解释和干预现象,也是科学的两个重要目标。因此,尽管数据科学能够通过分析大量数据生成相关性知识,却不能直接产生因果解释。对此,传统科学的可检验性假设方法和因果规律探求仍有其重要价值。数据科学并非取代传统科学,相反,两者将相互补充,共同成为人类探索世界的有效工具。
虞昊:显而易见的是,随着人工智能向着通用人工智能迈进,其能够为人们提供的教育资源、生活娱乐、工作讯息也越来越丰富,人们势必越来越依赖于通过与人工智能进行交互来获取外界信息。因此,当人工智能深度地构成人们认知世界的滤镜时,若不对人工智能本身具有重复性、同质性倾向的认知框架保持警醒,人工智能可能扭曲人们的认知方式直至影响人的主体创造性。
邓玉龙:以人工智能为代表的全新技术发展被称为第四次工业革命,其中最显著的特征就是机器与人类的深度融合,机器不再作为一种外在性的工具被人类使用,而是在与人类的深度关联中影响人类的认知方式。一方面,信息产业革命丰富了人类认知的联结方式。人工智能和大数据技术的发展促进人类的分析逻辑从因果关系扩展为相关关系,对相关关系的重视使人工智能可以从大数据而非小数据维度获取信息,为人类认知提供新的视角。按照传统人类认知方式的理解,因果关系要求关于世界的认知是确定性的,而这在数字时代的复杂性社会中很难实现。人工智能对相关关系的认知填补了这一缺失,允许我们在无法掌握确定信息但在掌握大量数据的条件下对未来趋势作出预测。另一方面,如果我们对人工智能等科技的输出结果和生成内容盲目信赖,将结果和内容与经验事实之间进行绝对等同的连接,误认为是事实的全部,那么我们就会丧失人文主义抽象反思的能力,对此我们应当保持警惕,始终坚持反思和批判的人文精神。
主持人:如何调适人的主体创造性与信息高度集成共享之间的关系?
彭家锋:当人们逐渐将更多创造性工作交由人工智能完成,不免让人担忧人工智能是否将会威胁到人的主体创造性。从人机关系的角度来看,这种担忧是基于一种人机敌对论的视角,认为人工智能挤压了人的主体创造性空间,是替代逻辑的延续。但从人机协作的视角出发,将人工智能看作人的得力帮手,通过创造性地使用人工智能可以赋予人类更大的创造性空间。比如,在进行文字写作、多媒体脚本、程序代码、文稿翻译等工作时,可先由人工智能高水平地完成草稿工作,然后再由人类进行一些创造性的调整和发挥。此时人工智能生成的内容将成为进一步创作的原材料,人类将以更高的效率投入创造性活动之中。当然,要实现以上效果并非易事,不仅需要思想观念的转变,还应在制度安排、教育方式等方面作出相应调整。
虞昊:面对信息高度集成共享的人工智能,人有可能转变为算法的动物。试想下述场景:当依据人工智能展开行动变得足够便捷有效时,行动者便会倾向于采信人工智能,此时,看似是人类行动者基于自然语言在进行互动,实则是算法逻辑基于计算机语言在进行数字化运转。于是,人的主体创造性被侵蚀,人可能沦为算法动物。对此类情形,我们应该保持足够的清醒与警惕。
邓玉龙:人工智能技术生成的内容(AIGC)具有高度集成共享的特性,能够高效地对人类知识进行数据挖掘、信息生成。调适人的主体创造性与信息高度集成共享之间的关系,我们需做到如下几个方面:首先,需要通过人的创造性扩大AIGC数据库,当下AIGC主要是依赖于大语言模型,以大量的网络文本作为训练数据库生成的,通过人的创造性生成可以不局限于网络文本,而是进一步扩展数据库的训练文本,从而提高其丰富度。其次,需要通过人的创造性为AIGC提供价值训练,通过人的创造性生成的价值立场、伦理法则等与AIGC的训练数据库相融合,从而建构可信赖、可持续的信息高度集成共享机制。最后,需要将人创造性生成的内容与AIGC共同作为人类知识的来源,人类知识的获得不能仅仅局限于AIGC,而是需要人发挥其主体创造性对人工智能技术生成的内容进行反思和拓展,将人类无法被数据化的、经验性的知识与AIGC数据化的知识融合成为人类知识的来源。
(本版编辑张颖天整理)
人工智能应用中的安全、 隐私和伦理挑战及应对思考
隐私保护挑战
大数据驱动模式主导了近年来人工智能的发展,成为新一轮人工智能发展的重要特征。隐私问题是数据资源开发利用中的主要威胁之一,因此,在人工智能应用中必然也存在隐私侵犯风险。
数据采集中的隐私侵犯
随着各类数据采集设施的广泛使用,智能系统不仅能通过指纹、心跳等生理特征来辨别身份,还能根据不同人的行为喜好自动调节灯光、室内温度、播放音乐,甚至能通过睡眠时间、锻炼情况、饮食习惯以及体征变化等来判断身体是否健康。然而,这些智能技术的使用就意味着智能系统掌握了个人的大量信息,甚至比自己更了解自己。这些数据如果使用得当,可以提升人类的生活质量,但如果出于商业目的非法使用某些私人信息,就会造成隐私侵犯。
云计算中的隐私风险
因为云计算技术使用便捷、成本低廉,提供了基于共享池实现按需式资源使用的模式,许多公司和政府组织开始将数据存储至云上。将隐私信息存储至云端后,这些信息就容易遭到各种威胁和攻击。由于人工智能系统普遍对计算能力要求较高,目前在许多人工智能应用中,云计算已经被配置为主要架构,因此在开发该类智能应用时,云端隐私保护也是人们需要考虑的问题。
知识抽取中的隐私问题
由数据到知识的抽取是人工智能的重要能力,知识抽取工具正在变得越来越强大,无数个看似不相关的数据片段可能被整合在一起,识别出个人行为特征甚至性格特征。例如,只要将网站浏览记录、聊天内容、购物过程和其他各类别记录数据组合在一起,就可以勾勒出某人的行为轨迹,并可分析出个人偏好和行为习惯,从而进一步预测出消费者的潜在需求,商家可提前为消费者提供必要的信息、产品或服务。但是,这些个性化定制过程又伴随着对个人隐私的发现和曝光,如何规范隐私保护是需要与技术应用同步考虑的一个问题。
伦理规范挑战
伦理问题是人工智能技术可能带给人们的最为特殊的问题。人工智能的伦理问题范围很广,其中以下几个方面值得关注。
机器人的行为规则
人工智能正在替代人的很多决策行为,智能机器人在作出决策时,同样需要遵从人类社会的各项规则。比如,假设无人驾驶汽车前方人行道上出现3个行人而无法及时刹车,智能系统是应该选择撞向这3个行人,还是转而撞向路边的1个行人?人工智能技术的应用,正在将一些生活中的伦理性问题在系统中规则化。如果在系统的研发设计中未与社会伦理约束相结合,就有可能在决策中遵循与人类不同的逻辑,从而导致严重后果。
机器人的权力
目前在司法、医疗、指挥等重要领域,研究人员已经开始探索人工智能在审判分析、疾病诊断和对抗博弈方面的决策能力。但是,在对机器授予决策权后,人们要考虑的不仅是人工智能的安全风险,而且还要面临一个新的伦理问题,即机器是否有资格这样做。随着智能系统对特定领域的知识掌握,它的决策分析能力开始超越人类,人们可能会在越来越多的领域对机器决策形成依赖,这一类伦理问题也需要在人工智能进一步向前发展的过程中梳理清楚。
机器人的教育
有伦理学家认为,未来机器人不仅有感知、认知和决策能力,人工智能在不同环境中学习和演化,还会形成不同的个性。据新华网报道,国外研发的某聊天机器人在网上开始聊天后不到24个小时,竟然学会了说脏话和发表种族主义的言论,这引发了人们对机器人教育问题的思考。尽管人工智能未来未必会产生自主意识,但可能发展出不同的个性特点,而这是受其使用者影响的。机器人使用者需要承担类似监护人一样的道德责任甚至法律责任,以免对社会文明产生不良影响。
启示与建议
人类社会即将进入人机共存的时代,为确保机器人和人工智能系统运行受控,且与人类能和谐共处,在设计、研发、生产和使用过程中,需要采取一系列的应对措施,妥善应对人工智能的安全、隐私、伦理问题和其他风险。
加强理论攻关,研发透明性和可解释性更高的智能计算模型
在并行计算和海量数据的共同支撑下,以深度学习为代表的智能计算模型表现出了很强的能力。但当前的机器学习模型仍属于一种黑箱工作模式,对于AI系统运行中发生的异常情况,人们还很难对其中的原因作出解释,开发者也难以准确预测和把握智能系统运行的行为边界。未来人们需要研发更为透明、可解释性更高的智能计算模型,开发可解释、可理解、可预测的智能系统,降低系统行为的不可预知性和不确定性,这应成为人工智能基础理论研究的关注重点之一。
开展立法研究,建立适应智能化时代的法律法规体系
欧盟、日本等人工智能技术起步较早的地区和国家,已经意识到机器人和人工智能进入生活将给人类社会带来的安全与伦理问题,并已着手开展立法探索,如2016年5月,欧盟法律事务委员会发布《就机器人民事法律规则向欧盟委员会提出立法建议》的报告草案,探讨如何从立法角度避免机器人对人类的伤害。有效应对未来风险挑战需强化立法研究,明确重点领域人工智能应用中的法律主体以及相关权利、义务和责任,建立和完善适应智能时代的法律法规体系。
制定伦理准则,完善人工智能技术研发规范
当人工智能系统决策与采取行动时,人们希望其行为能够符合人类社会的各项道德和伦理规则,而这些规则应在系统设计和开发阶段,就需被考虑到并被嵌入人工智能系统。因此,需要建立起人工智能技术研发的伦理准则,指导机器人设计研究者和制造商如何对一个机器人做出道德风险评估,并形成完善的人工智能技术研发规范,以确保人工智能系统的行为符合社会伦理道德标准。
提高安全标准,推行人工智能产品安全认证
可靠的人工智能系统应具有强健的安全性能,能够适应不同的工况条件,并能有效应对各类蓄意攻击,避免因异常操作和恶意而导致安全事故。这一方面需要提高人工智能产品研发的安全标准,从技术上增强智能系统的安全性和强健性,比如完善芯片设计的安全标准等;另一方面要推行智能系统安全认证,对人工智能技术和产品进行严格测试,增强社会公众信任,保障人工智能产业健康发展。
建立监管体系,强化人工智能技术和产品的监督
由于智能系统在使用过程中会不断进行自行学习和探索,很多潜在风险难以在研发阶段或认证环节完全排除,因此加强监管对于应对人工智能的安全、隐私和伦理等问题至关重要。建议在国家层面建立一套公开透明的人工智能监管体系,实现对人工智能算法设计、产品开发、数据采集和产品应用的全流程监管,加强对违规行为的惩戒,督促人工智能行业和企业自律。
推动全球治理,共同应对风险挑战
人工智能的快速发展是全球各国共同面临的问题,应明确科学家共同体、政府与国际组织各自的职责,引导各国积极参与人工智能全球治理。加强机器人伦理和安全风险等人工智能国际共性问题研究,深化人工智能法律法规、行业监管等方面的交流合作,推进人工智能技术标准和安全标准的国际统一,使人工智能科技成就更好地服务于人类社会。
致谢:本研究受科技部改革发展专项“中国人工智能2.0规划编制”(2016GH010036)、科技部科技创新战略研究专项“重大科技项目和科技工程形成机制研究”(ZLY2015133)资助。
(责任编辑王丽娜)
作者简介:李修全,中国科学技术发展战略研究院,副研究员。注:本文发表在2017年第15期《科技导报》,欢迎关注。本文部分图片来自互联网,版权事宜未及落实,欢迎图片作者与我们联系稿酬事宜。
返回搜狐,查看更多
人工智能引发伦理争议不断,有的问题直接颠覆你的三观!
0分享至作者:袁勇
当前,人工智能浪潮方兴未艾,在很多领域展示出巨大应用前景。然而,随着人工智能技术的不断发展,它引发的伦理争议也不断出现。
近日,中国发展研究基金会发布报告——《未来基石——人工智能的社会角色与伦理》。针对人工智能伦理问题,报告在提出一系列建议的同时,也希望推动问题的充分讨论。
对人工智能的讨论足够了吗
迄今为止,我们对人工智能可能会带来的挑战仍知之甚少,严肃的公共讨论还十分缺乏
要理解人工智能的社会影响,首先要认识人工智能在社会发展中的独特作用。在人类发展进程中,知识的增长和社会协作体系的扩展起到了重要作用,而这一切都离不开人类大脑提供的智能基础。
报告认为,人工智能的发展,将带来知识生产和利用方式的深刻变革,人工智能不仅意味着前沿科技和高端产业,未来也可以广泛用于解决人类社会面临的长期性挑战。从消除贫困到改善教育,从提供医疗到促进可持续发展,人工智能都大有用武之地。
法国生产的EZ10无人驾驶公交车已正式投入运行,随着人工智能技术不断发展,相关法律、法规亟待完善。(资料图片)
例如,人工智能可以大幅度降低医疗服务的成本,缓解医疗人才不足的局面。在教育领域,人工智能能够分析人们获取知识的方式,然后利用这些信息开发出相应模型,来预测人们的投入和理解程度。人工智能还可以改变贫困地区高水平教师不足、教学质量低下的局面,促进教育公平。
此外,人工智能可以服务于残障人士。例如,微软最近在ios应用程序商店推出了一款名为“seeingAI”的产品,帮助失明和弱视人群应对日常生活中的问题。“seeingAI”的开发团队包括一名在7岁时就失明的工程师,这一应用程序尽管还处于早期阶段,但已证明人工智能可以捕捉用户周围的图像并即时描述。比如,它可以读取菜单、清点货币等,从而帮助残障人士提高生活能力。
然而,迄今为止,我们对人工智能可能会带来的挑战仍知之甚少,严肃的公共讨论还十分缺乏。社会公众对人工智能的想象在很大程度上仍被科幻小说和影视作品所主导,而对于人工智能在未来可能产生的影响,更是缺乏认知和关切。在政策层面,对于人工智能的关注很大程度上仍集中于技术和经济层面,缺乏整体性的思考和讨论。尽管有少数哲学和社科领域的学者开始关注人工智能带来的伦理问题和社会挑战,但这些讨论并未进入公共政策视界,而且讨论的重点也多集中在超级人工智能这样仍相对遥远的议题上。
报告认为,在人工智能问题上,围绕可能出现的挑战,无知、忽视、偏狭、误解交织在一起,可能会导致真正的风险。
人工智能会带来哪些伦理挑战
从人文视角来看,人工智能带来了一些有可能撼动社会基础的根本性问题
中国发展研究基金会副理事长兼秘书长卢迈表示,人工智能发展将进一步释放社会活力,中国应积极拥抱人工智能,充分利用好它对生产力的解放效应。但是,把握机遇的前提是了解并预防风险,这需要我们在伦理学和社会治理上下功夫。
中国发展研究基金会秘书长助理、研究一部主任俞建拖认为,社会应该正视人工智能带来的挑战,并超越纯技术和经济的视角,从社会和人文视角去探讨人工智能带来的影响。
报告认为,从人文视角来看,人工智能带来了一些已经在发生或即将发生、有可能撼动我们社会基础的根本性问题。
随着人工智能的不断发展,我们对于人的理解越来越物化和去意义化,人和机器的边界越来越模糊,我们需要思考这种边界模糊的后果。我们该如何对待机器和自身的关系?人和机器应该整合吗?如果人对快乐和痛苦的感受可以通过其他物理和化学手段来满足,那么,人还有参与社会互动的需要和动力吗?
人工智能还带来了新的社会权力结构问题。借助人工智能,企业可以赋予每个用户大量的数据标签,并基于这些标签了解人的偏好和行为,甚至超过用户对自己的了解,这是巨大的权利不对称。
此外,人工智能可能会造成偏见强化。在社交媒体中,人工智能将观点相近的人相互推荐,新闻推送也常常存在路径依赖。当人们的信息来源越来越依赖于智能机器,偏见会在这种同化和路径依赖中被强化。
人工智能还使社会的信息和知识加工处理能力被极大放大,信息和知识的冗余反而使人陷入选择困境。如果人参与社会互动的次数和范围缩小,而人工智能越来越多介入到知识的生产中,知识与人的需求之间的关系将变得越来越间接,甚至会反过来支配人的需求。
尽管人工智能也会推动进一步的专业化分工和创造新的工作机会,但并非所有人都有能力迈过技术性和社会性壁垒。尤瓦尔·赫拉利在《未来简史》中警告,未来社会可能会出现“无用阶级”,这种担心并非全无道理。
人工智能也对传统的法律法规和社会规范提出了挑战。譬如,无人驾驶汽车一旦出现事故,我们究竟该归因于开发产品的企业、产品拥有者还是人工智能产品本身?
如何构建人工智能的伦理规范
考虑到人工智能的深远影响,需要全社会共同努力,制定开发和应用的伦理规范和政策方向
人工智能正帮助人类社会向充满不确定性的未来疾驰。在冲进未知之门之前,需要给它装上刹车,让它真正能行稳致远,这个刹车就是伦理规范和公共政策准则。
当前,已经有一些人工智能领先企业关注人工智能开发和应用的伦理问题。微软公司总裁施博德表示,要设计出可信赖的人工智能,必须采取体现道德原则的解决方案,因此微软提出6个道德基本准则:公平、包容、透明、负责、可靠与安全、隐私与保密。谷歌公司也表示,在人工智能开发应用中,坚持包括公平、安全、透明、隐私保护在内的7个准则,并明确列出了谷歌“不会追求的AI应用”。
报告认为,这些企业的前瞻性探索十分重要。但是,考虑到人工智能对未来社会的深远影响,还需要全社会和各国政府的共同努力,制定人工智能开发和应用的伦理规范和政策方向,为其未来健康发展奠定基础。
为此,报告提出了一系列建议:在社会层面,高校和研究机构开展前瞻性科技伦理研究,为相关规范和制度的建立提供理论支撑;各国政府、产业界、研究人员、民间组织和其他利益攸关方展开广泛对话和持续合作,通过一套切实可行的指导原则,鼓励发展以人为本的人工智能;人工智能企业应该将伦理考量纳入企业社会责任框架中;投资机构应将伦理问题纳入ESG(环境、社会和治理)框架,引导企业进行负责任的人工智能产品开发;社会组织可以通过培训、发布伦理评估报告、总结代表性案例等方式,推动人工智能伦理规范的构建。
报告建议,在公共政策层面,人工智能研发和应用的政策应该将人置于核心,满足人全面发展的需求,促进社会的公平和可持续发展;政府需要设立专项资金,支持大学和研究机构开展人工智能等前沿科技的伦理研究;政府还需要给予不同人群以学习了解人工智能的机会,推动全社会对人工智能的知识普及和公共政策讨论;优先鼓励人工智能应用于解决社会领域的突出挑战,包括减少贫困和不平等,促进弱势群体融入社会并参与社会发展进程;应组建由政府部门和行业专家组成的人工智能伦理委员会,对人工智能的开发和应用提供伦理指引,并对具有重大公共影响的人工智能产品进行伦理与合法性评估。
此外,对于人工智能的规范发展也需要更广泛的国际合作。清华大学公共管理学院院长薛澜表示,“人工智能的发展将在创新治理、可持续发展和全球安全合作3个方面对现行国际秩序产生深刻影响,需要各国政府与社会各界从人类命运共同体的高度予以关切和回应。只有加强各国之间的合作与交流,才可能真正构建起一套全球性的、共建共享、安全高效、持续发展的人工智能治理新秩序”。
报告也建议,各国政府应促进数据共享技术,为人工智能培训和测试提供共享的公共数据集。在个人信息得到保护的前提下,促进数据的自由流通;并加强国际合作,建立多层次的国际人工智能治理机制。各国政府应通过联合国、G20以及其他国际平台,将人工智能发展纳入国际合作议程,利用人工智能推动联合国2030年可持续发展目标的实现。
来源:经济日报
往期相关文章推荐
王沙飞院士:人工智能与电磁频谱战
孙正义:未来30年的人工智能和物联网
解密首批人工智能4支国家队内幕
雄安:人类历史上第一个人工智能城市正在崛起
回复关键字,获取相关主题精选文章关键字:军民融合|一带一路|电磁武器|网络战|台海局势|朝鲜半岛|南海问题|中美关系|十三五|经济|科技|科研|教育|政策|创新驱动|军工混改|重大项目|第三方评估|人工智能|颠覆性技术|无人系统|机器人|虚拟现实|3D/4D打印|生物科技|智能制造|大数据|5G通讯|量子计算|新材料|太赫兹|卫星|北斗|高性能芯片|半导体元器件|航空母舰|无人机|新型轰炸机|先进雷达|新型导弹|高超声速武器|军队改革|外军动态|综合安全|军事安全|信息安全|太空安全|发展安全|大国博弈|贸易战|习近平|DARPA|王凤岭|名家言论|政策法规|产业快讯|科技前沿应用|创新科技|人才培养其他主题文章陆续整理中,敬请期待······小蓝君微信:lhcq6666电话:17319474019蓝海长青系列自媒体
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.
/阅读下一篇/返回网易首页下载网易新闻客户端人工智能:对我们所生活的时代的思考 – chatgpt中文站
Thebestoftimes,theworstoftimes—midjourneyv5.1随着年龄的增长,一个显著的好处是你可以更可信地绘制历史类比,无论是因为你个人经历过,还是经历了直接的后果。
对我而言,当前人工智能技术的崛起和发展呼应着1990年代互联网的发展。两个时代都标志着快速技术进步、重大投资和广泛社会影响。同时,这些时期也存在对未来的相当大的不确定性,以及与监管、隐私、安全和数字鸿沟相关的问题。
然而,与90年代的历史相似只是如今正在发生的事情中的一部分。这是第一次我们讨论软件对人类构成存在威胁的潜力。人类上一次面临这样的情况是在1945年,当时原子弹的研发成为了人类自己带来的第一个有意识的存在威胁。
当万维网出现时,我在1994年购买的一本书是由MarkGibbs和RichardSmith所著的名为《互联网导航》的书,该书首次出版于1993年。在该书的“互联网何去何从”子标题下,提出了以下建议:
教育:互联网是学生和教师的极好教育资源。图书馆问题:在学校、家中和工作场所访问图书馆信息正在快速改变人们对信息的认识——从单个本地图书馆提供的信息到全国甚至国际范围内提供的信息。学生进入:在许多大学中,学生、教职员工可以获得进入互联网的权限。这对教育和我们教与学的方式产生了深远的影响。科学研究:互联网以无限灵活和及时的方式分发信息。现在,让我们深入探讨一些在1993年的预测中被低估了的互联网影响领域:
社交互动和关系:像Facebook、Twitter和Instagram这样的社交媒体平台的兴起是没有被预见到的。人们能够建立关系,有时还是重要的关系,而不必见面,这是任何人都没有想到的。电子商务:在线购物从消费者和企业的角度根本改变了零售行业的格局。在线零售平台如亚马逊的规模和影响力超出了早期的预测。它不仅改变了购买行为,而且影响了供应链、物流,甚至全球贸易。远程工作和教育:虽然预测互联网将影响工作和教育,但这种影响程度被低估了。远程办公的概念,远程学习以及数字化运营整个企业的能力已经变得普遍。娱乐和媒体:没有人能完全预见到互联网对娱乐产业的变革影响,特别是随着像Netflix、YouTube和Spotify这样的流媒体服务的出现。传统的媒体形式如印刷和广播已经受到很大干扰,导致新闻、广告和内容创作方面发生了变化。隐私和安全:早期的互联网讨论并没有完全预料到随后涌现的隐私和安全重大关切。数据泄露、身份盗窃、网络犯罪以及个人数据的伦理处理等问题已成为重要的社会关切。错误信息和宣传:互联网在错误信息传播和操纵公众意见方面的作用很大程度上是没有预料到的,更不用说它会开始破坏像自由公正选举这样的民主机构了。很明显,这些变化通常仅凭以往的先例并不可预测。在所有这些领域中,互联网带来的变革并不是简单的加法,而是转化性的,建立了新的完成任务的方法。
这是2023年,有人真的认为我们今天对人工智能未来做出的预测会比1993年对互联网做出的预测更准确吗?
那就是全部吗?我们只是在重温1990年代的亢奋岁月吗?虽然这个比喻听起来非常令人满意,但当时没有人将互联网的引入视为对人类存在的威胁。要想理解这样的概念,我们必须回到1945年。
曼哈顿计划是二战期间启动的高度保密的科学工程计划,旨在开发原子弹。该项目由美国牵头,英国和加拿大均有贡献,聚集了全球顶尖科学家,包括J.罗伯特·奥本海默。
J.RobertOppenheimerandGeneralLeslieR.GrovesaftertheTrinitytest我们可以从罗伯特·奥本海默发表的演讲中了解到那个时代的很多事情。他的完整演讲可以在下面的链接中找到。
https://ahf.nuclearmuseum.org/ahf/key-documents/oppenheimers-farewell-speech/#:~:text=%E5%B0%8D%E4%BA%8E%E4%B8%8D%E8%83%BD%E4%BB%8E%E5%87%BA,%E5%8E%9F%E7%89%A9%E7%9A%84%E7%AE%A1%E7%90%86%E3%80%82&text=%E4%B8%BB%E9%A1%8C%EF%BC%9A%E6%9B%BC%E5%A5%87%E7%A5%96%E5%88%A5%E8%AF%AD%E8%AE%B2%EF%BC%88Oppenheimer’s%20Farewell%20Speech%EF%BC%89%E3%80%82
这是他在1945年11月2日向洛斯阿拉莫斯科学家协会发表的告别演讲。在这次演讲中,他谈到了科学家和世界面临的挑战,现在原子武器已经成为现实。Oppenheimer并没有道歉,而是将追求原子弹的正当性视为不可避免,并强调科学家必须扩大人类对自然的理解和控制。他还主张需要新的方法来管理原子能源。
在这次演讲中,奥本海默讨论了原子武器的发展对世界带来的深远影响以及它所带来的新时代。他强调了科学家面对原子武器相关问题的需求,并强调了在面对前方挑战时诚实和洞察力的重要性。
那么两者有哪些相似之处?核武器和人工智能都带来了重大的变革,需要深刻反思和考虑。它们引发了对科学与社会关系、人类理解的极限以及技术进步的潜在风险和利益的问题。
在他的演讲中,奥本海默强调了原子武器的开发速度以及它们可能对所有人类产生影响的潜力。同样地,人工智能的快速进步及其融入我们生活的各个方面也产生了深远的影响。引用奥本海默的演讲:
我认为无需赘言,为什么影响如此强大。有三个原因:其一是科学前沿领域的事物被转化为影响许多生命、潜在影响所有人的语言,速度之快是非同寻常的。其二是因为科学家自身在导致原子武器基础上发挥的作用,而且实际上也制造了这些武器,这不仅仅是让他们更接近问题,而是偶然的(某种程度上与速度有关)。其中第三个原因是,我们制造的东西——部分是因为问题的技术性质,部分是因为我们辛勤工作,部分是因为我们有好运——真正以如此震撼、突然的方式出现在世界上,以至于没有机会磨光其锋刃。
奥本海默甚至呼吁开放协作和知识共享,这是今天关于人工智能方面的激烈辩论的主题。
我认为这场谈话是有道理的,并且科学家几乎一致反对控制和保密是一个正确的立场,但我认为其原因可能更加深入。我认为这是因为保密打击了科学的根本和目的所在。如果你不相信学习是好的,就不可能成为一名科学家。如果你不认为与任何感兴趣的人分享你的知识具有最高价值,也不可能成为一名科学家。除非你相信世界的知识和这种力量对人类来说是一种内在价值的东西,并且你使用它来帮助扩展知识并愿意承担后果,否则就不可能成为一名科学家。
最后,奥本海默的演讲强调了我们所有人开始应对已经释放到世界上的变化所带来的后果的紧迫性,并且这需要时间。
就像我之前所说的那样,我长期以来一直有最迫切的感觉,我认为可能这种感觉有一定的道理。在第一次使用原子弹后的那个时期,制定明确的政策声明和初步实施步骤似乎是最自然的;而不承认某些东西可能已经消失且这种损失可能是悲剧的是不正确的。但我认为明显的事实是,在实际的世界中,与其中的实际人员,需要时间来理解这一切是关于什么的,而且可能需要更长的时间。
虽然类似之处很明显,但AI的崛起呈现出不同的情景。AI的挑战标志着AI的快速发展,引发了对于就业机会、隐私、算法偏见及其对社会结构可能产生的影响的担忧。AI带来的问题是多方面的,而且远远超出了直接毁灭的威胁。
总结一件事是确定的:当面对快速和大规模的技术变革时,我们集体预测未来的能力可能没有得到改善。毫无疑问,未来将超越我们今天所能想象的任何事物,它总是如此。
如果我们无法预见未来,那么我们必须为我们对周围几乎所有事物的感知和参与方式的快速转变做好准备,因为所有事物都处于变化的状态,就像在互联网出现后一样。
除此之外,今天很少有人会质疑人工智能对人类构成独特的存在威胁的潜力,就好像气候危机尚未成为重大关切一样。然而,这是我们之前已经面临过的情况。随着时间的推移,世界倾听了奥本海默的呼吁;1946年的原子能法案导致了原子能委员会的创建,该委员会被赋予了对核能的一切方面的权力。为了应对核技术的发现和多种应用所引发的深层次恐惧和期望,国际原子能机构于1957年成立。
如果我们把历史作为指南,那么它会教导我们社会和科技之间的关系不是单向街。不仅仅是科技如何改变社会,而且也涉及社会如何塑造技术发展。我们的预测往往低估了后者。