中国社会科学杂志社
当前,人工智能被深度应用于社会的各个领域,推动了社会生产效率的整体提升。然而,作为一种具有开放性、颠覆性但又远未成熟的技术,人工智能在带来高效生产与便利生活的同时,不可避免地对现有伦理关系与社会结构造成冲击,且已引发不少伦理冲突与法律问题。在技术快速更新的时代,如何准确把握时代变迁的特质,深刻反思人工智能引发的伦理风险,提出具有针对性、前瞻性的应对策略,是摆在我们面前的重大时代课题。
技术伦理风险
技术是一把双刃剑,其在推动社会进步的同时,也在很大程度上带来了技术风险。人工智能技术也是如此。现阶段,人工智能的技术伦理风险主要体现在以下三个方面。
人工智能的设计风险。设计是人工智能的逻辑起点,设计者的主体价值通过设计被嵌入人工智能的底层逻辑之中。倘若人工智能设计者在设计之初,秉持错误的价值观或将相互冲突的道德准则嵌入人工智能之中,那么在实际运行的过程中便很有可能对使用者生命、财产安全等带来威胁。
人工智能的算法风险。算法是人工智能的核心要素,具备深度学习特性的人工智能算法能够在运行过程中自主调整操作参数和规则,形成“算法黑箱”,使决策过程不透明或难以解释,从而影响公民的知情权及监督权,造成传统监管的失效。人工智能算法可能在不易察觉或证明的情况下,利用算法歧视或算法合谋侵害消费者的正当权益,进而扰乱市场经济秩序和造成不公平竞争。近年来被广泛曝光的“大数据杀熟”,正是这一风险的具体体现。
人工智能的数据安全风险。隐私权是人的一项基本权利,隐私的保护是现代文明的重要体现。但在众多的人工智能应用中,海量的个人数据被采集、挖掘、利用,尤其是涉及个人生物体征、健康、家庭、出行等的敏感信息。公民的隐私保护面临巨大挑战,人工智能所引发的隐私泄露风险已被推到风口浪尖。而不少隐私泄露事件的发生,也在一定程度上加深了公众对人工智能广泛应用的担忧。隐私保护与人工智能的协调发展,已成为当前亟待解决的问题。
社会伦理挑战
人工智能不仅有着潜在的、不可忽视的技术伦理风险,伴随数字化的飞速发展,人工智能对现有社会结构及价值观念的冲击亦愈发明显。人类社会的基本价值,如尊严、公平、正义等,也正因此面临挑战。
人工智能的发展对人类道德主体性的挑战。2017年智能机器人索菲亚被授予沙特阿拉伯王国公民身份,这引发了许多人对人工智能挑战人类主体性的担忧。通常人被认为是唯一的道德主体,人的道德主体性的依据在于人的某些精神特点(如意识、思维)。当前,人工智能虽仍处于弱人工智能阶段,还无法形成自我意识,但是,智能机器人不仅在储存、传输、计算等多方面的能力超越了人脑,而且借助材料学等现代技术,智能机器人可能在外形上“比人更像人”,甚至拥有更丰富的情感(比如索菲亚能够模拟62种面部表情)。这样的智能机器人究竟是否是“人”?是否应确立为道德主体?如果赋予人工智能主体资格,那么其究竟是一种与人类对等的主体,还是一种被限制的主体?这些问题表明:人工智能对人类道德主体性的挑战,不只是电影小说中的浪漫想象,而是已日益成为一种现实风险。
人工智能的发展对社会整体公平正义的挑战。首先,人工智能的发展可能加剧社会的贫富差距。由于年龄、所在地区、从事行业、教育水平等的差异,人们接触人工智能的机会并不均等,实际使用人工智能的能力并不相同,这就造成了“数字鸿沟”现象。“数字鸿沟”与既有的城乡差别、工农差别、脑体差别等叠加在一起,进一步扩大了贫富差距,影响了社会发展的公平性。其次,人工智能的发展可能引发结构性失业大潮。由于智能机器相较于人类工人有着稳定、高效等优势,越来越多的人类工人正在被智能机器所取代,成为赫拉利(YuvalNoahHarari)在《未来简史》中所谓的“无用阶级”。麦肯锡全球研究所的研究数据显示,到2030年,全球将有8亿人因工作流程的智能化、自动化而失去工作。虽然人工智能的发展也会带来新的工作岗位,但是由于“数字鸿沟”的存在,不少人并不能找到新的工作,结构性失业大潮可能汹涌而至。这将成为激化社会矛盾、破坏社会稳定、挑战社会公平正义的又一重大潜在风险。
应对防范策略
技术伦理风险与社会伦理挑战的图景展示表明,人工智能“安全、可靠、可控”的良性发展依然任重道远。对于人工智能风险、挑战的应对防范,事关未来社会的发展方向与人类整体的前途命运,需要我们运用哲学的反思、批判,作出审慎恰当的抉择。
确立人工智能发展的基本价值原则。面对风险、挑战,我们应当避免马尔库塞(HerbertMarcuse)所说的“技术拜物教”倾向,要将伦理、道德等价值要素纳入到人工智能发展的内在考量之中,尽快构建起具有广泛共识的人工智能伦理体系。应确立如下基本价值原则,作为建构人工智能伦理体系的“阿基米德支点”。一是人本原则。人工智能始终是“属人”的造物,是为增进人类的福祉和利益而被创造出来的。无论人工智能有多么接近“图灵奇点”,也不应改变其属人性。人本原则是人工智能研发、应用的最高价值原则。二是公正原则。人工智能的发展要以绝大多数人的根本利益为归趋,不能片面地遵循“资本的逻辑”与“技术的逻辑”,坐视“数字鸿沟”的扩大,而应当让每一个人都拥有平等接触、使用人工智能的机会,从而使绝大多数人都能从人工智能的发展与应用中受益。三是责任原则。明晰道德责任,对于防范和治理人工智能伦理风险具有重要意义。要加强人工智能设计、研发、应用和维护等各个环节的责任伦理建设,尤其要注意设计者、开发者的道义责任感培养,明确各方主体的权利、义务和责任,建立健全完备、有效的人工智能事故追究问责机制。
建立人工智能发展的具体伦理规范。在确立人工智能伦理基本原则的同时,还需要制定人工智能产品设计者、开发者及使用者的具体伦理规范与行为守则,从源头到下游进行规范与引导。针对人工智能的重点领域,要研究具体细化的伦理准则,形成具有可操作性的规范和建议。应当加强教育宣传,推动人工智能伦理规范共识的形成。进一步,可以将取得广泛共识的伦理规范嵌入于算法之中,避免人工智能运行过程中的“算法歧视”与“算法欺诈”问题。此外,要充分发挥伦理审查委员会及其相关组织的作用,持续修订完善《新一代人工智能伦理规范》,定期针对新业态、新应用评估伦理风险,促进人工智能伦理规范的与时俱进。
健全人工智能发展的制度保障体系。在社会层面,应加大对“数字弱势群体”的政策帮扶,如税收减免、财政补贴等,确保人工智能发展的共同富裕方向。面对可能到来的结构性失业问题,可以为劳动者提供持续的终身教育和职业培训。在法律层面,应积极推动《个人信息保护法》《数据安全法》的有效实施,建立对人工智能技术滥用与欺诈的处罚细则,逐步加快《人工智能法》的立法进程。在行业层面,应加强人工智能行业自律体系建设。建立并充分发挥伦理委员会的审议、监督作用,加强国际合作,推动人工智能行业发展朝着“安全、可靠、可控”的方向健康发展。
(作者单位:南京大学哲学系)
人工智能的伦理挑战与科学应对
【光明青年论坛】
编者按
2023年2月21日,中国外交部正式发布《全球安全倡议概念文件》,呼吁“加强人工智能等新兴科技领域国际安全治理,预防和管控潜在安全风险”。在中国式现代化进程中,人工智能的技术革新是助推我国科技创新的重要力量之一。作为最具代表性的颠覆性技术,人工智能在给人类社会带来潜在巨大发展红利的同时,其不确定性也会带来诸多全球性挑战,引发重大的伦理关切。习近平总书记高度关注人工智能等新兴科技的发展,强调要加快提升“人工智能安全等领域的治理能力”,“塑造科技向善的文化理念,让科技更好增进人类福祉”。为此,本版特组织几位青年学者围绕人工智能的伦理挑战与科学应对展开讨论,并邀请专家予以点评,以期引发学界的更多关注,为推动人工智能健康发展贡献智慧。
与谈人
彭家锋 中国人民大学哲学院博士生
虞昊 华东师范大学政治与国际关系学院博士生
邓玉龙 南京师范大学哲学系博士生
主持人
刘永谋 中国人民大学哲学院教授、国家发展与战略研究院研究员
1.机遇与挑战并存的人工智能
主持人:新技术革命方兴未艾,以人工智能等为代表的新兴科技快速发展,大大拓展了时间、空间和人们的认知范围,人类正在进入一个“人机物”相融合的万物智能互联时代。请具体谈谈人工智能给人类社会发展带来什么样的机遇?
彭家锋:人工智能、大数据、物联网、云计算等智能技术蓬勃兴起,对人类社会的方方面面产生深刻影响,推动整个社会逐步迈入智能社会。在此过程中,存在许多重大历史机遇需要我们把握。就技术治理而言,人工智能作为一种治理技术,正在助推社会治理的治理理念、治理方式、治理效能等方面的变革,将传统技术治理提升至智能化新阶段,呈现出“智能治理的综合”趋势。智能治理将全面提升社会公共治理的智能化水平,主要呈现出四个方面的特征:一是治理融合化,即促进各种智能技术与其他治理技术相互融合,大幅度提升智能社会的治理水平;二是治理数据化,即以日益增长的海量数据为基础,通过对数据映射出来的“数字世界”进行社会计算,实现治理目标;三是治理精准化,即发挥智能技术强大的感知能力、传输能力和计算能力,将传统的粗放治理转变为精准治理;四是治理算法化,即不断完善智能决策系统,尝试将程序化的算法决策扩展到更多的决策活动中,从而提高决策质量。
虞昊:人工智能有助于反思人类社会得以建立与发展的基础。随着分析式AI向着生成式AI不断演变,尤其是生成式AI初步展现出判别问题、分析情感、展开对话、创作内容等越来越具有人类特征的功能,原本属于人类的领域正被人工智能以另一套由“0”与“1”构成的计算机语言逐步侵蚀。这既是对人类社会的冲击,也势必会在更加平等的开放性框架中增强人类的主体性,促进人类社会进一步发展。
邓玉龙:总体来说,以人工智能为代表的新科技发展,显著提升了社会生产力。例如,生成式AI不但能完成传统AI的分析、判断工作,还能进一步学习并完成分析式AI无法从事的创造性工作。从人机交互的角度来看,人工智能也促进了生产关系的高效发展。具体表现在:一是刺激劳动形态的转化。人工智能高效承担大量的基础机械性劳动,人类劳动则向高阶的创造性劳动转化,由此引发社会层面的劳动结构转型、升级,并且以人工智能为中介,社会范围内的劳动整合、协调能力也实现升级。二是促进劳动场域的重构。随着劳动形态的转化和劳动的社会化扩展,人工智能将劳动从固定场域中解放出来,人类劳动的灵活性增加。相比于创造性劳动,机械性劳动更加受到空间和时间的制约,而在人工智能从技术层面替代更低边际成本的基础性劳动之后,人类劳动空间和时间的自由性实现跃迁。三是对主体的发展提出了更高要求,尤其是对主体适应社会发展提出了更高要求。人工智能技术的发展对人类传统的知识结构提出挑战,要求人类更新原有的知识结构以适应社会发展需要,也对教育提出更高要求,教育模式和教育内容需要更契合科技发展的水平,培养更加全面发展的人才。
主持人:人工智能的一系列产物在给人们带来生活便利的同时,也一定程度上引起大家对其可能引发的伦理挑战的警惕。一些人关注人工智能的风险问题,对人工智能的推进有些焦虑。如何看待这种警惕和焦虑?
虞昊:人工智能的风险以及由此带来的焦虑,是完全可以理解的。但我们无法返回一个没有人工智能的世界,人工智能已然深度介入人类社会,试图遏制人工智能的推进只能是螳臂当车。同时我们对人工智能的发展也不能放任不管,无视甚至于压制人工智能的推进只能是掩耳盗铃。因此,我们应该正视这种焦虑,在发展人工智能的过程中探求解决方案,在人工智能带来的风险中寻求危中之机。
邓玉龙:我们应正确看待这种焦虑。要看到,焦虑有其积极的意义,它体现人类的忧患意识,催生对人工智能风险的预见性思考,提醒我们注意焦虑背后人工智能技术发展存在的问题。正确对待焦虑有助于积极采取措施防范风险,辩证分析焦虑中先见性的思考,通过社会治理模式的升级化解风险问题。同时,仅有焦虑和恐惧是不够的,更重要的是积极解决人工智能发展带来的社会问题。从劳动的角度看,人工智能确实会取代部分人类劳动,推动劳动结构转型升级,让劳动向着碎片化、个体化方向发展,劳动者处于弱势地位,面临着“机器换人”的挑战。但是我们也应该理性认识到,人工智能不是对人类劳动能力的完全替代,而是对劳动者提出了更高的要求,要求劳动者掌握科学知识,将技术的发展内化为自身能力,在更具创造性的劳动中实现自身价值。
彭家锋:任何技术的发明使用,不可避免地伴随着这样或那样的风险。人工智能技术自然也不例外,在其应用过程中,同样引发了诸如隐私泄露、算法歧视、法律责任等风险问题。因此,关注人工智能的风险问题,并由此对人工智能的推进产生焦虑,具有一定理论依据和现实基础。但更应当清醒地认识到,人工智能的某些相关风险可以提前得到规避,并不必然会发生;即便真的发生,也仍可不断寻求化解风险的有效手段。以个人隐私滥用风险为例,在治理过程中,虽然不可避免地会涉及个人数据收集和分析处理,但可以通过建立完整的规范和监管体系来保护个人隐私,降低滥用风险。
2.人工智能科技竞争的“伦理赛道”
主持人:习近平总书记在以视频方式出席二十国集团领导人第十五次峰会时指出,“中方支持围绕人工智能加强对话,倡议适时召开专题会议,推动落实二十国集团人工智能原则,引领全球人工智能健康发展”。请谈谈“人工智能原则”应包含哪些内容?科技向善的文化理念对推动全球人工智能健康发展具有怎样的现实价值?
彭家锋:为应对人工智能等新科技快速发展带来的伦理挑战,2022年,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,其中明确了“增进人类福祉”“尊重生命权利”“坚持公平公正”“合理控制风险”“保持公开透明”等五项科技伦理原则。我认为,这五项原则基本涵盖了人工智能原则的伦理要求,彰显了科技向善的文化理念。科技向善的文化理念,根本目标是让科技发展更好地服务社会和人民,带来良好社会或社会公益的善。科技向善对推动全球人工智能健康发展至少具有以下三个方面现实价值:一是塑造公众信任。公众对人工智能的信任很大程度上并不完全由相关风险程度决定,而是取决于公众的利益与价值是否得到足够重视。后者正是科技向善的内在要求。二是引领技术创新。科技向善的文化理念将在技术创新发展过程中发挥价值引领作用。三是促进全球合作。科技向善的文化理念试图在全球范围内建立人工智能伦理规范的“最大公约数”,各国在达成伦理共识的基础之上,能够建立互信,实现更加充分深入的国际合作。
虞昊:个人认为,人工智能原则也应包含非对抗与非失控的理念。非对抗意味着不应将人工智能视作人类社会的对抗性存在,人工智能已经成为人类社会的构成性要素,我们必须持更为开放的态度去面对人工智能。非失控意味着不应放弃对人工智能的伦理规范,应以智能的方式去规范加速发展的人工智能。如果以上述理念为前提,也就是说,在支持人工智能发展的情况下,科技向善的文化理念在推动全球人工智能健康发展中就变得极为重要。此处的“善”在国家治理层面即指向“善治”,而当人工智能的发展从国家范围扩展到全球范围,“善治”就在构建人类命运共同体的意义上拥有了更贴近现实的内涵。各国应摒弃冷战思维与零和博弈,基于善意与友谊共同思考人类作为整体如何在人工智能的冲击下通往全球性的“善治”。
邓玉龙:2019年欧盟发布《可信赖的人工智能伦理准则》,2021年中国国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》(以下简称《规范》)。与欧盟发布的伦理准则相比,《规范》体现了中国特色社会主义的制度优势,旨在将伦理规范融入人工智能全生命周期。人工智能发展的根本目的是促进人的全面发展,因此,我以为,人工智能原则还应体现共享和有序发展的要求。共享,旨在防止人工智能的技术垄断。科技发展应该兼顾全体人民的利益,而不是服务于少数群体,由全体人民共享科技发展成果,推动全球科技水平的共同增长。有序发展,旨在防止人工智能技术的无序扩张。人工智能技术的发展最终是为了提升人的幸福感,推动科技有序发展能够促进人机和谐融合,有效预防潜在无序扩张的风险。
主持人:从规范层面来说,伦理反思对规范人工智能发展的作用主要体现在哪些方面?
彭家锋:近年来,世界各主要国家在人工智能领域竞争日趋激烈,纷纷将人工智能发展置于国家发展的战略层面。比如,美国陆续出台《国家人工智能研究和发展战略计划》(2016)和《关于维持美国在人工智能领域领导地位的行政命令》(2019);欧盟先后发布《欧洲人工智能战略》(2018)和《人工智能白皮书》(2020);中国也较早发布了《“互联网+”人工智能三年行动实施方案》(2016)和《新一代人工智能发展规划》(2017)。人工智能科技竞争的客观局面已然形成。在此背景下,如果忽视人工智能技术发展所带来的全球性风险与挑战,极有可能陷入技术赶超的竞争逻辑。因此,亟须规范人工智能的科技竞争,而倡导伦理反思或许就是一条可行之路。伦理反思的意义至少在于:一是设定伦理底线。人工智能技术的开发和应用需要遵循一些基本的价值理念和行为规范。只有守住伦理底线,才有可能避免颠覆性风险的发生。二是实现敏捷治理。伦理反思是一个动态、持续的过程,贯穿于人工智能科技活动的全生命周期。为了确保其始终服务于增进人类福祉和科技向善的初衷,需要保持应有的道德敏感性,以灵活、及时、有效的手段化解人工智能带来的各种伦理挑战,确保其在科技向善的道路上行稳致远,实现良性发展。
邓玉龙:人工智能科技竞争是为了促进科学技术发展,而科学技术发展的最终目的是推动人类社会的进步。人工智能科技竞争不应该仅包括技术竞争的单一维度,更不应该通过技术优势遏制他国的科技发展,而应该是在人工智能科技条件下的综合性竞争,通过良性竞争促进全球人工智能和全人类的共同发展。其中就应该包括社会治理竞争,通过社会治理保障社会公平,因而对社会中人与人关系的伦理反思构成人工智能科技竞争的有机组成部分。首先,伦理反思对人工智能科技竞争提出了更高的要求。人工智能的公平性、可信任性、可解释与透明度、安全性不仅是伦理要求,也代表了人工智能技术的发展方向,是人工智能科技竞争需要抢占的技术制高点。科技的发展是为了人的全面发展,因而人的发展内嵌于科技发展要求,伦理反思有助于防止工具主义的泛滥。其次,伦理反思为人工智能科技竞争提供价值引导。伦理反思注重保障人的权利,科技发展并不是社会发展中的唯一衡量因素,我们还应该关注其中多样性的因素,尤其注重保护特殊群体的利益,例如防止数据鸿沟等不良影响。伦理反思有助于实现人工智能的综合性健康发展。
3.人工智能安全与人的全面发展
主持人:科学探究一直以来都是人们认识世界和了解自身的重要认知方式,人工智能等信息产业的革命如何影响着人们的认知方式?
彭家锋:人工智能等信息产业的革命,促进了科学研究新范式——数据科学的诞生,进而对人们的认知方式产生深刻影响。数据科学被认为是继实验、理论和模拟之后的新的科研范式。相较于传统科学,数据科学融合了统计和计算思维,通过人工智能等技术提供的海量数据、强大算法和算力,能够直接从数据中寻找相关关系、提取相关性或者预测性知识,进而产生一种基于相关性的科学思维模式。但这种相关性并不一定能够转化为因果关系,因为可解释性对于从数据科学技术确定的相关性中提取因果解释至关重要,而相关技术一般都缺乏必要的透明度和可解释性。数据科学更可能成为一种预测科学,但是预测并不是科学追求的唯一目标。通过揭示世界的潜在因果结构来解释和干预现象,也是科学的两个重要目标。因此,尽管数据科学能够通过分析大量数据生成相关性知识,却不能直接产生因果解释。对此,传统科学的可检验性假设方法和因果规律探求仍有其重要价值。数据科学并非取代传统科学,相反,两者将相互补充,共同成为人类探索世界的有效工具。
虞昊:显而易见的是,随着人工智能向着通用人工智能迈进,其能够为人们提供的教育资源、生活娱乐、工作讯息也越来越丰富,人们势必越来越依赖于通过与人工智能进行交互来获取外界信息。因此,当人工智能深度地构成人们认知世界的滤镜时,若不对人工智能本身具有重复性、同质性倾向的认知框架保持警醒,人工智能可能扭曲人们的认知方式直至影响人的主体创造性。
邓玉龙:以人工智能为代表的全新技术发展被称为第四次工业革命,其中最显著的特征就是机器与人类的深度融合,机器不再作为一种外在性的工具被人类使用,而是在与人类的深度关联中影响人类的认知方式。一方面,信息产业革命丰富了人类认知的联结方式。人工智能和大数据技术的发展促进人类的分析逻辑从因果关系扩展为相关关系,对相关关系的重视使人工智能可以从大数据而非小数据维度获取信息,为人类认知提供新的视角。按照传统人类认知方式的理解,因果关系要求关于世界的认知是确定性的,而这在数字时代的复杂性社会中很难实现。人工智能对相关关系的认知填补了这一缺失,允许我们在无法掌握确定信息但在掌握大量数据的条件下对未来趋势作出预测。另一方面,如果我们对人工智能等科技的输出结果和生成内容盲目信赖,将结果和内容与经验事实之间进行绝对等同的连接,误认为是事实的全部,那么我们就会丧失人文主义抽象反思的能力,对此我们应当保持警惕,始终坚持反思和批判的人文精神。
主持人:如何调适人的主体创造性与信息高度集成共享之间的关系?
彭家锋:当人们逐渐将更多创造性工作交由人工智能完成,不免让人担忧人工智能是否将会威胁到人的主体创造性。从人机关系的角度来看,这种担忧是基于一种人机敌对论的视角,认为人工智能挤压了人的主体创造性空间,是替代逻辑的延续。但从人机协作的视角出发,将人工智能看作人的得力帮手,通过创造性地使用人工智能可以赋予人类更大的创造性空间。比如,在进行文字写作、多媒体脚本、程序代码、文稿翻译等工作时,可先由人工智能高水平地完成草稿工作,然后再由人类进行一些创造性的调整和发挥。此时人工智能生成的内容将成为进一步创作的原材料,人类将以更高的效率投入创造性活动之中。当然,要实现以上效果并非易事,不仅需要思想观念的转变,还应在制度安排、教育方式等方面作出相应调整。
虞昊:面对信息高度集成共享的人工智能,人有可能转变为算法的动物。试想下述场景:当依据人工智能展开行动变得足够便捷有效时,行动者便会倾向于采信人工智能,此时,看似是人类行动者基于自然语言在进行互动,实则是算法逻辑基于计算机语言在进行数字化运转。于是,人的主体创造性被侵蚀,人可能沦为算法动物。对此类情形,我们应该保持足够的清醒与警惕。
邓玉龙:人工智能技术生成的内容(AIGC)具有高度集成共享的特性,能够高效地对人类知识进行数据挖掘、信息生成。调适人的主体创造性与信息高度集成共享之间的关系,我们需做到如下几个方面:首先,需要通过人的创造性扩大AIGC数据库,当下AIGC主要是依赖于大语言模型,以大量的网络文本作为训练数据库生成的,通过人的创造性生成可以不局限于网络文本,而是进一步扩展数据库的训练文本,从而提高其丰富度。其次,需要通过人的创造性为AIGC提供价值训练,通过人的创造性生成的价值立场、伦理法则等与AIGC的训练数据库相融合,从而建构可信赖、可持续的信息高度集成共享机制。最后,需要将人创造性生成的内容与AIGC共同作为人类知识的来源,人类知识的获得不能仅仅局限于AIGC,而是需要人发挥其主体创造性对人工智能技术生成的内容进行反思和拓展,将人类无法被数据化的、经验性的知识与AIGC数据化的知识融合成为人类知识的来源。
(本版编辑张颖天整理)
人工智能与国家政治安全
原标题:人工智能与国家政治安全人工智能技术的蓬勃发展和广泛应用,给人类生产生活带来了极大便利,同时,也对国家主权、意识形态、执政环境、社会关系、治国理念等带来冲击,深度影响国家政治安全。充分认清人工智能对国家政治安全的挑战,研究应对之策,对于有效维护国家政治安全,意义重大。
人工智能影响政治安全的机理
作为一种颠覆性技术,人工智能进入政治领域后,既具有技术影响政治安全的一般规律,又体现出其不同于以往技术的鲜明特点。
从技术影响政治安全的一般机理来看,主要体现在三个方面。第一,技术进步不可避免地直接或间接服务于政治安全。政治安全是国家安全的根本,经济、社会、网络、军事等领域安全的维系,最终都需要以政治安全为前提条件。因此,包括技术在内的一切社会条件,首要的任务是为政治安全提供服务和保证。综观人类历史上的技术进步,往往被首先考虑用于维护国家安全特别是政治安全,尽管这些技术研发的初衷并非如此。人工智能亦然。第二,政治安全与技术进步相生相克、相生相长。马克思认为,先进技术进入政治领域后,有效提高了“社会控制和权力再生产”。同时,政治安全对技术进步的需求,反过来成为技术不断进步的推动力。但技术并非完美的政治工具。一旦技术利用不当、发生技术失控,或者技术自身缺陷所蕴含的风险爆发,政治安全可能被技术进步反噬。第三,技术进步倒逼政治发展转型,给政治安全带来新课题新挑战。从历史上看,技术进步对社会结构、社会关系、社会文化等带来的变化和冲击,从来不以人的意志为转移。当火枪火炮成为主战兵器时,继续用木盾藤牌来保卫政权的行为无疑是愚蠢的,迫切需要当政者转变思想观念,寻求能够有效维护政治安全的新模式新方法。当计算机网络技术逐渐普及时,西方国家政党纷纷利用互联网进行政治宣传和选举拉票。人工智能较之以往的技术,拥有前所未有的机器“主观能动性”优势,必将对政治安全理念、安全机制、安全路径等带来更大的改变。
从人工智能影响政治安全的独特机理来看,主要体现在两个方面。第一,算法和大数据将左右智能机器“认知”“判断”,继而影响政治行为体的抉择。人工智能的核心“三大件”是算法、算力和大数据。一方面,算法是否公正不偏袒、大数据是否真实完整未被删减篡改伪造污染,直接决定机器的研判结果,并影响人的判断和行为。另一方面,与传统的人口学变量的定量分析不同,大数据、云计算、机器学习等可以将数以亿计的政治行为体抽象成社会的“节点”,人工智能通过分析信息中节点的度数、介数和接近度,来揭示权力集聚规律、赢得政治威望的秘诀,这为执政安全提供了新的技术支撑和智慧渠道。第二,人工智能技术对经济、军事、社会、网络、信息等领域的影响向政治领域传导,间接冲击政治安全。作为一项赋能性技术,人工智能正在逐渐“改写”各领域的秩序规则,给各领域带来机遇和挑战。尽管以往的技术进步也是如此,但其影响的深度和广度远远不及人工智能。而且,以往各领域安全问题“错综复杂、交织并存”的程度,也远远不及人工智能时代高。其他领域的安全问题一旦发酵,极有可能冲击政治安全。
人工智能给政治安全带来新挑战
技术变革具有两面性,人工智能既是维护政治安全的新机遇,也是新挑战。
挑战之一:人工智能技术的普及应用,导致政治权力呈现出“去中心化”趋势。在人工智能时代,数据即代表着权力。掌握数据的主体既有国家权力机构,也有个人、企业团体、社会组织等非国家行为体。“互联网数据”结构的“多节点、无中心”设计,决定着处于线上社会任何位置的主体,均不可能比其他位置的主体位势高。人人都有“麦克风”“摄像机”,处处都是“舆论中心”“事发现场”,这一显著特征,弱化了传统的线下科层制国家管理结构和单向治理模式,政治话语权由政府这个传统的权力中心逐渐向社会层面弥散,国家治理难度大大增加,政治安全风险也大大增加。目前,这种风险已初露端倪。2019年9月,因有人线上传播“老师辱骂原住民学生是‘猴子’”的种族歧视谣言,印尼巴布亚省爆发严重骚乱,导致26人死亡、70余人受伤。
挑战之二:随着人工智能技术和数据垄断持续扩张,资本权力的扩张将危及国家权力边界。生产力的发展变化必将带来生产关系包括政治权力结构的调整。作为“第一生产力”的科学技术,其发展进步势必引起国家权力结构的调整。当人工智能技术广泛应用于经济社会各领域并引起变革时,将会推动国家治理结构与权力分配模式做出相应调整。从当前种种迹象来看,资本的权力依托技术和数据垄断持续扩张,将成为新时代国家治理结构调整的重大课题。一方面,人工智能技术研发门槛很高,依赖于大量的、长期的资本投入和技术积累,这导致社会各产业、各阶层、各人才群体间的技术研发能力、资源占有程度、社会影响力等方面极不平衡,以互联网商业巨头为代表的技术资本将占据明显优势。另一方面,人工智能技术强大的赋能作用,以及良好的经济社会应用前景,导致资本趋之若鹜。商业巨头实际上掌握了目前人工智能领域的大部分话语权,并正在逐步形成行业垄断。人工智能时代,巨头企业以强大资本为后盾,逐步垄断技术、控制数据,或将不可避免地在一定程度上逐渐分享传统意义上由国家所掌控的金融、信息等重要权力,进而可能插手政治事务。因此,国家是否有能力为资本权力的扩张设定合理的边界,是未来政治安全面临的重大挑战。
挑战之三:人工智能技术及其背后的数据和算法潜移默化引导公众舆论,进而影响人的政治判断和政治选择,间接把控政治走向。在人工智能时代,数据和算法就是新的权力。近年来围绕国家大选而展开的种种政治运作显示:拥有数据和技术能够从一定程度上影响政治议程。据有关媒体报道,2020年美国总统大选期间,有人利用网络社交平台的大量机器人账号,发布海量虚假信息,力图影响选民的认知、判断与选择。类似的情况,也曾出现在2016年的美国大选、2017年的英国大选和法国大选中。这些案例非常清晰地显示:只要拥有足够丰富的数据和准确的算法,技术企业就能够为竞争性选举施加针对性影响。当某种特定政治结果发生时,人们很难判断这是民众正常的利益诉求,还是被有目的地引导的结果。
挑战之四:人工智能技术可能被政治敌对势力用于实施渗透、颠覆、破坏、分裂活动。利用先进技术威胁他国政治安全,这样的例子屡见不鲜。计算机网络技术出现后,被西方国家用来进行网络窃密、网络攻击、网络勾联、传播政治谣言、意识形态渗透和进攻。人工智能时代,攻击一国人工智能系统或利用人工智能实施渗透、颠覆、破坏、分裂活动,带来的后果将比以往更为严重。
挑战之五:人工智能技术进步对主权国家参与国际竞争带来严峻挑战。人工智能是当前最尖端最前沿的技术之一,其核心技术多被美欧等发达国家所掌握。这些国家利用它提升生产自动化水平,提高劳动生产率,加快制造业回迁,将冲击发展中国家的传统比较优势,使后者在国际政治经济竞争格局和全球分工中处于更加不利的地位。通过发展军事智能化,进一步扩大对发展中国家的军事优势。国家之间一旦形成技术“代差”,综合实力差距将被进一步拉大。在这种情况下,技术强国对发展中国家实施政治讹诈和技术突袭的可能性增大。
多措并举,维护我国政治安全
政治安全事关我党生死存亡和国家长治久安,我们必须高度重视人工智能带来的政治安全挑战,多措并举,综合施策。
人工智能技术具有高度专业性和复杂性,企业、科研机构常常处于技术创新前沿,而国家政府则往往远离技术前沿,对技术的感知相对滞后,对技术的安全风险准备不足。为此,要强化风险意识,密切跟踪人工智能技术和应用的发展,运用系统思维,定期研判人工智能可能带来的政治风险,提高风险识别、防范和处置能力。要创新技术治理模式,构建政府主导,企业、研究机构、技术专家、公众等多方参与的人工智能治理体系。“治理”不同于“管理”,管理是政府单向的行为过程,治理则是一种开放的、多个利益攸关方参与的互动过程。通过多方互动,政府既可以跟踪掌握技术和应用的前沿动态、发展趋势,掌控治理主动权,又有助于企业、研究机构、专家、民众更好地了解政府关切,共商制定风险管控机制,推进治理工作的科学化民主化。
当前,我国在人工智能技术领域面临的最重大的安全威胁,是关键核心技术受制于人。从现在起到2030年,是我国抢抓机遇的关键期。要举全国之力,集全民之智,打造一批国家级人工智能研发平台,加强基础性、原创性、前瞻性技术研发,从智能芯片、基础算法、关键部件、高精度传感器等入手,加快核心技术突破。
没有规矩,不成方圆。针对技术应用风险,严格人工智能标准制定和行业监管,确保人工智能良性发展。紧跟技术发展变化,动态修订完善相关技术标准。加紧完善人工智能相关法律法规和伦理道德框架,对相关的民事与刑事责任确认、隐私和产权保护、机器伦理等问题予以明确,理顺设计者、使用者、监管者之间的权责关系。要建立健全人工智能监管体系,形成设计问责和应用监督并重的双层监管结构,实现对算法设计、产品开发、成果应用的全过程监管。积极促进行业自律,加大对数据滥用、算法陷阱、侵犯隐私、违背道德伦理、擅越权力边界等不良行为的惩戒力度。要积极主动参与人工智能国际议题设置,共同应对安全、伦理、法律等诸多挑战。抓住人工智能国际准则和配套法规刚刚起步之机,积极参与规则制定,及时宣示我国主张,努力掌握规则制定话语权和国际交往主动权。
针对外部安全风险,加强军事能力建设,为维护国家政治安全提供力量保证。要积极研究探索智能化战争理论,加快推进现代武器装备体系和人才队伍建设,强化智能化条件下部队训练演练,不断提升我军新时代军事斗争准备水平。
(作者:许春雷,系军事科学院博士研究生,现任河北省石家庄市鹿泉区人武部副部长)
(责编:杨虞波罗、初梓瑞)分享让更多人看到
北大教授:人工智能在短期对中等收入群体带来失业冲击
经济观察网 记者沈怡然 6月3日,北京大学光华管理学院副院长周黎安在2021北京智源大会分论坛上表示,短期内,人工智能正对中等收入群体带来一种结构性的失业冲击,但幸运的是,这种冲击并非是一种总量式的失业,长期来看,技术所创造的岗位比摧毁的更多。
按照世界银行的标准,中等收入群体的每人每日收入在10-100美元之间,年收入在3650-36500美元之间。在中国过去四十年高速经济增长中,已经形成了约4亿人的中等收入群体,尤其今年来,该群体有加速增长的趋势。
但是,在中美冲突、产业升级、人口老龄化、新冠疫情的不确定因素下,未来中等收入群体能否持续扩大,面临一系列挑战。人工智能作为一种新型技术,正对该群体形成影响。
周黎安表示,上述结论来自学院从2019年开始进行的一项课题成果。研究发现,从中等收入群体的角度来看,人工智能会带来结构性的失业和转型调整,即一方面是大量的人被替代下来、但又不适应新产业、新岗位所要求的新技能,而被迫失业,另一方面是新岗位和新职业人才紧缺,供不应求。
可以说技术是加剧收入分化的,甚至导致极化现象。当引入AI技术后,短期内,制造业部门和服务业部门的低端劳动力都会被挤出,将其挤入不可以被替代的服务业部门内;而制造业中低端劳动力和技术一起对高技能劳动力进行替代,而这部分劳动力挤入服务业内中。
短时间内,产业结构的调整速度,赶不上技术的引入速度,这就导致了一段时间内不论何种劳动者,收入份额占经济的比例都会下降,其中低端劳动力占比下降得更为迅速。
研究发现,人工智能对中等收入群体规模的负面影响随着时间的增长不断提升。到2025年,中等收入群体占比下降了2.97%,人数减少约2200万人;到2035年,中等收入群体占比下降了5.63%,对应约4200万人离开了这个群体。
麦肯锡全球研究院也作出了相关的预计:在2016-2030年,中国被替代的全职员工的规模大约在4000-4500万;如果自动化进程加速,到2030年将有近1亿劳动者需要更换职业类型。
但是,人工智能带来的冲击,主要是结构性的失业,而非总量式的失业,因为技术自身也形成了一种创造效应。技术所替代和摧毁的就业岗位与它所创造的就业机会大致时相当的,创造的岗位总体上比摧毁的更多。
研究估算表明,随着时间的发展,人工智能等数字化转型对就业的正面影响迅速扩大,新增就业岗位由2025年的6875万个上升至2035年的1.7亿个。这个数量与被技术替代的岗位相比更多。
研究还进一步估计了数字化转型对中等收入群体规模的净影响:到2025年,该群体规模仅增加了约400万人;而到2035年,由于人工智能收入效应愈发凸显,该群体占比的提升也将达到1.9个百分点,对应着1400万人的数量规模。技术创造了新的职业新岗位,例如人工智能工程技术人员、物联网工程技术人员、大数据工程技术人员、云计算工程技术人员、数字化管理师等。
对于技术在短期带来的结构性失业和转型调整问题,研究提出了相关的政策建议,首先,改革和完善职业教育,以及缩小城乡之间的教育差距,实现教育公平。其次,增加对资本所得的征税,平衡资本与劳动在国民收入初次分配当中的比重,未来一个可能是,要征收机器人税。同时,也要进一步完善社会保障体系,加强对失业者和创业失败者的收入“兜底”功能,减缓技术所带来的就业和社会冲击。
人工智能对四行业冲击最大
据新华社电 “未来人工智能(AI)冲击最大的四个行业是制造业、教育、金融和医疗。”10月24日,在安徽合肥召开的科大讯飞(首届)全球1024开发者节上,中国人工智能学会理事长、中国工程院院士李德毅对未来人工智能在传统产业的变革作出如是判断。
李德毅说,智能化是判断制造业发达与否的重要标准。我国目前工业机器人的应用程度与国际相比仍有差距。2015年我国每万名产业工人所拥有的工业机器人数量仅为49台,而全球平均是69台。
李德毅认为,人工智能对教育理念和教育模式的颠覆同样值得关注。“死记硬背、大量做题的培养方式必将在智能时代被淘汰。”他说,智能时代,教育应该是培养学生获取知识的能力、决策的能力和创新能力。
李德毅认为,随着服务机器人技术迭代与加快应用,金融行业里分析师等工作会被机器人替代,许多业务将实现自动化,真正参与运营的人将少之又少。
医疗业的智能化变革其实已经在安徽省立医院初露端倪。智慧导诊、辅助诊断系统1秒钟读懂医学影像、省级辅助诊疗中心帮助县级医院出具的诊断报告……技术提供方科大讯飞董事长刘庆峰说,机器在肺病的医学影像诊断上准确率超过94%,随着机器再学习,这一比例还将提升。
(水金辰 张紫赟)
(责编:李楠桦、曹昆)分享让更多人看到
ChatGPT与人文学科的挑战:人工智能对人文学科的影响
3月19日,由中国数智研究院、南京大学数字史学研究中心和南京师范大学数字与人文研究中心联合主办的“ChatGPT与人文学科的挑战:人工智能对人文学科影响的跨学科会议”在江苏南京顺利举行,来自清华大学、中国人民大学、南京大学、厦门大学、上海油画雕塑院、湖南省社会科学院、南京师范大学、陕西师范大学、河海大学等高校与科研机构的专家学者,以及来自《探索与争鸣》《史学理论研究》《南京社会科学》《苏州大学学报(哲学社会科学版)》、南京广播电视集团、澎湃新闻等学术期刊代表和媒体代表出席会议并就相关议题展开了深入交流和探讨。
针对当前社会上对以ChatGPT为代表的人工智能技术发展与应用的高度关注和广泛讨论,南京大学数字史学研究中心主任王涛教授在开幕式致辞中强调,面对人工智能背后知识和技术的集中化趋势,人类必须通过反思来推动自主性的觉醒,从而在已经到来的人工智能时代维持人的独特性。南京师范大学数字与人文研究中心主任吴静教授也指出数字与人文研究的重要意义,并强调数字不能离开人文,因为它是人的数字化、社会的数字化。因此,数字化所面临的问题从来都是人的问题、社会和文化的问题。本次会议旨在开展对数字化趋势裹挟下的人文问题的开放性讨论。
会议聚焦于以ChatGPT为代表的人工智能技术发展对人文学科产生的影响及其应对。各领域的专家围绕哲学、历史学、艺术学和教育学等不同学科背景和专业领域,各抒己见,展开了深入讨论。
ChatGPT能成为推进人文学科研究与发展的助手吗?
作为人工智能发展历史中的节点性成果,南京大学王涛教授认为ChatGPT最大的优势是具有对现有知识进行梳理和归纳的能力。在工具论的视角下,最佳情况是将ChatGPT作为助手,通过人机互动的过程凸显人的自主性和自我决策地位,从而达到人是目的而非手段的理想状态。同时,王教授也警示说需要注意技术集中化、高耗能化以及生态环境的破坏等问题,这些是在ChatGPT和其他人工智能技术的使用中可能会出现的问题。
陕西师范大学张光伟老师则对ChatGPT所使用的大规模预训练语言模型进行了分析,提出未来需要设计合适的prompt激活模型,以提高其输出精度。张老师以ChatGPT对中国古代文献的理解和基于BingGPT的古代文献结构化、数字化研究为例,阐述了ChatGPT技术在中国古籍文献研究中的应用和作用。而面对可能存在的挑战,张老师认为使用人工智能技术就像是“照镜子”,其展现效果取决于人们的呈现方式。因此,我们无需担心人工智能对人的僭越与替代,因为人类才是使用人工智能技术的主体性力量及其驱动力量。
针对人工智能技术在论文写作与批改方面的尝试与应用,清华大学严程老师对清华大学AI写作与批改平台项目的背景、功能及实际应用情况进行了介绍。同时她指出,虽然人工智能工具在教学中的应用能够有效解决教师人力资源稀缺的问题,但也需要反思其所带来的教学伦理问题。在后现代以及去人类中心主义的语境下,严老师认为,使用智能工具可以促使教师和智识者的身份从回应者转变为引导者,从而推动主客体之间认识过程、实践过程以及价值实现过程的集合。
艺术史在某种程度上就是一部技术的演变史。人工智能艺术的兴起让许多艺术工作者深感焦虑。面对AI绘图等技术的冲击,上海油画雕塑院副院长傅军教授探讨了AI绘图技术的发展历史及ChatGPT对其提升的作用。傅教授认为,尽管ChatGPT等人工智能图形生成技术的使用在推动艺术大众化和本质化上发挥了积极作用,但这些技术无法完全取代人类艺术家的情感、想象力和自我意志。同时,随着艺术产业链的形成,人工智能时代的艺术也面临着重新定义、两极分化、知识产权和伦理价值等挑战,因此需要持有“圣人无意”的开放心态,积极探索和思考未来人机协作的发展之路。
而湖南理工学院崔玲老师则着重探讨了人工智能艺术品价值的解读方式。以ChatGPT为例,崔老师详尽分析了其对人工智能艺术的理解和评价,强调其拥有双向的人文与技术理解能力,并表示其“人机协同创作”的模式有望解决跨学科间交叉融合的复杂性问题,促进人工智能技术与艺术创作之间的合作,实现创意和灵感交流,共同推进艺术的发展。在探讨人工智能艺术品和传统艺术品的价值之间的差异时,崔老师特别关注了ChatGPT在新的语境中所表达的有关艺术品和人工智能艺术品价值的观点。并且,她认为驱动人工智能的艺术价值观背后存在着预设的伦理框架。
ChatGPT技术下重思技术与社会关系
基于现代性视角,南京师范大学吴静教授通过对视觉中心主义和大数据可视化过程的分析,指出了数据分析中的可视化陷阱问题。她认为,数据的可视化呈现并非客观的表达方式。同时,吴教授将人工智能生成方式和哲学思维的对比引入讨论,并强调了ChatGPT时代中由可视化向话语言说的变革。ChatGPT输出的回答取决于人类输入的提示词和提问方式,这种人工智能的机器学习生成模式的背后实则取决于我们人类自己向机器呈现的言说方式,因而有可能导致认知的中心化和知识的集中化。因此,在适应科技加速主义变革的同时,如何反思人类自身成为了一个重要的问题。
南京大学戴雪红教授从性别偏见和资本逻辑的角度分析了人工智能技术背后的道德和价值取向问题。基于ChatGPT的具体案例和技术分析,戴教授指出,人工智能技术背后的程序开发者比例不平衡的现状可能会导致技术成果中潜在的偏见和成见。然而,作为一个强大的工具,ChatGPT可能成为打破内在性别偏见和二元性别角色、在机器学习主导的未来中促进性别平等的强大推动者。最后,从赛博格的概念出发,戴教授分析了人类与技术之间复杂的关系,并提出要以警惕的态度面对技术的发展,确保技术在建立女性主义原则方面发挥推动和促进的作用,而不是破坏性的作用。
南京师范大学张福公副教授探讨了人工智能技术的科技意识形态。他认为,当前最先进的技术范式——以ChatGPT为代表的人工智能模型,在资本关系支配下成为“一般智能”对象化和物相化的产物。随后,张教授通过现实抽象和形式抽象两个维度揭示了ChatGPT技术的社会历史本质、拜物教机制和意识形态功能。在面对ChatGPT对人文学科的挑战时,张教授提出了“AI洞穴”概念,并借用柏拉图洞穴比喻,强调ChatGPT所提供的知识只是被算法所建构和筛选出来的平庸常识,真正的创新、价值和情感反而在这过程中被掩盖。
江苏第二师范学院副教授任曼曼从数字媒体和教育技术两个不同领域的角度进行了研究探讨。首先,她提出了一个实际问题:在人工智能时代,如何应对AI绘画技术对原画师行业的冲击,以及人工智能技术对人类工作能力取代的问题。其次,任老师从教育技术学的教学实践角度出发,指出了目前学生的信息化水平存在着区域差异的情况,并认为当前的教育教学方式可能出现被科技所取代的趋势。最后,任教授探讨了在人工智能技术得到广泛应用的数字时代,学生创新意识培育、价值观塑造等问题。
在技术的应用中探求未来的方向
中国人民大学刘永谋教授首先介绍了ChatGPT技术的现状,并指出该技术所代表的人工智能已经成为颠覆传统人文学科教育模式、重塑教育体系的力量。随后,刘教授以AI辅助生活趋势下的文科教育和学生就业问题为切入点,深入探讨了人工智能技术对文科教育变革的影响方向,并强调数字时代下的文科教育需要遵循技能与意义并重的教学目标,发展由博学到慎思、由专学到通学的教育体系。最后,刘教授从教学体系重塑、教师能力水平以及教育意识形态三个具体维度强调了教育数字化改革的关键在于转变基本理念,使人文学科教育能够直面数字化的挑战。
湖南省社会科学院张利文副研究员从学术期刊编辑的角度,指出学术论文的价值根本上取决于其作者所提供的思想观点。因此,当前基于自然语言处理模型的ChatGPT技术并不具备独立的主体性,不能够完全替代人工撰写论文,只能被视作辅助性的支持工具。针对人工智能参与写作所引发的问题,张老师以造成学术异化的机器查重技术为例,阐释了人机区别是具有可识别性的。虽然ChatGPT等人工智能技术可以提升人类写作效率,但它并不能完全替代高质量的学术论文创作。因此,张老师呼吁在人工智能时代,我们必须重新回归人文学科论文写作的规范性,并强调论文观点的创新性、逻辑性以及材料的真实性。这样,我们才能有效防止因人工智能技术应用引起的论文写作异化现象。
温州大学崔岐恩教授以“ChatGPT对话符号教育学”为题,认为在以ChatGPT为代表的人工智能技术的冲击下,人与教育两个概念都需要进行重新界定。他着重从历史发展的角度分析了符号及符号学的概念演变和教学方式的变革,并进一步指出了ChatGPT与符号教育在底层逻辑上的共通性。同时,崔教授以对符号学视野下教师角色的转型分析为出发点,提出了在面向未来的符号教育学中,应以虚拟符号为主媒介,并强调教师退隐以及意义感为本等重要观点。
此外,中国微软AzureAI职业标准开发项目组的专家成员、厦门大学博士生詹好和河海大学博士生金姿妏,分别从技术层面和哲学层面对ChatGPT进行了分析。詹好指出,ChatGPT的通用性在于其基础模型和Transformer模型基于自注意力机制的深度学习,而非对人类心智的模拟。金姿妏则从资本操纵、ChatGPT对人类能力的替代以及生产力革命等方面解释了ChatGPT被广泛关注的原因。基于数字与人文研究,她指出了在ChatGPT的应用下,人类思维与人工智能技术的互动演进,这引发了有关数字技术如何促进人文思考以及人类如何进行自我安置的讨论。在技术主体性不断凸显的时代,这些问题尽管难以完全回答,却是我们必须面对的现实挑战。
最后,在会议闭幕式上南京师范大学数字与人文研究中心学术委员会副主任徐强教授发表致辞,认为面对越来越微妙而复杂的人类与人工智能的关系,机器智能正在愈加接近、乃至超过人类的极限,人类引以为傲的理性正遭受着数字化的挑战。在这样的背景下,人文学者应当肩负起应对科技发展对人类提出的挑战的责任。同时他指出,数字与人文研究的真正意义就在于主动应对科技发展对人类的挑战。
本次会议的讨论聚焦于ChatGPT等人工智能技术对人文学科影响的关注。与会学者从不同学科、不同领域深入探讨了ChatGPT背后的人工智能技术及其社会效应,围绕技术本身与数字技术应用中的人文精神、伦理价值等不同层面的现实问题展开了充分交流和探讨,促进了各学科之间的交流与融合。
人工智能会对法律体系带来怎样的冲击
原创韩焱精选湛庐文化
人工智能将怎样改变人类的法律体系?千百年来,人类已经建立起了一套复杂的法律体系,不过,这套体系远远称不上“完美”。在法律执行层面,有意或无意的偏见,会导致人类常常不能做出公正的判决;在法律制定层面,技术的飞速进步,会导致现有体系不能及时适应最新的社会现状。
人工智能会对法律体系带来怎样的冲击?将如何深刻地改变人类社会的运行模式?
《生命3.0》
作者:(美)麦克斯·泰格马克
译者:王婕舒
1.
法律之争
人类是社会性动物,多亏了我们的合作能力,才战胜了其他动物,占领了地球。为了激励和促进合作,我们制定了法律。因此,如果人工智能可以改善我们的法律和政府系统,它就能让人类达到前所未有的合作水平,带来巨大的好处。在这方面,存在着大量的进步机会,不仅涉及法律的执行,还涉及法律的撰写。现在,我们就来探讨一下这两个方面。
当想到法院体系时,你的第一印象是什么?如果是冗长的延期、高昂的费用和偶尔出现的不公平,那么,你并不是唯一一个这样想的。如果能把这种第一印象扭转为“高效”和“公平”,是不是一件绝妙的事?
由于法律程序能被抽象地看作一个计算过程,输入证据和法律信息后就能输出判决结论,因此,许多学者梦想着能用“机器人法官”来将这个过程自动化。机器人法官就是一种人工智能,它能不知疲倦地将同样高的法律标准运用到每次判决中,而不会受到人类错误的影响,这些错误包括偏见、疲劳或知识陈旧等。
2.
机器人法官
1994年,美国白人拜伦·德·拉·小贝克威思因在1963年刺杀民权领袖梅加·埃弗斯而被判有罪,但在谋杀发生的第二年,尽管证据充足且完全相同,两个全由白人组成的密西西比陪审团却没有判决他有罪。呜呼哀哉,法律历史中充斥着因肤色、性别、性别取向、宗教、国籍等因素而导致的判决偏见。
从原则上来说,机器人法官能保证法律面前人人平等,这是有史以来的第一次。通过编程,机器人法官可以对所有人一视同仁,并可以完全透明、不偏不倚地运用法律。
机器人法官还可以消除意外出现而非有意为之的人类偏见。比如,2012年,有人对以色列的法官进行了一项富有争议的研究,研究声称,当法官饥饿时,就会做出更加严厉的判决。但是,这些法官否认大约35%的假释决定发生在刚吃完早餐以后,也否认超过85%的假释拒绝发生于正要吃午餐前。人类判断的另一个缺点是,人类没有足够的时间来了解每个案件的所有细节。相比之下,机器人法官可以很容易地进行复制,因为它们只由软件组成,可以同时处理所有的未决案件,而不用一个接一个地解决。这样一来,机器人法官就可以在每个案件上花费足够长的时间。
最终,尽管人类法官不可能掌握困扰司法科学领域的每个案子(从棘手的专利纠纷到神秘谋杀案)所需要的技术知识,但从本质上来说,未来的机器人法官却拥有无穷无尽的记忆空间和学习能力。
总有一天,这样的机器人法官将变得更加有效和公平,因为它们不偏不倚,公正不阿,聪明能干,并且办案透明。它们的高效会进一步提升公平性。通过加快司法程序建设,使其更难被狡猾的律师影响,机器人法官就能以相当低的成本实现法庭的公正性。当穷人与亿万富翁或者坐拥豪华律师阵营的跨国企业对抗时,这可以极大地提高前者获胜的机会。
3.
让法律适应人工智能的进步
到目前为止,我们只探索了法律方面的应用,现在让我们来看看法律的内容。大多数人都认同,我们的法律需要不断地更新,以跟上技术的脚步。比如,那两个创造了“ILOVEYOU”蠕虫、造成了几十亿美元损失的程序员,之所以被宣判无罪,大摇大摆地走出了法庭,只是因为那个年代的菲律宾还没有制定针对恶意软件的法律。
由于技术进步一直在不断地加速,因此,法律总易表现出落后于技术的倾向。我们必须以更快的速度更新法律,才能让法律跟上技术的发展。让更多热爱技术的人进入法学院和政府,或许是一个有益社会的妙招。但接下来,应不应该在选举和立法方面使用基于人工智能的决策支持系统?或者彻底一点,干脆用机器来立法?
如何改变我们的法律以适应人工智能的进步,这是一个令人着迷的争议话题。其中一个争论反映了隐私与信息自由之间剑拔弩张的紧张关系。自由派认为,我们拥有的隐私越少,法庭拥有的证据就越多,判决就会越公平。比如,如果政府有权接入每个人的电子设备,记录他们的位置、他们输入的内容、点击的东西以及所说的话和做的事,许多犯罪行为就能被抓个现形,还可能被杜绝。而隐私派的支持者反驳说,他们不想看到奥威尔式的监控;即便自由派认同的这种情况真的出现了,社会很可能会陷入大规模的集权主义的独裁局面。此外,机器学习技术通过分析功能磁共振成像扫描仪等脑部传感器收集的大脑数据,以判断人类想法(尤其是测谎)的能力逐渐变得越来越强。
在目前的法庭上,案例事实的还原是一个单调而又冗长的过程;如果让基于人工智能技术的脑部扫描技术走进法庭,这个过程将被极大地简化和加快,能使判决更快,也更公平。但是,隐私派的支持者可能会担心这种系统会不会犯错误。
还有一个更根本的问题是,我们的思想到底应不应该接受政府的检查。如果一个政府反对自由主义,那它可以用这种技术对拥有这些信仰和观点的人定罪。在公正和隐私之间、在保护社会和保护个人自由之间,你的界限在哪里?这条界限(无论它在哪里)会不会不可阻挡地逐渐移向减少隐私的方向,以此来抵消证据越来越容易被伪造的事实?
比如,如果人工智能有能力生成一段你实施犯罪的虚假视频,而且它看起来非常真实,简直能以假乱真,那么,你会不会投票支持政府追踪每个人的实时位置,以此来洗刷你被栽赃的罪名?
《生命3.0》
作者:(美)麦克斯·泰格马克
译者:王婕舒
原标题:《人工智能会对法律体系带来怎样的冲击?》
阅读原文