人工智能的伦理挑战与科学应对
【光明青年论坛】
编者按
2023年2月21日,中国外交部正式发布《全球安全倡议概念文件》,呼吁“加强人工智能等新兴科技领域国际安全治理,预防和管控潜在安全风险”。在中国式现代化进程中,人工智能的技术革新是助推我国科技创新的重要力量之一。作为最具代表性的颠覆性技术,人工智能在给人类社会带来潜在巨大发展红利的同时,其不确定性也会带来诸多全球性挑战,引发重大的伦理关切。习近平总书记高度关注人工智能等新兴科技的发展,强调要加快提升“人工智能安全等领域的治理能力”,“塑造科技向善的文化理念,让科技更好增进人类福祉”。为此,本版特组织几位青年学者围绕人工智能的伦理挑战与科学应对展开讨论,并邀请专家予以点评,以期引发学界的更多关注,为推动人工智能健康发展贡献智慧。
与谈人
彭家锋 中国人民大学哲学院博士生
虞昊 华东师范大学政治与国际关系学院博士生
邓玉龙 南京师范大学哲学系博士生
主持人
刘永谋 中国人民大学哲学院教授、国家发展与战略研究院研究员
1.机遇与挑战并存的人工智能
主持人:新技术革命方兴未艾,以人工智能等为代表的新兴科技快速发展,大大拓展了时间、空间和人们的认知范围,人类正在进入一个“人机物”相融合的万物智能互联时代。请具体谈谈人工智能给人类社会发展带来什么样的机遇?
彭家锋:人工智能、大数据、物联网、云计算等智能技术蓬勃兴起,对人类社会的方方面面产生深刻影响,推动整个社会逐步迈入智能社会。在此过程中,存在许多重大历史机遇需要我们把握。就技术治理而言,人工智能作为一种治理技术,正在助推社会治理的治理理念、治理方式、治理效能等方面的变革,将传统技术治理提升至智能化新阶段,呈现出“智能治理的综合”趋势。智能治理将全面提升社会公共治理的智能化水平,主要呈现出四个方面的特征:一是治理融合化,即促进各种智能技术与其他治理技术相互融合,大幅度提升智能社会的治理水平;二是治理数据化,即以日益增长的海量数据为基础,通过对数据映射出来的“数字世界”进行社会计算,实现治理目标;三是治理精准化,即发挥智能技术强大的感知能力、传输能力和计算能力,将传统的粗放治理转变为精准治理;四是治理算法化,即不断完善智能决策系统,尝试将程序化的算法决策扩展到更多的决策活动中,从而提高决策质量。
虞昊:人工智能有助于反思人类社会得以建立与发展的基础。随着分析式AI向着生成式AI不断演变,尤其是生成式AI初步展现出判别问题、分析情感、展开对话、创作内容等越来越具有人类特征的功能,原本属于人类的领域正被人工智能以另一套由“0”与“1”构成的计算机语言逐步侵蚀。这既是对人类社会的冲击,也势必会在更加平等的开放性框架中增强人类的主体性,促进人类社会进一步发展。
邓玉龙:总体来说,以人工智能为代表的新科技发展,显著提升了社会生产力。例如,生成式AI不但能完成传统AI的分析、判断工作,还能进一步学习并完成分析式AI无法从事的创造性工作。从人机交互的角度来看,人工智能也促进了生产关系的高效发展。具体表现在:一是刺激劳动形态的转化。人工智能高效承担大量的基础机械性劳动,人类劳动则向高阶的创造性劳动转化,由此引发社会层面的劳动结构转型、升级,并且以人工智能为中介,社会范围内的劳动整合、协调能力也实现升级。二是促进劳动场域的重构。随着劳动形态的转化和劳动的社会化扩展,人工智能将劳动从固定场域中解放出来,人类劳动的灵活性增加。相比于创造性劳动,机械性劳动更加受到空间和时间的制约,而在人工智能从技术层面替代更低边际成本的基础性劳动之后,人类劳动空间和时间的自由性实现跃迁。三是对主体的发展提出了更高要求,尤其是对主体适应社会发展提出了更高要求。人工智能技术的发展对人类传统的知识结构提出挑战,要求人类更新原有的知识结构以适应社会发展需要,也对教育提出更高要求,教育模式和教育内容需要更契合科技发展的水平,培养更加全面发展的人才。
主持人:人工智能的一系列产物在给人们带来生活便利的同时,也一定程度上引起大家对其可能引发的伦理挑战的警惕。一些人关注人工智能的风险问题,对人工智能的推进有些焦虑。如何看待这种警惕和焦虑?
虞昊:人工智能的风险以及由此带来的焦虑,是完全可以理解的。但我们无法返回一个没有人工智能的世界,人工智能已然深度介入人类社会,试图遏制人工智能的推进只能是螳臂当车。同时我们对人工智能的发展也不能放任不管,无视甚至于压制人工智能的推进只能是掩耳盗铃。因此,我们应该正视这种焦虑,在发展人工智能的过程中探求解决方案,在人工智能带来的风险中寻求危中之机。
邓玉龙:我们应正确看待这种焦虑。要看到,焦虑有其积极的意义,它体现人类的忧患意识,催生对人工智能风险的预见性思考,提醒我们注意焦虑背后人工智能技术发展存在的问题。正确对待焦虑有助于积极采取措施防范风险,辩证分析焦虑中先见性的思考,通过社会治理模式的升级化解风险问题。同时,仅有焦虑和恐惧是不够的,更重要的是积极解决人工智能发展带来的社会问题。从劳动的角度看,人工智能确实会取代部分人类劳动,推动劳动结构转型升级,让劳动向着碎片化、个体化方向发展,劳动者处于弱势地位,面临着“机器换人”的挑战。但是我们也应该理性认识到,人工智能不是对人类劳动能力的完全替代,而是对劳动者提出了更高的要求,要求劳动者掌握科学知识,将技术的发展内化为自身能力,在更具创造性的劳动中实现自身价值。
彭家锋:任何技术的发明使用,不可避免地伴随着这样或那样的风险。人工智能技术自然也不例外,在其应用过程中,同样引发了诸如隐私泄露、算法歧视、法律责任等风险问题。因此,关注人工智能的风险问题,并由此对人工智能的推进产生焦虑,具有一定理论依据和现实基础。但更应当清醒地认识到,人工智能的某些相关风险可以提前得到规避,并不必然会发生;即便真的发生,也仍可不断寻求化解风险的有效手段。以个人隐私滥用风险为例,在治理过程中,虽然不可避免地会涉及个人数据收集和分析处理,但可以通过建立完整的规范和监管体系来保护个人隐私,降低滥用风险。
2.人工智能科技竞争的“伦理赛道”
主持人:习近平总书记在以视频方式出席二十国集团领导人第十五次峰会时指出,“中方支持围绕人工智能加强对话,倡议适时召开专题会议,推动落实二十国集团人工智能原则,引领全球人工智能健康发展”。请谈谈“人工智能原则”应包含哪些内容?科技向善的文化理念对推动全球人工智能健康发展具有怎样的现实价值?
彭家锋:为应对人工智能等新科技快速发展带来的伦理挑战,2022年,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,其中明确了“增进人类福祉”“尊重生命权利”“坚持公平公正”“合理控制风险”“保持公开透明”等五项科技伦理原则。我认为,这五项原则基本涵盖了人工智能原则的伦理要求,彰显了科技向善的文化理念。科技向善的文化理念,根本目标是让科技发展更好地服务社会和人民,带来良好社会或社会公益的善。科技向善对推动全球人工智能健康发展至少具有以下三个方面现实价值:一是塑造公众信任。公众对人工智能的信任很大程度上并不完全由相关风险程度决定,而是取决于公众的利益与价值是否得到足够重视。后者正是科技向善的内在要求。二是引领技术创新。科技向善的文化理念将在技术创新发展过程中发挥价值引领作用。三是促进全球合作。科技向善的文化理念试图在全球范围内建立人工智能伦理规范的“最大公约数”,各国在达成伦理共识的基础之上,能够建立互信,实现更加充分深入的国际合作。
虞昊:个人认为,人工智能原则也应包含非对抗与非失控的理念。非对抗意味着不应将人工智能视作人类社会的对抗性存在,人工智能已经成为人类社会的构成性要素,我们必须持更为开放的态度去面对人工智能。非失控意味着不应放弃对人工智能的伦理规范,应以智能的方式去规范加速发展的人工智能。如果以上述理念为前提,也就是说,在支持人工智能发展的情况下,科技向善的文化理念在推动全球人工智能健康发展中就变得极为重要。此处的“善”在国家治理层面即指向“善治”,而当人工智能的发展从国家范围扩展到全球范围,“善治”就在构建人类命运共同体的意义上拥有了更贴近现实的内涵。各国应摒弃冷战思维与零和博弈,基于善意与友谊共同思考人类作为整体如何在人工智能的冲击下通往全球性的“善治”。
邓玉龙:2019年欧盟发布《可信赖的人工智能伦理准则》,2021年中国国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》(以下简称《规范》)。与欧盟发布的伦理准则相比,《规范》体现了中国特色社会主义的制度优势,旨在将伦理规范融入人工智能全生命周期。人工智能发展的根本目的是促进人的全面发展,因此,我以为,人工智能原则还应体现共享和有序发展的要求。共享,旨在防止人工智能的技术垄断。科技发展应该兼顾全体人民的利益,而不是服务于少数群体,由全体人民共享科技发展成果,推动全球科技水平的共同增长。有序发展,旨在防止人工智能技术的无序扩张。人工智能技术的发展最终是为了提升人的幸福感,推动科技有序发展能够促进人机和谐融合,有效预防潜在无序扩张的风险。
主持人:从规范层面来说,伦理反思对规范人工智能发展的作用主要体现在哪些方面?
彭家锋:近年来,世界各主要国家在人工智能领域竞争日趋激烈,纷纷将人工智能发展置于国家发展的战略层面。比如,美国陆续出台《国家人工智能研究和发展战略计划》(2016)和《关于维持美国在人工智能领域领导地位的行政命令》(2019);欧盟先后发布《欧洲人工智能战略》(2018)和《人工智能白皮书》(2020);中国也较早发布了《“互联网+”人工智能三年行动实施方案》(2016)和《新一代人工智能发展规划》(2017)。人工智能科技竞争的客观局面已然形成。在此背景下,如果忽视人工智能技术发展所带来的全球性风险与挑战,极有可能陷入技术赶超的竞争逻辑。因此,亟须规范人工智能的科技竞争,而倡导伦理反思或许就是一条可行之路。伦理反思的意义至少在于:一是设定伦理底线。人工智能技术的开发和应用需要遵循一些基本的价值理念和行为规范。只有守住伦理底线,才有可能避免颠覆性风险的发生。二是实现敏捷治理。伦理反思是一个动态、持续的过程,贯穿于人工智能科技活动的全生命周期。为了确保其始终服务于增进人类福祉和科技向善的初衷,需要保持应有的道德敏感性,以灵活、及时、有效的手段化解人工智能带来的各种伦理挑战,确保其在科技向善的道路上行稳致远,实现良性发展。
邓玉龙:人工智能科技竞争是为了促进科学技术发展,而科学技术发展的最终目的是推动人类社会的进步。人工智能科技竞争不应该仅包括技术竞争的单一维度,更不应该通过技术优势遏制他国的科技发展,而应该是在人工智能科技条件下的综合性竞争,通过良性竞争促进全球人工智能和全人类的共同发展。其中就应该包括社会治理竞争,通过社会治理保障社会公平,因而对社会中人与人关系的伦理反思构成人工智能科技竞争的有机组成部分。首先,伦理反思对人工智能科技竞争提出了更高的要求。人工智能的公平性、可信任性、可解释与透明度、安全性不仅是伦理要求,也代表了人工智能技术的发展方向,是人工智能科技竞争需要抢占的技术制高点。科技的发展是为了人的全面发展,因而人的发展内嵌于科技发展要求,伦理反思有助于防止工具主义的泛滥。其次,伦理反思为人工智能科技竞争提供价值引导。伦理反思注重保障人的权利,科技发展并不是社会发展中的唯一衡量因素,我们还应该关注其中多样性的因素,尤其注重保护特殊群体的利益,例如防止数据鸿沟等不良影响。伦理反思有助于实现人工智能的综合性健康发展。
3.人工智能安全与人的全面发展
主持人:科学探究一直以来都是人们认识世界和了解自身的重要认知方式,人工智能等信息产业的革命如何影响着人们的认知方式?
彭家锋:人工智能等信息产业的革命,促进了科学研究新范式——数据科学的诞生,进而对人们的认知方式产生深刻影响。数据科学被认为是继实验、理论和模拟之后的新的科研范式。相较于传统科学,数据科学融合了统计和计算思维,通过人工智能等技术提供的海量数据、强大算法和算力,能够直接从数据中寻找相关关系、提取相关性或者预测性知识,进而产生一种基于相关性的科学思维模式。但这种相关性并不一定能够转化为因果关系,因为可解释性对于从数据科学技术确定的相关性中提取因果解释至关重要,而相关技术一般都缺乏必要的透明度和可解释性。数据科学更可能成为一种预测科学,但是预测并不是科学追求的唯一目标。通过揭示世界的潜在因果结构来解释和干预现象,也是科学的两个重要目标。因此,尽管数据科学能够通过分析大量数据生成相关性知识,却不能直接产生因果解释。对此,传统科学的可检验性假设方法和因果规律探求仍有其重要价值。数据科学并非取代传统科学,相反,两者将相互补充,共同成为人类探索世界的有效工具。
虞昊:显而易见的是,随着人工智能向着通用人工智能迈进,其能够为人们提供的教育资源、生活娱乐、工作讯息也越来越丰富,人们势必越来越依赖于通过与人工智能进行交互来获取外界信息。因此,当人工智能深度地构成人们认知世界的滤镜时,若不对人工智能本身具有重复性、同质性倾向的认知框架保持警醒,人工智能可能扭曲人们的认知方式直至影响人的主体创造性。
邓玉龙:以人工智能为代表的全新技术发展被称为第四次工业革命,其中最显著的特征就是机器与人类的深度融合,机器不再作为一种外在性的工具被人类使用,而是在与人类的深度关联中影响人类的认知方式。一方面,信息产业革命丰富了人类认知的联结方式。人工智能和大数据技术的发展促进人类的分析逻辑从因果关系扩展为相关关系,对相关关系的重视使人工智能可以从大数据而非小数据维度获取信息,为人类认知提供新的视角。按照传统人类认知方式的理解,因果关系要求关于世界的认知是确定性的,而这在数字时代的复杂性社会中很难实现。人工智能对相关关系的认知填补了这一缺失,允许我们在无法掌握确定信息但在掌握大量数据的条件下对未来趋势作出预测。另一方面,如果我们对人工智能等科技的输出结果和生成内容盲目信赖,将结果和内容与经验事实之间进行绝对等同的连接,误认为是事实的全部,那么我们就会丧失人文主义抽象反思的能力,对此我们应当保持警惕,始终坚持反思和批判的人文精神。
主持人:如何调适人的主体创造性与信息高度集成共享之间的关系?
彭家锋:当人们逐渐将更多创造性工作交由人工智能完成,不免让人担忧人工智能是否将会威胁到人的主体创造性。从人机关系的角度来看,这种担忧是基于一种人机敌对论的视角,认为人工智能挤压了人的主体创造性空间,是替代逻辑的延续。但从人机协作的视角出发,将人工智能看作人的得力帮手,通过创造性地使用人工智能可以赋予人类更大的创造性空间。比如,在进行文字写作、多媒体脚本、程序代码、文稿翻译等工作时,可先由人工智能高水平地完成草稿工作,然后再由人类进行一些创造性的调整和发挥。此时人工智能生成的内容将成为进一步创作的原材料,人类将以更高的效率投入创造性活动之中。当然,要实现以上效果并非易事,不仅需要思想观念的转变,还应在制度安排、教育方式等方面作出相应调整。
虞昊:面对信息高度集成共享的人工智能,人有可能转变为算法的动物。试想下述场景:当依据人工智能展开行动变得足够便捷有效时,行动者便会倾向于采信人工智能,此时,看似是人类行动者基于自然语言在进行互动,实则是算法逻辑基于计算机语言在进行数字化运转。于是,人的主体创造性被侵蚀,人可能沦为算法动物。对此类情形,我们应该保持足够的清醒与警惕。
邓玉龙:人工智能技术生成的内容(AIGC)具有高度集成共享的特性,能够高效地对人类知识进行数据挖掘、信息生成。调适人的主体创造性与信息高度集成共享之间的关系,我们需做到如下几个方面:首先,需要通过人的创造性扩大AIGC数据库,当下AIGC主要是依赖于大语言模型,以大量的网络文本作为训练数据库生成的,通过人的创造性生成可以不局限于网络文本,而是进一步扩展数据库的训练文本,从而提高其丰富度。其次,需要通过人的创造性为AIGC提供价值训练,通过人的创造性生成的价值立场、伦理法则等与AIGC的训练数据库相融合,从而建构可信赖、可持续的信息高度集成共享机制。最后,需要将人创造性生成的内容与AIGC共同作为人类知识的来源,人类知识的获得不能仅仅局限于AIGC,而是需要人发挥其主体创造性对人工智能技术生成的内容进行反思和拓展,将人类无法被数据化的、经验性的知识与AIGC数据化的知识融合成为人类知识的来源。
(本版编辑张颖天整理)
人工智能导论
第一章1.作为计算机科学的一个分支,人工智能的英文缩写是()。AI
2.人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门交叉科学,它涉及(D)。
A.自然科学B.社会科学C.技术科学D.A、B和C
3.人工智能定义中的“智能”,涉及到诸如(A)等问题。
A.B、C和DB.意识C.自我D.思维
4.下列关于人工智能的说法不正确的是(C)。
A.人工智能是关于知识的学科――怎样表示知识以及怎样获得知识并使用知识的科学。
B.人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。
C.自1946年以来,人工智能学科经过多年的发展,已经趋于成熟,得到充分应用。
D.人工智能不是人的智能,但能像人那样思考,甚至也可能超过人的智能。
5.人工智能经常被称为世界三大尖端技术之一,下列说法中错误的是(B)。
A.空间技术、能源技术、人工智能
B.管理技术、工程技术、人工智能
C.基因工程、纳米科学、人工智能
D.人工智能已成为一个独立的学科分支,无论在理论和实践上都已自成系统
6.人工智能与思维科学的关系是实践和理论的关系。从思维观点看,人工智能不包括(A)。
A.直觉思维B.逻辑思维C.形象思维D.灵感思维
7.强人工智能强调人工智能的完整性,下列(C)不属于强人工智能。
A.(类人)机器的思考和推理就像人的思维一样
B.(非类人)机器产生了和人完全不一样的知觉和意识
C.看起来像是智能的,其实并不真正拥有智能,也不会有自主意识
D.有可能制造出真正能推理和解决问题的智能机器
8.被誉为“人工智能之父”的科学大师是(D)。
A.爱因斯坦B.冯·诺依曼C.钱学森D.图灵
9.电子计算机的出现使信息存储和处理的各个方面都发生了革命。下列说法中不正确的是(C)。
A.计算机是用于操纵信息的设备
B.计算机在可改变的程序的控制下运行
C.人工智能技术是后计算机时代的先进工具
D.计算机这个用电子方式处理数据的发明,为实现人工智能提供了一种媒介
10.Wiener从理论上指出,所有的智能活动都是(A)机制的结果,而这一机制是有可能用机器模拟的。这项发现对早期AI的发展影响很大。
A.反馈B.分解C.抽象D.综合
11.(B)年夏季,一批有远见卓识的年轻科学家在达特茅斯学会上聚会,共同研究和探讨用机器模拟智能的一系列有关问题,首次提出了“人工智能(AI)”这一术语,它标志着“人工智能”这门新兴学科的正式诞生。
A.1946B.1956C.1976D.1986
12.用来研究人工智能的主要物质基础以及能够实现人工智能技术平台的机器就是计算机。下列(D)不是人工智能研究的主要领域。
A.深度学习B.计算机视觉C.智能机器人D.人文地理
13.人工智能在计算机上的实现方法有多种,但下列(B)不属于其中。
A.传统的编程技术,使系统呈现智能的效果
B.多媒体拷贝复制和剪贴的方法
C.传统开发方法而不考虑所用方法是否与人或动物机体所用的方法相同
D.模拟法,不仅要看效果,还要求实现方法也和人类或生物机体所用的方法相同或相类似
14.人工智能当前的发展具有“四新”特征,下面(A)不属于其中之一。新挑战
A.新能源B.新突破C.新动能D.新高地
15.通过总结人工智能发展历程中的经验和教训,我们可以得到的启示是(D)。
A.尊重发展规律是推动学科健康发展的前提,实事求是设定发展目标是制定学科发展规划的基本原则
B.基础研究是学科可持续发展的基石
C.应用需求是科技创新的不竭之源,学科交叉是创新突破的“捷径”,宽容失败是支持创新的题中应有之义
D.A、B和C
16.人工智能的发展突破了“三算”方面的制约因素,这“三算”不包括(C)。
A.算法B.算力C.算子D.算料
17.得益于人工智能技术的兴起,一些行业岗位将呈现出显着的增长趋势,但下面(C)不属于其中之一。
A.数据科学家B.机器学习工程师C.电脑维修工程师D.AI硬件专家
18.有研究指出,人工智能可能会给人类社会带来潜在威胁,包括(D)。
A.数字安全B.物理安全C.政治安全D.A、B和C
19.有研究者认为,让计算机拥有智商是很危险的,它可能会反抗人类。这种隐患已经在(B)中呈现过,其关键是允不允许机器拥有自主意识的产生与延续。
A.法律文件B.多部电影C.政府报告D.一些案例
第三章1.19世纪以来,当面临大量数据时,社会都依赖于采样分析。但是采样分析是(C)时代的产物。
A.电脑B.青铜器C.模拟数据D.云
2.长期以来,人们已经发展了一些使用尽可能少的信息的技术。例如,统计学的一个目的就是(C)
A.用尽可能多的数据来验证一般的发现
B.同尽可能少的数据来验证尽可能简单的发现
C.用尽可能少的数据来证实尽可能重大的发现
D.用尽可能少的数据来验证一般的发现。
3.因为大数据是建立在(A),所以我们就可以正确地考察细节并进行新的分析。
A.掌握所有数据,至少是尽可能多的数据的基础上的
B.在掌握少量精确数据的基础上,尽可能多地收集其他数据
C.掌握少量数据,至少是尽可能精确的数据的基础上的
D.尽可能掌握精确数据的基础上
4.直到今天,我们的数字技术依然建立在精准的基础上,这种思维方式适用于掌握(A)的情况。
A.小数据量B.大数据量C.无数据D.多数据
5.当人们拥有海量即时数据时,绝对的精准不再是人们追求的主要目标。当然,(C)。
A.我们应该完全放弃精确度,不再沉迷于此
B.我们不能放弃精确度,需要努力追求精确度
C.我们也不是完全放弃了精确度,只是不再沉迷于此
D.我们是确保精确度的前提下,适当寻求更多数据
6.为了获得更广泛的数据而牺牲了精确性,也因此看到了很多如若不然无法被关注到的细节。(B)。
A.在很多情况下,与致力于避免错误相比,对错误的包容会带给我们更多问题
B.在很多情况下,与致力于避免错误相比,对错误的包容会带给我们更多好处
C.无论什么情况,我们都不能容忍错误的存在
D.无论什么情况,我们都可以包容错误
7.以前,统计学家们总是把他们的兴趣放在提高样本的随机性而不是数量上。这时因为(C)。
A.提高样本随机性可以减少对数据量的需求
B.样本随机性优于对大数据的分析
C.可以获取的数据少,提高样本随机性可以提高分析准确率
D.提高样本随机性是为了减少统计分析的工作量
8.研究表明,在少量数据情况下运行得最好的算法,当加入更多的数据时,(A)。
A.也会像其他的算法一样有所提高,但是却变成了在大量数据条件下运行得最不好的
B.与其他的算法一样有所提高,仍然是在大量数据条件下运行得最好的
C.与其他的算法一样所有提高,在大量数据条件下运行得还是比较好的
D.虽然没有提高,还是在大量数据条件下运行得最好的
9.如今,要想获得大规模数据带来的好处,混乱应该是一种(D)。
A.不正确途径,需要竭力避免的
B.非标准途径,应该尽量避免的
C.非标准途径,但可以勉强接受的
D.标准途径,而不应该是竭力避免的
10.研究表明,只有()的数字数据是结构化的且能适用于传统数据库。如果不接受混乱,剩下(C)的非结构化数据都无法被利用。
A.95%,5%B.30%,70%C.5%,95%D.70%,30%
11.寻找(B)是人类长久以来的习惯,即使确定这样的关系很困难而且用途不大,人类还是习惯性地寻找缘由。
A.相关关系B.因果关系C.信息关系D.组织关系
12.在大数据时代,我们无须再紧盯事物之间的(A),而应该寻找事物之间的(),这会给我们提供非常新颖且有价值的观点。
A.因果关系,相关关系B.相关关系,因果关系
C.复杂关系,简单关系D.简单关系,复杂关系
13.所谓相关关系,其核心是指量化两个数据值之间的数理关系。相关关系强是指当一个数据值增加时,另一个数据值很有可能会随之(C)。
A.减少B.显现C.增加D.隐藏
14.通过找到一个现象的(D),相关关系可以帮助我们捕捉现在和预测未来。
A.出现原因B.隐藏原因C.一般的关联物D.良好的关联物
15.大数据时代,专家们正在研发能发现并对比分析非线性关系的技术工具。通过(A),相关关系帮助我们更好地了解了这个世界。
A.探求“是什么”而不是“为什么”
B.探求“为什么”而不是“是什么”
C.探求“原因”而不是“结果”
D.探求“结果”而不是“原因”
第四章1.搜索是大多数人生活中的(B)。
A.稀罕情况B.自然组成部分
C.不可能出现D.大概率事件
2.搜索及其执行是人工智能技术的(C)。
A.一般应用B.重要应用C.重要基础D.不同领域
3.关于搜索算法,下面不正确或者不合适的说法是(D)。
A.利用计算机的高性能来有目的的穷举一个问题的部分或所有的可能情况,从而求出问题的解的一种方法
B.根据初始条件和扩展规则构造一颗“解答树”并寻找符合目标状态的节点
C.可以划分成两个部分——控制结构(扩展节点的方式)和产生系统(扩展节点)
D.主要是通过修改其数据结构来实现的
4.关于盲目搜索,下列选项中不正确或者不合适的选项是(A)。
A.又叫启发式搜索,是一种多信息搜索
B.这些算法不依赖任何问题领域的特定知识
C.一般只适用于求解比较简单的问题
D.通常需要大量的空间和时间
5.盲目搜索通常是按预定的搜索策略进行搜索,常用的盲目搜索有(C)两种。
A.连续搜索和重复搜索B.上下搜索和超链接搜索C.广度优先搜索和深度优先搜索D.多媒体搜索和AI搜索
6.状态空间图是一个有助于形式化搜索过程的(D),是对一个问题的表示。
A.程序结构B.算法结构C.模块结构D.数学结构
7.回溯算法是所有搜索算法中最为基本的一种算法,它采用一种“(A)”思想作为其控制结构。
A.走不通就掉头B.一走到底
C.循环往复D.从一点出发不重复
8.盲目搜索是不使用领域知识的不知情搜索算法,它有3种主要算法,下列(C)不属于其中。
A.深度优先搜索B.广度优先搜索
C.广度迭代搜索D.迭代加深的深度优先搜索
9.知情搜索是用启发法,通过(B)来缩小问题空间,是问题求解中通常是很有用的工具。
A.既不限定搜索深度也不限定搜索宽度
B.限定搜索深度或是限定搜索宽度
C.提高搜索算法智能化水平D.提高搜索算法的软件工程设计水平
10.爬山法是贪婪且原始的,它可能会受到3个常见问题的困扰,但下列(D)不属于这样的问题。
A.山麓问题B.高原问题C.山脊问题D.压缩问题
11.启发法是用于解决问题的一组常用指南。使用启发法,我们可以得到一个(A)的结果。
A.很有利但不能保证B.很有利且可以得到有效保证
C.不利且不能得到保证D.不明确
12.启发式搜索方法的目的是在考虑到要达到的目标状态情况下,(B)节点数目。
A.极大地增加B.极大地减少C.稳定已有的D.无须任何
13.有3种为找到任何解的知情搜索的特定搜索算法,但下列(C)不属于其中之一。
A.爬山法B.最陡爬坡法C.直接爬坡法D.最佳优先法
14.有一些搜索算法的设计灵感来自于自然系统,例如遗传、(D)等典型算法在图像边缘检测、图像分割、图像识别、图像匹配、图像分类等领域有广泛应用。
A.蚁群B.模拟退火C.粒子群D.A、B和C
第七章1.在线影片租赁服务商Netflix的主营业务是提供互联网随选流媒体播放,它所依赖的关键服务是(B)。
A.搜索引擎B.推荐引擎C.百度引擎D.谷歌引擎
2.下列(D)信息服务利用了人工智能的机器学习技术。
A.智能语音助手SiriB.Alexa个人助理客户端
C.Netflix电影推荐D.上述所有都是
3.机器学习最早的发展可以追溯到(A)。
A.英国数学家贝叶斯在1763年发表的贝叶斯定理
B.1950年计算机科学家图灵发明的图灵测试
C.1952年亚瑟·塞缪尔创建的一个简单的下棋游戏程序
D.唐纳德·米奇在1963年推出的强化学习的tic-tac-toe(井字棋)程序
4.学习是人类具有的一种重要的智能行为,社会学家、逻辑学家和心理学家都各有其不同的看法。关于机器学习,合适的定义是(D)。
A.兰利的定义是:“机器学习是一门人工智能的科学,该领域的主要研究对象是人工智能,特别是如何在经验学习中改善具体算法的性能”
B.汤姆·米切尔的定义是:“机器学习是对能通过经验自动改进的计算机算法的研究”
C.Alpaydin的定义是:“机器学习是用数据或以往的经验,以此优化计算机程序的性能标准”
D.A、B、C都可以
5.机器学习的核心是“使用(C)解析数据,从中学习,然后对世界上的某件事情做出决定或预测”。
A.程序B.函数C.算法D.模块
6.有三种主要类型的机器学习:监督学习、非监督学习和(B)学习,各自有着不同的特点。
A.重复B.强化C.自主D.优化
7.监督学习的主要类型是(A)。
A.分类和回归B.聚类和回归C.分类和降维D.聚类和降维
8.无监督学习又称归纳性学习,分为(D)。
A.分类和回归B.聚类和回归C.分类和降维D.聚类、离散点检测和降维
9.强化学习使用机器的个人历史和经验来做出决定,其经典应用是(C)。
A.文字处理B.数据挖掘C.游戏娱乐D.自动控制
10.要完全理解大多数机器学习算法,需要对一些关键的数学概念有一个基本的理解。机器学习使用的数学知识主要包括(D)。
A.线性代数B.微积分C.概率和统计D.A、B、C
11.机器学习的各种算法都是基于(A)理论的。
A.贝叶斯B.回归C.决策树D.聚类
监督学习的大部分算法基于回归理论。
12.在机器学习的具体应用中,(D)决定了学习系统基本结构的工作内容,确定了学习部分所需要解决的问题。
A.环境B.知识库C.执行部分D.A、B、C
以上解答若有错误之处,请及时留言错误处及修改后答案,我会及时更正。
doc版本下载地址:
https://wws.lanzous.com/iqpIbimdaeh
人工智能的伦理挑战
原标题:人工智能的伦理挑战控制论之父维纳在他的名著《人有人的用处》中曾在谈到自动化技术和智能机器之后,得出了一个危言耸听的结论:“这些机器的趋势是要在所有层面上取代人类,而非只是用机器能源和力量取代人类的能源和力量。很显然,这种新的取代将对我们的生活产生深远影响。”维纳的这句谶语,在今天未必成为现实,但已经成为诸多文学和影视作品中的题材。《银翼杀手》《机械公敌》《西部世界》等电影以人工智能反抗和超越人类为题材,机器人向乞讨的人类施舍的画作登上《纽约客》杂志2017年10月23日的封面……人们越来越倾向于讨论人工智能究竟在何时会形成属于自己的意识,并超越人类,让人类沦为它们的奴仆。
一
维纳的激进言辞和今天普通人对人工智能的担心有夸张的成分,但人工智能技术的飞速发展的确给未来带来了一系列挑战。其中,人工智能发展最大的问题,不是技术上的瓶颈,而是人工智能与人类的关系问题,这催生了人工智能的伦理学和跨人类主义的伦理学问题。准确来说,这种伦理学已经与传统的伦理学旨趣发生了较大的偏移,其原因在于,人工智能的伦理学讨论的不再是人与人之间的关系,也不是与自然界的既定事实(如动物,生态)之间的关系,而是人类与自己所发明的一种产品构成的关联,由于这种特殊的产品――根据未来学家库兹威尔在《奇点临近》中的说法――一旦超过了某个奇点,就存在彻底压倒人类的可能性,在这种情况下,人与人之间的伦理是否还能约束人类与这个超越奇点的存在之间的关系?
实际上,对人工智能与人类之间伦理关系的研究,不能脱离对人工智能技术本身的讨论。在人工智能领域,从一开始,准确来说是依从着两种完全不同的路径来进行的。
首先,是真正意义上的人工智能的路径,1956年,在达特茅斯学院召开了一次特殊的研讨会,会议的组织者约翰・麦卡锡为这次会议起了一个特殊的名字:人工智能(简称AI)夏季研讨会。这是第一次在学术范围内使用“人工智能”的名称,而参与达特茅斯会议的麦卡锡和明斯基等人直接将这个名词作为一个新的研究方向的名称。实际上,麦卡锡和明斯基思考的是,如何将我们人类的各种感觉,包括视觉、听觉、触觉,甚至大脑的思考都变成称作“信息论之父”的香农意义上的信息,并加以控制和应用。这一阶段上的人工智能的发展,在很大程度上还是对人类行为的模拟,其理论基础来自德国哲学家莱布尼茨的设想,即将人类的各种感觉可以转化为量化的信息数据,也就是说,我们可以将人类的各种感觉经验和思维经验看成是一个复杂的形式符号系统,如果具有强大的信息采集能力和数据分析能力,就能完整地模拟出人类的感觉和思维。这也是为什么明斯基信心十足地宣称:“人的脑子不过是肉做的电脑。”麦卡锡和明斯基不仅成功地模拟出视觉和听觉经验,后来的特里・谢伊诺斯基和杰弗里・辛顿也根据对认知科学和脑科学的最新进展,发明了一个“NETtalk”的程序,模拟了类似于人的“神经元”的网络,让该网络可以像人的大脑一样进行学习,并能够做出简单的思考。
然而,在这个阶段中,所谓的人工智能在更大程度上都是在模拟人的感觉和思维,让一种更像人的思维机器能够诞生。著名的图灵测试,也是在是否能够像人一样思考的标准上进行的。图灵测试的原理很简单,让测试一方和被测试一方彼此分开,只用简单的对话来让处在测试一方的人判断,被测试方是人还是机器,如果有30%的人无法判断对方是人还是机器时,则代表通过了图灵测试。所以,图灵测试的目的,仍然在检验人工智能是否更像人类。但是,问题在于,机器思维在作出自己的判断时,是否需要人的思维这个中介?也就是说,机器是否需要先绕一个弯路,即将自己的思维装扮得像一个人类,再去作出判断?显然,对于人工智能来说,答案是否定的,因为如果人工智能是用来解决某些实际问题,它们根本不需要让自己经过人类思维这个中介,再去思考和解决问题。人类的思维具有一定的定势和短板,强制性地模拟人类大脑思维的方式,并不是人工智能发展的良好选择。
二
所以,人工智能的发展走向了另一个方向,即智能增强(简称IA)上。如果模拟真实的人的大脑和思维的方向不再重要,那么,人工智能是否能发展出一种纯粹机器的学习和思维方式?倘若机器能够思维,是否能以机器本身的方式来进行。这就出现了机器学习的概念。机器学习的概念,实际上已经成为发展出属于机器本身的学习方式,通过海量的信息和数据收集,让机器从这些信息中提出自己的抽象观念,例如,在给机器浏览了上万张猫的图片之后,让机器从这些图片信息中自己提炼出关于猫的概念。这个时候,很难说机器自己抽象出来的猫的概念,与人类自己理解的猫的概念之间是否存在着差别。不过,最关键的是,一旦机器提炼出属于自己的概念和观念之后,这些抽象的概念和观念将会成为机器自身的思考方式的基础,这些机器自己抽象出来的概念就会形成一种不依赖于人的思考模式网络。当我们讨论打败李世石的阿尔法狗时,我们已经看到了这种机器式思维的凌厉之处,这种机器学习的思维已经让通常意义上的围棋定势丧失了威力,从而让习惯于人类思维的棋手瞬间崩溃。一个不再像人一样思维的机器,或许对于人类来说,会带来更大的恐慌。毕竟,模拟人类大脑和思维的人工智能,尚具有一定的可控性,但基于机器思维的人工智能,我们显然不能作出上述简单的结论,因为,根据与人工智能对弈之后的棋手来说,甚至在多次复盘之后,他们仍然无法理解像阿尔法狗这样的人工智能如何走出下一步棋。
不过,说智能增强技术是对人类的取代,似乎也言之尚早,至少第一个提出“智能增强”的工程师恩格尔巴特并不这么认为。对于恩格尔巴特来说,麦卡锡和明斯基的方向旨在建立机器和人类的同质性,这种同质性思维模式的建立,反而与人类处于一种竞争关系之中,这就像《西部世界》中那些总是将自己当成人类的机器人一样,他们谋求与人类平起平坐的关系。智能增强技术的目的则完全不是这样,它更关心的是人与智能机器之间的互补性,如何利用智能机器来弥补人类思维上的不足。比如自动驾驶技术就是一种典型的智能增强技术,自动驾驶技术的实现,不仅是在汽车上安装了自动驾驶的程序,更关键地还需要采集大量的地图地貌信息,还需要自动驾驶的程序能够在影像资料上判断一些移动的偶然性因素,如突然穿过马路的人。自动驾驶技术能够取代容易疲劳和分心的驾驶员,让人类从繁重的驾驶任务中解放出来。同样,在分拣快递、在汽车工厂里自动组装的机器人也属于智能增强类性质的智能,它们不关心如何更像人类,而是关心如何用自己的方式来解决问题。
三
这样,由于智能增强技术带来了两种平面,一方面是人类思维的平面,另一方面是机器的平面,所以,两个平面之间也需要一个接口技术。接口技术让人与智能机器的沟通成为可能。当接口技术的主要开创者费尔森斯丁来到伯克利大学时,距离恩格尔巴特在那里讨论智能增强技术已经有10年之久。费尔森斯丁用犹太神话中的一个形象――土傀儡――来形容今天的接口技术下人与智能机器的关系,与其说今天的人工智能在奇点临近时,旨在超越和取代人类,不如说今天的人工智能技术越来越倾向于以人类为中心的傀儡学,在这种观念的指引下,今天的人工智能的发展目标并不是产生一种独立的意识,而是如何形成与人类交流的接口技术。在这个意义上,我们可以从费尔森斯丁的傀儡学角度来重新理解人工智能与人的关系的伦理学,也就是说,人类与智能机器的关系,既不是纯粹的利用关系,因为人工智能已经不再是机器或软件,也不是对人的取代,成为人类的主人,而是一种共生性的伙伴关系。当苹果公司开发与人类交流的智能软件Siri时,乔布斯就提出Siri是人类与机器合作的一个最朴实、最优雅的模型。以后,我们或许会看到,当一些国家逐渐陷入老龄化社会之后,无论是一线的生产,还是对这些因衰老而无法行动的老人的照料,或许都会面对这样的人与智能机器的接口技术问题,这是一种人与人工智能之间的新伦理学,他们将构成一种跨人类主义,或许,我们在这种景象中看到的不一定是伦理的灾难,而是一种新的希望。
(作者:蓝江,系南京大学哲学系教授)
《人工智能导论》第三章 知识表示
本文是中国人工智能学会编著的《人工智能导论(面向非计算机专业)》第三章的摘要与笔记,仅供个人学习之用。其它章节请访问下列相应URL。第一章绪论第二章概念表示第三章知识表示(本章)
章节目录第三章3.1知识与知识表示的概念3.1.1知识的概念3.1.2知识的特性3.1.3知识表示的概念3.2产生式表示法3.2.1产生式3.2.2产生式系统3.2.3产生式系统的特点3.3框架表示法3.3.1框架的一般结构3.3.2用框架表示知识的例子3.4状态空间表示法3.4.1状态空间表示3.4.2状态空间的图描述第三章人类的智能活动主要是获得并运用知识。知识是智能的基础。为了使计算机具有智能,能模拟人类的智能行为,就必须使它具有知识。但人类的知识需要用适当的模式表示出来,才能存储到计算机中并能够被运用。因此,知识的表示称为人工智能中一个十分重要的研究课题。
3.1知识与知识表示的概念3.1.1知识的概念知识是人们在长期的生活及社会实践中、在科学研究及实验中积累起来的对客观世界的认识与经验。人们把实践中获得的信息关联在一起,就形成了知识。一般来说,把有关信息关联在一起所形成的信息结构称为知识。(知识是一种信息结构。作为一种结构,很容易联想到能否用某种数据结构来表示知识。这个问题在以下“知识表示”部分探讨) 信息之间有多种关联形式,其中用得最多的是一种用“如果……,则……”表示的关联形式。在人工智能中,这种知识被称为“规则”,它反映了信息之间的某种因果关系。
例如,我国北方的人们经过多年的观察发现,每当冬天即将来临,就会看到一批批的大雁向南方飞去,于是把“大雁向南飞”与“冬天就要来临了”这两个信息关联在一起,得到了如下知识:如果大雁向南飞,则冬天就要来临了。 又如,“雪是白色的”也是一条知识,它反映了“雪”与“白色”之间的一种关系。在人工智能中,这种知识被称为“事实”。
3.1.2知识的特性1.相对正确性
知识是人类对客观世界认识的结晶,并且受到长期实践的检验。因此,在一定的条件及环境下,知识是正确的。*这里,“一定的条件及环境”是必不可少的,它是知识正确性的前提。因为任何知识都是在一定的条件及环境下产生的,因而也就只有在这种条件及环境下才是正确的。*知识的这一特性称为相对正确性。
例如,1+1=2,这是一条妇孺皆知的正确知识,但它也只是在十进制的前提下才是正确的;如果是二进制,它就不正确了。
在人工智能中,知识的相对正确性更加突出。除了人类知识本身的相对正确性外,在建造专家系统时,为了减少知识库的规模,通常将知识限制在所求解问题的范围内。也就是说,只要这些知识对所求解的问题是正确的就行。
例如,在后面介绍的动物识别系统中,因为仅仅识别虎、金钱豹、斑马、长颈鹿、企鹅、鸵鸟、信天翁七种动物,所以知识“IF该动物是鸟AND善飞,则该动物是信天翁”就是正确的。
2.不确定性
由于现实世界的复杂性,信息可能是精确的,也可能是不精确的、模糊的;关联可能是确定的,也可能是不确定的。这就使知识并不总是只有“真”与“假”两种状态,而是在“真”与“假”之间存在许多中间状态,即存在为“真”的程度问题。知识的这一特性称为不确定性。
造成知识具有不确定性的原因是多方面的,主要有:
①由随机性引起的不确定性。由随机事件所形成的知识不能简单地用“真”或“假”来刻画,它是不确定的。
例如,“如果头痛且流涕,则有可能患了感冒”这条知识,虽然大部分情况是患了感冒,但有时候具有“头痛且流涕”的人不一定都是“患了感冒”。其中的“有可能”实际上就是反映了“头痛且流涕”与“患了感冒”之间的一种不确定的因果关系。因此,它是一条具有不确定性的知识。
②由模糊性引起的不确定性。由于某些事物客观上存在的模糊性,使得人们无法把两个类似的事物严格区分开来,不能明确地判定一个对象是否符合一个模糊概念;又由于某些事物之间存在着模糊关系,使得我们不能准确地判定它们之间地关系究竟是“真”还是“假”。像这样由模糊概念、模糊关系所形成的知识显然是不确定的。
例如,“如果张三长得很帅,那么他一定很受欢迎”,这里的“长得很帅”“很受欢迎”都是模糊的。
③由经验引起的不确定性。人们对客观世界的认识是逐步提高的,只有在积累了大量的感性认识后才能升华到理性认识的高度,形成某种知识。因此,知识有一个逐步完善的过程。在此过程中,或者由于客观事物表露得不够充分,致使人们对它的认识不够全面;或者对充分表露的事物一时抓不住本质,使人们对它的认识不够准确。这种认识上的不完全、不准确必然导致相应的知识是不准确的、不确定的。不完全性是使知识具有不确定性的一个重要原因。
3.可表示性与可利用性
知识的可表示性是指知识可以用适当的形式表示出来,如用语言、文字、图形、神经网络等,这样才能被存储、传播。知识的可利用性是指知识可以被利用。这是不言而喻的,我们每个人天天都在利用自己掌握的知识来解决各种问题。
3.1.3知识表示的概念知识表示(knowledgerepresentation)就是将人类知识形式化或者模型化。 知识表示的目的是能够让计算机存贮和运用人类的知识。下面先介绍常用的产生式、框架、状态空间知识表示方法,其他(如神经网络等)几种知识表示方法将在后面章节结合其应用再介绍。
3.2产生式表示法产生式表示法又称产生式规则(productionrule)表示法。“产生式”这一术语是由美国数学家波斯特(E.Post)在1943年首先提出来的,如今已经被应用于多领域,成为人工智能中应用最多的一种知识表示方法。
3.2.1产生式产生式通常用于表示事实、规则以及它们的不确定性度量,适合于表示事实性知识和规则性知识。
1.确定性规则的产生式表示 确定性规则的产生式表示的基本形式是IF P THEN QIF\\P\\THEN\\QIF P THEN Q 或者P→QP→QP→Q 其中,PPP是产生式的前提,用于指出该产生式是否可用的条件;QQQ是一组结论或操作,用于指出当前提PPP所指示的条件满足时,应该得出的结论或者应该执行的操作。整个产生式的含义是:如果前提PPP被满足,则结论QQQ成立或执行所规定的操作。
例如:r4: IF 动物会飞 AND 会下蛋 THEN 该动物是鸟r_4:\\IF\\动物会飞\\AND\\会下蛋\\THEN\\该动物是鸟r4: IF 动物会飞 AND 会下蛋 THEN 该动物是鸟 就是一个产生式。其中r4r_4r4是该产生式的编号;“动物会飞AND会下蛋”是前提PPP;“该动物是鸟”是结论QQQ。
2.不确定性规则的产生式表示 不确定性规则的产生式表示的基本形式是IF P THEN Q (置信度)IF\\P\\THEN\\Q\\(置信度)IF P THEN Q (置信度) 或者P→Q (置信度)P→Q\\(置信度)P→Q (置信度)
例如,在专家系统MYCIN中有这样一条产生式:IF 本微生物的染色斑是革兰氏阴性 AND 本微生物的形状呈杆状 AND 病人是中间宿主 THEN 该微生物是绿脓杆菌 (0.6)IF\\本微生物的染色斑是革兰氏阴性\\AND\\本微生物的形状呈杆状\\AND\\病人是中间宿主\\THEN\\该微生物是绿脓杆菌\\(0.6)IF 本微生物的染色斑是革兰氏阴性 AND 本微生物的形状呈杆状 AND 病人是中间宿主 THEN 该微生物是绿脓杆菌 (0.6) 它表示当前前提中列出的各个条件都得到满足时,结论“该微生物是绿脓杆菌可以相信的程度为0.6。这里,用0.6表示知识的强度。
3.确定性事实的产生式表示 确定性事实一般用三元组表示(对象,属性,值)(对象,属性,值)(对象,属性,值) 或者(关系,对象1,对象2)(关系,对象1,对象2)(关系,对象1,对象2)
例如,“老李年龄是40岁”表示为(Li,Age,40)(Li,Age,40)(Li,Age,40),“老李和老王是朋友”表示为(Friend,Li,Wang)(Friend,Li,Wang)(Friend,Li,Wang)。
4.不确定性事实的产生式表示 不确定性事实一般用四元组表示(对象,属性,值,置信度)(对象,属性,值,置信度)(对象,属性,值,置信度) 或者(关系,对象1,对象2,置信度)(关系,对象1,对象2,置信度)(关系,对象1,对象2,置信度)
例如,“老李年龄很可能是40岁”表示为(Li,Age,40,0.8)(Li,Age,40,0.8)(Li,Age,40,0.8),“老李和老王不大可能是朋友”表示为(Friend,Li,Wang,0.1)(Friend,Li,Wang,0.1)(Friend,Li,Wang,0.1)。这里用置信度0.1表示可能性比较小。
产生式又称为规则或产生式规则;产生式的“前提”有时又称为“条件”“前提条件”“前件”“左部”等;其“结论”部分有时称为“后件”或“右部”等。
3.2.2产生式系统把一组产生式放在一起,让它们相互配合、协同作用,一个产生式生成的结论可以供另一个产生式作为已知事实使用,以求得问题的解,这样的系统称为产生式系统。 一般来说,一个产生式系统由规则库、综合数据库、控制系统(推理机)三部分组成。它们之间的关系如图3.1所示。1.规则库 用于描述相应领域内知识的产生式集合称为规则库。
显然,规则库是产生式系统求解问题的基础。因此,需要对规则库中的知识进行合理的组织和管理,检测并排除冗余及矛盾的知识,保持知识的一致性。采用合理的结构形式,可使推理避免访问那些与求解当前问题无关的知识,从而提高求解问题的效率。
2.综合数据库 综合数据库又称为事实库、上下文、黑板等,用于存放问题的初始状态、原始证据、推理中得到的中间结论及最终结论等信息。当规则库中某条产生式的前提可与综合数据库的某些已知事实匹配时,该产生式就被激活,并把它推出的结论放入综合数据库中作为后面推理的已知事实。显然,综合数据库的内容是不断变化的。
3.推理机 推理机由一组程序组成,除了推理算法,还控制整个产生式系统的运行,实践对问题的求解。粗略地说,推理机要做以下几项工作:
①推理。按一定的策略从规则库中选择与综合数据库中的已知事实进行匹配。所谓匹配是指把规则的前提条件与综合数据库中的已知事实进行比较,如果两者一致或者近似一致且满足预先规定的条件,则称匹配成功,相应的规则可被使用;否则称为匹配不成功。
②冲突消解。如果匹配成功的规则不止一条,称为“发生了冲突”。此时,推理机必须调用相应的解决冲突的策略进行消解,以便从匹配成功的规则中选出一条执行。
③执行规则。如果某一规则的右部是一个或多个结论,则把这些结论加入综合数据库中;如果规则的右部是一个或多个操作,则执行这些操作。对于不确定性知识,在执行每一条规则时还要按一定的算法计算结论的不确定性程度。
④检查推理终止条件。检查综合数据库中是否包含了最终结论,决定是否停止系统运行。
3.2.3产生式系统的特点产生式系统适合于表达具有因果关系的过程性知识,是一种非结构化的知识表示方法。产生式表示法既可以表示确定性知识,又可以表示不确定性知识;既可表示启发式知识,又可表示过程性知识。目前,已建造成功的专家系统大部分用产生式来表达其过程性知识。
用产生式表示具有结构关系的知识很困难,因为它不能把具有结构性关系的事物间的区别与联系表示出来。但下面介绍的框架表示法可以解决这一问题。
3.3框架表示法3.3.1框架的一般结构框架(frame)是一种描述所论对象(一个事物、事件或概念)属性的数据结构。
一个框架由若干个被称为“槽(slot)”的结构组成,每一个槽又可根据实际情况划分为若干个“侧面(facet)”。一个槽用于描述所论对象某一方面的属性。一个侧面用于描述相应属性的一个方面。槽和侧面所具有的属性值分别被称为槽值和侧面值。在一个用框架表示知识的系统中一般都含有多个框架,一个框架一般都含有多个不同槽、不同侧面,分别用不同的框架名、槽名及侧面名表示。对于框架、槽或侧面,都可以为其附加上一些说明性的信息,一般是一些约束条件,用于指出什么样的值才能填入到槽和侧面中去。
下面给出框架的一般表示形式: 由上述表示形式可以看出,一个框架可以有任意有限数目的槽;一个槽可以有任意有限数目的侧面;一个侧面可以有任意有限数目的侧面值。槽值或侧面值既可以是数值、字符串、布尔值,也可以是一个满足某个给定条件时要执行的动作或过程,还可以是另一个框架的名字,从而实现一个框架对另一个框架的调用,表示框架之间的横向关系。约束条件是任选的,当不指出约束条件时,表示没有约束。
3.3.2用框架表示知识的例子下面据一些例子,说明建立框架的基本方法。
例3.1教师框架
框架名: 姓名:单位(姓、名) 年龄:单位(岁) 性别:范围(男、女),缺省:男 职称:范围(教授、副教授、讲师、助教),缺省:讲师 部门:单位(系、教研室) 住址: 工资: 开始工作时间:单位(年、月) 截止时间:单位(年、月),缺省:现在
该框架共有九个槽,分别描述了“教师”九个方面的情况,或者说关于“教师”的九个属性。在每个槽里都指出了一些说明性的信息,用于对槽的填值给出某些限制。
对于上述这个框架,当把具体的信息填入槽或侧面后,就得到了相应框架的一个事例框架。例如,把某教师的一组信息填入“教师”框架的各个槽,就可得到:
框架名: 姓名:夏冰 年龄:36 性别:女 职称:副教授 部门:计算机系软件教研室 住址: 工资: 开始工作时间:1988.9 截止时间:1996.7
3.4状态空间表示法3.4.1状态空间表示状态空间(statespace)是利用状态变量和操作符号表示系统或问题的有关知识的符号体系。状态空间可以用一个四元组表示:(S,O,S0,G)(S,O,S_0,G)(S,O,S0,G) 其中,SSS是状态集合,SSS中每一元素表示一个状态,状态是某种结构的符号或数据。O是操作算子的集合,利用算子可将一个状态转换为另一个状态。S0S_0S0是问题的初始状态的集合,是S的非空子集,即S0⊂SS_0subsetSS0⊂S。GGG是问题的目的状态的集合,是SSS的非空子集,即G⊂SGsubsetSG⊂S。GGG可以是若干具体状态,也可以是满足某种性质的路径信息描述。
从S0S_0S0结点到GGG结点的路径称为求解路径。求解路径上的操作算子序列为状态空间的一个解。例如,操作算子序列O1,...,OkO_1,...,O_kO1,...,Ok使初始状态转换为目标状态:S0→O1S1→O2S2→O3...→OkGS_0xrightarrow{O_1}S_1xrightarrow{O_2}S_2xrightarrow{O_3}...xrightarrow{O_k}GS0O1S1O2S2O3...OkG则O1,...,OkO_1,...,O_kO1,...,Ok即为状态空间的一个解。当然,解往往不是唯一的。
任何类型的数据结构都可以用来描述状态,如符号、字符串、向量、多维数组、树和表格等。所选用的数据结构形式要与状态所蕴含的某些特性具有相似性。如对于八数码问题,一个3×33 imes33×3的陈列便是一个合适的状态描述方式。
例3.3八数码问题的状态空间表示 八数码问题(重排九宫问题)是在一个3×33 imes33×3的方格上,放有1~8的数码,另一格为空。空格四周上下左右的数码可移到空格。需要解决的问题是如何找到一个数码移动序列使初始的无序数码转变为一些特殊的排列。例如,图3.4所示的八数码问题的初始状态(a)为问题的一个布局,需要找到一个数码移动序列使初始布局(a)转变为目标布局(b)。23158467 12384765egin{array}{|c|c|c|}hline2&3&1\hline5&&8\hline4&6&7\hlineend{array}spacespacespacespacespacespacespacespaceegin{array}{|c|c|c|}hline1&2&3\hline8&&4\hline7&6&5\hlineend{array}25436187 18726345(a)初始状态 (b)目标状态(a)初始状态spacespacespacespacespacespacespace(b)目标状态(a)初始状态 (b)目标状态图3.4 八数码问题图3.4\八数码问题图3.4 八数码问题 该问题可以用状态空间来表示。此时八数码的任何一种摆法就是一个状态,所有的摆法即为状态集SSS,它们构成了一个状态空间,其数目为9!9!9!。而GGG是指定的某个或某些状态,例如图3.4(b)。 对于操作算子设计,如果着眼在数码上,相应的操作算子就是数码的移动,其操作算子共有4(方向)×8(数码)=324(方向) imes8(数码)=324(方向)×8(数码)=32个。如着眼在空格上,即空格在方格盘上的每个可能位置的上下左右移动,其操作算子可简化成4个:①将空格向上移Up;②将空格向左移Left;③将空格向下移Down;④将空格向右移Right。 移动时要确保空格不会移出方格盘之外,因此并不是在任何状态下都能运用这4个操作算子。如空格在方盘格的右上角时,只能运用两个操作算子——向左移Left和向下移Down。
3.4.2状态空间的图描述状态空间可用有向图来描述,图的节点表示问题的状态,图的弧表示状态之间的关系。初始状态对应于实际问题的已知信息,是图中的根结点。在问题的状态空间描述中,寻找从一种状态转换为另一种状态的某个操作算子序列等价于在一个图中寻找某一路径。 如图3.5所示为用有向图描述的状态空间。该图表示对状态S0S_0S0允许使用操作算子O1O_1O1,O2O_2O2及O3O_3O3,分别使S0S_0S0转换为S1S_1S1,S2S_2S2及S3S_3S3。这样一步步利用操作算子转换下去,如S10∈GS_{10}inGS10∈G,则O2O_2O2,O6O_6O6,O10O_{10}O10就是一个解。 上面是较为形式化的说明,下面再以八数码问题为例,介绍具体问题的状态空间的有向图描述。
例3.5对于八数码问题,如果给出问题的初始状态,就可以用图来描述其状态空间。其中的弧可用4个操作算子来标注,即空格向上移Up、向左移Left、向下移Down、向右移Right。改图的部分描述如图3.6所示。
上面两个例子中,只绘出了问题的部分状态空间图。对于许多实际问题,要在有限的时间内绘出问题的全部状态图是不可能的。因此,要研究能够在有限时间内搜索到较好解的搜索算法。
人工智能威胁论:逻辑考察与哲学辨析
中德两国正在共同打造具有跨时代意义的“工业4.0”,该项目号称“第四次工业革命”,主导方向是智能制造,推动制造业向智能化转型。人工智能是未来工业转型的重要助推器,不仅在工业制造领域扮演重要角色,而且必将成为革新我们生活方式的未来趋势,全方位地重塑我们的生活。人工智能发展速度令人惊叹,很多人工智能专家系统在一些领域已经极大地超越了人类,比如我们所熟知的AlphaGo完胜世界顶尖围棋选手,它的升级版AlphaZero在短时间内就超越了上一代,并“精通”各种棋类。更令人匪夷所思的是,DeepMind推出了能够从事“科研”的AlphaFold,通过基因序列,成功预测出蛋白质的3D形状。人工智能的迅猛发展引发了一些学者的担忧,他们担心人工智能如果以这样的惊人速度发展下去,是否会产生情感认知因素,更具体地说,会不会产生不友好的动机。像科幻电影《终结者》中的情节那般,人工智能奴役、毁灭人类。我们可以通过构造一个驳斥人工智能威胁论的溯因推理结构,证明人工智能威胁论信念是基于不可靠的归纳论证;而以哲学的视角看,可以将人工智能威胁论视为一种信念。鉴于该信念达成之后的灾难性后果,有必要采取适当的防范策略。
一、通向乌托邦还是奴役之路我们目前无法确定人工智能是否是一个潘多拉之盒,但它必定是一个黑箱,至少现在无法预测人工智能的走向。根据当前的发展态势,有部分学者对人工智能的前景持积极乐观的态度,他们认为人工智能会实现技术的乌托邦,人将得到最大限度的解放。他们指出,人工智能所有的知识都是人类“喂给”的,其自身无法创造新的明述知识或命题性知识,而且人工智能的学习能力基于算法而不是社会交往[1]。所以,人工智能只是人类器官的投影和延伸,它们不会出现自主意识,更不会出现社群组织,不会对人类产生危害[2]。一种心智考古学的观点认为,一个能够自主地威胁人类的人工智能体首先必须是一个具有自治情感的生命系统,智能只是心智的一个子集,没有情感系统的引导,智能就不会发挥作用。因此人工智能体不会对人类产生生存威胁[3]。还有一部分人则对人工智能发展到高阶水平的可能后果充满担忧,他们预言人工智能将是人类的终结者。国内学者以江晓原为代表,他认为人工智能近期的威胁会导致大量工人失业,以及军事化用途所带来的世界格局震荡。长远的威胁就是人工智能的失控和反叛[4-5]。我们把这种论调称为人工智能威胁论。
近年来,人工智能威胁论的支持者越来越多。其中不乏一些著名科学家和知名人物,如史蒂芬·霍金(StephenHawking)、迈克斯·泰格马克(MaxTegmark)和伊隆·马斯克(ElonMusk)等。马斯克曾多次在推特上发长文警告,人工智能可能是人类有史以来最为严峻的生存威胁。霍金指出,人工智能的崛起要么是最好的,要么就是最糟糕的。
一些研究中心或智库开始研究人工智能可能带来的风险,牛津大学的“人类未来研究所”是目前最具代表性的技术风险研究机构,下设“人工智能政策研究中心”。泰格马克牵头在麻省理工学院成立了类似的机构:“生命未来研究所”。剑桥大学成立了“利弗休姆未来智能研究中心”。北京大学于2018年11月成立了“北京大学人类未来研究中心”……。此外,许多科技企业纷纷成立人工智能研究部门,探讨人工智能的未来前景。
当谈到人工智能威胁论的时候,我们到底针对的是人工智能的哪些方面或哪个阶段。学界粗略地将人工智能分为三个阶段:弱人工智能(artificialnarrowintelligence)、强人工智能(artificialgeneralintelligence)和超级人工智能(artificialsuperintelligence)。弱人工智能只擅长某一具体领域,强人工智能适用范围要更大,能与人类智能比肩;而超级人工智能是机器智能的顶峰,牛津大学“人类未来研究所”所长、人工智能思想家尼克·波斯特洛姆(NickBostrom)把超级人工智能定义为“在几乎所有领域远远超过人类的认知能力”[6]29。人工智能拥有巨大的潜力,它可以让人类永生,抑或彻底灭绝。所以当我们言及人工智能威胁论时,主要针对的是超级人工智能。这种威胁论主要基于以下三个前提。
第一个前提认为,最先被创造出来的超级人工智能与包括人类智能在内的所有其他形式的智能相比,拥有决定性的战略优势。这种优势足以使超级人工智能控制并塑造地球上所有智能生命的未来。如果超级人工智能是友好良善的,那么我们无须担心。但根据波斯特洛姆的说法,我们没有任何理由认为它是友好的。第二个前提指出,智能水平和善行之间没有必然关系。但智能水平与其终级目标有着一定的相关性:几乎任何水平的智力都与它的最终目标相一致。波斯特洛姆构想的“曲别针最大化”(paperclipmaximiser)思想实验生动地阐释了这一点,如果超级人工智能确定一个目标,就会最大化地实现这个目标。假如它的目标是制造曲别针,那它会尽可能地制造更多的曲别针[6]153。第三个前提指出,超级人工智能很可能设定一些与人类利益无关的目标。比如它可能会执着于获取广泛的资源,其中可能包括人类赖以生存的资源。
就已发表的相关文献来看,波斯特洛姆的专著《超级智能:路线图、危险性与应对策略》代表了这一趋势的典范。波斯特洛姆在书中详细论述了超级人工智能得以实现的几种形式、可能存在的风险、应对措施等。泰格马克的大部头著作《生命3.0:人工智能时代而为人的意义》呈现了一幅专业物理学家对人工智能的展望图景。书中对人类的未来作出了最大胆的想象,构造了对未来生命、科技、文化和社会的全新理解。泰格马克追问人类到底能发展到什么极限?人类到底要走向哪里?“生命3.0”体现了“生命”系统从1.0到2.0,再到3.0的更迭。生命1.0是简单生物阶段;生命2.0是文化阶段,人类就是生命2.0的代表;生命3.0则是科技时代,系统不断地升级自己的软件和硬件,直接跳跃漫长的自然进化,堪称智能系统全面觉醒的阶段。比起有血肉的生命之躯,届时便产生了新的“生命”[7]27。泰格马克担忧新“生命”会与旧生命发生冲突。这些担忧是杞人忧天的无稽之谈,还是有着坚实的经验基础?我们接下来做一番考察。
二、驳斥人工智能威胁论的溯因推理论证我们可以尝试着构造一个溯因推理结构反驳人工智能威胁论。这个论证结构是这样的:如果威胁论者们认为人工智能在未来会对人类生存构成致命威胁,那么它必然要拥有善恶、喜恶这样的认知情感因素,它甚至可能会伪装。我们进一步追问,人工智能何以拥有像“动机”这样的情感认知功能,我们选定一种可能的实现途径:全脑仿真。这项技术的实现又依赖智能设备运算能力的“指数爆炸”假设;而该假设目前的成功基于归纳,不具备必然可靠性。
1.预测人工智能善恶的归纳论证有学者对人工智能威胁论提出质疑,他们对波斯特洛姆的观点提出了一个明显的反驳:为了确保人工智能的安全使用,将人工智能应用于实践之前,必须对其进行严格测试,验证它是否友好。这样做的目的是将人工智能限制在一个安全可控的环境中,并反复测试它的友好属性和安全性。建造一个模拟真实场景的“沙盒”,当我们在实验环境中做了足够多的测试,验证它是友好、合作、负责任之后,才会把它从“沙盒”中释放出来[6]145。在一个高度仿真的实验环境中,反复经验检测,如果发现人工智能看起来没有威胁,那么我们就有理由相信它是友好的。这里的推理模式属于典型的归纳论证。
波斯特洛姆试图回击这个论证,他提出了“背叛转折”(treacherousturn)概念[6]147。即超级智能化的人工智能会运用策略,它在实施计划的同时,还会预测人类的反应。我们从人与人之间的日常交流中可以发现,人们为了达成目标,有时会欺骗他人。例如,某人可以假装对他同事的尖端研究缺乏兴趣,希望同事会信赖他,向他披露所有的研究细节,然后他就能窃取同事的成果,据为己有。超级人工智能是否也会做同样的事呢?难道它们没有意识到,我们正在测试它们?难道它们就不会采取假装友好的策略来走出困境吗?
一个人工智能体看似完全友好,与人类合作并保护人类的利益,但它实际上可能筹备着威胁人类生存的长远计划。在欺骗我们陷入虚假的安全感之后,超级人工智能可能会触发背叛转折。所以,质疑人工智能威胁论的归纳论证在“背叛转折”原则下失效。然而,该原则预设了一个前提:人工智能系统具备很强的自主性,甚至能够产生坏的“动机”。那么,人工智能可否发展出诸如“动机”这样的情感要素呢?
2.人工智能的“动机”论何以成立针对超级人工智能“动机”论的质疑,波斯特洛姆予以了回应。他认为:“只要具有足够的智能升级能力,所有其他智能就都在系统的间接方式范围内,因为系统能够开发所需的新的认知模块和技能。”[6]112如此一来,波斯特洛姆就把人类的各种认知能力视为智能系统内化的功能,随着智能升级,这些功能便随之开发出来。波斯特洛姆并没有直面质疑,没有解释超级人工智能为何会产生“动机”。其实,这里涉及一个更为复杂的问题,就是人工智能是否会拥有意识,如果拥有意识,是依靠何种方式实现的。倘若我们不首先说明人工智能的“意识”来源及可能性,那么讨论人工智能的动机,必是漫天猜想,没有理据可循。
波斯特洛姆曾提出过超级人工智能的五种可能实现形式:人工智能、全脑仿真、生物认知、人机交互、网络和组织。其中,生物认知基于这样一个观念:生物技术的进步可能会直接控制人类遗传学和神经生物学,而无须实施人类优生繁衍计划。简言之,就是通过生物技术对人体进行无限改造,以提升人类智能。人机交互与网络和组织也是类似的原理,人机交互意图将机器智能和人脑互联,大幅度提升人脑的能力,网络和组织则企图通过技术手段把人脑连接在一起,形成强大的集体智能[6]37-52。这三种途径都强调对人类智能的增强和提升,属于人类增强的范畴,因为在这样的智能形式中,人脑依旧是主体,增强的是人类智能,而非人工的智能体。这样的超级智能必然会保有人类的各种认知能力,不在我们讨论范围内。
所以,严格意义上说,超级人工智能只有两种可能的实现途径:人工智能和全脑仿真。人工智能途径就是现在所采用的主流方式,依赖算法和硬件的提升。人工智能在“情商”的学习过程中,效率有余,效果不足。微软的人工智能“微软小冰”在2017年出版了一本所谓的题名为《阳光失了玻璃窗》的“诗集”。我们来看其中的一首标题为“黄昏里来了一碗茶”的“现代诗”:黄昏里来了一碗茶/回家一齐看/嘴里的妻子已失去了/让野火的人们/风景如风车里一碗茶凉/是少年的故事/回家一年的时候/我猜我也一例有敌骑的呼声晌[8]14。这里的诗歌“意象”更多的是句型与词汇随机混搭生成的“后现代风格”,不能展现人类诗歌才有的情感张力。故而有人批评人工智能有智商而无情商,有智能而无智慧。智能系统要想发展出自主意识,仅靠算法无法达成,可能需要借助全脑仿真技术。这项技术可能完全模拟出被模仿对象的大脑活动,然后加以原理化,但这种技术建立在强大的硬件基础上。接下来又产生了一个新的问题,硬件升级速度能否跟上人工智能的发展?
3.“指数爆炸”的迷雾其实全脑仿真有一个前提,即大脑本质上是“计算”的,并且能够被模拟。这里涉及到诸多哲学议题,我们不做深究,暂且假定该前提成立。波斯特洛姆认为全脑仿真不需要理论上的突破,但需要一些非常先进的技术。他认为实现这项技术须满足三个先决条件:扫描、翻译和模拟。其中扫描需要有足够分辨率和相关检测性能的高通量显微镜,模拟则需要强大的硬件。以上两项先决条件能否满足,很大程度上取决我们能否制造出性能优越的硬件设备。
众所周知,硬件迭代速度依赖“指数爆炸”假设。“指数爆炸”原指指数函数的爆炸性增长。此后借用到计算机领域,一般与“摩尔定律”同义,表示计算机的计算能力将在固定的周期内以指数形式提升。从第一台现代意义上的计算机诞生至今,计算机运算能力的发展符合“指数爆炸”。我们就拿目前的超级计算机领域来说,超算的运算能力大约每14个月提升一倍。超级计算机代表着目前计算机设备性能的最高水平。2018年6月,IBM公司助力美国田纳西州橡树岭国家实验室推出了一台名为“Summit”的超级计算机,计算峰值惊人,每秒可执行21017次运算,其性能远超我国研发的神威·太湖。倘若超级计算机的发展一直符合“摩尔定律”,那么似乎就能满足全脑仿真技术在硬件上的要求。但这个推理模式是典型的归纳论证,基于目前的发展水平来推断未来发展速度依旧保持不变。更为严峻的是,“摩尔定律”已经遇到瓶颈,芯片制造已经接近物理极限,经济成本不降反升。由此,我们认为人工智能威胁论论题站不住脚。
对人工智能威胁论的批评还有很多,其中凯文·凯利(KevinKelly)认为我们把智能误解为可以无限增长的空间,反对算力和智能之间存在正相关关系。至于人工智能最终发展到像电影《超验骇客》那般无所不能的地步,他将这种过分夸大、毫无根据的观点称为“意淫主义”(thinkism)[9]。我们充其量只能将人工智能威胁论视为一种信念,我们可以选择相信它为真,但却很难辩护其为真。
三、人工智能威胁论与帕斯卡赌倘若我们将人工智能威胁论仅仅视做一种信念,会产生积极的启示作用吗?有些人会嗤之以鼻,因为该信念带有某种神秘的宗教色彩。还有一些学术评论员批评未来学家雷·库茨韦尔(RayKurzweil)提出的所谓“奇点”临近,因为他们的信念体系是信仰主义的,即基于信仰或缺乏合理的论证基础[10]。
我们可以尝试将人工智能威胁论信念与上帝存在的信念作一番类比。后者是宗教学领域中争论的焦点之一,前者可以看做是科学领域中的预言。这两个信念都有一个共同的特点,被证明为真的概率极低,并且假如我们先前拒斥该信念,但后来证明为真,其后果是毁灭性的。比如说,我们无法证明上帝存在,因为根据现有的科学理论体系,假想一位有形体有人格的全能神似乎是一件很荒谬的事情。倘若上帝不存在,我们在世间纵情享乐,不信奉任何教义,那相信上帝存在与否于我们都没有影响。但如果上帝存在,不信上帝存在者虽然享受了短暂的快乐,死后则会坠入地狱,遭受无穷无尽的折磨。既然如此,我们是选择相信上帝存在呢,抑或拒斥?这就是帕斯卡诉诸信仰的论证上帝存在之路径。帕斯卡将相信上帝存在与否视为一场赌博,是赌博就会有输赢,虽然赌徒不知道赌局的结果如何,但他知道输赢的奖励和惩罚,也就是“赌注”,所以赌徒会权衡利弊,然后决定选择是否相信上帝存在。类似地,我们可以将帕斯卡赌应用于人工智能威胁论。显然,人工智能威胁论信念到底有多大概率为真,我们无法预测,但倘若该信念成真,那么后果是无法估量的。正如波斯特洛姆所定义的“存在风险”(existentialrisk)威胁着地球上智慧生命的根本福祉,它具有潜在的“毁灭性的”或“地狱般的”影响[11]。波斯特洛姆的末日预言暗示了超级聪明的人工智能可能会给人类带来灭顶之灾。因此,波斯特洛姆认为,即便现有的种种证据都不利于人工智能威胁论,其发生的总体概率很低,但背叛转折依旧不容忽视。
诚然,在相信上帝存在的承诺和人工智能威胁论的承诺之间存在一些明显的区别。相信上帝存在的承诺是一种朴素的宗教信念,是一种对现实的终极本质和原因的信仰,信仰者可以诉诸非理性的方式;而人工智能威胁论的信念是对某项科技发展后果的信念,这种信念基于一定的经验基础,基于对现有科技成就的评估和预测[12]。宗教信念与科学信念不能划等号,此处类比只是较弱层面上的。
我们通过更深入地考察“背叛转折”,可以发掘人工智能威胁论信念的一些实践意义和认知意义。超级人工智能可能会设定对人类不友好的目标,可能会欺骗我们,用邪恶的方式来达成目标。必定会有人批评波斯特洛姆的“背叛转折”,其观点违反我们的直觉。但正是这种反常观念,才会迫使我们反思科学成功的合理性,重新评估我们习惯性地使用的各种归纳推理。肯定“背叛转折”就要质疑科学取得成功所依赖的主要推理工具,此举难以让人接受,因为在人工智能领域中,归纳推理不仅能够解决复杂情况,而且还相当可靠。但我们试着转换视角,其实人工智能威胁论和休谟的怀疑论有着相似的旨趣。在休谟的经验怀疑主义看来,我们不能根据我们迄今为止吃的面包有营养,就推断出接下来吃的面包也会有营养。在波斯特洛姆看来,我们无论在广度、深度,抑或接触时间上,与人工智能的互动极为有限,所以我们无法断言人工智能未来依旧安全,更何况目前无人智能驾驶系统事故频出。在某种程度上,我们能够理解休谟问题背后的深刻哲理,在具体实践中,却容易忽视归纳推理的固有缺陷。对归纳合理性的审视,促使我们思考人工智能威胁论信念折射出的深刻蕴义,提防“背叛转折”。
即使是那些希望我们认真对待人工智能风险的人也会争辩说,人工智能威胁论的一些观点似乎危言耸听。他们指出,超级人工智能可能会有不可控风险,但也有巨大的益处。几乎没有人会怀疑人工智能的社会变革力量,我们现在更需要关注的是如何理解、应对人工智能的潜在风险。像波斯特洛姆、泰格马克等等这样的威胁论者和未来预言家免不了充斥着天马行空的想象,但他们以这种方式呈现出人工智能的可能威胁,提醒我们在充分发展人工智能时,警惕“背叛转折”风险,彰显了人工智能威胁论的认知与实践意义。
四、规避人工智能潜在风险及其挑战我们正处于弱人工智能阶段,针对人工智能的一些建议性政策主要集中在司法审判、大数据隐私、机器人伦理等具体的应用问题上,很少有预防人工智能发展到较高阶段威胁人类生存的策略。
人工智能价值观的加载问题是目前学术界讨论较多的议题。即如果我们给人工智能系统设定一套代码形式的价值观,可否确保人工智能不会偏离正常的发展轨迹。学者们之所以尤为关注该议题,是因为我们通过监视超级人工智能的程序运行预测其动机的方式行不通。正如波斯特洛姆所言:一个不友好的人工智能可能会变得足够聪明,能够意识到隐藏自己的一些能力会获得更大的收益。它可能不会显露进步,并故意放弃一些难度较大的测试,以避免在获得决定性的战略优势之前引起恐慌。程序员试图通过秘密监视人工智能的源代码和它的内部工作来防范这种可能性,但是一个足够聪明的人工智能会意识到它可能被监视,并相应地调整它的应对策略。监视超级人工智能行为的路径走不通,从源头入手,似乎更为行之有效。霍金一语道出了要害:“尽管人工智能的短期影响取决于控制人工智能的人,它的长期影响取决于人工智能到底能否受到控制。”[13]让人工智能戴上像阿西莫夫构想的机器人三定律式的“紧箍咒”,是最为高效便捷的处理方式。
然而,该进路面临如下三重困境。首先是理论层面。所谓的“价值观”由非常含混的观念集合而成,我们何以确保我们要设立的价值观必定是合理不悖的。退一步说,倘若我们可以确保价值观是一致的、没有矛盾的,那么我们需要给人工智能系统输入什么价值观,以及智能系统能否“理解”这些加载的价值观?如果让人工智能系统回答“电车难题”,会出现什么样的情形呢?我们需要给人工智能系统设定什么样的价值标准?[14]这一系列追问都是令人懊恼的哲学和伦理学问题。其次是技术层面。以现在的技术水平,把伦理准则嵌入人工智能系统为时尚早。要想实现伦理准则的嵌入,需要靠在设计计算力和机器智能的大规模应用中推动[15]。技术层面难以实现,应用层面亦是困难重重。我们设定一个具体的应用情景,假如我们给人工智能系统设立一个密尔的功利主义原则:“确保人类总体快乐最大化”。如果它认为快乐就是刺激负责快乐的中枢神经,那么它极有可能创造出《黑客帝国》里弱化版的“缸中之脑”。纵而览之,虽然人工智能价值观嵌入看似一劳永逸,实际上面临着理论、技术和应用三面难题,还存在许多难以克服的问题。
其实,我们也可以借鉴其他高风险技术的发展经验,如基因编辑技术、克隆技术和NBIC聚合技术等新兴技术。虽然“贺建奎事件”让基因编辑技术蒙上阴影,但总体上还是朝着安全平稳的势头发展。一个重要的原因就是各国政府和整个学术共同体在这些领域制定了规范研究的准则和公约。以克隆技术为例,鉴于克隆人技术特别是生殖性克隆可能会引发严重的社会、伦理、道德、宗教和法律问题,所以联合国在2002年制定了《禁止生殖性克隆人国际公约》,许多国家分别制定了禁止生殖性克隆和治疗性克隆的法律。类似地,各国在人工智能领域竞争时,合作和沟通也必不可少,有效减少人工智能研发过程中的草率和盲动行为。居安思危,防微杜渐,是应对将要到来的人工智能时代所应持有的合理立场。
随着人工智能发展的深入,与大众生活日渐交融,必定会出现新的情况。根据形势的发展,还需要修订或增加新的规约和法律条文。谁也不知道新兴技术最终把我们引向何方,但无论如何,在面对人工智能这项重大课题时,多方协作、共同应对、群策群力、小心谨慎是预防人工智能“背叛转折”的有效法宝。