具身性、认知语言学与人工智能伦理学
摘要:在主流的人工智能伦理学研究中,很少有人意识到:将伦理规范的内容转化为机器编码的作业,在逻辑上必须预设一个好的语义学理论框架,而目前主流人工智能研究所采用的语义学基础理论却恰恰是成问题的。文章主张在人工智能与人工智能伦理学的研究中引入认知语言学的理论成果,并在此基础上特别强调“身体图式”在伦理编码进程中所起到的基础性作用。依据此番立论,并主张:机器伦理学的核心关涉将包括对人工智能的“身体”——而不仅仅是“心智”——的设计规范,即必须严肃考虑“怎样的外围设备才被允许与中央语义系统进行恒久的接驳”这一问题。
关键词:人工智能伦理学;认知语言学;认知图式;具身性;语义学
作者简介:徐英瑾,教育部长江学者奖励计划青年学者,复旦大学哲学学院教授,博士生导师,主要从事认知科学哲学、人工智能哲学、知识论、维特根斯坦哲学等研究。
随着人工智能技术的日益发展,对于此类技术产品的伦理学考量也逐渐进入学界的视野。概而言之,与人工智能相关的所有伦理学思考,都在国际学界被归入“人工智能伦理学”(ethicsofArtificialIntelligence)的范畴,而这个学科分支本身又可分为两个小分支:“机器人伦理学”(roboethics)与“机器伦理学”(machineethics)。前者的任务是对设计机器人的人类主体进行规范性约束,而后者的任务则是研究如何使得人类所设计的人工智能系统在行为上具有伦理性。这两个分支彼此之间既有分工上的分别,又有微妙的联系。两者之间的差别体现在:“机器人伦理”直接约束的是人类研究主体的行为,而“机器伦理”直接约束的是机器的行为。两者之间的联系又体现在:不通过“机器伦理学”,“机器人伦理学”的指导就无法落地;而没有“机器人伦理学”的指导,“机器伦理”的编程作业也会失去大方向。
不过,在当前人工智能伦理学研究中,很少有研究者意识到此类问题实质上乃是某种深刻的语言哲学-语言学问题的变种,而不能就事论事地在应用伦理学的层面上被谈论。而笔者的相关判断又是基于如下考量:如果我们要把用自然语言表达出来的伦理学规范———如著名的“阿西莫夫三定律”———转换为能为机器识别并执行的程序语言的话,我们就必须对人类的语言运作的本质有着一种预先的理论把握;而语言学家与语言哲学家对于人类语言机制的不同理解,则显然又会导致对于上述问题的不同解答方式。
此外,也正因为一般意义上的语言哲学-语言学问题在人工智能伦理学研究中的边缘地位,认知语言学关于“具身化”问题的见解也相应地被边缘化了。很少有人工智能伦理学方面的讨论触及如下问题:伦理编程问题不仅仅牵涉软件的编制,而且还将牵涉“怎样的外围设备才被允许与中央语义系统进行恒久的接驳”这一问题。也就是说,依据笔者的浅见,机器伦理学的核心关涉将包括对人工智能体的“身体”———而不仅仅是“心智”———的设计规范。而为了支持这一看似“非主流”的观点,本文的讨论将始自于对如下问题的“务虚”式讨论:为何伦理学必须具有“具身性”?
一、从伦理学的“具身性”说起
“具身性”(embodiment)本是一个在认知哲学领域内使用的术语,其主要含义是指:人类认知的诸多特征都在诸多方面为人类的生物学意义上的“身体组织”所塑造,而不是某种与身体绝缘的笛卡尔式的精神实体的衍生物。如果我们将这样的观点沿用到伦理学领域之内,由此产生的“具身化伦理学”的核心观点便是:伦理学规范的内容,在相当大程度上便是为作为伦理主体的人类的肉体特征所塑造的。换言之,伦理学研究在相当程度上必须吸纳生物学研究的成果,而不能将自己视为与“肉体”绝缘的“纯精神领域”。
应当看到,将“具身性”与伦理学相互结合的观点,并不是西方伦理学研究的传统路数,甚至还与该领域内的思维定式相左。譬如,柏拉图就曾将“善”的理念视为超越于可感知的物理世界的最高理念,而康德则将道德律令视为某种凌驾于肉身领域的“绝对命令”。但随着演化论等自然科学思维范式逐渐进入伦理学领域,越来越多的具有自然主义倾向的伦理学家开始注意到了伦理学自身的生物性根基。正是基于此类考量,英国生态学家汉密尔顿(WilliamHamilton)在1964年提出了所谓的“亲属选择模型”。[1]根据该模型,在假定甲、乙两个生物学个体之间具有一定的遗传相似性的前提下,只要这种相似性与“乙从甲获得的好处”之间的乘积能够抵消“甲自身因帮助乙而遭到的损失”,那么,使得互助行为可能的那些基因就会在种群中传播(这一规律,也在科学文献中被称为“汉密尔顿律”)。或说得更通俗一点,依据汉密尔顿的理论,道德的生物学起源,很可能就是与“通过亲属的生存而完成家族基因的备份”这一隐蔽的生物学目的相关的。需要注意的是,汉密尔顿所给出的这种对于道德起源的描述看似抽象,其实已经触及“身体”对于伦理学的奠基意义。譬如,前述“汉密尔顿律”的起效,在逻辑上已经预设了一个生物学个体有能力将别的生物学个体识别为其亲属。而要做到这一点,辨认主体若不依赖于被辨认对象的身体形态的识别,则几乎是难以想象的。从这个角度看,道德意义上的“共情感”很可能便是以道德主体之间在身体方面的相似点为前提的。
对于上述的理论描述,有的读者或许会问:汉密尔顿的“亲属选择模型”又将如何解释人类对于非亲属的其他人所产生的同情感呢?实际上答案也非常简单:“基因的相似性”实质上是一个针对特定参照系才能够成立的概念。若以其他物种为参照系,整个人类都算是一个巨大的亲属组织,因此,你与地球上任何一个需要别人帮助的人之间都有着某种基因上的关联性。而按照“汉密尔顿律”,只要这种关联度与“被帮助者从你这里获得的好处”的乘积能够大于“你因为帮助他而遭到的损失”,那么利他主义行为就可以被激发。而在很多情况中,对于陌生人的很多帮助形式———譬如在网上向受灾群众捐献10元———所需要付出的生物学资源其实是微不足道的,这就使得“汉密尔顿律”所规定的相关条件在数学上变得容易被满足(换言之,“大于”左边的乘积实在太容易超过其右边的数值了)。或再换一个更通俗的说法:廉价的“助人为乐”行为的传播之所以并不是很难,就恰恰是因为这些行为自身所消耗的资源不多;而与此同时,人与人(尽管很可能彼此是陌生人)之间在身体层面上的起码的相似点却已经足以激发出微弱的“好感”,以便催生那种微弱的利他性行为。与之相对应,代价不菲的利他主义行为却往往是建立在被帮助者与帮助者之间较密切的亲属关系之上的,并经由这种亲属关系所提供的更为强烈的“亲近感”驱动。
不过,笔者也承认,上述这种基于生物学考量的道德起源学说,并不能对人类所有的人际行为做出充分的描述,因为作为自然存在者与社会存在者的合体,人类的具体行为在受到生物学因素的制约外,还会受到社会-文化因素的制约与影响(譬如文化、生产方式、政治理念、宗教等因素对一个人的“亲密圈”的重塑效应)。但即使如此,生物学方面的考量依然会构成“文化重塑活动”的基本逻辑空间;换言之,文化重塑的方向本身必须首先是“生物学上可能的”。意识到这一点的美国哲学家麦金太尔便在《依赖性的理性动物》一书中,特别强调了伦理学研究与生物学研究之间的连续性。他指出,如果我们将伦理学视为对人际关系根本规范的研究的话,那么,我们就无法忽略使得此类人际关系得以存在的下述基本的生物学前提:人类是一种离开了群体生活就必然会灭亡的物种,因为人类的身体具有一种生物学意义上的脆弱性。“我们是否能够存活,在相当程度上取决于别人(更别提繁衍了),因为我们经常遭遇如下困难:身体疾病或伤害、营养不足、精神疾病与困扰,以及来自于别人的入侵与无视……”[2](P1)也就是说,按照麦金太尔的观点,人类道德规范中最为基本的那部分———如尊老爱幼、帮助弱小,等等———都是对于某些最基本的生物学需要的“再包装”,而不是脱离于人类的生物学实际的纯粹的“文化发明”。由此不难推出:如果在另外的一个可能世界中的人类的生物学习性与现有的人类不同(譬如,那个世界中的人类会像螳螂那样在交配之后吃掉“新郎”),那么,我们也就没有理由期望他们的道德规范内容与我们的道德规范基本一致了。
不难想见,如果这条“达尔文—汉密尔顿—威尔逊(E.O.Wilson,他的‘社会生物学’研究是汉密尔顿工作的全面升级化)[3]—麦金太尔”式的伦理学研究路数是正确的话,那么,此类思维方式就肯定会对人工智能伦理学产生直接的影响。这里需要被提出的最核心的问题便是:既然人工智能产品并不是任何一种意义上的“生物体”,我们又怎么保证此类产品能够经由其与人类身体的相似性而承载了人类所认可的道德规范呢?换言之,既然对吾辈而言人工智能体肯定是“非我族类”的,“其心必异”的结局难道不正是无法避免的吗?
不过,同样不容否认的是,至少对于主流的人工智能伦理学研究而言,人工智能制品因为其物理“身体”的不同而潜藏的对人类社会的伦理风险,并没有被充分注意到。譬如,著名的“阿西莫夫三定律”就表达了某种经过强制性的代码输入(而不是身体设计)以禁止机器人危害人类的企图。而在此路径的支持者看来,给相关的机器人配置怎样的“身体”反倒成为一个与机器伦理无涉的边缘性问题。此外,即使他们了解到从汉密尔顿到麦金太尔的整条“具身化的伦理学”的发展线索,恐怕他们也会以这样的一种轻描淡写的方式来打发“具身派”的见解:既然汉密尔顿所说的“利他主义基因”本身就是以自然选择的方式植入人类的一种强制性操作代码,那么,人工智能专家就完全可以自行扮演自然选择的角色,向机器直接植入这样的代码。他们或许还会补充说:既然自然选择本身并不是什么神秘的机制,那么,到底有什么自然选择能够做到的事情,我们人类做不到呢?
但在笔者看来,上面的辩驳是无力的。其一,自然选择机制的基本原理固然并不神秘,但是特定性状的演化历史的种种细节却很可能是难以被事后复原的,因为这牵涉相关基因与特定生态环境之间的复杂互动。因此,从非常抽象的角度看,如果将自然选择机制人格化为一个设计师的话,那么“他”对于伦理代码的编制路线便是“从下到上”(bottom-up)的,而阿西莫夫式的机器伦理代码的编制路线则是“自上而下的”(top-down),两条路径并不相似。其二,自然选择的过程不是一次完成的,而是通过“代码变异—引发显现型变化—参与生存竞争—筛选代码”这样的复杂流程,渐进式地积累各种遗传代码素材的。与之对比,阿西莫夫式的机器伦理代码设计流程,却试图通过某种一劳永逸的代码编制工作来杜绝未来可能发生的一切伦理风险,这无疑就需要设计者具备像上帝那样的预见力。而我们都知道,人类是永远无法扮演上帝的角色的。其三,自然选择的过程所积累的核心信息虽然是以基因代码的方式被加以保存的,但是在具体的生存竞争中,这些代码必须外显为身体的性状才能够兑现其生存价值。也就是说,至少对于生物体而言,其遗传代码本身就具有一种针对“具身性”的明确指向,而这种指向在阿西莫夫式的伦理编码里是找不到的。其四,也是最重要的,自然演化的“设计产品”是我们能够看到的(我们自己就是这样的“产品”);而根据“阿西莫夫三定律”所设计出来的成熟的人工智能产品,我们却还没有看到。更有甚者,根据瓦拉赫(WendellWallach)与艾伦(ColinAllen)的分析,[4](P95)在日常语境中对于“阿西莫夫三定律”的执行将不可避免地导致矛盾。譬如在面对一个人正在残害其他人的场面时,以下这两条法则就很难被同时执行:“机器人不得在与人类的接触中伤害人类”;“机器人不得在目睹人类被伤害时袖手不管”。瓦拉赫与艾伦就此指出:只要我们允许机器人以比较大的自主性来独立应付种种困难的伦理局面,我们就无法指望其行为能够同时满足“阿西莫夫三定律”的僵化规定;相反,如果我们硬是要将这些僵化规定以代码的形式植入机器的话,我们就不能指望它们的行为输出时是富有智能的。很显然,这是一个两难困境。
从瓦拉赫与艾伦的分析中,我们还可以从语言哲学与语言学的层面发现自然选择所进行的“伦理编码”与阿西莫夫式的“伦理编码”之间的又一重要差异。不难看出,自然选择所遴选出来的基因编码组合本身是不带语义的,而兑现这些基因组合的生物体的身体表现同样是不带语义的———赋予其语义的,乃是人类观察者对于这些表现的事后描述。因此,对于自然选择来说,就不存在着“如何将带有语义内容的伦理规范分解为具体算法”这样的问题;而与之相对比,阿西莫夫式的机器伦理编制者却不得不面临这样的难题(因为“阿西莫夫三定律”本身无疑是带有语义的)。因此,除非机器伦理学家们将自身的程序编制工作奠基在一个恰当的语义学理论之上,否则,此类工作就无法解决瓦拉赫与艾伦所指出的那类“灵活性与原则性不可兼得”的困难。
在本节的讨论中我们已经得到了两方面的结论:首先,我们已经看到,伦理规范自身很难摆脱“具身性”的规制;其次,我们发现阿西莫夫式的机器伦理编制工作既没有意识到“具身性”的重要性,同时也缺乏一个使得其自身的语义内容落地的语义学基础理论。而要将这里所说的具身性考量与语义学考量结合起来,我们就需要一个合适的理论媒介。这一媒介就是认知语言学。
二、认知语言学的“具身性”对于人工智能伦理学的启示
这里笔者之所以要提到认知语言学,乃是因为它提供了一个将前面所提到的“具身性原则”与语言学理论相互结合的范例。认知语言学的代表人物之一雷考夫(GeorgeLakoff)[5](P9)就曾概括过认知语言学的意义观与传统语义学的意义观之间的不同。笔者按照自己的理解将其列为表1概括于下:
认知语言学提出了很多技术概念,以便将表1中所提出的意义观加以具体化。一个非常具有代表性的技术概念是“认知图式”(cognitiveschema)。“图式”一词的古希腊词源“”有“形状”的意思,而在认知语言学的语境中,“图式”指的则是“一系列语例中的共通性在得到强化后所获得的一些抽象的模板”。[6](P23)在认知语言学中,此类“抽象模板”往往按照“意象式”(imagistic)的方式来加以把握;而所谓的“意象式”结构,本身乃是“前概念”的,是具有一定的“可视性”的。譬如,英语“ENTER”(进入)这个概念就可以被分析为数个意象图式的组合,包括“物体”(object)、“源点—路径—目标”(source-path-goal)与“容器—容纳物”(container-content)。三者结合的情况如图1所示。
表1认知语言学的意义观与传统语义学的意义观对比表
图1关于“ENTER”的认知图式形成过程的图示[6](P33)
这样的“可视化”图式当然包含了明确的身体指涉。说得更清楚一点,这样的概念图示预设了概念的使用者具有这样的身体经验:自主移动身体,从一个源点出发,沿着一定的路径,进入一个“容器”,并由此使得自己成为一个“容纳物”。换言之,一个从来没有移动过自己的身体,甚至从来没有观察到其他物体之移动的语言处理系统,恐怕是无法真正把握“ENTER”图式,并由此真正把握“进入”这个概念的含义的。
而在从属于“图式”的各个“图式要素”中,“辖域”(scope)这个术语亦与“具身性”有着密切的关联。在认知语言学语境中,“辖域”指的是一个目标概念在被聚焦时,语用主体的注意力在语义网中所能够覆盖的周遭范围。其中与核心区域较近的周遭范围叫“直接辖域”,而注意力的最大范围边界便是“最大辖域”。譬如,对于“肘部”这个概念来说,其直接辖域就是“胳膊”,其最大辖域就是“身体”;而对于“铰链”这个概念来说,“门”就是其直接辖域,“房屋”则是其最大辖域。同时,也正因为任何一个被聚焦的对象与其直接辖域之间的连带关系,我们的自然语言表达式往往只允许该对象与相关直接辖域的概念名彼此连缀为复合名词(如“肩胛骨”“门铰链”等),而不允许该对象跳过直接辖域,与更宽泛辖域的概念名彼此连缀为复合名词(如“体胛骨”“房铰链”等)。[6](P64~65)
而之所以说基于“辖域”的认知语言学叙述方式体现了“具身性”的要素,乃是因为:任何“辖域”的存在均有赖于其边界的存在,任何“辖域”边界的存在又有赖于认知主体视野范围的大小,而认知主体视野范围的大小则最终又取决于其身体的特性。换言之,“辖域”的特征归根结底还是由认知主体的身体特性所塑造。为了更形象地说明这一点,我们不妨设想一下《格列佛游记》中“大人国”与“小人国”居民可能的概念认知图式所具有的“辖域”。譬如,对于一个大人国的居民来说,他所注意到的整个人类房屋恐怕就只有正常人类所看到的一块豆腐那么大,在这样的情况下,“铰链”对于“门”的直接从属关系将因为显得过于“微观”而变得可被忽略。而与之相对比,对于小人国的居民来说,正常人类尺度上的“房屋”却可能因为“过于宏大”而无法成为其所聚焦的某些(对人类而言的)微观对象的辖域;甚而言之,小人国的认知语言学家们恐怕还会开发出一系列对正常人类而言匪夷所思的概念,以便对他们眼中围观对象的辖域进行描述,如在将“铰链”作为聚焦对象的前提下,提到“铰链近侧”“铰链远侧”,等等。
那么,以上说的这些,与伦理学有什么关系?与人工智能伦理学又有何关系?
首先可以肯定的是,伦理学所研究的社会规范本身往往就带有“身体图式”的印记。让我们不妨来想想在周遭社会中遇到的种种社会规范所具有的语言表达吧!比如:“这是军事禁地!禁止入内!”(这个表达预设了关于“进入”的身体图式)“行车时不能挤占公交车道!”(这个表达预设了“挤占”这个概念的身体图式)“不许占据别人的财物!”(这个表达式预设了“占据”是一个将远离身体的非辖域转化为其近侧辖域的动态过程)“不许杀人!”(这个表达式预设了被涉及的人类身体的确具有终止别的人类身体的生物学机能的物理能力)不难想象,如果上述这些关于身体图式的预设全部被抽空的话,那么我们就很可能会凭空造出一些让人不知所云的社会规范,如:“永远不能挤占银河系之外的空间!”“永远都不能通过吐口水的方式来淹死长颈鹿!”……这也就从认知语言学的角度印证了汉密尔顿—麦金太尔路线的伦理学研究思路,即:伦理学规范的内容是某种生物学需要的或直接或间接的再包装,而不是脱离了这些需要的纯精神臆造物。
而上述的研究思路一旦被推广到人工智能伦理学———尤其是机器伦理学———领域内,就会立即触发如下的问题:既然没有任何科学方面的理由使得“小人国”或“大人国”尺度上的智能机器人无法被制造出来(且不论这么做在伦理上是否合适),那么,我们又如何保证这样的机器人所具有的“认知图式”会与人类的“认知图式”彼此合拍呢?而如果这种“合拍性”无法被保证的话,我们又如何保证同样建立在机器人自身身体图式之上的机器人的伦理规范能够与人类既有的伦理规范相合拍呢?而如果后一种“合拍性”也无法被保证的话,我们又如何保证这样的智能机器人不会对人类既有的社会秩序构成威胁呢?
为了使笔者所表达的上述疑虑不显得那么空洞,在此还想表达两个补充性意见。其一,在笔者看来,任何智能机器人———如果其具有真正意义上的全面智能的话———所具有的语言智能,都应当包括对于身体图式的识解能力(无论它的身体构造是怎样的,也无论它是如何获取这种识解能力的)。之所以如此判断,则是基于如下推理:机器人所使用的符号若要与外部环境产生有效的、富有灵活性的互动的话,就必须对使用特定符号的典型语境有所把握,而身体图式恰恰是浓缩了此类典型语境信息的最佳推理中介。因此,认知语言学家关于人类认知图式的很多理论,至少就其哲学精神而言是适用于未来人工智能体的。至于如何找到合适的编程手段来体现认知语言学的原则,则是另外一个话题了。其二,在笔者看来,如果两类智能体(无论是人造的还是自然的)在身体图式上存在着时空尺度上的巨大差异的话,那么这两个话语体系之间的转译成本就会显得非常巨大,甚至有时会变得不可转译(我们不妨设想一下:倘若蚂蚁也会说汉语的话,它们“爬”概念的身体图式就会与我们人类的“爬”有很大的差异)。这一观察对于伦理规范编制的直接影响就是:机器人很可能会因为无法识解人类伦理规范所隐藏的身体图式,而无法识解整条规范(比如,被完全做成海豚状的水下机器人会因为无法理解“踩踏”概念而无法理解“禁止踩踏人类”这条规范的意义)。退一步讲,如果这些机器人语言智能的发达程度已经达到了允许其通过内部的类比推理来间接把握人类身体图式的地步,那么,它们由此所理解的人类社会规范对其而言也只具有一种抽象的意义(而非实践的意义),因为这样的规范实在离它们自己的“生活形式”太远。在此情况下,我们就很难指望这样的智能机器人会严肃地对待人类的社会规范,并在此基础上成为人类所期望的工作与生活中有用的帮手。
基于以上的讨论,在笔者看来,为了防止种种对人类不利的情况出现,机器伦理学家就必须预先阻止“完整意义上的语义智能”与“与人类的时空尺度迥然不同的身体构造”这两项因素在同一个机器人身上的结合。而要做到这一点,从逻辑上看,我们就只有三个选项:
选项一:姑且可以去建造与人类的时空尺度迥异的机器人(比如非常微小的纳米机器人),但是不赋予其高级语义智能,即不赋予其在复杂环境下独立、灵活地做出决策的能力(在这种情况下,此类机器人的智能显然是不足以丰富到足以将“身体图式”予以内部表征的地步的)。
选项二:在将人类意义上的灵活智能赋予机器人的时候,必须要保证其身体界面与人类的身体界面没有时空尺度与性能表现上的重大差异。或说得更清楚一点,这样的机器人不能比人类跑得快太多或强悍太多,但也不能比人类慢太多或脆弱太多。甚至我们要鼓励更多的人形机器人的开发,使得机器人与人类之间能够形成基于“身体上的彼此承认”的“共情感”。套用麦金太尔式的“需要伦理学”的话语框架,也可以这么说:我们必须在硬件构造上就使机器人产生对其他机器人特别是人类的“需要”,就像人类社会中的任何一个成员在生物学意义上需要他人才能够生存一样。
选项三:我们可以将富有灵活智能的机器人与比较“愚笨”的机器人临时组合起来,让前者去操控后者,就像人类自己也会临时地去操控相对缺乏自主智能的机械一样(在这种情况下,两类机器人之间组合的“临时性”,可以依然保证高智能机器人自身认知图式的“拟人性”不被破坏)。但需要注意的是,切不可将这两类机器人的临时组合长久化以催生某种对人类不利的新的认知图式,就像人类自己也只能在特殊情况下才允许士兵去使用真枪实弹一样。
当然,除了以上三个选项之外,笔者也不排除:在某种特殊情况下(比如在某些对人类而言极度危险的作业环境下),我们将不得不把“完整意义上的语义智能”与“与人类的时空尺度迥然不同的身体构造”这两项因素予以永久性地结合。但即使如此,我们也至少要保证此类机器人与主流人类社会没有广泛的空间接触,以维护人类社会的安全。
如果用一句话来概括笔者论点,那便是:太聪明的人工智能并不构成对人类的威胁。且毋宁说,太聪明的人工智能与超强的外围硬件设备的恒久组合形式,才会构成对人类的威胁,因为与人类迥异的身体图式本身就会塑造出一个与人类不同的语义网络,并由此使人类的传统道德规范很难附着于其上。基于此推理,人工智能伦理学的研究方向应当“由软转硬”,即从对软件编制规范的探讨,转向研究“怎样的外围硬件才允许与人工智能的中央处理器进行接驳”这一崭新的问题。
不过,正如笔者已在前文所提及的,笔者的上述观点是与人工智能伦理学的主流意见相左的。在下一节中,我将回过头来再对这些主流见解进行简要的评述。
三、主流人工智能伦理学研究对于具身性的忽视
首先应当看到的是,就当下的发展状态而言,“人工智能伦理学”依然是一门非常不成熟的学科分支。实际上,即使在世界范围内,推动“人工智能伦理学”研究的并不是学院内部的力量,而主要是各国官方与企业的力量,其背后的动机与企图也带有非常强的应景性,并不是立足于学科发展的内部逻辑。譬如,有军方背景的人工智能伦理学家主要关心的是“能够自动开火的机器人”所应当遵循的伦理规范问题;[7](P49~67)欧洲议会在2016年发布的一份建议性文件甚至讨论了将在欧盟范围内把被普遍承认的民权准则赋予机器人的问题。[8]在笔者看来,这两项问题的提出均已超越了目前人工智能的实际发展水平,并带有明显的“消费议题”的嫌疑,因为在认知语言学的相关学术洞见还没有被人工智能的编程作业消化的前提下,现有的人工智能系统的语义表征能力实际上都是不足以编码任何人类意义上的道德规范的———无论这样的人工智能系统的使用环境是军用的还是民用的。更有甚者,在夸张当下人工智能发展水平的前提下,近年来物理学家霍金在各种场合都在散布“人工智能威胁论”,[9](P62~104)并在公众中制造了一些不必要的恐慌。在笔者看来,这种“忧患意识”就好比是在一个核裂变的物理学方程式还未被搞清楚的时代就去担心核战的危险,的确只是现代版的“杞人忧天”罢了。
另外,也正是因为参与上述讨论的各界人士其实并没有将有关人工智能研究的相关语义学与语言哲学问题想透,他们忽略了“身体图式”对于伦理规则表征的奠基性意义,并因为这种忽略而错过了人工智能伦理学研究的真正重点。譬如,研究军用机器人的相关伦理学专家所执着的核心问题———是否要赋予军用机器人以自主开火权———本身便是一个不着边际的问题。在笔者看来,只要投入战争的机器人具有全面的语义智能(这具体体现在:它能够理解从友军作战平台上传送而来的所有指令与情报的语义,能够将从其传感器中得到的底层数据转化为语义信息,并具有在混杂情报环境中灵活决策的能力,等等),在原则上我们就可以凭借它们的这种语义智能对其进行“道德教化”,并指望它们像真正的人类战士那样知道应当在何种情况下开火。在军事伦理的语境中更需要被提出的问题乃是“我们是否允许将特定的武器与机器人战士的‘身体’直接、恒久地接驳”,因为这种直接接驳肯定会改变机器人战士的身体图式,并由此使人类对它们的“教化”变得困难。
而在相对学院化的圈子里,至少在人工智能伦理学的范围内,对于具身化问题的讨论其实也不是很够。即使是哲学家德瑞福斯(HubertDreyfus)多年来所一直鼓吹的“具身性的人工智能”路径,[10]在具体技术路线上也与认知语言学其实并无多大交集,而且他也尚未将关于“具身性”的观点延展到人工智能伦理学的领域。至于前面已引用过的瓦拉赫与艾伦合写的《道德机器———如何教会机器人“对”与“错”》一书,[4]虽然在行文中的确时常流露出“要使机器人的道德决策机制更接近人类”的思想倾向,却也并没有在评述业界既有技术路线的同时,给出一条富有独创性的技术路线来实现这样的思想倾向。因此,无论在学院外部还是内部,本文所提出的以“身体图式构建”为理论基石的人工智能伦理学研究路径,的确算是一条比较新颖的思路。不过,限于篇幅,本文并没有勾勒出将此类身体图式构建与具体的计算机编程作业相互结合的技术路线图。而相关的研究,显然需要另外一篇论文去完成了。
参考文献
[1]Hamilton,WD.TheGeneticalEvolutionofSocialBehavior[J].JournalofTheoreticalBiology,1964,7(1).
[2]MacIntyre,Alasdair.DependentRationalAnimals:WhyHumanBeingsNeedtheVirtues[M].OpenCourt,1999.
[3]Wilson,EO.Sociobiology:TheNewSynthesis[M].Cambridge,MA:BelknapPress,2000.
[4]Wallach,WandAllen,C.MoralMachines:TeachingRobotsRightfromWrong[M].Oxford:OxfordUniversityPress,2009.
[5]Lakoff,G.Women,Fire,andDangerousThings:WhatCategoriesRevealsabouttheMind[M].Chicago:UniversityofChicagoPress,1987.
[6]Langacker,Ronald.CognitiveGrammar:ABasicIntroduction[M].Oxford:OxfordUniversityPress,2008.
[7]Lin,P,etal..RobotsinWar:IssuesofRisksandEthics[A].Capurro,R.andNagenborg,M.EthicsandRobotics[C].Heidelberg:AkademischeVerlagesgesellschaftAKAGmbH,2009.
[8]EuropeanCommission.EuropeanParliament,CommitteeonLegalAffairs.DraftReportwithRecommendationstotheCommissiononCivilLawRulesonRobotics[Z/OL].http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML%2BCOMPARL%2BPE-582.443%2B01%2BDOC%2BPDF%2BV0//EN.
[9]Dreyfus,H.WhyHeideggerianAIFailedandHowFixingitWouldRequireMakingitMoreHeideggerian[A].JulianKiversteinandMichaelWheeler.HeideggerandCognitiveScience[C].NewYork:PalgraveMacmillan,2012.
[10]Matyszczyk,Chris.Hawking:AICouldbe“theWorstThingEverforHumanity”[Z/OL].https://www.cnet.com/news/hawking-ai-could-be-the-worst-thingever-for-humanity/.
来源:《上海师范大学学报:哲学社会科学版》作者:徐英瑾
人工智能与伦理挑战
这样,哈贝马斯意义上的主体间的交往理性,在现代人工智能背景下,已经被拓展为一种“超人”或“后人”与人类之间,或诸多人工智能“电子人格”之间的交往理性。在这种背景下,我们似乎无法再恪守一种纯粹以人类为中心的伦理学,“走出人类纪”,建立一种“后人类”主体的伦理学便是势在必行的事情,那么,我们如何从哲学或伦理学上来审视这个问题?
一种最为简单的做法是,将人类与人工智能形成的“电子人格”作一个类比的转换,即人类与人工智能的关系类似于人与动物的关系。实际上,在今天的社会中,有不少呼声认为动物(尤其是猫和狗之类的宠物),可能拥有着与人类一样的人格,这些动物不仅与人类生活在一起,而且也承担着人类社会的社会责任,最明显的例子是导盲犬、缉毒犬、防爆犬之类的动物,它们承担着人类所不能完成的任务,并成为人类社会不可或缺的部分。一些动物伦理学家,提出了人道地对待动物,使动物拥有与人一样的地位的问题。同样,类人机器人或人工智能一旦被赋予平等的“电子人格”,就像在科幻电影中一样,它们承担着一定的社会责任,并需要得到人道的对待。然而,正如伊万·达舍夫斯基(EvanDashevsky)所说:“人类与技术对象的关系以及我们的选择最终都是对我们自己的反射……这就像康德的哲学主张,康德所主张的动物权利是关于我们的权利,而不是关于动物的权利。康德对动物权利根本没有说过任何东西。他只是说,如果我们对动物很残忍,那么我们也会对人很残忍。我想这种应用设定具有生命性质,我们像对待活的生物一样的机器人身上也是如此。”那么,按照达舍夫斯基的观点,无论我们审视动物的权利,还是审视人工智能和机器人的人格,仍然是一种人类中心的视角,一种基于对人自身的反射式关怀。
人工智能的形式,我们当然不能只从动物的角度做简单的类比。更多从事信息技术和人工智能开发的工程师,拒绝从这个角度来思考问题。实际上,对于人工智能,人们往往只对那些带有类人的实体外形的机器人或者某种对象化的人工智能赋予人格,而对于专业工程师而言,这个领域或许要广泛得多。当我们将“电子人格”赋予类人机器人和人工智能时,我们是否也要将同样的人格赋予我们的智能手机、汽车的自动驾驶系统,甚至我们大门上的智能锁?达舍夫斯基问道:“当我们删除自己智能手机上的数据和照片时,你是否感觉到手机的情感反应?”而我们从不认为我们删除智能手机上的信息,是在侵犯一个与我们具有同等地位的“电子人格”的权利。
我们抵达了当代意大利哲学家阿甘本命名的门槛(soglia)地带。正如人工智能工程师和科学家们为我们展现的那样,人与机器的区分,在今天似乎变得没有那么的清晰明朗。即一旦我们放开人工智能的“电子人格”的权利,意味着人与机器的边界变成了一个难分彼此的门槛。尽管我们并不一定回到拉·梅特利的《人是机器》中那种纯机械论式的论断,这就是阿甘本所谓的装置(dispositivo),并不是我们在使用机器人和人工智能,而是我们与人工智能的装置进入到一个晦暗不明的门槛(人与机器或装置的门槛)地带,“一些带有好意的关于技术话语的空洞在于,装置的问题不过是对装置的使用问题。持这种观点的人忽略了:如果存在着与所有装置相对应的主体化(或去主体化)过程,那么就不可能有主体使用装置的‘正确的方式’。而那些宣扬类似观点的人,不过使他们深陷于其中的媒体装置的产品罢了”。
二、人工智能的波兰尼悖论
事实上,人工智能给伦理学带来的挑战不仅仅是主体问题,也涉及伦理责任问题。主体问题,涉及主体间性的模糊性,即人与人工智能之间是否构成平等对话的主体间关系;伦理责任带来的问题却更为实际,涉及一般人对人工智能与机器人的恐惧问题。
在美剧《疑犯追踪》(PersonofInterest)中,设定了一个拥有最强人工智能的“机器”(machine),它能够随意调用所有的监控和数据信息,进行一些推理和运算,能够判断什么人具有危险,并指引特工遏制相对应的罪行。但是,从第一季到第五季,这个剧集都在宣扬一种观念,作为该机器设计者之一的哈罗德·芬奇(HaroldFinch)始终尝试着将人类的情感因素灌输到机器中,让机器懂得与人类交流,并能够体会细腻的人类情感,正是这种情感性体验[如芬奇给“机器”分享他与他的合作者因格兰(Ingram)之间关系,以及他的恋爱经历]让这个高智能的“机器”拥有了一种伦理责任。实际上,剧集还设定了一个与“机器”竞争的人工智能装置——撒玛利亚人(Samaritan),这个撒玛利亚人只有高智能,没有一丝人类的情感,更不会对人承担任何伦理责任。尽管撒玛利亚人作为程序设定上属于更高级的人工智能,无论在掌握的资源上和程序的算法上都胜于芬奇的“机器”,但是芬奇的“机器”宝宝在与芬奇等人的交流中习得了人类的情感,从而拥有了撒玛利亚人所无法预计的因素,从而留给芬奇和“机器”一线生机,也正是这一线生机,让“机器”最终战胜撒玛利亚人成为可能。
尽管《疑犯追踪》中的“机器”和撒玛利亚人的故事带有虚构的色彩,但是“机器”宝宝的故事却涉及人工智能界一个重要的学说:波兰尼悖论(PolanyisParadox)。1966年,科学哲学家迈克尔·波兰尼给出波兰尼悖论的版本,即“我们知道的可能比我们能说出来的更多……司机的技能不可能完全用驾校的驾驶汽车的理论来替代”。实际上,波兰尼悖论并不是专门针对人工智能技术提出的,但是一直以来,波兰尼悖论被视为人工智能发展绕不过去的一个槛。怎么理解波兰尼悖论呢?即原来的人工智能,大多是建立在海量的数据信息的收集以及计算机超强的数据处理和计算能力基础上,1997年,俄罗斯国际象棋棋王卡斯帕罗夫与人工智能的计算机“深蓝”进行了一场史诗性的对战,在6场对弈中,卡斯帕罗夫最终输给了“深蓝”。不过,正如“深蓝”的研制者IBM公司指出,“深蓝”并不是真正意义上的人工智能,实际上,IBM给“深蓝”输入了百年以来所有国际象棋的特级大师的开局和残局下法,同时“深蓝”拥有着8块专门为这次对弈而设计的处理器,其计算速度达到了惊人的每秒钟2亿步,正是这种超快的计算,让“深蓝”在与卡斯帕罗夫的对弈中占据了绝对优势,因为根据所有的棋谱,“深蓝”已经以极快的速度将所有的可能性都计算了一遍,同时对所有的走法,根据历史棋谱的信息,给出了最优化的选择,并直接呈现在对弈中。换句话说,与其说卡斯帕罗夫是在与一个人工智能下棋,不如说是与既往的所有国际象棋特级大师的经验下棋,尤其卡斯帕罗夫的个人棋风明显,更适合于这种用快速数据计算的方式来战胜。
那么,我们需要理解的是,在“深蓝”与卡斯帕罗夫的对弈中,是否构成了波兰尼悖论?首先IBM“深蓝”小组所输入的是既有的国际象棋信息,即一种固化的知识形态,而“深蓝”只是在高速计算和运转中,将这些信息以对弈的方式再现出来。也就是说,“深蓝”不能下出在历史上或在数据库中没有的步骤,它只能对特定的数据信息进行处理。相反,人类的大脑完全不是这样来运作的,人类可以创造出在棋谱中从未出现过的下法,而在6局对弈中,实际上卡斯帕罗夫胜了2局,而这两局的优势也正是在于卡斯帕罗夫创造了“深蓝”在以往棋谱中所无法计算出来的下法。“深蓝”的案例实际上很好地诠释了波兰尼悖论,即人类大脑所能掌握的能力高于既定的被再现出来的知识,因为人类的思维存在着某种不确定的点,这个点意味着在某个地方,人类行为或许与安排好的程序不一致,这一点有点类似于《西部世界》中关于“冥思”程序的设定,也正是这个特殊的不确定,确定了人不可能纯粹是被决定的存在物,也意味着人有自己的自由意志。
如果我们将波兰尼悖论的问题移植到人工智能的伦理问题上来,便可以理解《疑犯追踪》中芬奇的“机器”与撒玛利亚人之间的关系。伦理或道德不是程序问题,尽管在人工智能的发展上,已经有科学家提出了自己的想法,他们试图将伦理问题作为一种程序,写入人工智能的可能存在的“意识”当中,从一开始就规避掉人工智能可能带来的伦理风险。正如加拿大渥太华大学从事认知科学研究的学者丹尼尔·汤普森(DanielThompson)所说:“一旦成型,就很难控制了。因此,我们的安全预见需要我们去资助这样的计划,即确定第一代超级智能是友善的,从根本上击退所有邪恶的人工智能。”然而,尽管汤普森的愿望是美好的,似乎优秀而善良的程序员和研究者可以通过预先设定好的程序,将道德准则的现实以规范的形式输入人工智能当中,但是这种做法真的能避免人工智能做出不符合伦理准则的行为吗?实际上,这个问题已经涉及伦理学当中的一个长期悬而未决的争论,即伦理究竟是一个形式化的规范问题,还是一种情境性的德性问题。这种以程序设计让人工智能接受人类伦理的方式,必然会遭遇到不同的道德情境问题。
三、机器人大战:人工智能的伦理主体反思
英国伦理学者胡唐·阿西拉芳(HutanAshrafian)曾设计了一个特殊的关于人工智能的案例:
一场涉及边界争端的国际政治冲突导致了两个国家之间的战争,双方都在战争中使用了机器人和人工智能技术。在军事战斗快结束时,占有优势的一方有一个很好的机会来占领对方的一个战略要地,一旦占领这个地方,就可以获得胜利,并结束战争。在战争中,为了保障该战略区域的安全,占优势一方的前线机器人,按照先前预定的战斗计划成功地在战场上清除了敌方的机器人。然而,这些机器人遭遇到了一个突发情况,它们遭到了一群当地小孩的攻击。按照机器人和人工智能技术的法律法规,机器人绝对不能发动针对人类公民的攻击。
这显然是一个涉及机器人和人工智能的道德两难问题,我们分以下两种情况来讨论:
第一,机器人不发动攻击。诚如汤普森所言,在人工智能的设计初期,我们可以将一些伦理规则作为绝对律令,用代码的方式写入人工智能的源程序之中。这个绝对律令就是,可以对对方任何战斗机器人实施摧毁,但绝对不能攻击对方任何自然人类,尤其是手无寸铁的妇孺、老人。在规范伦理学层面,这个律令是绝对没有问题的,相信战斗的两国在机器人设定上,都会遵照一定的规范来进行,避免无辜的平民和自然人伤害的发生。但是在阿西拉芳的例子中,当地的小孩攻击了智能机器人,如果按照既定的规范程序规定,机器人无论遭受何种攻击,都不能攻击当地小孩或敌对方的自然人,那么占有攻击优势的一方会发现,他们的智能机器人会遭到前所未有的挑战。在这种情况下,机器人成为自然人攻击的活靶子,攻击优势方的优势在自然人攻击面前会毁于一旦,如果敌方自然人和机器人联合发动反击,攻击方的机器人会被逐出这个战略要地,最终将唾手可得的胜利拱手让人,战争持续下去,两个国家继续耗时耗力投入到没有尽头的战争之中,最后两个国家在这场永远结束不了(无法结束的原因恰恰是机器人忠实地执行了伦理律令)的战争中耗竭殆尽。
第二,机器人发动反击。任何占有优势的一方,都不会允许出于伦理程序而将已经到手的胜利拱手让人。于是,他们有可能在编写人工智能程序的时候,加上一个非伦理的附加条件,即如果智能机器人认定在遭受不明的致命攻击时,允许其在一定限度内反击。尽管在伦理法则上,强调了这种反击应在一定限度内,但是懂得战争伦理学的人都明白,在战场上,这是难以掌控的。也就是说,一旦允许机器人反击,很有可能对那些攻击机器人的当地小孩造成伤害甚至产生致命的危险。这种反击当然是条件性的和被动的,智能机器人不会主动屠戮当地居民和小孩,但是由于机器人的反击程序往往是针对敌方战斗性机器人的,它们的武器相对于自然人来说,可能会造成更大的伤害。另一方面,战斗机器人与遥控战斗武器不同,它拥有在战斗中的有限自主性,不纯粹受制于远程指挥,这样,战斗机器人的反击造成的伤害构成了一个伦理难题:战斗机器人是否应该为攻击当地小孩承担伦理责任?同样,我们分两种情况来讨论:(1)在机器人战争中,智能机器人作为独立主体来承担伦理责任。然而,在今天的伦理视阈中,人们无法简单将伦理责任问题仅仅归结于智能机器人的主体,至少现在我们将一个战斗机器人送上军事法庭是十分荒谬的。(2)如果我们不赋予战斗机器人完全的主体地位,相反,攻击小孩造成伤害的伦理责任由使用智能机器人一方的将军们负责(在伦理上认定,指挥和控制战斗的指挥官才是真正的伦理主体),但是这些将军们也感到十分无辜,因为他们并没有主动向机器人下达任何攻击小孩的命令,甚至在事件发生那一刻,他们对这种情况毫不知情,而事后他们又不得不为这种情况承担伦理责任。
机器人大战的案例映现了波兰尼悖论在人工智能伦理学上所引出的问题。我们可以思考一下,如果不是战斗机器人,而是自然人军人,在这种案例或其他同样复杂的战场案例中,会拥有更多变化的因素。也就是说,战争上的伦理学对于军人而言,实际上存在着开放性的可能,比如说,针对对方的当地小孩,军人可以采用沟通的方式,并且这种沟通不是僵化的,而是针对不同的情况作出各种不同的反应。但这远远超出了我们现阶段的人工智能技术的应用范围。
实际上,人工智能所产生的这些伦理学问题已经是伦理学之中的一些经典争论。主张向人工智能和机器人植入规范性伦理程序,实际上就是坚持康德式道德律令的一种代表,将某些伦理价值作为绝对先验的道德律令,而其他的道德程序需要通过从这些作为公理性的道德律令中推演出来。而这是一个现代启蒙意义上的道德理性或推理过程,同样,在今天人工智能的设定中,一些工程师和科学家认为,如果道德律令是可以推演的,那么我们就可以完全让机器人或人工智能具有与人类一样的伦理规范和实践理性。但是,另一种伦理学坚持认定应从具体的情境和实践来思考伦理学问题,也就是说,人们在具体生活中所遇到的伦理行为,实际上要远远多于被明确提出的道德律令。规范伦理学实际上不能穷尽一切伦理状态,正如美国伦理学家伯纳德·威廉斯在批判这种单纯的义务论或规范论伦理学时指出:“道德误解了义务,看不到为什么义务只构成伦理考虑的一种形态。它误解了实践必然性,认为它是伦理领域所特有的。它误解了伦理实践必然性,认为它单属于义务。”
结论
威廉斯的批判也可以用在对人工智能伦理学的解读上,即我们可以回答在文章之初所提出的那个问题:人工智能现在是否可以拥有与自然人同等的伦理权利和地位?就现在看,答案是否定的,因为,人工智能的机器人,由于波兰尼悖论的限制,它们还无法真正达到实践伦理学的完备层次,尽管从规范伦理学上来说,可以将伦理规范和道德律令植入到人工智能之中,但是这种植入会遭遇到例外状态下的波兰尼悖论,这势必意味着,至少在伦理学上,我们将人工智能和机器人视为与人类对等的道德主体仍然存在巨大问题。赋予人工智能和机器人独立的人格主体,这是伦理学在今天必须长期讨论的问题。前文所讲《西部世界》的“冥思”的启蒙,和哈罗德·芬奇对“机器”宝宝在情感伦理上的谆谆教诲的情节,现阶段只能存在于虚构的科幻影视作品当中,如何悬置人类中心的伦理学成见,真正将人工智能与人的关系的伦理学纳入到考量当中,重新建立人与人工智能共存的伦理学,将会是一个极其漫长且十分艰巨的任务。
这样,伦理问题不再是纯粹的人与人之间的问题,在新时代的背景下,伦理问题也必然会涉及人与机器人、与人工智能的关系问题。这些问题包括机器人、人工智能是否拥有与人平等的政治权利?它们又是否具备充足的责任能力?在这些问题面前,人类中心主义伦理学走向了终结。或许,我们可以开始面对未来的后人类伦理学。
作者|蓝江,南京大学哲学系教授
责编|阿尔法马返回搜狐,查看更多
人工智能,语言与伦理超星考试答案期末答案
人工智能,语言与伦理超星考试答案期末答案字体大小:大|中|小2020-05-0810:59阅读(380)评论(0)分类:人工智能,语言与伦理超星考试答案期末答案打开右边网址即可查题www.xuanxiu365.com【网址速记:选修365】查题解析答案参考,同时提供大学网课,选修课公务员,外语类,财会类,建筑类,职业资格,学历考试,医药类,外贸类,计算机类等考试;是一个集资料下载与在线考试系统、,是各类考生顺利通过考试的好帮手!人工智能,语言与伦理超星考试答案期末答案人工智能,语言与伦理超星考试答案
基于实例的自然语言处理在语言翻译上具有灵活性。由于大数据只能体现出数量而不能进行质量上的判断,所以在采样并不完整的情况下给出的结论未必准确。深度学习的数据材料来源于()。深度学习中的“深度”是指()基于实例的自然语言处理会出现不对齐问题。语言是检验人工智能是否真正厉害的试金石。过度开采社会人文资源,是指在大数据的环境下对()的侵犯技术问题背后还有着()问题影响基于中间语的机器翻译思路的哲学家是()大数据的样本空间是()聊天机器人某种程度上具有人类的心智。深度学习就是一种绿色人工智能。乔姆斯基认为人类的语法有哪两个层面()先验概率是指根据以往经验和分析得到的概率。现在的人工智能系统都是专用人工智能而非通用人工智能。强弱人工智能讨论的是智能的()康德认为知识的来源有哪两部分()专用与通用人工智能讨论的是智能的()问题。赫伯特·西蒙提出了()理论。shrdlu系统实际上是一个()。过度开采社会人文资源,是指在大数据的环境下对()的侵犯。符号ai是将人的思维通过逻辑语言制成流形图让计算机去执行。制造人工智能的规划、计划和方案本身应该能根据情况的变化进行自我调整。人类心智比较容易适应()环境人工神经元网络又名()和()多引擎翻译系统是指本身由很多不同的原则所驱动的混合翻译。人工神经元网络只需要很少的数据便可掌握处理特定问题的能力。计算机具有触类旁通的能力,可以根据具体语境对事件进行分类人工智能作为一门学科的建立时间是()人工智能作为一门学科的建立时间是()。()无法得知,因为他人的行为和表现有伪装性。塞尔区分了()和()。对人工智能常见的误解有哪些?()大数据无法维持人类社会的隐私和公开之间的张力平衡。现有的人工神经元网络或深度学习无法处理全局性问题。下列属于基于统计的自然语言处理进路的是()。与基于实际语例的自然语言处理近路有关的哲学家是()智能的特点是()。()是对传统符号ai的巨大挑战。类脑人工智能是指模拟人类大脑的人工智能符号ai的问题在于()通用人工智能就是强人工智能。灵活理解语句的能力是人类智能的标准。人工神经元网络是对人类的神经元运作进行一种非常粗糙的数学模拟。强人工智能与弱人工智能就等于专业人工智能与通用人工智能。外在主义的语义模型在哲学上的意思是每个语词的真正含义都要通过与其对应的外在对象来加以编码。下列属于基于规则的自然语言处理进路的是()。一个真正的通用人工智能系统应具备处理()问题的能力。()无法维持人类社会的隐私和公开之间的张力平衡下列属于行为主义心理学家的是()。塞尔认为一个人具有一门语言表达的外部行为就代表其真正懂得这门语言。塞尔提出了()丹尼尔·丹尼特对塞尔“中文屋论证”的批评是()。人工智能与计算机学科的关系是()。传统的统计学意义上的人工智能在很大程度上是运用()方法对样本进行控制。乔姆斯基认为人类的语法都有哪两个层面?()大量信息的提供,尤其是彼此矛盾的信息的提供并不会导致我们的思维过载。智能与神经元网络的存在具有必然关系人工神经元网络的运作分为()语言是检测人工智能是否真正厉害的试金石。下列哪些选项属于通用智力因素()语言不仅仅是句法问题,更是()的问题。如何推进人工智能的研究()深度学习的实质是()。可以用来界定因果关系的是()。多重可实现主义是指用什么东西来执行计算机的抽象程序来说是不重要的,可以通过很多途径来执行计算机程序。日本五代计算机泡沫关注的核心问题是()。shrdlu系统预设了在哲学上语词和外部对象具有对应关系。计算机之父是()。机械主义的说明方式不能囊括人类的()。通用问题求解器需要寻找全局*优解。提出强人工智能与弱人工智能的人是()。目前对人工智能的发展所持有的观点有()。统计学研究首先要确立样本空间,进行合理抽样,然后估测出相关的情况。绿色人工智能是指下列哪些选项是符号ai的技术路线()一个真正的通用人工智能系统应具备处理()问题的能力聊天机器人某种程度上具备人类的心智。聊天机器人eliza的运作,很大程度上采用了将计就计的策略,它本身并没有一个完整的()。符号ai无法面对人类经验的变动性。()的思想激发了基于中间语的机器翻译思路。人类的感官处理也具有机械性。哲学思维对于人工智能的重要性表现在,哲学所强调的批判性思维有助于认清人工智能发展中的问题。人类自己的智能体现了通用性。符号ai不是人工智能的正统。下列哪些选项是符号ai的技术路线()?利用自己的认知本能来进行判断的思维算法是()()认为现在的主流人工智能无法成为通用人工智能任何一个精心编程的计算机,它本身的句法操作不足以支持起语义理解。下列属于行为主义心理学家的是()当前的主流人工智能是通向真正的通用人工智能的康庄大道。人工神经元网络的运作可以粗略分为()三个层面。计算机具有触类旁通的能力,可以根据具体语境对事件进行分类。()思想激发了基于中间语的机器翻译思路。哲学思维对于人工智能的重要性表现在,哲学所强调的批判性思维有助于认清人工智能发展中的问题。shrdlu系统实际上是一个()弱人工智能是指仅仅模拟人类大脑的();强人工智能是指其本身就是一个()。赫伯特·西蒙提出了有限理性理论。人工神经元网络与深度学习的关系是()。类脑人工智能及人工神经元网络只是智能展现的一种形式。人类心智比较容易适应()环境。现有的深度学习进路的人工智能并不能达到通用人工智能。贝叶斯公式适合于人工智能的自然语言处理。shrdlu系统是由()发明的。符号ai的问题在于()。提出强人工智能与弱人工智能的人是()在人工智能的所有子课题中,所牵涉范围*广的是()技术背后还有着()问题可以用来界定因果关系的是()绿色人工智能是指()。面临信息过载的情况,*好的判断方法是通过本能运用原始算法。大数据所搜集到的用户群体都是()。()是现在新出现的人工智能的研究方向。对人工智能常见的误解有哪些磨坊论证出自()深度学习的数据资料来源于()推理的本质是在信息不足的情况下能够*大程度的得到*靠谱的结论。以下哪些选项属于自然智能?目前的人工智能研发的动力主要来源于()。智能与神经元网络的存在具有必然关系。计算机之父是()深度学习的实质是()真正的通用人工智能系统具有把握()的能力。在人工智能的所有子课题中,所牵涉范围*广的是()人工智能与计算机科学的关系是()能够推进人工智能智能的研究*好方法是()。大数据对于语言学习来说,其解释能力非常有限。“节俭性理性”是()提出的。人工智能作为一门学科是于()会议上建立的。汉字屋论证是()提出的。
单片机汇编语言程序有三种基本结构,分别是:、和。
AdobeReader
()是指在音乐作品中对比式和模仿式二者的结合,是复调音乐的基本样式。
“初唐四杰”不仅指他们的诗歌成就,还指其文的成就。()
护理病史采集,下列哪些不妥?
智慧职教:股静脉内的血栓脱落后.随血流运行阻塞于肺动脉的过程,称为
某人研究新生儿黄疸的病因,选择100例确诊的新生儿黄疸病例,和同期同医院确诊的没有黄疸的新生儿100例,然后调查产母的分娩卡片,了解产前及产时各种暴露情况。这种研究方法是:
下列哪一选项不属于海关非物理围网监管模式的监管
在文学中,李白、杜甫二人合称为“李杜”,李商隐和杜牧则有“小李杜”之称。
Hewaseducatedatthelocalschool,afterhewentonstudyinginoxforduniversity.
护士为病人测量脉搏,*的动脉是[单选题]*
当管道内含蜡原油温度下降至凝点以下时,就会造成管道“凝管”事故的发生。
下列物质的化学活泼性顺序是①丙烯②环丙烷③环丁烷④丁烷()
青书学堂:(单选题)不属于新民主主义革命对象的是()(本题1.*)
1941年3月,中国民主政团同盟在重庆诞生。黄炎培被推选为中央常务委员会主席
指挥清军在中越边境前线大败法军,取得镇南关大捷的是()。
借贷记账法下的试算平衡只能进行发生额试算平衡。
慢性单纯性苔藓是一种以持续性性剧痒及皮肤苔藓样变为特征的慢性炎症性皮肤病。
根据甲亢原因的不同,甲亢可分为以下几种类型
已知列表x=[1,2],那么执行语句x.extend([3])之后,x的值为____________
淋巴结内的淋巴小结:
中国大学MOOC:观察学习的第二个心理过程是复制过程。
《阅微草堂笔记》卷十八中术士为孝廉除妖使用的方法是()
Whensomeonenagsatyou,itmeans
Basedontheconversation,whatelsewilldeterminewhichuniversityanAmericanhighschoolstudentcanattendbesidesexamscores?
闭合水准路线中,高差改正数之和与高差闭合差的关系为
中国大学MOOC:调理脾胃须单举左掌上托,右掌下按至()
Themeaningofdilemmais_______.
Exposureofthebody_thestronglightmaybeharmful.
胃肠的内分泌细胞:
人工智能,语言与伦理超星考试答案期末答案大学生心理健康见面课测试题答案章节答案大学生心理健康见面课测试题答案章节答案数学分析答案下册章节答案数学分析答案下册章节答案mooc儿童发展答案章节答案2020已投稿到企业博客:好大学答案文章标签:人工智能语言与伦理超星考试答案期末答案
分享到:阅读(380)评论(0)顶(0)顶一下分享打印上一篇:小明借了1000买了双鞋970答案期
下一篇:微机原理与接口技术答案徐建平期末答案
学习通《人工智能语言与伦理》(复旦大学)章节测试答案
1、学习通人工智能,语言与伦理(复旦大学)章节测试答案1.1人工智能的历史1、【多选题】对人工智能常见的误解有哪些?()A、人工智能就是机器学习B、机器学习只是人工智能中的一个方向C、人工智能最近十年受到深度学习的驱动较多D、人工智能就是深度学习我的答案:AD2、【判断题】哲学思维对于人工智能的重要性表现在,哲学所强调的批判性思维有助于认清人工智能发展中的问题。()我的答案:3、【判断题】深度学习在人工智能领域的表现并不突出。()我的答案:X1.2符号人工智能1、【单选题】计算机之父是()。A、约翰麦卡锡B、艾伦图灵C、赫尔伯西蒙D、马文明斯基我的答案:B2、【单选题】人工智能与计算机学科
2、的关系是()。A、计算机学科的主要驱动力是人工智能研究B、计算机是人工智能研究的一个领域C、人工智能是计算机学科的一个分支D、人工智能与计算机学科没有联系我的答案:C3、【单选题】人工智能作为一门学科的建立时间是()。A、1956年B、1930年C、1960年D、1952年我的答案:A4、【多选题】下列哪些选项是符号AI的技术路线()?A、通用问题求解器B、深度学习C、机器学习D、贝叶斯网络我的答案:AD5、【判断题】符号AI是将人的思维通过逻辑语言制成流形图让计算机去执行。()我的答案:6、【判断题】通用问题求解器需要寻找全局最优解。()我的答案:X7、【判断题】符号AI无法面对人
3、类经验的变动性。()我的答案:1.3人工神经元网络1、【单选题】()是现在新出现的人工智能的研究方向。A、深度学习B、人工神经元网络C、贝叶斯网络D、类脑人工智能我的答案:D2、【单选题】深度学习中的“深度”是指()。A、计算机理解的深度B、中间神经元网络的层次很多C、计算机的求解更加精准D、计算机对问题的处理更加灵活我的答案:B3、【多选题】人工神经元网络与深度学习的关系是()。A、人工神经元网络是深度学习的前身B、深度学习是人工神经元网络的一个分支C、深度学习是人工神经元网络的一个发展D、深度学习与人工神经元网络无关我的答案:AC4、【多选题】人工神经元网络的运作可以粗略分为()
4、三个层面。A、输入层B、映射机制C、中间处理层D、输出层我的答案:ACD5、【判断题】符号AI不是人工智能的正统。()我的答案:X6、【判断题】人工神经元网络是对人类的神经元运作进行一种非常粗糙的数学模拟。()我的答案:7、【判断题】相比于人工神经元网络和深度学习,类脑人工智能对人类大脑的神经回路具有更深入的了解。()我的答案:1.4框架问题1、【单选题】深度学习的实质是()。A、推理机制B、映射机制C、识别机制D、模拟机制我的答案:B2、【多选题】符号AI的问题在于()。A、缺少推理必要的信息B、把推理所依赖的公理系统全部锁死C、缺少推理的灵活性D、会遭遇“框架问题”我的答案:BC
5、D3、【判断题】推理的本质是在信息不足的情况下能够最大程度的得到最靠谱的结论。()我的答案:4、【判断题】计算机具有触类旁通的能力,可以根据具体语境对事件进行分类。()我的答案:X5、【判断题】人工神经元网络会遭遇“框架问题”。()我的答案:X1.5顺便聊聊五代计算机泡沫1、【单选题】日本五代计算机泡沫关注的核心问题是()。A、人工神经元网络B、符号AIC、贝叶斯网络D、自然语言处理我的答案:D2、【判断题】制造人工智能的规划、计划和方案本身应该能根据情况的变化进行自我调整。()我的答案:2.1专用人工智能与通用人工智能1、【多选题】目前对人工智能的发展所持有的观点有()。A、乌托
6、邦论B、模块论C、末世论D、泡沫论我的答案:ACD2、【判断题】现在的人工智能系统都是专用人工智能而非通用人工智能。()我的答案:2.2深度学习能够升级为通用人工智能系统吗?1、【单选题】一个真正的通用人工智能系统应具备处理()问题的能力。A、全局性B、局部性C、专业性D、统一性我的答案:A2、【单选题】目前的人工智能研发的动力主要来源于()。A、科学B、商业C、学术D、军事我的答案:B3、【判断题】现有的人工神经元网络或深度学习无法处理全局性问题。()我的答案:4、【判断题】人工神经元网络只需要很少的数据便可掌握处理特定问题的能力。()我的答案:X2.3向自然智能学习(上)1、【单
7、选题】能够推进人工智能智能的研究最好方法是()。A、继续完善深度学习B、提升计算机处理数据的能力C、研究人类自己的智能D、研发通用人工智能我的答案:C2、【多选题】下列哪些选项属于通用智力因素?()A、短期记忆B、流体智力C、晶体智力D、反应速度我的答案:ABCD3、【判断题】类脑人工智能是指模拟人类大脑的人工智能。()我的答案:X4、【判断题】人类自己的智能体现了通用性。()我的答案:2.4向自然智能学习(下)1、【多选题】以下哪些选项属于自然智能?()A、植物B、动物C、细菌D、机器我的答案:ABC2、【多选题】智能的特点是()。A、能对环境进行灵活的应对B、能够不断创新C、具有
8、十分牢固的记忆力D、经济高效我的答案:AC3、【判断题】智能与神经元网络的存在具有必然关系。()我的答案:X4、【判断题】类脑人工智能及人工神经元网络只是智能展现的一种形式。()我的答案:2.5再论“强人工智能”与“超级人工智能”1、【单选题】提出强人工智能与弱人工智能的人是()。A、约翰塞尔B、彼得卡鲁瑟斯C、杰瑞佛多D、埃隆马斯克我的答案:A2、【判断题】通用人工智能就是强人工智能。()我的答案:X3.1大数据的优点1、【单选题】深度学习的数据材料来源于()。A、人工搜集B、已有数据库C、抽样调查D、互联网我的答案:D2、【单选题】大数据技术的样本空间是()。A、针对所有相关数据B
9、、需要确立样本范围C、不做样本控制D、以上都不对我的答案:C3、【判断题】统计学研究首先要确立样本空间,进行合理抽样,然后估测出相关的情况。()我的答案:4、【判断题】当前的主流人工智能是通向真正的通用人工智能的康庄大道。()我的答案:X5、【简答题】大数据技术与统计学的不同在于?我的答案:在样本控制方面,统计学要进行样本控制,大数据技术则不需要;在思维模式方面,统计学会预先确定范围,大数据技术则会随时调整范围。3.2大数据的缺点1、【单选题】大数据所搜集到的用户群体都是()。A、具有线上行为的用户B、具有线下行为的用户C、参与调研的用户D、不参与调研的用户我的答案:A2、【单选题】人类心
10、智比较容易适应()环境。A、大数据B、小数据C、多数据D、单一数据我的答案:B3、【多选题】技术问题背后还有着()问题A、如何取样B、社会的公平正义C、社会的价值导向D、健康的网上习惯我的答案:BC4、【判断题】由于大数据只能体现出数量而不能进行质量上的判断,所以在采样并不完整的情况下给出的结论未必准确。()我的答案:5、【判断题】大数据会使人类的行为逐渐趋同。()我的答案:3.3节俭性理性1、【单选题】“节俭性理性”是()提出的。A、赫伯特西蒙B、吉仁泽C、司马贺D、拉普拉斯我的答案:B2、【单选题】利用自己的认知本能来进行判断的思维算法是()。A、科学法B、逻辑法C、捷思法D、大
11、数据我的答案:C3、【多选题】绿色人工智能是指()。A、对环境友好B、所需数据小C、消耗资源少D、效率高我的答案:ABC4、【判断题】面临信息过载的情况,最好的判断方法是通过本能运用原始算法。()我的答案:5、【判断题】大量信息的提供,尤其是彼此矛盾的信息的提供并不会导致我们的思维过载。()我的答案:X6、【判断题】赫伯特西蒙提出了有限理性理论。()我的答案:3.4对绿色人工智能的展望1、【单选题】过度开采社会人文资源,是指在大数据的环境下对()的侵犯。A、个人隐私B、大众心理C、个人的行为规范D、大众消费习惯我的答案:A2、【判断题】大数据无法维持人类社会的隐私和公开之间的张力平衡
12、。()我的答案:3、【判断题】深度学习就是一种绿色人工智能。()我的答案:X4.1自然语言处理理论概论1、【单选题】在人工智能的所有子课题中,所牵涉范围最广的是()A、机器视觉B、非确定条件下的推理C、机器听觉D、自然语言处理我的答案:D2、【多选题】真正的通用人工智能系统具有把握()的能力。A、专业性B、跨领域C、局部性D、全局性我的答案:BD3、【判断题】语言是检测人工智能是否真正厉害的试金石。()我的答案:4、【判断题】机器语言的特点是有丰富的修辞手段。()我的答案:X4.2行为主义的自然语言处理路径1、【单选题】聊天机器人ELIZA的运作,很大程度上采用了将计就计的策略,它
13、本身并没有一个完整的()。A、神经元B、符号建模C、语义建模D、数据库我的答案:C2、【多选题】下列属于行为主义心理学家的是()。A、约翰华生B、博尔赫斯斯金纳C、巴普洛夫D、冯特我的答案:AB3、【判断题】图灵测验本身具有浓重的行为主义色彩。()我的答案:4、【判断题】聊天机器人某种程度上具备人类的心智。()我的答案:X4.3外在主义的语义建模1、【单选题】SHRDLU系统实际上是一个()。A、积木系统B、语义模型C、人工装置D、人工神经元网络我的答案:A2、【单选题】SHRDLU系统是由()发明的。A、杰瑞佛多B、约翰塞尔C、赫伯特西蒙D、特里威诺格拉格我的答案:D3、【判断题
14、】SHRDLU系统预设了在哲学上语词和外部对象具有对应关系。()我的答案:4、【判断题】外在主义的语义模型在哲学上的意思是每个语词的真正含义都要通过与其对应的外在对象来加以编码。()我的答案:4.4基于理想语设想的语义建模1、【单选题】语言不仅仅是句法问题,更是()。A、语义B、结构C、音韵D、逻辑我的答案:A2、【单选题】实际的翻译中有时要破坏句子原有的句法结构,根据()重新组织句子。A、音韵B、意义C、逻辑D、效果我的答案:B3、【多选题】乔姆斯基认为人类的语法都有哪两个层面?()A、语义层面B、深层语法C、句法层面D、浅层语法我的答案:BD4、【判断题】大数据对于语言学习来说,
15、其解释能力非常有限。()我的答案:5、【判断题】0-3岁的小孩通过贫乏的语言样本就能够进行有效的语言学习,说明了基于大数据的心智模型是有问题的。()我的答案:4.5统计学进路的语义处理方式1、【单选题】可以用来界定因果关系的是()。A、贝叶斯公式B、先验概率C、后验概率D、归纳逻辑我的答案:C2、【单选题】把归纳逻辑抬到比较高的位置的哲学家是()。A、海德格尔B、大卫休谟C、康德D、莱布尼茨我的答案:B3、【多选题】下列属于基于规则的自然语言处理进路的是()。A、基于中间语的翻译B、基于浅层语法的翻译C、基于外在语言的翻译D、基于深层语法的翻译我的答案:AD4、【多选题】下列属于外语翻
16、译专业术语的是()。A、外在语言B、中间语言C、源语言D、目标语言我的答案:CD5、【判断题】先验概率是指根据以往经验和分析得到的概率。()我的答案:6、【判断题】休谟认为在因果推理中只有或然性。()我的答案:7、【判断题】同一个语词在不同的语境当中具有不同的含义。()我的答案:8、【判断题】贝叶斯公式适合于人工智能的自然语言处理。()我的答案:X4.6混合式进路1、【单选题】下列属于基于统计的自然语言处理进路的是()。A、基于中间语的翻译B、基于浅层语法的翻译C、基于贝叶斯公式D、基于深层语法的翻译我的答案:C2、【单选题】基于规则与统计的混合进路的日然语言处理进路背后的哲学根据
17、是()的哲学。A、莱布尼茨B、海德格尔C、大卫休谟D、康德我的答案:D3、【多选题】康德认为知识的来源有哪两部分?()A、心之自发性B、先天范畴C、感官的杂多性D、感性材料我的答案:AC4、【判断题】多引擎翻译系统是指本身由很多不同的原则所驱动的混合翻译。()我的答案:5、【判断题】混合式自然语言处理进路的问题在于如何将基于规则的自然语言处理与基于规则的语言处理很好地融合在一起。()我的答案:4.7基于实际语例的进路1、【单选题】影响基于中间语的机器翻译思路的哲学家是()。A、康德B、大卫休谟C、长尾真D、莱布尼茨我的答案:D2、【单选题】影响基于统计学自然语言处理的哲学家是()。
18、A、康德B、大卫休谟C、长尾真D、莱布尼茨我的答案:B3、【单选题】与基于实际语例的自然语言处理进路有关的哲学家是()。A、康德B、大卫休谟C、长尾真D、莱布尼茨我的答案:C4、【判断题】基于实例的自然语言处理会出现不对齐问题。()我的答案:X5、【判断题】基于实例的自然语言处理的问题是它会由两种语言之间的对应关系所决定,而有时两种语言之间的对应关系比较难以把捉。()我的答案:6、【判断题】基于实例的自然语言处理在语言翻译上具有灵活性。()我的答案:X7、【判断题】基于实例的自然语言处理需要事先对语用材料的规则性有所把握。()我的答案:5.1再谈强人工智能与弱人工智能1、【单选题】提
19、出强人工智能与弱人工智能的人是()。A、约翰塞尔B、彼得卡鲁瑟斯C、杰瑞福多D、埃隆马斯克我的答案:A2、【单选题】专用与通用人工智能讨论的是智能的()问题。A、分层B、深度C、宽窄D、语言处理我的答案:C3、【单选题】弱人工智能是指仅仅模拟人类大脑的();强人工智能是指其本身就是一个()。A、心智;智能B、运作;大脑C、智能;程序D、智能;心智我的答案:D4、【判断题】强人工智能与弱人工智能就等于专业人工智能与通用人工智能。()我的答案:X5、【判断题】现有的深度学习进路的人工智能并不能达到通用人工智能。()我的答案:5.2塞尔论证的前身1、【单选题】()的思想激发了基于中间语
20、的机器翻译思路。A、笛卡尔B、塞尔C、莱布尼茨D、康德我的答案:C2、【单选题】磨坊论证出自()。A、纯粹理性批判B、单子论C、人类理智新论D、神正论我的答案:B3、【单选题】机械主义的说明方式不能囊括人类的()。A、感觉B、知识C、思维D、逻辑我的答案:A4、【判断题】灵活理解语句的能力是人类智能的标准。()我的答案:5、【判断题】多重可实现主义是指用什么东西来执行计算机的抽象程序来说是不重要的,可以通过很多途径来执行计算机程序。()我的答案:5.3塞尔的反证法1、【单选题】汉字屋论证是()提出的。A、埃隆马斯克B、杰瑞福多C、约翰塞尔D、彼得卡鲁瑟斯我的答案:C2、【多选题】塞尔
21、区分了()和()。A、强人工智能B、弱人工智能C、专用人工智能D、通用人工智能我的答案:AB3、【判断题】任何一个精心编程的计算机,它本身的句法操作不足以支持起语义理解。()我的答案:5.4重要的反驳1、【单选题】丹尼尔丹尼特对塞尔“中文屋论证”的批评是()。A、过于依赖感官B、过于依赖知觉C、过于依赖概念D、过于依赖直觉我的答案:D2、【单选题】塞尔论证的合法性前提是,他的中文屋系统和一般的计算机系统之间是()。A、不同的B、同构的C、互补的D、不相容的我的答案:B3、【单选题】()无法得知,因为他人的行为和表现有伪装性。A、“他心”B、“他感”C、“灵感”D、“灵性”我的答案:
22、A4、【判断题】塞尔认为一个人具有一门语言表达的外部行为就代表其真正懂得这门语言。()我的答案:X5、【判断题】人类的感官处理也具有机械性。()我的答案:6.1机器翻译进路产生的问题(上)1、【多选题】机器翻译的局限性在于()。A、训练样本单一B、只能处理简单句C、基于已有的既成案例D、错误较多我的答案:BC2、【判断题】人类译员一定会被机器所取代。()我的答案:X3、【简答题】深度学习是什么?它是如何运作的?我的答案:深度学习是传统人工神经元网络的一个技术升级版,比原来的人工神经元网络复杂,但仍然是一种人工神经元网络。它的运作很大程度上需要外来的样本输入,然后根据样本输入进行映射,继而
23、归类。6.2机器翻译进路产生的问题(下)1、【判断题】现有的机器翻译无法对人类语用环境的丰富性进行处理。()我的答案:2、【判断题】文化差异不一定会影响翻译结果。()我的答案:6.3认知语言学关于翻译的洞见1、【单选题】认知语言学关心的是我们在使用某个概念时,心中浮现出的()。A、句法规则B、字典上的定义C、认知图式D、具体语境我的答案:C2、【多选题】认知语言学更多地是考虑()。A、句法B、音韵C、语义D、语用我的答案:CD3、【判断题】翻译不一定发生在不同语言的人之间。()我的答案:4、【判断题】翻译机器在进行翻译时会考虑到用户的文化背景。()我的答案:X6.4认知语言学技术刻画
24、的“不可计算性”1、【单选题】框架与框架之间的粘接剂叫做()。A、框间网络B、框架结构C、框架链接D、框间关系我的答案:D2、【判断题】框架之间的相互关系构成了人类语言的基本推理系统。()我的答案:3、【判断题】框架需要使用整个框架网络,但有时也可单独使用。()我的答案:X7.1隐蔽在计算机工业的“中立”面相之后的英语霸权1、【单选题】计算机的编程语言是以()语为模仿对象的。A、西B、法C、日D、英我的答案:D2、【多选题】人工智能主要依赖的学科有()。A、逻辑学B、数学C、统计学D、信息与计算科学我的答案:AC3、【判断题】计算机自身的编程母语是多语种的。()我的答案:X4、【判断
25、题】人工智能不会受到“母语意识”的影响。()我的答案:X7.2被西语思维扭曲的汉语量词现象1、【单选题】第一个注意到东方语言中量词问题的语言哲学家是()。A、图灵B、麦克德莫特C、蒯因D、罗素我的答案:C2、【多选题】英语重视哪两个问题的区分?()A、谓语与非谓语B、可数名词与不可数名词C、冠词与数词D、单复数我的答案:BD3、【判断题】通过海量的数据输入及学习人工智能在量词的指派方面会达到相对准确的程度。()我的答案:X4、【判断题】基于统计学的和数据训练的人工智能系统是无法对语词背后的含义进行深入的理解的。()我的答案:7.3一种基于汉语演化史与认知语言学的复合式解释1、【单选题】
26、量词在汉语中的演化史,以()时代作为一个重要的转折点。A、西周B、先秦C、两汉D、宋代我的答案:C2、【多选题】汉语的演化史表明,量词的真实功用可能与()没有任何关系。A、隐喻机制B、个体化机制C、单复数区分D、补足音素我的答案:BC3、【判断题】通用量词就是只能和特定的名词进行搭配的量词。()我的答案:X4、【判断题】通用量词的出现提升了古汉语的韵律上的齐一性。()我的答案:5、【判断题】按照认知语言学的看法,我们对整个世界当中的事物的描述都是一种隐喻投射机制。()我的答案:7.4以人工智能为武器来反抗地球的扁平化1、【判断题】站在整个全球人类语言演化的大方向上来看,量词现象是具有
27、地方性的。()我的答案:X2、【简答题】为什么东亚国家的语言需要量词,而西方民族不需要量词?我的答案:这在很大程度上也许是因为,我们对世界的感性表达如果仅仅是通过形容词和名词的话,有可能不够用。因而要通过量词再制造一些新的信息槽口,把我们对于世界的其他的感性感受插入进去,使得我们对于世界的表达带有更多的信息。8.1从“中文屋”到“日语屋”1、【单选题】“中文屋”是()提出的思想实验。A、艾伦图灵B、马文明斯基C、乔姆斯基D、约翰塞尔我的答案:D2、【判断题】汉语在塞尔的论证中所扮演的角色是非常“功能性”的,即塞尔只是借用“汉语”指涉任何他不懂的语言。()我的答案:8.2日语言说者对于具身
28、性的敏感性1、【单选题】金谷武洋认为日本人是()看待世界的。A、上帝的视角B、他者的视角C、虫子的视角D、对象的视角我的答案:C2、【单选题】与汉语相比,日语对于(身体感受性)的强调更加明显。A、语法B、量词C、发音D、身体感受性我的答案:D3、【多选题】日语是()的混合体。A、平假名B、汉字C、片假名D、假名我的答案:BC4、【判断题】塞尔的规则书很大程度上是指语言符号的输入和语言符号的输出之间的关系。()我的答案:5、【判断题】对语言的把握和体会很大程度上是一个语言符号的问题,并不依赖于对语境的观察。()我的答案:X8.3“日语屋”给塞尔造成的麻烦1、【单选题】提出“包容构架”理论的
29、是()。A、罗德尼布鲁克斯B、约翰塞尔C、马文明斯基D、艾伦图灵我的答案:A2、【单选题】日语具有强烈的()。A、第三人称性B、第二人称性C、客体性D、第一人称性我的答案:D3、【单选题】深度学习归根结底是一个()。A、推理机制B、映射机制C、识别机制D、模拟机制我的答案:B4、【判断题】深度学习能够很好地处理语境性的信息。()我的答案:X5、【判断题】深度学习无法从客观数据达到主观体验。()我的答案:8.4主流人工智能的自然语言处理技术为何处理不了具身性?1、【单选题】()是非常接近欧陆现象学运动的语言学流派。A、结构主义语言学B、转化-生成语言学C、历史比较语言学D、认知语言学
30、我的答案:D2、【单选题】现有的主流人工智能对自然语言的处理是基于()视角的。A、第二人称B、第三人称C、第一人称D、对象我的答案:B3、【多选题】下列哪些哲学家是从人类真实接受到的现象学体验出发来理解人类生活的方方面面?()A、胡塞尔B、萨特C、海德格尔D、梅洛庞蒂我的答案:ACD4、【判断题】计算机永远无法处理日语所具有的暧昧性。()我的答案:X5、【判断题】认知语言学是对我们进行语言处理的认知图式进行精确的把握。()我的答案:9.1机器人伦理学概述1、【单选题】阿西莫夫三定律出自()。A、曙光中的机器人B、我,机器人C、机器人与帝国D、机器与伦理我的答案:B2、【多选题】人工智
31、能伦理学包括()。A、机器伦理学B、机器发明者的伦理学C、编程伦理学D、机器人伦理学我的答案:AD3、【判断题】伦理道德规范编程的语义内容本身需要具身性加以奠基。()我的答案:4、【判断题】机器伦理学是指造人工智能的主体自身的道德。()我的答案:9.2从伦理学的“具身性”说起1、【单选题】金谷武洋认为日本人是用虫子的视角看待世界的,这是一种()解释。A、现象学B、认知科学C、认知哲学D、生物学我的答案:A2、【单选题】认知语言学认为“意义”的核心观点在于()。A、区域化B、行动化C、范畴化D、理论化我的答案:C3、【多选题】下列与“汉密尔顿理论”相关的是()A、利他行为是由于基因相
32、似B、道德德生物学起源很可能就是与“通过亲属的生存而完成家族基因的备份”这一隐蔽的生物学目的相关的。C、在假定甲、乙两个生物学个体之间具有一定的遗传相似性的前提下,只要这种相似性与“乙从甲获得的好处“之间乘积能够抵消“甲自身因帮助乙而遭受到的损失”,那么,使得互助行为得以可能的那些基因就会在种群中传播。D、以上都不对我的答案:ABC4、【判断题】麦金泰尔在依赖性的理性动物一书中指出动物的社群活动具有很深的生物学根基。()我的答案:X5、【判断题】认知语言学认为一个句子的意义具有唯一的答案。()我的答案:X6、【判断题】人类作为社会性动物的原因是建立于生物学事实的,即人类的身体具有一种生物
33、学意义上的脆弱性。()我的答案:9.3认知语言学的“具身性”对于人工智能伦理学的启示1、【单选题】伦理学命题本身的意义是奠基在()之上的。A、概念图式B、认知图式C、身体图式D、心理架构我的答案:C2、【单选题】根据认知语言学,并不存在与具体的()相脱离的语义。A、理性存在B、感性存在C、多面性存在D、非理性存在我的答案:B3、【多选题】对人类自身的()的研究,有助于人工智能伦理学的研究。A、认知架构B、认知图式C、身体图式D、心理架构我的答案:ABD4、【判断题】伦理学也基于互助原则,只有两种彼此力量相近的力量才能通过互助来互惠。()我的答案:5、【判断题】找不到一个程序性的方法我们不可能把阿西莫夫三定律预先输入到计算机的软件中去。()我的答案:10.1德性伦理学与儒家哲学的结合1、【单选题】德性论者关心的是()。A、道德行为B、道德主体C、道德