人工智能权利话语批判【全文版】
人类在鸿蒙时期便通过制造不属于自然之物的人工之物将自身和其他的动物区分开来。而机器,便是人工之物之中的一种。它隶属于工具范畴,是人类改造自然的媒介之一。改造自然的“分工导致了这些简单工具的创造”[2]411,而简单工具是“机器发展的工艺、物质的前提之一”[2]411,因为“机器劳动这一革命因素是直接由于需求超过了用以前的生产手段来满足这种需求的可能性而引起的”[2]472。因此,机器不仅是简单工具的组合,而是“这许多工具成为在动力、规模和作用范围方面都是统一的某种东西”[2]452,体现了“技术物体从非饱和性向饱和性转化的内容。”[3]
随着单向度时间的推进以及随之而来的技术能力的显著提高,机器的运转越来越“去人化”。它不仅是拓展人类探索和利用自然的工具,同时可以在具体的特定领域代替人类去探索和利用自然。自动化机器的出现,不仅“引起‘生产方式上的改变’,并且由此引起生产关系上的改变……‘并且归根结底’引起‘工人的生活方式上’的改变。”[2]501机器排斥工人的时刻,也就是机器成为工人的时刻,“机器工人”出现了,毕竟,“在以机器为基础建立起新的生产部门的地方,当然谈不到用机器代替工人”[2]563,它们就是“工人”本身。因此,“机器人”与其说是界定某种像人一样活动的机器时所用的概念,不如说是描述某种机器像人一样活动时所用的概念。比如,扫地机器人,不过是一种外表圆形、带有保洁功能、可以贴地行走的机械产品,其不但和人类在外观上相去甚远,而且和既有的吸尘除螨器械在动力机制上并无差异,可这样一种不像人的机器却被称之为“机器人”。因此,机器人“很大程度上是一种概念性的创造物。”[4]36
这一对于“机器人”概念理解方式的转换,不仅解释了为何日常语用中许多被称之为“机器人”的机器并不需要具有人类的外表或特征,同时也为“人工智能”和“机器人”的联合想象确立了认知基础。毕竟,“自1955年麦卡锡在达特矛斯会议上首次提出‘AI’这个概念之日起,绝大多数尝试制造智能机器或计算机来模拟人类智能的研究都是朝着这一目标努力的”[5],而如同人类的肉身是人类智能的载体一样,既有的“机器人”恰好具备成为这一人工智能机械身体的一切功能属性。此时,人工智能是否像人类智能一样并非这一概念的核心,而是,人工智能和人类智能所展现出来的功能指向是否一致。人工智能的数理代码运算模式和人类智能的生物代码运算模式在现阶段的知识体系中存在质的差别,这一差别或许只有等到人脑的运算方式被脑科学破解才有可能破除;但是,这并不妨碍人工智能在人类活动的诸多领域显现出越来越多的功能性优势,曾经的象棋,如今的围棋和无人驾驶都是其中的典范。这些原先被认为属于人类“智慧”的领域,如今却被证明不过是“知识”的范畴。
因此,人工智能和机器人的最终衔接,是在以人类主导的世界中,机器作为一种不同于人类的种属在历史发展过程中的必然结果。唯有更加“类人化”的机器,才可能被人类制造并传播开来,而“类人化”机器进一步的传播,带来的便是生产、流转、消费环节的“去人化”结果。这就要求机器不仅在功能上需要和人类相近,同时在代码运行机制上也要和人类相近。这是整个人类想象力的界限,而并非囿于20世纪的想象力局限。“人使他自己的本质对象化,然后,又使自己成为这个对象化了的、转化成为主体、人格的本质的对象”[6],人类“头脑的产物就统治他们”[7]。如同人类想象的神灵必然有着一副人类的面孔才可以显现出来并为人所知一样,人工智能也只有通过一种拟人化的外在表现形式(机器人)才能够为人所知。尽管,这并不意味,人工智能必然是依附于机器人的,比如,阿尔法围棋作为一款人工智能程序,其不过是虚拟世界中的一连串代码,但无论是作为对阵者的李世石、柯杰,还是观众,都将之作为一名可以在棋盘上落子的、具有“身体”的“真正”对手来看待。这,便是人类关于人工智能的主体想象。
02
二、人工智能的权利话语
想象的主体,止于想象。但人工智能并不是想象的创造物,而是客观存在的事物。于是,想象就不再是单纯的想象,尤其是这一事物作为想象的主体越来越像“人”的时候,它在现实之中是否也越来越值得被当作一个“人”来看待,就成为了人类思考的问题。“关于‘智能与精神要素不必囿于人类和其他自然物种’的新思想开始充斥于各种著作之中”[8],“‘物’转向后的伦理学家们开始正视‘物’的问题,这包括技术人工物之‘物’和技术文明之‘物’。”[9]在这样的语境中,作为技术人工物的高级智能形式的人工智能是否具有道德主体地位就开始成为伦理学的重点关注对象之一。
确认某一事物是否具有道德主体地位,存在两种解读范式。第一种解读范式,是明确指出一个无可争议的道德主体典范代表M,并确立其具有道德地位S是因为具备特征P,即特征P是具有道德主体地位S的必要不充分条件,不具有特征P的任何主体都因和典范代表M不相符合而不具有道德主体地位S;进而,某一特定事物X,只有当其具有和典范代表M相符合的特征P的时候,才获得了具有道德主体地位S的可能性。“绝大部分机器人伦理学研究者都有意识或无意识地遵循着这一……进路及其推理模式”[10],这是针对人工智能主体想象的标准解读范式。
但是,鉴于在第一种解读范式中,特征P不过是具有道德主体地位S的必要不充分条件,因此,即便在特定事物X和典范代表M具有可比较性且特定事物X确实具有了特征P的前提下,依然不足以直接得出“特定事物X足以具有道德主体地位”这一结论。这一内在于推论的逻辑难题导致第二种解读范式的出现:在同为道德主体典范代表M1和M2的交往过程中,只有当二者的交往行为都呈现出特征P的时候,这一交往行为才会被认为是道德的,即M1和M2的道德地位S此时才得以显现;进而,当道德主体典范代表M和特定事物X进行交往之时,如果二者的交往行为都具有特征P,那么,特定事物X就会被道德主体典范代表M认为是道德的,即具有道德地位S。在这种解读范式中,特征P不再是具有道德地位S的必要不充分条件,而是充分不必要条件,毕竟,即便M1和M2的交往行为不展现特征P,他们依然是道德典范代表,依然拥有道德地位S,但只有在交往行为中展现出特征P的时候,两个不同事物才相互把对方作为拥有道德地位S的主体来对待。
而伴随着对人工智能具有道德地位S的论证,人工智能的权利话语开始得以建构。一方面,在第一种解读范式中,如果能够确立人工智能的权利,那么,在和人类共享特征P的前提下,人工智能就能够具有道德地位S,因为道德主体就是享有权利、行使义务的主体。另一方面,在第二种解读范式中,只有在人工智能享有权利的前提下,人类和人工智能的交往行为才具有包含道德特征P的可能性。这就意味着,无论是采用哪一种针对人工智能的主体解读,都必须将“权利”和特征P结合在一起,才足以支持“人工智能是一类真正的道德主体”的论证,意即,当且仅当人工智能展现特征P且享有权利的时候,人工智能才从想象的主体转化为现实的主体。“权利”话语的介入,是论证人工智能从想象主体转化为现实主体不可或缺的要素。“若人工智能没有权利,就不会有法律地位,在法律上就不是真实的。”[11]53这也就不难理解,为何“关于机器人权利的论述似乎比许多其他机器人伦理问题更早地引起学者们的关注”[12]84了。
“权利发展史证明,权利体系的构成从来不是固定不变的。在原有权利遭遇新兴事物冲击的情况下,不同群体的实力博弈将重新构筑权利体系。”[13]57公民权主体的扩张是一个典范。在古希腊时期,奴隶是自由民的反义词,二者界分了不能参加政治生活的非公民和能够参加政治生活的公民;[14]在18、19世纪,无论是欧洲还是美国,女性并不享有公民权,她们拥有家庭生活、社会生活,但不拥有政治生活,“女人生活的中心在家庭之中,因此,国家豁免她们参加陪审团的义务”[15];在1964年《民权法案》出台之前,美国的非洲裔并不享有完整的公民权,尽管在美国内战之后,他们在形式上已经获得了美国宪法的平等对待。[16]这一扩张意味着,享有既有权利的主体范围不是固定的。动物权利的兴起是另一个典范。这一兴起意味着,享有权利的主体不再受到物种差异的限定。因此,沙特阿拉伯授予“女性”机器人索菲亚正式公民身份这一事件,只不过是恰好发生在2017年10月26日的沙特阿拉伯,恰好授予给了索菲亚,而已。毕竟,“公民身份从来就不是一种只悬搁在政治或者社会当中、与个体不存在关联的概念,相反,它是一个非常‘情境化’的概念,‘情境’把行动者和相应的社会场景统一在一起。”[17]
获得公民身份的人工智能“首先应该拥有得到尊重对待的权利”[12]86。研究已经确认了特定功能人工智能的“社会价值”:人类把拟人化的机器人当成人类一样对待。这就意味着,人类需要尊重人工智能,不能“虐待”它,即人类不可滥用人工智能的功能、不可损害人工智能的载体、不可随意切断人工智能的电源等。进而,在诸般社会事实的基础上,“法律救济满足人工智能的利益要求并非不可能。例如停止侵害、排除妨害均可适用于人工智能的救济。”[11]53与此同时,除了来自于特征P和道德地位S的一般意义上的道德权利之外,以数据运算作为算法支持的人工智能,还需要其他权利作为其生存的必要保障,包括但不限于数据资源的共享权利、个体数据的专有权利、基于功能约束的自由权等基本权利等。[13]62-64当这两方面结合在一起的时候,人工智能便不仅仅是被当作“人”,同时,也如同“人”一样行动。因此,欧洲议会才会建议,具有复杂功能的人工智能应该被确认享有法律上的电子人格,有责任弥补自己造成的损害。[18]
03
三、缺乏道德主体资格的人工智能
“权利的常规话语是预先系统化的假设”[19]109,而人工智能权利话语的兴起,符合人类对于人工智能的主体想象。但是,以想象为基础诞生的权利主体,却也不过是想象的产物。因为,“人工智能是/能够成为权利主体”的命题以突破“人类中心主义”的相关伦理理论作为支持,但在论证人工智能之时,这些自称“超人类中心主义”的论证,却依然是人类中心主义的。这在两种对人工智能道德地位的不同解读范式中,体现得尤为明显。
两种对人工智能道德地位的不同解读范式,表面上为人工智能作为权利主体的塑造提供了两条不同的论证路径,并且都将道德主体从人类扩展到了人工智能。前一种解读方式的核心是,人工智能“像/和”人“一样”拥有道德特征P。尽管特征P具体为何,存在着诸多考量,但基本上,所有的相关论证都接受一种划分,即弱人工智能、强人工智能和超人工智能的划分。[20]在弱人工智能阶段,人工智能只是行使某一特定人类行为,即在某一特定领域“像/和”人一样,而这一固有的限度,使得作为整体的人工智能并不足以具有道德地位S。而在强人工智能阶段,人工智能X和人类M具有了共通的特征P,此时,X和M不再具有可比较性,二者归属为同一类事物的范畴,人工智能也就和人类一样具有了道德地位S。至于超人工智能阶段,无论如何发展,都不影响人工智能拥有道德地位S,因为经过了强人工智能阶段的人工智能已经和人类同在。后一种解读方式的核心是,人工智能能够和人进行道德行为交往,即“道德能动性”构成了特征P,而不仅仅是“道德行为”本身。于是,人工智能的发展阶段就从功能指向的弱、强、超,变成了以交往指向的四种类型:能够影响伦理的主体(ethical-impactagents),潜在的主体(implicitagents),显明的主体(explicitagents)和完满的伦理主体(fullethicalagents)。[21]前两类人工智能在和人类的交往中呈现出道德的弱关联性,并没有超越机器属性,尽管可能在其他方面都已经非常像人;而第三类人工智能已经拥有了做出道德决定的能力,其构成了独立的道德交往行为,因此较大可能具有道德地位S;第四类人工智能则已经完全可以具有道德地位S。
但实际上,这两种解读范式本质上是同一的。它们共享着同一个预设:只有依托于人类本身的时候,特定道德特征P的存在才是有意义的。在第一种解读范式中,人类拥有特征P,进而,拥有特征P的存在者就会被当作“人类”;在第二种解读范式中,人类和人类之间的交往拥有特征P,进而,和人类交往拥有特征P的存在者就会被当作“人类”。而这,也是理所当然的,因为,特征P的道德意义来自于人类的赋予,也就是说,特征P实际上仅仅是人类的道德特征P,而非任意的特征P。因为只有能够为人所理解的特征P,才能够达到“像”人一样的情况;而不能够为人所理解的特征P,即便对于其他存在者可能是符合道德的,但是,对于人类来说,则未必是符合道德的。因此,由人所构想的伦理学,都必然是关于人的伦理学,而不是非人的伦理学,这是由人类自身及其视域所决定的。托勒密的地球中心宇宙模型和哥白尼的日心说模型,二者同时既不是真实的也不是虚假的,它们的存在只是表明,“不存在与图像或理论无关的实在概念”[22],它们都是基于观察者———人类———而建立的模型。自然规律尚且如此,人类主动参与建构的伦理规范更无例外:“伦理学规范的内容是某种生物学需要的或直接或间接的再包装,而不是脱离了这些需要的纯精神臆造物。”[23]这也是为何,道德主体的典范代表M只能是正常的成年人。“如果说什么事物能够拥有道德权利的话,那么,一定是拥有正常思考能力和行动能力的成年人;只有那些认为不存在道德权利的人才会拒绝这一说法的可能性。”[19]107
和作为典范的成年人相比,人工智能差距明显,因而,人工智能无法享有道德主体资格。这里的差距,并不在于思考的能力和行动的能力这两种类型能力层面的差距,因为它们都仅仅是道德主体的表征,而非道德地位S的必备要素,即它们不足以成为道德特征P。否则的话,有心智缺陷的人和尚未发育的儿童,都不属于道德主体。将这两类主体排除在道德主体之外,不仅不符合人们日常的认知,同时也受到诸多道德理论的批判。毕竟,对于前者来说,“任何人都可能心智上有所缺陷,或者,有一位所深爱的、心智有缺陷的孩子,因此,理性的人就将意图为此提供了一个不可逾越道德红线”[24],不将心智缺陷作为道德主体的特征P。而对于后者来说,“道德上敏锐而富有洞察力的人并不拒绝将道德信条加诸于孩童”[25],因为从孩童成长到成年人是一个复杂的动态过程,有着“时间”要素的介入,如果排除在外,就意味着一个人在某一瞬间之前还不是权利主体却在时钟拨动之后就突然间成为了道德权利主体。因此,人工智能的思考能力和行动能力和人类的差距尽管十分重要,但更为重要的是,和正常的成年人相比,人工智能作为想象的主体而非现实的主体,其自身行动无法和真正的道德权利相匹配。
唯有将“权利”和道德特征P结合在一起,才真正构成了道德主体的充分必要条件。“权利的特性在于,它关心的是拥有权利的人和权利相对人之间关于自由和控制的分配。权利的核心功能是授予拥有权利的人一种支配力。”[19]107自由和控制构成了道德权利呈现出的两种最基础的状态。和正常的成年人相比,有心智缺陷的人在部分事项上能够拥有这种支配力,因此,“能够拥有较少类型的权利,或行使范围较窄的权利,或者某类特定类型的权利”[19]130;“儿童在成长过程中,逐渐获得了道德能动性”[19]125,也逐渐获得了对行为相对人的支配力;但是人工智能却无法做到这一点,因为它所拥有的“自由”,不过是算法控制下的行为自动化,而并非对抗其他主体控制的自由。这就使得人工智能在实施行为的时候,其相关理由并不具有道德性,因为这一行为的实施只具有单向理由———它的行动是有理由的,但是,这一理由并不是人类对其进行道德肯定或道德否定的理由;而真正的“道德理由是既是行动者行动的理由也是其他人对该行动者的行动进行回应的理由。”[19]41于是,人工智能的行为和人类的行动之间,不具有社会性关联,尽管可能具有因果联系并产生社会影响。以AlphaGo及其后续的AlphaGoZero下围棋为例,当它们进行下围棋的时候,尽管我们会想象坐在看不见的地方有一个“人”在落子,但是,无论这一子落在什么地方、无论这一局是输是赢,对它们的评价都不过是“技巧的优劣”而非“棋品的高低”;哪怕是它曾经“胡乱落子”导致本方告负,我们也不会对这一“乱下”进行否定性评价。因此,尽管在对人工智能的第二种解读范式中,人对于人工智能的行为已经具有了社交因素的暗示,但是,鉴于其反向暗示并不成立,人工智能依然不足以享有道德权利。与此同时,第二种道德状况“控制”意味着,如果人工智能作为道德主体,将有权力控制人类加诸于其上的行动。但这一假设并不成立。毕竟,迄今为止,没有任何关于人工智能的伦理理论赋予人工智能控制人类行动的权力,即当人工智能自行判定某人未能尊重它的时候,它可以违抗此人的命令或对抗此人的行为,并且,它的对抗行为能够得到其他人类的道德肯定。于是,即便不考虑人工智能是否拥有道德自由,它依然无法获得道德权利。
04
四、法律拟制权利的限度
尽管随着技术的发展,人工智能很大可能将会拥有类似与人类的道德特征P,但鉴于人工智能不是在道德理由的支持下实施行为,因此其就不足以拥有道德主体资格。不过,还有另外一种可以赋予人工智能以“权利”的方式,那就是法律的进路。
拥有法律人格和法定权利,和人工智能是否是道德主体并没有必然联系。享有道德权利的道德主体是拥有法律人格和法定权利的必要条件,但是,法律人格和法定权利的范围,显然要超过道德主体和道德权利的界限。因为法律人格的确立和法定权利的授予来自于立法,而立法在很大程度上是一个利益博弈的过程,所以,“当不同群体之间的利益关系发生变化,进而影响群体之间的实力对比时,法定权利的构成与分配也将重新划定。”[13]59最为典范的例子便是法人。根据《中华人民共和国民法总则》第57条,“法人是具有民事权利能力和民事行为能力,依法独立享有民事权利和承担民事义务的组织。”其和自然人一样,是民事主体之一。尽管可以认为,“法人的建构有着现实的历史基础和人类实践基础,绝不是纯粹‘拟制’或虚拟的产物,法人作为理性的建构物,是一种‘理念实体’”[26],但是,法人并不具有道德权利,因为“法人的团结并不是实质性团结”[19]161,这一人与人的集合“不是一个自足的主体,它无法实施源发行为”[19]163,也就无法拥有源于它自身的自由和控制,毕竟,法人的每一个行为,不过是负责控制法人的人自由行使权利的体现,而不是法人自由习惯是权利的体现。另一个典范代表是胎儿,尽管它连道德特征P都不具备,但法律并没有禁止一个人在出生之就拥有财产的权利,即便这一胎儿可能永远不会出生,但是,根据民法总则第16条,死亡只不过是除权事由,并不妨碍胎儿成为一个真正的所有权人。之所以如此,乃是因为,“从法律系统的角度来看,法律是双向理由,它既是受法律约束的主体进行特定行动的理由,也是当有人违法时,法律系统中的公务人员,尤其是法官和法庭工作人员,对之进行回应的理由。”[19]41因此,在理论上,法律规范可以拟制出任一先前本不存在的主体及其权利,只要这一规范获得了立法程序的通过。于是,一旦法律将人工智能作为一个法律拟制的、具有法律意义的主体,那么,人工智能就必然应当拥有法定权利;与之相应,一旦法律赋予人工智能法定权利,那么,人工智能便具有了一定程度的法律人格。
人工智能“是机器还是人,在法理上涉及到主客体二分法的基本问题……将其作为拟制之人以享有法律主体资格,在法理上尚有斟榷之处。”[27]根据既存的中国法律规范,关于人工智能是否享有法律权利,缺乏具体的规则标准,既没有关于人工智能法律权利的价值指引,又未能明确人工智能的法律地位。[11]51-52但在现实层面,阿西莫夫的“机器人三原则”业已广泛传播,“目前机器人的设计大致还是遵循了阿西莫夫的三原则”[28];基于人-机器人系统视角的替代法则,并没有带来人工智能权利配置的变化。[4]40-41因此,针对三原则的分析,将有助于理解人工智能获得法律权利的可能性。其中,第一原则“机器人不得伤害人”实际上是加诸于人工智能的规范性义务,其和第二原则“在不违反第一定律的情况下,必须服从人类命令”一起,形成了人对人工智能的控制。这被认为是一种利他主义的行为模式。尽管利他主义权利“在法律领域也仅仅表现为‘见义勇为’‘无因管理’等少数行为”[13]60,但确实存在如此类型的法律权利。而第三原则“机器人必须保护自己”,则被认为“实际就是给予人工智能自我保护的权利”[11]52。这是一种典型的利己主义,也是人工智能法律权利话语中最为重要的一项内容。根据霍菲尔德的梳理,法律权利话语可以进一步细分为八种基本法律概念,它们一一对应,构成四组对应关系:权利,义务;特权,无权利;权力,责任;豁免,无能力。[29]其中,狭义的权利实际上是请求,而特权即为自由。第一原则意味着,人类对于人工智能有一种请求权,即,当人工智能违反法律义务准备伤害人类时,任何人都有权利要求人工智能停止这一侵害;第二原则意味着,人类对于人工智能拥有权力,即,在不违反第一原则的情况下,人类有法律权力要求人工智能做任何事情;第三原则意味着,在不违反第一和第二原则的情况下,人类有不得要求人工智能自我侵害的法律义务,一旦有人这样做,任何人都有权利要求他停止这一命令,或,命令人工智能停止前一命令。于是,从每一原则所设定的行为规范出发,人工智能的相关行为都可以在法律话语中占有一席之地。这就意味着在任一国家,只要其经由立法通过了相关的法律规范,人工智能就明白无误地具有了法律权利,“因为在任一法律体系中,法律的内容是由被当作权威接受的渊源所决定的”[19]122。
然而,法律是否规定人工智能拥有权利是一回事,法律是否应该规定人工智能拥有权利则是另一回事。如同人类的视域使得道德权利无法回避人类中心主义一样,法律权利同样无法回避人类中心主义。作为体系的“机器人三原则”完美地呈现了这一点。检验问题便是:人工智能是否有权利伤害人工智能?作为真正的法律权利主体,无论自然人还是法人乃至于国家,都不拥有侵害其他主体的法律自由,只有国家拥有特定情况下有约束其他主体的法律权力。即便可以假设作为法律权利主体的人工智能是一种与这些主体截然不同的类型,它们之间的相互伤害,也并不会被当作两个法律权利主体之间的侵权行为,否则,现实中的机器人比赛就应该被取缔,两个机器人之间因磕碰造成的损害也应该由它们自身提起诉讼。理解这一检验的前提是明确“在传统俗语中存在的、现今语言表达中忽略的‘代理’(onbehalfof)某人行为和为某人‘谋利益’(inbehalfof)的行为之间的细微区别……[即]代理人和利益代表之间的差异”[19]114。一方面,根据机器人原则,人工智能实施的行为来自于人类的命令,鉴于人具有道德主体性,因此,它能够代替人类去行动,但这只是为了命令者的利益去实施某种行为,包括对其同类造成损害;另一方面,当人工智能受到损害时,这一受损的利益诉求实际上也并非是人工智能的利益诉求,而是控制这一人工智能的人的诉求———毕竟,人工智能并没有道德自由。这就导致了即便现实的法律赋予了人工智能以法律权利,人工智能在法律人格方面依然是存在缺位的。而欧洲议会向欧盟委员会提交的报告也印证了这一点。尽管根据报告,人工智能可能享有诸多的自由,但是,这些自由的错误行使并不能导致由人工智能来承担相应的责任,因为“无论以何种方式承担责任,最终的责任承担者都是人,这使得它的‘法律人格’显得多余和毫无必要。”[30]从这个意义上来说,法律规范只不过恰好是用法律权利话语的修辞来表述人工智能这一事物,而并没有使之成为一类真正的法律权利主体。这便是法律拟制权利的限度。
05
五、结语
人工智能的权利话语是人类想象力的产物,而人类的想象力又不可避免地受制于人类中心主义。这就使得,无论是借助主体范式还是关系范式来解读人工智能,都不足以在人类和人工智能的交往行为中展现双向道德理由,进而,人工智能不可能拥有任何意义上的道德权利,也因此无法获得道德主体资格。与此同时,尽管法律规范能够不以道德主体资格为基础,凭借自身设立人类和人工智能交往行为的双向法律理由,使得人工智能在形式上拥有法律权利,但是,这一法律权利却因为仅仅限定于人工智能和人类之间,而不足以支持人工智能自身的法律主体资格,因此,这些权利仅仅是修辞性的法律权利而非真正的法律权利。这就意味着,只要在人类的想象中,人工智能依然是“像人类一样”而非“是人类一员”,那么,人工智能的权利话语就必然缺乏基础,需要接受进一步的批判。
参考文献
[1]胡凌.人工智能的法律想象[J].文化纵横,2017(2):108.
[2]马克思,恩格斯.马克思恩格斯全集:第47卷[M].人民出版社,1979.
[3]郑雨.工具与机器:马克思《机器、自然力和科学的应用》文稿的解读[J].科学技术哲学研究,2012(6):69.
[4]段伟文.机器人伦理的进路及其内涵[J].科学与社会,2015(2).
[5]王晓阳.人工智能能否超越人类智能[J].自然辩证法研究,2015(7):104.
[6]费尔巴哈.基督教的本质[M].荣震华,译.北京:商务印书馆,1984:63.
[7]马克思,恩格斯.马克思恩格斯全集:第3卷[M].人民出版社,1960:15.
[8]王绍源.机器(人)伦理学的勃兴及其伦理地位的探讨[J].科学技术哲学研究,2015(3):103.
[9]王绍源.应用伦理学的新兴领域:国外机器人伦理学研究述评[J].自然辩证法通讯,2016(4):148.
[10]李小燕.从实在论走向关系论:机器人伦理研究的方法论转换[J].自然辩证法研究,2016(2):41.
[11]袁曾.人工智能有限法理人格审视[J].东方法学,2017(5).
[12]杜严勇.论机器人的权利[J].哲学动态,2015(8).
[13]张玉洁.论人工智能时代的机器人权利及其风险规制[J].东方法学,2017(6)
[14]毛立云.自然奴隶:磐石之上的种子——亚里士多德自然奴隶学说的哲学解读[J].上海交通大学学报(哲学社会科学版),2015(5):43.
[15]Kerber,L.AConstitutionRighttobeTreatedLike...Ladies:Women,CivicObligationandMilitaryService[J].UniversityofChicagoLawSchoolRoundtable,1993(1):99.
[16]Santoro,W.A.TheCivilRightsMovementandtheRighttoVote:BlackProtest,SegregationistViolenceandtheAudience[J].SocialForces,2008(4):1391-1414.
[17]郭忠华.变动社会中的公民身份:概念内涵与变迁机制的解析[J].武汉大学学报(哲学社会科学版),2012(1):64.
[18]EuropeanParliament.ReportwithRecommendationstotheCommissiononCivilRulesonRobotics[R].A8-0005/2017:18.
[19]Wellman,C.RealRights[M].NewYork:OxfordUniversityPress,1995.
[20]何哲.人工智能时代的社会转型与行政伦理:机器能否管理人?[J].电子政务,2017(11):5-7.
[21]James,M.H.TheNature,ImportanceandDifficultyofMachineEthics[J].IEEEIntelligentSystems,2006(4):19-22.
[22]史蒂芬·霍金,列纳德·蒙洛迪诺.大设计[M].吴忠超,译.湖南:湖南科学技术出版社,2014:35.
[23]徐英瑾.具身性、认知语言学与人工智能伦理学[J].上海师范大学学报(哲学社会科学版),2017(6):9.
[24]Murphy,J.G.RightsandBorderlineCases[J].ArizonaLawReview,1977(19):239.
[25]MacCormick,N.Children’sRights:ATest-CaseforTheoriesofRights[J].ArchivfürRechts-undSoziatphitosophie,1976(62):360.
[26]谭启平,黄家镇.民法总则中的法人分类[J].法学家,2016(5):36.
[27]吴汉东.人工智能时代的制度安排与法律规制[J].法律科学,2017(5):131.
[28]何怀宏.何以为人人将何为——人工智能的未来挑战[J].探索与争鸣,2017(10):38.
[29]Hohfeld,W.N.SomeFundamentalLegalConceptionsasAppliedinJudicialReasoning[J].TheYaleLawJournal,1913(23):30.
[30]郑戈.人工智能与法律的未来[J].探索与争鸣,2017(10):82.
规制与公法(ReguLaw)
微信编辑:美郡返回搜狐,查看更多
人工智能周苏版作业答案2
【作业】知识表示1.知识与知识表示是人工智能中的一项重要的基本技术,它决定着人工智能如何进行(A)。A.知识学习B.知识存储C.知识产生D.知识爆炸2.在信息时代,有许多可以处理和存储大量信息的计算机系统。信息包括数据和事实。数据、事实、信息和知识之间存在着(C)关系。A.因果B.重叠C.层次D.网状3.下面关于知识的叙述中,不正确的是(B)。A.知识是信息接受者通过对信息的提炼和推理而获得的正确结论B.知识是铭刻在书本上不朽的真理C.知识是人对自然世界、人类社会以及思维方式与运动规律的认识与掌握D.知识是人的大脑通过思维重新组合和系统化的信息集合4.在人工智能中,从便于表示和运用的角度出发,将知识分为对象、(A)。A.B、C和DB.执行C.元知识D.事件和事件序列5.以下关于“知识表示”的叙述不正确或者不合适的是(C)。A.是指把知识客体中的知识因子与知识关联起来,便于人们识别和理解知识B.是对知识的一种描述,或者说是一种计算机可以接受的用于描述知识的数据结构C.在知识组织的基础上产生知识表示方法D.是能够完成对专家的知识进行计算机处理的一系列技术手段6.对于人类而言,一个好的知识表示应该具有若干特征,但下面(D)不属于这个特征。A.它应该是透明的,即容易理解B.无论是通过语言、视觉、触觉、声音或者这些组合,都对我们的感官产生影响C.从所表示的世界的真实情况方面考查,它讲述的故事应该让人容易理解D.良好的表示与机器庞大的存储器和极快的处理速度其实无关7.一幅相关的图片或图形可以相对简洁地传达故事或消息。(B)是一种非正式的绘图,或者说是对场景、过程、心情或系统的概括。A.螺旋图B.图形草图C.圆饼图D.场景图8.(C)是知识表示的重要工具,因为它是表示状态、替代路径和可度量路径的自然方式。A.数组B.表C.图D.线段9.如果需要应用如最佳有限搜索算法这样的分析方法,使用(A)表示最合适。A.搜索树B.计算器C.矩阵D.图形10.本质上,人工智能与决策相关。如果需要一种好的方式来评估要求做出决策的环境。(B)通常使用一个IF[条件]THEN[动作]形式规则集来表示。A.搜索树B.产生式系统C.图形D.框架法11.(C)是一种基于继承、多态性和封装概念的编程范式,这种范式可以直观、自然地反映人类经验。A.产生式系统B.框架法C.面向对象D.图形12.(D)的知识表示方法是一种以对象为中心,把对象的属性、动态行为、领域知识和处理方法等有关知识封装在表达对象的结构中的混合知识表示形式。A.产生式系统B.图形C.搜索树D.面向对象13.(A)知识表示方法把某一特殊事件或对象的所有知识储存在一种复杂的数据结构中。A.框架法B.产生式系统C.搜索树D.面向对象14.(B)是知识表示中最重要的通用形式之一,它是通过概念及其语义关系来表达知识的一种网络图。A.框架法B.语义网络C.搜索树D.面向对象
【作业】机器人技术1.RoboCup机器人世界杯赛提出的最终目标是(B)。A.一支非人形机器人足球队与人类足球队按正式规则比赛B.一支完全自治的人形机器人足球队在正式比赛中战胜人类冠军队C.一支完全自治的人形机器人足球队参加国际足联的正式比赛D.RoboCup机器人世界杯赛与国际足联比赛合并2.实现RoboCup机器人世界杯赛提出的最终目标的规划时间是(A)年。A.50B.100C.20D.30 3.RoboCup有这样一种观点:RoboCup是一个标准问题,可以用来评价各种不同的理论、算法和体系结构。其实际含义是(A)。A.创造一个新的理论高度B.开发一种特别的通用设备C.鼓励一系列为下一代工业而发展的技术D.开发全新的社会娱乐生活4.机器感知是指能够使用(D)所输入的资料推断世界的状态。A.键盘B.鼠标器C.光电设备D.传感器5.机器感知研究如何用机器或计算机模拟,延伸和扩展(B)的感知或认知能力。A.机器B.人C.机器人D.计算机6.机器感知包括(A)等多种形式。A.B、C和DB.机器视觉C.机器听觉D.机器触觉7.机器智能研究如何提高机器应用的智能水平。这里的“机器”主要是指(D)。A.计算机B.自动化装置C.通信设备D.A、B和C 8.智能机器研究如何设计和制造具有更高智能水平的机器,特别是(A)。A.计算机B.厨房设备C.空调装置D.军工装备9.机器思维,如专家系统、机器学习、计算机下棋、计算机作曲、计算机绘画、计算机辅助设计、计算机证明定理、计算机自动编程等,可以概括为(B)思维。A.互联网B.计算机C.机器人D.传感器10.机器行为研究如何用(C)去模拟、延伸、扩展人的智能行为。A.电脑B.计算器C.机器D.机械手11.行为机器指具有(D)的机器,或者说,能模拟、延伸与扩展人的智能行为的机器。A.人形动作B.移动能力C.工作行为D.人工智能行为12.机器人是“(A)”,它是高级整合控制论、机械电子、计算机、材料和仿生学的产物。A.自动执行工作的机器装置B.造机器的人C.机器造的人D.主动执行工作任务的工人13.为了防止机器人伤害人类,科幻小说家艾萨克·阿西莫夫于(A)年在小说中提出了“机器人三原则”。A.1942B.2010C.1946D.2000 14.为了防止机器人伤害人类而提出的“机器人三原则”中不包括(B)。A.机器人不得伤害人类,或袖手旁观坐视人类受到伤害B.人类应尊重并不得伤害机器人C.原则上机器人应遵守人类的命令D.在不违背第一及第二原则下,机器人必须保护自己15.智能制造源于人工智能的研究,包含智能制造(A)和智能制造系统。A.技术B.理论C.工具D.行业16.智能制造系统IMS是一种由智能机器和(B)共同组成的一体化智能系统。A.机械手B.人类专家C.机器人D.车床
【作业】深度学习1.如果你想设计人工智能系统,那就要学习并分析这个星球上最自然的智能系统之一,即(A)。A.人脑和神经系统B.人脑和五官系统C.肌肉和血管系统D.思维和学习系统2.所谓神经网络,是指以人脑和神经系统为模型的(C)算法。A.倒档追溯B.直接搜索C.机器学习D.深度优先3.如今,ANN从股票市场预测到(A)和许多其他应用领域都有突出的应用表现。A.汽车自主控制B.模式识别C.经济预测D.A、B和C 4.人脑由(B)个神经元组成,这些神经元彼此高度相连。A.100~1000万B.100~1000亿C.50~500万D.50~500亿5.人脑是一种适应性系统,必须对变幻莫测的事物做出反应,而学习是通过修改神经元之间连接的(D)来进行的。A.顺序B.平滑度C.速度D.强度6.人类细胞之间的轴突-树突(轴突-神经元胞体或轴突-轴突)接触称为神经元的(A)。A.突触B.轴突C.树突D.髓鞘7.ANN是一种模仿生物神经网络,其中的(B)扮演了生物神经模型中突触的角色,用于调节一个神经元对另一个神经元的影响程度。A.细胞体B.权重C.输入通道D.输出通道8.现代神经网络是一种非线性统计性数据建模工具。典型的神经网络具有三个部分,除了(B)。A.结构B.尺寸C.激励函数D.学习规则9.人工智能在图像识别上已经超越了人类,支持这些图像识别技术的,通常是(D)。A.云计算B.因特网C.神经计算D.深度神经网络10.将ANN与模糊逻辑结合起来生成(C)网络,这个网络既有ANN的学习能力,同时也具有模糊逻辑的解释能力。A.模式识别B.人工智能C.神经模糊D.自动计算11.从研究角度看,(A)是基于多层神经网络的,海量数据为输入的,发现规则自学习的方法。A.深度学习B.特征学习C.模式识别D.自动翻译12.深度学习与传统的机器学习最主要的区别在于(C),即随着数据规模的增加其性能也不断增长。当数据很少时,深度学习算法的性能并不好。A.特征处理B.硬件依赖C.数据依赖性D.问题解决方法
【作业】图像处理1.模式识别原本是(A)的一项基本智能。A.人类B.动物C.计算机D.人工智能2.人工智能领域通常所指的模式识别主要是对语音波形、地震波、心电图、脑电图、图片、照片、文字、符号、生物传感器等对象的具体模式进行(C)。A.分类和计算B.清洗和处理C.辨识和分类D.存储与利用3.要实现计算机视觉必须有图像处理的帮助,而图像处理依赖于(B)的有效运用。A.输入和输出B.模式识别C.专家系统D.智能规划4.模式识别是一门与概率与统计紧密结合的科学,主要分为三种,但下列(B)模式识别不属于其中之一。A.统计B.句法C.模糊D.智能5.图像识别是指利用(B)对图像进行处理、分析和理解,以识别各种不同模式的目标和对象的技术。A.专家B.计算机C.放大镜D.工程师6.图形刺激作用于感觉器官,人们辨认出它是经历过的某一图形的过程,称为(A)。A.图像再认B.图像识别C.图像处理D.图像保存7.图像识别是以图像的主要(C)为基础的。A.元素B.像素C.特征D.部件8.基于计算机视觉的图像检索可以分为类似文本搜索引擎的三个步骤,但下列(D)不属于其中之一。A.提取特征B.建立索引C.查询D.清晰9.图像识别的发展经历了三个阶段,但下列(B)不属于其中之一。A.文字识别B.像素识别C.物体识别D.数字图像处理与识别10.现代图像识别技术的一个不足是(A)。A.自适应性能差B.图像像素不足C.识别速度慢D.识别结果不稳定11.图像识别的主要方法有三种,但下列(C)识别不属于其中之一。A.统计模式B.结构模式C.像素模式D.模糊模式12.(D)是图像处理中的一项关键技术,一直都受到人们的高度重视。A.数据离散B.图像聚合C.图像解析D.图像分割13.具有智能图像处理功能的(A),相当于人们在赋予机器智能的同时为机器按上了眼睛。A.机器视觉B.图像识别C.图像处理D.信息视频14.图像处理技术的主要内容包括3个部分,但下列(B)不属于其中之一。A.图像压缩B.数据排序C.增强和复原D.匹配、描述和识别15.图像处理一般指数字图像处理。常见的处理有图像数字化、图像编码、图像增强、(D)等。A.图像复原B.图像分割C.图像分析D.A、B和C 16.机器视觉需要(A),以及物体建模。一个有能力的视觉系统应该把所有这些处理都紧密地集成在一起。A.B、C和DB.图像信号C.纹理和颜色建模D.几何处理和推理17.计算机视觉要达到的基本目的是(D),以及根据多幅二维投影图像恢复出更大空间区域的投影图像。A.根据一幅或多幅二维投影图像计算出观察点到目标物体的距离B.根据一幅或多幅二维投影图像计算出目标物体的运动参数C.根据一幅或多幅二维投影图像计算出目标物体的表面物理特性;D.A、B和C 18.神经网络图像识别技术是在(B)的图像识别方法和基础上融合神经网络算法的一种图像识别方法。A.现代B.传统C.智能D.先进19.图像采集就是从(A)获取场景图像的过程,是机器视觉的第一步。A.终端设备B.数据存储C.工作现场D.离线终端20.图像分割就是按照应用要求,把图像分成不同(A)的区域,从中提取出感兴趣目标。A.特征B.大小C.色彩D.像素
《自动规划》习题1.与一些求解技术相比,(A)都属于高级的求解系统与技术。A.自动规划与专家系统B.图像处理与语音识别C.机器人与专家系统D.图像处理与机器人2.通常认为规划是一种与人类(B)的活动。A.不太有关B.密切相关C.偶尔为之D.将要开展3.下面关于“规划”的说法中,不正确或者不合适的是(D)。A.规划代表了一种非常特殊的智力指标,即为了实现目标而对活动进行调整的能力B.在日常生活中,规划意味着在行动之前决定其进程C.规划指的是在执行一个问题求解程序中任何一步之前,计算该程序几步的过程D.规划是一项随机的活动4.大多数规划都具有(C)结构。A.单一B.简单C.子规划D.复杂5.规划有几个突出的特点,但下面的(B)不属于这个特点之一。A.为了完成任务,可能需要完成一系列确定的步骤B.可能需要加强团队互动建设C.定义问题解决方案的步骤顺序可能是有条件的D.构成规划的步骤可能会根据条件进行修改6.自动规划是一种重要的技术。与一般问题求解相比,自动规划更注重于问题的(A)。A.求解过程B.求解结果C.分析过程D.分析结果7.自动规划要解决的问题,往往是(B)问题,而不是比较抽象的数学模型问题。A.数学模型B.真实世界C.抽象世界D.理论8.在研究自动规划时,往往以(C)与问题求解作为典型例子加以讨论,这是因为它能够得到形象的和直觉的检验。A.图像识别B.语音识别C.机器人规划D.数学模型9.在魔方的离散拼图和15拼图的移动方块拼图示例中,我们可以找到很熟悉的规划应用,其中包括(D)问题。A.国际象棋B.桥牌C.调度D.A、B和C10.规划本质上是一个(B)问题,就计算步骤数、存储空间、正确性和最优性而言,这些涉及到该技术的效率。A.算法B.搜索C.输出D.分析11.下列(D)不是启发式搜索技术。A.最小承诺搜索B.选择并承诺C.深度优先回溯D.自下而上12.部分有序规划(POP)通常有3个组成部分,下面(C)不属于其中。A.动作集B.顺序约束集C.数据集D.因果关系链集13.规划适用层次结构,也就是说,(A)所有的任务都处于同一个重要级别,一些任务必须在进行其他任务之前完成,而其他任务可能会交错进行。A.并不是B.通常C.一般D.几乎
人工智能导论王万良
选择题答案1、人类智能的特征包括()。感知能力、记忆与思维能力、学习能、行为能力2、人工智能中通常把()作为衡量机器智能的准则。图灵测试3、人工智能研究的基本内容包括()。机器行为、机器感知、机器思维、机器学习4、人工智能的目的是让机器能够(),以实现某些脑力劳动的机械化。模拟、延伸和扩展人的智能5、李明的父亲是教师,用谓词逻辑可以表示为Teacher(father(Liming))这里father(Liming)是()函数6、()表示“每个人都有喜欢的人”。VE7、R(x,y)中的x是约束变元。8、一阶谓词逻辑表示的优点是()自然性、精准性、严密性、易实现9、下列()是谓词公式。P(x)非P(x)P(x)Q(x)10、不适合用产生式表示法表示的知识是()具有结构关系的知识11、下列不是框架表示法特点的是()模块性12、如果证据E的出现使得结论H一定程度为真,则可信度因子()13、在可信度方法中,若证据A的可信度CF(F)=0,这意味:()对证据A一无所知14、在证据理论中,信任函数与似然函数对(Bel(A),Pl(A))的值为(0,0)时,表示()A为假15、不确定推理中,除了需要解决推理方法、推理方向、控制策略外,还需解决()不确定的表示与度量、不确定性的传递算法、结论不确定性的合、组合证据不确定性的算法16、若模糊推理结果为根据最大隶属度平均法,模糊决策的结果为()-1.5没布置的1、如果问题存在解,则下面几种搜索算法中,()必然可以得到问题的解。宽度优先搜索2、如果问题存在最优解,则下面几种搜索算法中,()可以认为是“智能程度相对比较高”的算法。启发式搜索3、在启发式图搜索策略中,下面描述正确的是()closed表用于存放已扩展过的节点。4、在估价函数中,对于g(x)和h(x)下面描述正确的是()5、在估价函数中,对于g(x)和h(x)下面描述正确的是()g(x)是从初始节点到节点x的实际代价h(x)是从节点x到目标节点的最优路径的估计代价6、关于蚁群算法的参数,下面叙述错误的是()信息素启发因子越大,蚂蚁选择以前走过的路径的可能性越大,蚁群的搜索过程越不易陷入局部最优。信息素启发因子越小,蚁群搜索的随机性越小。7、对于信息素挥发度,下面叙述正确的是()信息素挥发度直接关系到蚁群算法的全局搜索能力及其收敛速度。通过减小信息素挥发度可以提高算法随机性能和全局搜索能力。信息素挥发度减小时,算法的收敛速度也会降低。8、专家系统与计算机程序的区别是()专家系统研究的是符号表示的知识而不是数值数据为研究对象专家系统的控制结构与知识是分离专家系统采用启发式搜索方法而不是普通的算法9、专家系统的基本结构除了人机界面、解释模块,还有()知识库、推理机、知识库管理系统、动态数据库智能体系1、以下不属于智能体的体系结构的是()自动式体系结构2、智能体的特性包括()反应性、社会性、主动性、自主性期末1、在蚁群算法中,蚁群的信息素浓度更新有3中不同模型,其中利用全局信息更新的模型是()蚂蚁圈系统2、如果用连续型Hopfield神经网络求解10个城市的TSP问题,那么该网络的神经元个数为()100
判断题答案注意:前面有x的是错误的,没有的是正确的1、一般认为人类智能是知识与智力的总和,其中知识是一切智能行为的基础,而智力是获取知识并应用知识求解问题的能力。2、电子计算机的诞生为人工智能的研究奠定了物质基础。3、一个命题不能同时既为真又为假,但可以在一种条件下为真,在另一种条件为假。x4、命题逻辑可以把所描述的事物的结构及其逻辑特征反映出来,也能把不同事物间的共同特征表述出来。X5、一阶谓词逻辑表示法可以表示不确定的知识。x6、产生式是蕴含式。X7、框架表示法不能表示具有因果关系的知识。8、产生式系统求解问题的过程是一个反复进行“匹配–冲突消解–执行”的过程。X9、框架的槽值或侧面值不能是另一个框架的名字。9、一个产生式系统由规则库、推理机、综合数据库三部分组成。10、产生式有固定的格式,每一条产生式规则都由前提与结论(操作)两部分组11、从初始证据出发,按某种策略不断运用知识库中的已知知识,逐步推出结论的过程称为推理。X12、任何文字的合取式称为子句。X13、空子句是可以满足的。14、谓词公式不可满足的充要条件是其子句集不可满足。15、对于一阶谓词逻辑,若子句集是不可满足的,则必存在一个从该子句集到空子句的归结演绎。x16、对于一阶谓词逻辑,如果没有归结出空子句,则说明原谓词公式是不可满足的。X17、基本概率分配函数之值是概率。18、模糊性是由事物的概念界限模糊和人的主观推理与判断产生的。x19、模糊逻辑是一种朦胧的、含糊的思维方式。19、一个模糊性的概念可用一个模糊集合来表示,并用一个隶属函数来刻画。X20、模糊集合与其隶属函数是等价的。20、隶属函数是对模糊概念的定量描述。X21、隶属函数的确定不带有主观性。21、二元模糊关系是指两个模糊集合的元素间所具有关系的程度。X22、在图搜索算法中,如果按估价函数作为OPEN表中的结点排序的依据,则该算法就是算法。没做过22、遗传算法主要借用生物进化中“适者生存”的规律。23、遗传算法的适应度函数是用来区分群体中的个体好坏的标准。X24、遗传算法中起核心作用的是变异算子。24、遗传算法采用群体搜索策略,同时对搜索空间中的多个解进行评估,因此遗传算法具有较好的全局搜索性能。X25、遗传算法能够保证每次都得到全局最优解。25、生物进化过程中选择通过遗传和变异起作用,同时又使变异和遗传向着适应环境方向发展。X26、生物进化过程中遗传控制变异与选择的方向,变异为选择提供资料,遗传巩固与积累选择的资料。26、在遗传算法中,将所有妨碍适应度值高的个体产生,从而影响遗传算法正常工作的问题统称为欺骗问题。X27、在遗传算法应用中,适应度函数的设计要结合问题本身的要求而定,但适应度函数和问题的目标函数没有关系。27、在遗传算法中,适应度大的个体被选择的概率大,但不是说一定能够被选上。28、信息素挥发度减小时,算法的收敛速度也会降低。29、粒子群优化算法是受鸟群行为启发的一种群智能优化算法。30、粒子群优化算法将每个个体看作n维搜索空间中一个没有体积质量的粒子,在搜索空间中以一定的速度飞行。X31、粒子群优化算法中,个体认知分量表示粒子本身的思考,它是在对粒子现有的位置和群体经历过的最优位置进行比较后得到的。31、粒子群优化算法中,群体社会分量表示粒子间的信息共享与相互合作,如果没有群体社会分量,只有个体认知分量,那么得到最优解的概率就会非常小。32、专家系统的瓶颈是知识的获取。33、专家系统是一个大型的软件,它的功能应该不低于人类专家解决问题的能力。34、知识图谱本质上是一种语义网络,其结点代表实体(entity)或者概念(concept),边代表实体/概念之间的各种语义关系。、35、知识抽取是从不同来源、不同结构的数据中进行知识提取,形成知识(结构化数据)存入知识图谱。36、智能体嵌入于环境当中,能够通过感知器感知环境,并且通过效应器影响环境,自主完成给定的设计目标。X37、反应式体系结构使用符号来表示外部环境,能够利用历史环境信息。38、复合式体系结构根据分层方式不同可以分为水平分层和垂直分层结构。
【人工智能】人工智能与人类智能的关系
1.基本概念界定
1.1人工智能
人工智能是在20世纪中期以后产生的学科,人工智能就是用机器模拟人类的智能活动,从而用机器代替人类行使某些方面的职能。人工智能是通过探索人的感觉和思维的规律来模拟人的智能活动,电子计算机是人工智能的媒介和基础。阿伦·图灵说:“如果一台计算机能骗过人,使人相信它是人而不是机器,那么它就应当被称作有智能。”如果以此为标准来界定机器的智能,那么人工智能的发展之路仍然任重道远。
1.2人类智能
智能简单地说就是智慧与能力,是综合、复杂的精神活动功能,是人运用自己已有的知识和经验来学习新知识、新概念并且把知识和概念转化为解决问题的能力。智能活动往往和记忆力、感知力、思维、判断、联想、意志等有密切的联系,人类的智能表现在能够进行归纳总结和逻辑演绎,人类对视觉和听觉的感知以及处理都是条件反射式的,大脑皮层的神经网络对各种情况的处理是下意识的反应。
1.3什么是思维
思维是事物的一般属性和内在联系在人脑中的间接的、概括的反映。思维的形式包括概念、理解、判断、推理等。思维往往借助于语言来表达,由直接的感受即感性思维转化为理性,透过现象看到事物的本质,发现普适性的规律。芒福德说人类是“精神的制造者”而不仅仅是“工具的制造者”,因为人类具备思维能力。
2.基于“技术元素”视角下的人工智能
“技术元素”这一说法是凯文·凯利提出的,技术元素就是从人类意识中涌现出的一切东西,包括技术具象的工具,也包括文化、法律、社会机构和一切智能创造物。凯文·凯利说:“科技是人类的发明,也是生命的产物。”居所是动物的技术,是动物的延伸部分,人类的延伸部分是技术元素,科技发明是我们基因创造的躯体的外延。
2.1人工智能是技术进化的成果
凯文·凯利认为人类的延伸由思维产生,因为思维具有创造力,才促使了技术的进步,才创造出了以往没有创造出的东西,所以,“如果说科技是人类的延伸,那也与基因无关,而是思维的延伸。因此科技是观念的延伸躯体”。技术元素伴随着语言、工具的诞生成为人类不可或缺的伙伴,从古至今,除了极少的例外,各种技术都没有消失,而是进化成不同形态的技术。人工智能作为一种科技物种,随着技术的进步而产生发展,是技术进化的成果。
2.2人类与技术共同进步
一切生物都有天然的借助外力的本领,从钻木取火到航空航天,人类经历了漫长的发展,或者说是进化,技术作为一种手段、一种工具从来都与人类相伴相生。“技术元素”赋予技术以生命,人是技术进化的动力,而技术的进化也促进了人类社会的发展,二者是密不可分的。科技与人类正在逐渐融合,或者说人类已经成为科技最适合的载体;“技术元素”的发展虽然具有一定程度的自主性,但是它的发展轨迹从某种意义上来说也是人类意志的体现。人作为技术发展的动力之一与“技术元素”同步运动。
3.人工智能能否超越人类
对于这个问题人们有两种极端的看法:一是认为人工智能必将取代人类,不久的将来人类会沦为机器的奴隶;二是对人类的主体地位有着极度的自信,认为机器始终都是被人控制。前者的依据是人工智能的发展极其快速,超越了人类智能的进化速度,人工智能取代人类只是时间问题。后者的依据是人工智能不具有生命特征,无法融入生物圈从而和自然发生联系,只能作为人类活动的工具而存在。我更偏向于第二种观点,是基于以下几个原因:
3.1缺乏创造性的“特长生”
人工智能开发出的机器可能是某一个领域的“特长生”却不是全才。比如AlphaGO是围棋特长生却不能唱歌,计算器是数字计算的天才却不能陪人聊天,情感机器人负责陪伴和情感安慰却不能真正懂得人类的喜怒哀乐,如此等等,它们按照既定的程序运行,各司其职、各得其所,不会偏离轨道也不懂得创造。塞缪尔说:“机器不能输出任何未经输入的东西。”目前最先进的机器人也是依赖于软件运行,软件是通过人来完成更新升级,人工智能实际上是人类智能的外在表现。人体是一个复杂而庞大的系统,人有特定的背景和生活习惯,人脑的发育会受到所经历的事件和社会环境的影响,能够灵活运用,组合所接受的信息,具备综合分析问题的能力。人脑的控制系统复杂和精密程度远远超过智能机器人,因此,人工智能在技术上不及人类智能,它依赖人类智能而进化,能够胜任人类制定的任务,却缺乏人类智能的创造性。
3.2不能思维的人工智能
在回答“机器能否思维”的时候,我们首先应该对思维进行界定,思维是人脑特有的功能。人脑是一个高度发达的系统,是人类意识活动的物质载体。“电脑思维”在功能上会向人脑思维不断接近,但是两者之间存在不可消除的界限,“电脑思维”是一个简单的逻辑过程,模拟人脑思维功能和思维信息过程,它在本质上区别于人类思维。人脑思维除了能够接受外部信息以外,还能对信息进行主观的加工。人们已经能制造出类人机器人,可是它不能和人一样思维吗,因为思维不仅仅是人脑的生理机能,离开社会实践和人际交往是不能产生思维的。
3.3是辅助而非替代
人工智能简单明了地说就是人类用来改造世界的技术手段,是辅助性的工具,而不是对人类的替代。人工智能出现的历史并不久远,前文说到了技术和人类的共同进化,当人类有能力利用工具来处理复杂繁琐的工作时,这是人类的进化,也是工具的进化。人工智能被用于帮助人类进行某项工作,才能解放人力,人类智能才可以更好发挥主动性和创造性。人工智能承担了人类活动中基础的、不可或缺的、复杂的工作,从而使人类智能转向更核心的科研创造以及思维和判断上来。在人与人工智能的关系上,二者是相辅相成、相互补充的,而不是互相排斥、完全替代。
4.总结
人工智能与人类智能的关系是互为补充、相互制约的,人与技术的融合是必然的。目前人工智能的更新升级必须依赖与人类智能,人类智能的进化程度关系到人工智能的先进程度“技术元素”的进化也要受到社会条件的制约。人工智能可能在某一方面出强大的功能,但是它缺乏思维和创造性,这一点是致命的缺陷,工具作为人类器官的延长,是人类智能的外化之物,被人类智能的发展程度所局限。