人工智能的自主性与责任
一、简化了的
“人工智能自主性”
人工智能机器人通常也被称为自主机器人,许多哲学研究认为,目前的人工智能可以称得上是自主的能动者,甚至一些哲学家认为非人类的自主能动者本身就能够承担责任,而非由其设计者或使用者承担责任。笔者认为,“人工智能是自主的”这一观点不够严谨,随之而来的“人工智能是独立责任承担者”的观点值得商榷。这些观点的背后缺少对自主概念的追问。
自主(autonony)概念一般应用于人类,被理解为“个人根据自己的理智推断和动机欲望主宰自己生活的能力,而这些理智推理和动机欲望都不是操控性和歪曲性的外部力量的产物”。自主的概念有两层含义:一是自我管理,另外一个意思为自我立法。实际上,笔者认为,自我立法是自主中更为重要的部分。作为自主理论研究的源头之一,康德认为,自主不仅仅意味着自由意志,同时也意味着自由意志服从于自己制定的道德法则。目前主流的自主理论也继承了康德的观点,认为自主并非仅仅是“自己作出决定”,更重要的是作出决定的过程完全处于能动者的统御之下。决定、行动与能动者对自身的权威紧密相连,它们的关系决定了能动者是否自主。
对于人类来说,自主选择所遵循的“权威”即“自我”。能动者必须认同他自己的决定,必须由他自己的决定而非其他权力促使他行动。一旦涉及自我认定,能动者就必须遵循一套完整的价值观念,来区分什么是“我”想要的,这就意味着人的自主与道德判断息息相关。一个人必须认定自己采取行动是根据对的判断和决定。个人的行动如果不符合其价值体系,通常会被判定为非自主的。例如,一个瘾君子在吸毒的同时深信吸毒是不好的,他不应该吸毒。但是,他无法抑制身体强烈的渴望,这驱使他吸食了毒品。显然,他在这个过程中不是自主的。如果他遵从内心的价值判断,选择不吸毒,那么,他才是自主的。在这个案例中,从信念到行动的转化失败了,能动者丧失了对自身的权威。
如果说人类的自主通常与道德相关,那么,自主概念实际上隐含了两种层次:一种是行动自主,另一种是道德自主。行动自主仅仅指因果关系上,如果一个人的意图成功地引发了他的行动,那么,他就是行动自主的;而道德自主探寻意图的成因,追问能动者是否遵循自己的内心。因此,道德自主是传统责任观的基础,也是法律判定的基础。
25.
Sep.
一个行动自主的能动者应当符合BDI(bliefdesireitention)模型。自主是一个与行动相关的概念。能动者实践自主的过程从一个信念开始。如果这个信念与世界不符合,那么想要跟世界符合信念的想法就是欲望,通过欲望指向客体的就是意图,从而成功地改变世界,这就是BDI模型。根据这一模型,一个自主的能动者需要满足的条件包括:
(1)具备一个如实描述了环境中的事物的表征状态;
(2)具备一个驱动状态,明确描述了期望环境中的事物如何改变,
(3)具备实现它的表征状态和驱动状态的能力,当环境不能符合驱动状态的描述时,去改变环境。
佩蒂特认为,任何成功执行了这一模型的能动者都是自主的能动者,人工智能也不例外。由于大数据与深度学习的支持,第三代人工智能展现出了与人类智能相似的能力:能够自我归纳,从数据中总结出某些规律:能够自我学习,从而在遇到新情况、新问题时,根据经验和数据来灵活处理。这就意味着:人工智能在足够的数据支持下,能够独立地根据情景形成自己的表征状态、驱动状态和改变情景的意图,并且根据该意图采取行动,顺利实现BDI模型。从这个意义上讲,人工智能是自主的。
但是,这种“自主”指的是行动自主,仅仅等同于独立。佩蒂特对自主能动者的论证只实现了自我管理的层面。这种论证实际上简化了自主的概念,认为能够作出决定即自主,将逻辑推理和计算能力等同于人类的理智,将人工智能的目标与执行力等同于人类的欲望,从而认定人工智能是自主的。行动自主将自我立法的过程排除在外,仅仅考量了决策与行动的连贯性,是削减版的自主概念。
将“简化的自主”概念加诸人工智能,直接导致了“人工智能是独立责任承担者”的观点。哈格是这一观点的支持者,并且他提出了看似完整有说服力的理论。他认为,人类能够对自身行动负责任的原因与其说是因为人类真的具有意向性或自由意志,不如说是将能动性和责任作为一种属性附加于行动之上。他如此论断的原因在于,无论人类的大脑状态如何,意图和意愿在行动中都没有对物理世界真正产生影响,产生影响的只有行动。那么,既然责任是行动的属性,人工智能的行动也能够具备这种属性,只要人们接受将责任作为人工智能的属性,人工智能就是能够负责任的能动者,与人类无异。
哈格的这种论证并不是否定了意图的存在价值,而是认为人工智能的决定与人的自由意志的选择没有差别——至少是在BDI模型中毫无区别。他显然是赞同人工智能具备简化了的自主性,才会得出这样的结论。然而,将自主简化为行动自主,就不能完全支持能动者的责任认定。事实上,自主理论并非仅仅是要成功地实现从建立信念到行动的过程,更致力于排除在这一过程中威胁到自主的因素。这些因素在哲学描述中得到最多讨论的包括:强迫、上瘾和洗脑。一旦能动者被它们控制,能动者的行为后果就无需自己负责。值得注意的是,BDI模型排除了强迫和上瘾,但没有将被洗脑排除在自主的大门之外,就是说,一个成功实现BDI模型的能动者可能是被洗脑的,并不具备自主性,也不能对行动负责任。
因此,哈格对意图与世界关系的理解是有偏差的。即使意向性不影响真实世界这一点成立,何种因素削弱了意愿、意向与行动之间的联系仍然非常重要,这些因素真实地改变了世界,它们改变了本可能在世界中实际出现的事件。
回到对人工智能的讨论,即使人工智能具备了相当的决策能力,它们的决策程序仍然是由人类设定的。也就是说,人工智能的权威并非来自它自身,而是人类赋予的,它们是“被洗脑”的。一个以保护财产为目标的人工智能与另一个以保护人身安全为目标的人工智能在同样的情境下,可能会作出完全不同的决策。并且,它们不可能作出另外的选择。如果仅仅只有行动自主的支持,这两个人工智能造成的相应结果的责任,似乎更应当追问程序的设定者,而非人工智能本身。因此,在简化的自主下讨论人工智能的责任是不严谨的,更谈不上让人工智能成为独立的责任承担者。
因此,人工智能的自主性讨论不能仅仅采用建构模型的方式,BDI模型没能一劳永逸地解释自主性的问题,我们更需要将眼光放在使人工智能不自主的因素上,寻找人工智能自主性问题的实质——毕竟,一只黑天鹅就能够否定“所有天鹅都是白的”这一论断。
二、人工智能
自主性问题的实质
人工智能是由大数据驱动的,大数据赋子了人工智能在变化中应对复杂局势的能力,同时也奠定了人工智能作决策的基调:人工智能有作决定的能力,但是,没有在同一时间作出不同选择的能力。
“人工智能的世界是由人的数字化行为构成的数据世界。”人工智能目前之所以表现出了类似人类智能的能力,一方面是设计者放弃了让人工智能像人类一样思考,削弱了因果性思维在程序设计中的地位,转而大量采用相关性思维的程序设计,使人工智能通过数据将两个事件建立起联系;另一方面,大数据技术的发展使得人工智能能够获得海量的数据支持,运用统计学精确地挖掘出有价值的信息,形成决策的资源。
人工智能的决策能力完全依赖数据和算法,它在给定世界的给定时间上只会给出同个决定。数据决定了人工智能能够达到的深度,算法决定了通过迭代计算可得的最优解。这似乎给了人工智能无限的可能性,但是,对于给定的人工智能程序,它在给定的时间上所得的数据是固定的,它的设计算法也是固定的。因此,它能够给出的决策也是固定的。这与人类不同,人类可能因为一念之差而在某个时间上作出不一样的选择,而人工智能并没有另外的选择。
因此人工智能等同于一个决定论世界中的能动者。决定论,即在任何时刻只有一种可能的物理未来。决定论不仅是一种对物理世界的认知立场,同时也是自由意志的支持者最为头痛的对手。特别是,近年来脑神经科学的研究进展支持决定论;量子力学虽然是统计决定论的,但根据现有的发展,也没有为自由意志的存在留下空间。这使得哲学家们无法再回避决定论,不得不为自由意志的存在另寻出路,发展自由意志与决定论之间的兼容论,即,认为决定论世界中的能动者也可以有自由意志。人工智能(公认的)不具备自由意志,无需讨论它与决定论之间的兼容性,同时,它在任何时刻都只有一种可能的物理未来。在理论上,完全可以将人工智能看作决定论世界中的能动者,并在这一背景下讨论人工智能的自主与责任。
人工智能自主性问题的实质是在决定论世界中讨论能动者能否自主,并且,该讨论本身是有意义的。与兼容论相对的非兼容论认为:在决定论世界中,即使考虑到所有的事实与规则,也只能有一种物理未来,那么,人的所有的行动都是被世界控制的,能动者本身不可能具备自主性,对自主性的讨论也没任何意义。但是,兼容论则认为,即使决定论真的否定了人在行动中具有自由意志,人们仍然有想做某事件A的欲望,在最起码的程度上努力去做A。并且,在自己的理性支持下给出做A的理由。这意味着,如果我们将自主理解为“在任何时间上都能作出其他选择”,那么,决定论世界中不存在自主的能动者。而如果将自主理解为“为自己的行为给出适度的理解,并具备潜在的选择能力",那么决定论世界中的能动者依然可以是自主的。对自主性不同的理解为决定论世界能兼容自主性打开了一扇窗,同时,也意味着人工智能有可能是自主的。
三、决定论下的自主性问题
自主理论与决定论能否兼容,决定了该理论能否为人工智能的自主性辩护。人工智能自主的可能性寄托于存在一种受到广泛认可的自主理论,它与决定论相兼容。目前,占主导地位的自主理论有四种:自由意志论、融贯论、理性回应论和推理回应论。它们各自的简要定义如下:
自由意志论:当一个人所作出的决定本可以被另外一种可能的决定替代的时候,那么他所作的决定是自主的。
融贯论:当一个人的高阶欲望与低阶欲望相契合的时候,他是自主的。
理性回应论:当一个人能够意识到理性,并有能力根据理性作出决定和行动的时候,他是自主的。
推理回应论:当一个人能够为自己的决定和行为给出合理的推理时,他是自我控制的。在此基础上,如果他没有被任何外部因素强迫,他是自主的。
这四种自主理论各有侧重,也略有重合。根据它们所支持的自主性与决定论能否兼容分为两组,自由意志论与融贯论属于非兼容论、理性回应论属于兼容论,而推理回应论摇摆于兼容论和非兼容论之间。
根据定义,自由意志论认为,只有当人可以作出另外的选择时,他才是自主的。这在决定论世界中是行不通的。即使有学者争辩,自主性是能动性和意向性的结合,只要存在作出另外选择的可能,即可认为自主性存在。但是,假设有一颗有意识的自由下落的石头。它会认为它是完全自由的,认为它的下落是在它自己的愿望下发生的。然而,石头完全受制于物理事实,并没有它自已认为的自主性。因此,自由意志论属于非兼容论,不能为人工智能的自主性辩护。
同样,融贯论强调核心自我(centralself)的欲望与行动欲望的层层递进、相互契合。当人处于决定论世界时,他的核心自我的欲望与行动欲望都是被决定的,那么他不具备自主性。即使他的核心自我能够形成欲望,他的行动欲望仍然是被物理世界限制的。要么,他的核心自我与行动相矛盾,只具备潜在的自主性而不具备行动自主;要么,他的所有欲望都是被决定的,连潜在的自主性也不具备。因此,融贯论也不能为人工智能的自主性辩护。
推理回应论比较特殊,它是否能够支持决定论世界的能动者的自主性取决于决定论的强度。强的决定论认为,人类的大脑也是物理世界的一部分,也是被决定了的:而弱的决定论认为,人脑以外的物理世界是被决定的,人仍然有随时改变想法的可能。推理回应论认为,自主性是一个人以所相信和渴望的为基础来评估自身动机的能力。并且根据自身的(可能涉及价值的)评估来调整动机。它强调的不是能够按照“正确的"或者普适的价值现作出反应,而是能够通过推理的过程驾驭自己的动机。同时,它也强调必须由核心自我给出推理的过程,能动者不能处于“洗脑”状态。当处于强决定论世界时,能动者所作出的决定是由物理大脑根据经验与自身特性决定的,推理过程是大脑在决定以后用来肯定自己的选择的。能动者根本没有核心自我,处于“洗脑”状态,因此,没有自主性。然而,当处于较弱的决定论世界时,能动者即使在行动上受制于物理世界,依然可能为自己的行动给出有说服力的推理过程,那么,他可以是自主的。
然而,很遗憾,即便推理回应论有可能属于兼容论,它依然不能为人工智能的自主性辩护。因为,对于人工智能来说,推理过程即算法的运行过程。算法是由设计者决定的,运行过程也是固定的。人工智能等同于一个在强决定论世界里的人,它的“大脑”是物理世界的一部分,它的理性来自世界。因此,按照推理回应论,人工智能虽然能给出完美的推理过程,却不可能是自主的。
理性回应论是唯一有机会为人工智能的自主性辩护的理论。它强调能动者具备一个稳定的理性决策方式,其中提到的理性是道德理性,并且,该决策方式能够被具有相似价值和信念的第三方理解。决定论并不排除理性甚至道德理性的存在,这为自主性的存在留下了一线生机。当人可以采取理性来支持自己的决定时,他就是自主的。
人工智能的决策方式能够满足理性回应论。首先.人工智能具备一个理性决策方式,即算法。目前,人工智能的算法都是通过数据间的联系寻找最优解,它符合人类从经验中总结规律的思考方式,是一种稳定的理性决策方式,在逻辑理性上符合理性回应论的要求。同时,理性回应论要求决策方式的理性涉及道德理性,这一点对人工智能来说并不难。如果人工智能的决策完全不涉及道德,我们就无需为了人工智能如何承担责任的问题烦恼了,只要根据哈格的论证,认定人工智能承担全责即可。然而,人工智能的决策必然会涉及对错,它必须“理解”人们想要的是什么,否则它就无法为人类服务,也无法与人类合作。例如,自主驾驶汽车必须在程序设计上考虑路人的安全与乘客的安全,而不仅仅是避免碰撞。其次,人工智能的决策方式可以被第三方理解。这里被选择的第三方,正是人工智能的使用者。试想,如果使用者发现人工智能的选择总是与自已想要的相左,或者使得自己的工作、生活更繁琐而非更便利他就不会继续使用人工智能。人工智能的算法是设计者对使用者的理解,也是智能社会中全新的人与人的联结桥梁。甚至,目前的人工智能已经能够根据算法来适应用户习惯,提供更令用户满意的服务。这正是设计者为了让使用者作为第三方理解人工智能而做出的努力。
因此,在理性回应论的支持下,人工智能可以是自主的——不仅仅是在行动上自主.同时也是在算法相关的道德理性上自主。在此基础之上,才有可能进一步来讨论人工智能的责任问题。
四、人工智能相关的
责任归属
自主是责任的基础。但是,即使论证了人工智能的自主性,人工智能的责任划分仍然是一个难题。难点在于,自主并不直接地对应责任,责任本身也有不同的区分。一种较广为人知的责任的分类来自哈特(Hart)。哈特将责任区分为地位责任(role-responsibiliy)、因果责任(causalresponsibility)、义务责任(liabilityresponsibililty)和能力责任(capacityresponsibiliy)。地位责任指的是某人在社会组织中具有特殊的地位或职位而被赋子的某些特殊职责。因果责任指的是根据因果关系对造成的后果负责任。义务责任则是指人根据法律、道德等规范应当付出的代价。能力责任是主张某些人具备一些能力,并因此应对其行为负责。
从四种责任的定义可以看出,哈特对责任的分类主要是为法律与刑罚提供参考。因此,从哲学的角度来看,四种贵任的内涵之间有所重合。地位责任与义务责任有所重合。地位本身就是由社会规范所赋子的,它所承担的责任通常都与法律和道德有关,因此,地位责任能够转化为义务责任。因果责任与能力责任也有所重合。因果责任可以看作是能动者运用了自己的能力后,对造成的结果负责。或者,从另一个角度,因果责任也可以看作是能动者本可以运用能力,但没有这么做,由于因果关系而为疏忽负责。总而言之,能力责任都是由于因果关系改变了或未改变世界所形成的责任,因此,笔者认为能力责任能够转化为因果责任。
人工智能的责任争议主要指的是义务责任的争议。由于因果责任是按照因果关系划分的,人工智能所造成的结果理应由它本身承担,这是毫无争议的,就像地震应当为房屋倒塌负责一样。人工智能的义务责任划分却不那么明确。这是因为,传统的问责方式将人造物视为无法理解道德的,也就不能承担道德或法律责任。这种观点“混淆了孤立的技术人造物和社会—技术—认识系统中能体现出智能的人造物之间的本质差异”。
上文中已经论证了人工智能能够具备道德自主性,因此,有资格成为义务责任的承担者。问题在于,义务责任能够被赋予人造物吗?笔者认为答案是肯定的。机器的意向性是人赋子的,丹尼特认为,意向性最适合解释机器行为的时候,我们就认为机器具有意向性。所以,机器具有意图是一种属性论。如果说机器可以把意图作为附加属性,那么同样可以把义务责任作为一种附加属性。笔者虽然对哈克的意图与世界关系论证有微词,但认同哈克“责任是一种属性”的观点。义务责任并非人类天然具备的,对人类来说,它也是一种附加属性。既然义务责任是依据人类的理解,通过道德与法律规范附加在人类身上的,那么,人工智能通过算法具备了道德自主性,同样可以被赋予义务责任。
人工智能所承担的义务责任是一种联合(joint)义务责任,而非传统责任观中一力承担的责任。虽然人工智能可以“理解”道德理性,但是,它的道德理性是由设计者赋子的,它的行动是由使用者监管的。这就形成了设计者、人工智能、使用者之间无形的联结。在人工智能能够完全理解身体与道德之间的关系,实现无监管地行动而不违背任何伦理规范之前,这个联结都不会断裂。遗憾的是,目前来看,人工智能在相当长一段时间内无法实现对于身体与道德关系的理解。因此,人工智能的义务责任总是与人类相连的。那么,传统的个人各自承担责任的模式必然不适合人工智能。
人类合作者之间的责任研究也许能够给我们一些启示。虽然,人类合作者之间的责任研究同样充满争议和问题(例如,责任债务问题、过充分决定问题,等等),但是,或许可以从已有的研究中为人工智能的责任问题探寻一下出路。
首先,联合义务责任可以有多种形式。随着技术的发展,人工智能与人类的合作将会前所未有的复杂。第一,人工智能单独采取行动(如果被允许的话),例如,无人驾驶汽车。由于人工智能可以是自主的,应当承担全部责任。并且,基于人工智能与设计者的联结,设计者承担连带责任。第二。人工智能可能处于使用者的监管之下。这种关系类似于工作中的上下级,那么,负责执行的人工智能将承担全部的因果责任和部分义务责任,面使用者因为处于监管地位,承担义务责任。第三,人工智能可能与人组成集体能动者。集体能动者能够具备独立于任何成员的欲望和意图,在此基础上,集体能动者承担全部责任。第四,第二种与第三种情况可能混合出现,那么,可以将其视为升级版的集体能动者来承担全部责任。
其次,由于设计者—人工智能—使用者之间的联结与承担义务责任有关,使用者对人工智能“内部”的了解变得十分重要,放任人工智能的使用者要承担“忽视的责任”。使用者需要明确自已的人工智能能够做到的范围,并且防患于未然。目前的人工智能已经能够根据用户的喜好改进自己的行为。这就意味着,如果使用者不去了解他的人工智能能够做什么,随意地给人工智能灌输不良的行为喜好,会使得人工智能成为糟糕的社会成员。这一点也是人工智能威胁论所担忧的,人工智能可能通过学习对人类产生威胁。因此.在这种情况之下,使用者忽视了可能造成的后果,应该承担相应的义务责任,也就是笔者所说的忽视的责任。
再次,非人工智能的使用者同样要承担一些义务责任。这一点是针对与人工智能—人的集体能动者对立的自然人而言的。目前的无人驾驶汽车已经号称超越了人类驾驶员的安全基准,能降低驾驶事故的概率,促进公共安全。假如这一论断成立,就意味着不使用自动驾驶系统的驾驶员将成为马路上的危险者,对他人的安全构成威胁,他们应当承担起相应的责任。如同智能手机普及以后仍然使用传统手机的人,一旦因为手机的原因错过了重要的工作或者生活消息,他们会遭到其他人的请责。随着人工智能越来越“聪明”,不使用人工智能的人迟早会迎来要承担义务责任的一天,并且,这一天可能并不遥远。
本文将人工智能的自主性问题转化为决定论世界中能动者的自主性问题,并且,在理性回应论的支持下,得出了人工智能不仅仅是行动自主的,而且可以是道德自主的,因此,能够承担义务(道德)责任。这一结论也许不会得到全部人工智能研究者的认同,但是,它为亟待解决的人工智能的责任分配问题搭建了地基。人工智能的责任问题必然要摆脱传统的单一问责机制,走向社会—技术—认识系统中的问责机制。只要将人工智能视为自主的道德能动者,它与人类的合作就能被视为集体行动者,人类合作者之间的责任分布研究就能够为人工智能与人之间的责任分布指引方向。但是,这只是一小步,其结论也只是一个大致轮廓,人工智能的责任研究依然任重道远。如若想使人工智能的责任图景更为清晰,需要更深人地探讨人工智能对伦理的具身化理解、深化人工智能与人之间合作方式的研究和认知结构对比研究,这将会推进对于人工智能—人的集体能动者的理解,从而对人工智能的责任细分产生更为深远的影响。
来源:《哲学分析》,2018年第4期,第125-131页。
simpleliving
noblethinking返回搜狐,查看更多
人工智能究竟能否获得主体地位
从存在论视角看人工智能的主体地位
我们针对以上三种观点讨论。其一,人类智能应用领域的广泛性。
科学家们通常承认,很多动物擅长某种事情,如蜜蜂擅长建造蜂房,老鼠擅长打洞。但动物在它们各自擅长的领域之外,往往就会“黔驴技穷”,比如蜜蜂不会打洞,老鼠也不会构造房子。也就是说,动物和自己的生命活动是直接同一的,它所擅长的领域通常是固定的,来自于本能;而且这样的领域是有限的,不会超出它们生存所需要的范围。但人类与一般动物不同,人类虽然天生不会造房子,但可以通过后天的学习,学会如何建造房子;人类虽然天生不会打洞,但可以通过设计出相应的机械打造出合适的洞穴。所以马克思指出,人的活动与动物的本能活动之间存在着本质区别:“动物只是按照它所属的那个种的尺度和需要来构造,而人却懂得按照任何一个种的尺度来进行生产,并且懂得处处都把固有的尺度运用于对象;因此,人也按照美的规律来构造。”
人类之所以是“万物之灵”“世界的主宰”,关键在于人“会思维”,具有智能。博斯特罗姆(NickBostrom)和尤德考斯基(EliezerYudkowsky)认为,虽然关于“人类智能是否是普遍的”这一问题存在争议,但毫无疑问,人类智能肯定比非人科智能具有更广泛的应用。这也就是说,人类智能的应用领域并不会像一般动物那样固定在某个特定的领域。人类智能可以在不同的领域中起作用,并且,其应用领域可以不断地发生变化。上述第一种观点认为,正是因为人类智能的这种特征,使得人类可以获得独立的主体地位。
我们现在需要追问的是:人工智能能否发展出类似于人类智能那样的特征,可以独立地应用于各种不同的领域。在回答这个问题之前,我们有必要首先扼要了解一下什么是人工智能,以及人工智能的一般运作模式。
人工智能正在快速发展之中,关于“人工智能是什么”这一问题,目前学术界尚没有一个公认的定义。大致说来,人工智能是一门通过利用计算机、数学、逻辑、机械甚至生物原则和装置来理解、模拟、甚至超越人类智能的技术科学。它可以是理论性的,但更多的时候是实践性的,主要属于认知科学。其中,大数据是人工智能的基础,而程序或算法则是其核心。当然,基于对人工智能的这种理解,要想直接回答“通过这样一门技术科学所获得的成果能否像人类一样获得主体地位”这个问题还难度甚大,但这不妨碍我们间接地思考这一问题的答案。
学者们往往将人工智能划分为强人工智能与弱人工智能。这一划分最早是由塞尔(JohnRSearle)提出来的。他首先提出了这样一个问题:我们应该赋予最近计算机模拟人类认知能力的努力什么样的心理和哲学意义?然后基于对这一问题的回答区分弱人工智能与强人工智能。弱人工智能认为,人工智能模拟人类心灵的价值原则是为我们提供一个强有力的工具。而强人工智能则认为,计算机并不仅仅是一种工具,在它能够给出合适的程序的意义上,它可以被理解为拥有其他种类的认知状态,应该被视为一个心灵。塞尔的区分得到很多人的支持。如阿库达斯(KonstantineArkoudas)和布林斯约德(SelmerBringsjord)认为,弱人工智能旨在构建行动聪明的机器,而在该机器实际上是否聪明的问题上不采取立场;至于强人工智能,他们借鉴了海于格兰(J.Haugeland)的观点,认为人工智能不仅仅是模仿智能或产生某些聪明的假象,而是希望获得真正的主体,即成为拥有心灵的机器。
如果我们接受弱人工智能的观点,认为人工智能只是一种工具,那么很显然,人工智能无法拥有主体地位。首先,工具总是被动的,为人类所利用,无法自主地行动。其次,工具往往具有特定的功能,只适用于特定的任务,无法像人类智能那样适用于比较广泛的领域。当前人工智能产品所展现的恰恰是这种工具性。如AlphaGo目前在围棋领域独步天下,但对其他领域一无所知;“薇你写诗”小程序比较擅长古诗创作,却无法处理其他事务。因此,如果认为人类智能是由于能够广泛地适用于各种不同的领域而获得主体地位,那么弱人工智能无论如何都无法获得主体地位。
如果我们支持强人工智能的观点,认为人工智能不仅仅是一种工具,更应该被理解为心灵,那么情况将会复杂得多。因为心灵一般被视为可以适用于多种不同的领域。如果这种观点成立,似乎意味着强人工智能视角下的人工智能应该具有主体地位。
在做出肯定的回答之前,我们有必要追问强人工智能视角下的心灵界定。根据塞尔的观点,强人工智能认为,应该被视为心灵的机器是被“合适程序”控制的机器。这表明,强人工智能所理解的心灵实际上等价于程序。即是说,强人工智能认为,心灵即是程序。很明显,这种对心灵的解释与人们通常对心灵的理解是不同的。基于对程序的理解,博斯特罗姆和尤德考斯基认为,人工智能要求具有鲁棒性(berobust,即系统在一定参数波动下能够维持其基本性能的特性),而不是可篡改性(manipulation)。即是说,人工智能要求它的产品能够排除外在因素的影响,在不同场景中实现同一个目的。因此,它所预设的程序总是为了某个特定的目的而被内置于其中的,而这与人类智能的要求恰恰相反。人类智能并不需要为心灵预先设定某个特定的目的,它的目的总是随环境的变化而发生变化,甚至在同一种环境中也可能有所不同。当然,我们可以设想程序叠加的情况。也就是说,我们可以设想在某个时候,科学家将不同的程序通过某种方式融合在一起,使其不但能够处理不同场景中的事情,甚至可以在同一场景中处理不同的事情。在我们看来,这种情况即便成立,人工智能可能仍然无法获得主体地位。因为严格地说,人类智能所能应用的领域是无限的。因为人类有无限的可能性。但对于人工智能而言,无论如何添加算法,它的程序数量总是有限的。因此,如果坚持人类智能是由于能够广泛适用于各种不同的领域而获得主体地位,那么强人工智能视角下的人工智能也无法获得主体地位。
从认识论视角看人工智能的主体地位
我们现在考察第二类观点,即认为人类之所以拥有主体地位,是因为人类拥有某些不同于非人类的高级智能。至于这些高级智能到底是什么,观点各异。如亚里士多德认为,“理性实为人类所独有”〖ZW(〗亚里士多德:《政治学》,吴寿彭译,北京:商务印书馆,1983年,第385页。〖ZW)〗;卡西尔则认为,“应当把人定义为符号的动物”,也就是说,会使用符号即语言是人类独有的能力;而马克思则同意富兰克林的理解,认为人是能制造工具的动物。在人类所具有的这些独特能力中,究竟哪种或哪些能力是人类具有主体地位的真正原因呢?回答这个问题十分困难,甚至通过判断人工智能能否获得此种能力、从而推论人工智能能否获得主体地位的思路也是行不通的。因为我们很难推断出哪种或哪些能力是人类具有主体地位的真正原因。
图灵测试为解决上述问题提供一个很好的方案,因为它并不需要假设人类具有何种独特的能力。图灵测试由图灵(A.M.Turing)于1950年首次提出。某一机器能否通过图灵测试,被许多学者看作判断该机器是否具有心理状态的标准。在论文《计算机器与智能》中,图灵围绕“心灵能否思考”的问题设计了一种“模仿游戏”。在这个游戏中,存在一个询问者,一个男性A和一个女性B,他们处于相互隔离的房间中,询问者的目的是通过询问A和B以确定他们各自的性别,A和B则以打字的方式回复询问者,其中,A试图扰乱询问者的判断,B则通过给出真实的答案帮助询问者。图灵认为,如果以一台机器代替A,并且游戏可以进行下去,那么就意味着该机器具有心理状态。如果图灵测试是有效的,我们就可以按照这个标准,在不需要知道什么样的能力是人类获得主体地位的原因的情况下,判断机器是否具有心理状态,并进一步判断人工智能能否获得主体地位。因此,问题的关键在于判断图灵测试是否有效。
图灵测试自诞生以来,在很长时间内都得到学术界的支持,直到塞尔提出“中文屋”思想实验,才打破了这一局面。中文屋的思想实验大致可以概括如下:假设塞尔被关在一个屋子里,这个屋子里有三批书,第一批书和第三批书是中文,第二批是英文。第二批书中的英文描写的是如何将第一批书和第三批书的内容联系起来的规则,并且指导塞尔在回复过程中使用什么样的符号。塞尔不懂中文,只懂英文,他的工作就是利用规则和中文书中的内容回复他看不懂的中文问题。从外部来看,塞尔似乎懂中文,因为他给出的回答与会说中文的人没有什么区别。但实际上,塞尔只不过是按照规则操作符号,他始终没有理解中文问题,甚至不知道他所处理的是中文。塞尔认为,他在中文屋里的工作是计算机工作的一种例示,只不过他所遵守的是英文的解释,而计算机遵守的是内置于其中的程序。如果塞尔的中文屋思想实验成立,那么就表明,即使有人工智能通过了图灵测试,也不能证明该人工智能具有心理状态。因为人工智能只不过是按照符号的句法规则进行操作,并没有达到真正的理解。
塞尔的中文屋思想实验提出以后,引起了广泛的讨论。由于篇幅有限,我们不打算在此详细讨论这些争论,而是将注意力集中在塞尔根据他的中文屋思想实验提炼出的一个核心论证之上。这个论证可以概括如下:
公理1:计算机程序是形式的(句法的);
公理2:人类心灵拥有心智内容(语义的);
公理3:句法自身既不是语义的结构性成分,也不是它的充分条件;
结论:程序自身既不是心灵的结构性成分,也不是它的充分条件。
这个论证的关键在公理3,即句法不能构成语义。一方面,如果我们将计算机的本质看作程序,而程序本身是由代码构成的,那么它只是符号的组合,只具有句法特征。另一方面,语义对于一个符号系统而言是独立的,如果有人希望发现句法的运作与语义之间的联系,那么,他必须能提供某些复杂的证据以展现这一点。就此而言,句法和语义不同,仅凭句法不能解释它的语义特征。因此,如果计算机可以被看作程序,那么最终的结论很可能是:机器,或者说人工智能的产品无论如何都不能被视为拥有心灵。
有些学者并不同意塞尔对机器的理解,比如科尔(DavidCole)、丹尼特(DanielDennett)、查尔默斯(DavidChalmers)等人认为,运行程序的计算机并不能简单地等同于句法,而应该视为一个复杂的电子因果系统。如果考虑到现在的人工智能产品(比如智能机器人),这一特点更加明显。也就是说,程序虽然可以视为句法,但运行程序的东西本身不能简单地归结为句法,它们与现实世界之间存在着紧密的联系。查尔默斯等人的观点毫无疑问是对的,但这是否意味着塞尔的批评无效呢?在我们看来,即便肯定机器人与现实世界之间的因果联系,也无法认定人工智能具有心智状态。因为因果联系本身不能为语义提供任何辩护。语义系统涉及真假,而真假与辩护相关,需提供证据或理由加以支持;但因果关系本身没有辩护能力,因果关系只能描述发生的事件。塞拉斯(WilfridSellars)曾说过:“在刻画有关知道的情景或状态时,我们不是为该情景或状态给出一个经验性的描述;我们是将其置于理由的或者关于辩护的逻辑空间之中,并且能够为一个人所说的内容辩护。”这也就是说,关于辩护的逻辑空间与经验性的描述必须明确区分开来。语义与辩护的逻辑空间相关,而因果关系则是一种经验性的描述,两者属于不同的层次。因此,即便人工智能产品与现实世界之间存在紧密的因果联系,仍然无法构成心智状态所要求的语义部分。从这个角度说,塞尔的结论仍然成立。也就是说,人工智能无法真正地具有心理状态。
由于塞尔的中文屋论证并没有假设人工智能产品具有何种能力,因此,如果我们为塞尔的论证提供的辩护是有效的,那么就表明,人工智能无论获得何种能力,都将无法获得主体地位。因为人工智能所获得的能力只能基于句法和因果关系进行运作,但无论是句法还是因果关系都无法构成主体所要求的语义成分,因而无法获得主体地位。
从价值论视角看人工智能的主体地位
从价值维度说,人之所以获得主体地位,是因为人类将自己当作目的,而不是像一般动物一样仅仅依据本能生活。当然,人类的目的很多,具体到个人身上,事业、爱情、甚至活着都可以是自己的目的。如果人工智能的发展使得自己具有目的意识,不再将自己视为人类的工具或者创造品,那么,我们可能就不得不承认人工智能具有主体地位。然而,在人工智能获得目的意识之前,我们需要考虑的是,在什么情况下,人工智能才有可能具有目的意识。
根据康德的理解,一个存在物要想具有目的意识,它必须首先是理性的,而且在实践领域必须是自由的。将这种观点应用于人工智能,我们认为,如果人工智能想要具有目的意识,必须首先具有理性能力,并且具有自由意识。当然,“什么是理性”,“什么是自由”,这些问题学术界一直存在争议,众说纷纭,莫衷一是。但处理这些争论不是我们讨论的重心,我们采用常识性的理解足矣。我们可以将人工智能具有理性能力理解为他能够进行反思推理,即人工智能知道自己在做什么,并根据已有的证据能够做出推断;至于自由意识,则可以设想成人工智能能够自由地进行价值选择,做出决断。如果我们的这种理解成立,那么,人工智能是否具有理性反思和推断能力,是否能够自由地进行价值选择、做出自由的决断呢?
首先考虑理性能力。从技术发展的视角看,令人工智能具有反思推理能力,应该不存在什么终极的困难。即使现在人工智能产品无法达到这一要求,也不意味着它们将来无法做到。实际上,围棋领域的AlphaGoZero已经具备了一定的推理能力,因为它可以根据围棋规则自我博弈,自己学习,并不断进行评估,推导下一步棋应该怎么走。而且,我们可以认为,AlphaGoZero已经具备了一定的反思能力,因为它是根据自我博弈的棋局深度学习、并进行优化选择的。因此,问题的关键在于考察人工智能产品能否在实践中具备自由决断的能力。
关于人工智能产品在实践中是否具备自由地选择、决断能力的问题,我们首先需要理解自由地选择和决断能力到底是什么样的能力。如果我们将自由地选择和决断的能力置于某一个系统内,那么很显然,人工智能产品可以自由地选择、决断。比如,在智能驾驶领域,无人驾驶汽车可以依据内嵌的交通规则和传感器获取的实时路况,实时地选择到底走哪一条路线。没有任何人会阻碍它的选择。问题在于,这种系统内的自由决断称不上真正的自由。就像一只老虎可以在羊群里自由地选择追逐任意一只羊,但几乎没有人承认老虎是自由的一样。真正意义上的自由需要突破这种特定的目的以及自身的限制,在所有的可能世界中进行选择。也就是说,人工智能要想真正地获得自由,必须能够不再局限于自身的某个特定目的,它所内嵌的程序需要能够赋予人工智能突破自身的潜力。
在我们看来,这种情况是不可能的。因为程序一旦生成,便决定了运行此程序的人工智能的“所是”,不论在什么情况下,它都不可能发生任何本质上的变化。一种可以设想的极端情况是人工智能自己编程,并利用相关的资源制造出新的人工智能产品。在这种情况下,新的人工智能产品有可能突破原有局限,进而获取新的能力;而原有的人工智能产品则有可能将制造出新的人工智能产品视为自己的目的。
接下来讨论被制造的新人工智能产品。被制造出的新人工智能产品受制于原有的人工智能产品,只要它的程序被固定下来,那么它就会受程序本身的限制,因而不可能是自由的。而且,如果我们将原有的人工智能产品与新的人工智能产品视为一个整体,那么,新的人工智能产品无论如何也无法突破这个整体的限制。即便它能够自由选择,这种自由选择仍然只是系统内的自由,而非真正意义上的自由。对于原有的人工智能产品而言,情况要更加复杂一些。因为它制造出新的人工智能产品的工作是一种创造工作,如果这种创造工作是自由的,它能够自由地创造出新的人工智能产品,那么,我们必须承认这种人工智能产品具有主体地位。问题在于,这种能够自由创造的人工智能产品是否可能?在我们看来,除非多明戈斯(PedroDomingos)所说的能够解决所有事情的“终极算法”存在,否则,这样一种能够自由创造的人工智能产品是不可能的。因为任何人工智能产品最终都会受算法的限制,都不可能进行自由的创造。但多明戈斯主张终极算法存在的论证很难令人信服。因为他所期望的终极算法依赖于现存的机器学习领域中的五大主流学派力推的五大主算法,如符号学派力推的规则和决策树、联结学派力推的神经网络、进化学派主张的遗传算法、贝叶斯学派主张的概率推理和类推学派推崇的类比推理。但五大主流学派主推的这些算法未必能处理所有事情。更重要的是,任何一种算法都是基于已有的数据进行自主学习,都很难处理小概率的黑天鹅事件。因此,我们认为,由于人工智能受制于程序(算法)本身,注定了它不可能获得真正的自由,也不可能获得价值论意义上的主体地位。
小结
通过以上论证,可以从存在论、认识论以及价值论的视角都得出了同样的结论,即人工智能难以获得真正的主体地位。从存在论的角度看,人工智能产品处理的领域是有限的;从认识论的角度看,人工智能产品无法获得真正的理解;从价值论的角度看,人工智能产品无法获得真正的自由。
不过,由于人工智能毕竟是一种颠覆性、革命性的高新科学技术,人工智能发展快速,特殊应用领域广泛(例如人形智能机器人的研发),我们也不能故步自封,固执己见。咀嚼现实,我们不难得出这样的结论,即不能将所有的人工智能产品简单地等同于工具。因为对于工具而言,它的价值仅仅只在于服务人类;但对于人工智能而言,我们不难想象在未来的某个时候,人工智能的发展使得一些人对某些人工智能产品(如人形的智能小秘书、智能保姆、智能机器人伴侣等)产生了一定的情感,并出于某些因素善待这些产品。尤其是智能技术与生物技术相结合,当仿生科技越来越先进之后,这种可能性将会越来越高。在诸如此类的新情况下,将所有人工智能产品简单地视为工具并不合适,甚至会受到一些人的质疑和抗议。因此,在未来智能社会,如何对待人工智能产品是值得我们思考的一个重大问题。
由于人工智能一般而论不可能具有主体地位,同时,有些人工智能产品又不能简单地等同于工具,因此,我们不妨将人工智能产品分类,其中一部分人工智能产品只能被当为工具,比如智能语音识别系统,而另一些人工智能产品则由于其特殊性,可以赋予其介于人类与工具之间的地位。我们可以将后者称为准主体地位。后者并不是真正的、完全意义上的主体,而是人类“赋予”它的主体地位。这有些类似今天登堂入室、地位不断攀升的宠物。人们之所以认为需要善待狗、猫之类宠物,甚至坚持它们是家庭的一份子,是因为“主人”长期与宠物相处,已经对这些宠物产生了复杂的情感,将它们当作一个主体来看待。不过需要指出的是,宠物之所以能够获得这种地位,并不是凭借宠物本身的能力获得的,而是人类赋予它们的,这源自人类本身的一种自我需要。如果人类在感情上不需要这些宠物,那么,它们就将失去这种地位。某些人工智能产品可能获得的准主体地位也与此类似。即是说,即便某些人工智能产品最终被某些人视为主体,这种主体地位仍然是人类赋予它们的,它最终依然可能失去这种主体地位。
以上图片来自百度图片
责编|阿尔法马返回搜狐,查看更多
人工智能体犯罪主体资格证伪 ——以刑事责任之实现为视角
又如,我国单位犯罪主体要件的设置也考虑了刑事责任的实现问题。围绕单位(法人)能否成为犯罪主体的问题,我国理论界曾进行过激烈争论,涉及法律拟制主体的必要性、单位犯罪的犯罪能力、民刑法律的有效衔接以及国家机关权威的维护等问题。最终,人们在单位可以实施相应犯罪的问题上基本达成一致,但是在其如何承担刑事责任的问题上呈现出更大的分歧。例如有些观点认为,对法人无法判处人身刑,对法人判处财产刑会株连无辜人员,法人缺乏承担刑事责任的现实基础和条件,故不能轻率地赋予其犯罪主体资格。[5]然而,随着1987年《海关法》的通过以及1988年全国人大常委会《关于惩治贪污罪贿赂罪的补充规定》的颁布,“双罚制”初见端倪,单位犯罪具备承担刑事责任现实基础的观点已经成为主流。现如今,我国刑法可以在“双罚制”的基础上,对单位犯罪作出符合现实的灵活安排例如,《刑法》第162条规定的妨害清算罪,从罪状描述上看是由单位组织实施的犯罪行为,但是却只对直接负责的主管人员和其他责任人员判处刑罚。这就是基于现实需要而对“双罚制”原则进行的灵活运用。,单位犯罪主体资格的问题也就迎刃而解。
再如,我国特殊主体要件的设置也考虑了刑事责任的实现问题。众所周知,《刑法修正案(九)》新增了虐待被监护、看护人罪,具有特定职业身份的监护人、看护人成为此罪的犯罪主体。究其原因,是由于:近年来幼托领域虐待幼儿、养老领域虐待老人的现象时有发生,有的甚至手段残忍、情节极其恶劣,对儿童、老年人等被监护人、被看护人的心理造成严重的伤害;然而,往往由于受害人伤情构不成轻伤而达不到故意伤害罪的立案追诉标准,同时也会因为特殊身份的不具备(非家庭成员)而无法受到虐待罪的追诉。因此,为了及时惩戒和遏制此类犯罪行为的发生、营造良好的幼托养老环境、实现罪责刑相均衡,我国将监护人、看护人设置成为特殊犯罪主体。
由此观之,能够科学安排刑事责任从应然走向实然的过程,即能够有效实现刑事责任,才是设置犯罪主体资格的重要前提。刑事责任的实现便是刑事责任从应然走向实然的基本过程,既包含着刑事制裁方式、程度、途径的选择,也贯穿着报应、预防、矫正等价值诉求,更展现了司法制度、资源配置、社会观念等现实面貌,有着丰富的理论内涵和现实性特征。因此,人工智能体犯罪主体资格问题的探讨还应从刑事责任之实现的角度进行展开,方得其全面和本质。
二、人工智能体刑事责任的实现面临制裁措施困境
刑事责任实现的直接表现便是刑事制裁。而传统制裁方式以自然人权利为设置前提,贸然将人工智能体纳入现有刑罚体系之内,会使围绕人类主体地位而建构的惩罚体系无所适从。然而,创设诸如删除数据、修改程序、永久销毁等[6]142所谓新型的制裁方式,则又恐因人工智能体能力的未可知性而陷入逻辑悖论。
(一)传统制裁措施缺乏适用基础
众所周知,传统刑事制裁以自然人权利体系为设置基础,使自然人因感受制裁之痛苦而趋利避害,从而收获制裁之功效。人工智能体作为人工智能技术创造出来的产品或载体,是义务的承接者而非权利的享有者,更不可能因权利实现受阻所带来的情感负担而受到刑法规范的约束和指引。具体而言,将传统刑事制裁措施适用于人工智能体将会面临以下几个难点:
第一,人工智能体的政治权利我国《刑法》中将选举权和被选举权,言论、出版、集会、结社、游行、示威自由的权利,担任国家机关职务的权利和担任国有公司、企业、事业单位和人民团体领导职务的权利等多项公民权利统称为“政治权利”,并规定适用“剥夺政治权利”时悉数剥夺、不可分割。空缺致使其无法适用资格刑。政治权利是公民参与国家政治生活的权利,其核心在于意见表达。而从人工智能的诞生初衷来看,人工智能体不应突破“服务者”的角色而享有意见表达的权利,这不但存在强大的伦理障碍,也会冲击人类政治、经济、文化的原有架构,破坏社会基本秩序。虽然2018年3月21日作为代表的人工智能体“索菲亚”参加了联合国可持续发展目标亚洲和太平洋地区创新大会,但其是否具有意见表达的法理基础,仍然值得讨论。因此,试图用剥夺政治权利的方式令人工智能体承担刑事责任,实属无的放矢。
第二,人工智能体人身权利匮乏无法适用自由刑或生命刑。人身权利主要包括人格权和身份权、人身自由权、生命健康权和人格尊严权,而人工智能体仅是机器躯体,无所谓生命。人工智能体具有可修复性、可替换性,甚至记忆也可能被新的人工智能体承继,这与自然人人身的不可逆性及不可替代性之间存在着天壤之别,而后者正是自由刑及生命刑发挥威慑惩戒作用的基本前提,也是落实责任主义的关键。由于人工智能体生命权存疑,进而导致人身自由权无从说起,因而管制、拘役和有期徒刑乃至死刑的执行并不能剥夺其任何权利或使其承担任何义务,人身罚与生命罚的实际效果遂归于无。
第三,人工智能体财产权利短绌也无法落实财产刑。尽管部分学者主张人工智能体拥有财产权及知识产权[7],或是认为其财产权利可能成为犯罪客体而应受到刑法保护[8]。但从刑事责任承担角度分析,人工智能体的财产权利依然存疑。因为人类大力发展人工智能旨在服务人类本身,而非基于代际利益平衡普惠性地创造出与人类具有平等主体地位的生物共占地球,故其财产权利自然应当受到限制。且依马克思的货币需求理论,人类手持具有货币计量性的财产,无非是通过投资与投机实现交易以满足衣、食、住、行、乐五大需求,而人工智能体没有这五项需求,它不需要衣物,能源、居所、行动则应由所有者供给或安排,更不需要娱乐满足精神需求。此外,若人工智能体拥有物质财产权利,那世界各国无疑需要提供包括能源、住房、甚至“机器人医疗”在内的福利资源[9],以至于,“我们无法阻止聪明的计算机在股市上大捞一笔,并用赚到的钱来购买在线服务”,也有可能“由机器人占有和控制了社会大部分经济命脉”[10]。所以,人工智能体不需要也不应当拥有物质财富的所有权。因此,人工智能体也没有财产刑的适用对象和基本条件,当然更不可能发挥财产刑剥夺其经济基础和能力的作用。
(二)新型制裁措施缺乏内在逻辑
既然传统刑事制裁措施无效,遂有学者提出,对人工智能体的刑罚体系设计不必墨守成规,可根据其特色创设新型刑事制裁方式,如删除数据、修改程序、永久销毁等[6]142。但实际上,此观点难以自圆其说,这些新型刑事制裁方式也难以发挥刑罚之功能。
第一,创设新型刑事制裁方式的观点在面对人工智能体的不断发展时难以逻辑自洽。试想,如果强人工智能体仍难摆脱人类控制,那么当其犯罪时,完全可以直接引用监督过失理论,令具有独立意志且具有监督义务的使用者或研发者对其行为承担监督过失的刑事责任,而不必单独创设针对性的刑罚来对人工智能体进行惩处。而若人工智能体持续强大,其“片段能力”得以无缝衔接,甚至出现超人工智能体并具备人类所惊悸的某些能力,例如可能发现并运用明物质量子化重组原理取得隐形能力、可能发现并运用超维度空间转移原理取得星际航行能力等,威胁到人类作为万物之灵长的主体地位,致使人类无法再对其进行有效的掌控,那么在如此被动境遇之下对其进行惩处更难如登天,此时即使创设新型刑事制裁措施恐也无能为力。
第二,新型制裁措施难以发挥刑罚的报应功能。报应是使犯罪人由于自己的行为受到严厉制裁和国家的否定评价而感到痛苦[11],它同时包含着报复、怜悯等道德情感的宣泄与平复之效。日本学者吉川经夫指出:“刑罚是一种害恶,必然发生痛苦这一现实,必须率直地承认。”[12]然而,删除数据、修改程序乃至永久销毁无法达到使其痛苦的基本效果,因为,仅删除数据、修改程序于人工智能体而言并不是什么“恶果”,而仅仅是一种无益也无害的处理方式,根本谈不上“惩罚”。更何况,新型制裁方式与人工智能体犯罪之间很难建立等价位阶。因此,试图使得人工智能体感受刑罚之痛苦并进而因此不敢、不能、不愿再犯罪,似乎为天方夜谭。再者,仅仅对犯罪的人工智能体删除数据、修改程序或者永久销毁,对受害的人类尤其是生命健康权受侵害的被害人及其家属而言都难以实现报复情感的宣泄,对社会公众更难以实现道德情感的平复。试问,若触犯相同罪名,对主体地位低于人类的人工智能体施以销毁之刑而对人类处以死刑,如此云泥之别,如何能够达到公众心中报应的标准?
第三,新型制裁措施也难以实现刑罚的预防功能。有学者指出,未来人工智能体可能也会拥有情感[13],对人工智能体施加刑罚完全可以收到双重预防的效果。但是,人工智能体的“情感”并不真实,因为人工智能体虽然可以基于符号主义符号主义(Symbolism)是人工智能的早期设计理念,其认为,人之所以产生各种思想、表达和行为,是由于人本身产生的一系列物理符号的支持,各类符号的排列组合构成了我们想象、创作、发明的基础。以符号主义为设计理念的人工智能重在提供一套符号系统,由系统识别所要解决的问题,进而完成智能化设计。和联结主义联结主义(Connectionism)是人工智能设计的发展趋势,其要义在于首先将智能视为大脑中枢神经元的联结和信息传导的结果。人工智能如果能够模仿人脑神经元接受刺激并进行信息传递,那么也就能够如同人脑一样产生思维活动及自我学习的能力。的设计而具备“类人情感”,但其实质仍然体现为事先输入的算法,算法的规则直接决定了人工神经网络对何种刺激有反应,其所谓“喜怒哀乐”与其说是“情感”,毋宁说是这种算法运算的结果或者人类感情的高级模仿和投射,并不具备独立性。在这种情况下,刑罚预防效果的施加对象其实是各种各样的算法,而“运用人类设想的具有威慑效果的刑罚”去惩戒“人类开发的模仿人类情感的算法”,无疑是极其荒谬的;就算人们在将来认可了这种“情感”的真实性,但并非所有涉嫌犯罪的人工智能体都会具有情感感知功能,生产厂家可能会因为控制成本的需要或特殊岗位要求,免于安装相应模块,那么此时,刑罚的威慑仍然无从谈起。此外,对于普通人类而言,对人工智能体处以修改程序、删除数据、永久销毁的所谓“刑罚”,也根本不会起到任何一般预防的效果。
三、人工智能体刑事责任的实现缺乏诉讼权利保障
刑事责任的有效实现,除了制裁措施的妥当与完善外,合理科学的刑事诉讼程序也不可或缺,这既是现代刑事法治的基本要求,也是司法制度公信力的最佳彰显。然而,人工智能体在进入刑事诉讼时却会因为诉讼权利的阙如而面临诸多程序上的障碍。
例如,人工智能体因无法行使抗辩权而无法适用抗辩程序。详细而言,现代刑事诉讼程序设置以抗辩权的有效行使为重要关切,但无论采取何种诉讼程序,抗辩权都需要实体权利作为最终承接,毕竟围绕各种证据和事实展开的激烈辩驳都以是否承担刑事责任以及承担何种程度的刑事责任为焦点。但正如前文所述,人工智能体作为促进人类福祉的发明创造,难以脱离自身的工具属性,也不应成为与人类同呼吸共命运的人格主体,更不可能享有同人类一样的人身权、财产权、选举权等一系列具体权益,因此也不可能实现刑事责任的真正承担。既然如此,在刑事诉讼中为其设置辩护权的意义又在何处?纵然赋予人工智能体抗辩权,进而设计出一套完整的抗辩程序,恐也只是“一本正经地走过场”,最终沦为形式主义的附庸。
又如,人工智能体因缺乏沉默权而难以适用举证程序。“任何人不得自证其罪”是现代刑事诉讼的基本原则,此原则衍生出了沉默权等基本诉讼权利和刑事证据法则。虽然目前我国暂未明文规定沉默权,但在重视强调人权保障的现代社会,沉默权已然受到了国际的普遍追求,并且在我国已经得到一定程度的认可。[14]从伦理和安全的角度出发,根据关于机器人的“阿西莫夫三定律”,人工智能体作为人类的发明创造,是不应该独立享有秘密的,因为其独立享有秘密将威胁到人类使用人工智能体的安全性,使得人工智能体的活动变得不可控。那么,在总控系统留有窗口、可随时提取程序记录的时候,人工智能体的沉默权应处于何种地位?换言之,围绕沉默权而创立的举证责任制度,岂不因为人工智能体涉案信息的随意提取,而变得多此一举?故而,人工智能体沉默权的缺乏会导致举证质证程序难以适用。
再如,人工智能体因缺乏回避权而难以适用回避程序。回避权从形式上看是一种请求权,当事人提出回避申请,获得批准后相关人员才会退出刑事诉讼。然而从诉讼程序的合法性要求出发,回避权在本质上是一种程序性命令,即当回避理由存在的时候,相关人员必须回避,否则会承担程序不合法带来的不利后果。人工智能体作为服务者,其行为和需求应当以满足人们需要为指归,而不能对人类提出任何命令性要求,否则将会颠覆“主仆关系”而冲击既有社会秩序。故而,刑事诉讼中应人工智能体提出的回避申请而强制性地要求涉案司法人员退出刑事诉讼程序的做法实不可取。
四、在既有法律框架内区别处理人工智能体相关案件
综上所述,人工智能体在刑事责任的实现上有着来自实体和程序的双重障碍,赋予其犯罪主体资格进而比照自然人犯罪进行处理的路径并不科学。事实上,根据人工智能体智慧能力的高低和使用方式的不同,涉人工智能体犯罪可大致分为工具型人工智能体犯罪和独立型人工智能体犯罪,前者是指人类在犯罪过程中对人工智能体具有绝对的支配和控制权而人工智能体在犯罪过程中仅作为高级工具被使用的犯罪类型,后者是指人工智能体具有独立的思想意识和行动能力而积极主动实施犯罪行为的犯罪类型。
就工具型人工智能体犯罪而言,虽然呈现出新的犯罪形式,但其本质仍然是以人工智能体为犯罪手段或方法的传统犯罪,例如利用人工智能体进行大规模数据监听、侵犯计算机信息系统、实施金融诈骗等。此时,按照间接正犯等既有法理框架予以处理便可,并无疑难之处。例如,人工智能体虽然在具有自主意识的基础之上杀害了甲,但此项犯罪行为是自然人乙利用其“无知”,即无犯罪故意而实施的,此时应将乙认定为此犯罪行为的间接正犯,而无涉共同犯罪等问题,人工智能体仅是用于实施乙犯罪行为的媒介。又如,行为人欺骗人工智能体非法获取国家秘密、非法入侵计算机信息系统、破坏计算机信息系统等,实际上也是将后者作为新型工具加以利用,其行为也可被原有罪名所评价,无涉所谓“新的犯罪领域”。有学者曾提出增设滥用人工智能罪。但是,滥用行为若没有造成严重的危害社会的后果,这种犯罪化或类型化是否有必要?若造成了严重的社会后果,我们是否可以通过法益侵害的类型划归到既有罪名中去?在能够妥善回答这两个问题前,我们不赞成创设新的罪名。
就独立型人工智能体犯罪而言,其本质是人工智能体独立自主地侵犯法益,由于人工智能体不具有人格属性,因而只能采取多管齐下、综合处理的方式来降低其刑事风险,稳定社会秩序,具体可从以下几个方面着手:
第一,落实监督过失责任。随着科技进步和时代发展,人工智能恐将更加主动地参与人类生产和生活,而其自主决策、主动侵犯法益的现象也会增多,如此社会危险系数便显著提升。面对这种情况,无法从共同犯罪角度解决刑事责任的承担问题,因此,落实监督过失责任当是首选。这是因为,人工智能体的生产厂商虽在人工智能体生产销售后脱手,但却仍应当肩负起监督义务,即应当对人工智能体进行定期安全检查、性能测试等基本安全保障维护,或是通过远程控制系统对其行为进行有效、安全的操作。一旦由于生产者的监督失误而致使人工智能体严重侵害他人权益构成犯罪,就应当由生产者承担监督过失责任。由于监督过失的责任主体只能是基于职务或业务活动而形成的监督者或管理者,故针对监督不力的犯罪行为,可通过增设人工智能事故罪[3]9加以规制。当然,应当根据监管者的监督能力大小、过错程度等具体情况合理量刑。监督过失责任的落实,将会促使人工智能体的生产厂商更加注重人工智能体安全性能的保障,不断提高技术标准,从而降低人工智能体独立犯罪的可能性。
第二,发挥产品责任作用。由于人工智能属于前沿科技,研发过程中的未知风险较多,若通过严谨的调试、检测后,仍出现人工智能体犯罪的情况,则应当免除生产制造者的监督过失责任,转而追究其产品责任。这是因为,人工智能体作为人工智能技术发展的代表和结晶,这一技术自身高度复杂,以至于风险非常之高并且难以控制,即便是在经过了研发、调试、制造之后的应用阶段,由于受到一定地域内人工智能技术发展阶段与水平的限制,人类所掌握的人工智能存在安全风险,仍会陷入无法预测的事态当中,因此,若不顾个中缘由而直接通过监督过失责任对生产者加以刑罚处置,显属不当。况且,将难以避免的技术风险强加于生产者身上,必将打击其研发新技术的积极性,不利于生产力的发展。相反,产品责任作为严格责任的一种,广泛存在于生产消费领域,其责任的承担只需证明损害后果与产品缺陷具有因果关系即可,而不必强求生产者或销售者存在过错,更不必纠结于监督义务是否履行。人工智能体属于产品,因其难以避免的技术缺陷或未知风险对消费者权益造成损害的,当然可以启用产品责任制度,保护消费者权益。这种民事处置方式不仅保护了高新技术产业的发展,也简化了被害人权益维护过程中的举证工作,提高了诉讼效率。
第三,推行强制保险制度。人工智能的广泛运用,在极大方便了人类生活的同时也带来了大量风险,保险制度能够在“由于人工智能潜在的不可预估性所造成的难以估量的重大损害”时,以较小的经济成本进行风险分担,同时也能够释放积压在民刑等法律上的责任压力,免去新增罪名、新设法律关系的烦恼。针对目前已经暴露出来的人工智能驾驶汽车交通肇事的问题,英国下议院便提出了通过汽车强制险的方式为汽车的完全自动驾驶提供保障[15],因为这可以极大减少人工智能体侵权时的经济纠纷,促进行业的良性发展。我国也有观点建议,修改保险法相关法律法规,并且强制推行针对无人驾驶汽车的第三者责任与车内人员伤害保险制度,同时大幅提高第三者责任强制保险和车内乘员险的保险额度。[16]如此,涉及人工智能的交通事故便能够得到很好的解决。
第四,创新算法监管模式。人工智能体行为模式的核心在于算法,算法规则的科学合理是确保人工智能体安全可信的根本。然而,算法涉及人工智能开发的核心技术,常被生产者作为商业秘密严加保护。此时,算法监管模式便应当进行创新,一方面需考虑到知识产权保护的现实问题,另一方面需回应公众的安全关切。实际上,在未来应当开发出可供人工智能培训和测试的共享数据集合环境,对可能引发公共风险的人工智能体实行登记生效制度,由统一的机构进行强制注册,建立追溯机制,做到对算法和数据处理的可解释、可跟踪、可推断;在此基础上,进一步构建信息发布商议机制,定期发布人工智能产品的技术路线图和算法边界,提升透明度和公众参与度。
五、结语
现代理论界对人工智能体的犯罪主体资格正渐渐形成“可行说”与“否定说”的鲜明对峙,但从刑事责任实现的角度出发检验人工智能体犯罪主体的资格问题,应该是一种严谨的态度和科学的路径。当然,随着科技进步和文明发展,经济、政治、伦理、道德等诸多要素都会发生变化,未来人工智能体也许真的能够成为独立主体参与到社会生活的方方面面。然而,目前面对人工智能所带来的诸多风险,还是应当在既有法律框架内分门别类、区别处理为妥。
[参考文献]
[1]张盖伦.定了!这35所高校将设人工智能本科专业[EB/OL].(2019-03-29)[2019-03-31].https://baijiahao.baidu.com/s?id=1629344458732496198&wfr=spider&for=pc.
[2]蔡佳,鲁逸晔.绍兴破获全国首例利用AI人工智能犯罪大案[EB/OL].(2017-09-22)[2019-03-31].http://zj.people.com.cn/n2/2017/0922/c228592-30766162.html.
[3]刘宪权.人工智能时代的刑事风险与刑法应对[J].法商研究,2018,(1).
[4]蔡奇轩.我国未成年人刑事责任年龄最低线之设置[J].法学杂志,2018,(11):57.
[5]方成志.浅谈惩治法人犯罪[J].西北政法学院学报,1986,(3):60-61.
[6]刘宪权.人工智能时代的“内忧”“外患”与刑事责任[J].东方法学,2018,(1).
[7]王迁.论人工智能生成的内容在著作权法中的定性[J].法律科学(西北政法大学学报),2017,(5):148-155.
[8]刘宪权.人工智能时代机器人行为道德伦理与刑法规制[J].比较法研究,2018,(4):54.
[9]RightforRobots[J].NewScientist,2011,210(2806):3.
[10][美]迈克斯·泰格马克.生命3.0——人工智能时代生而为人的意义[M].汪婕舒,译.杭州:浙江教育出版社,2018:146.
[11]马克昌.刑罚通论[M].武汉:武汉大学出版社,2002:46.
[12][日]吉川经夫.改订刑法总论[M].东京:法律文化社,1974:288.
[13]人工智能,情感可以有[J].技术与市场,2018,(3):2-3.
[14]侯文月.从沉默权角度探析我国的刑事司法建设[J].法制博览,2019,(6):83-84.
[15]腾讯研究院.人工智能各国战略解读:英国人工智能的未来监管措施与目标概述[J].电信网技术,2017,(2):34.
[16]白云武.无人驾驶汽车交通事故的法律责任分析[J].交通运输部管理干部学院学报,2016,26(2):28.
〔责任编辑:余明全〕返回搜狐,查看更多