博舍

人工智能的行为该由谁来负责 人工智能出错后果谁来承担责任呢视频解说

人工智能的行为该由谁来负责

全文共2166字,预计学习时长7分钟

 

来源:Pexels

 

人工智能的普及引发了这样一个问题:

 

谁是人工智能的“监护人”?谁来为人工智能的决定负责呢?

 

刑事责任

 

如果人工智能系统误杀或误伤了其他人,那该怎么办呢?

 

人工智能系统会为其行为负刑事责任吗?

 

判定刑事责任要依据其行为和意图,因此以下三种情况之一可用于人工智能系统(来源于《麻省理工科技评论》2018年3月刊)。

 

第一种是通过他者犯罪的肇事者。当患有精神疾病的人或动物犯罪时,他们无需承担责任。

 

但对主使精神疾病患者犯罪的人,则需要追究其刑事责任。例如,狗主人命令自家的狗去袭击他人,那么就应该对狗主人进行追责。

 

这一罪名针对智能系统的设计者,因为人工智能只是他们手下的无辜工具。

 

第二种是自然可能后果。如果人工智能的正常行为被用于实施犯罪,那么这一罪名就能成立。这种情况曾发生于日本的一家摩托车工厂。一个机器人误把一名员工当作其执行任务的威胁,并计算得出消除威胁的最有效方法是把其推向附近一台正在运行的机器,从而立刻杀死他。

 

关键问题在于,设计机器的程序员是否知道其使用过程可能导致这一后果。

 

第三种是直接责任,这一罪名的判定也要依据其行为和意图。人工智能的行为是最直接的证据,能证明它是否采取了犯罪行为,或者在需要承担责任时是否无动于衷。

 

要判定人工智能的意图则更加困难,但仍然可行。如果无人驾驶的汽车在其行驶道路上超速,那么人工智能系统就会被追究刑事责任,因为这是严格的责任违法。而车主可能不需要承担责任。

 

人工智能的创造归属于谁?

 

来源:Pexels

 

如果电脑有了好的创造,该归功于谁呢?

 

最近几年的专利申请大幅增长,其中大多数都和人工智能有关。自2013年以来,在和人工智能有关的34万项专利中,53%都已经被发表。其中,中国一骑绝尘,发表了最多的专利(《金融时报》,2019年10月)。

 

现在,科学家们正在开发能在创造者能力之外提出新想法的机器。这也就引发了一个新的问题,人工智能创造的知识产权应该归谁所有呢?

 

问题的关键在于,如果人们不认可人工智能的发明者身份,那么人工智能的开发者将不能保护它们创造的知识产权。因此,这样会打击开发者进一步发展人工智能的积极性。否定人工智能的发明者身份显然不利于创新的蓬勃发展。

 

虽然人们现在似乎还无需考虑是否应该对人工智能的知识产权进行保护,但随着有关人工智能的发明创造与日俱增,这一问题也会变得更加迫切。

 

人工智能的产出归属于谁?

 

随着更深入的学习算法越来越流行,研究者们也越来越难以理解机器是如何得出结果,进而创造出只有机器可读的黑匣子。

 

许多领域都是如此。就在最近,一个人工智能系统以极高的精准度预测出了一名测试对象的死亡时间,但是研究者们却不明白机器是如何得出这一结论的。

 

黑盒算法有一个特定领域,那就是GANs(生成对抗网络),即两个神经网络在博弈中彼此对抗(这可以用博弈论来解释,但并不总是以零和博弈的形式出现)。

 

这一技术能利用给定训练集,产出和该训练集具有相同统计信息的新数据。比如用一些照片去训练一台机器,使其产出新的有照片质量的图片。

 

在这一技术的支持下,如果用一名作曲家的曲子去训练机器,那么机器就能找出这个作曲家的风格和最独特的地方,并在此基础上作出一支原创的曲目。

 

这支新曲子归属于谁?

 

来源:Pexels

 

属于原来那位作曲家吗?他提供了能做出新曲子的原始数据。或者属于人工智能系统的开发者吗?因为是他发明的技术创造了这支新曲子?又或者应该属于作曲的人工智能系统本身吗?

 

另一个例子就是正在崛起的deepfakes,这一技术能创造出极为逼真的图像和声音来模仿他人说话。如果人们不能意识到他们所看见的一切都是由机器创造而出,那么这一技术加上社交媒体,一定会制造一场大灾难。

 

想象一下,如果利用deepfake模仿一名国家领导人,并用他的虚假影像对其他国家宣战,这件事会带来怎样的后果?这一消息会像野火一样迅速传播,在大家意识到这是deepfake的杰作之前造成巨大的影响。又或者利用deepfake制作某公司CEO的虚假影像,引起市场动荡。同时股市会迅速采取相关举措,从而造成巨大的影响。

 

所以,在这些情况下,谁能在FCA(英国金融市场管理局)或者海牙国际仲裁庭的面前,为机器的决定或自己的不当使用辩护呢?

 

来源:Pexels

 

我们如何确保能创造出负责任的人工智能?

 

我们如何保证能为我们创造的人工智能负责?

 

当开发者继续研究新的人工智能应用时,我们又将如何为他们制定指南?

 

相信这些问题会在未来引发激烈讨论,现在我们将它提前摆放在圆桌上,大家一起来讨论。

关于这些问题,你怎么想呢?

 

留言点赞关注

我们一起分享AI学习与发展的干货欢迎关注全平台AI垂类自媒体“读芯术”

(添加小编微信:dxsxbb,加入读者圈,一起讨论最新鲜的人工智能科技哦~)

人工智能的自主性与责任

一、简化了的

“人工智能自主性”

人工智能机器人通常也被称为自主机器人,许多哲学研究认为,目前的人工智能可以称得上是自主的能动者,甚至一些哲学家认为非人类的自主能动者本身就能够承担责任,而非由其设计者或使用者承担责任。笔者认为,“人工智能是自主的”这一观点不够严谨,随之而来的“人工智能是独立责任承担者”的观点值得商榷。这些观点的背后缺少对自主概念的追问。

自主(autonony)概念一般应用于人类,被理解为“个人根据自己的理智推断和动机欲望主宰自己生活的能力,而这些理智推理和动机欲望都不是操控性和歪曲性的外部力量的产物”。自主的概念有两层含义:一是自我管理,另外一个意思为自我立法。实际上,笔者认为,自我立法是自主中更为重要的部分。作为自主理论研究的源头之一,康德认为,自主不仅仅意味着自由意志,同时也意味着自由意志服从于自己制定的道德法则。目前主流的自主理论也继承了康德的观点,认为自主并非仅仅是“自己作出决定”,更重要的是作出决定的过程完全处于能动者的统御之下。决定、行动与能动者对自身的权威紧密相连,它们的关系决定了能动者是否自主。

对于人类来说,自主选择所遵循的“权威”即“自我”。能动者必须认同他自己的决定,必须由他自己的决定而非其他权力促使他行动。一旦涉及自我认定,能动者就必须遵循一套完整的价值观念,来区分什么是“我”想要的,这就意味着人的自主与道德判断息息相关。一个人必须认定自己采取行动是根据对的判断和决定。个人的行动如果不符合其价值体系,通常会被判定为非自主的。例如,一个瘾君子在吸毒的同时深信吸毒是不好的,他不应该吸毒。但是,他无法抑制身体强烈的渴望,这驱使他吸食了毒品。显然,他在这个过程中不是自主的。如果他遵从内心的价值判断,选择不吸毒,那么,他才是自主的。在这个案例中,从信念到行动的转化失败了,能动者丧失了对自身的权威。

如果说人类的自主通常与道德相关,那么,自主概念实际上隐含了两种层次:一种是行动自主,另一种是道德自主。行动自主仅仅指因果关系上,如果一个人的意图成功地引发了他的行动,那么,他就是行动自主的;而道德自主探寻意图的成因,追问能动者是否遵循自己的内心。因此,道德自主是传统责任观的基础,也是法律判定的基础。

25.

Sep.

一个行动自主的能动者应当符合BDI(bliefdesireitention)模型。自主是一个与行动相关的概念。能动者实践自主的过程从一个信念开始。如果这个信念与世界不符合,那么想要跟世界符合信念的想法就是欲望,通过欲望指向客体的就是意图,从而成功地改变世界,这就是BDI模型。根据这一模型,一个自主的能动者需要满足的条件包括:

(1)具备一个如实描述了环境中的事物的表征状态;

(2)具备一个驱动状态,明确描述了期望环境中的事物如何改变,

(3)具备实现它的表征状态和驱动状态的能力,当环境不能符合驱动状态的描述时,去改变环境。

佩蒂特认为,任何成功执行了这一模型的能动者都是自主的能动者,人工智能也不例外。由于大数据与深度学习的支持,第三代人工智能展现出了与人类智能相似的能力:能够自我归纳,从数据中总结出某些规律:能够自我学习,从而在遇到新情况、新问题时,根据经验和数据来灵活处理。这就意味着:人工智能在足够的数据支持下,能够独立地根据情景形成自己的表征状态、驱动状态和改变情景的意图,并且根据该意图采取行动,顺利实现BDI模型。从这个意义上讲,人工智能是自主的。

但是,这种“自主”指的是行动自主,仅仅等同于独立。佩蒂特对自主能动者的论证只实现了自我管理的层面。这种论证实际上简化了自主的概念,认为能够作出决定即自主,将逻辑推理和计算能力等同于人类的理智,将人工智能的目标与执行力等同于人类的欲望,从而认定人工智能是自主的。行动自主将自我立法的过程排除在外,仅仅考量了决策与行动的连贯性,是削减版的自主概念。

将“简化的自主”概念加诸人工智能,直接导致了“人工智能是独立责任承担者”的观点。哈格是这一观点的支持者,并且他提出了看似完整有说服力的理论。他认为,人类能够对自身行动负责任的原因与其说是因为人类真的具有意向性或自由意志,不如说是将能动性和责任作为一种属性附加于行动之上。他如此论断的原因在于,无论人类的大脑状态如何,意图和意愿在行动中都没有对物理世界真正产生影响,产生影响的只有行动。那么,既然责任是行动的属性,人工智能的行动也能够具备这种属性,只要人们接受将责任作为人工智能的属性,人工智能就是能够负责任的能动者,与人类无异。

哈格的这种论证并不是否定了意图的存在价值,而是认为人工智能的决定与人的自由意志的选择没有差别——至少是在BDI模型中毫无区别。他显然是赞同人工智能具备简化了的自主性,才会得出这样的结论。然而,将自主简化为行动自主,就不能完全支持能动者的责任认定。事实上,自主理论并非仅仅是要成功地实现从建立信念到行动的过程,更致力于排除在这一过程中威胁到自主的因素。这些因素在哲学描述中得到最多讨论的包括:强迫、上瘾和洗脑。一旦能动者被它们控制,能动者的行为后果就无需自己负责。值得注意的是,BDI模型排除了强迫和上瘾,但没有将被洗脑排除在自主的大门之外,就是说,一个成功实现BDI模型的能动者可能是被洗脑的,并不具备自主性,也不能对行动负责任。

因此,哈格对意图与世界关系的理解是有偏差的。即使意向性不影响真实世界这一点成立,何种因素削弱了意愿、意向与行动之间的联系仍然非常重要,这些因素真实地改变了世界,它们改变了本可能在世界中实际出现的事件。

回到对人工智能的讨论,即使人工智能具备了相当的决策能力,它们的决策程序仍然是由人类设定的。也就是说,人工智能的权威并非来自它自身,而是人类赋予的,它们是“被洗脑”的。一个以保护财产为目标的人工智能与另一个以保护人身安全为目标的人工智能在同样的情境下,可能会作出完全不同的决策。并且,它们不可能作出另外的选择。如果仅仅只有行动自主的支持,这两个人工智能造成的相应结果的责任,似乎更应当追问程序的设定者,而非人工智能本身。因此,在简化的自主下讨论人工智能的责任是不严谨的,更谈不上让人工智能成为独立的责任承担者。

因此,人工智能的自主性讨论不能仅仅采用建构模型的方式,BDI模型没能一劳永逸地解释自主性的问题,我们更需要将眼光放在使人工智能不自主的因素上,寻找人工智能自主性问题的实质——毕竟,一只黑天鹅就能够否定“所有天鹅都是白的”这一论断。

二、人工智能

自主性问题的实质

人工智能是由大数据驱动的,大数据赋子了人工智能在变化中应对复杂局势的能力,同时也奠定了人工智能作决策的基调:人工智能有作决定的能力,但是,没有在同一时间作出不同选择的能力。

“人工智能的世界是由人的数字化行为构成的数据世界。”人工智能目前之所以表现出了类似人类智能的能力,一方面是设计者放弃了让人工智能像人类一样思考,削弱了因果性思维在程序设计中的地位,转而大量采用相关性思维的程序设计,使人工智能通过数据将两个事件建立起联系;另一方面,大数据技术的发展使得人工智能能够获得海量的数据支持,运用统计学精确地挖掘出有价值的信息,形成决策的资源。

人工智能的决策能力完全依赖数据和算法,它在给定世界的给定时间上只会给出同个决定。数据决定了人工智能能够达到的深度,算法决定了通过迭代计算可得的最优解。这似乎给了人工智能无限的可能性,但是,对于给定的人工智能程序,它在给定的时间上所得的数据是固定的,它的设计算法也是固定的。因此,它能够给出的决策也是固定的。这与人类不同,人类可能因为一念之差而在某个时间上作出不一样的选择,而人工智能并没有另外的选择。

因此人工智能等同于一个决定论世界中的能动者。决定论,即在任何时刻只有一种可能的物理未来。决定论不仅是一种对物理世界的认知立场,同时也是自由意志的支持者最为头痛的对手。特别是,近年来脑神经科学的研究进展支持决定论;量子力学虽然是统计决定论的,但根据现有的发展,也没有为自由意志的存在留下空间。这使得哲学家们无法再回避决定论,不得不为自由意志的存在另寻出路,发展自由意志与决定论之间的兼容论,即,认为决定论世界中的能动者也可以有自由意志。人工智能(公认的)不具备自由意志,无需讨论它与决定论之间的兼容性,同时,它在任何时刻都只有一种可能的物理未来。在理论上,完全可以将人工智能看作决定论世界中的能动者,并在这一背景下讨论人工智能的自主与责任。

人工智能自主性问题的实质是在决定论世界中讨论能动者能否自主,并且,该讨论本身是有意义的。与兼容论相对的非兼容论认为:在决定论世界中,即使考虑到所有的事实与规则,也只能有一种物理未来,那么,人的所有的行动都是被世界控制的,能动者本身不可能具备自主性,对自主性的讨论也没任何意义。但是,兼容论则认为,即使决定论真的否定了人在行动中具有自由意志,人们仍然有想做某事件A的欲望,在最起码的程度上努力去做A。并且,在自己的理性支持下给出做A的理由。这意味着,如果我们将自主理解为“在任何时间上都能作出其他选择”,那么,决定论世界中不存在自主的能动者。而如果将自主理解为“为自己的行为给出适度的理解,并具备潜在的选择能力",那么决定论世界中的能动者依然可以是自主的。对自主性不同的理解为决定论世界能兼容自主性打开了一扇窗,同时,也意味着人工智能有可能是自主的。

三、决定论下的自主性问题

自主理论与决定论能否兼容,决定了该理论能否为人工智能的自主性辩护。人工智能自主的可能性寄托于存在一种受到广泛认可的自主理论,它与决定论相兼容。目前,占主导地位的自主理论有四种:自由意志论、融贯论、理性回应论和推理回应论。它们各自的简要定义如下:

自由意志论:当一个人所作出的决定本可以被另外一种可能的决定替代的时候,那么他所作的决定是自主的。

融贯论:当一个人的高阶欲望与低阶欲望相契合的时候,他是自主的。

理性回应论:当一个人能够意识到理性,并有能力根据理性作出决定和行动的时候,他是自主的。

推理回应论:当一个人能够为自己的决定和行为给出合理的推理时,他是自我控制的。在此基础上,如果他没有被任何外部因素强迫,他是自主的。

这四种自主理论各有侧重,也略有重合。根据它们所支持的自主性与决定论能否兼容分为两组,自由意志论与融贯论属于非兼容论、理性回应论属于兼容论,而推理回应论摇摆于兼容论和非兼容论之间。

根据定义,自由意志论认为,只有当人可以作出另外的选择时,他才是自主的。这在决定论世界中是行不通的。即使有学者争辩,自主性是能动性和意向性的结合,只要存在作出另外选择的可能,即可认为自主性存在。但是,假设有一颗有意识的自由下落的石头。它会认为它是完全自由的,认为它的下落是在它自己的愿望下发生的。然而,石头完全受制于物理事实,并没有它自已认为的自主性。因此,自由意志论属于非兼容论,不能为人工智能的自主性辩护。

同样,融贯论强调核心自我(centralself)的欲望与行动欲望的层层递进、相互契合。当人处于决定论世界时,他的核心自我的欲望与行动欲望都是被决定的,那么他不具备自主性。即使他的核心自我能够形成欲望,他的行动欲望仍然是被物理世界限制的。要么,他的核心自我与行动相矛盾,只具备潜在的自主性而不具备行动自主;要么,他的所有欲望都是被决定的,连潜在的自主性也不具备。因此,融贯论也不能为人工智能的自主性辩护。

推理回应论比较特殊,它是否能够支持决定论世界的能动者的自主性取决于决定论的强度。强的决定论认为,人类的大脑也是物理世界的一部分,也是被决定了的:而弱的决定论认为,人脑以外的物理世界是被决定的,人仍然有随时改变想法的可能。推理回应论认为,自主性是一个人以所相信和渴望的为基础来评估自身动机的能力。并且根据自身的(可能涉及价值的)评估来调整动机。它强调的不是能够按照“正确的"或者普适的价值现作出反应,而是能够通过推理的过程驾驭自己的动机。同时,它也强调必须由核心自我给出推理的过程,能动者不能处于“洗脑”状态。当处于强决定论世界时,能动者所作出的决定是由物理大脑根据经验与自身特性决定的,推理过程是大脑在决定以后用来肯定自己的选择的。能动者根本没有核心自我,处于“洗脑”状态,因此,没有自主性。然而,当处于较弱的决定论世界时,能动者即使在行动上受制于物理世界,依然可能为自己的行动给出有说服力的推理过程,那么,他可以是自主的。

然而,很遗憾,即便推理回应论有可能属于兼容论,它依然不能为人工智能的自主性辩护。因为,对于人工智能来说,推理过程即算法的运行过程。算法是由设计者决定的,运行过程也是固定的。人工智能等同于一个在强决定论世界里的人,它的“大脑”是物理世界的一部分,它的理性来自世界。因此,按照推理回应论,人工智能虽然能给出完美的推理过程,却不可能是自主的。

理性回应论是唯一有机会为人工智能的自主性辩护的理论。它强调能动者具备一个稳定的理性决策方式,其中提到的理性是道德理性,并且,该决策方式能够被具有相似价值和信念的第三方理解。决定论并不排除理性甚至道德理性的存在,这为自主性的存在留下了一线生机。当人可以采取理性来支持自己的决定时,他就是自主的。

人工智能的决策方式能够满足理性回应论。首先.人工智能具备一个理性决策方式,即算法。目前,人工智能的算法都是通过数据间的联系寻找最优解,它符合人类从经验中总结规律的思考方式,是一种稳定的理性决策方式,在逻辑理性上符合理性回应论的要求。同时,理性回应论要求决策方式的理性涉及道德理性,这一点对人工智能来说并不难。如果人工智能的决策完全不涉及道德,我们就无需为了人工智能如何承担责任的问题烦恼了,只要根据哈格的论证,认定人工智能承担全责即可。然而,人工智能的决策必然会涉及对错,它必须“理解”人们想要的是什么,否则它就无法为人类服务,也无法与人类合作。例如,自主驾驶汽车必须在程序设计上考虑路人的安全与乘客的安全,而不仅仅是避免碰撞。其次,人工智能的决策方式可以被第三方理解。这里被选择的第三方,正是人工智能的使用者。试想,如果使用者发现人工智能的选择总是与自已想要的相左,或者使得自己的工作、生活更繁琐而非更便利他就不会继续使用人工智能。人工智能的算法是设计者对使用者的理解,也是智能社会中全新的人与人的联结桥梁。甚至,目前的人工智能已经能够根据算法来适应用户习惯,提供更令用户满意的服务。这正是设计者为了让使用者作为第三方理解人工智能而做出的努力。

因此,在理性回应论的支持下,人工智能可以是自主的——不仅仅是在行动上自主.同时也是在算法相关的道德理性上自主。在此基础之上,才有可能进一步来讨论人工智能的责任问题。

四、人工智能相关的

责任归属

自主是责任的基础。但是,即使论证了人工智能的自主性,人工智能的责任划分仍然是一个难题。难点在于,自主并不直接地对应责任,责任本身也有不同的区分。一种较广为人知的责任的分类来自哈特(Hart)。哈特将责任区分为地位责任(role-responsibiliy)、因果责任(causalresponsibility)、义务责任(liabilityresponsibililty)和能力责任(capacityresponsibiliy)。地位责任指的是某人在社会组织中具有特殊的地位或职位而被赋子的某些特殊职责。因果责任指的是根据因果关系对造成的后果负责任。义务责任则是指人根据法律、道德等规范应当付出的代价。能力责任是主张某些人具备一些能力,并因此应对其行为负责。

从四种责任的定义可以看出,哈特对责任的分类主要是为法律与刑罚提供参考。因此,从哲学的角度来看,四种贵任的内涵之间有所重合。地位责任与义务责任有所重合。地位本身就是由社会规范所赋子的,它所承担的责任通常都与法律和道德有关,因此,地位责任能够转化为义务责任。因果责任与能力责任也有所重合。因果责任可以看作是能动者运用了自己的能力后,对造成的结果负责。或者,从另一个角度,因果责任也可以看作是能动者本可以运用能力,但没有这么做,由于因果关系而为疏忽负责。总而言之,能力责任都是由于因果关系改变了或未改变世界所形成的责任,因此,笔者认为能力责任能够转化为因果责任。

人工智能的责任争议主要指的是义务责任的争议。由于因果责任是按照因果关系划分的,人工智能所造成的结果理应由它本身承担,这是毫无争议的,就像地震应当为房屋倒塌负责一样。人工智能的义务责任划分却不那么明确。这是因为,传统的问责方式将人造物视为无法理解道德的,也就不能承担道德或法律责任。这种观点“混淆了孤立的技术人造物和社会—技术—认识系统中能体现出智能的人造物之间的本质差异”。

上文中已经论证了人工智能能够具备道德自主性,因此,有资格成为义务责任的承担者。问题在于,义务责任能够被赋予人造物吗?笔者认为答案是肯定的。机器的意向性是人赋子的,丹尼特认为,意向性最适合解释机器行为的时候,我们就认为机器具有意向性。所以,机器具有意图是一种属性论。如果说机器可以把意图作为附加属性,那么同样可以把义务责任作为一种附加属性。笔者虽然对哈克的意图与世界关系论证有微词,但认同哈克“责任是一种属性”的观点。义务责任并非人类天然具备的,对人类来说,它也是一种附加属性。既然义务责任是依据人类的理解,通过道德与法律规范附加在人类身上的,那么,人工智能通过算法具备了道德自主性,同样可以被赋予义务责任。

人工智能所承担的义务责任是一种联合(joint)义务责任,而非传统责任观中一力承担的责任。虽然人工智能可以“理解”道德理性,但是,它的道德理性是由设计者赋子的,它的行动是由使用者监管的。这就形成了设计者、人工智能、使用者之间无形的联结。在人工智能能够完全理解身体与道德之间的关系,实现无监管地行动而不违背任何伦理规范之前,这个联结都不会断裂。遗憾的是,目前来看,人工智能在相当长一段时间内无法实现对于身体与道德关系的理解。因此,人工智能的义务责任总是与人类相连的。那么,传统的个人各自承担责任的模式必然不适合人工智能。

人类合作者之间的责任研究也许能够给我们一些启示。虽然,人类合作者之间的责任研究同样充满争议和问题(例如,责任债务问题、过充分决定问题,等等),但是,或许可以从已有的研究中为人工智能的责任问题探寻一下出路。

首先,联合义务责任可以有多种形式。随着技术的发展,人工智能与人类的合作将会前所未有的复杂。第一,人工智能单独采取行动(如果被允许的话),例如,无人驾驶汽车。由于人工智能可以是自主的,应当承担全部责任。并且,基于人工智能与设计者的联结,设计者承担连带责任。第二。人工智能可能处于使用者的监管之下。这种关系类似于工作中的上下级,那么,负责执行的人工智能将承担全部的因果责任和部分义务责任,面使用者因为处于监管地位,承担义务责任。第三,人工智能可能与人组成集体能动者。集体能动者能够具备独立于任何成员的欲望和意图,在此基础上,集体能动者承担全部责任。第四,第二种与第三种情况可能混合出现,那么,可以将其视为升级版的集体能动者来承担全部责任。

其次,由于设计者—人工智能—使用者之间的联结与承担义务责任有关,使用者对人工智能“内部”的了解变得十分重要,放任人工智能的使用者要承担“忽视的责任”。使用者需要明确自已的人工智能能够做到的范围,并且防患于未然。目前的人工智能已经能够根据用户的喜好改进自己的行为。这就意味着,如果使用者不去了解他的人工智能能够做什么,随意地给人工智能灌输不良的行为喜好,会使得人工智能成为糟糕的社会成员。这一点也是人工智能威胁论所担忧的,人工智能可能通过学习对人类产生威胁。因此.在这种情况之下,使用者忽视了可能造成的后果,应该承担相应的义务责任,也就是笔者所说的忽视的责任。

再次,非人工智能的使用者同样要承担一些义务责任。这一点是针对与人工智能—人的集体能动者对立的自然人而言的。目前的无人驾驶汽车已经号称超越了人类驾驶员的安全基准,能降低驾驶事故的概率,促进公共安全。假如这一论断成立,就意味着不使用自动驾驶系统的驾驶员将成为马路上的危险者,对他人的安全构成威胁,他们应当承担起相应的责任。如同智能手机普及以后仍然使用传统手机的人,一旦因为手机的原因错过了重要的工作或者生活消息,他们会遭到其他人的请责。随着人工智能越来越“聪明”,不使用人工智能的人迟早会迎来要承担义务责任的一天,并且,这一天可能并不遥远。

本文将人工智能的自主性问题转化为决定论世界中能动者的自主性问题,并且,在理性回应论的支持下,得出了人工智能不仅仅是行动自主的,而且可以是道德自主的,因此,能够承担义务(道德)责任。这一结论也许不会得到全部人工智能研究者的认同,但是,它为亟待解决的人工智能的责任分配问题搭建了地基。人工智能的责任问题必然要摆脱传统的单一问责机制,走向社会—技术—认识系统中的问责机制。只要将人工智能视为自主的道德能动者,它与人类的合作就能被视为集体行动者,人类合作者之间的责任分布研究就能够为人工智能与人之间的责任分布指引方向。但是,这只是一小步,其结论也只是一个大致轮廓,人工智能的责任研究依然任重道远。如若想使人工智能的责任图景更为清晰,需要更深人地探讨人工智能对伦理的具身化理解、深化人工智能与人之间合作方式的研究和认知结构对比研究,这将会推进对于人工智能—人的集体能动者的理解,从而对人工智能的责任细分产生更为深远的影响。

来源:《哲学分析》,2018年第4期,第125-131页。

simpleliving

noblethinking返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇