人工智能的自主性与责任
一、简化了的
“人工智能自主性”
人工智能机器人通常也被称为自主机器人,许多哲学研究认为,目前的人工智能可以称得上是自主的能动者,甚至一些哲学家认为非人类的自主能动者本身就能够承担责任,而非由其设计者或使用者承担责任。笔者认为,“人工智能是自主的”这一观点不够严谨,随之而来的“人工智能是独立责任承担者”的观点值得商榷。这些观点的背后缺少对自主概念的追问。
自主(autonony)概念一般应用于人类,被理解为“个人根据自己的理智推断和动机欲望主宰自己生活的能力,而这些理智推理和动机欲望都不是操控性和歪曲性的外部力量的产物”。自主的概念有两层含义:一是自我管理,另外一个意思为自我立法。实际上,笔者认为,自我立法是自主中更为重要的部分。作为自主理论研究的源头之一,康德认为,自主不仅仅意味着自由意志,同时也意味着自由意志服从于自己制定的道德法则。目前主流的自主理论也继承了康德的观点,认为自主并非仅仅是“自己作出决定”,更重要的是作出决定的过程完全处于能动者的统御之下。决定、行动与能动者对自身的权威紧密相连,它们的关系决定了能动者是否自主。
对于人类来说,自主选择所遵循的“权威”即“自我”。能动者必须认同他自己的决定,必须由他自己的决定而非其他权力促使他行动。一旦涉及自我认定,能动者就必须遵循一套完整的价值观念,来区分什么是“我”想要的,这就意味着人的自主与道德判断息息相关。一个人必须认定自己采取行动是根据对的判断和决定。个人的行动如果不符合其价值体系,通常会被判定为非自主的。例如,一个瘾君子在吸毒的同时深信吸毒是不好的,他不应该吸毒。但是,他无法抑制身体强烈的渴望,这驱使他吸食了毒品。显然,他在这个过程中不是自主的。如果他遵从内心的价值判断,选择不吸毒,那么,他才是自主的。在这个案例中,从信念到行动的转化失败了,能动者丧失了对自身的权威。
如果说人类的自主通常与道德相关,那么,自主概念实际上隐含了两种层次:一种是行动自主,另一种是道德自主。行动自主仅仅指因果关系上,如果一个人的意图成功地引发了他的行动,那么,他就是行动自主的;而道德自主探寻意图的成因,追问能动者是否遵循自己的内心。因此,道德自主是传统责任观的基础,也是法律判定的基础。
25.
Sep.
一个行动自主的能动者应当符合BDI(bliefdesireitention)模型。自主是一个与行动相关的概念。能动者实践自主的过程从一个信念开始。如果这个信念与世界不符合,那么想要跟世界符合信念的想法就是欲望,通过欲望指向客体的就是意图,从而成功地改变世界,这就是BDI模型。根据这一模型,一个自主的能动者需要满足的条件包括:
(1)具备一个如实描述了环境中的事物的表征状态;
(2)具备一个驱动状态,明确描述了期望环境中的事物如何改变,
(3)具备实现它的表征状态和驱动状态的能力,当环境不能符合驱动状态的描述时,去改变环境。
佩蒂特认为,任何成功执行了这一模型的能动者都是自主的能动者,人工智能也不例外。由于大数据与深度学习的支持,第三代人工智能展现出了与人类智能相似的能力:能够自我归纳,从数据中总结出某些规律:能够自我学习,从而在遇到新情况、新问题时,根据经验和数据来灵活处理。这就意味着:人工智能在足够的数据支持下,能够独立地根据情景形成自己的表征状态、驱动状态和改变情景的意图,并且根据该意图采取行动,顺利实现BDI模型。从这个意义上讲,人工智能是自主的。
但是,这种“自主”指的是行动自主,仅仅等同于独立。佩蒂特对自主能动者的论证只实现了自我管理的层面。这种论证实际上简化了自主的概念,认为能够作出决定即自主,将逻辑推理和计算能力等同于人类的理智,将人工智能的目标与执行力等同于人类的欲望,从而认定人工智能是自主的。行动自主将自我立法的过程排除在外,仅仅考量了决策与行动的连贯性,是削减版的自主概念。
将“简化的自主”概念加诸人工智能,直接导致了“人工智能是独立责任承担者”的观点。哈格是这一观点的支持者,并且他提出了看似完整有说服力的理论。他认为,人类能够对自身行动负责任的原因与其说是因为人类真的具有意向性或自由意志,不如说是将能动性和责任作为一种属性附加于行动之上。他如此论断的原因在于,无论人类的大脑状态如何,意图和意愿在行动中都没有对物理世界真正产生影响,产生影响的只有行动。那么,既然责任是行动的属性,人工智能的行动也能够具备这种属性,只要人们接受将责任作为人工智能的属性,人工智能就是能够负责任的能动者,与人类无异。
哈格的这种论证并不是否定了意图的存在价值,而是认为人工智能的决定与人的自由意志的选择没有差别——至少是在BDI模型中毫无区别。他显然是赞同人工智能具备简化了的自主性,才会得出这样的结论。然而,将自主简化为行动自主,就不能完全支持能动者的责任认定。事实上,自主理论并非仅仅是要成功地实现从建立信念到行动的过程,更致力于排除在这一过程中威胁到自主的因素。这些因素在哲学描述中得到最多讨论的包括:强迫、上瘾和洗脑。一旦能动者被它们控制,能动者的行为后果就无需自己负责。值得注意的是,BDI模型排除了强迫和上瘾,但没有将被洗脑排除在自主的大门之外,就是说,一个成功实现BDI模型的能动者可能是被洗脑的,并不具备自主性,也不能对行动负责任。
因此,哈格对意图与世界关系的理解是有偏差的。即使意向性不影响真实世界这一点成立,何种因素削弱了意愿、意向与行动之间的联系仍然非常重要,这些因素真实地改变了世界,它们改变了本可能在世界中实际出现的事件。
回到对人工智能的讨论,即使人工智能具备了相当的决策能力,它们的决策程序仍然是由人类设定的。也就是说,人工智能的权威并非来自它自身,而是人类赋予的,它们是“被洗脑”的。一个以保护财产为目标的人工智能与另一个以保护人身安全为目标的人工智能在同样的情境下,可能会作出完全不同的决策。并且,它们不可能作出另外的选择。如果仅仅只有行动自主的支持,这两个人工智能造成的相应结果的责任,似乎更应当追问程序的设定者,而非人工智能本身。因此,在简化的自主下讨论人工智能的责任是不严谨的,更谈不上让人工智能成为独立的责任承担者。
因此,人工智能的自主性讨论不能仅仅采用建构模型的方式,BDI模型没能一劳永逸地解释自主性的问题,我们更需要将眼光放在使人工智能不自主的因素上,寻找人工智能自主性问题的实质——毕竟,一只黑天鹅就能够否定“所有天鹅都是白的”这一论断。
二、人工智能
自主性问题的实质
人工智能是由大数据驱动的,大数据赋子了人工智能在变化中应对复杂局势的能力,同时也奠定了人工智能作决策的基调:人工智能有作决定的能力,但是,没有在同一时间作出不同选择的能力。
“人工智能的世界是由人的数字化行为构成的数据世界。”人工智能目前之所以表现出了类似人类智能的能力,一方面是设计者放弃了让人工智能像人类一样思考,削弱了因果性思维在程序设计中的地位,转而大量采用相关性思维的程序设计,使人工智能通过数据将两个事件建立起联系;另一方面,大数据技术的发展使得人工智能能够获得海量的数据支持,运用统计学精确地挖掘出有价值的信息,形成决策的资源。
人工智能的决策能力完全依赖数据和算法,它在给定世界的给定时间上只会给出同个决定。数据决定了人工智能能够达到的深度,算法决定了通过迭代计算可得的最优解。这似乎给了人工智能无限的可能性,但是,对于给定的人工智能程序,它在给定的时间上所得的数据是固定的,它的设计算法也是固定的。因此,它能够给出的决策也是固定的。这与人类不同,人类可能因为一念之差而在某个时间上作出不一样的选择,而人工智能并没有另外的选择。
因此人工智能等同于一个决定论世界中的能动者。决定论,即在任何时刻只有一种可能的物理未来。决定论不仅是一种对物理世界的认知立场,同时也是自由意志的支持者最为头痛的对手。特别是,近年来脑神经科学的研究进展支持决定论;量子力学虽然是统计决定论的,但根据现有的发展,也没有为自由意志的存在留下空间。这使得哲学家们无法再回避决定论,不得不为自由意志的存在另寻出路,发展自由意志与决定论之间的兼容论,即,认为决定论世界中的能动者也可以有自由意志。人工智能(公认的)不具备自由意志,无需讨论它与决定论之间的兼容性,同时,它在任何时刻都只有一种可能的物理未来。在理论上,完全可以将人工智能看作决定论世界中的能动者,并在这一背景下讨论人工智能的自主与责任。
人工智能自主性问题的实质是在决定论世界中讨论能动者能否自主,并且,该讨论本身是有意义的。与兼容论相对的非兼容论认为:在决定论世界中,即使考虑到所有的事实与规则,也只能有一种物理未来,那么,人的所有的行动都是被世界控制的,能动者本身不可能具备自主性,对自主性的讨论也没任何意义。但是,兼容论则认为,即使决定论真的否定了人在行动中具有自由意志,人们仍然有想做某事件A的欲望,在最起码的程度上努力去做A。并且,在自己的理性支持下给出做A的理由。这意味着,如果我们将自主理解为“在任何时间上都能作出其他选择”,那么,决定论世界中不存在自主的能动者。而如果将自主理解为“为自己的行为给出适度的理解,并具备潜在的选择能力",那么决定论世界中的能动者依然可以是自主的。对自主性不同的理解为决定论世界能兼容自主性打开了一扇窗,同时,也意味着人工智能有可能是自主的。
三、决定论下的自主性问题
自主理论与决定论能否兼容,决定了该理论能否为人工智能的自主性辩护。人工智能自主的可能性寄托于存在一种受到广泛认可的自主理论,它与决定论相兼容。目前,占主导地位的自主理论有四种:自由意志论、融贯论、理性回应论和推理回应论。它们各自的简要定义如下:
自由意志论:当一个人所作出的决定本可以被另外一种可能的决定替代的时候,那么他所作的决定是自主的。
融贯论:当一个人的高阶欲望与低阶欲望相契合的时候,他是自主的。
理性回应论:当一个人能够意识到理性,并有能力根据理性作出决定和行动的时候,他是自主的。
推理回应论:当一个人能够为自己的决定和行为给出合理的推理时,他是自我控制的。在此基础上,如果他没有被任何外部因素强迫,他是自主的。
这四种自主理论各有侧重,也略有重合。根据它们所支持的自主性与决定论能否兼容分为两组,自由意志论与融贯论属于非兼容论、理性回应论属于兼容论,而推理回应论摇摆于兼容论和非兼容论之间。
根据定义,自由意志论认为,只有当人可以作出另外的选择时,他才是自主的。这在决定论世界中是行不通的。即使有学者争辩,自主性是能动性和意向性的结合,只要存在作出另外选择的可能,即可认为自主性存在。但是,假设有一颗有意识的自由下落的石头。它会认为它是完全自由的,认为它的下落是在它自己的愿望下发生的。然而,石头完全受制于物理事实,并没有它自已认为的自主性。因此,自由意志论属于非兼容论,不能为人工智能的自主性辩护。
同样,融贯论强调核心自我(centralself)的欲望与行动欲望的层层递进、相互契合。当人处于决定论世界时,他的核心自我的欲望与行动欲望都是被决定的,那么他不具备自主性。即使他的核心自我能够形成欲望,他的行动欲望仍然是被物理世界限制的。要么,他的核心自我与行动相矛盾,只具备潜在的自主性而不具备行动自主;要么,他的所有欲望都是被决定的,连潜在的自主性也不具备。因此,融贯论也不能为人工智能的自主性辩护。
推理回应论比较特殊,它是否能够支持决定论世界的能动者的自主性取决于决定论的强度。强的决定论认为,人类的大脑也是物理世界的一部分,也是被决定了的:而弱的决定论认为,人脑以外的物理世界是被决定的,人仍然有随时改变想法的可能。推理回应论认为,自主性是一个人以所相信和渴望的为基础来评估自身动机的能力。并且根据自身的(可能涉及价值的)评估来调整动机。它强调的不是能够按照“正确的"或者普适的价值现作出反应,而是能够通过推理的过程驾驭自己的动机。同时,它也强调必须由核心自我给出推理的过程,能动者不能处于“洗脑”状态。当处于强决定论世界时,能动者所作出的决定是由物理大脑根据经验与自身特性决定的,推理过程是大脑在决定以后用来肯定自己的选择的。能动者根本没有核心自我,处于“洗脑”状态,因此,没有自主性。然而,当处于较弱的决定论世界时,能动者即使在行动上受制于物理世界,依然可能为自己的行动给出有说服力的推理过程,那么,他可以是自主的。
然而,很遗憾,即便推理回应论有可能属于兼容论,它依然不能为人工智能的自主性辩护。因为,对于人工智能来说,推理过程即算法的运行过程。算法是由设计者决定的,运行过程也是固定的。人工智能等同于一个在强决定论世界里的人,它的“大脑”是物理世界的一部分,它的理性来自世界。因此,按照推理回应论,人工智能虽然能给出完美的推理过程,却不可能是自主的。
理性回应论是唯一有机会为人工智能的自主性辩护的理论。它强调能动者具备一个稳定的理性决策方式,其中提到的理性是道德理性,并且,该决策方式能够被具有相似价值和信念的第三方理解。决定论并不排除理性甚至道德理性的存在,这为自主性的存在留下了一线生机。当人可以采取理性来支持自己的决定时,他就是自主的。
人工智能的决策方式能够满足理性回应论。首先.人工智能具备一个理性决策方式,即算法。目前,人工智能的算法都是通过数据间的联系寻找最优解,它符合人类从经验中总结规律的思考方式,是一种稳定的理性决策方式,在逻辑理性上符合理性回应论的要求。同时,理性回应论要求决策方式的理性涉及道德理性,这一点对人工智能来说并不难。如果人工智能的决策完全不涉及道德,我们就无需为了人工智能如何承担责任的问题烦恼了,只要根据哈格的论证,认定人工智能承担全责即可。然而,人工智能的决策必然会涉及对错,它必须“理解”人们想要的是什么,否则它就无法为人类服务,也无法与人类合作。例如,自主驾驶汽车必须在程序设计上考虑路人的安全与乘客的安全,而不仅仅是避免碰撞。其次,人工智能的决策方式可以被第三方理解。这里被选择的第三方,正是人工智能的使用者。试想,如果使用者发现人工智能的选择总是与自已想要的相左,或者使得自己的工作、生活更繁琐而非更便利他就不会继续使用人工智能。人工智能的算法是设计者对使用者的理解,也是智能社会中全新的人与人的联结桥梁。甚至,目前的人工智能已经能够根据算法来适应用户习惯,提供更令用户满意的服务。这正是设计者为了让使用者作为第三方理解人工智能而做出的努力。
因此,在理性回应论的支持下,人工智能可以是自主的——不仅仅是在行动上自主.同时也是在算法相关的道德理性上自主。在此基础之上,才有可能进一步来讨论人工智能的责任问题。
四、人工智能相关的
责任归属
自主是责任的基础。但是,即使论证了人工智能的自主性,人工智能的责任划分仍然是一个难题。难点在于,自主并不直接地对应责任,责任本身也有不同的区分。一种较广为人知的责任的分类来自哈特(Hart)。哈特将责任区分为地位责任(role-responsibiliy)、因果责任(causalresponsibility)、义务责任(liabilityresponsibililty)和能力责任(capacityresponsibiliy)。地位责任指的是某人在社会组织中具有特殊的地位或职位而被赋子的某些特殊职责。因果责任指的是根据因果关系对造成的后果负责任。义务责任则是指人根据法律、道德等规范应当付出的代价。能力责任是主张某些人具备一些能力,并因此应对其行为负责。
从四种责任的定义可以看出,哈特对责任的分类主要是为法律与刑罚提供参考。因此,从哲学的角度来看,四种贵任的内涵之间有所重合。地位责任与义务责任有所重合。地位本身就是由社会规范所赋子的,它所承担的责任通常都与法律和道德有关,因此,地位责任能够转化为义务责任。因果责任与能力责任也有所重合。因果责任可以看作是能动者运用了自己的能力后,对造成的结果负责。或者,从另一个角度,因果责任也可以看作是能动者本可以运用能力,但没有这么做,由于因果关系而为疏忽负责。总而言之,能力责任都是由于因果关系改变了或未改变世界所形成的责任,因此,笔者认为能力责任能够转化为因果责任。
人工智能的责任争议主要指的是义务责任的争议。由于因果责任是按照因果关系划分的,人工智能所造成的结果理应由它本身承担,这是毫无争议的,就像地震应当为房屋倒塌负责一样。人工智能的义务责任划分却不那么明确。这是因为,传统的问责方式将人造物视为无法理解道德的,也就不能承担道德或法律责任。这种观点“混淆了孤立的技术人造物和社会—技术—认识系统中能体现出智能的人造物之间的本质差异”。
上文中已经论证了人工智能能够具备道德自主性,因此,有资格成为义务责任的承担者。问题在于,义务责任能够被赋予人造物吗?笔者认为答案是肯定的。机器的意向性是人赋子的,丹尼特认为,意向性最适合解释机器行为的时候,我们就认为机器具有意向性。所以,机器具有意图是一种属性论。如果说机器可以把意图作为附加属性,那么同样可以把义务责任作为一种附加属性。笔者虽然对哈克的意图与世界关系论证有微词,但认同哈克“责任是一种属性”的观点。义务责任并非人类天然具备的,对人类来说,它也是一种附加属性。既然义务责任是依据人类的理解,通过道德与法律规范附加在人类身上的,那么,人工智能通过算法具备了道德自主性,同样可以被赋予义务责任。
人工智能所承担的义务责任是一种联合(joint)义务责任,而非传统责任观中一力承担的责任。虽然人工智能可以“理解”道德理性,但是,它的道德理性是由设计者赋子的,它的行动是由使用者监管的。这就形成了设计者、人工智能、使用者之间无形的联结。在人工智能能够完全理解身体与道德之间的关系,实现无监管地行动而不违背任何伦理规范之前,这个联结都不会断裂。遗憾的是,目前来看,人工智能在相当长一段时间内无法实现对于身体与道德关系的理解。因此,人工智能的义务责任总是与人类相连的。那么,传统的个人各自承担责任的模式必然不适合人工智能。
人类合作者之间的责任研究也许能够给我们一些启示。虽然,人类合作者之间的责任研究同样充满争议和问题(例如,责任债务问题、过充分决定问题,等等),但是,或许可以从已有的研究中为人工智能的责任问题探寻一下出路。
首先,联合义务责任可以有多种形式。随着技术的发展,人工智能与人类的合作将会前所未有的复杂。第一,人工智能单独采取行动(如果被允许的话),例如,无人驾驶汽车。由于人工智能可以是自主的,应当承担全部责任。并且,基于人工智能与设计者的联结,设计者承担连带责任。第二。人工智能可能处于使用者的监管之下。这种关系类似于工作中的上下级,那么,负责执行的人工智能将承担全部的因果责任和部分义务责任,面使用者因为处于监管地位,承担义务责任。第三,人工智能可能与人组成集体能动者。集体能动者能够具备独立于任何成员的欲望和意图,在此基础上,集体能动者承担全部责任。第四,第二种与第三种情况可能混合出现,那么,可以将其视为升级版的集体能动者来承担全部责任。
其次,由于设计者—人工智能—使用者之间的联结与承担义务责任有关,使用者对人工智能“内部”的了解变得十分重要,放任人工智能的使用者要承担“忽视的责任”。使用者需要明确自已的人工智能能够做到的范围,并且防患于未然。目前的人工智能已经能够根据用户的喜好改进自己的行为。这就意味着,如果使用者不去了解他的人工智能能够做什么,随意地给人工智能灌输不良的行为喜好,会使得人工智能成为糟糕的社会成员。这一点也是人工智能威胁论所担忧的,人工智能可能通过学习对人类产生威胁。因此.在这种情况之下,使用者忽视了可能造成的后果,应该承担相应的义务责任,也就是笔者所说的忽视的责任。
再次,非人工智能的使用者同样要承担一些义务责任。这一点是针对与人工智能—人的集体能动者对立的自然人而言的。目前的无人驾驶汽车已经号称超越了人类驾驶员的安全基准,能降低驾驶事故的概率,促进公共安全。假如这一论断成立,就意味着不使用自动驾驶系统的驾驶员将成为马路上的危险者,对他人的安全构成威胁,他们应当承担起相应的责任。如同智能手机普及以后仍然使用传统手机的人,一旦因为手机的原因错过了重要的工作或者生活消息,他们会遭到其他人的请责。随着人工智能越来越“聪明”,不使用人工智能的人迟早会迎来要承担义务责任的一天,并且,这一天可能并不遥远。
本文将人工智能的自主性问题转化为决定论世界中能动者的自主性问题,并且,在理性回应论的支持下,得出了人工智能不仅仅是行动自主的,而且可以是道德自主的,因此,能够承担义务(道德)责任。这一结论也许不会得到全部人工智能研究者的认同,但是,它为亟待解决的人工智能的责任分配问题搭建了地基。人工智能的责任问题必然要摆脱传统的单一问责机制,走向社会—技术—认识系统中的问责机制。只要将人工智能视为自主的道德能动者,它与人类的合作就能被视为集体行动者,人类合作者之间的责任分布研究就能够为人工智能与人之间的责任分布指引方向。但是,这只是一小步,其结论也只是一个大致轮廓,人工智能的责任研究依然任重道远。如若想使人工智能的责任图景更为清晰,需要更深人地探讨人工智能对伦理的具身化理解、深化人工智能与人之间合作方式的研究和认知结构对比研究,这将会推进对于人工智能—人的集体能动者的理解,从而对人工智能的责任细分产生更为深远的影响。
来源:《哲学分析》,2018年第4期,第125-131页。
simpleliving
noblethinking返回搜狐,查看更多
陈永伟:关于人工智能的主体、责任和算法监管,我的一些思考
陈永伟:关于人工智能的主体、责任和算法监管,我的一些思考如何对人工智能进行有效治理?一,根据是否进行决策来判定是否是主体;二是根据成本收益来划分责任;三是用新规制理论和机制设计的思想来对算法进行监管。
陈永伟CYW
图片来源:视觉中国
(作者陈永伟,为《比较》研究部主管。本文根据作者2019年3月19日在工信部赛迪研究院组织的“人工智能伦理与法律”内部研讨会上的发言整理而成。)
近年来,人工智能技术发展迅猛,已经迅速从科幻走进了现实,这给生产生活带来了很多的便利,但与此同时也带来了很多新的问题。在这种背景下,如何对人工智能进行有效治理,就成为了人们不得不应对的挑战。
关于对人工智能的治理,涉及到的问题很多。这里我不想全面展开,只想挑选其中的几点谈一下我自己的一些不成熟思考。
第一点是人工智能的主体问题。随着技术的发展,机器正变得越来越像人,甚至可以单独地完成一些过去只有人类才能完成的行为。例如,现在的人工智能已经可以作画,也可以写诗。这种情况下,人工智能的地位应该是怎么样,究竟是一个人,还是一个工具,抑或是一个机器奴隶,就变得很重要。如果我们认定人工智能也是一个和人一样的主体,那就应该让其独立享有对应的权利、承担对应的责任;反之,则不能赋予其对应权责。
个人认为,关于这一问题,还是应该放在具体的环境下来进行具体的看待,要看在具体的情况下,究竟是人还是机器做了最终的决策。例如,现在算法合谋的问题引起了很多人的重视,但其实算法合谋这个名词只是一个大框,里面包括信使合谋(合谋各方用算法来传递信息)、轴幅合谋(算法作为一个协调者,帮助各方进行合谋,就好像车辐围着车轴一样)、预测者合谋(各方未必有主观合谋意愿,但都使用了同一种算法,算法所指引的最优行为都一致)、自主机器合谋(各方各自开发算法,算法可以不同,但只要给出的目标相同,它们所指引的最优行为也会类似,从而产生合谋效果)等好多类。虽然这几类合谋都用到了人工智能,但其实在信使合谋和轴幅合谋里,人工智能只是被用来作为合谋的工具,因此在这种情况下它们当然不应该被视为是主体。而在后面的两种合谋里,人工智能本身就是做决策的,因此它们在一定意义上就可以被视为是主体。
第二点是人工智能的责任问题。我想,这个问题要分为两个层次来思考:
第一个层次是和主体问题对应的。正如前面指出的,在很多时候,人工智能扮演的只是一个工具的角色,自己并不进行决策,因此它当然不应该承担相应的责任。这就好像,无论是人用刀杀人,或者用刀切菜,要负责的都是人,而不是刀一样。明白了这点,我们其实可以把很多看似与人工智能相关的责任问题刨除掉,因为他们其实是人的问题。
第二个层次是,当人工智能是一种决策主体时,它应该对于某个结果负有怎样的责任。当然,我们这里说人工智能负责,只是一个简化的说法。事实上,它当然无法自己为自己的行为负责,而是作为一种产品,让生产它的人负责。
那么,在机器做出一种行为时,它(确切说是它的生产者)要为其负多大的责任呢?例如,如果人工智能对人造成了伤害,它要承担什么责任?我想,这个答案是动态的,在各个时代、各种情况下答案不同,我们在思考这个问题时,应该用成本收益分析的思路去思考。法律经济学上有个经典的例子:在铁路普及前后,美国的侵权法发生了很大的改变。在这之前,交通工具在遇到行人时,是需要让行人先通过的,否则如果发生了交通事故,责任都要由交通工具的使用者承担。而在铁路普及后,这个规则就发生了很大的变化,行人被要求让火车,如果行人不遵守这个规则,那么他就需要承担自己行为的后果。
为什么会有这个变化呢?原因是如果还墨守成规,那么铁路在运营中就需要时刻注意避让行人,效率就很低。而在规则改变后,整个社会运行的效率就提升了。我想,在考虑人工智能应该承担多大责任时,我们也应该采用类似的观念,用成本收益的思路去思考问题,而不应该简单套用一些老的原则。
第三点是对人工智能,或者说对算法的监管。我参加过不少关于人工智能的会,里面谈到对算法的监管,思路都大同小异,例如几乎所有人都主张算法要透明,算法要共享。
对于这一点,我是持保留态度的。事实上,在我个人看来,通过算法透明去监管算法的做法其实既不科学,也无道理。一方面,现在的算法都很难读懂,不要说大多数主张透明的学者看不懂,即使一些专业的程序员也要花上很长时间才能看明白。在这种情况下,即使我们不说通过透明去监管算法是不可能的,它至少也是不经济的。另一方面,现在的算法已经是各个企业的核心竞争力,你贸然要求它透明,就是对别人知识产权的不尊重,是没有道理的。
那么,难道我们就对算法没有办法了吗?当然不是!但其中的思路一定要变。在经济学上,规制理论有新旧之分。旧规制理论假设规制要在完全信息下进行,主张对行为进行直接干预,但新规制理论则强调不完全信息,主张通过构建相应的约束条件去引导人们的行为。打个比方,如果你要让人帮你好好换一个灯泡,一种思路是,你在一边仔细盯着,然后看他哪个动作不对就马上纠正。这就是旧规制主义的思路,显然,它的成本很高,而且不一定能把事情办好。另一种思路呢,则是进行机制设计,让安灯泡的人自觉努力工作。例如,你告诉换灯泡的人,“你若安好,便是晴天;你若安不好,我就打死你”。你放心,只要那个安灯泡的人答应了给你换灯泡,那么他一定会尽他的努力来做好,因为他会害怕可能的惩罚。从这个意义上讲,这时安灯泡的人和你的目标是一致的,或者说,他的目标是和你的目标激励相容的。
在我看来,监管算法在很大程度上类似于换灯泡。你不知道人是怎么思考的,但你通过构建合理的激励合约,就可以引导它努力工作;同样,你也可以不知道机器是怎么思考的,但也可以通过构建合理的激励合约,将它们的行为引向正确的方向。从某种意义上讲,其实人的思维从本质上也是一种算法,但这种算法要远比机器的算法更复杂、更随机,而相比之下,机器算法事实上更类似于经济学理论中假设的“理性人”。既然新规制理论的方法对人都能管用,那么它对机器也可能会管用!
总结一下,我想表达的意见是三点:一,根据是否进行决策来判定是否是主体;二是根据成本收益来划分责任;三是用新规制理论和机制设计的思想来对算法进行监管。一点浅见,希望对大家有用。
(文章仅代表个人观点。责编邮箱:yanguihua@jiemian.com)
(本文来自于界面)
人工智能的工作原理是什么
原标题:人工智能的工作原理是什么?人工智能的工作原理是:计算机会通过传感器(或人工输入的方式)来收集关于某个情景的事实。计算机将此信息与已存储的信息进行比较,以确定它的含义。计算机会根据收集来的信息计算各种可能的动作,然后预测哪种动作的效果最好。计算机只能解决程序允许解决的问题,不具备一般意义上的分析能力。
简介:
人工智能(ArtificialIntelligence),英文缩写为AI,它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,但没有一个统一的定义。人工智能是对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。但是这种会自我思考的高级人工智能还需要科学理论和工程上的突破。
科学介绍:
展开全文1、实际应用
机器视觉:机器视觉,指纹识别,人脸识别,视网膜识别,虹膜识别,掌纹识别,专家系统,自动规划,智能搜索,定理证明,博弈,自动程序设计,智能控制,机器人学,语言和图像理解,遗传编程等。
2、学科范畴
人工智能是一门边沿学科,属于自然科学和社会科学的交叉。
3、涉及学科
哲学和认知科学,数学,神经生理学,心理学,计算机科学,信息论,控制论,不定性论。
4、研究范畴
自然语言处理,知识表现,智能搜索,推理,规划,机器学习,知识获取,组合调度问题,感知问题,模式识别,逻辑程序设计软计算,不精确和不确定的管理,人工生命,神经网络,复杂系统,遗传算法。
5、意识和人工智能
人工智能就其本质而言,是对人的思维的信息过程的模拟。返回搜狐,查看更多
责任编辑: