博舍

中国问题·人工智能与大数据专题 人工智能与社会伦理问题的关系

中国问题·人工智能与大数据专题

考虑到关系方是从关系角度思考责任问题不可或缺的内容,我们认为,有必要在责任主体之外,思考其责任关系对象。通常情况下,责任的关系对象被认为是人。比如说,在一个正常家庭中,父母对儿女的成长负有责任,父母是责任主体,儿女是责任对象。但是在有些情况下,对象还可以是非人的存在者,比如动植物,甚至人造文物等。因为在很多时候,我们都有责任保护某些特定的动植物以及人造文物。由于责任主体是基于其与责任对象之间的关系承担相应的责任,因此,在考虑责任关系时,责任主体应能清楚地知晓自己与责任对象之间的关系,并且能够预知自己的行为会给他者带来什么样的后果。如果某人无法预知其行为带来的后果,那么即便他的行为给他人带来了伤害,他也无法完全承担其行为责任。我们经常听到的“不知者无罪”表达的即是这层含义。

通过以上讨论,我们可以总结出现有责任体系为责任主体指派责任时的基本预设:责任主体能够控制其自身的行为,知道他的行动,并且原则上能够预知他的行为给他者带来的后果。任何不满足这些条件预设的主体都不能完整地承担其行为责任。

02

人工智能导致的责任空白问题

我们现有的责任体系具有很强的适应性,能够解决现实世界中出现的绝大多数伦理责任问题,直至人工智能出现。人工智能极大地促进了社会的发展,但同时也对我们的责任体系造成了巨大的冲击。现有的责任体系很有可能无法为人工智能的行为后果指派其责任归属。马提亚(A.Matthias)将这种现象称为“责任空白”。[3]176在他的论文《责任空白》中,马提亚列举了很多例子来说明这个问题。由于篇幅有限,我们仅讨论火星探测器这个例子。

马提亚让我们设想这样一个火星探测器,它不但可以被地球上的人员控制,也可以根据内置于其中的导航系统自动地控制其自身的行动,以避免撞到火星上的障碍物。重要的是,该探测器的自动导航控制系统可以自我学习,即根据已走过的火星地面推知下一次如何走过类似的路径。问题在于,如果发生意外,该火星探测器掉入火星坑里,那么应该由谁来担负责任呢?根据马提亚的分析,我们不能将责任指派给地球上的控制人员,因为火星探测器掉入坑中并非是在控制人员的操纵下完成的,而是处于火星探测器自动控制之下的。我们也不能将此责任指派给制作自动导航系统的程序员,因为该程序员制作出的程序是正确的,并已经合乎规范地将其安置在火星探测器之内。除此之外,没有其他任何人能担此责任。[3]176

必须承认的是,在现有的责任体系下,马提亚的分析很具有说服力:首先,火星探测器本身不是一个责任主体,它无法承担自身掉入坑中的责任。[4]其次,地球上的控制人员无法为探测器掉入坑中负责,因为火星探测器掉入坑中并非是地球上控制人员的行为导致的,地球上的控制人员甚至都不清楚火星探测器的具体行为,他们不满足现有责任体系指派责任主体的预设条件。唯一值得讨论的地方在于程序员。由于火星探测器是在自动导航的情况下掉入坑中的,而火星探测器的自动导航系统是由程序员完成的,因此,有人直观上倾向于认为是程序员的失误导致火星探测器掉入坑中。马提亚反对将责任指派给程序员。在他看来,程序员的工作是合乎规范的,并没有任何失职的地方。双方争论的焦点可以总结如下:程序员的工作是否合乎规范?内置于火星探测器的自动导航系统是否正确?

如果火星探测器的自动导航系统没有自主学习能力,它所有的行动都可以由程序员根据相关的程序推测出来,那么火星探测器掉入坑中的后果应该由程序员负责。问题在于,火星探测器的自动导航系统具有自主学习能力,它能够根据个体经验判断下一步的选择。在这种意义上,火星探测器的行为已经超出了程序员的控制范围。程序员无法知晓火星上的环境,他无法判断火星探测器的下一步行动。判断程序员的工作是否合乎规范的依据是程序员在地球上的工作状态,判断火星探测器的自动导航系统是否正确依据的是未上火星前火星探测器的原始状态。从这个角度来看,程序员的工作是合乎规范的,他所设计的程序本身也是合理的。因此,要求程序员为火星探测器掉入坑中这一后果负责有失公允。

马提亚认为,当今社会使用的人工智能的所有技术模型,不论是符号系统、联结主义还是基因算法,都会导致程序员失去对人工智能产品的控制。这意味着,一旦人工智能产品出现故障,或者对人类造成某种伤害,现有的责任体系都将无法为其找到责任方。我们既不可能要求人工智能产品对其行为负责,也不能要求其设计者为它的行为负责。

03

新工具主义

针对人工智能导致的责任空白问题,学界有很多讨论。贡克尔(DavidJ.Gunkel)将这些讨论概括为三种不同的观点,它们分别是:新工具主义、机器伦理和混合方案。[5]1-14贡克尔的这种概括是可行的。因为从智能机器能否承担责任这一视角来看,新工具主义和机器伦理分别代表两种极端观点,而混合方案则是一种折中方案。这三种方案大体囊括了所有可能的观点。我们首先考虑新工具主义。

新工具主义是相对于工具主义而言的。工具主义方案主张将所有的人造机器视为工具。在这种视角下,传统的机器被当作工具,人工智能技术产品也被视为工具。工具没有任何意义上的主体地位,它并不是独立的,而是依赖于其使用者,归属于其所有者。人类创造工具的目的在于增强其所有者的能力。因此,就像利奥塔指出的那样,工具本身不涉及伦理上的问题,如正义、公平等,而只与效率相关。[6]在这种视角下,使用者使用工具造成严重后果将会由使用者承担责任。但是经过第二节的分析,我们指出,这种工具主义视角并不适用于人工智能技术,因为人工智能技术的发展有可能使得其使用者无法为人工智能产品负责。新工具主义正是在这种情况下诞生的。

布赖森(J.J.Bryson)是新工具主义的代表人物。布赖森的核心观点是,应该将机器人设计成奴隶,并按市场销售,而不能将其当作人类的同伴。[7]虽然“奴隶”这个词带有歧视的嫌疑,但布赖森认为,使用这个词语并不影响他的论点。布赖森希望表达的是,机器人应该是人类的仆人,而不是人类的朋友。为了支持这一论点,布赖森给出了两点理由。

第一个理由是:从事实上说,机器人是由人类设计、制造、生产并操作的,如果没有人类,将不会有机器人。因此,在思考机器人与我们人类之间的关系问题时,我们不能忽视机器人本质上是为我们服务的这一事实。布赖森认为,如果我们看到这一点,那么我们完全没有必要将机器人视为人类的同伴,而只需要将其视为人类的服务者即可。布赖森更进一步指出,我们之所以过分关注机器人的伦理问题,而且对它们有不合理的恐惧,主要来源于人类同一性的不确定性,而人类的同情心被滥用则是人类同一性不确定的根源。换句话说,正是因为人类滥用自己的同情心,才导致人类对机器人有各式各样的伦理思考与担忧。如果人类不滥用自己的同情心,我们完全可以将机器人视为自己的奴隶。

布赖森否认将机器人视为人类同伴的第二点理由是:将机器人视为人类的同伴将会浪费很多资源。这个观点非常容易理解。从个人层面上说,机器人是一个与人类完全不同的个体,将其视为人类同伴,势必要求个人重新处理自己与其他个体之间的关系。为此,个人需要花费大量的时间与其他资源,而且很容易忽视其他的可能选择。从社会组织层面上说,将机器人视为人类同伴,不但需要社会组织花费大量的时间成本、人力成本,而且在文化层面上,也面临着很多挑战。

毫无疑问,新工具主义看到了工具主义的一些弊端,将机器人视为奴隶而非完全的工具无疑是一种进步,但它的立场本质上仍然是工具主义。从直观上说,这种立场与我们对一些事实的认识是相符的,比如机器人的确是由人类创造出来的,并且人类创造机器人的目的的确是为人类服务的,但这一事实并不意味着我们必须将机器人视为奴隶。布赖森认为人类应该将机器人视为奴隶,这是从人类整体的意义上考虑的,但是我们无法忽视在个体层面上,有人会将机器人视为朋友,并进而影响社会整体的判断。就像狗的地位一样,最初人类将狗当作捕猎或看家的工具,但是现在,越来越多的人倾向于认为狗是人类的朋友。布赖森认为将机器人视为人类的同伴会浪费很多资源,但这并非一个决定性理由。事实上,每个新事物在诞生初期,都会浪费很多资源,但是随着技术的进步以及社会的发展,这种资源的消耗与我们由之获得的便利相比,往往不值一提。由马车进化到汽车这一历史过程可以鲜明地证明这一点。因此,布赖森支持将机器人视为奴隶而非朋友的两点理由都不能成立。

从责任视角来看,布赖森的新工具主义还面临着很多问题。根据新工具主义,机器人的责任归属在它的生产方或操作方,因为机器人只是人类的奴隶,受人类的控制,它自己并不能承担责任。问题在于,如果简单地将责任归属于生产方或操作方,那么就像贡克尔所说的那样,“这将会导致工程师和生产商在发展技术和将技术商业化过程中,变得非常保守。因为他们需要保护自己免于追责”。[5]8更重要的是,人类善待他者,并不是同情心泛滥的表现,而是人作为感性动物的本质使然。将机器人当作奴隶,很有可能会影响人的价值判断,使得人类习惯于奴役他者,并最终给人类本身带来恶果。

04

机器伦理

机器伦理作为处理责任空白问题的第二种可能方案,主张将伦理规则植入到机器之中。当然,机器伦理所说的机器并不是普通的机器,而是指那些可以不依赖于人类控制、能自主决断的机器。人工智能机器人是其中的典型代表。机器伦理方案得到了很多人的支持,其中的典型代表有瓦拉赫(W.Wallach)、艾伦(C.Allen)、摩尔(JamesH.Moor)、麦克尔·安德森(MichaelAnderson)和苏珊·安德森(SusanL.Anderson)等人。我们以瓦拉赫和艾伦为例来考察机器伦理的核心观点。

瓦拉赫和艾伦认为,人类应该教会机器在正确与错误之间进行选择。[8]这是他们合著的《道德机器》一书的主题。在瓦拉赫和艾伦看来,将机器行为纳入人类伦理道德领域的考虑范围是不可回避的问题,因为有些机器的自主行为已经带有伦理属性,这些行为所产生的后果让我们不得不从伦理道德的角度思考它的合理性。瓦拉赫和艾伦的这个观点毫无疑问是合理的。随着科技的进步,机器自动化程度和智能化程度越来越高,人类必须要考虑机器行为可能带来的严重后果,它们有可能会给人类带来重大伤害。比如说,武器的人工智能化毫无疑问在战争中会带来大面积的伤亡,从人道主义的角度来看,设计这种武器不符合人道主义原则;情感机器人的出现在一定程度上可能会满足某些人的需求,但它可能会破坏现有的家庭伦理;大数据的发展会促进社会的进步,但它有时会侵犯人的隐私。所有这些机器的自主行为都有可能会涉及伦理道德问题。不论人类是否喜欢,自动化、智能化的机器已经在逐步进入人类社会,从伦理道德的角度思考机器的自主行为是不可避免的。

瓦拉赫和艾伦认为,我们必须从伦理道德角度思考机器自主行为的另一个重要原因在于,人类总是期望智能机器能够预先判断其行为后果可能带来的伤害,并据此调整自己的行为,这与人类对道德主体的要求一致。换句话说,人类已经不满足于机器只是按照固有的程序重复操作,而是要求智能机器能够对其行为后果有所考量。这无疑凸显了智能机器与非智能机器之间的不同。非智能机器也会对人类造成伤害,但它只是机械的重复操作,人类并不会将这类行为纳入伦理道德领域之中,就像人类并不会从伦理道德的视角思考自然灾害对人类的伤害一样。智能机器能够适时地调整自己的行为,这是智能机器的优势。比如说,智能无人驾驶汽车在面对危险时,可以选择保护乘客,也可以选择保护路上的行人,无人驾驶汽车具备自主判断的能力,人类也希望这样的智能机器能够做出合乎道德的判断。从这个视角来看,智能机器与道德主体更为相似。因此,瓦拉赫和艾伦认为,程序员在设计制造智能机器时,应设计出具备伦理道德判断能力的智能机器,以便智能机器的自主行为能够符合人类的道德判断标准。

麦克尔·安德森和苏珊·安德森的思考则更向前进一步,他们甚至认为,如果我们能够设计出符合道德规范的智能机器,那么我们有理由相信,这种机器在遵守伦理规范时比大多数人要表现得更好。[9]因为大多数人在他们的道德推理过程中,总是表现得不一致,尤其是涉及复杂的道德问题时,更是如此,但这些对于智能机器而言都不是问题。麦克尔·安德森和苏珊·安德森相信智能机器在处理道德问题时比人类更优秀,因为他们相信在计算与执行力方面,智能机器远远优于人类;他们还相信,一旦智能机器被嵌入伦理原则之后,那么它们在处理伦理问题时,不会遇到任何障碍。

沿着机器伦理的思路,如果这样的智能机器被创造出来,那么一个自然的倾向是,机器伦理学家们将会承认智能机器的道德主体地位。换句话说,机器伦理学家们会倾向于让智能机器本身承担它的行为责任。虽然在一些人为组织上,我们可以看到同样的理解思路,比如在对待公司问题上,很多国家的法律都已经赋予公司主体地位,但在考虑智能机器的道德问题时,仍然有很多问题值得我们思考。

首先,在伦理学界,学者们并没有确定哪些原则是伦理的基本原则。我们并不清楚到底是应该支持功利主义,还是义务论,抑或是德性伦理。即便从技术的角度来看,将伦理原则内置于智能机器之内是一件很容易的事情,我们也无法断定究竟应该选择哪一种原则。这意味着,如果我们选择通过确定道德原则以规范智能机器的自主行为这种方式来构造智能机器,那么机器伦理的支持者从一开始就会在实践领域中遇到决策上的困难。

其次,智能机器的核心是计算,将一些道德原则内置在智能机器之内,意味着程序员是通过计算的方式将道德原则具体化。问题在于,我们可能无法用计算的方法完全地将道德原则表达出来。因为在很多场景中,人类都是通过直觉来判断一个行为是否合乎道德,而并非通过一种理性的计算。直觉与计算的判断过程以及判断理由可以完全不同。不同场景下的电车难题很鲜明地体现了这一点。这意味着,通过计算获得道德判断能力的智能机器不可能总是获得与人类一致的道德判断结果,因而不可避免地会碰到道德领域之内的冲突。

再次,将智能机器设计成能够做出道德判断的样子,并不意味着智能机器真的能够进行道德判断,理解什么是道德行为。因为智能机器是通过遵守内置于其中的道德规则而做出行为判断。换句话说,智能机器的行为是根据规则而形成的,并不是出于它的自由意志。虽然从行为主义的视角来看,我们可以认为智能机器的行为在一定程度上符合人类的道德标准,但这并不意味着该智能机器一定是道德的。基于我们对道德行为的一般理解,一个行为之所以是道德的,往往是因为该道德主体在众多可能性之中,出于爱、同情等因素自由地选择执行某种符合伦理道德规范的行为。但如科克贝夫(MarkCoeckelbergh)所言,智能机器似乎并没有爱,也没有同情或担忧。[10]它的自主行为也不是完全的自主行为,而是在一定限度内符合规则的自主行为。

最后,机器伦理的支持者倾向于将智能机器视为道德主体,这意味着如果此智能机器做出的行为不符合社会道德规范,那么最后承担责任的应该是该智能机器。问题在于,要求机器担负其行为责任没有任何意义。因为机器只能是机器。至少就目前来看,在很长的一段时间内,它们都不会具备任何主体意识,不能成为完全意义上的主体。即便我们将此智能机器肢解破坏,也不能达到道德上的惩戒作用。因此,将智能机器当作道德主体最后的可能结果仍然是由生产者或设计者来承担相应的后果,而根据我们的探讨,这实际上并不符合我们对责任主体的理解。

05

混合方案

我们现在来讨论责任空白问题的第三种解决方案即混合方案。混合方案的核心主张是将责任问题从个体视角跳出来,从整体上思考责任问题。这种方案是一种折中方案,因为它并不主张完全由行为主体担负起人工智能的责任问题,也不主张完全由人工智能产品本身担负起其伦理道德责任问题,而是倾向于将行为主体与人工智能涉及的各相关方综合起来考虑人工智能可能带来的责任归属问题。

一般认为,道德责任的承担者即道德主体是人。支持混合方案的人不同意这一主张。在他们看来,将道德责任限制在人身上,是一种方法论上的个体主义(methodologicalindividualism),这种方法论上的个体主义已经无法满足社会发展的需求,他们期望采用整体论的视角来处理道德责任问题。汉森(F.A.Hanson)是混合方案的代表人物之一,以他的思想为例可以清楚地阐述混合方案的核心观点。

汉森试图通过区分三种不同的信息处理模式即口语模式、文本模式和自动模式来修改我们常用的主体概念。在汉森的这种区分中,前两种信息处理模式是人类处理信息的模式,后一种信息处理模式是人工智能的处理模式。在他看来,包含有自动信息处理模式的行动无法用人类的决定和倾向来解释,而必须用一种能够将人工智能考虑在内的行动者概念来分析。汉森称这种概念为“扩展的主体(extendedagency)”。[11]“扩展的主体”这一概念的提出,意味着行动主体不仅包括人类个体,还包括此行动涉及的他者以及其他非人类的实体。[12]92以学生在图书馆电脑里查找资料这一事件为例,我们可以清楚地发现扩展的主体理论与个体主义理论之间的差别。在个体主义理论看来,当学生在图书馆查找资料时,此任务的行动主体只是该名学生;但是在扩展的主体理论中,扩展的主体不但包含学生,还包括图书馆的数据系统以及电脑的软硬件等。

与扩展的主体这一概念相对应,汉森提出了联合责任(jointresponsibility)这一概念。利用联合责任这一概念,汉森试图向我们表明,当我们承认扩展的主体这一概念时,我们至少应该支持这一观点,即责任不仅适用于人类,也适用于非人类的个体。他写道:“如果行为的道德责任取决于从事该行为的主体,并且如果主体既包括人也包括非人,那么道德责任可能也是如此。”[12]93也就是说,责任的承担方不应只是个人或者某个个体,而应该是扩展的主体。因此,当某个伦理事件发生,所有与此伦理事件相关的扩展的主体都应当承担责任。比如说,在一个枪击事件中,受到指责的不但包括杀人犯,还应该包括杀人犯使用的手枪。

通过以上论述,我们可以总结混合方案的基本观点:(1)行为的主体不仅包括人,也包括非人的实体;(2)承担行为责任的是扩展的主体,既包括人,也包括非人。从直观上说,混合方案有些地方似乎是反直觉的,比如在枪击事件中,手枪似乎只是一个工具,但混合方案要求手枪也承担责任。汉森非常清楚这一点,他提醒我们,拿手枪的人和不拿手枪的人对于我们来说,是完全不同的。不可否认,汉森的观点是中肯的。面对拿手枪的人和不拿手枪的人,我们无疑会感觉到,前者的威胁更大。混合方案可以帮助我们解释这一点。

汉森主张利用混合方案解决人工智能领域中出现的责任空白问题,贡克尔对此提出了质疑。在他看来,混合方案至少有以下三个方面的问题:[5]12首先,混合方案仍然需要在扩展的主体中区分出哪些主体应该承担责任,哪些扩展的主体不能承担责任。也就是说,混合方案期望从整体论上考虑责任问题,但最后还是需要落实到具体的责任方之上。其次,在确定扩展主体责任方时,存在不同的分析模式,而不同的分析模式可能会导致不同的责任归属。最后,从混合方案的视角来看,一个事件的发生有可能会导致没有任何人、任何组织能承担其相应的责任,而这恰恰与我们的初衷相违背。

不可否认,贡克尔的质疑有其合理性,但这些质疑对于我们处理人工智能的相关问题而言,不会成为障碍。首先,混合方案要求我们从整体上考虑责任归属问题,只要我们最后能找出相关的责任方,贡克尔的第一个担忧就是没有必要的。其次,在考虑责任问题时,不同的分析方式的确可能会导致最后的责任归属有所不同,但只要我们规定了相应的分析原则,这种分析方式的差别应该不会成为障碍。在贡克尔举的例子中,有些低层官员为了逃避责任而宣称自己只是服从命令,而高层官员为了逃避责任则宣称下层官员的行为是自主的,面对这种冲突,我们只需要根据事实原则,核实低层官员的行为是服从命令还是自主行为便可判断其是否应该承担责任。最后,某种事件的发生的确有可能会导致没有任何人能够为该事件负责,但这并不是混合方案的问题,而是因为这种事件本身的特殊性,比如贡克尔所说的金融危机。在这种特殊的事件中,不但混合方案无法为这种事件指派责任方,其他方案也没有办法为其寻找合适的责任承担者。因此,我们不能因为这种特殊案例而否定混合方案在其他领域中的应用。

在新工具主义和机器伦理无法解决责任空白问题的情况下,混合方案似乎是唯一有希望的解决方案。不过,利用混合方案思考人工智能领域的责任归属问题,需要适当地修改扩展的主体和联合责任这两个概念。根据汉森的理解,扩展的主体可以延伸到非人的实体,比如他所说的软硬件、手枪等。理论上,我们可以支持这种理解;但是在实践领域,如果我们不能在这些扩展的主体背后寻找到人的因素,那么这种扩展没有太大的意义。因为在考虑联合责任问题时,我们只能为人指派责任。因为只有人才关心他所承担的责任。因此,当我们解决人工智能领域中的责任空白问题时,需要关注的是那些与人相关的扩展的主体。

就目前来看,在人工智能领域之中,人工智能消去的责任主体是个体主义理论中的个体主体,它并没有消除扩展主体理论中的所有主体。而根据混合方案的解释,如果人工智能产品引起了伦理道德问题,那么所有与之相关的扩展的主体都应担负起相关的责任。一般来说,一个人工智能产品至少与以下几种扩展的主体相关:设计者、生产方、检测机构、销售方、使用者等。因此,从混合方案来看,当人工智能产品出现某种问题需要有人为它的自主行为所造成的后果承担责任时,我们需要追究的是它的设计者、生产方、检测机构、销售方和使用者共同的联合责任。当然,至于他们各自应承担多大的责任,则是一个具体的经验判断问题。我们需要做的是,依据公正原则,根据不同类型的人工智能产品设计出不同的责任指派方案。

(感谢:匿名评审专家的审稿意见和我的同事杨庆峰给出的若干重要修改意见,让我完成此文的修改与完善,在此表示感谢。)

_

参考文献

_

[1][古希腊]亚里士多德.尼各马可伦理学[M].廖申白,译注.北京:商务印书馆,2009:71-77.

[2]GardnerJohn.TheMarkofResponsibility[J].OxfordJournalofLegalStudies,2003(2):157-171.

[3]MatthiasAndreas.TheResponsibilityGap:AscribingResponsibilityfortheActionsofLearningAutomata[J].EthicsandInformationTechnology,2001(6):175-183.

[4]孙伟平,戴益斌.关于人工智能主体地位的哲学思考[J].社会科学战线,2018(7):16-22.

[5]GunkelJDavid.MindtheGap:ResponsibleRoboticsandtheProblemofResponsibility[J].EthicsandInformationTechnology,2017(1):1-14.

[6]LyotardJ.ThePostmodernCondition:AReportonKnowledge[M].Minneapolis:UniversityofMinnesotaPress,1984:44.

[7]BrysonJJ.RobertShouldBeSlaves[M]//CloseEngagementswithArtificialCompanions.Amsterdam:JohnBenjamins,2010:63-74.

[8]WallachWendell,AllenColin.MoralMachines:TeachingRobotsRightfromWrong[M].Oxford:OxfordUniversityPress,2009.

[9]AndersonMichael,AndersonLSusan.TheStatusofMachineEthics:aReportfromtheAAAISymposium[J].MindandMachines,2007(1):1-10.

[10]CoeckelberghM.MoralAppearances:Emotions,Robots,andHumanMorality[J].EthicsandInformationTechnology,2010(3):235-241.

[11]HansonFA.TheNewSuperorganic[J].CurrentAnthropology,2004(4):467-482.

[12]HansonFA.BeyondtheSkinBag:ontheMoralResponsibilityofExtendedAgencies[J].EthicsandInformationTechnology,2009(11):91-99.

编辑:桂思琪

校对:刘洁返回搜狐,查看更多

人工智能伦理问题的现状分析与对策

0分享至

摘要:

人工智能(AI)是第四次产业革命的核心,但也为伦理道德规范和社会治理带来了挑战。文章在阐释当前人工智能伦理风险的基础上,分析了当前对人工智能伦理准则、治理原则和治理进路的一些共识,提出了以“共建共治共享”为指导理论,逐渐建设形成包含教育改革、伦理规范、技术支撑、法律规制、国际合作在内的多维度伦理治理体系等对策建议。

人工智能(AI)是第四次产业革命中的核心技术,得到了世界的高度重视。我国也围绕人工智能技术制定了一系列的发展规划和战略,大力推动了我国人工智能领域的发展。然而,人工智能技术在为经济发展与社会进步带来重大发展机遇的同时,也为伦理规范和社会法治带来了深刻挑战。

2017年,国务院印发的《新一代人工智能发展规划》提出“分三步走”的战略目标,掀起了人工智能新热潮,并明确提出要“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架”。

2018年,习近平总书记在主持中共中央政治局就人工智能发展现状和趋势举行的集体学习时强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。

2019年,我国新一代人工智能发展规划推进办公室专门成立了新一代人工智能治理专业委员会,全面负责开展人工智能治理方面政策体系、法律法规和伦理规范研究和工作推进。《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》中专门强调要“探索建立无人驾驶、在线医疗、金融科技、智能配送等监管框架,完善相关法律法规和伦理审查规则”。这些均体现了我国对人工智能伦理及其治理的密切关注程度和积极推进决心,同时也突出了这一问题的重要性。

1当前人工智能伦理问题

伦理是处理人与人之间关系、人与社会之间关系的道理和秩序规范。人类历史上,重大的科技发展往往带来生产力、生产关系及上层建筑的显著变化,成为划分时代的一项重要标准,也带来对社会伦理的深刻反思。

人类社会于20世纪中后期进入信息时代后,信息技术伦理逐渐引起了广泛关注和研究,包括个人信息泄露、信息鸿沟、信息茧房、新型权力结构规制不足等。

信息技术的高速变革发展,使得人类社会迅速迈向智能时代,其突出表现在带有认知、预测和决策功能的人工智能算法被日益广泛地应用在社会各个场景之中;前沿信息技术的综合运用,正逐渐发展形成一个万物可互联、万物可计算的新型硬件和数据资源网络,能够提供海量多源异构数据供人工智能算法分析处理;人工智能算法可直接控制物理设备,亦可为个人决策、群体决策乃至国家决策提供辅助支撑;人工智能可以运用于智慧家居、智慧交通、智慧医疗、智慧工厂、智慧农业、智慧金融等众多场景,还可能被用于武器和军事之中。

然而,迈向智能时代的过程如此迅速,使得我们在传统的信息技术伦理秩序尚未建立完成的情况下,又迫切需要应对更加富有挑战性的人工智能伦理问题,积极构建智能社会的秩序。

计算机伦理学创始人Moore将伦理智能体分为4类:

1.伦理影响智能体(对社会和环境产生伦理影响);

2.隐式伦理智能体(通过特定软硬件内置安全等隐含的伦理设计);

3.显示伦理智能体(能根据情势的变化及其对伦理规范的理解采取合理行动);

4.完全伦理智能体(像人一样具有自由意志并能对各种情况做出伦理决策)。

当前人工智能发展尚处在弱人工智能阶段,但也对社会和环境产生了一定的伦理影响。人们正在探索为人工智能内置伦理规则,以及通过伦理推理等使人工智能技术的实现中也包含有对伦理规则的理解。

近年来,越来越多的人呼吁要赋予人工智能机器一定的道德主体地位,但机器能否成为完全伦理智能体存在巨大的争议。尽管当前人工智能在一些场景下的功能或行为与人类接近,但实则并不具有“自由意志”。从经典社会规范理论来看,是否能够成为规范意义上的“主体”来承担责任,并不取决于其功能,而是以“自由意志”为核心来构建的。黑格尔的《法哲学原理》即以自由意志为起点展开。因此,当前阶段对人工智能伦理问题的分析和解决路径构建应主要围绕着前3类伦理智能体开展,即将人工智能定性为工具而非主体。

当前阶段,人工智能既承继了之前信息技术的伦理问题,又因为深度学习等一些人工智能算法的不透明性、难解释性、自适应性、运用广泛等特征而具有新的特点,可能在基本人权、社会秩序、国家安全等诸多方面带来一系列伦理风险。

例如:

1.人工智能系统的缺陷和价值设定问题可能带来公民生命权、健康权的威胁。2018年,Uber自动驾驶汽车在美国亚利桑那州发生的致命事故并非传感器出现故障,而是由于Uber在设计系统时出于对乘客舒适度的考虑,对人工智能算法识别为树叶、塑料袋之类的障碍物做出予以忽略的决定。

2.人工智能算法在目标示范、算法歧视、训练数据中的偏失可能带来或扩大社会中的歧视,侵害公民的平等权。

3.人工智能的滥用可能威胁公民隐私权、个人信息权。

4.深度学习等复杂的人工智能算法会导致算法黑箱问题,使决策不透明或难以解释,从而影响公民知情权、程序正当及公民监督权。

5.信息精准推送、自动化假新闻撰写和智能化定向传播、深度伪造等人工智能技术的滥用和误用可能导致信息茧房、虚假信息泛滥等问题,以及可能影响人们对重要新闻的获取和对公共议题的民主参与度;虚假新闻的精准推送还可能加大影响人们对事实的认识和观点,进而可能煽动民意、操纵商业市场和影响政治及国家政策。剑桥分析公司利用Facebook上的数据对用户进行政治偏好分析,并据此进行定向信息推送来影响美国大选,这就是典型实例。

6.人工智能算法可能在更不易于被察觉和证明的情况下,利用算法歧视,或通过算法合谋形成横向垄断协议或轴辐协议等方式,破坏市场竞争环境。

7.算法决策在社会各领域的运用可能引起权力结构的变化,算法凭借其可以处理海量数据的技术优势和无所不在的信息系统中的嵌入优势,对人们的权益和自由产生显著影响。例如,银行信贷中通过算法进行信用评价将影响公民是否能获得贷款,刑事司法中通过算法进行社会危害性评估将影响是否进行审前羁押等,都是突出的体现。

8.人工智能在工作场景中的滥用可能影响劳动者权益,并且人工智能对劳动者的替代可能引发大规模结构性失业的危机,带来劳动权或就业机会方面的风险。

9.由于人工智能在社会生产生活的各个环节日益广泛应用,人工智能系统的漏洞、设计缺陷等安全风险,可能引发个人信息等数据泄露、工业生产线停止、交通瘫痪等社会问题,威胁金融安全、社会安全和国家安全等。

10.人工智能武器的滥用可能在世界范围内加剧不平等,威胁人类生命与世界和平……

人工智能伦理风险治理具有复杂性,尚未形成完善的理论架构和治理体系。

1.人工智能伦理风险的成因具有多元性,包括人工智能算法的目标失范、算法及系统缺陷、受影响主体对人工智能的信任危机、监管机制和工具欠缺、责任机制不完善、受影响主体的防御措施薄弱等。

2.人工智能技术和产业应用的飞速发展,难以充分刻画和分析其伦理风险及提供解决方案。这要求我们必须克服传统规范体系的滞后性,而采用“面向未来”的眼光和方法论,对人工智能的设计、研发、应用和使用中的规范框架进行积极思考和构建,并从确立伦理准则等软法开始,引领和规范人工智能研发应用。

关于人工智能的发展,我们既不能盲目乐观,也不能因噎废食,要深刻认识到它可以增加社会福祉的能力。因此,在人类社会步入智能时代之际,必须趁早从宏观上引导人工智能沿着科学的道路前行,对它进行伦理反思,识别其中的伦理风险及其成因,逐步构建科学有效的治理体系,使其更好地发挥积极价值。

2人工智能伦理准则、治理原则及进路

当前全球人工智能治理还处于初期探索阶段,正从形成人工智能伦理准则的基本共识出发,向可信评估、操作指南、行业标准、政策法规等落地实践逐步深入,并在加快构建人工智能国际治理框架体系。

伦理准则

近几年来,众多国家、地区、国际和国内组织、企业均纷纷发布了人工智能伦理准则或研究报告。据不完全统计,相关人工智能伦理准则已经超过40项。除文化、地区、领域等因素引起的差异之外,可以看到目前的人工智能伦理准则已形成了一定的社会共识。

近年来,中国相关机构和行业组织也非常积极活跃参与其中。例如:2018年1月,中国电子技术标准化研究院发布了《人工智能标准化白皮书(2018版)》,提出人类利益原则和责任原则作为人工智能伦理的两个基本原则;2019年5月,《人工智能北京共识》发布,针对人工智能的研发、使用、治理3个方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和社会发展的15条原则;2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能发展的8项原则,勾勒出了人工智能治理的框架和行动指南;2019年7月,上海市人工智能产业安全专家咨询委员会发布了《人工智能安全发展上海倡议》;2021年9月,中关村论坛上发布由国家新一代人工智能治理专业委员会制定的《新一代人工智能伦理规范》等。从发布内容上看,所有准则在以人为本、促进创新、保障安全、保护隐私、明晰责任等价值观上取得了高度共识,但仍有待继续加深理论研究和论证,进一步建立共识。

治理原则

美国、欧洲、日本等国家和地区在大力推动人工智能技术和产业发展的同时,高度重视人工智能的安全、健康发展,并将伦理治理纳入其人工智能战略,体现了发展与伦理安全并重的基本原则。

习近平总书记高度重视科技创新领域的法治建设问题,强调“要积极推进国家安全、科技创新、公共卫生、生物安全、生态文明、防范风险、涉外法治等重要领域立法以良法善治保障新业态新模式健康发展”。

近年来,我国在应对新技术新业态的规制和监管方面,形成了“包容审慎”的总体政策。这项基本政策在2017年就已正式提出。在2020年1月1日起实施的《优化营商环境条例》第55条中更是专门规定了“包容审慎”监管原则:“政府及其有关部门应当按照鼓励创新的原则,对新技术、新产业、新业态、新模式等实行包容审慎监管,针对其性质、特点分类制定和实行相应的监管规则和标准,留足发展空间,同时确保质量和安全,不得简单化予以禁止或者不予监管。”这为当前人工智能伦理治理提供了基本原则和方法论。

一方面,要注重观察,认识到新技术新事物往往有其积极的社会意义,亦有其发展完善的客观规律,应予以一定空间使其能够发展完善,并在其发展中的必要之处形成规制方法和措施。

另一方面,要坚守底线,包括公民权利保护的底线、安全的底线等。对于已经形成高度社会共识、凝结在法律之中的重要权益、价值,在执法、司法过程中都要依法进行保护。这既是法律对相关技术研发者和使用者的明确要求,也是法律对于在智能时代保护公民权益、促进科技向善的郑重承诺。

治理进路

在人工智能治理整体路径选择方面,主要有两种理论:“对立论”和“系统论”。

“对立论”主要着眼于人工智能技术与人类权利和福祉之间的对立冲突,进而建立相应的审查和规制制度。在这一视角下,一些国家和机构重点关注了针对人工智能系统本身及开发应用中的一些伦理原则。例如,2020年《人工智能伦理罗马倡议》中提出7项主要原则——透明、包容、责任、公正、可靠、安全和隐私,欧盟委员会于2019年《可信赖人工智能的伦理指南》中提出人工智能系统全生命周期应遵守合法性、合伦理性和稳健性3项要求,都体现了这一进路。

“系统论”则强调人工智能技术与人类、其他人工代理、法律、非智能基础设施和社会规范之间的协调互动关系。人工智能伦理涉及一种社会技术系统,该系统在设计时必须注意其不是一项孤立的技术对象,而是需要考虑它将要在怎样的社会组织中运作。我们可以调整的不仅仅是人工智能系统,还有在系统中与之相互作用的其他要素;在了解人工智能运作特点的基础上,可以在整个系统内考虑各个要素如何进行最佳调配治理。当前在一些政策和法规中已有一定“系统论”进路的体现。例如,IEEE(电气与电子工程师协会)发布的《合伦理设计》中提出的8项原则之一即为“资质”(competence),该原则提出系统创建者应明确对操作者的要求,并且操作者应遵守安全有效操作所需的知识和技能的原则,这体现了从对使用者要求的角度来弥补人工智能不足的系统论视角,对智能时代的教育和培训提出了新需求。

我国国家新一代人工智能治理专业委员会2019年发布的《新一代人工智能治理原则——发展负责任的人工智能》中,不仅强调了人工智能系统本身应该符合怎样的伦理原则,而且从更系统的角度提出了“治理原则”,即人工智能发展相关各方应遵循的8项原则;除了和谐友好、尊重隐私、安全可控等侧重于人工智能开放和应用的原则外,还专门强调了要“改善管理方式”,“加强人工智能教育及科普,提升弱势群体适应性,努力消除数字鸿沟”,“推动国际组织、政府部门、科研机构、教育机构、企业、社会组织、公众在人工智能发展与治理中的协调互动”等重要原则,体现出包含教育改革、伦理规范、技术支撑、法律规制、国际合作等多维度治理的“系统论”思维和多元共治的思想,提供了更加综合的人工智能治理框架和行动指南。基于人工智能治理的特殊性和复杂性,我国应在习近平总书记提出的“打造共建共治共享的社会治理格局”的指导下,系统性地思考人工智能的治理维度,建设多元共治的人工智能综合治理体系。

3我国人工智能伦理治理对策

人工智能伦理治理是社会治理的重要组成部分。我国应在“共建共治共享”治理理论的指导下,以“包容审慎”为监管原则,以“系统论”为治理进路,逐渐建设形成多元主体参与、多维度、综合性的治理体系。

教育改革

教育是人类知识代际传递和能力培养的重要途径。通过国务院、教育部出台的多项措施,以及联合国教科文组织发布的《教育中的人工智能:可持续发展的机遇与挑战》、《人工智能与教育的北京共识》等报告可以看到,国内外均开始重视教育的发展改革在人工智能技术发展和应用中有着不可或缺的作用。

为更好地支撑人工智能发展和治理,应从4个方面进行完善:

1.普及人工智能等前沿技术知识,提高公众认知,使公众理性对待人工智能;

2.在科技工作者中加强人工智能伦理教育和职业伦理培训;

3.为劳动者提供持续的终身教育体系,应对人工智能可能引发的失业问题;

4.研究青少年教育变革,打破工业化时代传承下来的知识化教育的局限性,回应人工智能时代对人才的需求。

伦理规范

我国《新一代人工智能发展规划》中提到,“开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架”。同时,还需制定人工智能产品研发设计人员及日后使用人员的道德规范和行为守则,从源头到下游进行约束和引导。

当前有5项重点工作可以开展:

1.针对人工智能的重点领域,研究细化的伦理准则,形成具有可操作性的规范和建议。

2.在宣传教育层面进行适当引导,进一步推动人工智能伦理共识的形成。

3.推动科研机构和企业对人工智能伦理风险的认知和实践。

4.充分发挥国家层面伦理委员会的作用,通过制定国家层面的人工智能伦理准则和推进计划,定期针对新业态、新应用评估伦理风险,以及定期评选人工智能行业最佳实践等多种方式,促进先进伦理风险评估控制经验的推广。

5.推动人工智能科研院所和企业建立伦理委员会,领导人工智能伦理风险评估、监控和实时应对,使人工智能伦理考量贯穿在人工智能设计、研发和应用的全流程之中。

技术支撑

通过改进技术而降低伦理风险,是人工智能伦理治理的重要维度。当前,在科研、市场、法律等驱动下,许多科研机构和企业均开展了联邦学习、隐私计算等活动,以更好地保护个人隐私的技术研发;同时,对加强安全性、可解释性、公平性的人工智能算法,以及数据集异常检测、训练样本评估等技术研究,也提出了很多不同领域的伦理智能体的模型结构。当然,还应完善专利制度,明确算法相关发明的可专利性,进一步激励技术创新,以支撑符合伦理要求的人工智能系统设计。

此外,一些重点领域的推荐性标准制定工作也不容忽视。在人工智能标准制定中,应强化对人工智能伦理准则的贯彻和支撑,注重对隐私保护、安全性、可用性、可解释性、可追溯性、可问责性、评估和监管支撑技术等方面的标准制定,鼓励企业提出和公布自己的企业标准,并积极参与相关国际标准的建立,促进我国相关专利技术纳入国际标准,帮助我国在国际人工智能伦理准则及相关标准制定中提升话语权,并为我国企业在国际竞争中奠定更好的竞争优势。

法律规制

法律规制层面需要逐步发展数字人权、明晰责任分配、建立监管体系、实现法治与技术治理有机结合。在当前阶段,应积极推动《个人信息保护法》《数据安全法》的有效实施,开展自动驾驶领域的立法工作;并对重点领域的算法监管制度加强研究,区分不同的场景,探讨人工智能伦理风险评估、算法审计、数据集缺陷检测、算法认证等措施适用的必要性和前提条件,为下一步的立法做好理论和制度建议准备。

国际合作

当前,人类社会正步入智能时代,世界范围内人工智能领域的规则秩序正处于形成期。欧盟聚焦于人工智能价值观进行了许多研究,期望通过立法等方式,将欧洲的人权传统转化为其在人工智能发展中的新优势。美国对人工智能标准也尤为重视,特朗普于2019年2月发布“美国人工智能计划”行政令,要求白宫科技政策办公室(OSTP)和美国国家标准与技术研究院(NIST)等政府机构制定标准,指导开发可靠、稳健、可信、安全、简洁和可协作的人工智能系统,并呼吁主导国际人工智能标准的制定。

我国在人工智能科技领域处于世界前列,需要更加积极主动地应对人工智能伦理问题带来的挑战,在人工智能发展中承担相应的伦理责任;积极开展国际交流,参与相关国际管理政策及标准的制定,把握科技发展话语权;在最具代表性和突破性的科技力量中占据发展的制高点,为实现人工智能的全球治理作出积极贡献。

作者:张兆翔1、张吉豫2、谭铁牛1*,3

1中国科学院自动化研究所

2中国人民大学法学院

3中国科学院院士

基金项目:中国科学院学部科技伦理研究项目(XBKJLL2018001)

本文转载自微信公众号中国科学院院刊,原载于《中国科学院院刊》2021年11期

产业|工业化|数字化|人才|创新创业|颠覆性技术|科技指标|科技政策|前沿技术|知识产权|智库|

获取方法如下:

其他系列将陆续呈现,多多关注哦!

投稿邮箱:nais-research@cnais.org.cn

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.

/阅读下一篇/返回网易首页下载网易新闻客户端

郭锐:人工智能的伦理问题与治理原则

图片来源:摄图网

人工智能伦理在公众讨论中最有名的雏形,来自科幻小说作者阿西莫夫提出的机器人三定律。今天我们知道,阿西莫夫机器人三定律并不能一劳永逸地建立对人工智能的合理约束,但它的真正价值是提出了一个可能性。这个可能性就是我们所创造的技术——在处理某些问题上比我们要迅速,在机械、物理力量上要比我们强的“自主”决策主体——不仅不会伤害人类,反而能够造福人类社会。三定律所要处理的核心问题是人的主体性问题,这也是探讨人工智能伦理和治理的核心问题。关于人工智能伦理和治理,无论是算法决策相关的问题、数据与隐私相关的问题和社会影响相关的问题,都关涉人的主体性问题。

从人工智能现有能力/技术潜力与它给人类社会带来的负面后果的角度来看,会产生两大类问题:1.人工智能被委以对人类事务做决策的能力,但它对决策结果的伦理判断能力不足;2.人类缺乏引导人工智能发挥作用的终极伦理准则。

第一类问题来自我们对人工智能系统对其决策结果的伦理意义缺乏判断的忧虑。人工智能往往被用来解决一个具体问题,而且只能通过已有的有限数据来作出决策,往往无法像人一样理解更广的社会和伦理语境。故此,我们对人工智能缺乏对决策后果的伦理意义的认知有恐惧,这是完全可以理解的。当人工智能决策的后果涉及一个结果和另外一个结果之间的比较时,往往造成难以预料的后果。例如,人可能给人工智能系统一个获取食物的指令,结果这个系统却杀死了人的宠物。这是因为人工智能对某个结果的伦理意义无法完全理解,以致于错误地执行了指令。我们对人工智能对决策结果的伦理判断能力不足的忧虑,在人工智能技术本身缺乏透明度(黑箱问题)时就更加严重了。人工智能采纳的机器学习往往因为算法(例如机器学习)和算力限制的原因,无法回溯机器作出决定的具体机制。无法回溯会带来我们在事先预测后果和事后作出纠正的能力的局限,导致我们在决定是否应用人工智能技术的问题上踌躇不决。

第二类问题来自我们对人工智能的潜力的忧虑。人工智能可能成为人类全部决定的参与和影响者,但我们尚且不知道没有任何已知的伦理准则能指引上述行为。人类创造的“上帝”无力护理这个世界,这让我们恐惧震惊。我们担心随着人工智能的发展,它会导致已有的社会问题进一步恶化,同时可能带来新的社会问题。

从上述前提出发,笔者从目的、手段两个层面提出思考人工智能伦理(嵌入机器的伦理)的两个基本方向:技术必须促进人类的善(体现在人的根本利益原则);在越来越发达的机器的自主性背景下确认人的主体性(体现在责任原则)。换言之,认识到新的技术本身的特征和它的潜在社会影响,我们看到人工智能伦理要强调:(1)人可以利用人工智能得到更大的能力(行善/伤害),因此有更大的责任,所以应当更加强调归责性;(2)人工智能则必须服从人类设定的伦理规则。这也是《人工智能标准化白皮书(2018)》中提出了人工智能设计和应用中应遵循的两个基本原则的基本依据。违反人的根本利益原则的人工智能,无论是用来欺诈顾客的营销算法、用于司法造成歧视部分公民的司法决策系统,还是对个人信息的过度收集和滥用,都违反人工智能伦理原则。

图片来源:摄图网

根据人工智能伦理风险的具体性质与特征,可从算法、数据和应用三个方面度来梳理人工智能的风险。对伦理风险的治理,需要立法和政策明确各相关主体的责任,包括信息提供者、信息处理者和系统协调者。此外,人工智能还可能对社会产生远期发展的风险,如对既有的就业、市场竞争秩序、产权等法律制度的挑战,甚至生产方式的根本变革,这些我们将其归入长期和间接的伦理风险之中。

算法方面

算法方面的风险主要包括算法安全问题、算法可解释性问题、算法歧视问题和算法决策困境问题。算法安全问题产生于算法漏洞被黑客攻击和恶意利用的挑战,同时算法从设计、训练到使用中面临可信赖性问题和算法随时可用对可靠性带来挑战。

算法可解释性涉及人类的知情利益和主体地位,对人工智能的长远发展意义重大。国务院颁布《新一代人工智能发展规划》,同时,潘云鹤院士提到人工智能应用的一个需要关注的问题是算法的不可解释性。算法可解释性问题在国外也引起媒体和公众的关注。例如,电气和电子工程师协会(IEEE)在2016年和2017年连续推出的《人工智能设计的伦理准则》白皮书,在多个部分都提出了对人工智能和自动化系统应有解释能力的要求。美国计算机协会美国公共政策委员会在2017年年初发布了《算法透明性和可问责性声明》,提出了七项基本原则,其中一项即为“解释”,希望鼓励使用算法决策的系统和机构,对算法的过程和特定的决策提供解释。2017年,美国加州大学伯克利分校发布了《对人工智能系统挑战的伯克利观点》,从人工智能的发展趋势出发,总结了九项挑战和研究方向。其中之一,即第三项,就是要发展可解释的决策,使人们可以识别人工智能算法输入的哪些特性引起了某个特定的输出结果。

与可解释性问题常常同时出现的是算法歧视问题,即在看似中立的算法中,由于算法的设计者的认知存在某种偏见,或者训练算法使用了有问题的数据集等原因,带来了人工智能系统决策出现带有歧视性的结果。这类例子媒体时有报道,例如在金融领域“降低弱势群体的信贷得分”、“拒绝向‘有色人种’贷款”、“广告商更倾向于将高息贷款信息向低收入群体展示”等。

算法歧视主要分为“人为造成的歧视”“数据驱动的歧视”与“机器自我学习造成的歧视”三类。人为造成的歧视,是指由于人为原因而使算法将歧视或偏见引入决策过程中。数据驱动造成的歧视,是指由于原始训练数据存在偏见性,而导致算法执行时将歧视带入决策过程中。算法本身不会质疑其所接收到的数据,只是单纯地寻找、挖掘数据背后隐含的模式或者结构。如果数据一开始就存在某种选择上的偏见或喜好,那么算法会获得类似于人类偏见的输出结果。机器自我学习造成的歧视,是指机器在学习的过程中会自我学习到数据的多维不同特征,即便不是人为地赋予数据集某些特征,或者程序员或科学家刻意避免输入一些敏感的数据,但是机器在自我学习的过程中,仍然会学习到输入数据的其它特征,从而将某些偏见引入到决策过程中,这就是机器自我学习造成的歧视。

算法决策困境源于人工智能自学习能力导致的算法结果的不可预见性。为此要减少或杜绝算法决策困境,除了提高算法的可解释性,还可以引入相应的算法终结机制。

图片来源:摄图网

数据方面

数据方面的风险主要包括侵犯隐私的风险和个人敏感信息识别与保护的风险。在现代社会,隐私保护是信任和个人自由的根本,同时也是人工智能时代维持文明与尊严的基本方式。人工智能时代下侵犯隐私的风险更大,受害者也更多。

传统法律规范对隐私的保护集中于对个人在私人领域、私人空间活动的保护,以及个人私密的、非公开的信息保护。在个人信息的基础之上,法律规范区分普通个人信息和个人敏感信息。法律通常对个人敏感信息予以更高的保护,例如对个人敏感信息的处理需要基于个人信息主体的明示同意,或重大合法利益或公共利益的需要等,严格限制对个人敏感信息的自动化处理,并要求对其进行加密存储或采取更为严格的访问控制等安全保护措施。个人敏感信息在授权同意范围外扩散,或者个人信息的扩散超出收集、使用个人信息的组织和机构控制范围,以及使用者超出授权使用(如变更处理目的、扩大处理范围等),都可能对个人信息主体权益带来重大风险。

人工智能技术的应用极大地扩展了个人信息收集的场景、范围和数量。图像识别、语音识别、语义理解等人工智能技术实现海量非结构化数据的采集,而人工智能与物联网设备的结合丰富了线下数据采集的场景。例如,家用机器人、智能冰箱、智能音箱等各种智能家居设备走进人们的客厅、卧室,实时地收集人们的生活习惯、消费偏好、语音交互、视频影像等信息;各类智能助手在为用户提供更加便捷服务的同时,也在全方位地获取和分析用户的浏览、搜索、位置、行程、邮件、语音交互等信息;支持面部识别的监控摄像头,可以在公共场合且个人毫不知情的情况下,识别个人身份并实现对个人的持续跟踪。这些都需要法律进一步地规范。

图片来源:摄图网

社会方面

与社会相关的伦理问题主要包括算法滥用和误用。算法滥用和误用是指人们利用算法进行分析、决策、协调、组织等一系列活动中,其使用目的、使用方式、使用范围等出现偏差并引发不良影响或不利后果的情况。例如,人脸识别算法能够提高治安水平、加快发现犯罪嫌疑人的速度等,但是如果把人脸识别算法应用于发现潜在犯罪人或者根据脸型判别某人是否存在犯罪潜质,就属于典型的算法滥用。由于人工智能系统的自动化属性,算法滥用将放大算法所产生的错误效果,并不断强化成为一个系统的重要特征。

算法滥用主要由算法设计者出于经济利益或者其他动机的操纵行为、平台和使用者过度依赖算法、将算法的应用盲目拓展到算法设计未曾考虑的领域等。电商平台算法设计者推荐不符合用户利益的产品,或者娱乐平台为了自身的商业利益对用户的娱乐或信息消费行为进行诱导、导致用户沉迷等,都是算法设计者操纵行为的展现。在医疗领域过度依赖人工智能平台的读图诊断,导致误诊,以及在安防领域和犯罪误判导致的问题,都直接关系到公民的人身安全与自由。

应当注意的是,与社会相关的伦理问题有如下特性:其一,它们与个人切身利益密切相关,如算法应用在犯罪评估、信用贷款、雇佣评估等关切人身利益的场合,对个人切身利益的影响广泛。其二,它们带来的问题通常难以短时间应对,例如深度学习是一个典型的“黑箱”算法,如果深度学习为基础建立的模型存在歧视,应对时难以查清原因。其三,在商业应用中出现这类问题时,由于资本的逐利性,公众权益容易受到侵害。

2

人工智能治理原则与实践

人工智能技术的特质及其伦理挑战,给社会的治理带来了问题。传统上,治理所预设能够遵循规则的主体(Agent),也就是人本身。今天我们认识到人工智能的特征在于其高度的自主性,即其决策不再需要操控者进一步的指令,考虑到这种决策可能会产生人类预料不到的结果,人工智能技术的设计者和应用者必须在人工智能技术研发、应用的各个环节贯彻伦理原则,以实现对人工智能的有效治理。

在传统技术领域,常见的防止损害的方式是在造成伤害之后进行干预。但是,等待人工智能系统造成伤害之时才考虑干预,很多时候为时已晚。一个更好的方法是将即时和持续的伦理风险评估和合规体系建设作为系统运行的一个组成部分,即时和持续评估人工智能系统是否存在伦理风险、并在损害产生之前以及损害不大的时候就通过合规体系进行处理。即时和持续的风险评估对于人工智能系统的保障要比按下“紧急按钮”要有效得多。

故此,我们在讨论人工智能治理应遵循的思路和逻辑时,必须警醒行业自律的有限性和立法的滞后性。如阿西莫夫等科技伦理的思想者所意识到的,必须将伦理在技术层面就进行明确,才能保证治理的有效性。构建人工智能的伦理标准是治理不可或缺的一面。此外,根据法律和政策本身的特征来制定法律、完善政策、设立管制机构,也是治理必须执行的方法。

图片来源:摄图网

国内外人工智能治理方面的探索值得我们关注和借鉴。例如,欧盟通过对机器人规制体现了依据人工智能伦理来设计治理体系的前沿探索。美国于2016年出台的战略文件就提出要理解并解决人工智能的伦理、法律和社会影响。英国政府曾在其发布的多份人工智能报告中提出应对人工智能的法律、伦理和社会影响,最为典型的是英国议会于2018年4月发出的长达180页的报告《英国人工智能发展的计划、能力与志向》。

联合国于2017年9月发布《机器人伦理报告》,建议制定国家和国际层面的伦理准则。电气和电子工程师协会(InstituteofElectricalandElectronicsEngineers,IEEE)于2016年启动“关于自主/智能系统伦理的全球倡议”,并开始组织人工智能设计的伦理准则。在未来生命研究所(futureoflifeinstitute,FLI)主持下,近4000名各界专家签署支持23条人工智能基本原则。

我国也在这个方面开展了探索与实践。2017年发布的《新一代人工智能发展规划》提出了中国的人工智能战略,制定促进人工智能发展的法律法规和伦理规范作为重要的保证措施被提了出来。2018年1月18日,在国家人工智能标准化总体组、专家咨询组的成立大会上发布了《人工智能标准化白皮书(2018)》。白皮书论述了人工智能的安全、伦理和隐私问题,认为设定人工智能技术的伦理要求,要依托于社会和公众对人工智能伦理的深入思考和广泛共识,并遵循一些共识原则。

人工智能技术的开发和应用深刻地改变着人类的生活,不可避免地会冲击现有的伦理与社会秩序,引发一系列问题。这些问题可能表现为直观的短期风险,如算法漏洞存在安全隐患、算法偏见导致歧视性政策的制定等,也可能相对间接和长期,如对产权、竞争、就业甚至社会结构的影响。尽管短期风险更具体可感,但长期风险所带来的社会影响更为广泛而深远,同样应予重视。

人工智能技术的日新月异与治理体系相对稳定性之间不可避免地存在矛盾,这需要我们明确应对人工智能的基本原则。在国际范围内比较,人工智能伦理基本原则以2017年1月在阿西洛马召开的“有益的人工智能”(BeneficialAI)会议提出的“阿西洛马人工智能原则”(AsilomarAIPrinciples),以及电气和电子工程师协会(IEEE)组织开展的人工智能伦理标准的工作受到了最多的关注。此前,各国也提出了机器人原则与伦理标准。作者认为,我国人工智能的研究和应用应遵循两个人工智能伦理基本原则,即人的根本利益原则和责任原则。

图片来源:摄图网

人的根本利益原则(ThePrincipleofFundamentalInterestsofHumanPerson)

人的根本利益原则,即人工智能应以实现人的根本利益为终极目标。这一原则体现对人权的尊重、对人类和自然环境利益最大化以及降低技术风险和对社会的负面影响。人的根本利益原则要求:

(1)在对社会的影响方面,人工智能的研发与应用以促进人类向善为目的(AIforgood),这也包括和平利用人工智能及相关技术,避免致命性人工智能武器的军备竞赛。

(2)在人工智能算法方面,人工智能的研发与应用应符合人的尊严,保障人的基本权利与自由;确保算法决策的透明性,确保算法设定避免歧视;推动人工智能的效益在世界范围内公平分配,缩小数字鸿沟。

(3)在数据使用方面,人工智能的研发与应用要关注隐私保护,加强个人数据的控制,防止数据滥用。

责任原则(ThePrincipleofResponsibility)

责任原则,即在人工智能相关的技术开发和应用两方面都建立明确的责任体系,以便在人工智能应用结果导致人类伦理或法律的冲突问题时,人们能够从技术层面对人工智能技术开发人员或设计部门问责,并在人工智能应用层面建立合理的责任体系。在责任原则下,在人工智能技术开发方面应遵循透明度原则;在人工智能技术应用方面则应当遵循权责一致原则。

透明度原则

透明度原则要求人工智能的设计中,保证人类了解自主决策系统的工作原理,从而预测其输出结果,即人类应当知道人工智能如何以及为何做出特定决定。透明度原则的实现有赖于人工智能算法的可解释性(explicability)、可验证性(verifiability)和可预测性(predictability)。

图片来源:摄图网

权责一致原则

权责一致原则,是指在人工智能的设计和应用中应当保证问责的实现,这包括:在人工智能的设计和使用中留存相关的算法、数据和决策的准确记录,以便在产生损害结果时能够进行审查并查明责任归属。权责一致原则的实现需要建立人工智能算法的公共审查制度。公共审查能提高相关政府、科研和商业机构采纳的人工智能算法被纠错的可能性。合理的公共审查能够保证一方面必要的商业数据应被合理记录、相应算法应受到监督、商业应用应受到合理审查,另一方面商业主体仍可利用合理的知识产权或者商业秘密来保护本企业的利益。

应当明确,我们所说的人工智能伦理原则,不仅应当由人工智能系统的研发和应用的人类主体遵守(包括在研究机构、行业领域的科技企业和科技工作者),而且这些原则应当嵌入人工智能系统本身。机器如何遵循伦理规则这一点,有人仍有质疑。典型的看法是,伦理规则只是给人的,没有可能给人工智能系统(包括机器人)设定伦理规则。的确,传统上伦理原则所针对的是能够遵循这些原则的主体(Agent)也就是人本身。但是,考虑到人工智能的特征在于机器对人的智能的“模拟、延伸和扩展”,即其决策不需要操控者一步步的指令,同时这种决策可能会产生人类预料不到的结果,人工智能系统也应当受到伦理规则的规制。

3

结论

社会必须信任人工智能技术能够给人带来的利益大于伤害,才有可能支持继续发展人工智能。而这种信任,需要我们认识和探讨人工智能领域的伦理和治理问题,并且在发展人工智能技术发展的早期就有意识地加以运用。今天学者、科技工作者和社会已经有基本共识,就是负责人工智能系统的研发和应用的人类主体,包括在研究机构、行业领域的科技企业和科技工作者,应当服从一些基本的伦理原则。本文提出的两个基本伦理原则,是国内在这方面思考的总结和升华。除了人工智能的基本伦理原则,前人给我们的另一个启发是人工智能伦理应该嵌入系统本身。当我们越来越依赖于机器人代替我们作出决策时,我们应当在这个决策过程中嵌入伦理思考,而不是等待决策结果已经给我们带来负面影响之后再去纠正。

本文希望用一种更清醒的眼光去看待人工智能伦理和治理问题。学者和公众需要一起探讨:我们有没有可能防止人工智能给个人和社会带来的损害?只有在这个问题得到更深入的思考和妥善解决的时候,人工智能的发展才有真正的基础。

本文转载自:法理杂志(ID:ratiojuris)

✕返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇