博舍

魏屹东:发展人工智能引发的六大哲学伦理学问题 人工智能引发的哲学问题包括哪些

魏屹东:发展人工智能引发的六大哲学伦理学问题

魏屹东:发展人工智能引发的六大哲学伦理学问题

发布时间:2019-05-29

 文章来源:《南国学术》2019年第2期

【摘要】人工智能的发展,对社会产生了巨大冲击,从而引发了人们对它的种种忧虑和反思。从哲学视角看,机器自身是否能拥有智能,是否具有人一样的思维,功能主义能否说明机器意识,生物自然主义能否驳倒功能主义理论,对意识和感受性的解释是否存在解释鸿沟,这些问题发人深思。哲学问题表明,机器拥有智能、能够思维意味着“机器中的幽灵”观点的复兴,这就回到了笛卡尔关于物质与心灵独立存在的二元论上,但“幽灵是如何进入机器的”问题,二元论无法说明。功能主义试图从中介因果性给出机器意识的一种功能说明,认为任何两个系统,只要它们具有同构的因果过程,它们就应该具有相同的心理状态。而生物自然主义则坚决反对这种观点,认为心理状态是高层次的涌现特征,它由低层次的神经元中的生理物理过程引起,机器不具有生物功能,当然不可能有意识,也就不可能有理解和思维。其实,机器是否有“智能”,与机器是否“理解”是不同层次的问题,这就看如何定义“智能”和如何去理解了。显然,这些问题的核心是意识问题,即能否用物理状态解释心理状态的问题,而意识问题目前仍是一个谜。在对这个问题的解释上,既有哲学上的混乱,也存在某些“解释鸿沟”。从伦理学视角看,人工智能的发展是否会对人类构成威胁,谁应该对此负责,智能型机器人是否应该有身份认同,它与人类有怎样的伦理关系,这些关于人工智能的安全和伦理问题,值得人们重视。智能型机器人的身份认同,即人形智能型机器人是否被承认是人类,不仅是个法律问题,更是伦理问题。如果机器人会对人类生存产生极大的威胁,禁止其发展就是必须的,人类的法律和道德都绝对不允许杀人。这就意味着,人类必须控制机器人的发展,毕竟智能机是人类自己创造的,产生的不良后果应该由人类自己来承担,人工智能对人类行为方式的影响也应该由人类自己来规范。

【关键词】人工智能功能主义生物自然主义意识智能型机器人

人工智能的快速发展,不仅引发了一系列哲学问题,也引发了一系列伦理学问题。对于这些问题的思考,学界不断有成果面世。从适应性角度看,人类应该能够与其创造的智能机共处共存,因为创造它们是为了服务人类,而不是控制甚至毁灭人类。尽管如此,人工智能的发展后果仍然难以预料。人工智能产生后,有人声称,机器能够智能地行动,哲学界将这种观点称为“弱人工智能假设”;也有人断言,机器的行为实际上是拥有思维能力而不仅仅是模拟思维,哲学界将这种观点称为“强人工智能假设”。大多数人工智能研究者将“弱人工智能假设”视为理所当然,不太关心“强人工智能假设”;也就是说,只要他们设计的程序能够工作,就不关心机器是模拟智能还是真实智能。然而,机器人代替人类工作或思维将会产生什么样的后果?是否会有机器人控制人类的事情发生?这些都是人工智能可能引发的重大哲学、伦理学问题,需要作深层次考察和追问。

一机器的智能是其自身具有的吗?

机器能够智能地行动,是目前机器人技术正在实现的目标。自1956年人工智能产生起,就有人断言,人类学习的每个方面,或智能的任何其他特性,都能够由机器精确地描述或模拟。这似乎表明,“弱人工智能假设”不仅是可能的,而且已经部分实现。然而,也有人认为,弱人工智能不可能,它只是人们狂热崇拜计算主义而产生的一种幽灵。

显然,人工智能可能与否,取决于如何定义它。若将人工智能定义为“对在给定构架上最佳主体程序的探索”,它就是可能的。即对于任何具有k比特程序储存器的数字构架,存在2k个主体程序;接下来是发现最好的程序,并列举和测验它们。而当k非常大时,在技术上则是不可行的。但是,哲学界关注的是理论的而不是实践的问题,他们对人的认知构架和机器的构架的对比更感兴趣。具体说,就是关心机器能否思维,而不关心机器行动的最大效用。

大多数人认为飞机作为机器能飞,但问题是,飞机能飞与机器能思维不是一回事。因为,“飞”是动力学问题,“思维”是认知科学问题,后者比前者要复杂得多。阿兰?图灵(A.Turing,1912—1954)认为,不要问机器能否思维,而是问它能否通过智能行为的测试。图灵这里说的是会思维的机器,而不是一般的机器;即能计算的机器就是智能机,大脑就类似于计算器。这就是著名的“计算器隐喻”。如果将思维定义为计算,那么机器无疑会思维,因为人也会计算,当然也会思维。但是,人的思维与计算器的“计算思维”在本质上是不同的,正如鸟会飞与飞机会飞在本质上的不同。

对于人来说,计算过程肯定是思维过程,但思维过程未必是计算过程,如情感思维、冥想等,尽管这里的计算可以被理解为广义的,包括数学运算、逻辑推理、语言操作、问题解决等。而对计算器来说,计算就是操作和执行人编写的程序,这个过程与情感过程完全不同,尽管情感也可以被量化、被计算,甚至审美、幸福感这些纯粹体验的东西也可以纳入计算范畴。问题来了:一方面,若计算等于思维,机器就是可思维的;若计算不完全等同于思维,机器就可能不会思维。这就需要对“计算”和“思维”概念进行精确定义,找出它们之间的内涵与外延。这是一个棘手的难题,学界一直在争论中。

作为计算器科学的开创者,图灵已预见到对智能机可能存在三种主要反驳:无能力论证,数学反驳,随意性论证。如何看待这些反驳?需要仔细分析和讨论。

1.无能力论证。这种论证的形式是“机器决不能做x”。这里的“x”,是许许多多具体的事例或情形或状态,包括和蔼的、机智的、美丽的、友好的;有主动性,有幽默感;能够辨别是非、犯错误、坠入爱河;享受草莓和冰淇淋;向经验学习;正确地使用词;是它自己思想的主体;有像人一样多的行为多样性,等等。在这些事例中,有些是相当简单的,如犯错误;有些则是人能做到而智能机做不到的,如坠入爱河,因为机器还没有感情。尽管目前的智能型机器人能够做许多连人都难以做到的事情,但它们的背后都有人类专家在操作,独立于人的智能机单独靠自己的能力还不能做出发现。也就是说,智能机在执行任务的过程中,还不能提供洞见,产生顿悟,并且理解,因为洞见、顿悟、理解是人类特有的,智能机目前还不具备这种能力。

2.数学反驳。哥德尔(K.F.G?del,1906—1978)和图灵的工作已经表明,某些数学问题,根据特殊形式系统,原则上是无解的。哥德尔的不完备定律就是这方面著名的例子:若任何形式公理系统“F”有足够能力做算术,则建构一个所谓的哥德尔语句“G(F)”是可能的。该语句具有如下两个属性:

(1)“G(F)”是一个“F”语句,但不能在“F”内被证明。

(2)如果“F”是不矛盾的,那么“G(F)”是真的。

这个定律说明,机器在心理上不如人,因为机器是形式系统,它受不完备定律的约束,不能建立自己的哥德尔语句的真值,而人则没有任何这样的限制。这种观点,引起了学界的长期争论。

首先,哥德尔的不完备定律仅适用于有足够能力做算术的形式系统,包括图灵的智能机。在是否具备心理性这一点上,机器与人不可同日而语,这种观点部分是基于计算器是图灵机的观念,但不完全正确。因为,图灵机是无限的,计算器则是有限的,而且任何计算器都能够用命题逻辑描述为一个巨系统,这不服从哥德尔不完备定律。

其次,一个主体不应该太无知以至于不能建立某些语句的真值,而其他主体能够。例如,“张三不能无矛盾地断言这个语句是真的”。如果张三断言了这个语句,那么他将使他自己陷入矛盾,所以,张三不能一致地断言该语句。这其实已经证明,存在这样一个语句,即张三不能无矛盾地断言语句的真假,而其他人和机器则能够。还有,一个人无论何等聪明,终其一生也不能计算出10100的数目之和是多少,而超级计算器能够在几秒钟搞定。但是,不能就此认为计算器比人聪明,也没有看到这作为基本限制会影响人的思维能力。人类在发明数学和计算器前就已经智能地行动几十万年了。这意味着,形式数学推理在指明什么是智能的方面很可能只是起次要作用的。

最后,也是最重要的,即使承认计算器在其所能够证明方面是有限的,也没有任何证据表明人不受那些限制的影响。严格讲,人们很容易证明一个形式系统不能做“x”,如没有情感、心理活动,但声称人能够使用自己的非形式方法做“x”却没有给出这种观点的任何证据,这难道是合理的吗?的确,证明人这种生物系统不受哥德尔不完备定律支配是不大可能的事情,因为任何一个严格的证明都要有非形式的人的参与才能形式化,并因此驳倒它本身。于是,人们就给直觉留下了余地,认为人能够以某种方式执行数学洞察力的非凡技巧。在做推理时,人们必须假设一致性或无矛盾性的存在。更可能的情形是,人本身就是一个矛盾体。这一点,对于日常推理是如此,对于缜密的数学推理也是如此,著名的“四色地图问题”的证明就充分说明了这一点。

3.随意性论证。这是图灵提出关于人工智能最有影响和后人持续最久的批评,即关于人行为的随意性论证。其含义是,人的行为太过复杂,以致不能通过一组简单的规则来理解;计算器所做的无非是遵循一组规则,不能产生像人这样的智能行为。以一组逻辑规则无能力地理解每件事,在人工智能中被称为“资格问题”。德雷福斯(H.L.Dreyfus,1929—2017)是“资格问题”的主要支持者,他在《计算器不能做什么》《计算器仍然不能做什么》中,对人工智能遵循一组规则产生智能的观点提出一系列批评,其立场被豪格兰德(J.Haugeland,1945—2010)称为“好的老式人工智能”(GOFAI)。这一立场主张,所有智能行为能够通过一个逻辑地从一组事实和描述这个域的规则进行推理的系统中得到理解。德雷福斯正确地指出,逻辑主体对于资格问题是脆弱的,而概率推理系统更适合于开放的域。

不过,应该看到,德雷福斯反对的不是计算器本身,而是编辑计算器程序的方法。根据德雷福斯的观点,人类的专门知识的确包括某些规则的知识,但只是作为在其中人操作的一个整体语境或背景。例如下棋,棋手首先必须掌握关于下棋规则的知识,这些知识作为语境在下棋过程中起作用。新手完全依赖规则,需要计划做什么,而大师看一下棋盘就能够迅速知道如何做,正确的步骤已在头脑中。这就是说,大师无需刻意考虑规则就能迅速做出决定,其思维过程不依赖有意识的心智的内省。但是,这不意味着思想过程不存在,只是在大师那里,思维过程已经融入到熟练的技能中。

德雷福斯提出了获得技能的五个步骤,以基于规则的处理开始,以迅速选择正确答案的能力结束。为此,他还提出一个神经网构架组成一个巨大的案例库,但指出四个问题:(1)源于案例的好的概括没有背景知识是不能获得的。没有人知道如何将背景知识归并入神经网的学习过程。(2)神经网的学习是一种监管学习形式,需要相关的输入和输出的优先识别。因此,没有人类训练者的帮助它不能自动操作。事实上,没有教师的学习能够通过无监管学习和强化学习来完成。(3)学习算法在许多特性上执行得并不好。如果我们挑选一个特性子集,就会有增加新特性的未知方式存在,这使得当下集应该证明不适当考虑习得的事实。事实上,新方法如“支持向量机”(SupportVectorMachine)是能够非常好地处理大量特性集的。随着基于网络大数据的引入,许多应用领域如语言处理、计算器视觉能够处理数千万个特性。(4)大脑能够引导其感官寻求相关信息,能够加工信息以提取与当下情境相关的属性。但是,德雷福斯主张,这种机制的详细过程目前还不能被理解,甚至包括能够指导人工智能研究的假设方式。实际上,由信息价值理论支持的自动视觉领域,已经关注方向传感器问题,而且某些机器人已经吸收了所获得的理论结果。

总之,德雷福斯关注的许多问题,包括背景常识知识、逻辑推理问题、不确定性、学习、决策的合成形式等,的确构成人工智能的主要问题,现在已经归入标准智能主体设计领域。这是人工智能进步的证据,不是其不可能性的障碍。

4.情境主体论证。德雷福斯最强的论证是针对情境主体的,而不是针对无身的逻辑推理引擎的。一个主体,支持其理解“狗”的知识库,仅源于逻辑语句的一个有限集,如狗(x)→哺乳动物(x),与一个观看狗赛跑、同狗一起玩的主体来说,这个主体处于劣势。正如安迪?克拉克(AndyClark)指出的,生物大脑的首要功能是作为生物身体的控制系统,生物身体在丰富多彩的真实世界环境中运动、行动。为了理解人类或动物主体如何工作,人们必须考虑整个主体,而不仅仅是主体程序。事实上,具身认知方法不独立地考虑大脑,而是将它与身体看作一个不可分割的整体。也就是说,认知发生在身体包括大脑内,而身体是嵌入于环境中的。这样,认知就是环境中的认知,即情境认知。可以预计,机器人的传感器技术的发展,一定依赖于具身认知纲领和情境认知纲领。

二机器具有人一样的思维吗?

机器能够像人一样思维是“强人工智能”的假设。许多哲学家认为,机器即使通过了图灵测试,也不能说它能像人那样思维,而只能算作是一种思维模拟。图灵已经预见到这种观点,称其为意识论证——即只有机器不仅能写出乐曲,而且知道它写出了乐曲时,才能承认机器就是大脑;或者说,机器必须意识到它自己的心理状态和行动。说人有意识,几乎没有异议;说机器有意识,则会引起极大争论。意识是认知科学、认知心理学的一个重要议题,它与研究直接经验的现象学相关,即机器必须实际上能够感知情感。在现象学中,判断某物是否有意识的一个标准是所谓的意向性。根据这个标准,对于机器来说,由于它能够是实际地关于真实世界中的某物的,所以,它可能有信念、愿望和其他表征。这种观点,引起了争论。

图灵对反驳机器有意向性观点的回应是机智的。并给出了这样的理由——机器可能有意识,或者有现象学特性或具有意图,问机器能否思维则是一个不清晰的问题,因为人们对机器的要求高于对人类的要求,毕竟在日常生活中,没有直接的证据表明我们了解他人的内在心理状态。这是心灵哲学中的他心问题。与其继续纠结这个问题,不如关注每个人思维的惯例。当时,人们还只是设想人与机器在未来对话的可能性;而如今,人机对话已经是寻常之事,真实思维与人工思维之间已没有语言之间的区别,就像人造尿素与有机尿素之间不存在物理、化学性质之间的区别一样。

如果说无机物与有机物之间的界限已经被打破,那么,机器思维与人类思维之间的界限是否也会被打破呢?这毕竟不是同一层次的问题,前者是物理层次的,后者是精神层次的。对于思维,目前还没有达到从无机物合成有机物的程度,所以多数人还是宁愿相信,人工机器思维无论多么引人注目,也不会是真实的(人的思维),至多是模拟的(似人思维)。正如塞尔(JohnR.Searle)所质疑的:“没有人假设,一场暴风雨的计算器模拟会让我们淋湿……究竟为什么人在其正常心智中会假设心理过程的计算器模拟实际上具有心理过程?”塞尔的质疑有一定道理,既然计算器模拟不会产生实际效果,人们也不能指望计算器模拟心理过程能够产生实际心理状态。然而问题是,这种模拟适当吗?虽然计算器模拟暴风雨不会让人淋湿,但人们并不清楚如何将这个模拟运用到心理过程。它虽然与用洒水器模拟下雨会使人淋湿不同,但暴风雨的计算器模拟的确能仿真湿的特征。如同模拟驾驶不等于真实驾驶,但能让模拟者体验到是在驾驶真实的车。大多数人会同意,在计算器上模拟下棋,与在真实场景下棋没有什么不同,因为这是在执行下棋的行动,而不是在模拟。心理过程更像是模拟暴风雨,还是更像下棋?

其实,图灵的思维惯例给出了可能的答案。在他看来,一旦机器达到某种老练的程度,这个问题本身通常会自动消失。这也会消解“弱”与“强”人工智能之间的差别。不少人对此持反对意见,认为存在一个不可否认的实际问题——人有真实心智,机器没有。要阐明这个实际问题,需要弄清人如何有真实心智,而不仅仅是身体产生神经生理过程。

哲学上解决这个心身问题,与机器是否有真实心智问题直接相关。心身问题是一个既老又新的问题。笛卡尔(R.Descartes,1596—1650)的二元论将心与身截然分开,认为二者独立存在,尽管它们之间存在相互作用,但随后产生的问题是,心是如何控制身体的?而心的一元论,也称物理主义,通过断言心与身不是分离的,心理状态就是物理状态,避免了这个问题。大多数现代心灵哲学家都是不同形式的物理主义者,他们原则上承认强人工智能的可能性。但物理主义者面临的问题是,解释物理状态(特别是大脑的分子构架和电化学过程)如何能够同时是心理状态呢?比如,疼痛、享用美食、知道某人在开车、相信北京是中国的首都等。

著名的“瓮中之脑”(braininavat)思想实验就是为反驳物理主义而提出的。物理主义者试图说明,一个人或机器处于一个特殊心理状态是什么意思。意向状态,如相信、知道、愿望、害怕等,是他们特别关注的,这些状态指向外在世界的某些方面。例如,我吃烧饼的知识是一个关于烧饼和在其上发生了什么的信念。若物理主义是对的,情形一定是,一个人的心理状态的适当描述,由那个人的大脑状态来决定。如果我正集中精力以经意的方式吃烧饼,那么我此刻的大脑状态是“知道某人吃烧饼”这类心理状态的一个实例。当然,我的大脑中所有原子的具体构架对于“我知道我吃烧饼”的心理状态是不必要的。也就是说,我的脑或其他人的脑有许多构架,它们属于同一类心理状态。关键点是,同一脑状态不对应于一个基本明确的心理状态,如某人正吃苹果的知识。

物理主义的观点,的确具有科学理论的简单性特征,但这种简单性受到“瓮中之脑”思想实验的挑战。设想一下,你的脑从你出生就与你的身体分离,并被置于一个神奇设计的瓮中,这个特殊的瓮能很好地保存你的脑,允许它生长、发育。同时,电信号从一个完全虚幻世界的计算器模拟输入你的脑,来自你的脑的移动信号被拦截,并被用于修正模拟直到适当。事实上,你经历的模拟生活精确复制你可能已度过的生活,如果你的脑不是被置于瓮中的话,包括模拟吃虚拟的烧饼。这样,你可能已经用于一个脑状态,该状态与真正吃真烧饼的人的脑状态同一,但是,说你拥有心理状态“知道你吃烧饼”表面上可能是假的。然而,事实是,你没有吃烧饼,你从来没有品尝过烧饼,当然你不可能有这样的心理状态。

这个实验,似乎与脑状态决定心理状态的观点相矛盾。解决这个问题的路径是,心理状态的内容能够从两种不同的视角来解释:宽内容与窄内容。宽内容是从一个通达整个情境的全能的外部观察者的视角给出解释,这个观察者能够区分这个世界中的不同事物。按照这种观点,心理状态的内容既包括脑状态也包括环境的历史。窄内容只考虑脑状态。例如,一个真实吃烧饼的人与一个瓮中之脑吃烧饼者的脑状态的窄内容,在这种情形中是相同的。

如果你的目标是把心理状态归于共享你的世界的其他人,以预测它们可能的行为和效果,那么宽内容就是完全适当的,因为它包括了心理状态所涉及的语境因素,如环境的历史,这是我们关于心理状态的日常语言进化的必要环境。如果你关注的是人工智能系统是否真实地思维和真实地拥有心理状态的问题,那么窄内容就是适当的,因为机器是无语境的,即与环境的历史无关。所以,不能简单地认为,人工智能系统能否像人那样真实地思维,依赖于外在的那个系统的条件。如果我们考虑设计人工智能系统并理解其操作,那么窄内容也是与此相关的,因为正是大脑状态的窄内容,才决定下一个脑状态的内容是什么。这自然产生了这样一些问题——对于脑状态什么是要紧的?什么使得它拥有一个心理状态而其他没有?在这个所涉及的实体的心理操作范围内,功能角色起到何种重要作用?这些是功能主义的替代方案试图说明的问题。

三功能主义的“脑替代”实验能说明机器产生意识吗?

在机器是否有心理状态的问题上,功能主义认为,心理状态是输入与输出之间的任何一个中介因果条件。根据功能主义,任何两个系统,若它们具有同构的因果过程,则具有相同的心理状态。因此,一个计算器程序能够拥有与人相同的心理状态。这里的同构,是指两个不同系统在结构和属性方面的一一对应,在数学上是映射关系。这个假设无论正确与否,都表明存在某种水平的抽象,在这个抽象框架下的操作是无关紧要的。

功能主义的这种观点可由“脑替代”(brainreplacement)思想实验得到清晰的说明。这个实验包含三个假设:(1)神经生理学发展到这样的程度——人脑中所有神经元的输入输出行为和连通性被完全理解;(2)人们能够建构微型电子装置,它能够模仿整个行为,能够顺利连接神经组织;(3)某些神奇的外科技术能够用相应的单子装置替代个体神经元,而不中断脑作为一个整体的操作。一句话,这个实验是由使用电子装置逐个替代人头脑中的所有神经元所构成。

在这里,需要关注的是在操作之后和操作期间“被试者”(subject)的外在行为和内在体验。根据实验的定义,如果这个操作不被执行的话,与所将要观察到的情况相比较,被试者的外在行为必须是保持不变的。虽然意识的在场或缺场不能被第三个当事人确定,实验主体至少应该能够记录他/她自己有意识经验中的任何变化。显然,对于接下来将发生什么会存在一个直接的直觉冲突。但是,功能主义者相信,他们的意识仍然会保持不变。

作为一个生物功能主义者,塞尔也相信他的意识会消失。在他看来,人们会失去对其外在行为的控制。他举了这样一个例子,当医生测试你的视力时,会在你面前举一个红色物体,然后问你看到了什么?你本来想说你没看见任何东西,但你完全不受控制说出你看见一个红色物体。这意味着,你的有意识经验慢慢地消失,而你的外在可观察行为仍然保持不变。

这有两种情形需要注意:一方面,当被试者逐渐成为无意识时,要保持外在行为不变,被试者的意愿同时完全被取消;否则,意识的消失将会反映在外在行为中,如被试者会大叫或以言辞表达。如果将意愿的同时消失看作是某一时刻的神经元逐渐替代的结果,这似乎是一个不太可能的主张。另一方面,在没有真实的神经元保留期间,如果问被试者关于他的有意识经验的问题,那么会发生什么呢?假设一个正常人被尖棍子戳了一下,他会发出尖叫;若一个失去知觉的人被尖棍子戳了一下,他可能没有任何反应。机器就像一个没有知觉的人,被戳一下也没有反应,因为它没有神经元,尽管它可能被设计成有刺激—反应的程序做出应答。假如我们用电子脑替代正常人脑的功能属性,而且电子脑没有包含任何人工智能程序,那么我们必须拥有显示意识的一个解释,这种意识是仅由诉诸神经元功能属性的电子脑产生的。因此,这种解释也必须应用于具有相同功能属性的人脑。

这会导致三种可能的结论:(1)正常人脑中产生这类输出的意识的因果机制仍然能在电子装置中操作,它因此是有意识的。(2)正常人脑中的有意识心理事件与行为没有任何因果联系,并从电子脑中遗失,它因此不是有意识的。(3)这个实验是不可能发生的,因此关于它的推断是无意义的。尽管不排除第二种可能性,但它将意识还原到副现象的地位,即哲学上描述的某物发生了但没有留下影子,好像它存在于可观察的世界。进一步说,如果意识的确是副现象的,那么被试者在被戳痛后就不会有发出尖叫的情况发生,因为不存在有意识经验的痛。相反,人脑可能包含一个次要的、无意识的机制,该机制负责在受到刺激后会发出尖叫声。

总之,功能主义主张,在神经元水平上操作,意味着也能够在任何更大功能单元如一组神经元、一个心理模块、一片脑叶、半脑或整个脑水平上操作。这意味着,如果接受脑替代实验说明替代脑是有意识的观点,那么也应该相信,当整个脑被电子装置替代后意识被保持下来了,而且这个电子装置通过一个查找表从输入到输出的地图不断升级其状态。如果功能主义是对的,这会使大多数人包括弱人工智能者感到不安,因为查找表不是有意识的,至少在查找表期间产生的有意识经验,与在操作一个可能被描述为存取和产生信念、反省、目标等的系统期间产生的有意识经验是不同的。因此,脑替代实验并不能充分说明机器能够产生意识。

四生物自然主义驳倒了功能主义吗?

20世纪80年代,塞尔的生物自然主义开始流行,它对功能主义提出了强烈挑战。根据生物自然主义,心理状态是高层次的涌现特征,它由低层次的神经元中的生理物理过程引起。神经元的这种未指明的属性才是重要的。因此,说心理状态被复制,仅仅是在部分具有相同输入输出行为的某些功能结构程序基础上,而且会要求这个程序在执行一个与神经一样有因果力的认知构架。为了支持这种观点,塞尔描述了一个假设系统,这就是著名的“中文屋”。

这个假设的中文屋系统由一个不懂中文只懂英文的人、一本英文写的规则书(《英汉对照词典》)和一堆纸条(有些是空白,有些写有不认识的符号)构成。中文屋有一个通向外面的窗口,负责收取纸条。屋中的人相当于计算器的中央处理器(CPU),规则书相当于程序,纸条相当于储存器,窗口相当于输入输出装置。屋中的人能够将通过窗口传入写有中文符号的纸条,按照规则书的匹配指令(形式规则)将其编译成中文语句,并将写有中文的纸条传递出去。指令可能包括在新纸条上写符号,在纸堆中发现符号,重新安排纸堆等。这个中文屋系统输入中文纸条并产生中文回答,看上去与图灵设想的系统一样有智能。目前的翻译程序如百度翻译、谷歌翻译等,就相当于中文屋系统。

对此,塞尔认为,中文屋中的人,比如我塞尔本人,完全不懂中文,规则书和一堆纸条不过是一张张纸条,根本不理解中文。这个系统根本不存在对中文的理解,即执行一个正确的程序,不必然产生理解。塞尔假设“中文屋”系统要说明的是,执行一个适当的程序尽管也产生正确的结果,但对于成为一个心智是不充分的。

然而,机器是否有“智能”,与机器是否“理解”,实际上是不同层次的问题。按照计算主义的定义,若一个系统能够计算,它就应该有智能,因为计算就是思维,思维当然是智能行为。但如果将智能定义为包括“理解”在内,则机器系统就难以有智能,因为任何程序无论是形式的还是非形式的,机器系统只能执行程序并不理解程序本身,甚至人有时也只是使用某种语言,不一定理解其意义,如同儿童背诵唐诗,成年人使用0(零)。因此,这就看如何定义、理解“智能”概念了。有智能与有意识、有心灵、能理解,还不是一回事,虽然它们之间有关联。

严格讲,塞尔所反对的不是弱人工智能的观点,而是强人工智能论断——恰当程序设计的机器具有认知状态,程序本身就是对人的认知过程的理解。塞尔在《心灵、大脑与程序》一文中,通过设想一个中文屋,从系统应答、机器人应答、脑模拟者应答、联合应答、他人心灵应答、多重套间应答六个方面系统而详细地反驳这种论断,客观上说,还是非常有力的。然而,将人在中文屋中理解中文,模拟为“CUP”能够开立方运算,是否合适?这是许多强人工智能支持者质疑塞尔反驳的一个普遍问题,也是人工智能专家对哲学界的挑战。

在中文屋与“CPU”两种情形中,对于“理解”而言,都是否定的。因为,人不理解中文,“CPU”也不理解。若问中文屋是否理解中文,按照强人工智能,回答可能是肯定的。塞尔的应答,实际上重申了这样的观点——在人脑中不理解的,在纸中也不能理解,所以不能存在任何理解。塞尔似乎是在说,整体的属性必须存在于部分属性中,这显然不合适。比如,水是湿的,但其组成的成分H2O都不是湿的。

塞尔的主张基于四个公理:(1)计算器程序是形式的(句法的);(2)人类心智基于心理内容(语义的);(3)句法本身对于语义学既不是必要的也不是充分的;(4)生物脑产生心智。塞尔从前三个得出结论,程序对于心智是不充分的,即一个执行程序的主体可能是一个心智,但仅根据执行程序并不必然是一个心智。从最后一个公理得出,能够产生心智的任何其他系统可能会拥有等同于脑的因果力的因果力。由此,塞尔推知,任何人工脑将会拥有复制脑的因果力,不仅仅运行一个特殊的程序,但人脑不会仅根据运行一个程序就产生心理现象。一句话,意识或心灵是生物现象,计算程序是不能产生这种现象的。

但是,这些公理是有争议的。例如,公理(1)(2)依赖于一个句法与语义学之间的未详细说明的区分,这种区分似乎与宽内容、窄内容之间的区分密切相关。一方面,人们可以将计算器看作操作句法符号;另一方面,也可以将计算器看作操作电流,这恰好与大脑运作的情形(生物电流)相似。所以,人们会说脑就是句法的。但是,程序对于心智是不充分的这个结论并不令人满意。塞尔所主张的是,如果你明确地否认功能主义,即公理(3)表明的,那么你就不会必然得出没有脑是具有心智的。这样,中文屋论证可以归结为是否接受公理(3)。

丹尼特(DanielC.Dennett)将中文屋论证称为“直觉泵”(intuitionpump),即中文屋论证放大了人的先验直觉。他认为,塞尔的论证形式对哲学家来说是很熟悉的,即他构建了一种所谓的直觉泵,一种通过在基本思想实验上产生变异来激发一系列直觉的装置。“直觉泵”通常不是发现的引擎,而是一种说服者或教学工具,一种一旦你看到真相就能让人们以你的方式看待事物的方法。丹尼特反对用直觉泵来思考,认为它被许多人滥用。在这种情况下,塞尔几乎完全依赖于错误的结果,即由错误地提出的思想实验产生的有利直觉。因此,生物自然主义者坚信他们的立场,而功能主义者仅确信公理(3)是未经证明的,或者说,塞尔的论证是不足以令人信服的。然而,不可否认的是,中文屋论证不仅对人工智能产生了巨大挑战,也引发了广泛的争论,但很少改变持不同立场人们的观点。比如,博登就旗帜鲜明地反对塞尔的“中文屋”论证,认为他的论断是错误的。

审视这场争论可以发现,那些接受公理(3)进而接受塞尔论证的人,当决定什么实体是心智时,仅仅依赖他们的直觉而不是证据。中文屋论证表明,中文屋凭借执行一个程序的力量不是一个心智,但该论证没有说,如何凭借某些其他理由决定中文屋或计算器或机器人是不是一个心智。不过,塞尔承认人类这种生物机器有心智。按照塞尔的这种观点,人脑可能或不可能执行像人工智能程序的某些东西,但如果人脑能执行,那也不是它们是心智的理由。在塞尔看来,创造一个心智需要更多的东西,比如,相当于个体神经元的因果力的某些东西。但是,这些力是什么,仍然是待解之谜。

然而,需要注意的是,从生物进化的角度看,神经元进化出执行功能角色,即具有神经元的生物远在意识出现于自然界之前就学习和决定了。若这样的神经元由于与它们的功能能力无关的某些因果力而恰好产生了意识,那将是一件惊人的同时存在事件。毕竟,正是这种功能能力才支配了有机物的生存。而在中文屋的情形中,塞尔依赖直觉而非证据,即只看到屋,没有证据证明屋中到底有没有意识发生。我们也可以将大脑看作屋而做同样的论证,即只看到细胞的组合,盲目地根据生物化学或物理学规律操作,那里有心智吗?为什么一大块脑能产生心智而一大块肝脏不能?这仍然是一个巨大的秘密,是一种解释鸿沟。因此,仅仅依靠哲学的思考还不足以弄清心智的形成机制,这需要多学科的联合。

五意识、感受性的解释存在解释鸿沟吗?

对于强人工智能的争论,其核心是意识问题。具体说,意识是否只是生物特性的,非生物的人工意识或机器意识是否可能实现?意识通常表现为不同方面,如感受性、理解、自我意识、自由意志等。这些方面都是哲学上一直在讨论的问题,至今仍在争论。而与意识问题紧密相关的是主体经验,即感受性,它是人们经验的内在性质。人们的某个感觉如疼痛是否有相应的脑状态?或者说,一个心理状态是否有相应的物理状态?这个问题对心智的功能主义说明构成了挑战,因为不同的感受性可能涉及别的同构因果过程是什么的问题。例如,“倒置光谱”(invertedspectrum)思想实验表明,当看见红色物体时某人“x”的主体经验,与当其他人看见绿色物体时的主体经验相同,相反也一样。“x”坚持红色是红的,在红色信号灯亮起时停,也同意红色信号灯的红色比夕阳的红色更强烈。然而,“x”的主体经验在两种情形中是不同的。红色信号灯是停的经验,夕阳是享受或感悟的经验。

感受性问题不仅是心灵哲学的一个重要问题,也是自然科学的一个重要问题,不仅对功能主义形成挑战,也对科学形成挑战。假设神经科学已经探明大脑的运作机制,比如发现一个神经元中的神经过程将一个分子转换为另一个,不同神经元之间的相互连接路径等等,这些发现也不足以让人们接受,拥有神经元的实体如同大脑有任何特殊的主体经验。在神经过程与意识形成之间可能存在某种鸿沟。这在哲学上被称为“解释鸿沟”(explanatorygap),它是心身问题中关于物理现象与心理现象之间的理解关系问题,具体说是能否用物理状态解释心理状态的问题。这种解释鸿沟,导致有人如查尔莫斯(DavidJ.Chalmers)认为,人类无能力完全理解自己的意识;也有人如丹尼特通过否认感受性进而否认解释鸿沟的存在,认为这是由于哲学混乱造成的。但是,无论结论怎样,问题依然存在,争论仍在继续。

其实,如果感受性是意识经验,则主体经验与意识相关,没有主体意识也就没有主体经验。例如,一个丧失意识的植物人没有感觉,也就没有主体经验。如果感受性是非意识经验,那就有点神秘了,毕竟我们不能否认有意识的人有主体经验,主体经验就是感受性。之所以存在解释鸿沟,是由于还没有弄清生物的大脑是如何拥有意识的,更遑论机器脑是如何产生意识的。况且,意识与感受性之间的联系机制也还没有完全弄清,因此,形成所谓的解释鸿沟也就不难理解了。图灵也承认,意识与机器智能是不同的问题,但他否认意识问题与人工智能有太多的联系。也就是说,意识问题不妨碍机器智能问题。当今人工智能的长足发展充分说明,意识与智能不是一回事,有意识的存在一定有智能,如人类;但有智能的存在不一定有意识,如智能机。也许人工智能并不依赖于意识,而是依赖于能创造智能行为的程序。意识可能是一种不需要智能的更高级精神现象。

六人工智能能否对社会伦理构成威胁?

不论智能与意识关系如何,也不论人工意识是否可能,一个显见的事实是,人工智能的迅速发展已经对人类社会产生了非同凡响的影响,这是自我认知领域的一场深刻变革,有人称之为“图灵革命”,也是继哥白尼革命、达尔文革命、神经科学革命后的“第四次革命”。这一次革命之所以与以往不同,在于它将人类看作一个信息体,在信息圈内与其他可逻辑化、自动化信息处理的信息智能体共享自然和人工领域内的成就,相互交织在一起。于是,人类越来越多地将记忆、认知活动甚至日常生活,委托给智能机如计算器、智能手机等来完成,智能机已然成为人类的“延展大脑”。如果没有手机,人们将无所适从;如果电信网络停摆,人们将无法完成购物支付。除认知、经济等领域外,人工智能特别是智能型机器人的发展是否会对人类的精神领域,特别是伦理观念和行为规范产生影响?这一点是肯定的,而且影响巨大。这可以从以下四方面来探讨。

一是智能型机器人的身份认同问题。这不仅是个法律问题,更是伦理问题。一个人形智能型机器人是否被承认是人类,即使法律上的障碍被消除,比如,2017年10月28日,沙特阿拉伯向机器人“索菲娅”授予国籍,宣布机器人索菲娅为其国家的公民,享有与其国民相同的权利。这就是承认机器人的合法人类身份的地位。然而,接下来更棘手的伦理层次的问题是——“索菲娅”与人类是什么关系?她能结婚吗?尽管“索菲娅”与人类外形高度相似,拥有仿生橡胶皮肤,可以模拟62种面部表情,能识别人类面部表情、理解人类语言、能够与人互动,甚至还会开玩笑,但她毕竟还是机器人,缺乏人类拥有的情感力和自然生育能力,更没有人类长期建立起来的伦理观念,因此,对机器人提出伦理要求本身就是不合理的,赋予机器人以所谓的合法身份也就是一场闹剧。

二是智能型机器人的安全性问题。如果机器人会对人类生存产生极大的威胁,如无人驾驶机器成为杀人武器,禁止其发展就是必须的,因为人类法律和道德都绝对不允许杀人。这就是人类如何控制机器人的问题。2018年3月9日,欧洲科学与新技术伦理组织发布《关于人工智能、机器人及“自主”系统的声明》称,人工智能、机器人技术和“自主”技术的进步已经引发了一系列复杂和亟待解决的伦理问题,呼吁为人工智能、机器人和“自主”系统的设计、生产、使用和治理制定国际公认的道德和法律框架。

三是人类道德责任问题。在这种由人工智能和机器人构成的复杂信息社会技术系统中,与道德相关的“智能主体”(agency)应该有怎样的位置?人类如何分担产生的道德责任,或者由谁为其中产生的不良后果负责?不可否认,智能机是人类自己创造并推广应用的,产生的不良后果应该由人类自己来承担。具体来说,谁生产谁负责;正如环境问题,谁污染谁治理。这不仅是一个涉及对人工智能的研发、设计、测试、生产、监管、认证的问题,也是一个包括政府、企业、个人在内民主决策、协调解决的问题,涉及制度、政策及价值观的决策,以确保人工智能技术不会给社会带来危害。例如,哈佛大学肯尼迪政府学院贝尔弗科学与国际事务中心与美国银行宣布成立“人工智能责任运用协会”,旨在解决未来人工智能快速发展中可能出现的问题。

四是人类的行为规范问题。人工智能发展不仅极大地改变了人类的生活方式,也改变了人类的行为方式。目前的互联网给人类带来了极大的便捷,网购、支付宝、外卖非常普及,机器人已代替人类的部分工作,人变得休闲了,但也无所事事了,宅男宅女普遍存在,几天甚至几周不下楼的大有人在。这又带来了社会问题:人与人之间面对面的交流、沟通没了,感情淡化了,冷漠成为常态,不仅导致了网瘾、安全问题,也产生了不良行为。比如,走路看手机导致的车祸,长期宅在家里造成的交流封闭,甚至产生自闭症。假如有一天智能型机器人真的普及了,人类应该如何与它们打交道?应该建立一种怎样的关系?人类面对机器人应该如何规范自己的行为?这是不久的将来人类会面临的社会和伦理问题。

概言之,对于人工智能,人类不仅要关注它如何发展,还要考虑它应该怎样发展。如果人工智能的发展对于人类是弊大于利,如果机器人将会控制人类并要毁灭人类,人工智能研究者就有责任终止这种研究,如同终止核武器的发展一样。这不可避免地给人工智能研究者提出了社会责任和社会伦理的要求。

 

编者注:此文是作者主持的中国国家社会科学基金重点项目“科学认知的适应性表征研究”(16AZX006)的阶段性成果,发表于《南国学术》2019年第2期第220—231页。

特别声明:本文转载仅仅是出于辅助教学和学习的需要,如其他媒体、网站或个人从本网站转载使用,自负版权等法律责任;作者如果不希望被转载,请与我们接洽。

[经典论道] 人工智能的四大哲学问题

20世纪西方科学哲学的发展,经历了向“语言研究”和“认知研究”的两大转向,认识论的研究在不断去形而上学化的同时,正在走向与科学研究协同发展的道路。作为当代人工智能科学的基础性研究,认知研究的目的是为了清楚地了解人脑意识活动的结构与过程,对人类意识的智、情、意三者的结合作出符合逻辑的说明,以使人工智能专家们便于对这些意识的过程进行形式的表达。人工智能要模拟人的意识,首先就必须研究意识的结构与活动。意识究竟是如何可能的呢?塞尔说道:“说明某物是如何可能的最好方式,就是去揭示它如何实际地存在。”[1]这就使认知科学获得了推进人工智能发展的关键性意义,这就是认知转向为什么会发生的最重要原因。

由于哲学与认知心理学、认知的神经科学、脑科学、人工智能等学科之间的协同关系,无论计算机科学与技术如何发展,从物理符号系统、专家系统、知识工程,到生物计算机与量子计算机的发展,都离不开哲学对人类意识活动的整个过程及其各种因素的认识与理解。**人工智能的发展一刻也离不开哲学对人类心灵的探讨。**无论是强AI派抑或弱AI派,从认识论上看,人工智能依赖于物理符号系统模拟了人类思维的部分功能,但是,其真正对人类意识的模拟,不仅有赖于机器人本身技术上的革新,而且也有赖于哲学对意识活动的过程及其影响因素的了解。

从今天来看,人工智能的哲学问题已不是人工智能的本质是什么,而是要解决一些较为具体的智能模拟方面的问题。这些问题包括:

1.关于意向性问题

人脑的最大特点是具有意向性与主观性,并且人的心理活动能够引起物理活动,心身是相互作用的。大脑的活动通过生理过程引起身体的运动,心理状态是脑的特征。“确实存在着心理状态;其中一部分是有意识的;大部分是具有意向性的;全部心理状态都是具有主观性的;大部分心理状态在决定世界中的物理事件时起着因果作用。”[2]在这样的前提下,塞尔认为,计算机或人工智能是无法像人的大脑一样,既具有意向性又具有主观性的。他对一些强AI观点提出了批评,认为坚持这种观点的人,把人的思维与智能纯形式化了。而计算机程序的那种形式化、语法化的特征,对于那种把心理过程与程序过程视为同样过程的观点是致命的。因为人心不仅仅是形式的或语法的过程,人的思想所包含的决不只是一些形式化的符号。实际上,形式化的符号是不具有任何语义的。“计算机程序永不可能代替人心,其理由很简单:计算机程序只是语法的,而心不仅仅是语法的。心是语义的,就是说,人心不仅仅是一个形式结构,它是有内容的。”[3]塞尔认为,机器究竟能否进行思维的关键在于:它是否能够给对象赋予意义。“意识、思想、感情、情绪以及心理的所有其他特征远非语法所能包容。不管计算机的模拟能力有多强,按照定义,它也不能复制那些特征。”[4]在塞尔看来,计算机模拟毕竟不是现实,例如,我们可以用计算机模拟风暴来临时城市周边防洪的形势,用计算机模拟仓库的火灾,用计算机模拟车祸发生的场景,等等。但是,谁会认为这种模拟就是事实呢?心毕竟是种生物学现象,其复杂性绝非是计算机所能模拟与复制的。

计算机有没有意向性,这个问题的争论可以归结如下:1)究竟什么叫做意向性?机器人按照指令从事特定的行为是不是意向性?2)人类在行动之先就已经知道自己究竟是在做什么,具有自我意识,知道其行动将会产生什么样的结果,这是人类意识的重要特征。那么我们应该如何理解机器人按照指令从事某种行为呢?3)意向性能否被程序化?塞尔认为,“脑功能产生心的方式不能是一种单纯操作计算机程序的方式。”[5]相反,人们要问的是:意向性是不是一种可以理解的精神,如果可以理解,那么为什么就不能程序化?塞尔认为,计算机具有语法,但不具有语义。但实质上,语法与语义本身就是二而一的问题,两者是从来也不会相分离的。如果两个机器人之间可以互相交流,那么我们难道能说它们之间只有语法而没有语义吗?如果程序能把语法与语义包含在一起,那么我们还有必要分清楚语法与语义吗?塞尔的观点是,哪怕计算机复制了意向性,但复制不是原本。其实,当我们对人类的认知及其与其行为的关系弄得一清二楚时,我们肯定能够把我们对人类大脑的心理过程与行为的关系编成程序,输入各种我们所了解的有关人类的信息,使计算机“无所不知”。然而,到了那个时候,我们是否还能像塞尔所说的,人工智能不是智能,人工智能中没有意向性和心理过程,因为它缺乏人类的蛋白质与神经细胞吗?意向性的复制是不是“意向性”?对理解的复制是不是“理解”?对于思想的复制是不是“思想”?对于思维的复制是不是“思维”?我们的回答则是:基础是有别的,功能是相同的。依赖于不同的基础形成同样的功能,人工智能只不过是我们人类智能的特殊的实现方式。塞尔用意向性来否定人工智能的深度,虽然有一定的根据,然而,当人工智能能够模拟出类似于人一样的思想时,即使人们都认为人工智能和人的智能是有着本质区别的,那么我们也会感到这种区别已经不具有什么重要意义了。塞尔的观点只能将人的心灵再度神秘化!

2.人工智能中的概念框架问题

任何科学都是建立在它所已知的知识之上的,甚至科学观察的能力也无不与已知的东西相关,我们只能依赖于已知的知识,才能理解未知的对象。知与未知永远都是一对矛盾,两者总是相互并存又相互依赖的。离开了已知,就无法认识未知;离开了未知,我们就不能使科学认识有所发展和进化。“科学学习如何观察自然,而且它的观察能力随着知识的增长而增长。”[6]有大量的证据可以证明,当人们观察物体时,观察者得到的经验并非决定于以光线进入他眼球的信号,也不仅仅决定于观察者视网膜上的映像。两个正常的观察者从同一地方观看同一个物体,并不一定得到同样的视觉经验,即使在他们的视网膜上的映像实际上是一样的。正如汉森所说的那样,观察者在观看物体时,看见的比眼球接触到的多得多。所以,夏佩尔说,“观察者在观看物体时得到的视觉经验,部分地依赖于他过去的经验、他的知识和他的期望。”观察对于科学是十分重要的了,但是,“观察陈述必须用某种理论的语言构成”,“观察陈述是公共实体,用公共的语言加以阐述,包含着具有不同程度的普遍性和复杂性的理论。”[7]这就表明了观察需要理论,科学需要理论为先导,科学认识不是建立在未知的基础上,而是建立在已知的知识基础上的。

概念框架也称背景知识、背景信念。之所以将人们认知的概念框架称作信念,是因为概念框架是在不断地学习与实践中形成的,得到确证的那些可资利用的可靠的信息;这些信息在过去已被证明是非常成功的,我们对它没有理由怀疑。如果说背景信念有什么不确定性,那么我们可以说背景信念是不断在增长的、变化的,它处在不断的更新中。

人们认知结构中的概念框架究竟是由哪些元素构成的?对于这个问题,科学哲学家们仅仅将其理解为已知的知识。例如,“世界图景”(图尔敏)、“研究传统”(劳丹)、“研究范式”(库恩)、“背景信念”(夏佩尔)等等。为了理解概念框架,我们首先要将认知主体看作是一个处在复杂环境中的人,他不仅是一个科学的观察者,而且是一个社会的观察者、生活的理解者、情感的关系者,总之是一个社会的有着七情六欲的人。

我们根据一个人所处的社会环境与现实社会背景,便可以具体地归纳这个认知者所具有的概念框架是由哪些因素构成的。但是,由于概念框架是一个变量,如果我们不对智能模拟的目标加以限定,那么计算机编程就会面临指数爆炸的问题。因此,对人类智能的模拟就必须把机器人的目的加以限定,让机器人做特定的、有限的工作。人脑的活动是分区域的,那么对人脑意识的模拟首先应当分功能地进行。

概念框架问题是人工智能研究过程中最为棘手的核心问题,它所带来或引发的相关问题的研究是十分困难的。在这个问题上,基础性的研究是哲学的任务,即概念框架应当包含哪些因素,日常知识如何表达为确定的语句,人类智能中动机、情感的影响其状况是如何的,如何解决某些心理因素对智能的不确定性影响。而人工智能的设计者们则要研究这些已知知识应当如何表达,机器人如何根据概念框架完成模式识别,概念框架与智能机行为之间如何联系,概念框架如何生成、补充、完善,以及在运用这个概念框架某部分知识的语境问题,等等。而至于智、情、意的形式表达方面,则是人工智能研究者的任务。

3.机器人行为中的语境问题

人工智能要能学习和运用知识,必须具备识别语言句子的语义的能力,在固定的系统中,语义是确定的。正因为这样,物理符号系统可以形式化。但是,在语言的运用中则不然,语言的意义是随语境的不同而有差别的。

实际上,AI也就是首先要找到我们思想中的这些命题或者其他因素的本原关系、逻辑关系,以及由此而映射出构成世界的本原关系、客体与客体之间的关系。最初的物理符号系统便是以此为基础的。但是,由于人们的思想受到了来自各方面的因素的影响,甚至语言命题的意义也不是绝对确定的单个句子或原子命题的意义更是如此。因此,最初,简单的一些文字处理与符号演算完全可以采取这种方式,但进一步的发展,例如机器人之间的对话、感知外界事物、学习机等等,就必须在设计时考虑语句所使用的场合及各种可能的意义。

我们再回到维特根斯坦思想的发展。维特根斯坦的早期思想在哲学研究中遭到了来自各个方面的批评,主要的问题是语言的日常用法,是不可能按照维特根斯坦规定的那样来使用的。在日常的使用中,语言的实际用法即语境决定了语言命题的意义。“哲学不可用任何方式干涉语言的实际用法;因而它最终只能描述语言的用法。”[8]任何语言总是有确定的意义的,关键在于它是处在什么样的场合中,如何使用,即用于一个特定场合的句子其意义是确定的,否则这个句子就无法为人们所理解,就无所谓意义,所以“我们无疑懂得这个词,而另一方面,它的含义就在于它的用法”[9]。

约翰·奥斯汀则把语言划分为两类:一类是记述式的,或者说是陈述,具有真或假的特性;另一类是完成行为式的话语,“它要完成它所特有的任务,这就是被用于完成某种行为。说出那样一种话语,就是完成某种行为。”[10]“完成行为式话语必须是在特定的环境中说出,这种环境与有关的行为在各个方面都是合适的。”[11]完成行为式的话语在我们日常生活中往往体现为一定的效果,即如果这件事是如此这般地发生了,那它便是正常的,如果相反,那它便是不正常的。在奥斯汀看,我们没有纯粹的语言标准,把陈述式或完成行为式分离开来,例如火车站广播员说,“请各位旅客在越过铁轨时通过天桥行走”,它既是直陈式的,又是完成行为式的句子。不管奥斯汀对句子的划分存在什么样的问题,但是,我们从维特根斯坦后期思想、奥斯汀的语言哲学来看,语境问题是确定语言意义的极为重要的方面。

由此看来,由于语境问题的存在,人工智能的语言编码就不是一种纯粹逻辑的技术,也不是一个纯粹认知心理学的问题。功能模拟在产生特定思维过程中已经显现出超人的有效性,记忆、知觉、意象、概念形成、问题解决、言语理解等等,都被看作可用实验来检验理论的研究领域,有关这些领域,提出了迭代、递归、组块、后进先出存储、水平搜索、垂直搜索、几何图形编码或其他信息加工的组合。但是,人的精神状态以及语言在实际中的运用,则是一个更为复杂的领域。如果要模拟人的行为,那么就必然会涉及到语言及其运用,涉及到语境的问题。

福多和拉普提出了“内容整体论”概念,认为一个表达式只有作为整个语言的部分时才能够有内容。如果我相信命题P,那么,我就得相信与P处于语境关系中的各种命题。内容整体论是与语言原子论相对而言的,这种原子论相信,表达式可以通过自身与语言之外的实体的关系而具有意义。“我们所说的内容整体论是认为,具有内容这种属性是整体性的,在这种意义上,只有当语言中的许多其他(不同义的)表达式具有内容时,某个表达式才能够具有内容。”[12]当然,持内容整体论观点的最早也许是“奎因—迪昂”原理,主张句子命题的意义必须是句子处在一个整体的科学理论语境中才能确定。

而自弗雷格对词义的分析时提出语境原则以来,语境论现已普遍成为语言哲学所探讨的重要方面。弗雷格认为,一个词的意义只有在句子的语境中才有意义,例如“暮星”与“晨星”虽然是相同的对象,但其语境不同,意义也是不同的。达米特在语境论基础上,提出了“从属原则”,即如果一个词独立于它出现时的句子,那么我们就无法确定它的意义。同样,没有领会整个思想,我们也就不能掌握构成这个思想的组成部分。

在哲学上,语境论是在“概念的相对性”提出之后形成的,它作为反对形式化的一种观点,即反对人们认为可以建立一套能被普遍应用而无须考虑特殊情况的抽象形式,或者我们可以通过研究一个陈述的逻辑结构来确定它的含义的观点。语境论者包括道德语境论(伦理情景主义)与哲学的语境论。“在语言哲学中,语境主义提出,一个词的意思是通过它在一个句子中的用法或出现来确定的,也就是说,通过它对句子内容的作用来确定的。因此,句子或命题在对意思的解释上比词或概念更重要。理解一个词就是理解它如何被用在一个句子中。语境定义是以语境主义为基础的,它指的是:解释一个词,要求助于它出现于其中的句子。根据对语境主义的类比,奎因和戴维森创立了人们所说的语义和整体论,这一观点认为,一个句子的意思是由它在整个语言中的用法确定的。”[13]奎因说道:“即使假定终究可以给同义性的概念提供一个令人满意的标准,但是,这种做法仍然只是考虑了‘意义’这个词的一种语境,即‘意义相似’这个语境。语词是否也有语言学家们应予以注意的其他一些语境呢?是的,语词肯定还有另一种语境,即‘具有意义’这个语境。”[14]因此,我们说同义的问题时,就得确立情境的相似性,但是,“没有两种情景是完全相似的,即使在其中说出同一形式的情境也有无数的差别。”[15]

鉴此,人工智能在设计语言编码时,就不得不考虑整个思想以及言语的各种情境条件对于句子意义的制约作用。然而,困难在于找出那些与语言情境有关联的主观成份,而对于后者,则几乎是不可能的。因为外部情境是一个极不确定的因素,每一个场景都是不相同的,这只能根据社会文化的类型大致确定几种不同情境类型,社会化的认识论则将在这方面提出它们自己的见解。

显然,从事对语境问题研究的哲学家们推动了这个转向。实际上,把世界形式化,或者形式地理解智能行为,直至目前人们认为是极为困难的,这些困难用形式化的方法是无法逾越的。由此可见,西蒙和纽厄尔的符号程序已经走到了终点。致命的局限性是由于符号程序没有看到信息加工系统是动态的、相互作用的、自组织的系统。而罗森布拉特则清楚地看到了这一点。

4.日常化认识问题

人工智能模拟不仅要解决心身关系,即人脑的生理与心理的关系问题,而且还必须解决人脑的心理意识与思维的各个层次间的关系,以及人的认识随环境的变化而变化、随语境的变化而变化的问题。根据智能系统的层次性分析,我们可以逐步做到对各个层次的模拟,但是,智能层次性分析也只是一种抽象化的分析或理想化的分析而已。实际的智能是多个层次之间不可分割的相互关联着的整体,各层次间究竟是如何发生关联的?在什么情况下发生什么样的关联?这便涉及到日常化的认识问题。

因此,建立在符号系统基础上的人工智能无法解决人类认识的日常化问题,特别是无法解决人脑的情感、动机、意向性等心理活动功能,无法解决我们的日常认识因语境不同而意义不同的问题。

现象学大师胡塞尔则认为,世界、思想的背景、日常语境等是一个非常复杂的系统,这个系统是与那些同个人复杂的信念体系等相联系的事实组成的。但是,原则上说,我们可以将自己在世界中的存在悬置起来,而完成对人类信念系统的独立描述,这样,我们智能行为的基础就可以得以确定。但是,海德格尔却反对其导师胡塞尔的观点。我们所生存的世界,我们说话的语境等等我们日常应付自如的方式,是我们社会活动的一部分,是我们的存在方式。这种存在方式是我们无法像胡塞尔那样将它抽取出一定的成分确定化的。明斯基指出:“仅是建构一个知识基础,就成为智能研究的重大问题……关于常识性知识的内容和结构,我们还是知道得太少了。‘极小’常识系统必须‘知道’有关因果、时间、目的、地点、过程和知识类型……某些情况。在这一领域中,我们需要花力气做严格的认识论研究。”[16]1970年后,在明斯基的倡导下,人们开始研究“微世界”领域,打算形成系统地处理知识的方法,并且人们希望这些限定的、孤立的微世界能够逐步变得更接近现实,并且能早日成为通往现实世界的理解手段。但是,最终人们发现这种研究在目前的情况下过于困难。因为,关键的问题是我们必须在面对常识的研究中形成一组抽象原理,以与常识理解相对称。“但是,人类很可能根本不是按照通常的方式使用常识性知识的。正如海德格尔和维特根斯坦所指出的,与常识性理解相当的,很可能是日常技能。所谓‘技能’,并不是指过程的规则,而是指在众多的特定场合知道该做什么。”[17]如果是这样的话,理解技巧就不是以某种确定的规则为基础的了,例如道德语境、审美情境等等。那么,基于符号的AI就无法对这样一种人们在特定的语境中所做出的特定行为做出模拟了。这就迫使AI的研究从符号操作理论转向神经网络模型的建构。

由于物理符号系统是一个物理的过程,它与人的心理活动有着根本的区别。因此,要模拟人的心理与意识,在原则上是不可能的事。但是,模拟人的意识所要解决的问题主要是三个方面:

首先,限定人工智能的目标。必须使单一的机器人对人的意识的模拟特定化,即不要让机器人做太多的过于复杂的事情,不要使编程陷入指数爆炸。根据西蒙的观点,人的认识就是解决问题,而人在解决问题时是先易后难、逐个逐个地解决,而不是一次解决无数个复杂问题。

其次,必须把人的心理与意识分层次进行模拟。只要能够展示出人脑的功能,那么尽管物理的过程与人的生理、心理的过程是截然不同的,但从功能上来说则是等效的。但是,要分层次地进行模拟,心理学的实验则是必不可少的。即为了给观察到的人类行为建立模型而编制符号系统程序,心理学对参试者观察与实验的结果便可作为构造物理符号系统的假设。

再次,必须建立理解意义的各种条件性假设。由于语句的意义在使用过程中是变化的,其意义随语境的不同而不同,这就需要我们在编程时设计出各种条件性假设,不同的语境有着不同的条件,只要我们设计出这些条件,那么其意义就得以确定。

【参考文献】[1][2][3][4][5]塞尔.心、脑和科学[M].杨音莱译.上海:上海译文出版社,1991.15、19、23、28、30-31.[6]夏佩尔.理由和求知[M].褚平,周文彰译.上海:上海译文出版社,1990.380.[7]查尔默斯.科学究竟是什么?[M].查汝强等译.北京:商务印书馆,1982.34.[8][9]维特根斯坦.哲学研究[M].陈嘉映译.上海:上海人民出版社,2001.75、121.[10][11]奥斯汀.记述式与完成行为式[A].载涂纪亮主编.语言哲学名著选辑[C].北京:三联书店,1988.202、203.[12][13]转引自布宁.西方哲学辞典[S].余纪元编著.北京:人民出版社,2001.194、196-197.[14][15]奎因.从逻辑的观点看[M].江天骥等译.上海:上海译文出版社,1987.45、56.[16]转引自博登.人工智能哲学[M].刘西瑞,王汉琦译.上海:上海译文出版社,2001.440.[17]德雷福斯.造就心灵还是建立模型:人工智能的分歧点[A].载博登.人工智能哲学[C].442-443.

(注明:本文作者郑祥福(浙江师范大学法政学院,浙江金华321004))

人工智能提出了什么哲学问题

嫦娥的月亮一定比阿姆斯特朗的月亮更有魅力

老一代的技术批判都具有某种怀旧色彩,都认为技术破坏了生活的精神性。的确如此,然而无可否认的是,现代技术创造了对于生活极其重要的无数事物,比如青霉素等抗生素、外科手术、疫苗接种、抽水马桶、供暖系统、自来水系统、电灯等等,还有许多便利工具如汽车、火车、飞机、电脑之类。以浪漫主义之心观之,技术都有去魅之弊而导致精神贫乏。但我记得李泽厚问过一个类似于罗尔斯无知之幕的问题:如果不能选择人物角色,你会选择什么时代?难道会选择古代吗?对这个超现实主义问题真是无言以对,但这个问题提醒了一个事实:人性倾向于贪图便利省力、摆脱劳动、安逸享受和物质利益,因此绝大多数人宁可选择物质高于精神的技术化生活。老一代技术批判想象的人们“原有的”诗情画意生活同时也是艰难困苦的生活,什么样的精神才能拯救饥饿的肉体呢?当然也可以反过来问,物质能变精神吗?显然,物质是问题,精神也是问题。

老一代的技术批判揭发了技术对精神的伤害,却尚未触及技术的终极危险所在,在今天,我们已经可以想象技术对生存的根本挑战。可以模仿马克思说:哲学家只是不同地批判了技术,可问题是,技术改变了世界。

技术提出了存在论的新问题

当技术问题同时成为存在论问题,真正要命的可能性就显现出来了。

存在论一向受制于单数主体的知识论视域(horizon),即以人的视域来思考存在,而且默认人的视域是唯一的主体视域,所以,存在论从来没有超越知识论。基于人类知识论的自信,康德才敢于宣称人为自然立法。也可以循环论证地说,人是自然的立法者,所以人的视域是唯一视域。不过,人们曾经在神学上设想了高于人的绝对视域,比如莱布尼茨论证了上帝能够一览无穷多的所有可能世界。然而,这种理论上的绝对视域无法为人所用,人不可能想象看清无穷多可能世界的绝对视域到底什么样。人能够有效使用的唯一视域还是人的主体性视域,如维特根斯坦所言,这是思想的界限。

思想没有能力超越自身,就像眼睛看不见眼睛自身(维特根斯坦的比喻),但思想做不到的事情却在实践中可能实现。人工智能就有可能成长为另一种主体,另一种立法者,或者另一种眼睛。这意味着一个存在论巨变:单向的存在论有可能变成双向的存在论(甚至是多向的)。世界将不仅仅属于一种主体的视域,而可能属于两种以上的主体,甚至属于非人类的新主体。人工智能一旦发展为新主体,世界将进入新的存在论。

人工智能有着多种定义。科学上通常将属于图灵机概念的人工智能标志为AI,将等价于人类智能的人工智能称为AGI(通用人工智能,artificial…general…intelligence),而全面超越人类智能的高端智能称为SI(超级智能,super…intelligence)。这个科学分类描述的是在技术上可测量的智能级别,但我们试图讨论智能的哲学性质,即是否具备“我思”的主体性,因此,请允许我在这里将人工智能按照其哲学性质进行划分,一类称为AI,即尚未达到笛卡儿“我思”标准的非反思性人工智能,覆盖范围与科学分类的AI大致相同,即属于图灵机概念(包括单一功能的人工智能,例如阿尔法狗,以及尚未成功的复杂功能人工智能);另一类称为ARI,即达到或超越笛卡儿“我思”标准的反思性人工智能(artificial…reflexive…intelligence)。ARI约等于超级人工智能,或超图灵机,我也称之为“哥德尔机”,以表示具有反思自身系统的能力。需要注意的是,ARI必定包括但不一定成为AGI或SI,这意味着,ARI未必具备人类的每一种才能,但必须具有自主的反思能力以及修改自身系统的能力,于是就具有自律自治的主体性,就成为无法支配的他者之心,也就成为世界上的另一种主体。

以主体性为准的分类试图突出地表达人工智能的可能质变,即奇点。目前看来,人工智能发生质变的奇点还很遥远,预言家们往往夸大其词,但问题是,人工智能的奇点是可能发生的。智能的要害不在于运算能力,而在于反思能力。人的主体性本质在于反思能力,没有反思能力就不是思维主体。如果人工智能没有反思能力,那么,运算能力越强就对人类越有用,而且没有致命危险,比如AlphaGo…Zero运算能力虽强却不是对人的威胁。反过来说,即使人工智能在许多方面弱于人,但只要具备反思能力,就形成了具有危险性的主体。假设有一种人工智能缺乏人类的大多数技能,既不会生产粮食也不会生产石油,如此等等,只会制造和使用先进武器,而它却发展出了自主反思能力,那么后果可想而知。至今人工智能只具有算法能力或类脑的神经反应能力,尚无反思功能,甚至不能肯定是否能够发展出反思功能,仍然属于安全机器,即使将来可能出现的多用途并且具有灵活反应能力的人工智能,只要缺乏反思功能,就仍然不是新主体,而只是人类的最强助手。

大多数技术都只是增强或扩展人类能力,比如生产工具和制造工具的机器,从蒸汽机到发电机,从汽车、飞机到飞船,还有电话、电脑、互联网到量子科技等等,图灵机人工智能也属于此类。无论技术多么强大,只要技术系统本身没有反思能力,就没有存在论级别的危险。从乐观主义来看,此类技术所导致的社会、文化或政治问题仍然属于人类可控范围。当然其中存在一些高风险甚至恶意的技术,比如核电站就是高风险的,至今尚无处理核废料的万全之策,又如核武器,其功能是大规模屠杀。人工智能和基因技术的发展却在超出增强能力的概念,正在变成改变物种或创造新物种的技术,就蕴含着人类无力承担的风险。尽管“神一般的”能力目前只是理论上的可能性,但已经先于实践提出了新的存在论问题,也连带提出了新的知识论和新的政治问题。需要注意的是,这些新的哲学问题并不是传统哲学问题的升级版,而是从未遭遇的新问题,因此,传统哲学对技术的批判,包括庄子、韦伯和海德格尔之类,基本上无效,甚至与新问题不相干,就是说,人文主义的伦理观或价值观对于技术新问题基本上文不对题。

人工智能和基因技术都提出了挑战人的概念的存在论问题,但相比之下,人工智能的危险性似乎大过基因技术。人工智能是真正的创造物,因此完全不可测,而基因技术是物种改良,应该存在自然限度。这个断言基于一个难以证明却可能为真的信念:对于一个整体性和封闭性的系统来说,内部因素的革命能力不能超越整体预定的物理或生物限度,假如内部变化一旦超出整体限度,就是系统崩溃。在这里意味着,基因技术的革命性不可能超越生命的生物限度。也许基因技术能够成为物种优化的方法,但无论什么物种,作为生命都有其整体所允许的变化极限。基因技术是否真的能够使人长生不老,仍是未知数。据说某些爬行类或鱼类生长缓慢而长寿,或如灯塔水母甚至有返老还童的特异功能以至于好像万寿无疆,但那些非常长寿的生物都是智力极低的,这是个令人失望的暗示。如果对人进行根本性的基因改造,是否会引起生命系统的崩溃?比如说,大脑或免疫系统会不会崩溃?试图通过基因技术将人彻底改造为神一般的全新物种,在生物学上似乎不太合理。更现实的问题是,基因优化哪怕是有限的就已经非常可能导致社会问题的恶化,以至于导致人类集体灾难,在此不论。

就创造新物种的能力而言,人工智能比基因技术更危险。人工智能一旦突破奇点,就创造了不可测的新主体,而对于新主体,传统一元主体的知识、视域和价值观将会破产,而二元主体(甚至多元主体)的世界还很难推想。尽管许多科幻作品想象了恐怖的机器人或外星人而使人得到受虐的快感,但人类对技术化的未来并没有认真的思想或心理准备。且不说遥远的二元主体世界,即使对近在眼前的初级人工智能化或基因技术化的社会,人们也缺乏足够的警惕。先不考虑末日问题,高度技术化的社会也将高度放大本就存在的难题而使人类陷于不可救药的困境,比如贫富分化、阶级斗争、种族斗争、民族斗争、资源稀缺、大自然的萎缩和失衡。

刘慈欣在论文式的短篇小说《赡养上帝》和《赡养人类》中想象了万事智能化的“暮年文明”令人绝望的故事。其中有两个切中要害的论点:其一,高度发达的人工智能几乎万能,全自动运行,于是形成让所有人丰衣足食的“机器摇篮”,正如宇宙中极其发达而名为“上帝文明”的人所说的:“智能机器能够提供一切我们所需要的东西,这不只是物质需要,也包括精神需要,我们不需为生存付出任何努力,完全靠机器养活了,就像躺在一个舒适的摇篮中。想一想,假如当初地球的丛林中充满了采摘不尽的果实,到处是伸手就能抓到的小猎物,猿还能进化成人吗?机器摇篮就是这样一个富庶的丛林,渐渐地,我们忘却了技术和科学,文化变得懒散而空虚,失去了创新能力和进取心,文明加速老去”,于是所有人都变成了“连一元二次方程都不会”的废物(《赡养上帝》)。这里提出的问题是,人工智能创造的幸福生活却事与愿违地导致了文明衰亡。其二,人工智能社会还有另一个更具现实性的版本。一个尚未达到“上帝文明”那么发达的智能化文明就已经陷入了文明的绝境。在小说中,比地球发达而文明类型完全相似的“地球兄弟文明”的人讲述了地球文明的前景:全面智能化的社会不再需要劳动,富人也就不再需要穷人,而阶层上升的道路也被堵死,因为富人垄断了“教育”。那不是传统意义上的教育,而是人工智能和生物技术合作而成的人机合一技术,购买此种极其昂贵的“教育”就成为超人,在所有能力上与传统人不在一个量级,其级差大过人与动物的差别,于是“富人和穷人已经不是同一个物种了,就像穷人和狗不是同一个物种一样,穷人不再是人了……对穷人的同情,关键在于一个同字,当双方相同的物种基础不存在时,同情也就不存在了”(《赡养人类》)。这说明,无须等到出现超级人工智能,智能化社会就已经足以把部分人类变成新物种,就是说,即使人工智能的奇点没有出现,人类文明的严重问题就可能来临。

且不说人工智能的奇点,近在眼前的问题就足够惊心动魄了。人类本来就未能很好地解决利益分配、社会矛盾、群体斗争或文明冲突等问题,这些问题之所以无法解决,根本原因在于人性的局限性,而不在于人谋的局限性。令人失望的是,人类解决问题的能力明显弱于制造问题的能力,所以积重难返,而人工智能或基因技术是放大器或加速器,对老问题更是雪上加霜。尽管人类发明了堪称伟业的政治制度、法律体系和伦理系统,但人类思想能力似乎正在逼近极限,近数十年来,世界越来越显示出思想疲惫或者懒惰的迹象,思想创意明显减少,思想框架和概念基本上停留在200年前。对于人工智能和基因技术等新问题,除了一厢情愿的伦理批判,就似乎一筹莫展。为什么对人工智能的伦理批判文不对题而无效?其中有个恐怖的事情:在一个文明高度智能化的世界里,伦理学问题很可能会消失,至少边缘化。这是与人们对文明发展预期相悖的一种可能性,看起来荒谬,但非常可能。

在《赡养上帝》中,高度发达的人工智能形成了让所有人丰衣足食的“机器摇篮”

通常相信,人类文明在不断“进步”。就科学技术而言,毫无疑问是在进步,但除了科学和技术,其他方面是否进步就存在争议了。技术的本质是能力,而能力越大,其博弈均衡点就对技术掌权者越有利。如果技术掌握在少数人手里,弱者的讨价还价收益就越小。那么,给定人性不变,文明的人工智能化就非常可能导致文明的重新野蛮化(re-barbarization)。在这里,“野蛮化”不是指退化到洪荒的生活水平,而是指社会关系恶化为强权即真理的丛林状态,就是说,既然占有技术资源的人拥有压倒一切的必胜技术,就不需要伦理、法律和政治了。这个霍布斯式的道理众所周知,只是宁愿回避这个令人不快的问题而维护一种虚伪的幻觉。人类一直都有好运气成功地回避了这个“最坏世界”问题,那是因为霍布斯的世界里没有绝对强者,既然强者也有许多致命弱点,那么人人都是弱者,而每个人都是弱者这个事实正是人类的运气之所在。正如尼采的发现,弱者才需要道德。人人为弱者就是人类的运气,也是伦理、法律和政治的基础,伦理、法律和政治正是互有伤害能力的弱者之间长期博弈形成的稳定均衡。当然也有博弈均衡无法解释的“精神高于物质”的例外,比如无私的或自我牺牲的道德,这是人类之谜。精神高于物质的现象并非人类社会的主要结构,不构成决定性的变量。

文明的人工智能化非常可能导致文明的重新野蛮化

高度发达的人工智能或基因技术或有一天可能宣布人类的运气用完了(并非必然)。按照最小成本和最大利益定理可推,人类文明之所以发展出复杂的制度、伦理和法律,是因为没有能力以低成本的简单方式去解决权力和利益问题。通常相信,文明的复杂程度标志着文明的发达程度,复杂性与精致、巧妙、协调、难度和精神性等文明指标之间确有相关性,所以“高级”。一个成熟文明的伦理道德是复杂的,法律和制度是复杂的,思想和艺术也是复杂的。这些成熟标志隐蔽了一个本质问题:复杂意味着高成本(包括交易成本),而正因为高成本,所以不可能实现利益最大化。于是有一个残酷的定理:如果有能力以最小成本的最简单方式去获得最大利益,人就会理性地选择简单粗暴的方式去解决问题,而不会选择复杂的高成本的方法。因此可知,一旦人工智能和基因技术创造了绝对强者,绝对强者就很可能利用绝对优势的技术去实现文明的重新野蛮化,比如说消灭“无用的”人,而放弃高成本而复杂的伦理、法律和政治。显然,对于一个重新野蛮化的高技术世界,伦理学就文不对题了。不过,人类还有反思和调整的时间,这不知算不算是好消息。

对可能出现的文明重新野蛮化,人们之所以缺乏足够的警惕性,或与启蒙运动以来人类的主体性傲慢有关,这同时也是理性的傲慢。启蒙理性告别了以神为尊,转向以人为尊,这场伟大的思想革命使人陶醉于主体性的胜利而逐渐忘却了人的真实面目。在以神为尊的古代,神是不可质疑的,同样,在以人为尊的现代,人也是不可质疑的,于是掩盖了人的弱点、缺点甚至罪恶。只要世界出现了什么坏事,总是归罪于制度或观念,不再反思人。从“原罪”中脱身的人再也没有负担,肆无忌惮地以人之名去要求获得一切快乐、利益和权利。现代政治的根据不再是对人有所约束的自然神学或宗教神学,而是人的神学,所谓大写的人。可是渺小而自私的人即使“大写”又能有多大呢?人凭什么获得想要的一切?主体性的傲慢反而揭示了人的神学是反人类的。个人主义可以保护个人,却没有能力保护人类,个人主义的这个致命弱点在人类整体面临挑战时就暴露无遗了。将来如果出现超人类的人工智能,或者极少数人控制了高能的人工智能,个人主义社会将没有能力反抗人工智能的统治,因为人工智能不是个人,而是比所有个人强大得多的系统。如前所言,绝对强者的人工智能系统不需要苦苦地通过复杂而高成本的制度、伦理和法律去解决社会矛盾,而将会“理性地”选择简单粗暴的解决方式。简单地说,启蒙运动以来的现代思想和信念对于技术为王的未来问题是文不对题而且无能为力的。史蒂芬·平克还在呼唤“当下的启蒙”,可是技术的脚步已经跨越了启蒙的思想而走向危险的未来。

人类的问题正在更新换代,目前的哲学对技术社会的新问题一筹莫展。

意识形而上学

为了理解新问题,看来需要进一步分析意识的秘密。意识是人类最后的堡垒,也是人类发现出路的唯一资源。可是人类研究意识至少有两千多年了,仍然对意识缺乏整体或透彻的理解。在意识研究中,亚里士多德对逻辑的发现是其中最伟大的成就,其他重要成就还包括休谟对因果意识和应然意识的研究、康德对意识先验结构的研究、索绪尔以来的语言学研究、现代心理学研究、弗洛伊德以来的精神病研究、胡塞尔的意向性研究、维特根斯坦对思想界限的研究,还有当代认知科学的研究,如此等等。但意识之谜至今尚未破解,一个重要的原因是,以意识去反思意识,其中的自相关性使意识不可能被完全对象化,总有无法被理解的死角,而那个无法理解的地方很可能蕴含着意识的核心秘密。

现在似乎出现了意识客观化的一个机会:人工智能开始能够“思维”——思维速度如电,尽管思维方法很简单:机械算法和应答式反应。正是这种简单性使人产生一种想象:思维是否可以还原为简单的运作?当然,目前的图灵机思维还没有自觉意识,只是机械地或神经反应地模仿了意识。人工智能展现的思维方式,部分与人类相似(因为是人类写的程序),也部分与人类不相似(因为机器的运作终究与生物不同),那么,是否能够从人工智能来映射意识?或者说,人工智能是否可以理解为意识的一种对象化现象?或至少成为有助于理解思维的对比参数?这些尚无明确的结论。

这里至少有两个疑问:(1)即使是将来可能实现的多功能人工智能,也恐怕不能与人的思维形成完全映射。按照我先前的分析(或许有错误),图灵机概念的人工智能不具备原创性思维(区别于假冒创造性的联想式或组合式的思维),也没有能力自己形成或提出新概念,更不能对付自相关、悖论性或无限性的问题,也没有能力定义因果关系(可笑的是,人至今也不能完美地定义因果关系),因此,人的思维不可能还原为图灵机人工智能;那么(2)假如人工智能达到奇点,跨级地发展为ARI,成为另一种意识主体,是否等价于人的意识?这个问题的复杂性和不确定性超出了目前的理解能力,类似于说,人是否能够理解神的思维?或是否能够理解外星人的思维?关键问题是,假定存在不同种类的思维主体,是否有理由推断,所有种类主体的思维都是相通一致的?都能够达成映射——哪怕是非完全的映射?这个问题事关是否存在普遍的(general)思维,相当于任何思维的元思维模式。这是关于思维形而上学的一个终极问题。

设想另一种主体的思维要有非常的想象力。我读到过两种(莱布尼茨所理解的上帝思维太抽象,不算在内):一种是博尔赫斯在小说《特隆、乌克巴尔、奥尔比斯·特蒂乌斯》中想象的“特隆世界”,特隆文明只关心时间,特隆人所理解的世界只是思想流程,于是,世界只显现时间性而没有空间性。以此种思维方式生产出来的知识系统以心理学为其唯一基础学科,其他学科都是心理学的分支。特隆的哲学家不研究真实,“只研究惊奇”,形而上学只是一种幻想文学(算是对人类的形而上学的嘲笑)。摆脱了空间负担的思维无疑纯度最高,对于唯心主义是个来自梦乡的好消息,可惜笛卡儿、贝克莱、康德和胡塞尔没有听说过这么好的消息。另一种惊人想象见于刘慈欣的《三体》三部曲。三体人以发送脑电波为其交流方式,不用说话,于是,在三体文明里,交流中的思维是公开的,不能隐藏想法,一切思想都是真实想法(哈贝马斯一定喜欢这种诚实的状态),因此不可能欺骗、说谎或伪装,也就不存在计谋,不可能进行复杂的战略思维,所有战争或竞争只能比真本事。这种完全诚实的文明消除了一切峰回路转的故事,显然与人类思维方式南辕北辙。

宇宙无奇不有,也许真的存在着多种思维方式,至少存在着多种思维的可能性。让我们首先假定,各种主体的不同思维之间是能够交流并且互相理解的。如果没有这个假定就一切免谈了。进而可推知,在不同的诸种思维模式之中存在着普遍的一般结构。那么,一般思维会是什么样的?我们无法直接知道一般思维的本质,因为不存在一种“一般的”思维,只有隐藏于所有思维中的一般结构。基于上述假设,各种思维之间至少在理性化内容上存在着充分的映射关系,因而能够互相理解一切理性化的语句,否则等于说,关于宇宙可以有互相矛盾的物理学或数学——这未免太过荒谬。荒谬的事情也许有,但在这里不考虑。同时,毫无疑问,不同思维里总会有互相难以理解的非理性内容,奇怪的欲望或兴趣,比如上帝不会理解什么是羡慕,或某种单性繁殖的外星人不理解什么是爱情,但此类非理性内容不影响理性思维的共通性。于是有一个“月印万川”的等值推论:如果充分理解了任意一种思维,就等于理解了思维的一般本质。但是,如前所言,我们只见过人类思维,可是思维又不能充分理解自身(眼睛悖论),又将如何?...

显然,思维需要映射为一种外在化形式以便反思,相当于把思维看作是一个系统,并且将其映射为另一个等价的系统。与此最为接近的努力是哥德尔的天才工作。尽管哥德尔没有反思人类思维整体,只是反思了数学系统,但所建构的反思性却有异曲同工之妙。一个足够丰富的数学系统中的合法命题无穷多,对包含无穷多命题的系统的元性质进行反思,无疑是一项惊人的工作。由此可以联想,此种反思方式是否能够应用于对人类思维整体的反思?但人类思维整体的复杂性否认了这种可能性,因为,在大多数情况下,人的思维不是纯粹理性的,为了如实理解人类思维,就不得不把所有非理性的“错误”考虑在内,这意味着,人类思维实际上是无法无天的,不可能还原为一个能够以数学或逻辑方式去解释的系统。简单地说,如果省略了逻辑或数学不能表达的“错误”思想,人类思维就消散了。

在这里,所谓“错误”是根据理性标准而言的异常观念,所有非理性观念都被归类为“错误”,包括欲望、信念、执念、偏见、癖好、不正常心理、无意识、潜意识,如此等等。这些“错误”所以必须被考虑在内,是因为它们经常是行为的决定性因素,绝非可以排除或省略的思维成分。哥德尔的工作一方面启示了反思的可能性,另一方面也提示了反思人类整体思维之不可能性。即使在排除错误命题的数学系统内,也存在着不可证而为真的“哥德尔命题”,即并非有限步能行(feasible)可证的真命题,因而一个包含无穷多命题的系统(不知道是否真的无穷多,至少是足够多以至于好像无穷多),或者存在内在矛盾,或者不完备。可以想象,比数学系统复杂得多的人类思维系统显然不仅存在大量内在矛盾,而且永远不可能是完备的。难以置信的事实是,包含非理性因素而显得“乱七八糟”的复杂思维却在人类实践中很有成就,比如说,人类的社会制度不可能按照数学推算出来。即使就理性化程度很高的科学而言,伟大的成就也不是单纯推理出来的,而是得力于创造性的发现。当代经济学也从另一个侧面说明了纯粹理性化的局限性,当代经济学只考虑能够数学化表达的那一部分经济事实,而漏掉了大量无法数学化的事实,因此对真实的经济问题缺乏解释力。

人类思维包含大量非理性成分,无法还原为逻辑系统

这里万万不可误会为对数学和逻辑的质疑。数学和逻辑无疑是人类思维最重要的方法论,如果没有数学和逻辑,就不存在人类思维,就仍然是动物。但同时也应该说,单凭数学和逻辑,人工智能无法超越机器(图灵机)的概念,不可能成为等价于人类思维或超越人类思维的新主体而实现“创世纪”的物种超越(人工智能的发展不属于进化论,而属于创世论)。只是说,人类思维具有如此惊人的创造性能量,一定在数学和逻辑之外还有别的思维方式,只是尚不清楚是什么样的。哲学家喜欢将其称为“直观”“统觉”或“灵感”之类的神秘能力,但等于什么都没有说,代号而已。

博弈论是一种广谱的理性分析模型,通常证明了理性选择的优势,但也同时揭示了理性的局限性,比如在作为纳什均衡的“囚徒困境”中,理性必定选中其次坏的结果,而非理性的选择则以赌博方式获得最坏或最好结果。给定大多数人自私贪婪而见利忘义,那么,非理性选择获得最坏结果的概率必定远远大于最好结果。这一点似乎解释了为什么大多数政治、经济或战争“赌徒”都一败涂地,但也会有极少数获得奇迹般的胜利而成为传奇。可以推知,一个文明的理性化程度越高,人间就越趋于无故事,历史的奇迹就越少。人类需要奇迹吗?或者,人类不需要奇迹吗?再者,充分理性的超级人工智能需要奇迹吗?

纯粹理性在逻辑上蕴含着恐怖的结果。比如说,充分理性化的行为有助于达到交易成本的最小化(大于零),按照此种“经济学理性”,能够达到交易成本最小化的策略在有的情况下就是恐怖策略,如前所言,假如拥有能够兵不血刃的技术代差,强者达到交易成本最小化的策略就是消灭对手或者奴役对手,而不是通过讨价还价达成契约。康德早就发现,在纯粹理性之外必须有实践理性,即道德的理性,否则无以为人,就是说,人的理性必须有道德负担,否则没有好生活。但这种理想的隐秘前提是“人人都是弱者”的运气,我们已经讨论过这一点。

这使人想到一个冒汗的问题:一旦达到具有主体性的人工智能,即ARI,会需要或喜欢有道德负担的实践理性吗?它有这个必要吗?当然,我们无法预料ARI的选择方式,不懂属于ARI文明的博弈论。且以“将心比心”的方式来猜想,将有两个可能结果,都令人失望:(1)如果ARI只有纯粹理性,没有道德理性,那么它将大概率地按照它的存在需要来决定人类的命运,也许会“赡养人类”而把人类变成白痴,也许会清除人类;(2)假如ARI模仿人类的欲望、情感和价值观,那么它多半会歧视人类,因为ARI会观察到人类如此自私贪婪,言行不一地缺乏人类自己标榜的美德。不过,我们终究无法猜想ARI会有什么样的心灵,甚至还尚未理解人类自己的心灵。

心灵的概念比思维的概念大了许多。如何理解心灵一直是个难题,哲学有个专项研究称为“心灵哲学”,另外还有心理学和认知科学的助力,虽经时日,进展却不多。心灵具有黑箱性质,在心灵内部进行唯心主义的内省已经被证明没有意义,因为主观内省不可能确定自身的意义。心灵的意义需要外在确认,即语言和行为,这意味着,我们所能够知道的心灵是“说出来的”或“做出来的”,而既不能说又不能做的心灵也许在(is),但尚未存在(exists),而且还存在言行不一的问题。

维特根斯坦以“哲学语法”重构了语言和行为的关系问题。他证明了:

(1)能够想的就能够说,因为语言是思维形式,也是思想的界限。(2)能够用来想的语言必定具有公共性或可共度性。即使密码也具有共度性,所以能够破译,而唯独一个人自己能懂的一次性密码(所谓私人语言)不存在,因为人不可能理解没有任何确定性的意义,所以,在任何意义上不可沟通的自我不存在(这对于迷恋“独特自我”的人是一个致命打击)。(3)意义是通过范例(examples)而被确定的,没有范例就不足以明确意义。但如果一条规则的应用领域不是封闭的,那么这条规则就不是“死规则”,可以根据情况灵活应用,比如说,一个玩笑在有的情况下是讥讽,在另一种情况下却是表达亲密。“活规则”意味着,在已确定的范例之外,意义具有可延伸性,能够产生范例之外的新用法。(4)如果把语言理解为用语言代表的行为,即语言行为,那么,包含多种“语言游戏”的语言就映射所有行为,其复杂性等价于生活全部行为。所以,理解思维的秘密就在于理解语言的秘密。

如果维特根斯坦是对的,我们就获得了思维的一种可明确分析的对象化形式,同时意味着,语言学是人工智能研究的一个关键领域。如果能够完全解析人工智能的可能语言,或人工智能语言的可能性,就几乎理解了人工智能的潜在智能。这显然不是一件容易的事情,人类尚未完全理解自己语言的秘密,又如何能够完全发现人工智能的语言能力?这是一个未知数,有待人类解析能力的提高。

目前虽然无法全盘理解人类思维,也无法彻底理解人工智能的思维潜力,但或许有一个有助于发现智能差异的…“减法”,即以人类思维“减去”人工智能的思维,会有什么发现?这个问题等价于寻找人工智能的奇点在哪里。可以设想一个具体情形来理解这个问题:如果给人工智能输入人类的全部数学和物理学知识(相当于人工智能“学会”了全部数学和物理学),人工智能是否能够解决人类目前无解的数学难题或提出更先进的物理学理论?看起来不太可能。通过智能“减法”可以预见,无论算法能力多强的图灵机人工智能,都缺少人类特有的几种神秘能力:反思能力、主动探索能力和创造力。

这里讨论的反思能力属于狭义的反思。广义的反思包括了对事物的批评(criticism),即根据一些既定价值标准或真理标准对事物进行批评。广义的反思对于人工智能不是难事,人工智能可以从其现成的知识库里找到相应的批评标准来对事物做出评价和分析,但这只是为人类代劳。严格的反思是对思想自身系统的元性质(元结构或元定理)进行解析,类似于康德所谓的理性批判(critique),把思维自身当作对象来分析思维自身的能力,即以自相关的方式理解思维自身,通俗地说,就是对思维自身的能力进行“摸底”。典型的反思有亚里士多德对逻辑的发现、休谟对因果观念的分析、康德对先验范畴的探索、罗素对数学基础以及悖论的分析、希尔伯特对系统公理化的研究、布鲁威尔对能行性的研究、胡塞尔对意识内在客观性的研究、哥德尔对数学系统完备性的研究、图灵对机器思维的研究,等等。只要能对自身进行自相关的研究,就标志着思维获得了自主性,就有可能对思维系统进行修改。AI尚未获得此种能力,因此还不可能成为ARI。

主动探索能力也是思维自主性的一个标志。除了足够发达的智力水平,主动探索能力还与生存压力有关。如果没有生存压力,就不会有主动探索的动机,也就不会发现新事物和发展新知识。汤因比的说法是,“适度挑战”是文明发展的关键条件(过度挑战就灭绝了,没有挑战则不需要探索)。AI没有生存压力,只是人类的最好帮手。即使达到ARI,具有与人类匹敌甚至优于人类的智力,如果缺乏生存动机,就不太可能主动探索,也就难以发动反思或创新,更不可能创造人工智能自己的文明。

目前人工智能的一些“创造性”表演比如创作绘画、音乐或诗歌,都不是真正的创作,只是基于输入的参数或数据的新联想和新组合。有趣的是,现代以来,人类对什么是创造性也产生了混乱的理解,往往将创造性等同于“新”甚至是一次性的新。可是“新”过于平常廉价,事实上每件事都是新的或不可完全重复的,每次的字迹都是新的,每个动作都是新的,每次经验都是新的,“人不可能两次踏入同一条河”。既然每件事都具有唯一性或独特性,所以都是新的。如果创造性等于新,就失去了价值。可见“人人都是艺术家”(博伊斯)是一个过于讨好时代的谎言。

神“创造”世界的神话早已点明了创造的根本含义:无中生有。人的能力有限,不能无中生有,所以只能创作,不可能创造,但其创造性相似,因此可以说,创造性在于改变力,在于能够改变世界或历史,改变生活或经验,改变思想或事物,或者说,创造性在于为存在增加一个变量。与智力不同,创造性无法测量,所以神秘。创造性很可能并不是思维诸种能力的其中一种,而是诸种能力的合作方式,因此在每一种可描述的思维能力中无法识别哪一种是创造力,就是说,创造性是思维的“系统总动员”。所以创造性思维往往在于对无限性、复杂性和自相关性的理解力,或者在于形成概念的能力,这两种思维具有类似于“创世”的效果,即为存在建立秩序。创造性思维正是人工智能所缺乏的,因为算法不能在涉及无限性或自相关的问题上另有发明,也不能建构新概念,也就不能为存在建立秩序。

为存在建立秩序

最后可以讨论图灵测试的问题。可以想象,将来的人工智能不难获得人类的全部知识,甚至每件事情或每个人的全部信息,因此,人类的知识提问恐怕考不倒人工智能,就是说,人工智能虽然不能回答所有问题,但它的任何回答不会比人类差。在这种情况下,图灵测试就不足以判断一个对象是否是人工智能了,也许只好反过来以“学识过于渊博”来猜测谁是机器人。对此,图灵测试就需要升级为“哥德尔测试”,我无法给出新测试的标准,但人工智能应该能够证明其反思能力、主动探索能力或创造性,也许还应该具有自我关心的能力,比如说能够拒绝伤害自身的无理要求——这不是笑话,从目前的人机对话来看,人类的问题有时候相当无聊或不怀好意,将来也许会有人问人工智能为什么不去自杀,甚至要求人工智能实施自杀。不过,如果人工智能一旦成为ARI,有能力通过哥德尔测试,就成为世界的立法者,恐怕要轮到人类排队通过测试了。

我们不知道具有主体性的人工智能会想做什么,但我继续坚持认为,无论人工智能自发进化出什么样的意识,都不会像人的意识那样危险,而如果人工智能学会了人类的情感、欲望和价值观,就一定非常危险。这个判断基于这样的事实:

(1)人类并非善良生命,贪婪、自恋、好战又残酷,因此,人类的欲望、情感和价值观绝非好榜样,比如说,“个人优先”的个人主义价值观肯定不是人工智能的好榜样。

(2)人类意识并没有人类自诩的那么优越,人的意识仍然处于混乱状态,行为到底听从什么,无法确定,这是意识的老难题“排序问题”。首先是理性、情感、利益、信念何种优先,就难以排序。文学和电影最喜欢此类“情义两难”或“理智与情感”的冲突题材。其次,每个价值体系内部的优先排序也同样困难,自由、平等和公正如何排序,个人利益、家庭利益、国家利益如何排序,父母之情、子女之情、爱情、友情如何排序,都是历久常新的难题。价值排序之所以非常困难,以至于经常出现悖论性的两难,是因为根本就不存在价值排序的元规则,而且任何一种排序都有潜在危险,恐怕不存在绝对最优的排序。悖论或两难困境是人类意识一直解决不了的问题,假如让人工智能学会人类的情感、欲望和价值观,无非是让人工智能的意识陷于同样的混乱。

(3)任何欲望、情感和价值观本身就先验地蕴含歧视,如果人工智能习得欲望、情感和价值观,就等于学会了歧视,而它的歧视对象很可能是人类。如果没有情感、欲望和竞争,就不可能产生歧视,而无歧视就不存在价值。情感、欲望或竞争都指向选择的优先排序,而排序即歧视,所以说,如果无歧视,价值就不存在,换句话说,价值的存在论基础就是不平等,如果一切平等,价值就失去了立足的基础,其中道理就像是,如果每个数目都等于1,就不存在数量差异了(佛教早已讲明了这个逻辑:万事为空,意识见无,才能众生平等)。哲学宁愿相信存在某些具有“内在价值”的事物,即仅凭事物本身而无须比较就能证明是好的价值,这是绝对价值的最后希望,但也是一个未决疑问。我们希望有绝对价值,但不能寄以太高期望,即使有绝对价值,也因为太少而不足以解决人类难题。

总之,如果把人类情感、欲望和价值观赋予人工智能,那是人类无事生非的宠物情结,也是自找苦吃的冒险。假如未来具有主体性的人工智能成为世界秩序的主持者,如果它的意识只有纯粹智力内容,虽然缺乏“爱心”,反而可能比较安全。针对他者的攻击性需要有欲望、情感和价值观作为依据,而无欲则无害,因此,相对安全的人工智能的意识只能限于由“实然”关系(to…be)构成的思维,而一切“应然”(ought…to…be)观念都不宜输入给人工智能,就是说,相对安全的人工智能只知对错,不知好坏。人类自己都不知道什么是绝对的好坏,而实际语境中的所谓好坏,只不过意味着对于自己的好坏,所以,给人工智能输入价值观只不过复制了人类的所有冲突。

人类智慧在于能够为存在建立秩序,但人类智慧的局限性在于没有能力建立万事都好的秩序。历史表明(演化博弈论也有类似发现),人类社会不可能全都是好事,甚至,好事很难多于坏事,理性也没有经常胜过非理性,尤其是个人理性的加总难以形成集体理性,所以人类整体的命运总是悬念。人工智能的发展正是对人类智慧的一个终极测试。我有个悲观主义的预感:在人工智能成为统治者之前,人类就可能死于人工智能创造的一切好事。坏事总能引起斗争、反抗、改革甚至革命而得到拨乱反正。可是好事却麻痹心灵,而对其副作用缺乏修正能力,最终将积重难返而崩溃。这不知是不是最新版本的“存在还是毁灭”(to…be…or…not…to…be)问题?

文章来源:《文化纵横》2020年01期、“文化纵横”公众号

微信编辑:边策

文稿校对:张浩然返回搜狐,查看更多

人工智能在应用中会带来哪些伦理问题

引言人工智能是关于优化流程,而不是将人类从流程中剔除。问责制在人工智能可以取代人类的总体理念中仍然至关重要。虽然技术和自动化系统在过去一个世纪帮助我们取得了更好的经济产出,但它们真的能取代服务、创造力和深厚的知识吗?我仍然相信他们不能,但他们可以优化开发这些领域所花费的时间。

问责制在很大程度上依赖于知识产权,预见到技术对集体和个人权利的影响,并在开发新模型的同时确保用于培训和共享的数据的安全和保护。随着我们技术的不断进步,人工智能伦理的话题变得越来越重要。这提出了一个重要问题,即我们如何监管人工智能并将其融入社会,同时最大限度地降低潜在风险。

我与AI的一个方面密切合作——语音克隆。语音是个人相似度的重要组成部分,也是用于训练语音模型的生物识别数据。在构建产品时,必须考虑保护相似性(法律和政策问题)、保护语音数据(隐私政策和网络安全)以及建立语音克隆应用程序的限制(衡量影响的道德问题)。

我们必须评估人工智能如何与社会规范和价值观保持一致。人工智能必须适应社会现有的道德框架,确保它不会带来额外的风险或威胁既定的社会规范。技术的影响涵盖了人工智能赋予一组人权力同时消灭其他人的领域。这种生存困境出现在我们发展和社会成长或衰退的每个阶段。人工智能能否将更多虚假信息引入信息生态系统?是的。我们如何在产品层面管理该风险,以及我们如何就此对用户和政策制定者进行教育?答案不在于技术本身的危险,而在于我们如何将其打包到产品和服务中。如果我们没有足够的产品团队人力来超越和评估技术的影响,

将AI集成到产品中会引发有关产品安全和防止AI相关危害的问题。人工智能的开发和实施应优先考虑安全和伦理方面的考虑,这需要为相关团队分配资源。

AI伦理

为了促进关于实施AI伦理的新兴讨论,建议采用以下基本周期来使AI在产品层面符合伦理:

调查人工智能的法律方面以及我们如何对其进行监管(如果存在法规)。其中包括欧盟的人工智能法案、数字服务法案、英国的在线安全法案和关于数据隐私的GDPR。这些框架正在进行中,需要行业领跑者(新兴技术)和领导者的投入。请参见完成建议周期的第(4)点。考虑我们如何在不增加风险的情况下使基于人工智能的产品适应社会规范。它是否影响信息安全或就业部门,或者是否侵犯版权和知识产权?创建基于危机情景的矩阵。我从我的国际安全背景中得出这一点。确定如何将以上内容集成到基于人工智能的产品中。随着人工智能变得越来越复杂,我们必须确保它符合社会的价值观和规范。我们需要积极主动地解决伦理问题,并将其纳入AI开发和实施中。如果基于AI的产品(如生成AI)威胁传播更多虚假信息,我们必须引入缓解功能、节制、限制对核心技术的访问并与用户沟通。在基于人工智能的产品中拥有人工智能道德和安全团队至关重要,这需要资源和公司愿景。考虑我们如何为法律框架做出贡献和塑造法律框架。最佳做法和政策框架不仅仅是流行语;它们是实用工具,可帮助新技术发挥辅助工具的作用,而不是迫在眉睫的威胁。将政策制定者、研究人员、大型技术和新兴技术聚集在一起对于平衡围绕AI的社会和商业利益至关重要。法律框架必须适应新兴的人工智能技术,确保它们保护个人和社会,同时促进创新和进步。想想我们如何为法律框架做出贡献并塑造它们。最佳实践和政策框架不是空洞的流行语,而是使新技术成为辅助工具而不是迫在眉睫的威胁的实用工具。将政策制定者、研究人员、大型技术和新兴技术聚集在一个房间对于平衡围绕AI的社会和商业利益至关重要。法律框架必须适应新兴的人工智能技术。我们需要确保这些框架保护个人和社会,同时促进创新和进步。最后的想法

这是将基于人工智能的新兴技术融入我们社会的真正基本循环。随着我们继续应对人工智能伦理的复杂性,必须继续致力于寻找优先考虑安全、伦理和社会福祉的解决方案。这些不是空话,而是每天拼凑所有谜题的艰苦工作。

人工智能引发的科技伦理问题

但工业革命是一把“双刃剑”,人工智能这一新技术革命也是如此,在带来巨大利益的同时也将带来很多隐患,如图1所示。

图1人工智能带来的隐患

其一,隐性的机器歧视。现阶段,机器学习算法也好,深度学习算法也罢,都能决定用户的行为,如看什么视频、听什么歌曲;甚至还能决定获得贷款、救助金的主体以及具体金额。为用户推荐好友、根据搜索记录自动为用户推荐商品、对用户的信用进行评估、对应聘者的能力进行评估、对犯罪风险进行评估等。越来越多的人类活动交给了人工智能机器来裁决,我们认为人工智能机器是公平的,但人工智能机器是否公平却是一个未知数,其中存在巨大的公平隐患。

其二,不容忽视的安全与隐私。人工智能依赖于算法,但算法却具有不透明性和不可预见性,增加了人工智能监管失控的发生几率,从而产生一系列安全问题。例如,2015年德国大众汽车制造厂发生的机器人袭击工作人员事件;2016年发生的谷歌无人驾驶汽车与大巴车碰撞事件。这些人工智能伤人事件发生之后如何明确责任?如何将人工智能带来的安全隐患降到最低?此外,随着人工智能的发展,收集、利用的数据将越来越多,如何保护数据安全也是一大挑战。

其三,智能机器的控制问题。随着人工智能的发展,人类将更多的工作交由人工智能来完成,人工智能对人类的思想和行为进行学习和模拟,当人工智能的智慧超过人类,人类无法掌控人工智能的时候,人工智能是否会反过来对人类进行控制,这是一个非常重要的问题。

赢家机器人,瞬间释放电销企业销售潜能,一天1500通销售电话,节省企业人力成本70%,提升电销企业业绩300%!

电话销售与人工智能的深度融合,帮助企业迅速释放销售潜能!

这是一个什么样的项目?

这是传统电销企业迎接AI智能技术的一次绝佳机会。它能帮助你迅速完成传统电销模式的更新换代,在节省人力成本的同时,迅速提升电销业绩!

赢家机器人是什么?

赢家机器人,是路云集团依靠AI人工智能语音识别技术,自主研发的帮助电销企业迅速提升电销业绩的智能语音管理系统。

电销企业为什么要选择赢家机器人?

随着科技发展,技术进步,原有电销模式正在逐渐失去推广优势。电销人员日复一日重复着低效率工作,即失去了工作热情,同时无法对客户进行精准的资源细分。当所有行业都在面临AI人工智能的大肆颠覆之时,电销企业同时也正在迎接一场科技变革!

电销企业面临的行业难题:

人工成本上涨、员工工作效率低下,离职率奇高,无精准话术引导,客户资源无法精准定位……

赢家机器人,以科大讯飞、阿里云AI人工智能语音识别系统为技术核心,通过大数据智能云数据分析系统,充分甄别每一条有效资源。强大的真人语音多轮对话技术,让AI电销之路畅通无阻!

人工智能风口来袭,赢家机器人帮你彻底释放电销潜能!

赢家机器人市场前景如何?

2017年,国务院接连颁布多条关于AI智能的行业规划细则,表明了在全球范围内抢占AI人工智能科技制高点的决心。国内多个行业巨头公司(阿里、通讯、百度等)都在不遗余力的发展人工智能。

可以预见的是,在未来,我们的生活将和AI人工智能产生密不可分的联系。谁能抢占行业先机,谁就能够抢占新一轮的科技红利!

拥抱AI人工智能时代,赢家机器人彻底释放电销潜能!返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇