博舍

魏屹东:发展人工智能引发的六大哲学伦理学问题 人工智能哲学问题的文章有哪些

魏屹东:发展人工智能引发的六大哲学伦理学问题

魏屹东:发展人工智能引发的六大哲学伦理学问题

发布时间:2019-05-29

 文章来源:《南国学术》2019年第2期

【摘要】人工智能的发展,对社会产生了巨大冲击,从而引发了人们对它的种种忧虑和反思。从哲学视角看,机器自身是否能拥有智能,是否具有人一样的思维,功能主义能否说明机器意识,生物自然主义能否驳倒功能主义理论,对意识和感受性的解释是否存在解释鸿沟,这些问题发人深思。哲学问题表明,机器拥有智能、能够思维意味着“机器中的幽灵”观点的复兴,这就回到了笛卡尔关于物质与心灵独立存在的二元论上,但“幽灵是如何进入机器的”问题,二元论无法说明。功能主义试图从中介因果性给出机器意识的一种功能说明,认为任何两个系统,只要它们具有同构的因果过程,它们就应该具有相同的心理状态。而生物自然主义则坚决反对这种观点,认为心理状态是高层次的涌现特征,它由低层次的神经元中的生理物理过程引起,机器不具有生物功能,当然不可能有意识,也就不可能有理解和思维。其实,机器是否有“智能”,与机器是否“理解”是不同层次的问题,这就看如何定义“智能”和如何去理解了。显然,这些问题的核心是意识问题,即能否用物理状态解释心理状态的问题,而意识问题目前仍是一个谜。在对这个问题的解释上,既有哲学上的混乱,也存在某些“解释鸿沟”。从伦理学视角看,人工智能的发展是否会对人类构成威胁,谁应该对此负责,智能型机器人是否应该有身份认同,它与人类有怎样的伦理关系,这些关于人工智能的安全和伦理问题,值得人们重视。智能型机器人的身份认同,即人形智能型机器人是否被承认是人类,不仅是个法律问题,更是伦理问题。如果机器人会对人类生存产生极大的威胁,禁止其发展就是必须的,人类的法律和道德都绝对不允许杀人。这就意味着,人类必须控制机器人的发展,毕竟智能机是人类自己创造的,产生的不良后果应该由人类自己来承担,人工智能对人类行为方式的影响也应该由人类自己来规范。

【关键词】人工智能功能主义生物自然主义意识智能型机器人

人工智能的快速发展,不仅引发了一系列哲学问题,也引发了一系列伦理学问题。对于这些问题的思考,学界不断有成果面世。从适应性角度看,人类应该能够与其创造的智能机共处共存,因为创造它们是为了服务人类,而不是控制甚至毁灭人类。尽管如此,人工智能的发展后果仍然难以预料。人工智能产生后,有人声称,机器能够智能地行动,哲学界将这种观点称为“弱人工智能假设”;也有人断言,机器的行为实际上是拥有思维能力而不仅仅是模拟思维,哲学界将这种观点称为“强人工智能假设”。大多数人工智能研究者将“弱人工智能假设”视为理所当然,不太关心“强人工智能假设”;也就是说,只要他们设计的程序能够工作,就不关心机器是模拟智能还是真实智能。然而,机器人代替人类工作或思维将会产生什么样的后果?是否会有机器人控制人类的事情发生?这些都是人工智能可能引发的重大哲学、伦理学问题,需要作深层次考察和追问。

一机器的智能是其自身具有的吗?

机器能够智能地行动,是目前机器人技术正在实现的目标。自1956年人工智能产生起,就有人断言,人类学习的每个方面,或智能的任何其他特性,都能够由机器精确地描述或模拟。这似乎表明,“弱人工智能假设”不仅是可能的,而且已经部分实现。然而,也有人认为,弱人工智能不可能,它只是人们狂热崇拜计算主义而产生的一种幽灵。

显然,人工智能可能与否,取决于如何定义它。若将人工智能定义为“对在给定构架上最佳主体程序的探索”,它就是可能的。即对于任何具有k比特程序储存器的数字构架,存在2k个主体程序;接下来是发现最好的程序,并列举和测验它们。而当k非常大时,在技术上则是不可行的。但是,哲学界关注的是理论的而不是实践的问题,他们对人的认知构架和机器的构架的对比更感兴趣。具体说,就是关心机器能否思维,而不关心机器行动的最大效用。

大多数人认为飞机作为机器能飞,但问题是,飞机能飞与机器能思维不是一回事。因为,“飞”是动力学问题,“思维”是认知科学问题,后者比前者要复杂得多。阿兰?图灵(A.Turing,1912—1954)认为,不要问机器能否思维,而是问它能否通过智能行为的测试。图灵这里说的是会思维的机器,而不是一般的机器;即能计算的机器就是智能机,大脑就类似于计算器。这就是著名的“计算器隐喻”。如果将思维定义为计算,那么机器无疑会思维,因为人也会计算,当然也会思维。但是,人的思维与计算器的“计算思维”在本质上是不同的,正如鸟会飞与飞机会飞在本质上的不同。

对于人来说,计算过程肯定是思维过程,但思维过程未必是计算过程,如情感思维、冥想等,尽管这里的计算可以被理解为广义的,包括数学运算、逻辑推理、语言操作、问题解决等。而对计算器来说,计算就是操作和执行人编写的程序,这个过程与情感过程完全不同,尽管情感也可以被量化、被计算,甚至审美、幸福感这些纯粹体验的东西也可以纳入计算范畴。问题来了:一方面,若计算等于思维,机器就是可思维的;若计算不完全等同于思维,机器就可能不会思维。这就需要对“计算”和“思维”概念进行精确定义,找出它们之间的内涵与外延。这是一个棘手的难题,学界一直在争论中。

作为计算器科学的开创者,图灵已预见到对智能机可能存在三种主要反驳:无能力论证,数学反驳,随意性论证。如何看待这些反驳?需要仔细分析和讨论。

1.无能力论证。这种论证的形式是“机器决不能做x”。这里的“x”,是许许多多具体的事例或情形或状态,包括和蔼的、机智的、美丽的、友好的;有主动性,有幽默感;能够辨别是非、犯错误、坠入爱河;享受草莓和冰淇淋;向经验学习;正确地使用词;是它自己思想的主体;有像人一样多的行为多样性,等等。在这些事例中,有些是相当简单的,如犯错误;有些则是人能做到而智能机做不到的,如坠入爱河,因为机器还没有感情。尽管目前的智能型机器人能够做许多连人都难以做到的事情,但它们的背后都有人类专家在操作,独立于人的智能机单独靠自己的能力还不能做出发现。也就是说,智能机在执行任务的过程中,还不能提供洞见,产生顿悟,并且理解,因为洞见、顿悟、理解是人类特有的,智能机目前还不具备这种能力。

2.数学反驳。哥德尔(K.F.G?del,1906—1978)和图灵的工作已经表明,某些数学问题,根据特殊形式系统,原则上是无解的。哥德尔的不完备定律就是这方面著名的例子:若任何形式公理系统“F”有足够能力做算术,则建构一个所谓的哥德尔语句“G(F)”是可能的。该语句具有如下两个属性:

(1)“G(F)”是一个“F”语句,但不能在“F”内被证明。

(2)如果“F”是不矛盾的,那么“G(F)”是真的。

这个定律说明,机器在心理上不如人,因为机器是形式系统,它受不完备定律的约束,不能建立自己的哥德尔语句的真值,而人则没有任何这样的限制。这种观点,引起了学界的长期争论。

首先,哥德尔的不完备定律仅适用于有足够能力做算术的形式系统,包括图灵的智能机。在是否具备心理性这一点上,机器与人不可同日而语,这种观点部分是基于计算器是图灵机的观念,但不完全正确。因为,图灵机是无限的,计算器则是有限的,而且任何计算器都能够用命题逻辑描述为一个巨系统,这不服从哥德尔不完备定律。

其次,一个主体不应该太无知以至于不能建立某些语句的真值,而其他主体能够。例如,“张三不能无矛盾地断言这个语句是真的”。如果张三断言了这个语句,那么他将使他自己陷入矛盾,所以,张三不能一致地断言该语句。这其实已经证明,存在这样一个语句,即张三不能无矛盾地断言语句的真假,而其他人和机器则能够。还有,一个人无论何等聪明,终其一生也不能计算出10100的数目之和是多少,而超级计算器能够在几秒钟搞定。但是,不能就此认为计算器比人聪明,也没有看到这作为基本限制会影响人的思维能力。人类在发明数学和计算器前就已经智能地行动几十万年了。这意味着,形式数学推理在指明什么是智能的方面很可能只是起次要作用的。

最后,也是最重要的,即使承认计算器在其所能够证明方面是有限的,也没有任何证据表明人不受那些限制的影响。严格讲,人们很容易证明一个形式系统不能做“x”,如没有情感、心理活动,但声称人能够使用自己的非形式方法做“x”却没有给出这种观点的任何证据,这难道是合理的吗?的确,证明人这种生物系统不受哥德尔不完备定律支配是不大可能的事情,因为任何一个严格的证明都要有非形式的人的参与才能形式化,并因此驳倒它本身。于是,人们就给直觉留下了余地,认为人能够以某种方式执行数学洞察力的非凡技巧。在做推理时,人们必须假设一致性或无矛盾性的存在。更可能的情形是,人本身就是一个矛盾体。这一点,对于日常推理是如此,对于缜密的数学推理也是如此,著名的“四色地图问题”的证明就充分说明了这一点。

3.随意性论证。这是图灵提出关于人工智能最有影响和后人持续最久的批评,即关于人行为的随意性论证。其含义是,人的行为太过复杂,以致不能通过一组简单的规则来理解;计算器所做的无非是遵循一组规则,不能产生像人这样的智能行为。以一组逻辑规则无能力地理解每件事,在人工智能中被称为“资格问题”。德雷福斯(H.L.Dreyfus,1929—2017)是“资格问题”的主要支持者,他在《计算器不能做什么》《计算器仍然不能做什么》中,对人工智能遵循一组规则产生智能的观点提出一系列批评,其立场被豪格兰德(J.Haugeland,1945—2010)称为“好的老式人工智能”(GOFAI)。这一立场主张,所有智能行为能够通过一个逻辑地从一组事实和描述这个域的规则进行推理的系统中得到理解。德雷福斯正确地指出,逻辑主体对于资格问题是脆弱的,而概率推理系统更适合于开放的域。

不过,应该看到,德雷福斯反对的不是计算器本身,而是编辑计算器程序的方法。根据德雷福斯的观点,人类的专门知识的确包括某些规则的知识,但只是作为在其中人操作的一个整体语境或背景。例如下棋,棋手首先必须掌握关于下棋规则的知识,这些知识作为语境在下棋过程中起作用。新手完全依赖规则,需要计划做什么,而大师看一下棋盘就能够迅速知道如何做,正确的步骤已在头脑中。这就是说,大师无需刻意考虑规则就能迅速做出决定,其思维过程不依赖有意识的心智的内省。但是,这不意味着思想过程不存在,只是在大师那里,思维过程已经融入到熟练的技能中。

德雷福斯提出了获得技能的五个步骤,以基于规则的处理开始,以迅速选择正确答案的能力结束。为此,他还提出一个神经网构架组成一个巨大的案例库,但指出四个问题:(1)源于案例的好的概括没有背景知识是不能获得的。没有人知道如何将背景知识归并入神经网的学习过程。(2)神经网的学习是一种监管学习形式,需要相关的输入和输出的优先识别。因此,没有人类训练者的帮助它不能自动操作。事实上,没有教师的学习能够通过无监管学习和强化学习来完成。(3)学习算法在许多特性上执行得并不好。如果我们挑选一个特性子集,就会有增加新特性的未知方式存在,这使得当下集应该证明不适当考虑习得的事实。事实上,新方法如“支持向量机”(SupportVectorMachine)是能够非常好地处理大量特性集的。随着基于网络大数据的引入,许多应用领域如语言处理、计算器视觉能够处理数千万个特性。(4)大脑能够引导其感官寻求相关信息,能够加工信息以提取与当下情境相关的属性。但是,德雷福斯主张,这种机制的详细过程目前还不能被理解,甚至包括能够指导人工智能研究的假设方式。实际上,由信息价值理论支持的自动视觉领域,已经关注方向传感器问题,而且某些机器人已经吸收了所获得的理论结果。

总之,德雷福斯关注的许多问题,包括背景常识知识、逻辑推理问题、不确定性、学习、决策的合成形式等,的确构成人工智能的主要问题,现在已经归入标准智能主体设计领域。这是人工智能进步的证据,不是其不可能性的障碍。

4.情境主体论证。德雷福斯最强的论证是针对情境主体的,而不是针对无身的逻辑推理引擎的。一个主体,支持其理解“狗”的知识库,仅源于逻辑语句的一个有限集,如狗(x)→哺乳动物(x),与一个观看狗赛跑、同狗一起玩的主体来说,这个主体处于劣势。正如安迪?克拉克(AndyClark)指出的,生物大脑的首要功能是作为生物身体的控制系统,生物身体在丰富多彩的真实世界环境中运动、行动。为了理解人类或动物主体如何工作,人们必须考虑整个主体,而不仅仅是主体程序。事实上,具身认知方法不独立地考虑大脑,而是将它与身体看作一个不可分割的整体。也就是说,认知发生在身体包括大脑内,而身体是嵌入于环境中的。这样,认知就是环境中的认知,即情境认知。可以预计,机器人的传感器技术的发展,一定依赖于具身认知纲领和情境认知纲领。

二机器具有人一样的思维吗?

机器能够像人一样思维是“强人工智能”的假设。许多哲学家认为,机器即使通过了图灵测试,也不能说它能像人那样思维,而只能算作是一种思维模拟。图灵已经预见到这种观点,称其为意识论证——即只有机器不仅能写出乐曲,而且知道它写出了乐曲时,才能承认机器就是大脑;或者说,机器必须意识到它自己的心理状态和行动。说人有意识,几乎没有异议;说机器有意识,则会引起极大争论。意识是认知科学、认知心理学的一个重要议题,它与研究直接经验的现象学相关,即机器必须实际上能够感知情感。在现象学中,判断某物是否有意识的一个标准是所谓的意向性。根据这个标准,对于机器来说,由于它能够是实际地关于真实世界中的某物的,所以,它可能有信念、愿望和其他表征。这种观点,引起了争论。

图灵对反驳机器有意向性观点的回应是机智的。并给出了这样的理由——机器可能有意识,或者有现象学特性或具有意图,问机器能否思维则是一个不清晰的问题,因为人们对机器的要求高于对人类的要求,毕竟在日常生活中,没有直接的证据表明我们了解他人的内在心理状态。这是心灵哲学中的他心问题。与其继续纠结这个问题,不如关注每个人思维的惯例。当时,人们还只是设想人与机器在未来对话的可能性;而如今,人机对话已经是寻常之事,真实思维与人工思维之间已没有语言之间的区别,就像人造尿素与有机尿素之间不存在物理、化学性质之间的区别一样。

如果说无机物与有机物之间的界限已经被打破,那么,机器思维与人类思维之间的界限是否也会被打破呢?这毕竟不是同一层次的问题,前者是物理层次的,后者是精神层次的。对于思维,目前还没有达到从无机物合成有机物的程度,所以多数人还是宁愿相信,人工机器思维无论多么引人注目,也不会是真实的(人的思维),至多是模拟的(似人思维)。正如塞尔(JohnR.Searle)所质疑的:“没有人假设,一场暴风雨的计算器模拟会让我们淋湿……究竟为什么人在其正常心智中会假设心理过程的计算器模拟实际上具有心理过程?”塞尔的质疑有一定道理,既然计算器模拟不会产生实际效果,人们也不能指望计算器模拟心理过程能够产生实际心理状态。然而问题是,这种模拟适当吗?虽然计算器模拟暴风雨不会让人淋湿,但人们并不清楚如何将这个模拟运用到心理过程。它虽然与用洒水器模拟下雨会使人淋湿不同,但暴风雨的计算器模拟的确能仿真湿的特征。如同模拟驾驶不等于真实驾驶,但能让模拟者体验到是在驾驶真实的车。大多数人会同意,在计算器上模拟下棋,与在真实场景下棋没有什么不同,因为这是在执行下棋的行动,而不是在模拟。心理过程更像是模拟暴风雨,还是更像下棋?

其实,图灵的思维惯例给出了可能的答案。在他看来,一旦机器达到某种老练的程度,这个问题本身通常会自动消失。这也会消解“弱”与“强”人工智能之间的差别。不少人对此持反对意见,认为存在一个不可否认的实际问题——人有真实心智,机器没有。要阐明这个实际问题,需要弄清人如何有真实心智,而不仅仅是身体产生神经生理过程。

哲学上解决这个心身问题,与机器是否有真实心智问题直接相关。心身问题是一个既老又新的问题。笛卡尔(R.Descartes,1596—1650)的二元论将心与身截然分开,认为二者独立存在,尽管它们之间存在相互作用,但随后产生的问题是,心是如何控制身体的?而心的一元论,也称物理主义,通过断言心与身不是分离的,心理状态就是物理状态,避免了这个问题。大多数现代心灵哲学家都是不同形式的物理主义者,他们原则上承认强人工智能的可能性。但物理主义者面临的问题是,解释物理状态(特别是大脑的分子构架和电化学过程)如何能够同时是心理状态呢?比如,疼痛、享用美食、知道某人在开车、相信北京是中国的首都等。

著名的“瓮中之脑”(braininavat)思想实验就是为反驳物理主义而提出的。物理主义者试图说明,一个人或机器处于一个特殊心理状态是什么意思。意向状态,如相信、知道、愿望、害怕等,是他们特别关注的,这些状态指向外在世界的某些方面。例如,我吃烧饼的知识是一个关于烧饼和在其上发生了什么的信念。若物理主义是对的,情形一定是,一个人的心理状态的适当描述,由那个人的大脑状态来决定。如果我正集中精力以经意的方式吃烧饼,那么我此刻的大脑状态是“知道某人吃烧饼”这类心理状态的一个实例。当然,我的大脑中所有原子的具体构架对于“我知道我吃烧饼”的心理状态是不必要的。也就是说,我的脑或其他人的脑有许多构架,它们属于同一类心理状态。关键点是,同一脑状态不对应于一个基本明确的心理状态,如某人正吃苹果的知识。

物理主义的观点,的确具有科学理论的简单性特征,但这种简单性受到“瓮中之脑”思想实验的挑战。设想一下,你的脑从你出生就与你的身体分离,并被置于一个神奇设计的瓮中,这个特殊的瓮能很好地保存你的脑,允许它生长、发育。同时,电信号从一个完全虚幻世界的计算器模拟输入你的脑,来自你的脑的移动信号被拦截,并被用于修正模拟直到适当。事实上,你经历的模拟生活精确复制你可能已度过的生活,如果你的脑不是被置于瓮中的话,包括模拟吃虚拟的烧饼。这样,你可能已经用于一个脑状态,该状态与真正吃真烧饼的人的脑状态同一,但是,说你拥有心理状态“知道你吃烧饼”表面上可能是假的。然而,事实是,你没有吃烧饼,你从来没有品尝过烧饼,当然你不可能有这样的心理状态。

这个实验,似乎与脑状态决定心理状态的观点相矛盾。解决这个问题的路径是,心理状态的内容能够从两种不同的视角来解释:宽内容与窄内容。宽内容是从一个通达整个情境的全能的外部观察者的视角给出解释,这个观察者能够区分这个世界中的不同事物。按照这种观点,心理状态的内容既包括脑状态也包括环境的历史。窄内容只考虑脑状态。例如,一个真实吃烧饼的人与一个瓮中之脑吃烧饼者的脑状态的窄内容,在这种情形中是相同的。

如果你的目标是把心理状态归于共享你的世界的其他人,以预测它们可能的行为和效果,那么宽内容就是完全适当的,因为它包括了心理状态所涉及的语境因素,如环境的历史,这是我们关于心理状态的日常语言进化的必要环境。如果你关注的是人工智能系统是否真实地思维和真实地拥有心理状态的问题,那么窄内容就是适当的,因为机器是无语境的,即与环境的历史无关。所以,不能简单地认为,人工智能系统能否像人那样真实地思维,依赖于外在的那个系统的条件。如果我们考虑设计人工智能系统并理解其操作,那么窄内容也是与此相关的,因为正是大脑状态的窄内容,才决定下一个脑状态的内容是什么。这自然产生了这样一些问题——对于脑状态什么是要紧的?什么使得它拥有一个心理状态而其他没有?在这个所涉及的实体的心理操作范围内,功能角色起到何种重要作用?这些是功能主义的替代方案试图说明的问题。

三功能主义的“脑替代”实验能说明机器产生意识吗?

在机器是否有心理状态的问题上,功能主义认为,心理状态是输入与输出之间的任何一个中介因果条件。根据功能主义,任何两个系统,若它们具有同构的因果过程,则具有相同的心理状态。因此,一个计算器程序能够拥有与人相同的心理状态。这里的同构,是指两个不同系统在结构和属性方面的一一对应,在数学上是映射关系。这个假设无论正确与否,都表明存在某种水平的抽象,在这个抽象框架下的操作是无关紧要的。

功能主义的这种观点可由“脑替代”(brainreplacement)思想实验得到清晰的说明。这个实验包含三个假设:(1)神经生理学发展到这样的程度——人脑中所有神经元的输入输出行为和连通性被完全理解;(2)人们能够建构微型电子装置,它能够模仿整个行为,能够顺利连接神经组织;(3)某些神奇的外科技术能够用相应的单子装置替代个体神经元,而不中断脑作为一个整体的操作。一句话,这个实验是由使用电子装置逐个替代人头脑中的所有神经元所构成。

在这里,需要关注的是在操作之后和操作期间“被试者”(subject)的外在行为和内在体验。根据实验的定义,如果这个操作不被执行的话,与所将要观察到的情况相比较,被试者的外在行为必须是保持不变的。虽然意识的在场或缺场不能被第三个当事人确定,实验主体至少应该能够记录他/她自己有意识经验中的任何变化。显然,对于接下来将发生什么会存在一个直接的直觉冲突。但是,功能主义者相信,他们的意识仍然会保持不变。

作为一个生物功能主义者,塞尔也相信他的意识会消失。在他看来,人们会失去对其外在行为的控制。他举了这样一个例子,当医生测试你的视力时,会在你面前举一个红色物体,然后问你看到了什么?你本来想说你没看见任何东西,但你完全不受控制说出你看见一个红色物体。这意味着,你的有意识经验慢慢地消失,而你的外在可观察行为仍然保持不变。

这有两种情形需要注意:一方面,当被试者逐渐成为无意识时,要保持外在行为不变,被试者的意愿同时完全被取消;否则,意识的消失将会反映在外在行为中,如被试者会大叫或以言辞表达。如果将意愿的同时消失看作是某一时刻的神经元逐渐替代的结果,这似乎是一个不太可能的主张。另一方面,在没有真实的神经元保留期间,如果问被试者关于他的有意识经验的问题,那么会发生什么呢?假设一个正常人被尖棍子戳了一下,他会发出尖叫;若一个失去知觉的人被尖棍子戳了一下,他可能没有任何反应。机器就像一个没有知觉的人,被戳一下也没有反应,因为它没有神经元,尽管它可能被设计成有刺激—反应的程序做出应答。假如我们用电子脑替代正常人脑的功能属性,而且电子脑没有包含任何人工智能程序,那么我们必须拥有显示意识的一个解释,这种意识是仅由诉诸神经元功能属性的电子脑产生的。因此,这种解释也必须应用于具有相同功能属性的人脑。

这会导致三种可能的结论:(1)正常人脑中产生这类输出的意识的因果机制仍然能在电子装置中操作,它因此是有意识的。(2)正常人脑中的有意识心理事件与行为没有任何因果联系,并从电子脑中遗失,它因此不是有意识的。(3)这个实验是不可能发生的,因此关于它的推断是无意义的。尽管不排除第二种可能性,但它将意识还原到副现象的地位,即哲学上描述的某物发生了但没有留下影子,好像它存在于可观察的世界。进一步说,如果意识的确是副现象的,那么被试者在被戳痛后就不会有发出尖叫的情况发生,因为不存在有意识经验的痛。相反,人脑可能包含一个次要的、无意识的机制,该机制负责在受到刺激后会发出尖叫声。

总之,功能主义主张,在神经元水平上操作,意味着也能够在任何更大功能单元如一组神经元、一个心理模块、一片脑叶、半脑或整个脑水平上操作。这意味着,如果接受脑替代实验说明替代脑是有意识的观点,那么也应该相信,当整个脑被电子装置替代后意识被保持下来了,而且这个电子装置通过一个查找表从输入到输出的地图不断升级其状态。如果功能主义是对的,这会使大多数人包括弱人工智能者感到不安,因为查找表不是有意识的,至少在查找表期间产生的有意识经验,与在操作一个可能被描述为存取和产生信念、反省、目标等的系统期间产生的有意识经验是不同的。因此,脑替代实验并不能充分说明机器能够产生意识。

四生物自然主义驳倒了功能主义吗?

20世纪80年代,塞尔的生物自然主义开始流行,它对功能主义提出了强烈挑战。根据生物自然主义,心理状态是高层次的涌现特征,它由低层次的神经元中的生理物理过程引起。神经元的这种未指明的属性才是重要的。因此,说心理状态被复制,仅仅是在部分具有相同输入输出行为的某些功能结构程序基础上,而且会要求这个程序在执行一个与神经一样有因果力的认知构架。为了支持这种观点,塞尔描述了一个假设系统,这就是著名的“中文屋”。

这个假设的中文屋系统由一个不懂中文只懂英文的人、一本英文写的规则书(《英汉对照词典》)和一堆纸条(有些是空白,有些写有不认识的符号)构成。中文屋有一个通向外面的窗口,负责收取纸条。屋中的人相当于计算器的中央处理器(CPU),规则书相当于程序,纸条相当于储存器,窗口相当于输入输出装置。屋中的人能够将通过窗口传入写有中文符号的纸条,按照规则书的匹配指令(形式规则)将其编译成中文语句,并将写有中文的纸条传递出去。指令可能包括在新纸条上写符号,在纸堆中发现符号,重新安排纸堆等。这个中文屋系统输入中文纸条并产生中文回答,看上去与图灵设想的系统一样有智能。目前的翻译程序如百度翻译、谷歌翻译等,就相当于中文屋系统。

对此,塞尔认为,中文屋中的人,比如我塞尔本人,完全不懂中文,规则书和一堆纸条不过是一张张纸条,根本不理解中文。这个系统根本不存在对中文的理解,即执行一个正确的程序,不必然产生理解。塞尔假设“中文屋”系统要说明的是,执行一个适当的程序尽管也产生正确的结果,但对于成为一个心智是不充分的。

然而,机器是否有“智能”,与机器是否“理解”,实际上是不同层次的问题。按照计算主义的定义,若一个系统能够计算,它就应该有智能,因为计算就是思维,思维当然是智能行为。但如果将智能定义为包括“理解”在内,则机器系统就难以有智能,因为任何程序无论是形式的还是非形式的,机器系统只能执行程序并不理解程序本身,甚至人有时也只是使用某种语言,不一定理解其意义,如同儿童背诵唐诗,成年人使用0(零)。因此,这就看如何定义、理解“智能”概念了。有智能与有意识、有心灵、能理解,还不是一回事,虽然它们之间有关联。

严格讲,塞尔所反对的不是弱人工智能的观点,而是强人工智能论断——恰当程序设计的机器具有认知状态,程序本身就是对人的认知过程的理解。塞尔在《心灵、大脑与程序》一文中,通过设想一个中文屋,从系统应答、机器人应答、脑模拟者应答、联合应答、他人心灵应答、多重套间应答六个方面系统而详细地反驳这种论断,客观上说,还是非常有力的。然而,将人在中文屋中理解中文,模拟为“CUP”能够开立方运算,是否合适?这是许多强人工智能支持者质疑塞尔反驳的一个普遍问题,也是人工智能专家对哲学界的挑战。

在中文屋与“CPU”两种情形中,对于“理解”而言,都是否定的。因为,人不理解中文,“CPU”也不理解。若问中文屋是否理解中文,按照强人工智能,回答可能是肯定的。塞尔的应答,实际上重申了这样的观点——在人脑中不理解的,在纸中也不能理解,所以不能存在任何理解。塞尔似乎是在说,整体的属性必须存在于部分属性中,这显然不合适。比如,水是湿的,但其组成的成分H2O都不是湿的。

塞尔的主张基于四个公理:(1)计算器程序是形式的(句法的);(2)人类心智基于心理内容(语义的);(3)句法本身对于语义学既不是必要的也不是充分的;(4)生物脑产生心智。塞尔从前三个得出结论,程序对于心智是不充分的,即一个执行程序的主体可能是一个心智,但仅根据执行程序并不必然是一个心智。从最后一个公理得出,能够产生心智的任何其他系统可能会拥有等同于脑的因果力的因果力。由此,塞尔推知,任何人工脑将会拥有复制脑的因果力,不仅仅运行一个特殊的程序,但人脑不会仅根据运行一个程序就产生心理现象。一句话,意识或心灵是生物现象,计算程序是不能产生这种现象的。

但是,这些公理是有争议的。例如,公理(1)(2)依赖于一个句法与语义学之间的未详细说明的区分,这种区分似乎与宽内容、窄内容之间的区分密切相关。一方面,人们可以将计算器看作操作句法符号;另一方面,也可以将计算器看作操作电流,这恰好与大脑运作的情形(生物电流)相似。所以,人们会说脑就是句法的。但是,程序对于心智是不充分的这个结论并不令人满意。塞尔所主张的是,如果你明确地否认功能主义,即公理(3)表明的,那么你就不会必然得出没有脑是具有心智的。这样,中文屋论证可以归结为是否接受公理(3)。

丹尼特(DanielC.Dennett)将中文屋论证称为“直觉泵”(intuitionpump),即中文屋论证放大了人的先验直觉。他认为,塞尔的论证形式对哲学家来说是很熟悉的,即他构建了一种所谓的直觉泵,一种通过在基本思想实验上产生变异来激发一系列直觉的装置。“直觉泵”通常不是发现的引擎,而是一种说服者或教学工具,一种一旦你看到真相就能让人们以你的方式看待事物的方法。丹尼特反对用直觉泵来思考,认为它被许多人滥用。在这种情况下,塞尔几乎完全依赖于错误的结果,即由错误地提出的思想实验产生的有利直觉。因此,生物自然主义者坚信他们的立场,而功能主义者仅确信公理(3)是未经证明的,或者说,塞尔的论证是不足以令人信服的。然而,不可否认的是,中文屋论证不仅对人工智能产生了巨大挑战,也引发了广泛的争论,但很少改变持不同立场人们的观点。比如,博登就旗帜鲜明地反对塞尔的“中文屋”论证,认为他的论断是错误的。

审视这场争论可以发现,那些接受公理(3)进而接受塞尔论证的人,当决定什么实体是心智时,仅仅依赖他们的直觉而不是证据。中文屋论证表明,中文屋凭借执行一个程序的力量不是一个心智,但该论证没有说,如何凭借某些其他理由决定中文屋或计算器或机器人是不是一个心智。不过,塞尔承认人类这种生物机器有心智。按照塞尔的这种观点,人脑可能或不可能执行像人工智能程序的某些东西,但如果人脑能执行,那也不是它们是心智的理由。在塞尔看来,创造一个心智需要更多的东西,比如,相当于个体神经元的因果力的某些东西。但是,这些力是什么,仍然是待解之谜。

然而,需要注意的是,从生物进化的角度看,神经元进化出执行功能角色,即具有神经元的生物远在意识出现于自然界之前就学习和决定了。若这样的神经元由于与它们的功能能力无关的某些因果力而恰好产生了意识,那将是一件惊人的同时存在事件。毕竟,正是这种功能能力才支配了有机物的生存。而在中文屋的情形中,塞尔依赖直觉而非证据,即只看到屋,没有证据证明屋中到底有没有意识发生。我们也可以将大脑看作屋而做同样的论证,即只看到细胞的组合,盲目地根据生物化学或物理学规律操作,那里有心智吗?为什么一大块脑能产生心智而一大块肝脏不能?这仍然是一个巨大的秘密,是一种解释鸿沟。因此,仅仅依靠哲学的思考还不足以弄清心智的形成机制,这需要多学科的联合。

五意识、感受性的解释存在解释鸿沟吗?

对于强人工智能的争论,其核心是意识问题。具体说,意识是否只是生物特性的,非生物的人工意识或机器意识是否可能实现?意识通常表现为不同方面,如感受性、理解、自我意识、自由意志等。这些方面都是哲学上一直在讨论的问题,至今仍在争论。而与意识问题紧密相关的是主体经验,即感受性,它是人们经验的内在性质。人们的某个感觉如疼痛是否有相应的脑状态?或者说,一个心理状态是否有相应的物理状态?这个问题对心智的功能主义说明构成了挑战,因为不同的感受性可能涉及别的同构因果过程是什么的问题。例如,“倒置光谱”(invertedspectrum)思想实验表明,当看见红色物体时某人“x”的主体经验,与当其他人看见绿色物体时的主体经验相同,相反也一样。“x”坚持红色是红的,在红色信号灯亮起时停,也同意红色信号灯的红色比夕阳的红色更强烈。然而,“x”的主体经验在两种情形中是不同的。红色信号灯是停的经验,夕阳是享受或感悟的经验。

感受性问题不仅是心灵哲学的一个重要问题,也是自然科学的一个重要问题,不仅对功能主义形成挑战,也对科学形成挑战。假设神经科学已经探明大脑的运作机制,比如发现一个神经元中的神经过程将一个分子转换为另一个,不同神经元之间的相互连接路径等等,这些发现也不足以让人们接受,拥有神经元的实体如同大脑有任何特殊的主体经验。在神经过程与意识形成之间可能存在某种鸿沟。这在哲学上被称为“解释鸿沟”(explanatorygap),它是心身问题中关于物理现象与心理现象之间的理解关系问题,具体说是能否用物理状态解释心理状态的问题。这种解释鸿沟,导致有人如查尔莫斯(DavidJ.Chalmers)认为,人类无能力完全理解自己的意识;也有人如丹尼特通过否认感受性进而否认解释鸿沟的存在,认为这是由于哲学混乱造成的。但是,无论结论怎样,问题依然存在,争论仍在继续。

其实,如果感受性是意识经验,则主体经验与意识相关,没有主体意识也就没有主体经验。例如,一个丧失意识的植物人没有感觉,也就没有主体经验。如果感受性是非意识经验,那就有点神秘了,毕竟我们不能否认有意识的人有主体经验,主体经验就是感受性。之所以存在解释鸿沟,是由于还没有弄清生物的大脑是如何拥有意识的,更遑论机器脑是如何产生意识的。况且,意识与感受性之间的联系机制也还没有完全弄清,因此,形成所谓的解释鸿沟也就不难理解了。图灵也承认,意识与机器智能是不同的问题,但他否认意识问题与人工智能有太多的联系。也就是说,意识问题不妨碍机器智能问题。当今人工智能的长足发展充分说明,意识与智能不是一回事,有意识的存在一定有智能,如人类;但有智能的存在不一定有意识,如智能机。也许人工智能并不依赖于意识,而是依赖于能创造智能行为的程序。意识可能是一种不需要智能的更高级精神现象。

六人工智能能否对社会伦理构成威胁?

不论智能与意识关系如何,也不论人工意识是否可能,一个显见的事实是,人工智能的迅速发展已经对人类社会产生了非同凡响的影响,这是自我认知领域的一场深刻变革,有人称之为“图灵革命”,也是继哥白尼革命、达尔文革命、神经科学革命后的“第四次革命”。这一次革命之所以与以往不同,在于它将人类看作一个信息体,在信息圈内与其他可逻辑化、自动化信息处理的信息智能体共享自然和人工领域内的成就,相互交织在一起。于是,人类越来越多地将记忆、认知活动甚至日常生活,委托给智能机如计算器、智能手机等来完成,智能机已然成为人类的“延展大脑”。如果没有手机,人们将无所适从;如果电信网络停摆,人们将无法完成购物支付。除认知、经济等领域外,人工智能特别是智能型机器人的发展是否会对人类的精神领域,特别是伦理观念和行为规范产生影响?这一点是肯定的,而且影响巨大。这可以从以下四方面来探讨。

一是智能型机器人的身份认同问题。这不仅是个法律问题,更是伦理问题。一个人形智能型机器人是否被承认是人类,即使法律上的障碍被消除,比如,2017年10月28日,沙特阿拉伯向机器人“索菲娅”授予国籍,宣布机器人索菲娅为其国家的公民,享有与其国民相同的权利。这就是承认机器人的合法人类身份的地位。然而,接下来更棘手的伦理层次的问题是——“索菲娅”与人类是什么关系?她能结婚吗?尽管“索菲娅”与人类外形高度相似,拥有仿生橡胶皮肤,可以模拟62种面部表情,能识别人类面部表情、理解人类语言、能够与人互动,甚至还会开玩笑,但她毕竟还是机器人,缺乏人类拥有的情感力和自然生育能力,更没有人类长期建立起来的伦理观念,因此,对机器人提出伦理要求本身就是不合理的,赋予机器人以所谓的合法身份也就是一场闹剧。

二是智能型机器人的安全性问题。如果机器人会对人类生存产生极大的威胁,如无人驾驶机器成为杀人武器,禁止其发展就是必须的,因为人类法律和道德都绝对不允许杀人。这就是人类如何控制机器人的问题。2018年3月9日,欧洲科学与新技术伦理组织发布《关于人工智能、机器人及“自主”系统的声明》称,人工智能、机器人技术和“自主”技术的进步已经引发了一系列复杂和亟待解决的伦理问题,呼吁为人工智能、机器人和“自主”系统的设计、生产、使用和治理制定国际公认的道德和法律框架。

三是人类道德责任问题。在这种由人工智能和机器人构成的复杂信息社会技术系统中,与道德相关的“智能主体”(agency)应该有怎样的位置?人类如何分担产生的道德责任,或者由谁为其中产生的不良后果负责?不可否认,智能机是人类自己创造并推广应用的,产生的不良后果应该由人类自己来承担。具体来说,谁生产谁负责;正如环境问题,谁污染谁治理。这不仅是一个涉及对人工智能的研发、设计、测试、生产、监管、认证的问题,也是一个包括政府、企业、个人在内民主决策、协调解决的问题,涉及制度、政策及价值观的决策,以确保人工智能技术不会给社会带来危害。例如,哈佛大学肯尼迪政府学院贝尔弗科学与国际事务中心与美国银行宣布成立“人工智能责任运用协会”,旨在解决未来人工智能快速发展中可能出现的问题。

四是人类的行为规范问题。人工智能发展不仅极大地改变了人类的生活方式,也改变了人类的行为方式。目前的互联网给人类带来了极大的便捷,网购、支付宝、外卖非常普及,机器人已代替人类的部分工作,人变得休闲了,但也无所事事了,宅男宅女普遍存在,几天甚至几周不下楼的大有人在。这又带来了社会问题:人与人之间面对面的交流、沟通没了,感情淡化了,冷漠成为常态,不仅导致了网瘾、安全问题,也产生了不良行为。比如,走路看手机导致的车祸,长期宅在家里造成的交流封闭,甚至产生自闭症。假如有一天智能型机器人真的普及了,人类应该如何与它们打交道?应该建立一种怎样的关系?人类面对机器人应该如何规范自己的行为?这是不久的将来人类会面临的社会和伦理问题。

概言之,对于人工智能,人类不仅要关注它如何发展,还要考虑它应该怎样发展。如果人工智能的发展对于人类是弊大于利,如果机器人将会控制人类并要毁灭人类,人工智能研究者就有责任终止这种研究,如同终止核武器的发展一样。这不可避免地给人工智能研究者提出了社会责任和社会伦理的要求。

 

编者注:此文是作者主持的中国国家社会科学基金重点项目“科学认知的适应性表征研究”(16AZX006)的阶段性成果,发表于《南国学术》2019年第2期第220—231页。

特别声明:本文转载仅仅是出于辅助教学和学习的需要,如其他媒体、网站或个人从本网站转载使用,自负版权等法律责任;作者如果不希望被转载,请与我们接洽。

从人工智能难题反思AI伦理原则

   取代问题是物质性活动维度,即是人类实践活动能否被智能机器取代。在这一问题中,实际上具有双重意义:其一是从人类活动的本性看,机器取代人类活动是人类活动技术化的必然结果。如果某些人类活动可以自动化的话,意味着能够被自动机器取代,所以这种取代会根据人类活动的自动化趋势而扩展;其二是从超级智能的角度看,机器取代人类意味着机器获得自主意识之后产生的必然后果。当机器智能超越人类智能之后,按照进化逻辑,机器智能必然会以高级的形式来改造低级的形式,出现的结果就是取代人类活动。比如自动驾驶汽车取代人类司机、智能法官取代人类法官、智能医生取代人类医生。所以取代问题实质是双重的,人类活动的自动化趋势及其超级智能生成的结果。从第二个方面看,它是超越问题衍生的必然结果。

   首先我们考察第一点。何谓人类活动的技术化?在日常的表达中,人类活动的自动化意味着人类活动的一种本性,能够被某种功能同构的其他活动取代。人类活动技术化的整体经历了一个从身体部分的技术化、身体功能的技术化到个体身体的技术化以及人类整体的技术化的演变过程。这一点我们从技术发展史中可以感受到。以喝水为例,最初人们喝水是靠手捧,从河水里面捧水喝。但是这样的效率很低,随着不同种类的容器出现,容器的装水功能取代了人体[手]的功用,这样可以获得更多的水,效率也随着提高。在这个过程中,我们一方面看到的是喝水功能的演变,从手到容器的出现;另一方面看到的是手之容纳功能被同构的容器取代。这一点是人类学考察的结果。所以,这个过程是身体器官的技术化。所谓器官延伸论的哲学解释就是身体器官的技术化,身体功能能够以技术化的方式被替代,如同上面的被子的容纳功能取代了手的容纳功能。其次是身体功能的技术化,如五感的技术化,五感指的是视听味触嗅,它与身体相关,但不是身体部分,而是身体功能。人类的身体功能多半以感知功能的形式表达出来,如眼睛的远望、耳朵的倾听、腿部的、腰部的等器官的力量。大部分都可以实现技术化,人类身体的功能不断技术化在不同时代表现不同。接着是整体身体的技术化意味着人类个体的技术化,这一点已经是马尔库塞在《单向度的人》中加以揭示的结果,个体变成了技术系统上的一个环节,其功能被取代。这一取代的自然推演结果是人类整体的技术化,20世纪60年代以来,控制论-系统论等科学与人工智能技术带来的是自动化的趋势,这种取代更为彻底,实现的是整体身体的取代或者整个类的取代。所以,这个过程表现出的是不断技术化的过程,从身体部分、身体功能到个体身体和人类整体的技术化。从这个发展脉络出发,我们就可以看到不同社会中这一过程如何表现为社会难题了。身体部分与身体功能的技术化带来的社会问题并不是很明显,因为这个时期技术仅仅表现为具体的器物,以眼镜为例,望远镜、显微镜等器物的出现,掀起的仅仅是一些日常的争议,很快被人类社会所接受。但是当个体身体被技术化的时候,哲学家表示了极大的批判,这种技术导致的异化成为了猛烈的批判目标。人类整体的技术化更是如此。这种批判更加彻底化,我们从马克思那里能够感受到,当他讨论工业机器带来工人失业的问题时,更多不是指个体的被取代,而是人类整体的异化。所以,从这个角度来看,这是人类活动不断外化的结果,外化通过技术化的方式表现出来。

   其次,取代问题是超越问题的深度表现,即智能机器自主意识觉醒的必然结果。在上面我们提到,超越问题的基础是智能行动者,如果智能行动者具备自主意识或者自主意识获得觉醒,那么它就会成为一个与人类相异的他者。事实上,在我们的分析中已经指出,人工智能学者正在这一理解以根据。根据罗素的看法,人工智能是智能行动者,它能够基于特定的情境做出最优化的理性选择。这一点指出了人工智能体的行为与情境之间的特定关联,但是这一点的重要性很少被关注到。所以需要在后面加以进一步的分析。其次,根据DeepMind的研究成果显示:人工行动者具有和人类、动物一样的空间记忆表征结构。如果从此出发,我们会发现至少在这两个方面,人工智能表现出与人类一样的同构性。这种同构性的存在使得机器能够出现自主意识。只是差异在于人类进化经过了很长的时间,而且是在特定的自然环境条件下进化的结果。对于机器而言,同构性的存在意味着具有了先天的可能性。而大数据技术正在给人工智能体提供更加丰富的数据环境,在深度学习、增强学习的算法帮助下,自主意识以新的形式出现,也不是不可能的事情。所以本文的一个基本观点是,人类与机器的整体进化尽管不是同步的,但是同构性使得他们能够获得进化结果。在此基础上,自主意识觉醒后的逻辑结果是对待他者问题。在机器自我意识诞生之前,人工智能在各类游戏(围棋、国际象棋、桥牌)、疾病识别等方面表现出通过图灵测试的迹象。这说明在某种程度上人工智能可以作为独立主体存在,它能够创造艺术作品、能够写作新闻稿件,甚至产生论著。取代人类的知识生产的角色已经变得可能了。此外,随着人机融合程度的加大,我们即将面临新的纽拉特之船的迹象,人类器官不断被机器取代,最终会演变成机器躯壳。按照机器自身逻辑的结果,取代成为众多可能性之一。

   超越问题和取代问题会把我们带入到实体论中,即把人工智能看作是超越人类自身实体力量,能够自主进化、自主发展的力量。这会带来一个严重的伦理问题:人类创造的工具最终摆脱人类自身的控制,变成异化的力量。取代问题是技术异化的最终结果。人工智能何以发展出自主意识超越并且取代人类就成为难以理解的问题了,我们把这一问题称之为人工智能的不可解释性问题。目前,这一问题主要被看作是技术问题,而且这一问题的存在对人工智能伦理的构建产生了不容忽视的影响。尽管如此,上述考虑并没有充分意识到不可解释性问题从根本上来说还是哲学问题。

人工智能与哲学|自动化带来的余暇仍会消化于网络

【编者按】

德国波恩大学教授、哲学家马库斯·加布里尔(MarkusGabriel),在西方古典哲学传统的基础上提出了“新实在论”,被誉为“哲学界的明星”和“新哲学的旗手”,是当今世界最受瞩目的哲学家之一。日本PHP出版社对马库斯·加布里尔进行了独家访谈,汇集成《当世界史的指针逆转之时》一书,近日由广东人民出版社引进出版。

加布里尔就21世纪的各种世界性危机展开论述,以哲学视角剖析当下社会所面临的价值、民主主义、科技、资本主义和表象五大危机,向人们揭示了AI人工智能时代、后真相时代、价值危机时代的困境。本文节选自“技术的危机”一章,让我们来看看这位德国哲学家是如何看待人工智能的。

马库斯·加布里尔

运用莱布尼茨公式将人工智能哲学化

人工智能永远不可能取代人脑。不仅如此,人类的未来也不会有人工智能的一席之地,因为所谓人工智能不过是幻想,炙手可热的人工智能从本质上说不过是稍微复杂一点的文件夹而已。

世界上最早问世的网络首页的URL是“http:/info.cern.ch”,很多人可能并不了解,互联网(万维网)最早在瑞士发明。蒂姆·伯纳斯-李(Tim Berners-Lee)设计了世界上第一个万维网首页。

这个首页的设计单纯明快,有数个文件、超文本,仅此而已。蒂姆·伯纳斯-李是技术专家,他只不过做了一些非线性文本,也就是几个文件。我们可以想象一下更具物理性质的文件,互联网或说页面本身就有物理性质。

蒂姆·伯纳斯-李所使用的电脑成为了世界上第一台网络服务器

我们来回忆一下传统的纸质文件夹,里面一般装有出生证明、高中毕业证书等。正常人不会把这种文件夹与智能联系在一起。出生证明后面放的是毕业证,再后面可能是租房合同,这些文件在文件夹里按一定的逻辑排列在一起,这其实是数据处理。纸质文件夹的用法和计算机的数据处理其实是同一性质。

行政单位的纸质文件和互联网上的电子文件没有本质上的区别,电子文件的结构可能稍微复杂一点,仅此而已。如果把网络程序、算法、深度学习这些东西称为智能,纸质文件夹也可以算智能,但谁也不会认为纸质文件夹是智能。其实在我看来,世界上就压根没什么人工智能。

人工智能不过是有点小聪明的人忽悠别人的把戏。知道mechanism(机制)这个词的语源吗?它来自machine(机器)一词,machine的语源是希腊语的mechane。mechane是诡计或花招的意思。盲诗人荷马把特洛伊木马称作mechane(诡计),所以mechanism的本意是诡计。从这个角度上说,machine(机器)不可能成为智能,原因简直不言自明。

自动化的负面

尽管如此,人工智能确实能承担部分的人类劳动,我并不否认这一点。世界上跑得最快的运动员也赢不了汽车,所以汽车取代了双腿,打字机取代了手写,旅游网站的搜索服务取代了旅行社。这是没有办法的,这也是自然规律。

但我们需要牢记,人工智能替代人类劳动并不都是好事。我最近有出行计划,与从前不同的是我重新开始联系旅行社,请工作人员帮忙制定行程。因为我发现旅游网站往往缺乏目的地的详细信息,就精准度而言它提供的信息远逊于旅行社的工作人员。

杜塞尔多夫(德国城市,北威州首府)有一家很好的旅行社,该社对我的需求了如指掌,是绝佳的出行助手。在旅游网站上检索信息快捷简单,但网站不太了解我的个人需求。网站有数据分析能力,也许能了解到我这一类用户的大概需求,但不可能精准,而且算法总有失误的时候。去旅行社则是另一种感受:接待我的工作人员绝不会出错,堪称完美。原因是他们在对我个人做出调查的基础上提供量身定做服务。

在线检索系统当然也做调查,但充其量只得到马库斯·加布里尔那类人的表象,并不知道我这个人。我去的旅行社认得、了解我这个人,所以我能够和秘书商量,一起制订出最好的旅行计划。秘书、旅行社、互联网三样齐备,旅行的所有决策都能尽善尽美。光靠互联网就有些惨,最好的情况下也只能制订出平庸的旅行计划。互联网的本质就是平庸,这是它的性质所决定的。它提供的服务都是抹去特征、面目模糊的大众化玩意。大数据就是典型的例子,它不会找到最好的模式,而会找出最平均、最一般的模式。也就是说,它提供的不是“好的”,而是“可能的”,但“可能的”与“好的”不能划等号。假如我们去柏林看歌剧,搜索发现有3部剧可供选择。这3部剧哪部是最好的呢?也许只能碰运气。

也许有人灵机一动,说可以把3个剧目都放到网上,再写个程序让网民随便评价。但评价也只能成为各种主观意见的汇集,很难得出真正客观的结果。

大家多少也有所察觉,越是品位欠佳的住客越喜欢对酒店评头论足。更悲哀的是,互联网也会把他们的蹩脚评论一条不落地记录下来。

在现实世界中,如果有人对你评价低,你多半不会理会他到底有什么想法,决策时更不会受他的影响。但到了网络虚拟世界,我们却对所谓的口碑奉若神明。现实生活中我们可能对有些人的意见不屑一顾,但来自网络的意见我们却照单全收,哪怕这些人其实不值得信任。

可以说网络就是臭皮匠们互相出主意的场所。有人一本正经地称之为“群智能”,实际群体并没有智能,只有共同平庸。如前文所述,互联网的本质是平庸,只能给用户带来套路化的结果。当然,也许平庸也比没结果好。在网上搜索飞机票就简单快捷,多少能得到想要的信息。在20世纪60年代订机票是件麻烦事,得花费大量时间和精力,直到纸质机票和小册子到手才算成功。万一丢了就上不了飞机,因为那时机票预约信息没有备份。当然也有好的一面。当时整个机舱全是商务舱,不像现在有什么高级经济舱之类,乘机时的心情也和现在完全不一样。

如果有人问那时的乘机环境与现在比怎样,我给不出准确的回答,但很多人坚称那时的环境不如现在的好。原因很简单,互联网一直吹嘘“我们取得了很大的进步”。所以世人都觉得现在是“最好的时代”,回到过去是必须要坚决抵制的事。真是那样吗?用纸笔写信的时代难道不比现在好很多吗?

不要以为实现了自动化,世上的一切都会自动变好,那只是某些人炮制出来忽悠人的宏大神话。恰恰相反,自动化只会让所有事物平庸化。

自动化带来的余暇仍会消化于网络

有人认为机器和人工智能可以为我们节省出很多时间,这些时间能用到创造性活动上去。这话听着让人心潮澎湃,实际怎么样呢?想想人们究竟怎么使用谷歌和苹果这些来自加利福尼亚的企业带给我们的“创造性”余暇,无非是在奈飞看电影,或花更长时间在网上无聊地闲逛,这就是现实。我们的休闲数据被反馈给系统,系统会源源不断地给我们新推送,完全是一种恶性循环。互联网并没有给我们攒下每天4小时的闲暇时间,让我们用于冥想、锻炼或在森林中散步。不用说散步,很多人压根不会去森林。结束了一天的工作后做什么呢?在互联网上休闲娱乐一下吧。这就是现实。

我不相信互联网会让人类变得更富创造性。当然我也不否认互联网有助于开阔视野,多少能学一点东西。

在我看来,智能是在规定的时间内解决课题的能力。从这个意义上说,对于同一个课题,能够更快解决它的系统就是更富智能的系统。现在许多问题都可以用数字技术迅速解决。比如下一趟电车什么时候来?比起直接去车站或去翻纸质时刻表,现在的办法要快得多。

如何运用莱布尼茨公式将人工智能哲学化

不能忘记的是,过分相信机器有时会犯大错误,关于其理由有些不错的议论。其实算法和人工智能不过是模仿动物性思维的一种模式。比如我想去旅游,这就是动物性思维。人工智能系统就是把这些思维汇集起来,再转换成一种思维模式。但是模式永远不会和它的对象系统画等号。一张地图不会等同于领地,不管什么样的地图都有着领地没有的特征。所以思维模式也具有思维本身不具有的特征,思维模式不等于思维。

同一性也是一个道理。莱布尼茨公式对同一性的哲学定义如下:“当A的属性完全等于B的属性时,A和B是同一的”。我和马库斯·加布里尔是同一的关系,因为我的属性是马库斯·加布里尔的属性。我在这里坐着,马库斯·加布里尔也在这里坐着。这是我的左手,也是马库斯·加布里尔的左手;马库斯·加布里尔有着和我完全一样的属性,我就是马库斯·加布里尔,这就是同一性。桌子有着桌子的所有属性,就是这个道理。

马库斯·加布里尔

如果思维模式里缺乏作为思维的特征,那就不是思维,因为它没有思维应有的所有属性。所以动物性智能模式的人工智能并不是智能,它貌似智能,却是别的东西。这个道理不难理解。

机器的性能不等于可靠性

为什么需要做上一节所说的讨论呢?因为它和我下面要说的内容有关。计算机科学是一门经验科学,它将对象的系统模式化并对其进行研究。系统是固有的,计算机科学不过是对其进行研究,所以计算机科学和其研究的对象之间有差异。如果不是这样,计算机科学就是先天、纯粹的思考,事实上计算机科学有研究对象。

计算机科学既然是需要调查的经验科学,就会有出错的时候。所以不管将它视为手段还是机器的产物,都与对象的系统本身有所不同。计算程序(算法)虽然是把对现实社会的思考或动物性思维过程加以模式化的东西,但它并非思考本身,所以算法是不可信的。

如果我们无条件信任一个人,可能会有相应的风险。但这些风险也可以看作是人为自由付出的代价。人机关系也会产生风险,但机器完全没有(作为自立的行为者的)自由。由于有风险,即使机器能一丝不苟地运转,也是不可信任的。若要对它进行评价,也只是“性能还不错”。

性能和可靠性是完全不同的概念。你觉得某个人值得信任,是因为他很能干吗?绝对不是,是因为你和他建立了一种伦理的关系。也许对方最终会让你倍感幻灭,但你不会对机器幻灭,因为机器只会性能停止,它不是幻灭的对象。

我们之所以对人工智能评价过高,归根结底是我们对自己的评价过高,之后把自己的能力投射到机器上。这是古典型投影,只投射自己的影子,而不去看机器内部实际上发生了什么。其实我们根本没有理解机器的性能。为什么会这样呢?因为机器的设计者希望如此,苹果手机是典型的例子。苹果手机里的零部件是看不到的,它是一整块完美的模块设计。无论是谁,可以拿起手边的苹果手机尝试打开,一般都会失败。就算用蛮力抠开,手机十有八九会坏。它的设计就是不能轻松打开,因为它不想让你看到里边。

从另一个角度讲,苹果手机有着卓越的用户体验和亲和性,因为整体性能优异,你会觉得它似乎比你还聪明。但这是一种把戏,苹果手机不过是机器而已。正如前文所述,机器的原本意思就是诡计。

机器人和人不是同一物种。人是动物,而机器人并非动物。如果你认为人和机器人很像,那就完全错了。机器人有时会做出和人很相似的行为,这是事实。但是人是否和机器人很像呢?绝对不像。人和机器人不但没有同一性,也毫无类似性。

在有些机能上,机器人和人似乎有点相似。机器人拿一个水果给我,我拿一个水果给另外一个人,我和机器人的动作看上去很相似。但我再强调一次,这不是同一性。我用手,但机器人没有手。机器人有的只是类似人手的装置,那不是细胞形成的手,而是金属的手。

机器人足球游戏是一个很好的例子。如果跟机器人足球队比赛,任何一个真人组成的球队都能轻易取胜,连我这个完全不擅长足球的人都能战胜它们。战胜机器人的方法很简单,看看比赛就知道了,机器人的动作真的很“笨”。

为何劳动力被机器取代会导致经济下滑

正如前文所述,人工智能的确承担了部分的人力劳动,同时也催生了新数字劳动阶层。

但如果机器承担了所有的人力劳动,经济就会崩溃。很多人觉得若是汽车生产能实现全机械化,再无须人类插手是值得大书特书的盛事。想想原本从事汽车制造的人呢?他们没了工作,自然无处领薪水,因此提倡“基本收入”乃是应当,因为我们必须直面现实。自动化会导致经济崩溃,除非保障人们的基本收入,否则经济衰退无法避免。

《当世界史的指针逆转之时》([德]马库斯·加布里尔著,时晨译,广东人民出版社2023年2月版)

有基本收入傍身,人们才会持续消费。如果推行了基本收入政策,经济衰退的势头仍未能减缓的话,就要进一步采取提高基本收入金额等措施。假如我买了一个路易·威登的包,路易·威登就有了收益。这个收益会流入一些人的腰包,他们再去消费,经济循环因此形成。但经济循环可能很难维持较大规模,因为人一旦缺钱就会自然而然减少消费行为。可是机器不需要报酬,没人会给机器付工资,机器更不会购物,因此机器的参与越多,经济循环中的人就越少,经济活动会逐渐停滞,我们都会变穷。

劳动力越来越少,生产活动日渐衰退,再无法创造出购买路易·威登包的价值,于是劳动力、生产力、消费活动等经济循环中的一切都会停滞。

如果我们身处的环境被完全或最大限度地自动化就会引发上述结果。试想在未来的某一天,人类终于到了一贫如洗的地步,连给人工智能升级到最新云系统的经费都拿不出。人工智能升级失败,以它为支撑的劳动环境会彻底崩溃,那时的人类已习惯于完全依赖机器,早忘了该如何劳动,他们很快会陷入混战。如今我们正在编写世界如此崩溃的剧本。

如果大家真的为自动化可能夺去我们的工作而忧心忡忡,就去身体力行地斗争。在现代科学环境中,民主主义也不能回避应做之事。机器在性能上远逊于人类,担忧被机器夺走工作的人们应该让别人也认清这一点,甚至可以用石头把机器破坏掉。

但现实如何呢?人们不仅不敢起来斗争,反而一头扎进互联网让自己越来越愚蠢。所谓基本收入政策听起来很美,但也可能是空头支票,无人做出努力就不会兑现。就我个人而言,我赞成基本收入政策,因为它是福利国家制度下最好的解决办法。

人工智能简史:哲学家和人工智能

左:休伯特・徳雷弗斯

右:约翰·塞尔

1.德雷弗斯和《计算机不能干什么》

休伯特・徳雷弗斯是美国为数不多的欧陆派哲学家之一,主攻胡塞尔、海徳格尔和梅洛-庞蒂(Merleau-Ponty),但他出名主要靠的还是批判人工智能。

休伯特・徳雷弗斯是苦出身,但本科、博士都毕业于哈佛大学,刚入学时读过一段时间物理,很快就转了哲学。他还有个兄弟斯图亚特・德雷弗斯(StuartDreyfus),也是哈佛博士。中西部的农民家庭一家出两个哈佛博士倒是个励志的故事。斯图亚特・德雷弗斯的专业是应用数学,毕业后也去了加州大学伯克利分校,在工业工程与运筹学系任教,曾和动态规划的祖师爷贝尔曼合作,还一度研究过神经网络。兄弟俩1988年还联手写过一本批评专家系统的书《人定胜机》(MindoverMachine)。

休伯特・德雷弗斯在哈佛博士毕业前,就开始在隔壁的麻省理工学院教哲学导论,毕业后顺理成章地成了麻省理工学院哲学系助理教授。那时的麻省理工学院哲学系和语言学系还没合并。学校最热门的明星人物之一是明斯基。德雷弗斯1961年在他兄弟的帮助下拿到了一个在美国军方智库兰德公司夏季实习的机会,期间接触到纽厄尔和司马贺的工作。1964年夏季他再次到兰德公司工作,写出了那篇广为流传的“炼金术与人工智能”。他在兰德工作时的老板起初看见这篇文章后非常不爽,他认为德雷弗斯的东西是糟糕的哲学,他扣着这篇东西没有立即发表。但徳雷弗斯把预印本在各个圈子里散发。徳雷弗斯的批评者认为那根本就不是兰德的报告,德雷弗斯不过是利用他在兰德短期工作的身份,为报告背书。9个月之后,德雷弗斯在兰德的老板怕被别人批评在实施检查制度,最终同意以最低级别的兰德公司内部备忘录的形式印发了这篇文章。这篇文章一开始只是攻击纽厄尔和司马贺的观点,后来内容逐渐被扩充,攻击的范围也扩大,终于成为一本书,书名是《计算机不能干什么》,变成了对人工智能的全面批评。

德雷弗斯的书出来后,他马上成了人工智能学界的死敌。麻省理工学院的人工智能圈子在明斯基的影响下,根本不待见他,他在食堂吃饭时大家都躲着他。德雷弗斯后来指控麻省理工学院的计算机教授企图阻挠他获到终身教职(tenure),因为害怕他对AI的批评会导致学校拿不到政府资助。他甚至考虑雇一个演员装扮成美国国防部先进研究局(DARPA)的官员和他在麻省理工学院教授俱乐部里吃饭,以此吓唬他同校的人工智能教授们。最后校长维斯纳(JerryWiesner)不得不干预,在咨询了邻居哈佛大学以及苏联的计算机同行后,亲自批准给德雷弗斯终身教职。维斯纳是电机工程(EE)的教授,麻省理工学院的EE和计算机至今还是一个系,维斯纳在计算机教授间颇有威信,著名的MediaLab就是在他手里建立的。苏联那时正批控制论,徳雷弗斯的调子倒是合拍。后来DARPA传唤德雷弗斯到首都华盛顿听取他的反动言论,再后来,还真有了AI的核冬天,而那期间麻省理工学院人工智能实验室的政府资助也确实大幅减少。

1992年《计算机不能干什么》出版20周年纪念时,徳雷弗斯新写了序,新瓶装旧酒,书又被重新出版了一遍,正文内容没什么变化,只是书名被改为《计算机仍然不能干什么》。这本书的副书名随版本不同,时有变化,或“人工智能的极限”,或“人工理性批判"(ACritiqueofArtificialReason),很明显,这是抄自康德的《纯粹理性批判》。人工的当然不纯粹,一个假酒一个茅台,不同的是:康德初衷是建设,而德雷弗斯则是大批判。更有意思的是,新版的出版社竟然变成了麻省理工出版社。麻省理工出版社毕竟不是早年结下梁子的麻省理工学院,此时的人工智能圈子应该也更有自信了吧。

德雷弗斯从以下四个层面批评人工智能。

德雷弗斯的批评随着人工智能的进展也与时俱进,但可以总结为多少有些互相矛盾的两句话:其一,所有人工智能研究者搞的东西都是哲学家玩剩下的,例如霍布斯的“推理即计算”(reasoningiscalculation)、笛卡尔的心理表示、菜布尼茨的“广义计算”(universalcharacteristic);其二,有好多人能干的事,现在的计算机干不了。徳雷弗斯甚至小肚鸡肠地推断明斯基提出框架概念肯定受到明斯基的一个学生的影响,而那个学生上过德雷弗斯的现象学的课。

纽厄尔和司马贺1957年曾做过一个乐观的预测:十年内计算机下棋能赢人,十年内计算机将能证明人还没有证明的定理。这成了德雷弗斯的把柄,也是他最有力的武器。每次计算机下棋有些进展,徳雷弗斯都会跳出来说:“那还是赢不了人啊。”其实1966年德雷弗斯就曾和当时最厉害的下棋程序Machack对弈过一局,并且输给了Machack,但他说赢我不算赢。他不得不再次澄清他原来的论断是计算机当时不能赢人类棋手,并不是永远不能赢人类棋手,这不是废话嘛。美国计算机学会人工智能组的出版物SIGARTBulletin引用了明斯基的战友佩珀特(SeymourPapert)以维特根斯坦的格式写的笔记:

1.5计算机不能下棋。

1.5.1德雷弗斯也不能下棋。

1965年司马贺再度预言:他的原定目标可以在20年内可以实现,结果到了1985年,自然为德雷弗斯徒增笑料。直到1996年马库恩(McCune)的定理证明程序EQP证明了罗宾斯猜想,1997年IBM“深蓝”战胜象棋世界冠军卡斯帕罗夫。常被德雷弗斯讽刺的另一个领域——几何定理证明——在1978年吴文俊的工作之后也渐趋成熟。不知道如果现在德雷弗斯再写一版那本书,书名该改成啥,《计算机就是不能干》?不过人工智能的乐观派也该学到点教训:老老实实干活,没事別瞎吹。

1986年,麻省理工学院人工智能实验室的老大温斯顿(明斯基的学生)邀请已经在加州大学伯克利分校任教的德雷弗斯回来做了个讲座,题目居然是“为什么AI从业者应该读《存在与时间》?”《存在与时间》是德国哲学家海德格尔的成名作。海德格尔是德雷弗斯偏爱的哲学家,素不为英美哲学家所喜。2008年德雷弗斯还写过篇文章“为什么海德格尔派的AI失败了,为什么需要更多的海德格尔”,大意是人工智能中的重要思想都来自海德格尔,而正是因为贯彻海德格尔思想的不彻底导致了人工智能的失败,为了成功,我们需要更多的海德格尔。换句话说,成功是因为听从海德格尔的教导,失败是因为没听从他的教导。德雷弗斯文中似乎把人工智能没有成功的主要原因都归结为“框架问题”,并提出“框架问题”是不能通过符号派的表示手段来解决的,唯一手段是利用神经网络,而他所谓的神经网络研究也被海德格尔早就料事如神地在《存在与时间》里想到了。德雷弗斯认为明斯基一票人不懂海德格尔,所以导致知识表示的框架问题。这听起来真有点儿像仁波切们说他们早就料到了量子力学一样。

德雷弗斯声称明斯基的“框架”式知识表示的根源是海德格尔的犹太人师傅胡塞尔(EdmundHusserl)。胡塞尔的现象学就是知识表示系统,只是胡塞尔在他75岁(1934年)时认识到知识表示是死路,而明斯基在1988年还没认识到。德雷弗斯这么说的根据是明斯基的框架系统有个顶层概念,而胡塞尔也有个东西叫“神圣不可侵犯的本源”(Inviolablythesame)如果认真读过胡塞尔,就知道胡塞尔现象学和知识表示没啥关系,只是有修辞性的比喻,而非实质性的相似。德雷弗斯大概知道科学家对胡塞尔和海德格尔的晦涩语言伪装的深刻不感兴趣。

哲学家有两类,一类是深刻的,一类是混饭的。罗素和弗里格是深刻的,没有他们,就不会有数理逻辑,也就不会有哥徳尔、丘奇、图灵,以及后来的计算机科学。但没有现代的欧陆哲学,世界不过省了些粮食而已。没有胡塞尔和海德格尔,明斯基照样会想出“框架”,从而催生后来的“面向目标的程序设计”方法论。所谓“顶层”概念就是Java程序设计语言里的Object,或者知识图谱DBpedia里的Thing。按照德雷弗斯们的说法,哲学系是不是应该要求读现象学的博士必须熟练掌握一门面向对象的程序设计语言?

在20世纪80年代末期,神经网络研究复兴之后,德雷弗斯对人工智能的全面批评也缩小为对符号派的专门攻击。他和他的兄弟斯图亚特・德雷弗斯一起撰文写书。斯图亚特虽然是运筹学专家,但一直都在做神经网络的研究,甚至号称发明了“反向传播”(back-propagation)的原始概念。考虑到这一点,他们的攻击不免有报复和落井下石之嫌。

徳雷弗斯曾经引用梅洛-庞提批判人工智能:人脑是和环境直接交流的,而不是通过表示(representation)。德雷弗斯曾经按照海德格尔的思路创造了一个词:“随手拈来"(readiness-to-hands),也就是说直接性是不经过表示的。可以把这算作对符号派的朦胧批判吧。但这种批评有点像算命常用的两头堵,因为你无论怎么直接地接近环境,他都可以说这和人脑不同。不知道波普尔会怎么评价海德格尔,或者德雷弗斯的这种解读。很可惜德雷弗斯不知道深度学习,对多层的解释恰恰是因为需要表示。造飞机不需要按照鸟的结构,飞机的翅膀不会动。飞机的表示是空气动力学。飞机能飞吗?

明斯基和佩珀特的学生维诺格拉德(TerryWinograd)加入德雷弗斯和塞尔的批评阵营,确实给他们增色不少。维诺格拉德早期在麻省理工学院的研究课题“积木世界”是自然语言处理的经典工作。在碰到问题时维诺格拉徳放弃了原来的研究方向。他联手德雷弗斯和塞尔一道批评麻省理工学院的学生只能将课题限制在“微世界”而不是“实际世界”。但罗马不是一天建成的,任何一门科学一开始不都是从小处着手吗?所谓“微世界”就是维诺格拉徳的积木世界。其实积木世界从某种意义上体现了维特根斯坦后期《哲学研究》中的思路,语义就是与环境的交互。用维特根斯坦的例子,师傅对徒弟说“递给我一块砖”,如果徒弟真递过来那就是听懂了。

德雷弗斯能够如此长久地混迹人工智能的江湖,有两个原因:其人工智能内部一直就是两大派不和,而且派中有派,很少有过学科的发展像人工智能这样起伏跌宕,苍蝇不叮无缝的蛋;其二,相当一批人工智能工作者有哲学情怀。2001年第一次互联网泡沫崩裂时,德雷弗斯又出了本大批判互联网的书《关于互联网》,风格一如既往。他的出发点是互联网的隐私和媒体的责任感。这倒更符合他的训练和智力。

2.塞尔和中文屋

塞尔是德雷弗斯之后又ー位批评人工智能的干将,但他主要以英美哲学立身。他是地道的美国人,一开始就读威斯康辛大学麦迪逊分校,但三年级时获得罗徳奖学金(RhodesScholarship),去了英国,结果本科硕士和博士三个学位都是在牛津拿的。他在牛津时跟随日常语言学派的领袖奥斯丁(JohnLangshawAustin),回美国后马上就到加州大学伯克利分校教书,出名很早。塞尔晚年还被中国的清华大学和华东师大聘为名誉教授。2017年初,84岁高龄的塞尔被他的一名博士后以“性侵害”罪名告到法庭,这个罪名比“性骚扰”要厉害一级。而据他的同事说他素有这个毛病,过去就有多名学生和他发生性关系以换取金钱和分数的好处。伯克利校方既然知道他的不当行为却不加处置,为此在案件中也被连带。他原本在2017春季要教的“心智哲学”的课也被取消了。

言归正传,1980年塞尔在《行为与脑科学》杂志上发表了“心灵大脑和程序”(Minds,BrainsandPrograms)ー文。文中的一个思想实验“中文屋”马上成为最喜欢被引用的假想实验之一。曾有人批评《行为与脑科学》杂志不严谨,更像哲学杂志。但说实在的,这杂志经常登些好看的文章并屡次挑起事端。当年彭罗斯的《皇帝新脑》(Emperor’sNewMind)一书出来后颇引争议,《行为与脑科学》就搞了一期争辩专刊,正方反方吵得不亦乐乎,各方都抬出了自己的大佬,无论从吸引眼球还是严肃讨论的角度看,这都是成功的。

所谓“中文屋”思想实验是这样的:假设有个只懂英文不懂中文的人(塞尔的第一人称“我”)被锁在一个房间里,屋里只给“我”留了一本手册或一个计算机程序,这个手册或程序教“我”在收到中文信息时如何用中文应对。屋外的人用中文问问题,屋里的“我”依靠程序用中文回答问题,沟通方式是递纸条。塞尔的问题是:假设屋外的人不能区分屋里的人是不是母语为中文,那么屋里的“我”是不是就算懂中文?塞尔自己认为“我”不懂中文。很明显,这个场景源自图灵测试,只不过图灵测试的环境是英文,而中文屋里既有中文又有英文。

塞尔的文章出来后,引起轰动。其实轰动的原因很简单:谈论这种玩意儿没什么门槛,谁都可以说三道四:哲学家、科学家,以及各种媒体人。塞尔毕竟是老练的哲学家,已经预测大家会质疑他的论断,他在文尾也设想了各种回答。中文屋的第一个问题是,我们只是算屋里人理解中文呢,还是屋子加人作为一个系统理解中文。塞尔的论断是屋里人即使查遍手册,顶多算是理解语法,而不算理解语义。我们可以问塞尔这样的问题:戴眼镜的人能算看见东西吗?一个耳聋的人通过换上人工耳蜗重获听觉后算是能听见吗?一个坐飞机的人算能飞吗?如果对这些问题的答案都是“算”,那中文屋作为一个系统为什么不算理解中文呢?

塞尔认为必须内化(换句话说:手册必须变成人身的一部分)才能算懂中文,那么内化到什么程度才能算呢?爱因斯坦说“我的笔加上我要比我自己聪明”,笔算不算外化?原来纸笔时代的拼写错误,现在用任何文本编辑软件,如微软Word,都可自动纠错,这算内化吗?内化就是一点外部工具都不能借助吗?内化是完全的物理隐藏,还是只是个反应时间问题?在一开始查手册时,反应时间必定很慢,但熟能生巧之后,查手册变成下意识的动作,那算内化吗?即使中文是母语的人也免不了查手册啊。我猜对塞尔来说,可能人工耳蜗算是内化,飞机肯定是外化,而眼镜则是可算可不算。

在塞尔的术语里,理解或意识等同于一个抽象的哲学观念“意向(intention)或“意向性”(intentionality)。屋里的人并没有“意向”,所以“我”没有理解中文。在塞尔的论辩里,时而意向性是人特有的性质,时而意向性是不可检测到的东西。

塞尔认为他不是反人工智能,他只是反“强人工智能”,但在“强人工智能”和“弱人工智能”之间并没有质的区别,只有量的渐变。中文屋测试的不是屋中的“我”而是屋中的程序。如果那本种奇的手册成者程序已经通过图灵测试,那程序就是一个机器翻译的神器。这本身就是强人工智能了。而且那程序已经有语义功能了。假设游戏不是中文翻译,而是下棋,那“我”算不算会下棋?断言中文屋是不是有智能,就像断言AlphaGo会不会下围棋一样,要看应用场景。一个数学家离开了数学也不一定就是聪明的。

塞尔的第二个准备好的答辩就是所谓“机器人”反驳。如果那本手册或者那个程序那么厉害,如果把它放到一个机器人里,那么这个机器人就可以做很多人可以做的事情,那么它是不是就算能理解了呢?塞尔的答辩是这恰恰说明单纯的形式化符号操纵是没有理解力的。

维特根斯坦后期哲学《哲学研究》中有个例子:泥瓦匠要徒弟把砖头递给他。如果徒弟把砖头递过来了,那么徒弟就是懂了。理解是一个社会现象,而不是一个独立的哲学概念,或个人行为。按此,语义也是社会的。翻译只是心心交互?翻译需要涉及外部世界吗?维特根斯坦说语义就是语言的使用。语言的使用也必涉及心物交互。从这个角度看,也许关于中文屋的讨论可以更有建设性。

3.普特南和缸中脑

普特南灿烂的学术生涯覆盖了数学、计算机科学和哲学。他虽是哲学出身,但他也是解决希尔伯特第十题的主要推手之一,他和逻辑学家戴维斯长期合作研究机器定理证明,是这个领域的开拓者之一。他的哲学研究也涉猎广泛,并且立场常常变来变去。他的变化和徳雷弗斯的浅薄机会主义不同,普特南是高处不胜寒,自己换着法儿和自己辩论。他在1960年就写过一篇“心和机器”(MindsandMachines),定义了计算主义(Computationalism)和功能主义(Functionalism)。普特南指出同样的软件可以在不同的硬件上运行,软件的功能和硬件的实现可以分开。到20世纪80年代初,普特南又变成计算主义和功能主义的批判者。

1981年普特南出版了《理性、真理与历史》(Reason,Truth,andHistory)一书,该书的开篇就给出了“缸中脑”的假想实验:

“一个人(想象一下那是您自己)被邪恶科学家施行了手术,他的大脑(您的大脑)被从身体中取出,放入一个缸中,缸里盛有维持脑存活需要的营养液。脑的神经末梢和一台超级计算机相连,这台计算机使大脑的主人保持一切完好的幻觉。对于他来说,似乎人、物体、天空还都存在,但实际上,此人(您)体验到的一切都是计算机传输到神经末梢的电子脉冲的结果。这台计算机非常聪明,此人要是抬起手,计算机发出的反馈能让他“看到”并“感到”手正在抬起。不仅如此,邪恶科学家还可通过改变程序使受害者“经验到”(即幻觉到)邪恶科学家所希望的任何情景或环境。他还可以消除这次脑手术的痕迹,从而使受害者觉得自己一直是处于这种环境。受害者甚至还会以为他正坐着读书,读的就是这样一个有趣但荒诞的故事:一个邪恶科学家把人脑从人体中取出放到一个有营养液的缸中。神经末梢连到一台超级计算机,它使这个大脑的主人具有如此幻觉……

普特南更进一步设想,假设所有的感觉器官都泡在缸里,而外面的世界就是一台大自动机。美国科幻电影《黑客帝国》(Matrix)、《盗梦空间》(Inception)等都受“缸中脑”思想实验的启发。

普特南发明了一种新的图灵测试,他称之为“图灵指称测试”(TuringTestforReference),测试的方法和图灵测试一样,通过传递打印纸条,来判断是否机器能像人那样指称外部世界的客体。普特南的结论是机器不能像人那样指称。图灵指称测试实际上已经很接近塞尔的中文屋。尽管如此,普特南一直对“意向性”这样模糊不清的概念不爽。

普特南进一步把缸中脑和图灵指称测试做了对比。图灵指称测试的底线是语言,任何超越语言的东西,图灵测试没法回答,例如,如果给机器一张丘吉尔的照片,机器会不知所云。但缸中脑的底线是神经末梢,给缸中脑一张照片,缸中脑知道如何反应,缸中脑毕竟也是脑啊。但问题是缸中脑知道如何与外部世界做对应吗?泡在缸中的人脑,如何知道自己是颅中脑,还是缸中脑?人工智能的基本问题是可否造一台机器能有智能,“缸中脑”中的机器则起了另一种作用:人脑是否能确定外在的世界是直接实在还是间接实在。

普特南曾经正面地批评过人工智能:人工智能并没干什么哲学家不能干的事。但这要看是什么人工智能的学者和什么哲学家。如果是普特南这样的哲学家,计算机科学家必须认真倾听,因为普特南自己就是一位富有成就的计算机科学家,他也是人工智能一些分支的开拓者,计算机科学大概会更加认为他是自己人而不是他者。他在塔夫茨大学的邻居丹尼特(DanielDennett)则会对人工智能采取更加同情的态度。他认为即使人工智能没有解决什么实际问题,但从更深的层次提出问题本身就是进步。哲学家总不会因为生物学家没有解答什么是生命,就怪罪生物学没有取得进展吧。没有人工智能,有些问题根本就提不出来。普特南和丹尼特都算是建设性的意见,区别是一个把人工智能当成自己的用户,而另一个把自己当成人工智能的用户。

4.给哲学家一点忠告

曾经有一个教条:哲学指导科学。这种观点为大多数科学家所不齿,费曼、惠勒和杨振宁等物理学家都曾撰文批驳。但这恰是徳雷弗斯的天真立场。维特根斯坦曾经有言:哲学家的工作应该是一直给人提醒(assemblingreminders),而不是指导。德雷弗斯最早对人工智能的批评其实很简单:还不能做什么。比如最早他说下棋还不能做,当计算机科学家证明他不对时,他又说还有什么仍然不能做。如果把这些都当作维特根斯坦所谓的“提醒”,倒也不错。但比较让计算机科学家愤慨的是,他会常常会以教导的语气说,你们应该照着海徳格尔说的做。

在文明初期,哲学家掌握所有的学问,哲学就是学问的代名词,说哲学家指点科学倒也不算错。但科学进步的过程就是与哲学渐行渐远的过程,当下的科学已经和哲学关系不大,一战后的欧陆哲学已经和科学彻底无缘。偏重科学和逻辑的英美分析哲学也挡不住哲学的颓势,最后一个从哲学中脱离的硬学问是逻辑,目前最好的逻辑学家都在数学系和计算机系,哲学已经空洞化。那些非逻辑学出身的哲学家存在的一个普遍问题是压根就没见过硬的、复杂的问题。对一个不太出名的哲学家的谬论,最好的应对办法是把他交给比他数学稍微好一点的同行。但如果碰到出名的哲学家,我们只好直接迎战,否则他的谬见会影响智力还不如他的媒体人,从而被散布得更远。

彭罗斯其实也看不起塞尔,他在《皇帝新脑》书里评论塞尔时说塞尔被计算机科学家误导了,而计算机科学家又被物理学家误导了,这明显表示了某种学科的智力层级的歧视。彭罗斯把塞尔的几种辩解轻易批倒,但他还是喜欢塞尔的结论:强人工智能不靠谱。颇有否定之否定或敌人的敌人的意思——彭罗斯自己作为物理学家不认同强AI,强AI多出自计算机科学家,而哲学家塞尔又是反对强AI的。这是为彭罗斯引出自己的理论铺路的:人脑实际上就是有量子效应。我们也由此可以看出科学家和文科生有时是一笔乱账地互相寻求支持,科学家内心知道哲学家之不靠谱,而哲学家有时特别需要科学家的背书,尽管科学家内心知道哲学家对自己工作的陌生和胡乱引用。

德雷弗斯批评人工智能太重分析,而不够综合,因而提倡现象学。生物学家、诺贝尔奖金获得者埃德尔曼(GeraldEdelman)和他的学生里克(GeorgeReeke)则说人工智能太过综合而不够分析。他们在合作的一篇文章“实在的大脑和人造的智能”(RealBrainandArtificialIntelligence)开篇中就讽刺亚里士多德——亚里士多德的《动物学》里陈述女人的牙齿数目比男人少,亚里士多德从来也不看亚里士多德夫人的嘴。埃德尔曼希望计算机科学家应该等神经科学家了解了大脑的生物学之后再谈论人工智能,或者干脆加入神经科学家的队伍一起先研究大脑。但计算机科学家恐怕没那个耐心。我们造飞机并不需要知道鸟是怎么飞的。我们享受飞机的远程旅行,也不需要懂空气动力学。我这里并非在为功能主义辩护。其实,科学体系历来如此,底层的学科说上层学科不够分析,物理学家对化学家如是说,化学家对生物学家如是说,生物学家对心理学家如是说。而哲学和人工智能恰恰可以和哪个学科都能挂上,分析和综合就看不清了。

如果真认为海德格尔有用,就应该像弗里格和罗素清理逻辑那样,把这些东西整理成可以交流的形式。也许哲学家真怕他们惯用的冷僻词汇被翻译成通俗易懂的语言。当代哲学,尤其是欧陆哲学,就像韩国整容术,乍一看唬人,其实遗传不了。

彭罗斯曾经这样谈到机器的情感和道德:如果你买一台计算机,它是有情感的,那么我们就有道徳问题,因为计算机的意愿可能被违反,并可能会被当作奴隶。我们首先必须说道徳是一个社会问题,也就是说当一个社会只有一个个体(无论是人还是计算机)时,是不存在道德问题的。

哲学家很喜欢对人工智能说三道四,原因可能是人工智能关心的问题,例如意识、生命、思维、自由意志等概念,都是哲学家自认固有的地盘。但如果我们用谷歌距离函数计算维基百科中所有学科的距离和关联度,我们会发现人工智能和哲学的距离并没有想象的那么近,也没有想象的那么依赖哲学。

创造性非虚构(creativenonfiction),例如传记,也算文学的一类,普利策奖就为此有专奖。当下的大部分哲学家都是从事创造性写作但又没有创造能力的人,他们是没有オ华的文学家。计算理论家阿伦森(ScottAaronson)曾写过一篇文章“为什么哲学家应该学点计算复杂性?”,婉转地表达了对那些喜欢随意地对计算理论说三道四的哲学家的期望。学点计算理论,少说外行话,至少能有助于哲学家了解科学家在谈论什么问题。计算理论的源头可追溯到罗素、维特根斯坦和哥德尔,他们都有哲学背景。甚至图灵也有哲学情怀,他甚至被哲学家兼传记作家蒙克(RayMonk)称为与柏拉图、罗素并列的十大哲学家。我一直很好奇为什么对人工智能感兴趣的欧陆哲学家比他们的分析哲学对头更多。

丹尼特曾说哲学家喜欢假想实验。其实从某种意义上说,整个人工智能就是个大的假想实验。只不过哲学家用纸和笔,而计算机科学家用计算机硬件和软件。本质是一样的。不同的是哲学家从不为假想实验的结果所苦恼,反而会时不时洋洋自得;而计算机科学家则偶尔会被他们取得的成果所惊到。崇尚科学的英美分析哲学家和欧陆哲学家分歧已久。英国哲学家克里切利(SimonCritchley)曾经写过一本毒舌的《哲学家死亡录》,里面记录了有史以来哲学家的各种死法,他的结论是分析哲学家的死大多是无趣的,而欧陆哲学家的死则多彩缤纷。随着大数据手段的成熟(套用德雷弗斯的话说,所谓成熟就是“随手拈来”),也许哲学家又重新有机会对科学的全局观有所洞见。到底应该是哲学家向科学家学习,还是科学家向哲学家学习?让科学家写一本《哲学家不能干什么》要远比哲学家写《科学家不能干什么》容易得多。

来源:尼克,《人工智能简史》,人民邮电出版社,2017年12月第1版,第177-194页。

往期推荐

什么是直觉泵?

赵汀阳|人工智能的自我意识何以可能?

丽泽悦读|HilaryPutnam:《理性、真理与历史》

徐英瑾|人工智能科学在十七、十八世纪欧洲哲学中的观念起源

张励耕|感知、性质与关系——对维特根斯坦心理学哲学中“内在关系”概念的辨析

责任编辑丨鱼籽

欢迎关注丨丽泽哲学苑

simpleliving,noblethinking.返回搜狐,查看更多

人工智能问题的哲学思考

摘要:科技发展改变人类社会生活,近几年迅速发展的人工智能、物联网、云计算等新技术,已经对人类的生存生活方式产生了深远的影响,并将为人类带来全新未来。人工智能技术对人们的生产生活带来了巨变,特别是在语言识别、棋类竞赛和智能机器人等领域发挥了重要作用。然而,我们在为人工智能取得骄人成就欣喜的同时,关于人工智能的发展可能产生的各种问题与挑战已经开始引起社会各界的高度关注。本文旨在指出人工智能发展中的突出的社会问题,站在哲学的客观角度对现存问题提出可行性策略。

关键词:人工智能;社会问题;哲学思考

中文“人工智能”一词的出现,象征着人类智慧结晶的升华。追溯到人工智能的诞生历史,可以知道它最早是来自英语Artifi-cialIntelligence的直译。因此,令人耳熟能详的AI便是人工智能的缩写形式,它也越来越被人们熟知与接受使用。人工智能的核心在于对人类大脑进行模拟,有继承人类智慧的重大意义,是一门快速发展的高新前沿技术。作为一门新兴学科,人工智能是由计算机、哲学及其他自然学科相互综合、相互渗透、相互发展而成。人工智能的出现,不仅可以成为体力劳动的替代,还可以在某些方面代替脑力劳动成为运算和逻辑推理的辅助工具。因此,我们当前面临的重要挑战之一就是对人工智能的发展以及相关的哲学问题进行全面的研究思考。目前,人工智能涉及到的领域与应用非常广泛,极大程度上地为人类社会的工作与生活带来了便利。指纹识别、人脸识别和智能搜索等是我们在现阶段生活中接触到的较为常见的人工智能应用。人工智能在引领人类社会进步的同时,也使人们对其未来发展将会产生的问题与隐患产生担忧。如果在人工智能技术发展的过程中,不对技术发展加以预测和监控,且对于各种已经出现或隐藏问题处理不够及时,造成的影响与冲击将是异常可怕的。站在哲学角度进行辨证地思考,剖析其问题的原因所在,并提出有效可行的规避建议对策是尤为必要的。

一、人工智能引发的主要社会问题

随着现代科学技术地稳步向前发展,我们可以越来越明确地看到,科学技术与哲学的关系表现在相辅相成、密不可分上。而且随着时间的推移,用哲学的眼光去看科学技术的方法论将会变得更加系统和具体化。虽然说现在人工智能已经令人欣喜地广泛运用于各行各业中,且技术水平也变得愈发成熟,但我们也不应该只满足于人工智能取得的眼前进步,而是要客观得认识到它面临的许多问题和日后的挑战。

(一)人工智能的发展可能侵犯个人隐私

随着人工智能技术不断趋于成熟且逐渐进入各行各业推行使用,应运而生的还有日益增多的伦理问题。日前,人们较为关注的伦理问题主要集中在个人隐私泄露上。而个人隐私泄露,也成为社会群体越来越反感的问题。在信息全球化的网络时代,获取用户个人信息数据是一件极其容易的事,各种APP、网站和媒体工具都成为了收集数据的绝佳平台。云端会对这些收集的信息进行存储并设置成保密模式,但如果出现防护漏洞、网络故障,以及其他渠道的网络技术攻击和窃取,就会出现大规模的隐私泄露。就连人们熟知的谷歌旗下一家位于伦敦的公司也曾卷入过泄露用户隐私的风波中。这家公司曾经获取过150多万病人的个人信息和医疗数据,这其中就包括非常敏感与隐私的病例资料。这对很多人来说,都是难以想象而且十分抵触的。

(二)人工智能的发展可能带来失业隐忧

人工智能,顾名思义可以代替人类完成一些工作与劳动。因此,机器人的出现极有可能给就业市场带来翻天覆地的变化,同时也给人类生产生活造成一定影响。随着时间的推移,机器人会逐渐取代一些岗位,相应就会产生一部分人面临下岗甚至是失业。受影响的不仅有制造业、零售、服务业等这些收入较低且主要依靠体力劳动的行业,医疗、法律、金融等需要进行培训的行业也将在后续受到一定的波及。如此看来,各行各业在未来都将会在不同程度上受到影响,这让一些劳动人民在面对劳动力市场发生巨大变革时显得手足无措,也使他们感受到了无形的生存、生活压力。另一方面,也会因为这部分劳动人民对人工智能的抵触心理从而阻碍其发展和推广。

(三)人工智能的发展可能威胁公共安全

随着互联网、大数据的飞速发展,人工智能所产生的安全问题也变得难以预测。目前看来,人工智能所带来的安全问题主要集中在管理存在漏洞和技术滥用这两个方面。因此,人工智能技术在使用中若是没有牢固的安全防御,就极有可能遭到黑客的非法入侵和操控。再试想一下,如果人工智能技术被不法分子所利用,进行反人类和危害社会的举动,带来的后果将不容小觑,同样也是令人毛骨悚然的。综上所述,无论是管理缺失还是技术滥用,都会面临威胁公共安全的风险。如果不加以预防和及时采取相应措施,我们将会被笼罩在人工智能的黑色阴霾之中。

二、人工智能社会问题的规避对策

人工智能其实就是对人类智能的模仿和延伸,从而达到更好地分担人类工作的目的。一项新技术的诞生,是为了人的发展并推动社会不断前进的。当今社会的哲学,要紧跟科技发展的脚步,为社会发展需要提供更好的思路与策略。因此,规避建议主要从人工智能的内部视角和外部视角来提出。

(一)从内部视角来看,人工智能的规避建议主要集中在完善

伦理规制和合理限定其应用范围两方面上

1.完善伦理规制

在处理人工智能技术产生的伦理问题时,我们不能孤立地只解决伦理问题或技术问题,应该将伦理规制和科学技术研究结合起来。也就是说,我们所需要的伦理规制是贯穿人工智能技术始终的,要完善其从技术开发、研究到应用的伦理规范。面对隐私泄露,我们可以提出以下规避措施。首先,完善相关法律。在制定相关法律的同时,做到将法律彻底融入人工智能技术发展的全过程中。将法律融入到人工智能研究、开发和应用的每一个环节中,使得人工智能技术可以一直在法律的监测与限制下健康发展。其次,全面深化哲学思想。现今,科学家关注的点都集中在技术本身上以及技术是否能带来巨大的经济效益上。对于和人工智能相关的哲学问题,科学家的思考是较为浅显和片面的。实际上,科学家对于人工智能技术所产生的危害性是非常清楚的,但是由对哲学问题的深入学习、思考和分析的缺乏,忽略了道德伦理方面的隐藏风险,因而造成了人工智能许多的伦理问题。所以,科学家也必须掌握一定的哲学知识并具备相应的哲学素养。这就要求世界各国在此建立起统一标准,对科学家进行系统化哲学思想的灌输与培养,也同时建立起沟通桥梁使得科学家与哲学家能在交流上达到步伐一致。如此一来,哲学家的意见也可以全面融入人工智能技术的发展中,就可以在最大程度上避免一些伦理问题的产生。

2.合理限定应用范围

目前,在诸如棋类竞赛这种规则非常明确的应用领域中,人工智能占有极大优势。阿尔法围棋的胜利,象征着人工智能现阶段拥有的运算能力和深度学习能力已经取得了质的飞跃。我们必须承认,人工智能在超算方面已经将人类智能远远甩在了身后。然而,我们需要明确的是,阿尔法围棋的胜利并不代表人工智能就能自由且无限制地获准进入其他领域。随着人工智能的迅猛发展,未来的智能水平也将会达到惊人且难以想象的程度。如果人类想要更好地将人工智能控制在自己手中,就要适度限定人工智能的应用范围。将其的功能设定在较为单一的状态下,对于我们人类自身来说是比较安全的。具体一点来说,把人工智能的学习应用能力限定在诸如棋类竞赛和无人驾驶等领域中,使其在这些领域中健康发展并不断强大,同时也能更有保障地受制于人类。人们希望人工智能能够为人类服务,却不希望面对人工智能超越人类智能的威胁。因此,合理限定人工智能的应用范围是人类不被人工智能反噬的有效途径之一。

(二)从外部视角来看,人工智能的规避建议主要从提升公众认知水平和健全人工智能监管体系这两方面来提出

1.提升公众认知水平

面对人工智能在劳务就业问题上给公众带来的隐忧和恐慌,我们应当从提升公众认知水平这一渠道入手。政府部门应该出台相关政策,在最大限度上完成从学校、公司单位到社会相关组织对人工智能基本知识的普及与推广。诸如举办人工智能技术相关的展览、讲座和知识问答活动,也可以借助新媒体的力量更大力度地对人工智能进行宣传。要引导公众朝着合理健康的方向认识人工智能,客观理智地看待人工智能,不能因为劳务就业问题使公众对人工智能产生反感和排斥从而阻碍其发展。在奇幻电影《查理的巧克力工厂》中,查理的父亲原先是牙膏生产厂一名拧牙膏盖的工人,但是工厂进行现代化改革后机器人取代了他的工作岗位。失业后他苦恼不已,却没有因此一蹶不振,最终他以机器人修理工的身份重回工厂,并且得到了原先三倍的薪水。人工智能技术的确会取代一部分人的工作,但从某种程度上说,也为广大劳动者提供了提升自己和不断学习进步的机会。随着互联网的发展,我们可以因地制宜,利用资源共享的优势让公众对人工智能技术及应用有一个正确客观的认识,引导公众调整自己的思想观念,从而推动人工智能健康稳步发展。

2.健全AI监管体系

针对技术滥用和管理缺失这现存的主要问题,我们应该从以下两个渠道来解决。首先,对人工智能进行技术监管。将技术监管特意独立和分离出来的目的是为了对人工智能技术从设计到研发有一个更好地监测,最大程度上地将问题杜绝在根源。因此,政府相关部门要在统一标准下设定监管系统,尽可能实现对人工智能技术进行全方位无死角监管。其次,对人工智能的应用进行监管。应用监管的核心在于密切关注人工智能的运行和应用层面,提倡使用人工智能对人工智能本身进行监管,例如研发具有电子警察作用的人工智能应用监测系统。同时,也要建立更为严格的管理规制,防止人工智能技术偏离正常的运行轨道或被不法分子钻空子。相关职能部门也要高频审查社会各界的人工智能技术应用是否符合道德标准。如此一来,对人工智能的监管范围更为明确和具体,形成系统和有效的AI监管体系,确保人工智能技术在可控的条件下朝着良好的方向发展。综上所述,人工智能是人类历史上一次重要的技术变革和进步的里程碑,其影响将是全方位的。未来,我们将会透过生活的方方面面来逐步认识和接纳人工智能。无论人工智能今后将经历怎样的辉煌及遭遇怎样的挑战,我们都应该从哲学的认识论和价值论上进一步认识人工智能遇到的社会问题。产生问题并不可怕,只要我们理性地去思考其产生原因,提出更为有效的规避建议与策略,就能以乐观的态度坚信人工智能健康持续的发展。

参考文献:

[1]李琼.人工智能的哲学思考.软件.2012(10).

[2]韩晔彤.人工智能技术发展及应用研究综述.电子制作.2016(12).

[3]周程、和鸿鹏.人工智能带来的伦理与社会挑战.人民论坛.2018(2).

[4]邢晓男、陈晓英.人工智能发展带来的挑战及应对策略.学术探索.2017(8).

[5]刘宪权.人工智能时代的刑事风险与刑法应对.法商研究.2018(1).

[6]杜严勇.人工智能安全问题及其解决进路.哲学动态.2016(9).

[7]孙保学.人工智能的伦理风险及其治理.团结.2017(6).

作者:艺华吴虹单位:沈阳工业大学马克思主义学院

《人工智能哲学》

人工智能哲学,本文是人工智能哲学的读后感和读书笔记。计算机究竟能否成为心灵本身而不只是心灵的工具,既取决于我们如何理解计算机能做什么,更取决于我们如何理解人类心灵是什么。我们怎样认识自己的心灵,也就决定了我们会怎样设计机器,让它具备人工的智能。这既是人工智能构想的发端,也是影响着人工智能科学与技术进展的哲学基础。

文章目录

1人工智能哲学书籍简介2人工智能哲学作者简介3人工智能哲学阅读收获4人工智能哲学思维导图人工智能哲学书籍简介

《人工智能哲学》的英文原著由牛津大学出版社于1990年出版,由15篇文章组成,文章作者多是人工智能思想界的著名人物,所收录的文章也都是在人工智能发展史上具有里程碑式的地位。这些文章的写作时间起于1950年,止于1990年,是人工智能思想近半个世纪发展历程的精要总结。

人工智能哲学作者简介

玛格丽特·A.博登,生于1936年,英国科学院院士,苏塞克斯大学认知科学学院院长,历任英国心理学会心理学哲学与心理学史分会主席,以及英国皇家哲学学会理事。著有《人工智能史》一书,是人工智能领域的权威人士。

人工智能哲学阅读收获

人工智能无疑是当前学术界和产业界共同追捧的热点,但严格说来,它并不是一个新鲜事物。

人工智能的思想发展如果从二战以后算起,也有着几十年的历史了。它所致力于解决的根本问题,譬如计算机究竟能否成为心灵本身而不只是心灵的工具,机器能做到哪些事情会被看作是有了人类的智能……这些问题的答案都植根于两千多年的西方哲学对人类智慧心灵的追问,我们怎样认识自己的心灵,也就决定了我们会怎样设计机器。这既是人工智能构想的发端,也是影响着人工智能科学与技术进展的哲学基础。

从哲学的维度上反思人工智能,有可能让我们获得一个更加高屋建瓴的视野。人工智能哲学的主要内容是符号主义与联结主义这两大基本观念的竞争。符号主义继承了哲学上的理性主义传统,而联结主义则更多地强调人类智能来自于经验学习。它们能否最终实现人工智能的理想,还是需要进一步的观念创新,看看这本论文集作出了怎样的回答。

《人工智能哲学》你将读到:

计算机所能实现的人类智能究竟是什么?

人工智能就是使用符号的计算吗?它有哪些缺点?

人工智能就是模拟神经网络的学习吗?这又有什么不足?

我们离实现完全的人工智能究竟还有多远?

书籍信息

书名:《人工智能哲学》

原作名:ThePhilosophyofArtificialIntelligence

作者:[英]玛格丽特·A.博登

出版社:上海译文出版社

译者:刘西瑞,王汉琦

人工智能哲学思维导图

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇