人工智能究竟能否获得主体地位
从存在论视角看人工智能的主体地位
我们针对以上三种观点讨论。其一,人类智能应用领域的广泛性。
科学家们通常承认,很多动物擅长某种事情,如蜜蜂擅长建造蜂房,老鼠擅长打洞。但动物在它们各自擅长的领域之外,往往就会“黔驴技穷”,比如蜜蜂不会打洞,老鼠也不会构造房子。也就是说,动物和自己的生命活动是直接同一的,它所擅长的领域通常是固定的,来自于本能;而且这样的领域是有限的,不会超出它们生存所需要的范围。但人类与一般动物不同,人类虽然天生不会造房子,但可以通过后天的学习,学会如何建造房子;人类虽然天生不会打洞,但可以通过设计出相应的机械打造出合适的洞穴。所以马克思指出,人的活动与动物的本能活动之间存在着本质区别:“动物只是按照它所属的那个种的尺度和需要来构造,而人却懂得按照任何一个种的尺度来进行生产,并且懂得处处都把固有的尺度运用于对象;因此,人也按照美的规律来构造。”
人类之所以是“万物之灵”“世界的主宰”,关键在于人“会思维”,具有智能。博斯特罗姆(NickBostrom)和尤德考斯基(EliezerYudkowsky)认为,虽然关于“人类智能是否是普遍的”这一问题存在争议,但毫无疑问,人类智能肯定比非人科智能具有更广泛的应用。这也就是说,人类智能的应用领域并不会像一般动物那样固定在某个特定的领域。人类智能可以在不同的领域中起作用,并且,其应用领域可以不断地发生变化。上述第一种观点认为,正是因为人类智能的这种特征,使得人类可以获得独立的主体地位。
我们现在需要追问的是:人工智能能否发展出类似于人类智能那样的特征,可以独立地应用于各种不同的领域。在回答这个问题之前,我们有必要首先扼要了解一下什么是人工智能,以及人工智能的一般运作模式。
人工智能正在快速发展之中,关于“人工智能是什么”这一问题,目前学术界尚没有一个公认的定义。大致说来,人工智能是一门通过利用计算机、数学、逻辑、机械甚至生物原则和装置来理解、模拟、甚至超越人类智能的技术科学。它可以是理论性的,但更多的时候是实践性的,主要属于认知科学。其中,大数据是人工智能的基础,而程序或算法则是其核心。当然,基于对人工智能的这种理解,要想直接回答“通过这样一门技术科学所获得的成果能否像人类一样获得主体地位”这个问题还难度甚大,但这不妨碍我们间接地思考这一问题的答案。
学者们往往将人工智能划分为强人工智能与弱人工智能。这一划分最早是由塞尔(JohnRSearle)提出来的。他首先提出了这样一个问题:我们应该赋予最近计算机模拟人类认知能力的努力什么样的心理和哲学意义?然后基于对这一问题的回答区分弱人工智能与强人工智能。弱人工智能认为,人工智能模拟人类心灵的价值原则是为我们提供一个强有力的工具。而强人工智能则认为,计算机并不仅仅是一种工具,在它能够给出合适的程序的意义上,它可以被理解为拥有其他种类的认知状态,应该被视为一个心灵。塞尔的区分得到很多人的支持。如阿库达斯(KonstantineArkoudas)和布林斯约德(SelmerBringsjord)认为,弱人工智能旨在构建行动聪明的机器,而在该机器实际上是否聪明的问题上不采取立场;至于强人工智能,他们借鉴了海于格兰(J.Haugeland)的观点,认为人工智能不仅仅是模仿智能或产生某些聪明的假象,而是希望获得真正的主体,即成为拥有心灵的机器。
如果我们接受弱人工智能的观点,认为人工智能只是一种工具,那么很显然,人工智能无法拥有主体地位。首先,工具总是被动的,为人类所利用,无法自主地行动。其次,工具往往具有特定的功能,只适用于特定的任务,无法像人类智能那样适用于比较广泛的领域。当前人工智能产品所展现的恰恰是这种工具性。如AlphaGo目前在围棋领域独步天下,但对其他领域一无所知;“薇你写诗”小程序比较擅长古诗创作,却无法处理其他事务。因此,如果认为人类智能是由于能够广泛地适用于各种不同的领域而获得主体地位,那么弱人工智能无论如何都无法获得主体地位。
如果我们支持强人工智能的观点,认为人工智能不仅仅是一种工具,更应该被理解为心灵,那么情况将会复杂得多。因为心灵一般被视为可以适用于多种不同的领域。如果这种观点成立,似乎意味着强人工智能视角下的人工智能应该具有主体地位。
在做出肯定的回答之前,我们有必要追问强人工智能视角下的心灵界定。根据塞尔的观点,强人工智能认为,应该被视为心灵的机器是被“合适程序”控制的机器。这表明,强人工智能所理解的心灵实际上等价于程序。即是说,强人工智能认为,心灵即是程序。很明显,这种对心灵的解释与人们通常对心灵的理解是不同的。基于对程序的理解,博斯特罗姆和尤德考斯基认为,人工智能要求具有鲁棒性(berobust,即系统在一定参数波动下能够维持其基本性能的特性),而不是可篡改性(manipulation)。即是说,人工智能要求它的产品能够排除外在因素的影响,在不同场景中实现同一个目的。因此,它所预设的程序总是为了某个特定的目的而被内置于其中的,而这与人类智能的要求恰恰相反。人类智能并不需要为心灵预先设定某个特定的目的,它的目的总是随环境的变化而发生变化,甚至在同一种环境中也可能有所不同。当然,我们可以设想程序叠加的情况。也就是说,我们可以设想在某个时候,科学家将不同的程序通过某种方式融合在一起,使其不但能够处理不同场景中的事情,甚至可以在同一场景中处理不同的事情。在我们看来,这种情况即便成立,人工智能可能仍然无法获得主体地位。因为严格地说,人类智能所能应用的领域是无限的。因为人类有无限的可能性。但对于人工智能而言,无论如何添加算法,它的程序数量总是有限的。因此,如果坚持人类智能是由于能够广泛适用于各种不同的领域而获得主体地位,那么强人工智能视角下的人工智能也无法获得主体地位。
从认识论视角看人工智能的主体地位
我们现在考察第二类观点,即认为人类之所以拥有主体地位,是因为人类拥有某些不同于非人类的高级智能。至于这些高级智能到底是什么,观点各异。如亚里士多德认为,“理性实为人类所独有”〖ZW(〗亚里士多德:《政治学》,吴寿彭译,北京:商务印书馆,1983年,第385页。〖ZW)〗;卡西尔则认为,“应当把人定义为符号的动物”,也就是说,会使用符号即语言是人类独有的能力;而马克思则同意富兰克林的理解,认为人是能制造工具的动物。在人类所具有的这些独特能力中,究竟哪种或哪些能力是人类具有主体地位的真正原因呢?回答这个问题十分困难,甚至通过判断人工智能能否获得此种能力、从而推论人工智能能否获得主体地位的思路也是行不通的。因为我们很难推断出哪种或哪些能力是人类具有主体地位的真正原因。
图灵测试为解决上述问题提供一个很好的方案,因为它并不需要假设人类具有何种独特的能力。图灵测试由图灵(A.M.Turing)于1950年首次提出。某一机器能否通过图灵测试,被许多学者看作判断该机器是否具有心理状态的标准。在论文《计算机器与智能》中,图灵围绕“心灵能否思考”的问题设计了一种“模仿游戏”。在这个游戏中,存在一个询问者,一个男性A和一个女性B,他们处于相互隔离的房间中,询问者的目的是通过询问A和B以确定他们各自的性别,A和B则以打字的方式回复询问者,其中,A试图扰乱询问者的判断,B则通过给出真实的答案帮助询问者。图灵认为,如果以一台机器代替A,并且游戏可以进行下去,那么就意味着该机器具有心理状态。如果图灵测试是有效的,我们就可以按照这个标准,在不需要知道什么样的能力是人类获得主体地位的原因的情况下,判断机器是否具有心理状态,并进一步判断人工智能能否获得主体地位。因此,问题的关键在于判断图灵测试是否有效。
图灵测试自诞生以来,在很长时间内都得到学术界的支持,直到塞尔提出“中文屋”思想实验,才打破了这一局面。中文屋的思想实验大致可以概括如下:假设塞尔被关在一个屋子里,这个屋子里有三批书,第一批书和第三批书是中文,第二批是英文。第二批书中的英文描写的是如何将第一批书和第三批书的内容联系起来的规则,并且指导塞尔在回复过程中使用什么样的符号。塞尔不懂中文,只懂英文,他的工作就是利用规则和中文书中的内容回复他看不懂的中文问题。从外部来看,塞尔似乎懂中文,因为他给出的回答与会说中文的人没有什么区别。但实际上,塞尔只不过是按照规则操作符号,他始终没有理解中文问题,甚至不知道他所处理的是中文。塞尔认为,他在中文屋里的工作是计算机工作的一种例示,只不过他所遵守的是英文的解释,而计算机遵守的是内置于其中的程序。如果塞尔的中文屋思想实验成立,那么就表明,即使有人工智能通过了图灵测试,也不能证明该人工智能具有心理状态。因为人工智能只不过是按照符号的句法规则进行操作,并没有达到真正的理解。
塞尔的中文屋思想实验提出以后,引起了广泛的讨论。由于篇幅有限,我们不打算在此详细讨论这些争论,而是将注意力集中在塞尔根据他的中文屋思想实验提炼出的一个核心论证之上。这个论证可以概括如下:
公理1:计算机程序是形式的(句法的);
公理2:人类心灵拥有心智内容(语义的);
公理3:句法自身既不是语义的结构性成分,也不是它的充分条件;
结论:程序自身既不是心灵的结构性成分,也不是它的充分条件。
这个论证的关键在公理3,即句法不能构成语义。一方面,如果我们将计算机的本质看作程序,而程序本身是由代码构成的,那么它只是符号的组合,只具有句法特征。另一方面,语义对于一个符号系统而言是独立的,如果有人希望发现句法的运作与语义之间的联系,那么,他必须能提供某些复杂的证据以展现这一点。就此而言,句法和语义不同,仅凭句法不能解释它的语义特征。因此,如果计算机可以被看作程序,那么最终的结论很可能是:机器,或者说人工智能的产品无论如何都不能被视为拥有心灵。
有些学者并不同意塞尔对机器的理解,比如科尔(DavidCole)、丹尼特(DanielDennett)、查尔默斯(DavidChalmers)等人认为,运行程序的计算机并不能简单地等同于句法,而应该视为一个复杂的电子因果系统。如果考虑到现在的人工智能产品(比如智能机器人),这一特点更加明显。也就是说,程序虽然可以视为句法,但运行程序的东西本身不能简单地归结为句法,它们与现实世界之间存在着紧密的联系。查尔默斯等人的观点毫无疑问是对的,但这是否意味着塞尔的批评无效呢?在我们看来,即便肯定机器人与现实世界之间的因果联系,也无法认定人工智能具有心智状态。因为因果联系本身不能为语义提供任何辩护。语义系统涉及真假,而真假与辩护相关,需提供证据或理由加以支持;但因果关系本身没有辩护能力,因果关系只能描述发生的事件。塞拉斯(WilfridSellars)曾说过:“在刻画有关知道的情景或状态时,我们不是为该情景或状态给出一个经验性的描述;我们是将其置于理由的或者关于辩护的逻辑空间之中,并且能够为一个人所说的内容辩护。”这也就是说,关于辩护的逻辑空间与经验性的描述必须明确区分开来。语义与辩护的逻辑空间相关,而因果关系则是一种经验性的描述,两者属于不同的层次。因此,即便人工智能产品与现实世界之间存在紧密的因果联系,仍然无法构成心智状态所要求的语义部分。从这个角度说,塞尔的结论仍然成立。也就是说,人工智能无法真正地具有心理状态。
由于塞尔的中文屋论证并没有假设人工智能产品具有何种能力,因此,如果我们为塞尔的论证提供的辩护是有效的,那么就表明,人工智能无论获得何种能力,都将无法获得主体地位。因为人工智能所获得的能力只能基于句法和因果关系进行运作,但无论是句法还是因果关系都无法构成主体所要求的语义成分,因而无法获得主体地位。
从价值论视角看人工智能的主体地位
从价值维度说,人之所以获得主体地位,是因为人类将自己当作目的,而不是像一般动物一样仅仅依据本能生活。当然,人类的目的很多,具体到个人身上,事业、爱情、甚至活着都可以是自己的目的。如果人工智能的发展使得自己具有目的意识,不再将自己视为人类的工具或者创造品,那么,我们可能就不得不承认人工智能具有主体地位。然而,在人工智能获得目的意识之前,我们需要考虑的是,在什么情况下,人工智能才有可能具有目的意识。
根据康德的理解,一个存在物要想具有目的意识,它必须首先是理性的,而且在实践领域必须是自由的。将这种观点应用于人工智能,我们认为,如果人工智能想要具有目的意识,必须首先具有理性能力,并且具有自由意识。当然,“什么是理性”,“什么是自由”,这些问题学术界一直存在争议,众说纷纭,莫衷一是。但处理这些争论不是我们讨论的重心,我们采用常识性的理解足矣。我们可以将人工智能具有理性能力理解为他能够进行反思推理,即人工智能知道自己在做什么,并根据已有的证据能够做出推断;至于自由意识,则可以设想成人工智能能够自由地进行价值选择,做出决断。如果我们的这种理解成立,那么,人工智能是否具有理性反思和推断能力,是否能够自由地进行价值选择、做出自由的决断呢?
首先考虑理性能力。从技术发展的视角看,令人工智能具有反思推理能力,应该不存在什么终极的困难。即使现在人工智能产品无法达到这一要求,也不意味着它们将来无法做到。实际上,围棋领域的AlphaGoZero已经具备了一定的推理能力,因为它可以根据围棋规则自我博弈,自己学习,并不断进行评估,推导下一步棋应该怎么走。而且,我们可以认为,AlphaGoZero已经具备了一定的反思能力,因为它是根据自我博弈的棋局深度学习、并进行优化选择的。因此,问题的关键在于考察人工智能产品能否在实践中具备自由决断的能力。
关于人工智能产品在实践中是否具备自由地选择、决断能力的问题,我们首先需要理解自由地选择和决断能力到底是什么样的能力。如果我们将自由地选择和决断的能力置于某一个系统内,那么很显然,人工智能产品可以自由地选择、决断。比如,在智能驾驶领域,无人驾驶汽车可以依据内嵌的交通规则和传感器获取的实时路况,实时地选择到底走哪一条路线。没有任何人会阻碍它的选择。问题在于,这种系统内的自由决断称不上真正的自由。就像一只老虎可以在羊群里自由地选择追逐任意一只羊,但几乎没有人承认老虎是自由的一样。真正意义上的自由需要突破这种特定的目的以及自身的限制,在所有的可能世界中进行选择。也就是说,人工智能要想真正地获得自由,必须能够不再局限于自身的某个特定目的,它所内嵌的程序需要能够赋予人工智能突破自身的潜力。
在我们看来,这种情况是不可能的。因为程序一旦生成,便决定了运行此程序的人工智能的“所是”,不论在什么情况下,它都不可能发生任何本质上的变化。一种可以设想的极端情况是人工智能自己编程,并利用相关的资源制造出新的人工智能产品。在这种情况下,新的人工智能产品有可能突破原有局限,进而获取新的能力;而原有的人工智能产品则有可能将制造出新的人工智能产品视为自己的目的。
接下来讨论被制造的新人工智能产品。被制造出的新人工智能产品受制于原有的人工智能产品,只要它的程序被固定下来,那么它就会受程序本身的限制,因而不可能是自由的。而且,如果我们将原有的人工智能产品与新的人工智能产品视为一个整体,那么,新的人工智能产品无论如何也无法突破这个整体的限制。即便它能够自由选择,这种自由选择仍然只是系统内的自由,而非真正意义上的自由。对于原有的人工智能产品而言,情况要更加复杂一些。因为它制造出新的人工智能产品的工作是一种创造工作,如果这种创造工作是自由的,它能够自由地创造出新的人工智能产品,那么,我们必须承认这种人工智能产品具有主体地位。问题在于,这种能够自由创造的人工智能产品是否可能?在我们看来,除非多明戈斯(PedroDomingos)所说的能够解决所有事情的“终极算法”存在,否则,这样一种能够自由创造的人工智能产品是不可能的。因为任何人工智能产品最终都会受算法的限制,都不可能进行自由的创造。但多明戈斯主张终极算法存在的论证很难令人信服。因为他所期望的终极算法依赖于现存的机器学习领域中的五大主流学派力推的五大主算法,如符号学派力推的规则和决策树、联结学派力推的神经网络、进化学派主张的遗传算法、贝叶斯学派主张的概率推理和类推学派推崇的类比推理。但五大主流学派主推的这些算法未必能处理所有事情。更重要的是,任何一种算法都是基于已有的数据进行自主学习,都很难处理小概率的黑天鹅事件。因此,我们认为,由于人工智能受制于程序(算法)本身,注定了它不可能获得真正的自由,也不可能获得价值论意义上的主体地位。
小结
通过以上论证,可以从存在论、认识论以及价值论的视角都得出了同样的结论,即人工智能难以获得真正的主体地位。从存在论的角度看,人工智能产品处理的领域是有限的;从认识论的角度看,人工智能产品无法获得真正的理解;从价值论的角度看,人工智能产品无法获得真正的自由。
不过,由于人工智能毕竟是一种颠覆性、革命性的高新科学技术,人工智能发展快速,特殊应用领域广泛(例如人形智能机器人的研发),我们也不能故步自封,固执己见。咀嚼现实,我们不难得出这样的结论,即不能将所有的人工智能产品简单地等同于工具。因为对于工具而言,它的价值仅仅只在于服务人类;但对于人工智能而言,我们不难想象在未来的某个时候,人工智能的发展使得一些人对某些人工智能产品(如人形的智能小秘书、智能保姆、智能机器人伴侣等)产生了一定的情感,并出于某些因素善待这些产品。尤其是智能技术与生物技术相结合,当仿生科技越来越先进之后,这种可能性将会越来越高。在诸如此类的新情况下,将所有人工智能产品简单地视为工具并不合适,甚至会受到一些人的质疑和抗议。因此,在未来智能社会,如何对待人工智能产品是值得我们思考的一个重大问题。
由于人工智能一般而论不可能具有主体地位,同时,有些人工智能产品又不能简单地等同于工具,因此,我们不妨将人工智能产品分类,其中一部分人工智能产品只能被当为工具,比如智能语音识别系统,而另一些人工智能产品则由于其特殊性,可以赋予其介于人类与工具之间的地位。我们可以将后者称为准主体地位。后者并不是真正的、完全意义上的主体,而是人类“赋予”它的主体地位。这有些类似今天登堂入室、地位不断攀升的宠物。人们之所以认为需要善待狗、猫之类宠物,甚至坚持它们是家庭的一份子,是因为“主人”长期与宠物相处,已经对这些宠物产生了复杂的情感,将它们当作一个主体来看待。不过需要指出的是,宠物之所以能够获得这种地位,并不是凭借宠物本身的能力获得的,而是人类赋予它们的,这源自人类本身的一种自我需要。如果人类在感情上不需要这些宠物,那么,它们就将失去这种地位。某些人工智能产品可能获得的准主体地位也与此类似。即是说,即便某些人工智能产品最终被某些人视为主体,这种主体地位仍然是人类赋予它们的,它最终依然可能失去这种主体地位。
以上图片来自百度图片
责编|阿尔法马返回搜狐,查看更多