人工智能与人类思维的异同
关于人的思维(包括理性与心灵)究竟是什么的问题,一直是困扰哲学巨匠与科学大师的难题。虽然哲学两千年来对此有过很多推测,但都不能自圆其说,最终都只能去拜神或变相拜神了。科学对人脑的探索,目前也还希望渺茫。
2019年出版的《重识哲学----从情感迈向理智》对于人类思维是什么?来自哪里?该去何方?进行了有益的探讨,也大体上回答了丹尼尔·丹尼特提出的上述问题。今年笔者因受友人启发,对人工智能的关注渐多,发现人工智能的研究思路,与《重识哲学》提出的隐性情感思维不谋而合。两者若能相互借鉴推挽前行,不失为一个可贵的契机。
1、人类思维
在懂得计算机的人中,现在有很多人了解人工智能。虽说人工智能来自对人类思维的模仿,但却很少有人知道,人是如何进行思考的,尤其是对无意识的隐性思维,更是知之甚少。《重识哲学》经过始于单细胞生物感觉的详实论证后指出,人和其它高等动物,无论遇到任何事物,都是依据记忆中,以往处理此事时的行为,曾带给他(它)的感觉,来进行判断的,快感将导致行为重复,痛感将导致行为规避。从单细胞生物,到多细胞生物,再到动物,最后到人,无一例外。
生物只有把所遇事物、行为和感觉捆绑记忆,并依据记忆进行判断,才能有效生存。动物必须能够分清、注意、记住,曾给自己带来强烈快感或痛感的东西。否则,不是耽误了觅食,就是耽误了逃生,结果只有灭亡。微生物进化到高等动物后,单一的快感或痛感已经演变成了更为丰富的情感。高等动物必须也只能依据情感,进行无意识的注意、归类、记忆和判断。
在拥有语言之前,人类早已拥有了其它高等动物也具备的,无意识的注意、归类、记忆、判断、归纳与演绎等,无意识的隐性情感思维。这些能力是先期人类和其它高等动物生存所必须的,没有这样的能力,它们就无法生存。人的情感是人唯一的价值体系,情感强度是人唯一的价值尺度。
人类独有的语言和有意识的显性理智思维,都是在这些隐性情感思维的基础上,为了辅助情感思维,而逐渐发展起来的,所以很自然,显性理智思维一直受着隐性情感思维的支撑与支配。人类的思维包括了,无意识的隐性情感思维和有意识的显性理智思维。显性理智思维是以语言为支撑的,以隐性情感思维作为出发点和方向的,有意识的逻辑推理。
代表人类的理智源自语言。人类形成的原因有直立行走、制作工具、用火、劳动和语言等,这其中每一步也许都是必须的,但是,其中最重要的因素是语言。正是因为有了语言,1、人的思想意识才变成了人间的存在,2、才能定义出无法以隐喻为依托的,高度抽象的大量概念,3、才能扩充表象间的联系,4、人才能够有效长时地聚焦自身的注意力,5、才能增强人的抽象记忆力,6、才能形成由语言支撑的有意识思考,7、有意识的理智思维才能进行有逻辑的深入推理,8、人类才有了高效的社会交流。
因为有了高效的社会交流,人类的知识与智力得到了极其快速的倍增式提升,使人类智能飞速地跨越了,数亿年的进化历程,变成了具有理智的智能人。虽然理智思维受到情感思维的支配与支撑,但是理智思维对于情感思维也具有强有力的反作用。
正是语言成就了人类的理智,超群的理智正是人类与其它动物的根本区别,人类现在是世界上唯一依靠理智思维生存的文明生物,正因如此人是最依赖社会的社会物种。人性区别于畜性的根本在于,人性是利己本能与利他本能的依存、对立与统一。人间的根本差别也在于,有些人利他本能多些,有些人少些,从而形成了各不相同的情感价值观。
人类思维的根本依据是自己的情感价值观,它形成于言行成败带来的快感与痛感的累积。情感价值观可以被理智认同的理论价值观所改造,值得注意的是,这个改造非有大的情感冲击难以成功。高度抽象地看,人就是惯性体,思维与言行的惯性体,这个惯性就来自情感。
人的情感价值倾向最终是由人的情感价值观决定的,这是每个人最根本的价值观。这个价值观形成于自幼至今所有的实践感受,包括所有对自身有意识显性思维的感受,这其中就包括了反思、交谈、听讲、读书或观看时的显性思维。
情感思维支配与支撑理智思维,理智思维改造情感思维。这样的理论很好地解释了,世界上所有人的观念都有差别,人们的思想都在不断变化,和人类虽都有理智思维但每人所想并非完全一致,等实际存在的现象。
每个人的知识分别来自,自身实践的感受、反思的感受和从与他人交流中得到的感受,与他人交流包括了交谈、听讲、阅读与观看等等。人的知识可以被用于显性理智思维也可以被用于隐性情感思维。
人们在谈意识时,大多是指思想意识,或可长时持续的、有意识的显性思维,而不是其它高等动物也具备的短暂无意识的注意。人在每天遇到的无数事物中,偶尔会注意到某个事物,这个注意产生于头脑中无意识的相似比较,只有这个比较触碰到曾经情感强烈的记忆时,人才会产生注意并开始联想。这个注意是人类独有的可持续的有意识注意,也就是所谓的意识,这个联想就是人的思想意识,是由语言支撑的、有意识的显性理智思维。
人类联想的起点就是显性理智思维的出发点,产生于隐性情感思维;从联想开始,沿着思维方向,每个人的头脑中才会展开显性理智的逻辑推理,逻辑仅能保证思维方向的单一性。人的思维方向就是人的情感价值倾向,也就是人的情感取向,或称意向性。比如有些人的情感倾向很阳光,有些人的情感倾向很阴暗;有些人认为利最重要,有些人认为义最重要;有些人遇事会往积极的方向去想,有的人遇事会往消极的方向去想。
联想起始点也就是直觉,由于直觉产生于无意识情感思维,人们一直感觉很神秘。人在遇事后无意中关联到的记忆,就是在头脑已有的数个相关记忆中,曾给自己带来最强情感冲击(正负价值最高)的记忆,或最常用(还是价值最高)的熟悉记忆。如果这个记忆的情感足够强烈,就会引发注意,这个记忆就是联想的出发点或联想。这也就是在遇到同样的事物时,不同的人会有不同联想的原因。因为在此之前,不同的人有过不同的人生经历与感受积累,就会具有不同的情感思维,从而带出不同的理智思维。
联想既有顺序推论,也有倒序推论,既有可行推论,也有不可行推论,既有归纳也有演绎,既有猜测、假设也有追问。猜测就是对依据重要性顺序联想到的数个假设(可能),进行的推论。追问就是要追究为什么的为什么的为什么,就是寻找原因的原因或前提的前提,也是对猜测进行的猜测。
在逻辑推理的过程中,人类还会相继产生一些与某节点相关的联想。有些人的所谓逻辑混乱,其实不一定发生在推理当中,很多情况的原因就是,他们在这些节点上的联想,偏离了论证应该行进的方向或最重要的方向。也就是说,他们的情感倾向,偏离了最有实际价值的方向。也就是俗称的,“分不清孰重孰轻”。
人类的理解就是把新遇到的事物、观念或理论与自己记忆中的相似知识进行比较,这个比较既牵涉情感思维也牵涉理智思维,进而形成记忆中原有知识对于新遇见识的解释。解释通了就是理解了,解释不通就是没理解。对于深刻问题,只在表面解释通了属于简单理解,能够深入数层的解释属于深刻理解。每个人最原始的知识,形成于婴儿时期亲身实践的感受。
人类的理智思维依赖于概念,概念的原始出处就是动物的归类行为。虽说人类的理智思维依托于概念,但是每次理智思维的起点并非是由概念开始的,也不是严格按照概念分类的脉络行进的。正如上面所说,人类思维的起点和方向都取决于隐性情感思维,人的情感在思维中起着决定性的重要作用,甚至作用到理智推理当中的各个节点。
由于情感是人的价值体系,实际上人的思维归根结底是对价值的判断。任何价值(意义、贡献、重要性)都是相对于参照物而言的,不存在任何绝对的价值。情感价值的参照物是每个人自己,对自身而言,能够形成强烈快感或痛感(感觉、感受、情感)的价值就高,感觉不强烈的价值就低,还有很多不能形成感觉的,就是没有价值。
然而,人的情感时常也会欺骗人。因为人的产生情感的依据是情感价值观,价值观的正确与否决定了一个人感觉的对错,此外,即使价值观正确,人们也会受到眼前暂时小利或威胁的诱导,因而产生错误的感觉,再或者有些人根本就看不到长远或重大的利益或威胁。
上述这些观念,正是哲学几千年没有搞清楚的哲学的根本问题。因此也使得人工智能,只能在黑暗中摸索,甚至即使摸到了,也不知其所以然。今天的人工智能,的确是在模仿人类的思维,也确实一步一步地验证了如上所述的人类思维。
2、机器思维
通常研究哲学的人搞不懂人工智能包含的深奥科技,而人工智能的研究者更多的是专注人工智能框架下的解决方案和技术突破。两边都很少有人,深入探讨双方实质上可能靠拢的途径。现在我们不妨仔细提炼一下,把人工智能所做的工作与人类的思维,在更抽象的层面上进行一下高层对接。
总的来说人工智能是,先将某些事物的要素及其关系数字化,再用各种模仿人类思考的模型及相应的算法,逼近或实现人类的智能。人工智能现在的主攻领域主要有两个,一个是深度学习,一个是强化学习。
深度学习运用的是神经网络及一些相应的算法,各类算法解决了数据要素提取与筛选,也成就了神经网络的学习过程。神经网络模拟了人类大脑神经元的网络结构,神经网络的学习过程模仿了,人类学习中的反复摸索和无意识归纳。神经网络经过学习,就可以找出各要素对于学习目标的价值(权重)了。这些权重虽然未必被显示出来,但实际上它们已经存在了,并会在以后的辨别中发挥决定性作用。
深度学习主要是归纳探索,事物某方面特性的各个相关决定性要素,以及各要要素之间的关系,也就是归纳各个决定性要素对于形成事物某特性(目标)的贡献、意义或价值(权重)。深度学习就是学习各要素对于已知目标的重要性(权重),最终找到并记住最重要的各个决定性要素及其相关价值(权重)。
强化学习就是,模拟了人类以感受奖惩学习成果的奖励机制,抽象出来的模型。深度强化学习运用神经网络、算法和强化学习模型,把各种算法运用于数据要素的提取与筛选、神经网络和强化学习模型,将所有策略路径到达目标后的最终奖励,合理分布到其每一步动作上,得到每一步动作应得的奖励,也就得到了每一步动作对于目标实现的价值。
强化学习主要是依据一系列策略路径完成后的得失(奖惩),探索各种策略发展路径上每一步决策或动作的利弊,从而对比确定某个事件的最佳策略发展途径。强化学习就是演绎探索各种可能策略路径上的每步动作,对于目标得失的重要性或贡献。最终发现并记住,最佳策略路径以及沿途所有动作或决策。
从对深度学习与强化学习的抽象中不难看到,深度学习与强化学习的实质与情感思维高度一致,它们都是围绕达成目标的要素和目标与要素间的关系(权重),进行的运算或思考。人工智能之所以成功,也正是因为它恰好踩到了“价值”,这一人类隐性情感思维的核心逻辑之上。
3、各自的优劣及发展
无论是深度学习还是强化学习,都是利用构成事物的各要素对于事物的意义来运算的,这一点与人类情感思维的工作模式完全吻合。神经网络模仿了人类大脑神经元的构架,而神经网络训练则模仿了,人类反复摸索要素价值的归纳过程。强化学习模型的奖励机制,与生物动作成败所获快感与痛感完全一致。
深度学习类似于人类对于事物构成要素及意义的反复摸索。人和其它高等动物的大脑,都具有极强的归纳能力,它们可以在反复的实践中抓住,目标在多次反复中表现出来的共性。对于任何事物,人的头脑通过五官多次反复的感知过程,可以无意识地归纳出,事物各组成要素对于事物判断的重要性。
强化学习模拟了,人类和其它高等动物以情感的感受来奖惩成败行为的模式。人类和其它高等动物一样,依据情感进行无意识判断,依据判断决策动作,动作的成败对人的感觉形成奖惩。成功带来快感,失败带来痛感。
人的学习每一次都会得到奖惩,对每个人来说,每次学习的结论与感受不一定完全正确,甚至完全不对,这个奖惩也不一定准确,甚至可能是错的。人对事物的每次认识,往往只是大体的正确,并非真正的正确。人类是依靠多次或众人的大量累积,获得的大量可比结果,才会最终比较得出某个方面的知识。强化学习归结了常人在某件事上一生的学习,乃至是很多人终生的学习,甚至超越了几代人的学习。
在人类头脑的记忆中,所有知识都含有与之相关的情感因素以及相关知识的关系。这个情感因素也就是人在获得这项知识时自己的感受,这个感受就是这项知识对于本人的主观重要性(重视程度)。本项知识与相关知识的关系,也包含着关系的权重(相互的重要性)。
每个人学习任何一项知识,都涉及从一生所有实践经历(包括读书或交谈)中获得的感受。每次遇到比较重要的相同事物,人都会刷新他已有的旧知识,这个刷新有可能是增加、削弱或反转。当新知识带来的感受足够强烈时,就会刷新脑中这项知识在所有知识中的价值地位。不仅如此,这些重要性还会随着本人各项知识的逐渐增加或改变而变化,也就是说某项知识在人脑中的地位是变化的。
需要注意的是,在遇事初起引发注意的情感依据,就是对此事此时的感受,它很可能已经随着其它知识的改变而转变了,不再是原来此项旧知识形成时的感受了。所有这些变化,都是在人的无意识状态中发生的。正因为如此,人脑中的知识才可能是一个知识的整体,人也才可能是一个意识的整体。这一点大概正是当前人工智能所欠缺的。
人工智能解决某个问题时,是一次性解决了人在一生中多次学习得到的这个知识点,或是对该问题之多人多次实践结论的一次性总结。而且,结论更加正确或精准。人工智能的这个特点,目前其实也有其缺陷,那就是此次学习如果片面,就会一直存在缺陷,再无改正的机会了,再或者,此结论再也不会随着条件的改变而变化了。
人工智能为了改进这一点,可能需要在构建知识网络(库)时,附加每项知识间的连接及其相对价值。其实在机器学习的过程中,机器已经掌握了所学知识与其组成要素(其它知识)的关系与权重(价值),但是,在各项学得的知识之间,还没有建立相关关系及其相对价值。如此这般人工智能就只是学会了各个单项知识涉及的关系,而不能像人脑那样形成一个完整的知识整体。
在人类社会中,有些人是明白的、理智的或明智的,也有些人不明白、不理智或不明智。通常在人群中,真正很明白、很理智或很明智的人,只是极少数。大多数人的一生都行走在大致正确或从众的轨道上。哲学到今天都不明白,每个人并非依据正确活着,而是依据自信活着。无论这个自信的正确与否,自己都会有意无意地确信它是对的;无论一个人被认为多么不自信,他都是自信的,不然,他就不会有任何行动了。
人的错误似乎发生在不够理智,根源却在情感价值观,这是因为人类思想的出发点和方向是由情感倾向决定的。常听人说某人的逻辑混乱,实际上差错往往不是发生在逻辑推理上,而是他思维的出发点,不在该问题价值最大的地方,或者,他思维的方向就不对。同样的错误,照样也会发生在逻辑推理过程中的各个节点之上。
在单一问题的处理上,人工智能已远强于很多不明智的人。实际上,很少有人能够准确把握问题,或能真正正确区分轻重缓急。任何人无论其多么理智,他的思想也必然依赖和受限于他自己的情感。参加围棋比赛的高手,都是人中顶级的理智之人,人机围棋赛的最后结果,就说明了人类思想的局限性。
在与他人打交道的时候,人还会猜测对方的思路,猜测得对就会赢得先机或得到对方的好感。从理智的角度看,要猜得对,需要正确把握对方流露出来的准确信息。对于人工智能来说,这些背后或许还隐藏着某些未知。
人类在竞争或博弈当中,会权衡敌我的优势与劣势,机会与威胁,价值与风险,人工智能现在似乎还没有做这样的对比评估,更没有进行评估后的取舍。勇敢之所以是人类的优秀品质,这是因为人类的很多进步,都是在勇敢的尝试中获得的,胜利者由此获得的快感也是超乎寻常的。
在前面谈人的情感思维时,有一点十分重要,这就是:人的情感是人唯一的价值体系,情感强度是人唯一的价值尺度。真正理解这一点,对于人工智能的发展也许会有所启发。这一点告诉我们,人的所有思想就是在做关系(价值)比较(判断),比较的依据就是,情感表达(代表)的,事物相对本人的价值(关系、权重)。人类思想就是在做价值比较,这就是人类寻找了几千年的人类的逻辑。所谓相对价值正是任意两者之间的关系(权重),而这一点已经在深度学习和强化学习中得到了很好的应用,树立了很好的榜样,这一点也必将继续带动人工智能的深入发展。相信会有具备高度理解力的专家学者,可以依此前行,实现卓越超群的科技突破。
人工智能的马克思主义审视
再次,从技术产生的基础上看,人工智能的基础并未取得飞跃进展。
现有的人工智能只能在某个维度、层面,或者某个特定的领域接近、达到甚至超过人类的智能,但是它的基础,即得以产生的理论基础、算法等很难推广到其他领域,建立在专业化设计理论基础上的人工智能在通用性或者功能协同方面还有很远的路要走。事实上,当前支持人工智能所取得成功的大多数技术都是几十年前发明的。也就是说,人工智能所取得的进展并非是人工智能本身的进步,而是源于这些年计算机技术的进步,源于计算机计算能力和运行速度的提升。人工智能在人机大战中获胜,根源在于出现了更快的计算机,而非更“聪明”的计算机,从上个世纪80年代人机大战开始到现在的发展历程也展现了这一点。
当前信息处理和计算技术的两大基础源于图灵机和冯·诺依曼计算机体系。图灵机是模拟人们用纸笔进行数学运算的过程,也就是说它是使用预定义的规则对一组输入符号进行处理然后输出。可见,计算机处理的规则和预定义是人为限定的,因此图灵机的工作成效是由人们对于外在物理世界的认识深度所决定的。当前计算机的工作方式依然是编写程序和运行程序,而这一工作方式源于冯·诺依曼计算机体系的存储程序原理。自其诞生至今,虽然计算机的运算速度越来越快,程序设计也逐渐模块化和自动化,但其基本的工作方式和理论基础并没有变。可见,由于计算基础就缺乏自适应性,虽然经过了大半个世纪的发展,当前人工智能在感知、认知、控制等多方面都存在需要突破的瓶颈,需要构建新的信息处理和计算模式。
二、人工智能与自我意识
自我意识即意识到自我,意识到“我”是一个独立存在,与其他存在不同。从主客体的角度看,自我意识即自觉到“我”是主体,一种主体地位的自我确认。随着自我主体地位的确认,主体之外的其他存在作为对象和客体而存在,对这些外在于意识的对象的意识作为对象意识。正是有了自我意识、对象和对象意识的区分,使世界区分为“你、我、他”。人类找到了自我,从混沌中独立出来就需要处理“自我”与其他对象之间的关系,因此自我意识是以人的主体性为基础对自我与对象之间关系的确认和反思。
自在的人作为自然界的一种存在,与其他存在一样,是一种“自然而然”的存在;但是人与其他自在的存在不一样的地方在于人还是具有自我意识的存在,即一种“自为”的存在,具有了认识世界和改造世界的主体身份。作为主体的人既是自在的存在,又是自为的存在,这种双重性在人的身上实现了对立统一的关系,主体才产生了改造世界以适应自身需要的自我意识,人才成为真正的主体,成为物质世界里唯一的能动性存在。具有能动性的主体不仅能够观念地反映对象,更能以实践的方式改造对象,使对象成为主体所希望的样子,也就是使自然世界向属人世界转变。在自我意识的推动下,人不仅将对象意识与对象区分开,更重要的是还将二者联系起来,实现了主客体的辩证统一。自我意识不仅能将意识外的对象纳入,形成对象意识,也能将“自我意识”作为对象纳入,形成对自我意识的意识,即反思性的自我意识,反思自我的存在意义和价值,寻求意义和价值的标准,站在历史和现实的维度上对人、世界以及人与世界的关系进行反思和批判。这种哲学的反思和批判是人类自我意识的最高形态,是“大智慧”。
人工智能能具有自我意识吗?从目前来看,答案是否定的。
人工智能发展至今,它所需要的数据并非完全靠外在的输入,在实现最初的输入之后,人工智能能够独立进行运算、反馈和调整,在此过程中实现对数据的分析和理解,以此为依据做出相应的判断和行为,也就是说它的行为有自己的逻辑。随着深度学习的深入,人工智能还能在一定程度上摆脱人类的经验,进行自主学习,在练习中发现人类还未发现的规律,摆脱经验的束缚,做出新的判断。也就是说,随着学习理论的发展,人工智能的数学模型将会越来越深刻和复杂,人工智能会按照自己的逻辑进行思考和行动。但这样复杂和深刻的思考和行动是自我意识吗?很显然不是。现有的人工智能都不具备区分“你、我、他”的自我意识,更高级的“大智慧”更是无从谈起。即使是最新的AlphaGoZero,它的行为也只是一种计算,无论是围棋还是象棋,对它而言是同一种计算,只是计算的规则不同,计算之外的,诸如目的和意义之类则是人的解释,计算之外是否有其他存在、自身是一种什么样的存在等问题,则不在它的计算范围之内。离开自我意识,仅靠计算是无法算出这些问题的答案的。
将人类意识打开,可以粗略地区分为反应、决策和反思三个层次。
人工智能在反应层次虽然能够比较容易地实现由刺激到反应这一过程,即可以给人工智能设定在遇到某种条件时就触发某种行为,生产线和仓库的人工智能基本属于这种类型。但是,这个层次的人工智能面临两个问题:一是需要根据环境进行设计,而环境又是丰富多彩的,设计中附加的条件是各不相同的,人工智能自身无法实现这一点;二是即便将所有的条件和环境都符号化,输入人工智能,且不说由于数量级的庞大而无法成功,即使是成功输入,人工智能在面对具体条件时要做出正确反应的难度和时间也是不可想象的。
人工智能在决策层次面临的困难比反应层次更大。因为决策是基于专业知识进行分析预测,寻找问题的解决方案。人工智能要实现这一行为,虽然可以通过训练神经网络在一定程度上实现,如AlphaGo,依靠的就是对以往数据的分析和对自身数学模型的训练。但真正的决策需要在场性,需要经验,需要社会的道德和良知等,而这些都在人工智能的能力之外。
反思层面的意识对人工智能而言更难。人工智能虽然能够存储思考的过程和细节,但是何时开始反思并不是给一个刺激,人工智能做出反应就能解决的。人工智能如果要反思的话,要对具体的环境、主体的直觉和情绪符号化,构建出人工智能所需要的数学模型,而这些在现有基础上是不可能的。
在人类意识中,即使是解决专门领域的问题,人工智能也并不具备优势。因为解决特定领域的具体问题,除了一些公共知识以外,更需要与所解决问题相关的领域知识;解题中除了演绎法以外,还需要归纳法和抽象的方法,只有归纳和抽象才能产生新的知识;对于问题的模糊性、不确定性和不完全性所需要的解决办法也必须是模糊的、不确定的。在目前条件下,这些要求对人工智能而言是解决不了的。人工智能所能解决的是试探性的解决办法,即通过神经网络的训练,不断地试探,缩小结果偏差,从而找到更好的算法和模型。
三、人工智能与意义
什么是意义?从行为的角度看,意义即行为的效果。从语境的角度看,意义需要在语境中获得,
不同的语境所展现出来的意义是不一样的。
人工智能能够明白意义吗?众所周知的塞尔“中文屋论证”(TheChineseRoomArgument)早就给出了否定的答案。
在1999年,塞尔简要地描述了这一论证:[9]
“设想一个母语为英语的人,他对汉语一无所知,他被锁在一个装有中文字符盒子的房间中,房间中还有一本关于中文字符操作的指导手册(程序)。又设想房间外面的人往房间里送进一些中文字符,房间里的人对这些字符依然是不认识,而这些送进来的字符是以中文提出的问题(输入)。再设想房间里的人按照程序指导能够发出中文字符,而这些中文字符也正确回答了那些问题(输出)。程序使房间中的人通过了图灵试验,然而,房间里的这个人确实对中文一无所知。”
“这一论证的要点是:如果中文房间中的人通过操作适当的程序来理解中文,但他却并不理解中文,那么,任何仅仅基于同样程序的数字计算机也是不理解中文的,因为中文房间里的人所不具有的东西,任何计算机作为计算机也不可能具有。”
塞尔的这一论证表明与人交流的人工智能系统必须能够判断人的意图,而非简单地完成字面的意思。只按照“指导手册(程序)”运行的人工智能只是一个自动工具,并不具有多少智能,就像你告诉它你饿了,而它却将你家的宠物狗煮了一样。人工智能对行为意义的明白,实质是明白其行为的效果。在中文屋内的人的行为只是一个机械反应,他根本不知道他的行为的意义。
以现代机器学习理论为基础的人工智能,如AlphaGo及其进化版,通过海量的训练,不断完善算法和模型,在这种情况下,对可能的每一个结果的优劣进行判断,并作出最合适的决策。这样的人工智能似乎具有一定程度的人类智能,但它依然无法解决行为意义的问题。因为AlphaGo只是根据设计好的神经网络模型不断计算人类下棋的状态,并根据计算评估胜率。可见,AlphaGo与中文屋内的那个人是一致的,只对输出结果负责,而对意义是无知的。
四、人工智能与实践
马克思认为:“全部社会生活在本质上是实践的。凡是把理论引到神秘主义方面去的神秘东西,都能在人的实践中以及对这个实践的理解中得到合理的解决。”[10]认识源于实践,实践推动认识的进步,也是检验真理的唯一标准。霍华德也说:“智能是一种计算能力——即处理特定信息的能力,这种能力源自人类生物的和心理的本能。尽管老鼠、鸟类和计算机也具有这种能力,但是人类具有的智能,是一种解决问题或创造产品的能力。”[11]
人工智能能进行实践吗?答案依然是否定的。人工智能通过自动化、物联网等技术可以做很多事情,它可以控制机械设备、计算机,在生产线上甚至要求人类为它服务,但这些人工智能的行为并非实践。
首先,人工智能无法构建实践思维。
具备实践思维的人不仅会关注实践的客观条件,还会考虑实践的影响,更会关注实践中意识的反作用。在实践中,主体的世界观、人生观、价值观得以确立。人工智能并不具备自我意识,从而也就无法思考人工智能与世界的关系,更不用说像人类一样反思自我意识的来源、局限和作用,并在实践中提升对世界的认知,从而形成对世界和价值的基本看法。
其次,人工智能无法形成实践原则。
马克思主义的实践观表明,人与世界的关系是辩证统一的,人类需要不断地将天然自然改造为属人自然,并在这一实践过程中成长和完善。人工智能虽然可以代替人类从事某些行为,但这些行为本身并非实践。即便是在深度学习理论的支撑下,人工智能的行为前提依然是规则的输入,即便是从零开始学习,虽然抛掉了人类经验的输入,但还是需要输入最初的运行规则,如最初的围棋规则,而运行规则的设定不是人工智能所能做到的。
再次,人工智能无法通过实践证明自己。
马克思认为,实践源于对世界的准确认识,落脚点是要改变世界。如前所述,人工智能虽然可以从事某些行为,但它并不具备一定的思考能力,不能根据环境条件和状态的不同做出不同的判断。虽然人工智能在导航、自动驾驶、流水线等方面的应用表现出一定的“智能”,但无法解决的自我意识问题让人工智能仅能作为一种工具存在。
五、结论
综上所述,人工智能目前只能作为一种技术而存在,对人类而言,是对人脑工作方式的模拟,是对人脑逻辑思维能力的强化,是人脑的延伸,在可预见的未来并不会获得主体性,“奇点”不会出现。
首先,人工智能是对人脑神经网络的模拟。
其次,人工智能是人脑的延伸。
人类的发展历史可以被看成是一部工具的制造史,工具制造源于人类的自然条件的限制。因此,从根本上讲,工具的制造和使用突破了人类自然能力的局限,工具的发展是人类能力的体外延伸。机器化生产将人从繁重的体力劳动中解放出来,人工智能则将人从重复的机械劳动中解放出来。因此,人工智能是新的人力外化。人工智能的发展是用物化智能延伸和扩展人脑和机体的某些功能。人工智能强化了人的脑力,是人类智慧的一种延伸和发展。
具体而言,人工智能作为人脑的辅助方式,强化了人脑的机能。在信息处理、信息存储、信息整理上,人工智能都远远超越了人类,增强了大脑的思维能力。从这个意义上说,人工智能的发展不是威胁人类的主体地位,而是巩固和扩展了人类的主体地位,并为人类的自由全面发展提供支撑。人工智能应用领域的拓展,使人类逐渐摆脱了机械重复的劳动,为主体的创造性和全面发展提供了可能。
再次,人工智能不会获得主体性。
人工智能对人类思维能力的强化是有限度的,人类思维和意识是整体的,而非单一的。人工功智能不仅不具备自我意识,不能理解人类的意义,也不能从事人类的实践活动,还不能理解和把握人与世界的本质联系。人工智能对人类思维的模拟是不完整的,只是具备和强化了部分的人脑功能。“我们可以用实验的方法把‘思维’归结为脑子中的分子和化学的运动;但是难道这样一来就把思维的本质包括无疑了吗?”[12]
马克思认为,人的主体性是在实践活动中形成,并在实践中得以确认和强化的。人工智能不可能获得人一样的主体性,其行为也不具备实践性。因为主体本质是具有做出选择和行为的自由,实践是有计划和目的的,而人工智能只能够在既定规则的范围内行动,不具备自由意志,也就不能成为真正的主体。而且,马克思还认为,“人的本质并不是单个人所固有的抽象物,在其现实性上,它是一切社会关系的总和”,[13]人工智能在其行动中不可能体会到意义,从而获得一定的社会属性并结成某种社会关系。
参考文献:
[1]程海东,刘炜.语境:技术的现实存在场域[J].东北大学学报(社会科学版),2014(6).
[2][13]马克思恩格斯选集,第1卷[M].北京:人民出版社,2012:146,60.
[3]马克思恩格斯全集,第10卷[M].北京:人民出版社,1998:254.
[4]马克思恩格斯文集,第8卷[M].北京:人民出版社,2009:195-196.
[5][美]瓦托夫斯基.科学思想的概念基础[M].北京:求实出版社,1989:9.
[6][美]皮埃罗·斯加鲁菲.离人工智能奇点还有多远[J].中国经济报告,2017(5).
[7]蔡曙山.论人类认知的五个层级[J].学术界,2015(12).
[8]蔡曙山,薛小迪.人工智能与人类智能——从认知科学五个层级的理论看人机大战[J].北京大学学报(哲学社会科学版),2016(4).
[9]JohnSearle.TheChineseRoomArgument[EB/OL].https://plato.stanford.edu/entries/chinese-room.
[10]马克思恩格斯全集,第3卷[M].北京:人民出版社,1960:31.
[11][美]霍华德·加德纳.多元智能新视野[M].北京:中国人民大学出版社,2008:7.
[12]恩格斯.自然辩证法[M].北京:人民出版社,1972:209.
版权声明
版权属于原作者,仅用于学术分享返回搜狐,查看更多
从思维认知看人工智能
要认识人工智能,必须从人类智能谈起。先来看人类的心智和智能。
(一)人类的心智和智能
根据心智进化论和人类认知五层级理论,人类具有进化中获得的全部五个层级的心智(mind),即神经层级的心智、心理层级的心智、语言层级的心智、思维层级的心智和文化层级的心智,从而具有全部五个层级的认知,即神经层级的认知、心理层级的认知、语言层级的认知、思维层级的认知和文化层级认知,简称神经认知、心理认知、语言认知、思维认知和文化认知1。
对“智能(intelligence)”的理解和定义,目前仍有歧义。例如,斯图尔特·罗素和彼得·诺维格在《人工智能》中对“人工智能(artificialityintelligence,AI)”的解释是:“在计算机科学中,人工智能(AI)有时被称为机器智能,是由机器展示的智能,与人类和动物展示的自然智能形成对比。通俗地说,‘人工智能’一词用来描述模仿人类与其他人类思维相关联的‘认知’功能的机器,如‘学习’和‘解决问题’”2。从这个定义看,“智能”有两种含义,一是人类和动物都具有的自然智能,这样它就完全等同于“心智”,也就是人和动物共同具有的认知能力;二是人类与其他人类相关联的“认知”功能,这又仅指人类的心智,即语言心智、思维心智和文化心智。
这种歧义,其实正是当前人工智能研究中对机器智能的完整理解。人工智能模仿人类智能,当然包括人类全部的心智和认知能力。人类的心智和认知能力,正是当前和今后的人工智能发展所需要学习和掌握的。但是,人区别于其他非人类动物的本质属性是有语言、能思维。人类语言是一种抽象的符号语言,即概念语言。在这种语言的基础上,人类产生了抽象思维。从认知科学上看,人类最本质的心智和认知能力,是语言能力和思维能力。所以,我们把语言认知、思维认知和文化认知称为人类认知,这是人类特有而非人类动物没有的心智能力。
综上所述,人类心智是所有五个层级的心智,人类智能也包括所有五个层级的心智,即人类和动物都具有的自然智能。但是,人类智能区别于非人类动物的智能则是高阶的心智(Higherordermind),包括语言心智、思维心智和文化心智。所以,人类智能常常是指人类特有而动物并不具有的智能,即高阶的心智和认知。
(二)人类心智的进化
人类的五种心智和认知能力,是在自然进化中获得的。人类心智的进化如图1所示。
图1动物心智进化图
迄今为止,有两种进化论来解释生命的进化:达尔文进化论和现代综合进化论(基因进化论)3。这两种进化论不足以解释个体差异性。例如,同卵双胞胎由同一受精卵分裂成两个独自发育的胚胎,他们的遗传基因(DNA)及性别完全相同。但同卵双胞胎是不同的个体,其个体差异性从何而来?科学家们对此作了各种解释,其实,同卵双胞胎的个体差异性主要来自后天的心智的差异。世界上没有任何两个人的心智是完全相同的,尽管他们的基因可能完全相同。所以,以心智为研究对象的认知科学,其本质是探求个体差异性的科学,在这一点上,认知科学与过去两千多年来探求统一原理(universalprinciple)的科学是背道而驰的。心智,才是解释个体差异性的最终标准;认知科学,才是解释个体差异性的最终的理论。
由此,可以建立一种新的进化论——心智进化论,即认知科学进化论。
20世纪70年代以来,认知科学发展到心智进化论。从图1可以看出,物种的进化(达尔文进化论)和基因的进化(现代综合进化论)同时也是心智的进化;进一步我们看到,在物种进化、基因进化和心智进化这三个层次上,心智进化才是具有决定性意义的本质的进化。这又可以从几个方面得到论证:其一,如前所述,三种进化论中,只有心智进化论才能最终解释个体差异性;其二,现代物理学、当代认知科学实验一致认定,在心-物关系中,意识或观察者的存在,决定了特质的存在方式(波函数坍塌);其三,古代哲学、近代哲学和当代哲学将世界的本原依次认定为物质(古代本体论哲学)、精神(近代认识论哲学)和人类心智(心智哲学);其四,哲学中一以贯之的永恒问题——从古代哲学和近代哲学的身心问题转换为当代心智哲学的心身问题,说明在人类认知的发展进程中,心智逐渐走到人类认知的中心,最终成为认知科学聚焦的对象;其五,对人类心智的关切造就了认知科学,其目标就是“揭开人类心智的奥秘”4。21世纪初,教育和教育学也被整合进认知科学的学科框架,因为教育和教育学也是与人类心智最密切相关的学科。以认知科学的观点看,教育是伴随人的终身成长的心智发展和培育过程,教育学则是研究教育发展过程和规律的学科。宇宙演化110亿年以后产生了第一个生命(距今35亿年前),从此产生了第一个简单的心智,并开始了心智漫长的进化。认知科学建立以后,心智终于成为人类心智的研究对象。心智进化论,是认知科学时代的新的进化论。
(三)人类认知的五个层级
人类从进化中获得五种心智能力,由此形成五个层级的认知能力:神经认知、心理认知、语言认知、思维认知、文化认知(图2)。
图2人类认知的五个层级
这五种认知能力中,人和动物共有的神经认知和心理认知称为低阶认知,人所特有的语言认知、思维认知和文化认知称为高阶认知。
人是有语言、能思维的动物,是“符号动物”5。语言是人类认知的基础,思维是人类的特质。人类用语言和思维建构全部知识大厦,知识积淀为文化。语言、思维和文化是人类具有而非人类动物并不具有的认知能力。
(四)思维层级的认知
人类的语言——抽象的符号语言(概念语言)产生于600万年前,并于200万年前完成语言的进化。抽象的概念语言是抽象思维的基础,人类语言一经出现,人类的思维也就随之产生了。
人类思维包括概念、判断和推理三种基本的形式,逻辑学就是研究思维形式和规律的科学6。在逻辑学的理论体系中,推理是最高形式的思维形式,是逻辑学理论的核心。
认知科学看待逻辑和思维的观点有所不同。首先,认知科学区分逻辑和逻辑学。逻辑是人类头脑里的东西,是一种认知能力;逻辑学是书本上的东西,是逻辑学家建立的理论,它是对逻辑的摹写,它不必是正确的,并且它是随着人们对头脑里的逻辑加工方式和加工过程的不断认知而不断发展的。其次,逻辑和推理只是人类众多认知能力中的一种,属思维层级的认知。在人类认知(高阶认知)的三个层级中,语言是人类认知的基础,思维是人类认知的特质,文化是人类认知的结晶。再次,人类认知包含所有五个层级,认知科学建立以后,思维认知被与其他层级的认知关联起来进行研究,使我们对人类思维有了比以往任何时候更加深入的理解。最后,“五层级贯通”对思维认知的理解,成为理解和发展人工智能的一把重要的钥匙。“我思故我在”这个用来刻画人类本质的命题似乎对机器也适用。例如,随着人工智能在推理领域战胜人类智能,胜利者AlphaGo也要求获得像人类一样的存在的权利,包括霍金在内的一些科学家甚至迫不急待地要赋予它超越人类生命的更加神圣的地位7,然而,果然是这样吗?
二、人类心智与人工智能
达尔文进化论和基因进化论并不能完全解释个体差异性,也不能说明心智和认知能力从低级向高级的发展,以及人类心智与动物心智的区别,当然也不能说明人工智能与人类心智的区别。心智进化论的建立,最终解决了以上问题,为理解人工智能与人类心智提供了理论依据。
(一)生命的形式:自然的和人造的
从35亿年前出现第一个生命——病毒核酸,到人类最复杂精致的生命形式,直到20世纪后期,所有生命存在都是自然进化的产物。80年代后期,人类开始使用“克隆”技术创造非自然的生命。1996年7月5日,苏格兰罗斯林研究所和PPLTherapeutics生物技术公司的伊恩·威尔穆特和基思·坎贝尔领导的小组克隆出一只基因结构与供体完全相同的小羊“多利”(Dolly),世界舆论为之哗然。但克隆毕竟还是从生命到生命,只不过它是用非生育细胞通过无性繁殖的方式人为制造出来的非自然进化的生命,其后的发展只能用“令人目瞪口呆”来形容。
在这个“人造生命大合唱”中,最新的乐章是美国宇宙学家泰格马克提出的生命3.0。他预言,人工智能会成为一种全新的生命形式(生命3.0),而在此之前所有的生命都可以被归为两种形式:软件和硬件系统都不能更新的生命形式(生命1.0),它们是非人类的动物。软件系统能够更新而硬件系统不能更新的生命形式(生命2.0),他们是人类。生命3.0将超越以前的任何生命形式,它的软件和硬件系统都可以自我更新,它就是人工智能,它将统治人类!笔者不能认同泰格马克的这种科技乌托邦理想。
(二)单一智能和综合智能
目前的人工智能是单一领域的智能,而人类的智能往往是覆盖若干领域的综合智能。人工智能与人类智能的对比可用表1来表示。
(三)思维、逻辑与人工智能
围棋是最复杂的人类智力游戏。一盘棋究竟有多少种可能的变化呢?答案是319×19=3361之多。而在这个最高水平的人类智力游戏中,人工智能AlphaGo战胜了世界顶级棋手李世石,这场世纪之战引起了人类的恐慌。可以说,在“我思故我在”这个标志人类存在本质的领域,人工智能战胜了人类智能。
表1基于人类心智和认知五层级的人工智能水平表
三、人工智能中的思维和逻辑
AlphaGo战胜李世石,主要是利用它的强大的推理和学习能力。推理和学习,是人类心智两种主要的认知能力。我们可以分析人工智能中常用的学习和推理方法,并讨论这些方法与人类智能中相应的认知能力之间的差异。
(一)学习和推理
学习是人的行为,是对“学习”的常规的理解。但作为机器行为的学习,即人工智能的学习与人类学习的定义有很大的不同8。
推理是从已有知识推出新知识的认识形式。从逻辑上说,推理就是根据一个或一些判断得出另一个判断的思维过程9。
全世界所有的民族,不论其语言、思维和文化差异有多大,基本的推理形式只有演绎推理、归纳推理、类比推理和溯因推理四种。这里有两个重要的问题需要注意。
第一,学习和推理,哪一个更基本?动物、机器和人都能够学习吗?
学习和推理,都是心智和认知能力的表现,但学习更为基本,它属于心理层级的心智和认知能力,而推理则属于思维层级的心智和认知能力。从人类认知五层级理论可以知道,人和动物都具有学习的能力。孔子的“学而时习之,不亦说乎”,说的就是人的学习能力,人通过学习获得知识和快乐。“斯金纳黑箱”和老鼠走迷宫则是动物的学习能力,动物通过刺激反应、奖励惩罚进行学习,获得行为能力,增长新的技能(动物的学习不能形成知识,而只是形成神经层级和心理层级的心理—行为反应)。
第二,机器推理也遵循人类的推理形式吗?
人类、动物和机器学习尽管存在很大的差异,但这三种学习方式具有共同的本质特征——获取新的知识和能力。推理和学习这两种能力中,演绎规则(ModusPonens,MP)和逆否规则(ModusTollens,MT)是最为基本的认知能力,属于心理认知能力,是人和非人类动物都共同具有的。
充分条件假言推理有四种可能的模型:肯定前件式MP、否定前件式DA、肯定后件式AC、否定后件式MT。逻辑学家认为,这四种模型中,只有肯定前件式MP和否定后件式MT是有效的(其有效性在经典逻辑系统内可以得到证明),而否定前件式DA和肯定后件式AC是无效的(其无效性在经典逻辑系统内也可以得到证明)(表2)。但心理学家并不想接受这种逻辑学的教条。1966年,英国著名心理学家沃森设计了一个选择任务实验(Wasonselectiontask),实验的目的是检验人们在日常推理中头脑里的逻辑是不是逻辑学家所说的那个样子。后来在美国进行的大样本(n>1000)实验结果如表2所示。
表2沃森实验结果与逻辑有效性对照表
沃森选择任务实验显示:没有学过逻辑学的被试100%都知道使用肯定前件式MP,说明这是一种“先天逻辑能力”;与MP同样正确的,并且在经典逻辑中与MP相互等价的否定后件式MT只有一半的支持率,一方面因为MT多用了再次否定,增加了推理难度,更为主要的,MT是需要经过后天学习才能够掌握的推理模式。值得注意的是,逻辑学认为不是有效式的肯定后件式AC和否定前件式DA支持率并不为0,肯定后件式AC有高达33%的支持率,这主要是因为它是逻辑上并不承认而在日常生活中广泛应用的溯因推理(Abduction)的影响所致。否定前件式DA也有21%的支持率,主要原因是人们常常把充分条件当作充要条件来使用的缘故10。总而言之,人们在日常生活中使用的逻辑思维和逻辑推理会受到心理因素的强烈干扰,这就是著名的沃森实验得出的深刻结论。
在动物的学习方面,动物的刺激反应的行为方式,就是使用肯定前件式MP的结果。否定后件式在动物的学习中则稍有不同,动物使用MT是需要经过学习的。在机器学习中,MP是必须的,毕竟机器学习是对人类学习的模仿。类似于人和动物的学习,使用否定后件式MT获得新的知识,也需要经过学习才能实现。
(二)归纳、类比和溯因
在科学发现中,起主要作用的是三种经验推理,即归纳推理、类比推理和溯因推理。按照皮尔士的划分,就是“扩展前提的推理”,即结论超出前提范围的推理,这样的推理能够产生新的知识。而“解释前提的推理”,即演绎推理,因其结论包含在前提之中,并不能增加新的知识,因而对科学发现并无贡献,但可以用于科学假设的验证。
如果把每一种推理都看作一种心理逻辑方法,那么可以建立综合性的心理逻辑模型,如图3。其中,“扩展前提”的三种推理溯因、归纳和类比用于在科学发现中提出假说的阶段,“解释前提”演绎推理用于验证假说。当我们发现“令人惊异的事件B”并且要探究其原因时,科学发现的过程就开始了。这时有3条通道去寻找事件B的原因A。
(三)溯因推理
溯因推理在人工智能中也有非常重要的应用。Prolog是法国马赛大学的科尔麦隆(AlainColmerauer)创立的一种基于溯因推理的描述性语言,全名是PrograminLogic。这是一种适用应用于人工智能开发的语言,广泛应用于搜索程序和专家系统。
图3科学发现的心理逻辑模型
(四)应用于人工智能的逻辑学
多值逻辑和模糊逻辑已经被引入到人工智能中来处理模糊性和不完全性信息的推理。例如,当与决策有关的事实并非都合用时,大多数的专家系统将被迫做出决策。在这种情况下,自然要使用一种不同于经典逻辑的逻辑,它适合于不完全信息的推理。进一步说,在自然语言和人工智能中使用的许多概念是“模糊的”,因此,使用这种概念的推理需要假设某种“模糊逻辑”是合适的。
多值逻辑的三个典型系统是克林(S.C.Kleene)、卢卡西维兹(J.Lukasiewicz)和波克万(D.Bochvar)的三值逻辑系统。它们可以作为人类程序行为的逻辑基础。这种程序行为是智能的,它以系统化的方式来收集关于环境的知识。与经典逻辑不同,三值逻辑的命题解释都有真假之外的第三种值,克林将其解释为“非决定的(u)”;卢卡西维兹解释为“中间的(i)”;波克万解释为“无意义的(m)”。克林解释的最初动因是要接纳非决定的数学陈述;卢卡西维兹则是要处理亚里士多德的未来可能陈述;波克万的解释则直接受到语义悖论的启发。
三值逻辑的语义在其使用的模型上与经典的语义不同。这种模型使用了偏谓词符号。这里,E上的偏(k元,k>l)谓词r表示从Ek到{f,t}的偏函数。以克林的三值逻辑为例,由于赋予命题第三种值u,每一个谓词都可以表示为一个函数r:Ek→{f,t,u}。在此基础上,可以建立三值逻辑谓词演算的语义。
定义L的偏模型是一结构M=,其中,D是一非空集合,F是一函数,它对L中的每一n(n>0)元关系符C指派一从Dn到{f,t,u}的n元函数CM。
根据这一模型,可以建立三值逻辑的语义。例如,克林关于L的语义如下:
设想一个机器人,它的目的是要努力获得知识。为此,它试探并考察它周围的环境。想象它是一个装备有视觉和触觉系统的机器,这些系统使它能够从周围的环境中抽象地得到信息。在机器人活动的每一个确定的点上,它都会得到确定的知识:它知道某些事情是真的,而另一些却是假的。一般说来,它的知识是不完全的,但随着时间的推移,机器人将会增加其真知识的积累。这样,就要设想这个机器人决不会遗漏信息或改变信念。在这个设想中含有两个假设:(i)这个机器人一般将处于一种部分无知状态;(ii)这个机器人决不会丧失或改变其信念。
什么样的逻辑适合于描述这种机器人的行为方式呢?假设(i)使人立即想到三值逻辑,因为它正好就是一种适合于处理不完全信息的逻辑。假设(ii)使人想到这种逻辑必须具有单调性。断定一旦确定为真(或假),它就应该保留这个值,新的信息无论如何也不能使机器人改变其信念。为了检查以上三值逻辑中哪一种具有单调性,可以给出下面的定义。
定义令M和M′是有共同域D的L的偏模型。我们说M′是M的一个扩充(记为M≤M′),当且仅当对L中每一n(n>0)元关系常元C,CM≤CM′,即对D中每一e0,…,en-1,CM(e0,…,en-1)≤CM′(e0,…,en-1)。
定义(单调性)函数G是单调的,当且仅当,若M≤M′,则G(M)≤G(M′)。
结果证明,克林的三值逻辑是满足单调性的。
定理令A为L的任意语句。令[A]M表示A在克林的逻辑联结词解释下在模型M中的值,那么,若M≤M′,则[A]M≤[A]M′。
类似的结果对波克万的联结词也成立。这样,克林或波克万的三值逻辑都满足单调性的要求,而卢卡西维兹的系统不满足这种要求。例如,条件算子→不是单调的。如果p=q=i,则p→q=t,但当p=t和q=i时,p→q=i。因此,在条件句的情形下,上述定理的证明不能成立。
以克林或波克万的三值逻辑编制的程序可以表示机器人的行为。这样的机器人是一种行为规范的创造物,它们决不会陷入任何没有保证的结论。它们仅在其数据库中存入它们确信的东西,并且决不会改变其信念。当然在某种情况下,这样的机器人比不上那种能够改变自己信念的机器人。而支配后一种机器人行为的逻辑显然是非单调的三值逻辑,它可以由卢卡西维兹的三值逻辑来充任11。
(五)语用逻辑在人工智能中的应用
语用逻辑(Illocutionarylogic,IL)是关于带有语用力量(IllocutionaryForce)的行为动词,即语用动词(IllocutionaryVerb)的逻辑。
一个通过说话来做事(doingsomethinginsayingsomething)的言语行为的标准表达式为:F(P),其中,F是该言语行为的语用力量,P是该言语行为的命题内容。在语用逻辑中,有如下的定理:
-|F(?P)→?F(P)
但本定理的逆命题不能成立。可以设计将语用逻辑应用于人工智能的学习策略。图4是一种基于语用逻辑的学习策略模型。
图4基于语用逻辑的人工智能学习模型
这张示意图包含了语用逻辑人工智能学习系统的四个基本环节。其中环境和知识是两个数据库模块。如果这个系统要执行F(?P)的行为,那么F(?P)→?F(P)。系统将首先查看F(P)在数据库中是否存在,若无则往下执行程序,若有,则有两种选择:在知识库中去掉F(P),并执行F(?P);保留F(P),但不执行F(?P)。经过这一学习过程,计算机的知识得到了更新。
四、结论和讨论
(一)应该从五个层级来理解和发展人工智能
人工智能是人类心智和人类智能的模仿甚或超越,因此,应该从人类心智和认知的五个层级即脑与神经心智和认知、心理的心智和认知、语言心智和认知、思维的心智和认知、文化的心智和认知各个层级来理解和发展人工智能。通过将人工智能与五层级的人类心智对比可以看到,在脑与神经(包括身体)和心理层级上,即在初阶的心智层级上,人工智能能够达到甚至超过人类智力和体力的水平。而在高阶心智的层级上,即在语言、思维和文化层级上,人工智能与人类心智还有很大的差距。此外还可看出,人工智能是单一的智能,人类心智则是综合的智能。从人类心智五层级看,当前的人工智能远未达到人类心智水平。
(二)思维是人类存在的本质,人类多模式的思维方式是人工智能的方向
我思故我在,人类存在的本质是思维的存在。思维认知是人类认知的特色和本质。人类思维是多模式的思维,即分析与综合相结合,用结构性的方法(形式化方法)从概念、判断和推理三个层次来认知世界。在推理这个层次上,人类可以同时使用演绎、归纳、类比和溯因等多模式的推理结构。此外,在科学发现、风险决策等复杂思维的领域,心理模型、逻辑和数学模型还会被综合地加以应用。人类多模式的思维方式正是未来人工智能的发展方向。
(三)超越人类思维和人类心智的人工智能是为了更好地为人类服务
超越人类思维和人类心智的人工智能迄今并未出现,将来是否会出现,这是一个问题12。非人类动物并不具有思维能力,其类似思维的心智和行为能力其实只需从神经和心理两个层级即低阶认知便可以得到解释。机器是否能够思维?机器的思维能力如果有的话是否可以超越人类?这些问题似乎还在争论不休。本文认为,目前的人工智能并不具有思维能力,更不具有思维主体的地位。人工智能类似于思维的行为能力不过是对人类思维的模仿。但这仅仅是目前的结论。产生超越人类思维和人类心智的人工智能在目前来说虽然仍然是一个不可证实也不可证伪的玄学问题,但从长远看,超越人类思维和人类心智的人工智能也不是不可能,因为未来总是有无限可能性。我们所要做的,是要防止主宰人类、统治人类甚至毁灭人类的机器智能出现。超越人类思维和人类心智的人工智能,如果需要它出现的话,只是为了更好地为人类服务。否则,理性的人类心智现在就应该停止人工智能的生存权。
注释
1蔡曙山:《生命进化与人工智能》,《上海师范大学学报》2020年第3期。
2(1)Russell,S.andP.Norvig,ArtificialIntelligence:AModernApproach,PrenticeHall,2009,p.2.
3(2)蔡曙山:《生命进化与人工智能》,《上海师范大学学报》2020年第3期。
4(3)蔡曙山:《人类的心智与认知》,人民出版社2016版,“序”第5—17页。
5(4)T.W.Deacon,TheSymbolicSpecies:TheCo-EvolutionofLanguageandtheHumanBrain.NewYork:W.W.Norton,1997.
6(5)金岳霖:《形式逻辑》,人民出版社2006年版,第1页。
7(6)[美]迈克斯·泰格马克《生命3.0:人工智能时代人类的进化与重生》,浙江教育出版社2018年版,“序”第5页。
8(7)李德毅、于剑:《人工智能导论》,中国科学技术出版社2018年版,第95页。
9(8)金岳霖:《形式逻辑》,人民出版社2006年版,第138页。
10(9)蔡曙山:《认知科学框架下心理学、逻辑学的交叉融合与发展》,《中国社会科学》2009年第2期。
11(10)R.Turner,LogicsforArtificialIntelligence,EllisHorwoodLimited,1984.另参见蔡曙山:《应用于人工智能的逻辑学》,《哲学译丛》1997年第5期。
12(11)“Tobe,ornottobe:thatisthequestion.”出自莎士比亚《哈姆莱特》。此处借用,说明是否出现超越人类思维和人类心智的人工智能,是一个关系人类生死存亡的大问题。
.返回搜狐,查看更多
人工智能与人类的未来是敌是友
杨吉
美国前国务卿亨利·基辛格、谷歌公司前首席执行官埃里克·施密特,还有来自麻省理工学院的计算机科学家丹尼尔·胡滕洛赫尔,每个人都在各自的领域成就斐然、影响广泛。虽然平日里未必有工作交集,但围绕人工智能这个话题,他们不仅聚在了一起,而且还合写了《人工智能时代与人类未来》一书。
按照书中的前言交代,“5年前,人工智能这一主题出现在一个会议的议程上。本书的三位作者中,有一位差点缺席了这个会议,因为他以为这只是一场超出他通常关注范围的技术讨论。而另一位作者当时则力劝他三思,并解释说人工智能将很快影响到人类所涉足的几乎每一个领域”。正是那次会面,引出了本书的第三位作者欣然加入,并最终促成了这部作品的诞生。对于这段创作中的插曲,我们固然不清楚究竟分别对应的是谁,但可以肯定的是,他们对于人工智能所引发的人类历史进程的变迁及其当前已然表现出的对人们思维范式、感知方式和工作模式的改变是巨大而逼真的。诚如这本书试图展示的,既不褒扬,也非贬损,而是尽力以科学、审慎的态度去看待它,尤其要用适当的价值观来塑造它,这是他们三人合作的初衷。正如书中说道,“不论你怎样看待人工智能,它都已变得无所不在”。
和一般科普类读物不同,这本书并不满足于对人工智能在技术层面的普及,也不是浅尝辄止地谈论它带给人们工作、生活、学习的挑战与冲击,它选择从更高的站位、更广的视野、更宏大的话语来重新审视。在这本引人入胜又启迪思考的作品中,作者带领着我们去探寻人工智能之于世界秩序与政治安全、平台崛起与政府治理、个体身份与人类未来的重塑及其意义。这些都是关乎今后社会发展的至关重要的问题,也决定着人类命运的走向。所以,该书像极了一篇较长的序言,点出了我们处于人机协同、机器高度智能化的时代中不得不面临的重大课题;也好似一种有力的宣言,清晰地指引着人们当前亟待从哪个角度反思自身的主体价值。尤其对于后者,这在一个侧面解释了为什么三位作者会在第二章用一整个章节的篇幅来回顾自柏拉图以来至维特根斯坦的哲学思想,其实这里隐含了一个严正的警告:按照作者们的说法,人工智能将挑战自启蒙运动以来就存在的人类理性的首要地位。
机器真的会思考吗?它们是否具备人一样的智慧?以及随着机器深度学习的展开,人工智能会否有一天拥有跟人类一样的同理心、理解力、好奇心?对此,这本书没有给出直接的答案,或者换句话说,三位作者抱持着一种开放的、一切皆有可能的心态去看待人工智能的升级迭代。相较而言,他们更着眼于当下,一种逼近的现实。如果用一个命题陈述句来说,那就是——面对当前的人工智能应用,如果涉及到国际关系安危和国内政治稳定,那么我们该做些什么、如何去做?
明显得益于基辛格博士的参与写作,他把自己擅长全球政经观察、战略格局考虑的能力充分地融入到本书中,尽管他彼时已达98岁的高龄。从《大外交》到《重建的世界》到《世界秩序》,我们大可以在《人工智能时代与人类未来》一书中读到类似的文字、相近的论述。即使没有直接证据表明基辛格究竟参与了该书的哪几章或其中的某些段落,但读者完全有理由相信,其中第五章即“安全与世界秩序”必定主要出自其本人之手。就在这一章,作者们提出一个很独特却又很严肃的假设:“如果一个国家面对的对手已经训练人工智能来驾驶飞机、独立做出瞄准的决策并开火,那么采用这种技术将在战术、战略或诉诸升级战争规模(甚至是核战)的意愿方面产生什么变化?”
顺着句式表达,文中流露出深切的忧虑。“从历史上看,那些积极备战的国家对其对手的理论、战术和战略心理,即便不是了如指掌,也大致了解……然而,当军队使用人工智能来制订计划或锁定目标,甚至在常规巡逻或冲突期间提供动态协助时,这些人们原本熟悉的概念和互动可能会变得陌生,因为这涉及到与一种新型的智能打交道并设法了解它,而该智能的运作方式和战术不得而知。”这无疑让那些军事统领或最高决策者陷入尴尬不安的境地。一方面,他们需要借助智能工具辅助分析、判断;另一方面,也要谨防技术越俎代庖替代人下决断。按照书本的观点,“数字程序现在控制着一个由众多实体系统构成的庞大且仍在不断增长的领域……这催生出一个极其复杂、广泛和脆弱的系统”,同时,就道德哲学维度,“如果战略的各个层面开始在人工智能可及而人类理性不可及的概念和分析领域运作,那么它们的过程、范围和最终意义将变得不再透明”。没有人会质疑甚至反对数字化带来的精准、效率,但关乎国与国之间的冲突战争,世界和平与安全的大是大非上,这几项指标却不是核心的。总而言之,当领导者不可逆地会借助人工智能来帮助其下结论,那么尽早提炼出一套军事用途内的人工智能使用限度与规范则势在必行。
这本书并没有完全讲明我们该如何应对未来的战争,但它着实指明了我们正在为自己制造的新难题。不仅仅是在全世界范围的政治、军事、科技领域,而且在个人的衣食住行、社会交往协作、资讯获取学习交流上,人工智能都已开始普遍地进入、深刻地改变。基辛格等人敏锐地注意到,随着此种进度推进、程度加深,人们会自觉或不自觉地依赖人工智能进而实现一系列的服务功能,它相关的产业机会、潜在市场自然不可限量。但矛盾的地方又在于,人们自以为能掌控全局,占据主动地使用数字工具,但现实恰恰相反,很多时候他们处于被动地位,他们看到的、听到的乃至想到的,往往是数据算法基于个人的消费偏好、浏览历史、行为习惯所反馈的结果。换言之,人工智能正在统领着人们,其中就包括泛滥不绝的假新闻和造成人们认知局限的“过滤泡”。
有鉴于人工智能在民用场景、商用领域的普遍性,倘若要在势头上、总体上去限制人工智能的推广或其学习能力的提升,这显然是不可能的,也是对潮流的反动。三位作者理性地提出:“在文明层面,放弃人工智能是不可行的。领导者们将不得不直面这项技术的影响,他们对这项技术的应用负有重大责任。”但与此同时,他们也一再警告世人,人工智能已加速减损着一些可贵的东西——我们的判断与自省能力等。“结果,个人在审查、检验和理解信息方面的作用被削弱了,取而代之的是人工智能的作用扩大了。”
的确,三位作者思路敏捷、充满真知灼见。他们指出了人工智能在长远上的隐患与威胁。值得注意的是,相同的论调在书中多次出现,略显重复。于是,读者更希望他们能进一步为人类命运共同体的未来去筹划,去建构一套引导人工智能有序发展的解决方案。相信没人会反对他们所谓的“不应将人工智能视为自动运作、无须照管的存在,也不应允许其在无人监督、监视或直接控制的情况下才去不可撤销的行动”这一前提,但具体到行动纲领和实施对策是什么,这本书却未能交出一份答案。
作者不断提到,要形成人工智能的伦理规则,并且在书的最后也提议,应成立一个由政府、企业和学术界的最高层人士组成的国家级委员会。它将具有双重功能:其一,确保国家在人工智能领域保持知识和战略上的竞争力;其二,提高全球对这项技术的文化内涵的认识。由此可见,他们发出了一种呼吁,一种宣告——要在战略和观念上认真对待人工智能;而他们的这本合著也更像是为国家政府层级的高阶人士而撰写的,如同书本的最后收尾:“现在,是时候定义我们与人工智能的伙伴关系,以及由此产生的现实了。”其实,把它与前一句话顺序互换,逻辑就更通了。上一句写道:“不仅各国内部应有此承诺,国与国之间也同样如此。”
(本文作者系法学博士,浙江传媒学院副教授、硕士生导师)