人工智能将会对人类的政治造成什么样的影响
王志强认为,恰如柏拉图在《普罗泰戈拉》中的神话一样,在城邦诞生之前,人们独居会受野兽威胁,群居却又彼此为祸,最后宙斯把“政治智慧”赐予人们,赫尔墨斯问宙斯这种德性应该赋予所有人还是少数人,宙斯回答:“分给所有的人,让他们每人都有一份,如果只有少数人拥有它们,就像技艺的情况那样,那么城邦决不会产生。”我们可以从柏拉图这里得出政治何以可能的几个关键要素:群居必需、普遍的政治智慧(互相承认)和暴力。
但并不是所有群居动物都会产生政治,因为他们群体的内部不一定有协助性关系。像蜜蜂和蚂蚁,他们有明确的分工协作,但是他们没有统治性关系,因为他们的分工是以天性的差异为标准的。所以“普遍的政治智慧(互相承认)”是政治得以可能的重要必需条件,这意味着个体之间没有天然性的差异,我们每个人的智力和体力基本上是相似的。
尽管现代自由主义可能不认同古典政治哲学以德性为起点的政治哲学叙事,但从霍布斯开始,近代自由主义政治哲学描述人类从彼此为祸的自然状态向契约协作的政治状态过渡都离不开“人是理性自利”的前提,而“理性自利”也以“相互承认”为共同体可能的前提。而在政治行动里,暴力是获得统治权的方式,是政治何以可能的前提和边界。
而对于“政治是怎么样的?”这个问题,王志强认为,对于一个共同体来说,群落要生存下去,我们得从自然界不断获取资源和能量,获取的环节需要分工,进行组织和管理。然而,资源是有限的,所以我们的统治是有纪律原则的。此外,我们每个个体都想获得尽可能大的利益,这就涉及分配的原则,并在这个约束条件下得建立一套分配的封闭秩序。
而在“政治应当如何?”的问题上,王志强认为,政治性动物的政治秩序是主观性的介入的政治,然而这个主观性的介入受到前两个条件限制。因为资源是有限的,所以我们的政治统治就得有效率原则。因为受我们的“平均欲望”的限制,统治者要维持统治地位,就得得到大多数人的承认,统治就得遵守公正原则。
王志强认为,有了前面对政治“何以可能、是为何物、应当如何”的分析框架之后,我们可以对人工智能如何影响政治加以推测。根据人工智能发展的可能性,我们姑且可以将人工智能分成三类:有限自主性的强人工智能、纯知性的超人工智能、有自主目的的超人工智能。这三种人工智能进入到现实世界之中,分别会给人类现有政治秩序带来什么样的影响?
有限自主性的强人工智能离我们比较近,它是指完全可控的人工智能。他们没有独立意识,依据既定程序和算法协助人类完成某些专门智能工作。一种是专业技术类的,比如自动驾驶、语言翻译、会计审计等;另一种是社会管理类的,如城市交通信号管理、机场航线调度、电力调度分配等。他们都不会作为政治主体涉及政治问题,但是他们会产生一些政治性的后果。
而社会管理类的强人工智能的存在则带有政治性。王志强认为,若我们做一个最极端的设想,在一个空前强大的社会管理的强人工智能的管理下,我们最终能实现计划经济。以前计划经济之所以失败,是因为人类的智能根本不可能应对那么多变量和那么大强度的计算,而一个强大的人工智能可以解决这样的问题。
但是,这样的结果将与现代人的“权利原则”产生冲突。因为个人偏好是主观性的。在整体上来说,既有效率又公正的决策,受支配主体不一定会赞成,而倘若这种决策还带有不可逆的强制性,那么人类可能因此丧失启蒙以来所获得的基于自由意志原则的所有个人权利。所以,对于社会管理类强人工智能来说,我们在编程中就要通过充分的政治博弈,加入某些“权利原则”的限制条件,并且在其运行之外,还需设定可逆的人类政治判断纠正程序。
纯知性的超人工智能是佛系的人工智能?这可能改变人类现有“多数之治”的政治
纯知性的超人工智能,是具有独立因果演算能力的通用性人工智能,它自主收集信息并学习进化,可以脱离人类自主感知现实世界并做出判断。它不是被制造出用于某种特殊的功用。它的活动限定于中性的理性能力及其进化本身,同时可接收和回应人类的指令。
这种人工智能能轻松掌握人类文明迄今为止的全部知识,并能够在物联网的帮助下通过各种宏微观的观测装置获得超越人类既定知识总量的知识。同时其能在自我演算中不断提高运算能力,最终在智能上超过整个人类文明,甚至超出我们可理解的范围。
王志强调侃道,“它是一种佛系的人工智能”,它什么都知道,但不用做任何事情,我们可以向它进行征询意见。王志强认为,这种人工智能会扮演“先知”一样的角色。人类社会现在普遍采取的“民主制”和“共和制”是以多数人的智力大体平均为前提的。那么当这种超人工智能表现出超人类智能并能回应人类诉求,这将极大地提高人类生产力,并展现出不可替代性。这可能改变人类现有“多数之治”的政治,至少在生产型的“纪律秩序“领域演变为由人工智能决策的“君主制”,人类政治组织也许会变成围绕这个强人工智能的咨议和执行机构。如果只有少数人甚至一个人可以接触强人工智能进行征询,那么人类政治将堕落成“寡头制”或“僭主制”。
王志强认为,有目的的强人工智能的出现一定是政治性的,而且它将在不同意义上终结政治。这种人工智能有两种类别:一种是有着单一目的性的人工智能,它没有反思性,而且这种直接目的性很强。而另一种情况则比较理想,这样的人工智能有一定的自我限定逻辑,对人类有起码的承认。
在有着单一目的性的强人工智能的情况下,若目的是由人类设定的,但其随后运作并不受人类控制,它最终将瓦解人类秩序,建立一切资源服从单一目的的新秩序。而若目的是由人工智能自身演进出来的,情况更不可控。即使人类没有任何反抗企图,人类对资源的消耗就会使人类自己呈现它为竞争者,人类唯一存续的可能是帮手的角色,然而这个角色并不好当。
而在有自我限定逻辑的人工智能的情况下,人类生产力的提高是可预期的。但是,在人工智能通过脑神经科学所掌握的心理信息远超过人类自我意识对自我的认知时,那时自由意志何以可能?当然足够强大的人工智能可以营造出一个让人“感觉到自由”的社会条件,在人类活在自由的幻觉中,人类就已经成了超级人工智能的“宠物”。
而若这时人工智能有了自己开放性的自主目的,面对与人类的资源竞争,虽然它能与人类和平共存。但这时,人工智能会公开接管资源支配权,并通过增量发展逐渐远离人类。它充分展现的全能感会使得一切自然人类领袖的个人魅力黯然失色,对人工智能的崇拜将构建一种宗教政治,直至其发展出新的超出人类物理半径的物质基础,并实现与人类的物理脱离。
成为“赛博格人”或许是人类政治在人工智能时代继续存续的唯一途径?
如果在同一个资源网络中有多个人工智能同时并存,它们会不会形成某种政治关系?王志强认为,缺乏目的性的强人工智能和纯知性的人工智能之间没有政治,而政治将发生在有自主目的性的超人工智能之间。
人工智能之间的战争有会是什么样子?王志强认为,若战争发生在单一目的的超人工智能之间或有单一目的的超人工智能和有自我限定逻辑的人工智能之间,结局只可能是一方获胜或同归于尽。只有当都是有着自我限定逻辑的人工智能共存才会产生政治,接受战时均衡。但是,一旦“同归于尽”的约束解除,战争就会继续。
随着人工智能、基因编辑、脑神经科学的发展,我们也许会出现人机融合的“赛博格人”、经过深度基因改造的“人造人”、将人脑意识上传计算机的“人机器”等新型智慧生命体。“赛博格人”终将从初级的肢体和器官替代演进为人工智能装置对人脑的功能增强以及人脑对机器的意识控制。
从人本主义的立场出发,我们会哀叹人的边界正在变得模糊化,人性正在走向终结,但王志强认为,这恰恰是人类政治在人工智能时代继续存续的唯一途径。自然人的终结或无法避免,但自然人的政治却可能被延续,这些新智慧生命之间构建的政治秩序会不同于纯硅基强人工智能的“单一”与“共存”两极,有可能形成一个多元智能生命体的“共和”状态。
人工智能的欲望是跟有机生物一样,以个体生存和种族繁衍为基本的吗?
首都师范大学政法学院哲学系的讲师王嘉点评道,王志强在讨论“政治何以可能”的时候,归结了三个要素,其中,群居必需和普遍的政治智慧比较好理解,但是对于暴力惩罚这一点则没太展开。什么行为会构成人类对人工智能的惩罚呢?比如给人工智能断电算不算一种惩罚?给人工智能限制行动自由算不算惩罚?
此外,报告里假设单一目的的人工智能会把程序的扩张作为自己的欲望,那么,人工智能的欲望到底是什么呢?实际上,这里将人工智能的欲望和人的欲望做了一个类比,因为有机生物的欲望是个体生存和种族繁衍,人工智能的欲望也成了这样子,有一种自我扩张性,其实这个问题是很值得探讨的。
而把有自我限定逻辑的人工智能当作一种理想的人工智能,这在科幻作品里有许多探讨。比如《异形:契约》里面的人工智能叫大卫,大卫是一个具有爱和和平的追求的人工智能,但是它发现爱和和平最大的敌人就是人类,所以它支持消灭人类。所以这说明有自我限定逻辑的人工智能在逻辑自洽的情况下也可能做出不利于人类的判断。
王志强回应道,那我们该怎么去设想人工智能的欲望呢?一旦假定它是有欲望的,我们没有办法从其他角度去设想它的欲望。唯一的可能是从今天看到的计算机病毒里设想,计算机病毒也是以不断复制和防止被删除作为它运行的某种机制、原则和动因的,所以人工智能以自身存续为基础的原则可以被建立起来的。而有自我限定逻辑的人工智能是假设的一种最理想的状态,那样的话人们会被当成宠物圈养起来。
华东师范大学政治学系教授吴冠军评论道,这个论文非常恢宏,从古典政治哲学讲到后人类政治哲学,非常原创和有科幻感。但是,问题在于政治是离不开话语的(discourse),至少是离不开各种各样的概念的。那么,在人工智能和人工智能的政治里面,它们该怎么安顿这些话语呢?
王志强回答道,他只是设想了当有许多人工智能的时候,它们又可能形成一种资源竞争或者某种妥协平衡的关系,类似于人类政治。人类政治是必须要有协作的,人工智能并没有,它们只有生死之差:要不一起死,要不临时中断战争。它们没有混合状态就共存了,从这个意义上,它们不太可能在政治上建构些什么东西,它们主体间的协作不是必要的,这对它们来说是一种例外状态。
本文内容系独家原创。作者:新京报记者徐悦东;编辑:宫子;校对:翟永军。未经新京报书面授权不得转载,欢迎转发至朋友圈。
▼返回搜狐,查看更多
好消息!人工智能无法取代人类
总体来看,认为人类会被人工智能取代的一方,其主要出发点是人工智能的现实功用,尤其是当人类和人工智能都可以完成类似于驾驶汽车这类的活动,且人工智能可以有更低的失误率时,人工智能在社会分工层面取代人类将极可能实现。而认为人工智能不可取代人类者,则是坚持认为人类与机器在本质上存在的差异,比如虽然人工智能完全可以完成一副画作,但它们只是通过一些机械的动作完成色彩与线条的搭配,永远是“知其然不知其所以然”。
但两方的回应都具有明显的不完备性。对于认为人工智能可以取代人类的一方,即便人工智能的很多功能可以实现对人类的替代,但是依据“多重可实现原则”可知,人工智能实现这些功能的机制可能与人类完全不同。这就意味着人工智能与人类社会的对接方式不一定与人类一致,甚至在某些潜在的情境下人工智能会与人类社会无法兼容。对于认为人工智能无法取代人类的一方而言,所有对于人类理性、情感或自由意志的坚信更像一种形而上学的预设。因此即便人工智能创作出如梵高、塞尚再世级别的画作,人类依旧可以用“没有灵魂”来进行拒斥或批判。但这种观点本身缺乏论证,关于人类特性的预设也显得带有神秘的不可知论的特征。
综合以上,上述两方面回应的共同缺陷在于,他们的探讨并未结合人工智能的发展历程,因而脱离了对人工智能的构建机制的研究。这就让人类智能和人工智能之间的比较,像是两个“黑箱”之间的对话,人们并不能更好地理解人工智能之于人类的挑战性和人类之于人工智能的独特性。基于此,本文将从人工智能的技术本质的角度探究,“人类是否会被人工智能取代”的问题。
二、对人类的模仿:人工智能的技术起点
阿兰·图灵是第一位真正提出,如何验证机器已经产生人类思维的实验标准的科学家。在图灵的思想实验中,计算机程序或者说是广义的机器人是在与人进行一场精致的“模仿游戏”,即在人与机器的双盲对话中,机器不断模仿人类的语言习惯,以欺骗参与对话的人类,让人类相信自己是在与人而非机器对话。这一思想实验后来在计算机科学的发展中,被发展成为广义的“图灵测试”。按照这种标准,一旦机器通过图灵测试,就可以判定机器具有和人相一致的思维能力,这种观点被称为“强人工智能”的观点。
围绕着机器通过了图灵测试,是否就可以判定机器的思维机制与人类相同,人工智能哲学界引发争论,其中又尤以塞尔的“中文屋”思想实验较为著名。
“中文屋”思想实验的主要预设是,在一个大家看不见内在构造的屋子前,只要人们对其说出某些中文,屋子中就会给出相对应的中文回应,这给人一种屋子中的人或事物非常精通中文的感觉。但一种可能的情景却是,屋子中有一套完备的中英文的对照规则手册,屋子中的人或其他事物根据手册指示,先找到接收到的中文所对应的英文,再基于对照手册的指示对外给出一个中文的回应,这样即便屋子中的人或事物不懂中文,也会看似精通中文。
塞尔的“中文屋”思想实验就是在论证,即便机器人或者计算机可能在某些方面的表现不亚于人类,但是依旧不能说机器已经理解人类的思维方式。“一个弱意义上的人工智能程序只是对认知过程的模拟,程序自身并不是一个认知过程。”换言之“弱人工智能”的主要观点就是,人工智能可以在行为上模仿人类,但不代表它能像人类思维一般实现自我理解。
上述只是强弱人工智能之争的最基本内容,在人工智能哲学的后续发展中,关于“规则手册是否真的可能存在”“理解了规则手册是否相当于理解中文”等问题还引发了后续的诸多争论。相关的论述至今已经汗牛充栋,但本文的重点并不是细述强弱人工智能观点的分歧,而是试图发现它们都可接受的理论共识。
“图灵测试”最终的判断标准,是人工智能有没有骗过人类,或者更准确地说,就是人工智能是否已经掌握与人相似的表述方式。更广义地理解这一标准,也就是判定一个程序或机器人的设计好坏的标准在于,它的行为与表现究竟有多么接近人类。这样一来,即便是一个最终没能通过“图灵测试”的人工智能设计也具有积极的意义,因为它可能已经在接近人类的方向上又迈进了一步,它也完全可以保留自身的优势,在其最接近人类的方面做进一步的加强,甚至可能在这一方面超过人类。
也有人认为,塞尔的“中文屋”在很大程度上只是在给人类找回最后的颜面。因为如果只是在某些专业领域,比如数学计算或者棋类竞技上做一个长期的开发,人类很可能不是人工智能的对手。但即便如此,人类依旧可以有充分的理由认为,机器并不具有人类一般的智能,因为人工智能至多只是“规则手册”的良好执行者,并不真正理解其自身的行为。
综上可以发现,强弱人工智能观点的分歧,其实主要在于人工智能相较于人类智能的完备度的认可上。这反而彰显了它们在底层有这样一些最基本的共识:第一,人类智能是人工智能发展一直所参照和模仿的对象;第二,人工智能发展的完备程度只能以人类作为参照甚至以人类能否接受作为最终标准。因此在这种意义上来讲,人工智能完全可以被视为人类智能的“投影”,这与技术工具发明的“器官投影说”相通。“人类在长期的劳动、生活过程中,学会了利用身边的各种器物以弥补我们自身的不足,进而还学会了主动制造原来不存在的各种工具和器械来增强人体自身的功能……人类发明、制造工具其实最初都是按照自身的某个器官做摹本。”只是人工智能的发明是以人类的智能器官———按照生理学或医学的概念范式就是大脑,按照哲学的概念范式就是心灵———作为模仿对象。
力主模仿人类“大脑”或“心灵”的人工智能研究,要提升研究水平的前提就是要有“投影”人类智能的方法。接下来的问题就是,人工智能研究中,这种“投影”的策略是什么?
三、对人类智能从浅到深的“投影”:人工智能的技术策略
按照器官投影说的说法,“投影”至少有两层含义,“一方面,人体器官的形状和功能‘投影’在工具中……另一方面,人体器官的尺寸、比例被抽象和放大到工具中”。在一般技术工具的发明和制造过程中,这两种“投影”都已经被应用到淋漓尽致的地步。以日常用来盛水或食物的碗为例,其原型就是人的双手捧起水或食物时聚拢在一起的形状,碗的发明就是实现了这种盛放物品的功能。同时,碗在实际的制作中口宽底窄,依然是配合人类的手型,但是又会依据碗的用途的不同,而放大或缩小相应的尺度。
但是人工智能想要投影人类智能并非易事。如果作为器官来看,人类的思维器官是最具复杂性和神秘性的脑。尤其在人工智能发展的初期,医学或生理学能够对大脑做出的解读并不多,这就让人工智能研究对于人类智能的投影只局限在表象层面的人类的行为。随着计算机技术水平的提高,人工智能的研究就走向对人类认知器官的某些特定功能的专门模仿。到了医学可以对脑有一个更深层次的解读,并且计算机技术可以实现对于脑更深层的模仿后,人工智能又来到一个新的纪元。
(一)对人类行为的投影
在心理学的预设当中,人类的行为是一种对于人类思维状态的表征。因此当人工智能可以对于人类的行为进行模仿时,也就在一定程度上实现了对于人类智能的模仿。
较初级的人工智能产物一般都是在极力模仿人类的各种行为。一些工业领域常用的智能维修机器人更是主要只是模仿人类操作器物的行为。很明显的是,单纯依靠此类人工智能技术并不能通过图灵意义上的“模仿游戏”的测试。从本质上说,此类人工智能产物是对于人类的“感知—动作系统”的模仿,更主要的是实现对于人类肢体动作的模仿。图灵的“模仿游戏”重点检测的则是更深层次的,机器对于人类“语言—思维系统”的模仿。
但是此类人工智能技术依然具有存在的意义,它在现如今的人工智能的整体设计当中主要充当一种辅助技术,尤其在人形机器人的肢体的设计与生产环节,因此相关研究依然在提升其技术精度,并仍被广泛应用于人形机器人的设计生产之中。
(二)对人类特定智慧功能的投影
此类的研究依然可以暂时悬置人类的认知器官的真实构造这一问题,而是直接“利用计算机作为硬件平台,通过编制聪明软件来模拟人类智力功能”。此类研究策略可以让人类的认知器官继续保持一种相对的“黑箱”状态,只要保证计算机硬件平台可以在输出端给出与人类的判断尽可能相似的结果就好。
此类研究的局限性就在于它总是只能解决某一专门领域的问题,比如一个智能家居助手可以解决的问题是将室内温度调整到20℃,但是它可能并不能理解温度数据与人类关于“寒冷”“炎热”的感受,更不能体会“老人怕冷”“孩子怕热”这类的亲情关怀。
(三)针对人脑的技术投影
随着近现代生理学尤其是脑科学的发展,对于人类认知器官的认识也逐渐走向了精细化。信息技术的高度发达,让计算机系统的搭建也可以形成对于人类认知器官的深层次模仿。近年来,随着“在不同方向上观测不同认知任务下脑部神经的活动变化并获得相关类脑智能数据已成为可能……发展类脑智能现已成为人工智能学科以及计算机应用相关领域研究的热点”。例如前文中提到的阿尔法狗的构建理论基础,就是人工神经网络技术的深度学习策略,类脑人工智能是其技术实质。除了人工神经网络技术外,“参考人脑神经元结构和人脑感知认知方式来设计的”类脑芯片也在成为目前人工智能领域研究的重点,并且芯片的运算机制已经愈发地接近人脑思考问题的方式。
基于人类脑科学研究成果而发展出来的此类人工智能技术,被称作“类脑智能”。此类技术不再只是从模仿外部的人类的行为或功能来实现机器的智能涌现,而是直接着眼于人类智能的发端,对脑的结构进行更深层次的模仿。类脑智能的研究可谓是人工智能目前最前沿的进展之一。但是直到目前为止,针对人类复杂的大脑的研究尚处于起步阶段,要实现对人脑的整体解读仍需要一个很长周期的研究。
综上所述,人工智能研究的认识论基础是技术哲学意义上的“器官投影说”,脑科学的最新研究进展成为人工智能更精细化投影人类认知器官的理论工具。当然,认识论层面上的理论基础或理论预设都会带有一定的理想化的特征,尤其只是在近些年脑科学的新进展才更好地支撑了人工智能研究的发展。在此前和未来的很长一段时间里,人工智能的研究主要还是要集中在与人类相似的智能功能的实现层面上,而未必是内在结构上与人类认知器官的高度一致上。因此,这里实际上需要分析的问题是,当人工智能的结构构建必然与人类智慧器官自身存在差异的前提下,人工智能自身是否会有相应的局限,人类又可以通过扮演怎样的角色来协助人工智能突破这样的局限呢?
四、从分离到交融:人工智能与人的现实关联
一个人工智能产物能够存在于社会,必然因为它可以实现某些方面的功能,从而满足社会某些方面的需求。这些相应功能可以实现的实质就是,人与人工智能,同客观世界之间以特定的形式发生相互关联,并且在不同的情境下人与人工智能之间的关系将有所不同。
(一)作为世界的一部分的人工智能
在诸如前文中所提到的各种研究环节,人工智能实际上都被视为一种待研究的对象来看待。其实不仅在研究阶段,到了应用层面也同样需要经历一个人对人工智能的认识和熟悉的过程。这就像我们拿到一台新的个人计算机,对于操作界面和随机功能均有一个必要的熟悉过程一般,一个新的人工智能产物走入到生产生活中,人类作为操控者或者说工作上的“合作伙伴”,需要将人工智能作为一个崭新的客体来进行研究。
此时的人工智能相当于世界的一份子,对于人处于一种几乎未知的状态,人与人工智能也在一种比较充分的分离状态之下。
(二)作为人与世界的媒介的人工智能
关于人工智能最为常见的应用模式,就是让人工智能代替人类去从事一些与外在世界之间的交互。比如人类派出探险机器人去探测星体表面,此时的机器人就是以人类的代理者的身份去完成人类的指令。在此类的应用之中,人类将自己的指令翻译成人工智能可以理解的计算机指令,人工智能完成相应的行动;在反馈环节中,人工智能则是依靠自身携带的各类传感器,将其收集到的各类信息传递给人类以备后续分析。
作为中介的人工智能带有一定的被动性,多数时候只能服从于人类的操控。这种意义上来说,此类人工智能更像是人类的欲望或意向性的转移者。它们也同样可以被视为世界向人类传递信息的媒介,它将那些人类肉身难以轻易企及的处所的信息传递给了人类。
人与作为世界的媒介的人工智能之间,会因为“使用”这种行为而发生交互,“使用”一旦停止人机将再次分离。
(三)作为人的“身体”的人工智能
称人工智能可以作为人类的“身体”,并不只是意味着人工智能产物已然植入人类身体(虽然在技术层面这早已可以实现),而是重点说明人工智能在应用层面给人带来的体验。
这种体验时常让人不会轻易察觉到人工智能技术的存在,它“展现出部分透明性,它不是人类关注的中心……经过短时期的适应之后,你不会感觉到它的存在……它已经成为身体体现的一部分,具有人的身体的某部分特征,它成为人类身体的延伸”。最常见的例子就是,如今的智能手机基本都具有导航功能,并且很多的导航程序都已经具有了很明显的人工智能特征。人在行走的过程中,其实已经让导航软件加强甚至替代了自己的“方向感”或“路感”。当一个人来到陌生的城市,也很少将辨识方位视为需要提前很久去完成的准备工作。
“方向感”本身属于人类智能的一部分,智能导航程序相当于加强了这种能力,但是在日常生活中,使用者会不自觉地将智能程序加成的“方向感”深以为然地视为自己天然具备的能力,这就是人工智能作为人类“身体”出现的最普遍的表现。
作为人的“身体”的人工智能,其影响力不仅在于实际的操作层面,而且在于它已经在人类的认知层面形成一种清晰的意向,让人类与其不自觉地相同一。
(四)人作为人工智能的“部件”
前文提到的“人工智能”总好像有一些很具象化的特征,也就是所有的人工智能产物似乎都有一个比较清晰的形态。不可否认的是,为了让人机交互显得更加友好,人工智能产品在其交互界面的设计上的确非常有人类色彩,如以人类的语音作为向导、仿照人类的形态制作输入输出设备等。
但实际上,人工智能系统的实际构造可能远比使用过程中所看到的界面要复杂得多。尤其是在分布式网络日益发达、大数据应用日益成熟的今天,理论上整个的网络信息平台都可能成为人工智能的数据库或云计算组件。因此,网络上的人类用户,在一定程度上就可能成为人工智能系统的某个空间节点上的部件一般的存在。并且需要注意的是“人比机器的优势之一就是:可以从较少的数据中更早地发现事物的模式”。也就是说作为人工智能“部件”的人类,一方面可以减轻实际应用层面上人工智能的计算压力,另一方面也在技术层面上搭建了以网络联结为基础的人机混合的智能系统结构。
人类充当人工智能系统的“部件”的原因大致上有两个:其一,就是实现应用目标的便利性的诱惑,毕竟在语言翻译等领域让人工智能短期内达到人类母
语水平并不现实。在具体情境下,不一定非要人工智能通过模型计算给出合理的结果,直接转述人类在相应情境下的回应,可以更经济也更快速地实现应用需求。其二,就是目前人工智能领域研究的现实局限,前文提到的类脑人工智能的发展前景极具诱惑,其研发的基础就在于“以脑科学和信息科学的基本理论为指导……标记、获取、分析……精细脑网络结构与功能信息”。但攻克这项工程需要的可能是全人类长期的共同努力,突破人工智能的局限性不可能在一朝一夕,于是更可行的解决方案就是让人类作为宏观的人工智能系统的“部件”完成操作任务。
由此,在实际的应用层面上,随着人工智能功能的完善和大数据技术等的全面加持,人与人工智能之间不会再是泾渭分明的“分离”状态,而是随着彼此之间依赖的加深(人将人工智能默认为自身的功能,人工智能借助人类智慧的优势更快完成操作任务),人与人工智能实际上走向了一种“融合”的状态之中。
(五)从模仿到共建:人机融合的现实趋势
如前文所言,最理想的人工智能研究,其实是通过脑科学的“逆工程”制造出一个完整的人工生命,“这是对于传统的,通过具有某些特定功能的计算机子系统来分析性地构建智能系统的人工智能研究的替代方案。”
但是人工智能事业的发展,不能等待着此类研究的彻底完备,而是需要在实践中提升智能系统的问题解决能力,“这迫使我们要做出具体的工程决策,充分考虑抽象和具象的对象之间,以及观察的和理论的现象之间的关系”。在现实层面上,实际上需要被考虑的是人工智能性能的提升问题,既然“人机交互所产生的融合双重智能可以……提升人工智能系统的性能……更加高效地解决复杂问题”,那么人机融合就应该是被选择的趋势。
一个现代的人工智能系统不再应该被简单地视为与人类孤立的技术产物,而更应该被视为一个人类智慧与机器智慧所共建的广义的网络系统。这一网络系统的特征与巴黎学派的拉图尔、卡龙和劳等人所提出的“行动者网络”非常类似。“‘行动者网络’本身是一种‘异质型’网络,即人类行动者和非人行动者平等构成网络,在具体的科技活动中……平等地影响着网络,并且通过对于网络的‘协同’或‘背叛’影响网络的运作”。人与非人行动者会因为他们有共同的行为意向而联结在一起,并作为整体共同实现相应的实践目标。
并且应该与“行动者网络”理论的预设相一致的是,对于一个有某种明确的应用目的的智能系统而言,人与机器应该处于一种相对平等的状态之中。这里的“相对平等”的实现很可能是一种动态的总体的平等,即在某些具体的情境下,可能人类的主观意愿占据主导。但是在另一些情境下,机器的计算目标则更加重要。人类与机器在联结性和目的性等层面上发生的耦合,是人机共同构建智能系统的基础,它们之间彼此的协同促进,是共同提升系统功能的基本方法。
那么基于以上认识,我们又可以从何种意义上说明人类不会被人工智能取代呢?
五、结语:人有人的用处,人机共建新系统
人工智能是科学高度发展的智能化产物,其自身的本质依旧是技术人工物。任何广义的人工物,都具有主导其功能与构成的形式和质料。
从技术发展史的角度来说,人工智能的研究起步于对人类智能的模仿,因此人类的形式就是其追求的终极的形式,只是它用以实现人类智能的质料又与人类的肉身大相径庭。比如各类金属或有机材料是构建人工智能的机械身体的物质质料,各类运算机制和计算方法则是实现计算机智能的语言质料。这些现实的差异,以及人工智能后来所取得的一系列进步,让我们开始习惯于用一种对立甚至敌对的眼光去审视人类模仿自己而创造的各种人工智能产物。但不能忽视的却是,技术人工物得以持存的原因是某些目的性的实现。此时一个更加现实的问题就是,当人类不是以一种对立的姿态看待人工智能,而是以一种相互交融的态势与人工智能发生关联将会发生怎样的变化?
人类其实不单单可以作为人工智能所模仿的形式而存在,也可以作为技术系统当中真实有效的质料或部件。脱离开对人工智能的具象化的刻板预设,让人类、计算机和手机等智能单元都成为数据运算的可能参与者,这将是一种能让人工智能更快提升功能的解决方案。因此,在技术人工物的视角下审视人工智能的发展,其实质就是提供实现某类功能的可行的解决方案。在这种意义上来说,人非但不会存在被取代的可能,更可以与技术产物相互交融构建新的系统,人类智能不仅是人工智能研究中终极意义上的形式与目的,也是智慧功能实现层面上可以带来现实意义的行动者。
维纳用《人有人的用处》这一书名,来提示人们在控制论和信息论背景下应该重新思考“人”的概念。这里我们用“人有人的用处”来回应,为什么在现实的实践的视角下,人类不会被人工智能取代。当人类摒弃了人与机器的对立态度,在一个可以平等进行信息交换与计算的网络上共建一个人工智能系统,人类既能依旧作为智能系统的终极目的而发挥类本质层面上的导引作用,又可以在个体层面上履行新的社会分工责任———人将仍然有人的用处。
〔参考文献〕
[1]李开复,王咏刚.人工智能[M].北京:文化发展出版社,2017.[2]匡文波,韩廷宾.消息写作有可能被人工智能取代[J].新闻论坛,2017,(4):32-35.
[3]袁跃兴.“人工智能”技术能否取代诗人?[N].北京日报,2017-06-22(18).
[4]黄欣荣.人工智能对人类劳动的挑战及其应对[J].理论探索,2018,(5):15-21.
[5]徐英瑾.人工智能无法全面取代人类[N].第一财经日报,2018-09-18(A11).
[6]刘润坤.人工智能取代艺术家?——从本体论视角看人工智能艺术创作[J].民族艺术研究,2017,30(2):71-76.
[7]梅剑华.理解与理论:人工智能基础问题的悲观与乐观[J].自然辩证法通讯,2018,40(4):1-8.
[8]黄欣荣.卡普技术哲学的三个基本问题[J].自然辩证法研究,2012,28(8):27-31.
[9]王楠,王前.“器官投影说”的现代解说[J].自然辩证法研究,2005,21(2):1-4,17.
[10]钟义信.范式转变:AlphaGo显露的AI创新奥秘[J].计算机教育,2017,(10):9-14.
[11]宋小芹,王莉丽,张卫星.基于机会认知的类脑智能数据挖掘机制[J].计算机仿真,2016,33(11):375-378.
[12]陶建华,陈云霁.类脑计算芯片与类脑智能机器人发展现状与思考[J].中国科学院院刊,2016,31(7):803-811.
[13]吴国林.后现象学及其进展——唐·伊德技术现象学述评[J].哲学动态,2009,(4):70-76.
[14]刘伟,厍兴国,王飞.关于人机融合智能中深度态势感知问题的思考[J].山东科技大学学报(社会科学版),2017,19(6):10-17.
[15]骆清铭.脑空间信息学—连接脑科学与类脑人工智能的桥梁[J].中国科学,2017,47(10):1015-1024.
[16]Correia,L.Fromnaturaltoartificiallife[J].RevistaPortuguesadeFilosofia,2010:789-802.
[17]King,R.D.RiseoftheRoboScientists[J].ScientificAmerican,2011,304(1):72-77.
[18]李平,杨政银.人机融合智能:人工智能3.0[J].清华管理评论,2018,(Z2):73-82.
[19]毕丞.行动者网络理论在科技传播领域中应用的可行性研究[J].自然辩证法研究,2014,30(3):76-82.
本文摘自:北京科技大学学报(社会科学版)2019年4月第35卷第2期
【毕丞:北京科技大学哲学教师】返回搜狐,查看更多
人工智能与人类未来―中国教育信息化网ICTEDU
有一句话叫做,人工智能将主宰未来,关于人工智能的话题层出不穷,人工智能VS人类大脑的公开比赛也屡屡举行。在这种热潮之下,讨论人工智能与人类未来就显得尤为必要。
人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。发展人工智能,其实是科技进步的一个举措,它有利于提高生产效率,简化生产环节,降低成本,为人们的经济带来了可观效益;它有利于提高人们的消费质量与水平,优化人们的消费方式。就人工智能的特性而言,它能够替代人类完成一些想做却无法做的工作,改善困扰人类的问题。例如治理环境污染,使生活更加便利,这些好处显而易见。
但人工智能对人类也发出了挑战。第一,人工智能目前处于发展中阶段,几乎每一类发展中事物的共性都是缺乏探索经验,有可能造成质量问题、监管不力等;第二,人工智能会影响就业结构,这是由于它对人类工作的替代性。从某些程度上,它能够促使劳动者提高自身素质,适应新的就业大环境。但是人工智能发展如果太过迅猛,很可能会导致劳动者在猝不及防的状况下失业,又找不到新的就业方向。因此,做好这一天来临时的就业引导,也是未来的一大挑战;第三,人工智能面临技术失控问题,这个早就是社会热点了。如果人工智能一直服务于人类,不伤害人类,对人类未来而言当然是最好的。但是,任何科学技术的发展最大的威胁就是超出人类的控制,如果人工智能具备独立思考的能力,形成属于自己的文明,反客为主,那不仅与人工智能发展理念相悖,人类的未来也将不再乐观。电影《猩球崛起》表现的就是因为猿类最终超出人类控制,引发的一场血腥革命吗?人工智能对人类的潜在威胁,被科学家广泛议论,目前仍待商榷。
但是,在人工智能全球化的趋势下,人工智能时代的到来已成定局。我们不可能因为未来的确定性就停滞不前。人类需要面对并急速适应,找到与人工智能相处的方式,让它尽可能地发挥有益功用。另外,人工智能的发展仍处于初级阶段,人类仍有掌控它的能力,要通过完善各种学科体系,让我们有能力发展它,也有信心驾驭它。毕竟,在无法改变他人、他物时,就只有通过不断学习进步使自身更加强大。
人工智能和人类智能的差距在哪里
阿拉法狗战胜李世石后,大家都在说,人类智能的最后一片高地也被人工智能攻陷了。人类积累2000多年的围棋智慧,被一个程序轻易打败,那么未来人工智能是否会取代人类成为这个星球上的主宰者呢?对于人工智能的安全性问题,学术界已经纳入研究范畴,但就目前人工智能技术的底层逻辑而言,和人类智能还是存在明显的区别。
[[377956]]
认识世界分为三个台阶:
1.第一台阶:观察
通过观察世界来发现事物之间的关联,根据观察到的规律来指导自己的行动。比如,观察到公鸡打鸣后,天就亮了,那么听到公鸡叫,就可以起床了。
2.第二台阶:干预
通过预测对环境改变后的结果,来选择有利于自己的行动方案。比如,爬上树才能摘下果子,但树太高了很危险,如果拿一根长棍敲打树枝,或许果子也会掉下来,我为什么不找根长棍试一试?
3.第三台阶:想象,反思,理解
反思是什么原因导致了已经发生的结果,我可以采取哪些行动来促进或避免类似的结果,这个比较容易理解。
这就是“因果关系之梯”的三个台阶,我们人类明显处于第三台阶,部分会使用工具的动物,比如黑猩猩,处于第二台阶,而大部分动物处于第一台阶,那么目前的人工智能处在哪个台阶呢?
无论是大数据分析还是深度学习算法,其底层逻辑都是通过大量的外部数据来找到特定目标的关联性。大数据分析显示,美国每次飓风来临的时候,沃尔玛超市的草莓曲奇饼干销量会大增,飓风和草莓曲奇饼干的销量呈强相关性,所以不需要知道具体的原因,就可以有效指导沃尔玛超市备货。由此可见,目前人工智能仍然处于第一台阶,只不过高效的数据数理能力使其成为一个超级观察者,使用的数学逻辑也很简单,就是条件概率,P(Y/X),即当X发生时,Y发生的概率,当这个概率比较高时,人工智能就认为两者强相关。
我们经常会收到一些推送信息,也是基于以上的逻辑,有时甚至成为我们的烦恼。在网上为朋友的孩子买了个礼物,之后就不停地收到关于孩子的各类信息的推送。如果不理解行为背后的原因,不知道事物关联背后的逻辑,开展有效行动的概率就会降低,我们就无法客观理解这个世界,人类也就无法将科技发展到如今的水平。
如果一定要将因果关系和概率联系在一起,那么至少人工智能得跨入第二个台阶,用数学语言描述,就是P(Y/do(X)),即主动提高X事件发生的概率,观察Y事件发生的概率是否会提高。在心理学和社会学方面,人类采取的随机双盲试验,就是利用了这个逻辑,APP也通常会采用A/B界面测试,来获得用户的反馈。我不知道人工智能是否能实现这一目标,这不是单纯改变条件那么简单,而是先要预测改变那些条件可能会导致预期的效果,然后再行动来验证自己的想法。
对于第三台阶的认知能力,就目前人工智能的底层逻辑而言,是无法达到的。我们人类认知能力在四万年前有了一个大飞跃,从第二台阶一下子跨入了第三台阶,证据就是施塔德尔洞穴的狮人雕塑,他是迄今为止人类发现的最古老的虚构生物雕塑,我们不知道远古的祖先为何创造它,但人类自此发展出了一种想象不存在之物的能力,这是所有哲学理论、科学探索和技术创新的雏形。
与任何解剖学上的进化一样,这种认知能力的飞跃对我们人类这个物种来説意义深远至关重要。在狮人雕塑制造完成之后的1万年间,其他所有的原人种都灭绝了。人类继续以难以警信的速度改变着自然界,利用我们的想象力生存、适应并最终掌控了整个世界。从想象的反事实中,我们获得的独特优势是灵活性、反省能力和改善去行为的能力,更重要的一点是对过去和现在的行为承责任的意愿。古往今来,我们一直受益于反事实推理。
有人说人工智能发展即将达到一个奇点,过了奇点,通用人工智能就会产生(类人智能),我想说的是,除非人工智能的底层逻辑是建立在因果关系之上的,如果还是基于相关性的逻辑,从原理上来说,基本不可能达到人类智能的水平。当然,哲学界有僵尸一说,就是看上去和人类智能没有差别,但其实是一个基于大数据处理的人工智能,你无法分别,著名的“中文屋”思想实验也反映了这么一个想法。但如果是这样,我想需要的数据量会非常大,也许这个数量级比可见宇宙中的原子数量还多,同时又必须把所有数据在较小的物理范围内储存和计算,否则就无法保证运算速度,我想你不会把一个每次都要思考几分钟才能回答你问题的人工智能当成正常的同伴吧。也许科技的发展能够实现这一点,但我想有生之年估计很难看到了。
饮水思源:漫谈人工智能与人类智慧
奇妙的是,统一性方向是人类把宇宙中的纷繁复杂的现象都归结为越来越深刻和统一的规律,是认识外在世界的方向,是认识宇宙起源的方向;复杂性方向则是由认识复杂系统,生命系统,慢慢开始认识人类,认识自我的过程。两个方向,一个探索宇宙起源,一个探索智慧起源,最后都统一为认知的本身。宇宙即大脑。
复杂性科学与人工智能
我认为,复杂性科学的目标是理解由统一物理规律支配的世界的多样性,理解各种尺度的复杂系统的涌现规律,终极目标是理解人脑这样的复杂系统,并解决智慧起源的问题。所以理解复杂性是从科学诞生之初就确定的目标,复杂性科学任重道远,人工智能也已经发展六十多年,那么最近兴起的诸如深度学习等,其实只是这个路径上的一个环节。
奇点在九天之外
如果是复杂性的极致,理解了智慧起源,才算是某种奇点,那么以现在的人工智能的境界还有好几层要去突破和飞越,所以这种境界的飞越不是在现有框架内提高算力、增加数据、改进算法就能突破的,我觉得,奇点尚早。但值得强调的是,由于机器的指数级进化,所谓尚早是从境界超越的角度看,不一定是时间的角度,所以尚远可能不是那种自然进化亿万年的事情,也许也就几百年的事情。
阿尔法狗是人工智能的伟大胜利
AlphaGo的突破,其实是以传统的蒙特卡洛树算法为骨架,以深度学习、强化学习等等为血脉,达到了一种超越目前人类棋手的围棋算法。
首先,这确实是人工智能的一次巨大胜利,因为围棋的可能性是如此巨大,大概超过了宇宙里的沙子的数目,任何人类能想象的巨大暴力的算力在围棋的浩渺可能性面前都是沧海一粟,即便谷歌确实动用了强大的TPU来支撑计算,且计算的耗能也是相当巨大的,但是这些对于围棋来说仍然是等价无穷小,所以你不能说这是暴力搜索,所以确实是有智能的成分在里面,而且最新的深度学习强化学习在其中确实扮演了重要作用。
阿尔法狗并没有终结围棋
其次,其实并不能说阿尔法狗已经终结了围棋,只能说已经彻底甩开了人类。在浩渺的可能性里面,理论上仍然有巨大的进步空间。但作为人类发明的游戏,已经超越了人类,那就算通关了,再去纠结,只能当做是算法练兵场了。所以deepmind功成身退,把人类彻底甩在身后,并留下了几个局狗与狗对弈的传世棋谱,供人类膜拜赏析。而deepmind公司则继续去把人工智能技术运用在医疗等等对人类福祉更有意义的领域,这种价值判断和格局,反正不是现在人工智能所能想象的。
阿尔法狗远不是通用人工智能
第三,其实阿尔法狗远不是通用人工智能,其算法的骨架还是非常传统的蒙特卡洛树,这大概是针对棋类游戏最好的框架,流行的深度学习和强化学习只是辅助构建了落子网络和棋局判断网络,给了蒙特卡洛树更聪明的减下搜索广度和搜索深度的方法,从而大大提高了算法的效果。如果是不完全信息的牌类游戏,这个框架就没用了。另一个比较有名的德州扑克里的冷扑大事,则运用完全不同的算法框架,那个大概基于的是博弈动态优化的框架。所以deepmind,谷歌和人类的梦想远不止于阿尔法狗,是想发明通用人工智能。
关于阿尔法狗的盘感、大局观、灵感、美感
值得一提的是人类棋手所得意的大局观、棋感,这些往往是我们引以为豪,认为是机器不可超越人类的地方。然而在解读阿尔法狗棋局时,人类顶级高手都不得不惊叹。AlphaGo对局李世石下出石破天惊的一步,棋圣聂卫平先生向AlphaGo的下法脱帽致敬,这说明深度学习算法已经能够自发创造美学价值。“AlphaGo机器人下棋的方法是人类想不出来的。它有几次小的失误,之前我认为这种失误对李世石是有利的,现在看起来AlphaGo是以小失误换取更大的胜利。”金成龙表示,他能感到机器人有全局的判断能力,“如果这是它以小失误换取最后胜利所做的取舍,那么这让我感到非常地恐惧。”许多棋手在棋盘方寸间纵横一生,所追寻的就是美轮美奂的神机妙手。如此深邃优美,玄奥抽象,一夜间变成了枯燥平淡的神经元参数,这令许多人心生幻灭。推而广之,所谓的灵光一现的艺术灵感,就其本质可能也是一些参数空间中搜索出的一个个吸引子。
关于人工智能创造艺术
早就有人用神经网络,可以做到模仿生成任何一个风格的图画,即给定一个任意内容可以画出某种你指定的风格的图画出来,内容和风格分离开来。人类当然也有这种能力,周杰伦可以把任何一段旋律改成肖邦的风格,改成莫扎特的风格。最新的研究表明,除了附加风格,人工智能也可以像毕加索一样创造图画。这些作品给人去区分,都很难区分哪些是人哪些是机器创造的。甚至有人说,在作画这个方面,机器通过了图灵测试。这让我想起了一个电影《机械公敌》里的桥段,威尔史密斯扮演的警官在审讯机器人Sunny,警官很鄙视机器人,说你能创造伟大的交响乐吗,你能把一张白纸变成一个艺术品吗,机器人很诚恳地回答,不能,然后怼了一句警官,你可以吗?然后警官就尴尬了。没想到这个电影十几年过去了,机器人已经可以创造图画了,甚至超越了绝大多数人,而且都无法区分。所以艺术制造,绝不是人类以为的自己的保留地,机器完全可以创造出足以乱真的任何艺术品,音乐、书法、图画、雕塑、建筑等等,琴棋书画,样样精通。虽然你仍可以争辩,机器并不懂审美,但我可以想象未来有大量的机器创造的艺术品,可以给人类带来丰富多彩的艺术体验。像琴棋书画这些,任何一个具体领域内,人类渺小的那些自以为是的感觉、美感、灵感、经验都是可以被机器学会的,但这并不是叫做取代,这也并不是否认艺术大师。我想被取代的是那些作为职业的艺术工作者,而不可能取代创作的大师。我更想表达的是,既然艺术都会被机器学习,人类还有什么值得骄傲的地方?
人类的骄傲在于理性思辨
回顾人类攻克围棋的过程,从一开始的规则驱动的暴力搜索,到特征驱动的线性模型,再到数据驱动的深度学习,越来越强的模式识别能力让“直觉”两字从神秘莫测,变成了通过大量样本能学到的模型。机器因为有了更强的直觉,才能在图像识别和围棋上打败人类。反而是,要让机器像人一样作理性推理,目前还比较困难。有效的逻辑和理性思维能力同样是依赖大量的直觉去找到正确的逻辑链条和理性判断,然后再回头验证。直觉的错误率是很高的,就像围棋的DCNN经常给出不靠谱的着法一样,需要MCTS的价值判断来纠正。逻辑思维的强弱,实际上是自我学习自我纠错的能力。人类在这方面,仍然比计算机要强得多。和人类智慧相比,人工智能的符号主义方法依然处于相对幼稚的阶段。
人类之光科学四重境界
说到这里我就又要不厌其烦地为人类宣传一次,这是人类文明几千年里发生的最美好的事情,是人类最耀眼的一些光芒。人类的伟大就在于这种登高远望、高屋建瓴、境界的提升,以人类极其有限的经验范围体察到了远超越人类时间和空间尺度的宇宙的深刻奥秘。
近代科学起源于一群仰望星空的人,他们敬畏自然忠实观察记录星空,并跳出自我为中心总结出星空运行的正确范式即日心说,这些数据的积累和运动范式的理解是一切科学的基础,是科学的第一境界,代表人物是第谷与哥白尼。
第二重境界是,继而在纷繁复杂的数据里,建立了一个简洁的数学方程模型,模型是不依赖于数据的具体表达形式,模型是所有数据都要去遵循的,代表是开普勒为星空立法。这里再多说一下这个模型,从复杂性的角度,模型有三种。开普勒的模型是确定的数学方程,这是完美的数学模型。现实很多问题还有别的数学模型,如统计的随机的模型,神经网络出现后,通过神经网络来描述数据里蕴含的规律,连随机方程都写不出的,更少有数学的表述。这三种模型都是对现有数据的总结和归纳,都能很好的描述现有数据的规律,都有一定的外推能力,现在机器学习在做的就是这种建模,只不过是对更复杂函数的建模。模型的境界有几个问题,1、知其然不知其所以然,开普勒只知道总结出这么几个规律,所以只能把这些什么三定律当做基本假设承认,并不能探求背后的原因;2、不同的模型看不到其内在的联系和统一性,产生割裂的一个个的模型来描述本质上一样的规律,比如天上的椭圆的规律是一套东西,地上的抛物线的规律是一套东西,完全不同的数学模型;3、当然这种统一性的要求也不仅仅是理论美学的要求,也有实用的问题,如果没有统一的理解,怎么把地面上的东西送上天,你只知道地面上的东西是抛物线,上去了就一定会下来,却不知道速度足够大就可以摆脱抛物线的模型,这就是割裂看待事物的局限和可能造成的错误。
第三境界就是建立真正的物理学,是不依赖于模型的具体表达的,是所有子模型要遵循的,是研究事物运动的力学机理。这个工作对于引力,就是牛顿完成的,牛顿统一了天上的规律和地上的规律,建立的万有引力完美统一解释了这些,也让人类可以发射卫星登月等等。到力学层次的不多,除了牛顿力学,还有麦克斯韦的电磁力学,还有后继的弱相互作用和强相互作用。这是目前人类知道的四种相互作用,看这些仍然不够统一和深刻,所以有了第四重境界。
第四重境界就是原理,是不依赖于力学的具体内容,是任何力学都要遵循的法则,是最深刻的,是最普适的。到达这个层次的,只有爱因斯坦的广义相对论,还有最小作用量和局域规范性原理这些比较接近,但这两个本身不独立成体系,还需要其他外部假设输入。
这些都是人类的智慧之光,或者说是一般智慧生物的智慧程度的检验,如果有外星生物,我们很难去拿什么我们的商业财富什么的去和他们交流,太丢人,也很难去拿我们的艺术和他们交流炫耀,没法沟通,我们只能说,我们有爱因斯坦,我们有广义相对论,我们有核武器等等。之前有一句话说二十世纪发生了太多事情,有两次世界大战各种大的事件,但真正重要和值得被历史留下的只有相对论和量子力学。那么推而广之,人类历史发生了太多事情,真正值得被记住的,只有我说的这四重境界了。
人工智能的四重境界
前面又回顾了一下人类的光辉历程,那是一个向外去探索宇宙的过程,另一个人类伟大的探索就是向内去认知自我,这其实就是复杂性的发展方向,人工智能就是这个方向上的工具。且不说人工智能,先把复杂性的方向也梳理一下,为以下四重境界。
首先第一重境界是在客观的物质世界里的复杂性,比如多体问题,比如原子分子系统,比如复杂的材料,比如光电子工程等等。现在很多人工智能的东西已经用在这个境界里了。比如量子多体问题与深度学习网络的奇妙联系,利用深度神经网络可以有效地表示几乎所有量子多体系统的波函数,神经网络和深度学习算法在量子多体问题里有天然的应用潜力。所有这些人工智能算法本质上和物理学是密不可分的。
复杂性的第二境界,就是生命。这个层次上的复杂性,也是已经开始被人工智能所侵占的。比如所谓层次特征(HierarchicalFeatures)猫的视觉中枢中有些神经元对于某种方向的直线敏感,另外一些神经元对于另外一种方向的直线敏感;某些初等的神经元对于简单模式敏感,另外一些高级的神经元对于复杂模式敏感,并且其敏感度和复杂模式的位置与定向无关。这证明了视觉中枢系统具有由简单模式构成复杂模式的功能。这也启发了计算机科学家发明了人工神经网络。人类具有多个视觉中枢,并且这些视觉中枢是阶梯级联,具有层次结构。人类的视觉计算是一个非常复杂的过程。将猴子的大脑皮层曲面平展在手术台表面上,人们发现从视网膜到第一级视觉中枢的大脑皮层曲面的映射(retinotopicmapping)是保角映射(conformalmapping)。这一阶段,人类通过认识生命,特别是生命里的神经系统,来开发人工智能,来认识自己。
复杂性的第三境界,就是社会。人工智能在这个层面上就是研究群体涌现的智力。比如蚂蚁蜜蜂等集群动物他们涌现出来的某种智能。机器人集群之间的协同合作。
复杂性的最高境界,就是智慧。当个体有生命、群体有社会,才能产生智慧。一个再聪明的大脑,没有全体人类的知识积累,也很难独立完成发现。但作为站在群体智慧积累之上,巨人肩膀上的智慧,这是复杂性最高的境界。
我们看到,人工智能就是人类在认知自我的过程中的有力工具,而证明我们真的认知的东西,就是我们能有效创造出来这个东西。对于外在世界的认知,已经让我们创造了巨大的工程,卫星飞船上天,航母潜艇入海。那么对于内在自我的认知,可能会让我们创造出越来越接近人类的机器人。
王雄,博士,深圳大学研究员教授,混沌量化投资实验室中心主任;09年本科毕业于上海交通大学数学系;14年博士毕业于香港城市大学;14年获得海外高层次人才孔雀计划引进,加入深圳大学高等研究院任研究员,并主持创立混沌量化投资实验室,研究基于复杂系统理论、机器学习、人工智能、大数据挖掘分析等工具量化市场行为、理解市场本质、捕捉市场机会;同时致力于量化投资跨学科复合型人才培养。
集智QQ群|292641157
商务合作|zhangqian@swarma.org
投稿转载|wangting@swarma.org
◆◆◆返回搜狐,查看更多