博舍

人工智能的马克思主义审视 意识与人工智能的哲学思考与实践论文

人工智能的马克思主义审视

导读

2018年5月5日是马克思诞辰200周年,马克思曾写到“哲学家们只是用不同的方式解释世界,而问题在于改变世界”。本文作者陈凡,哲学博士,东北大学科技哲学研究中心教授,博士生导师;作者程海东,哲学博士,东北大学科技哲学研究中心博士后研究人员,讲师。文章从马克思主义哲学关于人与技术关系的基本立场和观点出发审视人工智能的发展,文章认为人工智能还有广阔的发展空间,在可预见的未来并不会出现让人们恐惧的“奇点”。

文章来源:《思想理论教育》2017年11期

人类对人工智能(ArtificialIntelligence,简称AI)的探索可以追溯到图灵,当然我们也可以追溯到更早的帕斯卡与莱布尼茨。梳理人工智能的历程会发现,无论是帕斯卡、莱布尼茨,还是图灵,甚至标志着人工智能学科诞生的达特茅斯会议,都有着雄心勃勃的计划,即制造出能够像人一样行动和思考的智能系统,来模拟和扩展人类智能。随着相关科学和技术的发展,作为学科的人工智能领域,奠基性的基础理论得以确立并取得了一定的进展,如机器感知与识别原理、知识的获取、表达与推理理论、机器学习与算法等;实践中的人工智能系统表现得让人惊叹,如自上世纪末开始的各种“人机大战”不断刷新战胜人类的记录,其他诸如自动人机对话与服务系统、汽车自动驾驶等似乎都在预示着人工智能的强大未来,致使媒体、专家学者和大众都在讨论人工智能控制人类的“奇点”何时到来的问题,却没有冷静地思考这样的“奇点”是否存在的问题。从马克思主义哲学关于人与技术关系的基本立场和观点出发审视人工智能的发展,就会发现人工智能还有广阔的发展空间,在可预见的未来并不会出现让人们恐惧的“奇点”。

一、人工智能的技术定位

诚然,人工智能作为一种新兴技术,在医疗卫生、航空航天以及工厂和库房等很多方面得以广泛应用,并且其使用范围会越来越广泛。正如媒体和大众看到的,人工智能在它的使用领域具有远超人类的能力,它所能做的事情中有很多是人类做不到的。但冷静地分析人工智能的发展,就会发现它并未摆脱技术的身份,而且其发展的程度也并未像人们想象的那么高。

首先,从技术与人的关系角度看,人工智能是属人的。

虽然人工智能能做很多人类做不了的事情,但是人类创造技术的根本目的就是为了帮助或者替代人类做某些事情,无论是磨制出的第一把石刀,还是为大众所熟知的AlphaGo,都是为人类的生存和发展服务的。技术无法脱离人类而单独存在,技术是属人的,“技术作为人类的一种存在方式,是与人类相伴而成的”。[1]人工智能的能力虽然可以大大超越人类在某些方面的能力,但这并不意味着它能摆脱人类创造物的身份而独立产生和发展。在马克思看来,技术源于人的感性需要,源于人的吃、喝、住、穿等各种生存需要,“全部人类历史的第一个前提无疑是有生命的个人的存在。因此第一个需要确认的事实就是这些个人的肉体组织以及由此产生的个人对其他自然界的关系”。[2]

技术的出现除了满足人的生存需要以外,更是人类实现自由解放的重要力量之一,人工智能的产生和发展既是实现人类自由解放的现实力量,同时,人的自由解放也是人工智能的终极目标,并非为了统治人。人工智能的出现,破除了人们对人类智能的神秘化理解,它对人们思想观念的冲击乃至引发的恐惧表明,人工智能正在以它强有力的方式推动着人们不断改进人与自然关系的看法,改造着人们的观念。正如马克思所说:“现代自然科学和现代工业一起对整个自然界进行了革命改造,结束了人们对自然界的幼稚态度以及其他幼稚行为。”[3]除了破除人们的幼稚观念和行为,人工智能还突出地体现了对社会生产力的巨大推动。“随着大工业的发展,现实财富的创造较少地取决于劳动时间和已耗费的劳动量,较多地取决于在劳动时间内所运用的作用物的力量,而这种作用物自身……是取决于科学的一般水平和技术进步,或者说取决于这种科学在生产上的应用。”[4]

此外,马克思还认为科技的发展并不是为了单纯的效用,其根本目的是人,是人的自由解放,而且人的自由解放是现实的人的现实的解放,摆脱对物的依赖而走向人的全面发展。在人工智能被应用于车间和仓库等严格控制的环境中时,人们关注的重点是它对社会发展的重要推动作用,但是在发现人工智能在某些方面战胜人类,而且还在不断进步之后,人们又认为人工智能似乎正在摆脱其赖以产生和发展的人的现实需要,而成为一种独立运行的存在,从而在某一天会走向“奇点”。人们在面对高新技术的时候通常会产生如此矛盾的心理,“一方面知道科学是理性和人类文化的最高成就,另一反面又害怕科学业已变成一种发展得超出人类的控制的不道德的和无人性的工具,一架吞噬着它面前的一切的没有灵魂的凶残机器”。[5]造成这种现象的原因,马克思认为是资本的逻辑掩盖的科技与人之间的本真关系,要想了解科技的本质,必须掀开资本逻辑的遮盖。

其次,从技术的功能角度看,人工智能的能力是专业化的。

技术的功能是专业化的,人工智能同样如此,其能力是单一的,AlphaGo除了下棋以外什么也做不了,它的功能是专属的。AlphaGo的出现主要是人们希望制造出一种机器,能够在围棋的人机大战中展现人工智能的能力。所以,AlphaGo在设计之初的目标功能就是通过一系列的运算、反馈和调整,展现人工智能的智能程度。在计算机技术的支撑下,AlphaGo的结构实现了这一功能的要求,在人机大战中逐渐占据主动并战胜人类。人工智能功能的单一化也就意味着人工智能没有常识。没有常识的人会被认为是愚蠢的,人工智能也是没有任何常识的,它的自动学习也并不能将所学到的知识运用到其他工作上,并不能实现新的功能,即使它在这一单一功能上“碾压”人类,也并不意味着它能超越人类,因为技术的出现肯定是为了帮助人类做那些人类做不了的事。就现代人工智能而言,“从哲学上讲,神经网络并没有学到任何东西,机器人并不能学习到常识,这就需要人们重新找到一个逻辑通道,让机器人可以按常理做事情”。[6]

再次,从技术产生的基础上看,人工智能的基础并未取得飞跃进展。

现有的人工智能只能在某个维度、层面,或者某个特定的领域接近、达到甚至超过人类的智能,但是它的基础,即得以产生的理论基础、算法等很难推广到其他领域,建立在专业化设计理论基础上的人工智能在通用性或者功能协同方面还有很远的路要走。事实上,当前支持人工智能所取得成功的大多数技术都是几十年前发明的。也就是说,人工智能所取得的进展并非是人工智能本身的进步,而是源于这些年计算机技术的进步,源于计算机计算能力和运行速度的提升。人工智能在人机大战中获胜,根源在于出现了更快的计算机,而非更“聪明”的计算机,从上个世纪80年代人机大战开始到现在的发展历程也展现了这一点。

当前信息处理和计算技术的两大基础源于图灵机和冯·诺依曼计算机体系。图灵机是模拟人们用纸笔进行数学运算的过程,也就是说它是使用预定义的规则对一组输入符号进行处理然后输出。可见,计算机处理的规则和预定义是人为限定的,因此图灵机的工作成效是由人们对于外在物理世界的认识深度所决定的。当前计算机的工作方式依然是编写程序和运行程序,而这一工作方式源于冯·诺依曼计算机体系的存储程序原理。自其诞生至今,虽然计算机的运算速度越来越快,程序设计也逐渐模块化和自动化,但其基本的工作方式和理论基础并没有变。可见,由于计算基础就缺乏自适应性,虽然经过了大半个世纪的发展,当前人工智能在感知、认知、控制等多方面都存在需要突破的瓶颈,需要构建新的信息处理和计算模式。

即使在大数据和深度学习算法出现后,专业化人工智能的水平得以快速发展,如语音识别、图像分类,乃至AlphaGo的进化版AlphaGoZero,都基于深度神经网络和海量数据的训练,但是人工智能的深度学习仍然局限于特定领域,其环境迁移和自适应能力依然较差。人工智能在应用大数据、云计算、物联网等技术的过程中,所要解决的关键问题是对数据的分析、理解和有效利用,因为这些数据大部分是非结构化数据,人工智能对非结构化数据的理解能力与人脑相比还是很弱的。按照蔡曙山先生的观点,“人类认知从初级到高级可以分为五个层级:神经层级的认知;心理层级的认知;语言层级的认知;思维层级的认知;文化层级的认知。……简称为神经认知、心理认知、语言认知、思维认知和文化认知。……前两个层级的认知即神经认知和心理认知是人和动物共有的,称为‘低阶认知’,后三个层级的认知是人类所特有的,称为‘高阶认知’”。[7]蔡曙山先生进一步认为,人工智能在这五个层级上都无法达到人类智能的水平。[8]

二、人工智能与自我意识

自我意识即意识到自我,意识到“我”是一个独立存在,与其他存在不同。从主客体的角度看,自我意识即自觉到“我”是主体,一种主体地位的自我确认。随着自我主体地位的确认,主体之外的其他存在作为对象和客体而存在,对这些外在于意识的对象的意识作为对象意识。正是有了自我意识、对象和对象意识的区分,使世界区分为“你、我、他”。人类找到了自我,从混沌中独立出来就需要处理“自我”与其他对象之间的关系,因此自我意识是以人的主体性为基础对自我与对象之间关系的确认和反思。

自在的人作为自然界的一种存在,与其他存在一样,是一种“自然而然”的存在;但是人与其他自在的存在不一样的地方在于人还是具有自我意识的存在,即一种“自为”的存在,具有了认识世界和改造世界的主体身份。作为主体的人既是自在的存在,又是自为的存在,这种双重性在人的身上实现了对立统一的关系,主体才产生了改造世界以适应自身需要的自我意识,人才成为真正的主体,成为物质世界里唯一的能动性存在。具有能动性的主体不仅能够观念地反映对象,更能以实践的方式改造对象,使对象成为主体所希望的样子,也就是使自然世界向属人世界转变。在自我意识的推动下,人不仅将对象意识与对象区分开,更重要的是还将二者联系起来,实现了主客体的辩证统一。自我意识不仅能将意识外的对象纳入,形成对象意识,也能将“自我意识”作为对象纳入,形成对自我意识的意识,即反思性的自我意识,反思自我的存在意义和价值,寻求意义和价值的标准,站在历史和现实的维度上对人、世界以及人与世界的关系进行反思和批判。这种哲学的反思和批判是人类自我意识的最高形态,是“大智慧”。

人工智能能具有自我意识吗?从目前来看,答案是否定的。

人工智能发展至今,它所需要的数据并非完全靠外在的输入,在实现最初的输入之后,人工智能能够独立进行运算、反馈和调整,在此过程中实现对数据的分析和理解,以此为依据做出相应的判断和行为,也就是说它的行为有自己的逻辑。随着深度学习的深入,人工智能还能在一定程度上摆脱人类的经验,进行自主学习,在练习中发现人类还未发现的规律,摆脱经验的束缚,做出新的判断。也就是说,随着学习理论的发展,人工智能的数学模型将会越来越深刻和复杂,人工智能会按照自己的逻辑进行思考和行动。但这样复杂和深刻的思考和行动是自我意识吗?很显然不是。现有的人工智能都不具备区分“你、我、他”的自我意识,更高级的“大智慧”更是无从谈起。即使是最新的AlphaGoZero,它的行为也只是一种计算,无论是围棋还是象棋,对它而言是同一种计算,只是计算的规则不同,计算之外的,诸如目的和意义之类则是人的解释,计算之外是否有其他存在、自身是一种什么样的存在等问题,则不在它的计算范围之内。离开自我意识,仅靠计算是无法算出这些问题的答案的。

将人类意识打开,可以粗略地区分为反应、决策和反思三个层次。

人工智能在反应层次虽然能够比较容易地实现由刺激到反应这一过程,即可以给人工智能设定在遇到某种条件时就触发某种行为,生产线和仓库的人工智能基本属于这种类型。但是,这个层次的人工智能面临两个问题:一是需要根据环境进行设计,而环境又是丰富多彩的,设计中附加的条件是各不相同的,人工智能自身无法实现这一点;二是即便将所有的条件和环境都符号化,输入人工智能,且不说由于数量级的庞大而无法成功,即使是成功输入,人工智能在面对具体条件时要做出正确反应的难度和时间也是不可想象的。

人工智能在决策层次面临的困难比反应层次更大。因为决策是基于专业知识进行分析预测,寻找问题的解决方案。人工智能要实现这一行为,虽然可以通过训练神经网络在一定程度上实现,如AlphaGo,依靠的就是对以往数据的分析和对自身数学模型的训练。但真正的决策需要在场性,需要经验,需要社会的道德和良知等,而这些都在人工智能的能力之外。

反思层面的意识对人工智能而言更难。人工智能虽然能够存储思考的过程和细节,但是何时开始反思并不是给一个刺激,人工智能做出反应就能解决的。人工智能如果要反思的话,要对具体的环境、主体的直觉和情绪符号化,构建出人工智能所需要的数学模型,而这些在现有基础上是不可能的。

在人类意识中,即使是解决专门领域的问题,人工智能也并不具备优势。因为解决特定领域的具体问题,除了一些公共知识以外,更需要与所解决问题相关的领域知识;解题中除了演绎法以外,还需要归纳法和抽象的方法,只有归纳和抽象才能产生新的知识;对于问题的模糊性、不确定性和不完全性所需要的解决办法也必须是模糊的、不确定的。在目前条件下,这些要求对人工智能而言是解决不了的。人工智能所能解决的是试探性的解决办法,即通过神经网络的训练,不断地试探,缩小结果偏差,从而找到更好的算法和模型。

三、人工智能与意义

什么是意义?从行为的角度看,意义即行为的效果。从语境的角度看,意义需要在语境中获得,

不同的语境所展现出来的意义是不一样的。

人工智能能够明白意义吗?众所周知的塞尔“中文屋论证”(TheChineseRoomArgument)早就给出了否定的答案。

在1999年,塞尔简要地描述了这一论证:[9]

“设想一个母语为英语的人,他对汉语一无所知,他被锁在一个装有中文字符盒子的房间中,房间中还有一本关于中文字符操作的指导手册(程序)。又设想房间外面的人往房间里送进一些中文字符,房间里的人对这些字符依然是不认识,而这些送进来的字符是以中文提出的问题(输入)。再设想房间里的人按照程序指导能够发出中文字符,而这些中文字符也正确回答了那些问题(输出)。程序使房间中的人通过了图灵试验,然而,房间里的这个人确实对中文一无所知。”

“这一论证的要点是:如果中文房间中的人通过操作适当的程序来理解中文,但他却并不理解中文,那么,任何仅仅基于同样程序的数字计算机也是不理解中文的,因为中文房间里的人所不具有的东西,任何计算机作为计算机也不可能具有。”

塞尔的这一论证表明与人交流的人工智能系统必须能够判断人的意图,而非简单地完成字面的意思。只按照“指导手册(程序)”运行的人工智能只是一个自动工具,并不具有多少智能,就像你告诉它你饿了,而它却将你家的宠物狗煮了一样。人工智能对行为意义的明白,实质是明白其行为的效果。在中文屋内的人的行为只是一个机械反应,他根本不知道他的行为的意义。

以现代机器学习理论为基础的人工智能,如AlphaGo及其进化版,通过海量的训练,不断完善算法和模型,在这种情况下,对可能的每一个结果的优劣进行判断,并作出最合适的决策。这样的人工智能似乎具有一定程度的人类智能,但它依然无法解决行为意义的问题。因为AlphaGo只是根据设计好的神经网络模型不断计算人类下棋的状态,并根据计算评估胜率。可见,AlphaGo与中文屋内的那个人是一致的,只对输出结果负责,而对意义是无知的。

四、人工智能与实践

马克思认为:“全部社会生活在本质上是实践的。凡是把理论引到神秘主义方面去的神秘东西,都能在人的实践中以及对这个实践的理解中得到合理的解决。”[10]认识源于实践,实践推动认识的进步,也是检验真理的唯一标准。霍华德也说:“智能是一种计算能力——即处理特定信息的能力,这种能力源自人类生物的和心理的本能。尽管老鼠、鸟类和计算机也具有这种能力,但是人类具有的智能,是一种解决问题或创造产品的能力。”[11]

人工智能能进行实践吗?答案依然是否定的。人工智能通过自动化、物联网等技术可以做很多事情,它可以控制机械设备、计算机,在生产线上甚至要求人类为它服务,但这些人工智能的行为并非实践。

首先,人工智能无法构建实践思维。

具备实践思维的人不仅会关注实践的客观条件,还会考虑实践的影响,更会关注实践中意识的反作用。在实践中,主体的世界观、人生观、价值观得以确立。人工智能并不具备自我意识,从而也就无法思考人工智能与世界的关系,更不用说像人类一样反思自我意识的来源、局限和作用,并在实践中提升对世界的认知,从而形成对世界和价值的基本看法。

其次,人工智能无法形成实践原则。

马克思主义的实践观表明,人与世界的关系是辩证统一的,人类需要不断地将天然自然改造为属人自然,并在这一实践过程中成长和完善。人工智能虽然可以代替人类从事某些行为,但这些行为本身并非实践。即便是在深度学习理论的支撑下,人工智能的行为前提依然是规则的输入,即便是从零开始学习,虽然抛掉了人类经验的输入,但还是需要输入最初的运行规则,如最初的围棋规则,而运行规则的设定不是人工智能所能做到的。

再次,人工智能无法通过实践证明自己。

马克思认为,实践源于对世界的准确认识,落脚点是要改变世界。如前所述,人工智能虽然可以从事某些行为,但它并不具备一定的思考能力,不能根据环境条件和状态的不同做出不同的判断。虽然人工智能在导航、自动驾驶、流水线等方面的应用表现出一定的“智能”,但无法解决的自我意识问题让人工智能仅能作为一种工具存在。

五、结论

综上所述,人工智能目前只能作为一种技术而存在,对人类而言,是对人脑工作方式的模拟,是对人脑逻辑思维能力的强化,是人脑的延伸,在可预见的未来并不会获得主体性,“奇点”不会出现。

首先,人工智能是对人脑神经网络的模拟。

通过对人类各种感觉的模拟为人工智能提供信息源,如语音识别系统和图像识别系统使人工智能似乎具有了视觉和听觉。感觉信息源的输入是人工智能的第一步,对人脑的工作方式进行模拟,实现物理信号向神经网络转变则是人工智能的一大进步,人工智能越来越具有与人脑类似的思考和认知能力。机器学习则是人工智能发展的关键,在不断模仿人类意识的过程中,通过不断地学习和反馈,人工智能能够在没有明确指令的情况下做出反应,这是人工智能走向通用化的关键。

其次,人工智能是人脑的延伸。

人类的发展历史可以被看成是一部工具的制造史,工具制造源于人类的自然条件的限制。因此,从根本上讲,工具的制造和使用突破了人类自然能力的局限,工具的发展是人类能力的体外延伸。机器化生产将人从繁重的体力劳动中解放出来,人工智能则将人从重复的机械劳动中解放出来。因此,人工智能是新的人力外化。人工智能的发展是用物化智能延伸和扩展人脑和机体的某些功能。人工智能强化了人的脑力,是人类智慧的一种延伸和发展。

具体而言,人工智能作为人脑的辅助方式,强化了人脑的机能。在信息处理、信息存储、信息整理上,人工智能都远远超越了人类,增强了大脑的思维能力。从这个意义上说,人工智能的发展不是威胁人类的主体地位,而是巩固和扩展了人类的主体地位,并为人类的自由全面发展提供支撑。人工智能应用领域的拓展,使人类逐渐摆脱了机械重复的劳动,为主体的创造性和全面发展提供了可能。

再次,人工智能不会获得主体性。

人工智能对人类思维能力的强化是有限度的,人类思维和意识是整体的,而非单一的。人工功智能不仅不具备自我意识,不能理解人类的意义,也不能从事人类的实践活动,还不能理解和把握人与世界的本质联系。人工智能对人类思维的模拟是不完整的,只是具备和强化了部分的人脑功能。“我们可以用实验的方法把‘思维’归结为脑子中的分子和化学的运动;但是难道这样一来就把思维的本质包括无疑了吗?”[12]

马克思认为,人的主体性是在实践活动中形成,并在实践中得以确认和强化的。人工智能不可能获得人一样的主体性,其行为也不具备实践性。因为主体本质是具有做出选择和行为的自由,实践是有计划和目的的,而人工智能只能够在既定规则的范围内行动,不具备自由意志,也就不能成为真正的主体。而且,马克思还认为,“人的本质并不是单个人所固有的抽象物,在其现实性上,它是一切社会关系的总和”,[13]人工智能在其行动中不可能体会到意义,从而获得一定的社会属性并结成某种社会关系。

参考文献:

[1]程海东,刘炜.语境:技术的现实存在场域[J].东北大学学报(社会科学版),2014(6).

[2][13]马克思恩格斯选集,第1卷[M].北京:人民出版社,2012:146,60.

[3]马克思恩格斯全集,第10卷[M].北京:人民出版社,1998:254.

[4]马克思恩格斯文集,第8卷[M].北京:人民出版社,2009:195-196.

[5][美]瓦托夫斯基.科学思想的概念基础[M].北京:求实出版社,1989:9.

[6][美]皮埃罗·斯加鲁菲.离人工智能奇点还有多远[J].中国经济报告,2017(5).

[7]蔡曙山.论人类认知的五个层级[J].学术界,2015(12).

[8]蔡曙山,薛小迪.人工智能与人类智能——从认知科学五个层级的理论看人机大战[J].北京大学学报(哲学社会科学版),2016(4).

[9]JohnSearle.TheChineseRoomArgument[EB/OL].https://plato.stanford.edu/entries/chinese-room.

[10]马克思恩格斯全集,第3卷[M].北京:人民出版社,1960:31.

[11][美]霍华德·加德纳.多元智能新视野[M].北京:中国人民大学出版社,2008:7.

[12]恩格斯.自然辩证法[M].北京:人民出版社,1972:209.

戴琼海:搭建脑科学与人工智能的桥梁

戴琼海

国务院参事,CAAI理事长,中国工程院院士,清华大学信息学院院长、教授、人工智能国际治理研究院学术委员

人工智能作为21世纪最具有影响力的技术,正在包括诸如机器人、语言识别、图像识别、自然语言处理等诸多领域发挥着重要作用。脑科学被誉为“人类科学最后的前沿”,认识脑的奥秘是对人类的终极挑战。而更重要的是,脑科学的发展将推动人工智能科学从感知人工智能到认知人工智能的跨越。

4月28日晚,戴琼海院士做客第一期“探臻论坛”,以线上方式为大家带来了一场题为“搭建脑科学与人工智能的桥梁”的精彩讲座。

嘉宾介绍

戴琼海,中国工程院院士,中国人工智能学会理事长,清华大学自动化系教授,清华大学生命科学学院兼职教授,清华大学脑与认知科学研究院院长。国家自然科学基金委杰出青年基金获得者,长江特聘教授。主持多项国家基金和国家科技攻关项目。曾获国家技术发明一等奖和二等奖各一项,国家科技进步二等奖一项。

目前正在承担国家重大仪器项目:多维多尺度计算摄像仪器,旨在提供从亚细胞、组织到器官的多尺度动态观测数据,揭示神经系统结构和功能等脑科学规律,为创建新一代人工智能提供支撑。

核心内容

1.科研从失败做起。科研的实际过程是充满失败的,一系列在无数次失败后才成功的故事,启示我们失败通往成功的道路是螺旋式的,面对失败要保持恒心毅力,不断总结从失败中吸取经验。

2.什么是认知科学?认知科学是一门对心智及其过程进行多学科研究的科学。如何对心智及其过程进行准确而全面的观察是认知科学的基础,同样是巨大的挑战。认知科学包含六大研究领域:心理学,哲学,语言学,人类学,人工智能,神经科学。 

3.脑成像技术的发展与困境以观察为出发点,脑成像成为了认知科学的一个重要工具。通过脑成像,可以记录下脑在认知过程中发生的变化,从而直接揭示认知的奥秘。但是由于细胞间错综复杂的连接关系,我们不能进一步从微观、介观、宏观层面简单理解认知过程,导致认知科学遇到发展瓶颈。

4.生命科学成像仪器RUSH-I的研发为了突破现阶段脑科学观察的瓶颈,大视场、高分辨显微镜的研发是现阶段的主要任务。清华大学牵头开发研制了超宽、超分、超快的显微镜仪器生命科学成像仪器RUSH-I。RUSH-I是多维多尺度高分辨计算摄像仪器,可以全脑尺度下观察到细胞运动,为从亚细胞、细胞、组织到器官结构与功能活体研究提供了新工具。

5.光电技术在人工智能中的机遇与挑战现在的人工智能复杂度急剧攀升、算力需求激增、前算力与能耗大成为人工智能发展的瓶颈,因此需要寻求光电结合的方式进行计算。利用光电技术颠覆传统计算范式,从而提升算力。再以清华人工智能(T-AI)结合新一代认知智能,实现最后软硬件结合完成整个光电智能计算系统。

6.戴琼海老师对同学们的建议戴琼海老师也给同学们分享了做研究的经验和建议,希望同学们做研究要紧密结合国际前沿和国家重大需求,做学问要记住问题驱使是原创,方法驱使是改进,并且学会用理科的思维思考问题去攻克方式实践,更重要是的学会哲学表达。

讲座实录

科学研究从失败做起

2016年2月11日,爱因斯坦于100年前提出的引力波概念被证实,其是由两个黑洞的合并过程而产生的强烈的引力波信号。引力波的论证史是一个曲折的过程,爱因斯坦经过提出概念、修正概念、遭遇拒稿、发现并修正论文错误等多次失败之后,才最终将“论引力波”研究成果发表,而更艰难的引力波的实验验证则经历了100余年的历史。无独有偶,居里夫人发现镭的过程也是极其复杂的,在连续工作4年依然一无所获后,居里夫人发现,也许镭并不像想象的那样是一团晶体,而后其发现器皿中不起眼的污迹便是镭。所以由此可以看出,失败是经常的,成功只是一瞬间的事情。X射线的发现同样是伦琴在多次实验失败的基础上,不断改进实验方法在偶然间发现的,这发现的过程也少不了伦琴能够敢于打破旧观念,提出新概念的创新精神。

这些故事说明,失败通往成功的道路是螺旋式的,所以同学们在做研究当中会碰到很多失败,在这当中我们一定要有兴趣,而往往我们会被失败打败,所以我们一定要有恒心有毅力。兴趣是暂时的,毅力是永久的,既然选择某一方向,要学会在复杂的问题中找到自己成功的道路。失败是对追求者的考验,成功是对追求者的回报。

认知科学概述

1969年,英国人莱特希尔爵士为国会提供报告,全盘否定人工智能的发展,人工智能陷入寒冬。为了改变人工智能发展窘境,认知科学之父朗格特-希金斯提出了包括人工智能、心理学、数学、人类学等学科在内的一个综合学科概念,称之为认知科学。按照现代定义,认知科学是一门对心智及其过程进行多学科研究的科学。如何对心智及其过程进行准确而全面的观察是认知科学的基础,但同样是巨大的挑战。认知科学包含六大研究领域:心理学,人类的高级心理过程;哲学,现代科学的方式与途径研究思维、意识等;语言学:语言如何与认知交互、如何形成思想等;人类学,使用认知科学的研究方法和理论;人工智能,认知模型的计算机实现;神经科学,认知的生物学(神经层面)原理。

介观尺度观察与脑成像

认知科学是基于假设完成的,但在认知科学发展过程中多次出现先前的假设被后期实验推翻的情况,这导致大家对认知科学产生了疑惑。而脑成像技术的发展则为洞悉大脑的认知过程提供了可能。以观察为出发点,脑成像成为了认知科学的一个重要工具。通过脑成像,可以记录下脑在认知过程中发生的变化,从而直接揭示认知的奥秘。2012年,马萨诸塞总医院在science发文,发现了脑联结的规律网格结构,与电路板阵列类似。此网格结构的发现让我们初探了大脑的认知过程,同时带来了新的科学挑战。

电路板阵列

由于不能准确观测细胞间的网格结构是如何错综复杂进行联结的,导致我们不能在微观、介观和宏观层面理解神经细胞的工作原理、信息处理方式和协作认知机制,这导致脑科学在2015年左右陷入短暂的低谷。在脑成像观察时,必须兼顾大脑的微观细胞层面、介观环路层面与宏观全脑层面,才能实现对认知过程的准确观察。这就需要研发大观测视场、高观测分辨率的仪器,进一步了解细胞与细胞之间的关系。

新皮质中的网格结构

脑科学—人类最后的科学

什么是脑科学人类大脑重约3磅(1.4公斤),由上千亿个神经元组成,每个神经元又包含1000多个分支,共同构成了庞大精细的神经网络。它一点都不比无穷宇宙简单,可以说人类大脑的神经科学(Neuroscience)是“人类科学最后的前沿”,认识脑的奥秘是对人类的终极挑战。脑科学的发展,对脑疾病的防治、人工智能产业的发展有着巨大的推动作用。

脑与全身的关系主要表现在中枢神经系统通过遍布于人体,传出神经信号与器官建立连接,发挥对组织器官保护机制。而器官通过免疫系统反馈组织状态,也是脑与全身协调的重要表现。

世界各国的脑计划世界各国目前正在积极实行脑计划,其中美国和欧盟起步较早。2013年4月2日,美国时任总统奥巴马宣布启动“通过推动创新型神经技术开展大脑研究”计划;2013年10月,由15个欧洲国家参与发起欧盟脑计划,但目前已宣告失败,并准备重新开始;2014年,由日本科学家发起神经科学研究计划;2016年2月澳大利亚脑联盟正式成立;中国的脑计划以脑认知功能的解析和技术平台为一体,形成认知障碍相关重大脑疾病诊治和类脑计算与脑机智能技术为两翼的“一体两翼”布局,具体研究布局还在准备中。当前,各个国家围绕统计大脑细胞类型、建立大脑结构图、开发操作神经回路工具、了解神经细胞与个体行为的联系四个方面分别开展研究。

生命科学成像仪器RUSH-I

根据视场和分辨率,通过将显微镜技术映射到二维坐标系中可划分为四个部分,现阶段的主要工作是攻克大视场、高分辨显微镜中的技术难题,搜寻这些技术对新一代人工智能的推动作用。清华大学联合浙江大学、中科院上海光学精密仪器机械研究所和其他三家单位一起共同研制目标是为超宽、超分、超快的显微镜仪器。

仪器研制思路创新与矛盾分析视场和分辨率本身是一对矛盾,视场越大伴随着分辨率就越低。因此,期望在1cm2的视场里看到一只鼠的全部脑及其细胞,如果以传统方式,通过加工曲面解决视场问题是难以实现的,其加工难度与视场正相关。另外,面对极大的数据量,相机的带宽、链路传输的带宽、存储写入的带宽都面临极大压力。最后,结合以前做人工智能所积累的经验(无损信息编码采集、稀疏集结构学习、信息重构)设计出适应相面弯曲和计算重构图像的新方式来解决此问题。经过两年时间,课题组共同努力研发出生命科学成像仪器RUSH-I,实现了拍得快、存得下的效果。

生命科学成像仪器RUSH-I生命科学成像仪器RUSH-I是多维多尺度高分辨计算摄像仪器,可以全脑尺度下观察到细胞运动,比如实时监测实验所用的免疫细胞运动。并首次对音乐刺激下的清醒小鼠全脑皮层神经网络活动进行高速成像,展示出小鼠全脑皮层、亚细胞级、结构与功能统一。

RUSH-I为从亚细胞、细胞、组织到器官结构与功能活体研究提供了新工具,并得到国际上脑科学家们的广泛认同。利用该仪器所做的相关工作发表已经发表在多篇高水平期刊上(如NaturePhotonics,NatureMethods,NatureNeuroscience)。

第二代RUSH-I仪器的研制从2017年开始着手研究,并于2018年1月搭建完成的第二代仪器RUSH-II,具有400nm分辨率,准备观察大鼠和猕猴的脑部。达到的技术指标为,视场大小达到1cm2;分辨率达到0.4μm;每帧图像达到3.36亿像素;成像帧率达到30帧/秒;数据通量达到100.8亿像素/秒,是当前国际上视场最大、数据通量最高的高分辨率光学显微镜。

新一代认知智能

当前的国际最为流行的四大神经网络分别为:卷积神经网络、循环神经网络、脉冲神经网络、图神经网络。但如何实现高能效、可解释、易扩展、具有长短期记忆的新一代认知智能成为发展难题。美国情报系统的IntelligenceAdvancedResearchProjectsActivity(IARPA)部门启动了皮质网络机器智能MICrONS计划(2016),项目经费1亿美金,被称为阿波罗脑计划。其绘制出啮齿动物1mm2大脑皮层中的所有神经回路(记录并测量10万个神经元的活动和连接),研究大脑计算方式,并运用这些研究发现更好地影响机器学习和人工智能算法。由哈佛大学、卡耐基梅隆大学和贝勒医学院的研究团队牵头,对人工智能发展进行探索。

纵观人工智能的发展,经历了从符号主义到联结主义的发展演变。而自2016年之后,受脑科学和心理学等学科的启发,人工智能正在向生物智能的转变。因此,下一代人工智能将要实现人工智能从感知决策与控制到认知决策与控制的转变。

光电技术在人工智能中的需求与机遇

人工智能的需求与瓶颈现在的人工智能面临复杂度急剧攀升(比当前超过30万倍)、算力需求激增、摩尔定律逐步失效等问题。当前,算力与能耗成为人工智能颠覆性发展的瓶颈。要寻求以光三维传播来代替硅基的电的一维计算,对材料的要求较高,因此需要寻求光电结合的方式进行过渡,并且,计算媒介的改变会带来颠覆性的变化。

发展光电技术的历史机遇需求与瓶颈:现有存算分离的电子计算范式无法满足人工智能技术的发展需要;理论与算力:已有光学神经网络的理论模型必将推动人工智能算力跨越式发展;材料与工艺:当前微纳光电材料与工艺取得的突破为光电集成研发提供了条件;

光电技术引领颠覆性技术革命当前我们要利用光电技术颠覆传统计算范式,研制采存算一体的光电计算系统,从而提升算力。对比之下,光电技术的算例高达1014MAC/s/cm2,而电子技术的算力仅为1011MAC/s/cm2。并且功耗提升也会达到百万倍之多,光电技术功耗为4×1012MAC/J,电子3×106GMAC/W/s。清华大学在光电上的研究与麻省理工学院和剑桥大学、明斯特大学并驾齐驱,且我校独特的衍射神经网络和其他方案有所不同。

光电智能技术的路线规划与清华方案从光电技术出发,以清华人工智能(T-AI)结合新一代认知智能,最后进行软硬件结合,建立整个光电智能计算系统。目前,研究中心具有3-5个国家重点实验室,通过大企业联盟集成攻关发挥研发优势,以满足国家重大需求、面向国民经济主战场的原理机样。

目前,清华大学脑认知院主要集中在突破神经环路动态成像技术、揭示神经血管的耦合机制、解决脑免疫的百年难题与从脑认知到脑联网的颠覆性突破四大科学研究上。当下,我们结合工作基础,制定清华方案,所做的工作主要包括脑观测、脑健康、脑模拟与脑认知,体现学科之间的交叉融合,实现产学研创新。

戴琼海老师对同学们的建议

论坛最后,戴琼海老师也给同学们分享了做研究的经验和建议,希望同学们做研究要紧密结合国际前沿和国家重大需求,做学问要记住问题驱使是原创,方法驱使是改进,并且学会用理科的思维思考问题去攻克方式实践,更重要是的学会哲学表达。

研究者可分为三类,分别是牛人、高人和神人,他们分别对应着自己的特质:做一研究做到极致、做别人做不到的事和做别人想不到的事。

同时,要胸怀宽,境界高,眼光远,不要让战术的勤奋掩盖了战略上的懒惰。正如德鲁克所述,战略不是研究我们未来做什么,而是研究我们今天做什么才有未来。

清华大学人工智能国际治理研究院(InstituteforAIInternationalGovernance,TsinghuaUniversity,THUI-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。

新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG

人工智能和物质与意识论文

如何理解人工智能的发展与人类意识关系

如何理解人工智能的发展与人类意识关系如何理解人工智能的发展与人类意识关系学号:姓名:院系:专业班级:指导老师:摘要:随着人类发展,人工智能也逐渐被放在主流位置,并且也得到快速而稳固的进步.但另一方面,机器人是否有真正的意识以及机器人"意识"与人类"意识"的关系的问题日益凸显.对此...

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇