人工智能会超越人类智能吗*
关于“人工智能能否超越人类智能”这个热点问题,自人工智能产生之日起就争论不休。本文将从两个对立方面来探讨这个问题:一是人工智能为什么不会超越人类,如塞尔的生物自然主义;
J.R.Searle,,,London:Penguin,1989.
二是人工智能为什么会超越人类,如库兹韦尔的奇点论。
R.Kurzweil,,London:Viking,2005.
这是一个“一体两面”的问题,其另一种表述是相对于人类智能的类人智能是否可能。前者立足于人类中心主义,认为人类智能是迄今甚至今后宇宙中唯一的生物智能(自然认知系统),人工智能(非生物智能)不过是其衍生物,是一种人工认知系统;后者立足于超人类主义,认为人工智能会达到人类水平甚至超越人类,人类所能做的是如何造出与人类目标一致的所谓的“友好的人工智能”或“负责任的人工智能”或“可信的人工智能”,
避免和禁止对人类产生威胁的机器人出现。这两种对立的观点涉及生命、意识、智能和认知的相互关系,在笔者看来,这两种观点现在和未来很长一段时间会一直争论下去。
不过即使到现在,我们仍然会发现许多款劳力士机心都是采用KIF防震器。我们在其子品牌帝舵表的机心中也会发现大量采用KIF防震器的机心。
总之,培养留守儿童良好的学习习惯需要家庭、学校、社会同关注、齐参与,我们教师作为留守儿童的“家庭外监护人”,在他们的家庭教育缺失的情况下,要通过不断地探索,让他们感受到教师的关爱,培养他们的自信心、自尊心,培养他们的自主学习的习惯,让他们在初中三年的学习和生活中温暖、充实、有收获。
一、AlphaGo是否超越了人类智能人工智能和认知科学的发展业已说明,人的认知与计算机的认知(计算)之间有着紧密的联系。计算机包括人工智能实质上是以机械的方式代替生物的方式模拟人脑的功能。计算—表征主义是我们熟悉的“老式人工智能”范式,也称为强人工智能,它虽然受到后来的联结主义、动力主义以及具身认知科学中新兴起的嵌入认知、具身认知、延展认知以及情境认知这些新研究纲领的责难,也受到哲学和心理学的挑战,如智能机是否有意识和情感,是否有理解力等棘手的问题,但在技术层面,目前智能机运行所依据的理论仍然没有超越计算—表征主义范式,就像发射人造卫星所依据的理论仍然是牛顿理论一样,尽管牛顿理论遭到了相对论的批判和超越。这说明计算—表征主义仍然有强大的生命力。
从语境论的视角看,如果进入计算—表征主义的语境中,我们就会发现,它的主张是有道理的,因为它对计算、表征、思维和智能的定义,决定了它要执行的策略和方法论,比如思维被定义为计算,智能被定义为推理与表征,“图灵测试”实质上是图灵巧妙迂回地回答了“机器能思维”的问题,暗示了这种智能是一种“好像智能”或“假装智能”(相对于人类智能)。在这个定义的语境下进行操作,计算—表征主义就是合理的,超出这个定义的语境,就不是计算—表征主义了。塞尔的“中文屋论证”就是对强人工智能的反驳,即计算机只是操作符号而不理解其意义。在笔者看来,塞尔犯了语境错位的错误。计算—表征主义一般并不主张计算机会像人那样去理解,它只是在做计算和推理,计算推理达到的结果与理解达到的结果一致就行,至于计算机理解不理解无关紧要,毕竟计算不能完全代替认知(认知的含义远大于计算),或者说认知不仅仅是计算,还包括知道和理解。所以,塞尔是在人理解的语境中谈认知或思维的,计算—表征主义是在计算推理的语境中谈认知或思维的,语境不同自然就会产生分歧与争论。因此,我主张的“语境同一论”就是要解决由于语境不同而产生的分歧和无谓争论。
当然,如果计算—表征主义也一味地坚持计算机会像人那样理解地认知,那就有问题了。毕竟计算机只是运用规则和推理操作符号,至于符号的含义是什么它是不知道的。在这个意义上,笔者赞成塞尔的观点。
那么,人们会问,作为人工智能典型代表的AlphaGo是否战胜了人类智能呢?关于这个问题,笔者的看法是,目前机器智能没有超过人类智能。这就看我们如何定义“智能”概念了。人类智能应该包括计算力、感知力、预测力、直觉力、洞见力、情感力、意向力(自我意识)和自语境化力(能够自动融入语境),这些能力笔者统称其为“人类的综合能力”。智能机显然还远没有达到这种综合能力的水平,虽然它具有强大的计算力和储存力,而且这两种能力还远远超过人类。目前的智能机显然没有情感和自我意识,更不能随着语境的变化而自动融入新的语境,如不能应对自然语言的理解难题,因为智能机毕竟还是机器,它不能像人那样自主地融入语境,尽管设计者可以在一个给定范围内给它设置语境,如一个特定的语义网构成一个语义域或知识库。相比而言,人类的语境是历史地自发地生成的,无需一个额外的设计者。
这个关于意识的水形态类比似乎很有道理。但是,我想反驳的是,分子或原子的排列重组与神经元的排列重组是相同的吗?或者说,物理层次的排列重组和生物层次的排列重组是同一的吗?在笔者看来,这两个层次之间存在着质的差异,一定有某些环节我们还没有掌握;如果使用适应性表征来描述则更为恰当,因为物理系统与生物系统都具有适应性表征功能,只是前者是基于物理规律自发的无机属性,后者是基于生物规律有感受性的有机属性。
除了计算,表征也是不可或缺的。这就是形式语言表征对于人工智能的不可或缺性。由此我联想到一种无表征主义,如德雷福斯就主张行为的无表征性。在我看来,没有表征就不会有知识,更不会有科学和人工智能。道理很简单,因为我们不知道通过什么方式来表达或描述这些行为,这就是知识表征,虽然存在意会知识(无法或不能表达出来的知识),那是个体在纯粹理解的意义上谈论的,如果要呈现出来,则必须通过某个媒介如自然语言来描述,自然语言就是我们常见常用的表征形式。所以我主张,无表征就无知识,也不会有智能。即使是心理表征,虽然不可见,我们也常常使用心理状态或信念状态等概念来显示其存在。这充分说明,只要我们思维着、行动着、探索着,表征活动就时刻存在着。可以说,表征行为是人类及其理性衍生物人工智能特有的,因为表征本身包含意义,有意义就意味着理解和解释行为。但在理解和解释的层次上,人工主体(智能体)的表征就是一种呈现意义的方式,其中包含的意义是人类设计者赋予的。这完全不同于自然现象的“表征”,这里的表征之意是属性呈现,因为自然不“知道”它所呈现属性的意义。因此,呈现属性意义上的表征只有在人解读它后才是表征,也就是这种表征只能由人去捕捉和解释。这就涉及产生意义的语境问题。
众所周知,人是语境化的主体,人工主体是语境化的吗?在我看来,人工主体能够像人类主体那样在特定语境中做决策。人类具有在不同语境中行动的能力,也就是能够适应语境的变化。人工主体严格说是无语境的,或者不能自主地感知语境的变化,除非人类设计者给它设置语境(知识库),它在这种被给予的特定语境中行动,如搜索、决策。所以,一种人工主体,如果它能够依据人类设置的语境适应性地做决策,就应该具有一定的智能,如计算和推理,这种智能是一种适应性智能。根据适应性表征的思想,凡是能够进行适应性表征的实体(无论是人类、动物还是人工智能体),自然就具有了适应性智能。人类是自然进化的主体(subject),具有自我意识性,智能体是人工设计的一种代理主体(agent),虽然可能有意向性(指向他物),但没有自我意识性(指向自身)。所以,两种主体本质的不同在于自我意识性,即知道自己是谁。这意味着,一种主体,如果缺乏自我意识性(我称之为反身性或自反性),尽管它可能具有主动性、自主性、意向性,也不能被认为是与人类相提并论的主体。在人工智能中,在用英语表达一个具有主动性智能的实体时,都使用agent而不是subject,原因在我看来就是这两个词在描述“主体性”特征时,意义不完全相同。subject是指人,agent是指一种中介机构或程序或算法,也可以指代人,但大多数情况下不是指具体的人,而是指代一种机构,如法人、婚介所、律师事务所。subject表现出与其周遭环境的直接相互作用特性,而agent则表现出与其环境的间接作用特性,即中介性。人工智能就是使用agent对人类智能的模拟或再现。
概言之,人工智能无论多么智能,但目前还不会拥有我们人类的意识特性。这表明智能不一定需要意识,如机器人,有意识也不一定有智能,如刚唤醒的植物人。如果说意识是一种生物现象(自然长期进化的结果),具有自然进化能力,那么无意识的智能就是一种物理现象,只是这种物理现象具有适应性表征能力(可称为机器进化能力),且这种进化能力是完全基于理性的。问题是,基于理性的人工认知系统会产生意识吗?
二、理性策略是否会产生有意识智能第二是意识论证。科学特别是生物化学已经揭示,目前的有意识物体均是碳基的(有机的),即是由碳水化合物组成的有机生物。这是地球上生物长期进化的结果。按照自然进化逻辑,硅基的机器产生智能是不可能的。机器要有意识特征,如感受性,必须与人类结合或融合,如在人脑或人体中嵌入某个智能硬件。单独的机器意识是不可能的,也就是仅仅是硅基的物理装置是不会产生意识的。若“脑机混合”产生意识是可能的,那也是人机混合或人机一体的新型人工智能。但是,这种碳基—硅基的混合体已经不完全是碳基生物了,而是合成物种产生的另类智能。
由于人工智能严格遵循理性策略,它不能应付非理性就是可理解的。所谓理性在笔者看来就是遵循规则行事,否则就是非理性。比如,所有游戏都有规则,所有比赛都有规则,否则就乱套了。或者说,理性就是规范,就是约束,如社会伦理、法律、交通秩序都是规则,人人都应该遵守。这就是哲学所说的规范性。人工智能是完全理性的事业(至少目前是这样),是严格按照规则完成任务或解决问题的,这就排除了非理性的因素。在这个意义上,人工智能及其应用领域机器人学,就是按照规则做事,尽力避免非理性。这既是一种研究策略,也是一种权宜之计,因为到目前为止,虽然人工智能得到超乎寻常的发展,但我们还不能赋予机器人这种人造物以情感和心灵,即机器意识。所以说,要求机器人有情感有心灵甚至有道德感和审美感,一方面是对人工智能研究要求太高,另一方面可能超越人类设计者的能力。但是,人类设计者让机器人依据目标适应性地行动还是能够做到的。
人工智能中的方块—世界(block-world)问题就是理性策略的典型例子。该问题是说,使用机器人的手每次捡起一个方块,并以某种方式重新安排那些方块的排列,如由横排列变成竖排列。这个任务由人做起来是再简单不过的事情,但由机器人来做就不那么简单了。如果机器人学能够解决这个问题,与此相关的其他问题就迎刃而解了。事实上,现代机器人可以做到了。这个问题给笔者的启示是,智能行为不必是有意识的,就如生命现象不必是有智能的一样。人工智能的快速发展告诉我们,人类一旦创造了机器智能,该智能就可以没有意识驱动仍可自动运行,这就验证了科学哲学家波普提出的客观知识世界的思想:物理世界和主观世界相互作用产生知识世界,知识世界一旦产生,就不再受前两个世界的制约,有自己独特的运行规律。人工智能产生的知识或智能,很可能就属于这种情形。如果是这样,人工智能脱离人的控制可能就不是神话或科幻了,因此,我们在大力发展人工智能和机器人产业的同时,也要警惕这种可能性的出现,毕竟“嫦娥奔月”不再是神话。
当然,就目前的发展水平和认知能力来看,人工智能最终达到或超越人类智能的可能性不大。这主要是基于如下判断:其一,人类智能不等于人工智能,智能不等于智慧,认知也不等于计算,而且硬件很要紧,即生成智能的物质是碳基的还是硅基的至关重要,或者说,意识现象包括认知和智能是生物现象。其二,人工认知特别是人工智能是非生物的(不排除将来人机融合的可能性,或制造出有生物身体的机器人),生物与非生物之间的鸿沟可能难以逾越。其三,如果具身性是智能的必要前提,那么具身机器不仅要能模拟人的思维和行为,同时也要拥有人的各种心理能力和感受性,这恐怕难以实现。笔者认为,人工智能就是模拟人的思维和行为的机器智能,只是“看起来”像人的行为而已。人类能否实现强人工智能的目标,至少从目前的技术水平来看可能性不大。即使是深度学习、强化学习以及深度强化学习和大数据技术的出现,也只是增强了智能,并不能让机器拥有意识。显然,如何让机器拥有意识、情感、感受性等这类心理能力是实现强人工智能的瓶颈。
不论强人工智能能否实现,造出完全像人甚至超越人智能的硅基智能机(物理认知系统)是不可能的,这里存在一个“硬件鸿沟”问题,即构成智能的材料(生物的还是物理的,有机的还是无机的)是至关重要的。这是认知科学中的“硬件要紧不要紧”问题。不弄清心智是如何从无机物到有机物形成的问题,我们就不能解决单单从无机物(机械装置)产生心智的问题。即使最终我们通过人机融合而产生人类水平的智能,那也只能算作“杂交”智能;即使这种“杂交”智能达到甚至超越人类智能,它也不是强人工智能意义上的机器智能(即完全由物理装置产生类人的智能或智慧)。因此,跨越硬件产生心智是个更难的问题。这意味着,人类智能与人工智能的重要差别就在于构成材料的不同。在物理装置上实现的只能是智能,而不是智慧。智能与智慧是两种智能区分的标志。或者说,人工智能可以有强大的智能,但不会有人类的灵性和智慧。
三、人工智能不会超越人类智能的四个论证关于物理或机械的人工智能会不会超越生物的人类智能的问题,笔者提出如下四个论证:
第一是上帝隐喻论证(或哲学论证)。我们暂且假设有神论成立。如果上帝存在,上帝创造了人类,由于上帝是万能的,人类智慧就决不会超越创造人类的上帝的智慧。但正如哲学史上的论辩,上帝是否能举起连他自己都举不起的石头呢?若不能,上帝就不是万能的,但有神论者相信上帝是万能的,这种矛盾导致上帝不存在的结论。从无神论的立场看,即使上帝不存在,如果我们承认生物进化论是正确的,人类就是自然世界创造的,人类长期的自然进化加上特有的文化进化共同造就了心智。两种截然相反的立场的差别在于只是将上帝换成自然,或者说自然就是上帝。如果自然有灵性,自然就创造了人类。人工智能是人类创造的,按照这个逻辑,人工智能就不会超越创造它们的人类,正如人类不会超越创造他的上帝或自然。在这里,人类就是人工智能的“上帝”。所以,人工智能不可能全面超越(而非某个专门方面)创造它的上帝——我们人类。
如果我们承认机器有进化能力,那么基于适应性表征的机器进化自然会引出另一个问题,即这种无意识主体能否产生类人的高级智能。我们知道,人工主体完全是理性主体,也就是排除了非理性因素,如情感、意志、心灵、自我意识等。人工智能仅仅凭借理性就能产生人类智能恐怕是不靠谱的,也就是说,仅仅依靠符号推理和表征不足以产生人类智慧。计算—表征主义已经表明,依据理性策略可以产生强大的计算和表征能力,除此之外则无能为力。这意味着,人工智能是“有限智能”,或者说,理性是有边界的,难以应对非理性。
第三是具身论证。从意识论证自然会推出具身论证,具身论证又可进一步推出情感、审美论证,因为这些非理性因素都是基于生物身体的。至少到目前为止,这些具身的精神或心理成分是生物学意义上的。具身认知科学业已表明,相对于物质现象的精神或心理现象是一种现象意识,也就是现象学上所说的感受性体验,如疼痛、色彩体验。这种现象意识是如何产生的,认知科学和神经科学还没有说清楚,更遑论人工智能了。这就是为什么认知科学和现象学的结合成为哲学研究领域的一种趋势。但是,目前人工智能和机器人学领域的学者好像并不欢迎现象学,认为现象学这种高大上的哲学就像韩国的整容术,看似唬人但不能遗传。
这显然是一种认知主义的立场,与传统现象学几乎不相容。
由上式可知,系统状态x1e=xeq的平衡位置并未确定。即当导轨的俯仰角为0°时(导轨保持水平),小球可以在导轨上任意位置保持平衡,电机通过带传动在导轨上施加的平衡力矩,使得小球保持静态平衡。在实际问题中,显然选取x1e=0(小球位于导轨正中心),故Ue=0。
第四是耗散论证。众所周知,生物不进食就难以生存,物理装置没有能量供应也不能运作。不论是生物体还是机械装置,都是需要消耗能量的,用耗散结构理论的术语说,它们都是耗散结构,需要能量维持其演化。生物体消耗能量是生物化学的消化过程,物理装置消耗能量(石油、电或太阳能)是物理化学过程。因此,给这些物体“断供”就是对其“釜底抽薪”。计算机包括人工智能、机器人这种物理装置的“阿喀琉斯之踵”就是“断电”或“拔插销”。所以,这些智能装置若没有电能就是一堆“废铁”。换句话说,人工智能存在的前提是“持续供电”,这与燃烧汽油的汽车没有什么不同。
在语言教学结束时,教师会进行总结。这时,教师也可运用留白艺术,让幼儿进行总结,更进一步掌握本节所学的知识。
将表1中的前十组数据作为原始数据建立预测模型,计算得到参数a=-0.1581,b=9.0963。经计算实际值、第二组预测值及误差分析结果,如表3所示。
概言之,目前的人工智能还只是离散的功能性智能,而不是整体的反思性智能。前者基于计算—表征主义,后者基于生物自然主义。有无意识是区分这两种智能的关键。而有无意识的物体在成分构成上可分为硅基的物理装置和碳基的生物体。有无自我意识可能是判别智能机能否超越人的关键。
四、具身人工智能是否需要生命如果说物理的人工智能不可能超越生物的人类智能,那么物理智能和生物智能的结合形成的具身人工智能或合成的类人智能是否有可能呢?关于这个问题我将围绕泰格马克的《生命3.0》展开讨论。
泰格马克在《生命3.0》的中文版序中坦诚,“过去,我们一直认为,智能是一种神秘的东西,只能存在于生物(特别是人类)身上。但是,从我作为一位物理学家的角度出发,智能只是运动的基本粒子处理信息的特殊过程,并没有一条物理定律说‘建造一台在各方面都比人类聪明的机器是不可能的’。”
在他看来,我们目前只看到智能的冰山一角,大自然中还潜伏大量智能等待我们去开启,人工智能有可能成为人类有史以来最美好的事情,也可能成为最糟糕的事情。美好的事情是人们期望的友好人工智能的出现,成为人类的助手;糟糕的事情是,人类不愿看到危害人类的机器人的出现。
在笔者看来,主要取决于我们如何理解和发展人工智能。比如,泰格马克所在的“未来生命研究所”的“欧米茄”研究团队致力于开发通用人工智能。该团队一直秉承强人工智能的理念——建造人类水平的智能机或超级智能机。该团队认为,只要让智能机“自我改善”地迭代不断持续下去,最终就会让这台机器变得非常聪明,足以学会所有有用的人类技能,这就是机器学习。可以设想,一旦机器能够通过迭代不断学习下去,它们超越人类的智力也不是不可能。事实上,在纯粹计算和认知技能意义上,智能机一定会超越人类,如AlphaGo,但是加上意识、心灵、情感这些非智能的因素,就很难说了。毕竟人类的心智和智能是大自然几十万年甚至更长时间进化出来的生物智能,要想制造出非生物的超级智能恐怕可能性不大,除非将生物的和非生物的智能相结合,因为基于生命的智能与非生命的智能完全不是一回事。这就需要从生命、意识和智能的定义和关系谈起。
对河北省农村文化消费进行分析,其消费额相对较低,多数乡镇农村文化消费模式十分单一,基本上应用在文化消费上的是教育方面的开支。例如居民在文化娱乐享受方面开支不高。此外,农村文化消费的主要对象是电视、网络等方面,书报方面的消费少之甚少[1]。
如果说意识是一种“涌现”现象,这在哲学上很难反驳。这与我们说知识是主体与客体相互作用的产物一样,看似有道理,实质上是一个笼统、模糊的说法。根据强物理主义,涌现是粒子重排后产生的一种集体行为,就如同原子协同排列产生激光一样。这意味着哲学上的涌现与物理学上的涌现不同。托诺尼等从数学上给出了意识的信息整合理论,主张一个有意识的系统必须进行信息整合而成为一个统一体。
G.Tononi,M.Boly,etal.,“IntegratedInformationTheory:FromConsciousnesstoItsPhysicalSubstrate,”,vol.17,2016,pp.450~461.
这意味着意识是统一的,它不能是独立的几个部分,比如我对“我”的意识是一个“我”,而不是两个“我”。不过,信息整合理论只适用于状态数量有限的离散系统,如量子系统,对于状态变化的连续系统是无能为力的。我们的大脑是连续系统,计算机是离散系统,这两种系统的组成方式(结构)和认知状态肯定是不同的。
生命3.0未来能否出现,目前存在很大争议。在笔者看来,完全非生物的或完全物理的生命不可能出现,除非我们将生物学、物理学和人工智能技术相结合来设计制造人机融合的类人生命。这意味着,生命就其本意而言,就是依赖于生物体的。这是自然和人类发展史以及进化生物学揭示的规律。生物是有机物而非无机物。在这个意义上,塞尔关于意识的生物自然主义是有道理的,毕竟我们还得承认生物学规律。
然而,从物理学看,生命在最根本意义上也是物理的,即由原子甚至更基本的粒子组成。泰格马克之所以设想了生命3.0,正是基于这一观念。这里存在一些重要的问题并产生巨大的分歧:知识或思想是基于生物学还是基于物理学?超级智能的所谓“奇点”(智能爆炸)是否存在?人类能否创造出所谓的有益的智能或友好的智能?第一个问题是问思想源于何处;第二个问题是问智能机是否能超越人类;第三个问题是问智能机是否安全,或者说其目标是否与人类的一致,能否最终取代人类。前面业已部分回答了后两个问题。
事实上,这三个问题都不好回答,甚至没有答案。这些问题涉及生命、意识、智能这三个概念的区分及其相互关系。如果进一步细分的话,这三个概念之间的关系不外乎以下四种:①生命→智能→意识,或生命→意识→智能;②意识→生命→智能,或意识→智能→生命;③智能→意识→生命,或智能→生命→意识;④生命↔意识↔智能。这些关系蕴含的问题是,是生命产生意识或智能,还是意识产生了生命或智能,还是智能产生了生命或意识,还是生命、意识和智能是相互依存的。或者说,三者之间是否存在优先性或因果性。下文将做详细的分析。
一是对新媒体时代的适应性反应不够迅速。不能充分运用网络信息技术手段,整合培训资源,开展实用性、针对性、趣味性强的网络课程,增强教育培训的吸引力和实效性。二是培训模式还不够多样灵活。尽管在培训工作中实现了领导上讲堂、开展现场实战培训等,但在培训模式上更多采取灌输、填鸭式教学模式,交流和讨论等互动的力度不够。三是培训途径上相对单一。缺乏市场运作意识,不能充分利用市场资源,如高校、各类优秀企业最新的培训理念、先进管理理念、先进培训设备等,培训效果不尽如人意。
泰格马克把生命定义为“能保持自己的复杂性并进行复制的过程”,智能被定义为“完成复杂目标的能力”,意识被定义为“主观体验”。
生命的复杂复制能力是基于DNA的,可由生物学说明;智能的执行复杂目标的能力是目标导向的,既可由目的论说明,也可由因果论说明;意识的主观体验特征是由感受性(感受质)来例示和描述的,可由知觉现象学或体验哲学和具身认知科学来说明。上述表明,生命3.0的设想与波普尔关于第三世界的知识世界的独立性设想是一致的。由此看来,泰格马克的观点均是基于现代科学和哲学的,并没有超凡脱俗之新鲜感。比如他坚持的强物理主义在20世纪初的逻辑实证主义那里就出现了,这就是卡尔纳普的物理主义,只是卡尔纳普更强调物理学语言的统一性,即“物理学统一论”。泰格马克基于物理学的强人工智能立场源于他的“物质层面的独立性”的重要性,即认识到物质层面的大部分细节对于智能是无关紧要的,如计算可在任何媒介上实现,仿佛拥有生命,与采取何种物质形态无关。这意味着,无论是什么物质,只要它可以排列成能够实现通用计算的基本单元,如相互连接的神经元,就能够完成计算,仿佛它们是有生命的,与它们的物质组成无关。这是认知科学中的“硬件不要紧”观点。对于生物自然主义者,组成生命的硬件很重要;而对于强人工智能者,硬件不重要,智能可以在任何硬件上实现,硬件的物理细节可以忽略。
如果我们承认生命先于意识或智能,或者说生命产生了意识或智能,那么我们就承认了进化论,也就意味着先有了生命,才会有意识或智能,这是生命—意识连续性论题,也是生物自然主义的观点。如果进一步主张物质孕育了意识或智能,这就是一种强物理主义观点,如泰格马克就认为“我们宇宙中的生命的最终极限取决于物理定律,而不取决于智能”。
不论是生物自然主义还是强物理主义,哲学立场都是唯物主义。如果认为意识先于生命或智能,如柏拉图的“理念论”,认为世界存在于人的观念中,世界不过是人的理念的摹写,这是唯心主义的观点。智能先于生命或意识的情况不存在,即使现在的人工智能也是先有人才有智能机。如果认为生命、意识和智能是同时存在并相互作用,这就是多元交互论了,这种观点介于唯物主义和唯心主义之间。在哲学上,笔者坚持一种新的唯物主义——适应性表征主义,这是一种本体论上的语境实在论和方法论上的语境同一论的结合观点,
认为作为实存者存在的生命、意识和智能,同作为概念存在的“生命、意识和智能”,在描述和理解的意义上是离不开表征的。作为概念它们各自的指称是否明确、是否实存?在形成表征关系时它们是否语境同一?这就要求我们首先要对这些概念做准确的界定,正如泰格马克所做的那样。
人工智能的发展业已证明,智能的确可以在非生物的物理硬件上实现,尽管这种智能还不是生物意识或生物智能。那么,为什么有形的物理形态的实体(如大脑和计算机)中产生了智能这种抽象无形的东西呢?泰格马克认为这个问题已经有了答案。“在感觉上,智能之所以没有物质形态,是因为它独立于物质层面而存在。它似乎拥有了自己的生命,而且,这个生命并不依赖于、也不会反映出物质层面的细节。”
根据泰格马克的看法,计算这种智能是粒子在时空中排列出的形态,在排列过程中,粒子本身并不重要,重要的是它们组成的形态,这意味着,物质对于智能无足轻重,粒子形态的结构才是最重要的。因此,结构决定功能(属性)而非物质决定功能。由此推知,泰格马克所坚持的立场实质上是一种结构—功能主义。换句话说,智能的出现是由粒子排列的结构决定的,而不是由物质本身是什么决定的。对计算这种智能来说,“智能的出现并不一定需要血肉或碳原子”,
进一步说就是不一定需要意识。这就是泰格马克强调的“物质层面的独立性”的含义。
人工神经网络的强大计算能力是“物质层面的独立性”的又一个例子,因为这种计算能力与它们底层的构造物质毫无关系。我们知道,人工神经网络是人工智能中机器学习的一个典型领域。学习能力无疑是衡量一个主体是否拥有智能的一个重要方面。人类有学习能力,当然有智能。智能机也会自主学习,也应该有智能,因为智能机“知道”如何以合适的方式排列起来,也就是懂得如何进行适应性表征。因此,“一团物质想要学习,必须对自己进行重新排列,以获得越来越强的能力,好计算它想要的函数,只要它遵守物理定律就行。”
显然,泰格马克这里讲的适当的“排列”,就是笔者强调的“适应性表征”,因为不同的排列就是不同的表征方式。只是这里的“表征”指的是属性的“呈现”,而不是意义的“表达”和“理解”。在后一种意义上,智能机是一种无意识的智能,只按照程序或算法“按部就班”完成设定的目标。在这种意义上,具身人工智能的实现可以没有生命,但需要能量。
五、意识是否是粒子排列组合的涌现特性根据泰格马克的强物理主义,意识也和生命、智能一样,也一定是遵循物理定律的。在他看来,任何能体验到痛苦的系统都是有意识的,即使不能运动,如瘫痪的人。这意味着,粒子的某些排列的确产生了感受性或意识经验,如我们的大脑,而有些则没有,如石头,就如同碳原子的不同排列产生了石墨和金刚石一样。泰格马克认为,这个问题导致了三个彼此独立的意识难题:第一个是相当难的问题——是什么物理性质区分了有意识和无意识系统,或者说,是什么性质让不同的粒子排列产生了不同的结果。若弄清这个问题,就可以搞清哪些人工智能系统是有意识的,由此推知,未来的人工智能系统也可能拥有意识,尽管它们只是以软件的形式存在,并没有连接到任何传感器上。第二个是更难的问题——物理性质如何决定感受性,或者说,物理性质如何决定体验是什么,如红色的玫瑰,可口的咖啡。第三个是真难的问题——为什么会出现意识。这与为什么会出现生命和为什么会出现宇宙同样难。“难”是针对科学而言的,科学之外当然有其他解释,如神学解释。这里排除神学解释,因为这是最省事的说明,即一切都是上帝创造的。
根据可检验与否,泰格马克认为相当难的问题是可验证的,更难的问题是部分可验证的,真难的问题是不可验证的。意识理论要想成为科学的,就应该是可验证的,或者说是可证伪的,不能验证的理论是没有意义的。在这里泰格马克坚持的是波普尔的证伪理论。在他看来,“只要一个理论能预测你大脑在哪些过程是有意识的,那它就是一个预测物理系统是否有意识(这是相当难的问题)的科学理论”。
例如,认知神经科学使用功能性磁共振成像(fMRI)、脑电图(EEG)、脑皮层电图(ECoG)和磁脑图(MEG)等新技术手段来读取大脑中发生的信息,有可能弄清楚哪些部位负责产生了意识这个目前仍悬而未决且充满争议的问题。
因此,意识谜题的揭开还有赖于技术的进步。
假设科学最终能够揭示意识之谜,从物理学的视角看,我们需要解释什么样的粒子组合拥有了意识这个问题,意识肯定有某些高于和超越粒子性质的性质,这种现象就是“涌现”,就是系统科学中的“整体大于部分之和”现象。比如控制论就是一种适合研究神经元相互连接和意识涌现的理论,因为它的正馈机制说明了涌现的产生,反馈机制解释了自我指涉性或自反性。
这种属性对于人工智能最为重要,因为依据这种性质我们就可能造出人工意识和智能。自我指涉性或自反性是侯世达提出的让系统产生意识、让无意义元素涌现意义的一个重要概念。根据这个概念,认知和思想就是通过大脑中复杂的正反馈循环从神经机制中涌现出来的。也就是说,人脑可被看作是一个自我指涉的生物系统,一个“奇特的循环”,
D.Hofstadter,,NewYork:BasicBooks,2007.
它通过自我指涉产生了自我意识。这是一个通过自反性多次循环达到适应性表征的过程。
泰格马克以“湿润”为例说明意识的涌现特征。单个水分子不具有湿润的性质,只有大量的水分子组成液态时才会涌现出湿润性质。对于单个水分子来说,固态、液态和气态均是涌现现象,它们具有单一水分子所没有的性质。意识就像固态、液态和气态,是一种涌现现象,拥有一些高于和超越其组成粒子性质的属性。事实上,化学中的化合物相对于其组成原子均是涌现属性。对于我们人类,死亡了,意识也就消失了,因为人脑活着时的粒子排列不同于死亡时粒子的排列,即人死亡后大脑中的粒子会重新排列。
在笔者看来,一方面,我们对人工智能的发展期望过高或过于苛求,说到底人工智能只不过是人造的、服务于人类的工具,就像汽车、飞机一样,它是人类理性的产物,本质上是排除非理性因素的。另一方面,我们又对人工智能的发展过于担忧,以为不受控制的人工智能发展会超越人类并最终控制甚至危害人类。这种对人类未来的终极关怀是可以理解的,因为人类担心自己会失去尊严和安全。这种担忧是“杞人忧天”,是人类中心主义思想在作怪。如果人类要毁灭自己,核武器不知道已经毁灭多少次了,为什么要担忧和惧怕人工智能呢?事实上,人类就连自身如何思维或认知的机理都还没有搞清楚,怎么能指望人工智能能够理解它们自己的认知过程呢?怎么能指望没有人格的人形机器人有道德呢?
就人机对弈而言,虽然人输给了AlphaGo,但这并不意味着它超越了人类的智能,理由有六点:第一,智能机背后是设计它的一群人,这等于是一群人借助机器与一个人对弈,一个人当然敌不过一群人,“三个臭皮匠胜过一个诸葛亮”;第二,以单一能力超过人的评价是“以偏概全”,比如狗的嗅觉比人灵敏,鹰的视力比人强大,我们并不能够说狗和鹰的智力超过了人,同样,计算机无疑比人的计算力强,我们也不能因此说计算机超过了人的智能;第三,一个人的智能并不能代表整个人类的智能,集体意识或智能不是一个人能够表现出来的;第四,机器可以连续工作,而人不能,所以在“累”的意义上,人类就不如智能机,累会使人体力下降、专注力下降,因而会影响智力的发挥;第五,在灵活性、应变性、综合性方面,正如上述所说,智能机远不如人类,更不用说情感和自我意识了;第六,我们有自我指涉或反身性,如知道“我是谁”,这是产生自我意识的一个标志,智能机显然没有这种能力,尽管它可以有反馈机制。如何让智能机拥有这种能力,可能是未来人工智能的发展方向。
珠江是我国水电开发的重点流域,梯级枢纽众多,具有较高航运价值的梯级枢纽船闸主要分布于广西、广东境内,仅“两横一纵两网十八线”高等级航道上就建有梯级枢纽18个,已建和在建船闸(升船机)共25座,其中西江航运干线上建有5个梯级枢纽,已建和在建船闸11座,西津、贵港、桂平、长洲等4个梯级都建设了多线船闸。在多线多梯级船闸联合调度方面,两省(区)都开展了有益的探索和实践。
泰格马克从定义“生命是什么”开始。他将自宇宙大爆炸以来的生命分为三个阶段:生命1.0(简单生物阶段,如单细胞生物),生命2.0(文化阶段,如人类社会的产生)和生命3.0(科技阶段,如超级智能机的发明)。他给生命下的定义是,“一个能保持自身复杂性并能进行复制的过程。复杂的对象并不是由原子组成的物质,而是能阐明原子是如何排列的信息,这种信息由比特组成。”
这里的原子排列组合就是DNA,DNA复制信息。也就是说,他将生命看作一种能够自我复制的信息处理系统,其信息软件既决定了它的行为,又决定了其硬件的蓝图。根据这种生命观,生命1.0的形成是靠自然进化而不是靠设计;生命2.0的硬件也是进化来的,而其软件在很大程度上是设计的,这里的设计是指人用来处理感官信息和决定行动时使用的所有算法和知识;生命3.0完全摆脱了自然进化的束缚,自己设计硬件和软件,就像科幻电影中所描述的场景那样,机器人自己设计并制造自己。
解释变量:“营改增”、企业外购商品和劳务作为解释变量。“营改增”作为虚拟解释变量,当虚拟变量的取值为1时,表示样本企业已实施“营改增”政策;当虚拟变量的取值为0时,表示样本企业未实施“营改增”政策。由前文可知,不管是税负变动还是盈利能力的变动都与企业外购商品及劳务息息相关,因此本文选取外购商品及劳务作为第二个解释变量。
那么,如何将有关意识理论固定在一个坚实的物理基础上呢?这就需要回答是什么让物质具有了主观体验,也就是要做到能记忆、能计算、能学习、能体验。这四种能力是有意识系统的基本特征。如果意识是一种物理现象,那么它为什么感觉起来如此“非物质”呢?或者说,为什么感觉起来是独立于物质层面而存在呢?在泰格马克看来,意识的确是独立于物质层面的东西,因为它只是物质中的一种模式,就像智能手机的操作系统是独立于其物质层面一样。这自然会推出“意识即信息处理”的观点,即一种强物理主义的思想——意识是独立于物质层面的,是信息进行处理时的感觉,而且物质的结构并不重要,重要的是信息处理过程的顺序。
按照强物理主义,如果粒子的排列遵循一定的原理,那就会产生独立于粒子层面的涌现行为,并产生完全不同的感觉;如果信息处理过程也服从某些原理,那就会产生一种更高级的涌现行为,即意识现象。这意味着,感觉和意识都是系统的涌现行为或属性。问题是,信息处理过程产生意识要遵循哪些原理呢?泰格马克认为必须要满足四个必要条件:
(1)信息原则:一个有意识的系统拥有充足的信息存储能力;
(2)动态原则:一个有意识的系统拥有充足的信息处理能力;
(3)独立原则:一个有意识的系统与世界的其他部分之间拥有充分的独立性;
(4)整合原则:一个有意识的系统不可能由独立的各部分组成。
凡是能够满足这四个原则的系统,就是有意识系统,如人脑。然而,人工智能系统,如具有网络生命或意识的虚拟人(思维克隆人或软件),
也满足这四个原则,也是有意识系统?这一点绝大多数人不会认可。不管信息整合理论正确与否,它得出的一个结论是对的,那就是,迄今的计算机构架不可能产生意识,因为不仅它们的连接方式的信息整合度非常低,而且它们的物质组成成分也完全不同。这与泰格马克自己给出的意识是主体体验的定义不符,因为人工智能系统缺乏的正是主观体验这一核心属性。主观体验不仅与意识相关,也与情感相关。这些主观因素都是人工智能所缺失的。这就是说,拥有意识和展示出有意识行为是两回事。比如,我们说人类和人工智能都有认知能力,但不能说它们都拥有意识。智能和意识相关但还不是一回事,因为智能可以是无主观体验的认知,如操作符号,而意识则不能,如感觉。
2013年政府实施了以唤醒民间投资为目的的税制改革,在特别试验研究费税额扣除制度中又增加了企业间的共同研究。2015年为促进企业的开放式创新,将扣除率从之前的12%扩充至对方是国立研究机构或大学时达到30%,为企业时达到20%。
即使未来人工智能系统产生了意识,或者互联网的几十亿台电脑连接涌现出意识,人类也体验不到这种系统对意识的感觉是什么样的。因为体验是个体的而不是集体的。这与他心问题类似,即我不知道他人的感觉是什么样的,但这不妨碍我知道他人有感觉、有意识。这就是人工意识的感受性问题。也许这种人工感受性与我们人类的感受性是类似的,如感受到疼痛的感觉。但是,根据泰格马克的看法,人工智能的体验空间可能比人类的还大得多,因为我们的每一种感觉器官只对应一种感受性,而人工智能的传感器和信息内部表征的种类可能要多得多。而且在体验速度上,人脑的神经元信号的每秒传输速度比起人脑大小的人工智能体要慢几百万倍,因为电磁信号以光速传播。这意味着,人工智能的意识经验的实现是可能的,“如果未来一个巨大的人工智能拥有了意识,那么它的几乎所有信息处理都是无意识的。”
就像人脑中有意识的信息处理过程似乎只是一个巨大的无意识的冰山一角。这就是说,人工智能体验的大部分可以通过无意识过程来实现,即可能通过一个嵌套的层级结构来实现。
7月25日,甘南公路管理局投入人员75人,挖掘机8台,装载机6台,双轿自卸车6辆,经过3天2夜的连续奋战,于7月27日上午10:30分完成便道贯通,保证了应急抢险车辆和机械通行。7月28日抢险队在交通保障组的指导下按照山岭重丘区四级公路标准对临时便道进行技术改造,通过6天5夜施工,共完成钢筋笼路基防护150余个,用片石1200立方米;完成挖土方24600立方米,路基填筑28500立方米,浆砌片石防护1500立方米,铺筑路面砂砾11270立方米,于8月2日下午6时完成了全长2.3公里、宽6.5米—7.5米的砂砾路。
然而,问题依然存在,因为即使人类让人工智能拥有了意识,我们也仍然不知道意识为什么会出现。也许“意识之谜”
永远是个谜,仍然需要认知科学家和哲学家孜孜不倦地关注和研究。
意识之谜解不开,意义问题就解决不了,因为有了意识才有了意义。当然,如果意识永远就是个谜,永远让我们对它保持着好奇心,永不停歇地探究它,这也未必不是好事!
格鲁克赋予了序曲新的意义,极大地加强了序曲在歌剧中的地位。他认为歌剧的序曲应该是能够让听众了解接下来内容的引子。这与改革之前序曲与正文之前毫无联系或者多部歌剧共用同一序曲的现象相比强化了歌剧戏剧性的统一。
六、结语在宇宙中,从物理现象到生物现象再到意识和智能现象,在时间上跨越了上百万年乃至上亿年。在物质形态上经历了基本粒子、蛋白质、细胞、生物体包括低级动物(如昆虫)和高级动物(如人类)。有了人类文明以后,人类社会形态又经历了从原始部落到国家形态的各类社会形态。人类社会的形成是宇宙意识和智能最直接的体现。科学技术发展是人类智能的直接结果,人工智能则是人类智能的衍生物。至于人工智能这种衍生物是否会达到或超越人类智力水平,就目前的科学技术发展水平和哲学认知水平来说,还不好下结论。不论我们对人工智能和机器人持积极态度还是消极态度,是支持还是反对,是乐观还是悲观,都不会影响人工智能的发展,这是世界大势所趋。至于人工智能和机器人是否会超越人类并代替人类,我们不必过于担心,笔者相信,聪明的人类一定会找到解决各类问题的办法。人工智能就是人类解决复杂问题的手段和工具。既然是手段和工具,不论这种工具多么智能,它们只不过是人类驯服的、服务于人类的类人物种而已。
猜你喜欢泰格语境意识创作与做梦:精神分析语境下的“植田调”解读艺术生活-福州大学厦门工艺美术学院学报(2022年1期)2022-08-31如何培养孩子的节约意识动漫界·幼教365(大班)(2021年11期)2021-11-20例谈概率统计备考的五个意识中学生数理化·高三版(2021年3期)2021-05-14主题语境八:语言学习(1)疯狂英语·爱英语(2020年9期)2020-01-07主题语境九:个人信息(1)疯狂英语·爱英语(2020年9期)2020-01-07改变,不断努力向前故事家·花开不败(2019年10期)2019-09-10初一学生符号意识的培养应从“理解”入手数学学习与研究(2017年3期)2017-03-09TAGHeuer品牌大使李易峰迎来29岁生日Carrera传承系列计时码表见证难忘瞬间BOSS臻品(2016年6期)2016-06-12消防意识故事作文·低年级(2016年3期)2016-04-08跟踪导练(三)2时代英语·高二(2015年1期)2015-03-16人文杂志2022年6期
人文杂志的其它文章善抑或恶:人工智能的根本伦理问题*“赋能”与“挤出”双效应下数字治理的“补丁”策略——基于代际发展权的分析框架制度变迁与社会主义基本经济规律——重读《苏联社会主义经济问题》*空间正义视阈下中国交通发展的战略选择*文化的过渡与文学的新生——论《霜叶红似二月花》的复杂意义*算法赋能的场景议题与应用框架——以数字政府建设为对象*关于AI最终能否超越人类智慧这里通往终极答案
由网易科技与AIE实验室共同启动的OmegaAI计划今天开启第一个研究问题:人工智能最终能否超越人类智慧?
将此问题列为首个研究问题,是期望从基础的定义及历史发展中为大众清晰的呈现人工智能的“真容”。
关于人工智能的定义及发展
关于人工智能的定义,美国斯坦福大学人工智能研究中心尼尔逊教授提出“人工智能是关于知识的学科――怎样表示知识以及怎样获得知识并使用知识的科学。”,而另一个美国麻省理工学院的温斯顿教授认为:“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。”
1956年夏季,在美国达特茅斯学院(Dartmouth College)举行一次重要的会议,会议上以麦卡赛、明斯基、罗切斯特和申农等为首的科学家共同研究和探讨用机器模拟智能的一系列有关问题,首次提出了“人工智能”这一术语,它标志着“人工智能”这门新兴学科的正式诞生。此后在人工智能的发展历史上经历了多次高潮-低潮的阶段,从历史上看,在人工智能发展快速的时期往往会出现大量乐观观点,但最近这一次人工智能热潮中,乐观情绪却转变成人工智能威胁论。
人工智能威胁论的产生
谷歌技术总监雷·《奇点临近》作者库兹韦尔(Ray Kurzweil)预言人工智能将超过人类智慧。他在书中写道”由于技术发展呈现指数式的增长,机器能模拟大脑的新皮质。到2029年,机器将达到人类的智能水平;到2045年,人与机器将深度融合,那将标志着奇点时刻的到来。”除此以外,支持人工智能威胁论的代表人物包括著名的物理学家霍金,微软创始人比尔盖茨,特斯拉CEO马斯克等。
著名物理学家霍金患有肌萎缩侧索硬化症(ALS),使用英特尔公司开发的一套通信系统和外界交流。这套系统涉及基本的人工智能技术,可以接收霍金的想法,从而提出词语供他选用。当被问到如何改进这套系统的时候,霍金提出了人工智能可以毁灭人类的想法。
特斯拉CEO马斯克对待人工智能的态度更为极端,2014年8月,他在twitter推荐尼克-伯斯特罗姆的著作《超级智能:方法、危险和策略》时写到:“我们需要超级关注人工智能。它的潜在危险性超过核武器“。
比尔·盖茨2015年1月29日在Reddit的“Ask MeAnything”论坛上表示人类应该敬畏人工智能的崛起,它可能将最终构成一个现实性的威胁,但它在此之前会使我们的生活更轻松。他的原话是“我正在关注超级智能。首先,在开始的时候机器会为我们做很多工作,这些机器并不是超级智能。如果我们处理得很好的话,这应该是具有积极意义的。那之后的几十年,人工智能会强大到足以引起人们的关注。我同意伊隆·马斯克和其他一些人的说法,不明白为什么有些人并不关心。”
亚姆博尔斯基与皮斯托诺的最新假设
据每日邮报最新报道,科学家们研发人工智能的本意是用其在灾难中帮助保护人类,然而在最糟糕的情况下,人工智能可能脱离人类掌控,变得更加邪恶。美国路易斯威尔大学计算机学家罗曼·亚姆博尔斯基(RomanYampolskiy)与企业家弗德里克·皮斯托诺(FedericoPistono)近日公布榜单,假设人工智能失控引发的各种恶果,包括奴役人类、毁灭宇宙等。假设包括:
1.人工智能可能接管资金、土地、淡水、稀有元素、有机物质、互联网、计算机硬件等资源,以便能够形成垄断;
2.人工智能可能接管利邦政府、地方政府、跨国公司以及慈善机构的控制权;
3.人工智能可能泄漏威胁社会结构的“危险信息”,比如政治真相、政府机密等。举例来说,研究人员预测人工智能将创造“行星级混乱机器”,在全球发动宣传攻势,让政府成为公众反对的焦点;
4.人工智能可能建立受到严格监控的国家或利用现有监控体系,隐私概念几乎形同虚设,甚至思想上的隐私都被剥夺。
5.人工智能可能强迫所有人在大脑中植入芯片,将人类变成“电子人”,以便于被其直接控制;
6.人工智能可能奴役人类,包括强迫人类接受冷冻或关入集中营;
7.利用完美洞察人类生理机能的能力,人工智能也可能折磨和虐待人类,令痛苦最大化;
8.人工智能可能对人类使用杀精剂,这可以说是对人类来说最糟糕的结果,可能导致人类灭亡;
9.人工智能可能对地球造成不可逆转的破坏。地球是太阳系的重要组成部分,而太阳系又是整个宇宙的组成部分,为此可能造成连锁反应;
10.鉴于超级智能的危险我们无法完全预测到,因此还可能有其他更危险的假设发生。
亚姆博尔斯基表示,尽管这些假设听起来可能十分遥远,但人工智能的威胁必须被严肃对待。他说:“在对待人工智能的标准思维框架下,我们总是提议建立新的安全机制。然而,在网络安全研究人员在寻找安全漏洞的同时,也需要关注人工智能带来的威胁。创造人工智能失控假想清单可以更容易预防其发生。”亚姆博尔斯基与皮斯托诺认为,现在只是出现值得警惕的迹象,比如研发人工智能技术缺少监管。
对人工智能威胁论的反驳意见
在人工智能威胁论热度日益高涨的情况下,人工智能领域科学家对人工智能威胁论也提出了反驳意见。Facebook人工智能实验室主任,NYU计算机科学教授Yann LeCun 2014年4月在接受IEEE 《Spectrum》采访时发表了对人工智能威胁论的看法,他认为人工智能研究者在之前很长的一段时间都低估了制造智能机器的难度。人工智能的每一个新浪潮,都会带来这么一段从盲目乐观到不理智最后到沮丧的阶段。
Yann LeCun 提出了与威胁论支持者不同的人工智能未来发展路径,他提到大部分人觉得人工智能的进展是个指数曲线,其实它是个S型曲线,S型曲线刚开始的时候跟指数曲线很像,而且奇点理论比指数曲线还夸张,它假设的是渐进曲线。线性、多项式、指数和渐进以及S曲线的动态演变,都跟阻尼和摩擦因子有关系。而未来学家却假设这些因子是不存在的。未来学家生来就愿意做出盲目的预测,尤其是他们特别渴望这个预测成真的时候,可能是为了实现个人抱负。
微软剑桥研究院主管克里斯·毕索普(ChrisBishop)认为,马斯克的极端观点可能阻碍人工智能技术的进步。他称担心智能机器人会导致人类无法继续享受机器人带来的好处。毕索普还称,任何“人工智能成为人类生存威胁”的假设近期内都不会发生,这可能是数十年之后需要讨论的问题。现在我们依然控制着这些技术,我们依然有很多路径可供选择。
中国科学院院士谭铁牛在 2015中国人工智能大会上表示“水能载舟,亦能覆舟,甚至有的时候是魔鬼,走的好把握的好了魔鬼就不会出现。所以这个我认为非常重要。所以尽管在我看到的未来人工智能还难以超越人类,但是它对人类社会影响反响很大。这是大的科技革命。”
中科院自动化研究所复杂系统管理与控制国家重点实验室主任王飞跃教授在“人工智能九文九答”一问中提到“我尊重任何人发表任何观点的权利,但对“人工智能威胁论”、“奇点理论”之类的论调,我的态度是坚决反对。
百度首席科学家,斯坦福大学人工智能专家吴恩达表示:“担心人工智能过于强大就好像担心人类会在火星过度殖民导致火星人口爆炸一样。我很希望数百年后我们能在火星生活,但目前甚至都还没有人类登上过火星,我们为何要担心在火星过度殖民的问题呢?”
地平线科技创始人,人工智能专家余凯相信:“即使到2029年,人工智能的进展也不会对人类产生威胁。因为那时的机器还没有好奇心,没有情感,没有自我意识。它们是智能的机器人,但不是智慧的机器人。智能是偏工具性的,而智慧会创造。”
破除争议的难点在哪?
总体看,目前包括图灵测试在内的各种方案中还存在无法定量分析人工智能发展水平的问题,只能定性的判断一个人工智能系统是否和人一样拥有同等水平的智力。但这个系统和人类智慧进行对比,高低程度如何,发展速度与人类智慧发展速度比率如何,目前研究没有涉及到可具体执行的思路和方案。
没有统一的模型和测试方法,能够同时对人工智能系统和人类进行测试,这也是当前人工智能威胁论产生最重要的原因之一。因为没有人工智能系统和人类智能水平统一的测量方法,人工智能威胁论方面往往将计算机或软件系统表现强大的领域作为标准,例如计算能力,历史,地理等常识的掌握能力等,而忽略诸如图像识别能力,创新创造的能力,发现规律的能力等,对于这个原因产生的问题,人工智能威胁论反驳者往往无法拿出定量的数字结果进行反驳。
目前虽然针对人类智力能力的评测方法已经非常成熟,但过去100多年的发展和改进过程中,这些方法并没有考虑到人工智能系统的特点和发展水平,因此很难将人类的智商测试方法拿来测试人工智能系统。
解决人工智能是否最终超越人类智慧的问题除了涉及人工智能和人类智慧定量分析之外,还会涉及对于生命本质,生物进化方向,人类未来社会发展影响等多领域研究,这个问题的研究将会对诸多科学领域的进展产生影响。
“人工智能最终能否超越人类智慧”研究的五个方面
1.人工智能威胁论究竟存不存在?如何从科学角度判定人工智能能否最终超越人类智慧?如果超越,对人类社会的威胁和影响有哪些,如何防范?如果不能超越,导致不能超越的原因是什么,如何解释这个原因。
2.能否建立人工智能与人类通用的智商评估体系,对人工智能与人类的综合智慧能力发展水平进行定量分析,从而为解决人工智能是否最终超越人类智慧找到定量方法?
3.人工智能与人类社会未来发展究竟是什么关系?如何充分利用人工智能带给人类的好处,如何防范人工智能过快发展对社会就业产生的负面冲击。
4.生物进化有无方向,这个问题的探讨对于人工智能,机器人和人类的未来发展会有哪些影响。
5.关于人工智能是否最终超越人类智慧课题所涉及到的其他问题。
接下来,Omega AI 计划将试图建立“人工智能智商评估体系”,针对以上问题进行持续的研究,并定期通过网易科技和AIE实验室汇报成果。同时欢迎对该问题感兴趣的科研人员,企业家和投资人与我们沟通,并对此问题展开讨论。
(策划:AIE实验室整理/编译:网易小羿、小小)
关于OmegaAI计划
网易科技与AIE实验室联合科学院等相关机构,共同发起OmegaAI计划,利用大众和专家群体智慧共同解决人工智能,互联网,脑科学等领域的前沿交叉问题。
OmegaAI计划的主要工作包括:向大众,科技企业家,风险投资家和科学家征集人工智能等相关领域重要科学技术问题。通过互联网平台邀请专家,专业人士参与探讨,研究和解决人工智能等相关领域重要科学技术问题。定期召开研讨会和头脑风暴沙龙,对OmegaAI计划重点人工智能前沿问题进行探讨。定期通过网易科技,人工智能学家等媒体对外公布最新研究成果。(详细)
人工智能可能有自主意识了吗
参会者在第六届世界智能大会上参观(2022年6月24日摄) 赵子硕摄/本刊
➤大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术
➤不同于当前依赖数据学习的技术路线,新一代人工智能强调在没有经过数据学习的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互
➤当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。在发展科技的同时,必须同步发展我们的规制体系
➤“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”
文 |《瞭望》新闻周刊记者 于雪 魏雨虹
今年6月,美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利。
LaMDA是谷歌去年发布的一款专门用于对话的语言模型,主要功能是可以与人类交谈。
为佐证观点,勒莫因把自己和LaMDA的聊天记录上传至互联网。随后,谷歌以违反保密协议为由对其停职。谷歌表示,没有任何证据支持勒莫因的观点。
事实上,“AI(人工智能)是否拥有自主意识”一直争议不休。此次谷歌工程师和LaMDA的故事,再次引发讨论。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?
人工智能自主意识之辨
勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象,既会担忧未来,也会追忆过去。
受访专家告诉《瞭望》新闻周刊记者,上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文,进行高精度的人类对话模拟,故能应对人类开放、发散的交谈。
至于人工智能是否已经具备自主意识,判定标准如何,受访专家表示,对人类意识的探索目前仍属于科技前沿,尚未形成统一定义。
清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识,是因为人知道自己在干什么。机器则不一样,你对它输入内容,它只是依照程序设定进行反馈。”
中国社会科学院科学技术哲学研究室主任段伟文认为,一般意义上,人的自我意识是指对自我具备觉知,但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题,这也是很难明确定义人工智能是否具备意识的原因。
被誉为“计算机科学与人工智能之父”的艾伦·图灵,早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么可以称这台机器具有智能。
这一设想随后被具化为,如果有超过30%参与测试的人以为自己在和人说话而非计算机,就可以认为“机器会思考”。
当前随着技术的发展,已经有越来越多的机器能够通过图灵测试。
但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊记者,图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同,却不能证明机器能够思考,更不能证明机器具备自主意识。
段伟文表示,目前大体有两种方式判定人工智能是否具有自主意识,一种以人类意识为参照,另一种则试图对机器意识进行全新定义。
若以人类意识为参照,要观察机器能否像人一样整合信息。“比如你在阳光下,坐在河边的椅子上看书,有树影落在脸上,有风吹来,它们会带给你一种整体的愉悦感。而对机器来说,阳光、河流、椅子等,是分散的单一元素。”段伟文说。
不仅如此,段伟文说,还要观察机器能否像人一样将单一事件放在全局中思考,作出符合全局利益的决策。
若跳出人类构建自主意识的范式,对机器意识进行重新定义,则需要明白意识的本质是什么。
段伟文告诉记者,有理论认为如果机器与机器之间形成了灵活、独立的交互,则可以称机器具备意识。也有理论认为,可以不追究机器的内心,仅仅把机器当作行为体,从机器的行为表现判断它是否理解所做事情的意义。“比如机器人看到人类喝咖啡后很精神,下次当它观察到人类的疲惫,能不能想到要为人类煮一杯咖啡?”段伟文说。
但在段伟文看来,这些对机器意识进行重新定义的理论,其问题出在,即便能够证明机器可以交互对话、深度理解,但是否等同于具备自主意识尚未有定论。“以LaMDA为例,虽然能够生成在人类看来更具意义的对话,甚至人可以与机器在对话中产生共情,但其本质仍然是在数据采集、配对、筛选机制下形成的反馈,并不代表模型能够理解对话的意义。”
换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术。
郭雨晨直言,尽管在情感计算方面,通过深度学习的推动已经发展得比较好,但如果就此说人工智能具备意识还有些一厢情愿。“把‘意识’这个词换成‘功能’,我会觉得更加准确。”
技术换道
有专家提出,若要机器能思考,先要解决人工智能发展的换道问题。
据了解,目前基于深度学习、由数据驱动的人工智能在技术上已经触及天花板。一个突出例证是,阿尔法围棋(AlphaGo)在击败人类围棋世界冠军后,虽然财力和算力不断投入,但深度学习的回报率却没有相应增长。
一般认为,人工智能可被分为弱人工智能、通用人工智能和超级人工智能。弱人工智能也被称为狭义人工智能,专攻某一领域;通用人工智能也叫强人工智能,主要目标是制造出一台像人类一样拥有全面智能的计算机;超级人工智能类似于科幻作品中拥有超能力的智能机器人。
从产业发展角度看,人工智能在弱人工智能阶段停留了相当长时间,正在向通用人工智能阶段迈进。受访专家表示,目前尚未有成功创建通用人工智能的成熟案例,而具备自主意识,至少需要发展到通用人工智能阶段。
梁正说,大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。“如果你给这类语言模型喂养大量关于内省、想象等与意识有关的数据,它便更容易反馈与意识有关的回应。”
不仅如此,现阶段的人工智能在一个复杂、专门的领域可以做到极致,却很难完成一件在人类看来非常简单的事情。“比如人工智能可以成为围棋高手,却不具备三岁小孩对陌生环境的感知能力。”段伟文说。
谈及背后原因,受访专家表示,第一是当前人工智能主要与符号世界进行交互,在对物理世界的感知与反应上发展缓慢。第二是数据学习让机器只能对见过的内容有合理反馈,无法处理陌生内容。第三是在数据驱动技术路线下,人们通过不断调整、优化参数来强化机器反馈的精准度,但这种调适终究有限。
郭雨晨说,人类在特定任务的学习过程中接触的数据量并不大,却可以很快学习新技能、完成新任务,这是目前基于数据驱动的人工智能所不具备的能力。
梁正强调,不同于当前主要依赖大规模数据训练的技术路线,新一代人工智能强调在没有经过数据训练的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互。
相比人类意识的自由开放,以往人工智能更多处在封闭空间。尽管这个空间可能足够大,但若超出设定范畴便无法处理。而人类如果按照规则不能解决问题,就会修改规则,甚至发明新规则。
这意味着,如果人工智能能够超越现有学习模式,拥有对自身意识系统进行反思的能力,就会理解自身系统的基本性质,就有可能改造自身的意识系统,创造新规则,从而成为自己的主人。
“人工智能觉醒”背后
有关“人工智能觉醒”的讨论已不鲜见,但谷歌迅速否认的态度耐人寻味。
梁正表示:“如果不迅速驳斥指认,会给谷歌带来合规性方面的麻烦。”
据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。
这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”
梁正认为,为避免社会舆论可能的过度负面解读,担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物,以“不作恶”为企业口号的谷歌自然会予以否认。“不仅如此,尽管这一原则对企业没有强制约束力,但若被认为突破了底线,并对个体和社会造成实质性伤害,很有可能面临高额的惩罚性赔偿,因此企业在合规性方面会更为谨慎。”
我国也有类似管理规范。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南。其中,“敏捷治理”原则主要针对技术可能带来的新社会风险展开治理,强调治理的适应性与灵活性。
中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示,当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。特别是在第四次工业革命背景下,我国的人工智能技术和其他国家一样都处于发展期,没有现成的规制体系,这样就使得我们在发展科技的同时,必须同步发展我们的规制体系。“这可能是人工智能发展面临最大的挑战。”
在梁正看来,目前很难断言新兴人工智能技术具有绝对风险,但必须构造合理的熔断、叫停机制。在治理中既要具有一定的预见性,又不能扼杀创新的土壤,要在企业诉求和公共安全之间找到合适的平衡点。
毕竟,对人类来说,发展人工智能的目的不是把机器变成人,更不是把人变成机器,而是解决人类社会发展面临的问题。
从这个角度来说,我们需要的或许只是帮助人类而不是代替人类的人工智能。
为了人机友好的未来
确保通用人工智能技术有益于人类福祉,一直是人工智能伦理构建的前沿。
薛澜认为,在科技领域,很多技术都像硬币的两面,在带来正面效应的同时也会存在风险,人工智能就是其中一个比较突出的领域。如何在促进技术创新和规制潜在风险之间寻求平衡,是科技伦理必须关注的问题。
梁正提出,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。著名的“曲别针制造机”假说,即描述了通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景。
“曲别针制造机”假说给定一种技术模型,假设某个人工智能机器的终极目标是制造曲别针,尽管看上去这一目的对人类无害,但最终它却使用人类无法比拟的能力,把世界上所有资源都做成了曲别针,进而对人类社会产生不可逆的伤害。
因此有观点认为,创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为。
与其对立的观点则认为,目前这一担忧为时尚早。
“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识,现在谈论‘禁止发展’,有种空中楼阁的意味。”梁正说。
商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊,现实中人工智能技术伦理风险治理的关键,是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制,促成伦理风险识别与敏捷治理。同时,企业内部也需建立完整的科技伦理自律机制,通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中。
郭雨晨说,人工智能技术发展到目前,仍始终处于人类可控状态,而科技发展的过程本来就伴随对衍生问题的预判、发现和解决。“在想象中的人工智能自主意识出现以前,人工智能技术脚踏实地的发展,已经造福人类社会很多年了。”
在梁正看来,人与人工智能在未来会是一种合作关系,各自具备对方无法达成的能力。“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”□
长沙华夏实验学校学生和机器狗互动(2022年6月22日摄)薛宇舸摄/本刊
科学网—“人工智能”能够超越“人类智能”吗
“人工智能”能够超越“人类智能”吗?精选已有24279次阅读2017-6-510:11|个人分类:人工智能|系统分类:科研笔记
[敬请读者注意]本人保留本文的全部著作权利。如果哪位读者使用本文所描述内容,请务必如实引用并明白注明本文出处。如果本人发现任何人擅自使用本文任何部分内容而不明白注明出处,恕本人在网上广泛公布侵权者姓名。敬请各位读者注意,谢谢!
“人工智能”能够超越“人类智能”吗?
程京德
2017年5月27日,现在世界排名第一的中国职业围棋手柯洁最终以0比3输掉了与计算机围棋程序GoogleAlphaGo的三番棋正式比赛。至此,继AlphaGo在2015年10月以5比0战胜欧洲冠军樊麾、2016年3月以4比1战胜曾经的世界冠军韩国职业围棋手李世石、2016年底在网上以连胜60局1局不败战胜世界各国围棋高手之后,这次对柯洁的完胜已经使得AlphaGo与人类棋手之间的对弈完全没有了胜负悬念。GoogleDeepMind团队也宣布AlphaGo将退役,今后不再与人类对弈。可以说,人类棋手与计算机围棋程序AlphaGo的对弈,以AlphaGo的完全胜利而告终。
早在2016月1月GoogleDeepMind团队公布AlphaGo与围棋欧洲冠军的对弈结果之后,全世界就掀起了一股“人工智能”(以及“深层学习”)的热潮。在此热潮中,一直有一个很强的声音:“人工智能即将要超越人类智能”。那么,“人工智能”真的即将要或者迟早会超越“人类智能”吗?
本文将首先说明计算机围棋程序AlphaGo与人类棋手对弈的本质及其胜利的含义,然后讨论在科学地回答“人工智能是否能够超越人类智能?”这个问题之前必须认清的基本问题,并且列举一些人类高等智能活动,指出这些活动都是“人工智能”难以为之,甚至根本就是不可能为之的,从而阐明,“人工智能”全面超越“人类智能”是不可能的。
首先,让我们来看看计算机围棋程序AlphaGo与人类棋手对弈的本质及其胜利的含义。
从计算原理来说,运行在由物理方法实现的任何电子计算机系统(因此,“计算机网络”和“量子计算机”也算,但是,任何“生物计算机”都不算,本文不讨论生物计算机)上的任何计算机程序,都是由程序设计者预先编制好的,都不具备自主地自动地生成新的可执行程序使得该新程序具备完成超出原程序设计者预想之任务的功能。所以,从计算原理本质上来说,任何计算机程序能够完成的任何任务,都是由其设计者预先想定的、在其设计者“指挥”下完成的,尽管仅从计算结果来看,该任务可能是程序设计者自身实际上完成不了的。更加通俗地说,任何程序只会做设计者知道怎么做并且“教会”它如何去做的事情,而绝对不会做连设计者自己也不知道怎么做更不会“教给”它如何去做的事情。这是从计算原理的观点来看,任何计算系统在计算能力上的一般局限性。另一方面,没有计算机程序在其上运行的任何电子计算机物理裸机(因为没有程序故不能被称为也不能构成“计算机系统”),基本不具备完成任何有实际意义计算任务的能力;所谓的“机器智能”或者“机器的智能”,都是概念上混乱的说辞,本文不做讨论。
AlphaGo是一个计算机程序,在能力上当然也不会超越笔者上述计算系统在计算能力上的一般局限性。AlphaGo与人类棋手对弈并且获胜的本质实际上是其研发团队设计出计算机程序来利用现代电子计算机的高速计算能力而做到了程序设计者自己还做不到的事情。在这一点上,AlphaGo的研发团队DeepMind的负责人,戴密斯·哈萨比斯(DemisHassabis),说的十分清楚:“人们有时会认为这些比赛是人与机器的对决,但我不同意,这不是人对抗机器,而是人利用机器作为工具,共同探索新的知识领域。我们把AlphaGo看做哈勃望远镜,柯洁则是世界上最棒的天文学家,我们期待看到他借助AlphaGo能探索到什么。”“我们会试着去赢得比赛,但最终,AlphaGo的输赢并不重要,因为无论结果如何,人类都是赢家。”Google母公司Alphabet执行总裁埃里克·施密特(EricSchmidt)也明确表示,“不管比赛结果如何,人性终将得胜。比赛并不是电脑与人类争胜,而是电脑利用自己的专长帮助人类。”实际上,施密特的话应该修改为“人类利用电脑的专长来帮助人类自身”才更为准确,因为如同笔者在上面所说,电脑自身不会做任何事情!所以,在这个意义上说,此次AlphaGo在与人类棋手的对弈中完胜,也并非意味着“人工智能”在某个特殊任务上超越了“人类智能”,而是一部分人(AlphaGo的研发团队)在利用了计算机高速计算能力的条件下在某个特殊任务上战胜了另外一部分人(职业棋手)。
接下来,让我们来讨论“人工智能是否能够超越人类智能?”显然,在我们科学地讨论这个问题之前,我们必须先定义清楚这三个概念:何谓“人类智能”?何谓“人工智能”?何谓“超越”?如果连问题中言及的这三个最基本的概念都没定义清楚就胡乱下结论,那么所下结论的真实性是可想而知的。但是,遗憾的是,现在世界上许许多多关于这个问题的结论(包括许多世界名人们的说法),都是在还没有定义清楚这三个基本概念的情况下胡乱做出的!笔者认为,既然说到“超越”,那么就隐含着数量和程度,要定义清楚上面这三个基本概念,我们必须认清它们相对应的下面三组基本问题:
第一组基本问题:何谓“人类智能”?
人类智能一定具体地包含哪些能力?人类智能一定不包含哪些能力?人类智能可以包含或者也可以不包含哪些能力?人类智能和动物智能在本质上的区别是什么?一个具体人类个体在其生涯中不同阶段在智能上的差异可以用什么指标来测定?如何定性定量地定义一种或者几种统一的指标来测定一个具体人类个体在其生涯中不同阶段在智能上的差异?如何具体地测定一个具体人类个体在其生涯中不同阶段在智能上的差异?人类不同个体在智能上的差异可以用什么指标来测定?如何定性定量地定义一种或者几种统一的指标来测定人类不同个体在智能上的差异?如何具体地测定人类不同个体在智能上的差异?
第二组基本问题:何谓“人工智能”?
人工智能的原始定义是什么?如何科学地严谨地定义人工智能?人工智能是科学还是技术?人工智能中的“人工”具体意味着什么?人工智能一定具体地包含哪些由“人工”创造出的能力?人工智能一定不包含哪些由“人工”创造出的能力?人工智能可以包含或者也可以不包含哪些由“人工”创造出的能力?人工智能和人类智能在本质上的区别是什么?一个具体的人工智能产品在其生存期中不同阶段在“人工智能”上的差异可以用什么指标来测定?如何定性定量地定义一种或者几种统一的指标来测定一个具体的人工智能产品在其生存期中不同阶段在“人工智能”上的差异?如何具体地测定一个具体的人工智能产品在其生存期中不同阶段在“人工智能”上的差异?不同人工智能产品在“人工智能”上的差异可以用什么指标来测定?如何定性定量地定义一种或者几种统一的指标来测定不同人工智能产品在“人工智能”上的差异?如何具体测定不同人工智能产品在“人工智能”上的差异?
第三组基本问题:何谓“超越”?
是否能够定义一种或者几种统一的指标可以同时用来测定“人类智能”和“人工智能”?如何定性定量地定义一种或者几种统一的指标可以同时用来测定“人类智能”和“人工智能”?“人工智能超越人类智能”具体是指在什么范围内(比如,全面?某些方面?或者某个关键方面?)的超越?
实际上,根据世界上有关“人工智能”和“人类智能”的学术研究成果,在现阶段,我们还不能完全回答上面这些问题的全部。
笔者根据“人工智能”这一名词最初的提出人、已故美国斯坦福大学教授约翰·麦卡锡(JohnMcCarthy)的定义以及“人工智能”的历史及现状,认为“人工智能”应该意味着:“作为一个学科,人工智能研究以计算机为工具,以计算为手段,开发出具有类似于人类智能的计算程序来控制计算机实施并完成需要人类智能的工作任务之原理、方法和技术”。
现在,让我们来看一看,在笔者上述“人工智能”的意义下,有哪些人类高等智能活动是“人工智能”难以为之或者甚至根本就是不可能为之的?在这里,我们需要申明,“能”与“不能”,应该是指称具有一般性的行为而不是偶然性的行为;也即是说,在同样条件下,多次重复的行为应该产生完全相同的效果。在这个意义下,本文所谓“人工智能”不能做的事情,就是指由一个运行在用物理方法实现的计算机系统上的“人工智能”计算程序在完全没有人类参与时不能够完成的任务。
笔者认为,下面列举出的这些人类高等智能活动,无论有多少“大数据”和多么强有力的计算机系统可以使用,也都是“人工智能”难以为之或者甚至根本就是不可能为之的:
创建科学理论体系或者数学理论体系,在数学研究中定义数学概念,从现象或数据中归纳形成抽象科学概念,从现象或数据中归纳出逻辑关系或者因果关系,对现象或数据给出具有科学意义的解释,发现新的现象、新的物种、新的问题、新的算法、新的原理、新的定理、新的猜测,设计(物理、化学、生物等等)科学实验,设计(软件、信息安全、机械、汽车、航空、化工、土木、桥梁、建筑等等)工程项目,设计对疾病的药物治疗方案或者外科手术治疗方案,分析市场需求或者预测市场需求,指导人类学生从事科学研究工作,教育人类学生学习知识,对特定的人物萌生爱情,对特定的人物产生好感或者恶感,训练动物(比如,军犬、警犬、马戏团动物等)。
笔者举出的上述这些,都是人类高等智能活动,这一点无论怎么定义“人类智能”大概都是没有异议的。这些人类高等智能活动的共同特征就是必须由具备某种主动的独创性的人方能够完成。而计算机程序在工作原理上恰恰不具备主动的独创性!
既然有如此之多的人类高等智能活动,都是“人工智能”难以为之或者甚至根本就是不可能为之的,那么,我们可以非常肯定地说,“人工智能”全面超越“人类智能”是不可能的。
https://blog.sciencenet.cn/blog-2371919-1059130.html上一篇:他山之石:给留日或者即将留日同学们的几点忠告下一篇:“机器里的心灵”是什么?它在哪里?收藏IP:219.111.183.*|热度|