刘嘉:人工智能会超越人脑吗
人工智能加速发展,有一天会超越人脑吗?近日,清华大学基础科学讲席教授、心理学系主任刘嘉在“人文清华讲坛”上发表了演讲《脑与人工智能:站在进化的节点上》。他指出,虽然目前人工智能无法与人脑相比,但它发展迅猛,类人智能是人工智能的下一个发展目标。
目前,人工智能和人的智能仍有巨大差距,还没有达到类人智能。我坚信,通过脑科学加上人工智能,有一天一定能制造出一个数字人类大脑。——刘嘉
如何认识我们看见的世界(作者 本报记者)我们无时无刻不在观察着这个世界,但我们看到的未必是真实的世界。到底发生了什么?这取决于我们的视觉系统。
打个比方,前面有一个绿苹果,它会以大约100亿比特/秒的信息量进入我们的视网膜,视网膜通过约100万个神经元连接到视觉皮层,经过加工之后再传到高级皮层,来决定我们看到的东西到底是什么。在这个信息传输的过程中,信息量被衰减到1/1亿,而大脑就像魔术师一样会把这些缺失的信息补上。为什么有的人看见一个绿苹果,会认为那是一个红苹果呢?因为人的眼睛看见的过程,其实是一个大脑重构的过程,而不是简单的复制。
正如康德所言:“没有感觉支撑的知识是空的,没有知识引导的感觉是瞎的。”这句话的上半句说的是,如果我们没有外部的信息输入,我们很难构建自己的心理世界;下半句说的是,如果你不知道你看到的是什么东西,那你就什么也看不见。因为我们从外部世界得到的信息往往是模棱两可的,我们必须加上一点先验知识、加上一点推理、加上一点猜测,需要大脑去重构,把自己的理解加进去,才能真正知道这个世界究竟发生了什么。
与理解相比,更重要的是创造。当我们的大脑没有被外部信息填满,留下一定的空间时,我们就能在这空间里创造出自己想要创造的东西。正如《小王子》的作者圣·埃克苏佩里所言:“一堆岩石在有人对着它思考时就不再是岩石了,它将化身为大教堂。”这就是人类了不起的创造。
在过去的300万年里,人和猴子分开进化,人发生的最大改变不是从四肢着地变成直立行走,也不是褪掉了身上的毛,而是大脑的体积增加了3倍。而且,大脑不是平均增加体积的,体积增加最大的部分在额叶。与我们200万年前的祖先相比,我们的头骨更往前突出了,以容纳更大体积的额叶。
我们为什么要有更强大的额叶?因为它使我们能够构造和想象出不存在的东西。比如,我们的祖先准备去打猎,他不用等看见了猎物才去做出反应,他只需要提前想象狩猎的情景,就可以把一切都安排好。人可以在脑海里预想一遍未来将要发生的场景,构建出一个个可能的未来,这样就能够制定出行动方案,这是人类能够战胜其他比我们更强大、更凶猛的动物,成为万物之灵的关键。这也正好印证了荀子的一句话:“然则人之所以为人者,非特以二足而无毛也,以其有辨也。”“有辨”是指我们能够辨识、能够思考,而这些都来自额叶的功能。
重构心理世界的知识从何而来那么,我们心理世界的这些预设的知识究竟是从哪里来的?
一部分先验知识来自基因的烙印。我们来到这个世界并不是一张白纸,我们是带着32亿年进化的智慧来到这个世界的,而这些智慧就印刻在我们的基因之中。比如,我们将18位女教授和女博士后的脸进行叠加,做成一个“平均脸”,你会发现这张平均脸充满了睿智和文气。平均脸代表了什么?人脸其实就是我们的基因图谱,我们的基因都写在脸上。所以,当我们把脸叠加之后,我们得到的是18位知识女性平均的基因。平均的基因代表突变很少。基因一旦突变,大概率而言是有害的,所以基因突变越少,说明基因越好,所携带的遗传性疾病的概率就越低,这就是为什么人类会觉得平均脸更好看的原因。
我们的另一部分先验知识则来源于社会基因。人和动物的进化有本质区别,动物是按照基因、按照达尔文的进化论逐步向前发展的,而人既有生物基因的演化,这代表着我们的过去,同时更重要的是,人还有社会基因的进化,它带着我们以与动物不一样的方式前进。
社会基因和生物基因的作用方式非常类似。远古时,人类祖先中有一个人突然因为某种原因把火生起来了,这相当于知识、技能被创造出来,就像基因突变,一个优秀的基因产生了。渐渐地,生火这种技能被传播给了其他人,从一个部落传到其他部落,最终成了人类普遍拥有的技能。接着,人类又学会了制作长矛和其他工具,经过漫长的发展,逐渐构建成我们今天的人类社会。
人类的文明演进可以分成三个时期:第一是原始文明,经历了200多万年,前后变化并不大。第二是农业文明,经历了5000年左右。这期间,野兽被驯服变成了家畜,人类成了文明的种族,懂得了一些天文地理的知识。第三是工业文明,从诞生至今不过近300年的历史。然而,工业文明给人类带来了巨大的变化,以至于我们不得不将它分成四个阶段:第一个阶段是机械化时代(1760年—1840年),出现了蒸汽机等。第二个阶段是电气化时代(1840年—20世纪初),出现了电力等。第三个阶段是自动化时代(1950年—21世纪初)。第四个阶段就是我们现在所处的信息时代。
文明进程出现革命性的进化信息时代诞生了新的物种——人工智能。
2002年,我的博士论文答辩题目是《面孔识别的认知神经机制》。当时,即使是最先进的机器,用来识别人脸的正确率也很低。2015年,我参加了江苏卫视《最强大脑》的节目策划。我发现,经过十几年的发展,人工智能已经强大到在人脸识别上可以胜过人类的最强大脑。
随后,我们研究建立了一个人工神经网络,训练它去识别性别,即区别对象是男性还是女性。结果,它的正确率能达到100%。而且,它在完成任务的过程中会产生与人类相类似的心理操作,也就是说,人工智能会自发产生和人类一样的心理世界。
那一刻我开始意识到,生物过去的进化都是基于碳基的方式来运行的。但是,当人类创造出人工智能后,一个新的物种产生了,这个新的物种是基于硅基的方式运行的,而这种基于硅基的物种一定会给我们带来一种革命性的变化。以前人类文明的进化都是循序渐进的,当人工智能这个阶段来临时,文明进程可能会出现一个“奇点”,出现一种革命性的进化。
为什么这么说呢?我们来看人类和人工智能的三大区别。
第一是算力。人类的大脑已经进化到极限,而人工智能随着科技的进步,它的算力将不断精进。
第二是存储能力。人类的大脑大约是1.4千克,虽然只占了我们体重的2%—3%,但是消耗了我们身体25%以上的能量,它是一个耗能大户。但人工智能的存储能力是无限的,一块硬盘不够,可以再加一块硬盘。
第三是寿命。人类的寿命是有限的,而人工智能的寿命是无限的。CPU烧了,可以换块CPU,电线断了,再换根电线就行了。
除了无限的存储能力、算力和寿命,人工智能还有着无尽的可能性。
2016年,AlphaGo击败了人类围棋顶尖高手李世石。后来,很多中国围棋高手也和AlphaGo进行了切磋。当时世界上排名第一的围棋选手柯洁说:“我们人类下了2000年围棋,连门都没入。”围棋的空间极其庞大,AlphaGo之所以比人类更加强大,并不是它比人类更加聪明,而是因为它探索了更大的空间,找到了更多下法而已。
如今,不仅在律师、医生、税务师、咨询师等专业领域,在绘画、音乐等艺术领域,都出现了人工智能的身影。“神经网络之父”、深度学习的创始人杰弗里·辛顿在接受采访时说:“将来深度学习可以做任何事情。”
类人智能是人工智能的发展目标然而,人工智能真的无所不能吗?
心理学家发现,对于一个简单的场景,人和人工智能有完全不同的理解。比如,一个人不慎从柱子上摔落,人工智能会说一个人从柱子上掉下来了,而我们对这个场景的反应是“惊恐和疼痛”。
这个区别体现了人类有一种特别重要的能力,叫共情,即别人遭受了苦难,我能感同身受。如果一个孩子缺乏共情的能力,就会导致自闭行为。所以,人工智能的奠基人之一马文·李·明斯基说:“现在的问题不是一个智能的机器是否拥有情感,而是不拥有情感的机器是否能拥有智能。”在马文·李·明斯基看来,情感是智能的基础,得先有情感,才有智能。
目前,人工智能和人的智能仍有巨大差距,还没有达到类人智能。如何实现类人智能呢?我认为它的切入点是脑科学加上人工智能。
举个例子,线虫是一种非常简单的生物,只有302个神经元,麻省理工学院的研究者模仿了其中的19个神经元,就完成了自动驾驶的一般任务。其实这项研究模仿的并不只是这个简单的生物,而是32亿年进化形成的智慧。从这个角度来讲,人类的大脑目前仍是这个世界上最聪明的大脑,它有860亿个神经元,平均每个神经元有3000个连接,它代表着宇宙中生物智力的最高水平。那么,人工智能的发展为什么不能向人脑学习,以人脑为模板呢?
我的同事们模拟线虫的302个神经元,构建了一个数字线虫,来模仿线虫在水里的游动。这只是一个开始,下一步也许我们会模仿神经元数量达百万级的果蝇,再到更高量级的斑马鱼,甚至到小鼠、大鼠、猕猴,最后模仿人类的860亿个神经元。虽然还存在巨大的鸿沟,但是我坚信,通过脑科学加上人工智能,有一天一定能制造出一个数字人类大脑。
人工智能未来的三种可能莎士比亚说,“所谓过往,皆为序章”。今天,我们正站在一个进化的节点上。
从32亿年前,一个单细胞逐渐发展成水生动物,然后爬上岸边变成两栖动物,再变成哺乳动物,在约300万年前哺乳动物猿猴又开始进化成人类,这些都是我们的过往。然而,此时此刻,我们的未来是未定的。
人类发明出了人工智能,今天,随着算力的推进,随着技术的进步,人工智能有了超越人类的可能。
未来会怎样?大约有三种可能。第一种,人工智能像科幻电影《星球大战》里的R2-D2一样,是人类忠实的伙伴,成为人类非常好的朋友,帮助人类变得更加强大。第二种,我们构建出了一个数字大脑,它的能力比人类的大脑更强,这时候人机可以合二为一,把人的意识、记忆、情感上传到数字大脑中,人就能获得“永生”。未来学家库兹韦尔在《奇点来临》这本书中写道,大约在2045年,这一刻就会到来。第三种,就像电影《终结者》里所展示的,人类文明彻底消失,进入机器文明时代。
未来到底会怎么样,最终取决于今天我们站在这个时间节点上做了些什么。
物理学和心理学对于什么是值得做的事情有不同的定义。物理学更在意空间,在物理学看来,如果放在一个远远超出地球大小的空间尺度下来看,那些有意义的事情,才是值得做的事情。而心理学更关注的是时间,我们思考的问题是:人间的一切问题,如果放在一个远远超出人的寿命的时间尺度下来看,它们还有没有意义?
1905年,孙中山和严复在伦敦有过一次会面,他们当时讨论的议题是半殖民地半封建的中国究竟如何改变。严复提出要慢慢教化民众,要稳步向前。孙中山对于严复的方法不太认同,他说:“俟河之清,人寿几何?君为思想家,鄙人乃执行家也。”后来,孙中山回到国内,开启了轰轰烈烈的辛亥革命。
对于现在的我们来说,解决未来的问题,就要从现在做起,行胜于言,以有限的生命行超越生命之事,这就是我们这一代人的使命。
编辑:李华山
2022年11月28日07:03:32
人工智能会取代人类吗
会这样吗?蔡华伟绘
不久前,在中国乌镇围棋峰会上,人工智能程序“阿尔法狗”与排名世界第一的中国围棋职业九段棋手柯洁对战,以3∶0的总比分大获全胜。在此之前,它曾经以4∶1的总比分击败过同为围棋世界冠军的韩国职业九段棋手李世石,并在中国棋类网站上以“大师”为注册账号与中日韩数十位围棋高手进行快棋对决,连续60局无一败绩。两年来,“阿尔法狗”横扫中日韩围棋棋坛,并且每次表现都堪称完美。
一直以来,就有人工智能的发展会威胁到人类生存的观点,而“阿尔法狗”能在典型的反映人类智慧的围棋比赛中屡屡打败人类,更是加重了一些人的担忧。
那么,人工智能对人们工作、生活的直接影响到底有多大?它具备了人的部分能力,甚至比人类做得更好,未来会不会和人类抢“饭碗”,甚至对我们产生威胁?
具有不可
比拟的优势
未来人工智能可在金融投资、医疗诊断、企业经营、军事指挥等方面进行高水平的预测和决策
人工智能会取代人类吗?应当说,这种担忧也有一定道理。
近年来,人工智能各方面的发展都在逐渐完善,应用也越来越多,并且在很多方面的表现都超越了人类。
比如,2015年9月,腾讯财经推出了自动化新闻写作机器人。它能根据算法在第一时间自动生成稿件,瞬时输出分析和研判,一分钟内就能将重要资讯和解读送达用户。
还有,备受关注的微软小冰,作为一个虚拟伴侣型机器人,它能够模拟人的语气与人对话,聊天时让人感觉这就是一个活生生的人而并非机器。
此外,据外媒报道,摩根大通已经开发出一款金融合同解析软件,原来律师和信贷人员每年需要36万小时才能完成的工作,该软件只需几秒就能完成,且错误率大大降低。
青岛智能产业研究院智慧教育研究所副所长刘希未说:“在问题求解方面,人工智能程序已经能知道如何考虑它们要解决的问题,即搜索解答空间,寻找较优解答。在无人驾驶方面,人工智能已经可以实现长距离复杂路况下的自主驾驶。”
“未来在认知层次,人工智能还将会有广阔应用空间,例如人工智能可在金融投资、医疗诊断、企业经营、军事指挥等方面进行高水平的预测和决策。”中国科学院自动化研究所研究员孙哲南说。
而著名物理学家史蒂芬・霍金则认为人工智能给人类社会带来的冲击将更为巨大。2016年底,他在英国《卫报》发表文章预言说:“工厂的自动化已经让众多传统制造业工人失业,人工智能的兴起很有可能会让失业潮波及中产阶级,最后只给人类留下护理、创造和监管等工作。”
这样的判断还有待未来验证,不过,相比人类智慧,人工智能的确有着不可比拟的优势。
刘希未说:“和人脑相比,人工智能算法应对数值和符号计算更加精确快速,稳定可靠。特别是对于有确定规则的计算问题,人工智能可以远远超出人脑的计算速度,也更容易找到最优的解答。比如,在数值计算,图形、语音、生物特征、行为姿态等方面的识别,甚至更加复杂的预测推理任务方面,人工智能都有超越人脑的优秀表现。”
不会取代
甚至威胁人类
人工智能不具备感性思维,无法跨越到意识领域
那么,人工智能真的会因此而取代人类本身,甚至对我们产生威胁吗?记者采访的几位专家都给出了否定的答案。
首先,专家们认为,当前的计算机架构和编程模式具有本质上的劣势,使得人工智能无法实现与人脑情感、意志、心态、情绪、经验等方面的自然交互。本质上,人工智能仅仅是物质世界范畴的概念,无法跨越到意识领域。
1981年荣获诺贝尔生理学奖的罗杰・斯佩里博士曾发布著名的“左右脑分工理论”,认为人脑的左右半球有着不同分工:左半脑擅长分析、逻辑、演绎、推理等理性抽象思维;右半脑擅长直觉、情感、艺术、灵感等感性形象思维。迄今为止,人工智能的所有智能化表现仅仅在模仿人类左半脑的理性思维模式,而完全不具备右半脑的感性思维。
“也就是说,目前的人工智能技术还很难应对具有显著人类主观意识影响的社会文化和意识领域的各类问题,而人脑却可以通过长期在复杂社会环境下的学习成长轻松应对这类问题。”刘希未说。
他进一步举例说,比如人工智能至今也还没有创作出真正具有人性境界的作品。“电脑与人脑,毕竟有着机械性与生命灵性的本质区别,因此,电脑创作与人脑创作之间尚存在着难以逾越的鸿沟。个性化是人类文学艺术创作的生命,而已有电脑创作系统尚无个性可言,只不过是对已有的艺术作品的模仿、复制与重组。”
那么,随着人工智能的不断发展完善,将来是否有可能实现这种自发的情感智能呢?
“情感智能化分成两个层面,一个是让机器本身具有情感,另外一个是让机器理解人的情感,两者是不一样的”,中国科学院自动化研究所研究员易建强说,“让机器去理解人的情感,这件事是有可能做到的。目前有一部分机器人系统能够做到部分理解场景、环境及对话内容,并根据其结果做出相应的反应或者表情。但要机器人或人工智能系统完全达到人类的水平,有自发的情感和创造性,那是很难实现的,或者说不可能实现。”
中国自动化协会副理事长、秘书长王飞跃对此表示认同,“我个人认为100年内无法实现,或许永远不可能实现,除非重新定义什么是人的情感、理解、推理等等。原因很简单,人们现在都还不清楚这些情感的内涵、产生的过程及其方式。”
将成为人类
发展的加速器
人工智能的确会对人类就业造成一定冲击,但人类的工作不会消失,而是转变为新的形式
科学家们还认为,人工智能技术只是人类智慧创造的一种新型工具,它有助于人类更快做出突破,提高我们应对那些亟待解决的全球性难题的能力。
“我们需要人工智能这个强大的工具来帮助处理复杂问题,预测未知,支持我们实现以往不可能的目标。”王飞跃说。
专家们表示,很多划时代的科技成果必然引发人们生活方式的改变,短期内很可能难以被接受,但若放眼历史长河,就会发现,所有重大的科技革命无一例外地都最终成为人类发展的加速器,同时也是人类生活品质提高的根本保障。
“人工智能技术的出现也同样如此,它的确会对人类的就业造成一定冲击。比如,人工智能更适合处理简单重复、规则确定或者通过案例学习可以找到有效处理规则的问题。像安检、看病理切片和监控视频审核等交给人工智能更为高效可靠,这些工种也因此比较容易受到冲击和替代。”不过,易建强表示,不必因此就担心它会彻底取代人类。“以第一次工业革命为例,它不仅仅是让人类的既有工作被取代,同时会制造出足够多的新的就业机会。大多数情况下,工作不是消失了,而是转变为新的形式。”
易建强说,马车被汽车取代就是一个非常典型的例子。当年,汽车开始进入大城市并逐渐普及的过程中,曾经在数百年的时间里充当出行工具的马车,面临着“下岗”威胁。但后来的事实证明,新兴起的汽车行业拥有比传统马车行业多出数千倍甚至数万倍的产值和工作机会。
“现阶段,在一个真正实现人工智能的工作场景中,传统劳动者也并未被‘下岗’,只是改变了角色而已。仍然需要人类对人工智能的表现进行监控,进行情报采集与分析,以及开展预测性的实验与评估,引导性的过程管理与控制。”王飞跃说,“我相信将来人类90%以上的工作是由人工智能提供的,就像今天我们大多数的工作是由计算机和各种其它机器提供的一样。”
《人民日报》(2017年07月07日20版)
(责编:易潇、沈光倩)分享让更多人看到
人工智能可能有自主意识了吗
参会者在第六届世界智能大会上参观(2022年6月24日摄) 赵子硕摄/本刊
➤大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术
➤不同于当前依赖数据学习的技术路线,新一代人工智能强调在没有经过数据学习的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互
➤当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。在发展科技的同时,必须同步发展我们的规制体系
➤“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”
文 |《瞭望》新闻周刊记者 于雪 魏雨虹
今年6月,美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利。
LaMDA是谷歌去年发布的一款专门用于对话的语言模型,主要功能是可以与人类交谈。
为佐证观点,勒莫因把自己和LaMDA的聊天记录上传至互联网。随后,谷歌以违反保密协议为由对其停职。谷歌表示,没有任何证据支持勒莫因的观点。
事实上,“AI(人工智能)是否拥有自主意识”一直争议不休。此次谷歌工程师和LaMDA的故事,再次引发讨论。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?
人工智能自主意识之辨
勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象,既会担忧未来,也会追忆过去。
受访专家告诉《瞭望》新闻周刊记者,上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文,进行高精度的人类对话模拟,故能应对人类开放、发散的交谈。
至于人工智能是否已经具备自主意识,判定标准如何,受访专家表示,对人类意识的探索目前仍属于科技前沿,尚未形成统一定义。
清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识,是因为人知道自己在干什么。机器则不一样,你对它输入内容,它只是依照程序设定进行反馈。”
中国社会科学院科学技术哲学研究室主任段伟文认为,一般意义上,人的自我意识是指对自我具备觉知,但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题,这也是很难明确定义人工智能是否具备意识的原因。
被誉为“计算机科学与人工智能之父”的艾伦·图灵,早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么可以称这台机器具有智能。
这一设想随后被具化为,如果有超过30%参与测试的人以为自己在和人说话而非计算机,就可以认为“机器会思考”。
当前随着技术的发展,已经有越来越多的机器能够通过图灵测试。
但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊记者,图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同,却不能证明机器能够思考,更不能证明机器具备自主意识。
段伟文表示,目前大体有两种方式判定人工智能是否具有自主意识,一种以人类意识为参照,另一种则试图对机器意识进行全新定义。
若以人类意识为参照,要观察机器能否像人一样整合信息。“比如你在阳光下,坐在河边的椅子上看书,有树影落在脸上,有风吹来,它们会带给你一种整体的愉悦感。而对机器来说,阳光、河流、椅子等,是分散的单一元素。”段伟文说。
不仅如此,段伟文说,还要观察机器能否像人一样将单一事件放在全局中思考,作出符合全局利益的决策。
若跳出人类构建自主意识的范式,对机器意识进行重新定义,则需要明白意识的本质是什么。
段伟文告诉记者,有理论认为如果机器与机器之间形成了灵活、独立的交互,则可以称机器具备意识。也有理论认为,可以不追究机器的内心,仅仅把机器当作行为体,从机器的行为表现判断它是否理解所做事情的意义。“比如机器人看到人类喝咖啡后很精神,下次当它观察到人类的疲惫,能不能想到要为人类煮一杯咖啡?”段伟文说。
但在段伟文看来,这些对机器意识进行重新定义的理论,其问题出在,即便能够证明机器可以交互对话、深度理解,但是否等同于具备自主意识尚未有定论。“以LaMDA为例,虽然能够生成在人类看来更具意义的对话,甚至人可以与机器在对话中产生共情,但其本质仍然是在数据采集、配对、筛选机制下形成的反馈,并不代表模型能够理解对话的意义。”
换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术。
郭雨晨直言,尽管在情感计算方面,通过深度学习的推动已经发展得比较好,但如果就此说人工智能具备意识还有些一厢情愿。“把‘意识’这个词换成‘功能’,我会觉得更加准确。”
技术换道
有专家提出,若要机器能思考,先要解决人工智能发展的换道问题。
据了解,目前基于深度学习、由数据驱动的人工智能在技术上已经触及天花板。一个突出例证是,阿尔法围棋(AlphaGo)在击败人类围棋世界冠军后,虽然财力和算力不断投入,但深度学习的回报率却没有相应增长。
一般认为,人工智能可被分为弱人工智能、通用人工智能和超级人工智能。弱人工智能也被称为狭义人工智能,专攻某一领域;通用人工智能也叫强人工智能,主要目标是制造出一台像人类一样拥有全面智能的计算机;超级人工智能类似于科幻作品中拥有超能力的智能机器人。
从产业发展角度看,人工智能在弱人工智能阶段停留了相当长时间,正在向通用人工智能阶段迈进。受访专家表示,目前尚未有成功创建通用人工智能的成熟案例,而具备自主意识,至少需要发展到通用人工智能阶段。
梁正说,大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。“如果你给这类语言模型喂养大量关于内省、想象等与意识有关的数据,它便更容易反馈与意识有关的回应。”
不仅如此,现阶段的人工智能在一个复杂、专门的领域可以做到极致,却很难完成一件在人类看来非常简单的事情。“比如人工智能可以成为围棋高手,却不具备三岁小孩对陌生环境的感知能力。”段伟文说。
谈及背后原因,受访专家表示,第一是当前人工智能主要与符号世界进行交互,在对物理世界的感知与反应上发展缓慢。第二是数据学习让机器只能对见过的内容有合理反馈,无法处理陌生内容。第三是在数据驱动技术路线下,人们通过不断调整、优化参数来强化机器反馈的精准度,但这种调适终究有限。
郭雨晨说,人类在特定任务的学习过程中接触的数据量并不大,却可以很快学习新技能、完成新任务,这是目前基于数据驱动的人工智能所不具备的能力。
梁正强调,不同于当前主要依赖大规模数据训练的技术路线,新一代人工智能强调在没有经过数据训练的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互。
相比人类意识的自由开放,以往人工智能更多处在封闭空间。尽管这个空间可能足够大,但若超出设定范畴便无法处理。而人类如果按照规则不能解决问题,就会修改规则,甚至发明新规则。
这意味着,如果人工智能能够超越现有学习模式,拥有对自身意识系统进行反思的能力,就会理解自身系统的基本性质,就有可能改造自身的意识系统,创造新规则,从而成为自己的主人。
“人工智能觉醒”背后
有关“人工智能觉醒”的讨论已不鲜见,但谷歌迅速否认的态度耐人寻味。
梁正表示:“如果不迅速驳斥指认,会给谷歌带来合规性方面的麻烦。”
据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。
这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”
梁正认为,为避免社会舆论可能的过度负面解读,担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物,以“不作恶”为企业口号的谷歌自然会予以否认。“不仅如此,尽管这一原则对企业没有强制约束力,但若被认为突破了底线,并对个体和社会造成实质性伤害,很有可能面临高额的惩罚性赔偿,因此企业在合规性方面会更为谨慎。”
我国也有类似管理规范。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南。其中,“敏捷治理”原则主要针对技术可能带来的新社会风险展开治理,强调治理的适应性与灵活性。
中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示,当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。特别是在第四次工业革命背景下,我国的人工智能技术和其他国家一样都处于发展期,没有现成的规制体系,这样就使得我们在发展科技的同时,必须同步发展我们的规制体系。“这可能是人工智能发展面临最大的挑战。”
在梁正看来,目前很难断言新兴人工智能技术具有绝对风险,但必须构造合理的熔断、叫停机制。在治理中既要具有一定的预见性,又不能扼杀创新的土壤,要在企业诉求和公共安全之间找到合适的平衡点。
毕竟,对人类来说,发展人工智能的目的不是把机器变成人,更不是把人变成机器,而是解决人类社会发展面临的问题。
从这个角度来说,我们需要的或许只是帮助人类而不是代替人类的人工智能。
为了人机友好的未来
确保通用人工智能技术有益于人类福祉,一直是人工智能伦理构建的前沿。
薛澜认为,在科技领域,很多技术都像硬币的两面,在带来正面效应的同时也会存在风险,人工智能就是其中一个比较突出的领域。如何在促进技术创新和规制潜在风险之间寻求平衡,是科技伦理必须关注的问题。
梁正提出,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。著名的“曲别针制造机”假说,即描述了通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景。
“曲别针制造机”假说给定一种技术模型,假设某个人工智能机器的终极目标是制造曲别针,尽管看上去这一目的对人类无害,但最终它却使用人类无法比拟的能力,把世界上所有资源都做成了曲别针,进而对人类社会产生不可逆的伤害。
因此有观点认为,创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为。
与其对立的观点则认为,目前这一担忧为时尚早。
“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识,现在谈论‘禁止发展’,有种空中楼阁的意味。”梁正说。
商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊,现实中人工智能技术伦理风险治理的关键,是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制,促成伦理风险识别与敏捷治理。同时,企业内部也需建立完整的科技伦理自律机制,通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中。
郭雨晨说,人工智能技术发展到目前,仍始终处于人类可控状态,而科技发展的过程本来就伴随对衍生问题的预判、发现和解决。“在想象中的人工智能自主意识出现以前,人工智能技术脚踏实地的发展,已经造福人类社会很多年了。”
在梁正看来,人与人工智能在未来会是一种合作关系,各自具备对方无法达成的能力。“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”□
长沙华夏实验学校学生和机器狗互动(2022年6月22日摄)薛宇舸摄/本刊
观点:为什么人工智能不可能超越人类智能(取自Marxist Philosophy Baidu Post Bar)
【取自MarxistPhilosophyBaiduPost Bar】柯洁与谷歌人工智能“Alphago”的围棋大战现代工业机器人“人不是固有的抽象物,在其现实性上,它是社会关系的总和”
----马克思《德意志意识形态批判(导读)》
编者注前言
第一,人工智能只能模拟人的某些自然属性,人的社会属性是难以模拟的。人具有思维能力,不仅仅因为人有一个大脑这个物质实体,而且因为人的思维能力同时又是社会的产物,是长期劳动的产物。一个明显的事实是:劳动促使类人猿变成人,促使猿脑变成人脑,促使动物萌芽状态的意识发展为人的意识。人是生活在以自然环境为背景的社会的人,人脑更是一个受社会影响的、发育变化的活动的系统。不仅人脑的结构的一部分是后天发育起来的,而且人的智力也是在实践中不断提高的。这就说明,人脑及思维能力是在社会实践中产生和发展的,社会实践成了思维功能不可缺少的条件。事实上,在接触和改造环境的过程中,人的大脑与客观环境总是互相影响的。也就是说,人们在改造客观世界的过程中,同时改造着大脑的结构与功能。例如,根据神经生理学的研究,由于猿没有语言,它们的大脑内没有语言中枢,所以猿的大脑两半球结构上是对称的。而人类在劳动交往中,产生了语言,相应地在大脑皮层上产生了语言中枢,语言中枢绝大多数人定位在左半球上,因而人的大脑两半球并不对称。正因为人类长期处于不同的社会实践之中,所以不同时期的人,或者同时代不同类型的人,思维能力也千差万别。另外,不同的社会实践,使大脑贮存了不同性质和不同量的信息,因而输出的信息与控制环境的形式也是不一样的。假如让两个不同社会经历和不同知识水平的人,同时去参观一个“电子技术展览会”,虽然两人眼见耳闻的内容相同,但原来两人贮存在脑子里的信息不同,当然他们理解、收获也大不一样。
智能机是机械地工作的,他处理各种能辨认但并不理解枯燥无味的符号。智能机不具备人脑中所含的、形成意识和思想实质的那些丰富的联想、隐喻和概括性的语言,更没有为采取达到某种目的的意志和情感。人的意向活动以及知识经验都是在社会实践中获得的。随着科学技术的发展,人们不仅能制造出自动化程度很高的由“金属元件”构成的智能机,而且有朝一日通过生物工程制造出“活体神经细胞”,组成人造大脑,创造出生物性的智能体,从这个意义上说,机器是可以模仿人的自然属性的。但从总体上看,因为智能机不是生活在社会之中,没有人那样长期的社会实践,不具备人的社会属性,因而也就不可能有真正意义上的思维。
第二,人工智能不具有人的主观能动性。主观能动性,是人类在认识世界和改造世界中有目的、有计划、积极主动的行动,是人区别于其它动物的主要标志。人的这种能动性表现在两个方面:一方面是能动地反映客观;另一方面是能动地反作用于客观,而这两方面又统一于实践。如果根据现代控制论来分析,那么所谓能动性,也就是人的大脑这个特殊物质在获取外界各种信息后,自动地进行分析、综合而作出反映;同时,又根据原来储存的信息进行比较、概括,最后作出控制客观对象的决策,付诸具体的行动。在这整个过程中,相对于主观来说,认识和改造的客观对象总是处于被动的地位。人的意识作为客观世界的反映,并不像镜子那样简单地、机械地、直观地反映,而是通过感觉器官和大脑的复杂活动,通过人体各个部分有机地联系,而产生的积极的反映。人的意识不仅反映客观世界,而且能指导人们去主动地有目的地改造世界。