地平线:人工智能时代的软硬件结合
“那些真正关注软件的人应该自己去做硬件。”
------图灵奖获得者AlanK
如果现有的工具不好用,那么就去创造好用的工具。
这是典型的科学家思维。
作为百度深度学习研究院(IDL)创始人,北京地平线信息技术有限公司(下称:地平线)创始人兼首席执行官余凯博士在离开百度后创立了一家人工智能芯片公司。
百度和谷歌是最早将深度学习用在互联网行业的企业,他们的专家也是最早意识到计算效率是行业发展巨大瓶颈的少数人。
“在百度做人工智能深度学习的算法的时候就预见到了图形处理器(GPU)进行运算不是这么高效。”余凯意识到如果要推动人工智能大规模的应用落地,一定要结合软件和硬件,真正的去提升计算的效率。
2015年7月,余凯作为主要创始人的地平线成立。两年后,基于地平线人工智能专用处理器架构BPU(BrainProcessingUnit)的嵌入式人工智能视觉芯片发布,包括面向智能驾驶的征程1.0和面向智能摄像头的旭日1.0。在地平线的公司介绍上,有着这样一句话:地平线具有世界领先的深度学习和决策推理算法开发能力,将算法集成在高性能、低功耗、低成本的嵌入式人工智能处理器及软硬件平台上。
“软硬结合从一开始就是我们的策略,从开始到今天都没有变过。”余凯说,“软硬结合,从做硬件的人的角度来看是一件蛮奇怪的事情,但我的背景是软件,我从软件公司创业去做硬件,天然就带着软硬件结合的基因。”
人工智能时代,软硬件结合的趋势会更紧密。最有效的是一家公司同时做软件和硬件。
软件与硬件需要协同合作,但在不同的年代,不同的载体的背景下情况却并不完全相同,这导致了完全不同的行业竞争结果。
在个人电脑(PC)时代,主要的竞争在苹果公司和英特尔与微软的“Wintel”同盟间展开。最终,苹果公司硬件加封闭系统最终没有敌过“Wintel”同盟强大的生态体系。
到了移动互联网时代,竞争双方换成了苹果“A系列芯片+IOS”与AA(安卓和ARM)联盟。移动设备主要依靠电池供电,相对于PC,对功耗的要求更高。正是这个原因,苹果移动设备操作系统和芯片协同在用户体验上的优势相对PC时代更为明显。目前虽然AA联盟拥有更高的市场份额,但苹果有更丰厚的利润。
到了人工智能时代,软硬件协同的要求将进一步加强。
“在人工智能时代,软硬件结合将更紧密,最有效的方式是软件和硬件都由一家公司里面做。”余凯说,“地平线会做机器人的操作系统和芯片,结合在一起做。”
在余凯看来,未来5到10年,随着数据和人工智能需求的增加,人工智能相关的感知计算的需求将超过目前逻辑计算的需求,人工智能芯片会成为芯片市场的主流,能真正做到软硬件结合的人工智能芯片公司将在竞争中占据优势。
一家芯片公司要真正做到软硬件结合并不简单,既需要有超强的软件算法创新的能力,又要有能做原创硬件核心架构设计的世界一流专家。更重要的是硬件设计和软件设计两条体系的流程并不相同,要把两者深度结合在一起,这个难度要远超单一维度
“如何协同硬件和软件在整个研发路径,项目规划上的配合,在很多公司里面都是很大的挑战。”,余凯说,软硬结合的难度很大,地平线也面临这些挑战,只是我们目前解决的还比较好。
在余凯看来,芯片厂商真正能做到软硬件结合的目前只有谷歌,地平线还有英特尔刚刚收购的Mobileye,后者是以色列一家生产协助驾驶员在驾驶过程中保障乘客安全和减少交通事故的视觉系统的公司。
边缘计算将崛起,而在这个领域,软硬件结合更为重要。
如果将英特尔、ARM(英国ARM公司)、英伟达(NVIDIA)和地平线以“逻辑计算或感知计算”、“服务器或终端”进行归类,我们会发现地平线处于“感知计算+终端”这个类别中。
服务器
终端
逻辑计算
英特尔
ARM
感知计算
英伟达
地平线
除了人工智能相关的感知计算是未来趋势,地平线定位还源于市场空间和自身特点。
余凯坚信从移动互联网开始到物联网时代到来,更多的计算会从中央往边缘迁移,这将是一个边缘计算(数据在最近端进行处理,一般对应中央计算或云计算)兴起的时代。在他看来,未来边缘计算将与中央计算平分市场,这意味着目前市场规模很小的边缘计算将会快速发展,相对于巨头把持的云计算市场,边缘计算市场也更容易切入。
地平线自身的软硬件结合特色在边缘计算领域有更显著优势。软硬件结合的优势往往反映在功耗和运算实时性上,在服务器端,软硬件结合能力固然重要,但服务器是插电的,功耗往往只影响运行成本,另外服务器端运算一般允许一定延迟,对实时性要求并不高。终端设备就完全不同,电池供电模式对效率更为敏感,对计算实时性要求更高(比如自动驾驶芯片的实时响应能力直接影响到行驶安全),所以终端设备更需要完美的软硬件协同。
未来,终端AI芯片将从感知计算转向感知、决策一体化,这些属于通用人工智能要解决的问题。2018年地平线成立通用人工智能实验室,他们认为这一变化将在未来的5到10年出现。
目前深度学习主要是做感知计算,要过渡到通用人工智能,还需要增强学习(研究如何通过一系列的顺序决策来达成一个特定目标,目标导向的学习)和迁移学习(一个预训练的模型被重新用在另一个任务中)。这对于人工智能真正的大范围应用至关重要,需要让机器的被动训练转变成为主动的学习。
比如自动驾驶领域如何验证安全性?安全性不能靠正常路况去测试,应该在极端条件、意料之外的情况下去测试,而极端的情况就是指的训练数据中没有的情况。自动驾驶汽车需要学会正确的处理没有遇见过的情况,而这是通过数据训练达不到的。
“必须要从现在大数据训练的方式过渡到未来的这种自我推理、决策的方式。”余凯说,“这也是我们为什么要成立通用人工智能实验室并在这方面有很大投入的原因。”
能否在这一变迁中胜出,对于地平线这样一家公司,将至关重要。
(本文摘自《2018中国企业创新发展报告》,该报告由第一财经、汇丰银行及北大汇丰商学院,于2018第一财经技术与创新大会(深圳站)联合发布)
人工智能的发展与未来
随着人工智能(artificialintelligent,AI)技术的不断发展,各种AI产品已经逐步进入了我们的生活。
现如今,各种AI产品已经逐步进入了我们的生活|Pixabay
19世纪,作为人工智能和计算机学科的鼻祖,数学家查尔斯·巴贝奇(CharlesBabbage)与艾达·洛夫莱斯(AdaLovelace)尝试着用连杆、进位齿轮和打孔卡片制造人类最早的可编程数学计算机,来模拟人类的数理逻辑运算能力。
20世纪初期,随着西班牙神经科学家拉蒙-卡哈尔(RamónyCajal)使用高尔基染色法对大脑切片进行显微观察,人类终于清晰地意识到,我们几乎全部思维活动的基础,都是大脑中那些伸出细长神经纤维、彼此连接成一张巨大信息网络的特殊神经细胞——神经元。
至此,尽管智能的具体运作方式还依然是个深不见底的迷宫,但搭建这个迷宫的砖瓦本身,对于人类来说已经不再神秘。
智能,是一种特殊的物质构造形式。
就像文字既可以用徽墨写在宣纸上,也可以用凿子刻在石碑上,智能,也未必需要拘泥于载体。随着神经科学的启迪和数学上的进步,20世纪的计算机科学先驱们意识到,巴贝奇和艾达试图用机械去再现人类智能的思路,在原理上是完全可行的。因此,以艾伦·图灵(AlanTuring)为代表的新一代学者开始思考,是否可以用二战后新兴的电子计算机作为载体,构建出“人工智能”呢?
图灵在1950年的论文《计算机器与智能(ComputingMachineryandIntelligence)》中,做了一个巧妙的“实验”,用以说明如何检验“人工智能”。
英国数学家,计算机学家图灵
这个“实验”也就是后来所说的“图灵测试(Turingtest)”:一名人类测试者将通过键盘和显示屏这样不会直接暴露身份的方式,同时与一名人类和一台计算机进行“网聊”,当人类测试者中有七成都无法正确判断交谈的两个“人”孰真孰假时,就认为这个计算机已经达到了“人工智能”的标准。
虽然,图灵测试只是一个启发性的思想实验,而非可以具体执行的判断方法,但他却通过这个假设,阐明了“智能”判断的模糊性与主观性。而他的判断手段,则与当时心理学界崛起的斯纳金的“行为主义”不谋而合。简而言之,基于唯物主义的一元论思维,图灵和斯金纳都认为,智能——甚至所有思维活动,都只是一套信息处理系统对外部刺激做出反应的运算模式。因此,对于其他旁观者来说,只要两套系统在面对同样的输入时都能够输出一样的反馈,就可以认为他们是“同类”。
1956年,人工智能正式成为了一个科学上的概念,而后涌现了很多新的研究目标与方向。比如说,就像人们在走迷宫遇到死胡同时会原路返回寻找新的路线类似,工程师为了使得人工智能达成某种目标,编写出了一种可以进行回溯的算法,即“搜索式推理”。
而工程师为了能用人类语言与计算机进行“交流”,又构建出了“语义网”。由此第一个会说英语的聊天机器人ELIZA诞生了,不过ELIZA仅仅只能按照固定套路进行作答。
而在20世纪60年代后期,有学者指出人工智能应该简化自己的模型,让人工智能更好的学习一些基本原则。在这一思潮的影响下,人工智能开始了新一轮的发展,麻省理工学院开发了一种早期的自然语言理解计算机程序,名为SHRDLU。工程师对SHRDLU的程序积木世界进行了极大的简化,里面所有物体和位置的集合可以用大约50个单词进行描述。模型极简化的成果,就是其内部语言组合数量少,程序基本能够完全理解用户的指令意义。在外部表现上,就是用户可以与装载了SHRDLU程序的电脑进行简单的对话,并可以用语言指令查询、移动程序中的虚拟积木。SHRDLU一度被认为是人工智能的成功范例,但当工程师试图将这个系统用来处理现实生活中的一些问题时,却惨遭滑铁卢。
而这之后,人工智能的发展也与图灵的想象有所不同。
现实中的人工智能发展,并未在模仿人类的“通用人工智能(也称强人工智能)”上集中太多资源。相反,人工智能研究自正式诞生起,就专注于让计算机通过“机器学习”来自我优化算法,最后形成可以高效率解决特定问题的“专家系统”。由于这些人工智能只会在限定好的狭窄领域中发挥作用,不具备、也不追求全面复杂的认知能力,因此也被称为“弱人工智能”。
但是无论如何,这些可以高效率解决特定问题的人工智能,在解放劳动力,推动现代工厂、组织智能化管理上都起到了关键作用。而随着大数据、云计算以及其他先进技术的发展,人工智能正在朝着更加多远,更加开放的方向发展。随着系统收集的数据量增加,AI算法的完善,以及相关芯片处理能力的提升,人工智能的应用也将逐渐从特定的碎片场景转变为更加深度、更加多元的应用场景。
人工智能让芯片的处理能力得以提升|Pixabay
从小的方面来看,人工智能其实已经渐渐渗透进了我们生活的方方面面。比如喊一声就能回应你的智能语音系统,例如siri,小爱同学;再比如在超市付款时使用的人脸识别;抑或穿梭在餐厅抑或酒店的智能送餐机器人,这些其实都是人工智能的应用实例。而从大的方面来看,人工智能在制造、交通、能源及互联网行业的应用正在逐步加深,推动了数字经济生态链的构建与发展。
虽然脑科学与人工智能之间仍然存在巨大的鸿沟,通用人工智能仍然像个科幻梦,但就像萧伯纳所说的那样“科学始终是不公道的,如果它不提出十个问题,也永远无法解决一个问题。”科学总是在曲折中前进,而我们只要保持在不断探索中,虽无法预测是否能达到既定的目的地,但途中终归会有收获。
参考文献
[1]王永庆.人工智能原理与方法[M].西安交通大学出版社,1998.
[2]Russell,StuartJ.ArtificialIntelligence:AModernApproach[J].人民邮电出版社,2002.
[3]GabbayDM,HoggerCJ,RobinsonJA,etal.Handbookoflogicinartificialintelligenceandlogicprogramming.Vol.1:Logicalfoundations.,1995.
[4]胡宝洁,赵忠文,曾峦,张永继.图灵机和图灵测试[J].电脑知识与技术:学术版,2006(8):2.
[5]赵楠,缐珊珊.人工智能应用现状及关键技术研究[J].中国电子科学研究院学报,2017,12(6):3.
[6]GeneserethMR,NilssonNJ.LogicalFoundationofArtificialIntelligence[J].brainbroadresearchinartificialintelligence&neuroscience,1987
作者:张雨晨
编辑:韩越扬
[责编:赵宇豪]人工智能为什么一定要有身体
本文来自微信公众号:腾讯研究院(ID:cyberlawrc),作者:王焕超(腾讯研究院助理研究员),头图来自视觉中国
人类是一种具备丰沛想象力的生物,无论是对自我还是他者,对过去还是未来,皆是如此。当面对“人工智能”这种新事物时,人类的这一点特性体现得尤为明显。
早在希腊神话中,诸如“黄金机器人”这样的智能机器就已经出现。传说火神赫准斯托斯为了招待上帝,通过金属加工和手工工艺铸造了24个铜三脚架,它们能够凭借金色的轮子自我驱动、四处走动,这便是人工智能最早的雏形。
而在今天,人类对人工智能的想象依旧狂热。从《终结者》、《银翼杀手2049》,到《机械姬》、《战斗天使阿丽塔》,大量的科幻作品向我们展示了人工智能的未来形态:它们不仅是超强智能的化身,更是形似人类并且具备自我意识的情感动物。
但也有一种声音认为,迄今对强人工智能的幻想未免太缺乏想象力:当超级智能已经无所不能之时,为何还会受到“肉体”的限制?表面看起来,这样的质疑不无道理,人类对AI形态的构想似乎仍受自身经验和认知水平禁锢——人有躯体,那么未来的人工智能也一定会有躯体。倘若AI能摆脱实体桎梏,以类似于数据的形式存在,那么它无疑将更加空灵自由,能力也会更为强悍。
不过,越来越多的证据表明,“身体”恰恰是人工智能发展、进化必不可少的关键基础。随着认知科学的迅速发展,“具身认知”理论得到AI科学家重视,并由此促成人工智能研究的具身性转向。这一转向极为重视“身体”对于人工智能的作用,以此为突破技术发展瓶颈带来曙光,并成为迈向强人工智能乃至超人工智能的关键一步。
一、定义“智能”对于“什么是人工智能”这个问题,人类总喜欢拿自身情况和认知水平去类比、衡量。循着这一思路,似乎只有那些能够突破人类能力瓶颈——即解决人类都难以攻克的复杂问题、拥有超高速计算能力的才被视为“人工智能”。
实际上,这种主宰了AI研究界数十年的理念并没有真正理解“智能”的含义。
这一理念也直接导致人类在弱人工智能领域踌躇过久,而在强人工智能领域长期毫无建树。在20世纪五六十年代,研究者表现出相当乐观的情绪,他们认为具备完全智能的机器将在二十年内出现。然而,许多个二十年已经过去,就现实中人工智能领域的发展状况而言,尽管相关技术取得巨大进步,但相较于过往的美好愿景仍然差距甚远,“完全智能”的实现仍遥遥无期。
早期科学家们之所以预测真正的人工智能很快就能出现,其乐观源于一个事实:彼时的智能程序已经能成功解决复杂的代数问题和证明几何定理,并且可以像专业棋手一样下国际象棋。逻辑似乎很简单:对于普通人来说,无论是代数几何,还是高超棋艺,都是极具挑战性的任务,所以就被视为“智能”的象征;而诸如识别一张桌子和一束花,或者是用腿自由行走,这些行为属于“常识”或“本能”的范畴,根本就不需要动用“智能”。以此推论,当机器能够轻易解决数学推理等困难问题时,那相对容易的任务自然就更不在话下了。这是古典人工智能主义时期通行的想法,在很长一段时间内,人工智能的发展方向受其统摄,研究者通过攻克一道道技术难题,来证明AI的“智能”程度正在不断深化。
但这种想法逐渐被证明是错误的。因为时至今日,尽管人工智能已经能轻易打败人类最高明的棋手,图像识别、逻辑推理等技能更不在话下,但是我们仍然不得不承认一个事实:现在的人工智能并不是真正的“智能”——它们仍需人类提供数据、设立模型、给定程序和架构,并且只在特定领域、特定规则的限制下才能发挥作用。在此情形之下,AI所作出的种种行为,实际上并不是自我思考的产物,而是程序机械化运作的结果,它不会真正进行自我判断,更别说拥有直觉、感知、意识、情感等人类才有的属性。可以说,古典人工智能主义错误理解了“智能”的本质。
其实早在1980年,就有科学家对这一问题进行了阐释。汉斯·莫拉维克等人发现,与刻板认知不同,人类所拥有的高阶能力(比如推理)只需要非常少的计算能力,相反,一些无意识的技能和直觉却需要强大的运算能力。莫拉维克指出,“要让电脑如成人般下棋是相对容易的,但是要让电脑有一岁小孩般的感知和行动能力却是相当困难甚至是不可能的”。这一发现被称为“莫拉维克悖论”,它揭示罗人工智能所进行的那些看似复杂的“智能任务”,其实与真正的人类智能并无可比性。
“人工智能之父”马文·闵斯基也认为:对技术人员来说,最难以复刻的人类技能实际上是那些无意识的技能。某种程度上,在人工智能领域,迄今为止已经攻克的逻辑问题反而是最无关紧要的,因为这些问题很容易通过机器进行解决,但人类的一些简单行为,实际更难实现。比如,一个几岁的婴儿就能轻易辨识人脸、随意走动、自发性地哭闹喊叫,但这些看似简单的人类智能行为,对AI来说却远比登天还要困难。
二、“身体”对人工智能缘何重要?其实前述讨论所围绕的主线,还是关于AI智能程度的差别。2017年,密歇根州立大学的ArendHintze在《理解AI的四种类别》一文中,提出了广为认可的“人工智能四级分类法”:
1.响应式:AI无法产生记忆,不能利用过去的经验进行决策,它们只为完成特定任务所设计,不能胜任其他任务,这是最基本的AI类型;
2.有限记忆:AI的当前行为能够参考刚刚发生的事件,但记忆是瞬时的,无法用于未来决策;
3.心智理论:这是一个心理学术语,处于此阶段的AI能够根据他人的行为推导并理解其想法和动机,这一类型的AI能够归纳出周围环境和预知交互的其他表征;
4.自我意识:AI的终极能力。
从程度上看,现阶段的人工智能在第一、二阶段进展已足够迅速,勉强能实现第三阶段的部分功能,而第四阶段还遥遥无期,因为它显然属于“人类智能”的范畴。Hintze的四级分类法也遭到了一些批评,原因就在于第三、四阶段之间的鸿沟显然太过巨大。
其实早于Hintze,更为通行的分类方式是“弱人工智能”和“强人工智能”,二者也是在智能程度上有所差别。弱人工智能主要是作为辅助人类的工具,它能在特定领域、特定规则的限制下进行系统阐述和检验工作,但它并不能实现真正意义上的推理与解决问题,因此不具备真正的“智能”,我们现在所能见到的AI,基本都属于弱人工智能的范畴。相较于此,强人工智能就不仅仅是工具的角色了,它具有知觉和理解能力,甚至拥有自我意识和价值观体系,在某种意义上,它本身就是一种与人类并存的全新文明。
谈及弱人工智能和强人工智能的区分,必须提到哲学家约翰·塞尔。他通过著名的“中文屋实验”,发现计算机程序纯粹是按照句法规则组织起来的,尽管机器可以做到对人类行为的高度模拟,甚至在某些地方可以超越人类,但它却是没有理解能力的,不能像人一样进行认知活动。这一发现揭示了彼时人工智能的瓶颈。
为此,塞尔引入“意向性”概念,用以解释人类智能与人工智能的区别(实际也是强人工智能与弱人工智能的区别):“人的一言一行在多数情况下都是由自我意识引导完成的,积极而主动;而机器所做的每一件事都需要人事先制定好,机械且被动”。“意向性”就是划分主动与被动的界限。
根据塞尔的定义,“意向性”是某种心理状态的特征,此种特征使心理状态指向或涉及世界中的客体或事物状态。换言之,真正的“意向性”产生于与世界的交互,从环境系统和客观事物中生成。这种“交互”是人类意向性的基础,它使人类获得对世界的理解与感觉意识。
如果机器要实现真正的智能,首要解决的问题就是海量背景知识的学习,其中包括各种常识,也包括世界运作的方式。这些知识是无穷无尽的,并且难易体系化,除非AI能够实现摆脱人类给定数据意义上的、真正的“自我学习”,否则永远无法掌握这些背景知识。
而感觉意识,也缘于与世界的交互。比如“辣”这种感觉,源于吃辣的食物时舌尖上的痛感,红色辣椒、满面通红的视觉,以及极具刺激性的嗅觉等等,它们共同组成了我们对“辣”的认识。它不仅是一种生理性的感受,更源于我们与客观事物的真实交互,进而将这种综合性的感知内化为脑中的意识,并作为指导所有行动的先验性标准。
而人类与外部环境、客观的交互,都需要由“躯体”这个中介来完成。但AI是没有“躯体”的,它只能和人类给定的数据交互,却不能从与环境的互动中获得“常识”,也就不会形成自我感受和意识。反言之,如果要让AI具备意识,首先就要赋予它一个可以自己控制的躯体,并像普通个体一样融入物理世界与人类社会。
三、具身性与强人工智能让人工智能拥有一个“身体”,这是具身性人工智能研究路径的主要观点。此路径的生成依托于20世纪五六十年代兴起的“认知科学革命”,并直接受其中“具身—生成取向”的影响。这一取向所主张的“具身认知”假设,认为认知过程和思维过程并非是在智能体内部发生的,而是发生在智能体与环境的自适应交互之中。
AI科学家吸取“具身-生成取向”的理论核心,形成了人工智能研究的“行为学派”,关注智能体与环境的互动。早在数年前,行动学派的坚定支持者罗德尼·布鲁克斯就提倡制造一种没有辨识能力,只有感知和行动能力的机器。他将这个机器称为“新人工智能”,是完全跳脱传统定义的人工智能。
布鲁克斯认为,为了使机器人获得真正的智能,必须实现它的“躯体化”。借助于这具躯体,它能够自主移动、生存、同这个世界交互,进而感知、思考、生成意识。在布鲁克斯看来,这个世界就是描述它自身最好的模型,它包含所有研究所需的细节,而理解它的诀窍就在于亲身接触、亲身感知。
布鲁克斯的做法体现了具身认知论的思想核心,即从基础开始模拟人类,进而使机器获得媲美“人类智能”的自主思维能力——通过“自下而上”的路径,构造出真正的人工智能。要知道,日常生活世界远要比科学世界庞大、复杂得多,其蕴含的数据资源和知识资源,纵使有再多数据库也无法完全覆盖。古典人工智能主义在忽略“躯体”要素的同时,实际上也忽略了外部世界诸多丰富的细节,以此为主导制造的大多数计算机程序,除了编程者的控制指令,并没有与这个世界真正建立起联系。
人工智能的具身性转向,要求AI具有物质意义上的感觉器官,藉此外部世界提取信号;与这些感觉器官相连的是分层存储系统,它们与人类大脑皮层工作原理类似,能够存储从外部交互中获得的信号。通过反复训练,AI就能够通过感官系统和记忆系统构建起它自身关于世界的模型,进而能够依据过去的经历进行类推,并对未来事件做出预测,为新问题提供解决方案。这条路径,正是完美地模拟了人类意识的生成方法。此时的人工智能,如果按照Hintze的四级分类法来衡量,就已经突破了第三阶段并向拥有自我意识的第四阶段迈进。
这条路径的发展比想象中要快得多,以罗德尼·布鲁克斯为例,他在20世纪90年代就已经设计出实体化的“火星机器人”。而科技公司WillowGarage开发的PersonalRobot2机器人也是具身性人工智能的重要标志,它拥有两条手臂、可开合的夹爪,头部、胸部、肘部上安装有高分辨率摄像头、激光测距仪、惯性测量单元、触觉传感器等,PR2能够借助这些设备直接感受物理世界信号,由于采取了模糊决策控制,因此PR2不需要编程就能学习新事物。前段时间,引起诸多讨论的“机器血液”也是其中一环,它由康奈尔大学等机构研发,本质上是供机器人使用的液体电池,但它既有能量存储,又有动力传导的功能,除供电之外,还能够以液压的形式控制机器人运动姿态。
PR2机器人四、结语:奇点的迷思美国未来学家雷蒙德·库兹韦尔曾经提出“奇点”理论(theSingularity)。该理论预言,在2045年,强人工智能会出现,并具有幼儿智力水平,这就是“奇点”时代。而在这个节点来临后的一个小时,人工智能就能立刻推导出爱因斯坦的相对论以及其他作为人类认知基础的各种理论;一个半小时后,这个强人工智能将进化为超级人工智能,智能瞬间达到普通人类的17万倍。
我们能够大体理解,为何人们在强人工智能这个方向迟迟不能推进,一方面确实是现实需要不足且技术手段受限,而另一方面,以“奇点”理论为代表的诸多预言以及各种科幻电影的负面呈现,它们所预示的技术脱离人类控制、AI对人类的替代,使恐惧心理、忧虑心理始终环绕在人工智能的发展过程中。
但实际上,以当前人工智能发展的水平来看,这种担心其实很不必要,真正迈向“强人工智能”还有诸多技术难题需要攻克,在短时间内几无可能。与其被无谓的忧虑束缚手脚,不如谨慎克制地推进技术发展,丰富人工智能的应用场景,让它能够更好服务于人类,这或许才是正确的态度。
本文来自微信公众号:腾讯研究院(ID:cyberlawrc),作者:王焕超(腾讯研究院助理研究员)