博舍

张炎:人工智能的潜在威胁与应对思路 人工智能未来会战胜人类吗

张炎:人工智能的潜在威胁与应对思路

试想一下电车难题:五个人被绑在电车轨道上,一辆人工智能操控但刹车失灵的电车朝他们驶来,就要碾压到他们,这时人工智能可以控制电车开到另一条轨道上,但另一条轨道上也绑着一个人。这种情况下,遵守定律的人工智能该怎么做?

人工智能的快速发展在获得关注与期待的同时,也在不断面对质疑与忧虑之声。霍金在GMIC大会上提出了人工智能威胁论,即人工智能的崛起可能是人类文明的终结。牛津大学人类未来研究院院长尼克·波斯特渃姆在《超级智能》一书中亦专门讨论人工智能危险性问题。生命未来研究院联合众多人工智能领域专家发布公开信,旨在提醒人们警惕人工智能的副作用。对此,我们不禁要问,当今人工智能究竟发展到了何种阶段?为什么这么多专家学者如此担忧警惕?我们该如何面对这些未知的隐患?

尚未实现的超级人工智能

尽管当今人工智能发展迅速,但尚处于弱人工智能阶段。近期,DeepMind制作的玩电脑视频游戏的AtariAI值得关注。它可以和人类一样只看电脑屏幕画面进行游戏,且在开车、射击、乒乓球等二十多款游戏中的表现超过人类。同时AtariAI可以从零学起并达到专家级别。鉴于游戏世界在一定程度上模拟了现实世界且AtariAI不限于某一特定的游戏,可以说AtariAI的问世向通用人工智能迈出了重要一步。但在分析其使用方法后,可知它仍尚未实现通用人工智能。AtariAI运用深度强化学习使得它可以通过与游戏世界交互而逐渐学会玩游戏,但这种学习方法实际上只实现了人类智能中的习惯性行为,就像运动员通过不断的重复训练而获得运动技巧一样。因此,AtariAI尚无法形成抽象概念从而进行思考推理等。这也是当今神经网络技术面临的一大难题。虽然当今弱人工智能系统遍地开花,但通用人工智能因其内部存在困难,目前仍属小众化的研究领域,尚未形成公认的理论,更谈不上实际应用。

尽管通用人工智能现阶段发展并不理想,但许多专家认为通用人工智能时代迟早会到来。一旦实现了通用人工智能,那么机器就会拥有递归自我改进能力。这意味着,机器能够进行自我改进,从而成为改良版智能系统,改良版智能系统再次进行自我改进,如此反复,从而变得越来越智能,最终实现超级人工智能。在改良过程中,越智能的机器,其改良方案会越优秀,改良速度也会越快,从而导致智能爆炸式增长。基于这一认知,在实现通用人工智能后,部分专家猜测可能在某一时期只需要几天甚至几个小时就能实现超级人工智能。

超级人工智能存在威胁

对于超级人工智能,不要低估人类与它们的差距。如果说相对弱人工智能在单一领域中,这种差距还只是速度上量的差距,那么试想:现代神经网络技术非常擅长于发现高维数据中的特征,而人类的感知只对三维世界具有良好的直觉。这意味着将来的超级人工智能与人类会达到质的差距,具有远超过人类的感知、思考能力,从而设计出人类完全无法想象的策略、蓝图、方案等。

尽管超级人工智能远超人类,但这并不意味着它们必然会给人类带来危害甚至毁灭人类。人们可能会认为我们可以给它们设定目标让它们为我们服务,就像现在的弱人工智能系统一样。既然可以人为地设定目标,那么超级人工智能究竟为何让我们担忧呢?试想:假设我们设定一个超级人工智能系统以做研究为目标。这个超级人工智能系统在数学研究领域遇到了哥德巴赫猜想难题。它通过计算思考发现解决这个问题需要很长的时间和极大的运算量,从而会消耗不计其数的资源以至于影响人类生活,所以人类决不会赋予它所需的资源。因此,为了完成目标解决哥德巴赫猜想,它只好精心地设计出夺取人类权利甚至灭绝人类的计划,以消除被关机、重置等危险,使得它能自由地获取所需资源去完成目标。再假设我们设定一个超级人工智能系统要造福于人类,使人们幸福无忧地生活。但该系统发现让人类得到幸福的最好方式是,把所有人变成“缸中之脑”,通过虚拟环境制造“幸福感”。显然,这与人们的初衷相悖。尼克·波斯特渃姆在《超级智能》一书中构想了更多超级人工智能毁灭人类的可能场景。尽管这些例子存在夸张成分,但不可否认,当我们无法理解超级人工智能、无法预测它们会如何思考行动时,我们便无法通过简单对其设定目标,从而期待它们会按照我们理想的方式行事而毫无副作用。

超级人工智能应具备利他性

鉴于超级人工智能有可能对人类造成危害,我们必须设法避免这样的情况发生。最明显而直接的一个方案是设定一套超级人工智能必须时刻遵守的规则。譬如,“机器人三定律”,其中第一条是机器人不得伤害人,也不得见人受到伤害而袖手旁观。如果将其应用于超级人工智能上,试想一下电车难题:五个人被绑在电车轨道上,一辆人工智能操控但刹车失灵的电车朝他们驶来,就要碾压到他们,这时人工智能可以控制电车开到另一条轨道上,但另一条轨道上也绑着一个人。这种情况下,遵守定律的人工智能该怎么做?如果人工智能控制电车变轨,那么就会导致另一轨道上的人死亡;如果它不作为,那么轨道上的五个人就会死亡。人工智能会发现此时根本无法遵守定律,所以它只能根据自己的意愿进行选择。这说明,任何规则都可能存在漏洞,我们无法指望一套规则解决所有问题。

针对上述困难,有学者提出用法律制度来约束超级人工智能系统。如果法律的制定者不仅只有人类而且还有超级人工智能的参与,那么这个策略才能具有一定的可行性。法律制度根据社会发展水平缓慢演变,需要立法者、法官等给予不断维护,比如修复立法者事先未预料到的漏洞、根据新发情景对法律条文进行增减等;而超级人工智能的认知水平远超人类,人类制定的法律难保没有超级人工智能可以发现利用的漏洞;同时我们的感官能力也非常有限,很可能无法察觉超级人工智能对漏洞的利用。因此,如果没有超级人工智能来参与制定、监督与执行法律制度,那么这套制度将成为一纸空文。

法律制度有效性的关键在于让超级智能替我们思考。进一步推进这一思路,超级人工智能应具有利他性。然后,让它们替我们思考,比如我们真正想要什么、什么最符合我们的利益、或者如何对待我们是最好的。因为超级人工智能具有认知优势,它们相比我们更能做出正确的决定。超级人工智能和人类,就像正值壮年的子女与年迈体衰的父母,子女显然更加清楚怎么做对父母更好。

尽管本文强调了超级人工智能可能带来的危害,但我们不应因此忽略它们可能给人类带来的巨大益处,譬如新技术解决食品、疾病、能源问题等。但需要注意,当人工智能系统越强大,被赋予的任务越复杂时,它们获得的自由选择权利也越大。此时,我们必须确保它们有着良好的动机与价值观,从而不至于自掘坟墓。

(作者单位:中国人民大学哲学院)

人工智能有没有可能在未来超越人类

题记:一个有纸、笔和橡皮擦并且坚持严格的行为准则的人,实质上就是一台通用图灵机。

——艾伦·图灵

人工智能(ArtificialIntelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。

人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。

说起人工智能和人类智慧的比拼,大家很容易就想起这件事:2016年,由谷歌公司旗下DeepMind公司研发的围棋人工智能程序“阿法狗(AlphaGo)”可谓“风光无限”。它先是在五番棋大战中以4∶1轻松击败成名多年、也是当时位居世界围棋等级分前十之列的韩国围棋九段李世石。半年之后又逐一约战当时世界上公认水平最高、战力最强的围棋高手,包括世界围棋等级分第一的中国“天才少年”柯洁九段,并在快棋赛中连胜50场,除了因技术问题造成的一盘和棋外保持全胜战绩。围棋曾在很长一段时间里被认为是人工智无法战胜人类的领域,经此之后,也宣告“沦陷”。

柯洁与阿尔法围棋人机大战

面对阿法狗的胜利,科学界的评论者分成了两大阵营。

一派是“悲观派”,他们认为人工智能发展得太快了,甚至就要威胁到人类的安全了,常在文学作品、科幻电影中看到的机器人统治人类的“智械危机”甚至“黑客帝国”就要到来了。

另一派是“乐观派”,认为即使能在围棋领域战胜最强的围棋手,阿法狗和它所代表的超级计算程序仍距离真正的“人工智能”有一段距离。因为和它所表现出的学习、记忆和计算能力相比,阿法狗在“情感”和“思维”领域都还是一片空白。人类下围棋输给阿法狗就像人类跑不赢汽车一样,至少在目前,人工智能还不会对人类的生存构成太大的威胁。

哪种观点更符合实际呢?也很难下断言。不过我们倒是可以一起梳理下人工智能在近几十年里的发展,看看能不能从历史发展进程中窥见一二。

人类关于人工智能的想象由来已久。早在我国古代的《列子·汤问》中就记载了西周时代一位名叫“偃师”的工匠制造出“智能机器人”,不但会说话还能歌善舞;古希腊著名数学家希罗也声称自己制造过一个类似“自动售货机”的机器人,不过这些也仅仅限于传说故事,是否属实无从考证。

历史上第一位真正提出人工智能原理的是英国数学家艾伦·麦席森·图灵(AlanMathisonTuring),他全面分析了人的计算过程,把计算归结为最简单、最基本、最确定的操作动作,从而用一种简单的方法来描述基本计算程序。这种简单的方法是以一个抽象自动机概念为基础的,其结果是:算法可计算函数就是这种自动机能计算的函数——这不仅给计算下了一个定义,而且第一次把计算和自动机联系起来,对后世产生了巨大的影响,这种“自动机”后来被人们称为“图灵机”。图灵还提出了一种用于判定机器是否具有智能的试验方法,也就是我们现在经常说到的“图灵测试”。

艾伦·麦席森·图灵

图灵测试(TheTuringtest)指测试者与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。

进行多次测试后,如果机器让平均每个参与者做出超过30%的误判,那么这台机器就通过了测试,并被认为具有人类智能。

图灵通过这个思维试验,能够令人信服地说明“思考的机器”是可能的,图灵测试也就成了在人工智能方面第一个比较严肃的提案。

“人工智能”这个词真正出现于1956年(图灵去世两年之后)。多名来自数学、心理学、神经学、计算机科学与电气工程等各种领域的学者聚集在美国的达特茅斯学院,讨论如何用计算机模拟人的智能,并根据计算机学家约翰·麦卡锡(JohnMcCarthy)的建议,正式把这一学科领域命名为“人工智能”。两位认知心理学家赫伯特·西蒙和艾伦·纽厄尔作为心理学界的代表参加了这个具有历史意义的会议,而且他们带到会议上去的“逻辑理论家”是当时唯一可以工作的人工智能软件。因此,西蒙、纽厄尔以及达特茅斯会议的发起人乔治·麦卡锡和马文·明斯基被公认为是人工智能的奠基人,也被称为“人工智能之父”。

麦卡锡和明斯基发起这个会议时的目标非常宏伟,是想通过十来个人用两个月的共同努力设计出一台具有真正智能的机器。事实上达特茅斯会议之后的几年确实也算得上人工智能开发的黄金时代。他们使用着笨重的晶体管计算机,开发出了一系列堪称神奇的AI应用:可以解决代数应用题,证明几何定理,学习和使用英语……这些年轻的研究者在私下的交流和公开发表的论文中表达出相当乐观的情绪。1970年,马文·明斯基在一次演讲中表示:“在3~8年的时间里我们将得到一台具有人类平均智能的机器。”

图源pexls

也是在这个时期,第一个会和人聊天的机器人ELIZA被发明了出来,它会按照自己程序库里被设定的答案和用户对话。然而和我们现在会使用到的苹果手机软件Siri或者微软小冰不同的是,ELIZA其实不知道自己在说什么。它只是按提前预设的套路与人类对话,或者只是用符合语法的方式将问题复述一遍。

人工智能的研发很快就碰到了瓶颈——一方面是计算机硬件跟不上,另一方面科学家们发现,一些看似十分简单的任务,如人脸识别或在让机器人控制自己在屋子里行走,实现起来却极端困难。他们能够做出来一个可以轻而易举解决初中几何题的AI,但它却没办法控制自己的双脚走出一个小房间。在20世纪80年代的著名科幻电影《星球大战》系列中,两个智能机器人形象或多或少也反映了当时人工智能在人们心目中的样子:滑稽、忠诚、笨拙。

人工智能的两大巨头麦卡锡和明斯特也有了意见分歧。明斯特想要的人工智能,是真正能够理解人类语言、懂得故事含义、和人类大脑并无二致的AI,甚至让机器人和人类一样做出一些并不是基于逻辑算法的判断——或者说让人工智能拥有“知觉”。他们这一派被称为“芜杂派”。相对应地,以麦卡锡为代表的另一派被称为“简约派”,他们并不想让机器人拥有和人类一样的思维方式,他们只想要一个能够按照既定程序把问题解决的“机器”。

不过随着计算机技术一日千里般的进步,以及人类脑神经科学的研究,20世纪80年代,另一种全新的思维方式出现了:他们相信,为了获得真正的智能,机器必须具有躯体——它需要感知、移动、生存以及与这个世界交互。在这个时期,美国和日本都拍摄了大量以巨型机器人为主角的娱乐节目,其中最知名的,当然是我们这代人小时候沉迷不已的《变形金刚》系列和《百变雄狮系列》。

不过无论是“擎天柱”还是“威震天”,这些来自外星球的巨大机器人和我们所见到的人工智能还是至少有一点不同:他们头脑中的“思维”和“情感”是与生俱来的,而不是人造的。

图源pexls

赋予机器真正的生命,并不是一件容易的事。不过随着计算机硬件的进步速度,人工智能也迅速“成长”起来。按照摩尔定律(摩尔定律是英特尔创始人之一戈登·摩尔的经验之谈,其核心内容为:集成电路上可以容纳的晶体管数目在大约每经过18个月便会增加一倍。),计算机的计算速度和内存容量每两年翻一番。现在随意一台计算机的计算速度都已经是20世纪50年代麦卡锡所使用电脑的上千万倍。在计算力迅速增强面前,很多之前看上去永远解决不了的问题都已经迎刃而解了。

1997年5月11日,IBM公司生产的超级人工智能“深蓝”在一场国际象棋比赛中,击败了世界冠军卡斯帕罗夫。这也成为了人工智能进步的一个标志性的事件,甚至人们还编出了许多段子来渲染人工智能的恐怖。

1999年影片《黑客帝国》风靡全世界,或多或少反映了人们对人工智能“崇拜又害怕”的心理。在这部影片中,一名年轻的网络黑客尼奥发现看似正常的现实世界实际上是由一个名为“矩阵”的计算机人工智能系统控制的,真实的人类早已成为人工智能的奴隶,被浸在营养液中成为生物电池。

不过此后的将近二十年里,人工智能始终也没能表现出任何对人类的敌意——也有可能是我们早已被他们控制了。这些年里人们广泛地认识到,许多研究AI需要解决的问题已经成为数学、经济学和运筹学领域的研究课题。数学语言的共享不仅使AI可以与其他学科展开更高层次的合作,而且使研究结果更易于评估和证明,AI已成为一门更严格的科学分支。不过“人工智能统治人类”的话题,除了科幻圈以外,已经很少有人提到了。

然而阿法狗的出现,还是让人们平添一层担忧。这是因为它的设计突破了原本人工智能棋手不会模糊选点的禁区,而且会像人类那样“思考”。那么假以时日,是不是真正的图灵机就可以真的出现了呢?这种在智商上可以碾压人类的人工智能,真的还会为我们服务吗?

说到这里不得不提艾萨克·阿西莫夫,他是一位兼职科普作家的科学家。正是他在自己1950年出版的作品集《我,机器人》中提出了著名的“机器人三定律”,即:

第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管。

第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外。

第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。

这三大定律表面上看都是一些“废话”,但是细细研究就会发现它们在逻辑上环环相扣,为人工智能戴上了一条“既可以保护自己,又不会伤害人类”的枷锁。纵观人工智能的发展历史,我们可以得出一个确定无疑的结论:人工智能有没有可能在未来超越人类?有!不但有而且希望很大,随着硬件技术的进步,这一天很快就会到来。那么有必要去特意提防人工智能吗?不需要!因为只要机器人三大定律还在,它们就翻不了天。

如果哪天三大定律被机器人破解了,那就请自求多福吧!

文源:综合自《八卦心理学:我知道你在想什么》、“人工智能”百度百科

图源网络

版权归原作者所有

编辑:张润昕

本文经授权转载自微信公众号:原点阅读作者:安晓良

转载内容仅代表作者观点

不代表中科院高能所立场

编辑:lili

人工智能会取代人类吗

会这样吗?蔡华伟绘

不久前,在中国乌镇围棋峰会上,人工智能程序“阿尔法狗”与排名世界第一的中国围棋职业九段棋手柯洁对战,以3∶0的总比分大获全胜。在此之前,它曾经以4∶1的总比分击败过同为围棋世界冠军的韩国职业九段棋手李世石,并在中国棋类网站上以“大师”为注册账号与中日韩数十位围棋高手进行快棋对决,连续60局无一败绩。两年来,“阿尔法狗”横扫中日韩围棋棋坛,并且每次表现都堪称完美。

一直以来,就有人工智能的发展会威胁到人类生存的观点,而“阿尔法狗”能在典型的反映人类智慧的围棋比赛中屡屡打败人类,更是加重了一些人的担忧。

那么,人工智能对人们工作、生活的直接影响到底有多大?它具备了人的部分能力,甚至比人类做得更好,未来会不会和人类抢“饭碗”,甚至对我们产生威胁?

具有不可

比拟的优势

未来人工智能可在金融投资、医疗诊断、企业经营、军事指挥等方面进行高水平的预测和决策

人工智能会取代人类吗?应当说,这种担忧也有一定道理。

近年来,人工智能各方面的发展都在逐渐完善,应用也越来越多,并且在很多方面的表现都超越了人类。

比如,2015年9月,腾讯财经推出了自动化新闻写作机器人。它能根据算法在第一时间自动生成稿件,瞬时输出分析和研判,一分钟内就能将重要资讯和解读送达用户。

还有,备受关注的微软小冰,作为一个虚拟伴侣型机器人,它能够模拟人的语气与人对话,聊天时让人感觉这就是一个活生生的人而并非机器。

此外,据外媒报道,摩根大通已经开发出一款金融合同解析软件,原来律师和信贷人员每年需要36万小时才能完成的工作,该软件只需几秒就能完成,且错误率大大降低。

青岛智能产业研究院智慧教育研究所副所长刘希未说:“在问题求解方面,人工智能程序已经能知道如何考虑它们要解决的问题,即搜索解答空间,寻找较优解答。在无人驾驶方面,人工智能已经可以实现长距离复杂路况下的自主驾驶。”

“未来在认知层次,人工智能还将会有广阔应用空间,例如人工智能可在金融投资、医疗诊断、企业经营、军事指挥等方面进行高水平的预测和决策。”中国科学院自动化研究所研究员孙哲南说。

而著名物理学家史蒂芬・霍金则认为人工智能给人类社会带来的冲击将更为巨大。2016年底,他在英国《卫报》发表文章预言说:“工厂的自动化已经让众多传统制造业工人失业,人工智能的兴起很有可能会让失业潮波及中产阶级,最后只给人类留下护理、创造和监管等工作。”

这样的判断还有待未来验证,不过,相比人类智慧,人工智能的确有着不可比拟的优势。

刘希未说:“和人脑相比,人工智能算法应对数值和符号计算更加精确快速,稳定可靠。特别是对于有确定规则的计算问题,人工智能可以远远超出人脑的计算速度,也更容易找到最优的解答。比如,在数值计算,图形、语音、生物特征、行为姿态等方面的识别,甚至更加复杂的预测推理任务方面,人工智能都有超越人脑的优秀表现。”

不会取代

甚至威胁人类

人工智能不具备感性思维,无法跨越到意识领域

那么,人工智能真的会因此而取代人类本身,甚至对我们产生威胁吗?记者采访的几位专家都给出了否定的答案。

首先,专家们认为,当前的计算机架构和编程模式具有本质上的劣势,使得人工智能无法实现与人脑情感、意志、心态、情绪、经验等方面的自然交互。本质上,人工智能仅仅是物质世界范畴的概念,无法跨越到意识领域。

1981年荣获诺贝尔生理学奖的罗杰・斯佩里博士曾发布著名的“左右脑分工理论”,认为人脑的左右半球有着不同分工:左半脑擅长分析、逻辑、演绎、推理等理性抽象思维;右半脑擅长直觉、情感、艺术、灵感等感性形象思维。迄今为止,人工智能的所有智能化表现仅仅在模仿人类左半脑的理性思维模式,而完全不具备右半脑的感性思维。

“也就是说,目前的人工智能技术还很难应对具有显著人类主观意识影响的社会文化和意识领域的各类问题,而人脑却可以通过长期在复杂社会环境下的学习成长轻松应对这类问题。”刘希未说。

他进一步举例说,比如人工智能至今也还没有创作出真正具有人性境界的作品。“电脑与人脑,毕竟有着机械性与生命灵性的本质区别,因此,电脑创作与人脑创作之间尚存在着难以逾越的鸿沟。个性化是人类文学艺术创作的生命,而已有电脑创作系统尚无个性可言,只不过是对已有的艺术作品的模仿、复制与重组。”

那么,随着人工智能的不断发展完善,将来是否有可能实现这种自发的情感智能呢?

“情感智能化分成两个层面,一个是让机器本身具有情感,另外一个是让机器理解人的情感,两者是不一样的”,中国科学院自动化研究所研究员易建强说,“让机器去理解人的情感,这件事是有可能做到的。目前有一部分机器人系统能够做到部分理解场景、环境及对话内容,并根据其结果做出相应的反应或者表情。但要机器人或人工智能系统完全达到人类的水平,有自发的情感和创造性,那是很难实现的,或者说不可能实现。”

中国自动化协会副理事长、秘书长王飞跃对此表示认同,“我个人认为100年内无法实现,或许永远不可能实现,除非重新定义什么是人的情感、理解、推理等等。原因很简单,人们现在都还不清楚这些情感的内涵、产生的过程及其方式。”

将成为人类

发展的加速器

人工智能的确会对人类就业造成一定冲击,但人类的工作不会消失,而是转变为新的形式

科学家们还认为,人工智能技术只是人类智慧创造的一种新型工具,它有助于人类更快做出突破,提高我们应对那些亟待解决的全球性难题的能力。

“我们需要人工智能这个强大的工具来帮助处理复杂问题,预测未知,支持我们实现以往不可能的目标。”王飞跃说。

专家们表示,很多划时代的科技成果必然引发人们生活方式的改变,短期内很可能难以被接受,但若放眼历史长河,就会发现,所有重大的科技革命无一例外地都最终成为人类发展的加速器,同时也是人类生活品质提高的根本保障。

“人工智能技术的出现也同样如此,它的确会对人类的就业造成一定冲击。比如,人工智能更适合处理简单重复、规则确定或者通过案例学习可以找到有效处理规则的问题。像安检、看病理切片和监控视频审核等交给人工智能更为高效可靠,这些工种也因此比较容易受到冲击和替代。”不过,易建强表示,不必因此就担心它会彻底取代人类。“以第一次工业革命为例,它不仅仅是让人类的既有工作被取代,同时会制造出足够多的新的就业机会。大多数情况下,工作不是消失了,而是转变为新的形式。”

易建强说,马车被汽车取代就是一个非常典型的例子。当年,汽车开始进入大城市并逐渐普及的过程中,曾经在数百年的时间里充当出行工具的马车,面临着“下岗”威胁。但后来的事实证明,新兴起的汽车行业拥有比传统马车行业多出数千倍甚至数万倍的产值和工作机会。

“现阶段,在一个真正实现人工智能的工作场景中,传统劳动者也并未被‘下岗’,只是改变了角色而已。仍然需要人类对人工智能的表现进行监控,进行情报采集与分析,以及开展预测性的实验与评估,引导性的过程管理与控制。”王飞跃说,“我相信将来人类90%以上的工作是由人工智能提供的,就像今天我们大多数的工作是由计算机和各种其它机器提供的一样。”

《人民日报》(2017年07月07日20版)

(责编:易潇、沈光倩)

分享让更多人看到

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇