博舍

表面繁荣之下,人工智能的发展已陷入困境 人工智能已有多长时间发展起来

表面繁荣之下,人工智能的发展已陷入困境

编者按:《连线》杂志在其最近发布的12月刊上,以封面故事的形式报道了人工智能的发展状况。现在,深度学习面临着无法进行推理的困境,这也就意味着,它无法让机器具备像人一样的智能。但是真正的推理在机器中是什么样子的呢?如果深度学习不能帮助我们达到目的,那什么可以呢?文章作者为克莱夫·汤普森(@pomeranian99),原标题为「HowtoTeachArtificialIntelligenceSomeCommonSense」。

一、

五年前,总部位于伦敦的人工智能公司DeepMind的程序员,兴奋地看着人工智能自学玩一款经典的街机游戏。他们在一项看似「异想天开」 的任务上使用了当今最热门的技术——深度学习——掌握了Breakout。

这是一款雅达利(Atari)开发的游戏,在游戏中,你需要用移动下方的平板,把球弹起,然后把上方的所有砖块都打消失。

深度学习,是机器进行自我教育的一种方式;你给人工智能提供大量的数据,它会自己识别模式。在这个游戏中,数据就是屏幕上的活动——代表砖块、球和玩家平板的块状像素。

DeepMind的人工智能,一个由分层算法组成的神经网络,并不知道任何关于Breakout的工作原理、规则、目标,甚至如何发挥它都不清楚。编码器只是让神经网络检查每个动作的结果,每次球的弹起轨迹。这会导致什么?

事实证明,它会掌握一些令人印象深刻的技能。在最初的几场游戏中,人工智能只是控制下方的平板四处乱晃。但是玩了几百次之后,它已经开始准确地将球弹起了。到了第600场比赛时,神经网络使用了一种专业的人类Breakout游戏玩家使用的动作,凿穿整排砖块,让球沿着墙顶不停跳跃。

「这对我们来说,是一个很大的惊喜,」DeepMind的首席执行官德米斯·哈萨比斯(DemisHassabis)当时说道。「这一策略完全来自底层系统。」

人工智能,已经显示出它能够像人类一样进行异常微妙的思考,掌握Breakout背后的内在概念。因为神经网络松散地反映了人脑的结构,所以从理论上说,它们应该在某些方面模仿我们自己的认知方式。这一刻似乎证明了这个理论是正确的。

去年,位于旧金山的一家人工智能公司Vicorance的计算机科学家,提供了一个有趣的现实检验。他们采用了一种类似DeepMind所用的人工智能,并在Breakout上进行了训练。

结果很棒。但随后,他们稍微调整了游戏的布局。在一次迭代中,他们将平板提得更高了;另一次迭代中,他们在上方增加了一个牢不可破的区域。

人类玩家可以快速适应这些变化,但神经网络却不能。这个看起来很聪明的人工智能,只能打出它花了数百场比赛掌握的Breakout的方法。它不能应对新变化。

「我们人类不仅仅是模式识别器,」Vicarious的共同创始人之一、计算机科学家迪利普·乔治(DileepGeorge)告诉我。「我们也在为我们看到的东西建立模型。这些是因果模型——有我们对因果关系的理解。」

人类能够推理,也会对我们周围的世界进行逻辑推理,我们有大量的常识知识来帮助我们发现新的情况。当我们看到一款与我们刚刚玩的游戏略有不同的Breakout游戏时,我们会意识到,它可能有着大致相同的规则和目标。

但另一方面,神经网络对Breakout一无所知。它所能做的就是遵循这个模式。当模式改变时,它无能为力。

深度学习是人工智能的主宰。在它成为主流以来的六年里,它已经成为帮助机器感知和识别周围世界的主要方式。

它为Alexa的语音识别、Waymo的自动驾驶汽车和谷歌的即时翻译提供了动力。从某些方面来说,Uber的网络也是一个巨大的优化问题,它利用机器学习来找出乘客需要汽车的地方。中国科技巨头百度,有2000多名工程师在神经网络人工智能上努力工作。

多年来,深度学习看上去越来越好,不可阻挡地让机器拥有像人一样流畅、灵活的智力。

但是一些人认为,深度学习正在面临困境。他们说,单凭这一点,它永远不会产生广义上的智能,因为真正像人类一样的智能,不仅仅是模式识别。

我们需要开始弄清楚如何让人工智能具备常识。他们警告说,如果我们不这样做,我们将会不断地触及深度学习的极限,就像视觉识别系统,只要改变一些输入,就会很容易被愚弄,比如,让深度学习模型认为乌龟就是一杆枪。

但他们说,如果我们成功了,我们将见证更安全、更有用的设备爆炸式增长——比如在杂乱的家中自由行动的医疗机器人、不会误报的欺诈检测系统等等。

但是,真正的推理在机器中是什么样子的呢?如果深度学习不能帮助我们达到目的,那什么可以呢?

二、

加里·马库斯(GaryMarcus)是纽约大学的心理学和神经科学教授,现年48岁,戴着眼镜,忧心忡忡。他可能是最著名的深度学习反对者。

马库斯第一次对人工智能感兴趣,是在20世纪80年代和90年代,当时神经网络还处于实验阶段,从那以后,他就一直在做同样的论证。

「我不只是来晚了,而且还想在派对上撒尿,」 当我在纽约大学附近的公寓遇见他时,马库斯告诉我。(我们也是私人朋友。)「深度学习刚开始爆发的时候,我就说‘方向错了,伙计们!’」

那时,深度学习背后的策略和现在是一样的。比方说,你想要一台机器来自己学习识别雏菊。首先,你需要编写一些算法「神经元」,像三明治一样,将它们层层连接起来(当你使用多层时,三明治会变得更厚或更深——因此是「深度」 学习)。

你在第一层输入一个雏菊的图像,它的神经元会根据图像是否像它以前看到的雏菊的例子而进行判断。然后,信号将移动到下一层,在那里循环这个过程。最终,这些层会得出一个结论。

起初,神经网络只是盲目猜测;它或多或少地让生活从一张白纸开始。关键是建立一个有用的反馈回路。每当人工智能没有识别出雏菊时,那组神经连接就会削弱导致错误猜测的链接;如果它成功了,它会加强。

给定足够的时间和足够多的雏菊样本,神经网络会变得更加精确。它学会了通过直觉来识别一些雏菊的模式,让它每次都能识别出雏菊(而不是向日葵或菊花)。

随着时间的推移,这一核心理念——从一个简单的网络开始,通过重复训练——得到了改进,似乎可以应用到几乎任何地方。

但是马库斯从未被说服。对他来说,问题就在于一张白纸:它假设人类纯粹通过观察周围的世界来建立他们的智力,机器也可以。

但是马库斯不认为人类就是这样工作的。他认可诺姆·乔姆斯基(NoamChomsky)的智力发展理论,他认为人类天生就有学习的天赋,能够掌握语言和解释物质世界,而不是一张白纸。

他指出,尽管有很多人认为神经网络是智能的,但它似乎不像人类大脑那样工作。首先,它们太需要数据了。

在大多数情况下,每个神经网络都需要数千或数百万个样本来学习。更糟糕的是,每次你想让神经网络识别一种新的项目,你都必须从头开始训练。一个识别金丝雀的神经网络在识别鸟鸣或人类语言方面没有任丝毫用处。

「我们不需要大量的数据来学习,」 马库斯说。他的孩子不需要看一百万辆车就能认出车辆来。更好的是,他们可以「抽象化」,当他们第一次看到拖拉机时,他们会知道它有点像汽车。他们也可以进行反事实的工作。

谷歌翻译可以将法语翻译成英语。但是它不知道这些话是什么意思。马库斯指出,人类不仅掌握语法模式,还掌握语法背后的逻辑。你可以给一个小孩一个假动词,比如pilk,她很可能会推断过去式是pilked。当然,她以前没见过这个词。她没有接受过这方面的「训练」。她只是凭直觉知道了语言运作的一些逻辑,并能将其应用到一个新的情况中。

「这些深度学习系统不知道如何整合抽象知识,」 马库斯说,他创立了一家公司,创造了用更少的数据进行学习的人工智能(并在2016年将公司卖给了Uber)。

今年早些时候,马库斯发表了一份关于arXiv的白皮书,认为如果没有一些新的方法,深度学习可能永远不会突破目前的局限。它需要的是一种推动力——补充或内置的规则,以帮助它对世界进行推理。

三、

奥伦·埃齐奥尼(OrenEtzioni)经常面带微笑。他是一位计算机科学家,在西雅图经营着艾伦人工智能研究所(AllenInstituteforArtificialIntelligence)。

在他明亮的办公室里向我打招呼,领我走过一块白板,上面潦草地写着对机器智能的思考。(「定义成功」,「任务是什么?」)在外面,年轻的人工智能研究员戴着耳机,敲击着键盘。

埃茨奥尼和他的团队正在研究常识问题。他将此定义为两个传奇的人工智能时刻——1997年IBM的深蓝(DeepBlue)击败象棋大师加里·卡斯帕罗夫(GarryKasparov),以及去年DeepMind的AlphaGo击败世界顶尖围棋选手李世石。(谷歌在2014年收购了DeepMind。)

「有了深蓝,当房间着火的时候,我们的程序可以做出超人一般的象棋棋步。」 埃茨奥尼开玩笑说。「对吧?完全缺乏背景。快进20年,当房间着火的时候,我们有了一台电脑,可以下出超人一般的围棋棋步。」

当然,人类没有这个限制。如果发生火灾,人们会拉响警报,奔向大门。

换句话说,人类拥有关于这个世界的基本知识(火会烧东西),同时还有推理的能力(你应该试着远离失控的火)。

为了让人工智能真正像人类一样思考,我们需要教它所有人都知道的东西,比如物理学(抛向空中的球会落下)或相对大小的东西(大象无法被放进浴缸)。在人工智能拥有这些基本概念之前,埃茨奥尼认为人工智能无法进行推理。

随着保罗·艾伦(PaulAllen)投入了数亿美元,埃茨奥尼和他的团队正在努力开发一个常识推理层,以适应现有的神经网络。(艾伦研究所是一个非营利组织,所以他们发现的一切都将被公开,任何人都可以使用。)

他们面临的第一个问题,就是回答一个问题:什么是常识?

埃茨奥尼把它描述为我们认为理所当然,但很少大声说出的关于世界的所有知识。他和他的同事创造了一系列基准问题,一个真正理性的人工智能应该能够回答:如果我把袜子放在抽屉里,它们明天会在那里吗?如果我踩了别人的脚趾,他们会生气吗?

获取这种知识的一种方法,是从人类那里提取。埃茨奥尼的实验室正在付费给亚马逊土耳其机器人上的众包人员,以帮助他们制作常识性的陈述。

然后,研究团队会使用各种机器学习技术——一些老式的统计分析,一些深度学习的神经网络——基于这些陈述进行训练。如果他们做得对,埃茨奥尼相信他们可以生产出可重复使用的计算机推理「乐高积木」:一套能够理解文字,一套能够掌握物理知识,等等。

崔叶金(YejinChoi)是埃茨奥尼团队研究常识的科学家之一,她负责了几次众包工作。在一个项目中,她想开发一种人工智能,能够理解一个人的行为,或陈述出来其隐含的意图或情感。

她首先研究了成千上万个Wiktionary中的在线故事、博客和习语条目,提取出「短语事件」,比如「杰夫(Jeff)把罗杰(Roger)打昏了」 。然后,她会匿名记录每个短语——「X把Y打昏」——并要求土耳其机器人平台上的众包人员描述X的意图:他们为什么这样做?

当她收集了25000个这样的标记句子后,她用它们训练一个机器学习系统,来分析它从未见过的句子,并推断出句子的情绪或意图。

充其量,新系统运行的时候,只有一半时间是正常的。但是当它正式运行的时候,它展示了一些非常人性化的感知:给它一句像「奥伦(Oren)做了感恩节晚餐」 这样的话,它预测奥伦试图给家人留下深刻印象。

「我们也可以对其他人的反应进行推理,即使他们没有被提及,」 崔说。「所以X的家人可能会感到印象深刻和被爱。」

她的团队建立的另一个系统使用土耳其机器人平台上的众包人员在故事中标记人们的心理状态;当给定一个新的情况时,由此产生的系统也可以得出一些「尖锐」 的推论。

例如,有人告诉我,一名音乐教练对他的乐队糟糕的表演感到愤怒,并说「教练很生气,把他的椅子扔了。人工智能会预测他们会「事后感到恐惧」,尽管这个故事没有明确说明这一点。

崔叶金、埃茨奥尼和他们的同事并没有放弃深度学习。事实上,他们认为这是一个非常有用的工具。但是,他们不认为有捷径,可以说服人们明确陈述我们所有人都拥有的怪异、无形、隐含的知识。

深度学习是垃圾输入,垃圾输出。仅仅给一个神经网络提供大量新闻文章是不够的,因为它不会吸取未陈述的知识,这是作家们不愿提及的显而易见的事情。

正如崔叶金所说,「人们不会说‘我的房子比我大’。」为了帮助解决这个问题,她让土耳其机器人平台上的众包人员分析了1100个常见动词所隐含的物理关系,例如「X扔了Y」。这反过来又提供了一个简单的统计模型,可以用「奥伦扔了一个球」 这个句子来推断球一定比奥伦小。

另一个挑战是视觉推理。阿尼鲁达·凯姆巴维(AniruddhaKembhavi)是埃茨奥尼团队中的另一位人工智能科学家,他向我展示了一个在屏幕上漫步的虚拟机器人。艾伦研究所的其他科学家建造了类似模拟人生的房子,里面装满了日常用品——厨房橱柜里装满了碗碟,沙发可以随意摆放,并符合现实世界中的物理定律。

然后他们设计了这个机器人,它看起来像是一个有手臂的深灰色垃圾筒,研究人员告诉它,让它搜寻某些物品。在完成数千项任务后,这个神经网络获得了在现实生活中生活的基础。

「当你问它‘我有西红柿吗?它不会打开所有的橱柜。它更倾向去打开冰箱,」 凯姆巴韦说。「或者,如果你说‘给我找我的钥匙’,它不会试图拿起电视。它会去看电视机后面。它已经知道,电视机通常不会被拿走。」

埃茨奥尼和他的同事希望这些不同的组成部分——崔叶金的语言推理、视觉思维,以及他们正在做的让人工智能掌握教科书科学信息的其他工作——最终能够结合在一起。

但是需要多长时间,最终的产品会是什么样子?他们不知道。他们正在建立的常识系统仍然会出错,有时甚至超过一半的概率。

崔叶金估计,她将需要大约一百万人工语言来训练她的各种语言解析器。建立常识似乎异乎寻常地困难。

四、

制造机器还有其他合理的方式,但它们的劳动密集程度更高。例如,你可以坐下来,用手写出所有要告诉机器世界如何运作的规则。这就是道格·莱纳特(DougLenat)的Cyc项目的工作原理。

34年来,莱纳特雇佣了一个工程师和哲学家团队,来编写2500万条常识性规则,比如“「水是湿的」 或者「大多数人都知道他们朋友的名字」。这让Cyc能够推断:「如果你的衬衫湿了,所以你可能是在雨中。」 优势在于,莱纳特能够精确地控制输入Cyc数据库的内容;而众包知识并非如此。

这种由粗暴的手动行为做出来的人工智能,在深度学习的世界中已经变得不流行。这在一定程度上是因为它可能「脆弱」:如果没有正确的世界规则,人工智能可能会陷入困境。这就是程式化的聊天机器人如此「智障」 的原因;如果如果没有明确告诉它们如何回答一个问题,它们没有办法推理出来。

Cyc的能力比聊天机器人更强,并且已经经过批准,可以用于医疗保健系统、金融服务和军事项目。但是这项工作进展非常缓慢,而且耗资巨大。莱纳特说开发Cyc花费了大约2亿美元。

但是,一点一点地进行手工编程可能只是复制一些固有的知识,根据乔姆斯基(Chomskyite)的观点,这是人类大脑拥有的知识。

这就是迪利普·乔治和研究人员对Breakout所做的事情。为了创造一个不会面对游戏布局变化而变「智障」 的人工智能,他们放弃了深入学习,建立了一个包含硬编码基本假设的系统。

乔治告诉我,他们的人工智能不费吹灰之力就学会了「物体是存在的,物体之间有相互作用,一个物体的运动与其和其他物体之间的碰撞有因果关系。」

在Breakout中,这套系统发展出了衡量不同行动过程及其可能结果的能力。但这也起到了相反的作用。如果人工智能想要打破屏幕最左上角的一个砖块,它会理性地将平板放在最右边的角落。

这意味着,当Vicarious改变游戏的规则时——添加新砖块或提升平板——系统会得到补偿。它似乎抓住了一些关于Breakout本身的通用性理解。

显然,这种人工智能在工程中存在权衡。可以说,精心设计和仔细规划,以精确找出将什么预先设定的逻辑输入到系统中,是一个更艰苦的工作。在设计一个新系统时,很难在速度和精度之间取得恰当的平衡。

乔治说,他寻找最小的数据集「放入模型,以便它能够快速学习。」 你需要的假设越少,机器做决策的效率就越高。

一旦你训练了一个深度学习模型来识别猫,你就可以给它看一只它从未见过的俄罗斯蓝猫,然后它就会立刻给出结论——这是一只猫。在处理了数百万张照片之后,它不仅知道是什么让一只猫变成了猫,还知道识别一只猫的最快方法。

相比之下,Vicarious的人工智能速度较慢,因为随着时间的推移,它会主动地做出逻辑推论。

当Vicarious的人工智能运行良好时,它可以从更少的数据中学习。乔治的团队通过识别扭曲的字体形象,创造一种人工智能来突破神经网络上「我不是机器人」 的障碍。

就像Breakout系统一样,他们预先给人工智能赋予了一些能力,比如帮助它识别字符的知识。随着引导就位,他们只需要在人工智能学会以90.4%的准确率破解验证码之前,在260张图像上训练人工智能。相比之下,神经网络需要在超过230万张图像上训练,才能破解验证码。

其他人,正在以不同的方式将常识般的结构构建到神经网络中。例如,DeepMind的两名研究人员最近创建了一个混合系统:部分是深度学习,部分是更传统的技术。他们将这个系统称为归纳逻辑编程。目标是创造出能够进行数学推理的东西。

他们用儿童游戏「fizz-buzz」 来训练它,在这个游戏中,你从1开始向上数,如果一个数字可以被3整除,就说「fizz」,如果它可以被5整除,就说「buzz」。一个普通的神经网络,只能处理它以前见过的数字;如果把它训练到100分钟,它就会知道99时该「fizz」,100时「buzz」。

但它不知道如何处理105。相比之下,DeepMind的混合深度思维系统似乎理解了这个规则,并在数字超过100时没有出现任何问题。爱德华·格雷芬斯特(EdwardGrefenstette)是开发这种混合系统的DeepMind程序员之一,他说,「你可以训练出一些系统,这些系统会以一种深度学习网络无法独自完成的方式进行推理。」

深度学习的先驱、Facebook人工智能研究部门的现任负责人杨立昆(Yann LeCun)对许多针对这个领域的批评表示赞同。他承认,它需要太多的训练数据,不能推理,也不具备常识。

「在过去的四年里,我基本上在一遍又一遍地重复这句话,」 他提醒我。但是他仍然坚信,进行正确的深入学习,可以获取答案。他不同意乔姆斯基对人类智力的看法。他认为,人类大脑是通过互动而不是内在的规则来发展出推理能力的。

「如果你思考一下动物和婴儿是如何学习的,在生命的最初几分钟、几小时、几天里,学很多东西都学得很快,以至于看起来像是天生的,」 他指出。「但事实上,他们不需要硬编码,因为它们可以很快学会一些东西。」

从这个角度来看,为了了解世界的物理规律,一个婴儿只需要四处移动它的头,对传入的图像进行数据处理,并得出结论,景深就是这么一回事。

尽管如此,杨立昆承认,目前还不清楚哪些途径可以帮助深度学习走出低谷。有可能是「对抗性」 神经网络,一种相对新的技术,其中一个神经网络试图用虚假数据欺骗另一个神经网络,迫使第二个神经网络发展出极其微妙的图像、声音和其他输入的内部表征。

它的优势是没有「数据缺乏」 的问题。你不需要收集数百万个数据来训练神经网络,因为它们是通过相互学习来学习的。(作者注:一种类似的方法正在被用来制作那些让人深感不安的「深度伪造」(deepfake)视频,在这些视频中,有些人似乎在说或做一些他们没有说或做的事情。)

我在Facebook位于纽约的人工智能实验室的办公室里遇见了杨立昆。马克·扎克伯格(MarkZuckerberg)在2013年招募了他,承诺实验室的目标将是推动人工智能突破极限,而不仅仅是对Facebook的产品进行微小的调整。像学术实验室一样,杨立昆和他的研究人员可以将他们的研究成果发表出来,供其他人参阅。

杨立昆仍然保留了他的法国本土口音,他站在白板前,精力充沛地勾画出可能推动深入学习进步的理论。对面的墙上挂着一套斯坦利·库布里克(StanleyKubrick)《2001:太空漫游》(2001:ASpaceOdyssey)中的华丽画作——漂浮在太空深处的主宇宙飞船,一艘绕地球运行的轮式飞船。「哦,是的,」 当我指出他们时,杨立昆说,他们重印了库布里克为这部电影制作的艺术品。

借着周围的图片来讨论类人人工智能,让人感到莫名的不安,因为2001年的HAL9000,一个类人人工智能,是一个高效的杀手。

这指向了一个更深层次的哲学问题,超越了人工智能发展方向的争论:制造更聪明的人工智能是一个好主意吗?Vicarious的系统破解了验证码,但验证码的意义在于防止机器人模仿人类。

一些人工智能研究者担心,与人类交谈并理解人类心理的能力可能会使恶人工智能变得极其危险。牛津大学的尼克·博斯特龙(NickBostrom)敲响了创造“超级智能”(superintelligence)的警钟。超级智能是一种自我改进并快速超越人类的人工智能,能够在各个方面超越我们。(他认为积聚控制力的一种方式是通过操纵人们——拥有“心智理论”对此会非常有用。)

埃隆·马斯克(ElonMusk)对这种危险深信不疑,他资助了致力于安全人工智能理念的组织OpenAI。

这样的未来不会让埃齐奥尼晚上失眠。他不担心人工智能会变成恶意的超级智能。「我们担心会有什么东西会接管这个世界,」 他嘲笑道,「那甚至不能自己决定再下一盘棋。」 目前,还不清楚人工智能会如何发展出这些意愿,也不清楚这种意愿软件中会是什么样子。深度学习可以征服国际象棋,但它没有天生的下棋意愿。

令他担忧的是,是目前的人工智能非常无能。因此,虽然我们可能不会创造出具有自我保护智能的HAL,但他说,「致命武器+无能的人工智能很容易杀人。」 这也是为什么埃齐奥尼如此坚决地要给人工智能灌输一些常识的部分原因。他认为,最终,这将使人工智能更加安全;不应该大规模屠杀人类,也是一种常识。(艾伦研究所的一部分任务是使人工智能更加合理化,从而使其更加安全。)

埃齐奥尼指出,对人工智能的反乌托邦式的科幻愿景,其风险要小于短期的经济转移。如果人工智能在常识方面做得更好,它就能更快地完成那些目前仅仅是模式匹配深度学习所难以完成的工作:司机、出纳员、经理、各行各业的分析师,甚至是记者。

但真正有理性的人工智能造成的破坏甚至可能会超出经济范围。想象一下,如果散布虚假政治信息的机器人能够运用常识,在Twitter、Facebook或大量电话中显得与人类毫无区别,那该会是什么样子。

马库斯同意人工智能具备推理能力会有危险。但是,他说,这样带来的好处是巨大的。人工智能可以像人类一样推理和感知,但却能以计算机的速度运算,它可以彻底改变科学,以我们人类不可能的速度找出因果关系。

除了拥有大量的机器人知识之外,它可以像人类一样进行心理实验,可以遵循「if–then」 链条,思考反事实。「例如,最终我们可能能够治愈精神疾病,」马库斯补充道。「人工智能或许能够理解这些复杂的蛋白质生物级联,这些蛋白质参与到了大脑的构建中,会让它们正常工作或不正常工作。」

坐在《2001:太空漫游》的照片下面,杨立昆自己提出了一个「异端」 观点。当然,让人工智能更加人性化有助于人工智能给我们的世界提供帮助。但是直接复制人类的思维方式呢?没有人清楚这是否有用。我们已经有了像人类一样思考的人;也许智能机器的价值在于它们与我们完全不同。

「如果他们有我们没有的能力,他们会更有用,」 他告诉我。「那么他们将成为智力的放大器。所以在某种程度上,你希望他们拥有非人类形式的智力……你希望他们比人类更理性。」 换句话说,也许让人工智能有点人工是值得的。

本文来自36氪,编辑为郝鹏程,原文作者为克莱夫·汤普森,爱范儿经授权发布,文章为作者观点,不代表爱范儿立场。

人工智能对大学生就业的影响

摘要:随着人工智能的深入发展,很多领域都将与人工智能技术相结合实现智能化,这对面临毕业求职的大学生来说这既是机遇又是挑战。据此,主要对人工智能与大学生就业问题进行研究分析,挖掘人工智能发展对大学生就业的影响并对其出现的某些问题提出参考建议和解决方案。

关键词:人工智能;大学生;就业;影响

1现代人工智能的发展背景

1.1什么是人工智能人工智能,英文缩写为AI。它是研究开发人类智能活动规律,构造具有智能的模拟人工系统,其研究主要目的是使机器能够胜任一些以往需要人类智慧才能完成的复杂工作,是一门新的技术科学。2016年是人工智能进入快速发现的一年:AlphaGo以3∶0的比分击败了世界围棋冠军柯洁;人工智能成功诊断疑难杂症;无人机、富士康无人工厂、自助银行等的出现,人工智能发展的速度超过了人们的想象。

1.2国家层面自人工智能1956年被提出以来,已经过了60多个年头,成为21世纪最为前沿的科技之一。随着互联网、物联网、大数据等的深入发展,人工智能不但形成了一个战略性新兴产业,并且还广泛影响着社会各大行业和领域的发展。全球各国也顺应时代纷纷发展人工智能:日本将人工智能列为其核心技术方向之一,顺应人工智能发展提出了第四次产业革命战略;美国颁布《美国国家人工智能研究与发展战略计划》、《为未来人工智能做好准备》,高度重视人工智能发展战略;我国政府也非常重视人工智能的发展:“科技创新2030———重大项目”将新增“人工智能2.0(AI2.0)”专项;我国国务院的《关于积极推进“互联网+”行动的指导意见》中明确指出要培育发展人工智能新兴产业,此外人工智能已被正式列入了《“十三五”国家战略性新兴产业发展规划》……近些年来,人工智能正在从感知阶段迈入认知阶段,对人类社会的生活产生越来越深入的影响,不少产业和领域都将实现智能化,这对面临毕业求职的大学生来说既是机遇又是挑战。中国人口老龄化正在加速加深,每年新增100万高龄老年人口。在这样的大环境下,人工智能的发展对改善我国劳动力结构,推动我国未来的经济增长将起到至关重要的作用。预计我国劳动年龄人口将在2024年达到峰值,老龄化进程到2040年达到顶峰,并在之后进入减速期。麦肯锡全球研究院(MGI)的报告中指出:“基于人工智能的自动化提升的生产力每年可为中国贡献0.8至1.4个百分点的经济增长。”在我国政府对科技领域发展的重视下,我国逐渐成为全球人工智能发展中心之一。

2大学生就业现状

2.1专业设置专业设置是对大学生进行专业教育的基础,专业设置的合理性对人才起着重要作用。但部分高校为了吸引生源,适应社会主义市场经济的发展,忽略自身条件纷纷设立热门专业,如:计算机、国际经济与贸易、法学等。因而造成同专业毕业大学生水平参差不齐且需求过剩,在面临就业时就会出现更多不可避免的问题。此外,大部分高校专业设置以及教学内容创新能力不足,过于滞后没有办法满足人工智能快速发展的时代需求,没有办法提供推动中国人工智能发展所需人才。值得一提的是,南京大学于2018年成立了人工智能学院,积极适应时展,创新我国大学专业设置,对其他高校起到了带头示范的作用。

2.2就业结构v近几年大学生毕业人数不断增加,就业成为社会各界异常关注的问题:2017届大学生毕业半年后的就业率是91.9%,2016届、2015届的就业率分别为91.6%和91.7%,这三年的就业率基本相同。其中,2017届高职高专毕业生半年后的就业率为92.1%,比2016届(91.5%)稍高,最近几年应届高职高专毕业生就业率平稳增加,2017届高职高专就业率初次超过本科。2017届本科生毕业半年后的就业率为91.6%,2016届的则为91.8%,这两年大致持平。2012至2017年应届本科毕业生就业整体稳定。2017届大学毕业生的未就业人群为7.2%,其中,3.4%还在继续找工作。7.0%的未就业本科毕业生中,2.6%的人“还在找工作”,1.7%为“待定族”(不求学不求职);7.5%的未就业高职高专毕业生中,4.3%的人“还在找工作”,3.2%为“待定族”。虽然近几年来就业率基本持平,但就业质量和就业情况并不容乐观,大学生一定要保持理性的就业观念顺应大环境提高自己的核心竞争力。

3人工智能对大学生就业的消极影响

3.1人工智能的替代效应人工智能技术发展对大学生就业产生了替代效应,一方面是人工智能发展必然会提高技术水平,部分企业将实行自动化生产,劳动生产率得到提高,在生产规模不变的条件下将直接导致就业岗位的减少与调整;另一方面,因为人工智能使技术得到发展,在相同时间内企业单位资本存量创造的产出增加,提高了投资效率,形成劳动、资本节约型技术进步,进而导致劳动和资本之间的替代。此外资本替代劳动的劳动节约型技术进步更是大势所趋,因此人工智能技术发展通过生产要素替代形成了对岗位需求的破坏效应。

3.2人工智能的破坏机制人工智能技术发展替代就业的破坏机制主要包括劳动工具改变、管理效率提升、劳动市场需求破坏机制:(1)劳动工具改变机制。人工智能发展对就业的影响最先表现在劳动方式的变更上。使用先进人工智能技术,不仅提高了人类劳动的效率,而且还大量减少了生产对劳动者体力的需求。(2)管理效率提高机制。人工智能技术进步还创新了管理方式、手段、理念等,优化了企业生产管理方式,提高了管理效率,节省了劳动力,致使就业量下降。(3)劳动市场需求破坏机制。从人工智能技术进步的长期趋势看,技术进步增加了对高技能劳动力需求,降低了对低技能劳动力需求,从而提高了低技能劳动力就业难度。除此之外,人工智能技术进步还增加了劳动力的知识积累,提高了劳动者的技能,从而进一步提升了劳动生产效率。在生产规模不变的条件下减少了就业岗位。

4人工智能对大学生就业的积极影响

4.1人工智能对大学生就业的替代与创造效应在更为广阔的经济体中,对于多数类型的任务,机器相比人类将占据越来越多的优势。人工智能发展会取代一些职业和工作,但与此同时也会创造一些新的岗位和就业。在2014年华盛顿皮尤研究中心于做了一项“2025年人工智能包括机器人对劳动力市场影响预测”的调查,有将近两千名专家发表了自己的看法和意见。其中,48%的专家认为未来大量蓝领和白领工人将被机器人所取代,即导致“技术性失业”的情况;而剩下的专家则充分相信人工智能无法与人类智慧相匹敌,认为人工智能发展技术取代的岗位不及创造的岗位,人类会像工业革命历史上那样创造出更多的工作行业和岗位。在经济学中,技术性失业是指由于技术进步而导致的失业,这并不是因为人工智能兴起或发展才出现,它于资本主义时期(此处的资本主义特指“机械化经济”,最初形成于1760—1830年,(即第一次工业革命时期)刚兴起的阶段就产生了。举一个简单的例子:纺纱机和织布机的应用使得生产力提高,劳动岗位减少,工人失业,但这只是暂时性的。机器的应用和工人的失业导致劳动力成本的下降,所以棉布的价格下降,从而使人们习惯穿内衣,对棉布的消费需求随之扩大,继而对工厂劳动力的需求增加。由此可见,技术进步与创新不仅能够创造新的财富和服务,还能因此带来其他领域更多的就业岗位,甚至带来前所未有的工作行业。此外我们不应该只将注意力集中于职业。在目前人工智能技术的影响下,只有极少比例的职业可以完全自动化。例如,尽管证券从业人员、导游、秘书的工作被计算机替代的机率高,但这些岗位的工作内容涉及面对面互动和团队之间的高度配合,这些都是机器人难以做到的。有关媒体报道,2017年中国人工智能技术类工程师的招聘量将达到2014年的8.8倍;在各大招聘网页上,10个有关人工智能的职位中,有9个处于空缺的状态,中国对人工智能领域的人才需求量巨大,在未来几年可能猛增至500万人。综上所述,不论是从短期还是中期来看,人工智能对大学生就业的创造效应都是极为乐观的。

4.2人工智能对大学生就业的规模效应从长远来看,人工智能可以通过规模效应增加就业。根据2017年大连夏季达沃斯论坛上普华容道的《人工智能对宏观经济影响》报告,称到2030年,世界经济的贡献值将有大约16万亿美元由人工智能行业所提供,超过了目前中国和印度这两国人口大国GDP总和。不同地区,人工智能对经济增长推动效果也不同:有望为北欧9.9%GDP增长(1.8万亿美元),南欧11.5%GDP成长(7千亿美元)亚洲国家带来10.4%GDP增长(9千亿美元)。人工智能发展最大受益者很有可能是中国和北美,其获益总额约10.7万亿美元,占全球增长比例近70%。2018年我国两会期间,政府工作报告中首次载入了人工智能,由此可见,人工智能已经上升至国家战略层面。2018年9月,在《人工智能对全球经济影响的模拟计算》的报告(由麦肯锡<MGI>)中,提出了这样一种观点,人工智能有可能对整体经济生产力的提高有显著作用,即使考虑到经济竞争效应和转型成本,人工智能给世界所带来的积极影响也比前三次工业革命大得多。并且从长远角度来看,人工智能的发展和利用不会对净就业产生重大影响。据统计到2030年,人工智能的额外投资中,将有5%可以贡献给就业;并且由人工智能创造的额外财富可以通过推动劳动力需求再将就业率提高12%。这就是人工智能对大学生就业产生的规模效应。

4.3人工智能对大学生就业质量的影响回顾历史,技术的每一次革新不仅仅对社会就业的结构和数量产生影响,还对就业质量起到极大的提高与改善作用。人工智能的发展也不例外,这主要体现在以下几方面:第一,改善工作环境。通过运用人工智能技术,一些危险、繁重、有损人体健康的人力工作被机器取代,从而消除或减少了威胁人们的健康与安全不利因素,保障了劳动者的生命权和健康权。第二,减少工作时间。新技术的使用提高了劳动生产率,人们可以在更少的时间内生产相同数量的产品,所以劳动者将有更充足的闲暇时间。第三,提高劳动报酬。从总体角度而言,人工智能的发展将促进劳动报酬的增长。人工智能技术可以是劳动者的工作效率和工作质量提高,从而为促进劳动报酬的增长提供了有利条件。此外,人工智能行业的薪资情况也极为乐观。

5总结

5.1学生个人层面首先要明白人工智能的发展并不是大学生就业难的主要原因,作为就业主体的高校大学要强化理论知识学习提高专业素养;注重参与社会实践,提高实际操作的能力,尤其是学习、创新以及应变能力;其次树立正确的就业观,将理想和现实结合,正确看待人工智能的发展;最后在专业的选择方便要结合时展,积极投身人工智能的发展,推动我国社会主义现代化。

5.2高校层面高校承担着人才培养、科技创新、文化传承与创新等重要使命。高校应加强教学改革,注重培养学生创新意识,注重理论与实践相结合。如可通过高校与相关企业深度合作,共同筹集校企人工智能研发资金,构建共同出资、共享成果、共担责任的研发资助共同体。此外,人工智能教育的一个重大短板是师资力量不足,高校要加强人工智能师资力量培训,聘请高端人才参与到开展人工智能教育中。目前人工智能已经渗入到各个行业,高校在培养人工智能人才的过程中,应依托国家重大人才工程,设立并不断完善高效的人工智能相关专业和课程,根据已有布局和发展部署推动学科交叉,构建“人工智能+X”的格局,培养人工智能交叉人才,提高学生的综合素养。

5.3国家层面国家要加强培养人工智能人才,深入了解从业人员的状况。制订出合理的研究方法和方案,通过官方数据来反映人工智能人才的就业状况,并科学预测人工智能人才未来的供给和需求状况。运用职业培训和职业资格制度,立足与中长期规划,鼓励校企合作,将企业的经验融入高校中,推进产学研合作的培养模式。并进行相反立法的尝试,完善相关体制机制,创新人才培养体系,为构建人工智能的培养体系提供支持和保障。

参考文献

[1]陈永伟.人工智能与经济学:关于文献的综述[J].经济评论,2018.

[2]尹苗苗.人工智能给大学生就业带来的机遇与挑战[J].文教资料,2017.

[3]薛在兴.人工智能对大学生就业的影响[J].中国青年社会科学,2018.

[4]王婷婷.人工智能时代的人才战略[J].远程教育杂志,2018.

[5]刘丽.技术进步偏向对实际工资变化趋势影响的实证分析[J].软科学,2008.

作者:杨柳张玉璩李永萱陈罗兰葛欣怡单位:江南大学

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇