博舍

人工智能将如何影响中国劳动力市场 人工智能可能会引发的问题有哪些

人工智能将如何影响中国劳动力市场

原标题:人工智能将如何影响中国劳动力市场?

题记:本文采编自2020年第一期《ChinaEconomicJournal》的一篇论文,原论文作为者为中国人民大学劳动人事学院周广肃副教授,百度公司集团战略部高级顾问褚高斯、北大国发院李力行教授、香港中文大学经济系孟岭生副教授。《ChinaEconomicJournal》是国家发展研究院/中国经济研究中心的学术刊物,由英国Taylor&Francis出版集团下属的著名RoutledgeJournals出版并面向全球发行。

随着互联网+、大数据、云计算等相关技术的发展,人工智能很有可能会引发新一轮的科技革命浪潮,并对经济社会发展的各个方面产生重要影响。本文着重研究中国人工智能行业迅猛发展可能给劳动力市场带来的影响。有两个主要推论:

1.人工智能与自动化技术对劳动力市场的影响有两面性:一方面会替代很多劳动力,引起失业;另一方面也会创造新的工作岗位需求,促进就业。由于人工智能对就业市场的总数量影响取决于两种作用的相对大小,但确实存在结构上的差异性效果——相对弱势的劳动者更容易被替代,这种非同质化的影响可能会导致就业市场相关的一系列其他社会问题。

2.根据模型预测,到2049年中国将有2.78亿劳动力被人工智能替代,在这2.78亿人中,女性、老年人、受教育程度低和低收入劳动力被替代的概率和范围相对更大,政策制定要提前加强有针对性的职业教育和培训,并通过补贴等手段调整分配模式,以维持社会平等、保障社会和谐。

对劳动力市场的整体影响有异质性

为了抓住人工智能经济带来的新发展机会,多国都出台一系列刺激人工智能发展的规划纲要或政策文件,中国也希望成为世界主要的人工智能创新中心。随着人工智能在中国的不断发展,其对劳动力市场将产生一系列潜在影响,并关系到居民收入、平等与社会稳定。

首先,人工智能无疑是一种技术进步,能够对劳动力产生明显的替代性作用。然而与工业革命以来的“机器代替体力劳动”的替代模式不同,人工智能正逐渐将“智能”融入生产过程。它不仅要求机器的灵巧性逐渐接近人类的能力,更重要的是,使机器逐渐具备作为人类“思考”的能力,这使得人工智能可以对劳动者产生更大程度的替代。

然而,人工智能对劳动就业也有积极一面的影响。例如,云计算支持了网购平台的蓬勃发展,使得与网络购物紧密相关的快递等行业走向繁荣并带动了大量就业,这就是“互补效应”的典例。再如,随着人工智能行业的发展,会创造一些新的岗位,如需要劳动力进行数据标注,以用于人工智能模型的监督学习(supervisedlearning)训练,这就属于“创造效应”的典例。

总体而言,人工智能对于就业产生的总影响还有待进一步计算,但人工智能对劳动者的替代作用确实存在且不同质,一些相对弱势的劳动者更容易被新技术替代,这将会加剧收入的不平等程度。已有的研究为上述观点提供了一些证据,如Autor、Dorn和Hanson(2015)研究了1980年至2007年贸易和技术对美国劳动力市场的影响,发现引入计算机后,未显著减少净就业,但是对不同特征的劳动力影响存在明显差异。这一研究也是主要关注人工智能对劳动力的替代效应,尤其关注人工智能对不同特征的劳动者的替代效应是否有所不同。

不同行业和职业的替代概率不同

接下来,通过分析和计算人工智能应用率,并结合Frey&Osborne(2017)估计的人工智能理论替代概率,估算人工智能对中国各种职业的实际替代概率。

展开全文

结果显示,到2049年中国将有2.78亿劳动力(不同应用率下结果是2.01亿至3.33亿)被人工智能替代,占中国当前就业人数的35.8%。

就不同特征的劳动力而言,人工智能的替代效应也各不相同。研究发现人工智能对女性、老年人、受教育程度低和低收入的劳动力有较大替代作用。这一结论表明,人工智能对劳动力市场所带来的替代效应并不是中性的,而是对劳动力市场中的相对弱势群体产生了更大的影响,这很有可能会进一步加剧他们的弱势地位。

接下来,该研究还预测了城市和农村各个行业中被人工智能替代的就业人数,其中,中国将有1.42亿城市劳动力被人工智能替代,占城市总就业人数(4.34亿)的32.7%。同时,中国农村劳动力中将有1.35亿人被取代,占农村劳动力总数(3.42亿)的39.5%。具体而言,城市中就业替代数量最大的三个行业是制造业,交通运输、仓储和邮政业,以及农林牧渔业。中国农村中就业替代数量最大的三个行业是农林牧渔业、制造业和建筑业。

应当注意的是,这一研究仅仅对人工智能对中国劳动力的替代效果进行了预测,这一预测并没有考虑人工智能可能带来的其他贡献,包括在中国应对人口老龄化、促进和创造就业等方面可能发挥的互补效应和创造效应。但是本研究对替代效应的预测仍然为研究自动化和人工智能对中国劳动力市场的影响提供了第一手实证证据:尤其应当考虑人工智能对不同特征的劳动力的不同影响,以制定更加合适的政策。

在政策方面,首先要更加重视人力资本投资的重要性,不断提升中国劳动者的人力资本。中国应该采取更多措施,来帮助劳动力市场中相对弱势的群体(如女性、低教育程度、老年人和低收入群体),特别是通过职业教育或培训来提升其劳动技能和人力资本,从而尽可能地避免人工智能的负面影响。这一研究还建议关注人工智能对劳动者福利的影响,尽量减少由于就业机会减少和工资增长放缓导致的福利损失。

最后,政府还应该关注人工智能可能造成的社会两极分化和不平等现象。随着人工智能的发展,劳动力将至少分化为两个不同的群体——高技能群体和低技能群体,两者将面临完全不同的工作机会和收入水平,而这种社会分化将会进一步加剧不平等和社会矛盾的激化。为了解决这些问题,政府可以发挥税收和转移支付制度的作用。例如,对人工智能设备或机器人征税,补贴被替代的劳动者或者用以提高他们的工作技能。此外,此项税收也可用于解决老龄化造成的养老金短缺问题。

(本文采编:刘松瑞,北大国发院研究生)

论文信息:

GuangsuZhou,GaosiChu,LixingLi&LingshengMeng(2020)TheeffectofartificialintelligenceonChina’slabormarket,ChinaEconomicJournal,13:1,24-41。

论文作者简介:

周广肃:中国人民大学劳动人事学院副教授,研究重点关注劳动力市场、收入不平等、家庭经济决策等议题,曾获得刘诗白经济学奖、《经济学》(季刊)最佳论文奖、全国优秀财政理论研究成果二等奖等。

褚高斯,百度公司集团战略部高级顾问。

李力行:北京大学国家发展研究院教授、教育部青年长江学者,研究领域为发展经济学、人力资本、公共财政学等,曾获北京大学“黄廷芳/信和”青年杰出学者奖、北京大学方正奖教金、北京大学人文社会科学研究优秀成果奖、北京大学教学优秀奖等荣誉。

孟岭生:香港中文大学经济系副教授、马里兰大学经济学博士,研究领域涉及劳动经济学、中国经济等。返回搜狐,查看更多

责任编辑:

人工智能的三次浪潮与三种模式

■史爱武

谈到人工智能,人工智能的定义到底是什么?

达特茅斯会议上对人工智能的定义是:使一部机器的反应方式就像是一个人在行动时所依据的智能。

百度百科上对人工智能的定义是:它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。

尽管人工智能现在还没有非常严格准确或者所有人都接受的定义,但是有一些约定俗成的说法。通常人工智能是指机器智能,让机器达到人智能所实现的一些功能。人工智能既然是机器智能,就不是机械智能,那么这个机器是指什么呢?是指计算机,用计算机仿真出来的人的智能行为就可以叫作人工智能。

2017年7月,国务院印发了《新一代人工智能发展规划》。2017年12月,人工智能入选“2017年度中国媒体十大流行语”。这一国家级战略和社会流行趋势标志着,人工智能发展进入了新阶段,我国要抢抓人工智能发展的重大战略机遇,构筑人工智能发展的先发优势,加快建设创新型国家和世界科技强国。

人工智能的三次浪潮

自1956年开始,人工智能经历了三起三落,出现了几次浪潮,现在人工智能已经是处于第三次浪潮了。

第一次浪潮(1956-1976年,20年),最核心的是逻辑主义

逻辑主义主要是用机器证明的办法去证明和推理一些知识,比如用机器证明一个数学定理。要想证明这些问题,需要把原来的条件和定义从形式化变成逻辑表达,然后用逻辑的方法去证明最后的结论是对的还是错的,也叫做逻辑证明。

早期的计算机人工智能实际上都是沿着这条路在走。当时很多专家系统,比如医学专家系统,用语言文字输入一些症状,在机器里面变换成逻辑表达,用符号演算的办法推理出大概得了什么病。所以当时的主要研究都集中在逻辑抽象、逻辑运算和逻辑表达等方面。

在第一次浪潮中,数学定理证明实际上是实现效果最好的,当时有很多数学家用定理思路证明了数学定理。为了更好地完成定理证明工作,当时出了很多和逻辑证明相关的逻辑程序语言,比如很有名的Prolog。

虽然当时的成果已经能够解开拼图或实现简单的游戏,却几乎无法解决任何实用的问题。

第二次浪潮(1976—2006年,30年),联结主义盛行

在第一次浪潮期间,逻辑主义和以人工神经网络为代表的联结主义相比,逻辑主义是完全占上风的,联结主义那时候不太吃香。然而逻辑主义最后无法解决实用的问题,达不到人们对它的期望,引起了大家的反思,这时候人工神经网络(也就是联结主义)就慢慢占了上风。

在70年代末,整个神经元联结网络、模型都有突飞猛进的进步,最重要的是BP前馈神经网络。1986年BP前馈神经网络刚出来的时候解决了不少问题,后来大家往更大的领域应用,实现了比较大的成果。在很多模式识别的领域、手写文字的识别、字符识别、简单的人脸识别也开始用起来,这个领域一下子就热起来,一时之间,人们感觉人工智能大有可为。随后十几年人们发现神经网络可以解决一些单一问题,解决复杂问题却有些力不从心。训练学习的时候,数据量太大,有很多结果到一定程度就不再往上升了。

这时期所进行的研究,是以灌输“专家知识”作为规则,来协助解决特定问题的“专家系统”为主。虽然有一些实际的商业应用案例,应用范畴却很有限,第二次热潮也就慢慢趋于消退。

第三次浪潮(2006—现在),基于互联网大数据的深度学习的突破

如果按照技术分类来讲,第二次和第三次浪潮都是神经网络技术的发展,不同的是,第三次浪潮是多层神经网络的成功,也就是深度学习取得突破。这里既有硬件的进步,也有卷积神经网络模型与参数训练技巧的进步。

若观察脑的内部,会发现有大量称为“神经元”的神经细胞彼此相连。一个神经元从其他神经元那里接收的电气信号量达某一定值以上,就会兴奋(神经冲动);在某一定值以下,就不会兴奋。兴奋起来的神经元,会将电气信号传送给下一个相连的神经元。下一个神经元同样会因此兴奋或不兴奋。简单来说,彼此相连的神经元,会形成联合传递行为。我们透过将这种相连的结构来数学模型化,便形成了人工神经网络。

经模型化的人工神经网络,是由“输入层”“隐藏层”及“输出层”等三层构成。深度学习往往意味着有多个隐藏层,也就是多层神经网络。另外,学习数据则是由输入数据以及相对应的正确解答来组成。

为了让输出层的值跟各个输入数据所对应的正解数据相等,会对各个神经元的输入计算出适当的“权重”值。通过神经网络,深度学习便成为了“只要将数据输入神经网络,它就能自行抽出特征”的人工智能。

伴随着高性能计算机、云计算、大数据、传感器的普及,以及计算成本的下降,“深度学习”随之兴起。它通过模仿人脑的“神经网络”来学习大量数据的方法,使它可以像人类一样辨识声音及影像,或是针对问题做出合适的判断。在第三次浪潮中,人工智能技术及应用有了很大的提高,深度学习算法的突破居功至伟。

深度学习最擅长的是能辨识图像数据或波形数据这类无法符号化的数据。自2010年以来,Apple、Microsoft及Google等国际知名IT企业,都投入大量人力物力财力开展深度学习的研究。例如AppleSiri的语音识别,Microsoft搜索引擎Bing的影像搜寻等等,而Google的深度学习项目也已超过1500项。

深度学习如此快速的成长和应用,也要归功于硬件设备的提升。图形处理器(GPU)大厂英伟达(NVIDIA)利用该公司的图形适配器、连接库(Library)和框架(Frame⁃work)产品来提升深度学习的性能,并积极开设研讨课程。另外,Google也公开了框架TensorFlow,可以将深度学习应用于大数据分析。

人工智能的3种模式

人工智能的概念很宽泛,根据人工智能的实力可以分成3大类,也称为3种模式。

(1)弱人工智能:擅长于单个方面的人工智能,也叫专业人工智能。比如战胜世界围棋冠军的人工智能AlphaGo,它只会下围棋,如果让它下国际象棋或分辨一下人脸,它可能就会犯迷糊,就不知道怎么做了。当前我们实现的几乎全是弱人工智能。

(2)强人工智能:是指在各方面都能和人类比肩的人工智能,这是类似人类级别的人工智能,也叫通用人工智能。人类能干的脑力活,它都能干,创造强人工智能比创造弱人工智能难得多,目前我们还做不到。

(3)超人工智能:知名人工智能思想家NickBostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能”。超人工智能可以是各方面都比人类强点,也可以是各方面都比人类强很多倍。超人工智能现在还不存在,很多人也希望它永远不要存在。否则,可能像好莱坞大片里面的超级智能机器一样,对人类也会带来一些威胁或者颠覆。

我们现在处于一个充满弱人工智能的世界。比如,垃圾邮件分类系统是个帮助我们筛选垃圾邮件的弱人工智能;Google翻译是可以帮助我们翻译英文的弱人工智能等等。这些弱人工智能算法不断地加强创新,每一个弱人工智能的创新,都是迈向强人工智能和超人工智能的进步。正如人工智能科学家AaronSaenz所说,现在的弱人工智能就像地球早期软泥中的氨基酸,可能突然之间就形成了生命。如世界发展的规律看来,超人工智能也是未来可期的!

人工智能发展应用中的安全风险及应对策略

(4)应用场景的影响。谷歌公司机器人阿尔法狗战胜韩国围棋九段棋手李世石和围棋世界冠军柯洁,唤醒了世人对人工智能的高度关注。百度指数数据显示,从2015年底开始,“人工智能”热度逐渐升温,且持续到现在。2015-2016年,其媒体关注度已经暴涨6倍。

2.发展现状

目前,人工智能蓬勃发展,技术进步迅速,其应用已经渗透到我们的日常生活中,如人脸识别、刷脸支付、语音助手、无人机、服务机器人、自动驾驶和智能系统等。与互联网、大数据、物联网、云服务融合的人工智能应用给我们带来了更多的便利。专家认为,人工智能的应用将使劳动生产率提高90%;至2035年,人工智能将使年度经济增长率提高一倍。

但是,业界普遍认为真正的人工智能尚处于发展的初级阶段(认知智能发展阶段),即弱人工智能阶段,有“技能”,但远远谈不上有“智能”,还没能出现像人一样思考和行动的真正的人工智能产品,离通过“图灵测试”这一衡量人工智能技术水平的标准为时尚远。有专家认为,人工智能目前处于婴儿期,其智商大抵相当于3岁的孩子,说不好、笑不真、想不清、行不稳,这四“不”客观地描写了人工智能目前的现状。

02安全风险

1.国家安全

国家安全包括国土安全、政权安全、制度安全和意识形态安全等。2017年7月,美国智库发表题为《人工智能与国家安全》的研究报告,认为人工智能将会是国家安全领域的颠覆性力量,其影响可与核、航空航天、信息和生物技术比肩,将深刻改变军事、信息和经济领域安全态势。该报告强调人工智能通过变革军事优势、信息优势和经济优势影响国家安全。其中,军事领域引入人工智能几乎是不可阻挡的,而人工智能技术与生俱来的军民两用特性则要求决策者必须调和商业与国家安全之间的利益。而且,利用“换脸”、“换声”等人工智能技术可以制作具有欺骗性的假时事新闻。已有案例说明,利用人工智能技术在社交平台大量制作散发虚假新闻可以在政府首脑选举中影响选民的抉择。

2.社会安全

传统犯罪借助人工智能,将会衍生出新型犯罪形态、犯罪行为、手段和方法,出现无法辨识是机器人犯罪还是真实人犯罪的尴尬场景。2018年3月,美国发生了两起涉及自动驾驶的车祸。3月19日,优步(Uber)一辆自主驾驶汽车在美国亚利桑那州坦佩市发生致命车祸,一名49岁的女子晚上推着自行车穿过马路时被汽车撞死。3月23日,一名工程师驾驶特斯拉ModelX型号汽车在加州101公路和85公路交接处发生致命车祸,车祸发生时汽车启用了自动驾驶(或自动辅助驾驶)功能。这些案例说明,人工智能产品如果没有彻底解决安全可靠性问题,将会危及社会公共安全和人身安全。

3.网络安全

网络和大数据的发展推动了人工智能的进步,网络攻击智能化趋势也给网络安全保护提出更高要求。有关人工智能与网络安全关系的研究表明,一旦人工智能运用到网络攻击活动,将使得网络攻击活动更加难以预警和防范,关键信息基础设施也将会面临新的安全风险威胁。如人工智能技术运用到木马病毒制作传播,将会出现难以防御的超级病毒木马,传统应对方法将不足以制止这些恶意程序传播扩散的速度。此外,人工智能的技术研发与应用也存在一些不确定性的安全风险。

03应对人工智能安全风险的对策建议

人工智能的安全风险取决于技术发展及其安全可控的程度,短期风险可以预见,长期风险受制于现有认知能力难以预测和判断。因此,一方面,人类社会要积极推动人工智能技术研发和应用;另一方面,要为人工智能的发展应用规划一条安全边界,防止其被恶意运用、滥用,给人类社会造成不可逆转的伤害。

1.加强人工智能安全风险的研究

树立正确的安全观,科学对待人工智能安全风险。研究掌握在人工智能技术研发和应用过程中会出现哪些风险,并从法律、政策、技术和监管等方面进行有效防控管控。

2.加强人工智能立法研究和法律规范

人工智能理论、方法、技术及其应用引发社会关系、社会结构和行为方式的变化,产生不可预知的安全风险和新的法律问题。建议运用法律手段,重点防控人工智能行为主体及其行为的异化。从现有情况看,人工智能法律研究应主要聚焦在人工智能产品主体,如智能机器人的法律地位、行为的法律属性以及法律责任如何确定等方面。在立法方面应加强对人工智能技术应用可能出现的法律问题的前瞻性研究探索。

3.加强人工智能安全防控体系建设

按照趋利避害原则,处理好人工智能发展应用与安全防控的关系,既要促进人工智能发展应用,又要推动其在安全、可靠和可控的轨道上前行。要加强对人工智能安全防控体系建设的战略规划部署,围绕人工智能安全风险点,借鉴已有经验,有步骤地推进人工智能安全综合防控体系建设。

4.加强人工智能产品服务的安全监管

要及时制定人工智能安全产品和服务技术标准规范,规范和引导产品研发推广。加强对人工智能安全产品和服务的市场监管执法和相关产品上市前的安全测试。对有安全缺陷的产品和服务要依法处理,对造成危害后果的要依法追究法律责任。要积极运用人工智能技术提高安全监管能力,善于运用人工智能技术改进和加强安全监管执法,提高安全监管执法的能力和效率。

5.加强人工智能技术研发的管控

人工智能的快速发展引起了国际社会对于道德伦理问题的关注和担心,应当为人工智能技术研发划出“红线”,设置禁区,禁止研究开发危害人类生存安全的人工智能技术和产品,防止人工智能技术的滥用。美国科幻小说家阿西莫夫在1950年出版的小说《我,机器人》中提出了著名的“机器人三大法则”,第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险时袖手不管;第二定律:机器人必须服从人类发出的命令,当该命令与第一定律冲突时例外;第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。2017年1月,美国著名人工智能研究机构未来生命研究院(FLI)在加利福尼亚州召开主题为“有益的人工智能(BeneficialAI)”的阿西洛马会议,法律、伦理、哲学、经济、机器人和人工智能等众多学科和领域的专家,共同达成了23条人工智能原则(“阿西洛马人工智能原则”,被称为人工智能发展的“23条军规”),呼吁全世界在发展人工智能的时候严格遵守这些原则,共同保障人类未来的利益和安全。23条规则规定,人工智能研究的目标应该建立有益的智能,而不是无向的智能。应该设计高度自主的人工智能系统,以确保其目标和行为在整个运行过程中与人类价值观相一致。对于人工智能造成的风险,尤其是那些灾难性的和存在价值性的风险,必须付出与其所造成的影响相称的努力,以用于进行规划和缓解风险。同时,人工智能军事化问题也是国际法律界关注的热点。目前,国际上限制致命性人工智能武器的呼声不绝于耳,有上百家人工智能领先企业呼吁禁止发展致命性人工智能武器。国际社会应当共同努力,加强合作,反对人工智能军事化,共同应对人工智能安全风险。返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇