博舍

生成式人工智能迎来大爆发,人类真的要失业了吗 人工智能导致失业的例子材料

生成式人工智能迎来大爆发,人类真的要失业了吗

去年夏天以来,以ChatGPT为代表的“生成式”人工智能系统接连问世,人们惊艳于它们的智能程度,但也对其未来发展产生担忧。这样的系统可以按需求生产内容,不仅威胁到人们的工作,还可能造成错误信息的激增。

StableDiffusion根据提示自动生成的画作,真假难辨。图源:https://stablediffusionweb.com/

就在10多年前,三位人工智能研究人员取得了一项突破,永远地改变了这个领域。

“AlexNet”系统通过从网上采集的120万张图像进行训练,识别出了从集装箱船到豹子等不同物体,其准确性远远高于以往的计算机。

这一壮举帮助开发人员阿莱克斯·克里泽夫斯基(AlexKrizhevsky)、伊利娅·苏茨克维(IlyaSutskever)和杰弗里·辛顿(GeoffreyHinton)赢得了名为ImageNet的年度神秘竞赛。它还展示了机器学习的潜力,并在科技界引发了一场将人工智能带入主流的竞赛。

从那时起,计算机的人工智能时代基本上在幕后形成。机器学习是一项涉及计算机从数据中学习的基础技术,已普遍应用于识别信用卡欺诈、提高在线内容和广告相关性等领域。如果说从那时起机器人就开始抢走人们的工作,那基本上也是在我们看不到的地方发生的。

现在不是了。人工智能领域的另一项突破刚刚撼动了科技界。这一次,机器在众目睽睽之下运行,它们可能终于准备好取代数百万的工作岗位了。

一个11月底发布的查询和文本生成系统ChatGPT,以一种科幻小说领域之外很少见到的方式闯入了公众的视线。它由总部位于旧金山的研究公司OpenAI创建,是新一波所谓的“生成式”人工智能系统中最引人注目的一种,这种系统可以根据要求生成内容。

如果你在ChatGPT中键入一个查询,它将以一段简短的段落作为响应,列出答案和一些上下文内容。例如,你问它谁赢得了2020年美国总统大选,它会列出结果,并告诉你乔·拜登何时就职。

ChatGPT界面。

ChatGPT使用简单,能够在瞬间得出看起来像人类生成的结果,有望将人工智能推入日常生活。微软向OpenAI(由AlexNet创始人苏茨克维联合创立)投资数十亿美元的消息,几乎证实了这项技术将在下一阶段的人工智能革命中发挥核心作用。

ChatGPT是一系列日益引人注目的人工智能公众展示的最新例子。另一个OpenAI系统,自动书写系统GPT-3,在2020年年中发布时震惊了科技界。其他公司的所谓大型语言模型紧随其后,去年扩展到图像生成系统,如OpenAI的Dall-E2、来自StabilityAI的开源StableDiffusion和Midjourney。

这些突破引发了人们争相寻找这项技术的新应用。数据平台ScaleAI首席执行官亚历山大·王(AlexandrWang)将其称为“应用案例的寒武纪大爆发”,将其比作现代动物生命开始繁荣的史前时刻。

如果计算机可以编写和创建图像,那么在正确的数据训练下,还有什么是它们无法生成的吗?谷歌已经展示了两个实验系统,可以根据简单的线索生成视频,还有一个可以回答数学问题。StabilityAI等公司已将这项技术应用于音乐。

这项技术还可以用于向软件开发人员建议新的代码行,甚至整个程序。制药公司梦想着用它以更有针对性的方式合成新药。生物技术公司Absci本月表示,已经利用人工智能设计出了新的抗体,可以将一种药物进入临床试验所需的大约四年时间缩短两年多。

但随着科技行业竞相将这项新技术强加给全球受众,人们需要考虑潜在的深远社会影响。

例如,让ChatGPT以12岁孩子的风格写一篇关于滑铁卢战役的文章,你就能让一个小学生的家庭作业手到擒来。更严重的是,人工智能有可能被故意用来产生大量错误信息,还可能会自动取代大量工作,远远超出最容易躺枪的创造性工作。

微软人工智能平台主管埃里克•博伊德(EricBoyd)表示:“这些模型将改变人与电脑互动的方式。它们将以一种前所未有的方式理解你的意图,并将其转化为计算机行为”。因此,他补充说,这将成为一项基础技术,“涉及几乎所有现有的东西”。

可靠性问题

生成式人工智能的倡导者表示,这些系统可以提高工人的生产力和创造力。微软称,公司旗下GitHub部门的软件开发人员,已经使用一个代码生成系统生成了40%的代码。

谷歌研究科技对社会影响的高级副总裁詹姆斯•马尼卡(JamesManyika)表示,对于任何需要在工作中提出新想法的人来说,这类系统的输出可以“解锁思维”。它们内置在日常软件工具中,可以提出想法、检查工作,甚至生成大量内容。

然而,尽管生成式人工智能易于使用,并有可能颠覆很大一部分科技领域,但对构建这项技术并试图在实践中应用的公司,以及许多可能在不久之后在工作或个人生活中遇到这项技术的人,都构成了深刻的挑战。

最重要的是可靠性问题。计算机可能会给出听起来可信的答案,但人们不可能完全相信它们说的任何话。其通过研究大量数据,根据概率假设做出最佳猜测,却不能真正明白它产生的结果。

圣菲研究所教授梅兰妮·米切尔(MelanieMitchell)表示:“它们对一次谈话之外的事情一无所知,无法了解你,也不知道词语在现实世界中意味着什么。”它们只是针对线索,产生大量听起来有说服力的答案,是聪明但无脑的模仿者,无法保证它们的输出不只是数字幻觉。

已经有事实展示,这项技术如何产生看起来有模有样但实际不可信的结果。

例如,去年年底,Facebook母公司Meta展示了一个名为Galactica的生成系统,它是根据学术论文进行训练的。人们很快发现,这个系统会根据要求发布乍一看可信但实际上是虚假的研究,导致Facebook在几天后撤回了系统。

ChatGPT的创建者也承认其有缺点。OpenAI表示,系统有时会给出“无意义”的答案,因为在训练人工智能时,“目前没有真相来源”。OpenAI补充说,使用人类直接训练它,而不是让它自己学习(这一种被称为“监督学习的方法”,可以由训练资料中学到或创建一个模式,并依此模式推测新的实例)并不奏效,因为系统通常比人类这个老师更善于找到“理想答案”。

一种潜在的解决方案是在生成系统的结果发布之前提交合理性检查检查。马尼卡说,谷歌的实验性LaMDA系统于2021年宣布,对每个线索提出了大约20种不同的响应,然后评估每种响应的“安全性、毒性和合理性”。“我们打电话去检验,看看这是真的吗?”

然而,斯坦福大学计算机科学副教授珀西·梁(PercyLiang)表示,任何依赖人类来验证人工智能输出结果的系统都存在问题。他说,这可能会教会人工智能如何“生成具有欺骗性但看上去可信的东西,实际上可以愚弄人类”。“事实是,真相难以捕捉,而人类并不擅长于此,这可能令人担忧。”

PhotobyArsenyTogulevonUnsplash

而这项技术的支持者说,有一些实用的方法可以使用它,而不必试图回答这些更深层次的哲学问题。微软联合创始人保罗•艾伦(PaulAllen)创立的人工智能研究所A12的顾问兼董事会成员奥伦•埃齐奥尼(OrenEtzioni)表示,就像互联网搜索引擎既能提供有用的结果,也能提供错误的信息一样,人们将设法最大限度地利用这些系统。

他说:“我认为消费者只会学会使用这些工具来造福自己。我只是希望这不会让孩子们在学校作弊。”

但让人类去猜测机器生成的结果是否准确,可能并不总是正确的答案。研究人工智能应用的科技行业组织“人工智能伙伴关系”首席执行官丽贝卡•芬利(RebeccaFinlay)表示,在专业环境中使用机器学习系统已经表明,人们“过度相信人工智能系统和模型得出的预测”。

她补充说,问题在于,“当我们与这些模型互动时,人们会将结果对于人类有何意义的不同方面灌输给它们”,这意味着他们忘记了系统并没有真正“理解”他们所说的话。

这些信任和可靠性问题,为不良行为者滥用人工智能提供了可能。对于任何故意试图误导的人来说,这些机器可能成为虚假信息工厂,能够生产大量内容,淹没社交媒体和其他渠道。在正确的例子训练下,它们可能还会模仿特定人物的写作风格或说话声音。

埃齐奥尼说:“制造虚假内容将非常容易、廉价和普遍。”

StabilityAI负责人伊马德•穆斯塔克(EmadMostaque)表示,这是人工智能普遍存在的一个固有问题。他说:“这是一种人们可以道德或不道德地、合法或非法地、符合伦理地或不符合地使用的工具。坏人已经拥有了先进的人工智能。”

他声称,唯一的防御措施就是尽可能大规模地推广这项技术,并向所有人开放。

这在人工智能专家中是一个有争议的解决方案,他们中的许多人主张限制对底层技术的使用。微软的博伊德表示,其“与我们的客户合作,了解他们的用例,以确保人工智能在这种情况下真的是一个负责任的用途。”

他补充说,微软还会努力防止人们“试图欺骗模型,做一些我们真的不想看到的事情”。微软为其客户提供工具,扫描人工智能系统的输出,以查找他们想要阻止的冒犯性内容或特定术语。

微软此前经历了惨痛的教训,认识到聊天机器人可能会失控:聊天机器人Tay在发表种族主义和其他煽动性言论后,不得不在2016年被匆忙召回。

在某种程度上,技术本身可能有助于控制新人工智能系统的滥用。例如,马尼卡表示,谷歌已经开发了一种语言系统,可以以99%的准确率检测出语音是否为合成。他补充说,谷歌的任何研究模型都不会生成真人的图像,从而限制了所谓深度造假的可能性。

人类的工作面临威胁

生成式人工智能的兴起,也引发了关于人工智能和自动化对就业影响的又一轮争论,这已经是一个老生常谈的话题。机器会取代工人吗?或者,通过接管重复性工作,它们会提高现有工人的生产力,并增加他们的成就感吗?

最明显的是,涉及大量设计或写作元素的工作面临风险。当StableDiffusion在去年夏末问世时,它对即时图像与提示相匹配的承诺,让商业艺术和设计界不寒而栗。

一些科技公司已经在尝试将这项技术应用于广告,其中就包括ScaleAI,其已经在广告图像方面训练了一个人工智能模型。王说,借助这个工具,小零售商和品牌可以得到专业的包装图像,而此前为产品拍摄此类图像价格高昂,他们无法负担。

Dall-E2解释生成原理的视频截图

这可能会威胁到内容创造者的生计。穆斯塔克说:“它彻底改变了整个媒体行业。世界上每一个主要的内容提供商之前都以为他们需要一个元宇宙策略:他们需要的是一个媒体生成策略。”

据一些面临失业的人说,这不仅仅事关生计。当歌手兼词曲作者尼克·凯夫看到ChatGPT写的听起来像他自己作品的歌曲时,他惊呆了。他在网上写道:“歌曲产生于痛苦,我的意思是,它们是基于人类复杂的、内在的创作斗争过程,而据我所知,算法是没有感觉的。数据没有感知。”

对科技持乐观态度的人相信,科技会放大而不是取代人类的创造力。斯坦福大学的梁说,有了人工智能图像生成器,设计师可以变得“更有野心”。“你可以创建完整的视频或全新的系列,而不仅仅是创建单个图像。”

版权制度最终可能发挥重要作用。应用这项技术的一些公司声称,出于“合理使用”,它们可以自由地使用所有可用数据来训练自己的系统。“合理使用”是美国的一项法律例外,允许有限度地使用受版权保护的材料。

其他人不同意这个说法。盖帝图像和三名艺术家上周在美国和英国对StabilityAI和其他公司提起诉讼,指控这些人工智能公司肆意使用受版权保护的图像来训练其系统,这是这一领域首个法律诉讼。

一名代表两家人工智能公司的律师表示,这个领域的所有人都已准备好应对诉讼,这是为这个行业制定基本规则不可避免的一步。对科技行业而言,围绕数据在训练人工智能方面作用的争论,可能会变得与智能手机时代初期的专利战一样重要。

最终,为人工智能新时代设定条款的将是法院,甚至是立法者,如果他们认为这项技术打破了现有版权法所基于的旧假设的话。

在那之前,随着计算机竞相吸收世界上更多的数据,生成式人工智能领域迎来了自由狩猎的季节。

原标题:《生成式人工智能迎来大爆发,人类真的要纷纷失业了吗?》

阅读原文

学习时报:人工智能会导致大规模失业吗

原标题:人工智能会导致大规模失业吗

来源:学习时报

关于人工智能对就业的影响,人们直观的感觉是由于生产效率提高带来对相关行业劳动力需求的大幅减少,将会导致大规模失业,由此产生了对人工智能技术开发和推广应用的焦虑,因此人工智能会导致失业的担忧,引起了广泛的社会共鸣。

当前对人工智能和就业关系问题的研究大致可以区分三类不同的观点。第一种是悲观派,认为人工智能对就业岗位带来的破坏效应将远大于创造效应,失去的岗位远比新增的岗位多,从而导致大规模失业。第二种是乐观派,认为人工智能带来的效率提升和创造效应远大于对就业岗位的破坏效应,因此不必担心大规模失业问题。第三种则是各种类型的中间派,例如一种偏乐观的中间观点认为:类似于人工智能这样的技术革命对就业只会带来短期冲击,最终会被技术进步所带来的岗位增加所抵消,因此如果由于技术发展导致大规模失业,其根本原因不在于技术本身而在于特定的制度环境。而另一种偏向于总体不可预测,具体领域需要具体分析的中间派观点认为:人工智能对经济和就业的影响确实很大,但针对不同行业、不同地区而言,不是均匀地产生影响,而是相互之间存在很大差异。

而这些相互竞争甚至对立的观点往往出自不同的立场和研究假设,例如全球知名咨询公司普华永道预测人工智能在中国的创造效应大于破坏效应,未来20年将新增加大约9000万工作岗位,而世界经济论坛的一份报告则指出2015—2050年,主要工业化国家由于机器人和人工智能的冲击,将导致工作岗位净减少510万个。麦肯锡公司的预测报告指出,到2030年,人工智能和机器人在不同国家对就业带来的影响,主要取决于薪酬水平、需求增长、人口结构和经济构成这四个因素,因此中国、日本、印度、德国、美国等国家的就业情况也将有所不同。

而笔者认为人工智能给社会就业带来的冲击总体可控的观点,与上述的各种中间派观点有相似之处,但也存在若干核心立场与研究假设的不同。过去历次工业革命给人类带来进步的同时,也带来了一些教训,例如任由资本的力量驱动新技术的扩散,而国家层面缺乏对由此带来的就业人口转移的培训、福利政策等各种准备,在社会未达成充分共识之前,由于面临国家之间经济竞争的压力而偏重或过度推动技术的应用。因此对于这个问题的认识,需要从更宽广和更务实的维度来进行思考。

首先是避免过度拔高单一技术在经济发展和社会进步中的作用,以二战以来的第三次工业革命为例,世界人口的增长和经济的恢复发展,不仅受益于信息或电子革命,也受益于农业革命、国际金融秩序的建立、各国战后重建需求、医疗进步、军事技术的扩散、国际贸易发展等多个方面,而这些都在一定程度上与信息革命的影响叠加起来并相互作用,从而导致工作岗位、劳动力就业结构等发生变化,因此就某类技术与就业关系的分析,不能脱离当时的政治文化和社会经济环境。换而言之,不仅要把理论研究和实证研究结合起来,也需要在理论考察中充分考虑多学科的思想资源,才能在技术与社会相互作用的复杂系统中准确判断技术对社会的影响趋势。

其次是需要引入合理的历史性考察维度,目前的研究和讨论中,虽然有些也考察了历次工业革命的一些经验,但主要集中在一些实证性的数据验证上,而对于劳动力、就业等核心概念的分析上,仍然是从相对静态、固定的角度出发。事实上由于人工智能等新技术的发展,就业的形式、劳动力的范围、雇佣关系等都在发生剧烈改变,不同国家在不同历史阶段对职业的分类也处于动态变化过程中。因此就人工智能对就业岗位的破坏和创造效应如何预测而言,很多方面仍在逐步摸索,静态地将其与历史上的就业数据对比,很可能得出不充分的结论,例如技术发展带来的共享经济、众包模式,以及远程办公,导致劳动力在非全职雇佣的情况下仍能获得合理报酬,这些新的就业形式与历史数据往往很难简单对比。

再次是需要主动管理人工智能带来的社会需求变迁,到目前为止,人工智能、机器人等新技术主要是提高人类物质劳动和部分精神劳动的效率,或者在某种程度代替人类,在价值创造中处于生产环节,因此技术不能作为一个拟人主体代替人类进行物质和精神消费。但是人工智能却能对未来社会需求的发展产生重大影响,由于物质生产效率的提高导致人们拥有更多的闲暇时间,重复性的脑力劳动被替代后,人们有更多精力从事重大的创新活动,知识生产的速度和总量都会由此增加。例如当前一个显著的变化是游戏、直播、网络媒体等精神消费或娱乐的支出增长很快,由此带来了新的就业岗位和社会挑战,同时由于流通领域中移动互联网、人工智能技术的深入应用,提高了物质流通中信息交换的效率,导致对相关物流设备的需求也大大增加。

最后则是为了确保人工智能对就业冲击的影响总体可控,需要在政府管制、政策引导和观念传播上积极主动地介入,技术的发展具有一定的自主性,这种自主性往往只是受到专业领域内技术知识、工具手段的制约,虽然目前人工智能和机器人技术在很多方面还难以替代人类劳动,但随着技术自身的进步,它们会以某种难以预测的方式逐步进入人类社会的大多数工作岗位,导致就业人口转移、收入分配体制等一系列的挑战。因此只有在充分洞察技术趋势的同时,利用立法、税收等多方面手段,同时让技术的开发者、推动者、受益者和其他受影响者广泛参与,取得最大限度的社会共识,方能在制度安排和社会接受度上做到可控。例如在当前风头正劲的无人零售、无人货运等领域,其涉及的就业人口高达数千万,虽然技术上还不太成熟,但如何引导其发展,并为未来的就业人口转移在技能培训和新岗位创造上作好安排,需要各方积极参与并提出解决方案,只有在作好充分准备之后,才能妥善应对人工智能给就业带来的冲击,而这方面的未雨绸缪,无疑是保证影响总体可控的前提条件。

责任编辑:赵慧芳

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇