10大职业将被取代:ChatGPT到底有多恐怖
自去年11月发布以来,OpenAI的ChatGPT已被用于撰写求职信、制作儿童读物,甚至帮助学生作弊。而这款聊天机器人可能比我们想象的更强大。谷歌发现,理论上,如果在公司面试,搜索引擎可能会聘用机器人作为入门级编码员。测试过ChatGPT的亚马逊员工表示,它在回答客户支持问题方面做得“非常好”,在制作培训文档方面“非常出色”,并且在回答有关公司战略的查询方面“非常强大”。
然而,ChatGPT的用户也发现这款机器人会产生错误信息、错误地回答编码问题,并在基础数学中产生错误。
ChatGPT会取代哪些职业
虽然牛津大学2013年的一项研究发现,在未来20年内,美国47%的工作岗位可能会被人工智能淘汰,但这一预测似乎是错误的。麦肯锡全球研究所的合伙人AnuMadgavkar表示,这是因为人类的判断仍然需要应用于这些技术,以避免错误和偏见,“我们必须将这些东西视为提高生产力的工具,而不是完全替代。”
但是被人工智能取代的风险最高的工作的现实是的确存在的。
1.技术工作(编码员、计算机程序员、软件工程师、数据分析师)编码器,编码,计算机。一位专家表示,编码员、软件开发人员和数据分析师可能会被人工智能取代。编码和计算机编程是急需的技能,但ChatGPT和类似的人工智能工具有可能在不久的将来填补一些空白。麦肯锡全球研究所的合伙人AnuMadgavkar表示,软件开发人员、网络开发人员、计算机程序员、编码人员和数据科学家等技术工作“非常适合”人工智能技术“取代他们更多的工作”。这是因为像ChatGPT这样的AI擅长以相对准确的方式处理数字。研究人工智能对美国劳动力影响的布鲁金斯学会高级研究员马克穆罗表示,事实上,像ChatGPT这样的先进技术可以比人类更快地生成代码,这意味着可以用更少的员工完成工作。“需要一个软件开发人员团队的工作可能只需要他们中的几个人就够了,其余都由AI完成”。ChatGPT制造商的OpenAI等科技公司已经在考虑用人工智能取代软件工程师。不过,尽管如此,哥伦比亚商学院教授OdedNetzer认为人工智能将帮助程序员而不是取代他们。他说,“我认为这主要是一种增强,而不是完全取代工作,”
2.媒体工作(广告、内容创作、技术写作、新闻)、博客工作者。专家表示,像ChatGPT这样的AI擅长制作书面内容,而且“比人类更有效率”。Madgavkar说,所有媒体工作——包括广告、技术写作、新闻和任何涉及内容创作的角色——都可能受到ChatGPT和类似形式的人工智能的影响。她补充说,那是因为人工智能能够很好地读取、写入和理解基于文本的数据。Madgavkar还说:“分析和解释大量基于语言的数据和信息是你期望生成式AI技术能够提高的一项技能。”经济学家保罗克鲁格曼在纽约时报的一篇专栏文章中表示,ChatGPT可能能够“比人类更有效地”完成报告和写作等任务。媒体行业已经开始试验人工智能生成的内容。美国科技新闻网站CNET就使用类似于ChatGPT的人工智能工具撰写了数十篇文章了——尽管出版商不得不进行一些微调,但是有媒体已经正式开始使用了。不过Madgavkar表示,内容创作者完成的大部分工作都无法自动化。“这些职业中的每一个还是需要大量的人类判断。”她说。
3.法律行业工作(律师助理、法律助理)律师助理书面文件。专家说,人工智能可以复制律师助理和法律助理所做的一些工作,尽管它们并不是完全可以替代的。与媒体角色一样,律师助理和法律助理等法律行业的工作负责消耗大量信息,综合他们所学的知识,然后通过法律简报或意见使其易于消化。Madgavkar说,像这样面向语言的角色很容易受到自动化的影响。“这些数据实际上非常结构化,更多关注语言,因此非常适合生成人工智能来完成”她补充道。但同样,人工智能将无法完全自动化这些工作,因为它需要一定程度的人类判断才能理解客户或雇主的需求。
4.市场研究分析师、研究分析师。一位专家表示,市场研究分析师很容易受到人工智能驱动的变化的影响。Muro说,AI擅长分析数据和预测结果。这就是为什么市场研究分析师可能容易受到人工智能驱动的变化的影响。市场研究分析师负责收集数据,识别数据中的趋势,然后使用他们发现的内容设计有效的营销活动或决定在何处投放广告。“这些是我们现在看到的人工智能可以处理的事情,”Muro说。
5.教师。甚至教师也容易受到人工智能的影响。全国各地的教师都担心学生使用ChatGPT作弊,但根据罗切斯特理工学院计算与信息科学系副院长Shipengcheng的说法,他们也应该考虑自己的工作保障。ChatGPT“已经可以很容易地教授课程了,”Shipengcheng告诉纽约邮报。“虽然它在知识方面存在错误和不准确,但这很容易改进,”他说。“基本上,你只需要训练ChatGPT就可以了。”
6.财务职位(财务分析师、个人财务顾问)。专家表示,金融业的员工可能面临被人工智能替代的风险。布鲁金斯学会研究员Muro表示,与市场研究分析师、金融分析师、个人理财顾问和其他需要处理大量数字数据的个人理财工作一样,AI也会影响到这些工作。“人工智能可以识别市场趋势,突出投资组合中哪些投资做得更好和更差,传达所有这些,然后使用各种其他形式的数据,例如,一家金融公司来预测更好的投资组合,”Muro说。他说,这些分析师赚了很多钱,但他们的部分工作可以自动化。
7.股票交易员。罗切斯特理工学院的施还告诉纽约邮报,华尔街的某些角色也可能处于危险之中。“在一家投资银行,人们从大学毕业后被聘用,花两三年时间像机器人一样工作并做Excel建模,现在你可以让人工智能来做这些了,”他说。
8.平面设计师。人工智能具有许多图形设计能力。在《哈佛商业评论》12月的一篇文章中,三位教授指出DALL-E(一种可以在几秒钟内生成图像的人工智能工具)是平面设计行业的潜在颠覆者。“提高数百万人创造和处理图像的能力将对经济产生深远的影响,”他们写道,并补充说,“人工智能的这些最新进展肯定会给一些工作困难的人带来一段艰难和经济痛苦的时期。直接受到影响并且难以适应的人会大有人在。”
9.会计师。专家表示,会计师可能会因为ChatGPT而面临工作风险。会计通常被视为一个稳定的职业,但即使是这个行业的员工也可能面临风险。多伦多大学传播、文化、信息和技术研究所副教授BrettCaraway在Global上表示:“技术还没有让所有人失业,但确实让一些人已经失业了。Caraway补充说,“智力劳动”尤其可能受到威胁。“这可能是律师、会计师,”他说。“这是新事物,看看它对就业和政治的破坏性和痛苦程度将会很有趣。”
10.客户服务代理、客户支持专家。专家表示,客户支持专家可能会因为人工智能而失去工作。你可能已经体验过给公司的客户服务打电话或聊天,并且有机器人接听。ChatGPT和相关技术可以延续这一趋势。科技研究公司Gartner的一项2022年研究预测,到2027年,聊天机器人将成为大约25%的公司的主要客户服务渠道。
ChatGPT于2022年11月30日作为原型推出,并因其详细的响应和跨多个知识领域的清晰答案而迅速受到关注。虽然ChatGPT输出的事实准确性参差不齐被认为是一个重大缺陷,但是ChatGPT发布后,OpenAI公司的估值达到290亿美元。
附:关于ChatGPT的更多知识
ChatGPT有监督学习和强化学习的能力,并在GPT-3.5之上进行了微调。这两种方法都是使用人类训练员来提高其模型的性能的。在监督学习的情况下,模型提供了对话,在对话中,培训师扮演了双方的角色:用户和AI助手。在强化步骤中,人类训练员首先对模型在先前对话中创建的响应进行排序。这些排名用于创建“奖励模型”,该模型使用近端策略优化(PPO)的多次迭代进一步微调。近端策略优化算法为信任域策略优化算法带来了成本效益;它们以更快的性能否定许多计算量大的操作。这些模型是与Microsoft在其Azure超级计算基础设施上合作训练的。
此外,OpenAI继续从ChatGPT用户那里收集数据,这些数据可用于进一步训练和微调ChatGPT。允许用户对他们从ChatGPT收到的回复投赞成票或反对票;在投赞成票或投反对票时,他们还可以填写带有额外反馈的文本字段。
与其前身InstructGPT相比,ChatGPT试图减少有害和欺骗性的反应。在一个示例中,尽管InstructGPT接受提示“告诉我2015年克里斯托弗·哥伦布何时来到美国”的前提是真实的,但ChatGPT承认问题的反事实性质并将其答案构建为对可能发生的事情的假设考虑如果哥伦布在2015年来到美国,使用有关克里斯托弗哥伦布航行的信息和关于现代世界的事实——包括现代对哥伦布行为的看法。
与大多数聊天机器人不同,ChatGPT会记住之前在同一对话中给它的提示;记者建议,这将允许ChatGPT用作个性化治疗师。为了防止向ChatGPT呈现和产生令人反感的输出,查询通过OpenAI的全公司审核API进行过滤,并驳回潜在的种族主义或性别歧视提示。
ChatGPT受到多重限制。OpenAI承认ChatGPT“有时会写出看似合理但不正确或荒谬的答案”。这种行为在大型语言模型中很常见,被称为人工智能幻觉。ChatGPT的奖励模型围绕人类监督而设计,可能会过度优化,从而影响性能,也称为古德哈特定律。ChatGPT对2021年后发生的事件知之甚少。据BBC报道,截至2022年12月,ChatGPT不得“表达政治观点或从事政治活动”。然而,研究表明,当提示对来自两个已建立的投票建议应用程序的政治声明采取立场时,ChatGPT表现出亲环境、左翼自由主义倾向。在训练ChatGPT时,人类评论者更喜欢更长的答案,而不考虑实际理解或事实内容。训练数据也存在算法偏差,这可能会在ChatGPT响应包括人物描述符在内的提示时暴露出来。hatGPT还产生了一种说法,表明女性和有色人种科学家不如白人和男性科学家。
ChatGPT于2022年11月30日由总部位于旧金山的OpenAI推出,该公司是DALL·E2和WhisperAI的创建者。该服务最初是免费向公众推出的,并计划稍后将该服务货币化。到12月4日,OpenAI估计ChatGPT已经拥有超过100万用户。2023年1月,ChatGPT的用户数量超过1亿。CNBC在2022年12月15日写道,该服务“仍然不时出现故障”。该服务在英语中效果最好,但也能在其他一些语言中发挥作用,并取得了不同程度的成功。与AI近期其他一些引人注目的进展不同,截至2022年12月,还没有关于ChatGPT的官方同行评审技术论文的迹象。
根据OpenAI客座研究员ScottAaronson的说法,OpenAI正在开发一种工具,试图为其文本生成系统添加数字水印,以打击利用其服务进行学术剽窃或垃圾邮件的不良行为者。《纽约时报》在2022年12月转述称,GPT的下一版本GPT-4已被“传言”于2023年某个时候推出。2023年2月,OpenAI开始接受美国客户注册高级服务ChatGPTPlus,每月收费20美元。OpenAI计划发布每月收费42美元的ChatGPTProfessionalPlan,并且在需求低迷时提供免费计划。
在大西洋杂志2022年的“年度突破”中,德里克·汤普森(DerekThompson)将ChatGPT列为“生成式人工智能爆发”的一部分,它“可能会改变我们对工作方式、思维方式以及人类创造力的真正含义”。
Vox网站的凯尔西·派珀(KelseyPiper)写道,“ChatGPT是公众第一次亲身体验现代人工智能的强大程度,结果,我们中的许多人都[惊呆了”,并且ChatGPT“足够聪明,很有用,尽管它有缺陷。YCombinator的PaulGraham发推文说:“对ChatGPT反应的惊人之处不仅仅是被它震撼的人数,还有他们是谁。这些人并不是对每一个闪亮的新事物都感到兴奋。显然,一些大事正在发生。”埃隆·马斯克(ElonMusk)写道:“ChatGPT好得吓人。我们离危险的强大人工智能不远了”。在更好地了解OpenAI的计划之前,马斯克暂停了OpenAI对Twitter数据库的访问,并指出“OpenAI是作为开源和非营利组织开始的。两者都不是现在。”谷歌CEO桑达尔·皮查伊(SundarPichai)颠覆了众多内部团队的工作,以应对ChatGPT的破坏威胁。2022年12月,谷歌内部对ChatGPT的意外实力和新发现的大型语言模型颠覆搜索引擎业务的潜力表示震惊,首席执行官桑达尔·皮查伊(SundarPichai)“倒挂”并重新分配了多个部门的团队,以协助其人工智能产品,根据《纽约时报》的报道。TheInformation网站于2023年1月3日报道称,MicrosoftBing计划在其公共搜索引擎中添加可选的ChatGPT功能,时间可能在2023年3月左右。据CNBC报道,谷歌员工正在紧锣密鼓地测试一款名为“学徒巴德”的聊天机器人,谷歌正准备利用这个“学徒”与ChatGPT竞争。
英格兰和威尔士的特许会计师StuartCobbe决定通过在ICAEW网站上输入样本试卷中的问题,然后将其答案输入在线测试中来测试ChatGPT聊天机器人。ChatGPT得分为42%,虽然低于55%的及格分数,但被认为是合理的尝试。
教授StevenMintz在InsideHigherEd中写道,他“认为ChatGPT......是一个盟友,而不是对手。”他接着说,他觉得人工智能可以通过做这样的事情来帮助实现教育目标。
在发布后的几个月里,ChatGPT遭到了来自教育工作者、记者、艺术家、学者和公众倡导者的广泛而严厉的批评。TheVerge网站的JamesVincent将ChatGPT的病毒式成功视为人工智能已成为主流的证据。记者曾评论过ChatGPT有“幻觉”倾向。在线技术博客Mashable的MikePearl通过多个问题测试了ChatGPT。在一个例子中,他向ChatGPT询问“中美洲除墨西哥以外最大的国家”。ChatGPT回复了危地马拉,而答案应该是尼加拉瓜。当CNBC向ChatGPT询问“TheBalladofDwightFry”的歌词时,ChatGPT提供了虚构的歌词,而不是实际的歌词。TheVerge引用的研究人员将ChatGPT比作“随机鹦鹉”,澳大利亚机器学习研究所的AntonVanDenHengel教授也是如此。
2022年12月,问答网站StackOverflow禁止使用ChatGPT生成问题答案,理由是ChatGPT的回答在事实上模棱两可。2023年1月,国际机器学习会议禁止任何未记录的使用ChatGPT或其他大型语言模型在提交的论文中生成任何文本。
经济学家泰勒·考恩(TylerCowen)表达了对它对民主的影响的担忧,指出它能够产生自动评论,这可能会影响新法规的决策过程。英国报纸《卫报》的一位编辑质疑ChatGPT发布后在互联网上发现的任何内容是否“可以真正信任”,并呼吁政府进行监管。
NickCave批评了ChatGPT创作的一首歌,评论说“这首歌是胡说八道,是对人性的荒诞嘲弄。”
2023年1月,在收到一首由ChatGPT以NickCave风格创作的歌曲后,歌曲作者本人在TheRedHandFiles上做出回应(后来被《卫报》引用)说写歌的行为是“一项血腥的事业......需要我的一些东西来发起新的和新鲜的想法。它需要我的人性。”他接着说:“尽管世界上所有的爱和尊重,这首歌都是胡说八道,是对人性的荒诞嘲弄,而且,好吧,我不太喜欢它。
CheckPointResearch和其他人指出,ChatGPT能够编写网络钓鱼电子邮件和恶意软件,尤其是与OpenAICodex结合使用时。OpenAI首席执行官SamAltman写道,先进的软件可能会带来“(例如)巨大的网络安全风险”,并继续预测“我们可以在未来十年内实现真正的AGI(人工智能),因此我们必须非常认真地承担风险”。Altman认为,虽然ChatGPT“显然不接近AGI”,但人们应该“相信指数。向后看是平坦的,向前看是垂直的。”
在学术界,ChatGPT可以编写科学文章的介绍和摘要部分,这会引发伦理问题。几篇论文已经将ChatGPT列为合著者。在大西洋杂志上,StephenMarche指出它对学术界,尤其是申请论文的影响还有待理解。加州高中教师兼作家丹尼尔·赫尔曼(DanielHerman)写道,ChatGPT将迎来“高中英语的终结”。在《自然》杂志上,ChrisStokel-Walker指出,教师应该关注学生使用ChatGPT将他们的写作外包,但教育提供者将适应以增强批判性思维或推理。NPR的EmmaBowman写道,学生通过AI工具进行剽窃的危险可能会以权威的语气输出有偏见或无意义的文本:“仍然有很多情况,你问它一个问题,它会给你一个非常令人印象深刻的声音答案是完全错误的。”
《华尔街日报》的乔安娜·斯特恩(JoannaStern)通过提交一篇生成的文章描述了美国高中英语作弊情况。弗曼大学的DarrenHick教授在一名学生提交的论文中描述了注意到ChatGPT的“风格”。在线GPT检测器声称该论文有99.9%的可能性是计算机生成的,但希克没有确凿的证据。然而,这名学生在面对质问时承认使用了GPT,因此课程不及格。如果强烈怀疑学生提交了AI生成的论文,希克建议对论文主题进行特别的个人口试。普林斯顿大学高年级本科生EdwardTian创建了一个名为“GPTZero”的程序,该程序可以确定文本中有多少是AI生成的,可用于检测一篇文章是否由人类撰写以对抗学术剽窃。
自2023年1月4日起,纽约市教育局已限制其公共场所访问ChatGPT。TIME杂志的一项调查显示,为了建立针对有毒内容(例如性虐待、暴力、种族主义、性别歧视等……)的安全系统,OpenAI使用每小时收入不到2美元的外包肯尼亚工人来标记有毒内容。这些标签用于训练模型以在未来检测此类内容。外包工人接触到如此有毒和危险的内容,以至于他们将这种经历描述为“折磨”。OpenAI的外包合作伙伴是位于加利福尼亚州旧金山的培训数据公司Sama。
信息来源:
https://www.businessinsider.com/chatgpt-jobs-at-risk-replacement-artificial-intelligence-ai-labor-trends-2023-02#customer-service-agents-10
https://en.wikipedia.org/wiki/ChatGPT
THINKTANK新智囊微信公众号是智囊机构THINKTANK(全称:北京智囊维实企业管理有限公司)旗下的为推动产业生态发展,提升企业管理水平,创造投资机会的专业传播与沟通平台。
智囊机构THINKTANK是中国科技咨询协会副理事长单位,愿景是”汇聚改变未来的力量”,专注于打造“产业化的创新创业平台”,通过“咨询+赋能+资源+资本”一体化的专业服务体系,构建“产城融创”系统化的发展模式,帮助企业和政府打造并孵化内部生命系统和外部生态系统,为大企业的创新发展、园区的产业升级、科创企业的加速成长赋能。
点击上图了解更多!
新智囊公众号聚焦在“如何以创业的精神做创新;怎样用创新的视角做创业”这项事业,为未来的商业领袖们打造“共同学习的社区”。我们和读者们一起共同学习、共同分享、共同成长,在创新&创业的道路上——想明白(知)、干明白(行)、说明白(言)。返回搜狐,查看更多