人工智能会取代人类简直胡扯
现在竟然说高薪高劳动强度高技术含量的翻译和速记会被替代?反正我不信。
不过去年微软在天津举办的一场发布会上,微软的人工智能把发言者的英语转译成中文,再用发言者的声音和语调用中文讲出来,确实让人印象深刻。谷歌在这方面也不甘示弱。2015年,谷歌更新了手机端的翻译App,其最大的亮点就是可以通过手机摄像头识别外语文字,再利用增强现实技术把翻译后的文字原封不动地呈现在原来文字的位置。虽然中英两种语言之间的机器互译还谈不上一流的水平,但至少已经可以勉强使用了。
语音识别和中英互译/图来源网络
国内的语音识别技术商科大讯飞在《对话》演播室直接挑战起了现场的速记员,并且炫(zhuang)耀(bi)成功。但是我们会发现,高级速录师与语音识同时速记,在速度上,人工智能比速记员要稍快,但在理解上,人工智能不如人类做得好。在普通话不是那么标准的时候,人工智能不能轻易识别人的语言,会犯错,而速记员则会根据人类的理解规则来记录这些话。换句话说,机器在处理同音不同字的文本上,还是要欠缺一点智慧的。而人类会根据自己对语义的理解,把一些说话过程中表达模糊的词汇再进行加工。微软亚洲研究院副院长芮勇举了一个例子,说“我想静静”这句话,语音识别当然能识别出来,但是它不会明白“静静”是一个人名还是一个状态。机器的目标是一字不差的记录讲话内容,速记员会主动舍弃一些内容(重复、语气词等)保证基本内容的正确性。由此,不少人并不认为语音识别能战胜人类。
自从写稿机器人出现后,记者、编辑会被取代的说法甚嚣尘上,笔者会努力保(ren)住(zhu)饭(bu)碗(ku)的。
没错,媒体人现在关心的还是网络媒体对传统媒体的冲击,但更应该担心的其实是人工智能带来的威胁。今年9月10日,腾讯财经的一篇《8月CPI同比上涨2%创12个月新高》的稿子。初看上去,这篇稿件似乎和及其他媒体的新闻稿没有太多不同,但腾讯在最后一段用文字表明稿件是通过算法,在一分钟内自动生成的。
写稿机器人/图来源网络
对于新闻机构来说,用机器人写作已经不是新鲜事了。美联社2014年7月开始利用美国自动化洞察公司的软件撰写财报新闻,如今已经运行了将近一年半的时间,每季度财报新闻量从300篇上升到了3000篇。软件不仅可以第一时间快速准确地抓取财报要点信息,还“摸透”了美联社的写作风格。而美国的《洛杉矶时报》、雅虎财经网站、NFL网站也早已用自动化的方式生成从社会到财经再到体育新闻的各式新闻稿件了。
不过,并不是所有的软件都能如此顺利的骗过读者的眼睛。
去年,美国国家公共电台(NPR)驻白宫记者ScottHorsley就和可以写新闻的机器人“WordSmith”进行了一场比赛。在一家公司公布财报后,二者同时开始写一篇短报道,人类用了7分钟,而机器人只花了2分钟。但是,在随后在针对稿件受欢迎程度的投票中,人类的写作质量压倒性的获得了胜利,人类写文章的获得了9916票,而机器人写的文章只获得了912票。要知道,一般来说,针对财报的短篇报道相对更加格式化,如果是更为复杂的调查报告,人物访谈,机器写作的质量会比人类差得更远。人工智能写作软件能在短消息的数量上甩出人类几条街,但在复杂报道中,质量无法保证,毕竟机器听不懂话外音,不知道哪些看似漫不经心的话语会成为一篇报道的核心。
医生的脑力劳动不见得比媒体人要少,但依然是个危险的职业。2015年年初,IBM超级计算机“沃森”运行的医疗诊断程序,还只是被当作“助理医生”,调取数据库里的资料协助医生作出诊断。但到了年底,IBM就开始和生物制药公司联手,要把“沃森”打造成为糖尿病专科医生了。
人工智能应用到医疗领域/图来源网络
丹麦糖尿病治疗机构诺和诺德希望使用IBM的超级计算机平台来分析糖尿病患者的健康数据,并以此为依据更改糖尿病患者的胰岛素用量。但目前来看“沃森”可以胜任的也不只是糖尿病医生:纽约的一家癌症治疗中心2012年曾和“沃森”合作开发工具获取肿瘤数据;它也在和强生合作担任膝盖移植患者的术后恢复教练工作。
业内几乎一致断定人工智能在医疗方面会首先发力,医疗是个特殊行业,众所周知,一线医生的工作量很大,看一个病人的时间通常压缩到几十秒,往往给患者造成不关心、敷衍的心理感受,加剧医患关系的紧张。如果人工智能可以代替一线医生处理门诊病人,或许从琐碎工作中解放出来的医务工作者会把更多的精力投入在患者的治疗和康复身上,也不失为一个良策。但无论如何,人工智能对医疗行业提出的技能更新,是无法避免开的。几乎可以断言,人工智能不会取代医生,但是会更好的辅助医生,大家都在呼唤这样的人工智能快点到来。
以上这些显然是高大上的脑力劳动,那么,机器会不会威胁低级岗位呢?我们的日常生活,充满了大量的人工智能无法模仿的场景。快递小哥,送个快递,出来的人不是原来熟悉的那个,他打量一下那人,就放心的把快件给这个人了;餐馆服务员,在高峰时期,帮这一桌催,不帮那一桌催;剧院门口的黄牛向游人兜售戏票;火车站附近的宾馆工作人员游说旅客投宿到自己家...这些低端的工作岗位,对人类说非常简单,不需要什么学历,不用动脑筋,但对机器而言,仍然非常复杂。
人工智能不是被创造出来取代人类或毁灭人类的,它是帮助人类更好的享受生活,更便捷的完成工作。未来我们要思考的事情不是担心人工智能会抢了我们的饭碗,而是如何在人工智能的辅助下更惬意的学习、工作、生活,以及如何与人工智能融洽的共处。
更多无人机行业资讯,请关注宇辰网(微信号:yuchenshiji)
返回搜狐,查看更多
人工智能为什么不能代替人类―中国经济网
■吴荻枫
人工智能没有意义的概念,没有价值观,终究只能是人的工具,而不可能超越人类。
近年来,人工智能技术发展极其迅速,各种智能设备、智能软件已走进千家万户,改变了我们的生活方式和工作方式。因此,不少人认为,在不久的将来,人工智能将会全面代替人类智能,甚至超越人类智能。不过,这种观点过于悲观,人类的思想和行为中最重要最独特的部分,是人工智能无法实现,更无法替代的。
人工智能不管多么发达,归根结底,都是在人类给定的框架下解决问题。比如,某人每天上下班,公司和家之间的距离有15公里。他可以选择的交通工具包括打的、公交车、地铁、自驾车、共享单车,以及这些工具的组合。如果他去问导航软件,导航软件可以根据他的要求以及实时路况,给出一个最优的出行方案。这在现实中往往是很有用的。然而,虽然有不少人会选择在工作地点附近买房或租房来解决通勤问题,导航软件却绝不会给出搬家的方案。因为导航软件的运行程序,或者说运行框架没有这种手段可供选择,但人却不会受既有框架的约束。
人工智能也不能主动确定需要解决的问题是什么。举一个非常简单的例子,如果我问智能应答软件:“帅帅在哪里,你看到帅帅了么?”它要么回答不知道,要么给出一个错误的答案。而我如果拿这个问题去问人,被问的人不管知识水平如何,第一个反应恐怕都是:“你说的帅帅是谁啊?”我就会告诉他,帅帅是我的小狗,是什么样子,有多大,有什么特点,等等。可见,人类首先能够主动确定要解决的问题是什么,也就是说确定目标。我举的这个例子非常简单,以后人工智能或许也能应对,但并不是软件学会了如何确定问题所在,而是设计人员扩充了或者改变了软件运行的程序或框架。
总之,如果人类确定了问题,确定了可用的手段或者信息,人工智能可以给出答案,乃至近乎完美的答案。但是,人工智能不会设计这种目的―手段的框架,也不会主动突破这种框架。
人是追求意义的智慧生物,因此有自己的价值观。人类赋予某些事物以意义或价值,才构成了目的―手段的逻辑关系。也就是说,人能知道自己要的是什么,怎样才算是达成了目的。而人工智能没有意义的概念,需要人类将具有意义的逻辑关系编码输入,人工智能才能按照这种关系工作,但它本身无从建立这种关系。
人以意义来理解世界,也以此与他人交流、合作。米塞斯曾举过一个例子,假如某人闯入了一个从未去过的原始部落。那些原始人未开化,没有语言,或者即使有语言他也听不懂。但是,如果他看到这些原始人架锅生火,他就会知道,他们是要做饭了。人类有相似的心智结构,即使语言不通,也可以相互理解。如果换成机器人呢?除非是科幻电影里那些由演员扮演的机器人,否则它只会搜索和输出代码,而不会真正试图去理解眼前所发生的事。
可见,人与人工智能最大的不同,就是人通过意义和价值与外部世界建立联系。这是人作为主体而不是客体的基础,也是人类合作和创新的基础。人工智能没有意义的概念,没有价值观,终究只能是人的工具,而不可能超越人类。
值得注意的是,我们可以看出,主流新古典经济学的理性经济人假设,正是将人当成了在既有目的―手段框架下寻求最优解的机器。这其实是省略了人的行为中最具有本质性和创新性的部分。理性经济人所构成的经济体,是静态的、机械的,被动的,充其量是人工智能的世界,而不是人类社会。
经济学是价值中立的科学,因此经济学不研究也没有足够的能力研究某个个人究竟应该确定什么具体的目标,运用什么具体的手段,但是,经济学应该将个人在目的―手段框架的行为模式纳入研究的范畴,否则就是舍本逐末,具有难以克服的缺陷。
(作者系西南民族大学讲师)
生成式人工智能迎来大爆发,人类真的要失业了吗
去年夏天以来,以ChatGPT为代表的“生成式”人工智能系统接连问世,人们惊艳于它们的智能程度,但也对其未来发展产生担忧。这样的系统可以按需求生产内容,不仅威胁到人们的工作,还可能造成错误信息的激增。
StableDiffusion根据提示自动生成的画作,真假难辨。图源:https://stablediffusionweb.com/
就在10多年前,三位人工智能研究人员取得了一项突破,永远地改变了这个领域。
“AlexNet”系统通过从网上采集的120万张图像进行训练,识别出了从集装箱船到豹子等不同物体,其准确性远远高于以往的计算机。
这一壮举帮助开发人员阿莱克斯·克里泽夫斯基(AlexKrizhevsky)、伊利娅·苏茨克维(IlyaSutskever)和杰弗里·辛顿(GeoffreyHinton)赢得了名为ImageNet的年度神秘竞赛。它还展示了机器学习的潜力,并在科技界引发了一场将人工智能带入主流的竞赛。
从那时起,计算机的人工智能时代基本上在幕后形成。机器学习是一项涉及计算机从数据中学习的基础技术,已普遍应用于识别信用卡欺诈、提高在线内容和广告相关性等领域。如果说从那时起机器人就开始抢走人们的工作,那基本上也是在我们看不到的地方发生的。
现在不是了。人工智能领域的另一项突破刚刚撼动了科技界。这一次,机器在众目睽睽之下运行,它们可能终于准备好取代数百万的工作岗位了。
一个11月底发布的查询和文本生成系统ChatGPT,以一种科幻小说领域之外很少见到的方式闯入了公众的视线。它由总部位于旧金山的研究公司OpenAI创建,是新一波所谓的“生成式”人工智能系统中最引人注目的一种,这种系统可以根据要求生成内容。
如果你在ChatGPT中键入一个查询,它将以一段简短的段落作为响应,列出答案和一些上下文内容。例如,你问它谁赢得了2020年美国总统大选,它会列出结果,并告诉你乔·拜登何时就职。
ChatGPT界面。
ChatGPT使用简单,能够在瞬间得出看起来像人类生成的结果,有望将人工智能推入日常生活。微软向OpenAI(由AlexNet创始人苏茨克维联合创立)投资数十亿美元的消息,几乎证实了这项技术将在下一阶段的人工智能革命中发挥核心作用。
ChatGPT是一系列日益引人注目的人工智能公众展示的最新例子。另一个OpenAI系统,自动书写系统GPT-3,在2020年年中发布时震惊了科技界。其他公司的所谓大型语言模型紧随其后,去年扩展到图像生成系统,如OpenAI的Dall-E2、来自StabilityAI的开源StableDiffusion和Midjourney。
这些突破引发了人们争相寻找这项技术的新应用。数据平台ScaleAI首席执行官亚历山大·王(AlexandrWang)将其称为“应用案例的寒武纪大爆发”,将其比作现代动物生命开始繁荣的史前时刻。
如果计算机可以编写和创建图像,那么在正确的数据训练下,还有什么是它们无法生成的吗?谷歌已经展示了两个实验系统,可以根据简单的线索生成视频,还有一个可以回答数学问题。StabilityAI等公司已将这项技术应用于音乐。
这项技术还可以用于向软件开发人员建议新的代码行,甚至整个程序。制药公司梦想着用它以更有针对性的方式合成新药。生物技术公司Absci本月表示,已经利用人工智能设计出了新的抗体,可以将一种药物进入临床试验所需的大约四年时间缩短两年多。
但随着科技行业竞相将这项新技术强加给全球受众,人们需要考虑潜在的深远社会影响。
例如,让ChatGPT以12岁孩子的风格写一篇关于滑铁卢战役的文章,你就能让一个小学生的家庭作业手到擒来。更严重的是,人工智能有可能被故意用来产生大量错误信息,还可能会自动取代大量工作,远远超出最容易躺枪的创造性工作。
微软人工智能平台主管埃里克•博伊德(EricBoyd)表示:“这些模型将改变人与电脑互动的方式。它们将以一种前所未有的方式理解你的意图,并将其转化为计算机行为”。因此,他补充说,这将成为一项基础技术,“涉及几乎所有现有的东西”。
可靠性问题
生成式人工智能的倡导者表示,这些系统可以提高工人的生产力和创造力。微软称,公司旗下GitHub部门的软件开发人员,已经使用一个代码生成系统生成了40%的代码。
谷歌研究科技对社会影响的高级副总裁詹姆斯•马尼卡(JamesManyika)表示,对于任何需要在工作中提出新想法的人来说,这类系统的输出可以“解锁思维”。它们内置在日常软件工具中,可以提出想法、检查工作,甚至生成大量内容。
然而,尽管生成式人工智能易于使用,并有可能颠覆很大一部分科技领域,但对构建这项技术并试图在实践中应用的公司,以及许多可能在不久之后在工作或个人生活中遇到这项技术的人,都构成了深刻的挑战。
最重要的是可靠性问题。计算机可能会给出听起来可信的答案,但人们不可能完全相信它们说的任何话。其通过研究大量数据,根据概率假设做出最佳猜测,却不能真正明白它产生的结果。
圣菲研究所教授梅兰妮·米切尔(MelanieMitchell)表示:“它们对一次谈话之外的事情一无所知,无法了解你,也不知道词语在现实世界中意味着什么。”它们只是针对线索,产生大量听起来有说服力的答案,是聪明但无脑的模仿者,无法保证它们的输出不只是数字幻觉。
已经有事实展示,这项技术如何产生看起来有模有样但实际不可信的结果。
例如,去年年底,Facebook母公司Meta展示了一个名为Galactica的生成系统,它是根据学术论文进行训练的。人们很快发现,这个系统会根据要求发布乍一看可信但实际上是虚假的研究,导致Facebook在几天后撤回了系统。
ChatGPT的创建者也承认其有缺点。OpenAI表示,系统有时会给出“无意义”的答案,因为在训练人工智能时,“目前没有真相来源”。OpenAI补充说,使用人类直接训练它,而不是让它自己学习(这一种被称为“监督学习的方法”,可以由训练资料中学到或创建一个模式,并依此模式推测新的实例)并不奏效,因为系统通常比人类这个老师更善于找到“理想答案”。
一种潜在的解决方案是在生成系统的结果发布之前提交合理性检查检查。马尼卡说,谷歌的实验性LaMDA系统于2021年宣布,对每个线索提出了大约20种不同的响应,然后评估每种响应的“安全性、毒性和合理性”。“我们打电话去检验,看看这是真的吗?”
然而,斯坦福大学计算机科学副教授珀西·梁(PercyLiang)表示,任何依赖人类来验证人工智能输出结果的系统都存在问题。他说,这可能会教会人工智能如何“生成具有欺骗性但看上去可信的东西,实际上可以愚弄人类”。“事实是,真相难以捕捉,而人类并不擅长于此,这可能令人担忧。”
PhotobyArsenyTogulevonUnsplash
而这项技术的支持者说,有一些实用的方法可以使用它,而不必试图回答这些更深层次的哲学问题。微软联合创始人保罗•艾伦(PaulAllen)创立的人工智能研究所A12的顾问兼董事会成员奥伦•埃齐奥尼(OrenEtzioni)表示,就像互联网搜索引擎既能提供有用的结果,也能提供错误的信息一样,人们将设法最大限度地利用这些系统。
他说:“我认为消费者只会学会使用这些工具来造福自己。我只是希望这不会让孩子们在学校作弊。”
但让人类去猜测机器生成的结果是否准确,可能并不总是正确的答案。研究人工智能应用的科技行业组织“人工智能伙伴关系”首席执行官丽贝卡•芬利(RebeccaFinlay)表示,在专业环境中使用机器学习系统已经表明,人们“过度相信人工智能系统和模型得出的预测”。
她补充说,问题在于,“当我们与这些模型互动时,人们会将结果对于人类有何意义的不同方面灌输给它们”,这意味着他们忘记了系统并没有真正“理解”他们所说的话。
这些信任和可靠性问题,为不良行为者滥用人工智能提供了可能。对于任何故意试图误导的人来说,这些机器可能成为虚假信息工厂,能够生产大量内容,淹没社交媒体和其他渠道。在正确的例子训练下,它们可能还会模仿特定人物的写作风格或说话声音。
埃齐奥尼说:“制造虚假内容将非常容易、廉价和普遍。”
StabilityAI负责人伊马德•穆斯塔克(EmadMostaque)表示,这是人工智能普遍存在的一个固有问题。他说:“这是一种人们可以道德或不道德地、合法或非法地、符合伦理地或不符合地使用的工具。坏人已经拥有了先进的人工智能。”
他声称,唯一的防御措施就是尽可能大规模地推广这项技术,并向所有人开放。
这在人工智能专家中是一个有争议的解决方案,他们中的许多人主张限制对底层技术的使用。微软的博伊德表示,其“与我们的客户合作,了解他们的用例,以确保人工智能在这种情况下真的是一个负责任的用途。”
他补充说,微软还会努力防止人们“试图欺骗模型,做一些我们真的不想看到的事情”。微软为其客户提供工具,扫描人工智能系统的输出,以查找他们想要阻止的冒犯性内容或特定术语。
微软此前经历了惨痛的教训,认识到聊天机器人可能会失控:聊天机器人Tay在发表种族主义和其他煽动性言论后,不得不在2016年被匆忙召回。
在某种程度上,技术本身可能有助于控制新人工智能系统的滥用。例如,马尼卡表示,谷歌已经开发了一种语言系统,可以以99%的准确率检测出语音是否为合成。他补充说,谷歌的任何研究模型都不会生成真人的图像,从而限制了所谓深度造假的可能性。
人类的工作面临威胁
生成式人工智能的兴起,也引发了关于人工智能和自动化对就业影响的又一轮争论,这已经是一个老生常谈的话题。机器会取代工人吗?或者,通过接管重复性工作,它们会提高现有工人的生产力,并增加他们的成就感吗?
最明显的是,涉及大量设计或写作元素的工作面临风险。当StableDiffusion在去年夏末问世时,它对即时图像与提示相匹配的承诺,让商业艺术和设计界不寒而栗。
一些科技公司已经在尝试将这项技术应用于广告,其中就包括ScaleAI,其已经在广告图像方面训练了一个人工智能模型。王说,借助这个工具,小零售商和品牌可以得到专业的包装图像,而此前为产品拍摄此类图像价格高昂,他们无法负担。
Dall-E2解释生成原理的视频截图
这可能会威胁到内容创造者的生计。穆斯塔克说:“它彻底改变了整个媒体行业。世界上每一个主要的内容提供商之前都以为他们需要一个元宇宙策略:他们需要的是一个媒体生成策略。”
据一些面临失业的人说,这不仅仅事关生计。当歌手兼词曲作者尼克·凯夫看到ChatGPT写的听起来像他自己作品的歌曲时,他惊呆了。他在网上写道:“歌曲产生于痛苦,我的意思是,它们是基于人类复杂的、内在的创作斗争过程,而据我所知,算法是没有感觉的。数据没有感知。”
对科技持乐观态度的人相信,科技会放大而不是取代人类的创造力。斯坦福大学的梁说,有了人工智能图像生成器,设计师可以变得“更有野心”。“你可以创建完整的视频或全新的系列,而不仅仅是创建单个图像。”
版权制度最终可能发挥重要作用。应用这项技术的一些公司声称,出于“合理使用”,它们可以自由地使用所有可用数据来训练自己的系统。“合理使用”是美国的一项法律例外,允许有限度地使用受版权保护的材料。
其他人不同意这个说法。盖帝图像和三名艺术家上周在美国和英国对StabilityAI和其他公司提起诉讼,指控这些人工智能公司肆意使用受版权保护的图像来训练其系统,这是这一领域首个法律诉讼。
一名代表两家人工智能公司的律师表示,这个领域的所有人都已准备好应对诉讼,这是为这个行业制定基本规则不可避免的一步。对科技行业而言,围绕数据在训练人工智能方面作用的争论,可能会变得与智能手机时代初期的专利战一样重要。
最终,为人工智能新时代设定条款的将是法院,甚至是立法者,如果他们认为这项技术打破了现有版权法所基于的旧假设的话。
在那之前,随着计算机竞相吸收世界上更多的数据,生成式人工智能领域迎来了自由狩猎的季节。
原标题:《生成式人工智能迎来大爆发,人类真的要纷纷失业了吗?》
阅读原文