博舍

人工智能的历史、现状和未来 ai人工智能是机器人吗

人工智能的历史、现状和未来

如同蒸汽时代的蒸汽机、电气时代的发电机、信息时代的计算机和互联网,人工智能正成为推动人类进入智能时代的决定性力量。全球产业界充分认识到人工智能技术引领新一轮产业变革的重大意义,纷纷转型发展,抢滩布局人工智能创新生态。世界主要发达国家均把发展人工智能作为提升国家竞争力、维护国家安全的重大战略,力图在国际科技竞争中掌握主导权。习近平总书记在十九届中央政治局第九次集体学习时深刻指出,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。错失一个机遇,就有可能错过整整一个时代。新一轮科技革命与产业变革已曙光可见,在这场关乎前途命运的大赛场上,我们必须抢抓机遇、奋起直追、力争超越。

概念与历程

了解人工智能向何处去,首先要知道人工智能从何处来。1956年夏,麦卡锡、明斯基等科学家在美国达特茅斯学院开会研讨“如何用机器模拟人的智能”,首次提出“人工智能(ArtificialIntelligence,简称AI)”这一概念,标志着人工智能学科的诞生。

人工智能是研究开发能够模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的一门新的技术科学,研究目的是促使智能机器会听(语音识别、机器翻译等)、会看(图像识别、文字识别等)、会说(语音合成、人机对话等)、会思考(人机对弈、定理证明等)、会学习(机器学习、知识表示等)、会行动(机器人、自动驾驶汽车等)。

人工智能充满未知的探索道路曲折起伏。如何描述人工智能自1956年以来60余年的发展历程,学术界可谓仁者见仁、智者见智。我们将人工智能的发展历程划分为以下6个阶段:

一是起步发展期:1956年—20世纪60年代初。人工智能概念提出后,相继取得了一批令人瞩目的研究成果,如机器定理证明、跳棋程序等,掀起人工智能发展的第一个高潮。

二是反思发展期:20世纪60年代—70年代初。人工智能发展初期的突破性进展大大提升了人们对人工智能的期望,人们开始尝试更具挑战性的任务,并提出了一些不切实际的研发目标。然而,接二连三的失败和预期目标的落空(例如,无法用机器证明两个连续函数之和还是连续函数、机器翻译闹出笑话等),使人工智能的发展走入低谷。

三是应用发展期:20世纪70年代初—80年代中。20世纪70年代出现的专家系统模拟人类专家的知识和经验解决特定领域的问题,实现了人工智能从理论研究走向实际应用、从一般推理策略探讨转向运用专门知识的重大突破。专家系统在医疗、化学、地质等领域取得成功,推动人工智能走入应用发展的新高潮。

四是低迷发展期:20世纪80年代中—90年代中。随着人工智能的应用规模不断扩大,专家系统存在的应用领域狭窄、缺乏常识性知识、知识获取困难、推理方法单一、缺乏分布式功能、难以与现有数据库兼容等问题逐渐暴露出来。

五是稳步发展期:20世纪90年代中—2010年。由于网络技术特别是互联网技术的发展,加速了人工智能的创新研究,促使人工智能技术进一步走向实用化。1997年国际商业机器公司(简称IBM)深蓝超级计算机战胜了国际象棋世界冠军卡斯帕罗夫,2008年IBM提出“智慧地球”的概念。以上都是这一时期的标志性事件。

六是蓬勃发展期:2011年至今。随着大数据、云计算、互联网、物联网等信息技术的发展,泛在感知数据和图形处理器等计算平台推动以深度神经网络为代表的人工智能技术飞速发展,大幅跨越了科学与应用之间的“技术鸿沟”,诸如图像分类、语音识别、知识问答、人机对弈、无人驾驶等人工智能技术实现了从“不能用、不好用”到“可以用”的技术突破,迎来爆发式增长的新高潮。

现状与影响

对于人工智能的发展现状,社会上存在一些“炒作”。比如说,认为人工智能系统的智能水平即将全面超越人类水平、30年内机器人将统治世界、人类将成为人工智能的奴隶,等等。这些有意无意的“炒作”和错误认识会给人工智能的发展带来不利影响。因此,制定人工智能发展的战略、方针和政策,首先要准确把握人工智能技术和产业发展的现状。

专用人工智能取得重要突破。从可应用性看,人工智能大体可分为专用人工智能和通用人工智能。面向特定任务(比如下围棋)的专用人工智能系统由于任务单一、需求明确、应用边界清晰、领域知识丰富、建模相对简单,形成了人工智能领域的单点突破,在局部智能水平的单项测试中可以超越人类智能。人工智能的近期进展主要集中在专用智能领域。例如,阿尔法狗(AlphaGo)在围棋比赛中战胜人类冠军,人工智能程序在大规模图像识别和人脸识别中达到了超越人类的水平,人工智能系统诊断皮肤癌达到专业医生水平。

通用人工智能尚处于起步阶段。人的大脑是一个通用的智能系统,能举一反三、融会贯通,可处理视觉、听觉、判断、推理、学习、思考、规划、设计等各类问题,可谓“一脑万用”。真正意义上完备的人工智能系统应该是一个通用的智能系统。目前,虽然专用人工智能领域已取得突破性进展,但是通用人工智能领域的研究与应用仍然任重而道远,人工智能总体发展水平仍处于起步阶段。当前的人工智能系统在信息感知、机器学习等“浅层智能”方面进步显著,但是在概念抽象和推理决策等“深层智能”方面的能力还很薄弱。总体上看,目前的人工智能系统可谓有智能没智慧、有智商没情商、会计算不会“算计”、有专才而无通才。因此,人工智能依旧存在明显的局限性,依然还有很多“不能”,与人类智慧还相差甚远。

人工智能创新创业如火如荼。全球产业界充分认识到人工智能技术引领新一轮产业变革的重大意义,纷纷调整发展战略。比如,谷歌在其2017年年度开发者大会上明确提出发展战略从“移动优先”转向“人工智能优先”,微软2017财年年报首次将人工智能作为公司发展愿景。人工智能领域处于创新创业的前沿。麦肯锡公司报告指出,2016年全球人工智能研发投入超300亿美元并处于高速增长阶段;全球知名风投调研机构CBInsights报告显示,2017年全球新成立人工智能创业公司1100家,人工智能领域共获得投资152亿美元,同比增长141%。

创新生态布局成为人工智能产业发展的战略高地。信息技术和产业的发展史,就是新老信息产业巨头抢滩布局信息产业创新生态的更替史。例如,传统信息产业代表企业有微软、英特尔、IBM、甲骨文等,互联网和移动互联网时代信息产业代表企业有谷歌、苹果、脸书、亚马逊、阿里巴巴、腾讯、百度等。人工智能创新生态包括纵向的数据平台、开源算法、计算芯片、基础软件、图形处理器等技术生态系统和横向的智能制造、智能医疗、智能安防、智能零售、智能家居等商业和应用生态系统。目前智能科技时代的信息产业格局还没有形成垄断,因此全球科技产业巨头都在积极推动人工智能技术生态的研发布局,全力抢占人工智能相关产业的制高点。

人工智能的社会影响日益凸显。一方面,人工智能作为新一轮科技革命和产业变革的核心力量,正在推动传统产业升级换代,驱动“无人经济”快速发展,在智能交通、智能家居、智能医疗等民生领域产生积极正面影响。另一方面,个人信息和隐私保护、人工智能创作内容的知识产权、人工智能系统可能存在的歧视和偏见、无人驾驶系统的交通法规、脑机接口和人机共生的科技伦理等问题已经显现出来,需要抓紧提供解决方案。

趋势与展望

经过60多年的发展,人工智能在算法、算力(计算能力)和算料(数据)等“三算”方面取得了重要突破,正处于从“不能用”到“可以用”的技术拐点,但是距离“很好用”还有诸多瓶颈。那么在可以预见的未来,人工智能发展将会出现怎样的趋势与特征呢?

从专用智能向通用智能发展。如何实现从专用人工智能向通用人工智能的跨越式发展,既是下一代人工智能发展的必然趋势,也是研究与应用领域的重大挑战。2016年10月,美国国家科学技术委员会发布《国家人工智能研究与发展战略计划》,提出在美国的人工智能中长期发展策略中要着重研究通用人工智能。阿尔法狗系统开发团队创始人戴密斯·哈萨比斯提出朝着“创造解决世界上一切问题的通用人工智能”这一目标前进。微软在2017年成立了通用人工智能实验室,众多感知、学习、推理、自然语言理解等方面的科学家参与其中。

从人工智能向人机混合智能发展。借鉴脑科学和认知科学的研究成果是人工智能的一个重要研究方向。人机混合智能旨在将人的作用或认知模型引入到人工智能系统中,提升人工智能系统的性能,使人工智能成为人类智能的自然延伸和拓展,通过人机协同更加高效地解决复杂问题。在我国新一代人工智能规划和美国脑计划中,人机混合智能都是重要的研发方向。

从“人工+智能”向自主智能系统发展。当前人工智能领域的大量研究集中在深度学习,但是深度学习的局限是需要大量人工干预,比如人工设计深度神经网络模型、人工设定应用场景、人工采集和标注大量训练数据、用户需要人工适配智能系统等,非常费时费力。因此,科研人员开始关注减少人工干预的自主智能方法,提高机器智能对环境的自主学习能力。例如阿尔法狗系统的后续版本阿尔法元从零开始,通过自我对弈强化学习实现围棋、国际象棋、日本将棋的“通用棋类人工智能”。在人工智能系统的自动化设计方面,2017年谷歌提出的自动化学习系统(AutoML)试图通过自动创建机器学习系统降低人员成本。

人工智能将加速与其他学科领域交叉渗透。人工智能本身是一门综合性的前沿学科和高度交叉的复合型学科,研究范畴广泛而又异常复杂,其发展需要与计算机科学、数学、认知科学、神经科学和社会科学等学科深度融合。随着超分辨率光学成像、光遗传学调控、透明脑、体细胞克隆等技术的突破,脑与认知科学的发展开启了新时代,能够大规模、更精细解析智力的神经环路基础和机制,人工智能将进入生物启发的智能阶段,依赖于生物学、脑科学、生命科学和心理学等学科的发现,将机理变为可计算的模型,同时人工智能也会促进脑科学、认知科学、生命科学甚至化学、物理、天文学等传统科学的发展。

人工智能产业将蓬勃发展。随着人工智能技术的进一步成熟以及政府和产业界投入的日益增长,人工智能应用的云端化将不断加速,全球人工智能产业规模在未来10年将进入高速增长期。例如,2016年9月,咨询公司埃森哲发布报告指出,人工智能技术的应用将为经济发展注入新动力,可在现有基础上将劳动生产率提高40%;到2035年,美、日、英、德、法等12个发达国家的年均经济增长率可以翻一番。2018年麦肯锡公司的研究报告预测,到2030年,约70%的公司将采用至少一种形式的人工智能,人工智能新增经济规模将达到13万亿美元。

人工智能将推动人类进入普惠型智能社会。“人工智能+X”的创新模式将随着技术和产业的发展日趋成熟,对生产力和产业结构产生革命性影响,并推动人类进入普惠型智能社会。2017年国际数据公司IDC在《信息流引领人工智能新时代》白皮书中指出,未来5年人工智能将提升各行业运转效率。我国经济社会转型升级对人工智能有重大需求,在消费场景和行业应用的需求牵引下,需要打破人工智能的感知瓶颈、交互瓶颈和决策瓶颈,促进人工智能技术与社会各行各业的融合提升,建设若干标杆性的应用场景创新,实现低成本、高效益、广范围的普惠型智能社会。

人工智能领域的国际竞争将日益激烈。当前,人工智能领域的国际竞赛已经拉开帷幕,并且将日趋白热化。2018年4月,欧盟委员会计划2018—2020年在人工智能领域投资240亿美元;法国总统在2018年5月宣布《法国人工智能战略》,目的是迎接人工智能发展的新时代,使法国成为人工智能强国;2018年6月,日本《未来投资战略2018》重点推动物联网建设和人工智能的应用。世界军事强国也已逐步形成以加速发展智能化武器装备为核心的竞争态势,例如美国特朗普政府发布的首份《国防战略》报告即谋求通过人工智能等技术创新保持军事优势,确保美国打赢未来战争;俄罗斯2017年提出军工拥抱“智能化”,让导弹和无人机这样的“传统”兵器威力倍增。

人工智能的社会学将提上议程。为了确保人工智能的健康可持续发展,使其发展成果造福于民,需要从社会学的角度系统全面地研究人工智能对人类社会的影响,制定完善人工智能法律法规,规避可能的风险。2017年9月,联合国犯罪和司法研究所(UNICRI)决定在海牙成立第一个联合国人工智能和机器人中心,规范人工智能的发展。美国白宫多次组织人工智能领域法律法规问题的研讨会、咨询会。特斯拉等产业巨头牵头成立OpenAI等机构,旨在“以有利于整个人类的方式促进和发展友好的人工智能”。

态势与思考

当前,我国人工智能发展的总体态势良好。但是我们也要清醒看到,我国人工智能发展存在过热和泡沫化风险,特别在基础研究、技术体系、应用生态、创新人才、法律规范等方面仍然存在不少值得重视的问题。总体而言,我国人工智能发展现状可以用“高度重视,态势喜人,差距不小,前景看好”来概括。

高度重视。党中央、国务院高度重视并大力支持发展人工智能。习近平总书记在党的十九大、2018年两院院士大会、全国网络安全和信息化工作会议、十九届中央政治局第九次集体学习等场合多次强调要加快推进新一代人工智能的发展。2017年7月,国务院发布《新一代人工智能发展规划》,将新一代人工智能放在国家战略层面进行部署,描绘了面向2030年的我国人工智能发展路线图,旨在构筑人工智能先发优势,把握新一轮科技革命战略主动。国家发改委、工信部、科技部、教育部等国家部委和北京、上海、广东、江苏、浙江等地方政府都推出了发展人工智能的鼓励政策。

态势喜人。据清华大学发布的《中国人工智能发展报告2018》统计,我国已成为全球人工智能投融资规模最大的国家,我国人工智能企业在人脸识别、语音识别、安防监控、智能音箱、智能家居等人工智能应用领域处于国际前列。根据2017年爱思唯尔文献数据库统计结果,我国在人工智能领域发表的论文数量已居世界第一。近两年,中国科学院大学、清华大学、北京大学等高校纷纷成立人工智能学院,2015年开始的中国人工智能大会已连续成功召开四届并且规模不断扩大。总体来说,我国人工智能领域的创新创业、教育科研活动非常活跃。

差距不小。目前我国在人工智能前沿理论创新方面总体上尚处于“跟跑”地位,大部分创新偏重于技术应用,在基础研究、原创成果、顶尖人才、技术生态、基础平台、标准规范等方面距离世界领先水平还存在明显差距。在全球人工智能人才700强中,中国虽然入选人数名列第二,但远远低于约占总量一半的美国。2018年市场研究顾问公司CompassIntelligence对全球100多家人工智能计算芯片企业进行了排名,我国没有一家企业进入前十。另外,我国人工智能开源社区和技术生态布局相对滞后,技术平台建设力度有待加强,国际影响力有待提高。我国参与制定人工智能国际标准的积极性和力度不够,国内标准制定和实施也较为滞后。我国对人工智能可能产生的社会影响还缺少深度分析,制定完善人工智能相关法律法规的进程需要加快。

前景看好。我国发展人工智能具有市场规模、应用场景、数据资源、人力资源、智能手机普及、资金投入、国家政策支持等多方面的综合优势,人工智能发展前景看好。全球顶尖管理咨询公司埃森哲于2017年发布的《人工智能:助力中国经济增长》报告显示,到2035年人工智能有望推动中国劳动生产率提高27%。我国发布的《新一代人工智能发展规划》提出,到2030年人工智能核心产业规模超过1万亿元,带动相关产业规模超过10万亿元。在我国未来的发展征程中,“智能红利”将有望弥补人口红利的不足。

当前是我国加强人工智能布局、收获人工智能红利、引领智能时代的重大历史机遇期,如何在人工智能蓬勃发展的浪潮中选择好中国路径、抢抓中国机遇、展现中国智慧等,需要深入思考。

树立理性务实的发展理念。任何事物的发展不可能一直处于高位,有高潮必有低谷,这是客观规律。实现机器在任意现实环境的自主智能和通用智能,仍然需要中长期理论和技术积累,并且人工智能对工业、交通、医疗等传统领域的渗透和融合是个长期过程,很难一蹴而就。因此,发展人工智能要充分考虑到人工智能技术的局限性,充分认识到人工智能重塑传统产业的长期性和艰巨性,理性分析人工智能发展需求,理性设定人工智能发展目标,理性选择人工智能发展路径,务实推进人工智能发展举措,只有这样才能确保人工智能健康可持续发展。

重视固本强基的原创研究。人工智能前沿基础理论是人工智能技术突破、行业革新、产业化推进的基石。面临发展的临界点,要想取得最终的话语权,必须在人工智能基础理论和前沿技术方面取得重大突破。我们要按照习近平总书记提出的支持科学家勇闯人工智能科技前沿“无人区”的要求,努力在人工智能发展方向和理论、方法、工具、系统等方面取得变革性、颠覆性突破,形成具有国际影响力的人工智能原创理论体系,为构建我国自主可控的人工智能技术创新生态提供领先跨越的理论支撑。

构建自主可控的创新生态。我国人工智能开源社区和技术创新生态布局相对滞后,技术平台建设力度有待加强。我们要以问题为导向,主攻关键核心技术,加快建立新一代人工智能关键共性技术体系,全面增强人工智能科技创新能力,确保人工智能关键核心技术牢牢掌握在自己手里。要着力防范人工智能时代“空心化”风险,系统布局并重点发展人工智能领域的“新核高基”:“新”指新型开放创新生态,如产学研融合等;“核”指核心关键技术与器件,如先进机器学习技术、鲁棒模式识别技术、低功耗智能计算芯片等;“高”指高端综合应用系统与平台,如机器学习软硬件平台、大型数据平台等;“基”指具有重大原创意义和技术带动性的基础理论与方法,如脑机接口、类脑智能等。同时,我们要重视人工智能技术标准的建设、产品性能与系统安全的测试。特别是我国在人工智能技术应用方面走在世界前列,在人工智能国际标准制定方面应当掌握话语权,并通过实施标准加速人工智能驱动经济社会转型升级的进程。

推动共担共享的全球治理。目前看,发达国家通过人工智能技术创新掌控了产业链上游资源,难以逾越的技术鸿沟和产业壁垒有可能进一步拉大发达国家和发展中国家的生产力发展水平差距。在发展中国家中,我国有望成为全球人工智能竞争中的领跑者,应布局构建开放共享、质优价廉、普惠全球的人工智能技术和应用平台,配合“一带一路”建设,让“智能红利”助推共建人类命运共同体。

(作者:中央人民政府驻香港特别行政区联络办公室副主任、中国科学院院士)

深度研报:人工智能机器人开启第四次科技革命

图片来源@视觉中国

文|光锥智能&势乘资本,作者|谢晨星、王嘉攀、赵江宇

在互联网红利基本散尽的时代,未来到底属于web3、元宇宙,还是碳中和?到底什么样的革命性技术可以引领人类社会走出经济衰退、疫情和战争的影响,并将全球经济体量再向上推动数十倍?

我们的答案是,我们早已处于人工智能时代之中。

我们正处于传统信息技术时代的黄昏,和人工智能时代的黎明。

在过去的260年间,人类社会经历了三次巨大的科技创新浪潮,蒸汽机、电力和信息技术,将全球GDP提升了近千倍。每一次科技浪潮都通过某一项先进生产力要素的突破,进而引起大多数行业的变革:比如蒸汽机的出现推动了汽车、火车、轮船、钢铁等行业的巨大发展,140年前美国铁路行业的恶性竞争史,就如同现今互联网行业BAT之间的竞争。而铁路行业发展、兼并所需的巨额金融资本,又驱动了华尔街的发展,逐渐成为全球的金融中心。

二战之后以信息技术为核心的第三次科技革命迄今已逾70年,将全球GDP提升约60倍。其中可分为两段:1950年-1990年,是半导体产业迅猛发展的时代,推动了大型计算机向个人PC的小型化;1990年至今是近30年的互联网全球化时代,而互联网时代又细分为桌面互联网和移动互联网两段。

但随着摩尔定律的失效和信息技术红利彻底用尽,加上疫情黑天鹅影响,全球GDP衰退,引发并加剧了全球地缘政治和军事冲突,开始向逆全球化发展。

所以未来到底属于web3、元宇宙,还是碳中和?到底什么样的革命性技术可以引领人类社会走出经济衰退、疫情和战争的影响,并将全球经济体量再向上推动增长下一个50倍?

我们的答案是,我们早已处于人工智能时代之中。就像直到2010年iphone4发布,绝大多数人也并未意识到移动互联网革命早已开始一样,如今人工智能其实也已广泛应用,比如到处遍布的摄像头和手机人脸识别,微信语音和文本转换,抖音动态美颜特效、推荐算法,家庭扫地机器人和餐厅送餐机器人,背后都是人工智能核心技术在过去十年不断取得的巨大突破。

互联网已经是传统行业。

互联网技术作为过去30年最先进的生产力要素,改变了全球的所有人、所有产业、社会经济,甚至是政治、军事、宗教。

虽然互联网的技术红利已基本用尽,但我们仍可通过研究其历史规律,来预测未来新技术发展的可能路径。

30年的互联网发展历程总体可分为桌面互联网和移动互联网两个时代,按产业渗透规律,又可分为信息互联网、消费互联网和产业互联网三大阶段。

系统硬件都是最先起步,包括底层芯片、操作系统、联网通信、整机等,进而初步向媒体工具、文娱游戏行业渗透,因为这些领域最易受新技术的影响。当2002年中国网民达到6000万人,2012年中国智能手机出货量达到2亿部之后,互联网和移动互联网开始全面开花,渗透变革了直接toC的众多行业,如零售消费、交通出行、教育、金融、汽车、居住、医疗等。而当用户量进一步上涨、新技术的渗透进一步加深,企业服务、物流、制造、农业、能源等toB产业被影响。

而这个过程中可以发现,移动互联网时代对产业的渗透深度比桌面互联网更深,桌面互联网介入行业基本停留在信息连接层面,而到移动互联网时代,众多掌握先进技术要素的公司开始自己下场开超市、组车队、重构教育内容和金融机构,甚至是卖房、造车。也有些公司虽然诞生在桌面时代,但成功抓住移动爆发红利杀出重围,比如美团、去哪儿、支付宝。

抖音的崛起是中国移动互联网时代的最大变数,也是数据通信传输技术不断提升的必然,引发了用户流量结构的重组,进而催生了一大批抓住抖音流量红利崛起的消费品牌,如完美日记、花西子等等。但最终都逃不过被平台收割的命运,就像当年淘品牌的结局一样。微信支付、支付宝的普及极大推动了线下连锁零售的数字化程度和管理半径,减少了上下游现金收款产生的风险,促使其在资本市场被重新认可,连锁化率进一步提升,比如喜茶、瑞幸、Manner等等。这两条逻辑共同构成了过去几年的消费投资热潮主线。

如何评判一个新技术是否能引领未来的发展方向?

我们要看它能否从本质上解放生产力、发展生产力。

蒸汽机之所以推动了第一次科技革命,是因为其极大的提升了劳动生产力,并将大量劳动人口从第一产业农业的低级劳动中解放出来,进入第二产业工业。电力加速了这一过程,并推动了第三产业服务业的出现和发展。信息技术将更多的人口从第一、二产业中释放,进入第三产业(如大量年轻人不再进厂而去送外卖、跑滴滴),于是形成了如今全球第三产业GDP占比55%,中国第三产业劳动人口占比50%的格局。

机器人即是人工智能技术的硬件形态,在可见的未来,将第一二三产业的劳动人口从低级劳动中大比例释放和替代,并在这个过程中推动全球GDP继续百倍增长。

同时可大胆预言,以创新为职业的第四产业将会出现,而这个职业在人类的历史长河中其实一直存在于第一二三产业的边缘,不断用突破性创新推动着人类技术的进步,且社会生产力的提升促使该职业人群不断扩大。这大约能证明刘慈欣的技术爆炸假说来源。

人工智能从模块上可分为感知、计算和控制三大部分,由表及里可分为应用层、数据层、算法层、算力层,而随着2012年芯片进入28nm制程后的量子隧穿效应导致摩尔定律失效,“每提升一倍算力,就需要一倍能源”的后摩尔定律或将成为人工智能时代的核心驱动逻辑,算力的发展将极大受制于能源,当前全球用于制造算力芯片的能源占全球用电量的约1%,可以预测在人工智能大规模普及的未来数十年后,该比例将会大幅提升至50%甚至90%以上。而全球如何在减少化石能源、提升清洁能源占比,从而确保减少碳排放遏制全球升温的同时,持续提升能源使用量级,将推动一系列能源技术革命。关于该方向的研究可参考我们的另一篇报告《碳中和:能源技术新革命》。

早在第一次科技革命之前260年,哥伦布地理大发现就使西班牙成为了第一个全球化霸主。蒸汽机驱动英国打败西班牙无敌舰队,电力和两次世界大战使美国超过英国,信息技术又让美国赢得和苏联的冷战对抗,全球过了30年相对和平的单极霸权格局。

因此中国如果仅在现有技术框架中与欧美竞争,只会不断被卡脖子,事倍功半。只有引领下一代人工智能和碳中和能源技术科技革命浪潮,才能从全球竞争中胜出。

尽管中国已经跻身人工智能领域的大国,但是我们必须认识到中美之间在AI领域仍然有着明显的差距。从投资金额和布局上看,从2013年到2021年,美国对人工智能公司的私人投资是中国的2倍多。当前美国AI企业数量领先中国,布局在整个产业链上,尤其在算法、芯片等产业核心领域积累了强大的技术创新优势。更关键的是,尽管近年来中国在人工智能领域的论文和专利数量保持高速增长,但中国AI研究的质量与美国仍然有较大差距(集中体现在AI顶会论文的引用量的差距上)。

请输入图说2013-2021年中美在AI领域私有部门(如风险投资、个人投资等)投资金额上差距逐渐拉大

请输入图说中国在AI顶会上发表的文章数量已经反超美国,但影响力上仍然与美国有较大差距

图片来源:The2022AIIndexReport,StandfordUniversity

因此,中国需要持续加大在AI领域的研发费用规模,特别是加大基础学科的人才培养,吸引全世界优秀的AI人才。只有这样,中国才能有朝一日赶超美国,在基础学科建设、专利及论文发表、高端研发人才、创业投资和领军企业等关键环节上的拥有自己的优势,形成持久领军世界的格局。

一、AI发展简史

人工智能的概念第一次被提出是在1956年达特茅斯夏季人工智能研究会议上。当时的科学家主要讨论了计算机科学领域尚未解决的问题,期待通过模拟人类大脑的运行,解决一些特定领域的具体问题(例如开发几何定理证明器)。

那么到底什么是人工智能?目前看来,StuartRussell与PeterNorvig在《人工智能:一种现代的方法》一书中的定义最为准确:人工智能是有关“智能主体(Intelligentagent)的研究与设计”的学问,而“智能主体”是指一个可以观察周遭环境并做出行动以达致目标的系统。这个定义既强调了人工智能可以根据环境感知做出主动反应,又强调人工智能所做出的反应必须达成目标,同时没有给人造成“人工智能是对人类思维方式或人类总结的思维法则的模仿”这种错觉。

到目前为止,人工智能一共经历了三波浪潮。

第一次AI浪潮与图灵和他提出的“图灵测试”紧密相关。图灵测试刚提出没几年,人们似乎就看到了计算机通过图灵测试的曙光:1966年MIT教授JosephWeizenbaum发明了一个可以和人对话的小程序——Eliza(取名字萧伯纳的戏剧《茶花女》),轰动世界。但是Eliza的程序原理和源代码显示,Eliza本质是一个在话题库里通过关键字映射的方式,根据人的问话回复设定好的答语的程序。不过现在人们认为,Eliza是微软小冰、Siri、Allo和Alexa的真正鼻祖。图灵测试以及为了通过图灵测试而开展的技术研发,都在过去的几十年时间里推动了人工智能,特别是自然语言处理技术(NLP)的飞速发展。

第二次AI浪潮出现在1980-1990年代,语音识别(ASR)是最具代表性的几项突破性进展之一。在当时,语音识别主要分成两大流派:专家系统和概率系统。专家系统严重依赖人类的语言学知识,可拓展性和可适应性都很差,难以解决“不特定语者、大词汇、连续性语音识别”这三大难题。而概率系统则基于大型的语音数据语料库,使用统计模型进行语音识别工作。中国学者李开复在这个领域取得了很大成果,基本上宣告了以专家系统为代表的符号主义学派(SymbolicAI)在语音识别领域的失败。通过引入统计模型,语音识别的准确率提升了一个层次。

第三次AI浪潮起始于2006年,很大程度上归功于深度学习的实用化进程。深度学习兴起建立在以GeoffreyHinton为代表的科学家数十年的积累基础之上。简单地说,深度学习就是把计算机要学习的东西看成一大堆数据,把这些数据丢进一个复杂的、包含多个层级的数据处理网络(深度神经网络),然后检查经过这个网络处理得到的结果数据是不是符合要求——如果符合,就保留这个网络作为目标模型;如果不符合,就一次次地、锲而不舍地调整网络的参数设置,直到输出满足要求为止。本质上,指导深度学习的是一种“实用主义”的思想。实用主义思想让深度学习的感知能力(建模能力)远强于传统的机器学习方法,但也意味着人们难以说出模型中变量的选择、参数的取值与最终的感知能力之间的因果关系。

需要特别说明的是,人们往往容易将深度学习与“机器学习”这一概念混淆。事实上,在1956年人工智能的概念第一次被提出后,ArthurSamuel就提出:机器学习研究和构建的是一种特殊的算法而非某一个特定的算法,是一个宽泛的概念,指的是利用算法使得计算机能够像人一样从数据中挖掘出信息;而深度学习只是机器学习的一个子集,是比其他学习方法使用了更多的参数、模型也更加复杂的一系列算法。简单地说,深度学习就是把计算机要学习的东西看成一大堆数据,把这些数据丢进一个复杂的、包含多个层级的数据处理网络(深度神经网络),然后检查经过这个网络处理得到的结果数据是不是符合要求——如果符合,就保留这个网络作为目标模型,如果不符合,就一次次地、锲而不舍地调整网络的参数设置,直到输出满足要求为止。本质上,指导深度学习的是一种“实用主义”的思想。实用主义思想让深度学习的感知能力(建模能力)远强于传统的机器学习方法,但也意味着人们难以说出模型中变量的选择、参数的取值与最终的感知能力之间的因果关系。

二、AI的三大基石解析

如前所述,人工智能由表及里可分为应用层、数据层、算法层和算力层。

1.算力

算力层包括具备计算能力硬件和大数据基础设施。回顾历史我们就会发现,历次算力层的发展都会显著推动算法层的进步,并促使技术的普及应用。21世纪互联网大规模服务集群的出现、搜索和电商业务带来的大数据积累、GPU和异构/低功耗芯片兴起带来的运算力提升,促成了深度学习的诞生,促成了人工智能的这一波爆发。而AI芯片的出现进一步显著提高了数据处理速度:在CPU的基础上,出现了擅长并行计算的GPU,以及拥有良好运行能效比、更适合深度学习模型的现场可编程门阵列(FPGA)和应用专用集成电路(ASIC)。

当前,人工智能的算力层面临巨大的挑战。随着2012年芯片28nm的工艺出现,原先通过在平面上增加晶体管的数量来提升芯片性能的思路因为量子隧穿效应而不再可取,摩尔定律开始失效。晶体管MOSFET这个芯片里最基础的单元,由平面结构变成立体结构(由下图中的Planar结构转向FinFET结构,2018年之后进一步从FinFET结构转向GAAFET结构)。

三代MOSFET的栅极结构演化。其中灰色代表电流流经区域,绿色代表充当闸门的栅极

芯片结构的改变直接导致了芯片制造步骤的增加,最终体现为成本的上升。在2012年28nm工艺的时候,处理器的生产大概需要450步。到了2021年的5nm工艺时,生产环节已经增加到了1200步。对应到每1亿个栅极的制造成本上,我们从图中可以清楚地看到,从90nm工艺到7nm工艺,生产成本先下降后上升。这就使得摩尔定律的另一种表述形式——“同样性能的新品价格每18-24个月减半”不再成立。未来我们很可能见到的情况是,搭载了顶级技术和工艺生产出来的芯片的电子产品或设备价格高昂,超过了一般消费者的承受力度。

每1亿个栅极的制造成本、图片来源:MarvellTechnology,2020InvestorDay

不过算力层的这个变化让半导体制造企业受益最大,因为只要需求存在,台积电、三星、英特尔等几家掌握先进工艺的厂商就会持续投入资金和人力,不断设计和制造新一代芯片,然后根据自身成本给产品定价。

想要彻底解决摩尔定律失效的问题,需要跳出当前芯片设计的冯·诺依曼结构。类脑芯片、存算一体、寻找基于硅以外的新材料制造芯片,甚至量子计算等等都是潜力巨大的解决方案,但是这些方案距离成熟落地还非常遥远(最乐观地估计也需要几十年的时间),无法解决当下芯片行业的困局。在这段时期内,行业内为了提升芯片性能,开始广泛应用Chiplet技术,或者使用碳基芯片、光芯片等等。

Chiplet技术

Chiplet技术的原理有点类似搭积木,简单来说就是把一堆小芯片组合成一块大芯片。这种技术能够以较低的成本制造过于复杂的芯片,并且保证足够优秀的良率,从2012年开始就逐步被使用。当前Chiplet技术已经能够在二维平面上实现用不同的材料和工艺加工拼接的小核心,Intel等公司正在把Chiplet技术引入新的阶段发展:在垂直方向上堆叠多层小核心,进一步提升芯片的性能(例如Intel于2018年开发的Foveros3DChiplet)。不过Chiplet技术路线面临的最大问题来源于芯片热管理方面:如果在三维结构上堆叠多层小核心,传统的通过CPU顶部铜盖一个面散热的方案将无法解决发热问题,因此可能需要在芯片的内部嵌入冷却装置来解决发热功率过高的问题。

碳纳米管技术

使用碳纳米管可能是另一个短期解决方案。这项技术属于碳基芯片领域,具体来说就是用碳纳米管承担芯片里基础元件开关的功能,而不是像传统芯片一样使用掺杂的半导体硅来传输电子。这种技术的优势在于导电性好、散热快、寿命长,而且由于其本质上仍然保留了冯·诺依曼架构,当前的生产工艺、产业链等匹配设施都不需要做出太大的调整。但是目前碳纳米管的大规模生产和应用还有一些困难,距离把碳纳米管按照芯片设计的要求制造出来可能还需要几十年。

短期内,围绕Chiplet技术在热管理方面的探索,和碳纳米管技术的灵活生产制造突破是算力层面上我们重点关注的机会。当然,我们也要了解目前类脑芯片、存算一体和量子计算等终局解决方案的相关情况。这里为大家简单介绍如下:

类脑芯片

类脑芯片的灵感源于人脑。类脑芯片和传统结构的差异体现在两方面:第一,类脑芯片中数据的读取、存储和计算是在同一个单元中同时完成的,也即“存算一体”;第二,单元之间的连接像人类神经元之间的连接一样,依靠“事件驱动。

目前,类脑芯片的相关研究分为两派。一派认为需要了解清楚人脑的工作原理,才能模仿人类大脑设计出新的结构。但是目前人类对人脑的基本原理理解得仍然很粗浅,因此这一派取得的进展相当有限。另外一派则认为,可以先基于当前已有的生物学知识,比照人脑的基础单元设计出一些结构,然后不断试验、优化、取得成果,实现突破。目前这一派的研究人员依照神经元的基础结构,给类脑芯片做了一些数学描述,也搭建了模型,并且做出了不少可以运行的芯片。

存算一体

存算一体可以简单被概括为“用存储电荷的方式实现计算”,彻底解决了冯诺依曼结构中“存储”和“计算”两个步骤速度不匹配的问题(事实上,在以硅为基础的半导体芯片出现之后,存算速度不匹配的情况就一直存在)。存算一体机构在计算深度学习相关的任务时表现突出,能耗大约是当前传统计算设备的百分之一,能够大大提升人工智能的性能。除此之外,这种芯片在VR和AR眼镜等可穿戴设备上有广阔的应用前景,也能推动更高分辨率的显示设备价格进一步降低。

目前,存算一体仍然有两个问题没有突破:第一是基础单元(忆阻器)的精度不高,其次是缺少算法,在应对除了矩阵乘法以外的计算问题时表现远不如冯·诺依曼结构的芯片。

量子计算

量子计算是用特殊的方法控制若干个处于量子叠加态的原子,也叫作“量子”,通过指定的量子态来实现计算。量子计算机最适合的是面对一大堆可能性的时候,可以同时对所有可能性做运算。为了从所有的结果中找一个统计规律,我们需要使用量子计算机进行多次计算。不过由于退相干的问题,量子计算很容易出错。目前量子计算的纠错方法有待突破,只有解决了这个问题量子计算才可能被普遍使用。

当前量子计算机体积过大、运行环境严苛、造价昂贵。目前来看量子计算与经典计算不是取代与被取代的关系,而是在对算力要求极高的特定场景中发挥其高速并行计算的独特优势。中科大的量子物理学家陆朝阳曾总结道,“到目前为止,真正可以从量子计算中受益的实际问题仍然非常有限,享受指数级加速的就更少了——其他的仅有更有限的加速”。

总体而言,量子计算机的相关成果都只停留在科学研究的阶段,距离实际应用还很遥远。

2.算法

算法层指各类机器学习算法。如果根据训练方法来分类,机器学习算法也可以分成“无监督学习”、“监督学习”和“强化学习”等。按照解决问题的类型来分,机器学习算法包括计算机视觉算法(CV)、自然语言处理算法(NLP)、语音处理和识别算法(ASR)、智慧决策算法(DMS)等。每个算法大类下又有多个具体子技术,这里我们为大家简单介绍:

2.1计算机视觉

计算机视觉的历史可以追溯到1966年,当时人工智能学家Minsky要求学生编写一个程序,让计算机向人类呈现它通过摄像头看到了什么。到了1970-1980年代,科学家试图从人类看东西的方法中获得借鉴。这一阶段计算机视觉主要应用于光学字符识别、工件识别、显微/航空图片的识别等领域。

到了90年代,计算机视觉技术取得了更大的发展,也开始广泛应用于工业领域。一方面是由于GPU、DSP等图像处理硬件技术有了飞速进步;另一方面是人们也开始尝试不同的算法,包括统计方法和局部特征描述符的引入。进入21世纪,以往许多基于规则的处理方式,都被机器学习所替代,算法自行从海量数据中总结归纳物体的特征,然后进行识别和判断。这一阶段涌现出了非常多的应用,包括相机人脸检测、安防人脸识别、车牌识别等等。

2010年以后,深度学习的应用将各类视觉相关任务的识别精度大幅提升,拓展了计算机视觉技术的应用场景:除了在安防领域应用外,计算机视觉也被应用于商品拍照搜索、智能影像诊断、照片自动分类等场景。

再细分地来看,计算机视觉领域主要包括图像处理、图像识别和检测,以及图像理解等分支:

图像处理:指不涉及高层语义,仅针对底层像素的处理。典型任务包括图片去模糊、超分辨率处理、滤镜处理等。运用到视频上,主要是对视频进行滤镜处理。这些技术目前已经相对成熟,在各类P图软件、视频处理软件中随处可见;

图像识别和检测:图像识别检测的过程包括图像预处理、图像分割、特征提取和判断匹配,可以用来处理分类问题(如识别图片的内容是不是猫)、定位问题(如识别图片中的猫在哪里)、检测问题(如识别图片中有哪些动物、分别在哪里)、分割问题(如图片中的哪些像素区域是猫)等。这些技术也已比较成熟,图像上的应用包括人脸检测识别、OCR(光学字符识别)等,视频上可用来识别影片中的明星;

图像理解:图像理解本质上是图像与文本间的交互,可用来执行基于文本的图像搜索、图像描述生成、图像问答(给定图像和问题,输出答案)等。图像理解任务目前还没有取得非常成熟的结果,商业化场景也正在探索之;

总体而言,计算机视觉已经达到了娱乐用、工具用的初级阶段。未来,计算机视觉有望进入自主理解、甚至分析决策的高级阶段,真正赋予机器“看”的能力,从而在智能家居、无人车等应用场景发挥更大的价值。

2.2语音识别

第一个真正基于电子计算机的语音识别系统出现在1952年。1980年代,随着全球性的电传业务积累了大量文本可作为机读语料用于模型的训练和统计,语音识别技术取得突破:这一时期研究的重点是大词汇量、非特定人的连续语音识别。1990年代,语音识别技术基本成熟,但识别效果与真正实用还有一定距离,语音识别研究的进展也逐渐趋缓。

随着深度神经网络被应用到语音的声学建模中,人们陆续在音素识别任务和大词汇量连续语音识别任务上取得突破。而随着循环神经网络(RNN)的引入,语音识别效果进一步得到提升,在许多(尤其是近场)语音识别任务上达到了可以进入人们日常生活的标准。以AppleSiri为代表的智能语音助手、以Echo为首的智能硬件等应用的普及又进一步扩充了语料资源的收集渠道,为语言和声学模型的训练储备了丰富的燃料,使得构建大规模通用语言模型和声学模型成为可能。

与语音识别紧密关联的是语音处理。语音处理为我们提供了语音转文字、多语言翻译、虚拟助手等一系列软件。一个完整的语音处理系统,包括前端的信号处理、中间的语音语义识别和对话管理(更多涉及自然语言处理),以及后期的语音合成。

前端信号处理:语音的前端处理涵盖说话人声检测、回声消除、唤醒词识别、麦克风阵列处理、语音增强。

语音识别:语音识别的过程需要经历特征提取、模型自适应、声学模型、语言模型、动态解码等多个过程。

语音合成:语音合成的几个步骤包括文本分析、语言学分析、音长估算、发音参数估计等。基于现有技术合成的语音在清晰度和可懂度上已经达到了较好的水平,但机器口音还是比较明显。目前的几个研究方向包括如何使合成语音听起来更自然、如何使合成语音的表现力更丰富,以及如何实现自然流畅的多语言混合合成。

2.3自然语言处理

早在1950年代,人们就有了自然语言处理的任务需求,其中最典型的就是机器翻译。到了1990年代,随着计算机的计算速度和存储量大幅增加、大规模真实文本的积累产生,以及被互联网发展激发出的、以网页搜索为代表的基于自然语言的信息检索和抽取需求出现,自然语言处理进入了发展繁荣期。在传统的基于规则的处理技术中,人们引入了更多数据驱动的统计方法,将自然语言处理的研究推向了一个新高度。

进入2010年以后,基于大数据和浅层、深层学习技术,自然语言处理的效果得到了进一步优化,出现了专门的智能翻译产品、客服机器人、智能助手等产品。这一时期的一个重要里程碑事件是IBM研发的Watson系统参加综艺问答节目Jeopardy。机器翻译方面,谷歌推出的神经网络机器翻译(GNMT)相比传统的基于词组的机器翻译(PBMT),在翻译的准确率上取得了非常强劲的提升。

自然语言处理从流程上看,分成自然语言理解(NLU)和自然语言生成(NLG)两部分,这里我们简单为大家介绍知识图谱、语义理解、对话管理等研究方向。

知识图谱:知识图谱基于语义层面,对知识进行组织后得到的结构化结果,可以用来回答简单事实类的问题,包括语言知识图谱(词义上下位、同义词等)、常识知识图谱(“鸟会飞但兔子不会飞”)、实体关系图谱(“刘德华的妻子是朱丽倩”)。知识图谱的构建过程其实就是获取知识、表示知识、应用知识的过程。

语义理解:核心问题是如何从形式与意义的多对多映射中,根据当前语境找到一种最合适的映射。以中文为例,需要解决歧义消除、上下文关联性、意图识别、情感识别等困难。

对话管理:为了让机器在与人沟通的过程中不显得那么智障,还需要在对话管理上有所突破。目前对话管理主要包含三种情形:闲聊、问答、任务驱动型对话。

2.4规划决策系统

真正基于人工智能的规划决策系统出现在电子计算机诞生之后。1990年代,硬件性能、算法能力等都得到了大幅提升,在1997年IBM研发的深蓝(DeepBlue)战胜国际象棋大师卡斯帕罗夫。到了2016年,硬件层面出现了基于GPU、TPU的并行计算,算法层面出现了蒙特卡洛决策树与深度神经网络的结合。人类在完美信息博弈的游戏中已彻底输给机器,只能在不完美信息的德州扑克和麻将中苟延残喘。人们从棋类游戏中积累的知识和经验,也被应用在更广泛的需要决策规划的领域,包括机器人控制、无人车等等。

2.5算法的发展趋势和面临的瓶颈

近年来。处在机器学习也产生了几个重要的研究方向,例如从解决凸优化问题到解决非凸优化问题,以及从监督学习向非监督学习、强化学习的演进:

从解决凸优化问题到解决非凸优化问题

目前机器学习中的大部分问题,都可以通过加上一定的约束条件,转化或近似为一个凸优化问题。凸优化问题是指将所有的考虑因素表示为一组函数,然后从中选出一个最优解。而凸优化问题的一个很好的特性是局部最优就是全局最优。这个特性使得人们能通过梯度下降法寻找到下降的方向,找到的局部最优解就会是全局最优解。

然而在现实生活中,真正符合凸优化性质的问题其实并不多,目前对凸优化问题的关注仅仅是因为这类问题更容易解决。人们现在还缺乏针对非凸优化问题的行之有效的算法。

从监督学习向非监督学习、强化学习的演进

目前来看,大部分的AI应用都是通过监督学习,利用一组已标注的训练数据,对分类器的参数进行调整,使其达到所要求的性能。但在现实生活中,监督学习不足以被称为“智能”。对照人类的学习过程,许多都是建立在与事物的交互中,通过人类自身的体会、领悟,得到对事物的理解,并将之应用于未来的生活中。而机器的局限就在于缺乏这些“常识”。

无监督学习领域近期的研究重点在于“生成对抗网络”(GANs),而强化学习的一个重要研究方向在于建立一个有效的、与真实世界存在交互的仿真模拟环境,不断训练,模拟采取各种动作、接受各种反馈,以此对模型进行训练。

从“堆数据”到研发低训练成本的算法

MITDigitalLab的研究者联合韩国的相关机构在2020年发表了一项基于1058篇深度学习的论文和数据的研究。在分析了现有的深度学习论文成果后,研究人员提出了一个悲观的预言:深度学习会随着计算量的限制,在到达某个性能水平后停滞不前,因为在深度学习领域有这样一条规律:想提升X倍的性能,最少需要用X^2倍的数据去训练模型,且这个过程要消耗X^4倍的计算量。即便是10倍性能提升和1万倍计算量的提升,这样失衡的比例关系也仅仅是理论上最优的。在现实中,提升10倍性能往往要搭上10亿倍的运算量。以今天地球资源的状况看,想把一些常用的模型错误率降低到人们满意的程度,代价高到人类不能承受。因此,在深度学习领域非常值得关注的是可大幅降低训练成本的新算法创新。

图像分类、物体识别、语义问答等多个领域AI算法准确率及对应所需算力(Gflops)、碳排放量和经济成本

(Today水平截止于2020年已经发表的成果)

3.数据

数据层指的是人工智能为不同的行业提供解决方案时所采集和利用的数据。事实上,使用人工智能解决问题的步骤绝不仅仅包括搜集和整理数据。这里我们简单介绍一下完整的流程和思路:

收集数据:数据的数量和质量直接决定了模型的质量。

数据准备:在使用数据前需要对数据进行清洗和一系列处理工作。

模型选择:不同的模型往往有各自擅长处理的问题。只有把问题抽象成数学模型后,我们才能选择出比较适合的模型,而这一步往往也是非常困难的。

训练:这个过程不需要人来参与,机器使用数学方法对模型进行求解,完成相关的数学运算。

评估:评估模型是否较好地解决了我们的问题。

参数调整:可以以任何方式进一步改进训练(比如调整先前假定的参数)。

预测:开始使用模型解决问题。

如果我们想利用人工智能解决的问题被限定在足够小的领域内,那么我们就更容易活动具体场景下的训练数据,从而更高效、更有针对性地训练模型。在金融、律政、医疗等行业的细分场景下,人工智能已经逐步被应用,且已经实现了一定的商业化。

一、为什么是机器人

1.机器人的外延及框架

虽然机器人产业已有超过60年发展史,在传统【工业机器人】及【服务机器人】分析框架下,全球机器人产业仅有300-400亿美元行业规模,但我们认为,在智能化加持下,机器人的外延及边界已被数倍扩大,新物种的诞生及传统设备的智能化将共同驱动“机器人”产业十倍及百倍增长。

概括来讲,机器人普遍存在的意义是“为人类服务”的可运动智能设备,包括机器人对于人类劳动的替代、完成人类所无法完成任务的能力延伸以及情感陪伴等价值。

面对人类对于物质及精神永不停止的需求增长,相对于元宇宙,机器人将会是“现实宇宙”中的最佳供给方案。

2.AI将会带给机器人怎样的质变

(1)智能化大幅提升

可软件升级:传统机器人无法实现软件算法在线升级,智能化机器人能够通过软件算法的迭代持续提升性能;这让机器人的能力理论上是没有上限的

规模效应:机器人应用规模越大,收集数据越多,算法迭代越完善,机器人越好用

可适用性大幅增加:机器人智慧程度线性增加,可适用的场景及价值将会指数增加

(2)智能化带来的场景适用性提升

AI技术将会是机器人全面爆发的最大变量,机器人产业的爆发极有可能是新物种引领;例如近三年全面爆发的机器人项目,在10年前几乎不存在(例如九号公司、石头科技、普渡、擎朗、云迹、高仙、梅卡曼德、极智嘉等)。

二、为什么是现在?

1.劳动力替代及升级趋势不可逆

在人口老龄化趋势下,2015-2020年,我国劳动力人口减少约1700万人,我国人均收入从4.97万元增至7.15万元,在用工难及用工贵的不可逆趋势下,智能化机器人的补充成为最重要的生产力增长点。

2021年我国人均GDP已超1.2万美元,在我国将成为全球人口最多的高收入国家(门槛为人均1.25万美元)的进程中,作为全球最大的制造业大国转型升级,将会带来全世界体量最大的机器人用工需求。

2.成熟的技术与产业基础

我们认为,智能手机及智能汽车产业的发展,实质上为现阶段智能机器人产业爆发奠定了大量技术基础:

感知层面:视觉模组、激光雷达、毫米波雷达的逐渐发展,成本降低到可用的程度;数据采集、算法训练及软件在线迭代为智能机器人未来持续升级提供了借鉴范式;

决策层面:智能SoC芯片提供了足够的算力基础,汽车自动驾驶与移动机器人在底层技术上亦有相通之处;

控制层面:近十年锂电技术提升了电池续航能力,同时有线及无线充电技术快速进步,5G及WIFI技术发展为机器人提供了通讯控制基础;

环境基础:我国拥有全世界最适合机器人产业发展的土壤,例如低成本敏捷供应链、低成本清洁能源供给、工程师红利、最广大数据收集场景;现阶段创造一款机器人新品的零配件采购难度要远低于十年前;

三、如何判断未来十年新机遇

1.从职业场景出发——寻找未被满足的大赛道

我们认为投资机构在机器人领域投的并不单纯是智能硬件或国产替代,而是押注未来数个万亿级、数十个千亿级、上百个百亿级工作场景的无人化;未来机器人公司主流定价方式很可能取决于可替代的必要劳动价值,机器人公司直接提供高粘性持续的收费服务(RobotasaService),而非按照传统的“BOM成本+一定的毛利空间”去定价。

我们收集了不同职业场景的从业人数及人均收入数据,得出不同职业劳动力成本总和,制作了机器人领域潜在替代场景图谱。

未来机器人对于人工的替代将从大场景、低复杂度入手,逐步向中小型场景、高复杂度渗透;未来10年最有潜力的投资方向将会是现阶段供给基本空白的大场景。

数据来源:国家统计局等机构

上图部分职业又可细分出上百个环节(根据“十四五”机器人发展规划)

(1)制造业:焊接、自动搬运、防爆物品生产、分拣、包装、协作生产、打磨、装配等工作

(2)建筑业:建筑部件智能化生产、测量、材料配送、钢筋加工、混凝土浇筑、楼面墙面装饰装修、构部件安装、焊接等工作

(3)农业:可进一步拆分为果园除草、精准植保、果蔬剪枝、采摘收获、分选,以及用于畜禽养殖业的喂料、巡检、清淤泥、清网衣附着物、消毒处理等工作

(4)矿业:采掘、支护、钻孔、巡检、重载辅助运输等工作

(5)医疗康复:手术、护理、检查、康复、咨询、配送等工作

(6)养老助残:助行、助浴、物品递送、情感陪护、智能假肢等应用

(7)家用场景:家务劳动、教育、娱乐、安防监控等工作

(8)公共场所:讲解导引、餐饮、配送、代步等工作

(9)水下场景:水下探测、监测、作业、深海矿产资源开发等工作

(10)安防场景:安保巡逻、缉私安检、反恐防暴、勘查取证、交通管理、边防管理、治安管控等工作

(11)危险环境作业:消防、应急救援、安全巡检、核工业操作、海洋捕捞等工作

(12)卫生防疫:检验采样、消毒清洁、室内配送、辅助移位、辅助巡诊查房、重症护理辅助操作等工作

2.从技术可行性出发——细分场景的实现难度

(1)从【场景是否单一】及【工作复杂度】两个维度进行分析

分析一项职业被机器人替代的难度,我们认为可以落入以下四个象限进行分析;其中场景维度指该项工作是否需要适应多变的环境,是否需要转移;复杂度指完成该项工作需要的知识储备多少及解决问题的难度

A.单一场景、低复杂度:例如简单的加工制造工序、搬运、安保、清洁、农业养殖等劳动更容易率先实现机器替代

B.单一场景、高复杂度:例如绘画、音乐演奏、作家、医生、教育、财务、销售、厨师等场景

C.多场景、低复杂度:例如应对不同场景下的无人驾驶,不同种类的家务劳动

D.多场景、高复杂度:例如警察、外交官、企业管理人员、研发创新等工作

(2)从机器与人类的思维长处分析

机器智能在大规模数据与信息处理、细节分析等方面具备天然优势

在需要情感、综合推理、想象力、创造力等方面的职业,人类被机器人替代的难度较大

3.从经济性出发——替代人效比

如何判断某个细分场景下,是否已经到达了机器人应用拐点?我们认为核心指标是替代人效比,即机器人的购买及维护成本相对于同岗位人力成本的回本周期

ROI<48个月时,该细分赛道会有产品出现,客户开始考虑尝试

ROI<24个月时,该细分赛道客户开始批量购买测试

ROI<12个月时,市场开始全产爆发

经济性逐渐提升背后的因素:人员成本上涨、人力紧缺、上游零配件成本下降、规模量产降低了成本、AI技术发展使得功能实现的成本降低等

四、机器人智能化三要素解析

什么样的机器人能够称得上是智能机器人?目前世界范围内还没有一个统一定义

我们认为如果对智能机器人进行抽象化解析,往往需要具备三大要素——即感知、决策和控制。

感知要素:用来认识周围环境状态,包括能感知视觉、接近、距离等的非接触型传感器和能感知力、压觉、触觉等的接触型传感器。这些要素实质上就是相当于人的眼、鼻、耳等五官,功能可以利用诸如摄像机、像传感器、超声波传成器、激光器、导电橡胶、压电元件、气动元件、行程开关等机电元器件来实现。

决策要素:也称为思考要素,根据传感器收集的数据,思考出采用什么样的动作。智能机器人的思考要素是三个要素中的关键。思考要素包括有判断、逻辑分析、理解等方面的智力活动。这些智力活动实质上是一个信息处理过程,而计算机则是完成这个处理过程的主要手段。

控制要素:也称为运动要素,对外界做出反应性动作;对运动要素来说,智能机器人需要有一个无轨道型的移动机构,以适应诸如平地、台阶、墙壁、楼梯、坡道等不同的地理环境。它们的功能可以借助轮子、履带、支脚、吸盘、气垫等移动机构来完成。在运动过程中要对移动机构进行实时控制,这种控制不仅要包括有位置控制,而且还要有力度控制、位置与力度混合控制、伸缩率控制等。

从商业机会的角度来讲,三大要素并不是独立割裂的,例如做视觉传感器的玩家往往要配套相应的软件算法,服务于各细分场景的厂商需要极强的多传感器融合、多机型控制及面向行业的智能决策能力。

三大要素中既有专精于某一环节的零部件或软件供应商机会(如核心零部件、操作系统、关键控制算法等),也有整合了其中2-3个环节的关键技术要素,为细分场景提供全套服务的应用机会(例如在清洁、配送、交通等场景的机器人服务商)。

1.感知——机器人感觉器官

(1)传感器分类

内部传感器:内部传感器是用于测量机器人自身状态的功能元件,其功能是测量运动学量和力学量,用于机器人感知自身的运动状态,使得机器人可以按照规定的位置、轨迹和速度等参数运动;包括位置传感器、速度传感器、加速度传感器、力传感器、压力传感器、力矩传感器、姿态传感器等。

外部传感器:外部传感器主要是感知机器人自身所处环境以及自身和环境之家的相互信息,包括视觉、力觉等。包括激光雷达、嗅觉传感器、视觉传感器、语音合成、语音识别、可见光和红外线传感器等。

(2)传感器在智能机器人的应用

视觉和接近传感器:类似于自动驾驶车辆所需的传感器,包括摄像头、红外线、声纳、超声波、雷达和激光雷达。某些情况下可以使用多个摄像头,尤其是立体视觉。将这些传感器组合起来使用,机器人便可以确定尺寸,识别物体,并确定其距离。

触觉传感器:微型开关是接触传感器最常用型式,另有隔离式双态接触传感器(即双稳态开关半导体电路)、单模拟量传感器、矩阵传感器(压电元件的矩阵传感器、人工皮肤——变电导聚合物、光反射触觉传感器等)。

射频识别(RFID)传感器:可以提供识别码并允许得到许可的机器人获取其他信息。

声学传感器(麦克风):帮助机器人接收语音命令并识别熟悉环境中的异常声音。如果加上压电传感器,还可以识别并消除振动引起的噪声,避免机器人错误理解语音命令。先进的算法甚至可以让机器人了解说话者的情绪。

湿温度传感器:是机器人自我诊断的一部分,可用于确定其周遭的环境,避免潜在的有害热源。利用化学、光学和颜色传感器,机器人能够评估、调整和检测其环境中存在的问题。

运动稳定性感知:对于可以走路、跑步甚至跳舞的人形机器人,稳定性是一个主要问题。它们需要与智能手机相同类型的传感器,以便提供机器人的准确位置数据。在这些应用采用了具有3轴加速度计、3轴陀螺仪和3轴磁力计的9自由度(9DOF)传感器或惯性测量单元(IMU)。

传感器微型化趋势:过去传感器的性能与体积往往成正比,限制了其在机器人领域应用。芯片制程技术提升使微型传感器的制造成为可能,从而广泛应用于机器人领域。

(3)多传感器融合是未来趋势

多传感器信息融合技术是近年来十分热门的研究课题,指综合来自多个传感器的感知数据,经过融合的多传感器系统能够更加完善、精确地反映检测对象的特性,消除信息的不确定性,提高信息的可靠性。融合后的多传感器信息具有以下特性:冗余性、互补性、实时性和低成本性。

多传感器信息融合方法主要有贝叶斯估计、Dempster-Shafer理论、卡尔曼滤波、神经网络、小波变换等。

2.决策——机器人大脑

机器人决策我们认为是最具场景差异化的部分,因为不同职业场景下的工作方式、思维逻辑是大相径庭的;在机器人算法与决策方面的创业团队需要非常熟悉场景需求,提炼出标准化的操作流程,然后应用于机器人软硬件控制中。

想要让机器人解决问题我们需要完成三个步骤:第一,明确问题的方向和边界;第二,建立数学模型;最后,找到合适的算法解决问题。这里我们重点讨论将复杂的现实问题转化为数学语言的“建模”过程和选择算法的过程。

建模的第一步需要确定假设。我们需要先明确想让机器人做出什么样精度的决策,以及能否实现,从而确定需要考虑和舍弃哪些要素。在确定了重要变量和核心关系后,我们就把复杂的现实问题转化成计算机可以理解、算法可以处理的数学问题。确定假设后,常识能帮助我们验证模型,但是多数情况下需要我们不断地将模型和现实问题作比较,从而把现实问题尽可能无损地映射进计算机里面。

在建立了模型后,我们需要选择合适的算法来解决不同模型对应的具体现实问题。在进行算法选择的时候需要具体问题具体分析,兼顾“质量”与“效率”。比如同样是让计算机处理图像数据,家庭场景下的扫地机器人和专门用来处理天文观测数据的计算机对算法要求就不一样:前者要求在较快的时间内完成对图像精准度适中的处理,而后者对时间则无感,对精准度有极高的要求。也正是因为绝大多数问题不存在唯一解或者绝对正确的解,算法工程师需要根据机器人工作的场景和目标做出最合适的取舍。

在机器人决策环节中,让机器人自身的硬件处理多少计算任务是一个关键的问题。通常情况下,如果任务的执行依赖于多个机器人采集的多点数据,那么计算任务就更可能在多点数据汇集起来后,被放在远端的云服务器上进行处理。比如,如果有大量的机器人在特定的街区内追捕嫌犯,那么我们就需要所有机器人把采集到的图像等信息上传到云端处理,在一个“大脑中枢”规划了每一个机器人的路径后,每个机器人执行自己所接收到的指令。当然,多数情况下应用云计算的场景是,每个机器人自身的芯片算力不足或者单位能耗过大。云计算提供了一种更加经济的算力解决方案,帮助机器人解决所面临的问题。在此基础上,为了避免网络带宽不足、处理时间过长等问题,人们还会使用边缘计算、雾计算等方案。

以上是机器人决策部分所需要考虑的共性问题。当然,不同场景下机器人所面临的的决策问题非常不同,我们认为这也是机器人应用中最具场景差异化的部分。不过站在更高的维度上进行抽象后,我们依然能够发现大多数机器人都需要面对三大类决策问题:按照什么规则移动位置——移动决策、按照什么规则调整自身——机械臂运动决策,以及如何保障贯彻人类指令——人机交互决策。

(1)平面移动能力

定位导航技术需要机器人的感知能力,需要借助视觉传感器(如激光雷达)来帮助机器人完成周围环境的扫描,并配合相应的算法,构建有效的地图数据,以完成运算,最终实现机器人的自主定位导航。

同步定位:主要涉及激光SLAM以及视觉SLAM。前者主要采用2D或3D激光雷达进行数据搜集,后者主要有两种技术路径——基于RGBD的深度摄像机和基于单目、双目或鱼眼摄像头。

地图构建:机器人学中的地图构建主要有4种:栅格地图、特征点地图、直接表征法以及拓扑地图。

路径规划:路径规划是导航研究中的一个重要环节,主要方法有3种:基于事例的学习方法、基于环境模型的规划方法、基于行为的路径规划方法。

(2)三维空间运动能力

空间机械臂操控过程中涉及的5项关键技术,包括:交会对接与捕获技术、自主规划与智能控制技术、传感与感知技术、智能协同与操控技术及系统安全保障技术。

视觉系统的是智能机械臂三维运动最重要的组成部分,主要由计算机、摄影设备及图像采集设备构成。机器人视觉系统工作过程主要有图像采集、图像分析、图像输出等,其中,图像特征分析、图像辨别、图像分割均为关键任务,视觉信息的压缩和滤波处理、特定环境标志识别、环境和故障物检测等是视觉信息处理中难度最大、最核心的过程。

(3)人机交互能力

语音交互:结合语音人机交互过程,人机交互中的关键技术中包含了自然语音处理、语义分析和理解、知识构建和学习体系、语音技术、整合通信技术以及云计算处理技术。

视觉交互:机器人如果需要理解人类的感情,就会涉及人脸识别技术,包括特征提取及分类。

手势交互:目前,常用的手势识别方法主要包括基于神经网络的识别方法、基于隐马尔可夫模型的识别方法和基于几何特征的识别方法。

3.控制——机器人运动能力

(1)常见的运动控制部件

机器人三大核心零部件为减速器、伺服电机、控制器,三大部件成本占机器人成本70%左右,其中减速器占成本构成35%左右,伺服电机占23%左右,控制器占12%左右。

我国工业机器人零部件目前仍处于追赶者,核心零部件主要依赖进口,但国产厂商(如埃斯顿、汇川技术、绿的谐波等)目前正在由守转攻的转折点,市占率即将超过50%,正在开始获得国外头部客户订单;我们认为机器人核心零部件进口只是短期问题,未来3-5年我国在制造水平及成本上有望全面赶超国外水平。

在服务机器人领域(如餐饮、清洁、递送等机器人),我国零部件及本体制造已达到全球领先水平;在供应链优势下,技术及成本上有望进一步突破。

数据来源:公司公告、浙商证券研究所,部分国产份额为预估值

(2)机器人运动如何进一步发展

与其他形态的机器人(如履带式、轮式等)相比,腿足式机器人在移动范围和灵活性上有巨大优势。但是实现行走乃至跑跳对腿足式机器人来说并不容易,除了BostonDynamics研发的腿足式机器人(如Atlas)之外,我们很少看到其他公司研发出灵活的、具有优秀平衡感腿足式机器人

要想让机器人像人一样灵巧、平稳地移动,并在此基础上完成复杂的任务,机器人的每一步都需要动态平衡,需要对瞬间的不稳定性有极强的适应能力。这包括需要快速调整脚的着地点,计算出突然转向需要施加多大的力,更重要的是还要在极短的时间内向足部实施非常大而又精准的力。这对控制理论、系统集成和工程实现等多个

人工智能≠机器人!

[[379103]]

随着科技创新成为时代主旋律,相信诸如“自动驾驶取代司机”、“50%以上的工作岗位将会被AI取代”以及“机器人大规模列装,无人工厂成真”之类的新闻标题早已充斥着各位的手机屏幕。

但这种技术名词的滥用往往会在不经意间使大众混淆“机器人”与“人工智能”(AI)两个概念。

机器人技术是AI的一部分吗?AI是机器人技术的一部分吗?这两个名词的区别是什么?通过今天的这篇文章,我们来解答这些问题。

人工智能正当时

首先要说明的是,机器人和人工智能完全不是一回事,二者的目的非常不同。甚至可以说,这两个领域几乎是完全各自独立的。

人工智能(AI)是计算机科学的一个分支,它涉及开发计算机程序来完成原本需要人类智慧的任务。AI算法可以解决学习、感知、解决问题、语言理解和/或逻辑推理。

人工智能有两大类:通用人工智能(GeneralAI,AGI)和狭义人工智能(NarrowAI),有时还会从通用人工智能中分化出远超人类的超人工智能(SuperAI)。

广义人工智能指的是与人类智力相当或更高的整体系统,它可以完成各种任务,从下棋到在商店里招呼顾客,再到创作艺术品。除了马斯克这样的乐观主义者外,大多数专家认为,我们距离看到可以超越人类的AI还有几十年的时间。

当下,实现通用人工智能最根本的障碍是,人类首选需要了解所谓的“智能”是如何运作的,然而这是一个巨大的难题,亟待脑科学方面的突破。

但人类在狭义人工智能领域已经取得了相当大的进展。在现代世界中,狭义人工智能(或弱人工智能)被用于许多方面,这些系统可以在严格的参数内执行离散的任务,例如:

图像识别(Imagerecognition):最典型的是公安机关的“天网”系统;自然语言处理(Naturallanguageprocessing):苹果的Siri、阿里巴巴的“天猫精灵”和百度的“小度”等AI助手的语音识别;信息检索(Informationretrieval);各大搜索引擎;利用逻辑或证据进行推理(Reasoningusinglogicorevidence):金融机构用于抵押贷款核销或确定欺诈的可能性。

不难发现,这些任务可以归纳为三类智能:感知、推理和沟通,而且大多数AI程序与大众想象中的“机器人控制”并无关系。

以苹果的Siri语音助手为例,首先,它使用语音识别算法来捕捉人们的问话(“感知”),然后使用自然语言处理来理解这串词的含义并确定一个答案(“推理”),最后使用自然语言生成这个答案并将其转达给用户(“沟通”)。

[[379106]]

人工智能的历史演进

那么人工智能系统是如何走到这一步的呢?

自从20世纪40年代艾伦·图灵(AlanTuring)和他同时代的科学家开发出第一台复杂的计算机以来,思维机器的概念就已经存在了。

艾伦·图灵

[[379107]]

1956年的达特茅斯学院大会通常被认为是AI发展的里程碑时刻,当时计算机科学家们聚集在一起,在“人工智能之父”马文·明斯基(MarvinMinsky)的推动下,将人工智能作为一个独立的领域进行研究。

马文·明斯基

[[379108]]

然而,尽管早期该领域获得了科学家的广泛热情和各界大量资金支持,但人工智能的最初进展依然步履蹒跚,慢的令人失望。

DARPA(美国国防部高级研究计划局)曾在20世纪60年代向高校体系投入了数百万美元,希望机器翻译能够增强其反间谍能力,但由于机器翻译领域缺乏进展,他们的态度也变得消极。

与此同时,在英国,1973年由詹姆斯·莱特希尔(JamesLighthill)领导的一个人工智能政府委员会提出了严重的质疑,认为人工智能研究领域只会以渐进的速度发展。

其结果是,美英两国乃至整个西方世界的政府资助被大幅削减。

整个20世纪,人工智能在政策制定者和公众意识中的地位一直是起起伏伏。往往是一个新的发展会引发一波热情和资金的激增,但由于承诺的创新未能实现,人们的兴趣又急剧下降,进而导致失去资源支持。

为什么人工智能在20世纪进展如此缓慢?究其原因与研究人员在开发软件时采用的方法有关。

20世纪的大多数人工智能应用都采取了专家系统的形式,这些系统基于一系列精心开发的“if-then”规则,可以指导基本的决策。

虽然专家系统对于处理一个包含的任务很有用(比如在ATM机中取钱),但它们却很难处理那些不容易被编入规则的请求。

例如,很难编写规则来确定一个类似人类的物体是人体模型还是真人,或者核磁共振扫描(MRI)上的深色图案是肿瘤还是良性组织。这些任务往往依赖于那些难以表述的“隐性知识”。

只有当新的人工智能方法投入使用时,才取得了重大突破,而机器学习(MachineLearning)就是这类“新方法”中最具代表性的一个。

机器学习不需要从头开始编写规则,而是通过使用现有的数据(例如,图像被标记为人体模型或真人,MRI扫描被标记为恶性或良性肿瘤)来“训练”算法。

[[379110]]

反过来,这些算法每检测出一种模式,就会创建一个通用规则来理解未来的输入,以此形成良性循环。目前,机器学习算法已被应用于多个领域,从发现银行欺诈交易到帮助人力资源团队在招聘员工时筛选简历申请,任务多样。

过去的十多年里,机器学习在一直在人工智能领域独领风骚。但在最近的几年,人们的注意力已经转向了机器学习的一个子领域——深度学习(DeepLearning)。

深度学习系统是由“人工神经网络”(ArtificialNeuralNetworks)组成的,它有多层,每一层都被赋予了对图像、声音或文本中不同模式进行理解的任务。

第一层可以识别原始模式,例如图像中物体的轮廓,而第二层可以用来识别该图像中的颜色带。数据通过多层输入,直到系统能够将模式聚类为不同的类别,例如物体或文字。根据伦敦国王学院的一项研究,当使用核磁共振扫描的原始数据时,深度学习技术将大脑年龄评估的准确性提高了一倍以上。

而除了以上方法外,其他重要的人工智能方法还包括监督式学习、强化学习和迁移学习:

监督学习(Supervisedlearning):算法一开始就可以通过监督或者非监督式学习两种方式进行训练。

监督式学习意味着算法被赋予标记数据,它们从这些数据中提取模式,得出一个通用的规则来理解未来的数据。大多数机器学习和深度学习算法都是使用监督过程来训练的。非监督式学习是指给算法提供未标记的数据,并自行发现模式。例子包括营销公司使用的人群细分,以及一些网络安全软件。

强化学习(Reinforcementlearning):有些算法只编写或训练一次,而强化学习则是利用正反馈机制,在使用过程中不断调整和改进算法。

短视频和网购中的推荐系统就是强化学习的一个例子。每当消费者购买一件产品(一本书、一条记录或一件衣服)时,算法都会自动调整,以便在未来推荐时将这些行为考虑进去。

迁移学习(Transferlearning):迁移学习是指将一个在某一领域开发的算法进行修改,以用于另一个领域,而不必从头开始,也不必将大量原始数据和标签数据作为来源。

要说明的是,上述人工智能的方法并不一定是相互排斥的,往往可以结合使用。

机器人的世界

说罢人工智能,再来谈谈机器人(Robotics)。机器人学包括设计、制造和编程能够与物理世界互动的物理机器人。机器人技术中只有一小部分涉及人工智能。

通常,构成机器人有三个重要因素:

机器人通过传感器和执行器与物理世界进行互动;

机器人是可以编程的;

机器人通常是自主或半自主的。

因此,虽然拖拉机、建筑挖掘机和缝纫机有运动部件,可以完成人工任务,但它们需要人类长期(如果不是连续)监督,所以不属于机器人。

相比之下,仓库里的拣货和包装机器,以及升降和搬运病人的“护理机器人”,都是在部分自主的情况下完成任务的,因此它们会被归为机器人。

“机器人”一词最早出现在1921年卡雷尔·卡佩克(KarelCapek)创作的一部科幻剧中,该剧讲述了在一个社会中,克隆人被当做奴隶,结果机器人推翻了主人的故事。

[[379111]]

直到20世纪50年代,机器人仍是科幻小说的专利,彼时全世界第一家工业机器人公司Unimation刚刚成立。它发明了一种突破性的近2吨重的机械臂,可以根据预先编程的指令取放物品,是工厂里搬运重物的理想选择。

1961年,Unimate机器人在通用汽车公司首次亮相,它被用来运送热的压铸金属件,并将其焊接到汽车车身部件上。

不久后的1969年,机器人先驱维克多·舍恩曼(VictorScheinman)开发了斯坦福臂(StanfordArm),这是世界上第一个电动关节型机器人臂。它被看作是机器人技术的一个突破,因为它在6轴上操作,比以前的单轴或双轴机器有更大的运动自由度。

[[379112]]

斯坦福臂标志着关节型机器人革命的开始,它改变了制造业的装配线,并推动了包括库卡(Kuka)和ABB机器人在内的多家商业机器人公司的发展。

多年来,关节型机器人已经承担了从焊接钢材到组装汽车,再到给白色家电加漆等各种各样的功能。国际机器人联合会(InternationalFederationofRobotics)估计目前全球工业机器人的数量为270万台。

走出藩篱的机器人

在20世纪的大部分时间里,机器人行业仍然集中关注关节型机械臂。然而,正如人工智能领域一样,在千禧年之交,情况开始发生变化。

本田公司的ASIMO机器人于2000年亮相,是首批能够用两条腿行走、识别手势和回答问题的人形机器之一。

[[379113]]

三年后,KIVA系统公司(现在的亚马逊机器人公司)成立,提供移动机器人,可以在复杂的配送仓库内穿梭运送货物和托盘。

2000年代初,也是自动驾驶汽车从实验室测试走向道路试验的时期。特别具有象征意义的是2004年DARPA的挑战赛,这是同类奖项中的第一个。任何人只要能够让自动驾驶汽车跑完230公里的赛道,就可以获得100万美元的奖金。

虽然这些机器人的功能、大小和环境各不相同,但它们都有一个共同的特点:可移动性。20世纪的关节型机器人往往只能固定在一个地方,但21世纪的机器人已经动了起来。

其中一个驱动因素是人工智能和机器人技术的共生,复杂的软件让物理机器有能力处理无法预料的环境和事件。例如,强化学习意味着机器人现在可以模仿和学习人类。此外,将数据存储在云端意味着机器人可以与网络中的其他机器人学习和共享经验。

另一方面,机器人技术的进步也得益于硬件的创新。传感器的改进使机器人具备了在非结构化环境中导航所需的视觉感知能力。与这些传感器能力相匹配的是丰富且不断增长的物理世界数据库,包括新的3D图像数据集,如谷歌或百度的3D街景地图。

最后,材料科学也在飞速发展。硅胶和蜘蛛丝等更好的材料使机器人外观看起来更锐利,而由压电晶体管制成的“机械毛发”则像人的皮肤一样敏感。此外,液压泵也有改进,不仅摩擦力极小,而且可以实现卓越的控制水平。

综合以上的因素,结果是机器人不再局限于工厂,而是可以在医院病房、商店楼层和城市街道等各种环境中漫游。

更可喜的是,即使在工厂里,机器人也在不断进化。最新的机器被称为“协作机器人”(co-bots),其设计目的是与人类工人协同工作,例如从料箱中拣出零件,从生产线上取出不良品,并完成简单的工作,如拧螺丝、涂胶和焊接。

[[379114]]

另外,它们也非常容易重新编程,因此对小批量生产的企业很有吸引力,并且它们还具有扭矩传感器,可以在人类接触的情况下保持不动。麻省理工学院与宝马公司合作进行的研究发现,机器人与人类协作比人类单独工作的工作效率高85%。

纵观机器人技术的发展,可以看出现在的物理机器人主要有五种类型:

关节型机器人(Mobilerobots):固定式机器人,其手臂至少有三个旋转关节,这种机器人通常出现在工业环境中。协作机器人是关节型机器人的最新迭代。

移动机器人(Mobilerobots):轮式或履带式机器人,可以将货物和人员从一个目的地运送到另一个目的地。自动驾驶汽车是移动机器人能力的巅峰。

人形机器人(Humanoidrobots):与人类生理上相似并试图模仿人类能力的机器人。软银声称其Pepper机器人是第一个能够识别人类情绪并相应调整其行为的机器人。

假肢机器人(Prostheticrobots):可以穿戴或操作的机器人,让人们获得更大的力量,包括残疾人或从事危险工作的工人。大众更熟悉的名词是“外骨骼”。

蛇形机器人(Serpentinerobots):由多个部分和关节组成的蛇形机器人,可以极其灵活地移动。由于蛇形机器人能够穿越困难的地形和在狭窄的空间中移动,因此在工业检测和搜救任务中得到了应用。

人工智能机器人:机器人和AI的桥梁

从以上的描述可以了解,大多数机器人都不是“智能”的。即使AI被用于控制机器人,AI算法也只是更大的机器人系统的一部分,该系统还包括传感器、执行器和非AI程序。

直到现在,所有的工业机器人都只能通过编程来进行一系列重复性的动作,这些动作显然并不需要人工智能。然而,非智能机器人的功能相当有限。

当你想让机器人执行更复杂的任务时,人工智能算法是必要的。

[[379115]]

例如,仓储机器人可能会使用路径搜索算法在仓库周围导航;无人机可能会在电池快用完的时候使用自主导航返回家中;自动驾驶汽车可能会结合使用人工智能算法来检测和避免道路上的潜在危险。这些都是人工智能机器人的例子。

未来会怎样?

如果要问我人工智能和机器人技术这两项技术在未来几年和几十年将如何发展,恐怕很难给出好的答案。深度学习算法可能会走入死胡同,而仿人机器人也可能只是一种幻想。

有观察家已经提出,全球范围内的人工智能泡沫正在膨胀,而机器人的“人工”程度超过了“智能”程度。

但我们可以比较肯定地说,只要算力、数据采集和存储、通用基础设施以及研究投资没有停下来,那么这些技术将继续以这样或那样的方式继续发展。继那之后,我们更应该警惕的是AI、机器人以及二者结合后所产生的社会性影响。

参考资料:

[1]https://medium.com/@thersa/what-is-the-difference-between-ai-robotics-d93715b4ba7f

AI 聊天机器人

AI聊天机器人的工作原理是什么?

AI聊天机器人使用自然语言处理(NLP)来帮助用户通过文本、图形或语音与Web服务或应用进行交互。聊天机器人可以理解自然人类语言、模拟人类对话并运行简单的自动化任务。此外,AI聊天机器人还利用预测智能和分析技术来了解用户的偏好,并利用了解的这些信息来提供建议和预测需求。

AI聊天机器人用于各种渠道,例如消息传递应用、移动应用、网站、电话线路和支持语音的应用。它们可以针对不同目的而开发,无论是仅处理一些简单的命令,还是充当复杂的数字助理和交互式代理。AI聊天机器人可以是大型应用程序的一部分,也可以完全独立存在。

阅读本指南,详细了解AI聊天机器人的定义及其工作原理。

为何使用AI聊天机器人?

AI聊天机器人是一种聊天机器人,用于帮助人类与技术进行交互以及自动执行任务。随着AI、机器学习、数据科学和自然语言处理领域的不断进步,现在可以更轻松地为各种应用程序构建对话型机器人,让公司及其客户和员工从中受益,从而促进聊天机器人数量的快速增长。

公司如何使用AI聊天机器人

AI聊天机器人可为公司提供诸多优势。许多公司都使用AI聊天机器人作为虚拟代理,它们可以处理客户服务问题或为员工提供支持。总的来说,在客户服务中使用聊天机器人不仅有助于公司改善客户服务,还能降低客户服务成本,从而实现较高的投资回报率(ROI)。

使用AI聊天机器人还有助于公司缩短销售周期、挖掘更多的潜在客户并提高客户忠诚度。各种公司陆续开始利用聊天机器人和AI技术来打造个性化用户体验,从而提高客户的满意度、参与度和转化率。

除了拥有较高的ROI之外,AI聊天机器人还是一种简单便捷的服务,赢得了消费者和员工的期望和依赖,因而变得越来越普遍。随着企业投资于越来越复杂的技术,并建立起多个消息传递接口,聊天机器人迅速成为客户和员工与所交互的大量信息、系统和应用程序之间的必要桥梁。

客户如何使用AI聊天机器人

客户也可以从使用AI聊天机器人中受益。聊天机器人可以按需为客户提供帮助或客户服务,而且不受限制。当客户与聊天机器人进行交互时,他们可以随时获得问题的答案。此外,他们往往能够获得更轻松的销售体验,并与所交互的品牌建立更加个性化的联系。

员工如何使用聊天机器人

工作场所中的AI聊天机器人也可以使在此工作的员工受益。AI聊天机器人可用于自动执行简单的任务,从而为员工腾出时间。它们还可以在组织内部用于帮助员工浏览公司的政策、程序、人力资源信息以及其他内部系统和文档。

什么是自然语言处理?

为了有效地工作,AI聊天机器人必须能够将人类的语音和语言转换成计算机能够理解的信息。理解、分析和响应人类语音的过程是一个复杂的任务,我们称之为自然语言处理。

自然语言处理是指聊天机器人使用人工智能来理解大量自然语言数据的整个端到端过程。NLP的工作原理是:接收人类的文字或语音输入,利用AI判断该输入的含义,然后生成并做出适当的回应。自然语言处理使机器人能够以模仿人类对话的方式与人类用户进行交流。

自然语言处理的工作原理是,将用户输入分解为言语、意图和实体。言语是用户输入聊天机器人的任何短语。将言语输入聊天机器人后,聊天机器人会确定言语的意图,即用户联系聊天机器人的目的。最后,聊天机器人会识别出言语中有助于定义意图细节的实体。实体通常是日期、时间、地点、名称或位置之类的信息,有助于进一步明确用户的意图。

AI聊天机器人的工作原理是什么?

AI聊天机器人是用户使用文本、图形或语音以对话方式与之交互的任何应用。聊天机器人有很多不同的类型,但它们的工作方式大同小异。

第一步

用户通过应用、网站或文本消息之类的渠道,或者甚至通过电话联络来将消息输入AI聊天机器人。此消息可以是命令或问题。

第二步

AI聊天机器人接收消息的内容,并捕获相关信息,例如传入消息的渠道。然后,聊天机器人使用NLP来确定消息的目的并识别相关意图。

第三步

AI聊天机器人确定一个适当的响应,并通过相同的渠道将响应返回给用户。随着对话的继续,此流程将继续执行下述第一步至第三步。对话会一直持续,直到用户的疑问得到解答,问题得到解决,或者直到请求被转交给人工代理。

有哪些类型的AI聊天机器人?

企业可以使用的聊天机器人主要有两种类型:事务型聊天机器人和对话型聊天机器人。它们的总体复杂程度不同,使用人工智能的程度也不同。

事务型聊天机器人

事务型聊天机器人,也称为任务型或声明型聊天机器人,是一种专注于执行或自动执行某项功能的单用途聊天机器人。它使用规则、自然语言处理和极少量的机器学习。事务型聊天机器人基于结构化数据进行训练,旨在根据用户想要执行的操作或想要解决的问题,提供一套固定的选项供用户选择。在用户做出选择后,聊天机器人会提供更多选项来引导他们完成整个流程,直到用户的疑问得到解答或问题得到解决。

事务型聊天机器人会生成对话式的自动响应。与事务型聊天机器人的交互非常具体且结构化,因此事务型聊天机器人可以很好地帮助那些事先知道客户可能需要获得哪些常见操作或问题相关帮助的企业。例如,餐馆、快递公司和银行使用事务型聊天机器人来处理常见问题,例如关于营业时间的问题,或者帮助客户处理不涉及大量可变因素的简单事务。事务型聊天机器人是最常用的聊天机器人类型,因此相关的例子也是多种多样。

对话型聊天机器人

对话型聊天机器人是一种比较复杂且交互性较强的AI聊天机器人,可以实现更加个性化的交互。它旨在使用对话型AI来理解用户消息中的含义,并模拟人类的方式进行响应。对话型聊天机器人使用人工智能、自然语言处理并通过访问知识数据库和其他信息来检测用户的问题和响应中的细微差别,并按照人类的方式给出相关的答案。这些AI聊天机器人具有情境感知能力,并使用自然语言理解、自然语言处理和机器学习来逐渐提高智能化水平。

对话型聊天机器人通常称为虚拟助理或数字助理,它们也会根据每个用户的个人资料和之前的行为,使用预测智能和分析技术提供个性化体验。随着时间的推移,这种类型的AI聊天机器人可以了解用户的偏好,并利用了解的这些信息来提供建议和预测需求。对话型聊天机器人广泛用于电子商务公司、在线服务、社交平台、拥有先进的服务型软件(SaaS)工具的企业以及提供企业解决方案的企业到企业(B2B)公司。

AI聊天机器人有哪些常规用途?客户服务

AI聊天机器人可用来创建随时待命的虚拟客户服务代理,促进提高客户满意度。聊天机器人还可以用来提交和确认支持人员的请求,或者为客户执行日常任务。

人力资源

AI聊天机器人可以协助完成人力资源工作,例如帮助员工申报带薪休假或病假、通知员工政策变化,以及帮助员工了解和管理自己的福利。

财务与会计

AI聊天机器人应用程序可以协助员工提交费用报告、开启采购订单请求,以及更新和跟踪供应商详细信息。

市场营销

AI聊天机器人用于向忠实客户发送针对性优惠、跟踪客户满意度,以及打造个性化体验以保持客户参与度。

销售

AI聊天机器人可以预先赋予潜在客户资格、为潜在客户提供报价以及开始主动对话,从而为销售人员腾出时间来专注于达成销售。

AI聊天机器人在不同行业的应用情况如何?

AI聊天机器人的广泛应用让各行各业的公司受益颇多。下面提供了几个示例来介绍聊天机器人的日常运用方式:

电子商务和零售业

在线商店使用AI聊天机器人作为客户服务代理来提供产品信息、提供个性化产品建议以及处理订单和退货请求。

金融服务业

银行和信用社使用AI聊天机器人作为智能代理,帮助回答客户的问题、提供帐户余额和对帐单、处理基本事务,以及提供储蓄和投资建议。

医疗保健业

医院和诊所使用AI聊天机器人来安排预约、提供用药信息以及帮助患者找到最近的办公地点等。

教育行业

AI聊天机器人用于学生反馈、教师评估和行政协助。

保险业

AI聊天机器人充当虚拟代理和顾问,可以提交索赔、提供状态更新以及执行其他基本任务,从而为工作人员腾出时间来执行更高级的任务。

制造业

AI聊天机器人帮助制造商进行供应商管理和合作、人员协助、工作场所维护、产品召回和人力资源任务。

旅游业与酒店业

航空公司和酒店公司使用AI聊天机器人作为交互式代理,帮助客户进行购票、在线登记和其他旅行安排。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇