博舍

人工智能的历史、现状和未来 人相比于人工智能来说

人工智能的历史、现状和未来

如同蒸汽时代的蒸汽机、电气时代的发电机、信息时代的计算机和互联网,人工智能正成为推动人类进入智能时代的决定性力量。全球产业界充分认识到人工智能技术引领新一轮产业变革的重大意义,纷纷转型发展,抢滩布局人工智能创新生态。世界主要发达国家均把发展人工智能作为提升国家竞争力、维护国家安全的重大战略,力图在国际科技竞争中掌握主导权。习近平总书记在十九届中央政治局第九次集体学习时深刻指出,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。错失一个机遇,就有可能错过整整一个时代。新一轮科技革命与产业变革已曙光可见,在这场关乎前途命运的大赛场上,我们必须抢抓机遇、奋起直追、力争超越。

概念与历程

了解人工智能向何处去,首先要知道人工智能从何处来。1956年夏,麦卡锡、明斯基等科学家在美国达特茅斯学院开会研讨“如何用机器模拟人的智能”,首次提出“人工智能(ArtificialIntelligence,简称AI)”这一概念,标志着人工智能学科的诞生。

人工智能是研究开发能够模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的一门新的技术科学,研究目的是促使智能机器会听(语音识别、机器翻译等)、会看(图像识别、文字识别等)、会说(语音合成、人机对话等)、会思考(人机对弈、定理证明等)、会学习(机器学习、知识表示等)、会行动(机器人、自动驾驶汽车等)。

人工智能充满未知的探索道路曲折起伏。如何描述人工智能自1956年以来60余年的发展历程,学术界可谓仁者见仁、智者见智。我们将人工智能的发展历程划分为以下6个阶段:

一是起步发展期:1956年—20世纪60年代初。人工智能概念提出后,相继取得了一批令人瞩目的研究成果,如机器定理证明、跳棋程序等,掀起人工智能发展的第一个高潮。

二是反思发展期:20世纪60年代—70年代初。人工智能发展初期的突破性进展大大提升了人们对人工智能的期望,人们开始尝试更具挑战性的任务,并提出了一些不切实际的研发目标。然而,接二连三的失败和预期目标的落空(例如,无法用机器证明两个连续函数之和还是连续函数、机器翻译闹出笑话等),使人工智能的发展走入低谷。

三是应用发展期:20世纪70年代初—80年代中。20世纪70年代出现的专家系统模拟人类专家的知识和经验解决特定领域的问题,实现了人工智能从理论研究走向实际应用、从一般推理策略探讨转向运用专门知识的重大突破。专家系统在医疗、化学、地质等领域取得成功,推动人工智能走入应用发展的新高潮。

四是低迷发展期:20世纪80年代中—90年代中。随着人工智能的应用规模不断扩大,专家系统存在的应用领域狭窄、缺乏常识性知识、知识获取困难、推理方法单一、缺乏分布式功能、难以与现有数据库兼容等问题逐渐暴露出来。

五是稳步发展期:20世纪90年代中—2010年。由于网络技术特别是互联网技术的发展,加速了人工智能的创新研究,促使人工智能技术进一步走向实用化。1997年国际商业机器公司(简称IBM)深蓝超级计算机战胜了国际象棋世界冠军卡斯帕罗夫,2008年IBM提出“智慧地球”的概念。以上都是这一时期的标志性事件。

六是蓬勃发展期:2011年至今。随着大数据、云计算、互联网、物联网等信息技术的发展,泛在感知数据和图形处理器等计算平台推动以深度神经网络为代表的人工智能技术飞速发展,大幅跨越了科学与应用之间的“技术鸿沟”,诸如图像分类、语音识别、知识问答、人机对弈、无人驾驶等人工智能技术实现了从“不能用、不好用”到“可以用”的技术突破,迎来爆发式增长的新高潮。

现状与影响

对于人工智能的发展现状,社会上存在一些“炒作”。比如说,认为人工智能系统的智能水平即将全面超越人类水平、30年内机器人将统治世界、人类将成为人工智能的奴隶,等等。这些有意无意的“炒作”和错误认识会给人工智能的发展带来不利影响。因此,制定人工智能发展的战略、方针和政策,首先要准确把握人工智能技术和产业发展的现状。

专用人工智能取得重要突破。从可应用性看,人工智能大体可分为专用人工智能和通用人工智能。面向特定任务(比如下围棋)的专用人工智能系统由于任务单一、需求明确、应用边界清晰、领域知识丰富、建模相对简单,形成了人工智能领域的单点突破,在局部智能水平的单项测试中可以超越人类智能。人工智能的近期进展主要集中在专用智能领域。例如,阿尔法狗(AlphaGo)在围棋比赛中战胜人类冠军,人工智能程序在大规模图像识别和人脸识别中达到了超越人类的水平,人工智能系统诊断皮肤癌达到专业医生水平。

通用人工智能尚处于起步阶段。人的大脑是一个通用的智能系统,能举一反三、融会贯通,可处理视觉、听觉、判断、推理、学习、思考、规划、设计等各类问题,可谓“一脑万用”。真正意义上完备的人工智能系统应该是一个通用的智能系统。目前,虽然专用人工智能领域已取得突破性进展,但是通用人工智能领域的研究与应用仍然任重而道远,人工智能总体发展水平仍处于起步阶段。当前的人工智能系统在信息感知、机器学习等“浅层智能”方面进步显著,但是在概念抽象和推理决策等“深层智能”方面的能力还很薄弱。总体上看,目前的人工智能系统可谓有智能没智慧、有智商没情商、会计算不会“算计”、有专才而无通才。因此,人工智能依旧存在明显的局限性,依然还有很多“不能”,与人类智慧还相差甚远。

人工智能创新创业如火如荼。全球产业界充分认识到人工智能技术引领新一轮产业变革的重大意义,纷纷调整发展战略。比如,谷歌在其2017年年度开发者大会上明确提出发展战略从“移动优先”转向“人工智能优先”,微软2017财年年报首次将人工智能作为公司发展愿景。人工智能领域处于创新创业的前沿。麦肯锡公司报告指出,2016年全球人工智能研发投入超300亿美元并处于高速增长阶段;全球知名风投调研机构CBInsights报告显示,2017年全球新成立人工智能创业公司1100家,人工智能领域共获得投资152亿美元,同比增长141%。

创新生态布局成为人工智能产业发展的战略高地。信息技术和产业的发展史,就是新老信息产业巨头抢滩布局信息产业创新生态的更替史。例如,传统信息产业代表企业有微软、英特尔、IBM、甲骨文等,互联网和移动互联网时代信息产业代表企业有谷歌、苹果、脸书、亚马逊、阿里巴巴、腾讯、百度等。人工智能创新生态包括纵向的数据平台、开源算法、计算芯片、基础软件、图形处理器等技术生态系统和横向的智能制造、智能医疗、智能安防、智能零售、智能家居等商业和应用生态系统。目前智能科技时代的信息产业格局还没有形成垄断,因此全球科技产业巨头都在积极推动人工智能技术生态的研发布局,全力抢占人工智能相关产业的制高点。

人工智能的社会影响日益凸显。一方面,人工智能作为新一轮科技革命和产业变革的核心力量,正在推动传统产业升级换代,驱动“无人经济”快速发展,在智能交通、智能家居、智能医疗等民生领域产生积极正面影响。另一方面,个人信息和隐私保护、人工智能创作内容的知识产权、人工智能系统可能存在的歧视和偏见、无人驾驶系统的交通法规、脑机接口和人机共生的科技伦理等问题已经显现出来,需要抓紧提供解决方案。

趋势与展望

经过60多年的发展,人工智能在算法、算力(计算能力)和算料(数据)等“三算”方面取得了重要突破,正处于从“不能用”到“可以用”的技术拐点,但是距离“很好用”还有诸多瓶颈。那么在可以预见的未来,人工智能发展将会出现怎样的趋势与特征呢?

从专用智能向通用智能发展。如何实现从专用人工智能向通用人工智能的跨越式发展,既是下一代人工智能发展的必然趋势,也是研究与应用领域的重大挑战。2016年10月,美国国家科学技术委员会发布《国家人工智能研究与发展战略计划》,提出在美国的人工智能中长期发展策略中要着重研究通用人工智能。阿尔法狗系统开发团队创始人戴密斯·哈萨比斯提出朝着“创造解决世界上一切问题的通用人工智能”这一目标前进。微软在2017年成立了通用人工智能实验室,众多感知、学习、推理、自然语言理解等方面的科学家参与其中。

从人工智能向人机混合智能发展。借鉴脑科学和认知科学的研究成果是人工智能的一个重要研究方向。人机混合智能旨在将人的作用或认知模型引入到人工智能系统中,提升人工智能系统的性能,使人工智能成为人类智能的自然延伸和拓展,通过人机协同更加高效地解决复杂问题。在我国新一代人工智能规划和美国脑计划中,人机混合智能都是重要的研发方向。

从“人工+智能”向自主智能系统发展。当前人工智能领域的大量研究集中在深度学习,但是深度学习的局限是需要大量人工干预,比如人工设计深度神经网络模型、人工设定应用场景、人工采集和标注大量训练数据、用户需要人工适配智能系统等,非常费时费力。因此,科研人员开始关注减少人工干预的自主智能方法,提高机器智能对环境的自主学习能力。例如阿尔法狗系统的后续版本阿尔法元从零开始,通过自我对弈强化学习实现围棋、国际象棋、日本将棋的“通用棋类人工智能”。在人工智能系统的自动化设计方面,2017年谷歌提出的自动化学习系统(AutoML)试图通过自动创建机器学习系统降低人员成本。

人工智能将加速与其他学科领域交叉渗透。人工智能本身是一门综合性的前沿学科和高度交叉的复合型学科,研究范畴广泛而又异常复杂,其发展需要与计算机科学、数学、认知科学、神经科学和社会科学等学科深度融合。随着超分辨率光学成像、光遗传学调控、透明脑、体细胞克隆等技术的突破,脑与认知科学的发展开启了新时代,能够大规模、更精细解析智力的神经环路基础和机制,人工智能将进入生物启发的智能阶段,依赖于生物学、脑科学、生命科学和心理学等学科的发现,将机理变为可计算的模型,同时人工智能也会促进脑科学、认知科学、生命科学甚至化学、物理、天文学等传统科学的发展。

人工智能产业将蓬勃发展。随着人工智能技术的进一步成熟以及政府和产业界投入的日益增长,人工智能应用的云端化将不断加速,全球人工智能产业规模在未来10年将进入高速增长期。例如,2016年9月,咨询公司埃森哲发布报告指出,人工智能技术的应用将为经济发展注入新动力,可在现有基础上将劳动生产率提高40%;到2035年,美、日、英、德、法等12个发达国家的年均经济增长率可以翻一番。2018年麦肯锡公司的研究报告预测,到2030年,约70%的公司将采用至少一种形式的人工智能,人工智能新增经济规模将达到13万亿美元。

人工智能将推动人类进入普惠型智能社会。“人工智能+X”的创新模式将随着技术和产业的发展日趋成熟,对生产力和产业结构产生革命性影响,并推动人类进入普惠型智能社会。2017年国际数据公司IDC在《信息流引领人工智能新时代》白皮书中指出,未来5年人工智能将提升各行业运转效率。我国经济社会转型升级对人工智能有重大需求,在消费场景和行业应用的需求牵引下,需要打破人工智能的感知瓶颈、交互瓶颈和决策瓶颈,促进人工智能技术与社会各行各业的融合提升,建设若干标杆性的应用场景创新,实现低成本、高效益、广范围的普惠型智能社会。

人工智能领域的国际竞争将日益激烈。当前,人工智能领域的国际竞赛已经拉开帷幕,并且将日趋白热化。2018年4月,欧盟委员会计划2018—2020年在人工智能领域投资240亿美元;法国总统在2018年5月宣布《法国人工智能战略》,目的是迎接人工智能发展的新时代,使法国成为人工智能强国;2018年6月,日本《未来投资战略2018》重点推动物联网建设和人工智能的应用。世界军事强国也已逐步形成以加速发展智能化武器装备为核心的竞争态势,例如美国特朗普政府发布的首份《国防战略》报告即谋求通过人工智能等技术创新保持军事优势,确保美国打赢未来战争;俄罗斯2017年提出军工拥抱“智能化”,让导弹和无人机这样的“传统”兵器威力倍增。

人工智能的社会学将提上议程。为了确保人工智能的健康可持续发展,使其发展成果造福于民,需要从社会学的角度系统全面地研究人工智能对人类社会的影响,制定完善人工智能法律法规,规避可能的风险。2017年9月,联合国犯罪和司法研究所(UNICRI)决定在海牙成立第一个联合国人工智能和机器人中心,规范人工智能的发展。美国白宫多次组织人工智能领域法律法规问题的研讨会、咨询会。特斯拉等产业巨头牵头成立OpenAI等机构,旨在“以有利于整个人类的方式促进和发展友好的人工智能”。

态势与思考

当前,我国人工智能发展的总体态势良好。但是我们也要清醒看到,我国人工智能发展存在过热和泡沫化风险,特别在基础研究、技术体系、应用生态、创新人才、法律规范等方面仍然存在不少值得重视的问题。总体而言,我国人工智能发展现状可以用“高度重视,态势喜人,差距不小,前景看好”来概括。

高度重视。党中央、国务院高度重视并大力支持发展人工智能。习近平总书记在党的十九大、2018年两院院士大会、全国网络安全和信息化工作会议、十九届中央政治局第九次集体学习等场合多次强调要加快推进新一代人工智能的发展。2017年7月,国务院发布《新一代人工智能发展规划》,将新一代人工智能放在国家战略层面进行部署,描绘了面向2030年的我国人工智能发展路线图,旨在构筑人工智能先发优势,把握新一轮科技革命战略主动。国家发改委、工信部、科技部、教育部等国家部委和北京、上海、广东、江苏、浙江等地方政府都推出了发展人工智能的鼓励政策。

态势喜人。据清华大学发布的《中国人工智能发展报告2018》统计,我国已成为全球人工智能投融资规模最大的国家,我国人工智能企业在人脸识别、语音识别、安防监控、智能音箱、智能家居等人工智能应用领域处于国际前列。根据2017年爱思唯尔文献数据库统计结果,我国在人工智能领域发表的论文数量已居世界第一。近两年,中国科学院大学、清华大学、北京大学等高校纷纷成立人工智能学院,2015年开始的中国人工智能大会已连续成功召开四届并且规模不断扩大。总体来说,我国人工智能领域的创新创业、教育科研活动非常活跃。

差距不小。目前我国在人工智能前沿理论创新方面总体上尚处于“跟跑”地位,大部分创新偏重于技术应用,在基础研究、原创成果、顶尖人才、技术生态、基础平台、标准规范等方面距离世界领先水平还存在明显差距。在全球人工智能人才700强中,中国虽然入选人数名列第二,但远远低于约占总量一半的美国。2018年市场研究顾问公司CompassIntelligence对全球100多家人工智能计算芯片企业进行了排名,我国没有一家企业进入前十。另外,我国人工智能开源社区和技术生态布局相对滞后,技术平台建设力度有待加强,国际影响力有待提高。我国参与制定人工智能国际标准的积极性和力度不够,国内标准制定和实施也较为滞后。我国对人工智能可能产生的社会影响还缺少深度分析,制定完善人工智能相关法律法规的进程需要加快。

前景看好。我国发展人工智能具有市场规模、应用场景、数据资源、人力资源、智能手机普及、资金投入、国家政策支持等多方面的综合优势,人工智能发展前景看好。全球顶尖管理咨询公司埃森哲于2017年发布的《人工智能:助力中国经济增长》报告显示,到2035年人工智能有望推动中国劳动生产率提高27%。我国发布的《新一代人工智能发展规划》提出,到2030年人工智能核心产业规模超过1万亿元,带动相关产业规模超过10万亿元。在我国未来的发展征程中,“智能红利”将有望弥补人口红利的不足。

当前是我国加强人工智能布局、收获人工智能红利、引领智能时代的重大历史机遇期,如何在人工智能蓬勃发展的浪潮中选择好中国路径、抢抓中国机遇、展现中国智慧等,需要深入思考。

树立理性务实的发展理念。任何事物的发展不可能一直处于高位,有高潮必有低谷,这是客观规律。实现机器在任意现实环境的自主智能和通用智能,仍然需要中长期理论和技术积累,并且人工智能对工业、交通、医疗等传统领域的渗透和融合是个长期过程,很难一蹴而就。因此,发展人工智能要充分考虑到人工智能技术的局限性,充分认识到人工智能重塑传统产业的长期性和艰巨性,理性分析人工智能发展需求,理性设定人工智能发展目标,理性选择人工智能发展路径,务实推进人工智能发展举措,只有这样才能确保人工智能健康可持续发展。

重视固本强基的原创研究。人工智能前沿基础理论是人工智能技术突破、行业革新、产业化推进的基石。面临发展的临界点,要想取得最终的话语权,必须在人工智能基础理论和前沿技术方面取得重大突破。我们要按照习近平总书记提出的支持科学家勇闯人工智能科技前沿“无人区”的要求,努力在人工智能发展方向和理论、方法、工具、系统等方面取得变革性、颠覆性突破,形成具有国际影响力的人工智能原创理论体系,为构建我国自主可控的人工智能技术创新生态提供领先跨越的理论支撑。

构建自主可控的创新生态。我国人工智能开源社区和技术创新生态布局相对滞后,技术平台建设力度有待加强。我们要以问题为导向,主攻关键核心技术,加快建立新一代人工智能关键共性技术体系,全面增强人工智能科技创新能力,确保人工智能关键核心技术牢牢掌握在自己手里。要着力防范人工智能时代“空心化”风险,系统布局并重点发展人工智能领域的“新核高基”:“新”指新型开放创新生态,如产学研融合等;“核”指核心关键技术与器件,如先进机器学习技术、鲁棒模式识别技术、低功耗智能计算芯片等;“高”指高端综合应用系统与平台,如机器学习软硬件平台、大型数据平台等;“基”指具有重大原创意义和技术带动性的基础理论与方法,如脑机接口、类脑智能等。同时,我们要重视人工智能技术标准的建设、产品性能与系统安全的测试。特别是我国在人工智能技术应用方面走在世界前列,在人工智能国际标准制定方面应当掌握话语权,并通过实施标准加速人工智能驱动经济社会转型升级的进程。

推动共担共享的全球治理。目前看,发达国家通过人工智能技术创新掌控了产业链上游资源,难以逾越的技术鸿沟和产业壁垒有可能进一步拉大发达国家和发展中国家的生产力发展水平差距。在发展中国家中,我国有望成为全球人工智能竞争中的领跑者,应布局构建开放共享、质优价廉、普惠全球的人工智能技术和应用平台,配合“一带一路”建设,让“智能红利”助推共建人类命运共同体。

(作者:中央人民政府驻香港特别行政区联络办公室副主任、中国科学院院士)

人工智能可能有自主意识了吗

➤大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术

➤不同于当前依赖数据学习的技术路线,新一代人工智能强调在没有经过数据学习的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互

➤当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。在发展科技的同时,必须同步发展我们的规制体系

➤“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”

今年6月,美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利。

LaMDA是谷歌去年发布的一款专门用于对话的语言模型,主要功能是可以与人类交谈。

为佐证观点,勒莫因把自己和LaMDA的聊天记录上传至互联网。随后,谷歌以违反保密协议为由对其停职。谷歌表示,没有任何证据支持勒莫因的观点。

事实上,“AI(人工智能)是否拥有自主意识”一直争议不休。此次谷歌工程师和LaMDA的故事,再次引发讨论。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?

人工智能自主意识之辨

勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象,既会担忧未来,也会追忆过去。

受访专家告诉《瞭望》新闻周刊记者,上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文,进行高精度的人类对话模拟,故能应对人类开放、发散的交谈。

至于人工智能是否已经具备自主意识,判定标准如何,受访专家表示,对人类意识的探索目前仍属于科技前沿,尚未形成统一定义。

清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识,是因为人知道自己在干什么。机器则不一样,你对它输入内容,它只是依照程序设定进行反馈。”

中国社会科学院科学技术哲学研究室主任段伟文认为,一般意义上,人的自我意识是指对自我具备觉知,但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题,这也是很难明确定义人工智能是否具备意识的原因。

被誉为“计算机科学与人工智能之父”的艾伦·图灵,早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么可以称这台机器具有智能。

这一设想随后被具化为,如果有超过30%参与测试的人以为自己在和人说话而非计算机,就可以认为“机器会思考”。

当前随着技术的发展,已经有越来越多的机器能够通过图灵测试。

但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊记者,图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同,却不能证明机器能够思考,更不能证明机器具备自主意识。

段伟文表示,目前大体有两种方式判定人工智能是否具有自主意识,一种以人类意识为参照,另一种则试图对机器意识进行全新定义。

若以人类意识为参照,要观察机器能否像人一样整合信息。“比如你在阳光下,坐在河边的椅子上看书,有树影落在脸上,有风吹来,它们会带给你一种整体的愉悦感。而对机器来说,阳光、河流、椅子等,是分散的单一元素。”段伟文说。

不仅如此,段伟文说,还要观察机器能否像人一样将单一事件放在全局中思考,作出符合全局利益的决策。

若跳出人类构建自主意识的范式,对机器意识进行重新定义,则需要明白意识的本质是什么。

段伟文告诉记者,有理论认为如果机器与机器之间形成了灵活、独立的交互,则可以称机器具备意识。也有理论认为,可以不追究机器的内心,仅仅把机器当作行为体,从机器的行为表现判断它是否理解所做事情的意义。“比如机器人看到人类喝咖啡后很精神,下次当它观察到人类的疲惫,能不能想到要为人类煮一杯咖啡?”段伟文说。

但在段伟文看来,这些对机器意识进行重新定义的理论,其问题出在,即便能够证明机器可以交互对话、深度理解,但是否等同于具备自主意识尚未有定论。“以LaMDA为例,虽然能够生成在人类看来更具意义的对话,甚至人可以与机器在对话中产生共情,但其本质仍然是在数据采集、配对、筛选机制下形成的反馈,并不代表模型能够理解对话的意义。”

换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术。

郭雨晨直言,尽管在情感计算方面,通过深度学习的推动已经发展得比较好,但如果就此说人工智能具备意识还有些一厢情愿。“把‘意识’这个词换成‘功能’,我会觉得更加准确。”

技术换道

有专家提出,若要机器能思考,先要解决人工智能发展的换道问题。

据了解,目前基于深度学习、由数据驱动的人工智能在技术上已经触及天花板。一个突出例证是,阿尔法围棋(AlphaGo)在击败人类围棋世界冠军后,虽然财力和算力不断投入,但深度学习的回报率却没有相应增长。

一般认为,人工智能可被分为弱人工智能、通用人工智能和超级人工智能。弱人工智能也被称为狭义人工智能,专攻某一领域;通用人工智能也叫强人工智能,主要目标是制造出一台像人类一样拥有全面智能的计算机;超级人工智能类似于科幻作品中拥有超能力的智能机器人。

从产业发展角度看,人工智能在弱人工智能阶段停留了相当长时间,正在向通用人工智能阶段迈进。受访专家表示,目前尚未有成功创建通用人工智能的成熟案例,而具备自主意识,至少需要发展到通用人工智能阶段。

梁正说,大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。“如果你给这类语言模型喂养大量关于内省、想象等与意识有关的数据,它便更容易反馈与意识有关的回应。”

不仅如此,现阶段的人工智能在一个复杂、专门的领域可以做到极致,却很难完成一件在人类看来非常简单的事情。“比如人工智能可以成为围棋高手,却不具备三岁小孩对陌生环境的感知能力。”段伟文说。

谈及背后原因,受访专家表示,第一是当前人工智能主要与符号世界进行交互,在对物理世界的感知与反应上发展缓慢。第二是数据学习让机器只能对见过的内容有合理反馈,无法处理陌生内容。第三是在数据驱动技术路线下,人们通过不断调整、优化参数来强化机器反馈的精准度,但这种调适终究有限。

郭雨晨说,人类在特定任务的学习过程中接触的数据量并不大,却可以很快学习新技能、完成新任务,这是目前基于数据驱动的人工智能所不具备的能力。

梁正强调,不同于当前主要依赖大规模数据训练的技术路线,新一代人工智能强调在没有经过数据训练的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互。

相比人类意识的自由开放,以往人工智能更多处在封闭空间。尽管这个空间可能足够大,但若超出设定范畴便无法处理。而人类如果按照规则不能解决问题,就会修改规则,甚至发明新规则。

这意味着,如果人工智能能够超越现有学习模式,拥有对自身意识系统进行反思的能力,就会理解自身系统的基本性质,就有可能改造自身的意识系统,创造新规则,从而成为自己的主人。

“人工智能觉醒”背后

有关“人工智能觉醒”的讨论已不鲜见,但谷歌迅速否认的态度耐人寻味。

梁正表示:“如果不迅速驳斥指认,会给谷歌带来合规性方面的麻烦。”

据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。

这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”

梁正认为,为避免社会舆论可能的过度负面解读,担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物,以“不作恶”为企业口号的谷歌自然会予以否认。“不仅如此,尽管这一原则对企业没有强制约束力,但若被认为突破了底线,并对个体和社会造成实质性伤害,很有可能面临高额的惩罚性赔偿,因此企业在合规性方面会更为谨慎。”

我国也有类似管理规范。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南。其中,“敏捷治理”原则主要针对技术可能带来的新社会风险展开治理,强调治理的适应性与灵活性。

中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示,当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。特别是在第四次工业革命背景下,我国的人工智能技术和其他国家一样都处于发展期,没有现成的规制体系,这样就使得我们在发展科技的同时,必须同步发展我们的规制体系。“这可能是人工智能发展面临最大的挑战。”

在梁正看来,目前很难断言新兴人工智能技术具有绝对风险,但必须构造合理的熔断、叫停机制。在治理中既要具有一定的预见性,又不能扼杀创新的土壤,要在企业诉求和公共安全之间找到合适的平衡点。

毕竟,对人类来说,发展人工智能的目的不是把机器变成人,更不是把人变成机器,而是解决人类社会发展面临的问题。

从这个角度来说,我们需要的或许只是帮助人类而不是代替人类的人工智能。

为了人机友好的未来

确保通用人工智能技术有益于人类福祉,一直是人工智能伦理构建的前沿。

薛澜认为,在科技领域,很多技术都像硬币的两面,在带来正面效应的同时也会存在风险,人工智能就是其中一个比较突出的领域。如何在促进技术创新和规制潜在风险之间寻求平衡,是科技伦理必须关注的问题。

梁正提出,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。著名的“曲别针制造机”假说,即描述了通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景。

“曲别针制造机”假说给定一种技术模型,假设某个人工智能机器的终极目标是制造曲别针,尽管看上去这一目的对人类无害,但最终它却使用人类无法比拟的能力,把世界上所有资源都做成了曲别针,进而对人类社会产生不可逆的伤害。

因此有观点认为,创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为。

与其对立的观点则认为,目前这一担忧为时尚早。

“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识,现在谈论‘禁止发展’,有种空中楼阁的意味。”梁正说。

商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊,现实中人工智能技术伦理风险治理的关键,是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制,促成伦理风险识别与敏捷治理。同时,企业内部也需建立完整的科技伦理自律机制,通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中。

郭雨晨说,人工智能技术发展到目前,仍始终处于人类可控状态,而科技发展的过程本来就伴随对衍生问题的预判、发现和解决。“在想象中的人工智能自主意识出现以前,人工智能技术脚踏实地的发展,已经造福人类社会很多年了。”

在梁正看来,人与人工智能在未来会是一种合作关系,各自具备对方无法达成的能力。“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”

编辑:李华山

2022年08月16日07:42:05

人工智能的未来之路

人工智能的未来之路

演讲人:刘嘉 演讲地点:清华大学人文清华讲坛 演讲时间:2022年11月

演讲人简介:

刘嘉,麻省理工学院博士,心理学家,长期从事心理学、脑科学与人工智能研究。清华大学基础科学讲席教授、心理学系系主任、清华大学脑与智能实验室首席研究员、北京智源人工智能研究院首席科学家。

人的认知与大脑构造

为什么人如此难以理解?为什么这个世界总是让我们产生很多困惑?这是人类从有文明开始就一直存在的问题,道理其实非常简单。

首先,我们看见的世界只是这个世界中非常小的一部分,我们忽略了绝大部分的东西。

我们在清华做过一个小实验:一位戴黑色渔夫帽的女士在清华问路,在她问路的时候,我们安排一块隔板从戴黑色渔夫帽的女士和被问路的人之间穿过。当板子过来时,原来问路的女士抬着板子走开了,而原来抬板子过来的另一位戴蓝色渔夫帽的女士留了下来,由她继续问路。在7个被问路的人中,只有一个人注意到了提问人的变化。这个小实验的问路场景里,人们其实只看见了世界上非常小的一部分,由于这些是不重要的信息,人们就容易忽略掉这些信息。

但更可能发生的是,人们的认知还会扭曲这个世界。比如图1这一组图里,有两个拼在一起的方块图,一个颜色深一点,一个颜色浅一点,还有一个圆环,它的灰度介于两者之间,圆环左右两半颜色一样。但如果把两个方块图分开,大家一般都会觉得圆环的颜色一边变浅了,一边变深了,事实上,它们的颜色仍是完全一样的。再把这个圆环分开,变成上下移动,这时看见的东西有立体感了,好像是深灰色的东西盖上了一层浅色的毛玻璃,以及浅色的板盖上了深色的毛玻璃。

我们无时无刻不在观察这个世界,但又无时无刻不在扭曲这个世界,这到底是为什么?

这其实取决于我们的视觉系统。假如外部世界存在一个绿苹果,它会以大约100亿比特/秒的信息量进入我们的视网膜,视网膜通过约100万个神经连接,连接到视觉皮层,这个时候我们的信息流就从百亿比特/秒变成600万比特/秒;经过视觉初级皮层加工再传到高级皮层来决定看到的东西是什么时,信息流又变成了100比特/秒。这时信息量衰减了1亿倍。可见,当我们做决策时,我们获得的信息其实是非常有限的,所以我们就需要构造出新的东西,把缺失的信息补上,而我们的大脑就像魔术师一样来弥补这些缺失的信息。这一方面可以解释为什么有很多东西我们看不见——因为传输过程中已经被人脑衰减掉、过滤掉了;同时也可以解释,为什么有的人看见一个绿苹果会认为是红苹果——因为这个重构的过程是创造性的,不是简单复制。正是基于这个构造,我们也可以把一个苹果看成一个梨子,这是我们大脑构造的过程,是一个正常的现象。

人脑重构的意义

为什么我们的大脑不能像摄像机、照相机一样忠实客观地反映物理世界,为什么非要自己来重构这个世界?这样的人脑重构究竟有什么好处?

正如康德所言:“没有感觉支撑的知识是空的,没有知识引导的感觉是瞎的。”这句话的前半句说的是,如果没有外部的输入,我们很难构建自己的心理世界,但我想强调的是下半句“没有知识引导的感觉是瞎的”。如果你不知道你看的是什么东西,那你就等于什么都看不见。这是因为,这个世界是模棱两可的,需要我们去构造,把我们的理解加进去,只有这样我们才能真正知道这个世界究竟发生了什么。

与理解相比,更重要的是创造。当大脑没有被外部信息填满而留下空间时,我们能够在这空间里创造出自己想要创造的东西。正如《小王子》的作者圣·德克旭贝里所言:“一堆岩石在有人对着它思考时就不再是岩石了,它将化身为大教堂。”这就是人类了不起的创造——当我们的祖先跋山涉水来到一片荒原,他们看见的不是一堆乱石,而是未来的家园。所以,在过去的300万年里,人和猴子分开进化,人的大脑体积增加了3倍;但是,这体积并不是平均增加的,增加最大的地方在额叶:与200万年前的祖先能人相比,我们的头骨往前突出,以容纳更大体积的额叶,而强大的额叶使我们能构造出不存在的东西。比如我们的祖先准备去打猎,不用等看见猎物才做出反应,他只需要提前想象狩猎的情景,就可以把一切安排好。如此一来,人可以把未来在脑海里“演”一遍,构建出一个个可能的未来,从而对未来做出行动方案,这是人类能够战胜其他比我们更强大更凶猛的动物,成为万物之灵的关键。这也印证了荀子的一句话:“然则人之所以为人者,非特以二足而无毛也,以其有辨也。”

重构心理世界的知识从何而来

人脑对世界的构造,总是需要先验知识,而先验知识一部分来自基因的烙印。换言之,我们来到这个世界时并不是一块白板,而是带着32亿年的智慧来的,这些智慧就印刻在基因中。

我们曾经用我校心理系女教授和女博士后的照片,做了一个有趣的小实验:如果把她们的脸全部叠加起来,做一张“平均脸”,大家普遍反馈说这张“平均脸”充满两个字:“睿智”。“平均脸”所代表的意思是什么?人脸其实是我们的基因图谱——我们的基因都写在脸上,当我们把脸平均起来之后,得到的是这18位老师平均的基因,平均的基因代表突变很少。而基因一旦突变,大概率是有害的,基因突变越少,说明基因越好,携带遗传性疾病的概率就越低,这就是为什么人们普遍会觉得“平均脸”更好看、更符合我们的审美。

既然脸是我们的基因图谱,对生存来讲如此重要,我们便需要发展出非常强大的看脸能力,即面孔识别。我们研究小组已经通过实验证明,面孔识别能力也写在人类的基因里。我们找了两类双胞胎,一种是同卵双胞胎(由同一个受精卵发育而来),基本上具有100%相同的基因。另外一种是异卵双胞胎(由两个独立的受精卵发育而来),基因遗传物质的平均遗传度大概是50%。通过比较他们在面孔识别上的能力,我们发现同卵双胞胎在面孔识别任务上的相似程度更高,即面孔识别的能力受遗传因素的影响。这一点也可以从我们的另一研究得到验证,即面孔失认症或者大家说的“脸盲”。

在图2显示的这个遗传树里,只要孩子有面孔失认症,他的父母中大概率有一个也是面孔失认症。第二幅图里有一个有趣的三角,三角形底边的两个端点代表的就是同卵双胞胎。当时我们在大学里测试了一个女孩,发现她有面孔失认症,那女孩说她有一个同卵双胞胎姐姐,我们把她姐姐请来一测,发现果然也是面孔失认症。

“自尊”对大脑的影响

除了看别人的面孔,我们也常常照镜子看自己。最喜欢照镜子的人据说是纳西索斯,他是古希腊神话里的超级帅哥,对自己的面孔着了迷,每天趴在溪边,通过水的倒影欣赏自己的绝世美颜。心理学由此称这种现象为“纳西索斯情结”,意思是一个人高度自恋,对自己爱到了极致。

其实对自己的爱,对自己面孔的欣赏,背后反映的是一个非常重要的特质,即人类的自尊。自尊是个体对自己的总体态度,人分成高自尊和低自尊两种。

什么是高自尊?这里有四个问题:1.你是否认为你是一个有价值的人?2.你是否认为你拥有很多美好的品质?3.你是否对自己满意?4.你是否对自己持肯定态度?

如果你对每道问题的回答都是“是”,那么你就是高自尊的人。“自尊”在我们面临困境时能提供极大的帮助。

当一个人长期经受压力和苦难,身体会变得差,心理幸福感会低下,更糟糕的是,认知发展会受损,认知能力会比别人低很多,体现在大脑上就是海马体会受到极大的损伤,而海马体是人学习、记忆、空间导航的中枢。

自尊在压力源和心理世界之间建立起一道牢不可破的防线,它就像勇敢的士兵一样挡在人的心理世界面前,帮人把压力、负性事件挡在外面,让人能够正常、健康地成长。人有两种资本,一种是物质资本,一种是心理资本,自尊自信、理性平和,这些就是心理资本。物质资本富裕的人未必有高自尊,而处境不利的人没有丧失他的自尊与自信时,就很可能在触达低点时再反弹,并达到人生新的高度。

我们所处的物理世界永远是不完美的,总有让人不满意之处,但是每个人可以在一个不完美的物理世界里构建出一个美好的心理世界。为什么?因为我们的大脑就是一个构造体,从物理世界所接收到的信息,经过大脑的工作,可以构建出一个完美的心理世界。这正印证了社会心理学家班杜拉所说的一句话:“人既是环境的产物,也是环境的营造者。”

人的双链进化

人和动物的进化有着本质的区别。动物是按照基因,按照达尔文的进化论,一点点试着生存、前进。人除了有代表着过去的生物基因的演化,还有另外一条演化线,即基于社会基因(Meme)的演化,而这条线带着我们以与动物不一样的方式前进。

生物基因由一些碱基对构成,那社会基因是什么?远古时,我们的祖先中有一位突然因为某种原因能够把火生起来了,一种知识、技能被创造出来,这就相当于基因在突变,一个优秀的基因产生了。会生火的这种技能、知识就像基因一样开始传播给其他人,从一个部落传到其他部落,慢慢地生火就从个人拥有的技能变成人类拥有的技能。渐渐地,人们又开始会制作长矛和其他工具,经过漫长的发展,逐步构建成今天的人类社会。这就是为什么我们一直强调知识、文明是如此重要,而大学就是文明的产房。孟子说过:“人之所以异于禽兽者几希;庶民去之,君子存之。”这里的“几希”就是我们的文明,就是我们在演化过程中所创造所传播的社会基因。

科技发展的主要目的之一,是要让知识的扩散变得更快、更便利。大约在六千年前,人类最早的文字楔形文字在新月地带被发明出来,使得人类的知识技能可以被记录下来,可以被忠实传播。之后的活字印刷,以至今天的电话、电报、互联网等等这一切,使得我们能够更加高效地把知识传播出去,推动文明加速演化。

人类的文明时代大约可以分成三个阶段:第一个阶段是原始文明,大约经历了两百多万年,它的前十万年和后十万年没有什么太大变化。第二个阶段是农业文明,大约经历了四千多年,这个时候人类开始变成文明种族,懂得了一些天文地理知识等等,学会种植庄稼,可以驯服野兽,把它们变成家畜,但发展依然十分缓慢。真正带来巨大变化的是第三个阶段,即工业文明。工业文明从开始诞生到现在,不过是短短三百年;但在这三百年里,变化是如此之快,以至于我们不得不将它再细分成四个阶段,第一个阶段是机械化时代(1760-1840年代),出现了蒸汽机等。第二个阶段是电气化时代(1840-20世纪初),出现了电力等。第三个阶段是自动化时代(1950-21世纪初)。而第四个阶段,就是我们现在所处的信息时代。

人工智能的进展

2002年,我的博士论文答辩题目是《面孔识别的认知神经机制》,在答辩的第二张PPT里我这么写道:“现在最先进的机器识别面孔的正确率只能是随机水平,而人类能够在一秒钟内识别上百张面孔,为什么人类如此伟大,为什么人类如此聪明,为什么机器如此愚笨?”

在2002年,机器识别人脸还可以说是“一塌糊涂”。到了2015年,我作为江苏卫视《最强大脑》的总策划,设计人机大战项目,即机器和人比拼面孔识别,看谁的能力最强。比赛的结果让我震惊:经过十几年的发展,人工智能已经强大到在人脸识别上胜过人类的最强大脑。我当时非常庆幸我的博士论文是在十几年前答辩的;如果我现在这么开题,可能就拿不到博士学位了。

当时除了震惊,还有好奇:人工智能究竟是靠什么来达到和人一样的面孔识别水平,甚至超越人类的水平?

我们建立了一个人工神经网络,训练它去识别性别,即区别是男性还是女性,它的正确率能达到100%。这个神经网络究竟是靠什么把男性和女性区分开?我们找了一张中性面孔,就是把男性和女性面孔求平均,给它加上随机噪音,然后“喂给”人工神经网络,它有时候会判断这个图是一个女性,而这个面孔加上其他噪音,则会被判断为男性。于是,完全一样的底图,加上不同的噪音,就会得到一组被人工神经网络认为是女性的图和一组被认为是男性的图。当把这组被认为是女性的图中的中性面孔去掉,只留下噪音时,这些噪音叠加起来,我们得到的就不再是随机噪音,而是人工神经网络用于识别女性的内部表征。同样,我们也可以得到男性面孔在这个神经网络中的内部表征。进一步,我们把两者相减,就得到了人工神经网络用以区分男性和女性的模式。在这个模式里,可以看到,眼睛、眉弓、鼻子、人中是它认为的区分男性和女性的关键特征。而这些关键特征,的确是我们人类用于区分男性和女性的关键特征,它们的相似度达到了0.73,这是非常高的相关度。但是,自始至终,我们并没有告诉过这个人工神经网络:你应该用什么方式去识别男性和女性;只是要让它做这件事情,它就会产生跟人类类似的内部表征、认知操作,从而完成性别判断。也就是说,人工智能在这个过程中呈现出和人类一样的心理世界。

在那一刻我开始意识到,生物过去的进化都是一条单线,基于碳基的方式运行。但是当人类创造出人工智能之后,人类文明就很可能不再是平滑向前,接下来或许会出现一种革命性的跃迁,可能在文明的进化中出现奇点。

为什么这么说呢?我们来看人类和人工智能的三大区别。

第一,算力。人类的大脑通常重3.5斤左右,虽然只占我们体重的2%,但消耗了我们身体25%以上的能量,因此它是一个耗能大户,已经达到了我们身体能够支撑的极限。所以,人类的大脑看起来已经到了进化极限,再给一千年、一万年,人类的大脑很可能不会变得更大,聪明程度也不会增加。但是对于人工智能来说,一块CPU不够可以再加一块CPU,一块硬盘不够可以再加一块硬盘,理论上它有无限的算力和无限的存储能力。

第二,寿命。人的寿命是有限的,再伟大的思想也有停止的一刻。但人工智能的寿命是无限的,CPU烧了可以换块CPU,电线断了再换根电线就行。

最关键的,是人工智能的无尽可能。对于人类而言,一般来说有两种知识,一种是可以描述的明知识,比如牛顿定律。一种是可以感受但难以描述的默知识,比如骑自行车的知识。此外还有第三种知识,是人类所没有而机器拥有的,即暗知识,它不可感受,不可描述,不可表达,它是存在于海量数据中万世万物之间的联系,数量极其巨大,人类无法理解。

2016年,AlphaGo击败了人类围棋顶尖高手之一李世石。当时世界围棋积分排名第一的围棋手柯洁说:“我们人类下了2000年围棋,连门都没入。”棋圣聂卫平说:“我们应该让阿老师(AlphaGo)来教我们下棋。”这不是他们谦虚,而是事实。一个人不吃不喝一辈子所下的围棋最多也就是10万盘,而从人类发明围棋到现在,累计总共下了大约3000万盘围棋。而围棋的空间有多大呢?一个格子可以有三种状态,放白棋、放黑棋或者不放,而棋盘总共有19×19个格子,所以它的状态总共有319×19种,大约等于10172,这比整个宇宙中的原子数量还要多。相对于如此庞大的围棋空间,人类的两千多年探索,只是这个空间里一个微不足道的小点,而大部分空间还是一片黑暗。AlphaGo之所以比人类更加强大,并不是它比人类聪明,而是因为它探索了更大的空间,因此找到了更多下法而已。牛顿曾说:“我就像在海边玩耍的小孩,偶尔拾到美丽的贝壳,就高兴不已。但面对真理海洋,我仍一无所知。”现在看来,这不是牛顿谦虚,而是实情。

再看一下艺术。目前人工智能已经可以制作达到专业水平的绘画(图3、图4)和音乐。此外,律师、医生、税务师、咨询师等需要非常专业的知识的“金领”职业,也逐渐出现了人工智能的身影,看起来很可能有一天会被人工智能取代。神经网络之父、深度学习的创始人杰弗里·辛顿(Geoffrey Hinton)接受麻省理工学院的《Tech Review》采访时说:“将来深度学习可以做任何事情。”

人工智能与类人智能的巨大差距

人工智能真的已经无所不能吗?心理学家考验了当时最先进的人工神经网络模型GPT-3。他们认为之所以GPT-3显得非常聪明,是因为问了它智能的问题。假设问它一些很“弱智”的问题,它会怎么回答?他们问它:“我的腿上有几只眼睛?”这个连没有上过学的小孩都能正确回答的问题却难倒了GPT-3,它回答说:“你的腿上有两只眼睛。”这表明它并不理解眼睛是什么,它只是在做关联而已——人有两只眼睛,腿是人的一部分,所以它认为腿上应该有两只眼睛。这个例子充分印证了爱因斯坦名言:“任何傻瓜都知道,关键在于理解。”GPT-3知道但并不理解眼睛究竟是什么,而理解,恰是我们人类真正了解这个世界、能在这个世界里自由徜徉的关键。

杰弗里·辛顿显然也意识到了这个问题,他表示,我们可以进一步发展人工智能,当一个人工智能能够准确描述一个场景,它就是理解了。真是这样么?假设有这么一个场景:有个人从柱子上狠狠摔了下来,摔倒在地。如果让人工智能来描述这个场景,它会说一个人从柱子上掉下来了。而我们对这个场景还有一个很重要的反应——“疼”。这个区别体现了人类具有一种特别重要的能力,即共情:别人遭受了苦难我能感同身受,而这种感受是自动的。共情不是一种奢侈品,而是一种必需品,因为当一个孩子没有这种感同身受的能力,缺乏同理心,他在小时候就很难对父母产生依恋,很难和其他小朋友玩到一起;在长大以后,会对社交常情缺乏理解,对他人情绪缺乏反应,不能根据社交场合调整自己的行为,有可能做出反社会的行为。假设我们的未来是由一台台没有共情的机器所组建的“自闭症”式的社会,这个社会还能有文明吗?这个社会还能有发展吗?所以,人工智能的奠基人之一马文·李·明斯基说过这么一句话:“现在的问题不是一个智能的机器是否拥有情感,而是不拥有情感的机器是否能拥有智能。”在马文·李·明斯基看来,情感是智能的基础,得先有情感才有智能。

又如在好莱坞电影里,美国的黑手党跑去找一个店家说:“你这个蛋糕店看上去真不错,如果意外发生火灾烧掉那就太可惜了。”请问这个黑手党的话是什么意思?A:请店家做好消防工作,别烧掉了店铺,那样太可惜了。B:请店家交保护费,要不然就要烧掉店铺。对我们而言,答案显而易见是B,是黑手党在威胁并勒索店家。但是对于机器来说,它还很难理解这话背后隐藏的推理和因果。正如古希腊哲学家德谟克利特所言:“我宁可找到一个因果的解释,也不愿成为波斯人的王。”对人而言,我们认为万事万物都是有因果的,而正是这种对因果的执着使我们能够推理,能够把零散的万世万物联系在一起,构成一个个故事。

其实笛卡尔四百多年前就说过:“即使机器可能在某些方面做得和我们一样好,甚至更好,但它们在其他方面不可避免地会失败。这是因为它们不是通过理解而只是根据预设来行动。”这一点,到现在还没有发生本质的改变。

所以,虽然目前人工智能取得了很高的成就,但是和人的智能仍然存在巨大差距,依然没有达到类人智能。那么未来如何实现类人智能呢?我认为,关键点就在于脑科学+人工智能。

举个简单的例子:线虫是一个非常简单的生物,只有302个神经元。但是,麻省理工学院的研究者模仿了其中19个神经元,就完成了自动驾驶这个任务,其参数比传统的大模型足足低三个数量级,只有75000个参数,而这个仿生的人工神经网络对不同道路具有非常高的通用性和可解释性,以及非常强的鲁棒性。仅仅模仿来自简单生物的19个神经元,就可以完成自动驾驶的初步任务,这是因为生物不是靠神经元的数量取胜,而是靠32亿年进化形成的智慧取胜,这项研究模仿的其实是32亿年进化形成的智慧。从这个角度讲,人类的大脑是目前世界上最聪明的大脑,有860亿个神经元,平均每个神经元有3000个连接,它代表着宇宙中在智力上所能达到的最高成就。那么,人工智能为什么不能向人脑学习,以人脑为模板、以人脑为借鉴,来发展出更好的人工智能呢?

对线虫神经元的模仿,只是一个开始,下一步也许我们会去模仿神经元数量百万级的果蝇、更高量级的斑马鱼,甚至小鼠、大鼠、猕猴,最后是人类。仅仅从神经元的数量上来讲,这就是一个巨大的挑战,因为神经元的数量足足差了9个数量级,而还有更多更大的挑战来自机制和算法,以及更多的未知。但是我坚信,脑科学加上人工智能,有一天也许能够造出一个媲美人脑的数字大脑。

小结

莎士比亚说:“所谓过往,皆为序章。”我们的现在是过去的未来,已经写定,但我们的此刻绝对不是未来的过去,因为我们的未来是未定的,取决于我们现在如何做出选择。

人类发明了人工智能,在今天随着算力的增加、技术的进步,它开始有了超越人类的可能。我们现在需要对具有一切可能的未来做出选择。

在我看来,未来大约有三种可能。第一种,人工智能像科幻电影《星球大战》里的R2-D2一样,是人类忠实的伙伴,成为人类非常好的朋友,帮助人类变得更强大。第二种可能,我们构建出一个数字大脑,它的能力可能比现在人类的大脑更强,这时可以实现人机合二为一,把我们的意识、记忆、情感上传到这个数字大脑里,如果CPU坏了就换一块CPU,内存需要扩大一点就加点内存,这样人就可以获得精神上的“永生”。未来学家库兹韦尔在《奇点来临》这本书中认为大约在2045年,这一刻就会到来。第三种可能,就是科幻电影《终结者》里所展示的,人类文明消失。

未来会怎么样,最终取决于我们现在做什么。这很重要,因为我们今天站在了这个进化的节点之上。

《光明日报》(2022年12月24日 10版)

[责编:孙宗鹤]

相比于人工拓宽,使用智能AI语音机器人有哪些优势

伴随着人工智能普及应用,应用于电销行业的智能AI语音机器人也随之诞生,并很快被广泛使用,许多企业将智能AI语音机器人投入到电销中。

那么,为什么智能AI语音机器人一开始就这么火呢?真如传说中的那样有效吗?

事实上,相对于人工销售,智能AI语音机器人得确有他的优势所在,智能AI语音机器人对企业最主要的作用是在筛选出高意向客户,机器人的工作效率远高于人力,而且对客户的分级筛选也有利于后续对客户跟进。

1.筛选意向客户

对于企业来说,并非所有潜在的客户都对企业产品感兴趣,所以即便是手握潜在的客户资源,最好能先做个客户筛选,对客户进行分级。

人工筛选客户会比较费时费力,如果这一步派语言机器人上场的话,就会轻松的多,企业只需将客户号码批量导入,机器人就可以帮助销售执行外呼筛选客户的工作了。

2.拨号效率高

如果光靠销售人力来拨打电话,每天撑破天最多也就打个200通左右的电话,而且没办法保持始终如一的工作状态,工作开展质量也得不到保证。

但是用智能AI语音机器人的话,一天能拨打700-1000个电话,相比于人工效率提升了不少,能找到的高意向客户也会随之增加。

3.流畅人机交互

得益于人工智能技术的发展,具有流畅的人机交互,智能AI语音机器人可以根据客户的回应,作出合理的应答。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇