刑法如何应对人工智能带来的风险挑战
姜涛
人工智能并不真正具有意识,也不具有非难的意义和适用刑罚的能力,因此人工智能本身不是刑罚适用的适格主体。但人工智能带来的诸多风险不容忽视,需要强化人工智能的制造者与使用者的规范意识,从刑法教义学上前瞻性地回答人工智能的制造者与使用者的行为与刑法中相关罪名的关系。
人工智能属于人类社会的第四次工业革命,它的快速发展开启一个以新的技术支撑新的社会结构的人类新时代。但从刑法学角度来说,人工智能带来什么样的风险挑战,刑法如何合理应对人工智能,这都需要法律人进行前瞻性思考。
人工智能进入社会生活带来的两重风险
人工智能,顾名思义,就是能够模仿、延伸、扩展人类思维、活动的技术。面对人工智能在全球的快速发展,2017年7月国务院印发的《新一代人工智能发展规划》指出,“在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。”笔者认为,国务院发布的这一文件对人工智能的定位是准确的,人工智能在给我们带来便利、带来发展的同时,也会带来风险。
一是人工智能技术带来的风险。人工智能目前还未完全成熟,存在许多缺陷。这些缺陷不可避免地会给社会带来一定的风险和严重影响。比如,在光线条件不良的情况下,自动驾驶的汽车可能会因错误识别“减速慢行”标志牌而将人撞死或导致重大财产损失,或者自动驾驶系统故障、没有正确采集数据等原因发生故障而导致驾驶员死亡;无人机进入客机的飞行航线,造成重大安全风险;利用人工智能进行网络性军事攻击;等等。
二是人工智能制造者制造的风险。就企业生产的人工智能产品来说,不仅会使用大量数据,导致公民个人信息等隐私被泄露的风险,可能会被别有用心的人利用实施犯罪,而且可能被利用实施大规模的、极具针对性的高效攻击,构成安全隐患。这样的风险还包括企业违规制造机器人、使用者拒不销毁具有危险的机器人等。如果没有严格的控制,这种风险会辐射到经济、文化、教育等各个领域,带来严重的社会安全问题。
笔者认为,为了适应社会的发展,更好地应对人工智能时代面临的新问题、新挑战,不仅需要回答人工智能有无刑事责任能力问题,而且需要从刑法教义学上对人工智能涉及的犯罪有所解答。
人工智能不具有刑事责任能力
人工智能对刑法的挑战首先在于归责。许多人对人工智能是否具有刑事责任能力展开了讨论,有肯定论与否定论之分。
通过对人工智能发展的梳理不难发现,人工智能虽然“神奇”,但是离不开两个必需的条件:一是人工智能离不开大数据的支持。没有足够的数据作为训练样本,人工智能就无法发现自身算法的漏洞,没有机会对算法函数进行修正,产生错误就在所难免。二是人工智能离不开运算能力的提升和深度学习框架的构建。深度学习框架对于人工智能具有重要意义,它的原理是构建多层人工神经网络,借助神经生理学的知识模拟人类的神经活动,然后输入大数据进行训练、学习,根据训练得到的结果重新设置参数向正确结果拟合,最终实现模拟人脑的功能。大量的计算和固定的框架导致人工智能更擅长处理有规则性的事务,不过一旦规则改变,情况就大不一样。这对人工智能能否作为归责的主体具有重要意义。笔者认为,尽管当前还处于“弱人工智能时代”,人工智能的未来发展图景尚不能确定,但是从目前来看,人工智能仅是一种帮助人类完成那些有规则可循的重复性工作的工具,并不具有真正的意识,也就不应当具备刑事责任能力。
其一,人工智能并不真正具有意识。从研究现状来看,人工智能主要由人类预先设置好处理步骤,再通过大量计算得出不同决策的得分,根据得分的高低选择何种行为。人工智能虽然看似能够像人类一样自主决策,但是这些决策都是在设计者预先设定的算法框架下得到的,所谓的“自主性”也仅仅是不同决策间的选择,人工智能并不具有人的智能所有的通用智能,没有对刑罚的感受力和自由意志。
其二,人工智能不具有非难的意义。刑罚处罚是一种文化现象,人类社会延续至今所形成的生命刑、自由刑等之所以有效,是因为罚与被罚都能够以被感知、传递的方式来呈现,从而对被破坏的社会关系予以恢复,从而改变人们的认知,让犯罪的被害人满足报应情感,让犯罪者产生悔意,让社会民众感受到惩罚的威力、必然性等。如果惩罚不能满足这类情感需要,则处罚是没有意义的。人工智能是一种信息技术革命的产物,自身不能感知到刑事处罚的意义,惩罚机器人不如直接废弃或销毁更有社会意义。更何况,通过刑罚措施不能够消除人工智能带来的风险,也不能实现预防再犯的刑罚目的之期待。
其三,人工智能不具有适用刑罚的能力。刑罚作为一种对他人生命、自由等权益的剥夺,是否适用,必须要考虑被处罚对象的刑罚能力,这是预防犯罪的需要。这种刑罚能力与被处罚人的自由意志有关,目的在于使被处罚人认识到处罚带来的痛苦,以痛改前非,重新做人,从而消除再犯罪的危险。从自由意志角度来看,人工智能的价值性体现在工具上,它的自由意志是拟制的、虚拟的。从刑罚能力的角度来看,人工智能作为一种工具,本身并没有自由或者财产,而是设计者或者使用者的一种财产,无论是自由刑还是财产刑都不能对人工智能造成损害,刑罚真正能够发挥其震慑、惩罚犯罪的功能只有在设计者或者使用者身上才能实现。
人工智能的刑法教义学解答
既然人工智能会带来诸多风险,造成刑法所保护的法益遭受破坏或具有被破坏的危险,而人工智能本身又不是刑罚适用的适格主体,这就需要强化人工智能的制造者与使用者的规范意识,从刑法教义学上前瞻性地回答人工智能的制造者与使用者的行为与刑法中相关罪名的关系。
“企业的保证人义务”与拒不履行信息网络安全管理义务罪。企业应从人工智能技术的训练就开始遵循审慎规则,对可能产生的危险进行识别、处理,履行保证人义务,保证设计出的人工智能技术是安全、无瑕疵的。如何附加保证人义务,可以参考民法上的规则,设计的人工智能技术必须经过大量、充分的实验测试,确保不会对他人的人身或者财产安全造成损害,才可以投放市场,否则认定为未履行保证人义务;对于已经投放市场的人工智能技术,需要跟踪关注安全状况,及时召回具有缺陷的技术产品,并对已经造成的损害进行赔偿。如果不履行保证人义务,可以纳入刑法的规制范围。具体而言,不履行保证人义务致使人工智能扰乱网络秩序、影响网络安全的,可以视为企业作为人工智能服务的提供者,而未履行信息网络安全管理义务,适用刑法第286条规定的拒不履行信息网络安全管理义务罪进行定罪处罚。此外,不履行保证人义务致使他人人身或者财产遭受严重损害的,可以视为未履行危险源的管理义务,从而构成相应犯罪的不作为犯罪。
“企业的监管失灵”与非法经营罪之兜底条款的扩大解释。人工智能是一个风险与利益并存且专业性较强的行业,要从事这一行业,就要对企业的研发能力进行评估、审核,给评级合格的企业发放人工智能技术的经营许可证,禁止评级不合格的企业从事人工智能的研发工作。同时,结合事前和事后审查,建立人工智能的产品许可与监督制度。事先审查,由专业机构根据相关安全标准对人工智能中数据、算法实现的功能以及可能存在的风险进行评估,给评估合格的产品发放生产、销售许可证,保证人工智能设计上的合法性与安全性。事后审查,采取登记制度,记录人工智能技术的设计者、使用者的信息及其主要功能。改变主要算法使得功能产生实质性变化的,需要进行功能变更登记;转让人工智能技术的,需要进行使用者信息变更登记。对违背经营许可制度、产品许可与监督制度的企业,适用刑法第225条第4项非法经营罪之兜底条款定罪处罚,当然,前提是制定相关的司法解释。
“用户的数据”与侵犯公民个人信息罪。用户的数据是公民的个人信息,属于用户自身。人工智能在挖掘分析大数据时,不能忽视对公民个人信息的保护。虽然现行法律对个人信息的界定以及保护已经有了明确规定,如民法总则第111条、网络安全法第41条以及两高发布的《关于办理侵犯公民个人信息刑事案件适用法律若干问题的解释》第1条等,但目前纳入“公民个人信息”保护仅指能够识别特定自然人身份或者反映特定自然人活动情况的各种信息,包括姓名、身份证号码、联系方式、住址、账号密码、行踪轨迹等。笔者认为,对公民个人信息的保护范围应当扩大,如用户行为习惯,公民经常搜索有关金融理财的内容,于是金融理财产品的链接开始频繁出现在浏览的网页上,原因是用户的搜索记录被分析出具有理财的倾向。类似的信息被泄露虽不会对公民人身、财产安全产生威胁,但被过度分析会侵犯公民的隐私空间,使公民生活透明化。对此,应当摆脱公民人身、财产安全的限制,将个人隐私以及其他对公民生活具有重要影响的信息也纳入刑法有关公民的个人信息的保护范围。对未经允许擅自挖掘、利用用户个人信息造成严重后果的行为,可以适用刑法第253条侵犯公民个人信息罪定罪处罚。
“拒不销毁”与以危险方法危害公共安全罪。降低人工智能风险,除了规范人工智能企业的活动之外,还要关注违法使用(主要是个人)人工智能技术的现象。随着人工智能的发展,逐渐大众化是人工智能未来的趋势。当这些人工智能产品被违法使用时,就要将涉嫌违法犯罪的人工智能产品没收然后销毁。拒不销毁的,可以适用刑法第114条以及第115条以危险方法危害公共安全罪定罪处罚。这样解释的理由是:(1)从近年来发生的无人机致使飞机暂停降落、自动驾驶汽车因错误识别道路标志撞死行人等现象来看,人工智能产品具有高风险性,会对不特定多数人的人身、财产安全产生严重影响,这符合以危险方法危害公共安全罪的法益保护范围。(2)以危险方法危害公共安全罪是自然人犯罪,主体只能是自然人。与企业不同,公民个人在违法使用人工智能产品的情况下,可以成为以危险方法危害公共安全罪的主体。
(作者为南京师范大学中国法治现代化研究院教授)
人工智能的历史、现状和未来
2018年2月25日,在平昌冬奥会闭幕式“北京8分钟”表演中,由沈阳新松机器人自动化股份有限公司研发的智能移动机器人与轮滑演员进行表演。新华社记者李钢/摄
2018年5月3日,中国科学院发布国内首款云端人工智能芯片,理论峰值速度达每秒128万亿次定点运算,达到世界先进水平。新华社记者金立旺/摄
2017年10月,在沙特阿拉伯首都利雅得举行的“未来投资倡议”大会上,机器人索菲亚被授予沙特公民身份,她也因此成为全球首个获得公民身份的机器人。图为2018年7月10日,在香港会展中心,机器人索菲亚亮相主舞台。ISAACLAWRENCE/视觉中国
2018年11月22日,在“伟大的变革——庆祝改革开放40周年大型展览”上,第三代国产骨科手术机器人“天玑”正在模拟做手术,它是国际上首个适应症覆盖脊柱全节段和骨盆髋臼手术的骨科机器人,性能指标达到国际领先水平。麦田/视觉中国
如同蒸汽时代的蒸汽机、电气时代的发电机、信息时代的计算机和互联网,人工智能正成为推动人类进入智能时代的决定性力量。全球产业界充分认识到人工智能技术引领新一轮产业变革的重大意义,纷纷转型发展,抢滩布局人工智能创新生态。世界主要发达国家均把发展人工智能作为提升国家竞争力、维护国家安全的重大战略,力图在国际科技竞争中掌握主导权。习近平总书记在十九届中央政治局第九次集体学习时深刻指出,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。错失一个机遇,就有可能错过整整一个时代。新一轮科技革命与产业变革已曙光可见,在这场关乎前途命运的大赛场上,我们必须抢抓机遇、奋起直追、力争超越。
概念与历程
了解人工智能向何处去,首先要知道人工智能从何处来。1956年夏,麦卡锡、明斯基等科学家在美国达特茅斯学院开会研讨“如何用机器模拟人的智能”,首次提出“人工智能(ArtificialIntelligence,简称AI)”这一概念,标志着人工智能学科的诞生。
人工智能是研究开发能够模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的一门新的技术科学,研究目的是促使智能机器会听(语音识别、机器翻译等)、会看(图像识别、文字识别等)、会说(语音合成、人机对话等)、会思考(人机对弈、定理证明等)、会学习(机器学习、知识表示等)、会行动(机器人、自动驾驶汽车等)。
人工智能充满未知的探索道路曲折起伏。如何描述人工智能自1956年以来60余年的发展历程,学术界可谓仁者见仁、智者见智。我们将人工智能的发展历程划分为以下6个阶段:
一是起步发展期:1956年—20世纪60年代初。人工智能概念提出后,相继取得了一批令人瞩目的研究成果,如机器定理证明、跳棋程序等,掀起人工智能发展的第一个高潮。
二是反思发展期:20世纪60年代—70年代初。人工智能发展初期的突破性进展大大提升了人们对人工智能的期望,人们开始尝试更具挑战性的任务,并提出了一些不切实际的研发目标。然而,接二连三的失败和预期目标的落空(例如,无法用机器证明两个连续函数之和还是连续函数、机器翻译闹出笑话等),使人工智能的发展走入低谷。
三是应用发展期:20世纪70年代初—80年代中。20世纪70年代出现的专家系统模拟人类专家的知识和经验解决特定领域的问题,实现了人工智能从理论研究走向实际应用、从一般推理策略探讨转向运用专门知识的重大突破。专家系统在医疗、化学、地质等领域取得成功,推动人工智能走入应用发展的新高潮。
四是低迷发展期:20世纪80年代中—90年代中。随着人工智能的应用规模不断扩大,专家系统存在的应用领域狭窄、缺乏常识性知识、知识获取困难、推理方法单一、缺乏分布式功能、难以与现有数据库兼容等问题逐渐暴露出来。
五是稳步发展期:20世纪90年代中—2010年。由于网络技术特别是互联网技术的发展,加速了人工智能的创新研究,促使人工智能技术进一步走向实用化。1997年国际商业机器公司(简称IBM)深蓝超级计算机战胜了国际象棋世界冠军卡斯帕罗夫,2008年IBM提出“智慧地球”的概念。以上都是这一时期的标志性事件。
六是蓬勃发展期:2011年至今。随着大数据、云计算、互联网、物联网等信息技术的发展,泛在感知数据和图形处理器等计算平台推动以深度神经网络为代表的人工智能技术飞速发展,大幅跨越了科学与应用之间的“技术鸿沟”,诸如图像分类、语音识别、知识问答、人机对弈、无人驾驶等人工智能技术实现了从“不能用、不好用”到“可以用”的技术突破,迎来爆发式增长的新高潮。
现状与影响
对于人工智能的发展现状,社会上存在一些“炒作”。比如说,认为人工智能系统的智能水平即将全面超越人类水平、30年内机器人将统治世界、人类将成为人工智能的奴隶,等等。这些有意无意的“炒作”和错误认识会给人工智能的发展带来不利影响。因此,制定人工智能发展的战略、方针和政策,首先要准确把握人工智能技术和产业发展的现状。
专用人工智能取得重要突破。从可应用性看,人工智能大体可分为专用人工智能和通用人工智能。面向特定任务(比如下围棋)的专用人工智能系统由于任务单一、需求明确、应用边界清晰、领域知识丰富、建模相对简单,形成了人工智能领域的单点突破,在局部智能水平的单项测试中可以超越人类智能。人工智能的近期进展主要集中在专用智能领域。例如,阿尔法狗(AlphaGo)在围棋比赛中战胜人类冠军,人工智能程序在大规模图像识别和人脸识别中达到了超越人类的水平,人工智能系统诊断皮肤癌达到专业医生水平。
通用人工智能尚处于起步阶段。人的大脑是一个通用的智能系统,能举一反三、融会贯通,可处理视觉、听觉、判断、推理、学习、思考、规划、设计等各类问题,可谓“一脑万用”。真正意义上完备的人工智能系统应该是一个通用的智能系统。目前,虽然专用人工智能领域已取得突破性进展,但是通用人工智能领域的研究与应用仍然任重而道远,人工智能总体发展水平仍处于起步阶段。当前的人工智能系统在信息感知、机器学习等“浅层智能”方面进步显著,但是在概念抽象和推理决策等“深层智能”方面的能力还很薄弱。总体上看,目前的人工智能系统可谓有智能没智慧、有智商没情商、会计算不会“算计”、有专才而无通才。因此,人工智能依旧存在明显的局限性,依然还有很多“不能”,与人类智慧还相差甚远。
人工智能创新创业如火如荼。全球产业界充分认识到人工智能技术引领新一轮产业变革的重大意义,纷纷调整发展战略。比如,谷歌在其2017年年度开发者大会上明确提出发展战略从“移动优先”转向“人工智能优先”,微软2017财年年报首次将人工智能作为公司发展愿景。人工智能领域处于创新创业的前沿。麦肯锡公司报告指出,2016年全球人工智能研发投入超300亿美元并处于高速增长阶段;全球知名风投调研机构CBInsights报告显示,2017年全球新成立人工智能创业公司1100家,人工智能领域共获得投资152亿美元,同比增长141%。
创新生态布局成为人工智能产业发展的战略高地。信息技术和产业的发展史,就是新老信息产业巨头抢滩布局信息产业创新生态的更替史。例如,传统信息产业代表企业有微软、英特尔、IBM、甲骨文等,互联网和移动互联网时代信息产业代表企业有谷歌、苹果、脸书、亚马逊、阿里巴巴、腾讯、百度等。人工智能创新生态包括纵向的数据平台、开源算法、计算芯片、基础软件、图形处理器等技术生态系统和横向的智能制造、智能医疗、智能安防、智能零售、智能家居等商业和应用生态系统。目前智能科技时代的信息产业格局还没有形成垄断,因此全球科技产业巨头都在积极推动人工智能技术生态的研发布局,全力抢占人工智能相关产业的制高点。
人工智能的社会影响日益凸显。一方面,人工智能作为新一轮科技革命和产业变革的核心力量,正在推动传统产业升级换代,驱动“无人经济”快速发展,在智能交通、智能家居、智能医疗等民生领域产生积极正面影响。另一方面,个人信息和隐私保护、人工智能创作内容的知识产权、人工智能系统可能存在的歧视和偏见、无人驾驶系统的交通法规、脑机接口和人机共生的科技伦理等问题已经显现出来,需要抓紧提供解决方案。
趋势与展望
经过60多年的发展,人工智能在算法、算力(计算能力)和算料(数据)等“三算”方面取得了重要突破,正处于从“不能用”到“可以用”的技术拐点,但是距离“很好用”还有诸多瓶颈。那么在可以预见的未来,人工智能发展将会出现怎样的趋势与特征呢?
从专用智能向通用智能发展。如何实现从专用人工智能向通用人工智能的跨越式发展,既是下一代人工智能发展的必然趋势,也是研究与应用领域的重大挑战。2016年10月,美国国家科学技术委员会发布《国家人工智能研究与发展战略计划》,提出在美国的人工智能中长期发展策略中要着重研究通用人工智能。阿尔法狗系统开发团队创始人戴密斯·哈萨比斯提出朝着“创造解决世界上一切问题的通用人工智能”这一目标前进。微软在2017年成立了通用人工智能实验室,众多感知、学习、推理、自然语言理解等方面的科学家参与其中。
从人工智能向人机混合智能发展。借鉴脑科学和认知科学的研究成果是人工智能的一个重要研究方向。人机混合智能旨在将人的作用或认知模型引入到人工智能系统中,提升人工智能系统的性能,使人工智能成为人类智能的自然延伸和拓展,通过人机协同更加高效地解决复杂问题。在我国新一代人工智能规划和美国脑计划中,人机混合智能都是重要的研发方向。
从“人工+智能”向自主智能系统发展。当前人工智能领域的大量研究集中在深度学习,但是深度学习的局限是需要大量人工干预,比如人工设计深度神经网络模型、人工设定应用场景、人工采集和标注大量训练数据、用户需要人工适配智能系统等,非常费时费力。因此,科研人员开始关注减少人工干预的自主智能方法,提高机器智能对环境的自主学习能力。例如阿尔法狗系统的后续版本阿尔法元从零开始,通过自我对弈强化学习实现围棋、国际象棋、日本将棋的“通用棋类人工智能”。在人工智能系统的自动化设计方面,2017年谷歌提出的自动化学习系统(AutoML)试图通过自动创建机器学习系统降低人员成本。
人工智能将加速与其他学科领域交叉渗透。人工智能本身是一门综合性的前沿学科和高度交叉的复合型学科,研究范畴广泛而又异常复杂,其发展需要与计算机科学、数学、认知科学、神经科学和社会科学等学科深度融合。随着超分辨率光学成像、光遗传学调控、透明脑、体细胞克隆等技术的突破,脑与认知科学的发展开启了新时代,能够大规模、更精细解析智力的神经环路基础和机制,人工智能将进入生物启发的智能阶段,依赖于生物学、脑科学、生命科学和心理学等学科的发现,将机理变为可计算的模型,同时人工智能也会促进脑科学、认知科学、生命科学甚至化学、物理、天文学等传统科学的发展。
人工智能产业将蓬勃发展。随着人工智能技术的进一步成熟以及政府和产业界投入的日益增长,人工智能应用的云端化将不断加速,全球人工智能产业规模在未来10年将进入高速增长期。例如,2016年9月,咨询公司埃森哲发布报告指出,人工智能技术的应用将为经济发展注入新动力,可在现有基础上将劳动生产率提高40%;到2035年,美、日、英、德、法等12个发达国家的年均经济增长率可以翻一番。2018年麦肯锡公司的研究报告预测,到2030年,约70%的公司将采用至少一种形式的人工智能,人工智能新增经济规模将达到13万亿美元。
人工智能将推动人类进入普惠型智能社会。“人工智能+X”的创新模式将随着技术和产业的发展日趋成熟,对生产力和产业结构产生革命性影响,并推动人类进入普惠型智能社会。2017年国际数据公司IDC在《信息流引领人工智能新时代》白皮书中指出,未来5年人工智能将提升各行业运转效率。我国经济社会转型升级对人工智能有重大需求,在消费场景和行业应用的需求牵引下,需要打破人工智能的感知瓶颈、交互瓶颈和决策瓶颈,促进人工智能技术与社会各行各业的融合提升,建设若干标杆性的应用场景创新,实现低成本、高效益、广范围的普惠型智能社会。
人工智能领域的国际竞争将日益激烈。当前,人工智能领域的国际竞赛已经拉开帷幕,并且将日趋白热化。2018年4月,欧盟委员会计划2018—2020年在人工智能领域投资240亿美元;法国总统在2018年5月宣布《法国人工智能战略》,目的是迎接人工智能发展的新时代,使法国成为人工智能强国;2018年6月,日本《未来投资战略2018》重点推动物联网建设和人工智能的应用。世界军事强国也已逐步形成以加速发展智能化武器装备为核心的竞争态势,例如美国特朗普政府发布的首份《国防战略》报告即谋求通过人工智能等技术创新保持军事优势,确保美国打赢未来战争;俄罗斯2017年提出军工拥抱“智能化”,让导弹和无人机这样的“传统”兵器威力倍增。
人工智能的社会学将提上议程。为了确保人工智能的健康可持续发展,使其发展成果造福于民,需要从社会学的角度系统全面地研究人工智能对人类社会的影响,制定完善人工智能法律法规,规避可能的风险。2017年9月,联合国犯罪和司法研究所(UNICRI)决定在海牙成立第一个联合国人工智能和机器人中心,规范人工智能的发展。美国白宫多次组织人工智能领域法律法规问题的研讨会、咨询会。特斯拉等产业巨头牵头成立OpenAI等机构,旨在“以有利于整个人类的方式促进和发展友好的人工智能”。
态势与思考
当前,我国人工智能发展的总体态势良好。但是我们也要清醒看到,我国人工智能发展存在过热和泡沫化风险,特别在基础研究、技术体系、应用生态、创新人才、法律规范等方面仍然存在不少值得重视的问题。总体而言,我国人工智能发展现状可以用“高度重视,态势喜人,差距不小,前景看好”来概括。
高度重视。党中央、国务院高度重视并大力支持发展人工智能。习近平总书记在党的十九大、2018年两院院士大会、全国网络安全和信息化工作会议、十九届中央政治局第九次集体学习等场合多次强调要加快推进新一代人工智能的发展。2017年7月,国务院发布《新一代人工智能发展规划》,将新一代人工智能放在国家战略层面进行部署,描绘了面向2030年的我国人工智能发展路线图,旨在构筑人工智能先发优势,把握新一轮科技革命战略主动。国家发改委、工信部、科技部、教育部等国家部委和北京、上海、广东、江苏、浙江等地方政府都推出了发展人工智能的鼓励政策。
态势喜人。据清华大学发布的《中国人工智能发展报告2018》统计,我国已成为全球人工智能投融资规模最大的国家,我国人工智能企业在人脸识别、语音识别、安防监控、智能音箱、智能家居等人工智能应用领域处于国际前列。根据2017年爱思唯尔文献数据库统计结果,我国在人工智能领域发表的论文数量已居世界第一。近两年,中国科学院大学、清华大学、北京大学等高校纷纷成立人工智能学院,2015年开始的中国人工智能大会已连续成功召开四届并且规模不断扩大。总体来说,我国人工智能领域的创新创业、教育科研活动非常活跃。
差距不小。目前我国在人工智能前沿理论创新方面总体上尚处于“跟跑”地位,大部分创新偏重于技术应用,在基础研究、原创成果、顶尖人才、技术生态、基础平台、标准规范等方面距离世界领先水平还存在明显差距。在全球人工智能人才700强中,中国虽然入选人数名列第二,但远远低于约占总量一半的美国。2018年市场研究顾问公司CompassIntelligence对全球100多家人工智能计算芯片企业进行了排名,我国没有一家企业进入前十。另外,我国人工智能开源社区和技术生态布局相对滞后,技术平台建设力度有待加强,国际影响力有待提高。我国参与制定人工智能国际标准的积极性和力度不够,国内标准制定和实施也较为滞后。我国对人工智能可能产生的社会影响还缺少深度分析,制定完善人工智能相关法律法规的进程需要加快。
前景看好。我国发展人工智能具有市场规模、应用场景、数据资源、人力资源、智能手机普及、资金投入、国家政策支持等多方面的综合优势,人工智能发展前景看好。全球顶尖管理咨询公司埃森哲于2017年发布的《人工智能:助力中国经济增长》报告显示,到2035年人工智能有望推动中国劳动生产率提高27%。我国发布的《新一代人工智能发展规划》提出,到2030年人工智能核心产业规模超过1万亿元,带动相关产业规模超过10万亿元。在我国未来的发展征程中,“智能红利”将有望弥补人口红利的不足。
当前是我国加强人工智能布局、收获人工智能红利、引领智能时代的重大历史机遇期,如何在人工智能蓬勃发展的浪潮中选择好中国路径、抢抓中国机遇、展现中国智慧等,需要深入思考。
树立理性务实的发展理念。任何事物的发展不可能一直处于高位,有高潮必有低谷,这是客观规律。实现机器在任意现实环境的自主智能和通用智能,仍然需要中长期理论和技术积累,并且人工智能对工业、交通、医疗等传统领域的渗透和融合是个长期过程,很难一蹴而就。因此,发展人工智能要充分考虑到人工智能技术的局限性,充分认识到人工智能重塑传统产业的长期性和艰巨性,理性分析人工智能发展需求,理性设定人工智能发展目标,理性选择人工智能发展路径,务实推进人工智能发展举措,只有这样才能确保人工智能健康可持续发展。
重视固本强基的原创研究。人工智能前沿基础理论是人工智能技术突破、行业革新、产业化推进的基石。面临发展的临界点,要想取得最终的话语权,必须在人工智能基础理论和前沿技术方面取得重大突破。我们要按照习近平总书记提出的支持科学家勇闯人工智能科技前沿“无人区”的要求,努力在人工智能发展方向和理论、方法、工具、系统等方面取得变革性、颠覆性突破,形成具有国际影响力的人工智能原创理论体系,为构建我国自主可控的人工智能技术创新生态提供领先跨越的理论支撑。
构建自主可控的创新生态。我国人工智能开源社区和技术创新生态布局相对滞后,技术平台建设力度有待加强。我们要以问题为导向,主攻关键核心技术,加快建立新一代人工智能关键共性技术体系,全面增强人工智能科技创新能力,确保人工智能关键核心技术牢牢掌握在自己手里。要着力防范人工智能时代“空心化”风险,系统布局并重点发展人工智能领域的“新核高基”:“新”指新型开放创新生态,如产学研融合等;“核”指核心关键技术与器件,如先进机器学习技术、鲁棒模式识别技术、低功耗智能计算芯片等;“高”指高端综合应用系统与平台,如机器学习软硬件平台、大型数据平台等;“基”指具有重大原创意义和技术带动性的基础理论与方法,如脑机接口、类脑智能等。同时,我们要重视人工智能技术标准的建设、产品性能与系统安全的测试。特别是我国在人工智能技术应用方面走在世界前列,在人工智能国际标准制定方面应当掌握话语权,并通过实施标准加速人工智能驱动经济社会转型升级的进程。
推动共担共享的全球治理。目前看,发达国家通过人工智能技术创新掌控了产业链上游资源,难以逾越的技术鸿沟和产业壁垒有可能进一步拉大发达国家和发展中国家的生产力发展水平差距。在发展中国家中,我国有望成为全球人工智能竞争中的领跑者,应布局构建开放共享、质优价廉、普惠全球的人工智能技术和应用平台,配合“一带一路”建设,让“智能红利”助推共建人类命运共同体。
作者:中央人民政府驻香港特别行政区联络办公室副主任、中国科学院院士
正视人工智能的“不能”
正视人工智能的“不能”来源:《中国科学报》3-26马兆远
只有知道了人工智能的“不能”,对人工智能的了解才算全面。科学不是静止的结论,它的结论是演进变化的;科学工作者也不是秉持真理的圣徒,他们只是秉持着对宇宙和人的好奇心而探索的人类中的一分子。
知其不能而能,“学问之道无他,求其放心而已矣”。
会存在一个超级人工智能系统吗?人工智能会超越人吗?在《人工智能之不能》中我分享了我的答案和思考。
1936年,图灵在论文《论可计算函数和在可判定问题中的应用》中写道:“按照我在本文中的设定,一个函数如果是机器可计算的,就是可计算函数……本文得出跟哥德尔的不完备定理极其一致的结论,尤其是,希尔伯特的可判定性问题是不可解问题。”
图灵所指的“机器”就是我们后来说的图灵机,图灵这篇著名的论文是对哥德尔不完备定理的诠释,他在文中指出了哪些问题是图灵机做不了的,以此来拓展哥德尔的不完备定理证明。今天的人工智能设备,无非是这样那样的图灵机,没有例外。
回溯历史,竟然是人类先发现了图灵机做不了的事,而后才发明了它。但图灵机是如此的强大和成功,那些“它做不了的事情”很快就被湮没在故纸堆里。
我觉得我应该写一些文字,向被遗忘的哥德尔等人类历史上的伟大思考者致敬。和前一本我写作的《量子大唠嗑》一样,我想以此做一些科学启蒙的工作。而当我们能够回溯科学的常识、回溯认知的常识时,会发现可以有更加平和的理解世界的态度。
近现代科学从牛顿开始,凡三百余年,大概经历了两个重要的阶段。
科学的第一个阶段,虽然以牛顿力学为思想有了很多新的结论和方法,但一定意义上还是旧的神学思想的延伸:存在一个客观实在的主体,无非是这个主体从“上帝”换成了“自然”。至今我们依然不知道这是否一定是对的或者是错的。这一阶段,科学努力地把理性主义贯穿到科学的整体中去。因此要建立稳定的、可模型化的科学体系。
脱离了神的信仰,并没有阻止科学的进步或者人们对真理的信仰,无非是那个绝对真理的主张,可以是上帝,也可以是自然。人们相信有客观的、不由人所左右的规律存在于宇宙中。这一点不难理解,既然上帝不是为人类造了宇宙,那么人也没有理由成为宇宙的中心或者是宇宙中最重要的物种。但人们有种内心的信心,或者说信仰,虽然不是天生的宇宙中心,但可以认识宇宙。
这自然滋生了人类的信心,人定胜天,认识世界是无穷尽的。
如果19世纪末的科学家有这样的信心和勇气,并不值得惊讶。从牛顿之后的两百年已经取得了从自然到社会的重大进展,人们相信不仅自然可以认知,社会也可以,人心也可以。
在这个时候,这些知识也进入了中国,跟中国的传统文化产生了激烈的斗争而慢慢进入普通人的生活。科学也成为一个至高无上的名词,代表了真理、正义。事实上它变成一个形容词,等价于正确和不可侵犯,很多与科学无关的学问,也冠以科学之名并以此为荣。
问题是,一旦标榜自己为真理,事实上就成为它致命的弱点。一个反例就让人们失去对它的信心,也让本来陈旧的东西、本来该进入历史尘灰的东西死灰复燃。20世纪初,当“李约瑟之问”提出时,科学或者被捧杀,或者被扬弃,艰难地在这个文明古国中开启启蒙之路。
但也就在这个时候,科学迎来了第二次革命,进入第二个阶段。这次革命与上一次一样,似乎开始只是在科学界,但这一百年来,它的影响已经渗透出去,弥散到人类的整个认知领域。
然而,由于中国还在纠缠于第一阶段的科学革命和传统文化的争执中,对第二次革命的科学浪潮视而不见,而生生错过了。
但这由不得你的缓慢而停下来等,一场轰轰烈烈的旧科学的革命在20世纪二三十年代又开始了。这场革命以爱因斯坦对量子力学的建立和反对,以哥德尔对经典数学的拥护和反对为起始点。这两个本应该学术观点对立的人成了莫逆之交,他们也从人类旷古烁今中呈现出来,他们俩自high,根本不在乎别人怎么看他们。
事实上,海森堡不确定性原理和哥德尔的不完备定理,都指向人类认知过程中的不确定性。虽然哥德尔本人对此毫不关心,甚至他受爱因斯坦影响,对量子力学没有半点好感。
但只有这一片补上之后,我们才理解了科学为什么是这个样子。首先,科学不代表绝对真理。哥德尔不完备定理证明了任何一个有限的理论体系,都会存在无法被证明的问题,直觉上我们可以认知的问题,未必能够被理性证明或证伪。任何一个可以认为是真的判定,都必然有有限的前提,而这些前提无法证明其本身是正确的。
而可能最让女性读者开心的是,直觉无法从人类的认知中排除出去,甚至是在人类的认知中更重要的部分。这一切结论似乎跟人们从亚里士多德时代努力建立起来的理性主义、客观唯物主义不同,甚至有些离经叛道,但似乎这样的认知才更符合人类认识的真实感觉。
是的,对宇宙的认知到底是怎样的过程、宇宙是怎样的,我们至今没有一个好的结论,甚至这个结论本身就不存在。因为这个结论也是宇宙的一部分。
我们曾经以为哥德尔不完备定理只是描述了一个小问题,但历史的经验告诉我们,一个伟大的理论的大厦,往往倾覆于一两个反例。而以哥德尔为精神领袖的图灵,把这个定理的适用范围放大了。当我们用图灵机来实现人工智能的任何一个算法的时候,并且图灵宣称每一个可描述算法都可以用图灵机来实现的时候,不完备定理如幽灵般扩展到了每一个可描述的问题背后。可以说,图灵机的应用有多广泛,哥德尔不完备所涵盖的范围就有多广泛。这一点,如同哥德尔第二不完备定理所讲,是无穷尽的。
需要指出的是,现在学校教授的课程,还停留在第一代所谓经典科学的范畴之内,即19世纪的科学理论。
这样的理论与人的认知发生冲突的时候,第一是让以科学为新真理代言的人脸上难堪,进而愤怒,认为科学所不能解释的问题更多,而科学本身也不可靠。第二是让本来就没有了解科学基本思想的人重新去抱残守缺,搬出老祖宗,他们觉得还是祖传的可靠。
然而敌人的敌人未必是你的朋友,在20世纪二三十年代,现代科学又一次革命了,对这次革命,我们的中学教育、大学教育都几乎不去碰触、不讲,甚至是不知道。
回到人工智能本身,只有知道了人工智能的“不能”,对人工智能的了解才算全面。正如我们知道了理性的不能,对人类通过理性来认知世界才更全面。这才是更贴近常识的科学,它不是静止的结论,它的结论是演进变化的。科学工作者也不是秉持真理的圣徒,他们只是秉持着对宇宙和人的奥秘的好奇心而探索的人类中的一分子。知其不能而能,“学问之道无他,求其放心而已矣”。
爱因斯坦评价哥德尔说,“与哥德尔交谈,我才知道了数学中有跟物理一样重要的东西”。如果说物理学是人类探索自然世界的第一道边界,数学便是人类理性工具高度浓缩的精华。这两者在20世纪二三十年代的发展,都告诉我们人类对世界认知的极限。这个极限超越了工具,但也鼓励人们不再为工具担忧。
在《人工智能之不能》中谈到了“人识原理”:图灵机保证了所有我们可认识、可描述的问题图灵机都能做到,而我们不能描述的问题,图灵机也做不到,但我们不能描述的问题,我们也不懂啊!因此,从理性逻辑角度讲,我们不比图灵机强多少,但它们也不会比我们强。但我们有直觉,至少这一点是不同的,无法用理性逻辑来取代。
当然,我们讨论的不仅是数学哲学。最近二三十年的物理学和数学进展,同样告诉人们,更多的问题超越了图灵机,量子计算和计算复杂性问题,都超越了这一代图灵机和它延伸出来的人工智能的能力。我们还远远不能够描述人类的直觉来源、感情的产生,好在科学本身只是日拱一卒的努力,不求包罗万象的万能理论,只是“进一寸有一寸的欢喜”地慢慢来,日子久了,定然就有长足的进步了。
《量子大唠嗑》和《人工智能之不能》这两本书写作了五年,这两本书一本从物理出发,一本从数学出发,都在阐述什么是现代的科学认知和科学方法,一定意义上,是胡适那一代人科学启蒙的继续——我们不仅要用科学武装我们的生产力,更要用科学令我们的头脑现代化。
科学不代表静止的真理,它是我们迄今能够了解世界的最好的工具。
(作者系清华大学未来实验室首席研究员)
编辑:李华山
2020年03月27日08:22:01