人工智能的历史、现状和未来
如同蒸汽时代的蒸汽机、电气时代的发电机、信息时代的计算机和互联网,人工智能正成为推动人类进入智能时代的决定性力量。全球产业界充分认识到人工智能技术引领新一轮产业变革的重大意义,纷纷转型发展,抢滩布局人工智能创新生态。世界主要发达国家均把发展人工智能作为提升国家竞争力、维护国家安全的重大战略,力图在国际科技竞争中掌握主导权。习近平总书记在十九届中央政治局第九次集体学习时深刻指出,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。错失一个机遇,就有可能错过整整一个时代。新一轮科技革命与产业变革已曙光可见,在这场关乎前途命运的大赛场上,我们必须抢抓机遇、奋起直追、力争超越。
概念与历程
了解人工智能向何处去,首先要知道人工智能从何处来。1956年夏,麦卡锡、明斯基等科学家在美国达特茅斯学院开会研讨“如何用机器模拟人的智能”,首次提出“人工智能(ArtificialIntelligence,简称AI)”这一概念,标志着人工智能学科的诞生。
人工智能是研究开发能够模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的一门新的技术科学,研究目的是促使智能机器会听(语音识别、机器翻译等)、会看(图像识别、文字识别等)、会说(语音合成、人机对话等)、会思考(人机对弈、定理证明等)、会学习(机器学习、知识表示等)、会行动(机器人、自动驾驶汽车等)。
人工智能充满未知的探索道路曲折起伏。如何描述人工智能自1956年以来60余年的发展历程,学术界可谓仁者见仁、智者见智。我们将人工智能的发展历程划分为以下6个阶段:
一是起步发展期:1956年—20世纪60年代初。人工智能概念提出后,相继取得了一批令人瞩目的研究成果,如机器定理证明、跳棋程序等,掀起人工智能发展的第一个高潮。
二是反思发展期:20世纪60年代—70年代初。人工智能发展初期的突破性进展大大提升了人们对人工智能的期望,人们开始尝试更具挑战性的任务,并提出了一些不切实际的研发目标。然而,接二连三的失败和预期目标的落空(例如,无法用机器证明两个连续函数之和还是连续函数、机器翻译闹出笑话等),使人工智能的发展走入低谷。
三是应用发展期:20世纪70年代初—80年代中。20世纪70年代出现的专家系统模拟人类专家的知识和经验解决特定领域的问题,实现了人工智能从理论研究走向实际应用、从一般推理策略探讨转向运用专门知识的重大突破。专家系统在医疗、化学、地质等领域取得成功,推动人工智能走入应用发展的新高潮。
四是低迷发展期:20世纪80年代中—90年代中。随着人工智能的应用规模不断扩大,专家系统存在的应用领域狭窄、缺乏常识性知识、知识获取困难、推理方法单一、缺乏分布式功能、难以与现有数据库兼容等问题逐渐暴露出来。
五是稳步发展期:20世纪90年代中—2010年。由于网络技术特别是互联网技术的发展,加速了人工智能的创新研究,促使人工智能技术进一步走向实用化。1997年国际商业机器公司(简称IBM)深蓝超级计算机战胜了国际象棋世界冠军卡斯帕罗夫,2008年IBM提出“智慧地球”的概念。以上都是这一时期的标志性事件。
六是蓬勃发展期:2011年至今。随着大数据、云计算、互联网、物联网等信息技术的发展,泛在感知数据和图形处理器等计算平台推动以深度神经网络为代表的人工智能技术飞速发展,大幅跨越了科学与应用之间的“技术鸿沟”,诸如图像分类、语音识别、知识问答、人机对弈、无人驾驶等人工智能技术实现了从“不能用、不好用”到“可以用”的技术突破,迎来爆发式增长的新高潮。
现状与影响
对于人工智能的发展现状,社会上存在一些“炒作”。比如说,认为人工智能系统的智能水平即将全面超越人类水平、30年内机器人将统治世界、人类将成为人工智能的奴隶,等等。这些有意无意的“炒作”和错误认识会给人工智能的发展带来不利影响。因此,制定人工智能发展的战略、方针和政策,首先要准确把握人工智能技术和产业发展的现状。
专用人工智能取得重要突破。从可应用性看,人工智能大体可分为专用人工智能和通用人工智能。面向特定任务(比如下围棋)的专用人工智能系统由于任务单一、需求明确、应用边界清晰、领域知识丰富、建模相对简单,形成了人工智能领域的单点突破,在局部智能水平的单项测试中可以超越人类智能。人工智能的近期进展主要集中在专用智能领域。例如,阿尔法狗(AlphaGo)在围棋比赛中战胜人类冠军,人工智能程序在大规模图像识别和人脸识别中达到了超越人类的水平,人工智能系统诊断皮肤癌达到专业医生水平。
通用人工智能尚处于起步阶段。人的大脑是一个通用的智能系统,能举一反三、融会贯通,可处理视觉、听觉、判断、推理、学习、思考、规划、设计等各类问题,可谓“一脑万用”。真正意义上完备的人工智能系统应该是一个通用的智能系统。目前,虽然专用人工智能领域已取得突破性进展,但是通用人工智能领域的研究与应用仍然任重而道远,人工智能总体发展水平仍处于起步阶段。当前的人工智能系统在信息感知、机器学习等“浅层智能”方面进步显著,但是在概念抽象和推理决策等“深层智能”方面的能力还很薄弱。总体上看,目前的人工智能系统可谓有智能没智慧、有智商没情商、会计算不会“算计”、有专才而无通才。因此,人工智能依旧存在明显的局限性,依然还有很多“不能”,与人类智慧还相差甚远。
人工智能创新创业如火如荼。全球产业界充分认识到人工智能技术引领新一轮产业变革的重大意义,纷纷调整发展战略。比如,谷歌在其2017年年度开发者大会上明确提出发展战略从“移动优先”转向“人工智能优先”,微软2017财年年报首次将人工智能作为公司发展愿景。人工智能领域处于创新创业的前沿。麦肯锡公司报告指出,2016年全球人工智能研发投入超300亿美元并处于高速增长阶段;全球知名风投调研机构CBInsights报告显示,2017年全球新成立人工智能创业公司1100家,人工智能领域共获得投资152亿美元,同比增长141%。
创新生态布局成为人工智能产业发展的战略高地。信息技术和产业的发展史,就是新老信息产业巨头抢滩布局信息产业创新生态的更替史。例如,传统信息产业代表企业有微软、英特尔、IBM、甲骨文等,互联网和移动互联网时代信息产业代表企业有谷歌、苹果、脸书、亚马逊、阿里巴巴、腾讯、百度等。人工智能创新生态包括纵向的数据平台、开源算法、计算芯片、基础软件、图形处理器等技术生态系统和横向的智能制造、智能医疗、智能安防、智能零售、智能家居等商业和应用生态系统。目前智能科技时代的信息产业格局还没有形成垄断,因此全球科技产业巨头都在积极推动人工智能技术生态的研发布局,全力抢占人工智能相关产业的制高点。
人工智能的社会影响日益凸显。一方面,人工智能作为新一轮科技革命和产业变革的核心力量,正在推动传统产业升级换代,驱动“无人经济”快速发展,在智能交通、智能家居、智能医疗等民生领域产生积极正面影响。另一方面,个人信息和隐私保护、人工智能创作内容的知识产权、人工智能系统可能存在的歧视和偏见、无人驾驶系统的交通法规、脑机接口和人机共生的科技伦理等问题已经显现出来,需要抓紧提供解决方案。
趋势与展望
经过60多年的发展,人工智能在算法、算力(计算能力)和算料(数据)等“三算”方面取得了重要突破,正处于从“不能用”到“可以用”的技术拐点,但是距离“很好用”还有诸多瓶颈。那么在可以预见的未来,人工智能发展将会出现怎样的趋势与特征呢?
从专用智能向通用智能发展。如何实现从专用人工智能向通用人工智能的跨越式发展,既是下一代人工智能发展的必然趋势,也是研究与应用领域的重大挑战。2016年10月,美国国家科学技术委员会发布《国家人工智能研究与发展战略计划》,提出在美国的人工智能中长期发展策略中要着重研究通用人工智能。阿尔法狗系统开发团队创始人戴密斯·哈萨比斯提出朝着“创造解决世界上一切问题的通用人工智能”这一目标前进。微软在2017年成立了通用人工智能实验室,众多感知、学习、推理、自然语言理解等方面的科学家参与其中。
从人工智能向人机混合智能发展。借鉴脑科学和认知科学的研究成果是人工智能的一个重要研究方向。人机混合智能旨在将人的作用或认知模型引入到人工智能系统中,提升人工智能系统的性能,使人工智能成为人类智能的自然延伸和拓展,通过人机协同更加高效地解决复杂问题。在我国新一代人工智能规划和美国脑计划中,人机混合智能都是重要的研发方向。
从“人工+智能”向自主智能系统发展。当前人工智能领域的大量研究集中在深度学习,但是深度学习的局限是需要大量人工干预,比如人工设计深度神经网络模型、人工设定应用场景、人工采集和标注大量训练数据、用户需要人工适配智能系统等,非常费时费力。因此,科研人员开始关注减少人工干预的自主智能方法,提高机器智能对环境的自主学习能力。例如阿尔法狗系统的后续版本阿尔法元从零开始,通过自我对弈强化学习实现围棋、国际象棋、日本将棋的“通用棋类人工智能”。在人工智能系统的自动化设计方面,2017年谷歌提出的自动化学习系统(AutoML)试图通过自动创建机器学习系统降低人员成本。
人工智能将加速与其他学科领域交叉渗透。人工智能本身是一门综合性的前沿学科和高度交叉的复合型学科,研究范畴广泛而又异常复杂,其发展需要与计算机科学、数学、认知科学、神经科学和社会科学等学科深度融合。随着超分辨率光学成像、光遗传学调控、透明脑、体细胞克隆等技术的突破,脑与认知科学的发展开启了新时代,能够大规模、更精细解析智力的神经环路基础和机制,人工智能将进入生物启发的智能阶段,依赖于生物学、脑科学、生命科学和心理学等学科的发现,将机理变为可计算的模型,同时人工智能也会促进脑科学、认知科学、生命科学甚至化学、物理、天文学等传统科学的发展。
人工智能产业将蓬勃发展。随着人工智能技术的进一步成熟以及政府和产业界投入的日益增长,人工智能应用的云端化将不断加速,全球人工智能产业规模在未来10年将进入高速增长期。例如,2016年9月,咨询公司埃森哲发布报告指出,人工智能技术的应用将为经济发展注入新动力,可在现有基础上将劳动生产率提高40%;到2035年,美、日、英、德、法等12个发达国家的年均经济增长率可以翻一番。2018年麦肯锡公司的研究报告预测,到2030年,约70%的公司将采用至少一种形式的人工智能,人工智能新增经济规模将达到13万亿美元。
人工智能将推动人类进入普惠型智能社会。“人工智能+X”的创新模式将随着技术和产业的发展日趋成熟,对生产力和产业结构产生革命性影响,并推动人类进入普惠型智能社会。2017年国际数据公司IDC在《信息流引领人工智能新时代》白皮书中指出,未来5年人工智能将提升各行业运转效率。我国经济社会转型升级对人工智能有重大需求,在消费场景和行业应用的需求牵引下,需要打破人工智能的感知瓶颈、交互瓶颈和决策瓶颈,促进人工智能技术与社会各行各业的融合提升,建设若干标杆性的应用场景创新,实现低成本、高效益、广范围的普惠型智能社会。
人工智能领域的国际竞争将日益激烈。当前,人工智能领域的国际竞赛已经拉开帷幕,并且将日趋白热化。2018年4月,欧盟委员会计划2018—2020年在人工智能领域投资240亿美元;法国总统在2018年5月宣布《法国人工智能战略》,目的是迎接人工智能发展的新时代,使法国成为人工智能强国;2018年6月,日本《未来投资战略2018》重点推动物联网建设和人工智能的应用。世界军事强国也已逐步形成以加速发展智能化武器装备为核心的竞争态势,例如美国特朗普政府发布的首份《国防战略》报告即谋求通过人工智能等技术创新保持军事优势,确保美国打赢未来战争;俄罗斯2017年提出军工拥抱“智能化”,让导弹和无人机这样的“传统”兵器威力倍增。
人工智能的社会学将提上议程。为了确保人工智能的健康可持续发展,使其发展成果造福于民,需要从社会学的角度系统全面地研究人工智能对人类社会的影响,制定完善人工智能法律法规,规避可能的风险。2017年9月,联合国犯罪和司法研究所(UNICRI)决定在海牙成立第一个联合国人工智能和机器人中心,规范人工智能的发展。美国白宫多次组织人工智能领域法律法规问题的研讨会、咨询会。特斯拉等产业巨头牵头成立OpenAI等机构,旨在“以有利于整个人类的方式促进和发展友好的人工智能”。
态势与思考
当前,我国人工智能发展的总体态势良好。但是我们也要清醒看到,我国人工智能发展存在过热和泡沫化风险,特别在基础研究、技术体系、应用生态、创新人才、法律规范等方面仍然存在不少值得重视的问题。总体而言,我国人工智能发展现状可以用“高度重视,态势喜人,差距不小,前景看好”来概括。
高度重视。党中央、国务院高度重视并大力支持发展人工智能。习近平总书记在党的十九大、2018年两院院士大会、全国网络安全和信息化工作会议、十九届中央政治局第九次集体学习等场合多次强调要加快推进新一代人工智能的发展。2017年7月,国务院发布《新一代人工智能发展规划》,将新一代人工智能放在国家战略层面进行部署,描绘了面向2030年的我国人工智能发展路线图,旨在构筑人工智能先发优势,把握新一轮科技革命战略主动。国家发改委、工信部、科技部、教育部等国家部委和北京、上海、广东、江苏、浙江等地方政府都推出了发展人工智能的鼓励政策。
态势喜人。据清华大学发布的《中国人工智能发展报告2018》统计,我国已成为全球人工智能投融资规模最大的国家,我国人工智能企业在人脸识别、语音识别、安防监控、智能音箱、智能家居等人工智能应用领域处于国际前列。根据2017年爱思唯尔文献数据库统计结果,我国在人工智能领域发表的论文数量已居世界第一。近两年,中国科学院大学、清华大学、北京大学等高校纷纷成立人工智能学院,2015年开始的中国人工智能大会已连续成功召开四届并且规模不断扩大。总体来说,我国人工智能领域的创新创业、教育科研活动非常活跃。
差距不小。目前我国在人工智能前沿理论创新方面总体上尚处于“跟跑”地位,大部分创新偏重于技术应用,在基础研究、原创成果、顶尖人才、技术生态、基础平台、标准规范等方面距离世界领先水平还存在明显差距。在全球人工智能人才700强中,中国虽然入选人数名列第二,但远远低于约占总量一半的美国。2018年市场研究顾问公司CompassIntelligence对全球100多家人工智能计算芯片企业进行了排名,我国没有一家企业进入前十。另外,我国人工智能开源社区和技术生态布局相对滞后,技术平台建设力度有待加强,国际影响力有待提高。我国参与制定人工智能国际标准的积极性和力度不够,国内标准制定和实施也较为滞后。我国对人工智能可能产生的社会影响还缺少深度分析,制定完善人工智能相关法律法规的进程需要加快。
前景看好。我国发展人工智能具有市场规模、应用场景、数据资源、人力资源、智能手机普及、资金投入、国家政策支持等多方面的综合优势,人工智能发展前景看好。全球顶尖管理咨询公司埃森哲于2017年发布的《人工智能:助力中国经济增长》报告显示,到2035年人工智能有望推动中国劳动生产率提高27%。我国发布的《新一代人工智能发展规划》提出,到2030年人工智能核心产业规模超过1万亿元,带动相关产业规模超过10万亿元。在我国未来的发展征程中,“智能红利”将有望弥补人口红利的不足。
当前是我国加强人工智能布局、收获人工智能红利、引领智能时代的重大历史机遇期,如何在人工智能蓬勃发展的浪潮中选择好中国路径、抢抓中国机遇、展现中国智慧等,需要深入思考。
树立理性务实的发展理念。任何事物的发展不可能一直处于高位,有高潮必有低谷,这是客观规律。实现机器在任意现实环境的自主智能和通用智能,仍然需要中长期理论和技术积累,并且人工智能对工业、交通、医疗等传统领域的渗透和融合是个长期过程,很难一蹴而就。因此,发展人工智能要充分考虑到人工智能技术的局限性,充分认识到人工智能重塑传统产业的长期性和艰巨性,理性分析人工智能发展需求,理性设定人工智能发展目标,理性选择人工智能发展路径,务实推进人工智能发展举措,只有这样才能确保人工智能健康可持续发展。
重视固本强基的原创研究。人工智能前沿基础理论是人工智能技术突破、行业革新、产业化推进的基石。面临发展的临界点,要想取得最终的话语权,必须在人工智能基础理论和前沿技术方面取得重大突破。我们要按照习近平总书记提出的支持科学家勇闯人工智能科技前沿“无人区”的要求,努力在人工智能发展方向和理论、方法、工具、系统等方面取得变革性、颠覆性突破,形成具有国际影响力的人工智能原创理论体系,为构建我国自主可控的人工智能技术创新生态提供领先跨越的理论支撑。
构建自主可控的创新生态。我国人工智能开源社区和技术创新生态布局相对滞后,技术平台建设力度有待加强。我们要以问题为导向,主攻关键核心技术,加快建立新一代人工智能关键共性技术体系,全面增强人工智能科技创新能力,确保人工智能关键核心技术牢牢掌握在自己手里。要着力防范人工智能时代“空心化”风险,系统布局并重点发展人工智能领域的“新核高基”:“新”指新型开放创新生态,如产学研融合等;“核”指核心关键技术与器件,如先进机器学习技术、鲁棒模式识别技术、低功耗智能计算芯片等;“高”指高端综合应用系统与平台,如机器学习软硬件平台、大型数据平台等;“基”指具有重大原创意义和技术带动性的基础理论与方法,如脑机接口、类脑智能等。同时,我们要重视人工智能技术标准的建设、产品性能与系统安全的测试。特别是我国在人工智能技术应用方面走在世界前列,在人工智能国际标准制定方面应当掌握话语权,并通过实施标准加速人工智能驱动经济社会转型升级的进程。
推动共担共享的全球治理。目前看,发达国家通过人工智能技术创新掌控了产业链上游资源,难以逾越的技术鸿沟和产业壁垒有可能进一步拉大发达国家和发展中国家的生产力发展水平差距。在发展中国家中,我国有望成为全球人工智能竞争中的领跑者,应布局构建开放共享、质优价廉、普惠全球的人工智能技术和应用平台,配合“一带一路”建设,让“智能红利”助推共建人类命运共同体。
(作者:中央人民政府驻香港特别行政区联络办公室副主任、中国科学院院士)
过去70年人工智能领域最苦涩的教训
本文来自微信公众号:周喆吾(ID:maxzhou-blog),作者:Richard Sutton,头图来自:《人工智能》
原文是RichardSutton2019年写的,从今天回看,一篇雄文AttentionIsAllYouNeed碾压了多少NLP研究员的光荣与梦想……这个教训,太深重!
TheBitterLesson过去70年人工智能研究领域最重要的一堂课,是只有通用计算方法(蛮力计算brute-force)最终是最有效的,而且优势很大——因为摩尔定律,每单位计算成本持续呈指数下降。大多数人工智能研究都是假设Agent可用的计算量是恒定的(在这种情况下,利用人类知识将是提高性能的唯一方法之一),但是,在稍长的时间里看,可用的计算量必然会大大增加。为了在短期内获得改善,研究人员试图启用本领域内的现存人类知识,但长远来看,唯一重要的是利用算力。基于人类知识的方法往往很复杂,不太适合利用好通用算力。有许多人工智能研究人员迟迟未能学习这个苦涩的教训的例子,回顾这些年的一些最突出的例子是很有启发性的:
在电脑国际象棋中,1997年击败世界冠军卡斯帕罗夫的方法基于大量的深度搜索。当时,许多计算机国际象棋研究人员对此感到失望,他们一直致力于利用人类对国际象棋特殊结构的理解的方法。当一种更简单的基于搜索的方法,结合特殊的硬件和软件,取得了更大的成功时,这些基于人类知识的国际象棋研究人员没有虚心接受失败。他们反驳道,“粗暴的”搜索可能这次赢了,但这不是一种通用的策略,而且也不是人们玩国际象棋的方式。这些研究人员希望基于人类的行棋思路获胜,当它没有获胜时他们感到失望。
在电脑围棋中,也出现了类似的研究进展,只是比国际象棋晚了20年。最初的巨大努力是避免用蛮力搜索,而是想办法利用人类知识(一千年的棋谱),或游戏的特殊特征,但是所有这些努力都被证明是无关紧要的。更糟糕的是,一旦有效地进行了大规模搜索,这些努力都是负向的。同样重要的是使用自我对局来学习价值函数。自我游戏学习以及通用学习一般来说,就像搜索一样,它能够吃掉大量的算力。在电脑围棋中,就像在电脑国际象棋中一样,研究人员最初的努力是利用人类的理解(因此不需要太多的搜索),只有在后来才通过拥抱搜索和学习取得更大的成功。
在语音识别方面,20世纪70年代有一场早期的竞赛,由美国国防部高级研究计划局赞助。参赛者包括许多利用人类知识的特殊方法——知识词汇,音素,人类声道等等。另一方面是更统计学的方法,它们做了更多的计算,基于隐马尔可夫模型(HMMs)。再次,统计学方法胜过基于人类知识的方法。这导致自然语言处理领域出现了一个重大变化,几十年来,统计学和计算逐渐主导了这一领域。语音识别中最近深度学习的兴起是这一持续发展的最新一步。深度学习方法甚至更少地依赖于人类知识,使用更多的计算,加上在巨大的训练集上的学习,来产生更好的语音识别系统。正如游戏中一样,研究人员总是试图制造出研究人员认为自己的大脑运作方式的系统——他们试图把这些知识放入他们的系统中——但最终证明是适得其反,是研究人员时间的巨大浪费,当摩尔定律使得大量算力变得可用,并找到了一种将其用于好处的方法。
在计算机视觉/CV领域,也有类似的模式。早期的方法把视觉想象成寻找边缘,或广义柱,或以SIFT特征的形式。但今天这一切都被抛弃了。现代的深度学习神经网络仅使用卷积和某些不变性的概念,并且表现得更好。这是一个重要的教训。
纵观整个AI人工智能领域,我们仍然没有彻底地学习到这个教训,因为我们仍在犯同样的错误。要看到这一点,并有效地抵制它,我们必须理解这些错误的吸引力。我们必须学习苦涩的教训,即把我们认为的思维方式构建到系统中是行不通的。
苦涩的教训是基于历史观察,即:
1)人工智能研究人员经常试图把知识构建到他们的代理中;
2)这在短期内总是有帮助的,并且对研究人员来说是个人满意的;
3)从长远来看,它总会达到一个瓶颈,甚至会阻碍进一步的进展;
4)突破性的进展最终是通过一种相反的方法——基于搜索和学习的大规模堆算力——而获得的。
从苦涩的教训中应该学到的一件事是通用方法的巨大力量,即随着可用算力的增加,这些方法仍然可以继续扩展。似乎可以以这种方式无限扩展的两种方法是搜索和学习。
从苦涩的教训中学到的第二个普遍点是,人类心灵的实际内容是极其复杂的,我们不应该再试图找到简单的方法来思考心灵的内容,比如简单地思考空间,物体,多个代理或对称性。所有这些都是任意的、内在复杂的外部世界的一部分。它们不应该被构建,因为它们的复杂性是无止境的;相反,我们应该构建可以找到和捕获这种任意复杂性的元方法。这些方法的关键是它们可以找到良好的近似值,但算法应该是基于我们的方法(如学习),而不是我们已经学到的知识。我们希望AIAgent能够像我们人类一样去发现,而不是在系统里集成我们已经发现的知识。
本文来自微信公众号:周喆吾(ID:maxzhou-blog),作者:Richard Sutton
本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com如对本稿件有异议或投诉,请联系tougao@huxiu.com人工智能时代权利与责任归属的域外经验与启示
摘要:人工智能应定义为模仿人类智能的机器和程序。人工智能时代权利与责任归属等法律问题的研究,主要围绕人工智能知识产权问题与无人驾驶汽车责任问题展开。在肯定人工智能“作品”应当受知识产权保护的基础上,根据具体情况将其权利归属分配给人工智能设计者和使用者。人工智能造成安全风险之责任分配问题,应当根据人工智能的自动化程度分别适用不同的责任原则。未来权利与责任归属问题上,我国应当正确区分人工智能与低级自动化,并坚持适度积极主义的立场。
关键词:人工智能;权利;责任;归属
当前,人工智能基于应用的普遍性、技术的前沿性以及在伦理、法律等层面的争议性而成为众多学科理论研究与实践应用的热点。其中,关于人工智能的法律问题研究是人工智能研究的重要增长点之一。法律作为一门经世致用的学科,积极回应社会热点自是应有之义。然而泛滥的研究热潮也可能使研究脱离了本质,营造学术的虚假繁荣,并最终导致人工智能法学研究陷入困顿并且步入低潮。有国内学者就一针见血地指出目前国内的人工智能法学研究存在概念附会、伪问题代替真问题、对策论代替教义论的反智化疾患。
研究人工智能法律问题,目前国内存在两种路径:一是以我为主,结合我国人工智能现状进行实证研究的进路;二是借鉴为主,较多注重西方人工智能的立法与司法经验引介的进路。虽然就传统的法教义学而言,由于国内的研究刚刚起步,学习借鉴西方的先进理论对于完善发展我国的法教义学,必然会大有裨益。但是,在网络法律治理特别是人工智能法律风险应对上,中国的经验也是独一无二的,甚至在某些具体问题上已经是引领世界的“中国之治”。因此,我们可以将世界的经验和中国的声音都放在全球一体化的背景下去比较研究和认真审视。对此,我们既需要立足本土进行自我反思,亦应将域外研究当作参照物予以平等审视。基于此,本文试图通过梳理域外关于人工智能本质问题、人工智能“作品”知识产权、人工智能安全责任等问题的研究,为我国人工智能的法学研究提供智识参考和交流互鉴。
一、论域界定:人工智能本质之探索
“当前关于人工智能的讨论,无论是在理论还是在实践领域,都在根本上缺乏对人工智能本质的清晰界定。”可见,在分析人工智能法律风险应对的具体问题之前,有必要对人工智能的内涵和外延问题进行审视。
1.人工智能之“智能”解读
(1)基于语词的考察
考察人工智能(ArtificialIntelligence,AI)的语词含义,主要在于解决人工智能法学研究中可能出现的概念附会问题。
“人工智能”中“智能”(Intelligence)是认识人工智能本质的要点。《英汉计算机技术大辞典》对“Intelligence”在计算机技术中的含义做了两方面的释定。一方面,当“Intelligence”用于计算机硬件、计算机软件、计算机逻辑推理时分别是指“处理信息的能力”“程序监视其环境并采取适当的行动来达到所需状态的能力”“程序模拟人类思维的能力或机器对刺激变化做出正确反应的能力”。另一方面,“Intelligence”在“ArtificialIntelligence”这一词组中,指的是人类在认识和改造客观世界的过程中,由思维过程和脑力劳动所体现的包括感知、思维、行为在内的能力。
从表面上看,《英汉计算机技术大辞典》对“Intelligence”的两种定义似乎是矛盾的。因为一个词语不能在肯定A含义的同时又否定A含义。但如果仔细考察,会发现两种定义并不冲突。原因在于,当“Intelligence”指的是“类人智能”时,其主语是“计算机”。该含义的目的在于描述计算机模仿人类智能活动的现象。这时,计算机所指向的相关智能实质上是人类智能的某种体现。而作为“人类智能”的“Intelligence”由于是在“ArtificialIntelligence”这一词组中进行解释,“Artificial”这一定语使“Intelligence”的解释回归到其原本的含义,即人的智力与能力。简言之,“Intelligence”的两种含义之所以不矛盾,是由于两种含义分别描述了不同的对象。而且通过对“类人智能”与“人类智能”两种含义的考察可以发现,二者共同的内核在于强调“智能”是基于特定环境做出能动反应的能力。基于此,我们所研究的“人工智能”(ArtificialIntelligence)所指的“智能”在语词意义上应当是指包括感知、思维、行动等方面的“人类智能”。
(2)对“智能”的实质认识
域外有学者认为机器本身不同于人类,将机器称为智能只是人们习惯于用认知性术语描述机器的结果,而且这本身就是一个悖论。〔在斯加鲁菲看来,“智能”一词是具有人类专属性的。机器虽然可以完成表面上看似具有智能的活动,但是机器活动本身并不具有目的性,不能感知情感环境的变化。而目的性、情感、理解等则是智能的要素,将机器赋予人的智能会造成很多不必要的认知错误。可见,在斯加鲁菲这里,人工智能中的“智能”是一种“非人智能”。
然而,我们认为,从发展的视角观察,在人类对智能本身仍需进一步探索的情况下,这种观点不免存在缺陷。其一,因机器活动不具有目的性而排斥将“智能”一词用于机器的主张是对“目的”在智能认定中作用的夸大。以刑法为例,在刑法的目的行为论中,“目的性是以人的能力为基础的,该能力是在一定程度上遇见其因果行为的后果,并使用手段有计划地操纵向既定目标前进的过程”。在这里,认定活动是否具有目的性有赖于主体自由意志的有无。如果一个有严重智力缺陷的自然人实施了通常的犯罪行为,该自然人可能因行为时不具有自由意志而不成立犯罪。但是,我们却不会否定此自然人的智能人地位。可见,行为是否以目的为指引并不影响行为主体是否具有智能的判定。而且在刑法理论中,目的行为论本身也因不能评价过失犯而受到诸多批判。因此,目的性等只是智能的充分而非必要要素,仅以这些要素而否定机器的智能性缺乏充足理由。其二,如果将人工智能中的智能视为非人智能,无疑会进一步造成对智能本质认识的混乱。原因在于,如果在人类智能之外提出非人智能的概念,那么在解决人类智能是什么这一问题之外,还要回答什么是“非人智能”,以及“非人智能”与“人类智能”的联系与区别。
实际上,关于人工智能中“智能”的实质内涵,国内学者的认识较为一致,即通常认为“智能”是基于自由意志针对环境变化做出自主性活动的能力。在国内,关于人工智能能否具有法律人格的问题存在肯定派与否定派的争锋。肯定派认为随着科技的发展,人工智能将进入强人工智能阶段。在这一阶段人工智能将获得脱离人类控制自主进行活动的能力。而否定派则认为,就人工智能发展的现状而言,人工智能没有自由意志,其不具备欲望机制。
可见,无论是肯定派还是否定派,他们论争的重点在于人工智能是否具备自由意志这点。我们认为,无论人工智能是否能够真正具有人类智能意义上的自由意志,当前国内学界对“智能”内涵的界定既符合人工智能的语词含义,也符合当前学术讨论的方向。
2.人工智能之范围界定
界定人工智能的范围目的在于剔除不属于人工智能范畴的事物,以廓清人工智能法学研究的对象。而关于人工智能的范围,域外存在着不同的观察角度与结论。
第一种进路可谓人类智力执行论,持此观点的学者认为,所谓的人工智能“应当是那些能够自动执行‘通常需要运用人类智力’工作的技术”。而且人工智能能够通过机器学习(machinelearning)或者规则、逻辑与知识表达(logical,rulesandknowledgerepresentation)这两种自下而上与自上而下的方式实现自动化运行。此外,持该论的学者还指出当下的人工智能实质上并不能称得上真正的智能。原因在于两点:其一,现阶段的人工智能主要依赖工程师编制好的程式以及人工输入的数据信息进行工作,尚未形成独立自主的运行体系;其二,有部分人工智能通过不同于人类思维的工作方式也能够达到同样的结果。而真正的人工智能需要随着技术的发展,达到强人工智能(StrongAI)或通用智能(ArtificialGeneralIntelligence,AGI)阶段。在这一阶段,人工智能将真正具有与人类相似甚至完全相同的识别、分析、判断、决策能力。
第二种进路为形态意义论,持该论的如美国学者马克·莱姆利与布莱恩·凯西,他们认为机器人与人工智能这两个概念在当下具有共通性,它们表现为能够对现实物理世界与虚拟数字世界产生影响的实体或无实体系统。而另有学者认为,通常意义的人工智能应当是指基于计算机的(静止的)的智能。机器人是指在一个可移动平台上的人工智能。二者的区别在于前者仅需要感知与思维能力,而后者在感知、思维能力之外,还要具有行动能力。斯蒂芬·亨德森则通过引述特格马克(Tegmark)关于生命的三阶段论阐释了自己对人工智能的认识。他认为,在生命3.0阶段摆脱形体(硬件)的限制并发展与人类智能水平相同的思维能力与学习能力是人工智能的重要目标。
第三种进路为学科区分论,如美国学者泰勒·威格德森富有洞见地指出,技术、哲学、法律、神学对于人工智能范围的认识各有不同。但是,从简单意义上而言,人工智能至少可以划分为三个基本类别:(1)应用中的人工智能(AppliedAI),包括产品形式的人工智能以及利用人工智能生产的产品;(2)认知科学中的人工智能,这里的人工智能在于解决关于智能本质的问题;(3)基础人工智能(BasicAI),即基于计算机技术实现对人类智能的模拟。
分析以上观点可以发现,学者们对于人工智能存在一个共同的认识,即人工智能的本质在于对人类智能的模拟,并在此基础上完成专属于自然人的相关工作。这种观点是理解人工智能最原始的观点。在人工智能概念提出之后,出现了人工智能的符号主义学派与联结主义学派。然而无论是利用计算机数学逻辑模拟人类思维运行方式的人工智能符号主义学派,还是希望通过对人脑结构的仿真设计来模拟大脑工作原理的人工智能联结主义学派,它们仅存在智能模拟方式的差别,在人工智能是模仿人类智能这一根本点上是高度一致的。这就意味着人工智能的目标不在于创造一种非人智能,也印证了前文对人工智能语词含义的考察结果。
此外,除了对人工智能本质的一致认识之外,以上观点在人工智能的表现形式层面仍然存在分歧。哈利·苏尔登等人仅将人工智能限定为技术、程序等无实体的范畴。大卫·张伯伦等则认为人工智能应当既包括程序又包括机器,而且智能程序驱动的机器人对社会进步具有重大意义。诚然,人工智能设计之初强调算法对人脑思维过程的模拟。但人工智能应用于社会生产,必然要借助有形之机械。而且当下智能机器人、无人驾驶汽车等智能机器已经现实存在。
结合上述关于人工智能之“智能”解读与范围界定,本文主张人工智能中的“智能”是一个动态范畴,它是对基于自由意志针对环境变化做出自主性活动的能力的人类智能的模拟,并在此基础上完成专属于自然人的相关工作,其范围不仅仅包括技术、程序等非实体范畴,而且也应包括智能机器人、无人驾驶汽车等实体应用层面。申言之,人工智能应为模仿人类智能的机器和程序。
二、权利归属:人工智能
“作品”知识产权之回应随着人工智能的技术进步以及应用的渐趋广泛和深入,权利归属必将成为一个崭新的重大课题,而其中人工智能“作品”的权利归属是我们观察人工智能时代权利归属重大问题的最佳视角。人工智能已经开始或多或少地参与到人类智慧成果的创作中来,并由此引发了对现有知识产权制度体系的冲击。其中,人工智能“作品”的权利归属问题的焦点在于人工智能“作品”的知识产权归属。
1.国外人工智能知识产权的立法与司法
在澳大利亚,虽然知识产权可以通过一定的方式进行让渡,但其法律一般将内容创作者视为权利主体。根据澳大利亚现行的知识产权法律,计算机软件根据既定算法规则“创造”的作品,由于不是计算机本身的智力投入,该作品的知识产权应当归属该计算机软件的设计者。如在安可斯公司诉尤考普公司一案中,澳大利亚联邦法院就因计算机程序所产生的“作品”没有体现人类智力投入而否定了其知识产权。
在美国,美国国家版权和新技术委员会(NationalCommissiononNewTechnologicalUsesofCopyrightedWorks,CONTU)在1979年做出的一份报告中指出,人工智能可能会发展到独立创作作品的程度。尽管这些作品与其他受版权法保护的作品类似,但是由于没有人类作者的参与而不会或者不应该享有版权。CONTU的这份报告比较明确地指出了人工智能或者计算机“作品”的知识产权问题,即此类“作品”不具有知识产权。因此也就不产生人工智能“作品”的知识产权归属问题。从这一报告也可以看出,美国的知识产权同样是归属于自然人的。
一般而言,作品的知识产权归作者所有。按照此种逻辑,如果一个主体属于法定的作者范畴,那么该主体就可能拥有作品的知识产权。但是人工智能属于美国法律中的作者范畴吗?美国《宪法》在其第一章的“专利与知识产权”条款中提到了作者与发明者的概念,但并没有对这两个概念进行较为明晰的界定。美国《版权法》将作者定义为享有该法所规定任意特定专有权利的所有者。而这些所谓的特定专有权利包括作品的复制权、作品的演绎权、作品及复制品的发行权、作品的表演权、作品的展览权、作品的数字传播权。从这些特定专有权利的性质而言,人工智能是具有此类权利能力的。由此可见,无论是美国《宪法》还是其《版权法》,实际上并没有严格地将作者限定为自然人。但是,从实践判例来看,美国并没有人工智能具有作者地位的判例。而且根据CONTU的报告,至少在目前,人工智能在美国是难以作为知识产权的权利主体的。
在欧洲,《欧洲专利公约》(ConventionontheGrantofEuropeanPatents)第52条规定了专利权的对象:能够在产业中应用并具有新颖性与创造性的发明。其中,根据《欧洲专利公约》第54条、56条、57条的规定,新颖性是指一项发明不属于现有技术。创造性是指一项发明对于熟悉有关技术的人员不是显而易见的。实用性是指一项发明能够在任何产业中制造或者使用。分析《欧洲专利公约》关于专利权的对象的限定可以发现,新颖性、创造性以及实用性这三个判定要素并不能将人工智能的“发明”排除在专利权保护范围之外。易言之,单从专利权的保护对象这点来说,如果由人工智能设计或制造的产品被认为具有新颖性、创造性和实用性,那么该产品就是具有专利权的发明。但是,《欧洲专利公约》第58条、60条规定了专利权的适格申请人与所有人,从主体角度限定了专利权的范围。根据以上两条规定,有权申请专利的主体是任何自然人或者法人,以及根据其适用的法律相当于法人的任何团体。而专利权的所有人是发明人及其权利继受人。可见,《欧洲专利公约》将专利权的主体限定为自然人和法人(团体),人工智能被排除在专利权主体之外。综合《欧洲专利公约》对专利权的对象和主体的规定,一方面人工智能设计或制造的产品能够被认定为发明,另一方面人工智能不具有专利权的主体地位。因此,人工智能“作品”的专利权不属于人工智能。
但是随着相关立法的推进,人工智能不具有知识产权权利主体地位的情况很可能会发生改变。2016年欧盟法律事务委员会提出了《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》。在该草案中,欧盟法律事务委员会呼吁欧盟对智能机器人进行详细的分级界定,并且根据智能机器人的分级,建立一套相应的机器人登记注册制度。同时,该草案还提出应当承认智能机器人的法律地位,赋予其“电子人”身份,并将“电子人格”应用到机器人做出自主决定或与第三方独立互动的事件中。可见,如果欧洲通过此类立法,赋予人工智能的“电子人”法律地位,那么人工智能将成为著作权、专利权等知识产权的适格主体。人工智能“作品”的知识产权就将归属于人工智能自身。
统观以上域外各个国家与国际组织关于人工智能知识产权的立法与司法,人工智能是否对其所创造的“作品”拥有知识产权,关键在于人工智能的法律人格能否得到确认。目前,在美国、澳大利亚等国家,较为保守的立法坚决否定了人工智能在法律上的主体地位。而在欧洲,一些具有超前色彩的立法提案将很大程度上促进人工智能法律人格的确证,并基于此承认人工智能对“作品”的知识产权。
2.人工智能“作品”知识产权归属的理论争辩
在法学理论领域,关于人工智能“作品”的知识产权归属问题,域外学者存在不同的处理意见。
美国学者帕梅拉·塞缪尔森所持的观点是“使用者权利说”。其首先从人工智能的“作品”能否成为知识产权的保护对象这一问题入手。他认为,从知识产权要求的“原创性”性角度,“原创性”的根本意义不在于要求作品形式的独一无二,而是在于作者在作品创作时进行了对各要素的能动选择。而人工智能在形成报告或者其他成果时,也会对数据进行一定的编排和筛选。因此,人工智能的成果应当属于作品并受到知识产权制度的保护。但是,就知识产权制度设立的意义而言,知识产权保护的目的在于激励创新,而赋予人工智能知识产权并不能就此激起机器的创造热情。因此,将人工智能的“作品”进行知识产权保护是缺乏意义的。据此,可以看出塞缪尔森承认人工智能创作物的“作品”属性,但由于将人工智能作为知识产权主体不具有积极意义,而否定了人工智能的权利主体地位。这种结论与《欧洲专利公约》所得出的结论是一致的。
但是,既然人工智能创造物具有作品的属性,人工智能又不能作为权利主体,那么该“作品”的知识产权应当归属于何者呢?对此,塞缪尔森分别讨论了人工智能的设计者、人工智能的使用者、设计者+使用者、社会共同体等四种享有人工智能“作品”知识产权的情形。
其一,在人工智能的设计者作为权利主体的情况下。将设计者作为权利主体的理由在于设计者在人工智能的设计、制造中投入了较大精力,而且其对人工智能的控制力较强,因此可以以设计者对人工智能“作品”具有较高的参与度为根据将其作为权利主体。而且根据相关人员在创作中的参与度决定权利归属在一些判例中也得到了承认。但是塞缪尔森认为,将设计者作为权利主体并不合适。原因在于,第一,人工智能的设计者能够通过向使用者收取费用的方式获得成本补偿。第二,在某些情况下难以准确认定使用者与设计者在人工智能“作品”创作中的参与度。其二,在人工智能的使用者作为权利主体的情况下。塞缪尔森认为这是一种合理的解决方式。原因在于,第一,CONTU的报告建议将人工智能“作品”的知识产权归于用户。可见使用者作为权利主体存在政策依据。第二,使用者是人工智能“作品”创作最直接的参与者。第三,使用者可以通过利用人工智能创作出超出设计者专业范围的“作品”。其三,在设计者+使用者共同作为权利主体的情况下。塞缪尔森认为此时是以合作作品的角度来看待人工智能“作品”的。但是合作作品必须表现多个作者之间的分工协作与利益共同关系,而这两个要素在人工智能的设计者与使用者之间并不明显。其四,将人工智能“作品”的知识产权归于社会。对于这种情况,塞缪尔森认为将人工智能“作品”的知识产权归于社会,将难以实现知识产权制度激励创新的目的。综合各种情况的利弊,塞缪尔森认为人工智能生成的“作品”的知识产权应当归属于相关人工智能程序的直接使用者。
与塞缪尔森的“使用者权利说”不同,另一位美国学者维克多·派利斯则认为解决人工智能“作品”的最好方式是将该成果用于公众社会。这种观点可视为“公共权利说”。原因在于,第一,如果将知识产权赋予人工智能,那么就必须承认人工智能的相关法律主体地位,但这对现有法律体系无疑是一个巨大的冲击。而其保护人工智能的知识产权并不能实现知识产权制度激励知识创造的目的。第二,如果将知识产权赋予用户、程序员、相关公司等,则可能面临人工智能成果的知识产权保护成本过高以及对人工智能成果的不公平使用问题。
美国学者安玛丽·布瑞狄则持“职务作品权利说”,认为随着人工智能的不断发展,目前社会已经进入到一个数字作者的时代。在关于作品原创性的判断上应当明确所谓原创性实质上是思维的差异体现。而在智能时代,这种思维也应当包括算法。基于此,人工智能通过算法所创作的“作品”应当被纳入知识产权的保护范畴。而关于该“作品”的权利归属,他提出事实作者与法律作者的概念。在布瑞狄看来,人工智能是其“作品”的事实作者,因为人工智能程序直接创作了“作品”。但是由于现行法律没有承认人工智能的法律地位,因此其在法律层面难以获得作者权利。而要解决知识产权归属,可以参照法律对职务作品的规定。在职务作品中,权利一般归属于事实作者所在的法人或团体。而这些法人或团体属于该职务作品的法律作者。因此,对于人工智能“作品”的知识产权而言,权利可以由法院根据具体的事实情况,合理分配给人工智能的程序设计者、使用者或者设计者的雇主。
以上学者的不同观点给人工智能“作品”知识产权问题的解决提供了各具特色的路径。塞缪尔森的“使用者权利说”基于人工智能“作品”的形成原理与美国的政策,指出人工智能“作品”知识产权应当归属于人工智能的使用者。此种分配方式具有一定的合理性,但将知识产权过于机械化地分配给人工智能使用者很可能打击人工智能设计者的创新热情。派利斯的“公共权利说”基于公共福祉和社会成本希望将人工智能“作品”知识产权归于社会。这种思路在打击相关人员的创新热情上较塞缪尔森的观点有过之而无不及。而且因为目前没有专门的人工智能“作品”知识产权维权组织,这种将人工智能“作品”知识产权归于社会的做法也不具有可操作性。而布瑞狄的“职务作品权利说”将人工智能“作品”参照职务作品知识产权制度的做法一方面肯定了人工智能“作品”的属性,另一方面能够充分发动司法的能动性,通过具体问题具体分析,将知识产权合理分配给人工智能的设计者、使用者等主体,在激励社会创新方面能够发挥重要作用。
三、责任归属:人工智能
安全风险之控制晚近以来,人工智能安全风险的责任归属与分配问题的探讨,多集中于无人驾驶汽车领域。自动化汽车的新时代最终将需要一个与全新的汽车事故世界相适应的法律制度。新的制度应该促进安全和提供补偿,比现有的侵权原则,即司机过失责任和制造商产品缺陷的责任更有效地提供赔偿。
法律责任问题是随着人工智能产品在社会生产生活中的实际运用而产生的,这一问题不仅全面挑战现有法律责任体系,而且能否妥当处理也将决定人工智能产品的应用前景。而要设计出合理可行的责任归属机制,在逻辑上应明确自动驾驶汽车在当前以及未来不长时间的现实发展状况,而不能天马行空,单纯以自动驾驶汽车技术在理论上的发展程度为参考考虑责任归属问题。
1.责任归属问题改革时机之考察
根据国际汽车工程师学会的划分标准,自动驾驶汽车的自动化程度可以划分为六个等级。0级,人类驾驶者做任何事情;1级,车辆上的自动系统有时可以帮助人类驾驶员进行部分驾驶任务;2级,车辆上的自动化系统实际上可以执行驾驶任务的某些部分,而人继续监视驾驶环境并执行其余的驾驶任务;3级,自动系统既可以实际执行驾驶任务的某些部分,也可以在某些情况下监测驾驶环境,但当自动系统要求时,人类驾驶员必须准备好收回控制权;4级,自动化系统可以执行驾驶任务并监控驾驶环境,人类无须收回控制,但自动化系统只能在特定环境和特定条件下运行;5级,自动系统可以在所有条件下执行所有驾驶员可以执行的驾驶任务。然而,目前甚至没有3级车可供出售,即使从长期来看,那些具有4级和5级能力的自动驾驶汽车也不会完全取代“传统”汽车。因此学者肯尼斯·亚伯拉罕等认为,对现有侵权责任体系的改革应当在4级或5级的车辆达到25%时进行,否则制造商企业责任(MER)并不能发挥作用。
亚伯拉罕等指出在自动化为3级以及低于3级时,虽然会出现归责困难的状况,但目前的侵权责任、产品责任规定尚可加以解决。在自动化达到3级时,事故基于产品本身可能出现两种截然不同的缺陷:其一,根据其设计,接管警报可能无法正常运行;其二,算法可能失败。第一种情况下,接管功能无法正常工作,将生成制造缺陷的标准索赔,这是一个简单的严格索赔;第二种情况下则可以以诸如“未能提供合理的指示或警告为由”进行索赔。至于其他可能出现的设计缺陷,无非是新的产品责任诉讼,尚未达到颠覆现有归责制度的程度。
但当4级或5级的车辆达到一定比例时,即多数车辆的运行仅保持非常有限的驾驶员控制,或完全消除了驾驶员控制时,依赖疏忽和产品责任将不能公平解决问题。因为此时“未能警告缺陷事由”已不再适用,产品责任无法发挥功效,而如果保留侵权行为将忽视通过消除有争议的合理技术期望问题所能达到的实质性效率。因此,责任归属问题应当在自动化达到一定程度时,即确有必要改革完善时进行,不能提早,否则徒劳无益,亦不能滞后,阻碍责任归属。
2.多层次归责制度之构建
然而,更多的学者认为面对自动化不断实现的趋势,未来的归责制度或者说侵权责任设计可以是多元化、多层次的,以解决不同自动化程度下的侵权行为。美国学者大卫·弗拉德克分析指出,确定自动驾驶汽车事故的责任原则与责任归属,需要分情况探讨。其一,存在人为因素(主要是自动驾驶汽车的设计、制造、使用说明等方面的人为缺陷)时如何适用产品责任?其二,不存在人为因素时如何适用严格责任?
首先,在由人为因素导致的自动驾驶汽车事故中,弗拉德克认为,如果没有充分的证据证明自动驾驶汽车应当负有更高的注意义务,那么将无人驾驶汽车之类的人工智能产品排除在产品责任适用之外便是不合理的。对此,弗拉德克比较了传统汽车侵权与自动驾驶汽车侵权不同的注意义务问题。在传统汽车事故侵权中,驾驶人是承担注意义务的主体,当驾驶人在事故发生前尽到了相关的注意义务并采取了规避措施,即便发生事故,驾驶人也能够因此免责。而在自动驾驶汽车事故侵权中,汽车的智能化极大地降低甚至消除了驾驶人的注意义务,即发生了注意义务从驾驶人到设计、生产者的主体的转移。易言之,在自动驾驶汽车事故侵权中,注意义务不再是个案判断中具体驾驶人的注意义务,而成了一般性的设计、生产者的注意义务。因此,自动驾驶汽车事故的责任判定重点不再是驾驶人的行为,而是机器的性能,即设计、生产者在设计和生产汽车时是否尽到了避免事故发生的注意义务,是否故意或过失地导致了自动驾驶汽车的缺陷。
其次,在无人为因素介入的自动驾驶汽车事故中,根据现有的法律,美国法院大概率会参考事实不证自明原则(resipsaloquitor)判决所确定的规则,即当汽车出现事故而导致事故的原因无法查明时推定生产商具有责任。这对于自动驾驶汽车的生产者而言显然是一种严格责任。弗拉德克认为,在自动驾驶汽车发生事故并造成人员伤亡和财产损失的情况下,构建一种严格责任体系是必要且合理的。而且基于严格责任实施自动驾驶汽车事故的强制补偿机制是应有之义。具体依据包括以下方面。其一,根据分配正义及社会风险分配的理念,对没有过错却受到侵害的人进行补偿是符合正义价值的。其二,相对弱势的受害者,生产者经济实力较强且可以通过提高产品定价等方式分散赔偿压力。其三,基于严格责任的强制赔偿制度可以避免各方承担巨大的诉讼成本。由于技术的复杂性,要在一起自动驾驶汽车侵权事故中准确分配各方责任往往需要漫长的诉讼过程,而这无疑会加重各方尤其是制造者的诉累。因此,从经济角度考虑,直接适用严格责任的强制赔偿制度对各方是有益的。其四,明确的责任分配机制有利于鼓励科技创新。基于严格责任的强制赔偿制度实质上是一种成本分摊的责任解决方法,这既不会导致生产者承担巨额的赔偿费用,也可以通过明确的责任原则消除科技创新的担忧。此外,一辆自动驾驶汽车的生产涉及智能软件设计、零配件生产、整车组装等诸多环节,仅由无人驾驶汽车的生产者承担严格责任略显不公。因此弗拉德克建议构建自动驾驶汽车生产链的集体严格责任,将赔偿费用在软件设计者、零配件生产者、整车组装者等主体之间进行合理分配。
与弗拉德克的观点类似,另一位美国学者马克·格斯菲尔德也主张将自动驾驶汽车的侵权责任划分为普通的产品责任和严格责任两种责任形式。与前者不同的是,格斯菲尔德结合自动驾驶汽车的分级标准区分了产品责任和严格责任,而且对自动驾驶汽车侵权事故中的第三方侵权进行了讨论。
对于装有驾驶辅助系统(DAS)的自动驾驶汽车(这类汽车主要是指尚未达到完全自动驾驶程度的种类)造成的侵权事故,格斯菲尔德认为此时的侵权责任问题与传统车辆的侵权事故的责任承担问题并无二致。原因在于“这些功能(DAS)改善了驾驶人与车辆之间的互动,以便实现车辆更好的操控,但其并没有从根本上改变驾驶人和车辆在运行过程中的角色地位”。因此,对于非完全自动驾驶的车辆造成的侵权责任,仍然适用传统车辆侵权责任的归责。
对于已经实现了全自动驾驶的车辆,由于人车关系发生了颠覆性的改变,相应的事故责任的归责也应当进行调整。格斯菲尔德认为,在全自动驾驶汽车的侵权事故中,由于人类驾驶员在汽车行驶中已经完全脱离汽车的操控,所以难以对其进行追责。这时,对车辆的生产者进行追责便成了可能的选择。而且一些汽车生产商也主动表示愿意承担自家自动驾驶汽车造成事故的侵权责任。但是,当全自动驾驶车辆发生事故时,无条件地追究生产者的责任既不公平,也将给生产者造成巨大负担并最终影响该产业的发展。因此,必须对生产者关于全自动驾驶汽车的侵权责任承担设置条件。对此,格斯菲尔德认为,车辆生产者的责任仅限于可预见的风险导致的侵权事故。当自动驾驶车辆正常行驶却因难以预见的事由(如其他车辆的故意、过失撞击等)导致事故的,生产者则无须承担责任。
对于自动驾驶汽车的第三方侵权问题,格斯菲尔德等学者认为黑客侵入自动驾驶车辆的操控系统,导致车辆发生事故实际上仍属于车辆自动驾驶程序的“产品故障”。因此,仍然可以适用“发生事故-推定故障-承担责任”这样一种严格责任模式。
观察多数域外学者,尤其是英美法系学者关于自动驾驶汽车责任规则的观点可以发现:第一,在非全自动驾驶车辆造成的侵权事故中,驾驶人、生产者承担基于过错的责任;第二,在全自动驾驶车辆造成的侵权事故中,驾驶人一般不承担责任,生产者首先需要承担无过错的严格责任。当生产者承担责任后,根据事故产生的具体原因,生产者具有向第三人追偿的权利。以上两点基本可被视为西方学者在自动驾驶汽车归责问题上形成的主流观点,一些国家近期关于自动驾驶汽车的立法也基本遵循了这一责任原则。例如,德国2017年6月修改后公布的《德国道路交通法》规定,自动驾驶汽车的驾驶人在汽车行驶时需要尽到一定的注意义务,并根据自动驾驶系统的提醒即时接管车辆操控。可见,德国在非全自动驾驶阶段认为驾驶人仍然需要承担责任。
四、未来展望:人工智能时代的
权利与责任归属问题之启示通过对国外人工智能时代下权利与责任归属应对策略的审视,我们认为中国将来还需要在两个方面进一步深入研究。
1.认真区别自动化与人工智能,防止法学研究的反智化
法学学者们对人工智能在观念上的界定给人工智能法学研究确立了对象。但是目前人工智能法学研究面临着一个较为现实的问题,即区分自动化与人工智能的问题。从国内很多研究来看,似乎没有很好区分自动化与人工智能之界限。人工智能与自动化产品应用难以准确区分是造成域内外法学研究中人工智能泛化的重要原因之一。一般认为,自动化在定义上体现的机器的“自主性”与人工智能的特性相契合。这种“自主性”表现为机器某种程度上的无人操作。因此,就出现了生活中对于无人操作的机器,可以将其称为自动化机器,也可以唤作人工智能的现象。此外,从技术基础和学科关系角度而言,自动化与人工智能都体现着控制理论的应用,而且人工智能一般是自动化学科下的分支学科。基于这些原因,自动化与人工智能之间存在着一种主从关系或包含关系,即人工智能从属于自动化,是自动化的高级形态。因此,区分自动化与人工智能实际上是区分人工智能与低级自动化。
其二,低级自动化的“自主性”远低于人工智能的“自主性”。虽然低级自动化依赖程式设置可以实现无人运行,但是相关数据、参数等仍需人工输入。而人工智能基于对人类智能的模仿,可以自动感知、抓取并应用环境信息。例如需要使用者输入密码的取款机是低级自动化,而支持“刷脸”取款的取款机至少可以在“图像识别”这点上称之为人工智能的应用。从此角度而言,有学者指出,“通过ATM机实施侵财犯罪”以及“机器能否被骗”等研究是泛人工智能化的突出表现。刘艳红:《人工智能法学研究的反智化批判》,2019年。我们认为,上述指责似乎不够精确,因为自动取款机的不同类型,决定了其是否是人工智能的归属,而通过“刷脸”取款的取款机实施侵财则是人工智能法律风险必须要面对的重大课题。
2.人工智能法律风险应对保持适度积极主义
国内对上述人工智能时代权利与责任归属的法律问题应对早有关注并不乏深入研究。总结起来,大致有两种立场。第一种是保守主义,认为法律对于人工智能发展应当适当保守,否则会影响人工智能技术的发展第二种立场为积极主义,对于人工智能可能出现的技术风险法律需要积极干预,特别是刑法学界出现了积极干预的观点和呼声。
通过对国外学者观点的审视,我们主张人工智能法律风险之应对应采取适度积极的立场。法律必须面对现实的具体问题,甚至需要有适度的前瞻性。具体而言,首先在人工智能“作品”的知识产权归属上,显然消极不干预肯定是无法接受的。在人工智能快速发展的时代,我国知识产权法律体系面临的挑战与域外国家并无差异。我国也面临着如何解决人工智能“作品”的可知识产权化、人工智能可权利主体化的问题。在世界各国都在探索构建符合人工智能时代的知识产权法律体系时,如果我国的知识产权法律仍裹足不前,那么无疑将在世界知识产权竞争中落于下风。然而应对人工智能的挑战并不意味着要对我国现有知识产权制度进行颠覆性变革。考虑到人工智能在我国实现权利主体化存在较大难度,当下较为现实的风险应对路径是对人工智能“作品”进行可知识产权化操作,进而将“作品”权利根据现有规则合理分配。
其次,在人工智能安全风险的责任归属上,以自动驾驶汽车为代表的人工智能产品在社会生产生活中的广泛应用给社会安全带来了巨大的潜在风险。法律如果忽视该风险,怠于解决新型风险造成的责任问题,那么这种法律对人工智能的“宽容”实际上就是对戕害法益行为的“纵容”,并终将对人工智能的发展产生负面影响。因此,需要以积极干预的立场实现人工智能安全风险的责任归属。以自动驾驶汽车的责任归属为例,我们认为对自动驾驶汽车造成的法益侵害,应当以现阶段人工智能的法律定位为基础,以自动驾驶汽车的分级为指引,正确认定人、车对事故发生的支配力,最终决定合理的归责原则。申言之,在解决责任问题时不急于讨论自动驾驶汽车的法律人格问题,而是根据技术分级制度,通过适用过错责任或严格责任,将事故责任合理分配给驾驶人或者“自动驾驶系统掌控者”。
“大道之行也,天下为公”,党的十九届四中全会开辟新时代法治新篇章,对我国的国家制度和国家治理体系进行了系统性全面总结,对进一步提升法治的效能奠定了制度保障。人工智能时代权利与责任归属等法律问题之“中国之治”,一方面需要对自己的治理经验进行系统总结,为人工智能技术的长足发展提供坚实制度保障。另一方面,也需要在人类命运共同体的大框架下,不断与其他国家治理经验交流互鉴,构建“美美与共”的大同世界。