人工智能主体资格论
下载提示:1、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“文章版权申述”(推荐),也可以打举报电话:18735597641(电话支持时间:9:00-18:30)。
2、网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
3、本站所有内容均由合作方或网友投稿,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务。
原创文章,作者:写文章小能手,如若转载,请注明出处:https://www.sbvv.cn/chachong/10643.html,
人工智能在司法领域的应用
短短50年,司法(法律)人工智能的飞速发展令人惊叹,特别是近几年,人工智能大有取代法律人的趋势。在国外,人工智能应用于司法领域的例证可追溯至20世纪70年代,美国等发达国家研发了基于人工智能技术的法律推理系统、法律模拟分析系统、专家系统运用于司法实践。
我国最初将人工智能应用于司法是在20世纪80年代,由朱华荣、肖开权主持建立了盗窃罪量刑数学模型;1993年,赵廷光教授开发了实用刑法专家系统,具有检索、咨询刑法知识和对刑事个案进行推理判断、定性量刑的功能。
时至今日,随着我国智慧法院、智慧检务等重点工程的全面铺开,最高人民法院在2018年推出了“智慧法院导航系统”和“类案智能推送系统”,还有北京的“睿法官”智能研判系统、上海的“206”刑事案件智能辅助办案系统、河北的“智审1.0”审判辅助系统以及其他地方法院推出的人工智能产品,为法官审理案件提供了支持,全面提高了司法效率。
正如我们所看到的,司法人工智能一路走来,技术不断革新,愈发突破人类的认知极限。确实,人工智能在司法领域的应用前景十分广阔,很多学者甚至大胆猜测随着人工智能技术革命性的发展,法律人也将逐渐被取代。然而,尽管这一新兴事物激发了我们对未来的无限畅想,我们仍应保持清醒,在促进其发展的同时守住一些底线,不要抱有盲目的期待和开展毫无方向的研究,要在法律原则和伦理限度内客观评估、审慎使用。下文我们将对此展开详细的论述。
人工智能在司法领域的应用现状
(一)法律问答、信息处理数据化
司法人工智能在法律检索、信息处理上呈现电子化、数据化的趋势,并且这一趋势将如日中天地延续下去。如法律问答、诉前咨询、电子卷宗生成、远程立案等都属于在线信息处理技术,在此期间运用的人工智能没有自主思考过程,仍然由人进行实质化操作,其核心在于由传统的线下办案转为线上模式,为当事人及办案人员提供便利。其中法律问答机器人似乎与我们脑海中想象的人工智能更加接近,通过检索在机器人系统中提前设置好的固定提问模式来获取所需信息,其本身无法根据不同疑难问题产生额外答案,但对于日常一般案件所需还是可以满足的。
再如卷宗OCR识别、庭审语音识别、证据识别等属于感知智能技术,相较于传统的扫描、录音等技术有很大提升。以庭审语音识别为例,科大讯飞的灵犀语音助手特别针对中文口音问题进行了识别优化,语音识别率已能达到90%以上。与书记员在庭审中手动输入文字材料相比,庭审语音识别技术大大提高了庭审记录效率,经对比测试,庭审时间平均缩短20%至30%,复杂庭审时间缩短超过50%,庭审笔录的完整度达到100%。此外,这一技术的推广能够解决运用录音、录像技术记录庭审过程的最大弊端,即我国的方言问题,这就避免了后期因录音识别难度大所造成的理解困难。其次,识别转化后的电子书面材料与录音、录像这一载体相比,查阅起来也更加有针对性,更加方便快捷,正在起到解放书记员的作用。
(二)文书制作、类案推送自动化
在文书制作与类案推送上,司法人工智能发挥的作用比基础的信息处理就多了一些智能化的因素。对于大多数简单案件,如危险驾驶、小额借贷纠纷、政府信息公开等可以简化说理并且能够使用要素化、格式化裁判文书的案件,裁判文书自动生成系统能够通过OCR、语义分析等技术,自动识别并提取当事人信息、诉讼请求、案件事实等关键内容,按照相应的模板一键生成简式裁判文书。对于其他制式法律文书的生成更是不在话下,还能够自动纠错,因而大大缩短了起草文书的时间,减轻了法官的工作量,帮助法官提高办案质效。
例如河北高院研发的“智慧审判支持”系统,就包含这样的文书制作功能,于2016年7月上线,在河北194个法院应用,截至2017年6月,短短不到一年的时间共处理案件11万件,生成78万份文书。以此积累从而建立自己的案例信息库,通过分门别类、匹配标记达到类案检索,在法官办案时自动筛选以往相似度较高的案例,实现类案推送提醒,为法官对相似案件的审判提供参考。如此一来,能尽量避免“类案不同判”和“法律适用不统一”的问题,有利于统一本地的司法裁判尺度,防止裁判不公。
(三)案件分析、辅助裁判智能化
人工智能减轻了办案人员处理日常琐碎事务的负担,在这样的背景下,我们不仅希望人工智能在可量化、低效率的环节发挥作用,还期待能够进一步发挥其智能化的优势,从而提高司法效率。于是,将其应用于案件分析与裁判就成了一个重要议题。在案件分析的初级阶段,通过设置分流原则和调整繁简区分要素,智能分案系统能对各类案件进行精细化处理,在平台运转过程中,分别针对刑事、民事、行政等不同案件的特点,综合各项权重系数,科学测算每个案件所需的办案力量,帮助法院实现对案件的繁简分流,合理配置司法资源,缓和“案多人少”的压力。在案件的深度分析及辅助裁判上,北京法院的“睿法官”系统能在庭审前自动梳理出待审事实,生成庭审提纲,并推送到庭审系统中。上海“206系统”的最大亮点是证据标准、证据规则指引功能,这一功能实现了证据资料的智能审查,为办案人员提供了标准化指引。此外,阿里推出的“AI法官”针对交易纠纷类案件建立了整套审判知识图谱,能够迅速分析案情并在极短时间内向法官给出判案建议。
总之,司法与人工智能的深度结合在理论界讨论得热火朝天,对人工智能产品的应用某些方面已经走在了理论的前面,司法系统的改革亦是大势所趋。但这并不意味着目前的研究与应用是完全科学、有效的,对司法人工智能的应用空间及限度尚需细细推敲。
人工智能在司法领域的应用限度
(一)在广度上不能覆盖司法活动全程
目前,司法人工智能被集中运用于流程性重复低效劳动以及依据模型简单推理等环节,能够辅助处理事务性工作,在通用技术已然成熟的领域还是十分成功的,如在线方式的信息处理(信息电子化)以及语音识别技术的应用,确为司法活动提供了极大的便利。然而,我们发现,不管是在线信息处理还是语音识别,都是日常生活中已经广泛应用的技术,这几项应用的成功取决于成熟人工智能技术的普遍性适用。以语音识别为例,我们平时在智能手机中常用的语音输入法便是这一技术最普遍的体现,只是在庭审中对此功能开发的更加精准与完善了而已,虽然场景不同,但其本质是不变的。
由此可见,目前成功广泛应用的人工智能产品大多是将通用化的技术稍加完善,便移植到了部分司法活动中,而对于其他司法环节,如疑难案件的事实认定、评价证据的证明力度、法律解释等等,仅靠通用技术的成熟是无法满足其需求的,要通过非形式逻辑与司法经验等因素的灌输来“定制”专门化产品,使其达到能够应对大多数司法问题的水平,从而贯穿司法活动全程。关键就在于能否实现这种“定制”呢?这不仅意味着需要有高度发达的研发水平作为支撑,还需要将人工智能、法律知识、司法经验等多重因素深度融合,使人工智能具备法律人的逻辑与思维,其难度远远高于日常通用技术的开发。于是,如果期望人工智能技术覆盖司法活动全程,我们不难得出,这种“定制”是很难、甚至无法实现的。
(二)在深度上不能替代法官价值衡量
如上文所提到的,司法人工智能已经在信息检索、文书制作、智能识别、证据指引等方面得到了成功的推广应用,对于一些简单案件也可以实现辅助推理并提出量刑建议。其强大的数据处理能力大大减轻了法官从事日常琐碎工作的负担。虽然还有相关研究表明,将人工智能运用于预测裁判结果,得出的预测准确度远高于人类,但是就能如部分人群所追捧的那样,将人工智能取代法官吗?
人工智能是关于数据的技术,依赖于人类对它进行设计和编程,它只能对人类输入的已有知识和信息进行模式化的吸收和处理,尽管它对现有知识的掌握度远超人类,但致命的缺陷就在于它不能适应人类社会日新月异的变化。法律适用作为对现实社会的即时反映,在司法裁判的价值衡量中融入社会一般公正观念是一种常态,而这种价值衡量是一个十分复杂的过程,“带有人情味的价值判断”很难被机器所学习。而司法裁判是关于经验的艺术,美国大法官霍姆斯说过,法律的生命在于经验而不是逻辑,他要求法官根据社会生活的不断变化赋予每个案件独特的裁判价值,不要被固有的法律逻辑所束缚。这就需要在法律规范和生活之间有交互往返的认知过程,通过复杂的价值判断来获得结论。从这个角度来说,人工智能法官只能按照事先设置的形式化指令来裁判案件,亦步亦趋地跟随着人类的操控,没有人的参与和输入,机器学习不会自主发生,更不会有人的独立思维,也就无法满足法官在价值判断过程中的语境化需求。正如霍姆斯法官说得那样,法律不是纯粹的逻辑和极致的理性,在司法裁判中还应考虑经验、道德和温情。毕竟,只懂法律的人不一定能够胜任法官,更何况只懂法律的机器呢?
司法人工智能的应用前景与出路
(一)司法人工智能:好钢用在刀刃上
人工智能最大的优势就在于它直接服务于人,通过介入司法活动的各个环节,在信息储存、数据运算、简单推理等方面发挥着重要作用,办案人员借助这些辅助功能最大限度地将自身从重复性、事务性的工作中解脱出来,还能及时发现并纠正一些细节问题,从而能够将时间和精力真正投入到分析疑难案件本身,实现了司法资源的优化配置。不仅如此,人工智能介入司法环节还能够在办案过程中对法官的行为进行程序化约束,矫正法官的主观偏见,扩展法官的认知能力,减少法官因直觉等主观因素对价值判断形成的消极影响。
司法实践中,人工智能作为辅助工具带来便捷,但也仅限于服务法官、辅助法官。因此,对司法人工智能的研发要将重心放在其辅助功能上。并且,基于当前司法人工智能在通用技术领域的应用上已经取得了相应的成果,因而未来应当更倾向于针对司法活动的专业性特征,进行司法专用领域的技术开发。比如,国外的一些法院利用人工智能对案件结果进行预测,还将人工智能运用于审查专家证言的可采性上,为法官裁判案件提供指引和参考。我国在研发时也可以结合自身实际来开发相应的产品。此外,也可以针对我国部分法院开始应用的量刑推荐、审判偏离预警等功能进行进一步完善与推广。
技术是人类社会进步的重要力量,人类作为社会发展的主体,必须将技术为我所用。正所谓“君子性非异也,善假于物也”,只有懂得如何开发与利用司法人工智能,善于扬其长避其短,才能将人工智能的价值发挥到最大化,只有将这块好钢用在刀刃上,才能为司法、为人民创造更多的价值。
(二)人工智能法官:不可望也不可即
早在20世纪70年代,已有学者提出假设——人类法官是否能被机器法官所取代,以消除法律的不确定性?我国最高人民法院副院长贺荣给出了明确的答案:机器人大法官绝无可能出现。
事实上,无论是普通民众,还是在领域内深耕已久的专家,都对计算机、人工智能和机器人这些事物的概念难以详细地区分。但有一点众所周知,它们的运作本质都是“接收信息-处理信息-输出信息”这样一种计算过程,每一个步骤都需要确切的定义,存在“唯一正解”。而司法裁判的魅力却在于往往不追求非黑即白,每个具体的案件都有其独特的一面,除了追求客观与合法之外,其中隐含的人情世故、伦理道德错综复杂,需要有审判智慧和审判经验的法官进行心证和裁量。法律虽然是冰冷的,但适用法律的过程却蕴含着温情,比如“于欢案”中,杀死“辱母”者这样为母复仇的情节富有非理性的情感色彩,与我国自古以来“父之仇,弗与共戴天”的礼法观念不无关联,这些人情事理只有亲历了生活、接受过教育、感受过熏陶的人类法官才能体会和把握,而隔着冰冷屏幕的人工智能法官是无法体会其中之精妙的。此外,人工智能还面临着算法“黑箱”问题。司法裁判的过程,本身就是一个注重辩论和说理的过程,在庭审中,不仅双方的唇枪舌剑会给法官带来事实判断上的影响,一个交互的眼神、一个微妙的表情都会成为法官的捕捉点,我国西周时期就有“以五声听狱讼,求民情”的记载。而人工智能法官的判案过程则会是系统内部的数据处理和运算,得出的判决是一个“暗箱操作”的结果,我们对其中的运算过程一无所知,“黑箱”的封闭性决策直接与司法公开原则相违背,还可能会触发算法独裁和歧视,难免招致公众对判决结果的质疑,引发社会混乱。
更重要的是,我国宪法有明确规定,国家的一切权力属于人民,审判机关的权力由人民赋予,法官所行使的司法权实质上是人民主权理论下的公共权力。古代西方有这样一句法律格言:“法官只有一个上司,那就是法律。”在此公共授权的语境之下,法官在审判中享有绝对的权威,其他任何主体都不能左右法官的最终判决。从这个角度上来说,如果让人工智能取代法官,是将人民赋予的公共权力让渡给了一个机器,无异于放弃了人民的公共事业,而导向机器人的统治。机器人是否能够认可法律作为他的上司我们不得而知,但必然消解了司法裁判的意义,也破坏了司法公信,这是社会所不能接受和容忍的。
综上所言,人工智能法官取代人类法官这样的愿景,乍一听固然美好,但是却陷入了人工智能的万能论当中。司法裁判是理解的技艺,是一门价值衡量的艺术,其中蕴含的经验和智慧并非人工智能所能体悟。人工智能取代法官是一个不可望也不可即的遥远幻想,未来对司法人工智能的开发不能突破底线,毫无节制地利用人工智能改造审判系统只会为现代法治带来无可挽回的创伤。
结论
尽管人工智能热潮一次次席卷而来,不断突破想象、冲击认知,但我们不能盲目追捧,尤其在司法领域更应保持审慎和理性。对于司法环节中的一些事务性、重复性工作,无疑应当交给人工智能来处理,发挥其超强的整合运算功能,提高司法效率;对于司法活动中的核心权力,如审判权,则必须由法官独立行使,而人工智能因其自身认知和思维上的缺陷决定了其只能处于从属地位。此外,如果一旦将司法决策权交与人工智能,随之而来的算法黑箱、算法歧视必然对司法公正造成冲击,也是对人民主权和现代法治制度的消解。
未来,要坚守法官的主体地位和人工智能的辅助角色,对司法人工智能的研发也要在服务法官、辅助法官的路上继续前进,而不要误入取代法官的歧途。人工智能与司法的深度结合已是大势所趋,审时度势地做好这道司法人工智能的加法题,让“人工”和“智能”各归其位、各取所需、强强联合,才能为司法、为社会带来最大的价值,将司法高效与司法正义共同推进。
来源:《人民法治》杂志
作者:贾喆羽吕昭诗孙晓璞
原标题:《人工智能在司法领域的应用》
阅读原文
面对人工智能,法律应该做什么
【法眼观天下】
编者按
智能型机器人、自动驾驶、AI创作、语音识别……当前,人工智能的应用越来越广泛,由此也产生了一系列法律问题,尚没有达成广泛共识。科技是一把双刃剑,人工智能技术概莫能外。本期法治版特刊发三篇专家文章,探讨如何从法理、法律方面对人工智能的发展和应用予以回应,让人工智能能够在法律的规范下健康发展并造福人类。
智能型机器人的出现和广泛应用无疑是21世纪的一个重大事件,不但会引起新的工业革命和社会变革,而且会颠覆许多传统的社会结构和人类观念。早在1942年,著名科幻小说家艾萨克·阿西莫夫在其科幻小说《环舞》中就提出了著名的机器人三原则:第一,不得伤害人类;第二,服从人类命令;第三,尽可能地保护自己。笔者以为,这不但是机器人设计中应当遵循的基本原则,而且也是机器人立法中必须充分考虑的原则。面对以人工智能为代表的飞速发展的现代科学技术,人类必须高度关注技术对社会关系和社会观念所带来的巨大冲击,同时充分利用法律的引导、规制和促进功能,实现法律与技术进步的良性互动。
利用良好的法律制度促进科技发展
法律不仅承担着行为调控、冲突解决、社会控制、公共管理等功能,而且负有促进社会发展,引导社会生活的使命。良好的机器人法律制度应当是既能够充分调动社会主体的创造热情、促进社会经济发展的社会财富创造法,又能够在发明创造和财富创造之间搭建起便捷转换通道的市场经济催化法。
为此,一方面,要应用良好的制度设计满足机器人发展的客观要求,积极利用机器人解放人的功能,实现人的全面发展,并积极改善人与自然、人与社会的关系。另一方面,要充分发挥法律对科学研究的价值引领功能。从发展经验来看,并非所有的技术成果都能够造福于人类。因此,不是所有的科学活动都会得到法律鼓励(典型的如克隆人技术、换头技术等)。我们在充分肯定人工智能对解放人类生产力所带来的重大便利的同时,也必须高度重视人工智能对传统的社会机构、社会关系、人伦关系所带来的颠覆性影响,严格划定人工智能作用(活动)的禁区。由于目前对机器人活动可能对人类带来的负面影响还缺乏必要的实践数据,加之人类还没有完全做好与机器人和谐相处的精神准备,因此在早期的机器人立法中,对机器人的自主性活动应作较多限制。随着人工智能技术的日趋完善和自然人与机器人相处能力的逐步增强,可以通过不断修改法律逐步放宽对机器人行为的限制。
确立人类优先和安全优先原则
现代国家确立了以人为本的立法理念。这就要求一切立法都应围绕改善人的生存条件和生存环境,增进人类福祉,促进人的全面发展而进行。这既是文明立法的本质要求,也是良法善治的应有之意。这里的良法,首先要求必须具有公正性,其次要求必须是能够满足大多数人的需要,最后必须符合社会公众对法律的预期,符合公序良俗的基本要求。
具体到机器人立法,由于机器人的应用不但会带来深刻的社会变化,而且也会影响到人类自身的发展,影响到对人本身的认知,甚至会危及人的生存。诚如霍金所说:“人工智能的真正风险不是它的恶意,而是它的能力。一个超智能的人工智能在完成目标方面非常出色,如果这些目标与我们的目标不一致,我们就会陷入困境。因此,人工智能的成功有可能是人类文明史上最大的事件,但人工智能也有可能是人类文明史的终结!”因此在相关立法中必须确立人类优先的原则和理念,以尊重人的存在、人的生命健康、人的利益、人的安全为根本旨归。
同时,相关立法绝不能仅仅关注机器人的技术性内涵,而更应当关注其文化内涵,相关的制度设计不应是仅具有程序性操作意义的技术性规范,而应是充满人文关怀和伦理精神的技术性与道德性完美融合的法律。一方面,我们要坚决把违背公序良俗和有可能挑战人类伦理底线的人工智能技术产品,排除在法律的保护之外,另一方面,通过政策或法律,对那些有可能影响人类伦理的技术进行严格的管控和必要的限制,对风险不明的技术应用必须留下足够的安全冗余度,防止因技术的失控可能给人类带来的毁灭性打击。
谨慎承认机器人的法律主体资格
机器人出现之后,其身份和主体资格受到高度重视。2017年,机器人索菲亚(Sophia)被沙特授予公民身份。美国律师约翰·弗兰克·韦弗于2015年出版的《机器人也是人——人工智能将如何改变法律》一书提出,由于机器人已经具备自然人的很多能力,如思维能力、辨别能力、有目的的活动能力和一定的判断能力与自主决策能力,因此应当赋予机器人以和人相同的法律地位。实际上这已不是第一次对人的排他性主体地位提出质疑,早在机器人出现之前就已经被多次提出,其中最为典型的是对动物主体地位的争议。
从目前的发展进程来看,机器人虽然已具备人的很多要素,但还不足以达到和人分庭抗礼的地步。机器人虽然可能会有思维,但却并没有上升到有生命的状态,不具备生命所要求的能够利用外界物质形成自己的身体和繁殖后代,按照遗传的特点生长、发育并在外部环境发生变化时及时适应环境的能力。因此从理论上说,机器人作为一种工业设计,只具有使用寿命而不具有自然生命,当然也不享有以生命为载体的生命权。
机器人是按照人类的预先设计而生产出来的,因此就其本质来说具有可预知性、可复制性和可分类性,而可预期的活动是无法用传统的法律行为进行解释和规范的。此外,机器人没有自然人所具有的道德、良心、良知、伦理、宗教、规矩和习惯,只有功能的强弱。因此机器人不可能有道德感,只有基于程序的反复和预先设计而总结出的规律,从而也就没有民事主体所必备的基于内心感知(良知)所做出的善恶评判和行为选择。法律也无法通过对其行为进行否定性评价而实现抑制或矫正其非法行为的效果。最后,机器人并不具有与周围环境交互影响的内在感知能力,其改造自然的活动均是在人的设计、命令和指挥下完成的,从这个意义上说机器人并不是人,充其量仅是准自然人而已。机器人也无独立的财产能力和责任能力,机器人对人类造成伤害之后,只有通过惩罚其实际控制人(设计人、使用人)的方式,才能真正实现惩罚与保护并重的目的。
充分尊重社会公众的知情权
人工智能技术及其应用不仅是简单的技术创造,也是一个对人类未来影响深远且关涉每一个人切身利益的重大历史变革。面对功能强大的机器人,每一个行业、每一个领域的自然人的就业机会都有可能被剥夺,每一个生命个体的生存空间都有可能被严重挤压。公众对于信息、知识的获取,不但是其融入公共生活的一个条件,也是维护自身合法权益的必然要求。因此,每一个自然人都应当对人工智能技术享有充分的知情权,都有权知道机器人被广泛应用之后对自己意味着什么。
在相关立法中,必须充分保护社会公众的知情权和参与权,重大人工智能技术的应用应广泛征求公众的意见并进行科学的论证,应强调任何人工智能产品的开发和应用都不能以损害自然人利益为代价,不能以损害社会公共利益为代价。同时必须有效平衡各方利益,特别是平衡生产者和普通社会公众之间的利益。相关的制度设计一方面要充分保护研发者的创造积极性,鼓励其发明出更多更高质量的人工智能产品,另一方面应保证社会公众能够更多地分享因科学技术的进步而产生的社会经济利益和其他人类福祉。
建立符合国情的人工智能法律制度体系
法律是为社会服务的,任何法律都必须根植于特定的土壤才能发挥其最大效用。制定符合中国需要的人工智能法律,一方面必须充分尊重人工智能技术发展水平,在尚无充足实践经验指导的情况下,我们暂时无法设计出具有世界引领意义和示范作用的完备的人工智能法律体系;另一方面也应看到,发展人工智能技术既是抢占世界新兴技术制高点的需要,也是世界社会经济发展的大势所趋。
因此,我们的法律必须积极回应人工智能技术的发展需要,通过良好的制度设计满足人工智能技术的发展要求。同时,必须积极借鉴国外在人工智能领域的立法经验和司法实务经验,尽快完善相关的法律设计。当务之急是尽快制定人工智能基本法、人工智能产业促进法等法律法规,明确我国对人工智能和机器人产业发展的基本态度,同时出台人工智能产品伦理审查办法、人工智能产品设计指南等规章,未雨绸缪,提前用立法防范因机器人应用可能带来的社会问题。
(作者:赵万一,系中国法学会商法学研究会副会长、西南政法大学教授)
万字长文详解:人工智能系统可解释性要求的法律规制
来源|腾讯研究院
作者|曹建峰腾讯研究院高级研究员
摘要:当前,因“算法黑箱”而导致的人工智能系统的不透明与不可解释问题是人工智能信任与问责的一大困扰。在这样的背景下,国内外立法开始从权利、义务等不同角度对人工智能的可解释性进行规制,提出了算法解释权、算法说明义务等规则。但可解释性要求的有效落实仍面临着技术可行性、经济成本、法律规则和价值冲突、社会需求差异等多方面挑战。面向未来,人工智能可解释性要求的实现,需要法律、技术、市场、规范等多种力量共同发挥作用,侧重通过“算法说明书”、算法相关信息披露等方式增进算法透明、促进用户理解。
问题的引入
当前,人工智能应用的持续创新和广泛普及,主要得益于以深度学习为代表的机器学习技术的发展进步。机器学习技术使得人工智能系统可以自主进行感知、学习、决策和行动,但这些所谓的“学习算法”(LearningAlgorithm)却为“黑箱问题”(BlackBoxProblem)所困扰。
虽然人们可以知晓一个算法模型的输入和输出,但在很多情况下却难以理解其运作过程。人工智能开发者设计了算法模型,但通常却不决定某个参数的权重以及某个结果是如何得出的。这意味着,即便开发者可能也难以理解他们所开发的人工智能系统。
对人工智能系统如何运作缺乏理解,是人工智能带来诸如安全、歧视、责任等新的法律、伦理问题的一个主要原因。作为“黑箱”的深度学习模型易于遭受对抗攻击,容易产生种族、性别、年龄等方面歧视,可能导致追责困难。在医疗、借贷、刑事司法等攸关个人重大权益的应用场景中,人工智能的不透明性尤其是有问题的。
因此,考虑到人工智能的不透明性和不可解释性,对人工智能进行适当的监管和治理显得尤为重要。
在实践中,人工智能的规模化应用推广,在很大程度上依赖于用户能否充分理解、合理信任并且有效管理人工智能这一新型伙伴。为此,确保人工智能产品、服务和系统具有透明性(Transparency)与可解释性(Explainability)是至关重要的。
实际上,各界已经将透明性和可解释性确立为人工智能研发应用的一个基本的指导性原则。
在伦理层面,欧盟发布的《可信人工智能的伦理指南》(EthicsGuidelinesforTrustworthyAI)将可解释性作为可信人工智能的四个伦理原则这一,将透明性作为可信人工智能的七个关键要求之一。联合国发布的首个全球性人工智能伦理协议《人工智能伦理问题建议书》(RecommendationontheEthicsofArtificialIntelligence),提出了人工智能系统生命周期的所有行为者都应当遵循的十个原则,其中就包括“透明度和可解释性”。中国国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》针对人工智能提出了包括透明性和可解释性在内的多项伦理要求;中国国家互联网信息办公室等9个部门联合发布的《关于加强互联网信息服务算法综合治理的指导意见》将“透明可释”作为算法应用的基本原则,呼吁企业促进算法公开透明,做好算法结果解释。
在技术层面,自从2015年美国国防高级研究计划局(DARPA)提出可解释人工智能(ExplainableAI,简称为XAI)研究项目以来,XAI已日渐成为人工智能领域的重要研究方向,研究人员和主流科技公司纷纷探索技术上的和管理上的解决方案,IEEE、ISO等国际标准制定组织则积极推动制定与XAI相关的技术标准。
在立法方面,无论是在中国,还是在美国、欧盟等其他国家和地区,人工智能都已进入了立法者和监管者的视野。个人信息、人工智能等方面的国内外立法尝试从权利、义务、责任等不同角度对人工智能的透明性和可解释性进行规制。
虽然可解释性要求已经成为人工智能监管的一个重要维度,但可解释性要求的有效落实依然面临着诸多困难和挑战。例如,可解释性要求的落实至少需要回答五个关键问题:向谁解释?为什么解释?何时解释?如何解释?解释的方法是什么?除了这些问题,人工智能系统的可解释性要求也面临着与个人隐私、模型安全、预测准确性、知识产权等诸多其他价值追求相平衡的问题。
本文旨在厘清这些问题,并从技术和产业发展的状况出发,为人工智能可解释性要求的法律规制之完善优化提出具体可行的思路。
人工智能
可解释性要求及其立法现状
(一)人工智能系统的可解释性及其价值
一般而言,解释(Explanation)是指“说明某事的含义、原因、理由等”。根据这一定义,人工智能系统的可解释性意味着通过提供关于决策和事件如何产生的信息,来促进利益相关者和AI系统之间的交互,但开发者、领域专家、终端用户、监管者等不同的利益相关者对于AI模型具有不同的解释需求。
联合国的《人工智能伦理问题建议书》将人工智能的可解释性界定为:“让人工智能系统的结果可以理解,并提供阐释说明”,也包括“各个算法模块的输入、输出和性能的可解释性及其如何促成系统结果”。美国国家标准与技术研究院(NIST)在其研究报告《可解释人工智能的四个原则》(FourPrinciplesofExplainableArtificialIntelligence)中提出了可解释的AI系统的四个基本特征:
(1)解释(Explanation),即AI系统对其决策过程和结果提供依据或理由;
(2)有效性(Meaningful),即AI系统提供的解释对于目标受众而言是清晰易懂的;
(3)解释准确性(ExplanationAccuracy),即解释可以准确反映AI系统产生特定输出的原因,或者准确反映AI系统的运作过程;
(4)知识局限性(KnowledgeLimits),即AI系统只有在其设计条件下对其输出具有充分的信心时才可运行。
因此,AI系统的可解释性不仅关注AI系统的特定输出结果,而且关注AI系统的内在原理和运作过程;例如,负责信贷审批的AI系统需要向用户解释为什么拒绝发放贷款,推荐系统需要让用户理解基于用户的搜索历史、浏览记录、交易习惯等个人数据进行个性化推荐的基本原理。
在解释的分类上,业界一般区分事前解释(Ante-HocExplanation)和事后解释(Post-HocExplanation)。
事前解释一般指自解释模型(Self-InterpretableModel),是可以被人类直接查看和理解的算法模型,即模型自身就是解释。比较常见的自解释模型包括决策树、回归模型(包括逻辑回归)等。
事后解释通常是由其他软件工具或者人工方式生成的解释,旨在描述、说明特定算法模型如何运作或特定输出结果如何得出。对于具有“黑箱”属性的深度学习算法,通常只能诉诸事后解释。事后解释分为局部解释(LocalExplanation)和全局解释(GlobalExplanation):局部解释聚焦于理解算法模型的特定输出结果,全局解释侧重于对算法模型整体的理解。
此外,英国信息专员办公室(ICO)在其发布的指南《解释人工智能的决策》(ExplainingDecisionsMadewithAI)中区分基于过程的解释(Process-BasedExplanation)和基于结果的解释(Outcome-BasedExplanation),并从解释所涉内容的角度提出了解释的六个主要类型:
(1)原理解释,即说明AI系统作出决策的理由;
(2)责任解释,即AI系统开发、管理和运行过程中的参与人员,以及对决策进行人工审查的联系人员;
(3)数据解释,即AI系统的决策使用了哪些数据以及是如何使用的;
(4)公平性解释,即为确保决策的公平性和非歧视性而采取的步骤和措施;
(5)安全和性能解释,即为确保AI系统的决策和行为的准确性、可靠性、安全性和稳健性而采取的步骤和措施;
(6)影响解释,即为监测、评估AI系统的使用及其决策对个人和社会的影响而采取的步骤和措施。英国ICO的分类对于理解可解释性要求的具体解释内容具有较大参考意义。
人工智能的可解释性与透明度、责任、问责等概念密切相关。透明度意味着保障用户等相关对象对AI系统的知情,包括将在产品或服务中使用AI系统的事实告知用户,也包括给用户提供关于AI系统的适当的信息,在必要时甚至包括源代码、数据集等。因此,人工智能的可解释性与透明度息息相关;具体而言,增进透明度是人工智能的可解释性的一个主要目标,而可解释性则是实现人工智能的透明度的一个有效方式。此外,在很多时候,AI系统的可解释性要求主要是为了确保能够对AI系统进行问责并让相关行动者承担责任。因此可以说,AI系统的可解释性要求本身不是最终目的,而是实现诸如责任、问责等其他目的的手段和前提条件。
增进AI系统的可解释性具有多方面的价值:
第一,增强用户对AI系统的信任。用户信任是AI系统的可用性的一个重要条件。在现实中,用户对AI系统的不信任,往往源于用户不理解AI系统的内在决策过程,不知道AI系统如何作出决定。尤其是在诸如金融、医疗、司法等高风险的应用场景中,如果AI模型缺乏可解释性,就可能不被用户信任。DARPA的研究发现,相比于只提供决策结果的AI系统,用户更倾向于既提供决策结果又提供附带解释的AI系统。
第二,防范算法歧视,确保AI系统的公平性。增进AI系统的可解释性,有助于人们对AI系统进行审计或者审查,进而可以识别、减少、消除算法歧视。
第三,支持内部治理,帮助打造可信的、负责任的AI系统。开发者只有充分理解AI系统,才能及时发现、分析、修正缺陷,进而才有可能打造出更加可靠的AI系统。
第四,从人机协作的角度看,用户只有理解AI系统,才能更好地与之进行交互,在实现AI系统的预期目的的同时,帮助AI系统更好地进行改进和完善。
第五,解决人工智能造成损害的法律责任难题,对人工智能进行解释可以帮助探查因果,进而有助于实现法律责任的目的,包括实现法律责任的预防目的。正因如此,可解释性要求已经成为人工智能的法律规制的一个核心考量。
(二)人工智能可解释性要求的立法进展
全球来看,欧盟《一般数据保护条例》(GDPR)较早对人工智能算法的可解释性进行法律规制,主要体现在GDPR第22条。GDPR第22条重点规制产生法律效果或类似的重大效果(如影响信贷、就业机会、健康服务、教育机会等)的完全自动化决策(SolelyAutomatedDecision-Making,即完全通过技术方式作出的决策,不存在人类参与)。
具体而言,对于完全自动化决策,一方面,数据主体的知情权和访问权至少涉及以下三个方面:(1)告知存在该项处理的事实;(2)提供关于内在逻辑的有意义的信息;(3)解释该项处理的重要性和预想的后果。
另一方面,数据主体有权请求人为干预,表达其观点并提出质疑;根据GDPR前言部分(Recitals)的内容,数据主体的权利甚至包括获得解释的权利和挑战该项决策的权利,即所谓的“算法解释权”。
中国对人工智能透明度和可解释性的法律规制,在很大程度上借鉴了欧盟GDPR的立法思路。
首先,根据中国《个人信息保护法》第7条规定的公平、透明原则,以及第44条赋予个人的知情权、决定权,AI系统在处理个人信息时需要对用户保持必要的透明度。
其次,该法第24条对基于个人信息的算法自动化决策作出了专门规定:一是,要求个人信息处理者保证算法自动化决策的透明度和结果公平、公正,此为透明度要求;二是,对于旨在进行个性化信息推荐的算法自动化决策应用,个人可以选择退出(Opt-Out),此为退出权;三是,对于对个人权益有重大影响的算法自动化决策,个人享有要求说明的权利和拒绝个人信息处理者仅通过自动化决策方式作出决定的权利,此为算法说明权。这些规定尤其是第24条的规定被认为是构成了中国版的算法解释权。
中国国家互联网信息办公室出台的《互联网信息服务算法推荐管理规定》则提出了算法解释义务,核心是对算法相关信息的公示义务和对算法决策结果的说明义务。具体而言:
一是,提供算法推荐服务需要遵循公平公正、公开透明等原则。
二是,算法推荐服务提供者需要制定并公开算法推荐服务相关规则。
三是,该法规鼓励算法推荐服务提供者优化检索、排序、选择、推送、展示等规则的透明度和可解释性。
四是,算法推荐服务提供者需要告知用户其提供算法推荐服务的情况,并公示算法推荐服务的基本原理、目的意图和主要运行机制等。
五是,算法推荐服务提供者需要向用户提供便捷的关闭算法推荐服务的选项。
六是,对于对用户权益造成重大影响的算法应用,算法推荐服务提供者需要提供说明并承担相应责任。
总结来看,中国对人工智能可解释性的法律规制主要有两个路径:
其一,一般性地给AI系统的开发者施加公开算法相关信息、优化算法可解释性等义务,从而促进用户对AI系统整体的理解;
其二,在个案意义上,对于给个人权益造成重大影响的算法决策结果,通过配置算法解释或说明的权利与义务来保障用户权益,并解决用户与开发者之间信息和权力不对称的问题。
但在实践中,这两种路径依然面临着一些问题,例如算法解释相关的权利与义务应适用于哪些AI系统?为了全局可解释的目的,AI系统的哪些信息需要对外提供以及应当以什么方式提供?如何确保解释的准确性和有效性?等等。
人工智能
可解释性规制面临的问题分析
首先,虽然立法可以对算法解释提出一般性要求,但可解释性要求的实现却并非易事,不仅面临因“算法黑箱”而带来的技术挑战,而且需要考虑诸多因素,下文将一一进行分析。
其一,对象。技术开发人员、终端用户、监管者等不同的利益相关者对算法解释的需求是有差异的。而且普通用户感兴趣或能理解的因素及其复杂程度,可能与专业的审查人员或法律调查人员需要的恰当信息存在很大不同。例如,普通用户可能想知道为什么AI系统作出了特定的决策,以便于能够有理由质疑AI系统的决策,如果用户认为决策是不公平的或错误的。专业人员则需要更全面的、更多技术细节的解释,以便于评估AI系统是否满足可靠、准确等方面的一般性要求或者监管要求。这意味着普通用户需要的往往是明白易懂的、非技术语言的解释,而非充斥着技术细节的详尽解释。不向普通用户提供详尽的解释可能有悖常理,但在实践中却是有益的。为了解释AI系统及其输出结果而给普通用户提供底层的数学公式,即便这可能是技术上最准确的解释,但普通用户却不大可能理解。普通用户也许只是希望确保AI系统的输入与输出是公平合理的,而非希望对背后的计算具有深层次的理解。因此,明白不同利益相关者的真正需求才是至关重要的,而不是采取一刀切的路径。
表1:不同阶段的不同主体的算法解释目的
其二,应用场景。应用场景的不同也可能影响提供解释的时间与方式。并非所有的应用场景都需要对AI算法模型及其决策结果做出事无巨细的解释,这取决于AI算法决策是否对受众的合法权益产生实质性的影响。例如,对于在餐厅分配位置或自动整理手机相册的算法,与审批贷款或辅助判刑的算法,就需要区别对待。如果一刀切地要求提供详尽的解释,缺乏合理性和必要性。所以欧盟的人工智能法草案按照应用场景的不同将AI系统分为高风险、有限风险和最小风险,并只针对高风险AI系统提出了算法解释义务。
其三,时间与地点。从目前的技术来看,要求AI面向全部应用场景,实时地、大规模地提供解释颇具挑战性且难以实现。行业中的可解释AI实践更多聚焦于不同应用场景下的事后解释。
其四,解释的关联性或者说解释的目的。为什么需要进行解释?AI系统的目的与应用场景至关重要。相比于执行影响较小的任务的AI系统(如推荐电影的AI系统),AI系统被用来进行影响人身安全或财产安全的决策时(如医疗诊断、司法审判、金融借贷等),需要更多的投入与深度的解释。
其五,技术与经济可行性。一些先进的、复杂的AI系统在向人类解释其运作时可能存在技术限制。在经济可行性上,也需要考虑成本维度,大规模地提供解释所需成本与投入也需要考虑在内,以避免不合理的细节或严格的要求阻碍有价值AI系统的部署。尽管投入足够的时间、精力、专业知识与正确的工具,通常可以知晓复杂AI系统是如何运作的,理解AI系统的行为背后的原因,但如果在实践中不加区分地要求解释,不仅在规模应用上欠缺经济可行性,而且可能适得其反地阻碍具有巨大价值的(例如拯救生命)AI系统的应用部署。因为解释的成本十分高昂,所投入的技术资源也更加巨大。如果采取一个极高的标准,要求AI系统的每一个结果都做到完全可追溯并提供详尽的解释,那么这在实践中可能极大地将AI系统限制在最基本的技术(如静态的决策树)。这最终会极大地限制人工智能的社会与经济效益。比如,一个医疗算法,如果每次诊断结果都要求提供详尽的解释,可能这个算法永远无法投入使用,产生价值。因为每次输出一个决策,可能得花费数天时间来提供解释。
其次,需要考虑可解释性要求与效率、准确性、安全、隐私、网络安全、商业秘密、知识产权等其他重要目的之间的平衡问题。一些形式的透明性和可解释性看似有吸引力,但却可能带来相当严重的风险,而且对于增进责任与打造信任几乎无甚助益。例如,披露源代码或单个用户的数据,无助于理解AI系统如何运行以及它为何做出特定决策,但却可能让AI系统被滥用或操纵,给用户隐私与商业秘密带来显著风险。
实际上,分享、开放源代码是最低端、最无效的算法透明与解释方式;因为AI系统太过复杂,即使技术专家也无法测量。所以开放源代码无助于普通用户理解AI系统。此外,算法不是越透明越好,例如,把算法变得简单,可以增加可解释性,同时却可能让算法更不准确。这是因为AI模型的预测准确性和可解释性之间存在着天然的紧张关系。实际上,在可解释与准确性之间,如果AI应用对性能要求不那么高,则可解释性可以超过准确性;如果安全是优先的,则可解释性可以让位于准确性,只要存在能够确保问责的保障措施即可。
正如联合国《人工智能伦理问题建议书》所指出的那样,公平、安全、可解释性这些原则本身是可取的,但在任何情况下这些原则之间都可能会产生矛盾,需要根据具体情况进行评估,以管控潜在的矛盾,同时考虑到相称性原则并尊重个人权利等。
人工智能
可解释性规制的未来进路
从以上分析可知,对人工智能系统进行解释是一件非常复杂的事情,而且中国现行立法还远未形成一个统一的规制路径。无论解释的出发点是权利,还是义务,抑或是责任,都尚未确立清晰明确的规则。面向未来,对人工智能的透明度和可解释性进行规制,需要法律、技术、市场、规范等多种力量共同发挥作用。
(一)立法宜遵循基于风险的分级分类分场景监管思路
常识告诉我们,技术应用不可能完美无缺、永不错误,那种认为技术应用应当符合绝对性要求的观点是偏颇的、误导性的。在这个意义上,新技术治理应当是风险导向的,不是为了彻底消除风险,而是对风险进行有效管理。因此,立法不宜采取过度严苛的监管要求,避免在透明度与可解释性方面对AI算法应用提出“一刀切”(One-Size-Fits-All)的要求,也不宜简单粗暴要求公开算法的源代码等技术细节;而是需要采取包容审慎的立场,建立分级分类分场景的监管方式,支持AI算法应用不断创新和发展,兼顾政府、科技企业以及社会公众的整体利益,在鼓励科技创新、追求科技向善、维护社会公共利益之间找到平衡点。
具体而言,在人工智能可解释性要求的实现方式上,首先,披露AI算法模型的源代码是无效的方式,不仅无助于对AI算法模型的理解,反倒可能威胁数据隐私、商业秘密以及技术安全;其次,不宜不加区分应用场景与时空场合地要求对所有的算法决策结果进行解释或说明;再次,侧重应用过程中的披露义务,部署AI系统的主体对于任何披露与记录要求负有责任,需要披露AI系统实质性参与决策或与人类互动的事实,披露应当以清晰易懂、有意义的方式提供关于AI参与的关键任务的模式;最后,避免强制要求披露用来训练AI模型的数据集,这不仅不具有可操作性,而且容易与版权保护冲突,侵犯用户的数据隐私或违反合同义务。
此外,法律对AI系统的可解释性要求应侧重满足终端用户的需求。到目前为止,AI系统的可解释性主要服务于AI开发人员和监管者的需求,例如帮助开发人员排查漏洞并改进AI系统,帮助监管者对AI应用进行监管。而非让终端用户可以理解AI系统。2020年的一项研究发现,企业部署可解释人工智能更多是为了支持工程开发等内部目的,而非增强用户或其他的外部利益相关者的透明度和信任。因此,为了促进用户对AI系统的理解,一种可行的思路是,借鉴食品营养成分表、产品说明书、药品或医疗器械的使用说明、风险告知等既有的信息披露机制,针对符合条件的AI系统建立“算法说明书”机制。欧盟的人工智能立法采取了类似的思路,欧盟人工智能法草案遵循分类监管的思路,针对高风险的AI系统提出了较高的透明度和信息提供要求,即开发者应确保高风险AI系统的运作足够透明,向用户提供使用说明(InstructionsofUse)等信息,并披露系统开发者的基本信息、高风险系统的性能特征、监督措施以及维护措施等信息。
(二)探索建立合理适度的、适应不同行业与应用场景的人工智能可解释性标准
法律治理固然重要,但可解释人工智能的实现也离不开技术人员和技术社群的直接参与。到目前为止,XAI已经成为人工智能领域最重要的发展方向之一,但正如美国DARPA关于XAI的回顾报告所发现的那样,XAI的进展仍十分有限,面临着诸多难题和挑战。当前最重要的是建立人工智能可解释性的技术标准。在这方面,首先需要明确的一个关键问题是,人工智能的评价标准不应是“完美级”(Perfection),而应在与既有流程或人类决策对比的基础上,界定评价AI系统的最低可接受标准。所以即使AI系统需要解释,也必须考虑可解释的程度。因为要求AI系统满足可解释性的“黄金标准”(远远超过既有的非AI模式即人类决策所要求的),可能不当地阻碍AI技术的创新性使用。因此需要采取折中路径,考虑技术限制与不同可解释标准需要的利益权衡,以便平衡使用复杂AI系统带来的好处与不同的可解释性标准带来的实践限制。笔者认为,用户友好型的解释应当是准确的、清晰的、明确的、有效的,且考虑不同应用场景的需求,以提高对AI系统的整体理解:解释是否准确传递了支撑AI系统的推荐的关键信息(KeyInformation)?解释是否有助于对AI系统整体功能的理解?解释是否清晰(Clear)、明确(Specific)、相关(Relatable)、可执行(Actionable)?解释是否适当考虑了敏感性(Sensitivity)?例如用户的敏感信息。
具体可以从以下方面来推进AI可解释性标准:
第一,针对AI系统的每一个应用场景都提供可解释性标准的指南,是不现实的,但可以针对一些示范性的应用场景提供可解释标准的指南。这能够给行业和企业提供有益参考,来平衡不同AI模型的性能与不同标准的可解释性要求。
第二,对于政策相关方而言,发布AI可解释的最佳实践做法案例集,以及具有负面影响的负面做法,都是值得尝试的。包括用以提供解释的有效的用户界面,以及面向专家和审计人员的记录机制(例如详细的性能特征、潜在用途、系统局限性等)。
第三,可以创建一个说明不同级别的可解释性的图谱。这个图谱可被用来给不同行业与应用场景提供最小可接受的衡量标准。例如,如果某个失误的潜在不利影响是非常微小的,那么可解释性则不怎么重要。相反,如果某个失误是危及生命财产安全的,则可解释性变得至关重要。类似地,如果用户可以容易地摆脱算法自动化决策的约束,则对深入理解AI系统的需求就不那么旺盛。
(三)支持行业自律,发挥市场的力量来促进可解释性人工智能的发展
根据美国科技行业的经验,可解释人工智能的工作应主要由企业与行业主导而非由政府强制监管,采取自愿性机制而非强制性认证。因为市场力量会激励可解释性与可复制性,会驱动可解释人工智能的发展进步。
一方面,从市场竞争的角度看,为了获得竞争优势,企业会主动提高其AI系统、产品与服务的可解释程度,从而让更多人愿意采纳或使用其人工智能应用,进而维持自身的市场竞争力;
另一方面,从用户的角度看,用户会用脚投票,即如果用户不理解AI系统的运作,在使用AI系统、产品与服务时可能存在顾虑,这意味着可解释性不足、难以被用户理解的AI系统、产品与服务将无法获得用户的持久信任,因而用户对此类AI应用的需求也会降低。
就目前而言,主流科技公司纷纷重视AI的可解释性研究与应用,已在积极探索人工智能可解释性的实现方式。
例如,谷歌的模型卡片机制(ModelCards),旨在以通俗、简明、易懂的方式让人们看懂并理解算法的运作过程,对模型的输入、输出、模型架构、性能、局限性等进行描述。
IBM的AI事实清单机制(AIFactSheets),旨在提供与AI模型或服务的创建和部署有关的信息,包括目的、预期用途、训练数据、模型信息、输入和输出、性能指标、偏见、鲁棒性、领域转移、最佳条件、不良条件、解释、联系信息等。面向未来,应着重通过最佳实践做法、技术指南、自律公约等行业自律措施来支持可解释人工智能的发展。
(四)替代性机制和伦理规范作为对可解释性要求的有益补充
虽然可解释性是完善AI技术的最优解之一,但并非所有的AI系统及其决策都可以解释,或者都需要解释。当AI系统过于复杂,导致难以满足可解释性要求,或是导致解释机制失灵、效果不乐观时,就要积极转变规制的思路,探索更多元化、实用化的技术路径。
目前在技术上主张的是采取适当的替代性机制,如第三方反馈、申诉机制与人类审查介入、常规监测、审计(Auditing)等,这些替代性机制可以对AI算法的决策起到监督和保障作用。
例如,第三方标记反馈机制允许人们针对AI系统提供使用上的反馈,常见的标记反馈技术包括用户反馈渠道(“点击反馈”按钮)、漏洞奖励机制等。
用户申诉机制能够对AI系统及其开发者形成有效监督,也是实现AI可责性的重要保障。中国的《信息安全技术个人信息安全规范》《网络安全标准实践指南》等标准都对用户的投诉、质疑、反馈以及人工复核等机制作出了具体规定。
常规监测包括严格且持续的测试、对抗测试等,旨在发现系统中的问题并及时改进。
审计机制作为确保AI可责性的重要方式,是对AI算法应用情况的记录、回溯和追查,通过算法审计可以达到反向解释的作用,降低算法黑箱的不良影响。
此外,考虑到监管的滞后性和技术的持续迭代性,伦理原则、伦理指南、伦理审查委员会等伦理规范和落地制度将能发挥更大价值,即使对于不具有可解释性的人工智能应用,也能确保企业以可信的、负责任的方式予以部署、使用。
结语
人工智能的透明性和可解释性,连同公平性评价、安全考虑、人类AI协作、责任框架等,都是人工智能领域的基本问题。随着人工智能监管的持续加强,立法对人工智能系统的透明性和可解释性规制也将走向深入。
一个首要的问题是,监管者在针对人工智能系统设计透明性和可解释性要求时,需要考虑他们想要实现什么目标,以及在特定情境下如何更好地匹配这些目标。因为透明性和可解释性本身不是目的,而是增进责任与问责,赋能用户,打造信任与信心的方式和手段。
将来立法在设定可解释性要求与标准时,不仅需要考虑受众需求、应用场景、技术与经济可行性、时空等因素,而且需要考虑可操作性、务实性,同时还需要注重做好与效率、准确性、安全、隐私、网络安全、知识产权保护等目的之间的平衡。很难遵从或者遵从成本很高的可解释标准会阻碍AI系统的应用。如果在所有的情形下都要求最详尽的解释,而不考虑实际的需求,则可能会阻碍创新,也会给企业及社会带来高昂的经济成本。
所以,适当的可解释性标准不应超过合理且必要的限度。举例而言,社会不会要求航空公司向乘客解释为什么飞机采取了算法决定的航线。类似地,一个相似的务实性、情境特定的路径应适用于AI系统的可解释性标准要求。就像取得驾照,相信汽车可以安全驾驶,并不需要人人都成为专业的汽车工程师一样,当使用AI系统时,解释并不总是必须的。
最后,“算法说明书”在增进算法透明、促进用户对算法的理解上的价值,值得进一步探讨论证。
本文原稿载于《月旦民商法杂志》第76期(2022年6月号)
原标题:《万字长文详解:人工智能系统可解释性要求的法律规制》
人工智能与生活方式的未来
2022/9/2113:32人工智能与生活方式的未来千家网希腊哲学家赫拉克利特说:“变化是生活中唯一不变的。”众所周知,人工智能正在彻底改变我们所知道的世界。但这对我们的日常生活意味着什么?在本文中,我们将探讨人工智能将如何影响从我们学习、出行和使用银行服务的方式到我们社交的方式的一切。
人工智能(AI)是一个术语,指计算机或机器学习和执行通常需要人类智能的任务的能力,例如理解自然语言和识别物体。虽然人工智能以一种或另一种形式存在了几个世纪,但直到最近,人工智能技术才发展到成为我们日常生活一部分的地步。人工智能有很多应用,从Siri和Alexa等个人助理到自动驾驶汽车等等。随着人工智能技术的不断发展,我们可能会在未来几年看到更令人印象深刻和改变生活的应用。
那么,这对我们未来的生活方式意味着什么呢?很难确定。但有一点是肯定的:人工智能将改变我们所知道的世界。
人工智能对生活方式有几个潜在的影响。一是人工智能可以通过自动化目前手动完成的任务来让生活更方便。例如,想象一个未来,当你的冰箱检测到食品供应不足时,它会自动为你订购所需物品。另一种可能性是人工智能可用于定制产品和体验,以更好地满足个人喜好。
例如,有一天你可能会告诉你的人工智能助手根据你的预算、旅行偏好和可用性为你计划一个假期。人工智能还可能对我们的生活和工作方式产生深远影响。例如,有人认为人工智能最终可能会导致零工经济的兴起,人们因完成短期任务或项目而不是传统的全职工作而获得报酬。这可能会改变我们对工作和休闲时间的看法,并对收入不平等和工作保障等问题产生影响。
当然,重要的是要记住,这些只是人工智能的潜在影响——没有什么是一成不变的。目前,我们不可能确切地知道人工智能将如何影响我们未来的生活,但这无疑是一个令人兴奋的领域!
此外,随着人工智能的出现,我们生活中的许多事情都必将发生变化。我们的日常生活、我们与他人互动的方式,甚至我们的思维方式,都可能在未来几年受到人工智能的影响。以下是人工智能可能改变我们生活方式的几种方式:
1、更智能的家庭:想象一个可以预测你的需求并自动处理任务的家庭,从你醒来时打开灯到确保你的咖啡在恰当是时间冲泡完成。随着人工智能为我们的家庭提供助力,这很快就会成为现实。
2、增强安全性:人工智能可以帮助我们在潜在危险和安全风险发生之前识别它们。例如,面部识别技术可以在人群中发现潜在的罪犯或追踪失踪人员。
3、改善医疗保健:人工智能可以比以往更早、更准确地诊断疾病。此外,人工智能驱动的聊天机器人可以为患有焦虑症或抑郁症的患者提供有价值的支持和建议。
4、更高效的交通:由于自动驾驶汽车和无人机,交通拥堵很快就会成为过去。这些自动驾驶汽车将能够导航到目的地的最佳路径,甚至提供可用的无人机升降机选项和交通拥堵最少的最佳日子,同时为我们列出每周的待办事项清单。
此外,毫无疑问,人工智能(AI)正在迅速发展,并且每天都变得越来越复杂。随着人工智能能力的快速扩展,许多专家开始质疑我们所知道的人类文明的未来。最常讨论的话题之一是人工智能主导的世界中国家的未来。
一些专家认为,在人工智能主导的未来,国家将不复存在。他们认为,随着人工智能开始超越对物理边界的需求,边界和国籍等传统概念将变得过时。其他人则认为国家仍然存在,但它们的作用将发生巨大变化。例如,国家可以基于共同的价值观或共同利益,而不是基于地理位置。
你怎么看?在人工智能主导的未来,国家还会存在吗?或者它们会像我们今天所知道的那样不复存在?
此外,治理的未来很可能由人工智能塑造。虽然它可以帮助制定决策和自动化流程,但在治理中使用它也存在风险。这些风险包括人工智能可能被用于大规模监视、操纵公众舆论或不公平地使某些群体优于其他群体。在监控方面,人工智能可以比人类更有效地处理大量数据。这可能会导致加强对人们活动的监控并减少隐私。
此外,人工智能可以通过传播虚假信息或有偏见的内容来操纵公众舆论。最后,如果某些群体根据他们的数据资料获得优惠待遇或获得资源,人工智能可能会在治理方面造成差异。
虽然在治理中使用人工智能存在风险,还有潜在的好处。人工智能可以帮助提高政府流程的效率并使其更加公平。例如,人工智能可以帮助识别腐败或欺诈的模式。此外,人工智能可以增加所有公民对政府服务的可及性。人工智能在治理中的使用仍处于早期阶段,还需要一段时间才能感受到其全面影响。然而,监测事态发展很重要,因此整个国家不会因为缺乏准备和重新学习或调整的意愿而变得过时。
自动驾驶汽车将交通和叫车服务带回家,是人工智能最重要的应用之一,可能在不久的将来对我们的生活产生重大影响。虽然这项技术仍处于起步阶段,但它有可能彻底改变交通方式。自动驾驶汽车的主要优势之一是它们可以潜在地减少事故。
根据美国国家公路交通安全管理局的数据,94%的车祸都是人为失误造成的。自动驾驶汽车不太容易发生事故,因为它们不会像人类司机那样感到疲倦、分心或陶醉。此外,自动驾驶汽车还可以帮助减少交通拥堵。他们将能够相互交流并协调他们的行动,以避免交通拥堵。这不仅可以为司机节省时间,还可以减少污染和节约能源。
自动驾驶汽车的另一个潜在好处是,它们可以为那些无法自行驾驶的人提供机动性,例如老年人或残疾人。这可以让他们保持独立并提高生活质量。当然,自动驾驶汽车也有一些潜在的缺点。一是它们可能导致专业司机失业(并开辟新的可能性),例如优步对传统出租车系统的所作所为以及拼车司机——他们中的许多人现在在优步上开车。
此外,未来的农业具有成熟的潜力和可能性。在人工智能的帮助下,农民将能够提高产量,减少投入,并改善他们的农场决策。此外,人工智能还可以帮助设备的预测性维护、土壤绘图和天气预报。所有这些都可以帮助农民更有效地生产粮食,减少对环境的影响。
最重要的是,近年来银行业一直面临着跟上金融业不断变化的格局的压力。特别是,金融科技初创公司的崛起颠覆了传统的银行模式,并为以客户为中心、精通技术的公司创造了新的机会。
为了应对这一挑战,许多银行正在转向人工智能(AI)来帮助他们保持竞争力。人工智能可用于多种方式来改善客户体验、加快流程并提高效率。以下是银行业如何使用人工智能的几个例子:
1、自动化客户服务:银行正在使用AI驱动的聊天机器人24/7全天候处理客户查询。这些聊天机器人可以回答有关账户余额和交易的简单问题,并提供有关金融产品的更复杂的建议。
2、欺诈检测:人工智能被用于识别银行账户上的欺诈活动。通过分析大型数据集,人工智能可以发现人类分析师无法看到的模式。这有助于银行保护客户免受欺诈并降低运营成本。
3、个性化推荐:银行正在使用人工智能向客户提供个性化推荐。例如,经常使用信用卡的客户可以获得有关安全措施的免费提示和咨询视频,以引起注意。
此外,教育的未来经常被谈论在技术方面。从在线学习到增强现实,有很多新工具可能会彻底改变我们的学习方式。但是一个没有得到太多讨论的领域是人工智能。人工智能可能会对未来的教育产生重大影响,无论是在我们如何学习还是如何教学方面。
以下是人工智能塑造教育未来的几种方式:
1、个性化学习:人工智能可用于为学生创造定制的学习体验。通过跟踪学生的进步并了解他们的个人需求,人工智能可以帮助根据每个学生独特的学习方式定制教学。
2、更智能的教科书:教科书已经开始融入人工智能,具有交互式问题和自适应内容等功能。但在未来,教科书可能会变得更加智能,使用人工智能提供实时反馈并根据读者的水平定制内容。
3、强化辅导:SabiTeach、KhanAcademy和Duolingo等在线辅导服务已经很流行,但如果有AI,它们可能会更好。通过提供个性化的反馈和有针对性的练习问题,人工智能导师可以帮助学生更有效地学习。
谈到生活方式的未来,许多人认为人工智能将发挥重要作用。毕竟,人工智能具有分析数据和识别模式的能力,这意味着它可以用来自动化各种任务。这可能会使我们的生活更加轻松和高效。
此外,人工智能还可用于定制体验。例如,假设你正在计划一个假期。人工智能系统可以分析你的旅行历史和偏好,为你推荐完美的目的地。或者,如果你要购买新衣服,人工智能可以根据你的个人风格和体型选择物品。
当然,人工智能也存在一些风险。例如,如果收集了太多关于我们个人偏好的数据,它可能会被用来操纵我们的行为。此外,随着人工智能系统变得越来越复杂,它们有变得无法控制甚至危险的风险。总的来说,人工智能有潜力在很多方面极大地改善我们的生活。但是,重要的是要意识到所涉及的风险,以便我们可以尽可能地减轻它们。
尽管如此,毫无疑问,人工智能正在彻底改变我们的生活和工作方式。但除了人工智能带来的诸多好处之外,我们还需要注意一些挑战。
人工智能带来的最大挑战之一是潜在的失业。随着人工智能技术的不断进步,很可能越来越多的工作将被自动化。这可能导致大规模失业,以及那些能够使用人工智能技术的人和那些不能使用人工智能技术的人之间的不平等加剧。
人工智能带来的另一个挑战是它正在改变我们与彼此以及与周围环境互动的方式。随着越来越多的人开始依赖数字助理和其他形式的人工智能,我们可能会开始失去一些社交技能。当我们与机器而不是人类互动时,我们也可能变得更加孤立。
最后,还有数据隐私问题。随着人工智能技术在收集和分析数据方面做得越来越好,我们的个人数据可能会被用来以我们甚至不知道的方式操纵或控制我们。这可能对我们的个人自由和自由产生重大影响。这些只是人工智能给我们的生活方式带来的一些挑战。
值得一提的是,人工智能的发展是必然的。无论我们是否意识到,它都在我们周围发生。随着人工智能技术的飞速发展,未来我们的生活将发生翻天覆地的变化。
以下是我们可以适应人工智能带来的变化的一些方法:
1、随时了解最新的人工智能发展;
2、思想开放,拥抱变化;
3、学习新技能,紧跟最新潮流;
4、积极主动,提前思考人工智能将如何影响你的行业或职业;
5、密切关注人工智能的伦理影响,确保其发展不会违反你的个人价值观;
6、采用持续改进的生活方式,以在人工智能创造的未来保持相关性。
毫无疑问,人工智能将彻底改变我们现在和未来的生活方式。凭借其学习和适应能力,人工智能将能够承担我们目前必须自己完成的许多任务和责任。这将为我们腾出大量时间去追求其他兴趣和活动,并使我们的生活更轻松。尽管人们对人工智能将如何影响就业机会存在一些担忧,但我相信它最终会在很多方面改善我们的生活质量。
给作者点赞0VS0写得不太好人工智能与生活方式的未来
免责声明:本文仅代表作者个人观点,与C114通信网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
人工智能与未来法治构建
原标题:人工智能与未来法治构建9月19日,一场“法治+技术”思想饕餮盛宴――2018世界人工智能大会“人工智能与法治”高端研讨会在上海科学会堂举行。来自国内外法学理论、法律实务、高科技企业、党政事业单位、新闻媒体等领域的250余人参加了会议。上海市法学会党组书记崔亚东、科技部中国科学技术信息研究所党委书记赵志耘、微软全球资深副总裁洪小文、中国刑法学研究会副会长刘宪权等8位顶尖研究专家、教授学者、业界精英,围绕“发展应用与法治保障”这一主题进行发言。研讨会最后,会议主办方综合各方专家学者的意见,发布了《人工智能与未来法治构建上海倡议》,从人工智能与未来法治构建的理念框架、促进规范保障人工智能发展的法治路径、加强人工智能法律领域的教育研究与实践、推动人工智能未来法治的国际交流与合作等四个方面提出了14项具体倡议。
人工智能与司法现代化
上海市法学会党组书记崔亚东以人工智能在司法领域的实际应用――上海刑事案件智能辅助办案系统的研发应用为切入点,全面介绍了该系统的相关情况。他认为,人工智能时代的到来,司法一方面要抓住机遇,跟上时代的步伐,主动作为,准确把握司法规律与人工智能特征的结合,积极拓展司法应用的空间,使人工智能更好地服务司法,推进司法本身现代化的实现。另一方面,司法要针对人工智能在法律、安全、就业、道德伦理和政府治理等方面提出的新课题,加强人工智能发展与法治的前瞻性研究,积极构建人工智能未来法治体系,用法治保障人工智能健康持续发展,为人工智能国家战略的实施提供法治保障。
中国刑法学研究会副会长刘宪权以人工智能时代的刑事责任演变为主题,阐述了机器人技术的三个发展历程――普通机器人时代、弱人工智能时代和强人工智能时代。他表示,目前,人类还处于弱人工智能时代,对于涉及弱智能机器人的犯罪行为,是否由弱智能机器人的研发者和使用者来承担刑事责任,法律界需要进一步研究。至于未来的强人工智能时代,他觉得应该从两个角度来思考法学界是否有必要研究强人工智能的刑事风险和刑法应对的问题。其一,作为法学研究者应该“相信谁”?其二,是否需要未雨绸缪?目前,我国的刑罚种类都无法适用于强智能机器人。刘宪权建议,应重构我国的刑罚体系,使得强智能机器人被纳入刑罚处罚的范围,并针对其自身的特点,设立特殊的刑罚处罚方式。
中国法学会民法学研究会常务理事彭诚信认为,当务之急是要研究人工智能的法律主体地位。他介绍了法学界对人工智能法律主体地位的各种学说,“客体说”认为机器人仅仅是权利的客体,“代理说”将机器人作为其“所有人”的代理人,“电子人格说”则是为机器人创设一个特殊的法律地位。彭诚信提出了人工智能享有有限法律人格的设想,并把这一设想细分成明确“刺破人工智能面纱”的归责原则、为人工智能强制投保责任保险、建立人工智能储备基金,以及在一国范围内应先制定具体的“人工智能发展法”等四个方面。
迎接人工智能技术的未来挑战
科技部中国科学技术信息研究所党委书记赵志耘指出,发展可能会带来问题,但发展本身不是问题。人工智能发展需要在推动发展和有效规范之间找到一个平衡点,从我国经济社会发展的现实需求来看,人工智能和大数据、物联网、云服务等一并成为打造智能经济、建设智能社会的关键基础性技术支撑。因此,需要把发展放在第一位,同时做好相应的制度、法律、规范和标准等方面的准备。人工智能的发展有可能使已存在的国家间数据鸿沟和技术鸿沟更加凸显,最终会转变成发展鸿沟,从而对全球治理提出新挑战,中国一定要提前布局,为全球治理贡献中国智慧,并更好地掌握发展的主动权。
微软全球资深副总裁洪小文在谈及人工智能的社会角色与未来愿景时表示,微软致力于拓展人工智能技术的开发边界,以延展人类智能的方式设计人工智能,以便实现人与系统更自然的互动,并促进人工智能功能的广泛应用,使人工智能人人共享。微软坚信,需要基于人类立场来发展人工智能,并且以人为先、以人为中心,而以人为先的途径,关键在于设计系统时,让人工智能放大并提升人类智能。他认为,要以赢得信任的方式设计人工智能,人工智能系统应当公平、客观对待每一个人,并且应当可靠、安全地运行,而且要有私密和有保障,有包容性。
腾讯专家王栋重点介绍了腾讯倾力打造的云计算机品牌――腾讯云,腾讯云为政府机构提供了诸多一站式大数据的解决方案,如广东省集成民生服务的移动服务平台“粤省事”,在全国40多家法院试点应用的“智慧法院”解决方案等。他表示,腾讯大数据方案还可以结合腾讯海量信息数据,提供人群画像、区域人流分析等公共服务,力助政府高效行政,辅助决策。王栋感慨,人工智能是发挥“科技向善”功能的良好领域,他希望通过人工智能与法治的结合,能够创造出更高效的产业,给人们提供更加美好的生活。
人工智能在政法领域的应用思考
科大讯飞股份有限公司高级副总裁赵志伟在发言中分享了人工智能技术的最新进展,如语音合成技术、语音识别技术、智医助理机器人等多项人工智能核心技术在全球处于领先地位。他认为,随着云计算、移动互联网、深度学习算法的持续突破,当今社会正开始由“互联网+”向“人工智能+”过渡,利用人工智能技术以及互联网平台,让人工智能与传统行业、新型行业进行深度融合,创造新的行业发展生态。司法体制改革是政治体制改革的重要组成部分,对推进国家治理体系和治理能力现代化具有重要意义。
北京优炫软件股份有限公司联合创始人赵春学更关注中国AI数据安全技术发展与法律保障,他指出,AI数据安全风险越来越大。第一,管理风险越来越大。先发优势带来快速发展,先发劣势带来管理滞后。AI数据管理缺乏有效抓手,存在内部人员违规使用数据,外包人员数据泄露,互联网+等第三方APP接入数据保护,数据分权管理,数据分级管理等风险。第二,技术风险越来越大。面对新的AI数据安全威胁,传统安全技术显得滞后。传统网安设备很难应对操作系统漏洞、应用系统漏洞、数据库漏洞、硬件芯片漏洞、数据共享需求膨胀等威胁。因此,急需法律保障促进AI数据安全技术加速发展。(严剑漪)
(责编:龚霏菲、王珩)分享让更多人看到
人工智能时代的制度安排与法律规制
“这是最好的时代,也是最坏的时代”,英国文学巨匠狄更斯在其名著《双城记》中的开篇话语,一百多年来不断地被人引用。在这里,我们再次以此来描绘人工智能时代的未来图景。一方面,智能革命无疑将给我们带来一个更美好的社会,它是智能的、精细化和人性化的“最好时代”。
在云计算、大数据、深度学习算法、人脑芯片的催化下,人工智能模拟和表现了人类的智慧动力,并以高于人类的工作速度、优于人类的工作精度、胜于人类的工作态度,协助人类解决各种各样的问题,包括危险场合和极端环境的难题,从而形成人类智慧的创造力优势与人工智能的操作性优势之间的强强合作。人工智能现已成为全球新一轮科技革命和产业变革的着力点,在人类智慧能力无穷增大的“科学梦”背后,是一片蕴藏无限生机的产业“新蓝海”。
社会正在从“互联网+”向“人工智能+”转型,旧领域生发出新的产业形态,多领域催生了新兴的细分行业,由此创造出巨大的经济价值和社会财富。在谷歌、脸谱、IBM等领军企业的带领下,全球对人工智能的关注度不断提升。截至2015年,人工智能国际市场的规模为1683亿元,预计到2018年将增至2697亿元,增长率达到17%。在投资规模方面,2015年为484亿元,预计到2020年,投资总量将达到1190亿元。
可以认为,人工智能将从专业性较强的领域逐步拓展到社会生活的各个方面,人类未来会在“万物皆互联、无处不计算”的环境下精准生活。但另一方面,智能革命也将给我们带来诸多麻烦,也许我们面临着一个社会问题丛生和安全隐患不断的“最坏时代”。
到目前为止,人工智能已在全球范围内逐步建立起自己的生态格局,并开始深度介入人类的社会生活。2016年,距离麦卡锡、明斯基、香农等人提出人工智能的概念正好过去60年。在过去的一年,人们看到了许多存在于科幻小说的内容成为现实:人工智能击败了人类顶尖棋手,自动驾驶汽车技术日趋成熟,生产线上活跃着“机器人”群体……“智能时代,未来已来”。人们在为人工智能的强大能力感到惊叹的同时,也激发了对人工智能安全问题的普遍忧虑,人工智能是否成为人类“最后的发明”?我们应该如何看待人工智能的潜在风险?
人工智能对人类社会的潜在风险,聚焦于威胁人类自身安全的可能性,涉及人类基本权益的生命与健康、尊严与隐私、安全与自由。科学家认为,人工智能存在着威胁人类存续的可能性,但这种风险不是由于自发的恶意所引起,而应来自人工智能发展过程中出现的不可预测性和潜在的不可逆性。
质言之,人类有智慧能力创造出人工智能,也应有能力和理智来控制人工智能。因此,“最好是期待人类的聪明才智,而非低估它;最好是承认风险的存在,而非否认它。”我们应当思考的不是消灭客观危险,而是在这些潜在的威胁和挑战面前,增强风险认识能力,提高制度风险意识,通过法律和其他社会规范来预防规避风险,引导规范人工智能技术健康发展,这即是法学家、法律家的任务。
人工智能的首要问题是安全问题,可以置于风险社会理论的研究范畴之中。德国学者贝克认为,人类面临着威胁其生存的由社会所制造的风险。现代化正在成为它自身的主题和问题,因此变得具有反思性。风险概念表明人们创造了一种文明,以便使自己的决定将会造成的不可预见的后果具备可预见性,从而控制不可控制的事情。
在风险理论中,人工智能存在着现代性的负面影响,因此有必要采取风险措施,即预防性行为和因应性的制度。对风险社会问题的法学研究,其重点是法律制度与法律秩序。“法律制度的价值和意义就在于规范和追寻技术上的可以管理的哪怕是可能性很小或影响范围很小的风险和灾难的每一个细节。”而法律秩序则是法律制度实行和实现的效果,即社会生活基本方面的法律和制度化。现代社会是法治社会,制度风险及风险法律控制是风险社会法学研究理论的基本内涵。
人工智能既是人类文明,亦有社会风险。它或是“技术—经济”决策导致的风险,也可能是法律所保护的科技文明本身所带来的风险。换言之,知识问题是现代性风险的根本成因,制度以至法律选择的实质应是基于风险的决策。正是在这个意义上,贝克提出知识经济就是“风险经济”,“风险就是知识中的风险”。具体说来,人工智能时代的社会风险具有以下特点:
一是风险的共生性。风险社会的内在风险,基于技术性风险和制度化风险而形成,且存在共生状态。人工智能时代是一个高度技术化的社会,科学技术的高度发展既是风险社会的特征,也是风险社会的成因。现代社会中的风险是“被制造出来的风险”,是由我们不断发展的知识对这个世界的影响所产生的风险。
马克斯•韦伯形象地指出,人类在不久的将来注定会生活在“技术知识的囚室”。人工智能是知识革命中最具代表性和影响力的时代技术。“对知识体系和技术性知识的信任,是人们在风险社会中获得和持有本体性安全的基础和保证。”从“反思的现代性出发,对法律及其保护的先进技术仅为信任是不够的,人工智能在其发展过程中出现的不可预测性和潜在的不可逆性”,其本身就是一种风险。
同时,人工智能时代的风险含义,还依赖于这样的一个事实,即文明的决策可能触发全球化进程中的一系列问题和一连串的风险,直言之,“风险以决策为先决条件”。制度风险可能来自我们的工业制度、科技政策乃至法律规则,或是表现为对新技术无措的“制度缺失”,或是表现为对新技术错判的“制度失败”。这些即是规则运转失灵的风险,其结果形成制度化风险。
二是风险的时代性。在风险社会理论中,风险社会这一概念并不是社会发展类型的某一历史分期,也不是某个具体社会和国家的现实发展阶段,而是对当今人类时代问题的理论概括与形象描述。智能革命是时代的产物,其特点是人类智力与人工智力的结合,智能技术导致智力物质化、社会智能化,最终出现智能社会。
智能社会的形成将是一个长期的过程,或者说是一个时代变迁。以人类思维能力和意识的迁移为表征,以智能机器人的活动为中心,人工智能的发展将会递进呈现出不同阶段。如何应对智能时代中现实世界与理念世界的分离,如何防范病毒、黑客对人工智能产品的侵蚀,这种高科技所引发的高风险会持续整个智能革命的时代过程,它是现实的风险,也是未来潜在的风险。
三是风险的全球性。经济全球化、科技全球化、信息全球化乃至治理机制的全球化,不可避免地带来风险的全球性。反全球化主义者认为,全球化正在催生另一种形态的帝国体制:互联网是“信息帝国主义”,世界贸易组织是“市场帝国主义”,国际货币基金组织是“金融帝国主义”,而联合国是“政治外交的帝国主义”。贝克对此作出了自己的判断:全世界面临着社会认同解体、价值利益冲突、主体组织对立、国家立场对峙、生态环境破坏等不确定因素,这些危机与发展遍布全球,形成对人类生存的新威胁。
可以认为,风险社会是一种“全球风险社会”,风险的空间影响超越了地理边界和社会文化的边界。正如吉登斯所言,“在全球化的时代里,风险的影响被普遍化了。”在人工智能风险的国际应对方面,2016年联合国发布《人工智能政策报告》,表达了对人工智能的关注,并针对人工智能技术发展带来的各种问题,提出了新的思考方式和解决途径。报告呼吁世界各国加强在人工智能技术研究与开发领域的合作,共同应对智能机器人在就业、伦理道德以及法律层面带来的挑战。
科学技术在人类的文明进步中总是扮演着最活跃、最革命的角色。面对智能革命,我们不能逃避它、否定它和阻止它。上述判断依赖于以下两点事实:
第一,人工智能技术在造福人类的同时也加大了人类危害自身的可能性,这即是技术的负面性与风险的不确定性的联系。
第二,传统社会治理体系无力解决工业社会过度发展而产生的社会问题,这即是法律的确定性与风险的不确定性的背离。对于现代各国而言,人工智能发展的政策考量,其实是基于风险的制度选择和法律安排,我们应“通过法律化解风险”,“通过法律吸纳风险”,“将风险社会置于法治社会的背景之中”,即对智能革命时代的法律制度乃至整个社会规范进行新的建构。
人工智能技术在挑战我们的法律
智能革命的出现,对当下的伦理标准、法律规则、社会秩序及公共管理体制带来一场前所未有的危机和挑战。它不仅与已有法律秩序形成冲突,凸显现存法律制度产品供给的缺陷,甚至会颠覆我们业已构成的法律认知。就调整人工智能相关社会关系的法律制度而言,人们的担忧多于期待、疑虑甚于创制。现择其主要问题分析如下:
1、机器人法律资格的民事主体问题
随着人工智能技术的快速发展,机器人拥有越来越强大的智能,机器人与人类的差别有可能逐渐缩小。未来出现的机器人将拥有生物大脑,甚至可以与人脑的神经元数量相媲美。美国未来学家甚至预测:在本世纪中叶,非生物智能将会10亿倍于今天所有人的智慧。
是否赋予机器人以虚拟的“法律主体资格”,在过去的一段时期,美英等国的哲学家、科学家包括法律家都为此开展过激烈的争论。2016年,欧盟委员会法律事务委员会向欧盟委员会提交动议,要求将最先进的自动化机器人的身份定位为“电子人”(electronicpersons),除赋予其“特定的权利和义务”外,还建议为智能自动化机器人进行登记,以便为其进行纳税、缴费、领取养老金的资金账号。该项法律动议如获通过,无疑使得传统的民事主体制度产生动摇。
机器人是机器还是人,在法理上涉及到主客体二分法的基本问题。在民法体系中,主体(人)与客体(物)是民法总则的两大基本制度。主体与客体、人与物之间有着严格的区别。凡是人以外的不具有精神、意思的生物归属于物,是为权利的客体。主客体之间这种不可逾越的鸿沟现在正发生动摇。
从基因时代到智能时代的一个重要变化是,传统民法的主、客体框架已然打破:人的遗传基因物质不能简单作为客体物看待,而没有生命但具有人工智能的机器人也有可能被赋予法律资格。将机器人视为“人”,赋予其相应的主体资格,难以在现有的民法理论中得到合理的解释。民法意义上的人,须具有独立之人格(权利能力),该主体既包括具有自然属性的人(自然人),也包括法律拟制的人(法人)。日本学者北川善太郎认为,在民法上,“法的人格者等于权利能力者”,关于人或法人的规定,“表现了最抽象化层次的抽象的法人格”。
法人格概念的意义在于揭示民事主体的内在统一性和其实质,界定主体与客体的关系。“民事能力概念的意义在于揭示民事主体的差异性,具体刻画民事主体存在与活动的状态与特征。”
从法律技术逻辑层面看,《德国民法典》以权利能力核心概念为中心,进行主体人格的制度设计。在财产权领域,这种构架中的逻辑关系就是“经济人—权利能力—法律人”。在自然人人格场合,“法律人”的成立是以伦理价值为依据,将伦理价值从人的范畴中抽去之后,即通过权利能力将“生物人”自然本性与“法律人”的法律属性直接连接的。而在法人人格场合,由于权利能力扮演“团体人格”的角色,从而形成“团体—权利能力—法律人”的逻辑关系,从而使得法人与同为“法律人”的自然人一样在某些方面享有人格利益成为可能。
基于上述分析,可以认为:机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,将其作为拟制之人以享有法律主体资格,在法理上尚有斟榷之处。据多数科技专家研究,由于人造机器没有自身的目的,其工作目的非常特定,且为人类设计者所设计。质言之,机器人生成的目的行为,与人类有目的、有意识的行为性质完全不同;同时,机器人没有自身积累的知识,其机器知识库的知识都是特定领域的,并且都是人类输入的。
在这种情况下,模拟和扩展“人类智能”机器人虽具有相当智性,但不具备人之心性和灵性,与具有“人类智慧”的自然人和自然人集合体是不能简单等同的。换言之,受自然人、自然人集合体——民事主体控制的机器人,尚不足以取得独立的主体地位。
2、人工智能生成作品的著作权问题
人工智能的实质,是“让机器从事需要人的智能工作”,包括下棋、解题、从事数学发现、学习新的概念、解释视觉场景、诊断疾病、推理条件等。基于此,文学、艺术和科学作品的创作也在机器人的智能范围之内。从计算机到机器人的发展,在作品创作方面即是一个从阅读到写作的跨越。
在机器人时代,某些作品就是人工智能的生成内容。据美国NarrativeScience的预测,未来15年将有90%的新闻稿件由机器人完成,大量的美术、音乐等艺术作品也将出自人工智能创作。机器人的写作方式,采取“信息→知识→智能”的技术路径,基于“人机合作”系统而导致内容生成。该行为是否构成法律意义上的“独创性”或“主观能动性”,一些国家和地区的法学家试图作出正面回应。
有消息称,日本准备立法保障人工智能的著作权作品,以防止机器人创作中的抄袭之风;欧盟法律事务委员会提出动议,拟赋予机器人以著作权。
关于人工智能的生成作品,著作权法有两个问题需要解决,即机器人设计的作品是否享有权利?该项权利应归属于机器还是创制机器的人?据专家研究,人工智能生成的作品,目前还处于在特定的格式和写作模板下传达信息、表达意思的阶段,尚不能无限定格式地写作内容。尽管机器人稿件的表达技巧有限,但仍可以视为著作权法意义上的作品。依世界知识产权组织的权威解释,作品须具独创性,即“作品是作者自己的创作,完全不是或基本上不是从另一作品抄袭来的。”
这就是说,人工智能生成之内容,只要由机器人独立完成,即构成受著作权保护的作品,至于其用途、价值和社会评价则在所不问。机器人作品享有著作权,但机器人并不能像自然人作者或法人作者那样去行使权利,换言之,该项著作权应归属于机器人的创造人或所有人。
这是因为,机器人是机器而不是“人”,它是依靠数据和算法而完成写作,该机器人以及其写作的技术路径无一不是人类创制。在这种情况下,法律可以通过保护机器人作品以达到保护机器人的创造人和所有人的目的。具言之,可参照著作权法关于职务作品或雇佣作品的规定,由创制机器的“人”而不是机器人去享有和行使权利。
3、智能系统致人损害的侵权法问题
智能型“新一代机器人”,与传统的执行重复任务的工业机器人不同,它拥有相对的自主权和更高的人工智能水平,且将广泛而深入地参与人类社会的生活。“智能型机器人”的广泛使用,在带来高效和便捷的同时也不可避免对人类带来伤害。
机器人致人损害有两种情形:
一是侵权人对智能系统进行非法控制而造成的损害。例如,黑客、病毒等人为因素侵入互联网,进而控制人类家庭的儿童看护机器人、助老机器人、护士机器人或其他智能系统,由此导致危及人类的后果。在这种情况下,发动黑客攻击或传输病毒的侵权人应该承担法律责任自不待言,这些不是本文研究的主要话题;
二是智能系统自身的产品瑕疵而造成的损害。据报道,早在上个世纪80年代,日本即发生过工业机器在作业现场将工人置入机器压死的事件;2007年,美国食品药品监督管理局收到200多份投诉,指控医疗外科手术机器人对病人造成烧伤、切割伤以及感染,其中包含89例导致病患死亡。
上述致人损害的事由,究竟是机器人创制者的技术漏洞,抑或智能机器管理人的不当使用?甚至可能是人工智能系统超越原控制方案的“自身行为”?在这种情况下,就必须对机器人的过错行为原因进行分析,以查找侵权主体构成并分担赔偿责任。
关于智能系统致人损害责任的认定,有两种责任方式可供选择:
一是基于行为人过失所产生的产品责任。在侵权责任法中,产品责任是指产品生产者、销售者因生产、销售缺陷产品致使他人遭受人身损害、财产损失或有致使他人遭受人身、财产损害之虞而应承担的特殊侵权责任。致人损害的产品,必须存在缺陷,它包括制造缺陷、设计缺陷、警示缺陷、跟踪观察缺陷。
上述情形符合智能系统致人损害责任的一般特征。2016年,联合国教科文组织会同世界科学知识与技术伦理委员会发布报告指出,由于机器人一般被视为通常意义上的科技产品,机器人以及机器人技术造成的损害,可由民法中产品责任的相关规定进行调整。从产品责任的认定条件来看,机器人造成的损害可归类于机器人制造者和销售者的过失,包括产品制造的过失、产品设计的过失、产品警告的过失以及没有尽到合理的注意义务。
二是基于技术中立原则所产生的替代责任。关于技术产品致人损害,技术中立原则可提供责任规避。所谓技术中立原则,是指任何技术本身原则上都不产生责任承担,但是一项特定技术的主要商业用途是用来从事侵权或其他违法行为的,那么该项技术即不适用“技术中立”原则。在这种情况下,适用替代责任较为适宜。替代责任又称为转承责任,最初出现在代理关系与雇佣关系中,即被代理人对代理人实施的,得到被代理人“授权”或“批准”的侵权行为承担责任;雇主对其雇员在“雇佣期间”实施的侵权行为承担责任,概称为“为他人侵权行为承担责任”。
在替代责任情形中,机器人本无瑕疵,符合技术中立原则要求,但机器人的所有人或使用人,或不尽善良管理人之义务,或放任机器人的侵权行为,则不能以技术中立原则免除责任。
4.人类隐私保护的人格权问题
网络空间是一个真实的虚拟存在,是一个没有物理空间的独立世界。在这里,人类实现了与肉体分离的“数字化生存”,拥有了“数字化人格”。所谓数字化人格就是“通过个人信息的收集和处理勾画一个在网络空间的个人形象”——即凭借数字化信息而建立起来的人格。
个人信息包括了当事人不愿他人知道或他人不便知道的隐私信息,主要类别有:个人登录的身份和健康状况、个人的信用和财产状况、电子邮箱地址、网络活动踪迹等。在信息化社会,这些零散的和广泛的个人信息有可能被收集,并进行数据处理,从而拼合成所谓数字化人格——在很大程度上是被迫建立的人格,个人毫不知情的人格。在今天和未来,当移动互联网、大数据和机器智能三者叠加后,我们生活在一个“无隐私的社会”。
面对大数据对个人隐私潜在的威胁,我们必须重视智能革命时代隐私权的保护,有三点举措可供采用:
一是增强自我保护意识。在当下的移动互联和今后的万物联网的时代,我们本身就是隐私的泄密者:智能手机安装了太多而不甚使用的APP,社交网络讲了太多而不适宜公开发表的言论,都可能造成隐私泄露;还有各种电子产品,从带有GPS的照相机到与WIFE相连的智能电器,都精细地记录私人的行踪和生活信息。在人工智能时代,挖掘个人隐私是由机器完成的,因此保护隐私,须从自己做起,对智能电器有防范之心;
二是强化企业保护用户隐私的责任。企业须负有保护用户隐私的意愿和责任,“这将是用户隐私是否得到有效保护的关键”。在当下,用户数据日益聚集在大型互联网或数据处理的企业手中,对其进行保护个人隐私的责任约束就显得非常重要。在欧盟和美国,根据政府要求,也出于用户主张,服务条款应特别声明从用户获得的数据属于用户本人,如对个人数据有不当处置,应承担责任。这不仅是合同规定的违约责任,也是违反法律的侵权责任。
三是加强网络、电讯隐私保护的专门立法。隐私权的保护应以民法保护为基础,明确隐私权的权利属性、权能内容、保护方式等;同时以专门法律保护为补充,规定特定领域的特定主体隐私保护的原则和办法。
例如,美国1974年制定《联邦隐私权法》,是为隐私权保护的基本法,后又于1986年通过《联邦电子通讯隐私法案》,2000年出台《儿童网上隐私保护法》,此外还颁布了《公民网络隐私权保护暂行条例》、《个人隐私与国家信息基础设施》等法律。
欧盟则在1997年通过《电信事业个人数据处理及隐私保护指令》之后,又先后制定了《网上个人隐私权保护的一般原则》、《信息公路上个人数据收集处理过程中个人权利保护指南》等相关法规。隐私权的保护,是信息时代特别是人工智能时代的法律难题。智能革命不断深入发展的过程,亦是隐私安全风险增大与法律保护强化的过程。
5.智能驾驶系统的交通法问题
人工智能在交通领域的重要应用是网联自动驾驶。智能驾驶通过导航系统、传感器系统、智能感知算法、车辆控制系统等智能技术,实现了“人工智能+无人驾驶”,颠覆了以往的人车关系、车车关系。为推动智能驾驶产业的发展,美、德、日等国都在探索,甚至出台了有关交通责任分配的法律规范和安全检测市场准入的监管政策。
无人驾驶汽车可能带来的法律问题,主要有:
一是法律规制对象的转变。无人驾驶意味着交通领域的准入资格,不再是驾驶人的驾驶技术,而是无人驾驶汽车的智能化水平。换言之,随着无人驾驶中驾驶人概念的消失,法律规制的对象不再是车辆的驾驶人员,而将是智能驾驶系统的开发者、制造者;
二是法律责任体系的重构。以过错责任为基础而建立的“风险分配”责任体系,在未来的交通法规中将不复存在。对于道路交通事故的认定,其归责事由只有结果的“对与错”,而无主观上的“故意”或“过失”。
三是交通监管重心的变化。以交通安全为目标,以往交通管理部门监管的重点是汽车装置的安全性能和驾驶人安全驾驶技能;而在智能驾驶中,避险保障和精确驾驶的软硬件体系,是道路交通检测、准入的重点。
6.机器“工人群体”的劳动法问题
人工智能技术发展的基本面向,是对人-机关系的改变。智能机器人的大规模应用,一方面推动了社会生产力的发展,大大提高了生产效率;另一方面也带来了社会结构的变化,使得人与机器人的关系成为社会生活的重要方面。以保护劳动者利益为宗旨的劳动法,面临着前所未有的两个难题:
一是传统劳动法的调整功能消减。据牛津大学的调研报告,未来将有1000万非技术工种被机器人取代,其中包括文秘、工人、中介、司机等一大批岗位。报告特别指出,目前软件工程师所做的工作将会被智能机器人所代替,即创造者被其创造的技术产品所代替。这些都对现有劳动者的权利带来冲击。大批劳动者离开传统岗位,其权益救济更多是寻求社会保障法,那么“劳动法是否面临消亡的命运?”
二是未来劳动法将面临新的调整对象。机器人抢掉人类的饭碗,人工智能“工人群体”正在形成。对机器人权利保护或者说禁止对机器人滥用,在当下尚是一个社会伦理问题,而在未来就成为劳动立法问题。
欧盟法律事务委员会动议,主张人工智能具有“工人”身份,并赋予其劳动权等“特定权利与义务”;韩国政府起草了《机器人伦理宪章》,其要点包括:保证人类能够控制机器人、保护机器人获得的数据、禁止人类违法使用机器人、防止人类虐待机器人,应该认识到:智能机器人本质是为机器,但亦有人的属性,对智能机器人的尊重就是对人类自身的尊重。可以预见,上述伦理规范将成为未来立法的组成部分。
法律制度总是滞后的,但关于法律问题思考应该是前瞻的。面向智能革命时代,我们应在认识和分析现行法律困境的基础上,探索与科学文明相伴而生的制度文明,创制出有利于人工智能健康、有序发展的社会规范体系。
面向未来时代的制度构成:法律、政策与伦理
法律制度的发展与变革,每一过程的路径选择和规则设计,其法律思维一般都是客观事实分析与主观价值判断的综合。就法律制度建设而言,如果总是基于技术及其效应的充分显现,以此形成以技术事实为基础的社会规范,那么法律制度的滞后现象将会十分严重,最终导致技术法律对技术“匡正”的失效和无力。
“我们所体验到的那种无能为力并不是个人失败的标志,而是反映出我们的制度无能为力。我们需要重构我们曾经有过的这些制度,或者建立新的制度。”面向未来时代的制度构成,应以人工智能的技术发展与规制为主题,形成包含法律规则、政策规定和伦理规范的社会治理体系。关于理念、规范、体制与机制的制度设计,笔者拟提出如下构想:
1.以安全为核心的多元价值目标
人工智能法律的价值分析,源于法律理想与现实,应然与实然的对立。人工智能时代的法价值即是人类法律理想价值观的追求,是价值这一哲学范畴的法律化表现。法律的理想价值总是高于法律现实价值,可以为法律制度的演进提供目标指引和持续动力。
人工智能法律既具有一般法价值的构成要素,又有着其特殊法的价值内容,从而形成自身的法价值体系。其中,“正义是社会制度的首要价值”,也是作为一般法的普适价值,其蕴含的人格正义、分配正义、秩序正义构成了人工智能法律构建的正当性基础。在最高法价值指引之下,人工智能法律还存在着专门法的特别价值,这主要是安全、创新和和谐。
安全是人工智能时代的核心法价值。安全价值是对整个社会秩序稳定的维护。对此,法哲学家雷加森斯·西克斯言道:“如果法律秩序不代表一种安全的秩序,那么就不是一种法律”。安全价值是许多法律部门共同追求的目标,且通过不同的制度或调整方法来实现。例如,刑法、行政法通过刑事责任或行政责任方式来实现社会秩序安全,民法通过侵权法来保护交易安全和财产秩序。人工智能作为未来时代技术尚在深入发展之中,但在当下已引发人们对其安全问题的普遍担忧。
人工智能超越人类智能的可能性,人工智能产生危害后果的严重性,以及人工智能技术本身内在的不确定性,这些因素足以构成法律以及其他规范防止风险的必要性。关于风险规制的安全规范,包括人工智能产品的伦理规范、人工智能技术的应用规范、人工智能安全的监测规范等,都是相关法律制度设计和安排需要考量的问题。
创新是人工智能法律的价值灵魂。在特定的时代背景下,特定的法律制度会包含若干不同的价值项,而且其各自的价值侧重点也有着不同。当代经济的发展着重依靠知识和信息的生产、分配和利用,创新业已成为知识经济时代的主要特征。面向人工智能革命,创新不仅反映了人与自然的关系,而且反映了人与人的关系、个人与社会的关系,成为一个具有普遍意义的关系范畴。创新价值体现在人工智能发展政策制定与立法活动之中,其主要制度设计是:
(1)谋化国家发展战略。在整体性、全局性的政策层面,对人工智能技术和相关社会变革作出相应的战略部署;
(2)制定产业促进与监管的政策法律。在立法和政策层面,推进智能驾驶系统、智能机器人、精确医疗、语言识别、人脑芯片等核心技术的研发和应用,同时明确准入规范,制定安全标准,完善配套设施,营造健康、有序的监管环境;
(3)完善知识产权创新激励机制。通过权利保护、权利交易和权利限制等制度,促进技术创新和新兴产业发展。总得说来,国家通过战略指引、法律规范和政策安排,将创新这一行为上升为“规划理性”的法价值,体现了人在价值发现中的能动性干预和控制。
和谐是人工智能时代的终极价值追求。所谓和谐发展,是一种配合适当、协调有序的理想动态,这是一种涵盖周延的目标系统,包括人的和谐、社会的和谐、自然的和谐,以及人与社会、自然的和平共存与进步。和谐价值实现的理想状态,即是人工智能社会的良性健康和有序。
在智能机器人的发展过程中,和谐价值具有引导性功能。为保证人类社会的和谐稳定,对人工智能产品进行伦理设计、限制人工智能技术应用范围、控制人工智能的自主程度和智能水平等,都应以和谐价值作为指引方向和评价准则。
2.以伦理为先导的社会规范调控体系
人工智能时代的文明,需要相应的行为规范作为社会关系的调整器。就整体而言,文明要求社会对自身内部错综复杂的关系进行自觉的协调,以不断完善自身的组织和管理,达到各种社会关系的有序与和谐。
从人类文明创始到现今人工智能时代开启,社会行为规范已然成为一种制度体系。社会规范调控体系或系统,是指在一定的国家、地区、领域内存在的,由一定的社会经济关系所决定的社会规范而构成的相互联系、相互制约的统一体。在社会规范体系中,法律与道德作为两种重要的调整手段,从不同方面、以不同方式、通过不同机制对社会生活的不同领域发挥不同的影响和作用。
对于人工智能社会关系的调整,伦理规范具有一种先导性的作用。这是因为法律规范基于现实生活而生成,且立法过程繁琐,因而总是处于滞后境地;而伦理规范可以先行和预设,对已变化或可能变化的社会关系作出反映。
在发达国家,对人工智能的伦理研究早于立法研究。近年来,欧洲机器人研究网络(EURON)发布《机器人伦理学路线图》,韩国工商能源部颁布《机器人伦理宪章》,日本组织专家团队起草《下一代机器人安全问题指引方针》,美国国家科学基金会和美国航天局设立专项基金对“机器人伦理学”进行研究。
此外,一些行业组织、公司企业也在伦理规范方面强化人工智能专家的专业责任。例如日本人工智能学会内部设置了伦理委员会,谷歌设立了“人工智能研究伦理委员会”,旨在强调科研人员的社会责任,并对合理研发人工智能提供指导。
概言之,伦理规范的调整功能非常独到且为重要,例如:对智能机器人预设道德准则,为人工智能产品本身进行伦理指引;规定人工智能技术研发及应用的道德标准,对科研人员进行伦理约束。上述伦理规范,为后续法治建设提供了重要法源,即在一定时候,伦理规范亦可转化为法律规范,实现道德的法律化。
3.以技术和法律为主导的风险控制机制
人工智能技术不仅是高技术,而且是高技术的核心,可称之为高技术核。智能技术的“核爆炸”,既对社会经济带来变革性的影响,也会产生技术性风险,即“人类在利用技术时违背技术自身规律而产生的社会风险”。人工智能时代的风险防范和治理,可采取技术控制与法律控制的综合治理机制。
法律控制是风险治理机制的重要手段。立法者必须重视控制风险功能的法治化。例如,专利法具有激励科技创新的制度功能,其授权客体的扩充及其权益保护,即是激励人工智能发展机制的法律表现。与此同时,专利法也要注重权利客体的排除领域,以及禁止权利滥用,限制权利行使等制度规则的适用,限制和排除人工智能的潜在危害。此外,还应辅之于相关科技法律、法规,对人工智能的研发、使用和传播建立限制机制、禁止机制以及惩戒机制。
技术控制是风险治理机制的重要措施。技术规制表现为法律规范、政策规定和伦理规则等。风险社会理论指引下的技术规则有以下特点:风险规避的主要路径,是事先预防而不是事后补救(即从技术研究开始规制,以预防技术产生的负面效应或副作用);风险规避的基础范式,是从技术研发到应用过程的责任制度(包括社会道义责任、科学伦理责任和法责任);风险规避的重要措施,是奉行技术民主原则(包括技术信息适度公开和公众参与、公众决策)。
防范人工智能的技术性风险,不仅涉及强化法律规制的传统制度改造,而且要求建立以社会监管为重要内容的政策体系,同时形成以全面理性(包括社会理性和科学理性)为基本内涵的风险控制机制。
中国正在走向人工智能时代。世界新一轮科学革命、产业变革与我国转变经济发展方式形成历史性交汇。对人工智能的发展和规制进行制度安排,是时代新潮流,也是国际大趋势,更是本土创新发展的内在要求。笔者认为,在制度构建方面,目前有三项重点任务:
一是尽快出台国家发展战略,以此作为人工智能政策体系的支撑。从国际层面看,美、德、英、日等国加快人工智能顶层战略设计,从国家层面统筹人工智能发展。在我国,《“十三五”国家科技创新规划》和《“十三五”国家战略性新兴产业发展规划》,对人工智能发展做出重要表述。但总体而言,我国人工智能政策还没有上升到国家战略高度,人工智能的战略地位凸显不足,人工智能发展的统筹协调部门未予明确,政府、社会以及企业的责任分工尚未厘清。
国家发展战略应是关于人工智能问题的整体性谋略和全局性安排,它是一个涉及战略目标、战略任务、战略措施的政策制度体系。中国必须高度关注智能革命发展前景以及引发的相关社会变革,尽快作出相应的战略政策部署;
二是及时制定《机器人伦理章程》,以此作为人工智能研发、应用的道德基础。在一些发达国家,对人工智能的伦理研究早于法律研究,诸如《机器人伦理宪章》、《机器人伦理学路线图》等,都是将安全评估和风险防范作为人工智能伦理规范的重要内容。
我国似可组织政治家、科学家、企业家、法学家参加的专家小组,编写机器人伦理章程,构建人工智能伦理规范,其要义包括:设计伦理框架,为机器人预设道德准则;强化科技专家的社会责任,为人工智能研发、应用提供道德指引;引导公众接纳人工智能,为调整人—机关系规定道德模式;
三是适时进行机器人专门立法,以此作为人工智能法律的基本规范。人工智能技术对传统法律制度带来巨大挑战,以至现有的法律理念与规则在“高技术核”面前几乎无所适从。在这种情况下,法律制度需要创新变革自不待言,而寻求一个调整人类与智能机器相互关系的专门法将是一个最终的选择。
对此,欧盟的立法行动最快。据报道,欧洲议会已正式向委员会提出议案,拟制定“人类与人工智能/机器人互动的全面规则”,这或将是首个涉及机器人的立法草案。我国在人工智能领域发展相对滞后,但相关立法活动应未雨绸缪,组建专家团队对机器人专门法律开展研究,其重点包括:人工智能的法律地位、人工智能生成内容的权利归属、人工智能损害后果的责任分担、人工智能风险的法律控制等。
结语
未来时代已经到来。这是一个创新的时代,创新不仅反映了人与自然的关系,而且反映了人与人的关系、个人与社会的关系,已成为一个具有普遍意义的关系范畴。人们在生产力、生产关系和上层建筑所有领域中进行的创造性活动,即技术进步和制度变革都是一种创新过程。
智能革命引发的法律、政策和伦理话题刚刚开始,伴随人类社会的知识创新,我们需要跟进理论创新和制度创新。法学家和法律改革家们需要秉持理性主义精神,去发现和探索一个理想的法律制度体系。我们有理由相信,科学技术的智慧之光与法律制度的理性之光,将在人工智能时代交相辉映。
作者:吴汉东
来源:《法律科学》2017年第5期
备注:好文分享,版权归原作者。如遇侵权,请联系我们删除。
迈克尔・乔丹:人工智能,革命远未发生
通向人工智能的道路:图灵机与控制论之分歧返回搜狐,查看更多