人工智能之于法律的可能影响
原标题:人工智能之于法律的可能影响智能时代由人工智能(简称AI)发展而来。人工智能主要运用在开发某些项目,研究某个理论和探索智能技术等领域,其是信息时代的一门新科学,它的发展将会不断改善人类的生活,引领人类进入新时代。随着时代的发展,人们的生活越来越离不开人工智能技术。目前,人工智能技术已经渗透到人类生活的方方面面。从人类驾驶汽车到无人驾驶汽车,从人类战斗机到无人战斗机,甚至医疗等方面纷纷离不开人工智能,人工智能不断改善人们的生活。人工智能技术是为人类服务的,不能超越人类的底线,更不能对人类造成伤害。当然,人工智能的发展必然会带来一些问题,这就需要制定一定的法律法规对人工智能进行管理、约束,这样才能更好地为人类所用,才能让人类过上更好的生活。
人工智能领域不容忽视的法律问题
人工智能与劳动者劳动权保障。人工智能在机械制造方面也有重大突破,机器人是人工智能技术的主要研究成果。由于机器人的出现,将人类从繁重的劳动中解脱出来,节省了大量的人力资源和物力资源,同时也让人类从一些危险的工作中解脱出来。人工智能技术运用到工业生产当中,这样既节省了雇佣劳动人员的资金又提高了生产的效率,推动了工业经济的发展。但是,人工智能技术让人―机关系成为社会生活的一部分,使得社会构造可能产生本质性的变革。
人工智能提高司法审判和行政工作效率。将现有的法律法规和法律文献以及判决文本储存在电脑当中,是目前为止非常安全的手段。人们通过计算机的记忆和文字搜索功能翻阅资料,节省了人们的大量时间。计算机系统还弥补了人类的记忆力不足和文字检查不正确等问题,这同时省去了律师查询文件的劳动和解决问题的推理活动。这些都依靠人工智能计算机系统完善的推理代码以及处理大量数据的功能。律师可以通过计算机系统对数据进行统计分析,推算出最好的法律解决方案。在律师接到一个新案例之后,就可以利用人工智能计算机系统对案件进行统一分析并给出合理的意见。计算机系统可以对逻辑程序,交易记录,日常消费,人口籍贯等方面进行行政化管理。所以说人工智能的崛起必然能提高司法的审判和行政工作的效率。
人类隐私保护的人格权问题。网络空间是一个真实的虚拟存在,是一个没有物理空间的独立世界。无论是现今还是未来时代,将互联网、大数据、人工智能这些元素整合之后,人们可以查阅信息的手段越来越多,自身的信息再也没有秘密性可言。因为数据可以广泛查询,那么对于个人来说自身的隐私就可能会被曝光,所以面对这个时代应该采取一定措施来保护自身隐私不被侵犯。主要有下列几点建议:第一个方面是对自身的隐私保护意识增强。在这个科技进步的时代,人工智能逐渐进入生活当中,人们可以通过机器来对别人的隐私进行攻击,因此如果想要保护自身隐私,那么就应该减少对机器的信息泄露。第二个方面是树立企业保护用户隐私安全的意识。企业自身一定要有保护自身用户的一切信息安全的义务和责任,这也是用户信息安全是否能得到良好的保障前提。第三个方面颁布有关用户信息安全的法律。让用户从根本上认识到有法律可依靠。该法律不但要落实到各个企业,而且要走入人们的生活当中,而且在执行法律的过程中,应该按照严格的法律规定来执行,这样才能使个人信息安全得到保障。
法律如何“智能”地应对人工智能化
制定和完善相关的道德法律准则。现在科技的发展不单单可以使人们生活更加便捷,而且还可以加快社会的进步。与此同时,也会有一些弊端浮出水面,如果推动人工智能来服务人类,使人类文明上升到更高的层面,忘记了以人为主的本真,人们就很难接受人工智能。那么如何来控制以人为主,我国推出了一系列法律准则来约束这项要求。人工智能技术是现阶段科学家努力想要达到的效果,该项技术还是比较新颖,没有严格的法律规定来使用这项技术,同时对于这项技术的开发还没有法律的约束。由于这项技术刚刚进入人们的生活,其需要法律来约束,要根据后续的一系列问题来进行新的调整,从而可以使这项技术更好地被人们所利用。
构建以技术和法律为主导的风险控制机制。由于现在科技的发展,对于人工时代的到来所造成的一系列风险应该如何来先行处理和防范成了现在科学家急需攻破的难题。法律控制是处理风险的主要手段之一,人们可以通过技术上的控制或是法律上的控制来对这项技术进行有效管理。制订法律的人必须站在人们的角度,注重风险防范的重要性。还要利用其他的法律来对人工智能这项技术的其他领域扩展进行限制和约束。通过技术上的管理和控制有效地降低了风险。对于人工智能技术造成的风险我们应该做出有效地防范措施,不单单在法律的基础之上来制定措施,而且也要在不伤害他人的利益基础之上来进行该技术的约束和管理。与此同时,构建一个完善的体系来进行人工智能技术的管理。
运用智能与传统相结合的方式对人工智能的社会应用情况进行法治监督。对于人工智能技术的发展趋势许多科学家做出了假设,该项技术一定会在互联网的基础之上,采集大量的信息来进行技术上的提升。虽然这样有利于人工智能技术的发展,但是由于信息量的不断提升,对于管理这项技术也有一定的难度。如果监管部门没有做好本职工作,那么不法分子就有机可乘,进入其内部窃取信息,从而导致损失较大利益。这对人工智能技术的发展部门来说尤为重要,所以要求监管部门做到与时俱进,将整个人工智能技术的运行做到心中有数。第一个方面就是需要监管部门根据不同的区域来制定不同的监管制度,但是要遵循以人为本的角度来进行管理,还需要完善的整体体系来进行监管,以便于监管部门发现在发展人工智能技术过程当中出现违反规定的行为,可以及时出手制止;第二个方面就是需要企业做到应对一些紧急情况的智能化机制,研发人工智能技术过程当中,如若发现紧急情况及时向企业内部进行汇报,然后再经过这个机制进行数据上的分析,最后制定一系列的方案来解决问题。假设出现不能用机制来解决的问题,可以采用强制断电或者是切断网络的措施来解决问题。在人工智能技术研发的过程中,要遵循颁布的法律进行研发。
人工智能革命引发的法律问题才刚刚开始,法律研究者需要秉持理性主义精神,不断拓展知识储备,跟进理论创新和制度创新,探索和发现一个更适合人工智能时代的法律制度体系。综上所述,在这个人工智能时代,我们相信法律制度的理性之光与科学技术的智慧之光将交相辉映、大放异彩。
(作者为中央司法警官学院副教授)
【参考文献】
①吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学(西北政法大学学报)》,2017年第9期。
医疗人工智能面临四方面的主要法律问题
2021年4月24日,国家卫生健康委员会医院管理研究所、《中国数字医学》杂志社、社会科学文献出版社共同发布了《人工智能蓝皮书:中国医疗人工智能发展报告(2020)》。
医疗人工智能面临的法律问题,其核心或者出发点是对大数据与核心算法的规制。因为大数据与核心算法是医疗人工智能的灵魂与表现形式。然后确立规制医疗人工智能的基本原则。医疗人工智能基本原则是安全、有益、平等,最终目的是以人为本。还有一个问题是医疗人工智能的知识产权问题。在确定了出发点与最终目的之后,就从以下几个方面进行规制。
1. 是否可以确立医疗人工智能(或者“机器人医生”)的法律人格
医疗人工智能的法律人格问题可以分为两个层面:一个是是否必须确定医疗人工智能法律人格的问题;另一个是如何确立医疗人工智能的法律人格的问题。人工智能通过深度学习,逐渐呈现出一些“自主性”的特征。“机器人是人吗?”这个问题变得越来越重要。因为人工智能的民事主体身份的确认是明确其法律行为、法律责任、归责原则等问题的基础。在传统的民法体系中,民事主体有自然人、法人、非法人组织、国家与国际组织。深度学习的强人工智能是否可以被赋予有限的民事能力,是否能以“机器人”的名义位列民事主体是一个重大的法律问题。
2. 如何设定医疗人工智能的诊疗规则
法律是以国家名义颁布的、以权利义务为内容的、以国家强制力保障的主体的行为规范。无论是设定医疗人工智能的民事主体身份,还是把医疗人工智能当作医生的医疗辅助手段,都必须有相关的法律文件对医疗人工智能的诊疗行为进行规制,例如,关于机器人手术的相关法规,2012年,国家卫计委印发的《机器人手术系统辅助实施心脏手术技术规范(2012年版)》和《机器人手术系统辅助实施心脏手术技术培训管理规范(2012年版)》。但实际上,手术机器人不仅做心脏手术,还做脑部、胸部、腹部、四肢等多部位手术,但其他的相关法律法规的设立还在摸索初期,国际公认的手术机器人标准也尚未形成。
3. 法律责任归责原则与承担方式
医疗人工智能导致医疗损害的责任认定要从两个层面去进行法律架构:一个是法律责任的归责原则;另一个是法律责任的承担方式。医疗人工智能有可能因硬件故障、程序漏洞、深度学习后的自主性等引发医疗事故,例如,在英国2015年首例“达·芬奇”手术机器人心瓣修复手术中,机械手臂乱动打到医生的手,还把病人心脏放错位置,戳穿了患者的大动脉。我国《侵权责任法》规定:“责任医师或医疗机构对患者在医疗服务中所受的损害有过错的,医疗机构应承担赔偿责任。医疗器械产品缺陷导致的医疗损害,由医疗机构和生产者承担连带赔偿责任,适用无过错责任原则。”很显然,《侵权责任法》考虑到了由医疗器械导致的损害的责任承担问题。但是在由具有自主性、独立性和拟人性的医疗人工智能导致的医疗损害的案件中,谁是责任主体、应用什么归责原则,却是一个新问题。
4. 风险防范问题
(1)隐私风险
患者个人的医疗数据包括个人基本信息,比如姓名、年龄、性别、住所、籍贯、工作单位、联系方式等,还包括身体指标、既往病史、诊疗记录、生物基因信息等健康信息。这些相关的隐私信息如何收集,如何储存,如何使用,如何在保障患者知情权的情况下,合法获取患者的疾病信息都是重要的法律问题。
(2)数据安全
医疗人工智能的深度学习需要收集并分析海量的数据资源。而这些数据资源关系到国计民生,甚至国家战略决策,一旦泄露后果不堪设想,例如,2015年我国深圳某基因科技服务有限公司、某医院与英国牛津大学开展合作研究,研究中国人类遗传资源。在合作过程中,中国公司把人类遗传资源信息通过网络传递到国外,且没有经过相关部门的批准与许可,因此收到科技部的行政处罚书。2016年,英国伦敦皇家自由医院为了研究肾脏医疗新方法,约160万名患者的相关信息被该医院交给“深度思维”公司,因为侵犯患者隐私,侵犯患者知情同意权,“深度思维”公司数据来源的合法性和正当性受到质疑,同时皇家自由医院也因传递患者信息这一行为被英国信息委员会要求整改。因此如何充分利用大数据以供人工智能的深度学习同时保护好大数据安全也是一个期待解决的法律问题。
(3)医疗人工智能深度学习后的“自主性”导致的风险
上海交通大学江晓原教授认为人工智能的发展的会对人类造成远期、中期、近期的三大威胁。“近期威胁是大规模失业与人工智能的军事化应用。中期威胁是人工智能的失控与反叛。远期威胁是至善全能的人工智能消解人类的生存意义。”人工智能通过大数据的喂养与“自主性”地深度学习,成为各个领域的实际控制者。民众不知不觉地被无形的、强大的算法技术管控与统治,无法抗拒。如被算法控制的打车平台、自动驾驶与导航系统、银行对个人或者企业的信任风险评估体系、互联网的广告分发系统、媒体软件的内容推送系统、犯罪预警系统、股票与基金模型等,其中一些具有偏见与歧视的算法被数据科学家称为“数学毁灭武器”。尤其是人工智能的反叛与失控可能会给人类带来毁灭性的打击,因此如何防范人工智能深度学习后的“自主性”导致的风险是一个极其重要的法律问题。
(4)伦理风险
人工智能有可能因为设计者的偏见与歧视,或者经过深度学习后习得了偏见与歧视,这种有意或者无意的偏见与歧视会导致不公平,或者对某些特定群体不利。因此我们要防止技术的滥用和异化,尽量避免歧视与偏见,避免损害生命体的尊严。在真实世界中,昂贵的医疗人工智能诊疗新技术的应用有可能侵犯贫困患者平等的生命健康权利;优生优育计算软件有可能剥夺某些缺陷胎儿的生存权利;利用医疗数据软件指导开发的某些药物与医疗器械有可能不利于某些特定人群、种族、性别等。算法的不透明,有可能严重影响消费者利益,甚至有可能通过辅助决策与执行影响公共政策。当然还有战争机器人的伦理问题等。
(参见《人工智能蓝皮书:中国医疗人工智能发展报告(2020)》p127-131,社会科学文献出版社2020年12月)