构建人工智能未来法治体系
核心阅读
任何技术都是双刃剑,人工智能也不例外。在享受最新技术带来的便利时,不能忽视与之相关的安全问题。要用法治为人工智能产业健康发展保驾护航,让人工智能服务造福人类社会。
从智伴机器人到自动驾驶汽车,再到法院庭审中的智能语音识别,近年来,人工智能已逐渐进入人们的日常生活。
“深化大数据、人工智能等研发应用,培育新一代信息技术、高端装备、生物医药、新能源汽车、新材料等新兴产业集群,壮大数字经济。”今年政府工作报告让人工智能产业看到了前进的方向。
在人工智能迅猛发展的进程中,关于可能引发的道德伦理问题,可能带来的社会治理问题争议不断。
推动新一代人工智能健康发展,法治应该有哪些作为,或者说人工智能产业健康发展到底需要怎样的法治保障?近日,《法制日报》记者采访了人工智能产业领域、法律界的相关代表、委员,以及人工智能法律研究的相关专家学者。
人工智能发展亟需立法保障
几天前,全球首例无人车致死案宣判,Uber公司不承担刑事责任,再次引发了公众对人工智能发展中法律问题的热议。
“如何推动法律体系与时俱进,尽快满足人工智能产业飞速发展和社会进步的需要,这对法治带来了很大挑战。”全国人大代表、科大讯飞董事长刘庆峰说。
与刘庆峰观点一致,在记者采访的代表委员中,无一例外都提出应加快人工智能立法工作。
全国人大代表、中华全国律协副会长刘守民认为,立法一方面要对人工智能发展做引领,另一方面也要规制如发展目标、路径和阶段。但由于人工智能发展飞快,立法往往跟不上发展速度。
关于法律滞后,全国人大代表、重庆盼达汽车租赁有限公司党支部书记、总经理高钰有不同看法:前沿的技术变革和创新的商业模式带来的不确定性,也决定了相关的立法工作会有滞后性。
“但新生事物并非排斥法律法规的制约,相反,法律对于新兴商业模式和技术创新的有效规范和制约能更好地引导企业、行业健康有序发展。”高钰说。
由于人工智能涉及的领域众多,不同领域涉及的立法也存在差异。因此,全国人大代表、北京市律师协会会长高子程建议,前期可在重点领域,比如交通、医疗等先行试点专门立法,待总结经验后再进行综合系统立法。
全国人大代表、致公党上海市委专职副主委邵志清也有类似的建议:“由于涉及面太宽,社会对人工智能的认识还处于初步阶段,目前对人工智能进行综合立法的条件还不具备。但是为了防范重大风险,需要针对人工智能的具体应用进行立法。”
对于立法到底应该从哪些方面进行,基于自己的专业实践,受访者都有不同的认知。
刘庆峰指出,算法、算料(数据)、算力是人工智能技术发展的重要支点,需要有针对性地予以立法规制。
而在高子程看来,还应立法应明确规定人工智能的法律地位、人工智能生成内容的权利归属、人工智能损害后果的责任分担、人工智能风险的法律控制等亟待解决的内容。
邵志清告诉记者,人工智能应用的管理应该重点围绕伦理道德、资源获取、主体认定、行为认定、责任划分等方面进行立法。
“人工智能立法已不仅是一个国内法的问题,这是人类共同面对的课题。”刘守民认为,人工智能发展还需要国内与国际间的协调,通过国际的公约条例,包括技术标准等领域形成共识。
规范司法加强执法不可或缺
“用法治的手段保障人工智能‘安全、可靠、可控’,也是欧、美、日、韩等国发展人工智能产业的必经之路和共同经验。”西南政法大学人工智能法学院院长陈亮说。
在陈亮看来,立法只是法治保障人工智能发展的其中一环:执法、司法等环节同样不能偏废。
高子程也认为,完善立法,规范司法,加强执法,加大普法,积极构建人工智能未来法治体系,用法治保障人工智能健康持续发展。
“在司法中,要坚持法治理念、法治思维和法治方式,树立谦仰、审慎、善意、文明、规范办案理念,恪守技术中立原则,不轻易对司法机关看不准、有市场、受欢迎的技术业态产品采取强制措施,最大限度减少司法活动对新技术发展的不利影响。”高子程说。
在高子程看来,司法还应坚持刑法的谦抑性,在其他法律规范足以保护相应法益的前提下,刑法不应首先介入,只有在其他法律规范无法充分有效保护相应法益时,刑法才有介入的必要和空间。
“在执法环节,应建立专门的执法部门,明确其职权范围,规范其执法程序。”陈亮认为,尤应注意的是,在制度设计时,应以委托代理理论为指导,从制度层面解决好该执法部门的参与约束和激励相容的问题,以免执法过程中出现委托代理人问题,导致人工智能立法流于形式。
为让执法真正有成效,高子程认为,应组织相关执法部门专责制定人工智能领域配套的各种技术规范、技术标准,这个标准应当是对行业自身所发展出来的标准与公共利益、个人权利保护原则的综合考量,其制定程序应当遵循公共参与、听证等行政程序规则。
伦理及安全问题不容忽视
从目前已经投入使用的人工智能产品中看,部分智能庭审系统甚至已经能够基本代替书记员的记录工作,加快了庭审进度。
人们不禁会问,当人工智能广泛应用之时,一些可以替代的传统行业是否会造成大量的失业,造成社会的不稳定。
“解决这些问题首先是在人工智能大规模替代现有工作之前,把社会保障体系建立起来。”刘庆峰说,在社会保障体系之下,人工智能代替了重复性工作后,人会有更多的时间去做创意等不能替代的事情,从而获得社会价值感。
刘庆峰认为,人机合成是未来人工智能的重要突破方向。他举例称,目前“智医助理”可以根据医嘱对话,自动生成对疾病的判断,供医生参考确认。“所以我想人工智能并不是要淘汰人类,而是要让人类站在人工智能的肩膀之上。”刘庆峰说。
对于人类与人工智能的关系,刘庆峰还是很乐观。他认为,人工智能立法应当遵循“人机耦合”和“以人为本”原则。
“这意味着要充分认清人工智能是帮助人的,而不是替代人的,要刺破技术面纱,有针对性地规制技术背后人的行为;意味着要把人民群众的生命和财产安全放在首位,实现人工智能在风险可控的范围内发展。”刘庆峰说。
不论乐观与否,人工智能立法在伦理道德方面还是要有明确规定。
邵志清认为,应明确禁止应用人工智能技术实施违反人类伦理道德的行为,特别是在基因工程、生命科学、情感意识等方面用法律为智能社会划出伦理道德的边界,让人工智能服务造福而不是困扰危害人类社会。
“对人工智能要抱有一定的尊重和敬畏,技术进步带来的东西不见得都是好事,一定要慎重,避免出现有悖伦理道德的事情。”刘守民说。
全国政协委员、360集团董事长兼CEO周鸿祎也认为,任何技术都是双刃剑,人工智能也不例外。“但我们在享受最新技术带来的便利时,也不能忽视与之相关的安全问题。”(法制日报记者战海峰)
::王利明:人工智能时代对民法学的新挑战
【中文关键词】人工智能智能人;隐私权;个人信息;民法典
【摘要】我们已经进入了人工智能时代,人工智能技术的发展深刻地改变了我们的生产和生活方式,也对我国民事法律制度提出了新的挑战。人格权制度、数据财产保护、知识产权保护、侵权责任认定和承担等,都需要随着人工智能技术的发展而作出必要的调整。我国正在制定的民法典也需要与时俱进,积极回应人工智能时代的各种挑战,妥当设置相关规则、制度,在有效规范人工智能技术的同时,也为新兴技术的发育预留必要的制度空间。
【全文】
1956年夏,在一场关于机器模拟智能的研讨会上,首次提出了“人工智能”这一概念。人工智能作为一门新兴学科,其与基因工程、纳米科学共同被称为21世纪的三大尖端技术。作为引领新一轮科技革命的技术,人工智能系统在替代人类从事简单性、重复性以及危险性工作方面存在广泛的应用价值,目前在金融、安防、客服等行业领域已实现应用,并且在精确度和效率上确实已远超人工。[1]半个世纪以来,伴随着现代科技的发展,特别是移动互联网、大数据、脑科学等新理论、新技术的发展,人工智能近些年的发展极为迅速,已经成为国际竞争的新焦点和经济发展的新引擎。[2]从某种程度上而言,人工智能以信息技术为核心,“信息主权”话题[3]的探讨一定程度上也决定了人工智能未来在国际竞争中的地位。人工智能技术以信息技术为核心,直接造就了信息主权话题的探讨。[4]
我们已经进入人工智能时代,机遇与危险并存。美国电影《终结者》曾预测人工智能机器人超级战士击败人类的结果;科学家霍金生前始终认为,人工智能的发明可能是人类历史上最大的灾难。如果管理不善,人工智能确实可能成为霍金所预言的“最糟糕的发明”,会思考的机器人可能会为人类文明画上句号,这样的论断绝非危言耸听。“问题就是时代的口号”,借助于大数据的人工智能,在改变我们生产与生活方式的同时,也给我们带来了诸多法律上的新问题、新挑战。正如国务院《新一代人工智能发展规划》所言:“人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。”这些问题亟待我们予以回应并加以解决。目前对于人工智能的研究有从伦理学层面、[5]认知哲学层面[6]展开的,笔者拟就人工智能对传统民法学理论及司法实务造成的如下挑战谈下自己的看法,以期能对人工智能法律规范体系的形成有所裨益。
一、人工智能对民事主体制度的挑战
人工智能的发展催生了各种类型的机器人,这也带来了一个非常重大的法律问题,即是否应当将机器人视为法律上的人?换言之,机器人究竟应当作为法律关系的主体还是客体出现?应当将其等同于普通的机器或者动物对待,抑或将其作为“人”来看待?
人工智能研究的创始人之一明斯基指出,人工智能是“让机器从事需要人的智能的工作的科学”。2016年,世界机器人大会在北京召开,一些机器人公司展示出了各种智能机器人,智能机器人能够识别人的面孔、表情、年龄、性别,并且能够表达与人类相似的情绪和面部表情。智能机器人的智力目前虽然还不能和人类相比,但也具备了独立处理相关信息的能力和智力,有的机器人甚至已经基本达到了人类智慧的水准。2017年,沙特阿拉伯宣布授予机器人索菲亚以公民资格,由此也进一步推动了法学界对于人工智能主体地位的思考。
从智能机器人的发展现状来看,人工智能机器人已经逐步具有一定程度的自我意识和自我表达能力,可以与人类进行一定的情感交流。有人估计,未来若干年,机器人可以达到人类50%的智力。从实践来看,机器人可以为我们接听电话,从事语音客服、身份识别、翻译、语音转换、智能交通等工作,甚至可以进行案件分析。有人统计,现阶段23%的律师业务已可由人工智能完成。机器人本身能够形成自学能力,能够对既有的信息进行分析和研究,从而提供司法警示和建议。甚至有人认为,机器人未来可以直接当法官,[7]可见人工智能机器人已经不完全是一种工具,而在一定程度上具有了自己的意识,并能作出简单的意思表示。有观点甚至主张,应当承认人工智能具有法律人格。[8]这就提出了一个新的法律问题,即我们将来是否有必要在法律上承认人工智能机器人的法律主体地位?
笔者认为,从目前人工智能的发展来看,其尚未对传统民事法律主体理论提出颠覆性的挑战,我们在短时期内仍然应当坚守传统民事主体理论,而不宜将智能机器人规定为民事主体,主要理由在于:一方面,智能机器人是人类创造出来的,其产生之初即作为民事法律关系的客体而出现,其虽然可能代替人类从事相关的活动,但本质上是受其自身的算法而决定的,尚不具备人类所具有的自主思考的意识和能力。另一方面,智能机器人尚不能独立享有权利、承担义务。在智能机器人造成他人损害时,仍然应当依据《产品质量法》《侵权责任法》确定相关法律责任的承担者,即应当由其创造者或管理者承担责任。也就是说,在一定时期内,既有的法律制度和规则体系仍可有效解决智能机器人所带来的挑战,[9]而不需要承认机器人的民事地位。智能机器人进入民事主体的范畴在未来或许是可行的,因为随着未来科技的发展,智能机器人可能也会不断“进化”,不排除将来智能机器人的思维能力会进一步发展,具备与人类相当甚至超越人类的意识和思考能力,并可以在一定范围内独立地享有权利、承担义务,但在目前人工智能机器人还不能也没有必要成为民事主体。
二、人工智能对人格权保护的新挑战
人工智能的发展还涉及人格权保护的一系列问题,至少包括如下几个方面:
第一,人工智能对隐私的保护提出了新挑战。例如,伴随着人工智能技术的发展,无人机技术也蓬勃发展,无人机被形象地描述为“冰冷的观测技术产品”,可以以各种方式“进入”人们想要到达的区域。童话小说中描述的在苍蝇身上绑上摄像机去他人房间窥探他人隐私的设想,目前已经由无人机技术得以实现,这就对隐私权的保护提出了新的挑战。美国已经发生了多起无人机侵犯他人隐私的纠纷。在无人机窥探他人隐私的情形下,受害人往往难以进行举证,甚至难以确定具体的行为人,[10]这就需要法律进一步强化隐私权的保护,以更好地应对人工智能技术的发展。
第二,人工智能对个人信息的保护提出了新挑战。已经身处大数据时代,大数据记载了我们过去发生的一切和现在发生的一切,并能准确地预测我们的未来。现代社会的人就好像“裸奔”一样,我们的一切都有可能被他人“监视”,都时刻可能暴露在“第三只眼”之下,“亚马逊监视着我们的购物习惯,谷歌监视着我们的网页浏览习惯,而微博似乎什么都知道,不仅窃听到了我们心中的‘TA’,还有我们的社交关系网”。[11]无论我们走到哪里,只要携带手机,相关软件借助于Cookie技术,就可以时刻知道我们的准确定位。借助于大数据分析技术,人工智能也会对个人信息权利的保护带来威胁,一些智能机器人大规模地收集个人信息,并将其植入程序之中,也会对隐私等个人信息构成重大威胁。如何从技术层面、法律层面规范智能机器人搜集个人信息的合法性问题,将是人工智能时代的一项新挑战。例如,在全国首例利用人工智能技术侵犯公民个人信息案中,行为人即利用人工智能技术识别验证码,破解了相关的技术防范措施,并获取受害人个人信息,人工智能技术对相关技术防范措施的破解速度快至毫秒级,令人极为震惊。[12]除收集个人信息外,人工智能技术还可能被用来研究和开发以大数据为基础的各种产品,并凭借大数据无穷的潜力获取利益,从而刺激人们进一步采集、分析人们的大数据信息。随着个人信息收集和分析方式越来越先进,成本也越来越低廉,大规模的数据收集已成为常态,并会越来越普遍,这就进一步加剧了对个人信息和隐私的威胁。[13]我国《民法总则》对个人信息权利的保护作出了规定,但并没有专门规范利用人工智能收集、利用个人信息的行为,未来立法有必要专门设置相关的法律规则,防止人工智能应用过程中的数据非法收集、泄露、贩卖等问题,以有效保护个人信息的安全。[14]
第三,人工智能对肖像权的保护提出了新的挑战。人工智能技术可能借助光学技术、声音控制、人脸识别技术等新型技术,收集他人肖像,并传播、模仿他人的肖像。例如,借助于光学技术和摄像技术,人工智能可以拍摄高分辨率的照片,使得夜拍图片具有与日拍图片同等的效果,这样就使得对肖像权的获取与利用更为简便,这也对肖像权的保护提出了新的挑战。近年来,利用大数据的人工智能人脸识别技术在各领域都开始了实质性运用,从刷脸支付、整治闯红灯到抓捕逃犯,甚至公共领域的发厕纸管理之中,该技术都得到了实质利用。[15]
第四,人工智能对自然人声音、表情、肢体动作等人格利益的保护提出了新挑战。现在很多人工智能系统把一些人的声音、表情、肢体动作等植入其中,使得所开发的人工智能产品可以模仿他人的声音、形体动作等,甚至能够像人一样表达,并与人进行交流。但如果未经他人同意而擅自进行上述模仿活动,就有可能构成对他人人格权的侵害。
此外,需要指出的是,如果将来承认了人工智能机器人的主体资格,还会产生人工智能机器人人格权的保护问题。目前,刑法学理论已经开始探讨毁坏他人机器人是构成故意杀人罪还是故意毁坏财物罪。近来媒体报道,机器人伴侣已经出现,如果机器人伴侣受到虐待,其能否主张人格权受到侵害等,也需要进一步探讨。
三、人工智能对数据财产保护的新挑战
产权清晰是市场经济的基本要求之一,然而大数据和人工智能使得这一传统命题迎来新的挑战。“数据+算法”被视为人工智能技术开发的核心,数据的收集和分析技术的发展成为人工智能进行机器学习和开发的基本方法。目前,大数据已经是人工智能的一种重要分析工具,其得力于传感器与微处理器的硬件支撑。[16]借助于大数据分析技术,人工智能可以进行相关的演练和操作。从人工智能的技术原理来看,其也有赖于大数据分析系统的支持,人工智能功能的强弱在很大程度也取决于其所包含数据库的多少,人工智能需要依赖大量来自不同主体的数据,数据的抓取和利用在人工智能行业无处不在。数据在人工智能技术开发中的应用价值越来越高,但数据的开发和利用都需要明晰数据的产权主体和内容,规范数据的移转和利用。因此,人工智能的发展需要解决财产法面临的新问题。
人工智能利用的数据主要有三类,分别是个人所有的数据、私人企业和组织所有的数据和公共机构管理的数据。有观点认为:数据财产权的基本原则是谁的数据归谁所有,没有任何主体指向的数据是公共资源。[17]但是人工智能不仅会储存收集的原始数据,而且可以对收集的各种数据进行加工,产生衍生数据。与此同时,数据的占有和转移占有是无形的,同时也是没有有效的权属证明。所以,在大数据时代,法律所遇到的一个严峻挑战即应当如何确认数据的权利归属,既要保护被搜集人的个人信息权,又要保护数据开发者、合法利用者的数据财产权,迄今为止,如何对数据进行确权并且构建起权利内容和权利转移制度尚未解决,需要法律予以尽快完善。
现行《物权法》把物权分为动产和不动产,而数据难以按照此种方法进行分类,故而学界一直争议数据属于物权还是债权。我国《民法总则》第127条对数据的保护规则作出了规定,一方面,数据在性质上属于新型财产权,但数据保护问题并不限于财产权的归属和分配问题,还涉及这一类财产权的转移、利用、保管等法律问题。在利用人工智能时如何规范数据的收集、储存、利用行为,避免数据的泄露和滥用,并确保国家数据的安全,也是亟需解决的重大现实问题。[18]另一方面,人工智能的应用方式和应用范围在很大程度上取决于其算法,如何有效规范这一算法,避免侵害他人权利,也需要法律制度予以应对。例如,人工智能通过分析在网络交易中取消订单的频繁程度,可以得出关于一个人社会信用状况和交易能力的评价结果,此种评价结果可能对个人的经济生活产生重大影响。目前,人工智能算法本身的公开性、透明性和公正性的问题,是人工智能技术发展的核心问题,但目前并未受到充分关注。
四、人工智能对知识产权保护的新挑战
人工智能的发展也涉及知识产权保护的问题。一方面,机器人已经能够自己创作音乐、绘画,机器人写作的诗歌集也已经出版,这也对现行知识产权法提出了新的挑战。例如,百度已经研发出可以创作诗歌的机器人,微软公司的人工智能产品“小冰”已于2017年5月出版人工智能诗集《阳光失了玻璃窗》,在日本,机器人创作的小说甚至还通过了日本文学奖的初审,有的机器人甚至会谱曲、作画,这些作品已经可以在市面上销售,这就提出了一个问题,即这些机器人创作作品的著作权究竟归属于谁,是归属于机器人软件的发明者,还是机器的所有权人,还是赋予机器人一定程度的法律主体地位从而由其自身享有相关权利?正如前文已经论述,现阶段的人工智能技术的发展尚不足以被承认为民事主体,故而现阶段也不适合承认机器人完成的作品可以归一个实践工具所有,只能承认由机器人的所有者享有知识产权。当然,在未来人工智能在创作领域可能技术更加成熟,已经达到了类似人类或者超越人类的能力,那么可否在创作领域承认人工智能的民事主体地位和权利能力,这也是可以进一步讨论的。
另一方面,智能机器人要通过一定的程序进行“深度学习”“深度思维”,在这个过程中有可能收集、储存大量的他人已享有著作权的信息,这就有可能构成非法复制他人的作品,从而构成对他人著作权的侵害。人工智能机器人能够存储大量的信息,而按照一些国家的规定,存储他人享有著作权的信息本身,就构成对他人著作权的侵害。人工智能实际上就是一种机器模仿人的智力活动的技术,但如果人工智能机器人利用获取的他人享有著作权的知识和信息创作作品,如创作的歌曲中包含他人歌曲的音节、曲调等,也可能构成剽窃。
在人工智能侵害他人知识产权的情形下,究竟应当由谁承担责任、如何承担责任,本身也是一个问题。如果认为机器人具有主体资格,那么其承担责任的财产又来自何处?如果认为机器人不具有主体资格,究竟应当按照产品责任追究生产者、销售者的侵权责任,还是应当由机器人的主人来承担相应责任?这些问题均值得进一步研究。
五、人工智能对侵权责任认定的新挑战
人工智能的发展还涉及侵权责任的认定问题。人工智能引发的侵权责任问题很早就受到了学者的关注,随着人工智能应用范围的日益普及,其所引发的侵权责任认定和承担问题将对现行侵权法律制度提出越来越多的挑战。[19]无论是机器人致人损害,还是人类侵害机器人,都是新的法律责任。
在实践中,机器人致人损害的案例已经发生,2015年7月,德国大众汽车制造厂一名21岁的工人在安装和调制机器人时,被机器人“出手”击中胸部,并被碾压在金属板上。无独有偶,2016年,Google无人驾驶汽车在美国加州山景城测试时,与一辆公交大巴相撞,后经法院认定,Google公司在此次事故中负有责任。我国也出现了人工智能机器人伤人的事件,据报载,2016年11月,在深圳举办的第十八届中国国际高新技术成果交易会上,一台名为小胖的机器人突然发生故障,在没有指令的前提下自行打砸展台玻璃,砸坏了部分展台,并导致一人受伤。[20]表面上看,机器人是人制造的产品,在造成他人损害时,应当由机器人的研发者负责,似乎在法律上没有争议。但机器人又不同于普通的产品,对普通的产品而言,追踪产品的生产者较为容易,而对人工智能机器人而言,其是依靠自身的算法在运作,有其自身独特的运作程序。因此,在人工智能机器人造成他人损害时,不能简单地认定由该机器人的生产者承担责任,而应当由该程序的发明者承担责任,而人工智能机器人的运作程序可能是由多个主体共同开发的,很难确定具体的程序研发个人或者组织,这就给确定人工智能机器人的责任带来了困难。
人工智能的发展催生了无人驾驶技术,这也对道路交通事故责任提出了新的挑战。[21]伴随着无人驾驶技术在各国的运用,这一问题已经显现。前不久,深圳已经测试无人驾驶公交线路,引发了全球关注。浙江省拟于2022年建成支持自动驾驶的首条超级高速公路。但值得我们考虑的问题是,一旦无人驾驶汽车发生交通事故,应当由谁承担责任?能否适用现行机动车交通事故责任认定相关主体的责任?法律上是否有必要为无人驾驶机动车制定专门的责任规则?这确实是一个新问题,但已经现实发生,美国时间2018年3月20日,UBER无人驾驶汽车在美国亚利桑那州发生了全球首例无人驾驶撞死行人的案件,案发地州政府紧接着宣布该州范围内永久性停止UBER无人驾驶测试,该案最终以和解方式结案,并未形成相应的裁判规则。笔者认为,对此应当区分不同情况,分别认定相关主体的责任:如果无人驾驶的汽车是因为汽车本身的技术故障引发交通事故,此时,受害人应有权根据《侵权责任法》《道路交通安全法》的规定要求驾驶者承担侵权损害赔偿责任。如果交通事故是因驾驶操作系统程序出现问题,发生交通事故,此时完全由驾驶者承担责,可能有违公平,也过于苛责。究竟如何分配责任,值得进一步探讨。在无人驾驶技术日益普及的情形下,还有必要引入保险制度,即规定新类型的“无人驾驶强制责任保险制度”,为受害人提供必要的权利救济。[22][23]
此外,有一个问题值得考虑,就是未来可能出现的飞行汽车所带来的道路事故责任,应当如何加以认定?根据媒体的相关报道,有谷歌飞行之父之称的塞巴斯蒂安-特伦宣布,谷歌有望在五年之内让飞行汽车飞行于天空的计划得以实现。[24]一旦飞行汽车的计划真的实现,可以预计汽车的飞行可能将颠覆道路交通规则,其在法律定位上究竟是作为一类新型航空器得以出现,从而根据航空事故责任来进行责任界定,还是仍然按照机动车交通事故责任来加以确定,这一问题非常值得探讨。
结语
人工智能时代已经来临,其不仅改变人类生产和生活方式,也会对人类的法律制度产生深刻的影响。21世纪初,华裔著名经济学家杨小凯就提出:如果中国仅仅重视技术模仿,而忽视制度建设,后发优势就可能转化为后发劣势。[25]因此,我们不能仅注重技术的引用,而忽视其可能带来的负面效果。我们的法学理论研究应当密切关注社会现实,积极回应大数据、人工智能等新兴科学技术所带来的一系列法律挑战,从而为我们立法的进一步完善提供有力的理论支撑。“不谋万世者,不足以谋一时”,法治不仅仅是要考虑当下,也要考虑未来。法治要提供制度环境安排,为新兴科技等的发育预留法律空间。特别是要充分认识和拥抱科学技术对社会生产和生活带来的结构性、革命性的影响,尽早观察和预测未来法律发展的方向,促进良法制定,以良法保障和促进人工智能技术的健康发展,消除其对人类社会可能产生的副作用。因此,我国现行正在编纂的民法典应当考虑到人工智能可能带来的各种新挑战,并制定相应的法律规则,以体现出民法典与时俱进的品格,并真正地应对未来的技术发展,成为一部21世纪的民法典。
【注释】中国人民大学法学院教授,博士生导师;中国人民大学民商事法律科学研究中心研究员。
[1]参见中国电子技术标准化研究院:《人工智能标准化白皮书(2018版)》,第1页。
[2]参见国务院《新一代人工智能发展规划》(国发〔2017〕35号)第一部分。
[3]参见许志华:《网络空间的全球治理:信息主权的模式建构》,《学术交流》2017年第12期。
[4]参见许志华:《网络空间的全球治理:信息主权的模式建构》,《学术交流》2017年第12期。
[5]参见徐英瑾:《具身性、认知语言学与人工智能伦理学》,《上海师范大学学报》(哲学社会科学版)2018年第1期。
[6]参见魏屹东:《人工智能的适应性表征》,《上海师范大学学报》(哲学社会科学版)2018年第1期。
[7]参见高奇琦、张鹏:《论人工智能对未来法律的多方位挑战》,《华中科技大学学报》(社会科学版)2018年第1期。
[8]参见袁曾:《人工智能有限法律人格审视》,《东方法学》2017年第5期。
[9]参见李晟:《略论人工智能语境下的法律转型》,《法学评论》2018年第1期。
[10]参见我们应该如何看待无人机侵犯大众隐私的问题,https://baijia.baidu.com/s?old_id=470904,2018年2月12日。
[11][英]维克托、迈尔-舍恩伯格:《大数据时代》,盛杨燕等译,浙江人民出版社2013年版,第193页。
[12]参见人工智能成窃取公民个人信息案“帮凶”!系全国首例,载http://www.sohu.com/a/197343129_99931689,2018年2月12日。
[13]参见张宪丽、高奇琦:《人工智能时代公民的数据意识及其意义》,《西南民族大学学报》(人文社科版)2017年第12期。
[14]参见吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》(西北政法大学学报)2017年第5期。
[15]参见人脸识别系统半个月抓住3名逃犯还有哪些用途?,http://news.163.com/17/0604/07/CM2PVCQ70001875P.html,2018年2月2日。
[16]参见王博、郝银钟:《大数据条件下司法公开对我国法官制度的新要求》,《学术交流》2017年第12期。
[17]吴晓灵:《大数据应用不能牺牲个人数据所有权》,《清华金融评论》2016年第10期。
[18]参见郑戈:《人工智能与法律的未来》,《探索与争鸣》2017年第10期。
[19]参见朱体正:《人工智能时代的法律因应》,《大连理工大学学报》(社会科学版)2018年第2期。
[20]《深圳高交会出现中国首例机器人伤人事件》,《联合早报》2016年11月18日。
[21]陈晓林:《无人驾驶汽车致人损害的对策研究》,《重庆大学学报》(社会科学版)2017年第4期。
[22]中国首条超级高速公路2022年要通车不用担心超速,http://news.163.com/18/0224/06/DBD1HH7L0001875N.html,2018年3月31日。
[23]Uber与无人车撞死行人案受害人家属和解赔偿金额未公布,https://xw.qq.com/tech/20180329012517/TEC2018032901251700,2018年3月31日。
[24]谷歌自动驾驶汽车之父:飞行汽车将在5年内飞翔天空,http://tech.qq.com/a/20180212/024798.htm,2018年2月13日。
[25]参见涂子沛:《数据之巅》,中信出版社2014年版,第337页。
【期刊名称】《东方法学》【期刊年份】2018年【期号】3
人工智能立法提速 把握“边界”是关键
原标题:人工智能立法提速把握“边界”是关键
李彦宏
全国政协委员、百度董事长兼CEO
立法本身不应该太超前,很多时候新事物刚刚出现,让它稍微跑一段时间然后再总结经验,找到规律再来立法。其次,在不同的领域,涉及的立法都不一样,比如说像无人驾驶,在过去就没有相关的法律。
刘庆峰
全国人大代表、科大讯飞董事长
人工智能立法首先要保障人类的生命和财产安全,也就是说人工智能一定是要在风险可控范围内来使用,比如说在自动驾驶领域,它的应用门槛和标准是什么;在医疗领域,人工智能要达到一定的准确度,而且最好通过一定的资质认证。
3月4日上午,十三届全国人大二次会议举行新闻发布会,大会发言人张业遂表示,已将与人工智能密切相关的立法项目列入立法规划。
张业遂称,全国人大常委会已将一些与人工智能密切相关的立法项目,如数字安全法、个人信息保护法和修改科学技术进步法等,列入本届五年的立法规划。同时把人工智能方面立法列入抓紧研究项目,围绕相关法律问题进行深入的调查论证,努力使人工智能创新发展,努力为人工智能的创新发展提供有力的法治保障。
从2017年首次被写进政府工作报告,到去年受到多位两会代表委员关注,人工智能俨然已经成为两会的焦点。2018年国务院总理李克强作政府工作报告时提到,发展壮大新动能。做大做强新兴产业集群,实施大数据发展行动,加强新一代人工智能研发应用,在医疗、养老、教育、文化、体育等多领域推进“互联网+”。
随着人工智能的迅猛发展,其对社会、经济、文化等领域已经产生越来越深远的影响。同时,人工智能面临伦理道德框架、隐私与安全保护等问题,为了让人工智能实现健康发展,急需一套完善的法律体系与之匹配。
从追赶到全球领先
虽然人工智能最早的浪潮起源于上世纪50年代的美国,但经历了近70年来的曲折发展,中国已经成为全球领先的人工智能大国。根据联合国下属的世界知识产权组织(WIPO)公布的研究报告《技术趋势2019:人工智能》显示,在全球人工智能领域的竞争中,中国和美国处于领先地位。
报告指出,AI专利申请最多的前20家科研机构中,有17家来自中国;AI相关科学出版物数量排名前20的科研机构中,10家来自中国。全球前30名AI专利申请方中的4家科研机构,有3家来自中国。
另据CNNIC第43次调查报告显示,截至2018年6月,我国人工智能企业数量已达到1011家,主要集中在北京、上海和广东。其中,北京拥有395家企业,成为全球人工智能企业最多的城市。
去年,习近平总书记在中共中央政治局第九次集体学习时强调指出,加快发展新一代人工智能是我们赢得全球科技竞争主动权的重要战略抓手,是推动我国科技跨越发展、产业优化升级、生产力整体跃升的重要战略资源。
他在讲话中特别指出,人工智能具有溢出带动性很强的“头雁”效应。“在移动互联网、大数据、超级计算、传感网、脑科学等新理论新技术的驱动下,人工智能加速发展,呈现出深度学习、跨界融合、人机协同、群智开放、自主操控等新特征,正在对经济发展、社会进步、国际政治经济格局等方面产生重大而深远的影响。”
立法工作有待加快
中国在热情拥抱新一轮人工智能热潮的同时,从政府部门到产学研各界对于人工智能发展所涉及的法律及伦理问题给予了高度关注。2018世界人工智能大会开幕式上,习近平总书记强调,处理好人工智能在法律、安全、就业、道德伦理和政府治理等方面提出的新课题。
与电商法历时5年才正式落地不同,人工智能立法更早被两会代表委员关注。去年两会期间,全国政协委员、百度董事长兼CEO李彦宏就在提案中表示,希望国家出台政策鼓励人工智能的开放平台与加速自动驾驶相关立法。
目前,中国人工智能的总体政策在2017年7月国务院发布的《新一代人工智能发展规划》中得到体现,但该规划只是要求对人工智能在部分领域初步建立伦理规范和政策法规,尚未上升至法律层面。由此可见,人工智能的立法仍有待加快。
全国人大代表、湖北得伟君尚律师事务所首席执行合伙人蔡学恩认为,在人工智能行为伦理道德框架、人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等问题上的研究均需要加强。
立法有何挑战?
人工智能的立法需尽快提上议程,但亦应注意到人工仍属于新生事物,如何把握适当的边界是关键,尤其是考虑到人工智能可以应用到金融、医疗、交通等多个场景中,出台一部总括性的法律可能会阻碍人工智能的发展。
今年两会前夕,李彦宏在接受新京报记者采访时就表示,人工智能立法本身不应该太超前,“很多时候新事物刚刚出现,让它稍微跑一段时间然后再总结经验,找到规律再来立法。”
李彦宏表示,在不同的领域,涉及的立法都不一样,比如无人驾驶,在过去就没有相关的法律。“北京市很重视无人驾驶,很快有相应的法律来保障我们的创新能够有序进行。”
全国人大代表、科大讯飞董事长刘庆峰亦向记者表示,以AI+医疗为例,虽然机器给病人诊断的平均准确率比一些基层的农村医生要高,但是从法律层面来说机器不能给病人看病,因此更多的时候是将机器得出的结论交给医生,让医生来做决定。本版采写/新京报记者陆一夫
■访谈
李彦宏:人工智能立法不能太超前
让它跑一段总结经验再立法;无人驾驶、智能医疗等领域都需要立法
全国政协委员、百度董事长兼CEO李彦宏今年的三项提案均与人工智能相关,分别是构建智能交通解决方案,让老百姓出行更顺畅;完善电子病历管理制度,促进智能医疗应用探索,助力“健康中国”战略实施;加强人工智能伦理研究,打造智能社会发展基石。
新京报:关于人工智能立法,你有哪些建议?
李彦宏:首先,我觉得立法本身不应该太超前,很多时候新事物刚刚出现,让它稍微跑一段时间然后再总结经验,找到规律再来立法。其次,在不同的领域,涉及的立法都不一样,比如说像无人驾驶。北京市很重视无人驾驶,很快有相应的法律来保障我们的创新能够有序进行,到今天百度已经拿到了50张左右的自动驾驶测试车证。
医疗方面也需要相关的立法,统一电子病历的格式,必须要有什么样的字段,要有什么样的内容,不同的医院、机构之间进行交换,必须保护患者的隐私等等,都应该通过立法的方式来解决。
新京报:如何解决互联网和AI发展过程中遇到的数据孤岛的问题?
李彦宏:以电子病历为例,大多数好的医院都有电子化病历。但是这些病历相互之间没有打通,我在这个医院看病之后,到了另外一个医院还要重新做一遍检查。我觉得确实需要通过政府的力量制定相应的标准,来推动数据共享。
新京报:在这个过程中怎么去保护用户的数据隐私?
李彦宏:在共享的过程当中,我们需要特别注意保护用户的隐私,我觉得道理上大家都认可,关键还是看执行的过程当中能否有一个好的机制来约束。
百度内部若干年前提过两个词,一个叫“平台化”,一个叫“接口化”。平台化是指,我做一个东西,就争取把它做成一个平台,可以供其他部门的人使用。接口化是指把我的能力开放给你,我告诉你我的平台能干什么,但是我不把背后的数据、源代码给你。这样一来,数据得到了保护,知识产权得到了保护。
通过平台化、接口化的方式,把边界定义清楚,什么人可以获得什么样的信息,获得什么样的能力。然后通过一个平台,或者是多个平台来提供这些能力。
新京报:你认为,人工智能行业存在哪些问题和挑战?
李彦宏:我觉得大家对人工智能还是有很多误解,两方面的误解都存在。有一些(对技术发展速度)比较乐观的人担心,人工智能一旦有了意志的话,会不会对人产生控制的能力。我觉得这个担心其实是没必要的,人工智能离这一步其实还非常远,我的判断是永远达不到。
另外一个极端是,人工智能其实现在能做的有意义的事情还不够多,市场还处在早期的阶段,所以不够重视,这也挺危险的。人工智能的推动作用更多的是在生产端,可以大规模提升生产制造效率。如果一些企业不能及早地意识到人工智能在这一方面能够起到的作用,是有可能被淘汰的。
新京报:在你看来,人工智能行业是不是存在一定的泡沫?
李彦宏:人工智能领域肯定是有泡沫,而且泡沫还不小。任何一个新的趋势到来的时候大家都会感兴趣,一拥而上。无论是投资也好,创业也好,或者是大的公司研发方向的调整,都会向着这个新的趋势去走,所以一定会产生一些泡沫。只有这样大家都一起上的时候,才能够推动这个产业迅速地走向成熟。
人工智能行业走向成熟的过程是一个优胜劣汰的过程,剩下的一定是少数公司。我觉得这是一个很自然的过程。
今天大家讲的十个技术里面,可能有九个将来会证明其实没什么价值,但是有一个技术最后慢慢被打磨成了非常有价值的技术。大家需要有这种心理准备,今天很热的一些公司,可能十个里面有九个在五年以后就不存在了。新京报记者马婧
■访谈
刘庆峰:立法首先要保障人类安全
人工智能的立法核心一定要以人为本,这是立法的根本;立法应更有针对性
新京报:人工智能时代会对现有法律体系产生哪些新挑战?
刘庆峰:我觉得人工智能立法的挑战有两方面,一是目前在原来法律体系中并没有人工智能方面的法律法规,人工智能是新物种,它所带来的积极帮助或者潜在风险都是人类没有碰到过的,而法律体系的讨论调研到最终制定存在一个比较漫长的过程。
二是人工智能的发展日新月异,法律体系如何做到与时俱进,尽快满足人工智能产业发展和社会健康进步的需要,确实存在很大的挑战,这主要体现在人工智能对生产和生活方式的改变是全新的,其次是人工智能的变化非常快。
新京报:对于人工智能立法,你有哪些建议?
刘庆峰:人工智能的立法核心一定要以人为本,这是我们立法的根本。我认为,人工智能立法首先要保障人类的生命和财产安全,也就是说人工智能一定是要在风险可控范围内来使用,比如说在自动驾驶领域,它的应用门槛和标准是什么;在医疗领域,人工智能要达到一定的准确度,而且最好通过一定的资质认证。
第二是人工智能应该兼顾未来社会人文的需要,倡导人机耦合的模式,简单说人工智能是帮助人的,而不是替代关系。在人机耦合上,我们要考虑到以人为本,未来人和机器是如何协作的。例如在医疗上我们叫人工智能系统为辅助诊疗系统医生助手,在法律上叫人工智能为刑事案件辅助审判系统。
第三是人工智能立法对很多老百姓来说还是陌生的,对技术也不是特别了解,所以人工智能在立法的同时需要有检测手段,在检测人工智能安全性上必须要有测试标准和方法,这样才能使立法落到实处。
新京报:考虑到人工智能的应用跟很多的领域相结合,立法时是否应该更具针对性?
刘庆峰:人工智能立法应该要有针对性,就像制药一样,任何的药物生产出来都要有临床过程,通过技术分析证明它具备药效,通过临床验证后再进行大规模的推广。我觉得人工智能也是这样,立法时先在一定范围内进行试点,试点通过验证才可以去大规模落地。
人工智能应用必须要遵循这个逻辑,而不是说大干快上,最终导致行业泡沫过多,也容易在应用过程中带来不必要的伤害,从而影响人工智能健康发展。
像习总书记说的,人工智能具有非常强的头雁效应,未来社会将从互联网+进化到人工智能+时代,各行各业都可以用人工智能深刻改变现在的生产和生活方式。对于行业里的头部企业,需要有更多的支持和关心。
新京报:解决数据孤岛问题的同时,如何保护用户隐私?
刘庆峰:首先是法律要同步跟上,其次是企业要有更强的保护意识,现在已经有很多服务涉及老百姓的日常生活。因此相关行业的领军企业要做到表率作用,不仅仅是向用户进行告知,还包括价值观层面的指引。
第三,目前很多数据都是在用户不知情的情况下被企业拿走,从技术层面看,我们应该通过人工智能技术的发展给予用户更多的选择权,例如讯飞的翻译机,考虑到机密信息可能泄露,公司在设计产品的时候就做了离线翻译的版本,这是非常必要的。
新京报:中国在人工智能领域处于领先位置,应该如何保持先发优势?
刘庆峰:中国要保持目前的优势,就要以应用促进人工智能发展,在兼顾保护和共享数据之间推动人工智能更好地成长。欧洲就是把数据管得过严,影响人工智能的发展。我认为,数据的适度管理尺度以及典型应用场景的快速突破,能够形成数据和应用场景的良性互动,最终实现人工智能上的领先优势。
中国要持续保持人工智能发展,应对人工智能的第三次浪潮,未来还需要更大的突破,例如要在源头技术创新上加油,进一步推动人工智能技术在应用方面的落地,在人工智能未来的发展中要做更多的前瞻性、基础性的布局,才能够在人工智能领域保持领先,我觉得这是非常关键的一步。新京报记者陆一夫
数据来源:中商产业研究院
(责编:孟哲、杨波)
分享让更多人看到
人工智能船舶对我国《海商法》及相关规定的影响
【摘要】为使人工智能船舶在海事海商领域的应用与我国《海商法》及相关规定更加平稳衔接,分析现有的国际公约、规则,以及我国国内法的规定,通过类比指出人工智能船舶对现行法律存在的影响,结合当前人工智能船舶的研究阶段与相关规定,提出建议:人工智能船舶符合“船舶”的概念,应受到法律监管;人工智能船舶具有更强的技术性和特殊性,应提出更严格的适航标准,对其信息系统应提供更严密的保护;在人工智能系统需要人为操控时,岸基操作人员在职能上类似于船员或船长,与传统船长法定职能存在差别;人工智能船舶可能不适用《国际海上避碰规则》,且碰撞发生后承担责任的主体在不同情况下也会有差别。
【关键词】人工智能船舶;船员;船舶;适航;船舶碰撞
0引言
人工智能技术的高速发展及广泛普及对传统产业产生颠覆性的冲击与改变,其中船舶及海上运输产业也将不可避免。人工智能技术的运用将引发包括船舶智能制造、人工智能船舶、自动化避碰技术等诸多新变革,也将推动我国《海商法》发展并丰富完善。笔者将针对人工智能船舶及其法律适用问题进行讨论。
随着国内外对人工智能船舶研究的不断深入及该项技术发展的日益升温,未来智能船舶的发展水平也必然成为衡量国家航运实力强弱的重要指标之一。目前,我国对人工智能船舶的开发及研究还处于起步阶段。大连海事大学、武汉理工大学等高校不断开展无人驾驶智能船舶领域核心技术、航线设计、运营成本核算等方面的研究,推进对人工智能船舶未来发展趋势的评估。加之中国船级社基于近年来的科研成果,经充分考虑国内外有关智能船舶的应用经验和未来船舶智能化的发展方向后,于2015年12月发布《智能船舶规范》。《智能船舶规范》从6个方面对智能船舶进行了规定,为人工智能船舶相关法律的制定提供了“按功能分模块”的探索方向,推动人工智能船舶在军事领域和民用领域的广泛应用。由此看来,我国智能船舶发展势必迈向一个从建造、检验到营运成体系化的新阶段。
针对人工智能船舶这一新生事物,我国现行法律及国际公约都显现出了一定的滞后性。笔者从船舶、船员概念以及船舶碰撞制度着手,分析人工智能船舶对我国现行《海商法》及相关规定中各项制度提出的挑战。
1人工智能船舶对船舶概念的影响
1.1人工智能船舶是否适用我国《海商法》
对于人工智能船舶这一新生事物,首要解决的应当是如何对其定性。确定人工智能船舶的法律地位和法律人格,是解决未来可能出现的大部分法律问题的前提。
对于“船舶”的定义,我国《海商法》第3条规定,“本法所称船舶,是指海船和其他海上移动式装置,但用于军事的、政府公务的船舶和20总吨以下的小型船艇除外。”结合相关法条可以看出,我国《海商法》所规定的船舶有以下特征:(1)具有可航行性;(2)在海上及与海相通的可航水域航行;(3)功能上的运输性;(4)具有目的的商业性。国际公约及大多数国家的国内法对船舶的界定基本都遵循以上规则。人工智能船舶与传统船舶最直观的区别在于人工智能船舶为“无人”驾驶,但无论是现行国际公约还是各国国内立法,实质上均未要求船舶必须配备船员。换言之,船舶是否配备船员不是界定船舶概念的必要条件,是否属于《海商法》第3条规定的“船舶”与船员的配备无关。虽然立法者在制定法律时可能并未预见到无人驾驶智能船舶的出现,但赋予智能船舶海商法意义上船舶的法律地位,与立法者的立法意图并不矛盾。
1.2人工智能船舶的适航要求
我国《海商法》第4章第47条规定的适航包括了船舶本身适航、船员适职等方面,因而针对人工智能船舶的适航标准问题也适用本条款。
船舶适航,即船舶能够抵御航行中可预见的风险,满足航行或作业中一般的安全要求,实现船体和船机的适航。人工智能船舶只有在各方面较传统船舶建立同样甚至更加严格的安全指标,才会在实践中被接受进而得到应用。船舶本身的适航同样存在两方面的要求:
(1)船体、船机等各设备的技术状态符合国内或国际标准和要求;
(2)配备适当的如海图、航路指南等文件资料。
因此,智能船舶高度的人工智能特性要求船舶的通信及信息网络系统、智能决策系统、文件资料等都要满足船舶的适航标准。
设备的技术状态标准主要侧重于技术性这一层面。技术性,不仅包含航海技术、船舶工程技术,还包含信息网络技术及人工智能技术等。在国内,《智能船舶规范》对船舶的船体、机舱提出了相应的要求,在某种程度上为人工智能船舶的技术检验、适航证书的颁发提供了思路,并为后续的国内相关立法探索指引了方向。但是,在国际层面上,如此庞杂且先进的技术指标,仅仅依靠各国国内法是無法进行全面且合理的规制的,加之各国技术研发程度参差不齐,对智能船舶的理解也不可能做到同步。若没有相应的国际公约对智能船舶领域进行规范,就会造成各种规范和技术标准堆叠,难以高效、便捷地管理。
由于智能船舶具有突出的跨国性、无人化和信息化等特性,目前尚无法确定船舶适航所必需的文件资料是将完全以电子信息的形式出现,还是仍会存在一定数量的传统纸质文件。多数国家的法律都规定外国船舶驶抵本国港口时,应向本国有关港务监督部门交验船舶证书及有关文件并接受检查,而人工智能船舶的无人化使得船上纸质文件的交验变得不现实,因此完全以电子信息的形式更能符合法律规定。以往船舶所载的各类文件中包含着需要由有权限的船上人员按时记载、记录的信息,人工智能船舶无人化的特点将使得这一重要文件由人工智能系统通过电子形式记录。电子记录系统能够以云储存的形式保存信息,避免沉船等事故造成文件灭失。但毋庸置疑,新形式也势必带来新问题――文件资料的完全信息化可能会存在以下法律问题:
(1)不排除系统智能记录出错的情况。例如,系统的错误导致油量记载或航速风向记载发生偏差,这将严重阻碍发生纠纷或事故后的调查取证。特别是当两条人工智能驾驶船舶的记录信息相互矛盾,将会产生如何确定证据、信息错误应由何方承担责任的争议。
(2)人工智能的信息记录可能涉及侵权问题。当发生战争或网络遭受木马攻击,又或系统运营发生故障时,都将可能造成航行记录等大量的信息丢失,受损的将不仅仅是特定的一艘船舶,而是大数据覆盖下的所有船舶。云储存系统瘫痪或信息丢失,极可能导致整个航运业的运营停滞。作为侵权主体的木马病毒制造者难以被及时查清,即便最终被查明,航运企业往往也无力负担如此巨大的数据损失和经济损失,大数据运营商也难辞其咎,尚未有相关法律对产生的损失如何归责作出规定。
对此,我国有必要积极参与到智能信息记录系统的研发工作中,努力找到妥善解决上述问题的方案,以尽早形成可广泛投入使用并同步于国际智能船舶技术发展的可行的技术规范和标准。
2人工智能船舶对船员制度的影响
2.1人工智能船舶岸基操作人员是否属于船员
人工智能船舶将人类从以往繁重的船舶驾驶与船舱操作中解脱,一系列智能机器将逐步替代传统意义上的船员。但从发展的初级阶段看,人工智能仍是人机环境系统交互的产物,归根结底并非真正的人脑。在人工智能系统仍需人为控制的阶段,该系统需由生产商或其船舶所有人指定的岸基操作人员远程操控,有必要对这些操作人员的法律地位进行分析。
人工智能船舶岸基操作人员是否列入船员体系,需要结合相应法规进行分析。我国目前的船员法规体系包括我国《海商法》第3章和《船员条例》及交通主管部门制定的关于船员的若干行政规章。这些法律规范共同强调船员应“服务于船上”,这一点与《1978年海员培训、发证和值班标准国际公约》(《STCW公约》)、《海员协议条款公约》对船员的定义相同,《2006年海事劳工公约》更强调海员与船舶所有人的雇佣关系,且在对国际海事委员会无人船工作组的调查问卷的回复中,美国、英国、加拿大、法国、新加坡、巴拿马等国家也表示“服务于船上”并不能视为作为船长的必要要素。如果按照我国现行国内法的规定,“服务于船上”作为船员应具备的必要条件,人工智能船舶中的岸基操作人员显然不符合该条件,只能被排除在船员范畴之外。然而,在现行国内法立法时,立法者显然无法预见到人工智能船舶的产生与应用,对船员的限定是基于有人船的考量,不能因为新事物的产生不符合现行法律规定就对其一概排除适用。岸基操作人员均可以满足船员应具备的其他条件,即应取得船员资格和受船舶所有人聘用或雇佣:岸基操作人员受船舶所有人雇佣,负责对人工智能船舶进行远程监测,在必要时干预船舶采取相应行动,并负责保证船舶所载货物的安全、避免发生碰撞和环境污染等。从这些职能来看,人工智能船舶岸基操作人员可以被视为船员,对于主管船舶行政与技术事务的操作人员其地位也可以等同于船长。
2.2船长的法定职能是否由人工智能系统取代
依《海商法》规定,船长负责船舶的管理与驾驶,并有警察、公证、紧急处分和代理等职能。但是,人工智能船舶必然会遇到其船长(本人不在船上)或是法律未赋予船长法律地位的岸基操作人员。是否可以行使传统船舶的职能,能否赋予人工智能系统以警察、紧急处分及代理等职能这些问题。由于在现行法律下,该部分职能向来由经验丰富的船长来行使,船长在行使权力时会充分考虑相关条件,作出较为合乎人类情理的判断。船长在享有一系列权力的同时,承担相应的民事甚至是刑事责任。在现行法律框架下,人工智能系统并非是适格的法律主体,责任归责是一个重要问题。比如,从代理职能的层面讲:若人工智能系统在代理承运人接收货物并签发提单的过程中发生故障或遭到人为破坏而导致装卸延迟,是否作为不可抗力或是意外事件;系统判定错误而导致无单放货,承运人和实际收货人是否应当承担责任,是否可以向人工智能系统生产商追偿。这都是待解决的问题。究其本质,是赋予人工智能系统有限的法律人格,还是将其作为一件商品和工具来使用,值得商榷。
3人工智能船舶对船舶碰撞制度的影响
3.1现行避碰规则对人工智能船舶的不适性
《国际海上避碰规则》(以下简称《避碰规则》)作为船舶在海上航行的行动指南,对于规范航行秩序、保障航行安全有着重要意义。《避碰规则》第1条规定了其适用范围,人工智能船舶在规定区域航行时也应该受其约束。[1]《避碰规则》早在1972年就已制定,虽于2003年进行了修正,但一些规定仍是基于有人船的考量,对人工智能船舶则缺乏相适应的规范,其中最明显的就是对“互见”的不适性。
不同的国家对“互见”的表述虽有不同,但内核基本一致,即互相以视觉看到。随着科技的发展,雷达、甚高频通信等助航仪器相继出现,发现来船的手段已不仅限于视觉。这些助航仪器的出现使得“互见”的含义变得不够严密。《避碰规则》在第2章中将“船舶在互见中的行动规则”与“船舶在能见度不良时的行动规则”相并列,前者使用“看见”一词,后者主要依赖于雷达;第19条第4款规定,在仅依赖雷达测到来船的情况下,应判断是否正在形成紧迫局面或存在碰撞危险。这表明在依赖雷达时,仍不能免除视觉瞭望的义务。[2]
对于人工智能船舶而言,岸基操作人员通过传感器智能监控系统、自动避碰系统等远程操控船舶,并不在船上服务,显然不符合“视觉”这一要求。但是,相较于传统船舶,人工智能船舶的信息感知系统、自动导航系统、电子海图系统等比视觉瞭望更加精准、可靠,无疑大大地提高了航行的安全性。倘若严格按照《避碰规则》所要求的“以视觉看见”为互见时,人工智能船舶将无法符合条件,也就无法适用《避碰规则》第2章所规定的会船时的行动规则;因此,将“互见”的手段扩展至与视觉达到同等甚至更佳效果的人工智能手段,无论是针对现今的海事雷达等助航设施还是将来的人工智能船舶都存在一定的合理性。
3.2人工智能船舶碰撞后的责任承担
人工智能虽能以人类方式做出行为,但并没有独立的财产,难以独立承担法律责任,因此人工智能仅具有有限的法律人格,不具备成为法律关系主体的法律地位。人工智能船舶作为特殊动产的法律性質并未改变,航运企业对人工智能船舶拥有完全的所有权。人工智能系统作为船舶的一部分,属于航运企业的财产。那么,由航运企业控制下的人工智能船舶的侵权行为,可参照原《侵权责任法》和《海商法》中的相应规定,由船舶所有人、船舶经营人或光船承租人来承担责任,具体可设定为由在船舶实际运营过程中控制智能系统的一方承担责任。但此时存在一个问题是,人工智能系统与生产商是否已经分离。若人工智能系统仍需要由生产商运营或控制,那么当发生在人工智能船舶侵权事件时,不仅船舶所有人、船舶经营人和光船承租人需要承担责任,而且人工智能系统的运营方可能也需要承担责任。当生产商生产完成后人工智能船舶便能完全自主运行、自成系统的情形下,除非有明显产品责任,否则生产商不应当承担责任,即人工智能船舶与生产商已经完全分离。
4结语
由于海事领域各主体间关系较为复杂,加之人工智能船舶存在特殊性,现行法律需要考虑在原有基础上新增或者修订船舶结构、船舶配员、船舶碰撞,以及在海洋环境保护、海上航行安全、法律责任与保险等与人工智能船舶相关的规定,解决人工智能船舶的法律地位问题,保障海上船舶安全和航运安全。
参考文献:
[1]李璞.无人智能船航行安全法律问题研究:以船舶擗碰为视角[D].大连:大连海事大学,2018.
[2]张铎.“互见”条款的含义及其解释[J].青岛远洋船员学院学报,1999(3):54-56.
收稿日期:2021-06-11
作者简介:杨文丛(1995―),男,硕士研究生,研究方向为海商法
2270501186338
猜你喜欢海商法船员船舶船舶上层建筑建造工艺探讨科学与财富(2021年35期)2021-05-10项目管理技术在船舶建造进度控制中的实践智富时代(2019年3期)2019-04-30项目管理技术在船舶建造进度控制中的实践智富时代(2019年3期)2019-04-30制定和修改《海商法》就是为保护发货人的权益中国经贸(2019年7期)2019-04-16中国海商法协会2018年大事记中国海商法研究(2018年4期)2018-09-10中国造!全球首艘智能船舶交付伙伴(2018年1期)2018-05-14论海商法之于民法的独立性智富时代(2017年1期)2017-03-10论海商法之于民法的独立性智富时代(2017年1期)2017-03-10新船订单骤降价格低位震荡航运交易公报(2015年38期)2015-12-012014年9月份船员工资行情参考珠江水运(2014年18期)2014-11-14水运管理2022年2期
水运管理的其它文章新基建背景下智慧港口发展对策新型海洋运输装备事故致因分析绿色发展视角下的宁波舟山港港口效率评价基于层次分析法的宁波舟山港社会责任绩效评价首闸申报制的技术实现及应用航道养护管理现代化及其评价指标体系