博舍

浅析人工智能相关法律问题 人工智能对法律的挑战和提出的新问题

浅析人工智能相关法律问题

文/徐发强

江苏省南京市玄武区人民检察院

文/陶沁言

扬州大学商学院

互联网及科学技术迅速发展,人工智能呈现出蓬勃发展的态势,并上升到国家战略高度。其应用领域不断扩大,应用形式不断丰富,影响力不断增强。人工智能对生产力和产业结构产生革命性突破,并且作为当代人类社会必不可少的一部分,发挥其高效便利的服务效用。人机互补互动、协同一体化趋势加强的同时,“人类中心化”受到质疑与挑战;相关民事及刑事等法律问题频发,人工智能的非法应用及技术算法漏洞对伦理道德、隐私权益、财产安全、系统安全等方面造成巨大威胁。而对人工智能违法的法律责任划分及其法律地位定性也存在巨大争议,在人工智能是否有意识等层面产生一定法律偏差。当下,亟待把控大数据与个人信息安全平衡,建立健全人工智能相关法律体系,推动技术研究及科学发展,加强监督监管机制。完善人工智能研发、供应、使用、管理及事发机制,让人工智能在法治的轨道上合理运用,造福人类,在安全的前提下,促进强国建设。

一、人工智能技术带来的相关法律问题

(1)隐私泄露导致的侵权诈骗行为

产业模式的进一步创新,虚拟现实等新技术涌现,自然人格要素虚拟化呈现需要原型……各类新发展的驱动下,逐渐增大了用户隐私被窥探利用的风险,个人信息被过度读取分析,造成隐私保护和数据读取失衡。恶意读取人像、声音进行非法AI合成,造成隐私权、肖像权受损。更有不法分子通过仿真模拟,利用合成的虚假信息等进行诈骗,通过互联网及大数据追踪用户,并造成一系列财产损失。

(2)人工智能陷入“伦理困境”

人工智能由算法支撑,利用大数据和植入信息进行判断,它不具有人的判断及随机应变能力,可以说它是不具有人的意识,并且是具有局限的虚拟化。在特定的陌生的情况下,易发生系统混乱和故障,从而导致灾祸的发生,这时谁来承担法律责任?“虚拟”与“现实”交错、“现实性”与“可能性”交织,人工智能显示出复杂化的倾向,并增强了人工智能运用的风险性和不确定性,一定程度上增加了人身安全威胁。伦理和法律产生碰撞,伦理责任与道德规范正在被消解,社会伦理秩序濒临挑战。

(3)更大范围上的安全系统威胁

利用非法手段,逃避安全系统防控。实施干扰或破坏技术,进行非法入侵、数据投毒、数据争夺……造成一系列数据泄露和安全隐患。轻则引发社会矛盾,扰乱社会秩序;重则泄露国家秘密,损害国家利益。人工智能是一把双刃剑,其潜在危险不可忽视。

二、人工智能面临法律责任划分的难题

(1)人工智能法律地位定性

人工智能的主体性一直备受争议。人工智能通过算法设定特定的性能,使机器“拥有人的智慧”,而其本质上是人类的工具,依附于人类而生,更多的是一种仿真模拟,无法通过自身感知人类社会文化的多样性。人工智能并不具有独立意识,无自主性,没有成为法律主体的能力,无法自然建立权利和义务的关系。人格权,是指民事主体专属享有,以人格利益为客体,为维护民事主体的独立人格所必备的固有民事权利。同时,具有人格权的前提是必须为独立的民事主体,即成为法律主体,需要拥有法律人格,履行相关民事责任,享受民事权利。人工智能作为无意识的附属品,无法平等参与民事活动。故笔者认为,人工智能若具有人格权,则是与社会伦理背道而驰,故其不能够成为法律主体。

(2)人工智能归责不明引发法律纠纷

人工智能的民事主体身份的确认是明确其法律责任、法律行为和归责问题的基础。当人工智能无法作为法律主体承担责任时,那由其产生的事故该由谁来承担?拥有植入意识的人工智能客体又能否完全摆脱其法律责任?

法律责任该如何划分:是归咎于技术研发部门的不成熟性,还是将其定性为意外?是由所有者承担还是由开发者承担?算法制定者与技术研究者承担起创造的职责,其主观思维、判断能力、社会心理以及仁义观念都会对人工智能产品产生巨大影响。由弱人工智能产品引起的意外,在未有过大损失及人身安全受损的前提下,且在提供保险的可赔控的范围内,更多体现为消费者和经营者的纠纷,这时的矛盾一定程度转化为消费者对权益的要求和控诉。而一些强人工智能产品,可在限定范围内,进行独立思考并制定解决问题的最优方案,具有一定价值观和世界观体系,具有与人类相近的知觉能力。它们应用形式更加复杂,应用到现实中必然面临人类社会特定选择,面临伦理道德的考验。这时基于数据库作出的“错误”选择该如何划分?未制定详细且完善的风险分控机制,也未能在人工智能产品、投放者和消费者之间建构起稳定桥梁等,一定程度导致人工智能归责界限不清。而赔偿等法律责任的履行又将怎样贯彻实施,归责方式又该如何合理制定,是当下急于解决的问题。

三、人工智能相关问题亟需法律优化

(1)完善立法,综合考虑法理及社会利益

对于人工智能法律地位提出了“电子人格说”,框括了由人工智能“自主化”作出决策部署的能力。其人格具有有限性,而也需对人工智能各发展领域进行标准评估判定。对通过不同程度“图灵测试”的强人工智能,或许也应当明确其在法律上的地位。

(2)建立健全法治体系,建立透明算法问责制度

增强对违法行为的管控力度,划分法律责任界线,建立人工智能问责机制,对相应程度的事故认定进行严格约束。而对人工智能本身,其算法的不透明性、决策结果的不可估量性、源头研制的单一性需进行法律管控,设定相关标准与规则。

(3)人工智能干预司法行政实践

人工智能应用于司法服务中,能够有效减少法官因为主观意愿而产生的冤假错案,有效提高司法裁决效率,构建清朗的司法环境。而将大数据、信息化、人工智能、智慧法院几者融合发展,则能更好地提升司法服务水平。当然,需界定人工智能司法行政地位,制定法律参考标准,设定司法审判边界,将其运用的合理性以法律的形式明确下来。

四、人工智能实质性发展所需

(1)采取监督监管新形势

强调监管的科学性和灵活性,利用多方协调治理促进人工智能领域的合法发展。采取分散式和渐进式措施有效预防控制,预测评估风险等级,从源头加以把关,从而避免人工智能利用算法“控制人类”恶果的发生,减少伦理道德颠覆的威胁,降低人工智能发生意外被问责的损失。同时,在信息网络发达的当下,构建风险监管、智慧监管、精准监管“三位一体”的信用监管新模式。提高监管效力,降低监管成本,实现监管防控最优化,形成人工智能一系列因地制宜的监测防控链。保证算法设计、产品研发和成果运用的透明化,赋予用户更清晰的认知选择,提升跨行业、跨市场交叉风险的甄别、防范和化解能力。

(2)提升人工智能伦理风险防范能力

总体上坚持以人为本,遵循人类基本价值观,稳定提升人工智能应用的包容性和安全性,深入推动人工智能应对危机及变故反应优化。促进人类与人工智能和谐共处发展,统筹规划人机平衡,积极引导人工智能健康发展。研发部门坚持将人类社会实践文化成果进行合理转化,遵循人工智能研发规范规定,多方面考虑用户及应用的差异化诉求,并且不进行违背伦理的人工智能研发,提升数据及算法的科学性和可行性,保证透明化和可控性。监管部门加强伦理审查,管控算法歧视,保障人类拥有操控权和充分自主决策权,化解人工智能对人类文明的威胁及冲击。

(3)加强政策引导

政策是否适当直接决定了人工智能的发展方向是否清晰。制定与时代科技发展相适应的政策,精准完善政策引导,明了政策限制,在法律的框架内,真正发挥政策的导向作用。审时度势,保障各方利益,尊重用户信息知情权,严厉打压侵犯隐私权的行为,保障个人隐私和数据安全,稳定社会秩序。将生产研发的标准界限以明确的法律政策落实下来。提高政策约束力,使各方在一定的规范下合理安排利用,使人工智能在法律的轨道上造福人类,可持续性发展。

(本组责编梁爽)

夏勇 :试论美国学者对人工智能法律问题的研究

马修·谢勒律师指出,美国有数个州的法律涉及无人驾驶汽车和无人机,但缺乏人工智能的专门立法规制,学界对此也鲜有研究。人工智能具有行动自主性,难以预见和控制,其开发和运行隐秘、分散、不透明,现有公权机构的监管力不足。具体说来,立法机构民主但欠缺专门知识;政府机构灵活且专业但有不民主之嫌;司法机构有助于事实调查,但只有在当事人提出诉求时才能做出反应。这就很难实现对人工智能的积极而有效的监管。该律师建议制定人工智能发展法案(ArtificialIntelligenceDevelopmentAct),设立专门的认证机构,明确相关政策和程序,规定人工智能商业化的标准。同时,为避免对技术发展造成干扰,该机构应在一定程度上与人工智能分担责任。此外,基于市场规律,还可要求人工智能的制造者和操作者为其购买保险。

华盛顿大学法学院副教授瑞安·卡洛指出了人工智能会带来技术风险——影响网络安全;权利风险——侵犯个人隐私;秩序风险——数据的掌握导致市场垄断;甚至人种风险——可能终结人类本身的存续。这就需要控制风险,加强监管,确保安全。然而,安全是一个相对概念,通过监管获得的安全需要达到何种程度?是否要求无人驾驶比人类驾驶更安全?“人类”的范围如何把握?在何种条件下进行比较?应比人类操控安全多少?这些都关系到监管政策,是行政立法的前提。关于行政监管的内容,他提出,一些职业要求人类预先取得执业证明,是否对人工智能也有资质要求呢?又该如何要求?进而言之,人工智能被纳入行政监管的对象,是否有理由对其征税?

北达科他大学的杰里米·斯特劳布和乔·瓦采克两位学者发表专文讨论无人机给飞行器的管理及责任带来的新问题。他们指出,载人飞行器的飞行员需要通过美国联邦航空管理局知识测试取得执照,但无人机操作人员却不需要,技能水平难以保证,将不可避免地增加事故。此时,第三方主体可能承担责任。然而,由于联邦监管法律的局限性,美国联邦航空管理局尚缺乏对业余爱好者的要求。这就使得自主控制的无人机引发侵权事件时难以确定责任主体——是操作者还是开发者,或者是维护和检修人员?由于受害者无法确定谁在远程操作无人机,因此责任主要由所有者承担。他们为此提出管控建议。第一,无人机的注册应从制造商开始,生产的每架无人机均应有序列号。第二,如果出租人或所有人仅是购买却从未占有、检查、操作过无人机,那么长期租赁者应被视为所有人,应在其名下登记无人机。第三,在租用无人机的情况下,只要所有者保留操作者的明确记录及事故发生的时间且能证明操作者拥有保险或足够的财产,即可免除所有者的责任。第四,在受害者起诉所有者的情况下,所有者若要解除自己的责任,须向法院提出申请,要求并证明操作者才是被告。第五,如果所有者可证明操作者操作无人机,但操作者不满足最低标准的保险或财产的,则分担责任——操作者在其保险或资产限额内担责,所有者为差额担责。第六,所有者不对惩罚性赔偿负责,除非其有主观过错。如果操作者有充足的保险或财产,不必追究所有者责任。第七,所有者有过错或无法证明操作者的责任,则所有者负责赔偿。所有者应对无人机的任何缺陷负责(除非这种缺陷是由操作员直接造成的)。第八,受害人承担责任的场合包括:(1)被害人在事故发生时对无人机的操作有实际了解,或有足够时间就无人机的操作发出警示;(2)事故发生在专门用于无人机操作的区域(带有适当的指示牌);(3)事故发生时被害人正在闯入或被迫进入(存在明显告知的)该区域。如满足这些条件之一,则还应考虑:即使没有无人机,其行为是否危险;是否在了解无人机操作知识或收到了警示的情况下,仍采取不理智或不合理行为;事故发生或临近时是否存在开始实施针对所有者或操作者的侵犯行为。要受害人分担责任,通常还要求受害人的行为导致或加重了无人机的损害;受害方受伤(或加重伤害)是因为自身的疏忽;受害人知悉当时存在受伤的风险。

两位学者认为,上述规范可以由国会制定,使其成为美国法典的一部分。目前尚不清楚国会议员是否将此视为需要解决的问题。不过,联邦法规的僵化可能难以适应不断变化的无人机行业。然而,联邦法律未授权美国联邦航空管理局颁布涉及上述内容的法律法规。由此看来,各州倒是有余地做出更多限制性规定。

可见,美国学者对人工智能管控的行政法律问题相当重视,研究较为细致,主要包括以下特点。第一,正视人工智能的运用已经带来和可能带来的社会风险,尤其是基于自动驾驶汽车和无人机等已经投入商业使用的人工智能体带来的现实风险,指出法律应对的必要性和迫切性。第二,指出现有法律系统应对人工智能问题的局限,从而建议专门的法律管控系统,包括专门的立法和执法机构。第三,对于使用广泛的无人机人工智能体,提出了开发者、制造者、所有者、操作者、维护者、检修者的登记制度,以此作为追究责任的前提,并讨论了受害人过错对责任的影响。我们认为,这种贯穿人工智能体运用全过程的扫描式研究值得提倡,也值得我国学界借鉴。事实上,我国的一些行政法学者已经开展了一些类似的讨论。当然,美国作为联邦制国家,各州行政管理及其法律系统立足于本州实际,彼此不尽相同,这就不可避免地带来了法律冲突,相比之下,我国作为单一制国家,自上而下的统一法制,对并不局限于地域的人工智能运用,可能更有利于管控。我国学界应在中国特色的法律结构框架下开展相应研究。

面对人工智能 法律人的新挑战

作者:天津商业大学法学院吕殊洁

政府工作报告中连续三年提到人工智能,今年更是首次提出“智能+”的概念。人工智能正在逐渐进入人类的生活,重组人类的“神经系统”,成为很多行业变革的“利器”。2015年7月,最高人民法院提出建设“智慧法院”的蓝图,“法信──中国法律应用数字网络服务平台”投入使用。2016年7月,中共中央办公厅、国务院办公厅印发《国家信息化发展战略纲要》,提出“建设智慧法院,提高案件受理、审判、执行、监督等各环节信息化水平,推动执法司法信息公开,促进司法公平正义。”国家出台了一系列支持人工智能在法律领域中发展的政策,促进了人工智能在法律领域的高速发展。

一、人工智能与法律结合的现状及发展趋势

人工智能技术已在法律领域中有广泛的应用,国外有IBM个人智能律师ROSS、英国机器人律师DoNotPay,国内有“小梨”“法狗狗”等计算机系统。人工智能法律系统致力于预测案件判决结果、预估诉讼案件的证据采信率等技术的开发,旨在为客户提供全方位的法律服务。在司法系统中,最高人民法院明确表示,将在审判、执行、服务等方面借助于人工智能,实现案件审理的智能化。法律人工智能技术的发展,让法律人从繁琐的案头工作中解放出来,极大地提高了法律人的工作效率。随着人工智能技术的发展,未来的人工智能法律系统,开始研发自主学习的“超级法律人工智能”,使人工智能拥有“像人一样思考”的能力,甚至超越人类的理性。然而,无论是现有的人工智能技术,还是未来超级人工智能,都使法律人面临新的挑战。

二、法律人面临的新挑战

人工智能的快速发展对各行各业都产生了巨大的影响。在法律领域中,人工智能在处理一些法律问题时,具有人类无可比拟的优势。不仅可以短时间内完成大量重复性的工作,提高工作效率,还可以分析案件、预测审判结果、选择诉讼策略,提高解决问题的准确率。尤其当“超级人工智能”技术出现时,法律人视为资本的专业知识、审判技术、法律思维、情感关怀、习惯规范等可能被人工智能享有,人们独有的伦理体系有可能面临着被侵入、破坏、重建的危险。归纳起来,法律人工智能技术的发展将使法律人面对以下三个方面的挑战。

挑战一:法律人工智能自动化系统将替代法律人的工作。法律人工智能自动化系统,可以在充分利用各项数据的基础上,进行调查取证、尽职调查、合同分析、合规审查等,极大地提升工作效率、提高工作准确率。法律人收集整理材料的工作、案件的代理工作、案件的审判工作等,将由人工智能基于丰富的数据收集分析系统来完成。

挑战二:人工智能将影响现有的法律职业伦理。法律人的职业伦理作为法律人业务能力的组成部分,包括遵守正直、忠诚等职业道德要求,是整个法律职业共同体的纽带,是现有人类法律制度制定的逻辑起点。法律人工智能技术的发展,可能会对法律人长期实践、总结形成的法律职业伦理产生影响。

挑战三:人工智能技术的发展会改变整个法律行业的运行规则。人工智能基于技术革新,可以提供越来越多样化的法律服务,从事各种法律工作。无论是立法、司法还是执法过程,都可以由法律人工智能,根据人类的需求或基于数据分析的结果,提供标准化、自动化的“法律服务”。原本参与立法、司法、执行过程的法律人,有可能无法将其长期法律实践形成的经验具体化,而是由人工智能技术的研发者决定法律的运行。

三、法律人做好迎接未来的准备

法律行业的未来需要法律人这一职业共同体共同创造。人工智能技术在法律领域的应用及发展,将会实现法律服务、法律裁判等方面的自动化,对法律行业产生深远影响。法律人面对人工智能的挑战,应当做好以下三个方面的准备。

第一,限制人工智能技术在法律领域运用的范围,防止法律人的价值判断被替代。在发展法律人工智能技术时,应当坚持对法律的理念和信仰,避免人工智能削弱法律人的观念和价值判断。法律人的观念和价值判断,与人类社会发展的经济政治文化相关,不能被简单的数据所替代。因此,法律人工智能技术的发展应当是辅助法律人开展工作、促进司法正义,而不是代替法律人直接进行司法裁判、法律问题解答等。没有严格的限制,法律的理念和信仰、人类的公平正义都将受到严重的威胁。

第二,禁止法律人工智能涉及伦理问题,防止其破坏人类伦理秩序。资源共享、新的信息获取渠道,是人工智能带给我们的福利,但每个案件都是他人的生活,是有情感的生活,人工智能只能提供精准的决策,不能考虑案件背后的伦理亲情。法律涉及人类最传统的领域──情感,人工智能在此理应止步,不应让机器人涉及伦理问题。法律界应认真深入地研究如何为人工智能的理性发展确定法律框架,包括伦理和其他社会规范的制定和调整。

第三,培养复合型人才,迎接人工智能带来的挑战。《新一代人工智能发展规划》提出打造“人工智能+法学”复合专业培养新模式,为未来法律人才的培养指明了方向。未来法律人才培养模式应当注重对法学专业学生的科技和数字素养的培养,将法律教育与人工智能等前沿信息科学技术密切结合起来。目前,一些高校已经开始了相关的探索,开设了和人工智能相关的课程,或设立了人工智能研究院、法学院等,如人民大学创建了未来法治研究院。如法律开发者、法律数据分析师、法律数据库管理者等。人工智能技术将影响整个法律行业的人才培养、职业定位等。

[责编:万霁萱]

民法典要应对人工智能的挑战

原标题:民法典要应对人工智能的挑战

在日前于中国人民大学举办的“人工智能与未来法治论坛”上,民法学家、中国人民大学法学院教授王利明提出,人工智能提出的问题、带来的影响都是极其深刻,都需要我们在法律上作出应对,特别是我们正在制定的民法典应该对已经提出或者将要提出的问题有所应对。

王利明说,人工智能是一场新的科技革命,对人类社会带来的影响可能比蒸汽机的发明更为深刻。伴随着现在科技的发展,特别是移动互联网技术的发展、大数据、脑科学新技术新理论的出现,人工智能可以说发展得极其迅速,已经成为国际竞争的新焦点和经济发展的新引擎。国务院在2017年新一代人工智能发展规划中将人工智能称为是影响面广的颠覆性技术。它带来了就业结构的深刻调整、冲击法律和社会伦理、侵犯个人隐私、甚至挑战国际关系准则等。它提出的问题、带来的影响都是极其深刻,都需要我们在法律上的应对,特别是我们正在制定的民法典应该对已经提出或者将要提出的问题有所应对。

王利明具体阐述了以下几方面。

第一,人工智能对民事主体的挑战。

现在大家都在讨论机器人应被当作民事主体还是客体来看待。从目前人工智能的发展情况来看,智能机器人没有对传统的民事主体理论提出颠覆性挑战,不应将其视为民事主体,因为机器人毕竟是人创造出来的,其产生之初还是以客体的形态出现的,虽然能够代替人类从事某些活动,但是自身还是受到算法的控制,整体上还是受人类操控的,纵使其目前具备一定的思考能力,但是自主程度仍较低。也许在未来发展到一定阶段,人工智能的机器人具备自主思考的能力甚至具备超越人类意识的能力,届时赋予其相应的民事主体资格似乎才有讨论的必要。

第二,人工智能对人格权提出新挑战,特别是对隐私和个人信息保护提出重大挑战。

过去童话里面描述的在苍蝇的翅膀上绑上摄像机,潜入别人家里拍照窥探他人隐私的场景,现在借助无人机技术即可实现这一点。美国已经发生了多起无人机侵入他人的房间进行窥探,侵犯他人的隐私的纠纷,我想未来中国这种纠纷也会逐渐涌现。

我们已处在大数据时代,可以记录过去发生的一切和现在发生的一切,进而可以准确预测未来发生的事情。人工智能借助于大数据的收集,对个人信息的收集、储存、利用变得更加容易,而且成本更加低廉,这使得人工智能对个人信息威胁更大,大数据杀熟的现象也反映这个问题。现在人工智能的广泛应用,可以把点点滴滴的各种信息碎片进行收集、分析、加工、处理,这样的现象值得我们高度关注和警惕。而且随着人工智能技术的发展,出现把自然人的声音、肖像、肢体动作等植入到相关程序中,进而模仿自然人的声音、肢体动作等,这可能会引发对相关人格利益的侵害。

第三,人工智能对数据财产的保护提出新的挑战。

众所周知,数据+算法被认为是人工智能技术开发的核心,而数据的收集和分析技术则是人工智能机器学习的基本方法。在大数据时代,法律遇到了严峻的挑战――如何确认数据的归属,因为一方面要保护数据被收集者的个人信息,又要对数据开发者的权利进行保护,两者之间如何平衡并非易事。

虽然要对数据开发权利者的权利进行保护,但是不能据此得出结论认为数据全部归属于开发者,因为这里面涉及到很多人的个人信息甚至是敏感信息。究竟应该如何保护个人信息,是我们当前需要关注的重大问题。

而另一个问题是,数据权利如何进行确权、如何进行移转、对数据开发利用者的权利如何进行保护,这个在法律上没有明确的规范。《民法总则》第110条规定:“自然人的个人信息受法律保护。任何组织和个人需要获取他人个人信息的,应当依法取得并确保信息安全,不得非法收集、使用、加工、传输他人个人信息,不得非法买卖、提供或者公开他人个人信息。”该条仅仅是提供框架性保护,但对数据权利的确权、移转、保护等缺乏明确的规则指引,因而民法典分编需要对这些问题进行有效回应,提供相应的制度供给。

第四,人工智能对知识产权保护所带来的挑战。

虽然一些机器人能够自己创作音乐、绘画、诗歌,但是我个人认为,既然没有承认其民事主体地位,也就没有必要承认其著作权人的地位。但是智能机器人能够通过一定的程序进行深度学习、深度思考,在这个过程,有可能收集、存储大量的受著作权保护的作品,这可能引发非法复制、非法存储等侵犯著作权的问题。

第五,人工智能对侵权责任认定带来新的挑战。

现在不管是机器人致人损害还是人类侵害机器人都是新的法律问题。机器人致人损害是否完全由机器人所有者承担侵权责任,值得思考。考虑到机器人是由多个主体研发完成,而且机器人的所有者很可能对这些研发主体完全不知情,全部由机器人所有者承担责任是否合理,有必要进行讨论。还有无人驾驶汽车已经上路了,这个引发的法律问题更多,这个确实对侵权责任提出了新的挑战。

霍金生前认为人工智能的发明可能是人类历史上的最大的灾难,如果管理不善,会思考的机器人可能会给人类文明画上句号。这个说法是不是有点重了,但也不是危言耸听,它确实需要我们高度地关注和思考人工智能带来新的法律问题。

华裔著名经济学家杨小凯曾经提出一个观点,我们现在往往注重技术的模仿,对技术的制度建设重视不够,这可能是我国技术发展的一个缺陷。如果将来只是重视技术模仿,不注重技术的制度建设,我们的后发优势很可能转化为后发弱势,不可能使技术真正得到制度的有力保障,反而会使其处于无序发展的状态。

人工智能所提出的问题都是我们民法典应当回应的重大问题。这就要求民法典的制定不能仅仅考虑到当下,也要考虑到未来,惟其如此,我们的民法典才能被称之为科学的、立足于中国国情的、面向未来的、能够屹立于世界民法典之林的民法典。

(责编:徐倩、伍振国)

分享让更多人看到

郑戈:人工智能与法律的未来

【文/郑戈】

现代性与人类能力的机器替代

人工智能是现代工业文明发展的必然产物。早在“现代性”刚刚发端的时代,现代政治哲学的奠基者霍布斯,便开始把人和人类社会构想为当时最为精巧的机器——钟表。在《论公民》的“前言”中,他写道:“对于钟表或相当复杂的装置,除非将它拆开,分别研究其部件的材料、形状和运动,不然就无从知晓每个部件和齿轮的作用。同样,在研究国家的权利和公民的义务时,虽然不能将国家拆散,但也要分别考察它的成分,要正确地理解人性,它的哪些特点适合、哪些特点不适合建立国家,以及谋求共同发展的人必须怎样结合在一起。”1611年出现的“机械人”(Automaton)一词就是那个时代的社会想象的产物,它是指借用钟表齿轮技术而制造出来的自动机械人偶。虽然这种人偶还完全不具备任何意义上的“智能”,但它却体现了促使“人工智能”最终变成现实的那种思路:人的身体和大脑最终都可以用机器来模拟。

《省思——冷眼横看人工智能热》,杜运泉主编,上海财经大学出版社,2019年

到了19世纪,随着自然科学尤其是物理学的突破性发展,法国哲学家开始设想研究人类行为和人类社会组织方式的学科最终可以达到物理学那样的成熟状态。人们将可以通过观察、统计和分析而发现近似于自然规律的社会规律,从而“研究现状以便推断未来”。这就意味着不仅个人的身体和大脑功能可以借助物理学法则用机器来取代,而且社会的组织机制包括法律,最终也可以由机器来操作和管理。

在孔德的时代,由于技术手段的欠缺,孔德的野心还无法变为现实。基于有限样本的统计分析,还远远无法使社会预测达到物理预测那样的精准性。但大数据存储和分析已经使样本分析有可能为整全数据分析所取代,并且日益实现动态化和分析者与对象之间的互动化。换句话说,机器通过“深度学习”也可以变得具有社会性,并且参与人类社会的各种活动,包括游戏和工作。在孔德的时代,英文中又出现了Android(人形机器)一词,其词根是古希腊文中的andro(人)和eides(形状)。人是语言的动物,一个新语词的出现必然是因为新的事物出现在了人们的现实生活或想象之中,而它能够被普遍使用并成为语言的一部分,则是因为很多人都分享着它所表达的现实体验或想象。

在工业化时代,用机器来取代人的劳动已经成为一个普遍现实,马克思和恩格斯的经典著作中有许多对这种现实中工人阶级悲惨处境的描述,和对造成这种状态的生产关系和社会制度的批判。1920年,捷克作家卡雷尔·卡佩克(KarelCapek)创作了《罗素姆的万能机器人》(Rossumoviuniverzálníroboti)剧本,发明了如今通用的Robot(机器人)这个词汇,它的辞源是波兰语中的强迫劳动(Robota)和工人(Robotnik)。如果说工业化时代的机器(无论是不是人形的)所取代的只是人的一部分体力劳动,那么作为工业化升级版的人工智能则是这个过程的自然延伸,它旨在取代人的一部分脑力劳动。

人类一直在试图强化自己的能力。比如,过目不忘一直是中国传统文人最为欣赏和希望得到的能力之一。《三国演义》中的张松,在接过杨修递给他的《孟德新书》并快速浏览一遍之后,说这哪里是什么新书,分明是战国时无名氏所作,为曹丞相所抄袭。杨修不信,结果张松把该书内容背出,一字不差。但如今的人工智能已经能够轻松地做到这些,乃至更多。

人工智能实际上已经可以将脑力劳动和体力劳动、感知和思维、决策和执行结合到一起,从而更像是一个完整的人。至于是否具有“人形”已经不再重要了,任何关于“人工智能”的拟人化想象都是不必要的。有了物联网、大数据和云计算作为支撑(或组成部分)的人工智能,可以通过它的感官(遍布各处的传感器)获得千里之外的数据,利用自己无比强大的记忆力(联网计算机和云存储)来沉淀和消化数据,利用自己远胜于人类的计算能力(算法和基于“神经网络”技术的深度学习)来处理数据,并在此基础上作出判断和“决策”。

目前,人工智能正以惊人的速度在两大领域推进:一是“合成智能”(syntheticintellects),即我们通常所说的机器学习、神经网络、大数据、认知系统、演进算法等要素的综合应用。它不是传统意义上的编程,也就是说,它突破了“机器只能做程序员编排它去做的事情”这一局限,你只要给它一大堆人类穷其一生也无法浏览完的数据(在互联网的帮助下,这意味着你只要把它联网并通过编程使它具有搜索功能),包括人类智力根本无法理解的无结构数据,再设定某个具体的目标,最终系统会产生什么结果完全不可预见,不受创造者控制。围棋智能体AlphaGo先后打败李世石和柯洁,并以“独孤求败”的姿态“宣布退役”,只是合成智能小试牛刀的一个例子。

另一个领域是“人造劳动者”(forgedlabors),它们是传感器和执行器的结合,可以执行各种体力劳动任务,从海底采矿、外空维修到战场杀敌。当然,离我们生活最近的例子是自动驾驶。这两个领域的结合不仅意味着“机器人”的“头脑”和“四肢”都是很强大的,还意味着“机器人”的大脑、感官和手足是可以分离的,手脚(执行器)可以延伸到离大脑(中央处理器)十万八千里的地方。在“万物联网”的时代,只有不联网的东西才不在人工智能的可控制范围之内。

正因为如此,越来越多的人开始表示出对“人工智能”的担忧。乐观派认为人工智能是对人类能力的强化,它本身仍然处在人类的控制之下,因为它没有“自我意识”和情感。没有我执,也便没有“贪、嗔、痴”,不会对人类构成威胁。甚至不能算是真正的智能,因为智能的内核是“主体的自由”以及主体对这种自由的自我认知和主动应用。但即使我们承认乐观派对事实的描述和判断是正确的,也已经有了担心的由头。

人工智能显然不成比例地强化了一部分人的能力,即那些站在人工智能发展前沿的“大数据掌控者”和人工智能开发企业的能力,同时使越来越多的人变成难以保护自己的隐私和自由并面临失业风险的弱者。换句话说,以前可以自认为比蓝领工人社会等级更高的白领脑力劳动者,如今也变成了新的随时可能被机器所替代的劳工。当强弱悬殊越来越大,而且强者对弱者的剥削和控制越来越以“物理法则”而不是赤裸裸的暴力面目出现时,“强者为所能为,弱者受所必受”的局面就会成为普遍现象。自由与必然之间的关系,因人工智能的出现而越发成了一个由社会分层(阶级)决定的事务:越来越少的人享有越来越大的自由,越来越多的人受到越来越强的必然性的束缚。

由于法治迄今为止被证明是保护弱者权益、使人避免落入弱肉强食的丛林法则支配的最有效机制,所以,当人工智能所带来的新风险被许多人感知到的时候,人们自然希望法律能够因应这种风险提供新的保障。但法律自身也面临着人工智能的猛烈冲击。

人工智能对法律应对社会变迁的传统模式的挑战

法律是人的有限理性的产物,法律规则本身也体现并顺应着人的局限性。正如麦迪逊所言:“如果人都是天使,就不需要任何政府了。如果是天使统治人,就不需要对政府有任何外来的或内在的控制了。”这个说法当然针对的是人的贪婪和野心,但也拓展到人的有限认知和计算能力。即使一个人充满善意,他也可能因为自己的能力所限而对自己和他人造成伤害。而法律规则的设计和执行,都会把这种有限能力纳入考虑。实际上,人类社会所有的规则,包括游戏规则,都是有局限的人为有局限的人设计的。

下过围棋的人都知道“金角银边草肚皮”这个基本的布局规则,这个规则的理由有两个:一是效率,在角上无论是做眼还是吃掉对方棋子需要的步数都最少,在角上,做一个真眼需要三步棋,吃掉对方一个子只需要两步棋。二是计算能力,给定的边界越多,需要考虑的可能性越少。效率考量使得AlphaGo在布局阶段与人类高手相比并没有太大的区别,仍然是先占角后取边。但在序盘和中盘阶段,AlphaGo却更敢于向中腹突进,这是与它更强大的计算能力相适应的。

实际上,由于人认识到自己的局限性,所以在设计规则的时候所考虑的都是所谓常人标准,即以具有中等智力和体力水平的正常人作为规则可行性的判断标准。而且,为了形成稳定的社会秩序,法律往往还会设置比常人标准更低一些的安全线。从这个意义上讲,法律是一种保守的社会力量,不以满足具有创新精神和创新能力的人士追求“更快、更高、更好”的野心为目的。梁漱溟先生所说的“经济进一步,政治进一步,循环推进”,也适用于法律。法律调整经济-社会关系的方式从来都是回应性的。在技术发展和社会-经济结构变化缓慢的农业社会和早期工业化社会,这种保守倾向使法律发挥了很好的维持社会稳定的作用。

但在人工智能时代,它却使法律滞后于技术和经济的发展,使那些把握先机的人获得了巨大的边际回报。比如,互联网金融和电子商务在中国的迅猛发展就是在相关法律缺位的情况下发生的,等到立法者开始制定规则来规范这个领域,法律所约束的只是后来者,并且自然地巩固了先占者的垄断地位。同时,先占者又利用已经积累起来的经济、技术和资源(数据)优势,开始抢占未被法律规制的新领域。如此层层递进,最终使得循规蹈矩、永远在法律规定的范围内活动的人们与他们之间的差距越来越大。

同时,正如石油是工业化时代最宝贵的资源一样,数据是人工智能时代最重要的资源。掌控的数据越多,供人工智能“学习”的资源就越多,也就越容易在这个领域取得突破性的进展。这一事实导致了这样几个结果:

第一,它使个人的隐私和自由变得非常脆弱。这一点我已经在此前的一篇文章中做了详细分析,这里不再赘述。

第二,它使得传统制造业和其他与互联网没有直接关联的行业处在很明显的劣势。因为人工智能不是一个传统意义上的新“行业”,也不是一种覆盖人类生活全部领域的技术。最早进入互联网领域的企业因其行业特性而自然成了“大数据掌控者”,而人工智能对大数据的依赖又使得它们自然成了人工智能领域的先驱,进而,它们又可以利用自己在人工智能方面的优势介入所有传统行业,包括农业。

比如,通过在农作物上安装生物传感器来获得比实验室作业更加直接和可靠的植物生长数据,从而获得农业科技方面的突破。实际上,这并不是一种假设,而是谷歌和阿里巴巴等公司正在做的事情,“精准农业定点解决方案”(PrecisionAgriculturePointSolutions)和“植物云”等概念都对应着某种特定的商业模式。无论是政府还是社会对这种新生事物都有一种好奇和乐见其成的心态,希望看到结果后再采取行动,而当结果发生时,且不论它本身是好是坏,这些大数据掌控者全方位的优势必然已经形成。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇