博舍

骁克:论人工智能法律主体的法哲学基础 人工智能的民事主体资格包括什么

骁克:论人工智能法律主体的法哲学基础

0分享至

【作者】骁克(华东政法大学法律学院博士研究生)

【来源】北大法宝法学期刊库《政治与法律》2021年第4期(文末附本期期刊目录)。因篇幅较长,已略去原文注释。

内容提要:当下人工智能主体学说面临诸多问题,需从法哲学视角予以审视。就人工智能本体而言,其行为具有自主性,不宜纯粹以客体相待;从他者期望视角观察,人工智能拥有道德责任能力,系道德主体。法律主体理论经历了由自然人有限人格到全面人格,再到自然人、法人综合人格的演化过程,呈现客观化趋势,不唯理性、意志等主观要素论,其为人工智能法律主体提供了栖居空间。在目的论意义上,人工智能能够推动积极向善,助力美好生活,实现显著的经济社会价值,作为法律主体具有合目的性。在当代,传统主体哲学转向,人的哲学危机引发新思考,尤其是人类中心主义的主体—客体范式发生变化,客体主体化的历史经验及当代实践显现一种哲学可能性,即主体不限于人,从而强化了人工智能法律主体的可能性。

关键词:人工智能;法律人格;主体哲学;主体客观化;目的论

目前法学界关于人工智能的研究主要面向其风险防范与化解。法律如何规制这些未来的“最强大脑”,必须首先回答它在法律中何以安放的问题,即人工智能可否拥有法律人格,能否作为法律主体。随着实践中有国家授予机器人“公民身份”,并且相关立法草案或建议也拟赋予机器人“主体性”之后,该问题在赞同者那里似乎已消解。当前理论界赞同人工智能应被赋予法律主体资格的观点一般均认为,自主性是人工智能的核心特征,人类已经失去将其继续看作仅供人类驱使的被动性工具或受动客体的理由,而应给与其主体资格,让其享受特定的权利,负担相应的义务,并对行为承担责任。然而,否定论者认为,人工智能缺少意向性,无自主意识,不具备主体条件,其是人类开发利用的工具,仍属客体范畴。面对迥然不同的两种主张,为全面超脱地认清问题实质,有必要从法哲学层面,探寻人工智能置于法律主体的哲学基础,从而为人工智能立法提供思想借鉴。

人工智能法律主体学说检视

目前,人工智能法律主体学说主要包括权利主体说、拟制主体说、有限法律人格说、电子人格说等。这些学说为清晰认识人工智能法律主体问题提供了有益智识,但仍不圆满,仍须从更加抽象的哲学层面予以深刻剖析。

(一)人工智能法律主体学说概要

1.权利主体说

有学者认为,人工智能机器人已广泛运用于社会,并逐渐体现出自主性和社会化优势,机器人应享有权利,正如在权利主体的发展历程中,奴隶、妇女、黑人以及法人和动物等主体取得权利主体地位或权利得到扩张,均体现了群体“实力”变化对法定权利的重要影响,机器人权利主体地位的取得符合“实力界定权利”理论。因此,在机器人社会化应用不可避免的情况下,我国应当肯定机器人的法律主体地位,赋予机器人必要的权利,并积极顺应人工智能时代的社会发展趋势。其同时认为,机器人权利有别于人类的“自然权利”。也有学者认为,智能机器人具备了权利主体的智能性这一本质要素,将智能机器人“人格化”不存在法律方法论上的障碍,相反具有适应社会发展的正向功能性。

2.拟制主体说

有学者认为,人工智能具备了人类的思维能力,因而超越了传统意义上“物”的范畴,但人工智能摆脱不了为人类服务的工具性附庸角色,所以其非物也非人,人们可以向拟制法人一样,从法律上拟制一个新的主体,赋予其与法人一样性质的法律地位。也有学者认为,人工智能的主体地位依赖于自然人而非独立于自然人,只是法律的拟制,因而其会基于拟制的目的而受到必要性和有益性限制。在现阶段,我国对机器人法律人格的讨论应以实定法解释论为基础,运用拟制的法律技术,将特定情形下的人工智能认定为法律主体。另有学者认为,自古罗马以来,从法律拟制的角度出发解决人类与其他事物的关系就是法律人最重要的技术之一;可以将这种立法技术运用到人工智能上,赋予人工智能独立的法律人格,为处理人类和人工智能之间的复杂关系提供依据;应从人工智能发展的现实要求出发,将人工智能的法律人格定位为独立的拟制法律人格。另还有学者指出,虽然在这种拟制主体的前提下,与自然人主体相比,其会有一些权利上的限制,但拥有拟制人格的人工智能仍有自己的权利和义务,可以承担责任。

3.有限法律人格说

有学者认为,从人工智能的特性分析,其具有独立自主意识的智慧工具属性,享有权利并承担责任的独特特点决定了其具有法律人格。因此,人工智能应当具有法律人格。然而,由于人工智能承担行为后果的能力有限,人工智能适用特殊的法律规范与侵权责任体系安排,其具有的法律人格是有限的法律人格。另有学者认为,智能机器人所享有的法律人格为有限的工具性人格。智能机器人法律人格的有限性主要体现在以下方面。其一,行为能力的有限性。工具性人格首先意味着智能机器人的行为能力是有限的,其行为应当受到使用者或占有者的最终控制。其二,权利义务的有限性。智能机器人作为工具性主体并不享有伦理性的人格权或身份权,而是享有经济性的财产权利以及承担义务。其三,责任能力的有限性。智能机器人的责任能力与自然人、法人、非法人组织的独立责任能力不同,虽然其可以独立自主地参与民事活动,但是其承担责任却是有限的,这就表明智能机器人只具备有限的责任能力。

4.电子人格说

该说源于2016年5月31日欧洲议会法律事务委员会发布的《关于机器人民事法律规则立法建议致欧盟委员会的报告草案》。2017年1月12日,该草案由该委员会表决通过成为决议;2017年2月16日,欧洲议会通过该决议。该决议第59段建议,当对未来法律文件的影响进行评估时,应探索、分析并考虑所有可能的法律举措的意义和内涵,其中举措之一就是:从长期着眼为机器人创立特定的法律地位,以致于至少明确最精密的自主机器人拥有“电子人”地位,能够承担弥补其引发的损害的责任,并可能把“电子人格”适用于那些机器人自主决定或其他独立于第三方交互的案件。

(二)反思人工智能法律主体学说

人工智能法律主体学说众多,但总体而言,不外乎从赋予人工智能法律主体地位的必要性、人工智能具有独立的或者一定的自主意识,以及人工智能享有权利等方面展开论证。笔者认为上述观点仍存在不足。首先,“权利主体说”所依据的原则是“实力界定权利”,但这不是导致权利发生变化的根本原则,换言之,“实力”并非权利变化的一个决定性因素,奴隶、黑人、妇女等法律主体权利的变迁和扩张是社会经济和文化多种因素共同作用的结果,并且这些主体的变化仍局限于自然人范畴,并未扩充至非自然人领域。其次,“拟制主体说”虽然回避了对机器人智能性强度的讨论,但其拟制的结果却是机器人意愿的形成和表达仍需要通过自然人的意愿来决定。“有限法律人格说”认为人工智能的本质依然是工具,既然是工具,则并不能具备主体资格地位。与此同时,其立论基础限制了人工智能作为法律主体的权利,这种限制将导致人工智能与人类在法律关系中处于不平等地位,特别是在极其注重主体平等的民事法律关系中,这种有限人格与自然人的关系展开面临重大问题。最后,“电子人格说”认为人工智能法律主体资格并非甫一产生就自动获得,而是需要有关机关颁发资质执照从而取得法人资格,但该资格的申请人又是谁、是否需要自然人为其申请?从主张赋予人工智能法律主体地位的种种观点来看,人工智能法律人格的获取均建立在自然人法律人格的基础之上,甚至离不开自然人的支持,因为最基本的逻辑是此刻所有的讨论,无论主张何种观点,均是人类在为人工智能赋权,而非其他主体在为其赋权。

总之,智能机器人为人类所创造,为人类所用,其行为在本质上是受自身算法驱动的产物,在其不完全具备人类所拥有的自主意识和能力时,如何将其认定为具有独立人格的法律主体呢?在智能机器人造成他人损害时,如何因其法律人格承担义务?面临种种人工智能法律主体性疑问,必须回归逻辑的开端和理论建构的基点,从人工智能本体、作为主体的价值功用等层面进行探析。

人工智能法律主体的本体论分析

人工智能法律主体的确立与人工智能的自主性特征密不可分,恰恰是其本体特点使之与其他纯粹受动客体产生实质区分,无法简单地归入客体范畴。在人工智能深度嵌入社会系统之际,因其自主性、智慧性,从他者视角观察,应承认人工智能的道德责任能力。

(一)人工智能自主性及主体意义

与无生命体或传统机器相比,人工智能机器最显著的特点是自主性(autonomy),亦称自治性。本义上,自主是一种独立状态。欧洲议会《机器人民事法律规则》决议AA段论及,自主可定义为,进行决策并在外部世界不受外界控制或影响实施决策的能力,或“一旦机器被启动且至少在某些运行领域,在真实世界的环境中不受任何形式的外界控制而长时间运行的能力”。可见,自主即不受外部控制、能够自我决定并付诸行动。当前,人工智能系统已经能够执行复杂任务,如驾驶汽车、构建投资组合,无需积极的人类控制或日常监管,自主性很强。就整个机器谱系而言,按照机器运行与人类之间的关联性可分为三种类型。第一,人类控制型。该类型包括直接控制型与间接控制型。前者由人类直接操作控制,完全受人类支配,如传统机械设备,此类机器不具有任何独立性、自主性,其运行纯粹是人类意图和行为的表征。后者依然受人类控制,但并非直接由人类操作,而是按预设之技术路线、通道、方法、程式运行,具有自动化特点,典型如早期生产线上的工业机器人。第二,混合型。该类型分为两种情形:一是在人类控制之下仅加入些许人工智能因素,未脱离人类控制,更接近人类控制型;二是人类辅助自主型,即机器的运行和操作由机器自己完成,但特殊情形下偶尔需要人类接管,如上述有条件的自动驾驶。人类辅助自主型接近自主型,但最终需要人类接管,仅具相对独立性,在根本上并非真正的自主。混合型属于由人类控制到机器自主的中间形态,是人工智能技术阶段性的体现。第三,自主型。该类型包括部分自主型和全面自主型。部分自主型,即在特定领域或事务中,机器自主运行、自己操作,无需人类接管。若于特定领域或事务的整个范畴内,无需人类则属于完全部分自主型,如上述完全自动化自动驾驶。若在特定领域或事务的下一层级、子领域或细分事务层面,无需人类则系高度部分自主型。全面自主型,是一种通用人工智能或强智能机器,它意味着机器享有和人类相同的自由、自主,其主体能力不再局限于特定领域或事务,而是在社会生活各领域均能胜任,或经培养、学习能够自主从事社会活动。

与自主型机器相比,传统汽车、船舶、机械装置等人类控制型机器,完全受人类控制支配。即使是自动化机器,也只是按照人类设置的固定程序与步骤运行,一般不会超越人类预期,更无自主性可言。自主性的人工智能伴生着不预见性、不可解释性问题。尤其深度学习算法令人工智能产生了自主学习能力,远远超出人工智能设计者开发者的预期。此时,人工智能行为不可预测性大增,行为后果控制难度加大,若仍沿用过往以人工智能为客体,由其设计开发者、所有者或使用者等承担全部法律责任的做法,有违公平正义,也将严重制约人工智能的应用普及。欧洲议会《机器人民事法律规则》决议第AB段指出,机器人自主性越强,作为人类控制的简单工具的可能性就越小。该决议建议承认人工智能的电子人主体资格并构造新主体类型。

总之,人工智能机器具有自主性,无法以工具对待。自主性又衍生了不可预见性及失控风险,若固守法律客体定位,人工智能的设计者、编程者、生产者、使用者等于其致损时承担法律责任,既不正义,又妨碍技术进步与创新。人工智能机器不宜纯粹作为法律客体。

(二)人工智能本体的主体性要素

客体作为规范性主体的历史经验,表明人工智能作为一种新的生命形态及法律主体的可能性。在现实层面,因人工智能对社会系统及社会关系的形塑力量,从与之交往的第三人角度,应承认人工智能具备道德责任能力,系道德主体。

1.人工智能是一种新型硅基生命形态

在历史上,人之外的事物被赋予主体资格者比比皆是。古罗马时期的寺庙、中世纪的宗教建筑曾被视为权利主体。古希腊法和普通法曾经甚至把物体如船只作为义务主体。历史上曾发生过对物品的审判。从9世纪到19世纪,西欧有两百多件记录下来的对动物的审判案件,被放上被告席的动物多达数十种,如苍蝇、蝗虫、老鼠、猪、象鼻虫、蜗牛、狼、黄鳝等。野生动物由宗教法庭管辖,家养动物则由世俗法庭管辖。在审判中,法庭为动物指定辩护律师,保障其诉讼权利;在结果方面,有判令动物承担刑事责任的,也有考虑动物自然权利的。持续近千年的动物审判与宗教神学、政治权力密切相关,虽被认为荒诞不经,但其法律价值和历史意义不容忽视,它蕴含着西方传统法律主体观念,历史上的特殊法律主体由无生命的寺庙、宗教建筑延伸到动物,承认动物的义务主体性。

近些年来,随着环保主义盛行,动物保护、自然环境保护获得大量民众认可。针对动物保护,动物权利论支持者多,反对者亦众。大多数国家的法律赋予动物独特法律地位,但认为动物不能作为法律主体。实践中,有些国家承认动物权利,如1991年瑞士苏黎世州已立法规定受虐动物有权获得律师的帮助。1992年瑞士修宪正式承认动物是“存在体”或“类”(being)。此外,2017年3月,新西兰旺格努伊河(WhanganuiRiver)被新西兰国会赋予法律人格,成为世界上第一条具有法人地位的河流。2014年新西兰国家公园TeUrewera已经获准为法人。有关动物、河流等非人类事物的法律实践,在当下主客体二元范式下虽然仍属少数,但已反映出人类中心主义的消解。

在人类碳基生命之外,人工生命体亦有可能存在。“一旦技术能发展成更明敏的东西,于是它就会像大脑一样成为精神的更好载体。”人工智能显现出犹如人类的行为反馈、情感认识、精神意识,即使那不是人类大脑神经活动的产物,而是硅基信息机制的体现,但生命“通过实在化能量流动,通过跨越复杂肉体的、文化的、技术的网络系统的活力信息符码来表现自身”,人工智能以信息符码展示出生命状态,可考虑承认一种与碳基生命相异的生命形态的诞生。

2.应承认人工智能的道德责任能力

究竟能否赋予人工智能主体性,必须考虑现有法律主体由事实存在到规范主体的决定因素。从主体性的要义而言,主要在于可否对其行为负责,即是否具备道德责任能力,是否为道德主体。就此而论,法人是否系道德主体,争议也非常大。否定论者多从法人与自然人的密切关系入手,把法人道德问题溯源至自然人。米尔顿·弗里德曼认为,只有人才有责任,而作为一个整体的企业和公司并非严格意义上的人,在此意义上,它或许具有非自然的责任,但作为一个整体的企业,不能说负有一般人承担的责任。肯定论者认为,法人有能力影响社会公共利益、道德伦理秩序,应承担道德义务,必须履行社会责任,是道德主体。法人作为道德主体,主要是承担道德义务与道德责任。在道德主体、道德权利与法律主体、法律权利之间,不存在一一对应的关系,是否赋予法律人格、承认法律主体地位,与其是否系道德主体没有内在联系;有法律权利不意味着享有道德权利,有道德权利不必然享有法律权利;赋予法律权利须考虑道德权利,但两者不存在简单的包含关系。

按照传统理论,人工智能能否作为道德主体,根本在于自主意识、理性能力,而在当下弱人工智能阶段,人工智能缺少相应的主观能力,无法承担道德责任,不能作为道德主体。对此,应转变视角,从他者期望型道德主体角度来认知。近年来,人工智能机器开始具有自我意识并表现良好,人工智能独立判断和应对非结构化情景的失误率明显下降。人工智能对于人类而言之所以智能、智慧,在于其行为外观给人留下的主观印象。在人与人工智能的关系结构中开展道德考量,需要从社会系统、社会场景出发,根植于人工智能的外在行为,开展“社会关系解释”(social-relationaljustification),发掘人工智能的外在道德性。此种道德性在他者视角下得以全面呈现。所谓主体,在社会关系意义上,核心在于以其责任能力承担责任,指向外部主体。因此,从第三人视角观察,人工智能行为富有道德价值,产生道德责任,也应具有他人所期待的责任能力,即“被期望的能力”、“他者期望型责任能力”。在“心灵缺失的道德”(mind—lessmorality)层面,人工智能成为道德能动者,具有道德责任能力,负担道德义务。最终,可通过构造自然人与人工智能的双层关系(犹如社团法人与其股东,或监护人与被监护人),从而令人工智能取得完整的责任能力。

基于客观主体性的人工智能法律主体目的论

当下法律人格大大扩张,法律主体理论已充分突破理性意志之藩篱,以理性为核心的传统主体哲学基础弱化,法律主体客观化,不太注重意志意识等主观要素的作用。这为人工智能法律主体构建起理论空间,合目的论更加凸显了人工智能法律主体的意义及必要性。

(一)客观主体性为人工智能提供栖居空间

自古罗马到法国民法典,法律完成了自然人全面人格的确认。在此种演进过程中,关于人的传统主体哲学发挥了极为重要的奠基作用,至今延绵不断。到了19世纪,第二次工业革命发生,推动了社会变革。商业组织法人化,新型法律主体社会需求强烈。在法律上,除自然人之外,法人主体得到认可。自然人和法人生物性存在实质差异,限于自然人的人格或主体制度难以含盖两者。德国法采用技术性的权利能力概念,统摄自然人以及基于自然人的法人或社会团体。在人的概念之下,德国法用权利能力描述权利主体,将抽象的人之理性转换为权利能力,并与行为能力、责任能力一起构造出完整的主体制度。由此,在法律上,人包含自然人与法人,不再限于自然人,其伦理性弱化,技术性浓厚。

自此,法律人格的主体范围由自然人扩展至法人,脱离了与自然人的内在密切关系。“法律人格不是自然人本身,也非内在于自然人,而是人(Person)与人之间存在的特殊外部关系。”因法律平等价值的注入,法律人格被普遍赋予自然人、法人。只是在私法上,法律人格以权利能力表征。最终,法律人格指向法律上作为人或主体的资格,是“人之为人的资格或必要条件”,在私法及公法中均有体现。由此,应将法律人格与民事主体资格、权利能力区分开来。民事主体资格作为民事主体的资格,是法律人格在私法上的体现。权利能力是下位概念,侧重于享有权利、承担义务的主体能力,更为具体实定,技术性强,“权利能力仅仅意味着成为权利义务载体(即‘法律主体’)的能力,不再负载伦理观念”。

自然人与法人虽均为法律主体,但存在本质区别。自然人的法律主体性根植于康德哲学。“无论人的行为是对自己的或是对其他有理性者的,在他的一切行为上,总是把人认为目的。”作为目的存在的自然人系理性人,具有自我意识、意志、智慧,能凭借自主意思决策,实施行为,对外支配世界,并承担行为后果。自然人因其理性而作为法律主体。法人与自然人相比,非碳基生命构造,而是基于法律规定之规范体;虽关于法人本质的主流学说为实在说,认为其系社会有机组织,但此类实体在伦理性、道德能力等方面与自然人有实质不同。法人主体主要因其与自然人的内在密切联系,被视为人的意志的延伸和体现。

从法律人格取得的角度讲,自然人一律享有法律人格,无需特定的批准等外部行为介入;法人则须依据法定条件经相关程序经登记甚至批准方能设立。自然人具有的先验道德属性非法人所能比拟。“毫无疑问,从价值的角度说,法律承认人类有法律人格的立场与赋予法人有法律人格的立场之间存在重要差别:人类法律人格基于现行人道主义的法律道德观念而确立,它是人类尊严和人类有受尊重权利的必然产物。法人法律人格是一种法律技术机制,是一种模式,一种方式,籍此开展各种法律关系,以达到某一集体目的。”即使在权利能力这一同一概念下,自然人权利能力表现出浓烈的伦理性,而法人权利能力仍系技术性概念。法律理论试图以统一的主体理论及制度含盖自然人和法人,使得自然人主体立足的主体哲学在法律领域滑向离散状态,这主要表现在以下两个方面。

其一,自然人法律人格的确立虽然多数以理性意志为基础,但除此之外,存在大量的非理性、精神紊乱、意志力低下的人群。并且,在自然人处于婴幼儿阶段时,其理性能力意志力尚未完全展现,亦无碍于认定他们属于法律主体。一律承认自然人法律人格,并非完全基于其应有的主体能力,而是道德伦理考量。婴幼儿虽然没有行为能力,但可成长为完全行为能力主体,其成长性、无能力的阶段性都需要主体制度保护。那些陷入昏迷、植物人状态的自然人,不具有自我意识、理性能力,无论其是否能够恢复,出于伦理考量,都不能将其作为客体对待,毕竟人人可能因特定情形陷入此种困境,以客体论之将深深损害人之尊严自由。在此,笔者无意否定自然人法律人格的普遍性,只是揭示其并非完全基于主观能力而被赋予法律人格。由此,可以发现,自然人法律主体不只在于理性、意志、意思、智慧等,而是还蕴含重要的伦理性考量。

其二,法人主体理论深度消解了法律人格的主观能力要素。按照传统分类,社团法人乃自然人的集合,由自然人构成法人运行的基础。财团法人以财产为基础设立,但其运行依赖自然人构成的法人机关。因此,无论是直接或间接依赖人运行的法人,皆因与自然人的密切关系,被视为人类意志的延伸,其存续目的、功用等无法脱离人类之需。就意志力而言,社团法人意思来自于意思机关或曰意思机关中自然人依据特定规则决策,财团法人意思由设立人确定。法人本体若无人的介入,恐将失去自己意思。这也暴露出法人与自然人在主观能力上的本质区别,法人根本无独立的意志力,这也是拟制说较有说服力的原因之一。基于此,法人法律人格不需要理性、意志等严格的要件,只要与自然人存在关联关系,甚至因自然人意志设立,并有人类控制运行即可。可见,当代法律主体理论已经与理性意志等主观要素逐渐脱离,承认新型法律主体不一定需要该主体具有精神能力和意志力。人工智能体基于人类意思创立,具有一定的自主性,即使当前依赖于人类,应当说也不构成赋予其法律人格的理论障碍。由此,无论人工智能的技术路线如何,或其精神能力大小,都无碍于赋予其法律主体资格,承认其权利能力,并开展相应的制度设计。

(二)人工智能法律主体的合目的性分析

为人类社会秩序建构、人类利益所需,以法律拟制方法赋予客体主体性,应无大碍,既有的哲学范式不应成为否定的根由。自我意识、意向性等人类主体特质,无法延伸至其他事物,但也不妨碍赋予它们法律人格。人工智能的自主性、初级的意识表现,对客体论提出挑战,主体哲学应当予以回应并有所发展。在此意义上,是否赋予人工智能法律人格,不在于其与人类的相似性,而在于人类需要,若赋予人工智能主体性有助于人类社会向善发展,即可赋予其主体资格。

具体而言,可从两个方面入手判断是否赋予人工智能主体资格:一是就赋予本身,证明其正当性,说明这样做的优劣;二是就赋予的后果而论,以良善的效果或价值证明赋予本身的正当性。前者系义务论,后者乃目的论。义务论认为正当独立于、优先于善,善依赖于正当,义务论通过考察行为本身来确定行为的好坏;目的论认为善独立于、优先于正当,正当依赖于善,目的论通过考察行为的结果来确定行为的好坏。由于义务论基于行为正当本身,后果附属于行为,故难以用于人工智能主体性的论证,毕竟人工智能主体与自然人本质有别。目的论在法人主体论证中得以普遍运用,法人这一非生物体之所以能被赋予独立主体资格,相当大程度上是从目的论角度而言的,基于其经济与社会价值,而非类人性或理性能力。对于人工智能而言,其主体性得以确立,必须具有社会认受性,符合一般道德伦理观念,有益于人类,这可以由目的论分析。

依目的论,人工智能作为主体能够产生良善效果或积极价值,即可承认其主体地位。当下,人工智能主体可否衍生此类效用呢?在弱人工智能条件下,虽然其拥有自主性,甚至可以主动学习,自我进化,具有不可预见性,存在失控的可能,但是人工智能对人的依赖度非常高,无论以客体或主体待之,人工智能都可能被人利用作恶。自初始设计开发,人的意图目的注入算法及智能体,人工智能首先体现了这些人的意志。此时,不符合道德伦理的坏的人工智能也会被开发出来。因此,人工智能本身仅就其自主运行对人的影响而言,存在善恶之分。对于恶的人工智能,法律当然采取禁止态度,更不能赋予其主体地位。只有符合技术伦理,满足人们道德责任预期,才有可能取得主体地位。可见,在人工智能主体条件中,积极向善是必要的,必须把那些无益于人类的人工智能自始禁绝,确保人工智能契合人类社会发展需要。

人工智能蕴含巨大的技术及社会风险,运用主体论有利于风险责任分担。依客体论,人工智能的开发设计者、生产制造者、销售者、购买者、使用者等主体之间,需要划分人工智能的风险责任。然而,人工智能因算法黑箱存在不可解释性、不可预见性;机器学习算法令其自我进化,不完全依赖人类既有的知识。“人工智能程序比人类能够在给定的时间内搜索更多的可能性,从而使得人工智能系统可以分析潜在的人类未虑及、更少尝试实施的方案。当可能性所在领域足够集中,人工智能系统甚至能够产生最优方案而非仅仅满意的方案。甚至在更复杂的环境下,人工智能系统的方案会偏离人类认知过程。”相同型号的机器人会在几天或几周后出现完全不同的表现,这取决于人类扮演其看管人角色的方式。归责难题由此产生,人工智能行为后果并非单一主体可预先设定,无法为人全面掌控,故需要将风险及责任分散。以主体方式,为人工智能设定财产、责任保险或基金,构造与风险相适应的责任机制,从而发挥避险功能,使人无惧于承担无法预期的不确定的无限责任,有利于人工智能的开发、普及和利用。

那么,人工智能主体会否导致上述主体滥用其主体人格,逃避个人责任呢?这是有可能的。鉴于人工智能主体背后的主体对人工智能实施不正当行为,违反其法定义务,可仿照法人人格否认理论,构造人工智能主体资格否认制度。一旦被否认,人工智能背后主体须承担无限责任。由于人工智能的技术路线、结构功用、运行状态等存在显著差异,因此需要在类型化基础上规定主体条件,赋予主体资格,构造责任制度,保障人工智能主体不损害他人合法利益和社会公共利益。一种妥当的综合化的主体制度设计,能适度分配人工智能风险,推动人工智能技术发展、产业应用,满足各方主体的需求。在社会层面,人工智能主体契合人工智能技术由弱至强以至于超级人工智能的发展趋势,符合人类向智能社会迈进的动向。人机混合、人机交互的生产生活场景将非常普遍,智能体的行为、反应等类似于人,尤其人形智能机器人,犹如人类伙伴、伴侣,深深嵌入人类社会系统。人工智能取得主体地位颇具社会价值。

人工智能法律主体的哲学史确证

法律主体在人类社会发展进程中的意义和内涵历经变化,而背后是关于人的哲学思想的变迁。通过发掘法律主体的哲学根基,可为人工智能法律主体地位的判断提供哲学思想支撑。

(一)人的传统主体哲学演化

从哲学史的角度看,人并非初始即作为主体而存在的,在人类社会早期只是人格神在自然的被摄物,人的主体性意识显露乃至人作为主体的存在历经了一段漫长而又迂回曲折的历程,以下笔者仅论述与法律人格密切相关的内容。

1.人格自神格独立

15世纪、16世纪欧洲的文艺复兴和宗教改革运动如火如荼地开展,造成中世纪神学—哲学体系的历史终结。文艺复兴重新燃起了对古代世界的兴趣,这一时期的成果是“人的发现”和“世界的发现”两大主题。这提出了一个冯·赖特称之为“人在自然中的地位”的新问题。这一时期的人文主义学者皮科·德纳·米兰多纳认为,在上帝的造物中,独有人在事物的伟大秩序之中没有固定的位置,人成为何种东西取决于人本身对自己位置的选择——这是一个有关人类自由的公式——在人身上存在先于本质。

于是,作为当时社会文化主要思潮的人文主义思想家从哲学和神学的角度论证了人的崇高价值,即尊严、才能和自由;人不再是匍匐在上帝之下的可怜被造物而是上帝创造的杰作。“所有的人都同样是上帝的子孙,每个人都具有他自己的独特意志。”此时高度繁荣的自然哲学发现了和谐能动经验的自然,阿尔伯蒂甚至认为和谐的数学比例使得自然变得完善和神圣,从而感叹“自然即上帝”。可见,这一时期新兴的哲学也自觉或不自觉地以中世纪哲学观点为前提,人文主义的哲学家并不拒绝宗教,而是仅仅断言在人的本性的范围内,通过并非直接得自宗教的方法和假设就可以得到丰厚的研究成果。

2.人由实体跨越至主体

自然科学在17世纪、18世纪得到空前的发展,宣示着一个理性时代的到来。哲学为适应科学发展的需要,发生了“认识论转向”,人的主体性开始显现。作为近代主体哲学之父,笛卡尔试图寻觅一种自我的明证性和确定性。他为主体“我”之存在的证成觅得了一个出发点即怀疑,并开始了他特有的“笛卡尔式的沉思”。在他的普遍怀疑之下,思想可以怀疑思想的一切对象和内容,包括外在的和内在的对象世界,却无法怀疑自身——“我在怀疑”。“我在怀疑”必须有一个怀疑主体——“我”,否则怀疑就无法进行下去。这样,通过“我在怀疑”这个不可怀疑的第一原则,笛卡尔确认了“我”之存在。

在笛卡尔看来,因为“我”仅是一个思维或精神性实体——心灵,所以“我”不能证明“我”关于物质“广延”的观念与它是一致的,只有“上帝”才能保证我们心中清楚明白的观念的真实性,进而保证外在事物的实在性,同时保证了心灵与物体的一致性——上帝一方面把自然规律建立在自然之中,另一方面又把它们的概念印在我们的心灵之中。最终,笛卡尔确立了自我(心灵)、上帝和广延(外在物质的本质)三个实体。笛卡尔的“自我”实体依然是一种思维实体——人因为有了“我思”的本质而呈现出主体性,虽然笛卡尔没有使用“反思”或“自我意识”等概念,但“我思”其实就是后来哲学家所说的自我意识和反思,这就终结了近代哲学以前只有实体而无主体观念的历史,“人”开始了从实体到主体的跨越,哲学也开始了向“主体性哲学”迈进。

3.人是目的而非手段

康德哲学奠立了人之主体性的综合思想基础。康德把人类知识分为感性和知性两部分,感性提供直观对象,知性则以概念思考为对象。知性的纯形式即是范畴。知性纯范畴是人类思考经验对象的先验条件。康德在《纯粹理性批判》中通过先验演绎中的客观演绎说明了知性范畴对经验的客观有效性——知性范畴作为先验自我之综合统一功能的体现乃是自我与对象之间的“中介”,在综合统一杂多表象的认识活动中,它一方面把先验自我的同一性带给了对象,另一方面又把综合而成的对象带到了先验自我之中。因此,自然界的法则源于我们的知性范畴,知性决定自然的规律。

然而,与纯粹理性相比,实践理性更具有优先地位。“自由即自律”,唯有在实践理性之中,唯有在意志自由之中,方能体现出人之为人且不同于任何自然存在的价值和尊严。自然是一个从低到高的目的系统,自然人是知性的合规律性,文化人是判断力的自然合目的性——人的文化是自然的最高目的,是整个自然这个目的系统进化的最高层次,自然在人的文化之中得到充分的自我体现。“一切事物都应该为之存在的就是人、自我意识”,人既是自然的存在物又具有不受自然限制的自由,就被康德作为创造的“终极目的”——“只有在人之中,但也是在这个仅仅作为道德主体的人之中,才能找到在目的上无条件的立法,因而只有这种立法才能使人有能力成为终极目的,全部自然都是在目的论上从属于这个终极目的的。”

康德作为主体哲学的集大成者,在对理性进行批判的过程中,以先验论的方式论证了不仅体现在纯粹理性认识功能之上,而且体现在实践理性的道德自由之上的主体能动性。知性为自然立法而理性为自身立法,作为自然存在和作为理性存在的人具有了自己为自身立法、完全由自身决定自己存在的真正自由,从而具有了不同于任何自然存在的价值和尊严。

综上所述,(自然)人的主体性哲学至康德得以确立,由此为近代民法上自然人普遍法律主体地位奠定了深厚的哲学思想基础。以人为中心、为目的的主体论持续至今。然而,在当代,以理性能力、自我意识为基础的传统主体哲学发生变化,令非人类主体得以栖身于哲学。

(二)传统主体哲学转向

随着19世纪以工业革命为始端的自然科学的革命式跨越发展,科学技术统治了整个自然世界,哲学关于自然物质世界的一般性原理被自然科学对具体物质现象的研究取而代之。而20世纪初开创的实验心理学则取代了哲学的认识论,对人的精神现象的研究逐渐从形而上学中分离出来。与此同时,达尔文主义的生物学开始研究人的本质和起源,进化论使“人”从形而上的思辨回归到世俗的血肉鲜明的动物形态。这样,哲学彻底失去了自身的研究对象,因为甚至连思索哲学的“人”自身都要被其他学科所无情“解剖”。

然而,胡塞尔通过现象学还原,使意向性(意向活动)的自我有了明见性,并在此基础上进行主体能动的意向性构造和意义赋予活动。先验自我作为现象学还原的剩余,是一种超验和无限的绝对主体,超越时间和历史的共时性而凝视、统摄和构造意识对象,并在意识性构造对象中实现自我生成。也正因为这种先验转向,胡塞尔“自觉地把现象学归入到主体主义哲学之中”,现象学也最终“将终极基础置于主体性之上”。然而,胡塞尔的主体超越于笛卡尔、康德和黑格尔——他不仅完成了从经验主体到先验主体的转向,并且继而在此基础上走向了主体的多数——主体间性,亦即交互主体性。胡塞尔借助莱布尼茨的单子多元论且在克服单子差异性和封闭性的基础上形成“单子共同体”理论,并进而阐述主体间性。

在胡塞尔看来,自我单子通过“移情”于他我单子而与其“结对”,把他作为我来理解,“他人在我之中被构造为他人,这是惟一可设想的方式,就像他人可以作为存在着的和如此存在着的而为我所具有的意义和有效性那样”。如此,他我就是自我通过结对联想和类比统觉所形成的外在投射,是自我在不同层面和时段的显现和变体,即他我是被自我意识为一个身体之后并能够自身意识到自己是支配身体全部行为的“中心极”的另一个自我。这种先验主体演化而来的主体交互需要在一种前谓词自明的“生活世界”中进行方显示意义,即把作为世界“视域”的逻辑支点并意向性地构造了对象的主体重新置入世界中交互而实现生成与演进,“只有主体间的互动的世界才是真正现实的生活世界,也只有在现实生活世界之中相互影响的主体间性才是真正的主体间性”。

毫无疑问,胡塞尔主体主义哲学的“‘交互主体性世界’理论为当代西方人学奠定了方法论的基础”,同时也为主体性和能动性的人之位格——“人格”——“人的主体性要素的整体性结构”,纳入了理性、精神性和伦理性的元素。

(三)主体哲学史对于人工智能主体的启示

传统主体哲学在当代发生转向,人的哲学危机引发新思考新认知,尤其人类中心主义的主体—客体范式遭受质疑。法律为什么赋予特定对象法律人格,不再受制于和人类相同的主体能力,更多地表现为满足人类社会需求。断然以人类为准,否定人工智能的主体性,实际上则落入人类中心的主客体范式窠臼。

以理性、意向性、自我意识等为由否认人工智能主体性不具有充分的哲学正当性。恰如主体哲学史、法律主体史所示,能否作为法律主体不只在于人类级的主观能力要素,最主要的因素与一国的经济、政治、科技、文化等密切相关。主体哲学思想乃诸多因素在哲学领域综合作用的凝结。主体哲学在当代的变化,主客体基本范式的松动,都进一步揭示了人工智能法律主体的哲学思想空间。特别在法人主体获得普遍认可的社会环境下,以人工智能为法律主体不存在过多的障碍。试想当年法人面临的质疑及立法承认过程,人工智能主体性问题几乎是历史的重现。

在哲学层面,需要从人类社会变革与社会关系重塑的角度,深刻认知新技术的意义与功用。新技术不仅导致物质层面的力量变化,而且带来更深层次的社会系统及社会关系变革。基于新技术的人机关系、人际关系不同以往,社会利益结构、运行机制等均发生剧烈变化。新技术当然不限于人工智能,也包括区块链、大数据等技术,它们构造出不同于工业时代的新型社会关系。在微观层面,以新技术为底层或聚合体,新人际关系得以生成深化,呈现间接性、匿名化、远距离等特点。此种新技术体或平台可否作为法律主体,成为热点问题。哲学上从“单向度的人”、“神圣人”、“微粒人”等角度作出有益阐释,对于认识主体问题颇有启发。

在弱人工智能时期,人工智能虽然能够实施看似智能的类人行为,但无法充分理解符号意义、行为属性,故而被认定无心灵、无意向性,进而主体性难以得到认可。归根结底,这种观点除了固守人类中心主义外,还因为缺乏一种深邃的哲学眼光,从发展性、未来性的视角看待人工智能。主体哲学史早已表明,一个时代的风尚与价值偏好或判断仅仅具有当地的、有限时段的特定意义,在历史长河中既受限于历史环境,有所不能,又深具开创力,无所不能。在量子计算发轫、算法精进、数据喷涌的迅猛态势下,人工智能正在迈向通用型。无论是主观能力方面,还是行为外观方面,人工智能愈加逼近于人,也更加能够为人类接纳,从而深度嵌入人类社会关系,成为关系型主体。

结论

人工智能法律主体地位争议颇大,否定论者更加强调人工智能缺乏理性意志等主观能力,难以作为权利义务的载体,肯定论者从各个角度试图强调赋予其主体地位的正当性。就本体而言,人工智能具有显著的自主性特点,且因不可预见性、不可解释性产生“责任缝隙”,需要以主体方式衡平各方权益。从他者期望的视角看,应承认人工智能的道德责任能力,其无疑可作为道德主体。从法律人格的历史演化可知,由部分自然人到全体自然人,再到法人,法律主体范围不断扩大,主体性呈客观化,法律主体理论的传统哲学根基已松动,不再唯理性、意志等主观要素论。在目的论意义上,人工智能主体对与其直接密切相关的主体,对于人工智能技术及产业发展,对于推动智能社会发展,具有重大价值,能够成为积极向善、助推实现美好生活的友好力量,赋予人工智能法律主体资格颇合目的性。而今,传统哲学转向,人类中心主义的主客体二元结构逐步消解,客体主体化的历史经验与当代实践表明,所谓客体完全可以主体化,主体不限于人,人工智能也可以作为法律主体。哲学认知的演化及转向过程,隐藏着人工智能法律主体的密码。笔者撰写本文仅属初步尝试,尚待结合社会变迁、智能社会结构调整、人工智能技术进步,进一步深入探寻人工智能法律主体的法哲学基础。

-向上滑动,查看完整目录-

《政治与法律》2021年第4期目录

【主题研讨——我国《民法典》适用研究】

1.论我国《民法典》物权编规范体系中的客体特定原则

李永军(2)

2.网络平台个人信息处理格式条款的效力认定

杨显滨(14)

3.民法典视野下我国商事习惯的司法适用

陈洪磊(26)

【经济刑法】

4.跨境证券犯罪刑事管辖及法律适用探讨

刘宪权(42)

5.非法经营罪规制目的的预设与生成

童德华(53)

【专论】

6.比例原则的中国宪法依据新释

刘权(68)

7.人民法院创制司法政策参与社会治理的动力溯源及路径优化

——以1071项新冠肺炎疫情防控司法政策文件为中心的分析

韩玉亭(79)

8.《刑法修正案(十一)》中竞合条款的理解与适用

王彦强(95)

【争鸣园地】

9.论人工智能法律主体的法哲学基础

骁克(109)

10.土地开发增值收益分配制度的法理基础

崔文星(122)

【实务研究】

11.论规范性文件不予一并审查:判断要素及其认定规则

——基于1799份裁判文书的分析

李明超(135)

12.论高空抛坠物侵权案件中公安机关的调查权

张莹莹(148)

《政治与法律》是上海社会科学院主管、上海社会科学院法学研究所主办的,把政治学和法学融于一炉、以法学为主的理论刊物。是我国改革开放之后最早公开发行的政法类期刊。

1994年,《政治与法律》被评为首届“中国中文法律核心期刊”;还被收入《中国人文社会科学核心期刊要览》;2004年再次被北京大学图书馆评定为“中国中文法律类核心期刊”,载入《中文核心期刊要目总览》;1998年国学术期刊综合评价数据库》来源期刊(CSSCI)。

《政治与法律》恪守“研究政法理论,推动法制建设”的编辑方针,设有“热点问题”、“法学专论”、“经济刑法”、“立法研究”、“学术争鸣”、“案例研究”等栏目;积极推出国内外法学研究的最新成果。

刊物的特点是:面向实际,不发空论;注重理论、不就事论事;力求观点新颜,言之成理,为学科建设和法制建设服务。她是政法界的学术论坛,政治理论研究的向导,政法实务工作的助手。创刊25年来,《政治与法律》以内容丰富、观点鲜明、文字精炼的办刊特色,受到中外广大读者的欢迎。

-END-

责任编辑|刘子怡

审核人员|杨岩张文硕

本文声明|本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北大法律信息网(北大法宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。

《政治与法律》2021年第4期要目

人工智能|35家法学核心期刊2020年度学术热点文章汇编

战东升|挑战与回应:人工智能时代劳动就业市场的法律规制|法商研究202101

谢澍:人工智能如何“无偏见”地助力刑事司法——由“证据指引”转向“证明辅助”|法律科学202005

郑智航:人工智能算法的伦理危机与法律规制|法律科学202101

北大法宝

北大法律信息网

法宝学堂

法宝智能

点击「在看」,就是鼓励

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.

/阅读下一篇/返回网易首页下载网易新闻客户端

人工智能法律主体地位探讨

[提要]法律主体应当具备类人的自我意志、自律性等主体性要素。人工智能的发展也许会无限的类人化,但是并不能达到复刻人类必备特质程度。盲目将其纳入法律主体范围,无疑会对整个法秩序产生“质变”影响。时下,对人工智能体的风险防范应主要致力于如何确保其未来发展的“可控性”,亦或寻求人工智能纳入法律客观范围等其他解决路径。

关键词:人工智能;法律主体;自主意识

一、问题的提出

随着国家综合国力的提高,科技水平的迅猛发展,与此同时也伴随着一些忧虑。人工智能是否可以在人类可控环境下逐步实现技术飞跃仍然是一个未知问题。库兹韦尔在其奇点理论中提到人工智能在未来的某个时刻极大可能出现发展的不可控性,并预测在2045年,人工智能将超越人的智能。这种猜测在法律领域也有折射。但在某种意义上说,此举也确实将人工智能的法律主体资格这一问题摆在了人们面前。我们首先需要明确,法律主体即是在法律规定的范围内从事社会各项活动的人,是以马克思主义哲学为基础认知。可以进一步理解为,法律层面上的主体即为哲学层面上的主体,因而所有的自然人都是法律主体,也是哲学层面上的主体。一个自然人从出生到死亡都是在社会这个大家庭中生活,自始至终是以一个社会人的角色生活着。而法律作为社会生活各方各面的“润滑剂”,使得所有的自然人在以社会人身份生活的同时,还必须成为法律人,即作为法律主体而存在。既然如此,人工智能是否和应否作为社会甚至是法律意义上的“人”还有进一步探讨,不能一概而论的赋予其与人类享有同等地位。

二、法律主体的标准

(一)法律主体的哲学意义定位。法律主体即为法律意义上的主体,是以马克思主义哲学为基础认知的。在此基础上,主体即为人,人即为主体,两者之间是可以画等号的。作为主体要同时具备三个条件:(1)能掌控自己的生命活动;(2)能左右外部世界;(3)可以控制自己的欲望。上述三点都说明一个特性,即意志。由此可以看出,主体是本身就具备意志存在物的。而同时具备这三点的,即具有意志的主体也就只有人了,人以外的其他生物很难同时做到这三点。意识是人脑的技能是从哲学观念出发。马克思在研究物质与意识之间的关系时曾得出:“观念的东西不外乎是移入人的头脑并在头脑中改造过的物质的东西”,物质是意识的起源,意识是对客观世界的主观反映,而人脑是意识的载体。如果脱离人脑,人类将无法认知世界,同时也就没有办法形成主观意识。另外,意识的本质特征还在于“意识到必须和周边的人们来往”,如果不与周围之人来往,那么他脱离了社会关系,即使他具备一定的人脑的生理机能,也不会有人的意识。是由于人类的行动是由社会关系的需要来决定,因而社会关系的总和是由人的社会性构成,在某种程度上,社会性表现在人的行动上,通过社会劳动获得自我物质需求、精神需求,与此同时还能满足社会、他人的物质需求,并获得自我价值。根据以上,人工智能体要想拥有人类的意识,第一,应具备意识之载体,即与人脑结构高度相似的人脑仿真;第二,存在相当的社会关系,而事实上,科学技术发展的有限性及人脑结构的高度复杂性决定了人工智能体无法克隆人类完全一样的大脑,且仍不能适应社会。另外,从人的经验与情感角度来看,人工智能与人类智能仍有差别。第一,人类的经验具有独特性和差异性。每个人在生活中的经历各不相同。因此,他们对同一件事结合个人的经验、常识、直觉等很可能产生不同的看法或者不同的处理方式。而这一点恰恰是强人工智能无法模拟的。通过算法对现存信息的提取、剖析和分类是人工智能做出判断的方法。然而,人类是通过大量常识性知识进行分析人们所面对的问题,并不是像人工智能通过大数据的剖析、提取所得。第二,强人工智能拥有的EQ与人类有较大差距。强人工智能所能体会的“喜怒哀乐”仍然是对数据的分析和处理。即使将来真正出现“情感机器人”,这种“情感”仍然属于“人造情感”,与人类的情绪世界截然相反。明斯基曾指出:智能的与情感、直觉和感情都是相通的,只不过是人类另一种思维方法。理智后于情感而产生,而人工智能只具备智力很难具备情感,因此不是真正意义上的智能。人类的经验和情感的不可复制性也决定了人工智能不能具备人类那样的意识。

(二)各部门法视角下法律主体的标准。不同部门法之下,法律主体的范围有所区别,民法领域包括自然人、法人、非法人组织;刑法领域主要以自然人和单位为主;而在国际法上主要指国家与国际组织。不同部门法之下的法律主体对于人工智能的法律主体资格问题参考意义也有所差别,因此有必要分别讨论。

1、民事法律主体标准。参加民事法律关系享受权利和承担义务的人,即民事法律关系的当事人。一般情况下,享有民事权利和承担民事义务是民事主体权利能力的体现,也即权利义务主体的资格。在民法上,自然人和法人的民事权利能力大致相同,自然人出生时开始享有,死亡时终止;法人则以成立为起点,注销时终止。人工智能能否享有与人类相同的民事权利呢?笔者认为,人工智能能否具备民事权利可以从以下几个方面探讨:一方面人工智能是否存在与自然人法律人格的共同性?本文谈论到,自然人是集理性、道德、情感于一身的存在,自我意识比较显著。而人工智能则是依据固定的算法、大数据分析来实施人类指令,弱化自我意识,强调服从意识,其内在核心为逻辑运算。强的人工智能可能会做出一些面部表情甚至通过语言来与人类进行沟通,但其内在并不知如何定义是非、善恶,即便能够知晓,也是通过人类输入的数据,其进行逻辑运算得出的,缺乏必备的价值感和道德感。依靠一定的手段通过逻辑算法得出的结果,并按人工输入的默认程序做出的表示。另一方面人工智能能否具备与人类平等的民事主体地位?笔者对此持否定的态度。民事主体地位是在法律规定的范围内享有,以宪法为根本准则。假设人工智能与人类享有平等的民事主体地位,其超强的逻辑运算能力是否会为追逐利益最大化而损害自然人的正当利益?是否会破坏市场正常的经营秩序?是否会危害国家的安全?我们并不能对此表示肯定,所以只能对赋予人工智能与人类平等的民事主体地位表示否定。民事主体资格的产生与灭失都是取决于人类社会的需要。法律没有把现实社会存在的所有实体都确定为法律关系的主体,享有民事主体资格,而是在法律政策的指引之下,挑选一部分实体赋予民事主体资格。由此可以看出,人工智能并不契合人类需要,因此并没有成为民事主体。但社会中不乏同意人工智能应被赋予民事主体资格的人,在他们看来,人工智能具有极强的自主性,我们不能简单地将其看成一个供人类操作的一个被动性工具,而应赋予其主体资格,享有特定的权利,履行相应的义务,承担一定的责任。反之,则有些人认为,人工智能主要靠技术人员输入数据进行逻辑分析,缺乏意志、没有自主意识,不具备主体条件,仍然是人类开发利用的工具。面对观点迥异的两种主张,如何更加理性地看待问题的本质,需要从法哲学的层面来探讨,将人工智能置于法律主体的哲学基础之中,为人工智能立法提供理论上的帮助。不可置否,有部分学者认为,法人也并非是真正意义上的人类,将人工智能推理为法人,由此认定其享有法律主体地位。需要注意的是,法人是享有民事主体资格的组织,它和自然人一样,同属于民事主体的范围,是民事主体中的重要组成部分,法人是具有民事权利能力和民事行为能力,依法独立享有民事权利和承担民事义务的组织;另一方面,法人有较好的集合能力,在为追求同样目的的时候,两个甚至多个可以组成一个团体,可以通过分工协作的方式完成目的。为实现各项功能、规范秩序,这个团体就需要由特定的人来行使特定的权利,而特定的人就是为实现团体功能,规范秩序以章程的方式推选的,如法人代表。其行为是按照章程规定的方式,由此可见法人的行为可以看成是法人团体的行为,所以法人是可以成为团体的机关。着重在于该行为是由于团体章程规定的并不是由于法人本身。从这一方面来说,法律拟制的法律人格无法类比于人工智能,人工智能更多的是由于人类预先设定的程序进行的,不能像法人一样逐渐适应繁琐的法律活动;另一方面法人可以在其权利受到侵害或者因他人不履行义务时寻求法律保护,该权利是由法律赋予的,然而权利实际是由该团体享有的。从这方面来看,即便赋予人工智能民事权利,也不具备独立财产,更无法承担民事责任,也就无法真正地融入到民商事活动中。

2、刑事法律主体标准。在今后发展中,人工智能体即使形成一定独立意识,但这种意识也非绝对自由的意识。恩格斯之前提出:“道德和法的问题要在研究自由意志、人的责任、必然和自由的关系下探讨”。在没有形成自由意志的情况下,意味着对自身行为无法真正具备控制能力。对于一个犯罪行为的处罚,要求行为主体具备刑事责任能力。而决定刑事责任能力的因素有两个:一是年龄;二是精神状况。这两个原因最终决定刑事责任能力是否存在,同时它们又是刑事责任能力必备要素,究其原因为这两个因素影响了人的辨认能力和控制能力。只有在行为人具有辨认能力与控制能力时,才能找到对其进行刑事处罚的正当依据。一方面强人工智能不具备刑事责任能力,自由意志的欠缺决定了它们并不能完全独立地实施一系列行为;另一方面不具备刑事责任能力,致使其没有刑事主体资格。根据犯罪构成四要件说:(1)客观上实施了严重危害社会的行为;(2)主观上存在故意或者过失;(3)客体上侵害了刑法所保护的社会关系;(4)主体即为实施犯罪行为、依法应当负刑事责任的自然人和单位。任何不具备刑事责任能力的主体都丧失了受到刑罚处罚的可能性。人工智能体终究是人类智慧的创造物,因而在任何时候都无法真正脱离人类的控制。人工智能实施的行为在某种程度上仍然夹带着一些人类的意志。人工智能永远无法横跨人类大脑,只能无限的趋近。人工智能体不能拥有与人类相同的自由意识,不能对自身行为做出是非善恶之分,因而也就不是一个适格的刑事责任主体。综上所述,人工智能不宜成为法律主体,但可以寻求其他解决途径,对人工智能未来发展进行风险防控。一方面可以将其定位为法律客体。法律最主要的目的就是达到社会关系链条的一种稳定性和连贯性,因此这种法律的本质变化是一个自相冲突的事实。所以,在仍持有怀疑的态度下是否进行通用人工智能研究的今天,以稳定性和连贯性为主的法律如果带领人们在法律的框架内赋予其主体地位,将会显得比较草率。在2020年人工智能峰会中,演讲嘉宾都不约而同地提到人工智能在数据分析、逻辑运算方面的重要作用,人工智能的价值在于为人类所用,凸显着法律客体地位的充分需求。另一方面保证人工智能在人类可控范围内发展。人工智能无论是对知识的获取、对行为的认知还是对情境的反应等,无一不是通过人类输入的数据,通过对各项数据的分析、运算得出的,并不是实际参与社会生活的结果,不具备社会性。进而言之,人工智能不能摆脱人类的控制,其本质意义上始终是为人类服务的工具。如果说将来人工智能真正实现独立思考,能够自主支配行为,对人类能够实施“反控”时,那么造就这类人工智能体的意义是什么?对人工智能“居安思危”固然是没错的,但并非一定要将其推向法律主体。当下,最应当致力于如何保障人工智能在人类可控范围内发展,这要比增设一个新的法律主体类型更为简便。“未雨绸缪”未尝不是一个好的选择。

主要参考文献:

[1]刘洪华.人工智能法律主体资格的否定及其法律规制构想[J].北方法学,2019(04).

[2]骁克.论人工智能法律主体的法哲学基础[J].政治与法律,2021(04).

[3]张鹤鸣.意识是人脑的机能吗[J].学术研究,1986(03).

[4]白海娟.人工智能“犯罪”之否定[J].兰州学刊,2020(08).

[5](美)马文·明斯基,著.情感机器:人工智能与人类思维的未来[M].王文革,等,译.杭州:浙江人民出版社,2016.

[6]王利明.民法总则研究[M].北京:中国人民大学出版社,2012.

[7]马克思恩格斯选集(第2卷)[M].北京:人民出版社,1995.

作者:蔡泽男单位:吉首大学法学与公共管理学院

民事纠纷包括什么

民事纠纷是比较常见的纠纷,它是包括很多方面的纠纷的,比如财产、债务、婚姻家庭等等,随着人们法律意识的提高,民事案件也是越来越多的。那么,民事纠纷包括什么呢?下面将由找法网小编为您详细介绍,希望对您有所帮助。

一、民事纠纷包括什么

第一类是婚姻家庭纠纷。包括离婚、离婚的财产纠纷、恋爱引起的财物纠纷、抚育纠纷、赡养纠纷、抚养纠纷、解除收养关系纠纷、解除同居关系(起诉时双方或一方未达到法定婚龄或不符合其他结婚条件)纠纷、析产纠纷、分割纠纷、赔偿金、补助金、保险金纠纷。

第二类是房屋纠纷。包括房屋确权纠纷、房屋买卖纠纷、房屋使用权纠纷、房屋租赁纠纷、房屋代管纠纷、房屋典当回赎纠纷、房屋拆迁纠纷、换房纠纷、退出强占公房纠纷、拆除违章建筑纠纷、房屋附着(定着)纠纷等。

第三类是继承遗产纠纷。包括继承权纠纷、遗赠抚养协议纠纷、遗赠受领纠纷、分享遗产纠纷、确认丧失继承权纠纷。

第四类是债务纠纷。包括借贷纠纷、买卖纠纷、抵押纠纷、承揽加工(个人与个人)纠纷、代购代销(个人与个人)纠纷、拖欠贷款纠纷、追索劳动报酬纠纷、追还不当得利纠纷、追还定金纠纷、无因管理索赔纠纷、帐务纠纷等。

第五类是人身、财产权纠纷。包括人身损害赔偿纠纷、财物损坏赔偿纠纷、追还财产纠纷、违约金纠纷、要求消除危险纠纷、恢复财产原状纠纷、排除妨碍纠纷、医疗事故处理纠纷等。

第六类是土地纠纷。包括宅基地使用权纠纷、宅基地界址纠纷、宅基地附着(定着)物纠纷。侵犯土地使用权纠纷。

第七类是相邻关系纠纷。包括采光纠纷、通风纠纷、通道使用纠纷、排水纠纷、排队竹木妨害纠纷、噪音纠纷等。

第八类是其他财物权纠纷。包括山林纠纷、水利纠纷、树林、竹园产权纠纷、财物权属纠纷。

第九类是人身权纠纷。包括侵犯姓名权(名称权)、侵犯肖像权、侵犯名誉权、侵犯荣誉权等引起的纠纷。

第十类是知识产权纠纷。包括著作权纠纷、发现权纠纷、发明权纠纷等。

第十一类属适用特别程序的事由。包括选民资格、宣告死亡、宣告失踪、撤销死亡宣告、撤销失踪宣告、认定公民无民事行为能力、认定公民限制民事行为能力、认无主财产、不服指定监护、撤销监护人资格等。

第十二类是上述十一类不能包括进去的其他纠纷或事由。

二、民事纠纷的解决方式有哪些

民事纠纷解决方式主要有三类:自力救济、社会救济、公力救济。自力救济包括自决与和解。社会救济包括调解和仲裁。公力救济包括诉讼和行政裁决。

民事纠纷的处理机制,是指缓解和消除民事纠纷的方法和制度。根据纠纷处理的制度和方法的不同可以从以下三种形式来论述民事纠纷的处理机制。

1、自力救济

自力救济,包括自决与和解。它是指纠纷主体依靠自身力量解决纠纷,以达到维护自己权益的目的。自决是指纠纷主体一方凭借自己的力量使对方服从。和解是指双方互相妥协和让步。两者共同点是,都是依靠自我的力量来解决争议,无需第三方的参与,也不受任何规范的制约。

2、社会救济

社会救济,包括调解(诉讼外调解)和仲裁。他是只依靠社会力量处理民事纠纷的一种机制。

调解是由第三者(调解机构或调解人)出面对纠纷的双方当事人进行调停说和,用一定的法律规范和道德规范劝导冲突双方,促使他们在互谅互让的基础上达成解决纠纷的协议。调解协议不具有法律上的强制力,但具有合同意义上的效力。

仲裁是由双方当事人选定的仲裁机构对纠纷进行审理并作出裁决。仲裁不同于调解,仲裁裁决对双方当事人有法律上的拘束力。但是,仲裁与调解一样,也是以双方当事人的自愿为前提条件的,只有纠纷的双方达成仲裁协议,一致同意将纠纷交付裁决,仲裁才能够开始。

3、公力救济

公力救济,包括诉讼和行政裁决。民事诉讼是指法院在当事人和其他诉讼参与人的参加下,以审理、判决、执行等方式解决民事纠纷的活动,以及由这些活动产生的各种诉讼关系的总和。

民事诉讼动态地表现为法院、当事人及其他诉讼参与人进行的各种诉讼活动,静态地则表现为在诉讼活动中产生的诉讼关系。

行政裁决是指行政机关或法定授权的组织,依照法律授权,对当事人之间发生的、与行政管理活动密切相关的、与合同无关的民事纠纷进行审查,并作出裁决的具体行政行为。行政裁决的主体具有法定性。

行政机关只有获得法律授权,才能对授权范围内的民事纠纷案件进行审查并裁决,没有法律授权,行政机关不能自行决定和裁决某些民事纠纷案件。

三、民事纠纷如何诉讼

因民事纠纷需向法院起诉的,主要有以下的流程:

1、收集有关双方纠纷及造成的影响或损失的证据、对方的身份信息(或对方单位的工商登记信息及组织机构代码证信息)。

2、向法院提交诉状立案。在起诉时,应该向法院提交诉状、证据、双方的身份信息(如是单位的,则应该提供单位的工商登记信息及组织机构代码证信息)。其中诉状和证据材料,都要提供正本一份,并按被告的人数提供相应的副本。

3、法院立案后,原告按规定交纳诉讼费用。

4、由法院进行开庭审理,并进行调解或判决。

5、任一方对一审判决不服的,可上诉,由上级法院进行审理和判决。

6、对方不履行生效法律文书的,则可向法院申请执行,则法院依法进行执行。

以上就是找法网小编为您整理的“民事纠纷包括什么”的相关内容,我们可以知道,民事纠纷主要包括十二类,常见的有婚姻家庭纠纷、财产权纠纷以及人身纠纷等等。若您还遇到其它不懂的问题,欢迎上找法网的法律平台咨询专业律师。

人工智能民事主体地位探究

人工智能时代已然来临,诸如人脸识别、无人驾驶、智能机器人越来越受到人们的青睐。人们一方面享受着人工智能所带来的便利,一方面对人工智能技术的滥用产生了担忧,特别是法律方面,人工智能的立法规制、人工智能侵权责任的承担等问题引起了学者们的广泛关注。当务之急,需要深入探究人工智能是否具有民事主体地位,以此作为思考的逻辑起点,推动人工智能立法进程。本期文萃对不同学者关于人工智能民事主体地位的研究进行了汇编,学者们从不同角度对这一主题进行了有益的探索。

人工智能对传统民事法律主体带来挑战

马佳在《法治与社会》2019年29期《民法视域下人工智能法律主体地位之辨思》一文中认为,依我国目前法律,传统民事主体经历了由非全部的自然人,到全部的自然人,再到法人与自然人的二元主体的过程,人工智能对传统民事主体的挑战主要集中在人工智能应被视为民事主体还是客体问题。如果视为民事主体,传统民事主体的二元制结构是否被打破;还是类比法人,赋予其有限法律人格?

不仅是理论层面,实践中人工智能也向传统民事法律主体提出了新的挑战。一是人工智能对知识产权保护所带来的挑战。微软公司曾推出智能机器人“微软小冰”进行写诗,那么“微软小冰”对其作品是否享有版权?是否承认其著作权人的地位?微软公司为避免争议,宣布“微软小冰”放弃版权。二是人工智能对侵权责任的认定也带来了挑战。我们无法回避无人驾驶汽车在这方面可能带来的问题,无人驾驶机器造成他人损害,由谁承担侵权责任和产品责任?随着科学技术发展,当拥有高度自控能力,超越其自身算法设计的强人工智能实施的致害行为,是否仍应由机器人的所有者承担,这也是人工智能对民事侵权责任提出的新课题。

从功能主义的角度来看,没有必要赋予人工智能民事主体地位

王艳慧在《华东政法大学学报》2020年第4期《人工智能民事主体地位的论证进路及其批判》一文中认为,人工智能的发展所带来的著作权归属、智能合约、智能侵害责任等都能被现行法规范所涵摄,从功能主义的角度来看,没有必要赋予人工智能民事主体地位。通过对民事主体确立的思想史考察可以发现,自然人民事主体地位的确立伴随着世界观上人的主体地位的确立,与独立、自由、平等等天赋的自然权利观念的广泛传播密不可分。伦理人的意义在于不需依靠任何外在的力量而是人自身的意志能力即可确定人之为人,这种意志能力具有规范性认知,“应当”具有辨别和选择的能力。对于人如何看待自己与世界的关系的演进历程,其间经过了客观法向主体法、义务法向权利法、本体论向认识论的重大转向,是人本主义的实践,是人的尊严与价值的确立过程。因此,民事主体制度的设计不是单纯的立法技术的使用问题,而是具有深刻的伦理内涵。

一旦赋予人工智能民事主体地位,意味着两种智能主体的并存,以自然人为民事主体建立的法律关系大厦将面临倾覆的危险,主体法时代的法律框架将可能坍塌,人的历史将被改写。人工智能依赖于思维的机械化,是模仿人的认知,是理性的思辨运用,与意志支配行动的实践理性不同,实践理性依据道德律令以实现“善的意志”为最高目的,寄望于赋予人工智能民事主体地位是对理性不同运用方式的混淆。近代以来,科学主义的工具性思维渗透进人类活动的各个领域,尤其是科技对伦理的僭越,已经造成了人的生命的无“意义”感。人的历史是社会活动的历史,人通过生产实践来确证自身,但人也可能被自己实践活动的产品所奴役。面对人工智能等新科技的发展,人应当坚持保守主义态度,这对于法哲学的重大意义在于:从人类独有的理性出发,推导出人在与外部世界的对立统一关系中作为主体的自由属性,并将其设定为法权体系展开的逻辑条件和终极目标。

人工智能获得主体资格并非解决现实问题的唯一路径

石冠彬在《西南民族大学学报》(人文社会科学版)2019年第12期《人工智能民事主体资格论:不同路径的价值抉择》一文中认为,赋予人工智能以民事主体资格并不存在与主体能力的本质相冲突、将贬低人的主体地位、有违伦理道德等所谓的法理障碍,且在立法方案的设计上具有可行性,可通过类比公司注册资本设立强制保险赔偿金,作为建构人工智能独立民事主体地位的责任财产基础,能有效解决人工智能创作物、自动驾驶侵权责任等具体问题。但人工智能获得主体资格并非解决现实问题的唯一路径,人工智能所引起的法律难题在现行法框架内尚能解决,肯定人工智能民事主体资格暂无迫切性。最终则取决于能否更好地实现人类利益,是人类功利主义价值衡量的结果。即使如此,也应当强化构建人工智能民事主体资格的理论研究,为未来可能的立法提供理论补给。

现阶段在法律上赋予人工智能主体地位,人类或将失去保护自身地位的法律武器

陈嘉敏、朱健在《惠州学院学报》2020年第1期《人工智能的民事主体资格探究》一文中认为,发明人工智能并不是为了让人工智能与人类等同或者说是取代人类,发明人工智能最初以及最后的目的应当且只能是为了解放人类的双手,与人类智能进行互补,让人类过上美好的生活。因此,作为“好帮手”的人工智能是不应当被认定为民事主体,至少现阶段是不适宜的。其次,人工智能发展迅速,其未来是我们无法预料的,即使法律曾经有过超前立法,但是从总体来看,法律明显是滞后的,不可能通过法律来规制将来发生的事情,从这一点上看,也不应当赋予人工智能以法律主体地位。最后,法律作为人类主体特有的调整人与人之间关系的社会规范,它可以说是保护人类的最后防线,如果人类为了一时的方便,而将人工智能作为法律主体纳入保护的范围,其不仅将面临着国内法的重新规划,还有全球国际法的重构,我们无法预料将来人工智能会发展到哪个阶段,如果现阶段在法律上赋予人工智能主体地位,没有在一定程度上对人工智能这一类新生事物进行法律限制,那么人类或将失去保护自身地位的法律武器。

(栏目主持:赵鑫)

人工智能民事主体地位探究

人工智能时代已然来临,诸如人脸识别、无人驾驶、智能机器人越来越受到人们的青睐。人们一方面享受着人工智能所带来的便利,一方面对人工智能技术的滥用产生了担忧,特别是法律方面,人工智能的立法规制、人工智能侵权责任的承担等问题引起了学者们的广泛关注。当务之急,需要深入探究人工智能是否具有民事主体地位,以此作为思考的逻辑起点,推动人工智能立法进程。本期文萃对不同学者关于人工智能民事主体地位的研究进行了汇编,学者们从不同角度对这一主题进行了有益的探索。

人工智能对传统民事法律主体带来挑战

马佳在《法治与社会》2019年29期《民法视域下人工智能法律主体地位之辨思》一文中认为,依我国目前法律,传统民事主体经历了由非全部的自然人,到全部的自然人,再到法人与自然人的二元主体的过程,人工智能对传统民事主体的挑战主要集中在人工智能应被视为民事主体还是客体问题。如果视为民事主体,传统民事主体的二元制结构是否被打破;还是类比法人,赋予其有限法律人格?

不仅是理论层面,实践中人工智能也向传统民事法律主体提出了新的挑战。一是人工智能对知识产权保护所带来的挑战。微软公司曾推出智能机器人“微软小冰”进行写诗,那么“微软小冰”对其作品是否享有版权?是否承认其著作权人的地位?微软公司为避免争议,宣布“微软小冰”放弃版权。二是人工智能对侵权责任的认定也带来了挑战。我们无法回避无人驾驶汽车在这方面可能带来的问题,无人驾驶机器造成他人损害,由谁承担侵权责任和产品责任?随着科学技术发展,当拥有高度自控能力,超越其自身算法设计的强人工智能实施的致害行为,是否仍应由机器人的所有者承担,这也是人工智能对民事侵权责任提出的新课题。

从功能主义的角度来看,没有必要赋予人工智能民事主体地位

王艳慧在《华东政法大学学报》2020年第4期《人工智能民事主体地位的论证进路及其批判》一文中认为,人工智能的发展所带来的著作权归属、智能合约、智能侵害责任等都能被现行法规范所涵摄,从功能主义的角度来看,没有必要赋予人工智能民事主体地位。通过对民事主体确立的思想史考察可以发现,自然人民事主体地位的确立伴随着世界观上人的主体地位的确立,与独立、自由、平等等天赋的自然权利观念的广泛传播密不可分。伦理人的意义在于不需依靠任何外在的力量而是人自身的意志能力即可确定人之为人,这种意志能力具有规范性认知,“应当”具有辨别和选择的能力。对于人如何看待自己与世界的关系的演进历程,其间经过了客观法向主体法、义务法向权利法、本体论向认识论的重大转向,是人本主义的实践,是人的尊严与价值的确立过程。因此,民事主体制度的设计不是单纯的立法技术的使用问题,而是具有深刻的伦理内涵。

一旦赋予人工智能民事主体地位,意味着两种智能主体的并存,以自然人为民事主体建立的法律关系大厦将面临倾覆的危险,主体法时代的法律框架将可能坍塌,人的历史将被改写。人工智能依赖于思维的机械化,是模仿人的认知,是理性的思辨运用,与意志支配行动的实践理性不同,实践理性依据道德律令以实现“善的意志”为最高目的,寄望于赋予人工智能民事主体地位是对理性不同运用方式的混淆。近代以来,科学主义的工具性思维渗透进人类活动的各个领域,尤其是科技对伦理的僭越,已经造成了人的生命的无“意义”感。人的历史是社会活动的历史,人通过生产实践来确证自身,但人也可能被自己实践活动的产品所奴役。面对人工智能等新科技的发展,人应当坚持保守主义态度,这对于法哲学的重大意义在于:从人类独有的理性出发,推导出人在与外部世界的对立统一关系中作为主体的自由属性,并将其设定为法权体系展开的逻辑条件和终极目标。

人工智能获得主体资格并非解决现实问题的唯一路径

石冠彬在《西南民族大学学报》(人文社会科学版)2019年第12期《人工智能民事主体资格论:不同路径的价值抉择》一文中认为,赋予人工智能以民事主体资格并不存在与主体能力的本质相冲突、将贬低人的主体地位、有违伦理道德等所谓的法理障碍,且在立法方案的设计上具有可行性,可通过类比公司注册资本设立强制保险赔偿金,作为建构人工智能独立民事主体地位的责任财产基础,能有效解决人工智能创作物、自动驾驶侵权责任等具体问题。但人工智能获得主体资格并非解决现实问题的唯一路径,人工智能所引起的法律难题在现行法框架内尚能解决,肯定人工智能民事主体资格暂无迫切性。最终则取决于能否更好地实现人类利益,是人类功利主义价值衡量的结果。即使如此,也应当强化构建人工智能民事主体资格的理论研究,为未来可能的立法提供理论补给。

现阶段在法律上赋予人工智能主体地位,人类或将失去保护自身地位的法律武器

陈嘉敏、朱健在《惠州学院学报》2020年第1期《人工智能的民事主体资格探究》一文中认为,发明人工智能并不是为了让人工智能与人类等同或者说是取代人类,发明人工智能最初以及最后的目的应当且只能是为了解放人类的双手,与人类智能进行互补,让人类过上美好的生活。因此,作为“好帮手”的人工智能是不应当被认定为民事主体,至少现阶段是不适宜的。其次,人工智能发展迅速,其未来是我们无法预料的,即使法律曾经有过超前立法,但是从总体来看,法律明显是滞后的,不可能通过法律来规制将来发生的事情,从这一点上看,也不应当赋予人工智能以法律主体地位。最后,法律作为人类主体特有的调整人与人之间关系的社会规范,它可以说是保护人类的最后防线,如果人类为了一时的方便,而将人工智能作为法律主体纳入保护的范围,其不仅将面临着国内法的重新规划,还有全球国际法的重构,我们无法预料将来人工智能会发展到哪个阶段,如果现阶段在法律上赋予人工智能主体地位,没有在一定程度上对人工智能这一类新生事物进行法律限制,那么人类或将失去保护自身地位的法律武器。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇