博舍

王春晖:人工智能的伦理、法律与监管 人工智能伦理与法律论文题目

王春晖:人工智能的伦理、法律与监管

二、AI的内涵与发展远景

到目前为止,AI并没有确切的定义,让我们从世界权威的韦伯词典先了解一下什么是“智能”(Intelligence),韦伯字典对“Intelligence”的定义是“Abilityoflearningorunderstandingthings,ordealingwithnewordifficultsituations”,从这个定义中,我们可以总结三个关键词:一是Learning(学习—目的是获得知识或规则),二是Understanding(理解—基于知识做出评判或决策),三是Dealing(行为—基于理解做出相应行动)。可见,智能是智力和能力的总称,而“学习”、“理解”和“行动”是“智能”最基本的三大要素,而现代AI代表性的成果就是深度学习(Deeplearning),深度学习技术由于能够自动从数据中学习复杂的特征,因此被认为是现代人工智能最重要、应用最广泛的技术。

有人推测人工智能的发展远景将经历三个阶段:一是弱人工智能阶段(ANI);二是强人工智能阶段(AGI);三是超人工智能阶段(ASI)。笔者认为,目前,所有的AI技术,不管多先进,都属于弱人工智能阶段,也就是讲仅仅在某一个方面做了跟人差不多的单一事项。

在“弱人工智能”(ArtificialNarrowIntelligence)阶段,ANI只专注于完成某个特定的任务,例如语音识别、图像识别和翻译,是擅长于单个方面的人工智能,类似高级仿生学。它们只是用于解决特定具体类的任务问题而存在,大都是统计数据,以此从中归纳出模型。谷歌的AlphaGo和AlphaGoZero就是典型“弱人工智能”,它们充其量也就是一个优秀的数据处理者,尽管它们能战胜象棋领域的世界级冠军,但是AlphaGo和AlphaGoZero也仅仅会下象棋,是一项擅长于单个游戏领域的人工智能,如果让它们更好地在硬盘上储存和处理数据,就不是它们的强项了。

在“强人工智能”(ArtificialGeneralIntelligence)阶段,AGI就属于人类级别的人工智能了,在各方面都能与人类媲美,拥有AGI的机器不仅是一种工具,而且本身可拥有“思维“。有知觉和自我意识的AGI能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习等,人类能干的脑力活它基本都能胜任。

目前,国际上的AGI技术研究进展如何呢?国际人工智能联合会前主席、牛津大学计算机系主任MichaelWooldrige教授一语道破,他在2016年CCF-GAIR大会上指出:强人工智能的研究“几乎没有进展,甚至几乎没有进步和严肃的活动”(littleprogress,littleseriousactivity)。事实上,人工智能国际主流学界所持的目标也就是弱人工智能(ANI),据了解目前很少有人致力于强人工智的研究,也没有相应的成果。

关于ASI是指“超人工智能”(ArtificialSuperintelligence)阶段,另一位来自牛津大学的哲学家,也是一名知名人工智能思想家NickBostrom认为,ASI“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能”。我本能地觉得,他描述的这类场景,现在和将来都不可能出现。尽管AI技术不像其他技术一样,它并不限于单一维度,而是多种认知类型和模式组成的复合体,每一种类型或模式都是一个连续统一体。但是人类与AI最大的区别就是人类具有高级思维能力,正是人类的高级思维构成了丰富多彩的社会。

人类的思维,是人脑借助于语言对客观事物的概括和间接的反应过程,而思维本身以感知为基础,但又超越感知的界限。人类的思维是多元的,除了逻辑思维之外,还有形象思维、直觉思维、顿悟等等。如果像NickBostrom教授所描述的那样:ASI几乎在所有领域都比最聪明的人类大脑都聪明很多,那么要想达到这个境界,ASI必须要超越人类的多元思维模式,如果真能超越的话,我以为唯一的方法就是在人类的血肉组织上构造复杂的算法,然而这几乎是天方夜谭。

三、AI面临的伦理与法律问题

已故著名物理学家、剑桥大学教授史蒂芬·霍金(StevenHawking)在世时曾警告:在我的一生中,我见证了许多社会深刻的变化,其中最深刻的,同时也是对人类影响与日俱增的变化,就是人工智能的崛起。简单来说,我认为强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。霍金认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。

笔者认为,AI在其发展进程中面临的最大问题不是技术本身,而是AI的伦理和法律问题。2017年6月,笔者在日内瓦参加了由联合国国际电信联盟主办的一个主题为“人工智能造福人类”的全球峰会。国际电信联盟主办的这次峰会聚焦了AI的两大国际性问题,一是加速人工智能的研发和应用,以应对贫困、饥饿、健康、教育和环境保护等全球性挑战;二是探讨如何确保人工智能的安全性并符合伦理规范,防止其带来意想不到的后果。

2016年,标准制定组织IEEE发布了首份AI报告(2016),其名称为:“利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景”。该报告提出了一个发展IA的一般性原则,主要涉及的是高层次伦理问题,报告认为,AI发展的一般性原则将适用于所有类型的人工智能和自主系统。在确定一般原则时,主要考虑三大因素:一是体现人权;二是优先考虑最大化对人类和自然环境的好处;三是削弱人工智能的风险和负面影响。

原则之一:人类利益(HumanBenefit),人类利益原则要求考虑,如何确保AI/AS不侵犯人权。为了实现AI/AS尊重人权、自由、人类尊严及文化多样性,在使用年限内是安全、可靠的,一旦造成损害必须能够找出根本原因(可追溯性)等目的,应当构建治理框架,包括标准化机构和监管机构,增进公众对AI/AS的信任;

原则之二:责任(Responsibility),责任原则涉及如何确保AI/AS是可以被问责的。为了解决过错问题,避免公众困惑,AI系统必须在程序层面具有可责性,证明其为什么以特定方式运作。

首先,立法机构/法院应当阐明AI系统开发和部署过程中的职责、过错、责任、可追责性等问题,以便于制造商和使用者可以知晓其权利和义务分别是什么;其次,AI设计者和开发者在必要时考虑使用群体的文化规范的多样性;再次,当AI及其影响游离于既有规范之外时,利益相关方应当一起制定新的规范;第四,自主系统的生产商/使用者应当创建记录系统,记录核心参数。

原则之三:透明性(Transparency),透明性原则意味着,自主系统的运作必须是透明的。AI/AS是透明的意味着,人们能够发现其如何以及为何做出特定决定。AI的不透明性,加上AI开发的去中心化模式,加重了责任确定和责任分配的难度。透明性对每个利益相关方都意味重大。

第一,对使用者,透明性可以增进信任,让其知道AI系统可以做什么及其这样做的原因;第二,对AI/AS批准和认证机构,透明性则确保AI系统可以接受审查;第三,如果发生事故,透明性有助于事故调查人员查明事故原因;第四,事故发生之后,参与审判的法官、陪审团、律师、专家证人需要借助透明性来提交证据,做出决定;第五,对于自动驾驶汽车等颠覆性技术,一定程度的透明性有助于增强公众对技术的信心。

原则之四:教育和意识(EducationandAwareness),教育和意识原则涉及,如何扩大AI/AS技术的好处,最小化其被滥用的风险。在AI/AS越来越普及的时代,需要推进伦理教育和安全意识教育,让人们警惕AI/AS被滥用的潜在风险。这些风险可能包括黑客攻击、赌博、操纵、剥削等。

2018年7月,中国发展研究基金会在其发布的一份《未来基石—人工智能的社会角色与伦理》的报告中也指出,尽管有少数哲学和社科领域的学者开始关注人工智能带来的伦理问题和社会挑战,但是这些讨论并未进入公共政策视界,而且讨论的重点也多集中在超级人工智能这样仍相对遥远的议题上。该报告认为,在人工智能问题上,围绕可能出现的挑战,无知、忽视、偏狭、误解交织在一起,可能会导致真正的风险。该报告建议:在社会层面,高校和研究机构开展前瞻性的科技伦理研究,为相关规范和制度的建立提供理论支撑;各国政府、产业界、研究人员、民间组织和其他利益攸关方展开广泛对话和持续合作,通过一套切实可行的指导原则,鼓励发展以人为本的人工智能;人工智能企业应该将伦理考量纳入企业社会责任框架中。

事实上,人工智能和自主系统(AI/AS)带来了许多复杂的伦理问题,这些伦理问题往往直接转化为具体的法律挑战,或是引发复杂的连带法律问题。每个伦理问题一般都涉及相关法律问题。笔者认为,当前的人工智能本质上是一种建立在大数据基础上的自我学习、判断和决策的算法,算法的核心是基于网络的编程技术,但这种编程技术绝非中立,人工智能的算法决策具有典型的“黑箱”特点,这应当引起现代法律人的高度警惕和深入地研究,应当从伦理学和法律融合的角度深入审视和研究AI的算法。笔者呼吁,AI的算法必须确立法律的可追溯性原则,AI的行为决策全程应当处于法律监管之下。

四、构建公开透明的AI全过程监管

我国应当建立健全公开透明的人工智能监管体系,重点应当在AI的设计问责和应用监督并重的双层监管结构上做充分的准备,实现对人工智能算法设计、产品开发和成果应用等的全过程监管。促进人工智能行业和企业自律,切实加强AI协同一体化的管理体系,加大对AI领域数据滥用、算法陷阱、侵犯个人隐私、违背道德伦理等行为的惩戒力度。

在人工智能技术研发的同时,要加强人工智能相关法律、伦理和社会问题的同步研究,尤其要关注AI模仿人类传播错误信息或将商业无人机转化为目标武器攻击人类,建立和优化保障人工智能健康发展的法律法规和伦理道德框架。法律研究领域要开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、机器伦理与破坏力评价等伦理与法律问题的交叉研究,建立Ai的可追溯和问责制度,明确AI的设计者、控制者、使用者等相关法律主体的权利、义务和责任。

关于IA监管的原则,我以为科幻作家艾萨夫·阿西莫夫于1942年在《我,机械人》小说中提出的“机器人学三律”仍具有参照价值,非常值得借鉴:

LawⅠ:AROBOTMAYNOTINJUREAHUMANBEINGOR,THROUGHINACTION,ALLOWAHUMANBEINGTOCOMETOHARM.

第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;

LawⅡ:AROBOTMUSTOBEYORDERSGIVENITBYHUMANBEINGSEXCEPTWHERESUCHORDERSWOULDCONFLICTWITHTHEFIRSTLAW.

第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;

LawⅢ:AROBOTMUSTPROTECTITSOWNEXISTENCEASLONGASSUCHPROTECTIONDOESNOTCONFLICTWITHTHEFIRSTORSECONDLAW.

第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存;

笔者建议:国家有关部门或行业组织应当制定人工智能产品研发设计人员的道德规范和行为守则,加强对人工智能潜在危害与收益的评估,构建人工智能复杂场景下突发事件的解决方案。同时,我国应当积极参与人工智能的全球治理,加强机器人异化和安全监管等人工智能重大国际共性问题研究,深化在人工智能法律法规、国际规则等方面的国际合作,构建我国AI领域的国际制度性话语权。

作者系:南京邮电大学教授、工业和信息化部信息通信经济专家委员会委员、中国法学会网络与信息法研究会常务理事、联合国世界丝路论坛网络空间国际合作委员会主席返回搜狐,查看更多

面对人工智能 法律人的新挑战

政府工作报告中连续三年提到人工智能,今年更是首次提出“智能+”的概念。人工智能正在逐渐进入人类的生活,重组人类的“神经系统”,成为很多行业变革的“利器”。2015年7月,最高人民法院提出建设“智慧法院”的蓝图,“法信──中国法律应用数字网络服务平台”投入使用。2016年7月,中共中央办公厅、国务院办公厅印发《国家信息化发展战略纲要》,提出“建设智慧法院,提高案件受理、审判、执行、监督等各环节信息化水平,推动执法司法信息公开,促进司法公平正义。”国家出台了一系列支持人工智能在法律领域中发展的政策,促进了人工智能在法律领域的高速发展。

一、人工智能与法律结合的现状及发展趋势

人工智能技术已在法律领域中有广泛的应用,国外有IBM个人智能律师ROSS、英国机器人律师DoNotPay,国内有“小梨”“法狗狗”等计算机系统。人工智能法律系统致力于预测案件判决结果、预估诉讼案件的证据采信率等技术的开发,旨在为客户提供全方位的法律服务。在司法系统中,最高人民法院明确表示,将在审判、执行、服务等方面借助于人工智能,实现案件审理的智能化。法律人工智能技术的发展,让法律人从繁琐的案头工作中解放出来,极大地提高了法律人的工作效率。随着人工智能技术的发展,未来的人工智能法律系统,开始研发自主学习的“超级法律人工智能”,使人工智能拥有“像人一样思考”的能力,甚至超越人类的理性。然而,无论是现有的人工智能技术,还是未来超级人工智能,都使法律人面临新的挑战。

二、法律人面临的新挑战

人工智能的快速发展对各行各业都产生了巨大的影响。在法律领域中,人工智能在处理一些法律问题时,具有人类无可比拟的优势。不仅可以短时间内完成大量重复性的工作,提高工作效率,还可以分析案件、预测审判结果、选择诉讼策略,提高解决问题的准确率。尤其当“超级人工智能”技术出现时,法律人视为资本的专业知识、审判技术、法律思维、情感关怀、习惯规范等可能被人工智能享有,人们独有的伦理体系有可能面临着被侵入、破坏、重建的危险。归纳起来,法律人工智能技术的发展将使法律人面对以下三个方面的挑战。

挑战一:法律人工智能自动化系统将替代法律人的工作。法律人工智能自动化系统,可以在充分利用各项数据的基础上,进行调查取证、尽职调查、合同分析、合规审查等,极大地提升工作效率、提高工作准确率。法律人收集整理材料的工作、案件的代理工作、案件的审判工作等,将由人工智能基于丰富的数据收集分析系统来完成。

挑战二:人工智能将影响现有的法律职业伦理。法律人的职业伦理作为法律人业务能力的组成部分,包括遵守正直、忠诚等职业道德要求,是整个法律职业共同体的纽带,是现有人类法律制度制定的逻辑起点。法律人工智能技术的发展,可能会对法律人长期实践、总结形成的法律职业伦理产生影响。

挑战三:人工智能技术的发展会改变整个法律行业的运行规则。人工智能基于技术革新,可以提供越来越多样化的法律服务,从事各种法律工作。无论是立法、司法还是执法过程,都可以由法律人工智能,根据人类的需求或基于数据分析的结果,提供标准化、自动化的“法律服务”。原本参与立法、司法、执行过程的法律人,有可能无法将其长期法律实践形成的经验具体化,而是由人工智能技术的研发者决定法律的运行。

三、法律人做好迎接未来的准备

法律行业的未来需要法律人这一职业共同体共同创造。人工智能技术在法律领域的应用及发展,将会实现法律服务、法律裁判等方面的自动化,对法律行业产生深远影响。法律人面对人工智能的挑战,应当做好以下三个方面的准备。

第一,限制人工智能技术在法律领域运用的范围,防止法律人的价值判断被替代。在发展法律人工智能技术时,应当坚持对法律的理念和信仰,避免人工智能削弱法律人的观念和价值判断。法律人的观念和价值判断,与人类社会发展的经济政治文化相关,不能被简单的数据所替代。因此,法律人工智能技术的发展应当是辅助法律人开展工作、促进司法正义,而不是代替法律人直接进行司法裁判、法律问题解答等。没有严格的限制,法律的理念和信仰、人类的公平正义都将受到严重的威胁。

第二,禁止法律人工智能涉及伦理问题,防止其破坏人类伦理秩序。资源共享、新的信息获取渠道,是人工智能带给我们的福利,但每个案件都是他人的生活,是有情感的生活,人工智能只能提供精准的决策,不能考虑案件背后的伦理亲情。法律涉及人类最传统的领域──情感,人工智能在此理应止步,不应让机器人涉及伦理问题。法律界应认真深入地研究如何为人工智能的理性发展确定法律框架,包括伦理和其他社会规范的制定和调整。

第三,培养复合型人才,迎接人工智能带来的挑战。《新一代人工智能发展规划》提出打造“人工智能+法学”复合专业培养新模式,为未来法律人才的培养指明了方向。未来法律人才培养模式应当注重对法学专业学生的科技和数字素养的培养,将法律教育与人工智能等前沿信息科学技术密切结合起来。目前,一些高校已经开始了相关的探索,开设了和人工智能相关的课程,或设立了人工智能研究院、法学院等,如人民大学创建了未来法治研究院。如法律开发者、法律数据分析师、法律数据库管理者等。人工智能技术将影响整个法律行业的人才培养、职业定位等。

(作者单位:天津商业大学法学院)

当人工智能遇到法律,法学将如何应对

当人工智能遇到法律,法学将如何应对?

访上海市法学会人工智能法治研究会副会长

上海政法学院人工智能法学院院长杨华教授

说起人工智能,让人不由得想起十多年前斯皮尔伯格的一部电影《AI》。影片中那些引人深思的关于人与人工智能关系的画面令人久久不能忘怀。

而如今人工智能在人们的生活中发挥的作用越来越大,愈加被人们所关注。

人工智能给人类社会带来的变革不仅仅停留在延伸人的体力和脑力上,而是进入了人和机器共同演化的时代。

人工智能,已经成为智能时代一个无法逃避的话题。人工智能究竟会如何改变我们的生活?它会不会像之前的电力革命、互联网革命那样彻底重塑我们的生活?

在这个人工智能技术日新月异的时代变革中,人类与机器人关系所引发的各种法律、政策和伦理问题紧迫地摆在我们的面前。如何调整“促进”与“规制”人工智能发展的法律价值目标?如何应对人工智能技术带来的社会风险?如何设计人工智能时代的调控规范体系?这些问题不仅涉及对传统法律制度的深刻反思,更是以“未来法学”问题为主旨的有益探索。

为此,本社记者对杨华院长进行了特别专访。

人工智能下的法律挑战与应对

记者:人工智能之下,法律人面临着哪些新挑战?

答:人工智能是时代无法逆转的潮流,人工智能的快速发展对各行各业都产生了巨大的影响。

此过程中,人工智能对法律人带来了诸多的挑战,从法学理论到司法实践都带来了诸多的影响。

在法律领域中,人工智能在处理一些法律问题时,具有人类无可比拟的优势。不仅可以短时间内完成大量重复性的工作,提高工作效率,还可以分析案件、预测审判结果、选择诉讼策略,提高解决问题的准确率。但是人工智能的出现,法律人视为资本的专业知识、审判技术、法律思维、情感关怀、习惯规范等也可能被人工智能享有,人们独有的伦理体系有可能面临着被侵入、破坏、重建的危险。

比如,法律人工智能自动化系统将替代法律人的工作。法律人收集整理材料的工作、案件的代理工作、案件的审判工作等,将由人工智能基于丰富的数据收集分析系统来完成。

比如,人工智能将影响现有的法律职业伦理。法律人工智能技术的发展,可能会对法律人长期实践、总结形成的法律职业伦理产生影响。

还比如,人工智能技术的发展会改变整个法律行业的运行规则。人工智能基于技术革新,可以提供越来越多样化的法律服务,从事各种法律工作。原本参与立法、司法、执行过程的法律人,有可能无法将其长期法律实践形成的经验具体化,而是由人工智能技术的研发者决定法律的运行。

记者:法律人应如何应对人工智能带来的挑战?

答:人工智能以大数据为基础,我国在法律方面对人工智能的研制较晚,但是在相关的案件检索系统、辅助量刑系统等方面都取得了一定的进步。相关法律系统的研制还处于初级阶段,所以要增强在法律信息系统方面人工智能的专业性。

人工智能系统的应用,使得初级法律工作者的失业风险大幅增加,这就意味着对于法律人才的培养应当进一步朝着高精尖的方向进行。对于法学教育而言,引进具有计算机专业知识的人才也是未来法律教育的一个方向,人工智能进入高校已经成为一个现实,在之后的人才培养中,既要培养扎实的基础知识,还有对于信息的检索能力、分析能力以及对于人工智能的应用能力。

人工智能法学的酝酿产生

记者:什么是人工智能法学?

答:人工智能是研究、开发用于模拟、延伸和扩展人类智能的理论、方法、技术及其应用系统的一门新的技术学科。其与法律的结合始于上个世纪五十年代,由此形成一门新兴综合交叉学科——“人工智能法学”。

人工智能法学以人工智能的法律规制及其法律应用为主要研究对象,其研究内容不是人工智能与法律两个领域知识的简单物理堆砌和叠加,而是广泛涉及法学、计算机科学、伦理学、教义学、行为学、哲学等多学科知识的新兴综合学科。

简言之,人工智能法学是以引导、促进、规范和保障人工智能健康发展的法律现象及其规律为主要内容的科学。

在人工智能尚未产业化的当下,对于人工智能法学的要求应集中于基础性法律体系的构建,也可以称之为“人工智能发展与产业促进”而服务的法学学科发展阶段。

记者:我国人工智能法学产生的背景是什么?

答:人工智能法学产生首先源于国家的重视。

习近平总书记在2018年中央政治局就“人工智能”专题进行集体学习时强调,“人工智能是新一轮科技革命和产业变革的重要驱动力量,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题”,并就高校加强人工智能专业人才培养、调整学科设置、课程设置作出重要指示。

2017年,国务院为落实党中央的早期部署,抢抓人工智能发展的重大战略机遇,构筑我国人工智能发展的先发优势,制定了《关于印发新一代人工智能发展规划的通知》。

2018年4月,教育部制定了《高等学校人工智能创新行动计划》,提出“人工智能+X”的学科、专业建设。2018年9月,教育部、中央政法委印发《关于坚持德法兼修实施卓越法治人才教育培养计划2.0的意见》(教高〔2018〕6号)指出:“拓渠道,发展‘互联网+法学教育’。”

2019年,科技部关于印发《

的通知》。国家新一代人工智能创新发展试验区建设工作指引>

2020年1月21日,教育部、国家发展改革委、财政部三部委联合印发《关于“双一流”建设高校促进学科融合加快人工智能领域研究生培养的若干意见》。这表明,党中央、国务院及国家部委的对人工智能的学科、产业、人才培养高度重视,为“人工智能法学”专业建设和发展提供了依据和基础。

人工智能法学产生的第二个原因是行业发展所需。

自1956年达特茅斯会议首次提出“人工智能”概念以来,经过60多年的发展,人工智能已被广泛应用于政治、经济、外交、教育、卫生、汽车等行业。人工智能在生殖健康、医疗卫生、自动驾驶、人脸识别等不同领域的运用,带了很多伦理道德、法律规范的人工智能的快速发展,必然带来制度、规则、标准、程序的需求,自然而然地与法律紧密结合起来。

早在1970年,布鲁斯·布坎南(BruceBuchanan)与托马斯·希德里合作发表了《关于人工智能和法律推理若干问题的考察》,该文的发表标志着人工智能与法律开始成为人工智能的研究分支。1984年,斯坦福大学法学开始组织人工智能与法律研讨课,如“计算机与法律”“法科技术与信息科学”“法律信息科学”等。

我国早年也开始了人工智能与法律相关问题的研究。1981年,钱学森先生对人工智能与法律相的结合提出了总体性构想。李克强总理曾在1983年与老一代法学家龚祥瑞合作发表论文《法律工作的计算机化》。1989年老一代法学家苏惠渔等著《电脑与量刑——量刑公正合理应用论》一书出版。

人工智能技术不断更新迭代,并向越来越多的领域渗透。不仅是在我们熟知的AlphaGo战胜世界围棋高手李世石,人工智能的迅速发展将深刻改变人类社会和世界的面貌。同时,人工智能将挑战人类的道德伦理底线,甚至带来无法估量的风险。在此情况下,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德体系十分必要。

面对人工智能的挑战,亟须培养复合型法律人才。未来法律人才培养模式应当注重对法学专业学生的科技和数字素养的培养,将法律教育与人工智能等前沿信息科学技术密切结合起来。目前,一些高校已经开始了相关的探索,开设了和人工智能相关的课程,或设立了人工智能研究院、法学院等。人工智能技术将影响整个法律行业的人才培养、职业定位等。

上海政法学院人工智能法学院应运而生

记者:上海政法学院为什么要成立人工智能法学院?

答:上海市委书记李强同志在2018年世界人工智能大会开幕式上指出,上海将依托科教资源、应用场景、海量数据、基础设施等优势,以面向全球、面向未来的视野,聚焦创新策源、应用示范、制度供给和人才集聚,加快建设人工智能发展的“上海高地”。这“四个高地”中,有两个与人工智能法学相关,即“制度供给”和“人才培养”。

为落实这两个高地建设任务,上海政法学院在上海市法学会、科大讯飞等单位的支持下,全校上下齐心协力、攻克障碍,于2019年5月在上海率先成立了人工智能法学院,并录取了全国首批40名人工智能法学本科生,他们通过高考(要求理科生)志愿填报进入到上海政法学院人工智能法学院学习。

记者:上海政法学院人工智能法学院优势和培养目标是什么?

答:上海政法学院是以培养“具有鲜明政法特色的应用型、复合型人才”为目标的大学,学校党委、行政十分重视适应市场经济发展规律、突显跨学科复合交叉能力的人才培养模式。尤其是依托按照习近平总书记指示建设的“中国-上海合作组织国际司法交流合作培训基地”这一重大工程,学校非常重视国家安全领域的研究,对人工智能国家安全、人工智能法律规范、人工智能伦理道德等方面给予了大力支持。学校在原计算机教学部、上海司法研究所师资力量的基础上,大力整合全校资源,争取校外资源,使得人工智能法学院得以顺利建成。

目前,上海政法学院人工智能法学院拥有法学、知识产权、计算机科学技术、软件工程、物理、情报、动画与新媒体等方面的师资力量,初步形成了跨学科研究和人才培养的模式。

上海政法学院人工智能法学院旨在培养适应我国社会主义法治和国家人工智能发展战略需要的,基本掌握人工智能和法学基本理论和基础知识,具有法治精神、创新思维、全球视野和实践能力的,能在国家司法机关、行政部门、企事业单位、科研机构等部门从事与人工智能相关的法律应用、法律法规、伦理规范和政策体系研究与实践的高素质复合型、应用型法律人才。

记者:近两年,上海政法学院人工智能法学院有哪些活动?

答:为了推动人工智能法治研究,上海政法学院人工智能法学院与上海市法学会、浙江清华长三角研究院联合组织专门团队连续编写了《世界人工智能法治蓝皮书》,聚焦世界人工智能法治发展的战略、政策、法律、重大研究与项目应用情况,为相关行业和专业人士提供具有代表性和权威性的年度研究报告,展示世界人工智能法治的理论研究与应用情况。

同时,在上海市法学会、上海市经信委等单位的支持下,自2019年8月30日举办首届“世界人工智能法治青年论坛”以来,将每年举办这一国际性论坛,为世界各国的青年人搭建一个展示自己、提升自己、担负人工智能青年责任的国际化平台。

疫情治理要法律,也要人工智能

记者:如何看待人工智能和法律在疫情治理中的作用?

答:对比2003年的非典疫情,人工智能技术是这次疫情中“战疫、防疫”的生力军。

人工智能技术与大数据、云计算、互联网、物联网、5G联合一起,在智能消毒、智能筛查、同行人预警分析、阻断隔离、答疑解惑、远程会诊等方面得到广泛应用,可以看到机器人、无人机、红外设备等高科技产品在机场、车站、医院等人口密集区域发挥重要作用。

它们作为不间歇的“专业工作者”,帮助防疫、战疫一线人员远离传染源,有效减少人员交叉感染风险,提升了战胜疫情的质量和效率。

但是,人工智能技术的运用,也出现了一些问题。例如,医疗部门、病毒研究机构、科研人员在数据合理利用问题上,出现了抢先发论文的现象;有人因有关部门公布自己的居住信息、交通信息、入住的酒店信息,表示强烈不满,甚至引发冲突。还有某些信息收集机构将收集的人员信息进行非法转让,等等,均暴露出人工智能法律规范、伦理规范、政策规范的缺失。

国家对人工智能相关行业发展及其规范应用十分重视。2018年10月中共中央政治局就“人工智能”专题进行集体学习,习近平总书记指出,为规范人工智能健康发展,要建立人工智能法律法规、伦理规范和政策体系。

这次新冠肺炎疫情,让我们看到了加快人工智能发展的必要性,也看到了人工智能技术运用在数据合理利用、人民群众个人信息保护、隐私保护等方面存在的欠缺。因此,我们一方面要加快人工智能战略推进,另一方面也要加强人工智能相关法律法规建设。

人工智能司法应用的价值与使命

记者:为什么要在司法审判中引入人工智能?其价值或使命是什么?

答:2018年10月31日,中共中央政治局就人工智能专题进行集体学习时强调:“要加强人工智能同社会治理的结合。”当前,人工智能在法律领域的应用逐渐得以拓展。

上海市高级人民法院与科大讯飞合作研发的“刑事案件智能辅助办案系统”(206系统)集中体现了人工智能在司法审判中的应用。这个人工智能辅助办案系统,体现了科技与司法的较好融合。

但是,为什么要在司法审判中引入人工智能?其价值或使命是什么?需要我们进一步思考和总结。

人工智能使得审判效率大大提高。

随着社会矛盾的加剧,“案多人少”是各级司法部门普遍存在的问题。

最高人民法院统计表明,当前法官每年人均办案数量是2008年的3倍,长三角地区很多基层法院的法官每年办理案件多达400件以上。5+2、白加黑甚至7+24的繁重审判工作成为常态,使得法官饱受身体与精神的双重压力,亟须通过技术手段提高审判效率,减轻司法人员的负担。随着人工智能技术的不断发展与应用,互联网法院、无纸化办案、人工智能辅助审判等提高审判效率的做法不断涌现。上海市第二中级人民法院在广泛应用人工智能辅助审判系统之后,司法效率大大提升。例如,该院在两年前,书记员有120余人,而如今在案件数量不断攀升的情况下,书记员只有30人左右。大部分书记员的工作被人工智能所替代。因为人工智能技术的司法应用,大大提高了审判效率,解放了大量的司法辅助人员。很多书记员可以经过专业培训转岗为法官助理或其他岗位,办理其他更为重要的审判事务。

人工智能司法应用让“公正能够以看得见的方式实现”。

人工智能辅助审判系统最大的特点就是通过技术手段将证据标准化、程序化、模块化之后,人工智能技术可以将所有的证据完整地呈现在控辩双方及法官面前,证据的质证、辩论全程可视,证据之间的瑕疵也会被立即发现并提示给所有的人。而且,所有的证据均是从一开始就被固定下来,不可被篡改。当然,现在的人工智能辅助审判系统,还处于初步阶段,将来如果再加上区块链技术,证据的可靠性更强,任何人都无法对其做手脚。可以真正实现“阳光下的审判”“可视化的公正”。正是因为“公正能够看得见”,也会有效避免冤错案的产生,实现法律最本色的公正价值。

人工智能的司法应用使法律真正成为科学。

社会科学主观假设较多、思辨色彩较浓,自然科学客观公理较多、实证要求严格。

正是因为社会科学与自然科学差异,法律的科学性特别引人关注。

而人工智能的司法应用,让证据数据化,并按照算法设定的证据标准、证据规则、证据分析,综合成千上万个同类案件的智能学习、归纳、总结,经过严格程序,一步一步推导出判决结果。因此,判决结果就像按照“数学公式”一样被推导出来,经过设定的采集点、关键词和证据分析,判决书就会自动生成。经过法官的审核就可以被确定为审判结果。这样一来,法律被公式化、科学化,因而成为真正的科学!这样的法律将会大大减少甚至杜绝同类案件不同判决结果的问题。

随着阿尔法狗在围棋上战胜人类,人工智能的名字火遍了世界。人工智能客服、新闻稿写手、翻译员、保险理赔员、资产管理助手、智能家居……这些人工智能正悄悄地改变着人类的工作、生活甚至思维方式。

人工智能成了一个时代无法逃避的话题,人工智能成了一个关乎人类未来的话题。

在法律领域,也不乏“人工智能来了,法律人你怕吗?”这样热议的话题。

越来越多的法律人开始投入人工智能与法律的研究,人工智能革命引发的法律问题才刚刚开始,人工智能法学这一法学门类也刚刚初步形成。法律人需要秉持理性主义精神,不断探索和创建一个更适合人工智能时代的法律制度体系。

我们相信法律制度的理性之光与科学技术的智慧之光将交相辉映、大放异彩。

采访手记

人工智能法学是我一直比较感兴趣的题目,一直想找一个合适机会深入了解一下。恰好,了解到上海政法学院成立了人工智能法学院,以前在工作中认识的杨华老师担任了该院院长。

第一次认识杨华老师,还在是中国法学会地方法学会工作经验交流会上。我当时是会议的工作人员,杨华老师是作为上海市法学会海洋法治研究会会长来参会的,杨华老师很热情,而且对人也很随和谦虚。

后来我因为负责地方法学会研究会相关工作,被邀请参加河南省法学会研究会工作经验交流会。杨华老师因为上海市法学会海洋法治研究会工作开展比较好,被河南省法学会特邀出席并介绍工作经验。

在这次会上,对杨华老师有了相对深入的了解。杨华老师当时的发言很有震撼力,大家对海洋法治研究会研究力量以及所取得的成就颇为赞叹。

没想到,这两年杨华老师又开始研究人工智能法学,为引导、规范、激励与保障人工智能的健康发展贡献力量。

杨华老师总是朝着前沿的、有挑战的方向不断地大踏步前行。

我们相信在这样一批法律追梦人的带领下,我国的人工智能法学发展得会越来越好。

原标题:《当人工智能遇到法律,法学将如何应对?》

阅读原文

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇