法律人工智能的十大前沿问题
原标题:法律人工智能的十大前沿问题法律人工智能是指人工智能技术在法律中的应用,其目标是充分提升法治效能。我国的智慧法院、智慧检务建设等国家重大工程,就是法律人工智能的落地应用。目前,法律人工智能的系统工程标杆是“上海刑事案件智能辅助办案系统”,其将公检法三机关的刑事业务在一个云平台内打通,部分实现了自动法律推理,大幅提升了工作实效和程序公正性。法律人工智能研发中的问题主要有理论建模和具体应用两大类,可以总结为十大前沿问题。
法律推理的形式模型。法律推理的形式建模是实现自动法律推理最基础的问题。自动推理与智能密切相关。智能即会思维。什么叫“会思维”?英国数学家图灵认为,如果机器能在互不接触的相当长时间内与人类对话,而被对方误判为人类的概率达到一定程度,那就有理由说这台机器“会思维”。这就是“图灵测试”。这表明,人工智能的关键在于能否实现自动推理。作为人工智能子领域,法律人工智能的关键就在于法律自动推理的实现。为此,需要给出面向自动法律推理的形式模型。有三种可能的法律推理建模方案:一是规则推理方案,即利用演绎推理将法律规范编码成法律解释库和案件事实库,以实现自动法律演绎推理;二是案例推理方案,即利用类比推理将案例编码成法律解释库和案件事实库,以实现自动法律类比推理;三是数据推理方案,即利用归纳推理将有价值的法律信息编码成法律解释库和案件事实库,以实现自动法律大数据推理。在成文法国家,第一种方案是最主要的。
法律决策的计算模型。能行可计算是人工智能得以实现的必要条件。“能行”强调要有实效,“可计算”强调能够通过编辑方式来实现。法律决策能行可计算是法律人工智能的前提条件。法律决策可分为立法、执法、司法和守法决策,其理性根基即立法论证、执法论证、司法论证和守法论证。然而,传统法律论证主要由人工完成,优度完全取决于法律论证者的知识结构和论证能力,而作为自然人的论证者总有知识结构、价值取向等局限,得出的结论难免存在主观偏差。在法律决策中,尤其是在法律论证者经验不足的阶段,常常会犯常识或逻辑错误,而设计相关法律决策辅助系统,保障法律问题部分可计算,可以减少这类错误发生。概言之,为了逼近客观性,充分利用人工智能技术是一种切实可行的方案。
证据推理的计算模型。证据推理的计算模型是实现自动法律证据推理的前提条件。在审判过程中,法律从业者通过证据累积来确认或否认有关法律假设。服务司法证明过程的法律人工智能应用必须具备为用户提供在案件中进行证据表达和推理的复杂能力,因此,研发者必须使用复杂的技术来表示、探索、推断和分析诉讼过程中出现的假设和证据的可替代性解释。这需要计算技术来表示诉讼参与者、实体、事件和世界情形语境,将解释证据的替代假设进行结构化处理,通过评估证据的相关性和权重来确证或否定假设,做出假设真实的推论,而将贝叶斯推理网络与人工智能中的知识表示组合起来,就可以对事实论证进行结构化分析。
法律推理多主体建模。法律审判是建立在诉讼基础之上的,而诉讼是一种三方法律论证博弈。利用人工智能中的多主体系统思想,就能实现诉讼论证博弈的逻辑建模。在计算机科学中,多主体系统又称多智能体系统,是指由多个相互作用的智能体组成的计算机系统。典型的多智能体系统研究指向软件智能体,其主体可以是机器人、人或人机组合团队,智能则可以包括条理方法、功能方法、程序方法、算法搜索或强化学习。多智能体系统可以解决单个智能体或单个系统难以解决甚至不可解决的问题。法律诉讼恰恰是一种多主体互动的论证活动。诉讼中,起诉、应诉和裁判三方需要就法律论证中的法律规范及其解释、法律证据及其支持的事实主张以及法律论证的强度进行互动,做出相应法律决策。多主体系统为智能诉讼系统(如智慧法院等)提供了可能的建模方案。
可执行立法检验建模。党的十八大提出了“科学立法”。从逻辑学角度讲,科学立法就是将法律体系视为一个准逻辑体系,要求法律体系原则上具有一致性、完备性、有效性和可靠性。其中,最为核心的是一致性,因为完备性、可靠性和有效性均可通过法官的自由裁量权弥补,而一致性却很难。法律体系的一致性,要求法律体系原则上无矛盾,不应出现法律冲突。不一致会导致法律体系紊乱和法律从业者无所适从,并削弱司法公信力。同一法律内部的冲突,立法者一般可自行解决,但不同部门法以及上下位法的冲突往往超出立法者能力范围。而自动实现法律法规体系一致性检测的法律人工智能,将大大提升我们的科学立法水平。
文本自动分类与总结。该问题包括两个方面:一是法律文本的自动分类。当前,大多数法律文件以电子形式提交,但对这些电子文件的分类多停留在传统的人工阶段,而利用机器学习技术中的文本自动分类技术,可实现法律文本的自动分类。智慧司法的一大目标就是要借此提高文件的归档效率和后期利用率。二是文本中法律论证的自动总结。法律决策建立在法律论证之上,而法律论证埋藏在法律文本之中。借助机器学习中的文本自动总结技术,可以大大提高法律论证挖掘的效率。更重要的是,使用传统的人工方法挖掘法律论证,其质量主要取决于论证挖掘者的能力和水平,优度参差不齐,而研发法律文本的自动总结应用程序,可以普遍提升论证挖掘优度,并确保论证挖掘质量的稳定性和评估的客观性。
法律信息的自动提取。法律信息提取过程中产生的信息是后续立法和构建新的法律论证的基础,也是处理电子证据的有效手段和帮助用户评估相关信息的能行工具的重要组成部分。但由于数据量过于庞大,对法律信息手工分析显然不可行。自动信息提取的任务就是从非结构化或半结构化的机器可读文档中自动提取并生成结构化信息。在大多数情况下,信息提取涉及通过自然语言处理分析人类语言文本。目前,人工智能技术已支持多媒体文档信息的处理,如图像、音频和视频文档的自动注释和内容提取。法律信息自动提取涉及一般自然语言的文本处理和具体法律领域语言处理,因此,相关模型需要同时兼顾这两个方面。
电子取证的机器学习。电子取证是指在法律诉讼或法律调查中为回应举证要求而进行的电子存储信息的辨识、收集和举证。这些电子存储信息包括文档、电子邮件、音频、视频、数据库、社交媒体等。电子数据不仅数量巨大,取证过程和技术往往也很复杂。电子文档富有动态性,常常包含如时间―日期戳、作者和收信人等元数据。为避免证据后期被篡改或毁损,需保存电子存储信息的原始内容和元数据,并置于法律监管之下。数据分析就是要筛选和隔离明显不相关的电子信息,将数据托管于安全环境中,使得编写文档代码的审阅人员可以访问这些数据,了解它们与法律事项的关系。使用计算机辅助评估、预测编码和其他用于电子取证的分析软件,可以大幅降低法律从业者审查证据的时间等人力成本。
法律信息的检索系统。法律信息检索是一门应用于包括法律法规、判例和学术论著在内的法律文本的信息检索科学,是法律信息学的一个领域。通过电子手段可获得的法律文件数量庞大且呈爆炸式增长,故法律信息精准检索日渐重要。一般来讲,为了达到信息检索的目标,有三种可运用的检索技术――布尔检索、法律文本手工分类和法律文本自然语言处理。对于整体的法律文档而言,目前通常使用的方法是布尔检索法,也就是与特定术语进行精确匹配。一般来说,研究人员相信他们通过这种方法已经检索了大多数的相关文件,事实上这种方法的平均查全率只有20%,所遗漏信息可能相当重要。法律信息检索试图通过增加相关文档的数量(高查全率)和减少不相关文档的数量(高准确率)提高法律搜索的效率。但这是一项艰巨的任务,因为在法律领域行话和多义词非常普遍,而且有些词义还经常变化。
法律机器人的研发。法律机器人是一类面向客户的法律人工智能应用程序,用于自动执行具体法律任务,如文档自动化和计算机辅助法律检索。从智能搜索机器人、表单程式机器人到法律咨询机器人,法律机器人的用户界面多种多样。根据任务的不同,面向律师事务所客户的法律机器人解决方案往往需要在律师监督下运行,而面向消费者和企业客户的法律机器人解决方案则通常不需要法律专业人士的直接监督。法律机器人不是用来取代诸如法官、律师等法律从业者的,它是人类智能之延伸,是法律人的得力助手,而并不会替代法律人。
(作者:熊明辉,系中山大学哲学系教授,国家“2011计划”司法文明协同创新中心教授)
浅析人工智能相关法律问题
文/徐发强
江苏省南京市玄武区人民检察院
文/陶沁言
扬州大学商学院
互联网及科学技术迅速发展,人工智能呈现出蓬勃发展的态势,并上升到国家战略高度。其应用领域不断扩大,应用形式不断丰富,影响力不断增强。人工智能对生产力和产业结构产生革命性突破,并且作为当代人类社会必不可少的一部分,发挥其高效便利的服务效用。人机互补互动、协同一体化趋势加强的同时,“人类中心化”受到质疑与挑战;相关民事及刑事等法律问题频发,人工智能的非法应用及技术算法漏洞对伦理道德、隐私权益、财产安全、系统安全等方面造成巨大威胁。而对人工智能违法的法律责任划分及其法律地位定性也存在巨大争议,在人工智能是否有意识等层面产生一定法律偏差。当下,亟待把控大数据与个人信息安全平衡,建立健全人工智能相关法律体系,推动技术研究及科学发展,加强监督监管机制。完善人工智能研发、供应、使用、管理及事发机制,让人工智能在法治的轨道上合理运用,造福人类,在安全的前提下,促进强国建设。
一、人工智能技术带来的相关法律问题
(1)隐私泄露导致的侵权诈骗行为
产业模式的进一步创新,虚拟现实等新技术涌现,自然人格要素虚拟化呈现需要原型……各类新发展的驱动下,逐渐增大了用户隐私被窥探利用的风险,个人信息被过度读取分析,造成隐私保护和数据读取失衡。恶意读取人像、声音进行非法AI合成,造成隐私权、肖像权受损。更有不法分子通过仿真模拟,利用合成的虚假信息等进行诈骗,通过互联网及大数据追踪用户,并造成一系列财产损失。
(2)人工智能陷入“伦理困境”
人工智能由算法支撑,利用大数据和植入信息进行判断,它不具有人的判断及随机应变能力,可以说它是不具有人的意识,并且是具有局限的虚拟化。在特定的陌生的情况下,易发生系统混乱和故障,从而导致灾祸的发生,这时谁来承担法律责任?“虚拟”与“现实”交错、“现实性”与“可能性”交织,人工智能显示出复杂化的倾向,并增强了人工智能运用的风险性和不确定性,一定程度上增加了人身安全威胁。伦理和法律产生碰撞,伦理责任与道德规范正在被消解,社会伦理秩序濒临挑战。
(3)更大范围上的安全系统威胁
利用非法手段,逃避安全系统防控。实施干扰或破坏技术,进行非法入侵、数据投毒、数据争夺……造成一系列数据泄露和安全隐患。轻则引发社会矛盾,扰乱社会秩序;重则泄露国家秘密,损害国家利益。人工智能是一把双刃剑,其潜在危险不可忽视。
二、人工智能面临法律责任划分的难题
(1)人工智能法律地位定性
人工智能的主体性一直备受争议。人工智能通过算法设定特定的性能,使机器“拥有人的智慧”,而其本质上是人类的工具,依附于人类而生,更多的是一种仿真模拟,无法通过自身感知人类社会文化的多样性。人工智能并不具有独立意识,无自主性,没有成为法律主体的能力,无法自然建立权利和义务的关系。人格权,是指民事主体专属享有,以人格利益为客体,为维护民事主体的独立人格所必备的固有民事权利。同时,具有人格权的前提是必须为独立的民事主体,即成为法律主体,需要拥有法律人格,履行相关民事责任,享受民事权利。人工智能作为无意识的附属品,无法平等参与民事活动。故笔者认为,人工智能若具有人格权,则是与社会伦理背道而驰,故其不能够成为法律主体。
(2)人工智能归责不明引发法律纠纷
人工智能的民事主体身份的确认是明确其法律责任、法律行为和归责问题的基础。当人工智能无法作为法律主体承担责任时,那由其产生的事故该由谁来承担?拥有植入意识的人工智能客体又能否完全摆脱其法律责任?
法律责任该如何划分:是归咎于技术研发部门的不成熟性,还是将其定性为意外?是由所有者承担还是由开发者承担?算法制定者与技术研究者承担起创造的职责,其主观思维、判断能力、社会心理以及仁义观念都会对人工智能产品产生巨大影响。由弱人工智能产品引起的意外,在未有过大损失及人身安全受损的前提下,且在提供保险的可赔控的范围内,更多体现为消费者和经营者的纠纷,这时的矛盾一定程度转化为消费者对权益的要求和控诉。而一些强人工智能产品,可在限定范围内,进行独立思考并制定解决问题的最优方案,具有一定价值观和世界观体系,具有与人类相近的知觉能力。它们应用形式更加复杂,应用到现实中必然面临人类社会特定选择,面临伦理道德的考验。这时基于数据库作出的“错误”选择该如何划分?未制定详细且完善的风险分控机制,也未能在人工智能产品、投放者和消费者之间建构起稳定桥梁等,一定程度导致人工智能归责界限不清。而赔偿等法律责任的履行又将怎样贯彻实施,归责方式又该如何合理制定,是当下急于解决的问题。
三、人工智能相关问题亟需法律优化
(1)完善立法,综合考虑法理及社会利益
对于人工智能法律地位提出了“电子人格说”,框括了由人工智能“自主化”作出决策部署的能力。其人格具有有限性,而也需对人工智能各发展领域进行标准评估判定。对通过不同程度“图灵测试”的强人工智能,或许也应当明确其在法律上的地位。
(2)建立健全法治体系,建立透明算法问责制度
增强对违法行为的管控力度,划分法律责任界线,建立人工智能问责机制,对相应程度的事故认定进行严格约束。而对人工智能本身,其算法的不透明性、决策结果的不可估量性、源头研制的单一性需进行法律管控,设定相关标准与规则。
(3)人工智能干预司法行政实践
人工智能应用于司法服务中,能够有效减少法官因为主观意愿而产生的冤假错案,有效提高司法裁决效率,构建清朗的司法环境。而将大数据、信息化、人工智能、智慧法院几者融合发展,则能更好地提升司法服务水平。当然,需界定人工智能司法行政地位,制定法律参考标准,设定司法审判边界,将其运用的合理性以法律的形式明确下来。
四、人工智能实质性发展所需
(1)采取监督监管新形势
强调监管的科学性和灵活性,利用多方协调治理促进人工智能领域的合法发展。采取分散式和渐进式措施有效预防控制,预测评估风险等级,从源头加以把关,从而避免人工智能利用算法“控制人类”恶果的发生,减少伦理道德颠覆的威胁,降低人工智能发生意外被问责的损失。同时,在信息网络发达的当下,构建风险监管、智慧监管、精准监管“三位一体”的信用监管新模式。提高监管效力,降低监管成本,实现监管防控最优化,形成人工智能一系列因地制宜的监测防控链。保证算法设计、产品研发和成果运用的透明化,赋予用户更清晰的认知选择,提升跨行业、跨市场交叉风险的甄别、防范和化解能力。
(2)提升人工智能伦理风险防范能力
总体上坚持以人为本,遵循人类基本价值观,稳定提升人工智能应用的包容性和安全性,深入推动人工智能应对危机及变故反应优化。促进人类与人工智能和谐共处发展,统筹规划人机平衡,积极引导人工智能健康发展。研发部门坚持将人类社会实践文化成果进行合理转化,遵循人工智能研发规范规定,多方面考虑用户及应用的差异化诉求,并且不进行违背伦理的人工智能研发,提升数据及算法的科学性和可行性,保证透明化和可控性。监管部门加强伦理审查,管控算法歧视,保障人类拥有操控权和充分自主决策权,化解人工智能对人类文明的威胁及冲击。
(3)加强政策引导
政策是否适当直接决定了人工智能的发展方向是否清晰。制定与时代科技发展相适应的政策,精准完善政策引导,明了政策限制,在法律的框架内,真正发挥政策的导向作用。审时度势,保障各方利益,尊重用户信息知情权,严厉打压侵犯隐私权的行为,保障个人隐私和数据安全,稳定社会秩序。将生产研发的标准界限以明确的法律政策落实下来。提高政策约束力,使各方在一定的规范下合理安排利用,使人工智能在法律的轨道上造福人类,可持续性发展。
(本组责编梁爽)
人工智能行业法律现状和发展
原标题:人工智能行业法律现状和发展|章鱼通一、人工智能(简称“AI”)定义能模仿人类思维、行为的智慧机器,AI是人的逻辑能力(分类总结推理判断)、决策能力和机器存储、运算能力,以及大数据的有序结合,三者缺一不可。
AI的运行依赖大数据,没有数据,AI不是无从施展身手,而是根本无法存在,可以说AI就是人机优势互补,对数据收集、存储、分发、加工、使用、处理的全程。
其应用于语音识别、语言处理、无人驾驶、机器视觉、机器学习等自身开辟的新领域,和智慧政务、智慧城市、智慧医疗、智慧物流、智慧工厂等改造后的传统领域。
二、AI现行法律
现在尚无成体系的AI法律体系,2017年7月20日公布的《新一代人工智能发展规划》国发〔2017〕35号是中国AI发展的纲领性文件,其战略目标分三步走,提到“到2025年初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。”
2019年3月4日,十三届全国人大二次会议发言人表示“全国人大常委会已将一些与人工智能密切相关的立法项目,如《数据安全法》、《个人信息保护法》和修改《科学技术进步法》等,列入本届五年的立法规划。同时把人工智能方面立法列入抓紧研究项目,围绕相关法律问题进行深入的调查论证,努力使人工智能创新发展,努力为人工智能的创新发展提供有力的法治保障。”
AI立法从数据开始,是有内在逻辑的。现《数据安全法》、《个人信息保护法》已经公布法律草案。
三、AI立法思路
立法目的:为AI的广泛应用奠定法律基础。
立法目标:保证AI安全、可控。
立法顺序:数据安全是AI行业健康发展的基本要求和最低要求,参考分散于网信办等各部门的数据法律、规范性文件、政策文件,制定《数据安全法》、《个人信息保护法》,确保数据从收集到处理全链条安全。
通过法律实践倒逼法律成型,研究分析自动驾驶、服务机器人等已实际应用场景下的AI法律问题,制定《人工智能法》,规定AI的法律主体、权利义务、刑民责任承担。
最后评估该法能否解决其他行业应用场景下的AI法律问题,适时修改,如果难以兼容,可能会就不同行业单列章节。
四、对人工智能的法律主体、权利义务、刑民责任承担的预测
1、不同于自然人、法人,AI不能成为享有权利,承担义务的法律主体,其性质上属于财产,将作为知识产权登记在自然人、法人名下。AI名下无法登记财产,也无法承担债务。
2、权利人对AI行使登记(申请确认知识产权)、使用(自用)、收益(对外许可使用,收取知识产权使用费)、处分(转让、抵押、作为公司设立出资)等权利。
3、AI的收益由权利人享有,引发的不利后果由权利人承担,类似饲养的羊驼参加商业活动,报酬归主人所有,羊驼吐口水、咬人导致的赔礼道歉、赔偿损失等法律责任由主人承担。责任承担是AI行业的核心问题,利益冲突很激烈。举例,当自动驾驶导致交通事故,造成财产损失和人员伤亡,那么责任由谁承担、如何分配,汽车企业、AI权利人还是消费者,或者地图导航企业、5G运营商?这个责任是刑事责任还是民事责任,刑事责任的话,AI公司(如百度)的法人要刑拘吗?,公平责任还是赔偿责任,赔偿责任的话,过错责任还是无过错责任,连带责任还是按份责任;除归责原则外,还涉及举证责任的分配,这些都需要立法机关权衡AI行业发展和公众权益后,作出具体规定。
五、安全可控的实现和影响
1、AI企业需自查自纠,反复试验验证,确保AI产品、服务安全可控;AI如应用于重要场合,需事先经过第三方机构的安全可控评估,第三方机构可能由工信部设立。
2、在技术上,一家公司的AI服务足以覆盖全国,但算法出错、AI失灵的风险也将随之扩散至全国,为实现安全可控,政府天然支持AI行业反垄断,重要细分领域的第一可以生存,第二、第三也能。
章鱼通(www.zhangyutong.net)人工智能产业对接平台。返回搜狐,查看更多
责任编辑:全国首部人工智能立法!中国方案形成中
2022/9/809:22全国首部人工智能立法!中国方案形成中IT时报 沈毅斌9月6日,我国首部人工智能产业专项立法《深圳经济特区人工智能产业促进条例》正式公布,于2022年11月1日起实施,破解人工智能落地难题的同时,《条例》还要求政府设立专门的人工智能伦理委员会,推进人工智能伦理安全规范的制订和实施。
人工智能发展绝不能以伤害人类为代价,这是一大定律,但如何通过立法来保护人类?在2022世界人工智能大会上,上海市法学会会长崔亚东表示,人工智能法治建设已经成为全世界的共识,要建立健全相关的法律法规、制度体系、伦理道德,形成人工智能依法治理的中国方案。
生而为人,不能被AI计算
如果一位骑手接到5个订单,10个任务点,系统会在11万条路线规划中,完成万单对万人的秒级求解,算出最快的送餐路线。这段描述出自一篇爆火的调查报道《外卖骑手,困在系统里》。
人工智能算法可以给出最快的方案,却将骑手的配送时间压缩到极致,但凡多等个红绿灯可能都会超时。骑手不得不选择超速行驶,其生命安全与路人安全,都是人工智能考虑不到的范围。
“我建议在AI算出的时间上,再多预留5至10分钟;不仅是给予骑手一些可控空间,也是对人对生命的一种尊重。”上海市司法局副局长罗培新表示,人是自由且灵活的,不应该被AI所计算,人工智能发展条例制定中,以人为本是原则性规定。
就以人为本而言,复旦大学附属华山医院教授顾士欣举了个例子,A方案能延长病人5年的寿命,期间病人可以正常生活,吃喝玩乐不受限制;B方案能延长病人6年的寿命,但需要服用大量昂贵药物,且只能卧床养病忍受病痛。作为人来说,A方案无疑是最理想的选择;但人工智能会选择B方案,因为寿命延得更长。
不可否认的是,人工智能确实推动了医疗事业的发展,帮助医生救治更多病人,但最高效便捷并不代表最好。目前,人工智能只能依靠单一的数据算出所谓的“最优解”,而无法理解人类特有的情感、思维、伦理。要真正做到以人为本,还是需要人类自己参与判断。
在迈向智能化、数字化时代时,人工智能治理的挑战随之而来。
“我认为对于人工智能来说,法治是最好的营商环境,也是最好的治理能力的基础、要义和归宿。”上海市政协副主席周汉民认为,人工智能发展超前半步即可,治理要紧紧跟上,不能超前也不能滞后。当前需要做的就是完善“以人为本”的人工智能治理体系,加快推动立法,形成共识、广泛的标准化条例法规和治理框架。
数据安全立法事关人人
人工智能拥有如此强大的算力,少不了数据的支撑。大数据时代下,每个人仿佛都没了“隐私”,如何保护隐私数据安全,成为人工智能法治的重中之重。
虽然国家在2021年颁布的《中华人民共和国数据安全法》中,明确规定保障国家、企业和个人数据安全的重要性,建立健全全流程数据安全管理制度。但对于人工智能的数据运用与保护方面,并没有相关规定。
虽然没有系统的立法,但在部分法律条例中有提及数据保护。
《东方法学》一书中提到,基于数据权益保护实践以及数据产权本身的特殊性,《反不正当竞争法》可以成为架构和保护企业数据权益的重要法律。上海交通大学知识产权与竞争法研究院院长孔祥俊也提到,在第三次《反不正当竞争法》修订中,将以企业数据权益保护作为重点,构建一种既赋予排他性,又兼顾数据流通利用的商业数据弱权利保护机制。
在商业竞争中,企业用攫取竞争对手数据的方式来达到压制对方发展,更有甚至派黑客蹲在竞对楼下拖库,《反不正当竞争法》数据保护条例出台的初衷可能是保护企业在正当、健康的法治环境里发展,但如今却具有普世的价值。
如何让数据可用又安全?抖音集团数据及隐私法务负责人田申介绍,传统的数据脱敏或匿名化处理保护方式,都要以牺牲部分数据维度为代价,导致数据信息无法有效被利用;而隐私计算则是在保证安全的前提下尽可能使数据价值最大化。
数据法律的确立,将给予隐私计算技术一个稳定且准确的考量,还为技术提供了改进方向;若是将技术与相关法律进行配套,数据安全将得到最大程度的保护。
政府与企业转变“猫鼠关系”
当汽车无法识别出行人时,究竟是优先保护车主撞向行人,还是优先保护行人撞向护栏?事后的判决,究竟是车主担责,还是车企担责?面对如此复杂多样的问题,单靠立法机关的力量是不够的,而是需要人人都参与到法制建设中。
“政府与企业应转变传统的猫鼠关系,发挥企业的敏捷联动,尤其鼓励头部企业进行合作,共同推动行规形成。”国家新一代人工智能治理专业委员会主任薛澜所提出的人工智能敏捷治理模式,需要企业参与立法,将抽象模糊的治理准则转换成具体精准的法律法规,并纳入到相关政策中。同时听取专家的专业建议和社会上的多种建议,实现多主体参与,全方位共同治理。
阿里研究院数据经济研究中心副主任傅宏宇也同样表示,人工智能治理是一个多学科、多方面的共同探索过程;建立一个内外联动的协同共治机制,让更多专家学者、公民融入其中,也让每个人从人工智能中获益。
除了联动国内多方参与外,还要以包容开放的心态,学习借鉴国外的人工智能治理方法。比如欧盟在人工智能法提案中,设置了4种风险等级,每一个等级都有相应的监管规则。
“立法既要包容开放,更要守住底线。”上海市人大常委会法制工作委员会主任闫锐认为,集思广益的同时也要杜绝以法谋私的行为,底线是法律的基本框架,在框架内畅所欲言才能积极推动人工智能立法。
给作者点赞0VS0写得不太好全国首部人工智能立法!中国方案形成中
免责声明:本文仅代表作者个人观点,与C114通信网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。