中国关于加强人工智能伦理治理的立场文件
一、人工智能作为最具代表性的颠覆性技术,在给人类社会带来潜在巨大发展红利的同时,其不确定性可能带来许多全球性挑战,甚至引发根本性的伦理关切。在伦理层面,国际社会普遍担心如不加以规范,人工智能技术的误用滥用恐将损害人的尊严和平等、侵犯人权和基本自由、加剧歧视和偏见、冲击现有法律体系等,并对各国政府管理、国防建设、社会稳定其至全球治理产生深远影响。
中国始终致力于在人工智能领域构建人类命运共同体,积极倡导“以人为本”和“智能向善”理念,主张增进各国对人工智能伦理问题的理解,确保人工智能安全、可靠、可控,更好赋能全球可持续发展,增进全人类共同福祉。为实现这一目标,中国呼吁各方秉持共商共建共享理念,推动国际人工智能伦理治理。
二、2021年12月,中国发布《关于规范人工智能军事应用的立场文件》,呼吁各方遵守国家或地区人工智能伦理道德准则。中国现结合自身在科技伦理领域的政策实践,参考国际社会相关有益成果,从人工智能技术监管、研发、使用及国际合作等方面提出以下主张:
(一)监管
各国政府应坚持伦理先行,建立并完善人工智能伦理准则、规范及问责机制,明确人工智能相关主体的职责和权力边界,充分尊重并保障各群体合法权益,及时回应国内和国际相关伦理关切。
各国政府应重视人工智能伦理与法律的基础理论问题研究,逐步建立并完善人工智能伦理规范、法律法规和政策体系,形成人工智能伦理指南,建立科技伦理审查和监管制度,加强人工智能安全评估和管控能力。
各国政府应增强底线思维和风险意识,加强研判人工智能技术的潜在伦理风险,逐步建立有效的风险预警机制,采取敏捷治理,分类分级管理,不断提升风险管控和处置能力。
各国政府应立足自身人工智能发展阶段及社会文化特点,遵循科技创新规律,逐步建立符合自身国情的人工智能伦理体系,健全多方参与、协同共治的人工智能伦理治理体制机制。
(二)研发
各国政府应要求研发主体加强对人工智能研发活动的自我约束,主动将伦理道德融入人工智能研发过程各环节,避免使用可能产生严重消极后果的不成熟技术,确保人工智能始终处于人类控制之下。
各国政府应要求研发主体努力确保人工智能研发过程的算法安全可控,在算法设计、实现、应用等环节,不断提升透明性、可解释性、可靠性,逐步实现可审核、可监督、可追溯、可预测、可信赖。
各国政府应要求研发主体努力提升人工智能研发过程的数据质量,在数据收集、存储、使用等环节,严格遵守所在国的数据安全规定、伦理道德及相关法律标准,提升数据的完整性、及时性、一致性、规范性和准确性等。
各国政府应要求研发主体加强对数据采集和算法开发伦理审查,充分考虑差异化诉求,避免可能存在的数据采集与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。
(三)使用
各国政府应禁止使用违背法律法规、伦理道德和标准规范的人工智能技术及相关应用,强化对已使用的人工智能产品与服务的质量监测和使用评估,研究制定应急机制和损失补偿措施。
各国政府应加强人工智能产品与服务使用前的论证和评估,推动人工智能伦理培训机制化,相关人员应充分了解人工智能技术的功能、特点、局限、潜在风险及后果,并具备必要的专业素质与技能。
各国政府应保障人工智能产品与服务使用中的个人隐私与数据安全,严格遵循国际或区域性规范处理个人信息,完善个人数据授权撤销机制,反对非法收集利用个人信息。
各国政府应重视公众人工智能伦理教育,保障公众知情权与有效参与,发挥科技相关社会团体作用,引导社会各界自觉遵守人工智能伦理准则与规范,提高人工智能伦理意识。
(四)国际合作
各国政府应鼓励在人工智能领域开展跨国家、跨领域、跨文化交流与协作,确保各国共享人工智能技术惠益,推动各国共同参与国际人工智能伦理重大议题探讨和规则制定,反对构建排他性集团、恶意阻挠他国技术发展的行为。
各国政府应加强对人工智能领域国际合作研究活动的伦理监管,相关科技活动应符合各方所在国家的人工智能伦理管理要求,并通过相应的人工智能伦理审查。
中国呼吁国际社会在普遍参与的基础上就人工智能伦理问题达成国际协议,在充分尊重各国人工智能治理原则和实践的前提下,推动形成具有广泛共识的国际人工智能治理框架和标准规范。
人工智能时代来临 全球如何立法监管AI技术
科技大亨埃隆·马斯克(ElonMusk)在本月初结束访华之旅后透露,他在中国时与高级官员就人工智能话题开展了讨论。
马斯克在推特留言中表示,他会见了包括中国国务院副总理在内的几位高官,讨论了人工智能的风险、监督与监管需求问题。
“而我从这些对话中认识到的情况是,中国将在本国启动人工智能监管。”
随着ChatGPT人工智能项目在全世界掀起一股热潮,位于旧金山的非营利组织人工智能安全中心( CenterforAISafety)发布了300多位专家的联署声明,表示“降低人工智能造成的灭绝风险,应该与疫情和核战争等其他社会规模的风险一起成为全球优先事项”。
人工智能技术的发展可以提高我们的生产力和效率,但也可能导致一些人失业。(ABCNews:DonalSheil)联合国秘书长安东尼奥·古特雷斯(AntónioGuterres)表示,新技术正在飞速发展,随之而来的威胁也在增加。
“科学家和专家已经呼吁世界采取行动,宣布人工智能是对人类的生存威胁,与核战争的风险相当。我们必须认真对待这些警告,”古特雷斯说。
悉尼科技大学(UTS)人工智能研究领域的专家、信息与工程系副主任路节教授对ABC中文表示,人工智能给人类生活的各方面都带来了积极的影响,面对可能会出现的不公平情况,澳大利亚政府和学术界正在开发“负责任的人工智能”(ResponsibleAI)。
按照微软的定义,负责任的人工智能是一种以安全、可靠和合乎道德的方式开发、评估及部署人工智能系统的方法。
“我们一边开路,一边修路肩和人行横道[等各种设施],对公路进行各种规范和监管,”路节教授说。
美国智库布鲁金斯学会(BrookingsInstitution)此前曾刊文表示,自2017年以来,至少有60个国家采纳了某种形式的人工智能政策,政策制订的速度紧跟人工智能得到应用的速度。
那么,各国在探讨或寻求对人工智能技术的监管或规范方面分别进展如何?
订阅中文简报订阅ABC中文周报网罗每周精选内容YourinformationisbeinghandledinaccordancewiththeABCPrivacyCollectionStatement.澳大利亚
虽然难以预测人工智能带来的全部风险与机遇,但生成性人工智能技术可能会对各个领域产生影响。(Reuters:ThomasPeter)目前,澳大利亚还没有针对人工智能技术的具体规范与监管措施。
澳大利亚国家科学技术委员会(NSTC)表示,虽然难以预测人工智能带来的全部风险与机遇,但在近期,生成性人工智能技术“可能会影响到从银行和金融到公共服务、教育和创意产业的一切领域”。
澳大利亚政府表示,需要改善现有法律漏洞需要对新形式的人工智能技术采取“保障措施”。
澳大利亚联邦工业和科学部长(MinisterforIndustryandScience)埃德·胡斯(EdHusic)接受澳大利亚广播公司采访时表示,“显然,社会上有一种担忧,即这项技术是否有点发展的太快了”。
胡斯发布了澳大利亚国家科学技术委员会的建议,以及一份关于人工智能的讨论文件,其主旨是考虑有针对性的监管措施。
他公布了两个大致目标:首先确保企业能够自信和负责任地投资于人工智能技术;同时确保“适当的保障措施”,特别是针对高风险生成式人工智能工具。
美国6月下旬,美国商务部宣布其下属的国家标准与技术研究所(NationalInstituteofStandardsandTechnology,NIST)将启动一个政府工作小组,制订指导方针应对生成性人工智能带来的风险,同时有助于应对这种新技术带来的机遇。
NIST表示,启动这个工作小组是由于生成性人工智能发展的速度、规模和潜在影响几个因素,让很多行业和整个社会产生革命性的变化。
其实,早在今年4月,参议员迈克尔·贝内特(MichaelBennet)就提出一项法案,准备成立特别工作组来研究美国的人工智能政策,并确定如何最大程度减少人工智能对隐私、公民自由和正当程序的威胁。
今年早些时候,美国商务部下属的国家电信和信息管理局(NTIA)发布了“人工智能问责政策”征求意见稿(RFC),就是否需要对ChatGPT等人工智能工具实行审查、新的人工智能模型在发布前是否应经过认证程序等问题征求意见。
中国今年四月,中国的网络监管机构国家互联网信息办公室公布了《生成式人工智能服务管理办法(征求意见稿)草案。该机构表示,希望企业推出人工智能产品前先向有关机构提交安全评估,“提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责”,在设计算法和训练数据及提供服务等过程中采取措施,防止出现各类歧视。
国家互联网信息办公室称中国支持人工智能的创新与应用,鼓励使用安全可靠的软件、工具和数据资源,但生成式人工智能创造的内容必须符合中国“的社会主义核心价值观”。
网信办公布的人工智能服务监管规范草案尚在征求意见阶段,但预计会在2023年内实施。
俄罗斯2020年,俄罗斯批准了《至2024年人工智能和机器人技术监管构想》,旨在探索本国法律、民众与机器之间的相互适应关系,为人工智能和机器人技术的安全应用和法律监管提供指导。
英国据路透社消息,在英国有几家国家监管机构负责起草内容涵盖人工智能的监管规则,这些机构中就包括金融行为监管局(TheFinancialConductAuthority,FCA)。目前,这个机构正在与艾伦图灵研究所(AlanTuringInstitute)和其他法律与学术机构协商,提高其对人工智能技术的理解。
五月,这家商业竞争监管机构表示将开始研究人工智能对消费者、企业和经济的影响,以及是否需要新的控制措施。
欧盟欧盟立法者希望禁止人工智能系统的侵扰性使用,比如远程生物识别技术(Supplied:EuropeanParliament)六月中,欧盟立法者同意对欧盟的人工智能法案草案进行修改。而在草案成为法律之前,立法者须与各欧盟国家商讨诸多细节。
目前,估计这一规范人工智能法案面临的最大的问题是面部识别和生物识别监控。某些立法者希望全面禁止这两项措施,而各欧盟国家希望为国家安全、国防和军事目的做出例外规定。
欧盟的两个立法委员会在5月11日就更严厉的规则草案达成一致,严格禁止“对人类安全造成不可接受风险的人工智能系统”,包括有目的地操纵技术、利用人性弱点或根据行为、社会地位和个人特征等进行评价的系统等。此外,两个立法委员会还提议禁止面部监控。
欧盟竞争事务专员玛格丽特·韦斯特格(MargretheVestager)表示,美国和欧盟应该推动人工智能业在几个月内采用自愿行为准则,在新出台有关法律的同时提供监督保障。
欧洲消费者组织(BEUC)则对ChatGPT和其他人工智能聊天机器人表示关注,呼吁欧盟消费者保护机构调查这项技术和对个体可能造成的伤害。
法国法国隐私监督机构国家信息自由委员会(CNIL)表示,正在调查对ChatGPT的几起投诉。之前,意大利曾因为ChatGPT涉嫌违反隐私规则而暂时禁止使用这款人工智能工具。
今年三月,法国国民议会没有理会民权团体的警告,批准在2024年巴黎奥运会期间使用人工智能视频监控。
印度目前,这个南亚国家尚未颁布任何关于人工智能的具体法律,但印度政府正准备发布《数字印度法》(DigitalIndiaAct)草案,取代2000年生效的《信息技术法》。
目前还不知道印度拟议中的法律对人工智能技术的应用意味着什么,但信息技术部长拉吉夫·钱德拉塞卡(RajeevChandrasekhar)表示,任何监管都将是为了防止“用户受到伤害”。
钱德拉塞卡还表示,印度将实施独特的“护栏”制度,即这个国家对人工智能的规范和世界其他地区的不同。
爱尔兰目前,爱尔兰正在征求对人工智能监管法规的意见。
爱尔兰的数据保护机构负责人表示,生成式人工智能需要得到监管,但管理机构必须找到适当方法,不能匆匆制订没有可靠理由的禁令。
以色列以色列创新管理局(IsraelInnovationAuthority)全国人工智能规划项目负责人近日表示,以色列在过去18个月内始终在研究制订针对人工智能技术的法规,以实现创新技术与维护人权和公民保障之间的平衡。
去年,以色列公布了一份人工智能政策监管草案,并在做出最终决定之前征求公众的反馈。
意大利目前,意大利正在对可能的违规行为进行调查。
3月,ChatGPT因意大利国家数据保护机构的担忧而被暂时遭禁。这一服务从4月起再次向用户开放。
目前,意大利数据保护机构在计划审查其他的人工智能平台,并雇用人工智能专家参与审查。
日本日本的隐私监督机构本月初发布指导方针,重申不会对用于人工智能训练的数据实施版权限制。
该政策允许人工智能使用任何数据,“无论它是出于非盈利还是商业目的,无论它是复制以外的行为,还是从非法网站或其他地方获得的内容”。
日本教育、文化、体育、科学和技术部长证实了这一大胆的立场,说日本的法律不会保护人工智能数据集中使用的带有版权保护的材料。
但法律专家和行业观察家认为,目前的指导方针在很大程度上有利于开发者,对那些盗版使用互联网内容来训练人工智能模型的平台提供了加倍保护。
西班牙现在,西班牙正在对可能存在的违规行为进行调查。
西班牙的数据保护机构在四月表示,正在对ChatGPT的潜在数据违规行为进行初步调查。该机构还要求欧盟的隐私监督机构评估围绕ChatGPT产生的隐私问题。
声明本文版权归澳大利亚广播公司(ABC)所有。转载请务必注明出处为“澳大利亚广播公司ABC中文”,并附上原文链接。任何侵犯ABC版权的行为都可能被追究法律责任。
澳大利亚广播公司(AustralianBroadcastingCorporation,ABC)是澳大利亚全国公共广播机构,独立于政府、政治团体、商业或其他行业机构,不涉及任何利益关系,编辑自主,提供客观和公正的新闻报道。ABC中文遵循ABC编辑方针,以澳大利亚视角,报道国内外重大新闻事件、深度分析时事要闻、多方展现观点碰撞。
采访指南您知道吗?超过70%的澳大利亚人每周都会阅读、收看和收听ABC的内容。我们也希望您能参与到我们的报道之中,让ABC中文的内容反映多元、平等和包容的澳大利亚现代社会。我们特地制作了一份参考指南,解答您在接受采访前的疑问。您可以点此下载PDF版本。
关注ABC中文Twitter推特Facebook脸书YouTube频道联系我们Chinese@abc.net.au人工智能之于法律的可能影响
原标题:人工智能之于法律的可能影响智能时代由人工智能(简称AI)发展而来。人工智能主要运用在开发某些项目,研究某个理论和探索智能技术等领域,其是信息时代的一门新科学,它的发展将会不断改善人类的生活,引领人类进入新时代。随着时代的发展,人们的生活越来越离不开人工智能技术。目前,人工智能技术已经渗透到人类生活的方方面面。从人类驾驶汽车到无人驾驶汽车,从人类战斗机到无人战斗机,甚至医疗等方面纷纷离不开人工智能,人工智能不断改善人们的生活。人工智能技术是为人类服务的,不能超越人类的底线,更不能对人类造成伤害。当然,人工智能的发展必然会带来一些问题,这就需要制定一定的法律法规对人工智能进行管理、约束,这样才能更好地为人类所用,才能让人类过上更好的生活。
人工智能领域不容忽视的法律问题
人工智能与劳动者劳动权保障。人工智能在机械制造方面也有重大突破,机器人是人工智能技术的主要研究成果。由于机器人的出现,将人类从繁重的劳动中解脱出来,节省了大量的人力资源和物力资源,同时也让人类从一些危险的工作中解脱出来。人工智能技术运用到工业生产当中,这样既节省了雇佣劳动人员的资金又提高了生产的效率,推动了工业经济的发展。但是,人工智能技术让人―机关系成为社会生活的一部分,使得社会构造可能产生本质性的变革。
人工智能提高司法审判和行政工作效率。将现有的法律法规和法律文献以及判决文本储存在电脑当中,是目前为止非常安全的手段。人们通过计算机的记忆和文字搜索功能翻阅资料,节省了人们的大量时间。计算机系统还弥补了人类的记忆力不足和文字检查不正确等问题,这同时省去了律师查询文件的劳动和解决问题的推理活动。这些都依靠人工智能计算机系统完善的推理代码以及处理大量数据的功能。律师可以通过计算机系统对数据进行统计分析,推算出最好的法律解决方案。在律师接到一个新案例之后,就可以利用人工智能计算机系统对案件进行统一分析并给出合理的意见。计算机系统可以对逻辑程序,交易记录,日常消费,人口籍贯等方面进行行政化管理。所以说人工智能的崛起必然能提高司法的审判和行政工作的效率。
人类隐私保护的人格权问题。网络空间是一个真实的虚拟存在,是一个没有物理空间的独立世界。无论是现今还是未来时代,将互联网、大数据、人工智能这些元素整合之后,人们可以查阅信息的手段越来越多,自身的信息再也没有秘密性可言。因为数据可以广泛查询,那么对于个人来说自身的隐私就可能会被曝光,所以面对这个时代应该采取一定措施来保护自身隐私不被侵犯。主要有下列几点建议:第一个方面是对自身的隐私保护意识增强。在这个科技进步的时代,人工智能逐渐进入生活当中,人们可以通过机器来对别人的隐私进行攻击,因此如果想要保护自身隐私,那么就应该减少对机器的信息泄露。第二个方面是树立企业保护用户隐私安全的意识。企业自身一定要有保护自身用户的一切信息安全的义务和责任,这也是用户信息安全是否能得到良好的保障前提。第三个方面颁布有关用户信息安全的法律。让用户从根本上认识到有法律可依靠。该法律不但要落实到各个企业,而且要走入人们的生活当中,而且在执行法律的过程中,应该按照严格的法律规定来执行,这样才能使个人信息安全得到保障。
法律如何“智能”地应对人工智能化
制定和完善相关的道德法律准则。现在科技的发展不单单可以使人们生活更加便捷,而且还可以加快社会的进步。与此同时,也会有一些弊端浮出水面,如果推动人工智能来服务人类,使人类文明上升到更高的层面,忘记了以人为主的本真,人们就很难接受人工智能。那么如何来控制以人为主,我国推出了一系列法律准则来约束这项要求。人工智能技术是现阶段科学家努力想要达到的效果,该项技术还是比较新颖,没有严格的法律规定来使用这项技术,同时对于这项技术的开发还没有法律的约束。由于这项技术刚刚进入人们的生活,其需要法律来约束,要根据后续的一系列问题来进行新的调整,从而可以使这项技术更好地被人们所利用。
构建以技术和法律为主导的风险控制机制。由于现在科技的发展,对于人工时代的到来所造成的一系列风险应该如何来先行处理和防范成了现在科学家急需攻破的难题。法律控制是处理风险的主要手段之一,人们可以通过技术上的控制或是法律上的控制来对这项技术进行有效管理。制订法律的人必须站在人们的角度,注重风险防范的重要性。还要利用其他的法律来对人工智能这项技术的其他领域扩展进行限制和约束。通过技术上的管理和控制有效地降低了风险。对于人工智能技术造成的风险我们应该做出有效地防范措施,不单单在法律的基础之上来制定措施,而且也要在不伤害他人的利益基础之上来进行该技术的约束和管理。与此同时,构建一个完善的体系来进行人工智能技术的管理。
运用智能与传统相结合的方式对人工智能的社会应用情况进行法治监督。对于人工智能技术的发展趋势许多科学家做出了假设,该项技术一定会在互联网的基础之上,采集大量的信息来进行技术上的提升。虽然这样有利于人工智能技术的发展,但是由于信息量的不断提升,对于管理这项技术也有一定的难度。如果监管部门没有做好本职工作,那么不法分子就有机可乘,进入其内部窃取信息,从而导致损失较大利益。这对人工智能技术的发展部门来说尤为重要,所以要求监管部门做到与时俱进,将整个人工智能技术的运行做到心中有数。第一个方面就是需要监管部门根据不同的区域来制定不同的监管制度,但是要遵循以人为本的角度来进行管理,还需要完善的整体体系来进行监管,以便于监管部门发现在发展人工智能技术过程当中出现违反规定的行为,可以及时出手制止;第二个方面就是需要企业做到应对一些紧急情况的智能化机制,研发人工智能技术过程当中,如若发现紧急情况及时向企业内部进行汇报,然后再经过这个机制进行数据上的分析,最后制定一系列的方案来解决问题。假设出现不能用机制来解决的问题,可以采用强制断电或者是切断网络的措施来解决问题。在人工智能技术研发的过程中,要遵循颁布的法律进行研发。
人工智能革命引发的法律问题才刚刚开始,法律研究者需要秉持理性主义精神,不断拓展知识储备,跟进理论创新和制度创新,探索和发现一个更适合人工智能时代的法律制度体系。综上所述,在这个人工智能时代,我们相信法律制度的理性之光与科学技术的智慧之光将交相辉映、大放异彩。
(作者为中央司法警官学院副教授)
【参考文献】
①吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学(西北政法大学学报)》,2017年第9期。
人工智能时代下算法治理的内核与路径
作者:唐树源(上海杉达学院法学系、知识产权法商研究中心)
随着时代生产要素的演进,当前人工智能时代的本质在于算法和数据。算法带来飞速便利的同时也带来了诸如大数据杀熟、算法黑箱、信息茧房、算法操纵等新的社会风险问题。2021年12月底,四部门联名签署对外公布《互联网信息服务算法推荐管理规定》(简称“《算法推荐规定》”),并已于2022年3月1日正式实施。基于此,有必要进一步厘清算法治理的基础内核,探究算法时代治理新路径。
一、当前我国算法治理的法律体系
当前我国算法治理的立法体系已初步建成,构建起立法层级广、多部门联动、快速扩张的法律体系。立法监管由此前聚焦在网络安全、数据信息保护转变为当前深度的治理,即人工智能时代的算法治理。
在顶层设计方面,《法治社会建设实施纲要(2020-2025年)》就提出健全算法推荐、深度伪造等新技术应用的规范管理办法。另外,《“十四五”数字经济发展规划》指出加快构建算力、算法、数据、应用资源协同的全国一体化大数据中心体系。
在法律法规依据方面,《民法典》《网络安全法》《数据安全法》《个人信息保护法》《互联网信息服务管理办法》分别从人格权、网络安全、数据安全、信息保护利用、互联网服务等角度进行了统筹性的规范。
在算法的专门性规范方向,有2021年9月发布的部门规范性文件《关于加强互联网信息服务算法综合治理的指导意见》和2022年《算法管理规定》对算法相关规范进行了全面细致的规范。
在其他规范性文件或国家标准方面,多部门对机器学习、人工智能伦理、信息合成、平台监管等多方面有间接性的规范,如《国务院反垄断委员会关于平台经济领域的反垄断指南》《国家市场监督管理总局、国家网信办、国家发展改革委、公安部、人力资源社会保障部、商务部、中华全国总工会关于落实网络餐饮平台责任切实维护外卖送餐员权益的指导意见》《新一代人工智能伦理规范》《互联网信息服务深度合成管理规定(征求意见稿)》《信息安全技术机器学习算法安全评估规范(征求意见稿)》《信息安全技术个⼈信息安全规范》等。
虽然我们已经在多个层面进行立法,但是当前算法相关立法体系还存在问题。一是立法层级分散,主要聚焦在部门规范性文件。法律法规的制定时间成本明显高于部门规章和各类规范性文件,这就导致目前针对算法这一新兴问题主要在部门规范性文件及国家标准中,容易出现强制性不够、执法监管效果打折扣、部门职责划分不清等问题。同时多部门的规范性文件给平台企业也造成无法适从、标准不统一、专项行动式的紧急应对等情形发生。二是对平台的监管主要在事后被动监管,缺乏精细化的平台监管规范。对平台的监管主要根据平台的过错、行为、责任采取行政处罚措施,而此种监管模式在于缺乏事前的过程性监管,即便现在有算法备案制度,也是主要停留在特定重要领域的算法备案,再者对于备案的算法审查逻辑和标准也需要根据算法分级分类制度及时调整。三是对算法的技术性规范监管较少,立法缺少回归算法本源。算法是一个技术概念,是“计算的方法”或“处理数据的方法”,同时算法也是具备一定的学习能力的,能够根据现有的算法基础和数据不断演变。对于这些计算机指令的技术规范当前仍缺乏立法上的规范,目前主要规范是从网络安全、法律风险等角度来规制的。
二、算法治理的内核、路径与体系建设
为了促进算法相关立法体系的完善,实现算法的精准治理,笔者认为算法治理的内核在于数据信息安全。一方面算法是在自然语言基础上建构起来的一系列程序逻辑,本质上就是且、或、非的逻辑运算。但无论算法多么复杂,其本质也是“用数据训练的模型”,也就是通过不断投喂数据来实现算法的不断运行和进化。算法离不开数据的支持,当数据的处理活动出问题,那算法必然就出问题。因此关注算法的治理,本质就是数据的安全和合理处理。
另一方面自动化决策算法引发的“大数据杀熟”等法律风险已引起越来越多的社会关注,这说明算法治理的本质还在于信息的合理利用。此外,算法的灵魂在于其正向的价值观。数据信息的利用处分需要追求正向价值观,逐步实现算法的可验证、可审核、可监督、可追溯、可预测、可信赖,同时具备普惠性、公平性和非歧视性。
需要说明的是,数据信息安全包括数据安全和信息安全两大块,数据安全就是规范数据处理活动,保障数据安全,维护各方利益,保障数据开发利用和产业发展;信息安全就是以《个人信息保护法》为主体,规范个人信息处理活动,促进个人信息合理利用,从严保护个人隐私。
明晰了算法治理的内核,才能聚焦立法规范和监管的重点,对于当前实践中算法治理的困境问题有新的解决方案。人工智能乃至整个经济社会的发展离不开海量数据和个人信息的填充,自动化决策算法充分利用数据信息发挥更大的经济和社会价值。因此,笔者认为应当构建算法治理的“两内在一外延”保障路径,两个内在要素是强化隐私保护和拓宽数据的广度、深度和精度,一个外延保障是算法安全保障机制。
一是强化隐私保护。《民法典》对于隐私权的保护是在人格权编中的,足以显示隐私保护的重要性。当下各大平台的隐私政策都在调整更新,而这一轮的更新势必会对相关平台的算法无序发展带来更多的限制。隐私保护与算法发展是相对的,强化隐私保护势必会阻碍算法的更多元化发展,但正是基于隐私保护的重要性,避免算法侵害他人合法权益。强化隐私保护可以从以下几点着手:
其一,强化隐私保护体现在立法内容、算法设计和应用、备案审查、执法监管重点、法律责任承担等方面,这是算法治理的基本理念也是底线原则。
其二,强化重点人群的隐私保护,特别是不满十四周岁的未成年人、老年人隐私保护,劳动者和消费者等群体也十分重要。按照《民法典》隐私权保护相关规定和《个人信息保护法》中敏感个人信息的相关规定进行信息保护与数据处理。个人信息处理活动满足个人信息处理的五项重要原则,还有遵照“告知-知情-同意”的核心个人信息处理规则。
其三,有关隐私保护的纠纷主要是通过私法救济的方式解决,而算法治理中涉及到的隐私保护问题就必然需要结合更多公法救济的渠道,因此更多公法治理算法时需要关注隐私保护的传统属性与公私法治理的融合问题。
二是拓宽数据的广度、深度和精度。算法治理绝不是过度强调监管惩罚,而是要强调事前的统筹管理。类似深度学习等自动化决策是需要海量数据的投喂,缺乏数据量基础、数据不精准都会导致算法算到错误的方向。如企业在进行“用户画像”的时候,当用户数据基数少或某一维度数据缺失的时候,就无法精准推送相关信息或提供相应服务。而在拓宽数据的广度、深度和精度的时候,必然要受到数据合法处理活动的限制,处理该问题的要点如下:
其一,拓宽数据的过程首要是保障数据安全,数据安全才能确保算法的安全稳定,此为数据处理的基石。
其二,建立重要数据和数据分级分类管理制度。大量数据的涌入可能会打乱算法的基本秩序,因而对数据进行分级分类是各大平台,尤其是超大型平台需要规范的。
其三,建立算法中的验证纠错机制,即对数据的质量进行验证,如抽检机制、结果预警等发现数据的缺陷,以便及时纠偏。
三是算法安全保障机制。有了前两者隐私保护和数据的基础,接下来健全算法安全保障机制就尤其重要。安全保障机制包括科技伦理审查、立法保障、安全评估监测与安全事件应急处置等多方面,形成技术、法律、管理的多重保障。具体措施包括如下:
其一,算法向善。算法备案审查的基础性要点在于科技伦理审查,此项审查的难点在于算法的不可预判性,即便当下算法规则审查合理,但随着算法本身外延式的延伸,就会导致算法的结果存在不确定性。因此,应当建立类似算法伦理工作小组的专门性组织,由科技、法律等领域专家及监管部门和第三方行业代表等共同组成,加强定期审查与跟踪监督,严防算法价值观问题。
其二,立法保障方面。当前有关算法治理的立法顶层设计已逐步完成,接下来除了算法推荐管理外的其他算法活动需要加以重视,如算法的技术研发、数据挖掘、规则内容、运营支持、人员管理等多角度构建起算法治理新格局。
其三,健全安全评估监测、安全事件应急处置等管理制度和技术措施。对企业来说,要落实算法安全主体责任,守住算法安全的第一道防线,建立健全算法机制机理审核。对监管部门和行业组织来说,制定算法安全行业标准体系,宣扬算法安全基本理念,形成全社会多渠道监督合力。
算法化的时代给各行各业带来了深刻的影响,也导致现在的组织形态发生新的动态变化。算法滥用所导致的问题可能是行业巨大的,算法治理需要跟算法开发同步开展,有效构建算法治理的“两内在一外延”保障路径,建立良好的数字营商环境,促进数字经济社会的稳步健康发展。
【本文系上海杉达学院科研基金(校基金)重点项目《民法典解决互联网权益争议机制研究》(项目号2020ZD01)和上海杉达学院科研基金(校基金)一般项目《法治思想在高校法治人才培养模式中的应用研究》(项目号2021YB11)的阶段性研究成果】
[责编:郑芳芳]人工智能监管难题:如何“用魔法打败魔法”
我国立法面临诸多现实难题
欧盟正加速落地全球首部AI监管法案,赵精武告诉《中国新闻周刊》,欧盟的“风险等级制”人工智能监管措施,《人工智能法案》提出的“通用模型”监管概念,以及专门针对ChatGPT这类生成式人工智能应用的披露义务、数据版权合规义务,都对我国人工智能立法有参考价值。
事实上,我国对于人工智能的立法早已起步,2017年国务院发布的《新一代人工智能发展规划》提出,到2025年,初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。
地方上,2022年,深圳市出台《深圳经济特区人工智能产业促进条例》,被看作我国首部人工智能产业专项立法。《条例》提到,完善人工智能领域监管机制,防范人工智能产品和服务可能出现的伦理安全风险和合规风险。
当前,我国人工智能规制主要由几大部委共同推进,分别从不同领域推动人工智能领域的规范和发展。《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理办法(征求意见稿)》等规范性文件也相继出台。
“综合历来管理规范来看,我国关于人工智能领域的规定采用区分业务领域、区分技术方向的措施,管理规范趋于分散化。在规范出台上,往往具有应时性特征,在特定技术出现后作出专门性管理规定。规范由行政部门主导颁布,侧重监管,在规范层级上未上升为法律。”彭晓燕说。
值得注意的是,6月20日,首批境内深度合成服务算法备案清单出炉,百度、阿里巴巴、腾讯、字节跳动、美团等26家公司、共计41个算法榜上有名。
随着AI立法热度升温,国内开始有专家呼吁尽快开展人工智能法律规制。不过,在赵精武看来,我国人工智能专门立法具有一定的可行性,但是也面临着诸多现实难题。
“一是立法文件之间的体系衔接问题,人工智能专门立法与其他规范性文件之间的适用关系尚未解决,尤其是专门立法与现行立法在内容层面的重叠问题亟待解决。二是人工智能技术更新迭代速度加快,保障法律与技术的同步发展存在一定的难度;三是人工智能监管规则缺乏整体性,数据、算法和算力三大核心要素的监管规则仍处于探索阶段;四是人工智能立法的重心究竟是以安全风险治理为主,还是以产业发展保障为主争议较大。”赵精武说。
无论是欧盟的《人工智能法案》,还是中国、美国等国家针对AI的规定、倡议、规划,都在试图构建一个完善的监管框架:既能确保安全,又能为AI创造更好条件。
基于这种普适性原则,彭晓燕告诉《中国新闻周刊》,我国建立的人工智能法律,首先应当建立在积极鼓励发展创新的基础上,使得人工智能在相对开放的空间领域进行规范发展,划定发展红线。
“此外,还需要解决现下大家集中关心的人工智能领域法律问题,包括但不限于人工智能违法违规内容的禁止、人工智能数据安全保护、人工智能伦理安全的保障、知识产权侵权的防范等等。”彭晓燕说。
赵精武认为,我国应当建立以产业发展保障为导向的人工智能法律。
“现行立法在一定程度已经可以基本满足人工智能技术应用监管的需求。预防技术风险,保障技术安全只是治理过程,其最终目的仍然还是需要回归到人工智能产业发展层面。毕竟人工智能法律不是限制产业发展,而是引导和保障相关产业的良性发展。”赵精武说。
发于2023.7.3总第1098期《中国新闻周刊》杂志
杂志标题:AI立法升温背后的监管赛跑
上一页123全文阅读人工智能立法,迈出关键一步!
2022年11月,OpenAI旗下的大语言模型产品ChatGPT横空出世,几乎改变了整个AI行业的节奏,绝大多数的科技巨头都压力倍增,纷纷推进AI开发进程。与此同时,AI所涉及到的社会伦理与法律问题也引发多重争议,多国开始关注这一领域的立法与监管。
终于在2023年5月11日,欧洲议会两个委员会通过《人工智能法案》提案的谈判授权草案,向立法严格监管人工智能技术的应用迈出关键一步。
欧盟将立法严格监管AI应用
当地时间5月11日,欧洲议会发表声明说,议会内部市场委员会和公民自由委员会以压倒多数通过欧盟委员会于2021年4月提出的《人工智能法案》提案的谈判授权草案。新文本将严格禁止“对人类安全造成不可接受风险的人工智能系统”,包括有目的地操纵技术、利用人性弱点或根据行为、社会地位和个人特征等进行评价的系统等。
谈判授权草案还要求人工智能公司对其算法保持人为控制,提供技术文件,并为“高风险”应用建立风险管理系统。每个欧盟成员国都将设立一个监督机构,确保这些规则得到遵守。
这一草案将于6月中旬提交欧洲议会全会表决,之后欧洲议会将与欧盟理事会就法律的最终形式进行谈判。欧洲议会的声明说,一旦获得批准,这将成为全世界首部有关人工智能的法规。
OpenAICEO将赴国会为AI辩护
基于部分政府和公众的不信任,人工智能的开发者仍需付出多方努力。
据美媒报道,OpenAICEO萨姆·阿尔特曼将于下周二出席美国参议院司法委员会举办的AI规则听证会,讨论随着政府和企业开始在从医药、金融到监视员工的各个领域使用AI,可能需要哪些法律来保护美国人。该小组委员会表示,这将是他首次在美国国会作证。
该委员会主席、参议员理查德·布卢门撒尔称,AI迫切需要规则和保障措施,以应对其巨大的前景和陷阱,这次听证会开启了小组委员会监督和阐明AI先进算法和强大技术的工作。
此外,除阿尔特曼外,另一位作证的是IBM首席隐私官克里斯蒂娜·蒙哥马利。
在美国社会,对于人工智能仍有许多警惕的声音,其中不乏科技行业资深人士。
苹果公司联合创始人史蒂夫·沃兹尼亚克日前就警告称,AI可能会让骗局和错误信息变得更加难以被发现。AI内容应该被明确标记,并且需要对行业进行监管。
他还认为,任何由AI产生并发布给公众的东西,都应该由发布者来承担责任,也就是说,人类必须为AI担责。监管机构应该追究大型科技公司的责任。
苹果现任CEO蒂姆·库克也告诉投资者,在AI方面,“深思熟虑”非常重要,并表示苹果不会轻易踏足AI领域。
DeepMind的联合创始人之一、AI技术的先驱穆斯塔法•苏莱曼也警告称,未来10年,AI的进步将威胁到白领阶层,并创造出“大量的失败者”。各国政府需要考虑如何支持那些将失去工作的人,全民基本收入是一个潜在的解决方案。
Meta引入人工智能改进广告业务
ChatGPT的迅速发展让科技行业倍感紧迫,各个巨头纷纷发力人工智能领域。
当地时间5月11日,Meta宣布几项由人工智能驱动的新工具和服务,以帮助广告商有效地构建广告并改善广告效果。
Meta此次推出了人工智能沙盒(AISandbox),将作为Meta新工具和功能(包括生成式AI驱动的广告工具)的早期版本的测试平台。
Meta希望借助这一平台,了解哪些功能对广告商有效,并使这些功能在广告工具中更易于使用。
Meta声称此前一直在与一小群广告商合作开发人工智能沙盒,并展示了三种在人工智能沙盒环境中测试的人工智能工具:文本变化、背景生成和图像显示。这些工具呈现出一些共同点,即产生多个版本的案例,让广告商可以自由选择和调节最适合特定受众的方案。
日前,谷歌也公布了最新的大语言模型PaLM2。在PaLM的基础上进一步进行了提升和改进,不仅在多语言文本方面接受了更多的训练,还拥有超强的逻辑、常识推理和数学能力。谷歌CEOSundarPichai在发布会上提出,谷歌在AI方面的愿景是“让AI对每个人都有帮助”,对于产品开发已然落后一步的谷歌,“讲故事”更倾向于基于现有产品基础,让AI的智能化效果更为显性。
来源新华社、央视新闻、澎湃新闻等
责任编辑孙霄
李宗辉:人工智能辅助立法的理论探析与现实考量
在立法活动中,人工智能对法律知识图谱的构建大体可以分为两类。第一类是法律修正中的知识图谱构建。此类法律知识图谱构建与司法实践过程中的知识图谱构建较为相似,即都以既有的法律文本、大量的案例素材和要件事实的解构为基础,以对应于人工神经网络的深度学习、分词的设置以及以语义表示为核心的知识建模。[7]第二类是法律创制中的知识图谱构建。由于不存在现成的文本,此类法律知识图谱中的“实体”需要从上位、邻近、相关立法以及现实世界的有关综合信息中选择并加以确定。人工智能发展中以“本体论”为基础的法律知识工程建模技术可以较好地应用于上述立法中的“实体”创制过程,①从而生成可靠、高效以及有良好基础的法律知识系统,并实现理论性与实用性之间的平衡。[8]基于“本体论”的法律知识图谱构建具有概念清晰、语义丰富、层次明确、独立于模型以及可以共享等特点,比规则主导型和案例主导型的法律知识图谱构建更适合应用于法律创制活动,并且更具普遍意义。[9]
人工智能辅助构建立法知识图谱的过程也是一个应用各种模式匹配、概念图匹配和混合式传播激活等技术形成语义网络的自然语言处理过程。[10]针对创制性立法不具有现存法律文本而需要处理更多生活化自然语言的特点,国外有学者专门开发了辅助立法的智能XML工作流模型,能够生成高质量、用户导向以及相互连接的开放数据,从而全面涵盖开放立法的快速发展领域。[11]
2
逻辑推理框架设计
人工智能辅助立法中的语义网络和知识图谱构建,不只是为了生成形式上完整的法律文本,而且追求该文本内在结构也即实体之间“关系”的逻辑自洽和圆满。惟其如此,该法律在其后的适用和实施过程中才会相对顺畅而较少出现问题。人工智能恰好比较擅长有关逻辑推理的应用,所以也能够在辅助立法的过程中发挥此方面的重要功能。
早在1957年,耶鲁大学法学院的莱曼·艾伦(LaymanE.Allen)教授就发表了《符号逻辑:起草和解释法律文件的锐利工具》一文,指出符号逻辑是可以消除立法中某些容易疏忽的模糊性,让起草者获得更为清晰、准确和高效结果的新技术,并能够为法律起草、解释更加综合化和系统化提供有价值的协助。该文具体分析了6个基本的逻辑关系在法律起草和解释中的应用:蕴涵、连词、共隐、排他性析取、包含性析取和否定。[12]
从单行法律内部的通用简化模式来看,人工智能辅助立法中的逻辑推理应用体现在语义网络中概念实体的分类和联系方式。具体过程是:“建立相关法律概念的位阶体系,根据问题域所对应的属性值在位阶体系进行概念推演,从而形成一个解的决策过程。实体联系和泛化联系属于概念位阶体系中的纵向联系,聚集联系属于概念位阶体系中的横向联系,而属性联系则是进行推理的条件入口和退出推理并返回结论的出口。”[13]
从立法的系统性和动态性来看,人工智能可以辅助进行的逻辑设计和推理显然并不局限于某部立法本身。人工智能可以“对法律规范的渊源以及它们的等级秩序进行分类,即寻找各种法律中的不一致”,以及“对判例法进行分类,并从受法外因素影响之裁判背后的推理中提取要素”。[14]在逻辑框架的设计和应用方面,人工智能不仅可以辅助进行前置性的准备工作,而且可以保持对法律的追踪,加强立法后的评估工作,从而更好地推动未来的法律修正。例如,上世纪80年代,伦敦大学帝国学院的某逻辑编程项目工作组对1981年英国《国籍法》进行了立法评估性建模,旨在测试基于规则的逻辑推理模型对于大型复杂法规的可适用性。这一建模过程发现了该项立法的若干问题,例如未定义的法律谓词和漏洞,否定的形式化,违反义务和反事实的使用,常识的表示以及法规中的行政自由裁量权应用等。[15]
3
量化信息抽取处理
立法活动中的概念化知识图谱和形式化逻辑框架构建都是以大量信息的收集、分析、处理和转换为基础的,而人工智能尤其是硬件性能和算法能力得到大幅提升后的新一代人工智能技术,在机器学习以获得最优解上相较于人类主体具有明显的优势,所以能够在这方面发挥较好的辅助作用。
无论是法律修正还是法律创制活动,首先都需要对现行法律体系之下的相同概念和相关制度进行统一的梳理、比较和分析,以避免新的立法与正在实施中的有效法律之间的潜在冲突。人工智能中的聚类算法最擅长处理此类问题。“一个集群相当于一组相似的实体,或者以最低限度来说,一组相似的实体之间的相似度比和其他集群中的组成部分的相似度要大。……一旦我们掌握了集群组,就可以将其看作物体,然后反过来对其进行聚类,以此类推,直到对所有东西都进行聚类。”[16]聚类算法同样可以应用于立法过程中的案例裁判总结、域外经验借鉴和社会意见征求等信息的抽取和处理。以聚类算法为中心,新西兰有学者开发设计了用以构建动态立法网络的信息抽取流程,从而使相关立法能够跟上社会演进的步伐。[17]
基于其强大的计算能力,人工智能对修正或起草赔偿、罚款、罚金、期间、期限等与数字直接相关的法律规范具有显著的辅助作用。[18]这种辅助作用在采用计算机模拟法律应用场景以全面观察相关实体的结构和行为时,能够得到最大程度的发挥。智能模拟比单纯的文本分析和数学计算更能够有效兼顾法律所调整社会现象的复杂性和紧急性,从而验证立法者预设的相关量化标准是否适当,是否需要重构。[19]德国就已经将这种智能模拟、动态学习的信息处理模式落实为一种新的立法类型——实验法。[20]
即便是与数字和计算没有直接关系的法律规范,人工智能也能够起到重要的辅助起草作用。因为从某种意义上讲,“法律可以被理解为用于规定法定条件与法律后果之间映射关系的函数。理想的最优解法律,是能够有效反映系争行为及其法律后果之间映射关系的函数。这个函数既不会过度简单(欠拟合),也不包含不必要的复杂度(过拟合)”。[21]朝着这个目标,立法者可以应用包含相关算法的人工智能来起草法律规范,并借助前述智能模拟场景来验证其是否可以达成最优解,诸如实现权利、义务、责任、安全、效率、经济效益与社会福利等之间的综合平衡。
二、人工智能辅助立法的现实需求
从我国的现实情况来看,2011年十一届全国人民代表大会(以下简称全国人大)四次会议宣布中国特色社会主义法律体系已经形成。此后我国立法已进入到更加科学化、精细化和协同化的阶段,立法在多个方面都需要人工智能的辅助。
1
科学立法的人工智能辅助需求
《中共中央关于全面推进依法治国若干重大问题的决定》指出,科学立法的核心在于尊重和体现客观规律。从这个意义上讲,科学立法就是指运用科学理念、方法、标准去探求和发现法律所调整社会关系的客观运行规律,并将其形成规范体系的活动。整体而言,科学立法包括立法决策的科学性、立法过程的科学性以及立法结果的科学性。立法结果的科学性也即立法内容的科学性,其判断标准主要包括立法的合规律性、合体系性以及合目的性。[22]
立法决策的科学性要求立法应当符合国情或者地方的实际情况,有利于国家整体发展战略的实施和政策举措的推行,适应多层次、多方面的社会需求,并符合宪法、立法法关于立法体制的规定。[23]这就需要立法机关充分利用爬虫软件、智能检索软件、文本挖掘技术和智能信息征集平台等工具收集、抽取、分析和处理各类相关结构性和非结构性数据,建立国家之间或地方之间类似立法的比较模型,对现实的社会因素进行机器可读、逻辑严密、价值可估的法律“实体”转化,并对立法实施后的效果进行预测模拟,以考量和判断某项立法的必要性以及宏观上的理念导向、基本原则和框架体系。
立法的合规律性涉及的规律包括社会事件的因果律、特殊社会的具体规律、社会发展的基本规律、人类活动所涉及的自然规律等。[24]在这方面,立法机关同样需要寻求人工智能的协助。首先,对于某项立法所涉及社会事件的信息汇总,由人工智能从新闻报道、文献记录和其他相关材料中去检索挖掘显然比人工完成更具有可行性、快捷性和全面性。第二,以海量数据统计和概率计算为基础的人工神经网络对立法所调整社会关系之“规律”的探寻,比有限人类个体的认知更加客观、中立和准确。第三,人工智能中的遗传算法和强化学习不仅有助于发现与立法相关的自然世界的进化规律,而且有助于总结人与自然交互乃至纯粹社会活动过程中的最佳行动方案。最后,对于新兴科学技术领域的相关立法而言,人工智能对科学概念、理论、观点、争议的代码化、公式化和模型化,有利于立法者更加清楚地认识立法的重点和应当选择的路径。
立法的合体系性与合目的性事实上也是另外一种合规律性,是指立法的内容应当符合法律科学的内在构成规律和制度调整目的。就合体系性而言,人工智能在处理此种规范性文本和结构性数据中的优势更加明显,可以比较快速地发现立法的章节体例和具体条款在形式逻辑上可能存在的矛盾冲突之处,并给出相应的修改建议。就合目的性来说,人工智能同样能够轻松地发现某些法律条款不能实现立法宗旨甚至与立法宗旨相悖,以及不同的立法条款在实现立法宗旨的方式上可能并不统一,从而帮助立法者进行相应的调整。
2
精细立法的人工智能辅助需求
精细立法是与粗放立法相对而言的,指应当进行更具有针对性、实用性和可操作性的精确、细致立法。精细立法的标准大体包括立法领域的细分性、立法技术的精湛性和立法内容的准确性等几个方面。
立法领域的细分性是指面对当下社会分工日益扩大、社会交往日趋复杂的现实情况,无论是国家层面还是地方层面的立法,都需要突破理论认知和宏观实践上的法律部门、法律领域划分,而要以更加具体现实且有广泛牵涉性的问题为导向,制定能够有效解决问题、实现社会利益平衡的法律。在这方面,以维基百科为基础的开源知识图谱作为覆盖面较广的人工智能语料库,可以有效协助立法机关打破专业知识领域的禁锢和限制,而又不影响立法相关之垂直法律知识图谱的成功构建。[25]人工智能在立法领域细分上的另一方面辅助作用在于,其可以对作为细化立法依据的上位法规范在逻辑上做进一步的解析,提炼出更加细小的“实体”以及相关“属性-值”,并使之与实践中出现的新问题相对应。
立法技术的精湛性是指能够选择和使用最为适当的立法技术,将法学理论研究的科学成果和实践过程中的立法需要较好地转化为规范性法律文件的内容,实现法的理论、法的规范和法的实践的统一。[26]全国人大法工委在《关于〈立法技术规范(试行)(一)〉的说明》中指出:“立法技术规范包括法律的结构、形式、文体、修改和废止的方法等方面的规则,是起草、修改法律需要掌握的具体操作标准。”对于此类严格遵循特定命名规则、逻辑关系和对应形式的技术规范,人工智能可以进行最为准确的匹配和应用,几乎不会像人类法律起草者那样可能发生疏漏、矛盾或错误,因而更有利于提高立法的效率和保障立法的质量。
立法内容的准确性是指立法应当尽量减少政策性、宣示性条款,增强法律原则与具体规范之间的联系,并且具体规范所规定的主体、客体、权利、义务、权力、要件和结果等应当清楚明确,使所完成的立法更具可操作性和可执行性。为了更好地实现立法的准确性,一方面,人工智能中的文本挖掘和自然语言处理等技术可以将相关政策中的内容转换为具有规范结构和适用条件的法律条文,避免法律的空泛性;另一方面,通过对现实社会中相关数据的机器学习,人工智能可以更为准确地界定法律中的“实体”及其相互之间的“关系”,减少法律的模糊性,例如明确“有关部门”具体是指哪些部门,行政管理和执法应遵循何种程序,行为模式与法律责任之间如何对应等等。[27]
3
协同立法的人工智能辅助需求
协同立法是指具有立法权的不同部门或不同地区之间就特定问题进行协作共同立法。广义的协同立法既包括部门或地区联合制定一部法律,也包括部门或地区分别制定具有类似性或相关性、且彼此协调或衔接的法律,狭义的协同立法主要是指前者。在国家治理体系和治理能力现代化的建设过程中,协同立法是不可或缺的组成部分,具有重要的内在耦合功能。
当下我国从法律、行政法规到部门规章往往都是由某一主管部门或最为直接相关的部门来撰写和提出法律草案的初稿,这造成立法有意或无意地带有浓厚的部门利益倾向。部门之间的协同立法则可以在一定程度上淡化和消解这一问题。人工智能在部门协同立法中主要可以起到两方面的辅助作用:一是各部门实质性结构功能的划分与法律对应,二是立法过程中群组工作的技术支持。结构功能主义认为,任何一个整体系统都存在一定的结构体系,而结构又决定或影响着该系统功能的发挥。部门协同立法就是帮助中央政府实现国家层面的经济调节、市场监管、社会管理和公共服务等功能的独立系统。[28]人工智能可以通过两种方式来确定参与协同立法的各部门的结构功能划分:第一是根据现有立法对各部门的职权设定进行全方位的语义分析和制度匹配,第二是对立法所要解决的各具体问题所涉及的信息进行“认知的计算化”,使对应的管辖权设置、利益调整机制和法律后果形式等达到最优。[29]协同立法过程中的群组工作支持是指将人机交互过程中的“群件技术”应用于不同部门之间的工作流程,具体包括群件系统的体系结构、信息共享方式、决策支持工具、应用程序共享及同步实现方法等。[30]
与部门协同立法早有联合出台规章的实践不同,我国的地区协同立法显然仍处于摸索阶段,因而存在着更多需要谨慎思考的问题。例如,协同立法的“地区”,包括跨省市的区域、省级行政区划内的区域、省级行政区域与特别行政区一体化的区域等如何确定;地区协同立法的权力如何行使,遵循何种程序和方式;地区之间可以就哪些事项进行协同立法;地区协同立法的效力如何,应当如何实施等。[31]人工智能对于理清地区协同立法中的上述问题具有较强的辅助作用。首先,通过对宪法、立法法、法律、全国人大和省级人民代表大会的经济社会发展规划以及党中央的文件等进行智能检索和梳理,能够确定可以进行协同立法的地区名称、范围和权限。第二,除了一般性的群件技术外,通过对京津冀、长三角、珠三角等地区协同立法既有数据的机器学习,人工智能可以将优化的立法程序、措施算法化和类型化。第三,人工智能有助于全面而深入地挖掘真正需要跨地区协作执行的法律事项,在立法中构建明确的可操作机制,避免地区协同立法流于形式。
三、人工智能辅助立法的潜在问题
虽然人工智能辅助立法有其充分的理论基础和迫切的现实需求,但我们也应当清醒地认识到,人工智能技术的发展还有很大的改进空间,在很多方面与人类智能相比还存在着不足,而法律又是以调整人的行为和关系为中心的复杂文本,因此,人工智能在辅助立法的过程中必然会存在诸多潜在的问题。
1
法律知识表示的困境
人工智能辅助立法的首要困境是有关法律知识表示的。无论某部立法调整何种具体领域和社会关系,其都存在着一些在非法律话语体系下也具有不变内涵和以相同方式表示的通用概念,例如事件、时间、物理对象和信念等。这些通用的、基础的、上位的“本体论”概念对知识表示非常重要,因为其决定了对其下位的具体化、特殊化概念进行描述和表示的可能,从而也就使某种程度和范围的知识图谱得以成功构建。迄今为止,世界范围内的通用本体论工程都只取得了非常有限的成功。[32]而这些相对成熟的通用语义网,如词网(wordnet),又都是以英语作为自然语言处理的对象而构建的。中文语义网的探索与研究虽然也在语料库、依存句法网络等方面取得了一定的进展,但目前还缺乏认可度和接受度较高的语义网。[33]法律术语与日常用语在某些情形下的内涵和指称差异则进一步增加了相关知识表示的难度。
即便是从法律领域的专用本体论工程角度来看,人工智能辅助立法中的知识表示和知识图谱构建也存在不小的困难。第一,我国在自然语言形态上尚且缺乏权威的、保持动态更新的法律词典,就更难以期待人工智能在不同立法中所构建的知识图谱在“实体”及其“属性-值”上具有高度一致性。第二,传统的基于规则和基于案例的法律专家系统,都是以法律适用中的“问题求解”为目标的知识框架,[34]对相关法律知识体系的修正或重构难有直接帮助,甚至这些法律和案例的数据库本身都存在各种各样的缺失和错乱。第三,在立法需求较多的网络治理和相关领域,法律知识表示如何融合多源信息,尤其是互联网文本中的开放数据,在整个人工智能技术开发领域都还处于起步的阶段。[35]第四,立法所调整的现实世界的主体、客体、行为和关系的复杂性以及法律概念外延本身的不确定性决定了,只有通过设计和开发多智能体的方法才可能在一定程度上解决相关知识表示的问题,而这种工作向来并不容易。[36]第五,人工智能辅助立法中的知识表示工作乃至知识图谱构建,需要法律专家与计算机专家的深度交流和专业融合,最好是有“法律+算法”的复合人才和工作团队,而这方面实践显然还欠缺。
2
逻辑推理设计的缺陷
人工智能辅助立法中的逻辑推理设计缺陷与其知识表示问题密切相关。传统上,符号主义人工智能通过应用“如果-那么”(If-Then)的基础逻辑来处理和表示法律概念,并建构起整个制度体系,虽然在形式上与法律推理的“三段论”高度契合,并且在结果上能够很好地生成立法所追求的法律文本,但由于人工智能并不真正理解相关法律概念所对应的现实世界事物,所以该法律文本在适用过程中的具体指称和实质解释就存在很大的问题。塞尔在“中文屋”思想实验中所提出的关于符号主义人工智能缺乏生成理解力或意向性之“恰当因果能力”的一般质疑,在人工智能辅助立法领域仍然未能得到解决。
基于符号主义和形式逻辑的人工智能在辅助立法的过程中可能会存在以下一些具体的缺陷。第一,当法律体系较为庞大时,新旧规则会导致编程中的潜在逻辑冲突难以被发现。第二,由于缺乏人类的直觉、经验和常识,人工智能在立法过程中对事实进行编码的框架可能发生莫名其妙的错误,尤其是无法涵盖和表示那些存在“缺省赋值”的例外情形。第三,消解定理证明的应用可能会导致人工智能设计的相关法律条款在适用过程中被不当地进行“反对解释”,产生错误的结论。因为在现实生活中,证明某事为假,和不能证明它是真并非一回事。第四,人工智能立法依据“单调推理”逻辑确认为真的基本原则和规则有些并非永远为真,而这一问题即便是引入“非单调推理”逻辑和“模糊”逻辑也不能完全得到解决。[37]最后,尽管“道义逻辑”在法律规范设计和法律推理中的应用已经取得了较大进展,[38]但人工智能距离将人类伦理价值取向代码化并体现到立法中还非常遥远。
神经网络和机器学习的发展对人工智能辅助立法中的上述逻辑缺陷同样无能为力。作为一种将重点从逻辑转向概率和信念程度的联结主义人工智能,概率会遇到与逻辑相同的难题:“会出现可能为真却无关的结论,会有可能为真却难寻的结论,会有无对立信息才可得出的结论,更会有一些与得出结论无关的方法。”[39]具体到人工智能辅助立法领域而言,深度学习可以通过对大数据的分析得出关于某一类行为及其结果在统计上概率最高的联系,并以此来确定调整相关主体之间关系的法律规范,但是概率最高并不等于真实的因果关系,据此确定的规则就有可能违反正义公平价值。[40]
3
信息计算处理的隐患
人工智能辅助立法在信息的抽取、计算、分析和处理方面也存在若干隐患。第一,人工智能在数据处理方面的一般问题也会显现于辅助立法领域。具体而言,为了创制面向未来的法律规范体系,人工智能需要收集与立法所调整社会关系密切相关的信息,在此过程中,可能会面临数据匮乏或数据过剩、以及数据漂移等问题。数据匮乏是指由于隐私、安全保护或者技术、收集渠道等方面的原因,人工智能不能获得为辅助立法所需要的足够数据量,以至于强大的算力优势无从发挥。数据过剩是指由于算法设计等的偏差,人工智能收集了过多的与立法无关或者不能满足标注和训练需要的数据。数据漂移则是指由于所调整对象的动态变化性,为立法而收集的历史数据与法律实施后的未来实际数据存在显著差异,导致依据人工智能计算结果而进行的立法设计无法适应现实生活。[41]
第二,人工智能展开的信息计算主要适合进行的是法学定量研究,但是立法却是要制定具有普遍适用效力的规则体系,其中包含对大量一般性、抽象性问题的界定,需要进行相当多的定性研究。在人工智能辅助立法的过程中,如果过于追求数据化驱动带来的便利,突破法律所调整社会关系在数理上的模糊性而进行不当的数据化加工,完全依赖可计算性或数学建模来制定法律规范,既会造成上述种种逻辑缺陷,也会悖离法律的基本价值取向。[42]
第三,即便是在定量治理色彩十分浓厚的立法领域,由于主体及其行为选择策略的多元性,以及法律之间、法律与其他社会规范之间的牵连性等复杂的因素,人工智能也并非总能够构建一个有利于实现法律调整目标的数据模型,并据此完成良好的制度设计。例如,在经济法和社会法领域的很多新立法,像税收立法,往往以减少和缩小贫富差距为目标,在这方面衡量国民收入差距的“基尼系数”是一个较为直接和实用的指数,但是如果人工智能单纯以基尼系数为准而进行立法的数据计算分析,所得出的制度模式必然不是最佳的问题解决方案,因为贫富差距的缩小和实质正义的实现还与社会保障制度等其他因素密切相关,立法者必须考虑调整对象的综合利益权衡和行为选择空间。[43]
第四,执着于计算结果的人工智能可能潜藏着设计者都未曾意识到的算法歧视,由此而制定的法律规则就无法做到真正的公平。早在2015年-2016年,欧盟和美国就注意到大数据算法分析对弱势群体的歧视和排斥问题。数据的不完美性往往使算法继承了人类决策者的种种偏见。数据挖掘所意外发现的一些规律也有可能是关于排斥和不平等的既有模式。不加深思熟虑就依赖算法、数据挖掘等技术可能排斥弱势群体参与社会事务。[44]在立法领域,尤其是追求实质正义和社会公平的立法,这样的人工智能算法会造成明显的利益失衡。
四、人工智能辅助立法的渐进方案
尽管人工智能辅助立法存在上述潜在的问题,但其主体面仍然是积极有益的,因此,我们不能因噎废食,彻底放弃此条创新且可行的立法路径尝试。从另一个角度来说,人类立法也有不少无法避免和难以克服的缺点,所以我们需要做的是充分发挥人类思维和智能计算各自的优势,互为补充、相辅相成地推进人工智能辅助立法的实践方案。
1
法律知识工程储备
“工欲善其事,必先利其器。”人工智能辅助立法要想取得成功,就必须从数据、知识、技术和组织等方面做好充分的准备,提前构建好体系完整、结构合理的法律知识工程。
第一,全国人大和地方各级立法机构应当进一步完善既有立法文本的数据库。此种完善不仅包括数量上的补全,现行有效与否的明确,更为重要的,是使之能够进行多角度的交叉检索和细节性的深度检索,从而保证未来人工智能辅助立法中相同“实体”概念及其关系之逻辑编程的一致性。类似的案例数据库完善工作也要在最高人民法院和地方各级人民法院之间展开,尤其是涉及运用司法上的自由裁量权进行法律漏洞填补的案件,因为这与人工智能辅助立法中创造新的“实体”概念及设定其“属性-值”密切相关。此外,为这些立法和案例数据库提供公共的阅读尤其是评论空间,则可以在更广泛意义上收集未来法律修正或创制所需的数据,在一定程度上减少因人为的思维定势造成的立法偏见。[45]立法所需的统计数据汇集、社会意见征集和其他数据收集也应当形成固定的流程和标准,以方便人工智能进行信息抽取和立法计算。
第二,全国人大可以联合中国法学会组织权威专家学者编纂定期更新的在线法学词典。对于人工智能辅助立法而言,该法学词典应当能够起到专业语料库的作用,从而便于立法机关基于本体进行法律体系的建模。要完成该项建模工作,与法律术语相关的自然语言处理技术的开发和不断升级也不可或缺。在法律领域的专业语料库和语义网建设之外,我国立法机关和相关主管部门还应当鼓励和引导人工智能研发机构与互联网企业共同开发类似于词网的一般性中文语义网,在更全面覆盖立法相关知识表示的同时,也使得人工智能辅助完成的立法成为更契合调整对象行为习惯和特点的规范体系。
第三,各级立法机关应当围绕立法过程的科学化、精细化和协同化要求进行有针对性的人工智能算法设计和机器学习训练。具体的工作主要包括:通过编程将立法程序规范和立法技术规范代码化,从而使立法的伦理价值与专家知识更加一致,使新的立法较好地整合到现有法律代码中,并且使该立法在不影响基本代码的情况下具有适应情境的灵活性。[46]加强与立法中实体概念划分相关的聚类算法和贝叶斯算法研究,并通过深度学习和强化学习尽可能使常识程序化。[47]组织法律专家与计算机技术专家一起对人工智能要学习的数据进行标注,使该监督学习能够更好地保障其后立法中逻辑关系框架建构的合理性。
2
特定类型立法尝试
法律知识工程、中文语义网的建构以及人工智能辅助立法过程中各类算法的设计、机器学习的展开都并非一蹴而就的工作。现阶段想让人工智能去帮助完成体系庞大、内容复杂、调整范围广泛的立法还显得操之过急。因此,我们可以就一些特定类型的立法进行循序渐进的尝试,并随着人工智能技术和法律人工智能研究的进步而不断解决所发现的问题,最终迎来一个普遍的人工智能辅助立法时代。
第一种类型的人工智能辅助立法尝试,是对现行法律法规的非根本性修正和直接实施现行法律法规的下位细则立法。人工智能在此类立法中的应用与在司法中的应用具有很多的共性。就法律知识表示和知识图谱构建而言,其主要的“实体”和“关系”已经体现在现行法律规范中了,人工智能需要做的是对内涵发生显著变化的“实体”及相关的“关系”进行重新编码,并将新增的“实体”代码化和整合到原有的知识体系中。就逻辑框架设计而言,人工智能在此类立法中一般无需增加新的算法和推理模型,而只需要将原有的演绎推理和类比推理等算法应用到新增加的规则当中。[48]就立法所需信息而言,旧法和上位法在实施过程中已经积累了一定的司法案例、执法数据、专家观点、媒体评论、公众意见和其他相关数据,可以作为机器学习和概率统计的素材,也可以作为设计推动法律制度“进化”之遗传算法的依据。
第二种类型的人工智能辅助立法尝试,是所调整社会关系或地域范围等相对集中有限的新立法。立法所调整社会关系的有限性可能体现在客体的专门性上,例如对某类科学技术的研发和应用进行监督管理的立法,制定劳动安全卫生技术规程或其他国家强制性技术标准的立法;也可能体现在主体的特定性上,例如对具有某种特定宗旨的非营利性法人组织的设立、运营和管理等进行规制的立法。在这些立法中,客体的专门性尤其是技术性使得调整它们的法律规范比较容易代码化,并且因其与社会公众的日常生活联系并不密切,可以减少由于人工智能的常识认知缺陷所带来的立法隐患。主体的特定性则使得集体共识或自律规范容易达成,也就便于人工智能进行符号化处理,主体的特定宗旨也使得其行为的作用对象和范围比较有限,如此一来,人工智能也就容易完成实体关系和法律知识图谱的构建。立法所调整地域范围的有限性主要体现为地方立法机关根据《立法法》的授权就城乡建设与管理、环境保护和历史文化保护等方面的某一特定问题所进行的立法。地域范围的有限性本身就降低了社会关系的复杂性,而地区环境和历史文化的独特性则更加便于人工智能对其进行知识表示和立法“计算”。
第三种类型的人工智能辅助立法尝试,是与数学计算存在较为直接密切联系的金融财税等立法。这些领域的立法以各种金钱数额和比例区间等为直接的调整依据,因此,如前所述,在算力上比人类具有明显优势的人工智能可以发挥重要的作用。不仅如此,金融领域也是人工智能应用普及程度较高的四大行业领域之一,[49]这就为该领域法律规则的智能化创制提供了更为便利的条件。
上述类型的立法由于实体数量、关系网络和动态变化等情况都不太复杂,也便于进行智能场景的模拟以评估法律实施的可能效果,或者是对现场实验的数据进行人工智能的计算分析,进而权衡法律文本是否有修改的必要以及应当如何修改。
3
人工审查纠偏完善
无论人工智能技术的发展如何进步,其辅助立法的实践如何成熟,法律始终应当是以人为本的,人的主体性、价值性和目的性不可动摇,所以人工智能辅助完成的立法必须接受人类的终极审查才能生效。
人工审查的第一个方面是对人工智能辅助起草的法律文本进行语言上的全面仔细检查和推敲。即便是我们如愿完成了法律语料库和一般中文语义网的初步建设,人工智能在应用自然语言处理技术进行机器可读代码与立法中规范术语的相互转换时也并非总能尽善尽美。因为立法在处理与现有法律规范关系时一般会用到基于规则的自然语言处理技术,而在创设全新的法律规范时则会用到基于统计的自然语言处理技术,两种技术在同一立法过程中的混合应用就可能会造成法律语言的不一致问题。而且在法律术语与日常用语内涵不一致的情况下,基于统计的自然语言处理技术本身就可能会做出错误的选择。此外,语言与内涵之间的多映射关系,同一种语言形式可能有多种意思,例如“合同”既可以指法律行为也可以指法律关系;同一种意思可以由多种语言形式表达,例如“应当”与“必须”“合理”与“正当”等,也可能导致人工智能辅助起草的法律文本产生一定的混乱。这些都是人工审查立法文本应当重点注意的地方。
人工审查的第二个方面是认真梳理人工智能辅助完成的立法中内在逻辑关系较为复杂和现实情况较为多变的部分,斟酌是否需要以及如何进行调整。针对前述人工智能辅助立法中的潜在逻辑缺陷,人工审查首先应当考察人工智能按“非假即真”逻辑设计的单个法律条文是否符合现实生活的复杂情况,是否需要运用模糊逻辑进行适当的修改;其次应当审查因形式逻辑的机械性、僵化性所可能造成的法律漏洞,主要是思考是否需要增设相关的兜底条款或例外规定;再次应当考察立法文本中需要超越简单的谓词逻辑进行体系解释的条文之间的衔接和呼应情况;最后应当审查与现实情境变迁密切相关的法律条文,判断其是否为司法上的动态解释和自由裁量预留了足够空间。
人工审查的第三个方面是着重考量人工智能辅助立法过程中较为欠缺的因果关系认定和可解释性问题。面对以神经网络为基础的机器学习尤其是深度学习为了追求数据计算和处理效率而牺牲可解释性的技术现实,除了必要的算法透明措施外,就人工智能辅助立法而言,由人类法律知识工程师对作为立法结果的法律规定进行具体解释无疑是一种必要且积极的做法。[50]人类专家在解释人工智能生成法律条文的过程中就可以发现前述因数据过剩、数据匮乏、数据漂移等造成的信息抽取和立法计算问题,也可能发现人工智能潜藏的算法歧视或算法偏见。这事实上是人类理性主义认知和常识对人工智能经验主义统计和计算之不足的弥补。并且,此种构成立法说明和立法理由一部分的解释,对未来的法律适用和法律实施也具有重要的指导作用。
人工审查的第四方面是研究人工智能辅助完成的立法中与社会伦理、人的情感和意向性相关的规范内容是否恰当。法律当中往往蕴含着一些基本的道德伦理要求,例如诚实信用、善良风俗等,它们作为法律的基本原则贯穿整部法律始终,通过若干具体的制度规范得以体现和落实。虽然伦理规范与法律规范一样可以被算法化,但是由于前者更具有先天性、主观性和模糊性,所以其程序框架设计的结果更容易出现问题,更需要人为判断的干预。除了一般的社会伦理外,在具体的社会关系中,法律又是调整人的行为的,因此人在做出行为时的动机、目的、意志乃至情绪等直接关系到法律的适用。人工智能辅助进行法律规范设计时却是将情感计算化和模型化的,[51]这必然与人类情感和意向性的本质有一定的差别。为避免这种差别造成立法的缺陷,有必要通过人工审查重点考量相关法律规范中的主观要件及其对应的法律后果。
五、结论
人工智能辅助立法在我国理论和实务界都尚未引起足够的重视。现有研究相对有限,大多集中于宏观层面如何加强人工智能的应用,或者立法流程的各阶段人工智能可以发挥何种作用。人工智能辅助立法的实践同样比较欠缺。因此,有必要从理论和实践两方面对人工智能辅助立法进行深入且系统的思考和讨论。
从理论上讲,人工智能主要可以在法律知识图谱构建、逻辑推理框架设计和量化信息抽取处理等方面发挥立法辅助作用。通过对结构性文本、数据和非结构性数据的分析,综合运用规则主导型模式、案例主导型模式和本体论方法,人工智能可以构建法律修正或创制的知识图谱。语义网的建设和自然语言处理技术的应用也可以在立法知识图谱的构建中发挥重要作用。人工智能不仅可以辅助进行一项立法内部的概念位阶和逻辑体系设计,而且可以帮助理顺整体法律框架内不同法律之间的逻辑关系,还可以通过逻辑推理模型进行立法后评估工作。人工智能的聚类算法、强大算力、计算模拟等对于立法所需的信息统计、抽取、分析、处理以及内在制度设计和检验都具有人类无法比拟的优势。
就现实而言,科学立法、精细立法和协同立法的实现都离不开人工智能的辅助。科学立法对于立法多维度合规律性的追求十分依赖人工智能通过信息统计分析和机器学习所挖掘的社会关系运行的各种“规律”。精细立法所追求的立法领域细分性、立法技的精湛性和立法内容准确性都需要借助人工智能在符号处理、逻辑分析和文本挖掘等方面的技术应用。人工智能还可以对协同立法中部门或地区的结构功能、立法权力、立法程序、立法事项和工作机制等的划分和确定起到关键作用。
囿于人工智能技术的整体发展水平和法律人工智能的研究现状,人工智能辅助立法还存在不少潜在问题。无论是法律领域的专用本体论工程还是一般意义上的中文语义网,目前我国都尚未建成。法律和案例数据库的完善程度欠佳,融合网络开放数据的法律知识表示技术不够成熟,法律专家与计算机专家的深度交流合作不足,都影响了立法所需法律知识图谱的构建。符号主义人工智能的形式逻辑框架以及联结主义人工智能的统计概率方法都难以确定事物之间真正的因果关系,因而在辅助立法时就存在着诸多逻辑缺陷。人工智能在辅助立法过程中进行的信息计算可能因数据匮乏、过剩、漂移等带来问题,并且在定性规则的设计上会因过于追求数据化悖离基本的法律价值,还可能存在未被意识到的算法歧视。
基于以上情况,人工智能辅助立法的工作应当在做好充分准备的情况下渐进而行,逐步拓展和普及。首先是要做好法律知识工程的建设工作,包括完善法律文本和案例的数据库,编纂权威且动态更新的在线法学词典,建设一般意义上的中文语义网,加强立法程序和立法技术规范的代码化等等。其次是要在特定类型的立法中进行人工智能辅助的尝试,包括现行法律法规的修正和下位细则性立法、调整对象和范围较为集中的立法、以及与数学计算有较为直接密切联系的金融财税立法等。最后是要对人工智能辅助立法进行人工审查,包括法律用语准确性和一致性的审查、内在逻辑关系及其与现实对应性的审查、因果关系和可解释性的审查,以及是否与社会伦理、人的情感和意向性相适应的审查。
①与哲学领域的“本体论”旨在研究客观事物存在的本质不同,人工智能领域的“本体论”主要是用来界定相关领域的术语和关系,是工具性和应用性的。在人工智能立法的过程中,由于直接涉及自然语言与算法语言的转换,所以该“本体论”又与关注语言实体、属性和范畴的语言领域“本体论”紧密相关。
参考文献
[1]钱大军,苏杭.人工智能视阈下我国立法决策模式之转变.湖南科技大学学报(社会科学版),2018,21(6):70-81.[2]高绍林,张宜云.人工智能在立法领域的应用与展望.地方立法研究,2019,4(1):45-53.[3]姜素红,张可.人工智能辅助地方立法的应用与规制.湖南大学学报(社会科学版),2019,33(4):139-146.[4]李超.人工智能辅助立法:现状,困境及其因应.人大研究,2020(4):14-20.[5]张妮,杨遂全,蒲亦非.国外人工智能与法律研究进展述评.法律方法,2014,16:459-464.[6]中国电子技术标准化研究院.人工智能标准化白皮书.2018:13-14.[7]高翔.人工智能民事司法应用的法律知识图谱构建——以要件事实型民事裁判论为基础.法制与社会发展,2018(6):66-80.[8]MichaelAikenhead,A.Valente.LegalKnowledgeEngineering:AModelingApproach,FrontiersinArtificialIntelligenceandApplications.InternationalReviewofLaw,Computers&Technology,1996,10(2):351-354.[9]李菲.法律人工智能的接近正义面向——以本体方法智能化法律信息供给.理论与现代化,2020(1):61-62.[10]贾君枝,毛海飞.基于法律框架网络本体的语义匹配技术研究.情报理论与实践,2008,31(1):125-126.[11]LewisJohnMcGibbney&BimalKumar.AnIntelligentAuthoringModelforSubsidiaryLegislationandRegulatoryInstrumentDraftingwithinConstructionandEngineeringIndustry.AutomationinConstruction,2013,35(4):121-130.[12]LaymanE.Allen.SymbolicLogic:ARazor-EdgedToolforDraftingandInterpretingLegalDocuments.TheYaleLawJournal,1957,66(6):833-879.[13]张扬武.语义网络在法律专家系统中的应用研究.软件,2014,35(6):92.[14]塔内尔·克瑞科密,桑德·拉萨拉夫.逻辑与法律推理的自动化模型.吕玉赞译.法律方法,2018,23:86–87.[15]EdwinaL.Risslandt.ArtificialIntelligenceandLaw:SteppingStonestoaModelofLegalReasoning.TheYaleLawJournal,1990,99(8):1956-1957.[16]佩德罗·多明戈斯.终极算法——机器学习和人工智能如何重塑世界.黄芳萍译.北京:中信出版社,2017:266–272.[17][18]NachshonGoltz,MichaelMayo.EnhancingRegulatoryCompliancebyUsingArtificialIntelligenceTextMiningtoIdentifyPenaltyClausesinLegislation.Robotics,ArtificialIntelligence&Law,2018,1(3):175-191.[19]MichaelAikenhead,RobinWiddison,TomAllen.ExploringLawthroughComputerSimulation.InternationalJournalofLawandInformationTechnology,1999,7(3):191-217.[20]余成峰.法律的“死亡”:人工智能时代的法律功能危机.华东政法大学学报,2018(2):9-10.[21]蒋舸.作为算法的法律.清华法学,2019,13(1):73.[22]冯玉军,王柏荣.科学立法的科学性标准探析.中国人民大学学报,2014(1):92-98.[23]张伟.科学立法初探.人大研究,2016(10):36-37.[24]黄建武.科学立法与民主立法的潜在张力及化解.地方立法研究,2020,5(2):3.[25]尼克.人工智能简史.北京:人民邮电出版社,2017:76.[26]郭跃.论立法精细化的标准与实现路径.学术界,2016(2):169.[27]郭秉贵.设区的市地方立法精细化问题研究.河南财经政法大学学报,2020(1):29-38.[28]刘长云.部门利益和地方保护主义法律化的规制研究.湖南大学博士学位论文,2016:83.[29]张真源.面向人工智能时代的应急法制体系——以“结构-功能”分析方法为进路.西部法学评论,2020(1):76-77.[30][31]刘松山.区域协同立法的宪法法律问题.中国法律评论,2019(4):66-68.[32]StuartJ.Russell,PeterNorvig.人工智能:一种现代方法(第3版).殷建平等译.北京:清华大学出版社,2012:362.[33]杨华,姬东鸿,萧国政.汉语语义场网络中的无标度分布现象.中文信息学报,2015,29(3):35.[34]UriJ.Schild,YaelSaban.KnowledgeRepresentationinLegalSystems.SyracuseLawReview,2002,52(4):1321-1330.[35]刘知远等.知识表示学习研究进展.计算机研究与发展,2016,53(2):256.[36]魏屹东.人工智能对不确定性的适应性表征.上海师范大学学报(哲学社会科学版),2020(4):97-113.[37]玛格丽特·博登.人工智能的本质与未来.孙诗惠译.北京:中国人民大学出版社,2017:40-45.[38]王涌.道义逻辑,人工智能与法律——霍菲尔德法律关系形式理论的应用.经贸法律评论,2020(2):73-83.[39]赫克托·莱维斯克.人工智能的进化.王佩译.北京:中信出版社,2018:148.[40]季若望.法律的再生:人工智能时代的凤凰涅槃.上海对外经贸大学学报,2020,27(4):116-117.[41]林琳.人工智能项目失败的六大原因.计算机与网络,2019(16):38-39.[42]陈亮等.基于法计算学理论的人工智能辅助决策算法研究.华东师范大学学报(自然科学版),2019(5):88.[43]杰瑞·卡普兰.人工智能时代——人机共生下财富,工作与思维的大未来.李盼译.杭州:浙江人民出版社,2016:172–178.[44]腾讯研究院,中国信通院互联网法律研究中心.人工智能——国家人工智能战略行动抓手.北京:中国人民大学出版社,2017:242-243.[45]AndrewJ.Martineau.ReinforcingtheInfrastructureofLegalResearchthroughCourt-AuthoredMetadata.LawLibraryJournal,2020,112(1):27-28.[46]L.WolfgangBibel.AIandtheConquestofComplexityinLaw.ArtificialIntelligenceandLaw,2004,12:172.[47]皮埃罗·斯加鲁菲.智能的本质——人工智能与机器人领域的64个大问题.任莉,张建宇译.闫景立审校.北京:人民邮电出版社,2017:134-139.[48]杜文静,蔡会明.法律论证的人工智能模型.法治论丛,2019(1):55.[49]亿欧智库.AI进化论——解码人工智能商业场景与案例.北京:电子工业出版社,2018:10.[50]王禄生.论法律大数据“领域理论”的构建.中国法学,2020(2):277.[51]TheoreticalAnalysisandPracticalConsiderationsofArtificialIntelligenceAssistedLegislation
LIZong-hui
(CollegeofHumanitiesandSocialSciences,NanjingUniversityofAeronauticsandAstronautics)
Abstract:Artificialintelligence-assistedlegislationisalegalfieldthatneedstobestudiedindepth.Fromthetheoreticalbasis,artificialintelligencecanplayaroleinassistinglegislationintheconstructionoflegalknowledgegraphs,thedesignoflogicalreasoningframeworks,andthequantitativeextractionandprocessingofinformation.Fromtheperspectiveofactualneeds,therealizationofscientificlegislation,finelegislation,andcoordinatedlegislativegoalscannotbeachievedwithouttheassistanceofartificialintelligence.Limitedbythedevelopmentlevelofartificialintelligencetechnologyandthecurrentresearchstatusoflegalartificialintelligence,artificialintelligencealsohasseveralpotentialproblemsintheprocessofassistinglegislation.Inordertomaximizethestrengthsandavoidweaknesses,andmakeartificialintelligencelegislationandhumanlegislationcomplementarytotheadvantages,weshouldimprovetheconstructionoflegalknowledgeprojects,conductartificialintelligenceassistanceattemptsforspecifictypesoflegislation,andstrengthenthehumanreviewofAI-assistedlegislation.
Keywords:artificialintelligenceassistedlegislation,knowledgegraph,logicalreasoning,informationprocessing
作者简介:
李宗辉,南京航空航天大学人文与社会科学学院副研究员。研究方向为知识产权法、网络与人工智能法。
END返回搜狐,查看更多