全国首部人工智能立法,中国方案形成中
图源:东方IC
9月6日,我国首部人工智能产业专项立法《深圳经济特区人工智能产业促进条例》正式公布,于2022年11月1日起实施,破解人工智能落地难题的同时,《条例》还要求政府设立专门的人工智能伦理委员会,推进人工智能伦理安全规范的制订和实施。
人工智能发展绝不能以伤害人类为代价,这是一大定律,但如何通过立法来保护人类?在2022世界人工智能大会上,上海市法学会会长崔亚东表示,人工智能法治建设已经成为全世界的共识,要建立健全相关的法律法规、制度体系、伦理道德,形成人工智能依法治理的中国方案。
生而为人,不能被AI计算
如果一位骑手接到5个订单,10个任务点,系统会在11万条路线规划中,完成万单对万人的秒级求解,算出最快的送餐路线。这段描述出自一篇爆火的调查报道《外卖骑手,困在系统里》。
人工智能算法可以给出最快的方案,却将骑手的配送时间压缩到极致,但凡多等个红绿灯可能都会超时。骑手不得不选择超速行驶,其生命安全与路人安全,都是人工智能考虑不到的范围。
“我建议在AI算出的时间上,再多预留5至10分钟;不仅是给予骑手一些可控空间,也是对人对生命的一种尊重。”上海市司法局副局长罗培新表示,人是自由且灵活的,不应该被AI所计算,人工智能发展条例制定中,以人为本是原则性规定。
就以人为本而言,复旦大学附属华山医院教授顾士欣举了个例子,A方案能延长病人5年的寿命,期间病人可以正常生活,吃喝玩乐不受限制;B方案能延长病人6年的寿命,但需要服用大量昂贵药物,且只能卧床养病忍受病痛。作为人来说,A方案无疑是最理想的选择;但人工智能会选择B方案,因为寿命延得更长。
不可否认的是,人工智能确实推动了医疗事业的发展,帮助医生救治更多病人,但最高效便捷并不代表最好。目前,人工智能只能依靠单一的数据算出所谓的“最优解”,而无法理解人类特有的情感、思维、伦理。要真正做到以人为本,还是需要人类自己参与判断。
在迈向智能化、数字化时代时,人工智能治理的挑战随之而来。
“我认为对于人工智能来说,法治是最好的营商环境,也是最好的治理能力的基础、要义和归宿。”上海市政协副主席周汉民认为,人工智能发展超前半步即可,治理要紧紧跟上,不能超前也不能滞后。当前需要做的就是完善“以人为本”的人工智能治理体系,加快推动立法,形成共识、广泛的标准化条例法规和治理框架。
数据安全立法事关人人
人工智能拥有如此强大的算力,少不了数据的支撑。大数据时代下,每个人仿佛都没了“隐私”,如何保护隐私数据安全,成为人工智能法治的重中之重。
虽然国家在2021年颁布的《中华人民共和国数据安全法》中,明确规定保障国家、企业和个人数据安全的重要性,建立健全全流程数据安全管理制度。但对于人工智能的数据运用与保护方面,并没有相关规定。
虽然没有系统的立法,但在部分法律条例中有提及数据保护。
《东方法学》一书中提到,基于数据权益保护实践以及数据产权本身的特殊性,《反不正当竞争法》可以成为架构和保护企业数据权益的重要法律。上海交通大学知识产权与竞争法研究院院长孔祥俊也提到,在第三次《反不正当竞争法》修订中,将以企业数据权益保护作为重点,构建一种既赋予排他性,又兼顾数据流通利用的商业数据弱权利保护机制。
在商业竞争中,企业用攫取竞争对手数据的方式来达到压制对方发展,更有甚至派黑客蹲在竞对楼下拖库,《反不正当竞争法》数据保护条例出台的初衷可能是保护企业在正当、健康的法治环境里发展,但如今却具有普世的价值。
如何让数据可用又安全?抖音集团数据及隐私法务负责人田申介绍,传统的数据脱敏或匿名化处理保护方式,都要以牺牲部分数据维度为代价,导致数据信息无法有效被利用;而隐私计算则是在保证安全的前提下尽可能使数据价值最大化。
数据法律的确立,将给予隐私计算技术一个稳定且准确的考量,还为技术提供了改进方向;若是将技术与相关法律进行配套,数据安全将得到最大程度的保护。
政府与企业转变“猫鼠关系”
当汽车无法识别出行人时,究竟是优先保护车主撞向行人,还是优先保护行人撞向护栏?事后的判决,究竟是车主担责,还是车企担责?面对如此复杂多样的问题,单靠立法机关的力量是不够的,而是需要人人都参与到法制建设中。
“政府与企业应转变传统的猫鼠关系,发挥企业的敏捷联动,尤其鼓励头部企业进行合作,共同推动行规形成。”国家新一代人工智能治理专业委员会主任薛澜所提出的人工智能敏捷治理模式,需要企业参与立法,将抽象模糊的治理准则转换成具体精准的法律法规,并纳入到相关政策中。同时听取专家的专业建议和社会上的多种建议,实现多主体参与,全方位共同治理。
阿里研究院数据经济研究中心副主任傅宏宇也同样表示,人工智能治理是一个多学科、多方面的共同探索过程;建立一个内外联动的协同共治机制,让更多专家学者、公民融入其中,也让每个人从人工智能中获益。
除了联动国内多方参与外,还要以包容开放的心态,学习借鉴国外的人工智能治理方法。比如欧盟在人工智能法提案中,设置了4种风险等级,每一个等级都有相应的监管规则。
“立法既要包容开放,更要守住底线。”上海市人大常委会法制工作委员会主任闫锐认为,集思广益的同时也要杜绝以法谋私的行为,底线是法律的基本框架,在框架内畅所欲言才能积极推动人工智能立法。
作者/IT时报见习记者沈毅斌
编辑/挨踢妹
排版/季嘉颖
图片/东方IC
来源/《IT时报》公众号vittimes
原标题《全国首部人工智能立法!中国方案形成中》
人工智能立法提速 把握“边界”是关键
原标题:人工智能立法提速把握“边界”是关键
李彦宏
全国政协委员、百度董事长兼CEO
立法本身不应该太超前,很多时候新事物刚刚出现,让它稍微跑一段时间然后再总结经验,找到规律再来立法。其次,在不同的领域,涉及的立法都不一样,比如说像无人驾驶,在过去就没有相关的法律。
刘庆峰
全国人大代表、科大讯飞董事长
人工智能立法首先要保障人类的生命和财产安全,也就是说人工智能一定是要在风险可控范围内来使用,比如说在自动驾驶领域,它的应用门槛和标准是什么;在医疗领域,人工智能要达到一定的准确度,而且最好通过一定的资质认证。
3月4日上午,十三届全国人大二次会议举行新闻发布会,大会发言人张业遂表示,已将与人工智能密切相关的立法项目列入立法规划。
张业遂称,全国人大常委会已将一些与人工智能密切相关的立法项目,如数字安全法、个人信息保护法和修改科学技术进步法等,列入本届五年的立法规划。同时把人工智能方面立法列入抓紧研究项目,围绕相关法律问题进行深入的调查论证,努力使人工智能创新发展,努力为人工智能的创新发展提供有力的法治保障。
从2017年首次被写进政府工作报告,到去年受到多位两会代表委员关注,人工智能俨然已经成为两会的焦点。2018年国务院总理李克强作政府工作报告时提到,发展壮大新动能。做大做强新兴产业集群,实施大数据发展行动,加强新一代人工智能研发应用,在医疗、养老、教育、文化、体育等多领域推进“互联网+”。
随着人工智能的迅猛发展,其对社会、经济、文化等领域已经产生越来越深远的影响。同时,人工智能面临伦理道德框架、隐私与安全保护等问题,为了让人工智能实现健康发展,急需一套完善的法律体系与之匹配。
从追赶到全球领先
虽然人工智能最早的浪潮起源于上世纪50年代的美国,但经历了近70年来的曲折发展,中国已经成为全球领先的人工智能大国。根据联合国下属的世界知识产权组织(WIPO)公布的研究报告《技术趋势2019:人工智能》显示,在全球人工智能领域的竞争中,中国和美国处于领先地位。
报告指出,AI专利申请最多的前20家科研机构中,有17家来自中国;AI相关科学出版物数量排名前20的科研机构中,10家来自中国。全球前30名AI专利申请方中的4家科研机构,有3家来自中国。
另据CNNIC第43次调查报告显示,截至2018年6月,我国人工智能企业数量已达到1011家,主要集中在北京、上海和广东。其中,北京拥有395家企业,成为全球人工智能企业最多的城市。
去年,习近平总书记在中共中央政治局第九次集体学习时强调指出,加快发展新一代人工智能是我们赢得全球科技竞争主动权的重要战略抓手,是推动我国科技跨越发展、产业优化升级、生产力整体跃升的重要战略资源。
他在讲话中特别指出,人工智能具有溢出带动性很强的“头雁”效应。“在移动互联网、大数据、超级计算、传感网、脑科学等新理论新技术的驱动下,人工智能加速发展,呈现出深度学习、跨界融合、人机协同、群智开放、自主操控等新特征,正在对经济发展、社会进步、国际政治经济格局等方面产生重大而深远的影响。”
立法工作有待加快
中国在热情拥抱新一轮人工智能热潮的同时,从政府部门到产学研各界对于人工智能发展所涉及的法律及伦理问题给予了高度关注。2018世界人工智能大会开幕式上,习近平总书记强调,处理好人工智能在法律、安全、就业、道德伦理和政府治理等方面提出的新课题。
与电商法历时5年才正式落地不同,人工智能立法更早被两会代表委员关注。去年两会期间,全国政协委员、百度董事长兼CEO李彦宏就在提案中表示,希望国家出台政策鼓励人工智能的开放平台与加速自动驾驶相关立法。
目前,中国人工智能的总体政策在2017年7月国务院发布的《新一代人工智能发展规划》中得到体现,但该规划只是要求对人工智能在部分领域初步建立伦理规范和政策法规,尚未上升至法律层面。由此可见,人工智能的立法仍有待加快。
全国人大代表、湖北得伟君尚律师事务所首席执行合伙人蔡学恩认为,在人工智能行为伦理道德框架、人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等问题上的研究均需要加强。
立法有何挑战?
人工智能的立法需尽快提上议程,但亦应注意到人工仍属于新生事物,如何把握适当的边界是关键,尤其是考虑到人工智能可以应用到金融、医疗、交通等多个场景中,出台一部总括性的法律可能会阻碍人工智能的发展。
今年两会前夕,李彦宏在接受新京报记者采访时就表示,人工智能立法本身不应该太超前,“很多时候新事物刚刚出现,让它稍微跑一段时间然后再总结经验,找到规律再来立法。”
李彦宏表示,在不同的领域,涉及的立法都不一样,比如无人驾驶,在过去就没有相关的法律。“北京市很重视无人驾驶,很快有相应的法律来保障我们的创新能够有序进行。”
全国人大代表、科大讯飞董事长刘庆峰亦向记者表示,以AI+医疗为例,虽然机器给病人诊断的平均准确率比一些基层的农村医生要高,但是从法律层面来说机器不能给病人看病,因此更多的时候是将机器得出的结论交给医生,让医生来做决定。本版采写/新京报记者陆一夫
■访谈
李彦宏:人工智能立法不能太超前
让它跑一段总结经验再立法;无人驾驶、智能医疗等领域都需要立法
全国政协委员、百度董事长兼CEO李彦宏今年的三项提案均与人工智能相关,分别是构建智能交通解决方案,让老百姓出行更顺畅;完善电子病历管理制度,促进智能医疗应用探索,助力“健康中国”战略实施;加强人工智能伦理研究,打造智能社会发展基石。
新京报:关于人工智能立法,你有哪些建议?
李彦宏:首先,我觉得立法本身不应该太超前,很多时候新事物刚刚出现,让它稍微跑一段时间然后再总结经验,找到规律再来立法。其次,在不同的领域,涉及的立法都不一样,比如说像无人驾驶。北京市很重视无人驾驶,很快有相应的法律来保障我们的创新能够有序进行,到今天百度已经拿到了50张左右的自动驾驶测试车证。
医疗方面也需要相关的立法,统一电子病历的格式,必须要有什么样的字段,要有什么样的内容,不同的医院、机构之间进行交换,必须保护患者的隐私等等,都应该通过立法的方式来解决。
新京报:如何解决互联网和AI发展过程中遇到的数据孤岛的问题?
李彦宏:以电子病历为例,大多数好的医院都有电子化病历。但是这些病历相互之间没有打通,我在这个医院看病之后,到了另外一个医院还要重新做一遍检查。我觉得确实需要通过政府的力量制定相应的标准,来推动数据共享。
新京报:在这个过程中怎么去保护用户的数据隐私?
李彦宏:在共享的过程当中,我们需要特别注意保护用户的隐私,我觉得道理上大家都认可,关键还是看执行的过程当中能否有一个好的机制来约束。
百度内部若干年前提过两个词,一个叫“平台化”,一个叫“接口化”。平台化是指,我做一个东西,就争取把它做成一个平台,可以供其他部门的人使用。接口化是指把我的能力开放给你,我告诉你我的平台能干什么,但是我不把背后的数据、源代码给你。这样一来,数据得到了保护,知识产权得到了保护。
通过平台化、接口化的方式,把边界定义清楚,什么人可以获得什么样的信息,获得什么样的能力。然后通过一个平台,或者是多个平台来提供这些能力。
新京报:你认为,人工智能行业存在哪些问题和挑战?
李彦宏:我觉得大家对人工智能还是有很多误解,两方面的误解都存在。有一些(对技术发展速度)比较乐观的人担心,人工智能一旦有了意志的话,会不会对人产生控制的能力。我觉得这个担心其实是没必要的,人工智能离这一步其实还非常远,我的判断是永远达不到。
另外一个极端是,人工智能其实现在能做的有意义的事情还不够多,市场还处在早期的阶段,所以不够重视,这也挺危险的。人工智能的推动作用更多的是在生产端,可以大规模提升生产制造效率。如果一些企业不能及早地意识到人工智能在这一方面能够起到的作用,是有可能被淘汰的。
新京报:在你看来,人工智能行业是不是存在一定的泡沫?
李彦宏:人工智能领域肯定是有泡沫,而且泡沫还不小。任何一个新的趋势到来的时候大家都会感兴趣,一拥而上。无论是投资也好,创业也好,或者是大的公司研发方向的调整,都会向着这个新的趋势去走,所以一定会产生一些泡沫。只有这样大家都一起上的时候,才能够推动这个产业迅速地走向成熟。
人工智能行业走向成熟的过程是一个优胜劣汰的过程,剩下的一定是少数公司。我觉得这是一个很自然的过程。
今天大家讲的十个技术里面,可能有九个将来会证明其实没什么价值,但是有一个技术最后慢慢被打磨成了非常有价值的技术。大家需要有这种心理准备,今天很热的一些公司,可能十个里面有九个在五年以后就不存在了。新京报记者马婧
■访谈
刘庆峰:立法首先要保障人类安全
人工智能的立法核心一定要以人为本,这是立法的根本;立法应更有针对性
新京报:人工智能时代会对现有法律体系产生哪些新挑战?
刘庆峰:我觉得人工智能立法的挑战有两方面,一是目前在原来法律体系中并没有人工智能方面的法律法规,人工智能是新物种,它所带来的积极帮助或者潜在风险都是人类没有碰到过的,而法律体系的讨论调研到最终制定存在一个比较漫长的过程。
二是人工智能的发展日新月异,法律体系如何做到与时俱进,尽快满足人工智能产业发展和社会健康进步的需要,确实存在很大的挑战,这主要体现在人工智能对生产和生活方式的改变是全新的,其次是人工智能的变化非常快。
新京报:对于人工智能立法,你有哪些建议?
刘庆峰:人工智能的立法核心一定要以人为本,这是我们立法的根本。我认为,人工智能立法首先要保障人类的生命和财产安全,也就是说人工智能一定是要在风险可控范围内来使用,比如说在自动驾驶领域,它的应用门槛和标准是什么;在医疗领域,人工智能要达到一定的准确度,而且最好通过一定的资质认证。
第二是人工智能应该兼顾未来社会人文的需要,倡导人机耦合的模式,简单说人工智能是帮助人的,而不是替代关系。在人机耦合上,我们要考虑到以人为本,未来人和机器是如何协作的。例如在医疗上我们叫人工智能系统为辅助诊疗系统医生助手,在法律上叫人工智能为刑事案件辅助审判系统。
第三是人工智能立法对很多老百姓来说还是陌生的,对技术也不是特别了解,所以人工智能在立法的同时需要有检测手段,在检测人工智能安全性上必须要有测试标准和方法,这样才能使立法落到实处。
新京报:考虑到人工智能的应用跟很多的领域相结合,立法时是否应该更具针对性?
刘庆峰:人工智能立法应该要有针对性,就像制药一样,任何的药物生产出来都要有临床过程,通过技术分析证明它具备药效,通过临床验证后再进行大规模的推广。我觉得人工智能也是这样,立法时先在一定范围内进行试点,试点通过验证才可以去大规模落地。
人工智能应用必须要遵循这个逻辑,而不是说大干快上,最终导致行业泡沫过多,也容易在应用过程中带来不必要的伤害,从而影响人工智能健康发展。
像习总书记说的,人工智能具有非常强的头雁效应,未来社会将从互联网+进化到人工智能+时代,各行各业都可以用人工智能深刻改变现在的生产和生活方式。对于行业里的头部企业,需要有更多的支持和关心。
新京报:解决数据孤岛问题的同时,如何保护用户隐私?
刘庆峰:首先是法律要同步跟上,其次是企业要有更强的保护意识,现在已经有很多服务涉及老百姓的日常生活。因此相关行业的领军企业要做到表率作用,不仅仅是向用户进行告知,还包括价值观层面的指引。
第三,目前很多数据都是在用户不知情的情况下被企业拿走,从技术层面看,我们应该通过人工智能技术的发展给予用户更多的选择权,例如讯飞的翻译机,考虑到机密信息可能泄露,公司在设计产品的时候就做了离线翻译的版本,这是非常必要的。
新京报:中国在人工智能领域处于领先位置,应该如何保持先发优势?
刘庆峰:中国要保持目前的优势,就要以应用促进人工智能发展,在兼顾保护和共享数据之间推动人工智能更好地成长。欧洲就是把数据管得过严,影响人工智能的发展。我认为,数据的适度管理尺度以及典型应用场景的快速突破,能够形成数据和应用场景的良性互动,最终实现人工智能上的领先优势。
中国要持续保持人工智能发展,应对人工智能的第三次浪潮,未来还需要更大的突破,例如要在源头技术创新上加油,进一步推动人工智能技术在应用方面的落地,在人工智能未来的发展中要做更多的前瞻性、基础性的布局,才能够在人工智能领域保持领先,我觉得这是非常关键的一步。新京报记者陆一夫
数据来源:中商产业研究院
(责编:孟哲、杨波)
分享让更多人看到
人工智能立法宜早不宜迟
作者:乔新生(中南财经政法大学教授)
近日,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》,针对人工智能技术发展可能出现的问题,制定规则以防患于未然。这是我国促进数字经济发展的必要之举,也是维护国家网络安全的具体体现。
不过,一些学者在征求意见过程中强调,我国人工智能技术尚处于探索阶段,应用场景和商业模式尚不明朗,制定法律规范时机显然不成熟,(专门立法)有可能会扼杀或者至少阻碍我国相关企业在大模型领域的研发投入。针对征求意见稿中出现的限制性条款,一些学者认为,没有必要限制这项技术的发展;并非所有人工智能技术中存在的问题,都可以通过立法来解决;在我国现有《网络安全法》《个人信息保护法》《数据安全法》中已经有相关规定,足以应付人工智能发展初期可能出现的问题。
这些观点都有一定的道理。但是通过仔细分析可以看出,专门为人工智能技术开发应用制定法律规范刻不容缓。
第一,人工智能技术是一种不断升级的技术。人工智能技术发展到一定阶段,计算机具有自我思考能力,会不断地修正错误,完善自己的逻辑思维体系,超越一般人类的认知水平。因此,为人工智能技术制定规则,是未雨绸缪,防患于未然。换句话说,在人工智能技术尚未全面应用,给人类带来巨大危害之前,通过制定法律规范,一方面限制开发者不合理开发行为,另一方面对人工智能技术应用制定合理的规范,对于人工智能技术发展具有非常重要的促进作用。制定规范的目的当然不是为了限制人工智能技术开发应用,而是为人工智能技术开发应用指明方向,避免走弯路、邪路。
第二,制定人工智能法律规范,不是为了限制人工智能的发展。譬如,制定交通法规,是为了维护交通秩序,而不是堵塞交通。我国许多地方制定的无人驾驶汽车规则,目的是为了发展无人驾驶技术,通过制度化、标准化,加快我国无人驾驶软件开发和设备制造的速度,为我国无人驾驶产业规范化发展制定统一明确的行为规则。事实证明,只要制定科学的标准,我国人工智能技术产业发展就一定能加快速度。当年在充电器研发过程中,由于没有统一的标准,结果导致充电器不能通用,制造成本增加,消费者负担加重。人工智能技术开发的早期,探索制定合理化的标准和统一的法律规则,对于我国人工智能技术的快速发展,具有非常重要的现实意义。
第三,在人工智能技术开发方面,要重视市场准入,更要重视行为规范。人工智能立法究竟是从源头抓起,对市场准入作出明确的规定,还是在人工智能开发应用过程中,高度重视人工智能机器行为和后果,这是需要立法者认真考虑的问题。但是不管怎样,通过加强立法,解决人工智能发展中可能出现的问题,对我国人工智能产业发展可以起到积极推动作用。
第四,人工智能技术不是凭空想象的产物,而是在现实生活中已经出现的技术。一些人工智能开发机构已经向公众提供真实的样品。一些消费者借助人工智能技术制作以假乱真的图像和视频资料。这说明人工智能技术普及应用为时不远。加快相关立法,针对可能出现的问题制定专门性的规范,可以减少我国人工智能开发应用的法律纠纷。
第五,人工智能技术实际上是利用现有信息进行逻辑计算,形成自己的体系,输出作品。人工智能技术是建立在人类现有知识基础之上的一种新型智能技术,最大特点就在于,掌握的数据越多,计算的能力越强,市场上的竞争能力也就越大。给人工智能开发者提供法律规则,使法律规范彻底融入人工智能技术的数据库,对于减少纠纷、输出符合法律规定的作品,具有先导性作用。
所以,不必担心人工智能立法可能会限制我国人工智能技术的推广应用。当然,如何展开立法思路,如何在现有法律体系的框架内针对市场准入和具体应用中存在的问题制定具有可操作性的条款,这是立法者需要认真考虑的问题。
[责编:李彬]人工智能行业法律现状和发展
原标题:人工智能行业法律现状和发展|章鱼通一、人工智能(简称“AI”)定义能模仿人类思维、行为的智慧机器,AI是人的逻辑能力(分类总结推理判断)、决策能力和机器存储、运算能力,以及大数据的有序结合,三者缺一不可。
AI的运行依赖大数据,没有数据,AI不是无从施展身手,而是根本无法存在,可以说AI就是人机优势互补,对数据收集、存储、分发、加工、使用、处理的全程。
其应用于语音识别、语言处理、无人驾驶、机器视觉、机器学习等自身开辟的新领域,和智慧政务、智慧城市、智慧医疗、智慧物流、智慧工厂等改造后的传统领域。
二、AI现行法律
现在尚无成体系的AI法律体系,2017年7月20日公布的《新一代人工智能发展规划》国发〔2017〕35号是中国AI发展的纲领性文件,其战略目标分三步走,提到“到2025年初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。”
2019年3月4日,十三届全国人大二次会议发言人表示“全国人大常委会已将一些与人工智能密切相关的立法项目,如《数据安全法》、《个人信息保护法》和修改《科学技术进步法》等,列入本届五年的立法规划。同时把人工智能方面立法列入抓紧研究项目,围绕相关法律问题进行深入的调查论证,努力使人工智能创新发展,努力为人工智能的创新发展提供有力的法治保障。”
AI立法从数据开始,是有内在逻辑的。现《数据安全法》、《个人信息保护法》已经公布法律草案。
三、AI立法思路
立法目的:为AI的广泛应用奠定法律基础。
立法目标:保证AI安全、可控。
立法顺序:数据安全是AI行业健康发展的基本要求和最低要求,参考分散于网信办等各部门的数据法律、规范性文件、政策文件,制定《数据安全法》、《个人信息保护法》,确保数据从收集到处理全链条安全。
通过法律实践倒逼法律成型,研究分析自动驾驶、服务机器人等已实际应用场景下的AI法律问题,制定《人工智能法》,规定AI的法律主体、权利义务、刑民责任承担。
最后评估该法能否解决其他行业应用场景下的AI法律问题,适时修改,如果难以兼容,可能会就不同行业单列章节。
四、对人工智能的法律主体、权利义务、刑民责任承担的预测
1、不同于自然人、法人,AI不能成为享有权利,承担义务的法律主体,其性质上属于财产,将作为知识产权登记在自然人、法人名下。AI名下无法登记财产,也无法承担债务。
2、权利人对AI行使登记(申请确认知识产权)、使用(自用)、收益(对外许可使用,收取知识产权使用费)、处分(转让、抵押、作为公司设立出资)等权利。
3、AI的收益由权利人享有,引发的不利后果由权利人承担,类似饲养的羊驼参加商业活动,报酬归主人所有,羊驼吐口水、咬人导致的赔礼道歉、赔偿损失等法律责任由主人承担。责任承担是AI行业的核心问题,利益冲突很激烈。举例,当自动驾驶导致交通事故,造成财产损失和人员伤亡,那么责任由谁承担、如何分配,汽车企业、AI权利人还是消费者,或者地图导航企业、5G运营商?这个责任是刑事责任还是民事责任,刑事责任的话,AI公司(如百度)的法人要刑拘吗?,公平责任还是赔偿责任,赔偿责任的话,过错责任还是无过错责任,连带责任还是按份责任;除归责原则外,还涉及举证责任的分配,这些都需要立法机关权衡AI行业发展和公众权益后,作出具体规定。
五、安全可控的实现和影响
1、AI企业需自查自纠,反复试验验证,确保AI产品、服务安全可控;AI如应用于重要场合,需事先经过第三方机构的安全可控评估,第三方机构可能由工信部设立。
2、在技术上,一家公司的AI服务足以覆盖全国,但算法出错、AI失灵的风险也将随之扩散至全国,为实现安全可控,政府天然支持AI行业反垄断,重要细分领域的第一可以生存,第二、第三也能。
章鱼通(www.zhangyutong.net)人工智能产业对接平台。返回搜狐,查看更多
责任编辑:人工智能法律监管的几大问题 或需修改现有法律
原标题为:怎样对人工智能进行法律规制
法律一般不对实践中没有定型的经验、社会中没有成熟的关系进行调整。就人工智能发展的阶段而言,一般认为存在着弱人工智能、强人工智能和超人工智能三个阶段。目前人工智能的发展仍然处于弱人工智能阶段,因此当前并不能够制定出关于人工智能的完整的法律制度。
人工智能的法律规制需要和具体的领域结合起来,在每一个细分领域里,存在着不同的规制方法、进路和手段。电子商务将互联网的技术运用于商业领域,政府监管的重要目的在于促进竞争和反垄断,保护消费者权利,维护市场秩序。人工智能广泛运用于医疗领域,相关数据往往属于个人敏感数据,政府在设计监管模式的时候,必然采取高准入、严许可的进路。
规制人工智能的立法进路
就人工智能的法律应对而言,我国目前更多的是从产业政策促进、扶持和发展的角度对人工智能提供行政指导。2017年国务院发布的《新一代人工智能发展规划》突出地反映了这一思路。
在监管层面上,目前对人工智能的法律规制在电子商务、数据安全和智能投顾领域的立法中已经有个别条款分别涉及。《电子商务法》规定,电子商务经营者根据消费者的兴趣爱好、消费习惯等特征向其推销商品或服务的搜索结果的,应当同时向该消费者提供不针对其个人特征的选项,尊重和平等保护消费者合法权益。这是在法律层面对大数据算法杀熟的回应。此外,《电子商务法》第40条规定,对于竞价排名的商品或服务,应当显著标明“竞价”。
规章层级的《数据安全管理办法》(征求意见稿)也对算法进行了相应的规制。《办法》规定,“网络运营者利用大数据和人工智能等技术,通过算法自动合成的新闻信息、博文、帖子、评论等,应当以显著方式表明‘合成’字样。”对于算法推荐的规制,除了披露义务之外,规范信息流程、报备模型参数、违规行为惩处等长效机制都是法律制度设计需要考量的要素。
2018年3月28日,中国人民银行、银保监会、证监会、外汇局联合发布《关于规范金融机构资产管理业务的指导意见》(以下简称“指导意见”)。该指导意见对人工智能在金融领域的应用进行了规制,从胜任性要求、投资者适当性以及透明披露方面对智能投顾中的算法进行穿透式监管。
《指导意见》明确,运用人工智能技术开展投资顾问业务应当取得投资顾问资质。除了要遵守一般性规定外,还应当向金融监督管理部门报备人工智能模型的主要参数以及资产配置的主要逻辑,为投资者单独设立智能管理账户,充分提示人工智能算法的固有缺陷和使用风险,明晰交易流程,强化留痕管理,严格监控智能管理账户的交易头寸、风险限额、交易种类、价格权限等。
《指导意见》强调,因算法同质化、编程设计错误、对数据利用深度不够等人工智能算法模型缺陷或者系统异常,导致羊群效应、影响金融市场稳定运行的,金融机构应当强制调整或者终止智能投顾业务。
在监管手段上,金融监管部门对智能投顾的法律规制采取了组合拳的方式。智能投资顾问是投资咨询机构业务的延伸,投资咨询机构应当被识别为受托人,承担信义义务和合规义务。
在监管方式上,金融监管部门运用监管科技应对金融科技的兴起。金融机构在利用智能投顾开展资产管理业务的时候,必须要获得行政许可、获得资质;报备模型参数、实现算法透明和算法可解释性;制定预案、适时人工干预。
人工智能的司法规制
这里在讨论人工智能规制的时候,将不去区分人工智能和算法之间的区别,将它们作为同一概念处理。美国联邦法院和州法院在判例中或者将算法定性成商业秘密,或者在关于搜索引擎算法的判决中,将它看成是言论,在学者中激起了广泛的争论。
算法作为言论
2003年的SearchKingv。Google-Tech。,Inc。案中,俄克拉荷玛州法院认为,网页排名是一种意见,搜索引擎根据算法生成的结果是它的言论。四年之后,Longdonv。Google案中,联邦地区法院也支持了算法是言论的主张。
就搜索引擎算法是否是言论,在理论上仍然有激烈的反对意见。更进一步的问题在于,即使司法对此已经给出了正面的回答,这一定性是否推广到所有领域的算法仍然是悬而未决的问题。
算法作为商业秘密
在美国刑事诉讼领域,算法广泛运用于预测个体是否会重新犯罪,以及是否到庭,从而影响定罪、量刑以及保释。这种做法,在算法的准确性、算法考虑不相关的社会因素以及算法的正当程序三个方面引发了普遍的质疑。
在Statev。Loomis,881N。W。2d749一案中,鲁米斯因驾车枪击案而遭受刑事指控。威斯康星州法院在量刑的时候基于COMPAS的评估判处鲁米斯六年监禁外加五年监外执行。鲁米斯以侵犯了他的正当程序权利和平等保护权为由提起上诉。威斯康星州最高法院认为,性别作为参数进入算法,其目的是为了算法准确性而非为了歧视,因此没有侵犯被告的平等权。其次,COMPAS所分析的数据依赖于公开的刑事犯罪记录和被告提供的数据。最后,由于评估结论并非法院量刑的唯一依据,法院所要求的个别化对待的权利得到了保障。
在算法公平和商业秘密之间,法院在这个案件中站在了商业秘密一边。这一司法立场有助于促进技术创新和人工智能产业的发展。但算法公平性的问题仍然悬而未决。
当认为算法会带来歧视性的结果的时候,根本原因在于作为算法基础的数据中隐含着民族、种族和性别的偏见。AnupamChander认为有效的补救措施应当是,设计算法的时候必须考虑到现有数据中潜藏着的歧视。DanielleKeatsCitron和FrankPasquale主张,监管者应当可以检测系统以确保其公平性和正确性,个人有权要求纠正对他们进行错误分类而带来不利影响的机器决策。
人工智能的源头规制
欧盟《一般数据保护条例》通过访问权、修改权、删除权、可携带权等具体权利的规定确立了个人数据决定权。除了可携带权有利于在人工智能企业之间形成竞争、促进产业发展之外,其他的权利都对人工智能的发展构成了直接的限制。
《条例》更赋予数据主体以免于自动化决策的权利。《条例》21条明确规定:“数据主体有权根据其特殊情况,在个人数据被处理的过程中行使反对数据画像的权利。”第22条进一步明确,如果某种包括数据画像在内自动化决策会对数据主体产生法律效力或者造成类似的重大影响,数据主体有权不受上述决策的限制。
根据第29条工作组指引,在下述情形中,不得使用自动化决策。比如解除合同;对法律所提供的某一具体的社会福利的获取或丧失;婴幼儿补贴或住房补贴;拒绝入境某个国家或者是否认公民身份。上述情形具有的共同特点就是自动化决策已经影响到行政相对人的权利义务。
除了第21条的规定之外,《条例》“序言”第71条规定,数据主体应免于受制于自动化处理手段对其个人进行精准评价,以及对其产生法律效果或重要影响的情况。任何情况下,这些数据处理应当有适当的保护措施,包括获得认为干预的权利、表达观点的权利、评估后达成决定的解释权以及获得救济的权利。
《条例》区分一般数据和敏感数据,对后者进行更为严格的保护。第9条明确,除非各成员国立法授权,辨识种族或民族出身、政治观点、宗教或哲学信仰、工会成员的个人数据以及以识别自然人为目的的基因数据、生物特征数据、健康数据、自然人的性生活或性取向的数据的处理应当禁止。
《条例》所确立的数据最小化原则对人工智能行业的发展有直接的影响。企业必须阐明它们为什么需要收集和处理数据,以及它们进行数据处理获得了什么成果。对数据的监管实际上从源头影响到人工智能行业的发展。
需要修改现有法律
人工智能技术的发展为法律规制提出了现实要求,而法律领域也越来越深刻地受到人工智能的影响。
《一般数据保护条例》的默认隐私原则展示了大数据时代人工智能技术对于立法行为的本质性改变,我们可以将法律所追求的价值和原则嵌入式地植入产品中。法律规制体系也将从对事物的规制转变成对代码的规制。
就司法而言,通过智慧司法提升司法效率,促进司法公平。最近增设互联网法院更是将其意蕴拓展到了网络治理主权的层面。就司法领域的人工智能而言,如何以平等原则和正当程序回应算法歧视和算法黑箱将是司法人工智能领域的持久性话题。
在执法领域,因为自动化决策的普及,将会出现法律的自动执行。2018年,深圳就普通高校毕业生落户深圳实现秒批(无人干预自动审批)。大量行政法上的程序权力被自动化决策所架空,这需要加强自动化决策方面的行政立法,以实现人工智能的运用和公民权利保护的平衡。
总的来说,并不存在关于人工智能的一般化的法律规制。相关的法律规制应当是和具体场景结合起来的,存在立法、司法和技术的三种形式。
通过以上法律规范的分析,初步勾勒出我国对人工智能进行法律规制的路径。总体来说,人工智能时代+的特点并没有能够很好地反映到立法中。当务之急是修改现有的法律,使得它能够兼容大数据和人工智能技术在具体领域和场景中的应用。《证券法》第171条《证券投资顾问业务暂行规定》第12条规定,证券投资咨询机构不得代理委托人做出投资决策。因此,智能投顾和禁止证券投资咨询全权委托的规定存在冲突。《民事诉讼法》也需要进行修订或出台互联网管辖方面的司法解释,使得互联网法院的管辖、审理、送达等具体运作的环节上能够实现网上受理,网上审理,网上执行的目标。《道路交通安全法》需要进行相应的调整,以兼容现有的无人驾驶技术。
欧盟的进路实际上抓住了人工智能的本质。所有的人工智能都是建立在算法和算力的基础上的。当对数据进行严格保护的时候,其实就在源头对人工智能进行了规制。
我国首部人工智能产业专项立法《深圳经济特区人工智能产业促进条例》正式公布
我国首部人工智能产业专项立法——《深圳经济特区人工智能产业促进条例》(以下简称《条例》)今天正式公布,并拟于今年11月1日起实施。为破解人工智能产品落地难问题,《条例》提出创新产品准入制度,对于国家、地方尚未制定标准但符合国际先进产品标准或者规范的低风险人工智能产品和服务,允许通过测试、试验、试点等方式开展先行先试。首次立法明确人工智能概念和产业边界近年来,人工智能已逐渐进入人们日常生活,据测算,中国人工智能核心产业规模超过4000亿元。目前,在国家层面尚无专项的人工智能产业立法。深圳人工智能产业有较好的基础,拥有人工智能相关企业1300多家,企业数量位居全国第二。率先为人工智能产业立法,是深圳打造全球领先的人工智能产业高地的重要抓手,也将为国家层面立法探索经验。目前,我国在法律层面对于人工智能及人工智能产业的概念尚未作出规定,学术界对于其定义也尚无统一认识。《条例》从技术角度对人工智能的概念作出了规定——利用计算机或者其控制的设备,通过感知环境、获取知识、推导演绎等方法,对人类智能的模拟、延伸或扩展。同时明确了人工智能产业的边界,将人工智能相关的软硬件产品研究、开发和生产、系统应用、集成服务等核心产业,以及人工智能技术在民生服务、社会治理、经济发展等各领域融合应用带动形成的相关产业都纳入人工智能产业范畴。在明确人工智能内涵与外延的基础上,《条例》还率先建立人工智能统计与监测制度,为促进人工智能产业发展提供精准统一的数据支撑和政策支持。建立面向产业的算力算法开放平台目前,我市人工智能基础研究方面仍相对薄弱,大多数企业经营研发侧重于应用层面。针对这一问题,《条例》一方面致力关键核心技术攻关,提出建立以市场需求为主导、政产学研深度融合的关键核心技术攻关机制,构建覆盖人工智能关键核心技术攻关全周期的扶持政策体系。另一方面,推进科技体制改革,创新人工智能项目管理方式,公开征集科技创新项目和成果,通过非周期性项目资助等方式予以支持。人工智能产业的发展,离不开数据和算力算法的支撑。《条例》要求政府构建人工智能产业公共数据资源体系,建立人工智能应用领域的公共数据共享目录和共享规则,推动公共数据分类分级有序开放。同时,建立面向产业的算力算法开放平台,鼓励和支持高等院校、科研机构和企业建设人工智能算力基础设施,开放算力资源,降低企业开发成本,缩短开发周期,培育共享协作的开源治理生态。定期制定并发布人工智能场景需求清单“落地难”是制约人工智能发展的一大瓶颈。《条例》出台一系列政策,发挥应用场景赋能人工智能产业发展的作用,更好打通创新“最后一公里”。首先,强化应用示范。明确本市国家机关、法律法规授权的具有管理公共事务职能的组织以及公共企事业单位应当率先使用人工智能产品和服务,充分发挥引导示范作用。推进人工智能技术在行政和司法领域的应用,推进人工智能在民生服务、社会治理、经济发展领域的融合应用。其次,着力引导开放。规定产业主管部门应当建立人工智能应用场景开放制度,定期发布人工智能场景需求清单,公开征集应用场景解决方案,吸引境内外高水平的人工智能产品和服务供给方,引导开放更多应用场景,吸引产业要素集聚。积极探索建立人工智能应用场景供需市场化运营机制,发挥市场驱动作用。再次,创新产品准入。在分级分类监管的基础上,探索建立与人工智能产业发展相适应的产品准入制度,规定对于国家、地方尚未制定标准但符合国际先进产品标准或者规范的低风险人工智能产品和服务,允许通过测试、试验、试点等方式开展先行先试。设立人工智能伦理委员会人工智能引发的科技伦理问题也越来越受到世界各国的关注。《条例》结合逐步形成的全球化人工智能治理体系和深圳经济特区实际,探索构建人工智能治理框架,在为产业发展保留足够的弹性与空间的前提下,严守监管底线,做好风险防控。《条例》要求设立专门的人工智能治理机构,规定市政府应当设立人工智能伦理委员会,加快推进人工智能伦理安全规范的制订和实施,深化人工智能技术伦理、安全风险等方面的研究,推动构建覆盖全面、导向明确、规范有序、协调一致的人工智能伦理治理规则。同时,明确了人工智能产品和服务的行为底线,在研究和应用活动中,禁止危害国家安全和社会公共利益、侵犯个人隐私和个人信息权益;禁止利用算法技术根据用户的偏好、支付能力实施消费欺诈等侵害消费者权益的行为等。十项建议解读欧盟人工智能立法新趋势
中国信息通信研究院与腾讯研究院AI联合课题组
作者:曹建峰 腾讯研究院法律研究中心研究员
各国纷纷关注人工智能伦理和法律问题
2016年以来,人工智能不仅受到科技公司热捧,人工智能在智力游戏、自动驾驶、语音和图像识别、翻译等诸多领域取得重大突破,谷歌、脸书、微软等科技巨头收购人工智能创业公司的速度已经快赶上这些公司的创立速度。而且,各国政府(比如美国、英国等)以及一些社会公共机构(比如UN、IEEE等)开始积极关注人工智能的法律、伦理、社会、经济等影响,密集出台战略文件和报告。
在人工智能法律和伦理研究方面,以UN和IEEE最为突出。2016年8月,UN下属COMEST(科学知识和科技伦理世界委员会)发布《机器人伦理初步报告草案》,认为机器人不仅需要尊重人类社会的伦理规范,而且需要将特定伦理准则编写进机器人中。[1]2016年12月,IEEE发布《合伦理设计:利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景(第一版)》,就一般原则、伦理、方法论、通用人工智能(AGI)和超级人工智能(ASI)的安全与福祉、个人数据、自主武器系统、经济/人道主义问题、法律等八大主题给出具体建议。[2]
欧盟快人一步
开始考虑人工智能民事立法
欧盟走得更远,开始考虑针对机器人和人工智能出台民事法律规则,并为人工智能研发和审查人员制定伦理守则,确保在整个研发和审查环节中,将人类价值予以考虑,使最终面向消费者和社会的机器人能够符合人类利益。
早在2015年1月,欧盟议会法律事务委员会(JURI)就决定成立一个工作小组,专门研究与机器人和人工智能发展相关的法律问题。2016年5月,法律事务委员会发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》(DraftReportwithRecommendationstotheCommissiononCivilLawRulesonRobotics,简称《报告草案》);同年10月,发布研究成果《欧盟机器人民事法律规则》(EuropeanCivilLawRulesinRobotics)。
在这些报告和研究的基础上,2017年1月12日,法律事务委员会以12票赞成、2票反对、2票弃权,通过一份决议(resolution),在其中提出了一些具体的立法建议,要求欧盟委员会就机器人和人工智能提出立法提案(在欧盟只有欧盟委员会有权提出立法提案)。当然,欧盟委员会并无义务遵守这一要求,但如果其拒绝这么做,就必须陈述其理由。[3]2017年2月16日,欧盟议会以396票赞成、123票反对、85票弃权,通过这份决议。[4]可以预见,推进人工智能法律和伦理研究,包括可能的立法和监管措施,未来将成为欧盟立法议程的一个核心。
法律事务委员会提出多项立法建议
1、成立欧盟人工智能监管机构
人工智能的发展将会带来很多新问题。法律事务委员会呼吁成立一个专门负责机器人和人工智能的欧盟机构,负责就技术、伦理、监管等问题提出专业知识,以更好抓住人工智能的新机遇,并应对从中产生的挑战。
考虑到人工智能的当前发展和投资,需要给予这一新机构充分预算,配备监管人员以及外部的技术和伦理专家,对人工智能应用开展跨领域、跨学科的监测,确认行业最佳实践,并适时提出监管措施。
2、需要人工智能伦理准则
人工智能虽然可能赋能于人,带来效率的提高;但是,相伴而来的人类安全、隐私、尊严、正义、自治、数据所有权等风险,却也不容忽视。因此,在机器人和人工智能的设计、研发、生产和利用过程中,需要一个指导性的伦理框架,确保其以符合法律、安全、伦理等标准的方式运作。比如,机器人设计者应当考虑一个“一键关闭”功能,以便可以在紧急情况下将机器人关闭。
在其《报告草案》中,法律事务委员会提出了所谓的“机器人宪章”(CharteronRobotics)。这一宪章针对人工智能科研人员和研究伦理委员会(REC),提出了在机器人设计和研发阶段需要遵守的基本伦理原则。对机器人科研人员而言,诸如人类利益、不作恶、正义、基本权利、警惕性、包容性、可责性、安全性、可逆性、隐私等都是需要认真对待的事项。
此外,需要伦理审查委员会对人工智能设计和研发进行把关,确保机器人符合人类社会的伦理、法律等规范;这个委员会应当是跨学科的,同时吸纳男性和女性参与者。
3、重构责任规则:强制保险机制和赔偿基金
自动驾驶汽车、工业机器人、护理机器人等类型的人工智能产品可能完全或者部分脱离人类的控制,在这些人工智能产品具有自主学习、判断和完善的能力的情况下,一旦对人类和财产造成损害,其设计者和开发者是否应当承担严格责任,抑或承担有限责任?当具有自主学习能力的人工智能系统造成损害,让其设计者和开发者承担责任可能遭遇原因力(因果关系)和可预见性这两大难题,这给既有的民事侵权责任规则带来了挑战。
对此,法律事务委员会提出了两个建议:
第一个建议是,对机器人适用强制保险机制,这类似于针对机动车的强制险,由机器人的生产者或者所有者负责购买,以便对机器人造成的损害进行责任分配。
第二个建议是,设立赔偿基金;这一制度有两大目的,其一,对强制险未予覆盖的损害进行赔偿,其二,让投资人、生产者、消费者等多方主体参与这一机制,从而形成赔偿基金。
4、长期来看,考虑赋予复杂的自主机器人法律地位(电子人,electronicpersons)的可能性
界定监管对象(即智能自主机器人)是机器人立法的起点。对于智能自主机器人,法律事务委员会提出了四大特征:(1)通过传感器和/或借助与其环境交换数据(互联性)获得自主性的能力,以及分析那些数据;(2)从经历和交互中学习的能力;(3)机器人的物质支撑形式;(4)因其环境而调整其行为和行动的能力。
此外,应当提出机器人分类标准,并建立高级机器人登记制度,目的在于实现可追溯性,并促进进一步推荐性规范的落实。
在主体地位方面,机器人应当被界定为自然人、法人、动物还是物体?是否需要创造新的主体类型(电子人),以便复杂的高级机器人可以享有权利,承担义务,并对其造成的损害承担责任?未来,随着更复杂的机器人的出现,需要就机器人的法律地位问题展开更多探讨。
5、知识产权方面,明确人工智能的“独立智力创造”(ownintellectualcreation)
第一,法律事务委员会建议欧盟委员会就与软硬件标准、代码有关的知识产权提出一个更平衡的路径,以便在保护创新的同时,也促进创新。
第二,对于计算机或者机器人创作的可版权作品,需要提出界定人工智能的“独立智力创造”的标准,以便可以明确版权归属。
6、注重隐私和数据保护
在针对人工智能和机器人制定政策时,应当按照必要性原则和比例原则,保障隐私和数据保护。在这一方面,需要进一步完善通过设计保护隐私(privacybydesign)、默认保护隐私(privacybydefault)、知情同意、加密等概念的标准。
此外,当个人数据成为“流通物”,各种服务可以就其进行交易,更频繁的数据流动将成为可能,这可能带来数据所有权等需要明确的新问题。需要特别强调的是,将个人数据作为“流通物”使用,在任何情况下都不得规避涉及隐私和数据保护的基本原则。
7、推进标准化工作和机器人的安全可靠性
一是标准化,国际层面,欧盟委员会应继续致力于技术标准的国际统一,欧盟层面,需要建立相应的标准化框架,以免造成欧盟各成员国之间标准的不统一以及欧盟内部市场的分裂。
二是机器人的安全可靠性,在现实场景中测试自动驾驶汽车等机器人技术,对于识别和评估其潜在风险是至关重要的。
8、针对具有特定用途的机器人和人工智能出台特定规则
法律事务委员会呼吁就特定类型的机器人出台特定监管规则,也即,进行特殊立法。需要采取特殊立法的机器人类型包括,自动驾驶汽车、护理机器人、医疗机器人、无人机、人类修复和增强(humanrepairandenhancement,即,为修复和补足受损器官和人体功能而存在的机器人)。
9、关注人工智能的社会影响
机器人和人工智能的发展将导致重大社会变革,诸如工作岗位和结构的变迁、人机交互对人类道德的影响(比如护理机器人和被看护者之间的情感关系)、教育等。法律事务委员会督促欧盟委员会密切追踪这些趋势,包括新的就业模式、税收和社会系统(比如收入分配制度)的可行性等。
10、加强国际合作
当前,机器人和人工智能在全球都是热点中的热点,被推到了投资和创业的风口浪尖。在这样的背景下,加强国际合作是十分可取的,一方面,诸如《维也纳道路交通公约》《海牙交通事故公约》等相关国际协议需要修改,另一方面,需要针对机器人和人工智能寻求并确立新的国际标准,以促进其更好地造福于人类。
人工智能成为公共政策焦点议题
当前,人工智能不仅是以互联网为首的产业界竞相追逐的对象,而且是世界范围内的公共政策热议的焦点。无论是产业界领袖发出生存危机等担忧,还是政府针对人工智能的法律、伦理、社会影响等问题频发官方报告,抑或是学术界对人工智能歧视、偏见、不公正、责任等问题的热议,都足以表明,人们在人工智能第三次发展浪潮之际,对人工智能对人类社会影响的担忧几乎超过了对以往任何科技(包括原子核技术)的担忧。
2017年1月,人工智能研究机构FutureofLifeInstitute召集人工智能、法律、伦理、哲学等领域众多专家和学者召开2017阿西洛马会议(2017Asilomarconference),并形成了23条AI原则,作为AI研究、开发和利用的指南,截至目前,已经有接近1000名人工智能研究人员为这些原则背书。[4]而在此前,美国白宫、英国、IEEE、斯坦福大学(即AI100)等都尝试出台AI指南,确保人工智能以符合人类社会规范的方式运作,并服务于人类利益。此外,政府和企业背书并提供研究资金支持的人工智能法律、伦理等研究项目也在不断增多。如前所述,欧盟等国家和地区针对机器人、人工智能或者自动驾驶汽车、无人机等特殊人工智能系统的立法和监管也在紧锣密鼓地进行着。
国外和国际上所有这些讨论、研究、指南和立法都有助于帮助人们更好地认知人工智能技术对诸如法律、道德、价值、税收、收入分配、教育、就业等人类社会制度的影响,但是,正如对所有新兴技术的恐慌和担忧一样,对人工智能的担忧和规制也不能走过了头,以免法律等规则成为阻碍人工智能创新和发展的桎梏。在这方面,美国白宫的人工智能报告就明智地认识到,现在就对人工智能进行广泛的监管是不可取的,一方面,没必要进行激进的监管变革,另一方面,在必要性的前提下,以及在充分考虑人工智能的影响的基础上,对人工智能进行渐进式监管。
[1]http://www.unesco.org/new/en/media-services/single-view/news/unesco_science_experts_explore_robots_rights/
[2]http://mp.weixin.qq.com/s/2ElkNUeAdN9HAVFsUhewxQ
[3]http://www.europarl.europa.eu/news/en/news-room/20170110IPR57613/robots-legal-affairs-committee-calls-for-eu-wide-rules
[4]http://www.europarl.europa.eu/news/en/news-room/20170210IPR61808/robots-and-artificial-intelligence-meps-call-for-eu-wide-liability-rules
[5]https://futureoflife.org/ai-principles/