博舍

人工智能治理不能重走互联网老路 可信人工智能伦理指南草案最新修订内容

人工智能治理不能重走互联网老路

早在1940年,科幻作家阿西莫夫就写下了著名的《机器人学的三大法则》,在没有机器人的时代就提出了人和机器相处的伦理思考。

2018年12月,欧盟委员会人工智能高级专家组发布了《可信人工智能伦理指南草案》(AIHLEG),针对宏观的人类基本权利和AI伦理基本原则达成共识,又提出具有可实现性的评估原则和方法,其中的基本概念就是以人为本。

即使从今天来看,《机器人学的三大法则》依然十分超前。《可信人工智能伦理指南草案》也只是以更系统化的现代理性语言,探究AI自身的安全与道德问题,以及如何与人和谐共存并服务于人。

然而时至今日,不仅具有通用人工智能的机器人尚未出现,现有的人工智能已经产生了许多安全、道德和法律隐忧。其中不仅有AI自身的问题,也有外部环境的问题。

新加坡国立大学电气与计算机工程系教授李海洲在近期于清华大学公共管理学院举行的“2019年度风险商-新兴技术中的新兴风险”国际会议上表示,人工智能不是通用智能,AI没有绝对安全。

新加坡国立大学电气与计算机工程系教授李海洲

他同时呼吁出台更多人工智能相关政策,使技术得到更合理的使用。他坦言,目前AI系统存在的漏洞很容易被人攻击。很多人吹嘘AI的强大只是为了推销产品,但实际上创造出AI系统的人也同样可以创造另一个AI系统用来攻击。

在上述会议上,中国电科信息科学研究院研究员郝英好表示,《机器人学的三大法则》过于宽泛,不同领域的安全与保护标准大相径庭,很难简单确定不同领域中AI产品的安全准则与标准。

人工智能监管与治理

中国信通院高级工程师施雨暇在上述会议上表示,人工智能监管既是技术问题,也是社会问题。她总结了人工智能面对的主要监管挑战。

加强消费者、数据、隐私和安全保护

建立一个共享的通用框架和一套有益和安全使用AI的原则

共享最佳实践和持续创新以解决安全性、偏见和可解释性等问题

在业务和国家竞赛中取得适当平衡以引领AI,确保人工智能的优势得到广泛应用和共享

那么在执行层面如何破?郝英好提出,人工智能不能重走互联网治理的老路,即先有漏洞频发及黑客频出,再有补丁挽救。安全治理必须从源头开始,首先制定安全规则和法律,确保算法的安全、公平、正义,并应用于产品设计阶段。

为了在关键时刻能够控制风险、抵御安全意外事件,AI产品设计师应该设定安全阀门或设置停止按钮,以便在必要时从AI模式转换为手动模式,如波音737Max上的MCAS(机动特性增强系统)。

对于技术人员,则应加强道德教育,提高人文素质并增强责任感。如果说在互联网时代黑客还给人感觉挺“酷”,那么在人工智能时代,AI攻击将会是极端凶险、无人道甚至是反人类的。因此各界人士应该集思广益,集中力量为人工智能打造安全、可靠、道德的人工智能基础。

政府应该建立AI安全评估中心,在AI产品发布前对其进行安全评估。政府还应该提升人工智能准则建设,承担起培养AI安全专家的责任。

总之,人工智能治理面临现实挑战,不应因循守旧于传统互联网做法,设计者、技术人员、政府都应承担各自责任。

法律视角下的人工智能安全郝英好还从法律视角解读了人工智能安全治理的三大挑战。

中国电科信息科学研究院研究员郝英好

1.规则滞后于发展

传统意义上,法律条文是滞后的,问题总是先于法律条文的形成。但在传统社会中,由于法律的性质是具有一定的前瞻性和稳定性,而需要去规范的法律关系以及可能存在的法律事务问题在一定程度上是稳定且可以预见的,因此滞后问题并不显著。

然而,人工智能技术的一大显著特点是高度不确定性,所以问题就会不断变化,甚至以很高的频率不断衍生出新问题。对于这样的新问题,法律条文即便找到了合适的解决方法,问题可能也已经升级,而又产生出更多问题。这种情况下,很有可能法律条文甫一通过,就已经失去了原本的意义。

2.价值评估问题

从法律视角来看,任何惩罚或补偿都应基于损失的价值。也就是说,如果犯罪行为或非法行为造成100万元损失,那么相应的惩罚也是基于这100万元价值的。但在人工智能安全治理方面,信息损失、隐私泄露,甚至是AI本身造成的损失如何评估,是一个棘手问题。

3.责任分配问题

在人工智能管理方面,尤其是造成损失后,如何在开发者、制造者、销售者和用户间明确责任,是极具挑战的。人工智能的特点在于其能力是随着使用而不断增强的,这也就意味着人工智能系统的能力并非在开发时确定,而是在持续使用中通过深度学习等方式获得。这样的能力不完全依赖于用户,因为它源于开发者,那么在造成损失时又该如何确定责任呢?

中国面临的问题与机遇

事实上,中国AI行业的发展也同样面临多层面问题,施雨暇总结了五大挑战。

技术核心技术缺位。在云端,英伟达领衔GPU芯片市场,谷歌的TPU性能领先。而在终端,国产AI芯片创业企业都面临商业化问题。

算法中国缺乏自主算法。核心算法及应用高度依赖国外公司创造的开源架构及产业生态。

数据数据集不完善,行业数据缺乏,数据质量不高,数据开放及流转系统都不完备。

监管AI应用于不用垂直领域尚面对监管挑战。比如,在自动驾驶领域就需要修改标准和法规,在智慧医疗领域就需要修改医疗器材法规和认证制度等。

人才人才短缺,AI算法及应用工程师缺口巨大,跨学科人才更是极度稀少。

但她也认为,中国AI行业的发展优势巨大。政策上政府对AI高度重视,市场层面中国人口庞大,拥有13亿移动互联网用户,行业应用场景丰富,各行业企业普遍乐于接受新科技。另外,中国在风险投资、研究论文及专利申请方面都已超越美国。

尽管未来始终可期,但至少《可信人工智能伦理指南草案》发布一年来,问题还是那些问题,而《机器人学的三大法则》仍是科幻。

欧盟人工智能伦理与治理的路径及启示

原标题:欧盟人工智能伦理与治理的路径及启示

欧盟积极推进以人为本的人工智能伦理与治理

数字技术的发展和渗透加速了社会与经济的转型变革,人工智能(AI)作为其中的核心驱动力为社会发展创造了更多可能。一般而言,AI是指基于一定信息内容的投入实现自主学习、决策和执行的算法或者机器,其发展是建立在计算机处理能力提高、算法改进以及数据的指数级增长的基础上。从机器翻译到图像识别再到艺术作品的合成创作,AI的各式应用开始走进我们的日常生活。当今,AI技术被广泛运用于不同行业领域(如教育、金融、建筑和交通等),并用于提供不同服务(如自动驾驶、AI医疗诊断等),深刻变革着人类社会。与此同时,AI的发展也对法律、伦理、社会等提出挑战,带来了假新闻、算法偏见、隐私侵犯、数据保护、网络安全等问题。在此背景下,人工智能伦理与治理日益受到重视,从政府到行业再到学术界,全球掀起了一股探索制定人工智能伦理准则的热潮。而欧盟从2015年起就在积极探索人工智能伦理与治理举措,虽然在AI技术的发展上没能先发制人,AI治理方面却走在了世界前沿。

早在2015年1月,欧盟议会法律事务委员会(JURI)就决定成立专门研究机器人和人工智能发展相关法律问题的工作小组。2016年5月,JURI发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》(DraftReportwithRecommendationstotheCommissiononCivilLawRulesonRobotics),呼吁欧盟委员会评估人工智能的影响,并在2017年1月正式就机器人民事立法提出了广泛的建议,提出制定「机器人宪章」。2017年5月,欧洲经济与社会委员会(EESC)发布了一份关于AI的意见,指出AI给伦理、安全、隐私等11个领域带来的机遇和挑战,倡议制定AI伦理规范,建立AI监控和认证的标准系统。同年10月,欧洲理事会指出欧盟应具有应对人工智能新趋势的紧迫感,确保高水平的数据保护、数字权利和相关伦理标准的制定,并邀请欧盟委员会在2018年初提出应对人工智能新趋势的方法。为解决人工智能发展和应用引发的伦理问题,欧盟已将AI伦理与治理确立为未来立法工作的重点内容。

2018年4月25日,欧盟委员会发布政策文件《欧盟人工智能》(ArtificialIntelligentforEurope),欧盟人工智能战略姗姗来迟。该战略提出以人为本的AI发展路径,旨在提升欧盟科研水平和产业能力,应对人工智能和机器人带来的技术、伦理、法律等方面的挑战,让人工智能更好地服务于欧洲社会和经济的发展。欧盟人工智能战略包括三大支柱:其一、提升技术和产业能力,促进人工智能技术广泛渗透到各行各业;其二、积极应对社会经济变革,让教育和培训体系跟上时代发展的步伐,密切监测劳动力市场的变化,为过渡期劳动者提供支持,培养多元化、跨学科人才;其三、建立适当的伦理和法律框架,阐明产品规则的适用,起草并制定人工智能伦理指南(AIethicsguidelines)。同年6月,欧盟委员会任命52名来自学术界、产业界和民间社会的代表,共同组成人工智能高级专家小组(High-LevelExpertGrouponAI,简称AIHELP),以支撑欧洲人工智能战略的执行。

2019年1月,欧盟议会下属的产业、研究与能源委员会发布报告,呼吁欧盟议会针对人工智能和机器人制定全方位的欧盟产业政策,其中涉及网络安全、人工智能和机器人的法律框架、伦理、治理等。2019年4月,欧盟先后发布了两份重要文件——《可信AI伦理指南》(EthicsGuidelinesforTrustworthyAI,简称「伦理指南」)和《算法责任与透明治理框架》(Agovernanceframeworkforalgorithmicaccountabilityandtransparency,简称「治理框架」),系欧盟人工智能战略提出的「建立适当的伦理和法律框架」要求的具体落实,为后需相关规则的制定提供参考,代表欧盟推动AI治理的最新努力。

人工智能伦理框架建构:可信AI的伦理指南

展开全文

为平衡技术创新和人权保障,人工智能伦理框架的构建必不可少。伦理框架为人工智能的设计、研发、生产和利用提供原则指导和基本要求,确保其运行符合法律、安全和伦理等标准。《伦理指南》由AIHELP起草发布,并不具备强制约束力,而欧盟鼓励各利益攸关方积极执行《伦理指南》,促进AI伦理标准形成国际共识。总体而言,除了制定泛欧盟的伦理准则,欧盟希望人工智能的伦理治理能够在不同的层次得到保障。例如,成员国可以建立人工智能伦理监测和监督机构,鼓励企业在发展人工智能的时候设立伦理委员会并制定伦理指南以便引导、约束其AI研发者及其研发应用活动。这意味着人工智能的伦理治理不能停留在抽象原则的层面,而是需要融入不同主体、不同层次的实践活动中,成为有生命的机制。

根据《伦理指南》,可信AI必须具备但不限于三个特征:(1)合法性,即可信AI应尊重人的基本权利,符合现有法律的规定;(2)符合伦理,即可信AI应确保遵守伦理原则和价值观,符合「伦理目的」;(3)稳健性,即从技术或是社会发展的角度看,AI系统应是稳健可靠的,因为AI系统即使符合伦理目的,如果缺乏可靠技术的支撑,其在无意中依旧可能给人类造成伤害。具体而言,可信AI的伦理框架包括以下三个层次:

(一)可信AI的根基

在国际人权法、欧盟宪章和相关条约规定的基本权利中,可作为AI发展要求的主要包括:人格尊严、人身自由、民主、正义和法律、平等无歧视和团结一致、公民合法权利等。许多公共、私人组织从基本权利中汲取灵感,为人工智能系统制定伦理框架。例如,欧洲科学和新技术伦理小组(EGE)基于欧盟宪章和相关规定中的价值观,提出了9项基本原则。《伦理指南》在借鉴绝大部分已有原则的基础上,进一步归纳总结出符合社会发展要求的4项伦理原则,并将其作为可信AI的根基,为AI的开发、部署和使用提供指导。

这些原则包括:(1)尊重人类自主性原则。与AI交互的人类必须拥有充分且有效的自我决定的能力,AI系统应当遵循以人为本的理念,用于服务人类、增强人类的认知并提升人类的技能。(2)防止损害原则。AI系统不能给人类带来负面影响,AI系统及其运行环境必须是安全的,AI技术必须是稳健且应确保不被恶意使用。(3)公平原则。AI系统的开发、部署和使用既要坚持实质公平又要保证程序公平,应确保利益和成本的平等分配、个人及群体免受歧视和偏见。此外,受AI及其运营者所做的决定影响的个体均有提出异议并寻求救济的权利。(4)可解释原则。AI系统的功能和目的必须保证公开透明,AI决策过程在可能的范围内需要向受决策结果直接或间接影响的人解释。

(二)可信AI的实现

(三)可信的AI的评估

人工智能算法治理的政策建议:算法责任与透明治理框架

(一)提升公众的算法素养

(二)公共部门建立算法问责机制

(三)完善监管机制和法律责任制度

(四)加强算法治理的国际合作

欧盟人工智能伦理与治理的启示

(一)探索伦理治理的技术路径

(二)采取多利益相关方协同治理的模式

(三)加强人工智能伦理与治理方面的国际合作

参考文献:略

本文转载自微信公众号腾讯研究院返回搜狐,查看更多

责任编辑:

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇