欧盟抢先发布人工智能道德准则:AI要以人为本,负责任且无偏见
原标题:欧盟抢先发布人工智能道德准则:AI要以人为本,负责任且无偏见目前,虽然人工智能(AI)的研究还处在起步阶段,但欧盟已经为其制定了道德准则。
据美国科技网站TheVerge的报道,经过52名专家的商讨,欧盟委员会于4月8日发布了人工智能道德准则。该准则的出台,标志着欧盟在寻求推广人工智能产业发展的同时,将立足于强化产业的道德水准。
欧盟公布的人工智能道德准则封面
欧盟希望在人工智能融入社会以前,未雨绸缪,制定相关准则,规范其未来发展。
参与起草制定这些准则的IBM欧洲法律部门副部长利亚姆·本纳姆表示:“(制定这些准则)就像在造房子之前,需要先打地基。而现在就是做这些事情的时候。”
该道德准则要求“值得信赖”的人工智能应当满足如下7个条件:
1.人类的力量和监督:人工智能不能侵犯人类的自主性。人们不应该被AI系统操纵或胁迫,而应该能够干预或监督软件做出的每一个决定。
2.技术的健全性和安全性:人工智能应该安全且准确。它不应该易于受到外部攻击的影响,且应该相当可靠。
3.隐私和数据管理:人工智能系统收集的个人数据应该是安全的、私有的。它不应该让任何人接触,也不应该轻易被盗。
4.透明性:用于创建人工智能系统的数据和算法应该是可访问的,软件所做的决定应能被人类理解和跟踪。换句话说,操作员应能够解释AI系统所做的决定。
5.多样性、非歧视和公平性:人工智能提供的服务应面向所有人,无论年龄、性别、种族或其他特征。同样,系统不应该在这些方面存在偏见。
6.环境和社会福祉:人工智能系统应该是可持续的(即它们应该对生态负责)并“促进积极的社会变革”。
7.问责制:人工智能系统应该是可审计的,并被纳入企业可举报范畴,以便受到现有规则的保护。应事先告知和报告系统可能产生的负面影响。
展开全文1.人类的力量和监督:人工智能不能侵犯人类的自主性。人们不应该被AI系统操纵或胁迫,而应该能够干预或监督软件做出的每一个决定。
2.技术的健全性和安全性:人工智能应该安全且准确。它不应该易于受到外部攻击的影响,且应该相当可靠。
3.隐私和数据管理:人工智能系统收集的个人数据应该是安全的、私有的。它不应该让任何人接触,也不应该轻易被盗。
4.透明性:用于创建人工智能系统的数据和算法应该是可访问的,软件所做的决定应能被人类理解和跟踪。换句话说,操作员应能够解释AI系统所做的决定。
5.多样性、非歧视和公平性:人工智能提供的服务应面向所有人,无论年龄、性别、种族或其他特征。同样,系统不应该在这些方面存在偏见。
6.环境和社会福祉:人工智能系统应该是可持续的(即它们应该对生态负责)并“促进积极的社会变革”。
7.问责制:人工智能系统应该是可审计的,并被纳入企业可举报范畴,以便受到现有规则的保护。应事先告知和报告系统可能产生的负面影响。
人工智能,以人为本
欧盟负责数字经济的官员玛利亚·加布里埃尔解读了这7项要求。她认为,在人工智能使用上,“透明性”是一切的关键,同时也要“以人为本”。
加布里埃尔表示:“任何公司在使用人工智能技术时,其受众都应当具有知情权。人们应该知道和他们进行沟通的是算法还是真人。同时,任何由算法做出的决定,都必须由公司出面解释。”
玛利亚·加布里埃尔解读人工智能道德准则图自视觉中国
举例来说,如果一家保险公司依赖人工智能算法拒绝了某项赔偿申请,那么他们应该让消费者知道做出这项决定的依据。同时,还应由人类出面,进行这项决定的最终判断。
此外,加布里埃尔认为,隐私和数据管理同样非常重要。任何使用人工智能的机构,都应当保护好系统收集的数据,这些数据只能被人工智能和本人访问。
除了技术方面的准则以外,欧盟制定的准则里还包含了一些相对抽象的概念,例如其要求人工智能必须具有多样性、非歧视和公平性,同时也能够“促进积极的社会变革”。
由于现阶段人工智能的训练仍旧依赖于巨量数据的输入,因此这些数据将极大程度左右人工智能的公平性。
加布里埃尔举例说:“如果一家公司使用人工智能系统进行招聘,而他们所使用的数据来源于另一家大量招聘男性雇员的公司,那么这一系统将很可能拒绝女性雇员的加入。”
“如果人们使用不公平的数据来训练人工智能,那么这将毫无疑问成为一个大问题。”
另辟蹊径,欧盟想成为技术道德领域的领军者
欧盟已经不是第一次为数字技术制定规则和法律了。
2018年5月,欧洲联盟出台《通用数据保护条例》(GDPR),规范数据收集者的操作,禁止网络公司以默认隐藏的模式收集用户数据,同时保障用户对自己数据完全自主的权利。对于违规者,欧盟将会处以巨额罚款。
此次,欧盟表示,希望自己成为AI道德领域的领导者,如同制定《通用数据保护条例》(GDPR)一样,率先规范科技领域的法律和道德,保护公众的数字权利。
据TheVerge分析,由于欧盟在投资和前沿研究方面,已经无法与美国和中国一争高下,因此,它才迫不得已选择了伦理作为塑造技术未来的最佳选择。
相对于欧洲,中国在人工智能领域的发展迅速图自视觉中国
正如欧委会负责数字单一市场的副主席安斯普(AndrusAnsip)所说,“有道德的人工智能是一个能够达到双赢的主张,是欧洲在该领域的竞争优势——成为人们可以信赖的,以人为本的人工智能领导者。”
不过,欧盟在技术道德领域制定的一系列规则,也有可能成为这些技术发展的阻碍。
在当今前沿计算机科技中,大数据、云计算和人工智能的发展,都离不开巨量数据的支撑。而欧盟的《通用数据保护条例》为网络公司和研究机构的数据搜集设置了极大障碍。
同样,也有部分研究者怀疑,欧盟制定的人工智能道德准则,将会影响到这一产业的未来发展。
智库机构数据创新中心(CenterforDataInnovation)的高级政策分析师艾琳·奇沃特(ElineChivot)在接受TheVerge采访时说:“欧盟希望通过制定道德标准,来确定自身在全球人工智能发展中的地位,我们对这种方法持怀疑态度。要成为人工智能伦理的领导者,首先你必须在人工智能领域遥遥领先。”
欧盟指出,提出人工智能道德准则只是第一步,未来他们还将邀请其他国家的企业和国际组织共同参与测试,制定以人为本的人工智能共识,并在G20峰会上与其他国家共同讨论。
————
编辑∑Pluto
来源:观察者返回搜狐,查看更多
责任编辑:《人工智能道德准则》——可信赖AI系统应满足7个关键要素
两年前欧盟曾发布一份人工智能道德准则,该准则的提出旨在对人工智能系统的道德框架进行研究、反思和讨论,促进“值得信赖”的人工智能发展。
人工智能道德准则报告由三部分组成。第一部分为可信赖AI实现的基本条件;第二部分为可信赖AI实现的四项伦理准则;第三部分为可信赖AI实现的七个关键要素。
可信赖AI实现的三大基本条件
人工智能道德准则的目标是推进可信赖AI的发展。可信赖AI在系统的全生命周期中需要满足三个条件:合法、符合伦理、技术稳健。所谓合法,是指AI系统应该遵守所有适用的法律法规;所谓符合伦理,是指AI系统应该遵守伦理准则和价值观;所谓技术稳健,是指不管从技术还是社会的角度来看,尽管开发或使用AI系统的本意是良好的,但是AI系统也可能会造成无意的伤害,所以系统中的每个组件都应该满足可信赖AI的要求。理想情况下,上述三个条件应该在操作中协调发展,一旦出现互为排斥的关系,社会应该通过努力使其保持一致。
全球范围内的AI系统不能“无法无天”地运作,国际层面、欧洲的一些具有法律约束力的规则已经适用于当今AI系统的开发、部署和使用。例如,根据国际人权法律、欧盟条约和欧盟宪章,专家组提出了AI系统应该涵盖的基本权利,其中有些权利在欧盟是法律强制执行的,因此保证这些权利也是法律的基本要求,包括:尊重人的尊严(Respectforhumandignity),个人自由(Freedomoftheindividual),尊重民主、正义和法律规范(Respectfordemocracy,justiceandtheruleoflaw),平等、不歧视和团结(Equality,non-discriminationandsolidarity),公民权利(Citizens’rights)。法律的制定并不是总能跟上技术发展的速度。因此值得信赖的AI不仅要遵守法律,也应符合伦理规范。另外,即便有了道德的限制,无论是个人还是社会都不能保证AI系统不会造成无意识的伤害,因此,AI系统应该确保在其应用领域和全生命周期内稳健运行。综上所述,AI系统是以合法、符合道德、技术稳健为基本条件的。
满足四项道德准则
“可信赖AI”需要满足四项道德准则。
准则一:尊重人的自主性。
与AI互动的人类必须能够充分坚持自己的决定,并参与民主进程。AI系统不应该不合理地从属、胁迫、欺骗、操纵人类。相反,AI系统的设计应该以增强、补充人类的认知、社会和文化技能为目的。人类与AI系统之间的功能分配应遵循以人为中心的设计原则,这意味着在AI系统的工作过程中要确保人类扮演监督其工作的角色。AI系统也可能从根本上改变工作领域,但是它应该在工作环境中支持人类,并致力于创造有意义的工作。
准则二:预防伤害。
AI系统不应该造成、加剧伤害,或以其他任何方式对人类产生不利的影响。AI系统及其运行的环境必须是安全可靠的。因此AI系统技术上必须是强健的,而且要确保AI技术不会被恶意使用。尤其是弱势群体在使用AI系统时,应该受到更多关注。AI系统在开发、部署和使用过程中,均应关注弱势群体。另外,还需注意AI系统可能导致或加剧由于权力或信息不对称造成的不利影响。最后还需注意可能会恶意使用该技术的人和可能会造成不良影响的应用场景。
准则三:公平。
AI系统的开发、部署和使用必须是公平的。虽然大众对公平性可能会有不同的解读,但是应当确保个人和组织不会受到不公平的偏见、歧视等。如果AI系统可以避免不公平的偏见,就可以增加社会公平性。公平还意味着AI从业者使用AI时平衡“手段”和“目标”之间的比例原则,为此,AI系统做出的决策以及做决策的过程应该是可提出质疑的并且有补救机制的。
准则四:可解释性。
可解释性对构建用户对AI系统的信任是非常关键的。也就是说整个决策的过程、输入和输出的关系都应该是可解释的。但目前的人工智能算法和模型都是以黑盒(blackbox)的形式运行的。(黑盒模型是指诸如神经网络、梯度增强模型或复杂的集成模型。此类的模型通常具有很高的准确性。然而,这些模型的内部工作机制却难以理解,也无法估计每个特征对模型预测结果的重要性,更不能理解不同特征之间的相互作用关系。)在这种情况下,可能需要其他可解释性措施,例如可追溯性、可审计性。
可信赖AI系统应满足7个关键要素
专家组对实现可信赖的AI系统提出了7个关键要素。分别是:人工智能自治的治理(人的监督)、技术强大性和安全性、隐私和数据治理、透明度、多样性、非歧视性和公平性、社会和环境福祉以及问责。
关键要素一:人工智能自治的治理(人的监督),即基于人类自治原则,AI系统应该支持人类的自治和决策。
这要求AI系统既可以帮助使用者推动社会的民主、繁荣、公平,又能够促进基本权利的行使,同时允许人类监督。AI应与其他科技一样,可以造福于人,如帮助人类追踪个人数据,增加教育的可及性从而保障他们受教育的权利。但是,考虑到AI系统的使用范围和能力,它们也会对基本权利产生负面影响。因此,应建立外部反馈机制以接收AI系统侵犯基本权利的信息。人类能动性是指,AI用户应能够基于AI系统自主作出决策。并且AI系统应赋予他们知识和工具,以便在人类满意的程度上理解并与AI系统互动,并在可能的情况下,合理地自我评估。人工智能系统应支持个人根据他们的目标做出更好、更明智的选择。人工智能系统有时可能通过难以被发现的机制来塑造和影响人类行为,因为它们可能利用潜意识过程,包括各种形式的不公平操纵、欺骗等威胁到人类的自主权。用户自治的总体原则必须是系统功能的核心。关键在于,当决策对用户产生法律效果或对用户产生重大影响时,用户权利不受基于自动化处理的决策约束。人类监督是指,人为监督有助于确保AI系统不会破坏人的自主权或造成其他不利影响。监督可以通过治理机制来实现,例如human-in-the-loop(HITL),human-on-the-loop(HOTL),orhuman-in-command(HIC)方法。HITL指的是在系统的每个决策周期内人为干预的能力。HOTL指的是在系统设计周期内监控系统运行的人为干预的能力。HIC指的是监督AI系统整体活动的能力(包括其更广泛的经济、社会、法律和道德影响)以及决定何时以及如何在任何特定情况下使用该系统的能力。此外,必须确保公共执法者有能力根据其任务规定进行监督。根据AI系统的应用领域和潜在风险,可能需要不同程度的监督机制来支持其他安全和控制措施。在其他条件相同的情况下,如果人类对AI系统进行的监督越少,那么需要进行的测试就越广泛、管理就越严格。
关键要素二:技术强大性和安全性。
技术强大性要求AI系统的开发采用可靠的预防性措施防范风险,使其能够按预期运行,同时尽量减少无意和意外伤害,并防止不可接受的伤害。这一要求也适用于AI操作环境发生潜在变化的情况,或以对抗方式与系统交互的其他智能体(人类和人工)出现的情况。此外,还应确保人类的身心健康。
与所有软件系统一样,AI系统应该受到保护,免受被攻击,例如黑客攻击。攻击可能针对数据(数据中毒)、模型(模型泄漏)或底层基础设施(包括软件和硬件)。如果AI系统受到攻击,例如在对抗性攻击中,数据和系统行为被改变,导致系统作出不同的决定,或者导致它完全关闭。系统和数据也可能因恶意或暴露于意外情形而被破坏。安全程序不足也可能导致错误的决策甚至是物理性伤害。为了使AI系统被认为是安全的,应该考虑人工智能系统中潜在的非预期应用和恶意行为者滥用系统。
AI系统应该有一定的安全措施,在出现问题时,使用可以启用后备计划。这可能意味着AI系统从统计程序切换到规则程序,或者它们在继续行动之前询问人类再进行操作,且必须确保系统能够在不伤害生物或环境的情况下完成预期的工作,最大限度地减少意外产生。此外,应建立程序对AI系统所在的应用领域潜在风险进行解释和评估。如果可以预测开发过程或系统本身会带来较高风险,那么主动开发和测试安全措施则至关重要。
此外,准确性与AI系统作出正确判断的能力有关。明确且完善的开发和评估程序可以支持、缓解和纠正不准确预测带来的意外风险。当偶然的不准确预测无法避免时,很重要的一点是系统能够指出这些错误。在AI系统直接影响人类生活的情况下,高准确性非常必要。另外,至关重要的是,AI系统的结果是可靠的,也是可重复的。可靠的AI系统可以在一系列输入和各种情况下正常工作,这需要仔细检查AI系统并防止意外伤害。可重复性指人工智能实验在相同条件下重复时能否表现出相同的行为,这使科学家和政策制定者能够准确描述AI系统的作用。
关键要素三:隐私和数据治理,即根据AI系统应用的领域、其访问协议及处理数据的能力进行的数据管理,包括使用数据的质量和完整性。
AI系统须在系统的整个生命周期内确保隐私和数据保护,包括最初由用户提供的信息,以及在用户与系统交互过程中产生的关于用户的信息。人类行为的数字记录可以允许AI系统推断个人偏好、性取向、年龄、性别、宗教或政治观点,为了使个人信任数据收集过程,必须确保收集的有关数据不会被非法使用或使他们受到不公平歧视。另外,所使用的数据集的质量对AI系统的性能至关重要。收集的数据,可能包含对社会构造的偏见、不准确、错误和误差。因此,如何确保数据质量且确保数据的完整性至关重要。恶意数据进入AI系统可能会改变其行为,尤其是自学系统。因此,必须在每个步骤(例如规划、训练、测试和部署)中测试和记录所使用的流程和数据集,这也适用于其他获取而非内部开发的人工智能系统。
关键要素四:透明度。
即与AI系统相关的数据、系统和商业模型的透明度。产生AI系统决策的数据集和过程,包括数据收集和数据标记以及所使用的算法,应予以记录,以实现可追溯性和提高透明度。这样可以确定AI决策错误的原因,反过来也可帮助防止未来的错误。可追溯性有助于提高可审查性和可解释性。
关键要素五:多样性、非歧视性和公平性,即人类在整个AI系统的生命周期内,通过包容性设计和平等性设计,确保平等访问可信赖的AI。
AI系统(用于训练和操作)使用的数据集可能会受制于偏差、不完整和管理不当等问题,这类偏见可能导致对某些群体或个人直接、间接侵害和歧视,从而加剧偏见和边缘化。因此,AI系统开发者应尽可能在数据收集阶段消除可识别和歧视性偏见。开发人工智能系统的方式(例如算法编程)也可能遭受不公平的偏见,这可以通过建立监督机制来抵消,以清晰透明的方式分析和解决系统的目的、约束、要求和决策。此外,应鼓励从不同背景、文化和学科招聘开发人员以保证意见的多样性。另外,在B2C领域,AI系统应以用户为中心,允许所有人使用AI产品或服务,无论其年龄、性别、能力或其他特征,特别是残疾人士均可以使用AI产品和服务。AI系统不应采用一刀切的设计,设计原则应符合相关的可访问性标准且满足最广泛的用户范围。所有人能够平等访问和积极参与现有和将有的计算机介导的人类活动以及辅助技术。
关键要素六:社会和环境福祉,即根据公平性和预防损害原则,在整个AI系统的生命周期中,更广泛的社会、其他生命和环境也应被视为利益相关者。
应鼓励AI系统的可持续性和生态责任,并将此研究纳入AI解决方案以解决全球关注的问题,如可持续发展。理想情况下,人工智能系统应用于使所有人类(包括后代)受益。人工智能系统承诺帮助解决一些紧迫的社会问题,并且尽可能以环境友好的方式解决。如AI系统的开发和使用过程,以及整个供应链都应该进行这方面的评估。例如:通过对训练期间资源使用和能源消耗的严格审查,选择危害较小的方式。另外,如果人类在生活的各个方面(教育、工作、健康、娱乐)使用AI系统,都可能改变我们对社交媒介的理解,或影响我们的社会关系和依附。虽然人工智能系统可用于提高社交技能,但同样可以使其恶化,这也可能影响人们的身心健康。因此,必须仔细监测和考虑这些负面影响。除了评估人工智能系统的开发和使用对个人的影响之外,还应从社会角度评估这种影响,同时考虑其对行政机构、民主和整个社会的影响。特别是在与民主进程有关的情况下,仔细考虑使用AI系统,包括政治决策、选举等。
关键要素七:问责机制,即建立可审计机制以确保AI系统及其成果在开发、部署和使用前后的责任和问责。
可审计性包含了对算法、数据和设计过程的评估。但这并不意味着与人工智能系统相关的商业模型和知识产权需要公开。内部和外部审计人员的评估以及此类评估报告有助于验证技术的可信度。在影响基本权利的应用中,比如与关键安全相关的应用,AI系统进行独立审计。在实施上述要求时出现的紧张关系会导致不可避免的权衡。这需要确定AI系统所涉及的相关利益和价值观。如果出现冲突,应明确并权衡其对道德原则(包括基本权利)的风险。在道德上不可接受权衡的情况下,人工智能系统的开发、部署和使用不应以该形式进行。任何关于权衡的决定都应可解释并被妥善记录。决策者必须对权衡的方式负责,并应不断审查最终决策的适当性,以确保能在必要时修改系统。
本文来源:中国政府采购报,编译:昝妍转载此文目的在于传递更多信息,版权归中国政府采购报所有,转载或请注明。
欧盟发布人工智能道德准则,欲另辟蹊径,成为道德AI领导者
当地时间4月8日,欧盟委员会发布一份人工智能道德准则,该准则由2018年12月公布的人工智能道德准则草案演变而来,提出了实现可信赖人工智能的七个要素,要求不得使用公民个人资料做出伤害或歧视他们的行为。
同时,欧盟委员会宣布启动人工智能道德准则的试行阶段,邀请工业界、研究机构和政府机构对人工智能道德准则进行测试和补充。
这份人工智能道德准则提出了实现可信赖人工智能的七个要素,分别是:
1.人的能动性和监督:人工智能系统应通过支持人的能动性和基本权利以实现公平社会,而不是减少、限制或错误地指导人类自治。
2.稳健性和安全性:值得信赖的人工智能要求算法足够安全、可靠和稳健,以处理人工智能系统所有生命周期阶段的错误或不一致。
3.隐私和数据管理:公民应该完全控制自己的数据,同时与之相关的数据不会被用来伤害或歧视他们。
4.透明度:应确保人工智能系统的可追溯性。
5.多样性、非歧视性和公平性:人工智能系统应考虑人类能力、技能和要求的总体范围,并确保可接近性。
6.社会和环境福祉:应采用人工智能系统来促进积极的社会变革,增强可持续性和生态责任。
7.问责:应建立机制,确保对人工智能系统及其成果负责和问责。
对于这份人工智能道德准则,欧盟委员会负责数字化单一市场的副主席安德鲁斯·安西(AndrusAnsip)表示欢迎,他认为:“人工智能的伦理并不是一个奢侈特征或附加功能。只有有了信任,我们的社会才能充分受益于技术。有道德的人工智能是一个双赢的主张,可以成为欧洲的竞争优势:成为以人为中心的人工智能的领导者,让人们可以信任。”
欧盟委员会表示,其目前正在采取三步行动以促进可信赖的人工智能健康发展:制定值得信赖的人工智能的关键要求,启动利益相关者的大规模试点阶段,为以人为中心的人工智能建立国际共识。
欧盟委员会希望将上述人工智能伦理方法带到全球舞台。为此,欧盟委员会表示,将与日本、加拿大和新加坡等开展合作,试行阶段也将涉及来自其他国家和国际组织的公司。
在试行阶段之后,到2020年初,欧盟人工智能高级别专家组将根据收到的反馈审查评估清单,并根据评估结果并提出下一步行动。
此外,为了确保人工智能的道德发展,欧盟委员会表示,将在2019年秋季之前启动一套人工智能研究卓越中心网络;开始建立数字创新中心网络;与欧盟成员国和利益相关者一起,开始讨论制定数据共享模型。
上述人工智能道德准则由欧盟人工智能高级别专家组(AIHLEG)起草。
2018年,52位代表学术界、工业界和民间社会的独立专家受欧盟委员会任命,成立了欧盟人工智能高级别专家组,负责撰写人工智能道德准则并为欧盟提供政策和投资建议。
2018年12月18日,欧盟人工智能高级别专家组向社会发布了人工智能道德准则草案(DraftEthicsGuidelinesForTrustworthyAI,以下简称草案),该草案当时被视为是欧洲“可信赖人工智能”的讨论起点。
草案为“可信赖人工智能”提出了一个官方解释。草案认为,“可信赖人工智能”有两个必要的组成部分:首先,它应该尊重基本权利、规章制度、核心原则及价值观,以确保“道德目的”,其次,它应该在技术上强健且可靠,因为即使有良好的意图,缺乏对技术的掌握也会造成无意的伤害。
12月发布的草案还提出了一份可信赖的人工智能评估表,从责任、数据治理、为所有人设计、管理AI自治、非歧视、尊重隐私、尊重(和加强)人类自主权、稳健性、安全性、透明度共10个维度列举了可信赖人工智能的相关要求。
近年来,欧盟一再表示希望成为道德AI的领导者。对此,美国科技媒体《边缘》(TheVerge)评论称,这在一定程度上是由目前的环境造成的,在涉及投资和尖端研究时,欧盟无法与美国和中国竞争,因此选择道德是塑造技术未来的最佳选择。