欧盟正式发布“可信赖的人工智能伦理准则”
4.透明度:用于创建AI系统的数据和算法应该是可访问的,软件所做的决定应该“为人类所理解和追踪”。换句话说,操作者应该能够解释他们的AI系统所做的决定;
Transparency:thedata,systemandAIbusinessmodelsshouldbetransparent.Traceabilitymechanismscanhelpachievingthis.Moreover,AIsystemsandtheirdecisionsshouldbeexplainedinamanneradaptedtothestakeholderconcerned.HumansneedtobeawarethattheyareinteractingwithanAIsystem,andmustbeinformedofthesystem’scapabilitiesandlimitations.
5.多样性、无歧视、公平:AI应向所有人提供服务,不分年龄、性别、种族或其他特征。同样,AI系统不应在这些方面有偏见;
Diversity,nondiscriminationandfairness:Unfairbiasmustbeavoided,asitcouldhavemultiplenegativeimplications,fromthemarginalizationofvulnerablegroups,totheexacerbationofprejudiceanddiscrimination.Fosteringdiversity,AIsystemsshouldbeaccessibletoall,regardlessofanydisability,andinvolverelevantstakeholdersthroughouttheirentirelifecircle.
6.环境和社会福祉:AI系统应该是可持续的(即它们应该对生态负责),并能“促进积极的社会变革”;
Societalandenvironmentalwellbeing:AIsystemsshouldbenefitallhumanbeings,includingfuturegenerations.Itmusthencebeensuredthattheyaresustainableandenvironmentallyfriendly.Moreover,theyshouldtakeintoaccounttheenvironment,includingotherlivingbeings,andtheirsocialandsocietalimpactshouldbecarefullyconsidered.
7.问责制:AI系统应该是可审计的,并由现有的企业告密者保护机制覆盖。系统的负面影响应事先得到承认和报告。
Accountability:MechanismsshouldbeputinplacetoensureresponsibilityandaccountabilityforAIsystemsandtheiroutcomes.Auditability,whichenablestheassessmentofalgorithms,dataanddesignprocessesplaysakeyroletherein,especiallyincriticalapplications.Moreover,adequateanaccessibleredressshouldbeensured.
请注意,这些原则中有些条款的措辞有点儿抽象,并且很难从客观的意义上进行评估。例如,“积极社会变化”的定义在人与人、国与国之间差异很大。但其他原则更为直截了当,可以通过政府监督来检验。例如,共享用于训练政府AI系统的数据可能是对抗偏见算法的好方法。
这些指导方针不具有法律约束力,但它们可以影响欧盟起草的任何未来立法。欧盟曾多次表示,它希望成为道德AI领域的领导者,并通过《通用数据保护条例》》GDPR表明,它愿意制定影响深远的、保护数字权利的法律。
但这个角色在某种程度上是环境迫使欧盟扮演的。在投资和尖端研究方面,欧盟无法与美国和中国竞争,因此它选择了伦理作为塑造这项技术未来的最佳选择。
作为这一努力的一部分,欧盟发布的报告还包括了一份被称为“可信赖AI评估列表”,它可以帮助专家们找出AI软件中的任何潜在弱点或危险。此列表包括以下问题:“你是否验证了系统在意外情况和环境中的行为方式?”以及“你评估了数据集中数据的类型和范围了吗?”这些评估列表只是初步的,欧盟将在未来几年收集公司的反馈,并在2020年提交关于其效用的最终报告。
数字版权组织AccessNow的政策经理范尼·希德韦吉(FannyHidvégi)表示:“评估列表是该报告最重要的部分。它提供了一个实用的、前瞻性的角度,指导我们如何减轻AI的潜在危害。在我们看来,欧盟有潜力和责任走在这项工作的前列。但我们确实认为,欧洲联盟不应止步于制定伦理准则。”
其他人则怀疑,欧盟试图通过伦理研究来塑造全球AI的发展方式,这是否会产生很大影响。智库数据创新中心(CenterForDataInnovation)高级政策分析师埃林·奇沃特(ElineChivot)表示:“我们对正在采取的方法持怀疑态度,即通过为AI伦理创建一个黄金标准,它将确认欧盟在全球AI发展中的地位。而要成为AI伦理领域的领导者,首先必须在AI领域取得领先优势。”
欧盟要做AI的国际规范制定者
与北美和亚洲相比,欧盟的AI技术发展相对滞后,欧委会此次在发布该七条AI道德原则时也坦承欧洲在AI私人投资方面落后:以2016年为例,当年亚洲在此方面吸引到的投资为109亿美元,北美区域为209亿美元,而欧洲方面得到的投资仅为24亿-32亿欧元(27-41.5亿美元)。
因此,欧盟方面也在想方设法加大对AI领域的投入。根据欧盟方面提供的资料显示,在公共投资方面,根据欧盟“地平线2020”计划,到2020年年底,欧委会计划投入约15亿欧元到AI领域,同时确保来自公共和私人投资达到至少200亿欧元。
同时,欧盟提出在未来的十年中,希望每年对AI领域投资最少200亿欧元,这笔资金不仅来自欧盟机构,也会来自私人投资机构,同时欧委会也会在“地平线2020”计划安排下每年再投资10亿欧元。
当然,在希望可以迎头赶上北美和亚洲的AI产业之外,欧盟机构也更加重视AI所有可能能带来的在隐私和安全等方面的风险,可谓未雨绸缪,且由于欧盟在重视隐私和安全方面的传统,这样的立法推进较之美国而言,相对更快。就在两周前,谷歌自身就推出了一个人工智能伦理委员会,但由于谷歌为该委员会选择的成员遭到了谷歌自身雇员的强烈反对,该委员会在成立一周之后就被谷歌自行解散了。
在欧盟方面,并不满足于仅仅为欧盟内部的AI产业设定规则。
欧盟此次指出,推出该七条AI道德原则仅仅是第一步。随后,欧盟要在2019年的夏天展开一个正式的实验阶段,且已经告知与AI产业有关的官、产、学三界,该实验开始的具体日期。
第三步,欧盟要在国际场合为其“以人为本”的AI系统建立共识,并希望将这种方法纳入AI道德的全球舞台。
欧委会指出,技术,数据和算法不分国界,为此,欧委会继续加强同日本,加拿大以及新加坡等志同道合国家的合作,并继续在包括七国集团(G7)和G20在内的国际场合的讨论和倡议中发挥积极作用。
IBM欧洲主席页特(MartinJetter)对此表示,欧委会此次出台的指导方针“为推动AI的道德和责任制定了全球标准。”
来源:中国体外诊断网
全国服务热线:400-609-1580
公司网站:http://www.fredamd.com/
关注弗锐达法规资讯微信公众号(fredamd2)获取更多资讯返回搜狐,查看更多
欧盟人工智能道德准则(草案)@MedSci
执行摘要
人工智能是这个时代最具变革性的力量之一,它可以为个人和社会带来巨大利益,但同时也会带来某些风险。而这些风险应该得到妥善管理。总的来说,AI带来的收益大于风险。我们必须遵循「最大化AI的收益并将其带来的风险降到最低」的原则。为了确保不偏离这一方向,我们需要制定一个以人为中心的AI发展方向,时刻铭记AI的发展并不是为了发展其本身,最终目标应该是为人类谋福祉。因此,「可信赖AI」(TrustworthyAI)将成为我们的指路明灯。只有信赖这项技术,人类才能够安心地从AI中全面获益。
「可信赖AI」由两部分组成:1)它应该尊重基本权利、相关法规、核心原则及价值观,确保其目的合乎伦理道德;2)它使用的技术应该非常稳健、可靠,因为即使是出于好意,如果没有成熟技术的加持,技术也会带来意想不到的伤害。这些指导原则构成了「可信赖AI」的基本框架:
「可信赖AI」框架
ChapterI:确保人工智能的目的合乎道德,规定了人工智能发展应该遵守的基本权利、原则和价值观。
ChapterII:关于实现「可信赖AI」的指导原则,同时强调AI发展目的的道德性和技术稳健性。这部分列出了「可信赖AI」的要求,以及实现这些要求所需的技术和非技术方法。(详细内容见下文)
ChapterIII:提供「可信赖AI」的具体但非详尽的评估列表实施要求。该列表将根据具体的用例进行调整。
与其他有关AI伦理道德的文件相比,这份准则的目的不是为AI增加一份核心价值观和原则清单,而是为AI系统的具体实施和操作提供指导。
该准则面向开发、部署或使用AI的所有利益攸关方,包括公司、组织、研究人员、公共服务单位、机构、个人或其他实体。该准则的最终版将提出一种机制,是否认可这些这些准则将由利益攸关方自行决定。
需要指出的是,制定这些准则并不是为了替代任何形式的决策或监管,也不是为了阻止其出台。这份准则应该不断更新,以适应技术和知识发展的要求。
「可信赖AI」的实现
这一部分为「可信赖AI」的实施和实现提供了指导,指出实现「可信赖AI」有哪些要求,在发展、部署、使用AI的过程中有哪些方法可以满足这些要求,从而充分利用由AI创造的机遇。
1.「可信赖AI」的要求
实现「可信赖AI」意味着需要在AI系统和应用的具体要求中加入一般、抽象的原则。以下是从ChapterI的权利、原则和价值观中衍生出的十条要求。这十条要求同样重要,但实施过程中需要考虑不同应用领域和行业的具体背景。
问责机制
数据治理
为所有人设计
人工智能自治的治理(人的监督)
非歧视
尊重(增强)人类自主性
尊重隐私
稳健性
安全
透明
《准则》还对每一项要求进行了进一步解释。例如,在「问责机制」这项要求中,《准则》指出,问责机制的选择可能非常多样,从金钱补偿到过失调查,再到没有金钱补偿的和解。如一个系统误读了药品报销申请,错误地决定不予报销,系统所有者可能会被要求做出金钱补偿。其他要求的详细内容请参考原文。
这一清单按字母顺序对要求进行排序,以表明所有要求同等重要。ChapterIII还提供了一份评估清单,以支持这些要求的实施。
2.实现「可信赖AI」的技术和非技术方法
为了满足上一节中提到的要求,开发过程的所有层面(包括分析、设计、开发和使用)都可以采用技术和非技术方法(参见图3)。对实施这些要求和方法的评估,以及对流程变化的报告和论证应该持续进行。事实上,考虑到AI系统不断发展,以及在动态环境中运行,实现「可信赖AI」可以看作一个持续的过程。
虽然这份准则中的方法列表并不详尽,但它旨在列出实施「可信赖AI」的主要方法。为了提高AI系统的可信度,这些方法应该基于第一章中定义的权利和原则。
图3显示了权利、原则和价值观对系统开发过程的影响。这些抽象的原则和权利被具体化为对AI系统的要求,该系统的实施和实现要由不同的技术和非技术方法支持。此外,考虑到AI技术的适应性和动态性,继续坚持原则和价值观要求将评估(evaluation)和论证(justification)流程作为开发流程的核心。
图3:通过系统的整个生命周期实现「可信赖AI」
欧盟AI道德准则草案:有份可信赖AI评估列表
欧盟近年来一直宣称自己是“可信赖人工智能”的推动者。12月18日,欧盟人工智能高级别专家组(AIHLEG)正式向社会发布了一份人工智能道德准则草案(DRAFTETHICSGUIDELINESFORTRUSTWORTHYAI,以下简称草案),该草案被视为是欧洲制造“可信赖人工智能”的讨论起点。
这份草案首先为“可信赖人工智能”提出了一个官方解释。草案认为,“可信赖人工智能”有两个必要的组成部分:首先,它应该尊重基本权利、规章制度、核心原则及价值观,以确保“道德目的”,其次,它应该在技术上强健且可靠,因为即使有良好的意图,缺乏对技术的掌握也会造成无意的伤害。
围绕这两大要素,草案给出了“可信赖人工智能”的框架。草案强调,其目的不是给出另一套人工智能的价值和原则列表,而在于为人工智能系统提供具体实施和操作层面的指导。
草案共37页,第一章通过阐述人工智能应该遵守的基本权利、原则和价值观,试图确保人工智能的道德目的。根据第一章所阐述的原则,第二章给出了实现“可信赖人工智能”的准则和详细要求,既涉及道德目的,也涉及技术稳健性,既有技术层面的要求,也有非技术层面的要求。第三章则为“可信赖人工智能”提供了一张具体但非穷尽的评估列表。
草案指出,其提出的准则并非旨在取代任何形式的政策和规章,同时,这些准则应该被视为活文件,需要定期更新以适应技术发展的需求。
草案的一大亮点在于其特辟一个章节讨论人工智能所引发的争议性问题。这些问题引起了欧盟人工智能高级别专家组的激烈讨论且尚未在组内达成一致意见。
位于列表第一的争议性问题是“未经知情同意的识别”。有迹象表明利用人脸识别对公民进行监控的情况开始在欧洲出现。不久前,英国警方宣布,他们正在伦敦对圣诞节的购物者们进行人脸识别的测试。人工智能中的人脸识别等技术使得公共或私人组织能够有效的识别个人。草案认为,“为了维护欧洲公民的自主权,人工智能的这一使用需要得到适当的控制”。具体而言,区分个体识别与个体跟踪、目标监视与大规模监视对于实现“可信赖人工智能”至关重要。
另一个专家组热议的话题是“隐蔽的人工智能系统”。发展人工智能的其中一种目标是建立像人一样的系统,但越来越像人的人工智能系统却会给人类带来了困扰。草案认为,一个人必须总是知道他是在与人类还是机器进行交流,这一点也应是AI开发和管理人员的职责。专家组提出,人们“应当牢记,人与机器之间的混淆会产生多种后果,比如依恋、影响或降低作为人的价值。因此,人形机器人和机器人的发展应经过仔细的道德评估。”
“致命自主武器系统”也是专家组重要关切之一。草案称,目前有数量未知的国家正在研发自主武器系统。这些武器系统中有能够选择性瞄准的导弹,还有具认知能力、可在无人为干预的情况下决定作战对象、时间和地点的学习机器等。专家组认为这会引起不可控的军备竞赛。
对于以上这些争议话题,草案给出了一个关键性指导准则。首先是AI的开发、部署和使用应以人为中心,须反应公民的福利、无害、人类自主、争议和可解释性等社会价值观和道德原则。其次是评估AI对人类及其共同利益的可能影响,尤其需要注意儿童、残障人士和少数群体等弱势群体的情况。第三是人们需要承认并意识到人工智能在为个人和社会带来实质性好处的同时也可能产生负面影响,人们需要“对严重关切的领域保持警惕”。
目前,草案处于征集意见阶段,征集时间将于2019年1月18日截止。据悉,该草案将于2019年3月提交到欧盟委员会。
欧盟人工智能高级别专家组于2018年4月由欧盟委员会任命,组内有52位代表学术界、工业界和民间社会的独立专家。该专家组的主要职责是撰写人工智能道德准则并为欧盟提供政策和投资建议。
(家电网®HEA.CN)
欧盟AI道德准则草案出炉
http://ex.chinadaily.com.cn/exchange/partners/77/rss/channel/cn/columns/4m6872/stories/WS5c32b88ca3100a343d6f2483.html
近日,据外媒报道,欧盟委员会(EC)任命的人工智能高级专家小组发布了AI开发和使用的道德草案,内容长达37页,提出可信赖AI应具备两大要素,以及AI不可为的基本原则。
欧盟AI道德准则草案指出,可信赖的AI有两个组成要素:一、应尊重基本权利,适用法规、核心原则和价值观,以确保“道德目的”,二、兼具技术鲁棒性和可靠性,AI技术必须足够稳健及强大以对抗攻击,以及如果AI出现问题,应该有“应急计划”。
另外,可信赖AI的不可为包括以下几项:不应以任何方式伤害人类,人们不应该被AI驱动的机器征服或强迫,AI应该公平使用,不得有歧视或诬蔑行为,AI应透明地运作,AI应该只为个人和整个社会的福祉而发展等。
人类能造出有道德的机器人吗
原标题:人类能造出有道德的机器人吗?2018年12月18日,欧盟人工智能高级别专家组发布了一份人工智能道德准则草案。在许多人担忧人工智能取代人类、破坏伦理的大背景下,该草案旨在指导人们制造一种“可信赖的人工智能”。如何才能让机器人更令人信赖?可否赋予它们道德修养呢?就此话题,作者采访了美国匹兹堡大学科学哲学和科学史系杰出教授、西安交通大学长江讲座教授科林・艾伦。
问:什么是人工智能的“道德”?
艾伦:人工智能的“道德”,或者说“道德机器”“机器道德”,有很多不同的含义。我将这些含义归为3种。第一种含义中,机器应具有与人类完全相同的道德能力。第二种含义中,机器不用完全具备人类的能力,但它们对道德相关的事实应该具有敏感性,并且能依据事实进行自主决策。第三种含义则是说,机器设计者会在最低层面上考虑机器的道德,但是并没有赋予机器人关注道德事实并做出决策的能力。
就目前而言,第一种含义所设想的机器仍是一个科学幻想。所以,我在《道德机器》一书中略过了对它的探讨,而更有兴趣探讨那些介乎第二、第三种意义之间的机器。当下,我们希望设计者在设计机器人时能够考虑道德因素。这是因为,在没有人类直接监督的情况下,机器人可能将在公共领域承担越来越多的工作。这是我们第一次创造可以无监督地运行的机器,这也是人工智能伦理问题与以往一些科技伦理问题之间最本质的区别。在这样的“无监督”情境中,我们希望机器能够做出更道德的决策,希望对机器的设计不仅仅要着眼于安全性,更要关注人类在乎的价值问题。
问:如何让人工智能具有道德?
艾伦:首先要说的是,人类自己还不是完全道德的,将一个人培养成有道德的人可不是一件容易的事。人类的本质都是出于利己主义做事,而不考虑他人的需求和利益。然而,一个道德的智能体必须学会克制自己的欲望以方便他人。我们现在构建的机器人,其实并不具有自己的欲望,也没有自己的动机,因为它们没有自私的利益。所以,训练人工智能和训练人的道德是有很大差异的。对机器的训练问题在于,我们怎样才能赋予机器一种能力,让它敏感地察觉到哪些对人类的道德价值观而言是重要的事情。此外,机器需要认识到它的行为会对人类造成痛苦吗?我认为是需要的。我们可以考虑通过编程,使机器按照这种方式行事,且无需考虑怎么让机器人优先考虑他者利益,毕竟目前的机器还不拥有利己的本能。
问:发展人工智能的道德应采用怎样的模式?
艾伦:我们曾在《道德机器》中讨论了机器道德发展模式,认为“自上而下”和“自下而上”相混合的模式是最佳答案。首先谈一谈“自上而下”和“自下而上”意味着什么。我们以两种不同的方式使用这两个术语。一个是工程的视角,也就是一些技术和计算机科学的视角,例如机器学习和人工进化,而另一个则是伦理学视角。机器学习和人工进化并不从任何原则开始,它们只是试图使机器符合特定类型的行为描述,并且在给定输入使机器以这种方式行事时,它的行为能够符合特定类型,这叫“自下而上”。与之相比,“自上而下”的方法则意味着一个清晰的、将规则赋予决策过程的模式,并且试图写出规则来指导机器学习。我们可以说,在工程领域中,“自下向上”是从数据当中学习经验,而“自上向下”则是用确定的规则进行预编程。
在一些伦理学领域也有这种“上下之别”,比如康德,还有更早的功利主义学派,如边沁和密尔,他们就更像是“自上而下”。这些学者试图制定规则以及普遍原则,以便通过这些“条条框框”判断出一个行为是不是道德的。这样对康德的道德律令而言,其涵义就包含着多项具体规则,例如“不撒谎”。
亚里士多德对于道德持有相当不同的观点。他认为,道德应当是一个人通过训练而习得的。因此,亚里士多德的观点就更倾向于一种“自下向上”的方法,这种方法就是一个人通过练习变得好、善良、勇敢。当践行道德的时候,我们就称之为美德伦理。通过这样做,一个人会变得更具美德、会有更好的行为。
我认为亚里士多德的看法更正确。因为人类并不是靠“瞎碰瞎撞”去养成习惯的,也会对习惯进行思考,并思考需要哪些原则。亚里士多德注意到,在原则灌输和习惯训练之间存在着一种相互作用。我们认为,这种途径同样也适用于人工道德智能体的构建。在很多实时决策的情境下,我们并没有足够的时间来反思行为背后的理论或原则含义。但是,我们还可以从错误中学习,因为可以使用这些“自上向下”的原则重新评估我们所做的事情,之后再进行调整和重新训练。
这就是混合方法的基本思路,我认为它确实符合人类的情形。举个例子,当你还是个孩童时,你对兄弟姐妹做了什么不好的事情,父母会说“如果这种事情发生在你身上,你会有何感受呢”,是吧?在许多道德传统中都有这样一种原则:“以你自己对待自己的方式,或是你希望被别人对待的方式去对待他人”,有时人们也称这一原则为黄金法则。所以,你不仅仅被告知不要那样做,也并不仅仅因此而受罚,实际上你会被告知去思考这样做为何是好的或不好的,这就是“自上而下”与“自下而上”的结合。
问:应该限制人工智能的发展吗?
艾伦:我认为这取决于应用领域。我现在并不担心机器人或人工智能会取代人类,如果情况变得危险,我们是有能力去阻止它的。比如说突然发现机器人可以生产机器人,我们要做的无非就是切断电源。
当然,确实存在一些应当停止人工智能应用的地方,其中一个就是人们正致力开发的军事领域。从人类的历史来看,一旦有人构想出一个武器,那将很难阻止另一些人的欲望及其为之奋斗的野心。核武器和无人机就是很好的例子。
但是,我不认为应该阻止其他形式的人工智能发展。我们需要思考技术对生活带来了怎样的后果,比如说,自动驾驶汽车会使行人过马路更困难,还是更加容易呢?自动驾驶汽车面临行人过马路的情形时应附加什么样的权限呢?无人车看到行人能不能安全停下,还是说它像人类司机一样,依然有可能撞到行人?这些都是我们需要对人工智能进行思考的问题。无人驾驶汽车不仅不该停止发展,而是应该投入更多。
问:机器人会变得更好还是更危险?
艾伦:过去10年来,人工智能在某些方面的飞速发展令人吃惊,但算不上满意。在我看来,未来10年内无人驾驶汽车投放到真实路况中的可能性不大。苹果公司推出了一个可以交谈的智能体Siri,但以现在的情形来看,Siri很糟糕不是吗?所有我使用过的类似产品,诸如Alexa,GoogleTalk,都不尽人意。所以我现在不会从伦理的视角对人工智能的发展过于担心。这些企业居然真的发布了这些产品,但更令我惊奇的是,人们居然在很大程度上调整自身行为以适应人工智能,因为你知道把Siri当成正常人来交谈的话,它永远不会明白你的意思。人类在做出调整,并非机器,因为机器并不是一个自适应的系统。或者说,它比人类具有更弱的适应性。这是最令我担心的。
当然,我所担心的并不是机器做的事情超出人类的预想,而是它们可能改变并限制我们的行为。AlphaGo赢了围棋,但并未改变我们的日常生活,所以没什么好担心的。我担心人们用愚笨的方式与机器交谈,以便机器按照我们的想法做事。要知道,这具有许多潜在的危险。它潜移默化改变我们的习惯行为,使我们对某些类型的错误更具容忍性而对有些错误却更加苛刻。人们会预料到并且能容忍人类所犯的道德错误,但是,人类可能不会容忍这样的错误在机器上发生。经过规划考虑后仍对他人造成伤害的决定如果发生在机器上,会比发生在人类身上更不能令人容忍。在过去10年内,这种改变已经发生了。即使软件会变得更好,机器也会变得更好,但是永远都存在着让人类去适应机器而非真正提高人类能力的危险。
(作者系西安交通大学计算哲学实验室中方主任,温新红对本文亦有贡献)
(责编:赵超、杨波)分享让更多人看到
光明日报:构建新一代人工智能准则
原标题:构建新一代人工智能准则【科学向未来】
著名作家阿西莫夫1940年在科幻小说中提出了“机器人三原则”:机器人不得伤害人类,或看到人类受到伤害而袖手旁观;机器人必须服从人类的命令,除非这条命令与第一条相矛盾;机器人必须保护自己,除非这种保护与以上两条相矛盾。今天,人工智能逐渐从科幻走向现实,人们对人工智能可能产生的危害也愈加警惕,希望能够为其制定准则以确保人工智能科技和产业向对社会有益的方向顺利发展。
1.以和谐互补的方式链接不同的人工智能准则提案
人工智能既是经过数十年锤炼发展出来的科学领域,又是改变未来的重要颠覆性技术。人工智能的研究与发展不仅关系到国家科技、经济发展、社会稳定,更关系到国家在科技、产业领域的国际影响与国际局势。
人工智能在带来机遇的同时也带来潜在的风险与隐患。例如应用最为广泛的深度神经网络模型在对输入引入极小的噪声(如改变图像输入中某个关键的一个像素值)情况下,就有可能使网络的识别和预测结果产生颠覆性的错误(如将青蛙识别为卡车、乌龟识别为枪支)。若没有充分的风险评估,新兴技术在对社会发展带来机遇的同时,很有可能引入不可预计的安全隐患与风险。
现在对于人工智能的发展而言,首要的问题是选择正确的道路。创新、价值、伦理是一个铁三角,创新性技术对社会带来潜在价值的同时,可能存在难以预期的风险,并对社会伦理提出重大挑战。因此,发展人工智能技术普惠经济与社会的同时,关注人工智能的社会属性,从社会风险、伦理准则与治理角度确保人工智能科学、技术、产业的健康、良性发展至关重要。
为了确保发展有益的人工智能,世界上各国政府、非政府组织、科学团体、科研机构、非营利性组织、企业都提出了人工智能发展准则。包括英国政府、国际电子电器工程学会、国际劳工组织。至今,于公开渠道可见的人工智能准则提案已接近40个,涉及以人为本、合作、共享、公平、透明、隐私、安全、信任、权利、偏见、教育、通用人工智能等主题。例如,美国生命未来研究所倡导的阿西洛玛人工智能准则(AsilomarAIPrinciples)、英国上议院提出的人工智能准则(AICode)等,都希望通过在人工智能伦理与准则制定方面的领先来引领人工智能的发展。
事实上目前任何一个国家、机构、组织提出的人工智能准则都仅覆盖了少部分主题(更为具体的层面,人工智能准则提案涉及超过50个主要议题),虽然不少准则提案都有自身的特色,有其他方案未能覆盖的考量,但想要构建统一、全面、完善的人工智能准则既是难以实现的,又是没有必要的――难以实现的原因是人工智能这门科学技术本身、人工智能准则、伦理的内涵和外延都是在不断完善的;没有必要的原因是每个国家、组织与机构的准则提案都结合自身实际情况,有组织目标、环境、文化、伦理传统相关的特殊考虑。
笔者认为,真正有价值的做法是认可每一个国家、机构提案在一定范围的意义,而为了更好地实现人工智能的全球治理,重点将不是统一人工智能的准则,而是以更和谐互补的方式链接不同的人工智能准则提案,使其在局部(如国家、组织机构等)有序与一致,世界的全局范围内不同的准则提案仍可交互和协商,最终实现和谐互补、优化共生。
2.调和政府与企业在准则制定上的现存差异
在对不同人工智能准则提案的量化分析中可以看到:相对而言,各国政府对人工智能的潜在风险与安全高度重视,但企业的重视程度相对薄弱。这反映了在企业从事人工智能创新过程中对于潜在风险与安全隐患可能估计不足。例如,在对人工智能风险的评估中,部分企业认为如果总体可能的利益远远超过可预见的风险和不利因素,则可以进行相关探索。但从学术的视角看,一方面,依据潜在利益与风险之间的量化差异决定企业是否采取相关行动本身就是一个危险的视角;另一方面,如果没有站在全社会的全局视角进行综合研判与分析,仅从企业自身视角进行预测与判断,则很有可能因为局限的思考与行动对社会造成潜在的巨大危害。
因此,应当看到政府重视与企业相对不足的考虑之间的差距,并采取引导、监管、建立人工智能产品与服务的风险与安全评估体系等有效措施弥补政府期望与企业实践之间的鸿沟。
同时,一些准则在相关技术途径可能引发风险的方面可能估计不足。例如某些提案中对通用人工智能(各个认知功能达到人类水平,简称AGI)、超级智能(所有认知功能超过人类水平,简称ASI)涉及很有限。
这方面学术机构的讨论和相关研究应当为政府决策提供有力支撑,例如阿西洛玛人工智能准则中提出超级智能以全人类受益为标准来发展,剑桥大学近期提出并正在进行一项名为“通用人工智能的实现途径及潜在风险”的研究。
3.兼顾专用人工智能和通用人工智能的发展
在人工智能顶层设计当中,是否发展通用人工智能,还是仅限于发展领域特定的专用人工智能?这是诸多人工智能准则提案中主要存在的巨大分歧。
例如,欧盟人工智能研究实验室联合会(CLAIRE)就明确提出应限制人类水平智能、通用智能以及超级智能的发展。德国的人工智能计划也集中于发展专用人工智能。而阿西洛玛人工智能准则、OpenAI等机构提出的人工智能准则中则明确提出应当对更安全的通用人工智能进行充分考虑与发展。
事实上发展专用智能并不一定能够完全避免风险,因为专用智能系统在应用中很可能遇到不可预期的场景,具备一定的通用能力反而有可能提升智能系统的鲁棒性和自适应能力。因此应针对智能的通用性这个主题链接不同国家、组织、机构的考虑,实现顶层设计的互补。
人类认知功能的多样性以及人工智能应用场景的复杂性使得很难对人工智能的风险、安全以及伦理体系进行绝对完善的建模,特别是涉及到人工智能产品、服务与具有不同文化背景的人类群体交互。任何国家都应制定适应本国的实际社会、科技、经济发展与文化需求的人工智能准则。但更关键的是需要全世界不同政府、学术组织、产业界深度交互与协同,对人工智能的发展进行对全社会有益的战略性设计,对其潜在的社会风险与伦理挑战进行系统性评估与预测,并构建世界范围内总体和谐、互为补充、优化共生的发展准则。
(作者:曾毅,系中国科学院自动化研究所类脑智能研究中心研究员、副主任)
(责编:冯粒、袁勃)欧盟最新《人工智能道德准则》AI全生命周期框架权威发布
欧盟最新《AI网络安全政策发展框架》
可信赖AI
全生命周期框架
-1-
三个基本条件
准则的目标是推进可信赖AI(TrustworthyAI)的发展。可信赖AI在系统的全生命周期中需要满足三个条件:
合法的(lawful)。系统应该遵守所有适用的法律法规;合伦理的(ethical)。系统应该与伦理准则和价值观相一致;鲁棒的(robust)。不管从技术还是社会的角度来看,AI系统都可能会造成伤害。所以系统中的每个组件都应该满足可信赖AI的要求。-2-
可信赖AI的基础:四条伦理准则
人类的基本权利
根据国际人权法律、欧盟条约和欧盟宪章,专家组提出了AI系统应该涵盖的基本权利,其中有些权利在欧盟是法律强制执行的,因此保证这些权利也是法律的基本要求,包括:尊重人的尊严(Respectforhumandignity),个人自由(Freedomoftheindividual),尊重民主、正义和法律规范(Respectfordemocracy,justiceandtheruleoflaw),平等、不歧视和团结(Equality,non-discriminationandsolidarity)、公民权利(Citizens’rights)。
4条伦理准则
包括:尊重人的自主性(respectforhumanautonomy)、预防伤害(preventionofharm)、公平性(fairness)和可解释性(explicability)。
伦理准则1:尊重人的自主性。AI系统不应该、胁迫、欺骗、操纵人类。相反,AI系统的设计应该以增强、补充人类的认知、社会和文化技能为目的。人类和AI系统之间的功能分配应遵循以人为中心的设计原则,而且AI系统的工作过程中要确保人的监督。AI系统也可能从根本上改变工作领域。它应该在工作环境中支持人类,并致力于创造有意义的工作。
伦理准则2:预防伤害。AI系统不应该引发、加重伤害,或对人类产生不好的影响。因此需要保护人类的尊严和身心健康。AI系统和运行的环境必须是安全的(safeandsecure)。因此要求技术上必须是鲁棒的,而且要确保AI技术不会被恶意使用。尤其要注意可能会恶意使用该技术的人和可能会造成不良影响的应用场景。
伦理准则3:公平性。AI系统的开发、实现和应用必须是公平的。虽然对公平性可能会有不同的解读,但是应当确保个人和组织不会受到不公平的偏见、歧视等。如果AI系统可以避免不公平的偏见,就可以增加社会公平性。为此,AI系统做出的决策以及做决策的过程应该是可解释的。
伦理准则4:可解释性。可解释性对构建用户对AI系统的信任是非常关键的。也就是说整个决策的过程、输入和输出的关系都应该是可解释的。但目前的人工智能算法和模型都是以黑盒(blackbox)的形式运行的。
-3-
可信赖AI的实现:七个关键要素
专家组提出了AI系统应该满足的7个关键要素以达到可信赖的要求,分别是:人的能动性和监督(Humanagencyandoversight),技术鲁棒性和安全性(technicalrobustnessandsafety),隐私和数据管理(privacyanddatagovernance),透明性(transparency),多样性、非歧视性和公平性(diversity,non-discriminationandfairness),社会和环境福祉(societalandenvironmentalwellbeing),问责(accountability)。
要素1:人的能动性和监督。AI系统应通过支持人的能动性和基本权利以实现公平社会,而不是减少、限制或错误地指导人类自治。
1.1人类监督人类的监督可以帮助确保AI系统不影响人类自主或产生不良的后果。监督可以通过不同的管理机制来实现,包括human-in-the-loop(HITL)、human-on-the-loop(HOTL)、human-in-command(HIC)等方法。根据AI系统应用领域和潜在的风险,可以实现不同程度的监督机制以支持不同的安全和控制措施。
要素2:技术鲁棒性和安全性。可信赖的AI系统的关键部分就是技术鲁棒性,这与防止伤害的原则是紧密相关的。技术鲁棒性要求算法足够安全、可靠和稳健,以处理AI系统所有生命周期阶段的错误或不一致。
2.1抵御攻击和安全性。AI系统应该防止被黑或出现可以被攻击的漏洞。攻击可能是针对模型的、也可能是针对数据的、也可能是针对底层基础设施的,包括软件和硬件。如果AI系统被攻击,其中的数据和系统行为可能会被修改,导致系统产生不同的决策(结果)。
2.2备用计划和通用安全(safety)。AI系统应该有出现紧急情况的备用方案。也就是说AI系统可能从基于统计的决策转为基于规则的决策,或者要求询问人类操作者才可以继续(如自动驾驶汽车)。必须保证系统所作的一切都不会对用户和环境造成伤害。
2.3准确度。准确度是指AI系统能够做出正确判断和决策的能力。良好的开发和评估过程可以支持、缓解和纠正出现不准确的预测的非故意风险。如果偶尔的不准确的预测不可避免,那么系统应该要能计算这种错误情况发生的概率。在可能会对人类生命安全带来影响的AI系统中,准确度的要求是非常重要的,比如自动驾驶和在刑事司法领域的应用。
2.4可靠性和可重现性。AI系统的结果必须要是可重现的和可靠的。对AI系统进行详细检查以防产生意外的伤害。可重现性是指科学家和政策制定者要能够准确地描述AI系统的行为。
要素3:隐私和数据管理。公民应该完全控制自己的数据,同时与之相关的数据不会被用来伤害或歧视他们。
3.1隐私和数据保护。AI系统必须确保系统的整个生命周期内都要确保隐私和数据保护。这既包括用户提供的信息,也包括用户在和系统交互过程中生成的信息。同时要确保收集的数据不会用于非法地或不公平地歧视用户的行为。
3.2数据质量和完整性。数据集的质量对AI系统的性能非常关键。收集的数据可能是含有偏见的、不准确的、有错误的。这些数据在用于训练之前要进行清洗,去除这些有偏见的、不准确的、有错误的数据。同时还要确保数据的完整性。如果给AI系统的数据是恶意的就可能会改变系统的行为。在规划、训练、测试和实现的整个过程中都要对数据集进行测试和处理。
3.3对数据的访问。在处理个人数据时,都会用到管理数据访问的数据协议。协议应该列出谁以及什么情况下可以访问数据。
要素4:透明性。应确保AI系统相关元素的可追溯性,包括数据、系统和商业模型。
4.1可追溯性。AI系统产生决策使用的数据集和过程都应该记录下来以备追溯,并且应该增加透明性,具体包括收集的数据和算法使用的数据标记。可追溯性包括可审计性和可解释性。
4.2可解释性。可解释性就是要解释AI系统的技术过程和相关的决策过程。技术可解释性要求AI做出的决策是可以被人们所理解和追溯。在AI系统会对人类的生命造成重大影响时,就需要AI系统的决策过程有一个合理的解释。
4.3通信。人类有权知道与其通信的是人类还是AI系统,这就要求AI系统是可被识别的。
要素5:多样性、非歧视性和公平性。AI系统应考虑人类能力、技能和要求的总体范围,并确保可接近性。该需求与公平性原则是紧密相关的。
5.1避免不公平的歧视。AI系统使用的数据集可能会不可避免的存在歧视、不完整和管理不当等问题。这类数据集的歧视可能会造成AI系统的针对特定人群或个人的歧视。AI系统开发的方式也可能会出现不公平的歧视问题,可以通过以一种明确和透明的方式来分析和解决系统的目的、局限性、需求和决策来解决。
5.2辅助功能和通用设计。尤其在B2C领域,系统可能是用户为中心的,以一种允许所有人都平等地使用AI产品和服务的方式,即无论年龄、性别、能力和其他特征。因此针对残障人士的辅助功能就显得格外重要,AI系统的设计不应该采用一种通用的设计。
5.3相关利益方参与。为了开发出可信赖的AI系统,建议对受系统直接或间接影响的利益相关方进行咨询。
要素6:社会和环境福祉。应采用AI系统来促进积极的社会变革,增强可持续性和生态责任。
6.1可持续和环境友好型AI。AI系统是为了解决一些最迫在眉睫的社会难题,同时要保证尽可能地以环境友好型的方式出现。系统的开发、实现和使用过程,以及整个供应链都应该进行这方面的评估。
6.2社交影响。AI系统在社会生活各领域的应用可能会改变我们对社会机构的理解,影响我们的社会关系。AI在增强我们的社交技能的同时,可能也会减弱我们的社交技能,这会对人们的身心健康带来影响。
6.3社会和民主。同时要考虑评估AI应用对民主、社会的影响,因为AI系统极有可能应用于政治决策和选举相关的民主进程中。
要素7:问责。应建立机制,确保对AI系统及其成果负责和问责。
7.1可审计性。可审计性包含了对算法、数据和设计过程的评估,这并不意味着与AI系统相关的商业模型和知识产权需要公开。通过内部和外部审计者的评估,加上评估报告可以验证该技术的可信赖性质。在影响基本权利的应用中,AI系统应该进行独立审计,比如与人身安全(safety)相关的应用。
7.2最小化负面影响。识别、评估、记录、最小化AI系统的负面效应对AI应用是非常重要的。涉及开发、应用和AI系统使用的影响评估可以帮助减少负面影响。
-4-
可信赖AI的实现:技术和非技术方法
可信赖AI的实现是一个持续的过程,覆盖AI系统的全生命周期,使用的方法包括技术方法和非技术方法,如下图所示:
技术方法包括:实现可信赖AI的技术方法覆盖AI系统的设计、开发和使用的全生命周期中,具体包括:构建可信赖AI架构;设计中融入伦理和法律要求;解释方法;测试和验证;服务质量指标。非技术方法包括:监管(管理);行为准则;标准;认证;通过管理框架进行审计;通过教育培养伦理观;利益相关方参与和社会对话;多方参与设计。
返回搜狐,查看更多
《人工智能道德准则》——可信赖AI系统应满足7个关键要素
两年前欧盟曾发布一份人工智能道德准则,该准则的提出旨在对人工智能系统的道德框架进行研究、反思和讨论,促进“值得信赖”的人工智能发展。
人工智能道德准则报告由三部分组成。第一部分为可信赖AI实现的基本条件;第二部分为可信赖AI实现的四项伦理准则;第三部分为可信赖AI实现的七个关键要素。
可信赖AI实现的三大基本条件
人工智能道德准则的目标是推进可信赖AI的发展。可信赖AI在系统的全生命周期中需要满足三个条件:合法、符合伦理、技术稳健。所谓合法,是指AI系统应该遵守所有适用的法律法规;所谓符合伦理,是指AI系统应该遵守伦理准则和价值观;所谓技术稳健,是指不管从技术还是社会的角度来看,尽管开发或使用AI系统的本意是良好的,但是AI系统也可能会造成无意的伤害,所以系统中的每个组件都应该满足可信赖AI的要求。理想情况下,上述三个条件应该在操作中协调发展,一旦出现互为排斥的关系,社会应该通过努力使其保持一致。
全球范围内的AI系统不能“无法无天”地运作,国际层面、欧洲的一些具有法律约束力的规则已经适用于当今AI系统的开发、部署和使用。例如,根据国际人权法律、欧盟条约和欧盟宪章,专家组提出了AI系统应该涵盖的基本权利,其中有些权利在欧盟是法律强制执行的,因此保证这些权利也是法律的基本要求,包括:尊重人的尊严(Respectforhumandignity),个人自由(Freedomoftheindividual),尊重民主、正义和法律规范(Respectfordemocracy,justiceandtheruleoflaw),平等、不歧视和团结(Equality,non-discriminationandsolidarity),公民权利(Citizens’rights)。法律的制定并不是总能跟上技术发展的速度。因此值得信赖的AI不仅要遵守法律,也应符合伦理规范。另外,即便有了道德的限制,无论是个人还是社会都不能保证AI系统不会造成无意识的伤害,因此,AI系统应该确保在其应用领域和全生命周期内稳健运行。综上所述,AI系统是以合法、符合道德、技术稳健为基本条件的。
满足四项道德准则
“可信赖AI”需要满足四项道德准则。
准则一:尊重人的自主性。
与AI互动的人类必须能够充分坚持自己的决定,并参与民主进程。AI系统不应该不合理地从属、胁迫、欺骗、操纵人类。相反,AI系统的设计应该以增强、补充人类的认知、社会和文化技能为目的。人类与AI系统之间的功能分配应遵循以人为中心的设计原则,这意味着在AI系统的工作过程中要确保人类扮演监督其工作的角色。AI系统也可能从根本上改变工作领域,但是它应该在工作环境中支持人类,并致力于创造有意义的工作。
准则二:预防伤害。
AI系统不应该造成、加剧伤害,或以其他任何方式对人类产生不利的影响。AI系统及其运行的环境必须是安全可靠的。因此AI系统技术上必须是强健的,而且要确保AI技术不会被恶意使用。尤其是弱势群体在使用AI系统时,应该受到更多关注。AI系统在开发、部署和使用过程中,均应关注弱势群体。另外,还需注意AI系统可能导致或加剧由于权力或信息不对称造成的不利影响。最后还需注意可能会恶意使用该技术的人和可能会造成不良影响的应用场景。
准则三:公平。
AI系统的开发、部署和使用必须是公平的。虽然大众对公平性可能会有不同的解读,但是应当确保个人和组织不会受到不公平的偏见、歧视等。如果AI系统可以避免不公平的偏见,就可以增加社会公平性。公平还意味着AI从业者使用AI时平衡“手段”和“目标”之间的比例原则,为此,AI系统做出的决策以及做决策的过程应该是可提出质疑的并且有补救机制的。
准则四:可解释性。
可解释性对构建用户对AI系统的信任是非常关键的。也就是说整个决策的过程、输入和输出的关系都应该是可解释的。但目前的人工智能算法和模型都是以黑盒(blackbox)的形式运行的。(黑盒模型是指诸如神经网络、梯度增强模型或复杂的集成模型。此类的模型通常具有很高的准确性。然而,这些模型的内部工作机制却难以理解,也无法估计每个特征对模型预测结果的重要性,更不能理解不同特征之间的相互作用关系。)在这种情况下,可能需要其他可解释性措施,例如可追溯性、可审计性。
可信赖AI系统应满足7个关键要素
专家组对实现可信赖的AI系统提出了7个关键要素。分别是:人工智能自治的治理(人的监督)、技术强大性和安全性、隐私和数据治理、透明度、多样性、非歧视性和公平性、社会和环境福祉以及问责。
关键要素一:人工智能自治的治理(人的监督),即基于人类自治原则,AI系统应该支持人类的自治和决策。
这要求AI系统既可以帮助使用者推动社会的民主、繁荣、公平,又能够促进基本权利的行使,同时允许人类监督。AI应与其他科技一样,可以造福于人,如帮助人类追踪个人数据,增加教育的可及性从而保障他们受教育的权利。但是,考虑到AI系统的使用范围和能力,它们也会对基本权利产生负面影响。因此,应建立外部反馈机制以接收AI系统侵犯基本权利的信息。人类能动性是指,AI用户应能够基于AI系统自主作出决策。并且AI系统应赋予他们知识和工具,以便在人类满意的程度上理解并与AI系统互动,并在可能的情况下,合理地自我评估。人工智能系统应支持个人根据他们的目标做出更好、更明智的选择。人工智能系统有时可能通过难以被发现的机制来塑造和影响人类行为,因为它们可能利用潜意识过程,包括各种形式的不公平操纵、欺骗等威胁到人类的自主权。用户自治的总体原则必须是系统功能的核心。关键在于,当决策对用户产生法律效果或对用户产生重大影响时,用户权利不受基于自动化处理的决策约束。人类监督是指,人为监督有助于确保AI系统不会破坏人的自主权或造成其他不利影响。监督可以通过治理机制来实现,例如human-in-the-loop(HITL),human-on-the-loop(HOTL),orhuman-in-command(HIC)方法。HITL指的是在系统的每个决策周期内人为干预的能力。HOTL指的是在系统设计周期内监控系统运行的人为干预的能力。HIC指的是监督AI系统整体活动的能力(包括其更广泛的经济、社会、法律和道德影响)以及决定何时以及如何在任何特定情况下使用该系统的能力。此外,必须确保公共执法者有能力根据其任务规定进行监督。根据AI系统的应用领域和潜在风险,可能需要不同程度的监督机制来支持其他安全和控制措施。在其他条件相同的情况下,如果人类对AI系统进行的监督越少,那么需要进行的测试就越广泛、管理就越严格。
关键要素二:技术强大性和安全性。
技术强大性要求AI系统的开发采用可靠的预防性措施防范风险,使其能够按预期运行,同时尽量减少无意和意外伤害,并防止不可接受的伤害。这一要求也适用于AI操作环境发生潜在变化的情况,或以对抗方式与系统交互的其他智能体(人类和人工)出现的情况。此外,还应确保人类的身心健康。
与所有软件系统一样,AI系统应该受到保护,免受被攻击,例如黑客攻击。攻击可能针对数据(数据中毒)、模型(模型泄漏)或底层基础设施(包括软件和硬件)。如果AI系统受到攻击,例如在对抗性攻击中,数据和系统行为被改变,导致系统作出不同的决定,或者导致它完全关闭。系统和数据也可能因恶意或暴露于意外情形而被破坏。安全程序不足也可能导致错误的决策甚至是物理性伤害。为了使AI系统被认为是安全的,应该考虑人工智能系统中潜在的非预期应用和恶意行为者滥用系统。
AI系统应该有一定的安全措施,在出现问题时,使用可以启用后备计划。这可能意味着AI系统从统计程序切换到规则程序,或者它们在继续行动之前询问人类再进行操作,且必须确保系统能够在不伤害生物或环境的情况下完成预期的工作,最大限度地减少意外产生。此外,应建立程序对AI系统所在的应用领域潜在风险进行解释和评估。如果可以预测开发过程或系统本身会带来较高风险,那么主动开发和测试安全措施则至关重要。
此外,准确性与AI系统作出正确判断的能力有关。明确且完善的开发和评估程序可以支持、缓解和纠正不准确预测带来的意外风险。当偶然的不准确预测无法避免时,很重要的一点是系统能够指出这些错误。在AI系统直接影响人类生活的情况下,高准确性非常必要。另外,至关重要的是,AI系统的结果是可靠的,也是可重复的。可靠的AI系统可以在一系列输入和各种情况下正常工作,这需要仔细检查AI系统并防止意外伤害。可重复性指人工智能实验在相同条件下重复时能否表现出相同的行为,这使科学家和政策制定者能够准确描述AI系统的作用。
关键要素三:隐私和数据治理,即根据AI系统应用的领域、其访问协议及处理数据的能力进行的数据管理,包括使用数据的质量和完整性。
AI系统须在系统的整个生命周期内确保隐私和数据保护,包括最初由用户提供的信息,以及在用户与系统交互过程中产生的关于用户的信息。人类行为的数字记录可以允许AI系统推断个人偏好、性取向、年龄、性别、宗教或政治观点,为了使个人信任数据收集过程,必须确保收集的有关数据不会被非法使用或使他们受到不公平歧视。另外,所使用的数据集的质量对AI系统的性能至关重要。收集的数据,可能包含对社会构造的偏见、不准确、错误和误差。因此,如何确保数据质量且确保数据的完整性至关重要。恶意数据进入AI系统可能会改变其行为,尤其是自学系统。因此,必须在每个步骤(例如规划、训练、测试和部署)中测试和记录所使用的流程和数据集,这也适用于其他获取而非内部开发的人工智能系统。
关键要素四:透明度。
即与AI系统相关的数据、系统和商业模型的透明度。产生AI系统决策的数据集和过程,包括数据收集和数据标记以及所使用的算法,应予以记录,以实现可追溯性和提高透明度。这样可以确定AI决策错误的原因,反过来也可帮助防止未来的错误。可追溯性有助于提高可审查性和可解释性。
关键要素五:多样性、非歧视性和公平性,即人类在整个AI系统的生命周期内,通过包容性设计和平等性设计,确保平等访问可信赖的AI。
AI系统(用于训练和操作)使用的数据集可能会受制于偏差、不完整和管理不当等问题,这类偏见可能导致对某些群体或个人直接、间接侵害和歧视,从而加剧偏见和边缘化。因此,AI系统开发者应尽可能在数据收集阶段消除可识别和歧视性偏见。开发人工智能系统的方式(例如算法编程)也可能遭受不公平的偏见,这可以通过建立监督机制来抵消,以清晰透明的方式分析和解决系统的目的、约束、要求和决策。此外,应鼓励从不同背景、文化和学科招聘开发人员以保证意见的多样性。另外,在B2C领域,AI系统应以用户为中心,允许所有人使用AI产品或服务,无论其年龄、性别、能力或其他特征,特别是残疾人士均可以使用AI产品和服务。AI系统不应采用一刀切的设计,设计原则应符合相关的可访问性标准且满足最广泛的用户范围。所有人能够平等访问和积极参与现有和将有的计算机介导的人类活动以及辅助技术。
关键要素六:社会和环境福祉,即根据公平性和预防损害原则,在整个AI系统的生命周期中,更广泛的社会、其他生命和环境也应被视为利益相关者。
应鼓励AI系统的可持续性和生态责任,并将此研究纳入AI解决方案以解决全球关注的问题,如可持续发展。理想情况下,人工智能系统应用于使所有人类(包括后代)受益。人工智能系统承诺帮助解决一些紧迫的社会问题,并且尽可能以环境友好的方式解决。如AI系统的开发和使用过程,以及整个供应链都应该进行这方面的评估。例如:通过对训练期间资源使用和能源消耗的严格审查,选择危害较小的方式。另外,如果人类在生活的各个方面(教育、工作、健康、娱乐)使用AI系统,都可能改变我们对社交媒介的理解,或影响我们的社会关系和依附。虽然人工智能系统可用于提高社交技能,但同样可以使其恶化,这也可能影响人们的身心健康。因此,必须仔细监测和考虑这些负面影响。除了评估人工智能系统的开发和使用对个人的影响之外,还应从社会角度评估这种影响,同时考虑其对行政机构、民主和整个社会的影响。特别是在与民主进程有关的情况下,仔细考虑使用AI系统,包括政治决策、选举等。
关键要素七:问责机制,即建立可审计机制以确保AI系统及其成果在开发、部署和使用前后的责任和问责。
可审计性包含了对算法、数据和设计过程的评估。但这并不意味着与人工智能系统相关的商业模型和知识产权需要公开。内部和外部审计人员的评估以及此类评估报告有助于验证技术的可信度。在影响基本权利的应用中,比如与关键安全相关的应用,AI系统进行独立审计。在实施上述要求时出现的紧张关系会导致不可避免的权衡。这需要确定AI系统所涉及的相关利益和价值观。如果出现冲突,应明确并权衡其对道德原则(包括基本权利)的风险。在道德上不可接受权衡的情况下,人工智能系统的开发、部署和使用不应以该形式进行。任何关于权衡的决定都应可解释并被妥善记录。决策者必须对权衡的方式负责,并应不断审查最终决策的适当性,以确保能在必要时修改系统。
本文来源:中国政府采购报,编译:昝妍转载此文目的在于传递更多信息,版权归中国政府采购报所有,转载或请注明。