博舍

欧盟委员会发布《可信赖的人工智能道德准则草案》 欧盟可信赖人工智能的伦理准则是谁提出的

欧盟委员会发布《可信赖的人工智能道德准则草案》

0分享至

12月18日,欧盟委员会公布了《可信赖的人工智能道德准则草案》(以下简称《准则草案》)。该《准则草案》构建了“可信赖人工智能”框架,为部署、开发和使用人工智能的企业、政府、研究机构、社会组织和个人提供了如何实现符合人类道德准则的“可信赖人工智能”的指南,并将建立一种机制,使以上各方在自愿的基础上正式认可该准则并予以践行。欧盟委员会将编制人工智能道德准则作为今年工作重点,组建了人工智能高级专家小组负责准则的制定工作,专家小组由52名来自于谷歌、IBM、贝尔实验室、SAP、博世等领军企业,以及牛津大学、伯明翰大学等知名高校和若干社会组织的权威专家组成。从公布之日起至2019年1月18日,欧盟委员会对外公开征求关于该《准则草案》的意见。计划在明年3月,人工智能高级专家小组将向欧盟委员会提交准则最终版。

“可信赖人工智能”两大核心要素

《准则草案》提出了实现“可信赖人工智能”的两个必不可缺的核心要素。

要素一:道德目的

AI的开发、部署和使用应以人为中心,尊重人类的尊严、平等和自由等基本权利,并遵守以下五个核心原则和相关价值观:

一是对公民和社会有益,AI应以增进个人和组织的福祉为宗旨。

二是不伤害人类。包括不能对公民产生生理和精神上的伤害,避免造成经济损失和不良社会影响,例如,避免算法或数据带来的偏见和歧视。

三是保证人类自主权。即人们应具有充分的自主决策权利,包括有权利选择是否接受AI提供的服务,以及有权利随时退出与AI的交互等。

四是AI的开发、使用和管理必须公平。例如,不同的群体应具有同等机会去享受AI产品和服务,AI对弱势群体应给予公正对待等。

五是可解释性原则。AI的技术开发和决策原理都应具有一定透明度,这是确保公民对AI产生信任的关键,个人和组织可要求开发者提供AI用于预测或决策时输入的参数和指令,以了解AI决策依据。

要素二:技术可靠

在拥有良好“道德目的”的同时,AI还应在技术方面稳健可靠,因为缺乏技术上的掌控也会造成无意的伤害。此外,AI应始终符合并遵守“道德目的”,这意味着“道德目的”中包含的每条需求细则的贯彻和实施,应贯穿于AI的全寿命周期,包括了分析、设计、开发和使用等各个环节。可通过同时使用测试和验证等技术类方法,以及标准和规范等非技术类方法来实现这些需求细则,这些技术类方法同样应是可靠的。

“可信赖人工智能”的框架

围绕上述两大核心要素,《准则草案》构建了“可信赖人工智能”的整体框架,具体如下图所示:

整个框架包含了以下主要步骤:

步骤一:确定“可信赖人工智能”的需求细则

依据AI必须符合和遵守的“道德目的”,可制定更为详细具体的需求细则,并将这些需求全部嵌入到AI系统和应用程序中。《准则草案》列举了十条需求细则,具体内容见下图:

步骤二:“可信赖人工智能”需求细则的实施

在确定了详细具体的需求细则之后,将在AI系统的全寿命周期内(包括分析、设计、开发和使用等阶段),使用规定AI行为边界、测试和验证、记录AI决策过程等技术类方法,以及制定标准、组建AI道德问题小组、开展道德培训等非技术方法,来满足“可信赖人工智能”的需求细则。重要的是,对是否满足需求和技术是否可靠的评估应反复迭代进行。

步骤三:对“可信赖人工智能”的评估

针对“可信赖人工智能”的每条需求细则,列出评估和验证清单,确保对每条需求细则予以了落实。例如,针对“数据治理”这条需求细则,建立以下评估和验证清单:对数据的治理是否恰当?遵循什么流程和程序来确保恰当的数据治理?是否建立了监督机制?最终由谁负责?哪些数据治理法规适用于该人工智能系统?

小结

近年来,飞速发展的人工智能技术正在深刻改变着人类经济社会,显著提升了生产效率,给人们生活带来前所未有的便捷,但同时也引发了个人隐私侵犯、算法歧视和公众安全威胁等日益严峻的道德伦理问题。为增强公众对人工智能技术的信任,为人工智能的长远发展营造有利环境,欧盟委员会组织编制了该《准则草案》,其目标是创造一种“欧洲制造的值得信赖的人工智能”的文化,使欧洲成为一个全球领先的人工智能创新者。按照欧盟委员会的工作计划,2019年年中,编制《准则草案》的人工智能高级专家小组将形成另一份名为《人工智能政策和投资建议》的重要文件,进而进一步完善相关政策体系。如何引导人工智能的发展趋利避害、造福人类已成为人类共同面临的严肃问题,欧盟“以人为中心”的核心理念对于我国开展人工智能法律法规、伦理规范和政策体系的顶层设计具有参考意义。

责任编辑:李兰松

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.

/阅读下一篇/返回网易首页下载网易新闻客户端

欧盟发布人工智能道德准则,欲另辟蹊径,成为道德AI领导者

当地时间4月8日,欧盟委员会发布一份人工智能道德准则,该准则由2018年12月公布的人工智能道德准则草案演变而来,提出了实现可信赖人工智能的七个要素,要求不得使用公民个人资料做出伤害或歧视他们的行为。

同时,欧盟委员会宣布启动人工智能道德准则的试行阶段,邀请工业界、研究机构和政府机构对人工智能道德准则进行测试和补充。

这份人工智能道德准则提出了实现可信赖人工智能的七个要素,分别是:

1.人的能动性和监督:人工智能系统应通过支持人的能动性和基本权利以实现公平社会,而不是减少、限制或错误地指导人类自治。

2.稳健性和安全性:值得信赖的人工智能要求算法足够安全、可靠和稳健,以处理人工智能系统所有生命周期阶段的错误或不一致。

3.隐私和数据管理:公民应该完全控制自己的数据,同时与之相关的数据不会被用来伤害或歧视他们。

4.透明度:应确保人工智能系统的可追溯性。

5.多样性、非歧视性和公平性:人工智能系统应考虑人类能力、技能和要求的总体范围,并确保可接近性。

6.社会和环境福祉:应采用人工智能系统来促进积极的社会变革,增强可持续性和生态责任。

7.问责:应建立机制,确保对人工智能系统及其成果负责和问责。

对于这份人工智能道德准则,欧盟委员会负责数字化单一市场的副主席安德鲁斯·安西(AndrusAnsip)表示欢迎,他认为:“人工智能的伦理并不是一个奢侈特征或附加功能。只有有了信任,我们的社会才能充分受益于技术。有道德的人工智能是一个双赢的主张,可以成为欧洲的竞争优势:成为以人为中心的人工智能的领导者,让人们可以信任。”

欧盟委员会表示,其目前正在采取三步行动以促进可信赖的人工智能健康发展:制定值得信赖的人工智能的关键要求,启动利益相关者的大规模试点阶段,为以人为中心的人工智能建立国际共识。

欧盟委员会希望将上述人工智能伦理方法带到全球舞台。为此,欧盟委员会表示,将与日本、加拿大和新加坡等开展合作,试行阶段也将涉及来自其他国家和国际组织的公司。

在试行阶段之后,到2020年初,欧盟人工智能高级别专家组将根据收到的反馈审查评估清单,并根据评估结果并提出下一步行动。

此外,为了确保人工智能的道德发展,欧盟委员会表示,将在2019年秋季之前启动一套人工智能研究卓越中心网络;开始建立数字创新中心网络;与欧盟成员国和利益相关者一起,开始讨论制定数据共享模型。

上述人工智能道德准则由欧盟人工智能高级别专家组(AIHLEG)起草。

2018年,52位代表学术界、工业界和民间社会的独立专家受欧盟委员会任命,成立了欧盟人工智能高级别专家组,负责撰写人工智能道德准则并为欧盟提供政策和投资建议。

2018年12月18日,欧盟人工智能高级别专家组向社会发布了人工智能道德准则草案(DraftEthicsGuidelinesForTrustworthyAI,以下简称草案),该草案当时被视为是欧洲“可信赖人工智能”的讨论起点。

草案为“可信赖人工智能”提出了一个官方解释。草案认为,“可信赖人工智能”有两个必要的组成部分:首先,它应该尊重基本权利、规章制度、核心原则及价值观,以确保“道德目的”,其次,它应该在技术上强健且可靠,因为即使有良好的意图,缺乏对技术的掌握也会造成无意的伤害。

12月发布的草案还提出了一份可信赖的人工智能评估表,从责任、数据治理、为所有人设计、管理AI自治、非歧视、尊重隐私、尊重(和加强)人类自主权、稳健性、安全性、透明度共10个维度列举了可信赖人工智能的相关要求。

近年来,欧盟一再表示希望成为道德AI的领导者。对此,美国科技媒体《边缘》(TheVerge)评论称,这在一定程度上是由目前的环境造成的,在涉及投资和尖端研究时,欧盟无法与美国和中国竞争,因此选择道德是塑造技术未来的最佳选择。

欧盟推出新的人工智能法规

欧盟委员会(EuropeanCommission)于2021年4月21日提出了人工智能(AI)法规,旨在将欧洲变打造值得信赖的人工智能(AI)的全球中心。欧盟有史以来第一个人工智能的法律框架与欧盟成员国的协调计划相结合,将保证人们和企业的安全和基本权利,同时加强欧盟对人工智能的吸收、投资和创新。新法规将调整安全规范,以增加使用者对新一代多功能产品的信任。

新的人工智能法规将确保欧洲人民可以信任人工智能产品。相称和灵活的规则旨在解决人工智能系统带来的具体风险,并在全球范围内设定最高标准。协调计划(TheCoordinatedPlan)概述了欧盟成员国必要的政策改变和投资,以加强欧洲在发展以人为本、永续、安全、包容和值得信赖的人工智能方面的领先地位。

新的法规基于人工智能发展趋势,依据风险高低分类,将适用于所有欧盟成员国。

不可接受的风险(Unacceptablerisk):被认为对人们的安全、生计和权利有明显威胁的人工智能系统将被禁止。这包括操纵人类行为以规避用户自由意志的人工智能系统或应用(例如,使用语音辅助的玩具,鼓励未成年人的危险行为)和允许政府进行「社会评分(socialscoring)」的系统。

高风险(High-risk):被认定为高风险的人工智能系统涉及到以下用途:

重要基础设施(如交通),可能使人民的生命和健康受到威胁;教育或职业培训,可能决定某人的受教育机会(如考试评分);产品的安全零件(如AI在机器人辅助手术中的应用);就业、员工管理和自雇管道(如征才使用的履历分类软件);基本的私人和公共服务(如信用评分剥夺了公民取得贷款的机会);可能干涉人们基本权利的执法(如评断证据可靠性的系统);移民、庇护和边境控制管理(如核实旅行文件真实性的系统);利用AI于司法和民主程序。

高风险的人工智能系统上市前,将受到严格的管控约束:

充分的风险评估和缓解系统;为系统提供高质量的数据集,以尽量减少风险和歧视性的结果;对活动进行记录,以确保可追溯结果;提供关于系统及其目的的所有必要信息,以便监管单位评估其合规性;向用户提供充分且清晰的信息;适当的人力监督措施,以最大限度地减少风险;高度的稳健性、安全性和准确性。

特别是:

所有远程生物辨识(remotebiometricidentification)系统都被视为高风险的人工智能系统。原则上禁止在公共场所为执法目的使用,狭义的例外情况有严格的定义和规定(例如,在寻找失踪儿童、防止具体和紧迫的恐怖主义威胁或侦查、定位、识别或起诉严重刑事犯罪的肇事者或嫌疑人的需要)。使用上必须取得司法或其他独立机构的授权,并在时间、地理范围和搜索的数据库方面有适当的限制。

有限的风险(Limitedrisk):即具有透明公开义务的人工智能系统。在使用人工智能系统(如聊天机器人)时,使用者应该能意识到正在与机器互动,进而做出明智的决定。

最小的风险(Minimalrisk):法规允许自由使用人工智能的电子游戏或垃圾邮件过滤器等应用,绝大多数的人工智能系统都属于这个类别,对此不作干预,因为这些系统对公民的权利或安全只构成最小或没有风险。

在监管方面,欧盟委员会建议各国市场监督主管部门配合新的法规,并将设立欧洲人工智能委员会(EuropeanArtificialIntelligenceBoard)促进其实施,推动人工智能标准的发展。此外,还提议为非高风险的人工智能系统制定自发性的行为准则,建立监管沙盒(regulatorysandbox)以促进创新。

《欧盟AI协调计划〈CoordinatedPlanonAI〉》

《欧盟AI协调计划》首次发布于2018年,确定发展人工智能的行动和工具,使国家策略和欧盟公私合作关系和研究与创新网络形成了充满活力的局面。协调计划的全面更新提出了具体的合作行动,并确保与欧洲人工智能策略(EuropeanStrategyonAI)和欧洲绿色新约(EuropeanGreenDeal)步调一致,同时考虑到COVID-19带来的新挑战。协调计划提出了一个加快人工智能投资的愿景,推动疫后复苏,刺激各国人工智能发展策略,消除碎片化,应对全球挑战。

协调计划将透过数字欧洲(DigitalEurope)和展望欧洲(HorizonEurope)计划,以及欧盟复苏基金20%数字支出目标和欧盟凝聚政策(CohesionPolicy)分配的资金来进行:

通过交流政策见解、数据共享和对关键计算能力的投资,为人工智能的发展创造有利环境;透过公私协力伙伴关系(PPP),建立研究、开发和创新能力,并向中小企业和公共管理部门提供测试和实验设施以及数字创新中心,促进人工智能的商业化。支持数字领域的培训计划、博士生网络和博士后奖学金来培养人才和技能,在全球范围内促进欧洲人工智能愿景,确保人工智能为人们服务,成为社会的一股力量;在高影响力的部门和技术中建立策略领导地位,包括人工智能对永续环境的贡献、扩大跨境信息交流来推动智能医疗系统,以及人工智能在公共部门、交通、农业,以及机器人技术的应用。《机械条例〈MachineryRegulation〉》:涵盖了广泛的消费者和专业产品,从机器人到割草机、3D打印机、建筑机械、工业生产线。确保新一代的机械保使用者和消费者的安全,并鼓励创新。虽然人工智能法规将解决人工智能系统的安全风险,但新的机械条例将确保人工智能系统与整个机械的安全整合。企业将只需要执行一个单一的合格评估。

此外,新的机械条例将使现行规定更加明确,透过允许文件的数字格式和调整中小企业的合格评估费用,简化企业的行政负担和成本,同时确保与欧盟产品立法框架的一致性。

欧洲议会(EuropeanParliament)和欧盟成员国将需要在普通立法程序中通过欧盟委员会对于人工智能系统和机械的建议。一旦通过,这些条例将直接适用于整个欧盟。同时,欧盟委员会将继续与成员国合作,推动实施协调计划。

背景:

多年来,欧盟委员会一直在促进和加强整个欧盟在人工智能方面的合作,以提高竞争力并确保基于欧盟价值观的信任。

在2018年发布欧洲人工智能策略(EuropeanStrategyonAI)后,经过广泛的协商讨论,人工智能高阶专家小组(High-LevelExpertGrouponArtificialIntelligence)在2019年制定了可信赖人工智能准则(GuidelinesforTrustworthyAI),并在2020年制定了可信赖人工智能评估列表(AssessmentListforTrustworthyAI)。同时,2018年12月发布了第一个的人工智能协调计划,作为与成员国的联合承诺。

委员会在2020年发布的人工智能白皮书(WhitePaperonAI)为欧洲的人工智能提出了一个清晰的愿景:一个卓越和信任的生态系统,为AI法规提案奠定基础。关于人工智能白皮书的公众咨询引起了世界各地的广泛参与。白皮书中的关于人工智能、物联网和机器人的安全和责任影响的报告,提到产品安全立法仍不够完整。

欧拟推AI法规业界反弹声浪

对于欧盟提出全新法案管制人工智能(AI)的应用方法,如果立法过关将成为全球第一套管制AI的法规,但企业担心新法增加AI使用成本,限制或打压欧盟科技创新。

欧盟最新法案将AI应用方法依风险高低分类,其中高风险AI应用涵盖重大基础建设、大学入学筛选系统及银行贷款审查系统等。根据新法,这类高风险AI应用将受到欧盟严格监管,违法企业最高面临全球年营收6%的罚款。

除了加强监管之外,新法更将禁止特定AI应用,例如公共运输系统、公共场所、商店使用脸部辨识侦测、警察追查犯人的远程生物辨识系统,或是能够读取潜意识的AI技术。新法规规定,在使用前,必须先向主管机关提出法规遵从报告,详述脸部辨识系统如何取得数据。

对于AI新法被批评过于拢统不明,实际该如何实施仍有待观察。法律界人士认为,法规例外情况实在太多,反而失去AI规范保护及禁止的意义。

 

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇