博舍

欧盟发布AI伦理准则:紧箍咒还是变速器 欧盟人工智能伦理准则是什么意思啊知乎

欧盟发布AI伦理准则:紧箍咒还是变速器

原标题:欧盟发布AI伦理准则:紧箍咒还是变速器?

▲资料图,图文无关。图片来自视觉中国。

4月8日,欧盟发布了人工智能(AI)伦理准则,用于指导企业和政府部门未来在人工智能领域的开发。这个伦理准则包含了7个方面,用于确保人工智能在未来能够值得依赖。

具体来说,欧盟的人工智能伦理准则涵盖保证人类的自主性、人工智能技术的稳健性和安全性,保证隐私和数据管理,保证AI算法系统的透明性,要求AI提供多样性、无歧视、公平的服务,能够促进积极的社会变革,同时具有相应的问责制等方面的内容。

欧盟想提升其在人工智能领域的竞争力

虽然这些准则并不具有法律约束力,但它们却可以影响未来欧盟起草的任何法案。

与去年欧盟通过的《通用数据保护条例》一样,这些准则的出现,旨在树立起欧盟在道德伦理领域的领导者,确立其公民数据隐私与安全的守护者的形象。

当然,不仅于此,欧盟人工智能道理伦理准则的出台,也是为了提升欧盟在人工智能领域的竞争力,确保其能领导或是引导全球人工智能的发展。

接下来,欧盟还将出台第二份文件,列出如何促进欧洲在人工智能领域投资的建议。

在部分人士看来,欧盟试图扮演这种角色是源于客观环境,亦即当前人工智能领域无论是投资或是尖端研究应用上,欧盟无法与中美两国相竞争。

比如,亚马逊、谷歌、阿里巴巴等掌握了人工智能方面许多的专业技术。因此,欧盟只能从道理伦理上着力,让其成为欧盟的竞争力与优势。正如过去一年多以来,欧盟针对谷歌、Facebook等施加的压力一样,迫使他们遵循欧洲的法律和要求。

但这种观点可能高估了中美目前在人工智能领域的实力,同时也低估了人工智能的多样性和广阔程度。

首先当前中美在人工智能领域的优势,很大程度上源于对深度学习的掌握。深度学习依赖于海量数据以及计算能力,比如中国拥有14亿人口,其数据就远远比其他国家多,应用场景也更为丰富,因此也就更容易获得优势。

展开全文

只是问题在于,人工智能并非仅仅如此而已,人工智能的未来具备无限可能,并不局限于此。深度学习之父GeoffreyHinton就曾公开号召摒弃现有深度学习范式,转向不过度依赖数据的无监督学习算法。

更何况,随着公众对数据隐私要求越来越高,过度依赖海量数据的算法,迟早会遭遇到瓶颈,发展陷入停滞。就此而言,欧盟未来未必不能在人工智能的其他赛道上形成优势和竞争力。因此,认为欧盟无法与中美竞争的观点,是片面的。并非所有的人工智能都是一样的发展方向和轨迹。

▲资料图,图文无关。图片来自视觉中国。

指导准则能否促进AI发展存疑

但欧盟出台这些指导准则,是否真能达成其促进欧洲人工智能发展的目的,却也是存疑的。

诚如上述所言,欧盟此次出台的人工智能道德准则和后续将颁布的促进投资建议,其目的都是提升欧盟在人工智能领域的竞争力和领导力,但通过创建道德伦理上的标准,以及对人工智能算法进行监管,是否反而阻碍欧洲人工智能的创新,却是一个不得不考虑的问题。

当前人工智能刚刚起步,在很多领域的应用并不成熟。在此过程中就引入监管机制是否恰当,值得讨论。尤其是人工智能技术与过往的经验并不相同。没有人知道,最终人工智能领域的监管体制会是怎样的。

在此种情况下,规则应该与技术一同成长、形成,或是更为恰当的方式。换句话说,有关的准则与监管方式,应该是基于现实的证据进行。

欧盟的这种态度事实上很好理解,这很大程度上与公众对人工智能过于恐惧的心理有关。但过度恐惧而采取的保护措施,却很可能对其自身造成不必要的伤害或威胁。更多更高质量的数据和密切的监测,以形成更多的实际案例和证据,是建立更为合理的监管体制与问责框架的关键。

欧盟为了促进人工智能发展而采取的措施,反而有可能限制了欧洲企业和机构这一领域自然的创新本能与发展机遇,最终无法打造出其期望的竞争力和领导力。

在这一点上,欧盟的行为虽然能被理解,却值得商榷。

□郑伟彬(新京报智慧城市研究院研究员)

编辑李冰冰校对王心返回搜狐,查看更多

责任编辑:

欧盟人工智能伦理与治理的路径及启示

原标题:欧盟人工智能伦理与治理的路径及启示

欧盟积极推进以人为本的人工智能伦理与治理

数字技术的发展和渗透加速了社会与经济的转型变革,人工智能(AI)作为其中的核心驱动力为社会发展创造了更多可能。一般而言,AI是指基于一定信息内容的投入实现自主学习、决策和执行的算法或者机器,其发展是建立在计算机处理能力提高、算法改进以及数据的指数级增长的基础上。从机器翻译到图像识别再到艺术作品的合成创作,AI的各式应用开始走进我们的日常生活。当今,AI技术被广泛运用于不同行业领域(如教育、金融、建筑和交通等),并用于提供不同服务(如自动驾驶、AI医疗诊断等),深刻变革着人类社会。与此同时,AI的发展也对法律、伦理、社会等提出挑战,带来了假新闻、算法偏见、隐私侵犯、数据保护、网络安全等问题。在此背景下,人工智能伦理与治理日益受到重视,从政府到行业再到学术界,全球掀起了一股探索制定人工智能伦理准则的热潮。而欧盟从2015年起就在积极探索人工智能伦理与治理举措,虽然在AI技术的发展上没能先发制人,AI治理方面却走在了世界前沿。

早在2015年1月,欧盟议会法律事务委员会(JURI)就决定成立专门研究机器人和人工智能发展相关法律问题的工作小组。2016年5月,JURI发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》(DraftReportwithRecommendationstotheCommissiononCivilLawRulesonRobotics),呼吁欧盟委员会评估人工智能的影响,并在2017年1月正式就机器人民事立法提出了广泛的建议,提出制定「机器人宪章」。2017年5月,欧洲经济与社会委员会(EESC)发布了一份关于AI的意见,指出AI给伦理、安全、隐私等11个领域带来的机遇和挑战,倡议制定AI伦理规范,建立AI监控和认证的标准系统。同年10月,欧洲理事会指出欧盟应具有应对人工智能新趋势的紧迫感,确保高水平的数据保护、数字权利和相关伦理标准的制定,并邀请欧盟委员会在2018年初提出应对人工智能新趋势的方法。为解决人工智能发展和应用引发的伦理问题,欧盟已将AI伦理与治理确立为未来立法工作的重点内容。

2018年4月25日,欧盟委员会发布政策文件《欧盟人工智能》(ArtificialIntelligentforEurope),欧盟人工智能战略姗姗来迟。该战略提出以人为本的AI发展路径,旨在提升欧盟科研水平和产业能力,应对人工智能和机器人带来的技术、伦理、法律等方面的挑战,让人工智能更好地服务于欧洲社会和经济的发展。欧盟人工智能战略包括三大支柱:其一、提升技术和产业能力,促进人工智能技术广泛渗透到各行各业;其二、积极应对社会经济变革,让教育和培训体系跟上时代发展的步伐,密切监测劳动力市场的变化,为过渡期劳动者提供支持,培养多元化、跨学科人才;其三、建立适当的伦理和法律框架,阐明产品规则的适用,起草并制定人工智能伦理指南(AIethicsguidelines)。同年6月,欧盟委员会任命52名来自学术界、产业界和民间社会的代表,共同组成人工智能高级专家小组(High-LevelExpertGrouponAI,简称AIHELP),以支撑欧洲人工智能战略的执行。

2019年1月,欧盟议会下属的产业、研究与能源委员会发布报告,呼吁欧盟议会针对人工智能和机器人制定全方位的欧盟产业政策,其中涉及网络安全、人工智能和机器人的法律框架、伦理、治理等。2019年4月,欧盟先后发布了两份重要文件——《可信AI伦理指南》(EthicsGuidelinesforTrustworthyAI,简称「伦理指南」)和《算法责任与透明治理框架》(Agovernanceframeworkforalgorithmicaccountabilityandtransparency,简称「治理框架」),系欧盟人工智能战略提出的「建立适当的伦理和法律框架」要求的具体落实,为后需相关规则的制定提供参考,代表欧盟推动AI治理的最新努力。

人工智能伦理框架建构:可信AI的伦理指南

展开全文

为平衡技术创新和人权保障,人工智能伦理框架的构建必不可少。伦理框架为人工智能的设计、研发、生产和利用提供原则指导和基本要求,确保其运行符合法律、安全和伦理等标准。《伦理指南》由AIHELP起草发布,并不具备强制约束力,而欧盟鼓励各利益攸关方积极执行《伦理指南》,促进AI伦理标准形成国际共识。总体而言,除了制定泛欧盟的伦理准则,欧盟希望人工智能的伦理治理能够在不同的层次得到保障。例如,成员国可以建立人工智能伦理监测和监督机构,鼓励企业在发展人工智能的时候设立伦理委员会并制定伦理指南以便引导、约束其AI研发者及其研发应用活动。这意味着人工智能的伦理治理不能停留在抽象原则的层面,而是需要融入不同主体、不同层次的实践活动中,成为有生命的机制。

根据《伦理指南》,可信AI必须具备但不限于三个特征:(1)合法性,即可信AI应尊重人的基本权利,符合现有法律的规定;(2)符合伦理,即可信AI应确保遵守伦理原则和价值观,符合「伦理目的」;(3)稳健性,即从技术或是社会发展的角度看,AI系统应是稳健可靠的,因为AI系统即使符合伦理目的,如果缺乏可靠技术的支撑,其在无意中依旧可能给人类造成伤害。具体而言,可信AI的伦理框架包括以下三个层次:

(一)可信AI的根基

在国际人权法、欧盟宪章和相关条约规定的基本权利中,可作为AI发展要求的主要包括:人格尊严、人身自由、民主、正义和法律、平等无歧视和团结一致、公民合法权利等。许多公共、私人组织从基本权利中汲取灵感,为人工智能系统制定伦理框架。例如,欧洲科学和新技术伦理小组(EGE)基于欧盟宪章和相关规定中的价值观,提出了9项基本原则。《伦理指南》在借鉴绝大部分已有原则的基础上,进一步归纳总结出符合社会发展要求的4项伦理原则,并将其作为可信AI的根基,为AI的开发、部署和使用提供指导。

这些原则包括:(1)尊重人类自主性原则。与AI交互的人类必须拥有充分且有效的自我决定的能力,AI系统应当遵循以人为本的理念,用于服务人类、增强人类的认知并提升人类的技能。(2)防止损害原则。AI系统不能给人类带来负面影响,AI系统及其运行环境必须是安全的,AI技术必须是稳健且应确保不被恶意使用。(3)公平原则。AI系统的开发、部署和使用既要坚持实质公平又要保证程序公平,应确保利益和成本的平等分配、个人及群体免受歧视和偏见。此外,受AI及其运营者所做的决定影响的个体均有提出异议并寻求救济的权利。(4)可解释原则。AI系统的功能和目的必须保证公开透明,AI决策过程在可能的范围内需要向受决策结果直接或间接影响的人解释。

(二)可信AI的实现

(三)可信的AI的评估

人工智能算法治理的政策建议:算法责任与透明治理框架

(一)提升公众的算法素养

(二)公共部门建立算法问责机制

(三)完善监管机制和法律责任制度

(四)加强算法治理的国际合作

欧盟人工智能伦理与治理的启示

(一)探索伦理治理的技术路径

(二)采取多利益相关方协同治理的模式

(三)加强人工智能伦理与治理方面的国际合作

本文转载自微信公众号腾讯研究院返回搜狐,查看更多

责任编辑:

欧盟正式发布“可信赖的人工智能伦理准则”

4.透明度:用于创建AI系统的数据和算法应该是可访问的,软件所做的决定应该“为人类所理解和追踪”。换句话说,操作者应该能够解释他们的AI系统所做的决定;

Transparency:thedata,systemandAIbusinessmodelsshouldbetransparent.Traceabilitymechanismscanhelpachievingthis.Moreover,AIsystemsandtheirdecisionsshouldbeexplainedinamanneradaptedtothestakeholderconcerned.HumansneedtobeawarethattheyareinteractingwithanAIsystem,andmustbeinformedofthesystem’scapabilitiesandlimitations.

5.多样性、无歧视、公平:AI应向所有人提供服务,不分年龄、性别、种族或其他特征。同样,AI系统不应在这些方面有偏见;

Diversity,nondiscriminationandfairness:Unfairbiasmustbeavoided,asitcouldhavemultiplenegativeimplications,fromthemarginalizationofvulnerablegroups,totheexacerbationofprejudiceanddiscrimination.Fosteringdiversity,AIsystemsshouldbeaccessibletoall,regardlessofanydisability,andinvolverelevantstakeholdersthroughouttheirentirelifecircle.

6.环境和社会福祉:AI系统应该是可持续的(即它们应该对生态负责),并能“促进积极的社会变革”;

Societalandenvironmentalwellbeing:AIsystemsshouldbenefitallhumanbeings,includingfuturegenerations.Itmusthencebeensuredthattheyaresustainableandenvironmentallyfriendly.Moreover,theyshouldtakeintoaccounttheenvironment,includingotherlivingbeings,andtheirsocialandsocietalimpactshouldbecarefullyconsidered.

7.问责制:AI系统应该是可审计的,并由现有的企业告密者保护机制覆盖。系统的负面影响应事先得到承认和报告。

Accountability:MechanismsshouldbeputinplacetoensureresponsibilityandaccountabilityforAIsystemsandtheiroutcomes.Auditability,whichenablestheassessmentofalgorithms,dataanddesignprocessesplaysakeyroletherein,especiallyincriticalapplications.Moreover,adequateanaccessibleredressshouldbeensured.

请注意,这些原则中有些条款的措辞有点儿抽象,并且很难从客观的意义上进行评估。例如,“积极社会变化”的定义在人与人、国与国之间差异很大。但其他原则更为直截了当,可以通过政府监督来检验。例如,共享用于训练政府AI系统的数据可能是对抗偏见算法的好方法。

这些指导方针不具有法律约束力,但它们可以影响欧盟起草的任何未来立法。欧盟曾多次表示,它希望成为道德AI领域的领导者,并通过《通用数据保护条例》》GDPR表明,它愿意制定影响深远的、保护数字权利的法律。

但这个角色在某种程度上是环境迫使欧盟扮演的。在投资和尖端研究方面,欧盟无法与美国和中国竞争,因此它选择了伦理作为塑造这项技术未来的最佳选择。

作为这一努力的一部分,欧盟发布的报告还包括了一份被称为“可信赖AI评估列表”,它可以帮助专家们找出AI软件中的任何潜在弱点或危险。此列表包括以下问题:“你是否验证了系统在意外情况和环境中的行为方式?”以及“你评估了数据集中数据的类型和范围了吗?”这些评估列表只是初步的,欧盟将在未来几年收集公司的反馈,并在2020年提交关于其效用的最终报告。

数字版权组织AccessNow的政策经理范尼·希德韦吉(FannyHidvégi)表示:“评估列表是该报告最重要的部分。它提供了一个实用的、前瞻性的角度,指导我们如何减轻AI的潜在危害。在我们看来,欧盟有潜力和责任走在这项工作的前列。但我们确实认为,欧洲联盟不应止步于制定伦理准则。”

其他人则怀疑,欧盟试图通过伦理研究来塑造全球AI的发展方式,这是否会产生很大影响。智库数据创新中心(CenterForDataInnovation)高级政策分析师埃林·奇沃特(ElineChivot)表示:“我们对正在采取的方法持怀疑态度,即通过为AI伦理创建一个黄金标准,它将确认欧盟在全球AI发展中的地位。而要成为AI伦理领域的领导者,首先必须在AI领域取得领先优势。”

欧盟要做AI的国际规范制定者

与北美和亚洲相比,欧盟的AI技术发展相对滞后,欧委会此次在发布该七条AI道德原则时也坦承欧洲在AI私人投资方面落后:以2016年为例,当年亚洲在此方面吸引到的投资为109亿美元,北美区域为209亿美元,而欧洲方面得到的投资仅为24亿-32亿欧元(27-41.5亿美元)。

因此,欧盟方面也在想方设法加大对AI领域的投入。根据欧盟方面提供的资料显示,在公共投资方面,根据欧盟“地平线2020”计划,到2020年年底,欧委会计划投入约15亿欧元到AI领域,同时确保来自公共和私人投资达到至少200亿欧元。

同时,欧盟提出在未来的十年中,希望每年对AI领域投资最少200亿欧元,这笔资金不仅来自欧盟机构,也会来自私人投资机构,同时欧委会也会在“地平线2020”计划安排下每年再投资10亿欧元。

当然,在希望可以迎头赶上北美和亚洲的AI产业之外,欧盟机构也更加重视AI所有可能能带来的在隐私和安全等方面的风险,可谓未雨绸缪,且由于欧盟在重视隐私和安全方面的传统,这样的立法推进较之美国而言,相对更快。就在两周前,谷歌自身就推出了一个人工智能伦理委员会,但由于谷歌为该委员会选择的成员遭到了谷歌自身雇员的强烈反对,该委员会在成立一周之后就被谷歌自行解散了。

在欧盟方面,并不满足于仅仅为欧盟内部的AI产业设定规则。

欧盟此次指出,推出该七条AI道德原则仅仅是第一步。随后,欧盟要在2019年的夏天展开一个正式的实验阶段,且已经告知与AI产业有关的官、产、学三界,该实验开始的具体日期。

第三步,欧盟要在国际场合为其“以人为本”的AI系统建立共识,并希望将这种方法纳入AI道德的全球舞台。

欧委会指出,技术,数据和算法不分国界,为此,欧委会继续加强同日本,加拿大以及新加坡等志同道合国家的合作,并继续在包括七国集团(G7)和G20在内的国际场合的讨论和倡议中发挥积极作用。

IBM欧洲主席页特(MartinJetter)对此表示,欧委会此次出台的指导方针“为推动AI的道德和责任制定了全球标准。”

来源:中国体外诊断网

全国服务热线:400-609-1580

公司网站:http://www.fredamd.com/

关注弗锐达法规资讯微信公众号(fredamd2)获取更多资讯返回搜狐,查看更多

欧盟发布人工智能伦理准则

图集

欧盟委员会4月8日发布人工智能伦理准则,以提升人们对人工智能产业的信任。欧盟委员会同时宣布启动人工智能伦理准则的试行阶段,邀请工商企业、研究机构和政府机构对该准则进行测试。

该准则由欧盟人工智能高级别专家组起草,列出了“可信赖人工智能”的7个关键条件——人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制,以确保人工智能足够安全可靠。欧盟将“人工智能”定义为“显示智能行为的系统”,它可以分析环境,并行使一定的自主权来执行任务。

根据官方解释,“可信赖的人工智能”有两个必要的组成部分:一是应尊重基本人权、规章制度、核心原则及价值观;二是应在技术上安全可靠,避免因技术不足而造成无意的伤害。举例来说,如果人工智能在未来诊断出一个人患有某种病症,欧盟的准则可以确保系统不会做出基于患者种族或性别的偏见诊断,也不会无视人类医生的反对意见,患者可以自行选择获得对诊断结果的解释。

欧盟数字经济和社会专员玛利亚·加布里尔表示,算法做出的任何决定都必须经过验证和解释。当保险公司的系统拒绝了一次索赔后,客户应当能详细地知晓缘由。加布里尔还强调,还需要确保人工智能系统的公平。如果招聘系统使用的算法是由一家仅雇用男性员工的公司数据生成的,其算法就可能会筛除女性应聘者,“这样带有偏见的数据输入将会带来伦理困境”。

对于这份准则,欧委会副主席兼欧盟单一数字市场战略副总裁安德鲁斯·安西普表示:“符合伦理标准的人工智能将带来双赢,可以成为欧洲的竞争优势,欧洲可以成为人们信任的、以人为本的人工智能领导者。”

欧盟此举也受到一些质疑。非营利组织“算法观察”联合创始人马蒂亚斯·斯皮尔坎普认为,尽管制定准则是一个好主意,但准则围绕的核心——“可信赖人工智能”这一概念的定义尚不明确,且目前还不清楚未来的监管如何实施;还有业内人士担心,准则过分细化会使许多公司尤其是中小型企业难以操作;此外,参与了准则起草工作的德国美因茨大学哲学教授托马斯·梅辛格对于欧盟没有禁止使用人工智能开发武器表示批评。(记者方莹馨)

 

+1【纠错】责任编辑:周靖杰

欧盟抢先发布人工智能道德准则 还要拿到G20讨论

(原标题:欧盟抢先发布人工智能道德准则:AI要以人为本,负责任且无偏见)

【观察者网】目前,虽然人工智能(AI)的研究还处在起步阶段,但欧盟已经为其制定了道德准则。

据美国科技网站TheVerge的报道,经过52名专家的商讨,欧盟委员会于4月8日发布了人工智能道德准则。该准则的出台,标志着欧盟在寻求推广人工智能产业发展的同时,将立足于强化产业的道德水准。

欧盟希望在人工智能融入社会以前,未雨绸缪,制定相关准则,规范其未来发展。

参与起草制定这些准则的IBM欧洲法律部门副部长利亚姆·本纳姆表示:“(制定这些准则)就像在造房子之前,需要先打地基。而现在就是做这些事情的时候。”

该道德准则要求“值得信赖”的人工智能应当满足如下7个条件:

1.人类的力量和监督:人工智能不能侵犯人类的自主性。人们不应该被AI系统操纵或胁迫,而应该能够干预或监督软件做出的每一个决定。

2.技术的健全性和安全性:人工智能应该安全且准确。它不应该易于受到外部攻击的影响,且应该相当可靠。

3.隐私和数据管理:人工智能系统收集的个人数据应该是安全的、私有的。它不应该让任何人接触,也不应该轻易被盗。

4.透明性:用于创建人工智能系统的数据和算法应该是可访问的,软件所做的决定应能被人类理解和跟踪。换句话说,操作员应能够解释AI系统所做的决定。

5.多样性、非歧视和公平性:人工智能提供的服务应面向所有人,无论年龄、性别、种族或其他特征。同样,系统不应该在这些方面存在偏见。

6.环境和社会福祉:人工智能系统应该是可持续的(即它们应该对生态负责)并“促进积极的社会变革”。

7.问责制:人工智能系统应该是可审计的,并被纳入企业可举报范畴,以便受到现有规则的保护。应事先告知和报告系统可能产生的负面影响。

人工智能,以人为本

欧盟负责数字经济的官员玛利亚·加布里埃尔解读了这7项要求。她认为,在人工智能使用上,“透明性”是一切的关键,同时也要“以人为本”。

加布里埃尔表示:“任何公司在使用人工智能技术时,其受众都应当具有知情权。人们应该知道和他们进行沟通的是算法还是真人。同时,任何由算法做出的决定,都必须由公司出面解释。”

举例来说,如果一家保险公司依赖人工智能算法拒绝了某项赔偿申请,那么他们应该让消费者知道做出这项决定的依据。同时,还应由人类出面,进行这项决定的最终判断。

此外,加布里埃尔认为,隐私和数据管理同样非常重要。任何使用人工智能的机构,都应当保护好系统收集的数据,这些数据只能被人工智能和本人访问。

除了技术方面的准则以外,欧盟制定的准则里还包含了一些相对抽象的概念,例如其要求人工智能必须具有多样性、非歧视和公平性,同时也能够“促进积极的社会变革”。

由于现阶段人工智能的训练仍旧依赖于巨量数据的输入,因此这些数据将极大程度左右人工智能的公平性。

加布里埃尔举例说:“如果一家公司使用人工智能系统进行招聘,而他们所使用的数据来源于另一家大量招聘男性雇员的公司,那么这一系统将很可能拒绝女性雇员的加入。”

“如果人们使用不公平的数据来训练人工智能,那么这将毫无疑问成为一个大问题。”

另辟蹊径,欧盟想成为技术道德领域的领军者

欧盟已经不是第一次为数字技术制定规则和法律了。

2018年5月,欧洲联盟出台《通用数据保护条例》(GDPR),规范数据收集者的操作,禁止网络公司以默认隐藏的模式收集用户数据,同时保障用户对自己数据完全自主的权利。对于违规者,欧盟将会处以巨额罚款。

此次,欧盟表示,希望自己成为AI道德领域的领导者,如同制定《通用数据保护条例》(GDPR)一样,率先规范科技领域的法律和道德,保护公众的数字权利。

据TheVerge分析,由于欧盟在投资和前沿研究方面,已经无法与美国和中国一争高下,因此,它才迫不得已选择了伦理作为塑造技术未来的最佳选择。

相对于欧洲,中国在人工智能领域的发展迅速图自视觉中国

正如欧委会负责数字单一市场的副主席安斯普(AndrusAnsip)所说,“有道德的人工智能是一个能够达到双赢的主张,是欧洲在该领域的竞争优势——成为人们可以信赖的,以人为本的人工智能领导者。”

不过,欧盟在技术道德领域制定的一系列规则,也有可能成为这些技术发展的阻碍。

在当今前沿计算机科技中,大数据、云计算和人工智能的发展,都离不开巨量数据的支撑。而欧盟的《通用数据保护条例》为网络公司和研究机构的数据搜集设置了极大障碍。

同样,也有部分研究者怀疑,欧盟制定的人工智能道德准则,将会影响到这一产业的未来发展。

智库机构数据创新中心(CenterforDataInnovation)的高级政策分析师艾琳·奇沃特(ElineChivot)在接受TheVerge采访时说:“欧盟希望通过制定道德标准,来确定自身在全球人工智能发展中的地位,我们对这种方法持怀疑态度。要成为人工智能伦理的领导者,首先你必须在人工智能领域遥遥领先。”

欧盟指出,提出人工智能道德准则只是第一步,未来他们还将邀请其他国家的企业和国际组织共同参与测试,制定以人为本的人工智能共识,并在G20峰会上与其他国家共同讨论。

《新一代人工智能伦理规范》发布

9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(以下简称《伦理规范》),旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。

《伦理规范》经过专题调研、集中起草、意见征询等环节,充分考虑当前社会各界有关隐私、偏见、歧视、公平等伦理关切,包括总则、特定活动伦理规范和组织实施等内容。

《伦理规范》提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理要求。同时,提出人工智能管理、研发、供应、使用等特定活动的18项具体伦理要求。

《伦理规范》全文如下:

新一代人工智能伦理规范

为深入贯彻《新一代人工智能发展规划》,细化落实《新一代人工智能治理原则》,增强全社会的人工智能伦理意识与行为自觉,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展,制定本规范。

第一章 总则

第一条 本规范旨在将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题。

第二条 本规范适用于从事人工智能管理、研发、供应、使用等相关活动的自然人、法人和其他相关机构等。

(一)管理活动主要指人工智能相关的战略规划、政策法规和技术标准制定实施,资源配置以及监督审查等。

(二)研发活动主要指人工智能相关的科学研究、技术开发、产品研制等。

(三)供应活动主要指人工智能产品与服务相关的生产、运营、销售等。

(四)使用活动主要指人工智能产品与服务相关的采购、消费、操作等。

第三条 人工智能各类活动应遵循以下基本伦理规范。

(一)增进人类福祉。坚持以人为本,遵循人类共同价值观,尊重人权和人类根本利益诉求,遵守国家或地区伦理道德。坚持公共利益优先,促进人机和谐友好,改善民生,增强获得感幸福感,推动经济、社会及生态可持续发展,共建人类命运共同体。

(二)促进公平公正。坚持普惠性和包容性,切实保护各相关主体合法权益,推动全社会公平共享人工智能带来的益处,促进社会公平正义和机会均等。在提供人工智能产品和服务时,应充分尊重和帮助特殊群体,并根据需要提供相应替代方案。

(三)保护隐私安全。充分尊重个人信息知情、同意等权利,依照合法、正当、必要和诚信原则处理个人信息,保障个人隐私与数据安全,不得损害个人合法数据权益,不得以窃取、篡改、泄露等方式非法收集利用个人信息,不得侵害个人隐私权。

(四)确保可控可信。保障人类拥有充分自主决策权,有权选择是否接受人工智能提供的服务,有权随时退出与人工智能的交互,有权随时中止人工智能系统的运行,确保人工智能始终处于人类控制之下。

(五)强化责任担当。坚持人类是最终责任主体,明确利益相关者的责任,全面增强责任意识,在人工智能全生命周期各环节自省自律,建立人工智能问责机制,不回避责任审查,不逃避应负责任。

(六)提升伦理素养。积极学习和普及人工智能伦理知识,客观认识伦理问题,不低估不夸大伦理风险。主动开展或参与人工智能伦理问题讨论,深入推动人工智能伦理治理实践,提升应对能力。

第四条 人工智能特定活动应遵守的伦理规范包括管理规范、研发规范、供应规范和使用规范。

第二章 管理规范

第五条 推动敏捷治理。尊重人工智能发展规律,充分认识人工智能的潜力与局限,持续优化治理机制和方式,在战略决策、制度建设、资源配置过程中,不脱离实际、不急功近利,有序推动人工智能健康和可持续发展。

第六条 积极实践示范。遵守人工智能相关法规、政策和标准,主动将人工智能伦理道德融入管理全过程,率先成为人工智能伦理治理的实践者和推动者,及时总结推广人工智能治理经验,积极回应社会对人工智能的伦理关切。

第七条 正确行权用权。明确人工智能相关管理活动的职责和权力边界,规范权力运行条件和程序。充分尊重并保障相关主体的隐私、自由、尊严、安全等权利及其他合法权益,禁止权力不当行使对自然人、法人和其他组织合法权益造成侵害。

第八条 加强风险防范。增强底线思维和风险意识,加强人工智能发展的潜在风险研判,及时开展系统的风险监测和评估,建立有效的风险预警机制,提升人工智能伦理风险管控和处置能力。

第九条 促进包容开放。充分重视人工智能各利益相关主体的权益与诉求,鼓励应用多样化的人工智能技术解决经济社会发展实际问题,鼓励跨学科、跨领域、跨地区、跨国界的交流与合作,推动形成具有广泛共识的人工智能治理框架和标准规范。

第三章 研发规范

第十条 强化自律意识。加强人工智能研发相关活动的自我约束,主动将人工智能伦理道德融入技术研发各环节,自觉开展自我审查,加强自我管理,不从事违背伦理道德的人工智能研发。

第十一条 提升数据质量。在数据收集、存储、使用、加工、传输、提供、公开等环节,严格遵守数据相关法律、标准与规范,提升数据的完整性、及时性、一致性、规范性和准确性等。

第十二条 增强安全透明。在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性、可靠性、可控性,增强人工智能系统的韧性、自适应性和抗干扰能力,逐步实现可验证、可审核、可监督、可追溯、可预测、可信赖。

第十三条 避免偏见歧视。在数据采集和算法开发中,加强伦理审查,充分考虑差异化诉求,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。

第四章 供应规范

第十四条 尊重市场规则。严格遵守市场准入、竞争、交易等活动的各种规章制度,积极维护市场秩序,营造有利于人工智能发展的市场环境,不得以数据垄断、平台垄断等破坏市场有序竞争,禁止以任何手段侵犯其他主体的知识产权。

第十五条 加强质量管控。强化人工智能产品与服务的质量监测和使用评估,避免因设计和产品缺陷等问题导致的人身安全、财产安全、用户隐私等侵害,不得经营、销售或提供不符合质量标准的产品与服务。

第十六条 保障用户权益。在产品与服务中使用人工智能技术应明确告知用户,应标识人工智能产品与服务的功能与局限,保障用户知情、同意等权利。为用户选择使用或退出人工智能模式提供简便易懂的解决方案,不得为用户平等使用人工智能设置障碍。

第十七条 强化应急保障。研究制定应急机制和损失补偿方案或措施,及时监测人工智能系统,及时响应和处理用户的反馈信息,及时防范系统性故障,随时准备协助相关主体依法依规对人工智能系统进行干预,减少损失,规避风险。

第五章 使用规范

第十八条 提倡善意使用。加强人工智能产品与服务使用前的论证和评估,充分了解人工智能产品与服务带来的益处,充分考虑各利益相关主体的合法权益,更好促进经济繁荣、社会进步和可持续发展。

第十九条 避免误用滥用。充分了解人工智能产品与服务的适用范围和负面影响,切实尊重相关主体不使用人工智能产品或服务的权利,避免不当使用和滥用人工智能产品与服务,避免非故意造成对他人合法权益的损害。

第二十条 禁止违规恶用。禁止使用不符合法律法规、伦理道德和标准规范的人工智能产品与服务,禁止使用人工智能产品与服务从事不法活动,严禁危害国家安全、公共安全和生产安全,严禁损害社会公共利益等。

第二十一条 及时主动反馈。积极参与人工智能伦理治理实践,对使用人工智能产品与服务过程中发现的技术安全漏洞、政策法规真空、监管滞后等问题,应及时向相关主体反馈,并协助解决。

第二十二条 提高使用能力。积极学习人工智能相关知识,主动掌握人工智能产品与服务的运营、维护、应急处置等各使用环节所需技能,确保人工智能产品与服务安全使用和高效利用。

第六章 组织实施

第二十三条 本规范由国家新一代人工智能治理专业委员会发布,并负责解释和指导实施。

第二十四条 各级管理部门、企业、高校、科研院所、协会学会和其他相关机构可依据本规范,结合实际需求,制订更为具体的伦理规范和相关措施。

第二十五条 本规范自公布之日起施行,并根据经济社会发展需求和人工智能发展情况适时修订。

国家新一代人工智能治理专业委员会

2021年9月25日

欧盟人工智能伦理准则发布!是“紧箍咒”还是“加速器”

人工智能会比人更聪明吗?自动驾驶会把人带向何方?还从没有一项技术像人工智能这样引发伦理担忧,甚至是莫名的恐惧。4月8日,欧盟委员会发布人工智能伦理准则,提出了相关条件和规范准则。

“在人工智能,以及大数据、5G、汽车新四化扑面而来的时代,要让先进的技术更好地为人们服务,作出准则进行规范是很有必要的。这无论是对于以人工智能为基础的汽车自动驾驶等技术的研发还是产业的发展,应该说都是一颗‘定心丸’。”4月11日,全国乘用车市场信息联席会秘书长崔东树接受《中国汽车报》记者采访表达了这样的观点。他认为,有了准则就少了偏差和困扰,准则也驱动着对汽车行业资本、市场、企业相关认知及行为的再平衡。

智能汽车有了“轨道”

自动驾驶系统被认为是汽车智能化发展的最高目标,它集人工智能以及自动控制技术、信息与通信技术、现代传感技术等于一体,在减少交通事故、缓解交通拥堵、降低能耗、保护环境等方面被寄予厚望。正是看中这些优势,世界很多国家特别是发达国家都在积极制定自动驾驶技术路线图,大力推动自动驾驶汽车的发展。在业界,自动驾驶被认为是汽车产业转型升级的重要支点,也是当今众多企业的竞争热点。

“符合伦理标准的人工智能将带来双赢,可以成为欧洲的竞争优势。”欧委会副主席兼欧盟单一数字市场战略副总裁安德鲁斯·安西普所言,道出了欧盟发布人工智能伦理准则的目的。

据介绍,欧盟发布的人工智能伦理准则,列出了“可信赖人工智能”的7个关键条件,即人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制,以确保人工智能足够安全可靠。欧盟将“人工智能”定义为“显示智能行为的系统”,它可以分析环境,并行使一定的自主权来执行任务。

其中,“可信赖的人工智能”有两个必要的组成部分:一是应尊重基本人权、规章制度、核心原则及价值观;二是应在技术上安全可靠,避免因技术不足而造成无意的伤害。举例来说,如果人工智能之于自动驾驶汽车领域,欧盟的准则目标是约束不会做出对消费者有害或潜在有害的技术系统设计。

“欧盟发布的人工智能伦理准则强调‘可信赖的人工智能’,必然会对自动驾驶在内的一系列人工智能汽车技术的研发与应用产生重要影响。”一直关注这一领域的清华大学公共管理学院教授梁正在接受《中国汽车报》记者采访时如是表示。

发达国家立法规范

对于以人工智能为支撑的自动驾驶,近年来技术进化迅速,发展势头迅猛,令人瞩目,有关的法律法规制度建设更是引发高度关注。

汽车驾驶领域通行的国际公约是《维也纳道路交通公约》(以下简称《公约》),联合国欧洲经济委员会于2016年3月通过修正案修改了《公约》。新的《公约》规定,在自动驾驶系统全面符合联合国车辆管理条例以及驾驶员可以手动选择关闭自动驾驶系统的前提下,驾驶员可以将车辆的驾驶职责交给自动驾驶系统。

在欧美各国,也是持续通过立法,一方面确立自动驾驶的法律地位,一方面对相关工作进行规范,从而消除各界对这类新技术的担忧。

1

2017年,德国联邦议会颁布了《道路交通法第八修正案》。该法案明确允许“按规定使用”汽车自动驾驶功能,明确了使用该功能的权利义务以及驾驶数据的采集、存储、使用及删除规则,从而建立了较为完整的权责制度,在一定程度上为智能汽车在德国的发展提供了保障和规范,清除了法律上的障碍。

2

在美国,目前已有十多个州(特区)颁布生效了数十条(部)针对自动驾驶汽车的法规。

3

英国、法国、加拿大、澳大利亚、芬兰、瑞典等国家也出于借智能汽车助推经济社会发展的目的,技术竞争的纷纷在立法层面上展开探索,颁布了多部关于自动驾驶的法律法规。

“目前的自动驾驶技术、特别是核心算法,主要是大量数据训练的结果,有很大的局限性,容易受到干扰,其安全性、可解释性、可信赖度都存在问题。如果是人工智能及自动驾驶技术相关的原则上升为法律法规进行规范,则必将对这一领域的发展方向、自动驾驶技术的商业化步伐产生重大影响。”梁正认为。

国内制度亟待完善

国外的人工智能及自动驾驶技术进步及制度建设几近同步,发展迅速,国内的相关情况同样引起了高度关注。

“人工智能是自动驾驶实现的重要技术支撑,这已是业内共识。国外的立法制度建设,也倒逼我国的相关工作提速。”崔东树认为,首先,人工智能是引领新一轮科技革命和产业变革的战略性技术,一些国家已将人工智能上升为国家重大发展战略,需要引起足够重视。其次,应当看到人工智能技术的应用具有不确定性,会带来法律关系、道德伦理、社会治理等方面的新挑战。因此,制定规则制度以及法律法规,明确发展方向,划出“红线”,助推这个产业沿着正确轨道健康发展是十分必要的。再者,目前我国一些企业研发的自动驾驶车辆已经进入路测阶段,从北京、上海、重庆等地的路测到高速公路测试都在进行中,由此可见,国内的相关规范和制度制定工作显得更加迫切。

记者在采访中了解到,全国人大常委会已将一些与人工智能密切相关的立法项目,如数字安全法、个人信息保护法和修改科学技术进步法等,列入本届人大的立法规划。随着这方面工作的推进,我国的自动驾驶将迎来更好的发展环境。“把人工智能方面立法列入抓紧研究项目,围绕相关法律问题进行深入的调查论证,努力使人工智能创新发展,努力为人工智能的创新发展提供有力的法治保障。”今年3月全国两会期间,十三届全国人大二次会议新闻发言人张业遂公开表示。

在业界内外,人工智能、5G环境下的自动驾驶技术发展备受关注。国内车企、互联网企业等纷纷加大技术研发力度。然而,自动驾驶要想实现“落地”也面临很多问题,如立法、法规及标准等方面的缺失及不完备,导致创新者在技术发展过程中出现了“不敢走”、“不知该如何走”等情况。今年全国两会期间,全国人大代表马化腾提交的《关于加强科技伦理建设,践行科技向善理念的建议》中提出,建议在国家层面针对人工智能、自动驾驶等相关新技术制定伦理准则,对新技术应用进行引导和规范。

“自动驾驶立法非常必要,因为无人驾驶技术被社会公众接受和实现商用的首要前提就是要保证人身安全。”在梁正看来,制度建设意义重大,可适当参考借鉴国外的做法和经验加快进行。

1

在安全方面,美国交通部出台的关于自动驾驶的六条准则中第一条就是要保证安全。

2

立法同样应坚持“审慎包容”的原则,美国交通部针对自动驾驶六条准则中的第二条就是“技术中立”,即不干预技术的选择,将其交给市场。

3

立法及制度建设应当是划出“底线”,规定什么不可以做,剩下的交给市场与社会主体去自由选择。

“汽车自动驾驶作为人工智能发展的一个重要标志和具体应用,就是要在技术与人本身之间、在机器与人类社会之间进行再平衡,寻找和谐相处的结合点,找到和谐出行的最佳路径。制度建设就是掌控和调节这些关系的最根本的手段,所以建立规则、完善制度都是极为重要、十分必要而又亟待解决的事情。”崔东树认为,这或许是欧盟发布人工智能伦理准则带给我们的最大启示。

文:赵建国编辑:黄霞版式:刘芯辰

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇