欧盟正式发布“可信赖的人工智能伦理准则”
4.透明度:用于创建AI系统的数据和算法应该是可访问的,软件所做的决定应该“为人类所理解和追踪”。换句话说,操作者应该能够解释他们的AI系统所做的决定;
Transparency:thedata,systemandAIbusinessmodelsshouldbetransparent.Traceabilitymechanismscanhelpachievingthis.Moreover,AIsystemsandtheirdecisionsshouldbeexplainedinamanneradaptedtothestakeholderconcerned.HumansneedtobeawarethattheyareinteractingwithanAIsystem,andmustbeinformedofthesystem’scapabilitiesandlimitations.
5.多样性、无歧视、公平:AI应向所有人提供服务,不分年龄、性别、种族或其他特征。同样,AI系统不应在这些方面有偏见;
Diversity,nondiscriminationandfairness:Unfairbiasmustbeavoided,asitcouldhavemultiplenegativeimplications,fromthemarginalizationofvulnerablegroups,totheexacerbationofprejudiceanddiscrimination.Fosteringdiversity,AIsystemsshouldbeaccessibletoall,regardlessofanydisability,andinvolverelevantstakeholdersthroughouttheirentirelifecircle.
6.环境和社会福祉:AI系统应该是可持续的(即它们应该对生态负责),并能“促进积极的社会变革”;
Societalandenvironmentalwellbeing:AIsystemsshouldbenefitallhumanbeings,includingfuturegenerations.Itmusthencebeensuredthattheyaresustainableandenvironmentallyfriendly.Moreover,theyshouldtakeintoaccounttheenvironment,includingotherlivingbeings,andtheirsocialandsocietalimpactshouldbecarefullyconsidered.
7.问责制:AI系统应该是可审计的,并由现有的企业告密者保护机制覆盖。系统的负面影响应事先得到承认和报告。
Accountability:MechanismsshouldbeputinplacetoensureresponsibilityandaccountabilityforAIsystemsandtheiroutcomes.Auditability,whichenablestheassessmentofalgorithms,dataanddesignprocessesplaysakeyroletherein,especiallyincriticalapplications.Moreover,adequateanaccessibleredressshouldbeensured.
请注意,这些原则中有些条款的措辞有点儿抽象,并且很难从客观的意义上进行评估。例如,“积极社会变化”的定义在人与人、国与国之间差异很大。但其他原则更为直截了当,可以通过政府监督来检验。例如,共享用于训练政府AI系统的数据可能是对抗偏见算法的好方法。
这些指导方针不具有法律约束力,但它们可以影响欧盟起草的任何未来立法。欧盟曾多次表示,它希望成为道德AI领域的领导者,并通过《通用数据保护条例》》GDPR表明,它愿意制定影响深远的、保护数字权利的法律。
但这个角色在某种程度上是环境迫使欧盟扮演的。在投资和尖端研究方面,欧盟无法与美国和中国竞争,因此它选择了伦理作为塑造这项技术未来的最佳选择。
作为这一努力的一部分,欧盟发布的报告还包括了一份被称为“可信赖AI评估列表”,它可以帮助专家们找出AI软件中的任何潜在弱点或危险。此列表包括以下问题:“你是否验证了系统在意外情况和环境中的行为方式?”以及“你评估了数据集中数据的类型和范围了吗?”这些评估列表只是初步的,欧盟将在未来几年收集公司的反馈,并在2020年提交关于其效用的最终报告。
数字版权组织AccessNow的政策经理范尼·希德韦吉(FannyHidvégi)表示:“评估列表是该报告最重要的部分。它提供了一个实用的、前瞻性的角度,指导我们如何减轻AI的潜在危害。在我们看来,欧盟有潜力和责任走在这项工作的前列。但我们确实认为,欧洲联盟不应止步于制定伦理准则。”
其他人则怀疑,欧盟试图通过伦理研究来塑造全球AI的发展方式,这是否会产生很大影响。智库数据创新中心(CenterForDataInnovation)高级政策分析师埃林·奇沃特(ElineChivot)表示:“我们对正在采取的方法持怀疑态度,即通过为AI伦理创建一个黄金标准,它将确认欧盟在全球AI发展中的地位。而要成为AI伦理领域的领导者,首先必须在AI领域取得领先优势。”
欧盟要做AI的国际规范制定者
与北美和亚洲相比,欧盟的AI技术发展相对滞后,欧委会此次在发布该七条AI道德原则时也坦承欧洲在AI私人投资方面落后:以2016年为例,当年亚洲在此方面吸引到的投资为109亿美元,北美区域为209亿美元,而欧洲方面得到的投资仅为24亿-32亿欧元(27-41.5亿美元)。
因此,欧盟方面也在想方设法加大对AI领域的投入。根据欧盟方面提供的资料显示,在公共投资方面,根据欧盟“地平线2020”计划,到2020年年底,欧委会计划投入约15亿欧元到AI领域,同时确保来自公共和私人投资达到至少200亿欧元。
同时,欧盟提出在未来的十年中,希望每年对AI领域投资最少200亿欧元,这笔资金不仅来自欧盟机构,也会来自私人投资机构,同时欧委会也会在“地平线2020”计划安排下每年再投资10亿欧元。
当然,在希望可以迎头赶上北美和亚洲的AI产业之外,欧盟机构也更加重视AI所有可能能带来的在隐私和安全等方面的风险,可谓未雨绸缪,且由于欧盟在重视隐私和安全方面的传统,这样的立法推进较之美国而言,相对更快。就在两周前,谷歌自身就推出了一个人工智能伦理委员会,但由于谷歌为该委员会选择的成员遭到了谷歌自身雇员的强烈反对,该委员会在成立一周之后就被谷歌自行解散了。
在欧盟方面,并不满足于仅仅为欧盟内部的AI产业设定规则。
欧盟此次指出,推出该七条AI道德原则仅仅是第一步。随后,欧盟要在2019年的夏天展开一个正式的实验阶段,且已经告知与AI产业有关的官、产、学三界,该实验开始的具体日期。
第三步,欧盟要在国际场合为其“以人为本”的AI系统建立共识,并希望将这种方法纳入AI道德的全球舞台。
欧委会指出,技术,数据和算法不分国界,为此,欧委会继续加强同日本,加拿大以及新加坡等志同道合国家的合作,并继续在包括七国集团(G7)和G20在内的国际场合的讨论和倡议中发挥积极作用。
IBM欧洲主席页特(MartinJetter)对此表示,欧委会此次出台的指导方针“为推动AI的道德和责任制定了全球标准。”
来源:中国体外诊断网
全国服务热线:400-609-1580
公司网站:http://www.fredamd.com/
关注弗锐达法规资讯微信公众号(fredamd2)获取更多资讯返回搜狐,查看更多
欧盟发布AI道德准则:欲另辟蹊径 成为道德AI领导者
澎湃新闻见习记者张唯
当地时间4月8日,欧盟委员会发布一份人工智能道德准则,该准则由2018年12月公布的人工智能道德准则草案演变而来,提出了实现可信赖人工智能的七个要素,要求不得使用公民个人资料做出伤害或歧视他们的行为。
同时,欧盟委员会宣布启动人工智能道德准则的试行阶段,邀请工业界、研究机构和政府机构对人工智能道德准则进行测试和补充。
这份人工智能道德准则提出了实现可信赖人工智能的七个要素,分别是:
1.人的能动性和监督:人工智能系统应通过支持人的能动性和基本权利以实现公平社会,而不是减少、限制或错误地指导人类自治。
2.稳健性和安全性:值得信赖的人工智能要求算法足够安全、可靠和稳健,以处理人工智能系统所有生命周期阶段的错误或不一致。
3.隐私和数据管理:公民应该完全控制自己的数据,同时与之相关的数据不会被用来伤害或歧视他们。
4.透明度:应确保人工智能系统的可追溯性。
5.多样性、非歧视性和公平性:人工智能系统应考虑人类能力、技能和要求的总体范围,并确保可接近性。
6.社会和环境福祉:应采用人工智能系统来促进积极的社会变革,增强可持续性和生态责任。
7.问责:应建立机制,确保对人工智能系统及其成果负责和问责。
对于这份人工智能道德准则,欧盟委员会负责数字化单一市场的副主席安德鲁斯·安西(AndrusAnsip)表示欢迎,他认为:“人工智能的伦理并不是一个奢侈特征或附加功能。只有有了信任,我们的社会才能充分受益于技术。有道德的人工智能是一个双赢的主张,可以成为欧洲的竞争优势:成为以人为中心的人工智能的领导者,让人们可以信任。”
欧盟委员会表示,其目前正在采取三步行动以促进可信赖的人工智能健康发展:制定值得信赖的人工智能的关键要求,启动利益相关者的大规模试点阶段,为以人为中心的人工智能建立国际共识。
欧盟委员会希望将上述人工智能伦理方法带到全球舞台。为此,欧盟委员会表示,将与日本、加拿大和新加坡等开展合作,试行阶段也将涉及来自其他国家和国际组织的公司。
在试行阶段之后,到2020年初,欧盟人工智能高级别专家组将根据收到的反馈审查评估清单,并根据评估结果并提出下一步行动。
此外,为了确保人工智能的道德发展,欧盟委员会表示,将在2019年秋季之前启动一套人工智能研究卓越中心网络;开始建立数字创新中心网络;与欧盟成员国和利益相关者一起,开始讨论制定数据共享模型。
上述人工智能道德准则由欧盟人工智能高级别专家组(AIHLEG)起草。
2018年,52位代表学术界、工业界和民间社会的独立专家受欧盟委员会任命,成立了欧盟人工智能高级别专家组,负责撰写人工智能道德准则并为欧盟提供政策和投资建议。
2018年12月18日,欧盟人工智能高级别专家组向社会发布了人工智能道德准则草案(DraftEthicsGuidelinesForTrustworthyAI,以下简称草案),该草案当时被视为是欧洲“可信赖人工智能”的讨论起点。
草案为“可信赖人工智能”提出了一个官方解释。草案认为,“可信赖人工智能”有两个必要的组成部分:首先,它应该尊重基本权利、规章制度、核心原则及价值观,以确保“道德目的”,其次,它应该在技术上强健且可靠,因为即使有良好的意图,缺乏对技术的掌握也会造成无意的伤害。
12月发布的草案还提出了一份可信赖的人工智能评估表,从责任、数据治理、为所有人设计、管理AI自治、非歧视、尊重隐私、尊重(和加强)人类自主权、稳健性、安全性、透明度共10个维度列举了可信赖人工智能的相关要求。
近年来,欧盟一再表示希望成为道德AI的领导者。对此,美国科技媒体《边缘》(TheVerge)评论称,这在一定程度上是由目前的环境造成的,在涉及投资和尖端研究时,欧盟无法与美国和中国竞争,因此选择道德是塑造技术未来的最佳选择。
欧盟抢先发布人工智能道德准则:AI要以人为本,负责任且无偏见
【文观察者网/赵挪亚】
目前,虽然人工智能(AI)的研究还处在起步阶段,但欧盟已经为其制定了道德准则。
据美国科技网站TheVerge的报道,经过52名专家的商讨,欧盟委员会于4月8日发布了人工智能道德准则。该准则的出台,标志着欧盟在寻求推广人工智能产业发展的同时,将立足于强化产业的道德水准。
欧盟公布的人工智能道德准则封面
欧盟希望在人工智能融入社会以前,未雨绸缪,制定相关准则,规范其未来发展。
参与起草制定这些准则的IBM欧洲法律部门副部长利亚姆·本纳姆表示:“(制定这些准则)就像在造房子之前,需要先打地基。而现在就是做这些事情的时候。”
该道德准则要求“值得信赖”的人工智能应当满足如下7个条件:
1.人类的力量和监督:人工智能不能侵犯人类的自主性。人们不应该被AI系统操纵或胁迫,而应该能够干预或监督软件做出的每一个决定。
2.技术的健全性和安全性:人工智能应该安全且准确。它不应该易于受到外部攻击的影响,且应该相当可靠。
3.隐私和数据管理:人工智能系统收集的个人数据应该是安全的、私有的。它不应该让任何人接触,也不应该轻易被盗。
4.透明性:用于创建人工智能系统的数据和算法应该是可访问的,软件所做的决定应能被人类理解和跟踪。换句话说,操作员应能够解释AI系统所做的决定。
5.多样性、非歧视和公平性:人工智能提供的服务应面向所有人,无论年龄、性别、种族或其他特征。同样,系统不应该在这些方面存在偏见。
6.环境和社会福祉:人工智能系统应该是可持续的(即它们应该对生态负责)并“促进积极的社会变革”。
7.问责制:人工智能系统应该是可审计的,并被纳入企业可举报范畴,以便受到现有规则的保护。应事先告知和报告系统可能产生的负面影响。
人工智能,以人为本
欧盟负责数字经济的官员玛利亚·加布里埃尔解读了这7项要求。她认为,在人工智能使用上,“透明性”是一切的关键,同时也要“以人为本”。
加布里埃尔表示:“任何公司在使用人工智能技术时,其受众都应当具有知情权。人们应该知道和他们进行沟通的是算法还是真人。同时,任何由算法做出的决定,都必须由公司出面解释。”
玛利亚·加布里埃尔解读人工智能道德准则图自视觉中国
举例来说,如果一家保险公司依赖人工智能算法拒绝了某项赔偿申请,那么他们应该让消费者知道做出这项决定的依据。同时,还应由人类出面,进行这项决定的最终判断。
此外,加布里埃尔认为,隐私和数据管理同样非常重要。任何使用人工智能的机构,都应当保护好系统收集的数据,这些数据只能被人工智能和本人访问。
欧盟发布《人工智能道德准则》:「可信赖 AI」才是 AI 的指路明灯
「可信赖AI」框架
ChapterI:确保人工智能的目的合乎道德,规定了人工智能发展应该遵守的基本权利、原则和价值观。ChapterII:关于实现「可信赖AI」的指导原则,同时强调AI发展目的的道德性和技术稳健性。这部分列出了「可信赖AI」的要求,以及实现这些要求所需的技术和非技术方法。(详细内容见下文)ChapterIII:提供「可信赖AI」的具体但非详尽的评估列表实施要求。该列表将根据具体的用例进行调整。与其他有关AI伦理道德的文件相比,这份准则的目的不是为AI增加一份核心价值观和原则清单,而是为AI系统的具体实施和操作提供指导。
该准则面向开发、部署或使用AI的所有利益攸关方,包括公司、组织、研究人员、公共服务单位、机构、个人或其他实体。该准则的最终版将提出一种机制,是否认可这些这些准则将由利益攸关方自行决定。
需要指出的是,制定这些准则并不是为了替代任何形式的决策或监管,也不是为了阻止其出台。这份准则应该不断更新,以适应技术和知识发展的要求。
「可信赖AI」的实现
这一部分为「可信赖AI」的实施和实现提供了指导,指出实现「可信赖AI」有哪些要求,在发展、部署、使用AI的过程中有哪些方法可以满足这些要求,从而充分利用由AI创造的机遇。
1.「可信赖AI」的要求
实现「可信赖AI」意味着需要在AI系统和应用的具体要求中加入一般、抽象的原则。以下是从ChapterI的权利、原则和价值观中衍生出的十条要求。这十条要求同样重要,但实施过程中需要考虑不同应用领域和行业的具体背景。
问责机制数据治理为所有人设计人工智能自治的治理(人的监督)非歧视尊重(增强)人类自主性尊重隐私稳健性安全透明《准则》还对每一项要求进行了进一步解释。例如,在「问责机制」这项要求中,《准则》指出,问责机制的选择可能非常多样,从金钱补偿到过失调查,再到没有金钱补偿的和解。如一个系统误读了药品报销申请,错误地决定不予报销,系统所有者可能会被要求做出金钱补偿。其他要求的详细内容请参考原文。
这一清单按字母顺序对要求进行排序,以表明所有要求同等重要。ChapterIII还提供了一份评估清单,以支持这些要求的实施。
2.实现「可信赖AI」的技术和非技术方法
为了满足上一节中提到的要求,开发过程的所有层面(包括分析、设计、开发和使用)都可以采用技术和非技术方法(参见图3)。对实施这些要求和方法的评估,以及对流程变化的报告和论证应该持续进行。事实上,考虑到AI系统不断发展,以及在动态环境中运行,实现「可信赖AI」可以看作一个持续的过程。
虽然这份准则中的方法列表并不详尽,但它旨在列出实施「可信赖AI」的主要方法。为了提高AI系统的可信度,这些方法应该基于第一章中定义的权利和原则。
图3显示了权利、原则和价值观对系统开发过程的影响。这些抽象的原则和权利被具体化为对AI系统的要求,该系统的实施和实现要由不同的技术和非技术方法支持。此外,考虑到AI技术的适应性和动态性,继续坚持原则和价值观要求将评估(evaluation)和论证(justification)流程作为开发流程的核心。
图3:通过系统的整个生命周期实现「可信赖AI」
报告地址:https://ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai
本文为机器之心编译,转载请联系本公众号获得授权。返回搜狐,查看更多
欧盟人工智能道德准则(草案)
简要介绍:执行摘要
人工智能是这个时代最具变革性的力量之一,它可以为个人和社会带来巨大利益,但同时也会带来某些风险。而这些风险应该得到妥善管理。总的来说,AI带来的收益大于风险。我们必须遵循「最大化AI的收益并将其带来的风险降到最低」的原则。为了确保不偏离这一方向,我们需要制定一个以人为中心的AI发展方向,时刻铭记AI的发展并不是为了发展其本身,最终目标应该是为人类谋福祉。因此,「可信赖AI」(TrustworthyAI)将成为我们的指路明灯。只有信赖这项技术,人类才能够安心地从AI中全面获益。
「可信赖AI」由两部分组成:1)它应该尊重基本权利、相关法规、核心原则及价值观,确保其目的合乎伦理道德;2)它使用的技术应该非常稳健、可靠,因为即使是出于好意,如果没有成熟技术的加持,技术也会带来意想不到的伤害。这些指导原则构成了「可信赖AI」的基本框架:
「可信赖AI」框架
ChapterI:确保人工智能的目的合乎道德,规定了人工智能发展应该遵守的基本权利、原则和价值观。
ChapterII:关于实现「可信赖AI」的指导原则,同时强调AI发展目的的道德性和技术稳健性。这部分列出了「可信赖AI」的要求,以及实现这些要求所需的技术和非技术方法。(详细内容见下文)
ChapterIII:提供「可信赖AI」的具体但非详尽的评估列表实施要求。该列表将根据具体的用例进行调整。
与其他有关AI伦理道德的文件相比,这份准则的目的不是为AI增加一份核心价值观和原则清单,而是为AI系统的具体实施和操作提供指导。
该准则面向开发、部署或使用AI的所有利益攸关方,包括公司、组织、研究人员、公共服务单位、机构、个人或其他实体。该准则的最终版将提出一种机制,是否认可这些这些准则将由利益攸关方自行决定。
需要指出的是,制定这些准则并不是为了替代任何形式的决策或监管,也不是为了阻止其出台。这份准则应该不断更新,以适应技术和知识发展的要求。
「可信赖AI」的实现
这一部分为「可信赖AI」的实施和实现提供了指导,指出实现「可信赖AI」有哪些要求,在发展、部署、使用AI的过程中有哪些方法可以满足这些要求,从而充分利用由AI创造的机遇。
1.「可信赖AI」的要求
实现「可信赖AI」意味着需要在AI系统和应用的具体要求中加入一般、抽象的原则。以下是从ChapterI的权利、原则和价值观中衍生出的十条要求。这十条要求同样重要,但实施过程中需要考虑不同应用领域和行业的具体背景。
问责机制
数据治理
为所有人设计
人工智能自治的治理(人的监督)
非歧视
尊重(增强)人类自主性
尊重隐私
稳健性
安全
透明
《准则》还对每一项要求进行了进一步解释。例如,在「问责机制」这项要求中,《准则》指出,问责机制的选择可能非常多样,从金钱补偿到过失调查,再到没有金钱补偿的和解。如一个系统误读了药品报销申请,错误地决定不予报销,系统所有者可能会被要求做出金钱补偿。其他要求的详细内容请参考原文。
这一清单按字母顺序对要求进行排序,以表明所有要求同等重要。ChapterIII还提供了一份评估清单,以支持这些要求的实施。
2.实现「可信赖AI」的技术和非技术方法
为了满足上一节中提到的要求,开发过程的所有层面(包括分析、设计、开发和使用)都可以采用技术和非技术方法(参见图3)。对实施这些要求和方法的评估,以及对流程变化的报告和论证应该持续进行。事实上,考虑到AI系统不断发展,以及在动态环境中运行,实现「可信赖AI」可以看作一个持续的过程。
虽然这份准则中的方法列表并不详尽,但它旨在列出实施「可信赖AI」的主要方法。为了提高AI系统的可信度,这些方法应该基于第一章中定义的权利和原则。
图3显示了权利、原则和价值观对系统开发过程的影响。这些抽象的原则和权利被具体化为对AI系统的要求,该系统的实施和实现要由不同的技术和非技术方法支持。此外,考虑到AI技术的适应性和动态性,继续坚持原则和价值观要求将评估(evaluation)和论证(justification)流程作为开发流程的核心。
图3:通过系统的整个生命周期实现「可信赖AI」
欧盟《人工智能法案》:人工智能发展的紧箍咒还是拦路虎
0分享至张钦昱(中国政法大学教授、经济法研究所所长)全文3600余字,阅读约需7分钟随着技术进步,强人工智能系统已具有高度复杂的学习和决策能力,早就超出传统监管机构的理解和控制范围。2023年6月14日,《人工智能法案》授权草案在欧洲议会高票通过,正式进入最终谈判阶段。若成员国投票顺利,草案预计2024年生效。作为全球首部通过议会程序、专门针对人工智能的综合性立法,草案从安全、隐私、透明度以及非歧视等方面制定了缜密规则,将欧盟一直以来秉持的权利与价值观展现得淋漓尽致。《人工智能法案》授权草案以风险为逻辑主线,规定了严格的前置审查程序和履行合规义务,重点对具有高风险的人工智能产品和服务实施治理,要求人工智能公司对其算法保持人为控制,向监管机构提供技术文件,并为“高风险”应用建立风险管理系统。草案提出人工智能禁令,被禁止的风险分别包括利用人的潜意识、利用特定群体的脆弱性、社会信用分级以及实时的远程生物识别技术。其中,实时远程生物识别技术的禁用,意味着一般公司不得再利用人工智能技术在欧盟国家的公共场合进行人脸识别。此外,欧盟立法者对人工智能基础模型、可以构建其他人工智能系统的大型语言模型作出严苛的限制。法案特别加强惩罚力度,对于违法行为,可处以开发者高达全球年营业额的6%或4500万欧元的巨额罚款。《人工智能法案》授权草案在世界各国对人工智能监管日渐焦虑但举棋不定的情况下横空出世,不可阻挡地成为世界关注的焦点。无论其最终是否通过,授权草案将对欧盟和全球的人工智能产业的未来走势造成不可估量的影响。抛去繁杂的授权草案带来的直观冲击,思忖其底层逻辑,授权草案是否能如立法者预期般为人工智能上一个“紧箍咒”,还是会过犹不及成为科技创新的“拦路虎”?▌再次踏进同一条河流?《人工智能法案》从技术稳健性和安全性、隐私和数据治理、透明度、多样性、非歧视和公平以及社会和环境福祉出发,构建全面系统的诸项机制,并要求欧盟成员国设立监督机构,以确保这些规则得到遵守。这样面面俱到、无微不至的法案设计,在欧盟领域早已不是第一次,可从欧盟数字经济立法中,预演人工智能立法的后续影响。自1997年,欧盟陆续颁布数部法令,包括《欧盟电子商务行动方案》、《关于远距离合同订立过程中对消费者保护的指令》、《关于信息社会服务的透明度机制的指令》、《电子商务指令》以及《增值税指导》等,其中GDPR被称为“史上最严数据立法”,囊括了所有新数据保护所必须的相关要求,并建立了严格的处罚机制。欧盟对数字技术的立法启动早、义务规范全、责任约束严,但实践效果适得其反,对欧盟数字经济的发展产生冷却的意外后果。据统计,全球电子商务市场的13%属于亚马逊,而在亚洲和许多欧洲国家,市场份额被亚洲公司占据,尤其是阿里巴巴[1]。在欧洲主要电商平台中,美国亚马逊拥有11318万的月活跃用户,中国全球速卖通拥有7969万月活跃用户,均远高于欧洲活跃度最高的本土电商平台“OZON”的3725万[2]。企业合规耗费了欧洲本土电商公司过多的精力,令它们蒙受过重负担,导致欧盟电商的竞争力远低于中国和美国的竞争对手。无独有偶,我国在制定《电子商务法》时也遇到过类似问题。围绕《电子商务法》第38条第2款电子商务平台经营者应承担何种性质的安全保障义务,社会各界对电子商务平台经营者的义务强弱程度,我国在《电子商务法》中设立“电子商务促进”章节,奠定了保障电子商务各方主体的合法权益,规范电子商务行为,维护市场秩序,促进电子商务持续健康发展的基调,使得我国电子商务行业在受到基本监管的同时实现飞速,一跃成为全球最活跃的电子商务国家。在人工智能技术迅速发展的时代浪潮下,《人工智能法案》继承了欧盟对数字经济一贯的严格立法态度,从具体制度到处罚力度均体现出高压的一面。《人工智能法案》要求系统提供者和使用者都要遵守数据管理、记录保存、透明度、人为监管等规定,以确保系统稳定、准确和安全。还针对生成式人工智能设立专门监管制度,对人工智能生成的内容引入强制性标签,并强制披露受版权保护的训练数据。对于违反规定者,监管机构会迫使企业从市场上撤回应用程序,企业还可被处以高额罚款。可以预见,这部法案所带来的苛刻监管环境,或使得世界范围内最为先进的科技企业退出欧盟市场,将影响欧盟企业开发自己独特人工智能模型的能力,让欧盟企业无力追赶美国以及中国的竞争对手,影响欧盟在人工智能领域的话语权,其制定的人工智能标准也会失去实际效用。▌“新布兰代斯法学派”的翻版?《人工智能法案》作为世界范围内首份人工智能法案,强调人工智能规范的道德属性是其突出特点之一。法案明确指出,“促进以人为本和可信任人工智能应用,并保证对于健康、安全、基本权利、民主以及法治的高度保护”,“人工智能可能导致虐待和有害影响,应予禁止,因为违背了欧盟尊重人类尊严、自由、平等、民主和法治的价值观以及欧盟的基本权利,包括不受歧视的权利、数据保护和隐私以及儿童权利。”为追求欧盟价值观而制定的人工智能制度标准,是否有违技术中立的一般理念?正在发生类似巨变的美国反垄断法,可以给出上述问题的些许答案,并从中得到启示。美国反垄断的执法在经历哈佛学派(编者注:哈佛学派主张,为了保持有效竞争,获得令人满意的市场结果,必须运用竞争政策对市场结构和市场行为进行干预、调节)的检讨后,一直秉持芝加哥学派(编者注:芝加哥学派特别注重判断集中及定价结果是否提高了效率,而不是像结构主义者那样只看是否损害竞争,认为即使市场是垄断的或高集中寡占,只要市场绩效是良好的,政府规制就没有必要)与后芝加哥学派(编者注:后芝加哥学派主张在广泛的反垄断问题上采取更多的干预主义立场,例如掠夺性定价,搭售和纵向合并)。近年来,则有被新崛起的“新布兰代斯学派”取代的趋势。美国“新布兰代斯学派”将政治与反垄断挂钩,提出竞争政策应回应社会问题,意图对于科技巨头企业采取极为严厉的反垄断规制,以消除竞争损害,减少贫富差距。毫不夸张地说,“新布兰代斯学派”下的反垄断法逐渐沦为政客通过打压科技巨头,获取大量选票的工具。《人工智能法案》授权草案,或也成为一场表面风光的政治宣言。法案限制、禁止的人工智能系统的内容,部分仍然停留在原则层面,并不具有实际可操作性。例如,法案规定生成式人工智能系统要接受培训、设计、改善,以确保其生成的内容符合有关欧盟法律,但对改进行为、接受范围等并未进行具体规定。此外,欧盟《人工智能法案》仍然囿于传统监管思维,试图用行政之手暴力介入。例如,法案将人工智能系统按照现有使用方式分层监管,并在第69、71条指出,“应要求高风险人工智能系统的供应者在欧盟数据库中备案他们的高风险人工智能系统和基础模型。”应当看到,随着技术进步,强人工智能系统已具有高度复杂的学习和决策能力,早就超出传统监管机构的理解和控制范围。人工智能已然通过自我训练,实现技术的自主迭代。例如,OpenAI通过让模型与环境互动,自我生成并标记数据来训练模型,使得其可以不断地从自身经验中学习,提高其性能。监管强人工智能的最佳方法只能依靠发展更为强大的人工智能技术,就像现在的人工智能都是由人工智能训练一样,也应当用“魔法打败魔法”,即用人工智能监管人工智能。▌后发劣势陷阱?人工智能技术发展浪潮席卷全球,欧盟在此时制定《人工智能法案》,释放出欧盟正强化其在数字领域内建规立制的强烈信号,试图继续维持欧盟规范的“布鲁塞尔效应”(编者注:布鲁塞尔效应指欧盟凭借市场力量单方面监管全球市场的能力)。作为人工智能领域的追赶者,《人工智能法案》的急于出台,是为了未雨绸缪地添补后发劣势的陷阱,还是会就此陷入无法摘取人工智能发冠的长期劣势?数据显示,2019年美国人工智能风险投资和私募股权融资达到14345百万美元,大幅度领先欧盟的3207百万美元。2020年,美国获得超过100万美元的人工智能公司数量2130家,相比之下,欧盟仅有890家[3]。可以预料,在欧盟强监管理念的指引下,欧盟将很难拥有自己的明星企业,面临着沦为“全球互联网巨头数字殖民地”的危险。当前,人工智能技术发展仍处在探索期,距离成熟的人工智能技术还有很长的一段距离。技术创新和制度创新并不存在简单的因果和线性关系,两者需要注意平衡与衔接,方能彼此促进,实现科技的可持续发展。如果过早地约束技术研发和运用范围,反而会对实现创新和成熟应用人工智能技术造成不必要的束缚。正所谓,皮之不存毛将焉附?2023年4月11日,我国互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》,向社会公开征求意见。与欧盟相似,我国也站在人工智能领域立法的十字路口,在强化人工智能监管抑或放任其野蛮发展中踟蹰徘徊。鉴于欧盟数字经济领域的前车之鉴、授权草案过于价值观的宣传、人工智能技术发展的现实背景,我国立法者是否可以让子弹再飞一会儿,审慎决定我国人工智能的强化规制?我国可以静待欧盟《人工智能法》授权草案的不断修改演化、立法中演绎出的争议焦点与通过后的立法后评估,再以欧盟《人工智能法》为蓝本,统筹设计我国的人工智能立法。具体而言,面对如火如荼的人工智能产业,我国可采取“阶梯式”监管模式。在人工智能发展初期,制定以促进人工智能产业健康发展为主的监管条款,待我国人工智能发展较为成熟,充分了解其技术特点、潜在风险和社会影响后,制定更为精准和适应的监管政策。螺旋上升的立法模式可以平衡监管的紧迫性和技术发展的需求,也给予监管机构时间进行充分的研究,立足于我国数字经济发展的根本需要,在利益衡量的基础上,制定出更为系统和具有针对性的监管规则,构成我国特色人工智能治理方案。注释[1]《电子商务趋势报告:2022年行业状况》https://www.dataapplab.com/ecommerce-trend-report-the-state-of-the-industry-in-2022/,访问日期:2023年6月19日。[2]《2022年全球电商深度研究全球电商市场特点分析》https://www.vzkoo.com/read/2022102046dedd64ca3806ebde3f83fe.html,访问日期:2023年6月20日。[3]DanielCastroandMichaelMclaughlin:《WhoIsWinningtheAIRace:China,theEUortheUnitedStates——2021Update》,January2021,centerfordatainnovation.[3]DanielCastroandMichaelMclaughlin:《WhoIsWinningtheAIRace:China,theEUortheUnitedStates——2021Update》,January2021,centerfordatainnovation.特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.
/阅读下一篇/返回网易首页下载网易新闻客户端