博舍

欧洲议会批准《人工智能法案》 要求披露生成式AI训练数据版权 欧盟人工智能法案内容是什么意思

欧洲议会批准《人工智能法案》 要求披露生成式AI训练数据版权

当地时间6月14日,在法国斯特拉斯堡举行的欧洲议会全体会议上,议员参加了关于《人工智能法案》的投票会议。

当地时间6月14日,欧盟《人工智能法案(AIAct)》朝着成为法律的方向迈出重要一步:欧洲议会投票通过了该法案,禁止实时面部识别,并对ChatGPT等生成式人工智能工具提出了新的透明度要求。

《人工智能法案》现在将进入欧盟监管过程的最后“三部曲”阶段。官员们将尝试就这一法律草案与欧盟行政部门和成员国达成妥协,他们之间目前仍存分歧。如果该法案要在欧盟明年的选举前生效,则必须在明年1月完成立法程序。

“这一刻非常重要。”AccessNow布鲁塞尔办事处专注于人工智能的高级政策分析师丹尼尔·鲁弗(DanielLeufer)告诉《时代》,“欧盟所说的对人权构成不可接受的风险将被视为全世界的蓝图。”

欧盟批准的法律版本提出,任何应用于就业、边境管制和教育等“高风险”用例的人工智能都必须遵守一系列安全要求,包括风险评估、确保透明度和提交日志记录。该法案不会自动将ChatGPT等“通用”AI视为高风险,但对“基础模型”或经过大量数据训练的强大AI系统施加了透明度和风险评估要求。例如,基础模型的供应商,包括OpenAI、谷歌和微软,将被要求声明是否使用受版权保护的材料来训练AI。但是,没有类似的要求来声明是否在训练期间使用了个人数据。

这些规则如何运作?

欧盟《人工智能法案》于2021年被首次提出,将适用于任何使用人工智能系统的产品或服务。

该法案根据4个级别的风险对人工智能系统进行分类,从最小到不可接受。风险较高的应用程序,例如招聘和针对儿童的技术将面临更严格的要求,包括更加透明和使用准确的数据。

欧盟的主要目标之一是防范任何人工智能对健康和安全构成威胁,并保护其基本权利和价值观。

这意味着某些AI用途是绝对禁止的,例如根据人们的行为来判断他们的“社会评分”系统,以及利用弱势群体(包括儿童)或使用可能导致伤害的潜意识操纵的AI,比如鼓励危险行为的交互式对话工具。用于预测谁将犯罪的预测性警务工具也将被禁止。

此外,用于就业和教育等类别的人工智能系统会影响一个人的生活进程,将面临严格要求,例如对用户保持透明,并采取措施评估和减少算法带来的偏见风险。

欧盟委员会表示,大多数人工智能系统,如视频游戏或垃圾邮件过滤器,都属于低风险或无风险类别。

争论的一个主要领域是面部识别的使用。欧洲议会投票禁止使用实时面部识别,但仍存在是否应出于国家安全和其他执法目的而允许豁免的问题。另一项规定将禁止公司从社交媒体上抓取生物识别数据来建立数据库。

当天,欧洲议会的一群右翼立法者在最后一刻试图取消法案提议的实时面部识别禁令,但遭到立法者否决。

执行这些规则将取决于欧盟的27个成员国。监管机构可能会迫使企业从市场上撤回应用程序。在极端情况下,违规行为可能会被处以高达3000万欧元(约合3300万美元)或公司全球年收入6%的罚款,对于谷歌和微软等科技公司而言,罚款可能高达数十亿美元。

和ChatGPT有什么关系?

法案最初的措施几乎没有提到聊天机器人,仅要求对其进行标记,以便用户知道他们正在与机器进行交互。谈判人员后来增加了条款,以涵盖像ChatGPT这样广受欢迎的通用人工智能,使该技术满足一些与高风险系统相同的要求。

一个关键的补充是,法案要求彻底记录任何用于训练AI系统如何生成类似于人类作品的文本、图像、视频和音乐的版权材料。这将使内容创作者知道,他们的博客文章、电子书、科学文章或歌曲是否已被用于训练为ChatGPT等系统提供动力的算法。然后他们可以决定其作品是否可以被复制并寻求补偿。

一些担心人工智能模型带来安全风险的专家认为,该法案没有对人工智能系统可以使用的计算能力进行限制。随着每个新版本的发布,像ChatGPT这样的大型语言模型使用的计算量呈指数级增长,这将极大提高其能力和表现。“用于训练人工智能系统的计算越多,人工智能就会越强大。能力越大,风险和危险的可能性就越大。”人工智能安全初创公司Conjecture的战略和治理主管安德里亚·米奥蒂(AndreaMiotti)告诉《时代》。

米奥蒂指出,研究人员衡量系统总计算能力相对容易,因为用于训练大多数尖端AI的芯片是一种物理资源。

为什么欧盟的监管很重要?

《时代》指出,欧盟并不是尖端人工智能开发的重要参与者,这个角色由美国和中国扮演,但欧盟经常扮演引导潮水的角色,其法规往往成为事实上的全球标准,并已成为针对大型科技公司力量的先驱。

专家表示,欧盟单一市场规模庞大,拥有4.5亿消费者,这使得公司更容易遵守规定,而不是为不同地区开发不同的产品。通过为人工智能制定通用规则,欧盟还试图通过在用户中灌输信心来发展市场。

“这是可以强制执行的法规,公司将被追究责任这一事实意义重大”,因为美国、新加坡和英国等地仅提供了“指导和建议”,爱尔兰公民自由委员会的高级研究员克里斯·施里萨克(KrisShrisak)说,“其他国家可能想要适应和复制”欧盟规则。

其他一些国家也在加紧监管步伐。比如,英国首相苏纳克(RishiSunak)计划在今年秋天举办人工智能安全世界峰会。“我想让英国不仅成为知识的家园,而且成为全球人工智能安全监管的地理家园。”苏纳克在本周的一次技术会议上说,英国峰会将汇集“来自世界各地的学术界、商界和政府”人士,共同致力于“多边框架”。

艾达·洛芙莱斯研究所(AdaLovelaceInstitute)的代理主任弗朗辛·贝内特(FrancineBennett)告诉《纽约时报》:“快速发展和可迅速重新利用的技术当然很难监管,因为即使是开发该技术的公司也不清楚事情将如何发展。但如果在没有充分监管的情况下继续运营,对我们所有人来说肯定会更糟。”

然而,美国计算机与通信行业协会认为,欧盟应避免过于宽泛的监管,否则会抑制创新。该机构欧洲政策经理博尼法斯·德·尚普里斯(BonifacedeChampris)说,“欧洲的新AI规则需要有效解决明确定义的风险,同时为开发人员提供足够的灵活性来交付为所有欧洲人谋福利的人工智能应用。”

下一步是什么?

法案完全生效可能需要数年时间。下一步是涉及成员国、议会和欧盟委员会的三方谈判,在他们试图就措辞达成一致前可能面临更多变化。

鲁弗分析,在即将到来的三方对话阶段,代表成员国政府的欧洲理事会预计将强烈主张执法和边境部队使用的人工智能工具免于对“高风险”系统的要求。

法案预计将在今年年底获得最终批准,随后是企业和组织适应的宽限期,通常约为两年。但领导该法案工作的欧洲议会意大利议员布兰多·贝尼菲(BrandoBenifei)表示,他们将推动更快地采用生成式AI等快速发展技术的规则。

为了在立法生效前填补空白,欧洲和美国正在起草一份自愿行为准则,官员们在5月底承诺将在几周内起草该准则,并可能扩大到其他“志同道合的国家”。

欧洲议会通过《人工智能法案》草案

信息来源:广东省WTO/TBT通报咨询研究中心

2023年6月14日,欧洲议会以499票赞成、28票反对和93票弃权的压倒性结果通过了关于《人工智能法案》(AI法案)谈判立场,若通过立法,或成为全球首个关于人工智能的法案。

欧洲议会的投票是正式立法前的最后步骤之一,接下来将进入欧洲议会、欧盟成员国和欧盟委员会三方“谈判”阶段。新的法案将可能在2026年对相关公司产生影响。AI法案通过后,在极端情况下,违规公司可能被处以高达3000万欧元(合3300万美元)的罚款,或公司全球年收入的6%,也就是说对于谷歌和微软等大型科技公司而言,其罚款可能高达数十亿欧元。

被禁止的人工智能做法

AI法案遵循基于风险的方法,将AI及其相关应用划分为四种等级,分别为被禁止、高风险、有限风险以及低风险,并针对不同类型制定供应商和利用AI系统的一方相应的监管规则。AI法案将会禁止对人们安全带来不可接受程度的风险的AI系统,例如那些用于社交评分的系统(根据人们的社会行为或个人特征进行分类)。欧洲议会扩大了被禁止的人工智能做法清单,涵盖了禁止人工智能的侵入性和歧视性使用,如:

在公开可利用空间的“实时”远程生物识别系统;

“事后”远程生物识别系统,除非是用于起诉严重犯罪的执法行为,而且必须经过司法授权;

使用敏感特征(如性别、种族、民族、公民身份、宗教、政治倾向)的生物识别分类系统;

预测性警务系统(基于特征分析、定位或过去的犯罪行为);

执法、边境管理、工作场所和教育机构的情绪识别系统;

从互联网或闭路电视录像系统中无差别地采集面部图像,以建立面部识别数据库(侵犯人权和隐私权)。

高风险的人工智能

被欧洲议会列入高风险分类的应用涵盖对人们的健康、安全、基本权利或环境构成重大危害的AI系统。高风险列表中还包括:对选民和选举结果有影响的AI系统以及社交媒体平台(有超过4500万用户)使用的推荐模式。

通用人工智能的义务

欧洲议会也对通用AI提出了新的透明度要求——基于这些模型的生成型AI(例如ChatGPT)必须对AI生成的内容进行标注(明示内容是由AI生成的,也有助于区分所谓的深度造假图像和真实图像),并确保防止生成非法内容的保障措施,还需要对外公开提供其用于培训的有版权数据的详细摘要。

AI法案要求基础模型的提供者须评估和减少潜在风险(对健康、安全、基本权利、环境、民主和法治),并在欧盟市场上发布之前在欧盟数据库中完成其模型注册。

支持创新和保护公民的权利

为了促进AI创新和支持中小企业,欧洲议会增加了对研究活动和根据开源许可证提供的AI组件的豁免。

最后,欧洲议会希望鼓励公民对AI系统行使投诉权,并鼓励公民获得对基于高风险AI系统的决策的解释,该决策将对他们的基本权利带来重大影响。欧洲议会还改革了欧盟人工智能办公室,让其负责监督人工智能规则手册的实施情况。

看世界|欧盟《人工智能法案》进入最终谈判阶段

14日,欧洲议会全体会议表决通过了《人工智能法案》授权草案,该法案进入欧盟立法严格监管人工智能技术应用的最终谈判阶段。

欧洲议会当天投票决定禁止实时远程生物识别技术,如不能在公共场合进行实时人脸识别,并对ChatGPT等生成式人工智能工具增加更多安全控制措施,提出新的透明度要求,以确保人工智能的研发和应用符合欧盟权利和价值观。

据欧洲议会网站消息,欧洲议会“为制定史上首部人工智能法案已经做好谈判准备”。按照立法议程,欧洲议会将就这一授权草案与欧盟委员会和成员国进行“三方”谈判,欧洲立法者希望在今年年底前就法案的最终版本达成共识。

今年5月,欧洲议会内部的市场委员会和公民自由委员会通过欧盟委员会于2021年4月提出的《人工智能法案》提案的谈判授权草案。欧洲议会声明,这部提案如正式获得批准,将成为全世界首部有关人工智能的法规。

该法案将适用于在欧盟境内将人工智能系统投放市场或投入使用的实体(无论该实体是在欧盟境内还是在第三国)、在欧盟境内使用人工智能系统的实体以及在第三国使用人工智能系统但系统的输出用于欧盟境内或对欧盟境内人员产生影响的实体。

该法案草案的一个突出特点是注重基于风险来制定监管制度,以平衡人工智能的创新发展与安全规范。草案将人工智能风险分为不可接受的风险、高风险、有限的风险和极小的风险四级,对应不同的监管要求。其中高风险人工智能的使用必须受到严格监管,系统提供者和使用者都要遵守数据管理、记录保存、透明度、人为监管等规定,以确保系统稳定、准确和安全。对于违反规定者,草案设定了最高3000万欧元或全球年营业额6%的罚款。

最新草案严格禁止对人类安全造成不可接受风险的人工智能系统,包括部署潜意识或有目的操纵技术、利用人们弱点或用于社会评分的系统,并扩大了人工智能高风险领域的分类,将对人们健康、安全、基本权利或环境的危害考虑在内。草案还要求人工智能公司对其算法保持人为控制,提供技术文件,并为“高风险”应用建立风险管理系统,还针对ChatGPT等生成式人工智能设立专门监管制度。每个欧盟成员国都将设立一个监督机构。

此外,引进监管沙盒机制以管控风险和促进创新,在人工智能系统入市或投入使用前,对人工智能系统进行开发、测试和验证降低风险。最新草案文本还提出,这一机制同样被允许用于在现实条件下测试创新人工智能,以鼓励人工智能企业持续创新。

清华大学自动化系教授陶建华在接受记者采访时说,欧盟试图建立一个统一的人工智能法律监管框架,是全球人工智能发展进程中一个重要的标志性事例。其对人工智能进行有效法规约束的探讨和尝试都会产生全球性的影响,可能引发越来越多的国家尝试跟进相关法规的探索。

竞天公诚律师事务所合伙人袁立志认为,欧盟推动人工智能立法,有利于保护基本人权、维护欧盟在数字主权和科技领域的领导地位,并通过这样一部综合性立法抢占全球人工智能监管先机。但其本身具有局限性。它采用的是横向立法,并非针对特定人工智能应用领域,而是试图把所有人工智能都纳入监管范围,在执行层面将面临大量的解释问题。

陶建华指出,欧盟并未就人工智能技术可能会给人类带来什么样的影响形成共识。从辨证的角度看,人工智能既能造福和服务人类,但如若用之不善,也会给人类带来威胁或伤害。因此,如何平衡创新和约束是欧盟立法面临的一个非常重要的挑战。但在追求创新和管控创新可能带来的危害之间寻求一个有效平衡,很大程度上是使用者的问题。如何对使用者进行有效监管,也是欧盟人工智能立法面临的一大挑战。此外,统一的法律框架并未涉及具体的法律规范,因此实际的执行效果上可能会“大打折扣”。

全球数治|欧盟《人工智能法》的意义与缺陷

4月21日,欧盟委员会发布了《人工智能法》提案(以下简称《提案》)。该提案是欧盟首个关于人工智能的具体法律框架,目的在于化解人工智能风险,发展统一、可信赖的欧盟人工智能市场,保护欧盟公民基本权利。欧盟已意识到,鉴于目前尚未形成全球公认的人工智能治理规则框架,只有在欧盟层面采取共同行动,才能保护欧盟数字主权,并利用其监管权力塑造全球规则和标准。

不久前,美国布鲁金斯学会高级研究员马克·麦卡锡(MarkMacCarthy)和乔治敦大学欧盟法教授肯尼斯·普罗普(KennethPropp)共同撰写文章《机器们知悉欧盟制定了人工智能新法规》(MachineslearnthatBrusselswritestherules:TheEU’snewAIregulation),对欧盟《人工智能法》提案的内容予以评述,肯定欧盟制定人工智能治理规则的积极意义,并分析其对跨大西洋合作关系可能产生的影响。

马克·麦卡锡(MarkMacCarthy)和肯尼斯·普罗普(KennethPropp)认为,欧盟《人工智能法》提案主要特点在于设置了一种重视风险且审慎的监管结构,精细划分人工智能风险等级,并制定针对性的监管措施。人工智能系统被分为不可接受的风险、高风险、有限风险和极低风险四种类型。《提案》主要规制的是不可接受的风险和高风险。除非绝对必要,可能导致不可接受风险的人工智能系统和应用都将被禁用。高风险人工智能的使用必须受到严格监管,系统提供者和使用者都要遵守数据管理、记录保存、透明度、人为监管等规定,以确保系统稳定、准确和安全。对风险较小的人工智能系统,只需轻度监管。《提案》的主要创新在于:一、规定上市前合格性评估程序,以确定高风险人工智能系统是否符合法规要求。评估合格后才能出售和使用;二、要求建立专门的监测体系,以发现系统使用过程中的问题并减轻影响。

马克·麦卡锡和肯尼斯·普罗普对《提案》的适用范围、不可接受风险和高风险的具体规定、监管实施方式等也进行了评析。

首先,《提案》规定的法律适用范围十分宽泛。具有机器学习功能的软件系统、基于规则的人工智能算法、创建信用评分的统计技术等都属于人工智能范畴。只要人工智能系统产生的数据是供欧盟成员使用,或与欧盟公民有关,相关系统开发者、供应商和使用者就属于法律管辖的范围,无论他们身在世界何处。

按照《提案》规定,凡是使用人工智能系统或技术操控人类行为,对人类造成或可能造成身体、心理伤害,进而对公民的安全、正常生活和基本权力构成明显危险,即属于“不可接受的风险”,应被禁止使用,例如,禁止出于执法目的在公共场所使用实时远程生物特征识别系统,除非出于寻找失踪儿童、防止恐怖袭击等绝对必要的目的。

对于“人工智能高风险”,《提案》未进行明确定义,但将人工智能技术可能发生高风险的领域划分为八类:关键基础设施、公民教育、产品的安全组件、公民就业、公共服务、公共执法、出入境问题、司法和民主进程,并强调所有远程生物识别系统都应被划入高风险范围。同时,《提案》还规定了高风险人工智能系统在投放市场前和使用过程中应严格履行并接受审查的义务。系统提供者必须:1、创建适当的数据管理办法;2、向系统提供准确、完整的数据集;3、向政府当局提供证明系统符合相关要求的技术信息;4、向用户提供透明、清楚的信息,使用户充分了解系统如何运作;5、采取适当的人为监督措施;6、避免让人类用户过度依赖系统输出,即“自动化偏见”;7、系统具有高等级、可持续的安全性和准确性。同时,高风险人工智能系统提供者必须接受完备的上市前合格性评估。在高风险人工智能系统出售或投入使用后,供应商还要建立相应监测系统。对于投入使用后仍在继续学习和更新的系统,如构成对系统的实质性修改,则需接受新的评估。

《提案》要求各成员国主管市场监管的机构负责监督人工智能新法规实施。今后,欧洲数据保护委员会和各成员国还将指派代表,在欧盟委员会的组织下成立欧洲人工智能委员会,主导欧盟人工智能治理,促进监管规则实施,推动标准制定,发布关于实施法规的意见和解释性指导,并协调各成员国确保规则的一致使用。

《提案》还规定了较以往更严格的惩罚措施。市场监管机构有权要求相关经营者纠正违规行为。若未在期限内纠正,市场监督机构有权禁止或限制人工智能系统的销售,将其撤出市场或召回。对于违规者最高可处3000万欧元的行政罚款。如违法者是企业,最高还可处其上一财政年度营业额6%的罚款。

马克·麦卡锡(MarkMacCarthy)和肯尼斯·普罗普(KennethPropp)还指出,尽管《提案》规则繁复而精细,但仍然存在着明显缺陷。首先,《提案》有不少关于“算法偏见风险”的描述,但对于此类风险评估和防止的规定却十分薄弱和模糊。这可能致使很多大型高科技公司不受实质影响。除了广告跟踪和推荐引擎中使用的某些算法被作为操纵性或剥削性行为而受到禁止,《提案》并未将社交媒体、搜索、在线零售、应用商店、移动应用等所使用的算法确定为高风险。其次,《提案》关于信息披露的规定也不够到位。在与人工智能系统“互动”过程中,人们的情绪、性别、种族、民族或性取向等信息会被人工智能系统“识别”,以及当“深度伪造”系统被人为操纵时,受影响的人们必须得到信息披露,除上述情况外,诸如当人们被算法排序以确定获得公共福利、信贷、教育或就业资格等情况时,就不会被告知相关信息。此外,《提案》对人工智能系统上市前合格性评估程序的规定比较笼统,监管效果可能打折扣。随着欧盟立法程序的推进,这些缺陷需要被重新审视。

在对《提案》解读的基础上,马克·麦卡锡(MarkMacCarthy)和肯尼斯·普罗普(KennethPropp)进一步分析了《提案》对跨大西洋合作关系可能产生的影响。他们认为,相比欧盟致力于在联盟层面统一立法,美国对人工智能的监管仍处于“碎片化”状态。特朗普政府时期直接将人工智能监管责任下放给不同监管机构。拜登政府或许会更重视此问题,以避免潜在风险,但基本上还是会采取分散型监管方式。联邦层面仍然缺乏统一立法。类似欧盟这种基于风险分类的整体型监管模式不太可能被采纳。

尽管如此,美国和欧盟在人工智能治理上仍有合作空间。欧盟委员会提出的跨大西洋合作蓝图,其中重要内容就是成立贸易与技术委员会,以及制定人工智能方面的合作协议。一旦欧盟的高风险人工智能系统标准出台,美国可以选择与欧盟协商,寻求相关制度接轨,进而允许美国高科技公司在美国政府监管下进行人工智能系统合格性评估;双方也可以考虑相互承认对方的合格性评估结果;美国各专门机构在制定人工智能监管规则时,或可参考欧盟法规内容,并通过政府间对话推动形成共识。

最后,马克·麦卡锡(MarkMacCarthy)和肯尼斯·普罗普(KennethPropp)指出,欧盟《人工智能法》提案作为2020年《欧盟人工智能白皮书》具体落实的关键一步,反映出欧盟积极创建面向未来的全球数字治理新规则的雄心。虽然前景未知,但欧盟的立法实践本身就具有积极意义,对相关领域国际规则制定有一定参考价值。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇