博舍

人工智能监管:OpenAI负责人在听证会呼吁监管受美国立法者称赞 人工智能监管立法

人工智能监管:OpenAI负责人在听证会呼吁监管受美国立法者称赞

图片来源@视觉中国

文|InternetLawReview,作者|张颖

2023年5月16日,OpenAI公司首席执行官SamAltman参加了美国参议院司法隐私和技术小组委员会组织的题为“人工智能监管”的听证会,与另外两名人工智能专家——IBM首席隐私和信任官ChristinaMontgomery、纽约大学名誉教授GaryMarcus——一同就美国应如何监管人工智能技术作证。

三个小时的听证会涉及生成式人工智能给社会带来的诸多风险:就业、错误信息、知识产权、隐私、安全、偏见和歧视等。与大多数听证会一样,会议提供的问题多于答案;但与大多数国会就CEO组织的听证会不同的是,参议员提问的整体基调是礼貌的,而非严厉的盘问。民主党和共和党议员们都表示,他们有兴趣寻求Altman的专业知识来避免尚未发生的问题。

由于OpenAI在人工智能技术领域所处的领先地位,以及国会议员“虚心”请教的姿态,这场听证会所传达出的信息尤为重要,可能透露了一些未来美国甚至是全球人工智能监管趋势。

普遍承认人工智能的危险性并需要监管

行业高管呼吁监管令立法者满意

当被问及对AI最担心的事情时,OpenAI公司首席执行官Altman大多回避了细节,但表达了该行业可能会“对世界造成重大伤害”,如果这项技术出了问题,它可能会“大错特错”。

Altman在听证会上提议:应该由一个新的监管机构实施保障措施,以阻止可能“自我复制和自我渗透”的人工智能模型。他暗示了对可能操纵人类放弃控制的先进人工智能系统的担忧。

Altman认为,政府的监管干预对于减轻日益强大的模型的风险至关重要,这种开放态度受到了多位立法者的赞扬。其中,康涅狄格州民主党主席理RichardBlumenthal说起Altman与其他大型科技公司CEO不同的作风,认为他有参与和承诺采取具体行动的意愿,与其他大型科技公司CEO阳奉阴违的方式非常不同,“非常真诚”。

据悉,Altman计划本月开始全球巡回演讲,前往六大洲的国家首都和主要城市,与决策者和公众讨论这项技术。Altman表现出“拥抱监管”的态度成就了一种独特的“魅力”,或将与其产品ChatGPT一道席卷全球,这无疑将减少OpenAI在全球运营中所受的监管阻力。

参与这场听众会的行业领导者都表示,他们欢迎政府部门对AI技术在某种形式上的监督:

Altman:建议建立一个以人工智能为重点的国际机构,例如联合国的核监管机构;Marcus:建议建立一个新的内阁级别的联邦机构,对人工智能技术进行类似食品和药物管理局那样的安全审查;IBM的Montgomery:建议国会采取“精确监管”的方式,通过制定规则来管理人工智能特定用途的部署,而不是技术本身。

美国立法者坚持要求人工智能平台对其内容负责

美国两党参议员都反复将AI的风险与社交媒体的风险进行比较,同时承认AI具有更快的速度、更大的规模和不同种类的危害,同时表示,人工智能监管不应重蹈国会在社交媒体时代初期犯下同样的“错误”。

立法者没有就人工智能技术监管提出具体的建议,但数次提到美国《通信规范法》第230条——该法律二十多年来一直是互联网平台的“免责盾牌”,用以驳回就其用户言论或内容审核决定的诉讼。而这目前被立法者认为是其在早期的互联网时代所犯下的“错误”之一,因此他们认为,人工智能公司应当提前思考并对其业务决策的后果负责,而这可能是最强大的监管工具。

人工智能造成的版权问题应该用利益分配来解决

一些立法者质疑使用受版权保护的材料来训练人工智能生成新作品的法律问题。这也是美国作家协会罢工中的一个原因——内容创作者普遍对这项技术对保护其知识产权的意义表示担忧。

有议员向Altman提问,人工智能公司在使用受版权保护的作品或使用他们的声音和肖像之前是否应该征得艺术家的同意;也有议员提议,立法应允许报纸和电视台与科技巨头共同谈判内容交易。

对此,Altman在没有提供任何细节的情况下,就似乎与立法者达成了一致意见。Altman认为,不管法律如何,内容所有者需要从新技术中获得显著的收益:

我们认为内容创作者、内容所有者需要从这项技术中受益。究竟经济模式是什么,我们仍在与艺术家和内容所有者讨论他们想要什么。我认为有很多方法可以做到这一点。但很明显,现在不管法律是什么,正确的做法是确保人们从这项新技术中获得显着的收益。我们相信它真的会实现这一点,内容所有者、肖像、人们完全应该控制它的使用方式并从中受益。

AI生成的虚假信息及其对美国选举的影响

聊天机器人非常擅长模拟人类的演讲和写作。而2024年美国大选在即,议员们当然非常关注人工智能技术在2024年选举周期中影响人们意见的能力,他们询问专家,生成式人工智能是否可用于针对犹豫不决的选民?

Marcus也提醒议员:目前美国所有的任何人工智能公司,都有可能被其他公司所收购或控制,而这些人工智能系统在塑造我们的观点和生活方面所拥有的力量非常重要,应当警惕其被用于各种不良目的的风险。

当Altman被问及“虚假信息”的问题时,他没有否认或逃避,而是承认这些模型能更普遍的操纵和说服人类,且拥有提供某种一对一虚假信息的能力。

对此问题应如何解决,Altman在陈述中强调了“全社会的方法”和“与政府合作”,隐含了这样的观点——人工智能公司不能也不应当为“虚假信息”负全责,如何限制用户的不正当使用,更多应当是政府和用户本人的责任:

产生内容只是虚假信息生命周期的一部分;虚假或误导性的信息还需要传播才能造成重大伤害。我们将继续探索在整个虚假信息生命周期方面与行业研究人员、政府的合作关系。

暂停人工智能开发被视为不现实

值得注意的是,这次参与听证会作证的人工智能专家之一GaryMarcus,曾参与并签署了呼吁科技公司暂停开发更强大的人工智能模型的公开信。

Altman虽然赞同那封公开信的部分内容,但表示,迭代发布比暂停更好,因为“秘密构建一个超级强大的AI系统,然后一次性将它投放到世界上,不会很顺利”。

但来自监管者的意见更有代表性。民主党议员RichardBlumenthal在听证会开场时就表达了他对生成式人工智能充满了担忧和戒备,还特别列举了一个关乎国家安全和意识形态的例子。不过,对于是否应当继续发展人工智能的问题,Blumenthal却说,试图阻止人工智能的发展是没有意义的,“世界不会等待,全球科学界的其他成员也不会停下来。我们的对手正在前进,把头埋在沙子里不是答案。”

“国家安全问题”并没有正式进入这次听证会的讨论中,但在结束之时议员表达了该问题“非常真实和紧迫”,需要另行讨论。显然,国家安全,既是美国人工智能监管需要对付的重大问题,同时也是人工智能开发必须进行下去的最大动因。

附录:SamAltman在国会听证会中声明的关键点

1.AI的潜力:Altman相信AI有潜力改善我们生活的几乎每个方面,从生产力到创造性工作,再到应对气候变化和癌症等重大挑战。他用印刷机的变革性影响做了一个类比。

2.OpenAI的使命和结构:OpenAI由非营利组织管理,其活动由致力于确保AI利益的广泛分配和安全性最大化的使命和章程驱动。他们的目标是构建可以为人类做出重大贡献的工具。

3.安全与责任:在发布任何人工智能系统之前,OpenAI都会进行广泛的测试,聘请外部专家进行审计,改进模型行为,并实施稳健的安全措施。Altman强调,对于他们的最新模型GPT-4,他们花了六个多月的时间进行评估和测试。

4.监管和与政府的合作:Altman认为,政府的监管干预对于减轻日益强大的人工智能模型的风险至关重要。他提出了对超过特定能力阈值的AI模型的许可和测试要求的组合。Altman表示愿意与各国政府合作制定和更新安全措施,并探索全球协调的机会。

5.对AI的焦虑:Altman承认许多人对AI可能如何改变我们的生活感到焦虑。他认为,必须共同努力来识别和管理潜在的不利因素,以便我们都能从中受益。

6.民主价值观的重要性:Altman强调在开发强大的人工智能时应牢记民主价值观,强调美国在这一领域的领导地位的重要性。

7.展望未来:Altman对减轻人工智能风险的能力表示乐观,并相信它有潜力促进美国和世界经济的发展。他期待与利益相关者合作,迎接这一技术时刻的挑战和机遇。

十项建议解读欧盟人工智能立法新趋势

中国信息通信研究院与腾讯研究院AI联合课题组

作者:曹建峰 腾讯研究院法律研究中心研究员

各国纷纷关注人工智能伦理和法律问题

   2016年以来,人工智能不仅受到科技公司热捧,人工智能在智力游戏、自动驾驶、语音和图像识别、翻译等诸多领域取得重大突破,谷歌、脸书、微软等科技巨头收购人工智能创业公司的速度已经快赶上这些公司的创立速度。而且,各国政府(比如美国、英国等)以及一些社会公共机构(比如UN、IEEE等)开始积极关注人工智能的法律、伦理、社会、经济等影响,密集出台战略文件和报告。

   在人工智能法律和伦理研究方面,以UN和IEEE最为突出。2016年8月,UN下属COMEST(科学知识和科技伦理世界委员会)发布《机器人伦理初步报告草案》,认为机器人不仅需要尊重人类社会的伦理规范,而且需要将特定伦理准则编写进机器人中。[1]2016年12月,IEEE发布《合伦理设计:利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景(第一版)》,就一般原则、伦理、方法论、通用人工智能(AGI)和超级人工智能(ASI)的安全与福祉、个人数据、自主武器系统、经济/人道主义问题、法律等八大主题给出具体建议。[2]

欧盟快人一步

开始考虑人工智能民事立法

   欧盟走得更远,开始考虑针对机器人和人工智能出台民事法律规则,并为人工智能研发和审查人员制定伦理守则,确保在整个研发和审查环节中,将人类价值予以考虑,使最终面向消费者和社会的机器人能够符合人类利益。

   早在2015年1月,欧盟议会法律事务委员会(JURI)就决定成立一个工作小组,专门研究与机器人和人工智能发展相关的法律问题。2016年5月,法律事务委员会发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》(DraftReportwithRecommendationstotheCommissiononCivilLawRulesonRobotics,简称《报告草案》);同年10月,发布研究成果《欧盟机器人民事法律规则》(EuropeanCivilLawRulesinRobotics)。

   在这些报告和研究的基础上,2017年1月12日,法律事务委员会以12票赞成、2票反对、2票弃权,通过一份决议(resolution),在其中提出了一些具体的立法建议,要求欧盟委员会就机器人和人工智能提出立法提案(在欧盟只有欧盟委员会有权提出立法提案)。当然,欧盟委员会并无义务遵守这一要求,但如果其拒绝这么做,就必须陈述其理由。[3]2017年2月16日,欧盟议会以396票赞成、123票反对、85票弃权,通过这份决议。[4]可以预见,推进人工智能法律和伦理研究,包括可能的立法和监管措施,未来将成为欧盟立法议程的一个核心。

法律事务委员会提出多项立法建议

   1、成立欧盟人工智能监管机构

   人工智能的发展将会带来很多新问题。法律事务委员会呼吁成立一个专门负责机器人和人工智能的欧盟机构,负责就技术、伦理、监管等问题提出专业知识,以更好抓住人工智能的新机遇,并应对从中产生的挑战。

   考虑到人工智能的当前发展和投资,需要给予这一新机构充分预算,配备监管人员以及外部的技术和伦理专家,对人工智能应用开展跨领域、跨学科的监测,确认行业最佳实践,并适时提出监管措施。

   2、需要人工智能伦理准则

   人工智能虽然可能赋能于人,带来效率的提高;但是,相伴而来的人类安全、隐私、尊严、正义、自治、数据所有权等风险,却也不容忽视。因此,在机器人和人工智能的设计、研发、生产和利用过程中,需要一个指导性的伦理框架,确保其以符合法律、安全、伦理等标准的方式运作。比如,机器人设计者应当考虑一个“一键关闭”功能,以便可以在紧急情况下将机器人关闭。

   在其《报告草案》中,法律事务委员会提出了所谓的“机器人宪章”(CharteronRobotics)。这一宪章针对人工智能科研人员和研究伦理委员会(REC),提出了在机器人设计和研发阶段需要遵守的基本伦理原则。对机器人科研人员而言,诸如人类利益、不作恶、正义、基本权利、警惕性、包容性、可责性、安全性、可逆性、隐私等都是需要认真对待的事项。

   此外,需要伦理审查委员会对人工智能设计和研发进行把关,确保机器人符合人类社会的伦理、法律等规范;这个委员会应当是跨学科的,同时吸纳男性和女性参与者。

   3、重构责任规则:强制保险机制和赔偿基金

   自动驾驶汽车、工业机器人、护理机器人等类型的人工智能产品可能完全或者部分脱离人类的控制,在这些人工智能产品具有自主学习、判断和完善的能力的情况下,一旦对人类和财产造成损害,其设计者和开发者是否应当承担严格责任,抑或承担有限责任?当具有自主学习能力的人工智能系统造成损害,让其设计者和开发者承担责任可能遭遇原因力(因果关系)和可预见性这两大难题,这给既有的民事侵权责任规则带来了挑战。

   对此,法律事务委员会提出了两个建议:

   第一个建议是,对机器人适用强制保险机制,这类似于针对机动车的强制险,由机器人的生产者或者所有者负责购买,以便对机器人造成的损害进行责任分配。

   第二个建议是,设立赔偿基金;这一制度有两大目的,其一,对强制险未予覆盖的损害进行赔偿,其二,让投资人、生产者、消费者等多方主体参与这一机制,从而形成赔偿基金。

   4、长期来看,考虑赋予复杂的自主机器人法律地位(电子人,electronicpersons)的可能性

   界定监管对象(即智能自主机器人)是机器人立法的起点。对于智能自主机器人,法律事务委员会提出了四大特征:(1)通过传感器和/或借助与其环境交换数据(互联性)获得自主性的能力,以及分析那些数据;(2)从经历和交互中学习的能力;(3)机器人的物质支撑形式;(4)因其环境而调整其行为和行动的能力。

   此外,应当提出机器人分类标准,并建立高级机器人登记制度,目的在于实现可追溯性,并促进进一步推荐性规范的落实。

   在主体地位方面,机器人应当被界定为自然人、法人、动物还是物体?是否需要创造新的主体类型(电子人),以便复杂的高级机器人可以享有权利,承担义务,并对其造成的损害承担责任?未来,随着更复杂的机器人的出现,需要就机器人的法律地位问题展开更多探讨。

   5、知识产权方面,明确人工智能的“独立智力创造”(ownintellectualcreation)

   第一,法律事务委员会建议欧盟委员会就与软硬件标准、代码有关的知识产权提出一个更平衡的路径,以便在保护创新的同时,也促进创新。

   第二,对于计算机或者机器人创作的可版权作品,需要提出界定人工智能的“独立智力创造”的标准,以便可以明确版权归属。

   6、注重隐私和数据保护

   在针对人工智能和机器人制定政策时,应当按照必要性原则和比例原则,保障隐私和数据保护。在这一方面,需要进一步完善通过设计保护隐私(privacybydesign)、默认保护隐私(privacybydefault)、知情同意、加密等概念的标准。

   此外,当个人数据成为“流通物”,各种服务可以就其进行交易,更频繁的数据流动将成为可能,这可能带来数据所有权等需要明确的新问题。需要特别强调的是,将个人数据作为“流通物”使用,在任何情况下都不得规避涉及隐私和数据保护的基本原则。

   7、推进标准化工作和机器人的安全可靠性

   一是标准化,国际层面,欧盟委员会应继续致力于技术标准的国际统一,欧盟层面,需要建立相应的标准化框架,以免造成欧盟各成员国之间标准的不统一以及欧盟内部市场的分裂。

   二是机器人的安全可靠性,在现实场景中测试自动驾驶汽车等机器人技术,对于识别和评估其潜在风险是至关重要的。

   8、针对具有特定用途的机器人和人工智能出台特定规则

   法律事务委员会呼吁就特定类型的机器人出台特定监管规则,也即,进行特殊立法。需要采取特殊立法的机器人类型包括,自动驾驶汽车、护理机器人、医疗机器人、无人机、人类修复和增强(humanrepairandenhancement,即,为修复和补足受损器官和人体功能而存在的机器人)。

   9、关注人工智能的社会影响

   机器人和人工智能的发展将导致重大社会变革,诸如工作岗位和结构的变迁、人机交互对人类道德的影响(比如护理机器人和被看护者之间的情感关系)、教育等。法律事务委员会督促欧盟委员会密切追踪这些趋势,包括新的就业模式、税收和社会系统(比如收入分配制度)的可行性等。

   10、加强国际合作

   当前,机器人和人工智能在全球都是热点中的热点,被推到了投资和创业的风口浪尖。在这样的背景下,加强国际合作是十分可取的,一方面,诸如《维也纳道路交通公约》《海牙交通事故公约》等相关国际协议需要修改,另一方面,需要针对机器人和人工智能寻求并确立新的国际标准,以促进其更好地造福于人类。

人工智能成为公共政策焦点议题

   当前,人工智能不仅是以互联网为首的产业界竞相追逐的对象,而且是世界范围内的公共政策热议的焦点。无论是产业界领袖发出生存危机等担忧,还是政府针对人工智能的法律、伦理、社会影响等问题频发官方报告,抑或是学术界对人工智能歧视、偏见、不公正、责任等问题的热议,都足以表明,人们在人工智能第三次发展浪潮之际,对人工智能对人类社会影响的担忧几乎超过了对以往任何科技(包括原子核技术)的担忧。

   2017年1月,人工智能研究机构FutureofLifeInstitute召集人工智能、法律、伦理、哲学等领域众多专家和学者召开2017阿西洛马会议(2017Asilomarconference),并形成了23条AI原则,作为AI研究、开发和利用的指南,截至目前,已经有接近1000名人工智能研究人员为这些原则背书。[4]而在此前,美国白宫、英国、IEEE、斯坦福大学(即AI100)等都尝试出台AI指南,确保人工智能以符合人类社会规范的方式运作,并服务于人类利益。此外,政府和企业背书并提供研究资金支持的人工智能法律、伦理等研究项目也在不断增多。如前所述,欧盟等国家和地区针对机器人、人工智能或者自动驾驶汽车、无人机等特殊人工智能系统的立法和监管也在紧锣密鼓地进行着。

   国外和国际上所有这些讨论、研究、指南和立法都有助于帮助人们更好地认知人工智能技术对诸如法律、道德、价值、税收、收入分配、教育、就业等人类社会制度的影响,但是,正如对所有新兴技术的恐慌和担忧一样,对人工智能的担忧和规制也不能走过了头,以免法律等规则成为阻碍人工智能创新和发展的桎梏。在这方面,美国白宫的人工智能报告就明智地认识到,现在就对人工智能进行广泛的监管是不可取的,一方面,没必要进行激进的监管变革,另一方面,在必要性的前提下,以及在充分考虑人工智能的影响的基础上,对人工智能进行渐进式监管。

[1]http://www.unesco.org/new/en/media-services/single-view/news/unesco_science_experts_explore_robots_rights/

[2]http://mp.weixin.qq.com/s/2ElkNUeAdN9HAVFsUhewxQ

[3]http://www.europarl.europa.eu/news/en/news-room/20170110IPR57613/robots-legal-affairs-committee-calls-for-eu-wide-rules

[4]http://www.europarl.europa.eu/news/en/news-room/20170210IPR61808/robots-and-artificial-intelligence-meps-call-for-eu-wide-liability-rules

[5]https://futureoflife.org/ai-principles/

董规|欧盟发布人工智能监管框架,全球最严立法强化AI监管

近年来在数字技术监管领域走在全球前列的欧盟,又祭出了在人工智能监管上的立法新举措。

4月21日,欧盟委员会提出了一项旨在加强人工智能(AI)技术监管的法规草案。这项草案拟创建一个所谓“AI高风险应用场景”的清单,对AI技术在关键基础设施、大学招生、申请贷款等被认定为“高风险”应用领域的开发和使用制定新的标准,并进行有针对性的监管。根据这项法规,欧盟监管机构将有可能对违规公司最高处以相当于其全球年销售额6%的罚款。

这一监管法案的全名为“制定关于人工智能的统一规则,并修订部分欧盟法条”(LayingDownHarmonisedRulesonArtificialIntelligence(ArtificialIntelligenceAct)AndAmendingCertainUnionLegislativeActs)。法案的草案仍需经过欧洲议会和欧洲理事会的审议批准,其正式生效可能需要数年时间。

如果一切按计划进行,那么欧盟居民将在两年后受到法律保护,不受某些最具争议性的人工智能(AI)应用的影响,这类应用包括街头摄像头识别和追踪个人,或者政府电脑对个人行为打分。

欧盟方面本周公布相关计划,拟成为全球首个就如何使用人工智能出台规则的大型司法管辖区。此举意在将欧洲价值观置于这项快速发展技术的中心。

欧盟妄求保护居民

不受高风险AI技术的影响

根据这一提案,AI应用场景将被分为不同的风险等级加以监管,少量被认定为“高风险”的场景将直接禁止AI技术的使用,譬如政府的社会征信系统(socialcreditsystems),以及被认为使用了“潜意识技术”(subliminaltechniques)或“能够扭曲一个人的行为、对其造成生理或心理伤害”的应用场景。

对于警方、雇佣单位、大学院校等有可能因AI技术的使用造成偏见、歧视等不公平的机构,则将被限制使用人脸识别等AI技术。

譬如,对警方而言,原则上他们将被禁止在公众场合使用包括人脸识别在内的所谓“生物特征远程识别系统”。但法官可以在特殊情况下批准豁免,比如需要用AI技术来寻找被绑架的儿童、阻止恐怖袭击、确定一些犯罪嫌疑人的位置等等。

在欧盟内部被誉为“反垄断女沙皇”的欧盟委员会执行副主席玛格丽特·维斯塔格(MargretheVestager)在发布会上称,新的监管措施将致力于解决AI技术在实际应用中给人类及社会发展带来的风险。“我们认为这很紧急。我们是这个星球上第一个提出这一法律框架的。”

按照这一立法框架,被归为所谓“高风险”应用场景的AI系统的提供者,未来还需为他们的系统如何运转提供详细的说明文件,以确保合规。

维斯塔格称,应用于“高风险”领域的AI系统未来将必须证明,这些系统无论在设计上还是使用上都有着“恰当程度的人工监督(humanoversight)”。此外,用于训练AI程序的数据也将必须遵守特定的数据质量要求。

尽管对于“高风险”应用的监管将更趋严苛,欧盟方面表示,新法案对于视频游戏、垃圾邮件分类等大部分常用的AI系统并不会产生新规则。

不过,类似“聊天机器人”(charbot)这样的低风险AI应用未来也需要明确告知用户:对方不是真人。维斯塔格解释称,“这样做的目的是要毫不含糊地让用户知道,他们正在跟一台机器互动。”近年来走红网络的换脸APP等Deepfake软件,也将需要标注类似的标签。

在正式立法之前,该法案的草案还须经历漫长的审批流程,并且内容可能会有修改。通常,类似的法律框架必须被代表27个成员国政府的欧洲理事会、以及直选的欧洲议会分别批准后,才能正式立法,过程可能需要好几年的时间。

草案与《通用数据保护条例》(GDPR)对比

2018年5月生效的GDPR号称“最严数据法”,自欧盟提出后亦为美国的一些州政府以及其它一些国家所借鉴,其细致严苛的条例和巨额罚款成为不少国家和地区在制定通用准则时参考的模板。

因此,一些业内人士比照GDPR的效应认为,一旦上述AI监管法案通过生效,其或将在很大程度上成为全球其它地区治理和监管AI技术的参考对象。

GDPR让我们看到,欧盟规则的影响力实际上延伸到了世界各个角落,给全球其它国家带去压力,迫使它们寻求新的、更高要求的国际标准。他称,“对于AI的监管,我们同样可以期待这个(后续影响)。这只是一个开始。”

伦敦大学学院(UniversityCollegeLondon)计算机科学荣誉副教授、曾在谷歌担任科学家的JulienCornebise则认为,新的AI法规未必能够拥有与GDPR同等级的广泛影响力,原因是AI的定义十分宽泛。“我们的手机现在每天都在做着20年前可能被视为‘AI’的事情,”因此,他认为,人工智能技术就像“移动的球门柱”,此次欧盟提出的监管规则存在诸多晦涩不明的风险,“要么迷失在(AI的)定义里,要么可能迅速过时。”

不少数字权利运动人士也认为,尽管他们欢迎提案中的部分内容,有些内容目前仍然显得过于模糊,并且提供了太多可以被利用的漏洞。

譬如,对于豁免的规则,非政府组织“欧洲数字权利”高级政策顾问SarahChander认为,草案规定的可豁免的用途范围过于宽泛,这样一份豁免清单某种程度上“违背了所谓‘禁令’所要实现的目的”。

一些科技行业的游说者则为草案内容没有比他们想象的更严厉而长舒一口气。代表Facebook、亚马逊、谷歌等多家美国科技巨头在欧洲进行游说的“计算机与通信行业协会”(Computer&CommunicationsIndustryAssociation)布鲁塞尔办公室负责人ChristianBorggreen表示,欧盟委员会采取这种“基于风险的监管办法”(risk-basedapproach)是积极的。

不过,也有欧洲产业界人士担忧,由于中国的科技公司无需面临这样严厉的规则,欧盟提出的这一法律框架或将给中国公司在全球竞争中带来更多优势。

与欧洲科技产业有结盟关系的智库“数据创新中心”(CenterforDataInnovation)高级分析师本杰明·穆勒BenjaminMueller就认为,欧盟收紧监管将进一步推高在欧洲打造AI的成本,使其变得“难以承受的高昂(prohibitivelyexpensive),甚至技术上不可行”。穆勒称,美国和中国将“兴致勃勃地看着欧盟亲手扼杀自己的初创公司”。

不但新规提出的罚款力度几乎已经达到欧盟反垄断罚款中最严苛的水平,AI技术的使用者未来还要在实际操作中确保合规——这不但需要很多费用,还需要投入大量人力。

他认为,欧盟委员会应当在未来几个月听取AI技术开发者和使用者的意见,让法案中的规定能够真正实现监管目标,并且继续细化其中一些含糊的概念;而对于技术使用者,新规将迫使他们“从根本上重新思考应当如何设计AI、以及如何采购AI”。

过去几年,AI技术发展迅猛,有关技术安全及伦理的讨论亦日趋激烈。对于此次欧盟提出的AI法规,企业界褒贬不一。一些科技公司负责人认为,欧盟的强监管不但将推高商业成本,还可能扼杀创新和企业潜力。但也有人认为,目前针对数据隐私、技术滥用,尤其人脸识别等AI技术领域的争议声越来越大,更强的监管规则有助于巩固公众对AI的信任。

美国禁止市政使用人脸识别

防止权力滥用

目前,全球已有多座城市立法限制与AI相关的技术滥用。一向以科技领先著称的美国旧金山市,早在2019年便立法禁止当地警方及其他市政机构使用面部识别技术,以防侵犯个人隐私等。

作为美国首个禁用人脸识别技术的城市,旧金山此举或影响美国其他地区和联邦政府部门,在尚不完善的人脸识别规范立法领域进一步采取行动。

2019年5月14日,旧金山市的立法机构监事会(BoardofSupervisors)以8票对1票的压倒性结果通过了“停止秘密监视条例”。旧金山监事会还将于下周进行形式性的第二次投票,法案预计下月生效。

根据法案内容,旧金山市警方、执法、交通管理等53个市政部门,被禁止使用人脸识别技术。此外,法案还针对更为广义的监控设施及操作进行了限制。

例如,任何市政机构若想引入监控技术或服务,需事先得向监事会说明使用目的和方法,就此进行公开听证,并得到监事会批准。旧金山市政府还需每年报告监视设备和服务的使用情况,包括是否遵循既定要求、储存数据是否得到妥善保护或及时删除等等。

该法案覆盖旧金山市的市政机关,但在美国联邦政府控制之下的旧金山国际机场及港口则不受此限。

同时,该市企业及居民仍有权使用面部识别技术,例如在自己的居所安装嵌入人脸识别技术的监控摄像头,均被允许。这也意味着,必要时,警察仍可以从居民处获得监控录像以及被监控者的个人信息等等。

支持该法案的监事会成员AaronPeskin表示,旧金山被视为尖端科技的大本营,有义务向全美呼吁加强人工智能(AI)的法律监管。

监事会投票前,旧金山警局表示,期待与监事会、公民组织美国公民自由联盟(ACLU)等方面合作,共同针对科技威胁个人隐私等事项推进立法,同时努力平衡公众对于安全问题的忧虑。

保障公民隐私与人权与提高政府打击犯罪的效率,是面部识别技术是否应被公权力部门使用的争论中,正反两方的主要落脚点。

反对全面禁止这一技术的“停止旧金山犯罪”组织的负责人FrankNoto表示,他认可隐私保护和公民权益的重要性;但除了尚未投入使用的人脸识别技术,新通过的法案还要求当地警方需经过申请、获得监事会批准,才能运用其他已投入使用的监视技术。因此法案内容仍有待完善。

根据美国联邦调查局(FBI)数据,2017年旧金山的财产犯罪率在全美主要城市中高居第一。

Noto指出,“如果能够负责地应用人脸识别技术,它可以成为公共安全保障的有效工具”。

面部监控技术为政府提供了前所未有的权力,令其能够追踪民众的日常生活。旧金山市的法案十分“具有前瞻性”,能够防止权力部门针对公众大面积地使用这项“危险”的技术。他还强调,公民有权参与针对高科技监控技术的监管决策,美国其他地区或将陆续出台类似政策。

其他立法推动人士指出,运用面部识别技术进行执法,可能有违美国宪法第四修正案中保护民众不受到不合理调查的原则。

AI研究人员还对面部识别技术的准确性表示了忧虑。

麻省理工学院在研究了亚马逊开发的人脸识别技术后发现,由于这项技术基于机器学习,机器学习的主要对象仍是男性和白人,因此在识别有色人种及女性的面孔时,面部识别技术的准确率显著降低。但亚马逊方面否认了这一研究结果。

目前美国的多家科技公司中,Facebook、微软、谷歌已对亚马逊呼吁,在立法等监管措施到位、面部识别技术足够成熟之前,不要向美国政府出售该技术,但并未提议终止研发。

微软总裁BradSmith去年12月表示,支持美国政府在2019年引入人脸识别技术的监管法规。

这一技术在美国各地的普及程度,至今尚无权威的统计数据。ACLU律师MattCagle指出,美国政府及企业在这一问题上极不透明,因而公众对于内情并不了解。

就旧金山来说,该市警方现阶段并未应用这一技术,但2013年至2017年期间曾进行过测试。该市的部分无家可归者收容所,曾根据照片和指纹来监控收容所的使用情况,以防止未注册的无家可归者使用的相关设施出现。

非盈利组织“电子前沿基金会”(ElectronicFrontierFoundation)的高级调查研究员DaveMaass则提供了一份清单,上面罗列了使用人脸识别技术的多个美国地方警署,包括拉斯维加斯、奥兰多、圣地亚哥、纽约、波士顿、底特律等市。在2018年6月的美国马里兰州Annapolis市报社枪击案中,谋杀五人的犯罪嫌疑人,就是在面部识别技术追查下落网的。

除了市级警察部门外,Maass表示,科罗拉多州公共安全局、加利福尼亚州司法局等州级政府部门也采用了面部识别实施监控。

联邦层面上,美国海关和边境保护局(CBP)在全美各大机场及港口均已运用人脸识别技术来确认旅客身份。CBP称,其做法遵循了隐私法,但仍遭到外界关于侵犯隐私与人权的抨击。

根据美国官方数据,美国至少有18个州对联邦调查局(FBI)提供了其照片数据库。根据这些数据,FBI在今年3月开展了逾9000次人脸识别的调查。

在监管方面,美国各地正陆续推出针对多种监控技术的政策或法规。

同样位于湾区的加州Oakland市,正考虑禁止面部识别技术的应用。马萨诸塞州也在酝酿暂时禁止面部识别技术及其他远程生物监控系统。

今年3月,美国国会参议院的两名议员提交了“商业面部识别隐私法案”,这也是美国国会首个围绕面部识别技术的法案。草案内容包括:企业在收集人脸识别数据前,必须得到消费者的明确同意,还对企业与第三方共享相关数据进行了限制。

该法案的牵头人之一、密苏里州选出的美国参议员RoyBlunt表示,“在科技不断发展的同时,我们需要确保它是以负责的方式得到应用的。这项法案能够加强商业实体应用面部识别技术时的透明度,和消费者的选择权。”

至于中国国内,二年前,中科院研究员曾毅此前曾在行业大会上发言称,很多企业对AI安全风险视而不见,而AI的健康发展,一定是治理和发展双轮驱动。此外,禁用一两项技术并不能解决问题,除了人脸识别,步态识别、声音识别、虹膜识别等也同样存在风险。曾毅援引统计数据称,中美大部分民众实际上都认可政府合理使用人脸识别,关键在于治理的原则要随着技术的发展不断迭代。

【1】欧盟新提案将限制人工智能及人脸识别的使用,华尔街日报

【2】欧盟寻求规范人工智能使用,FT金融时报

【3】欧盟拟立法强化AI监管违规企业最高可罚年营收6%,财新网

全文到此为止,如果喜欢,请点下“在看”或者分享到朋友圈。

人工智能监管:OpenAI负责人在听证会呼吁监管受美国立法者称赞

据悉,Altman计划本月开始全球巡回演讲,前往六大洲的国家首都和主要城市,与决策者和公众讨论这项技术。Altman表现出“拥抱监管”的态度成就了一种独特的“魅力”,或将与其产品ChatGPT一道席卷全球,这无疑将减少OpenAI在全球运营中所受的监管阻力。

参与这场听众会的行业领导者都表示,他们欢迎政府部门对AI技术在某种形式上的监督:

Altman:建议建立一个以人工智能为重点的国际机构,例如联合国的核监管机构;Marcus:建议建立一个新的内阁级别的联邦机构,对人工智能技术进行类似食品和药物管理局那样的安全审查;IBM的Montgomery:建议国会采取“精确监管”的方式,通过制定规则来管理人工智能特定用途的部署,而不是技术本身。

美国两党参议员都反复将AI的风险与社交媒体的风险进行比较,同时承认AI具有更快的速度、更大的规模和不同种类的危害,同时表示,人工智能监管不应重蹈国会在社交媒体时代初期犯下同样的“错误”。

立法者没有就人工智能技术监管提出具体的建议,但数次提到美国《通信规范法》第230条——该法律二十多年来一直是互联网平台的“免责盾牌”,用以驳回就其用户言论或内容审核决定的诉讼。而这目前被立法者认为是其在早期的互联网时代所犯下的“错误”之一,因此他们认为,人工智能公司应当提前思考并对其业务决策的后果负责,而这可能是最强大的监管工具。

人工智能造成的版权问题应该用利益分配来解决

一些立法者质疑使用受版权保护的材料来训练人工智能生成新作品的法律问题。这也是美国作家协会罢工中的一个原因——内容创作者普遍对这项技术对保护其知识产权的意义表示担忧。

有议员向Altman提问,人工智能公司在使用受版权保护的作品或使用他们的声音和肖像之前是否应该征得艺术家的同意;也有议员提议,立法应允许报纸和电视台与科技巨头共同谈判内容交易。

对此,Altman在没有提供任何细节的情况下,就似乎与立法者达成了一致意见。Altman认为,不管法律如何,内容所有者需要从新技术中获得显著的收益:

我们认为内容创作者、内容所有者需要从这项技术中受益。究竟经济模式是什么,我们仍在与艺术家和内容所有者讨论他们想要什么。我认为有很多方法可以做到这一点。但很明显,现在不管法律是什么,正确的做法是确保人们从这项新技术中获得显着的收益。我们相信它真的会实现这一点,内容所有者、肖像、人们完全应该控制它的使用方式并从中受益。

AI生成的虚假信息及其对美国选举的影响

聊天机器人非常擅长模拟人类的演讲和写作。而2024年美国大选在即,议员们当然非常关注人工智能技术在2024年选举周期中影响人们意见的能力,他们询问专家,生成式人工智能是否可用于针对犹豫不决的选民?

Marcus也提醒议员:目前美国所有的任何人工智能公司,都有可能被其他公司所收购或控制,而这些人工智能系统在塑造我们的观点和生活方面所拥有的力量非常重要,应当警惕其被用于各种不良目的的风险。

当Altman被问及“虚假信息”的问题时,他没有否认或逃避,而是承认这些模型能更普遍的操纵和说服人类,且拥有提供某种一对一虚假信息的能力。

对此问题应如何解决,Altman在陈述中强调了“全社会的方法”和“与政府合作”,隐含了这样的观点——人工智能公司不能也不应当为“虚假信息”负全责,如何限制用户的不正当使用,更多应当是政府和用户本人的责任:

产生内容只是虚假信息生命周期的一部分;虚假或误导性的信息还需要传播才能造成重大伤害。我们将继续探索在整个虚假信息生命周期方面与行业研究人员、政府的合作关系。

暂停人工智能开发被视为不现实

值得注意的是,这次参与听证会作证的人工智能专家之一GaryMarcus,曾参与并签署了呼吁科技公司暂停开发更强大的人工智能模型的公开信。

Altman虽然赞同那封公开信的部分内容,但表示,迭代发布比暂停更好,因为“秘密构建一个超级强大的AI系统,然后一次性将它投放到世界上,不会很顺利”。

但来自监管者的意见更有代表性。民主党议员RichardBlumenthal在听证会开场时就表达了他对生成式人工智能充满了担忧和戒备,还特别列举了一个关乎国家安全和意识形态的例子。不过,对于是否应当继续发展人工智能的问题,Blumenthal却说,试图阻止人工智能的发展是没有意义的,“世界不会等待,全球科学界的其他成员也不会停下来。我们的对手正在前进,把头埋在沙子里不是答案。”

“国家安全问题”并没有正式进入这次听证会的讨论中,但在结束之时议员表达了该问题“非常真实和紧迫”,需要另行讨论。显然,国家安全,既是美国人工智能监管需要对付的重大问题,同时也是人工智能开发必须进行下去的最大动因。

附录:SamAltman在国会听证会中声明的关键点

1.AI的潜力:Altman相信AI有潜力改善我们生活的几乎每个方面,从生产力到创造性工作,再到应对气候变化和癌症等重大挑战。他用印刷机的变革性影响做了一个类比。

2.OpenAI的使命和结构:OpenAI由非营利组织管理,其活动由致力于确保AI利益的广泛分配和安全性最大化的使命和章程驱动。他们的目标是构建可以为人类做出重大贡献的工具。

3.安全与责任:在发布任何人工智能系统之前,OpenAI都会进行广泛的测试,聘请外部专家进行审计,改进模型行为,并实施稳健的安全措施。Altman强调,对于他们的最新模型GPT-4,他们花了六个多月的时间进行评估和测试。

4.监管和与政府的合作:Altman认为,政府的监管干预对于减轻日益强大的人工智能模型的风险至关重要。他提出了对超过特定能力阈值的AI模型的许可和测试要求的组合。Altman表示愿意与各国政府合作制定和更新安全措施,并探索全球协调的机会。

5.对AI的焦虑:Altman承认许多人对AI可能如何改变我们的生活感到焦虑。他认为,必须共同努力来识别和管理潜在的不利因素,以便我们都能从中受益。

6.民主价值观的重要性:Altman强调在开发强大的人工智能时应牢记民主价值观,强调美国在这一领域的领导地位的重要性。

7.展望未来:Altman对减轻人工智能风险的能力表示乐观,并相信它有潜力促进美国和世界经济的发展。他期待与利益相关者合作,迎接这一技术时刻的挑战和机遇。返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇