《人工智能国际治理观察》第43期
政府监管「美国FBI成立专门打击加密货币犯罪的部门」2月17日,美国司法部副部长丽莎·莫纳科(LisaMonaco)在慕尼黑安全会议上宣布,美国联邦调查局(FederalBureauofInvestigation,FBI)将成立专门追踪和没收非法加密货币的部门,此举是美国将重点从起诉国际犯罪网络转向瓦解国际犯罪网络的更广泛行动的一部分。莫纳科表示,新成立的团队名为虚拟资产行动小组(VirtualAssetExploitationUnit),负责整合关于加密货币的专业知识与专家,并为FBI其他人员提供与区块链分析、虚拟资产没收相关的知识,以及提供相关培训。此外,该小组还将与国家加密货币执法团队(NationalCryptocurrencyEnforcementTeam,NCET)合作。NCET于2021年10月成立,重点关注虚拟货币交易所和混币服务所从事的犯罪行为,并将帮助追踪和索回因遭欺诈和勒索而损失的资产。美国司法部在当天还宣布将任命EunYoungChoi为NCET的第一任负责人,据悉,Choi是一位以追查网络犯罪分子闻名的职业检察官,专注于调查与网络入侵、数字货币、国家安全等相关的案件。此外,自2021年4月以来,Choi还一直担任莫纳科的高级顾问。Choi在一份声明中表示,美国司法部自数字货币诞生以来,一直处于调查和起诉涉数字货币犯罪的最前沿,在围绕数字资产的技术发展和演化之际,NCET将发挥关键作用。来源:华尔街日报「美国汽车安全监管机构调查特斯拉的“幽灵刹车”问题」2月17日,美国国家公路交通安全管理局(NationalHighwayTrafficSafetyAdministration,NHTSA)表示正在就特斯拉最畅销车型的无预警刹车问题展开调查。根据披露,此次调查涵盖2021年和2022年的约41.6万辆Model3轿车和ModelY紧凑型运动型多用途车(SUV)。该机构表示,已收到350多起对无预警刹车问题的投诉,这一问题又被称做“幽灵刹车”(phantombraking),发生在Autopilot的先进驾驶辅助功能启用的情况下,且可能发生在无预警、随机的情况下,在一趟驾驶过程中通常会发生数次。NHTSA表示,该机构将评估这个潜在问题的规模和严重性,并表示此类调查可能会导致召回行动。来源:华尔街日报「欧盟立法者:欧洲人工智能规则法案的敲定仍需时间」2月16日,两名欧盟立法者表示,欧盟在制定有关人工智能的治理标准方面可能还需要一年多的时间,目前关于此议题的辩论重点围绕在是否应该禁止面部识别以及谁来执行有关人工智能治理的规定。欧盟委员会在2021年提出了人工智能规则草案(AIDraftAct),力求在这项由中国和美国主导的关键技术上取得领先地位。领导该问题的两名立法者之一、欧洲议会自由党成员,人道法委员会负责人德拉戈斯·杜多拉奇(DragosTudorache)在采访中表示,议会可能会在11月就共同立场达成一致,但与欧盟各国之间就提案进行谈判可能需要一年半的时间。来源:路透社「马克龙认为卫星网络的打造涉及欧盟主权问题,呼吁欧盟建立自主卫星网络」2月16日,法国总统马克龙出席在图卢兹举行的欧盟负责太空事务部长非正式会议。马克龙指出,欧盟在太空领域拥有巨大王牌优势,不论是公共层面还是私营层面。马克龙还强调在竞争日益激烈的国际背景下,必须用清晰的远见拥抱未来。尽管卫星网络在当今只占据互联网流量的一小部分,但在未来隐藏着潜在的技术革命。马克龙表示,卫星网络将成为我们生活的核心,未来在自动驾驶,紧急服务或海上运输等领域都将使用到由卫星驱动的高速互联网。马克龙还表示,欧洲自主打造卫星网络涉及的是主权问题。欧盟主权也是法国担任欧盟轮值主席国期间的标志性议题,缺少了太空板块,尤其是发射器或卫星群等关键领域,对技术主权的构想就难以实现。马克龙表示,面对当前遇到的重大科技与太空课题,必须由欧盟来决定自己的作用和命运。欧盟应将自身视为一个重要的独立力量,太空设施应为欧盟的防务贡献力量。欧盟需要采取紧急行动,以赶上美国、中国和俄罗斯在此方面的步伐。马克龙还指出,太空不能成为法外之地,应通过推进相关监管标准的设立来让太空成为保护人类共同财产的地方。法国经济、财政与复兴部长布鲁诺·勒梅尔(BrunoLeMaire)表示,欧盟各国已经在此次会议上达成了一致,同意打造欧盟自主的卫星网络。来源地址:路透社、法国驻华大使馆「英国CMA获谷歌解决隐私方案担忧的约束性承诺」2月11日,英国竞争和市场管理局(CompetitionandMarketsAuthority,CMA)表示,针对谷歌从Chrome浏览器中删除第三方cookie等功能隐私沙盒方案的竞争担忧,CMA已获得谷歌给出的解决这些担忧的承诺。CMA表示,谷歌的承诺具有法律约束力,该监管部门将监督谷歌,来确保隐私沙盒以有利于消费者的方式开发。CMA自2021年初以来,一直在调查谷歌隐私沙盒方案是否可能妨碍数字广告市场竞争,从而导致在线上广告支出进一步向谷歌集中。来源:华尔街日报政府规划「习近平同法国总统马克龙通电话,双方达成在网络、数字等方面开展高层对话和深化合作的共识」2月16日下午,中国国家主席习近平与法国总统马克龙通电话。习近平指出,法国自今年接任欧盟轮值主席国以来,为增进欧盟团结、加强欧洲战略自主作出重要贡献。中方愿同法方一道,共同办好新一轮战略、经贸、绿色、数字、人文高层对话,推进中欧投资协定批准生效进程,切实惠及双方人民。马克龙表示,当前国际形势充满紧张动荡,在此背景下,法方更加希望同中方深化全面战略伙伴关系。法方对近年来法中两国在技术、农业、航空、核能等领域合作取得重大成果表示满意,愿同中方探讨克服疫情影响,加强人员交往,增进友谊互信,以及深化合作关系。双方还在双边合作方面达成了包括尽早举行中法战略对话空间分组会议、网络分组会议,开展极地、海洋对话,加强两军各层级的对话交流等在内的多项重要共识来源:新华网「日本政府将支援农村通信网建设,推进智慧农业发展」2月13日消息,日本政府力争在农业领域普及运用信息通信技术(ICT),推进智慧农业的发展,计划自今年春天起加快强化农村光纤和无线基站等通信网络的建设。除了对致力于完善设施的地方政府等通过补贴进行支援外,最快还将在3月制定符合地区实际情况的新建设和发展方针,推进5G等新兴技术在农业领域的应用。来源:共同社行业自治「谷歌拟采用新的隐私政策,限制Android手机上的跨应用追踪」继苹果公司对秘密收集数以十亿计移动设备数据的广告行业施加限制之后,谷歌也计划采用新的隐私限制,以限制Android智能手机应用的跟踪行为。2月16日,谷歌表示,该公司计划开发更多以隐私为主的产品,替代与个人智能手机相关的字母数字标识符,防止一些应用程序利用这些标识符收集和分享用户信息。谷歌还表示,至少在未来两年内会继续支持现有的智能手机标识符,并与业界合作开发,在做出任何改变之前向其发出实质性通知。但谷歌并未提供有关其新系统将如何运作的更多计划细节,也尚不清楚对用户或广告客户的影响。来源:华尔街日报「谷歌在2021年大幅增加漏洞发掘奖励计划的支出」2月12日,谷歌宣布,该公司在2021年给旨在提高产品和平台的安全性而为Android、GooglePlay、Chrome和Web服务推出的漏洞奖励计划(VRP)上共支出了870万美元,同比2020年增加了200万美元。据悉,Chrome以近330万美元获得VRP榜首,其中310万美元被用于奖励发现与浏览器相关错误的研究人员。来源:新浪科技科技公司「苹果高管可能需要在司法部对谷歌的诉讼中作证」2月11日,代表苹果公司出席审前听证会的律师StevenSunshine表示,美国司法部(DepartmentofJustice,DOJ)已要求苹果公司的最高高管出庭作证,苹果的高管可能要在美国司法部对谷歌的诉讼审判前成为取证的对象,以方便DOJ确定谷歌在经营搜索业务方面是否违反了反垄断法。据悉,DOJ于2020年10月对Google提起反垄断诉讼,指控谷歌每年支付数十亿美元,与苹果、三星等公司签订排他性协议,以便将谷歌的搜索引擎设为其设备的默认搜索引擎。来源:路透社「西门子出售旗下物流业务,以专注发展工业自动化和智能建筑」2月9日,德国西门子公司表示,该公司已同意以11.5亿欧元(13.1亿美元)的价格将西门子物流业务和包裹业务出售给德国科技集团Koerber。这笔交易预计将在2022年内完成。据悉,西门子此举旨在令该公司可以更加专注于发展该公司在工业自动化和智能建筑领域的目标。来源:路透社构建公开透明人工智能全过程监管体系
王春晖
人工智能技术的发展被称为第四次工业革命,是一个融合计算机科学、统计学、脑神经学和社会科学的前沿综合学科,可以代替人类实现某种识别、认知、分析和决策等功能,已经成为当今世界各国一争高下的重要场域。
不过,到目前为止,人工智能并没有确切的定义,有人推测人工智能的发展远景将经历三个阶段:一是弱人工智能阶段;二是强人工智能阶段;三是超人工智能阶段。笔者认为,目前所有的人工智能技术尚属于弱人工智能阶段。
人工智能面临的伦理与法律问题
已故著名物理学家、剑桥大学教授史蒂芬·霍金在世时曾警告:在我的一生中,见证了许多社会深刻变化,其中最深刻的,同时也是对人类影响与日俱增的变化,就是人工智能的崛起。霍金认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。
笔者认为,人工智能在其发展进程中面临的最大问题不是技术本身,而是伦理和法律问题。2017年6月,由联合国国际电信联盟主办的主题为“人工智能造福人类”的全球峰会在日内瓦召开。这次峰会聚焦了人工智能的两大国际性问题:一是加速人工智能的研发和应用,以应对贫困、饥饿、健康、教育和环境保护等全球性挑战;二是探讨如何确保人工智能的安全性并符合伦理规范,防止其带来意想不到的后果。
2016年,标准制定组织IEEE发布了首份人工智能报告(2016),其名称为:“利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景”。该报告提出了一个发展人工智能的一般性原则,主要涉及的是高层次伦理问题,报告认为,人工智能发展的一般性原则将适用于所有类型的人工智能和自主系统。在确定一般原则时,主要考虑三大因素:一是体现人权;二是优先考虑最大化对人类和自然环境的好处;三是削弱人工智能的风险和负面影响。
原则之一:人类利益原则。人类利益原则要求考虑,如何确保人工智能和自主系统不侵犯人权。为了实现人工智能和自主系统尊重人权、自由、人类尊严及文化多样性,在使用年限内是安全、可靠的,一旦造成损害必须能够找出根本原因(可追溯性)等目的,应当构建治理框架,包括标准化机构和监管机构,增进公众对人工智能和自主系统的信任。
原则之二:责任原则。责任原则涉及如何确保人工智能和自主系统是可以被问责的。为了解决过错问题,避免公众困惑,人工智能系统必须在程序层面具有可责性,证明其为什么以特定方式运作。
首先,立法机构/法院应当阐明人工智能系统开发和部署过程中的职责、过错、责任、可追责性等问题,以便于制造商和使用者可以知晓其权利和义务分别是什么;其次,人工智能设计者和开发者在必要时考虑使用群体的文化规范的多样性;再次,当人工智能及其影响游离于既有规范之外时,利益相关方应当一起制定新的规范;第四,自主系统的生产商/使用者应当创建记录系统,记录核心参数。
原则之三:透明性原则。透明性原则意味着,自主系统的运作必须是透明的,人们能够发现其如何以及为何作出特定决定。人工智能的不透明性,加上人工智能开发的去中心化模式,加重了责任确定和责任分配的难度。透明性对每个利益相关方都意义重大:第一,对使用者,透明性可以增进信任,让其知道人工智能系统可以做什么及其这样做的原因;第二,对人工智能和自主系统批准和认证机构,透明性能确保人工智能系统可以接受审查;第三,如果发生事故,透明性有助于事故调查人员查明事故原因;第四,事故发生之后,参与审判的法官、陪审团、律师、专家证人需要借助透明性来提交证据,作出决定;第五,对于自动驾驶汽车等颠覆性技术,一定程度的透明性有助于增强公众对技术的信心。
原则之四:教育和意识原则。教育和意识原则涉及如何扩大人工智能和自主系统技术的好处,最小化其被滥用的风险。在人工智能和自主系统越来越普及的时代,需要推进伦理教育和安全意识教育,让人们警惕人工智能和自主系统被滥用的潜在风险。这些风险可能包括黑客攻击、赌博、操纵、剥削等。
2018年7月,中国发展研究基金会在其发布的一份《未来基石——人工智能的社会角色与伦理》的报告中也指出,尽管有少数哲学和社科领域的学者开始关注人工智能带来的伦理问题和社会挑战,但是这些讨论并未进入公共政策视界,而且讨论的重点也多集中在超级人工智能这样仍相对遥远的议题上。该报告认为,在人工智能问题上,围绕可能出现的挑战,无知、忽视、偏狭、误解交织在一起,可能会导致真正的风险。该报告建议:在社会层面,高校和研究机构开展前瞻性的科技伦理研究,为相关规范和制度的建立提供理论支撑;各国政府、产业界、研究人员、民间组织和其他利益攸关方展开广泛对话和持续合作,通过一套切实可行的指导原则,鼓励发展以人为本的人工智能;人工智能企业应该将伦理考量纳入企业社会责任框架中。
事实上,人工智能和自主系统带来了许多复杂的伦理问题,这些伦理问题往往直接转化为具体的法律挑战,或是引发复杂的连带法律问题。每个伦理问题一般都涉及相关法律问题。笔者认为,当前的人工智能本质上是一种建立在大数据基础上的自我学习、判断和决策的算法,算法的核心是基于网络的编程技术,但这种编程技术绝非中立,人工智能的算法决策具有典型的“黑箱”特点,这应当引起现代法律人的高度警惕,进行深入研究,应当从伦理学和法律融合的角度深入审视和研究人工智能的算法。笔者呼吁,人工智能的算法必须确立法律的可追溯性原则,人工智能的行为决策全程应当处于法律监管之下。
构建公开透明的人工智能全过程监管体系
我国应当建立健全公开透明的人工智能监管体系,重点在人工智能的设计问责和应用监督并重的双层监管结构上做充分的准备,实现对人工智能算法设计、产品开发和成果应用等的全过程监管。促进人工智能行业和企业自律,切实加强人工智能协同一体化的管理体系,加大对人工智能领域数据滥用、算法陷阱、侵犯个人隐私、违背道德伦理等行为的惩戒力度。
在人工智能技术研发的同时,要加强人工智能相关法律、伦理和社会问题的同步研究,尤其要关注人工智能模仿人类传播错误信息或将商业无人机转化为目标武器攻击人类,建立和优化保障人工智能健康发展的法律法规和伦理道德框架。法律研究领域要开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、机器伦理与破坏力评价等伦理与法律问题的交叉研究,建立人工智能的可追溯和问责制度,明确人工智能的设计者、控制者、使用者等相关法律主体的权利、义务和责任。
关于人工智能监管的原则,科幻作家艾萨夫·阿西莫夫于1942年提出的“机器人学三律”仍具有参照价值,非常值得借鉴:
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;
第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;
第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。
笔者建议,国家有关部门或行业组织应当制定人工智能产品研发设计人员的道德规范和行为守则,加强对人工智能潜在危害与收益的评估,构建人工智能复杂场景下突发事件的解决方案。同时,我国应当积极参与人工智能的全球治理,加强机器人异化和安全监管等人工智能重大国际共性问题研究,深化在人工智能法律法规、国际规则等方面的国际合作,构建我国人工智能领域的国际制度性话语权。
(作者为南京邮电大学教授、联合国世界丝路论坛网络空间国际合作委员会主席)