博舍

虚拟现实存在很大的伦理风险 人工智能换脸技术的伦理风险

虚拟现实存在很大的伦理风险

当下大量资本注入VR市场,将虚拟现实成功的以最迅猛的方式,带入进大众的视野,虽然当下的硬件、内容等均没有实现普及化,但商家跟投资者们过度的炒作,仿佛虚拟时代已经来临。据有关分析人士表示,在未来5年内,虚拟现实设备的市场规模将达到300亿美元,到2020年虚拟现实消费者内容(视频和游戏)市值达83亿美元。所以,当除了像Facebook、谷歌和Sony这样的大公司涌入市场,推出他们的虚拟现实解决方案,其他一些跟风者,如手机厂商、创业型公司、文化传媒公司等等之类的,都宣布踏入VR领域,着手准备大干一番的时候,我们是否应该开始思考:虚拟现实技术能给我们带来的究竟是什么。

就在前不久,就有篇新闻报道称一位虚拟现实的先驱对那些滥用虚拟现实的公司予以了警告。说到这位先驱杰伦·拉尼尔,就必须得追溯到80年代末,他与别人联合建立了VPL研究中心,这是第一家生产虚拟现实头戴设备和手套的公司。虚拟现实概念、哲学和技术出现伊始,科学家、艺术家、积极分子以及创始人们就已经在那里着手研究了。而30年后的今天,这位虚拟现实的先驱却开始担心虚拟现实进入大众市场的前景了。

并在一次TheSeattleTimes的访谈中,拉尼尔对虚拟现实的危险性做了警告。“这将是接下来几年中,我们将面对最大的伦理问题的领域,比在人工智能问题上还要大,”他这样说道。

因为不得不承认,每一项新技术的出现都伴随着潜在的新风险,虽然凭借着过去的经验向我们表明,这些风险往往只是我们的多虑。譬如当年的手机,人们在为它能解决通讯而欢呼雀跃的时候,也有不少人担心随着它的普及,会让孩子们沉迷耽误学习,但随着时间的推移,手机行业在骂声与喝彩声中依然的茁壮成长,实现普及化。

但是之于手机行业的循序渐进,而今的VR虚拟现实技术给人的感觉就有点急功近利了。它几乎是在一夜之间就突然闯进了我们的视线。它沉浸式的体验开始蔓延至人们日常生活中的每一角落。欢喜之余,似乎从来没有人关注过,这样的一门技术,是否存在很大的伦理风险,比如精神伦理,道德伦理等等。因为在这样一个与陌生世界相交互的环境中,难免不会对人产生影响。

就像德国约翰内斯古滕堡大学美因茨分校(JGU)的一些学者正在研究公众与研究人员使用虚拟现实可能导致的伦理问题,并做出了一份清单。因为随着一些能够创建沉浸在虚拟三维世界幻觉的头戴式显示器在市场上出售,从家用电脑或智能手机上生成虚拟现实世界的技术能力将会很快传达给公众。毕竟在不同领域都能有VR施展的空间而被媒体广泛关注,但其风险目前却远远没有受到注意。

毕竟VR最大的强项是给人沉浸式的感官体验,而往往就是这种能给我们创造很强幻觉的事实,能让它成为一个很大的精神伦理风险。因为沉浸在虚拟现实中会导致离开虚拟现实环境后的行为改变。重要的是,VR所创造出的一个情景,都是由虚拟世界的主人所决定的,里面所有的视听感官设定,都或多或少会存在一些“心理操纵”的可能性。而且现在VR内容主要以视频游戏为主,较为吸引人的体验游戏又是射击、对战类型的,当一个人不断沉浸在掠杀和洗脑的虚拟体验中,难免不会把一些行为带入现实,对使用者精神造成不同程度的损害。

其次过多的沉浸于虚拟现实中,在道德伦理方面也存在一定的风险。当人们都沉浸在虚拟的世界当中,人与人之间将会变得越来与冷漠。就拿智能手机的普及为例,现在到哪基本上都是每人一部手机,到哪都是“低头族”,人们面对面交流的机会就少了。而VR能提供的沉浸式是基于个人的,每人头戴一部设备,思想行为被眼前的世界所固定,早已无暇顾及周遭的一切,而且当下VR涉及多个领域,购物、旅游、看电视、玩游戏等都能在虚拟的环境中一次性搞定,基本可以做到不与人交流,如此一来,使用者如果一旦脱离虚拟的世界,对这个本身就没有多少安全感的社会环境,就会变得更加偏激。

当虚拟和现实之间的边界变得越来越不清晰的时候,所制造的伦理困境还有非常多,这里只是列举了其中的两类。当下企业者疯狂涌入,假使短期内技术取得很大进展的虚拟现实技术获得普及,那就绝不是像智能手机那样,都变成“低头族”的问题了,到那时就有可能是相见不识,猜忌横生,使用者都被洗脑,整天活在虚拟的世界,分不清虚实。所以不管是企业,还是开发人员,都应秉持人文理性,在虚拟现实真正来临之前,给玩家建立一个规范的虚拟环境。

作者VR日报,微信搜索关注“VR日报”,微博@VR日报网,转载请注明版权

浅谈人工智能时代下的工程伦理问题

浅谈人工智能时代下的工程伦理问题一、引言

近年来,随着大数据基础设施建设以及人工智能技术的发展,社会中涌现出许多新技术,给人们带来更便捷的生活。但与其共生的道德风险问题也日益显著。人工智能道德风险即人工智能技术带来的伦理结果的不确定性,其既有主观因素也有客观因素,具体表现有道德算法风险、道德决策风险、隐私数据泄露风险等。风险主要成因有技术主体、政治、经济、文化等社会因素。结合当下大数据驱动的人工智能算法特点,如何运用风险治理思想分析其背后的工程伦理问题对人工智能领域发展具有重要意义。

二、人工智能时代的当下

在1956年达特茅会议中AI这个概念被提出,经历数次低谷与发展浪潮,人工智能再次活跃在大众的视野中,并且以更完备的生态以及更强的活力积极改变我们的生活。在如今的人工智能浪潮中,深度学习因为其能够胜任更复杂、更庞大的场景而成为主流。

在AI的应用层面,随着大数据基础设施建设的日趋完备,人工智能孕育出许多产业,如:数据挖掘、人脸识别、语音识别、自动驾驶等。同时医疗卫生、交通运输、仓储物流、游戏等行业都已经或正在接受人工智能的优化。

2019年11月11日24时整,“双11”全天的物流订单量达到创纪录的12.92亿元,物流订单量迎来了“爆炸式”的增长。“双11”全天各邮政、快递企业共处理5.35亿快件,是二季度以来日常处理量的3倍,同比增长28.6%,再创历史新高。而在其背后做支撑的是一套完整的基于大数据的人工智能系统。

目前,百度、阿里、腾讯、谷歌等主流互联网公司正在大力投资人工智能相关产业与技术,而与此同时全球正有上千家公司全力押注人工智能,并且这个趋势依旧保持稳定增长的速度。

三、人工智能伦理问题日益凸显

显然,在当下这个人工智能技术飞速发展的时代,人工智能技术的广泛应用为人类带来了显而易见的好处。但技术的进步不但扩大了人类对于技术的恐慌,同时也放大了由于某些技术缺陷和忽略道德伦理问题而带来的负面影响。

3.1忽略伦理问题下产生的算法歧视问题

外卖作为当下快节奏生活的必需品,在其背后做支撑的是数以百万的外卖员和强大的人工智能系统。2020年9月8日,一篇名为《外卖骑手,困在系统里》的文章在互联网上被热议,文章指出:2016至2019年间,美团多次向配送站站长发送加速通知,3公里的送餐距离最长时限一再被缩短至38分钟;而根据相关数据显示,2019年中国全行业外卖订单单均配送时间较3年前减少了10分钟。外卖骑手在系统算法与数据的驱动下疲于奔命,逐渐变成高危职业——骑手为在算法规定的最长送餐时限内完成送餐任务无视交通规则,不断提高车速。

许多伦理问题都是由于实践主体缺乏必要的伦理意识造成的,而外卖平台算法使得外卖骑手被“困在系统里”显然是工程的决策者以及管理者没有考虑相关的伦理问题所导致的。外卖平台作为一项服务消费者、向社会提供就业岗位的工程,其目的与其他类型的工程类似,均为满足人类在某方面的需求,但工程在向社会提供服务的同时不应当忽略工程风险问题。

3.2从风险与安全角度分析外卖平台

工程风险的防范与安全分为工程的质量监理与安全、意外风险控制与安全和事故应急处置与安全三个方面,分析外卖平台的工程风险主要从意外风险控制和事故应急处置两方面展开。

3.2.1意外风险控制维度的工程风险

外卖平台作为服务大众的工程项目,其受众人数巨大——外卖市场规模超6500亿元,覆盖4.6亿消费者,工程一旦出现意外风险控制不当的情况则对其受众造成无法估量的损失。在基于大数据的人工智能算法的训练过程中,算法训练结果会随着数据重心的整体偏移,从而导致外卖骑手不得不加快派送的速度进而风险增加。因此,为避免人工智能系统追求极致地无限制缩短派送最长时限,工程师和程序设计者在程序设计之初应当添加阈值以保证外卖平台背后的外卖骑手能够在遵守交通规则的前提下及时、安全地完成任务。

3.2.2事故应急处置维度的工程风险

事故应急处理体现着工程负责人、相关利益反对工程的理解程度。应对工程事故,应当事先准备一套完整的事故应急预案,保证迅速、有序地开展应急与救援行动,降低人员伤亡和经济损失。外卖骑手因忽视交通规则造成伤亡的事件并非最近才发生——2017年上半年,上海市公安局交警总队数据显示,在上海,平均每2.5天就有1名外卖骑手伤亡。同年,深圳3个月内外卖骑手伤亡12人。2018年,成都交警7个月间查处骑手违法近万次,事故196件,伤亡155人次,平均每天就有1个骑手因违法伤亡。2018年9月,广州交警查处外卖骑手交通违法近2000宗,美团占一半,饿了么排第二。而外卖平台除口头告诫骑手之外并没有推出从根本处解决问题的措施,直到《人物》发表《外卖骑手,困在系统里》一文后外卖平台才相继推出多等5分钟的政策。

3.3从工程四要素角度分析外卖平台

工程包括技术要素、利益要素、责任要素、环境要素以及伦理要素,接下来将从工程四要素中的技术、利益与责任这三个方面来展开。

3.3.1技术维度的道德风险

基于算法和大数据的人工智能技术背后隐藏着风险。算法体现着工程师和程序设计者的思想,其政治立场和社会偏见都会不可避免的嵌入程序中。从大数据中诞生的人工智能系统通常会存在基于数据采样偏差带来的问题,而这类问题在后续的训练中不会被消除甚至可能被放大。因此,为消除算法与数据采用带来的偏见,工程师以及程序设计者在程序设计之初就应当消除主观偏见;同时在数据的处理方法中,应当极尽全力保证数据的准确,降低数据偏差带来的风险。

3.3.2利益维度的道德问题

人工智能存在威胁、侵犯人类利益的风险。从安全角度来说,人工智能应当对人类来说是安全的、可靠的、不作恶的。以外卖平台派单系统为例,外卖骑手在系统的算法歧视下被迫忽视交通规则,对骑手、对行人已经构成严重的安全隐患。因此,如何通过人工智能系统,在权衡各方利益、兼顾效率、保证安全的前提下实现利益最大化是人工智能系统需要解决的核心问题。

3.3.3责任维度的道德风险

人工智能在价值选择困境与责任承担困境中存在风险。外卖平台派单系统在消费者对于外卖的时间要求与外卖骑手在派送过程中的风险问题之间面临抉择,系统应当尽量满足消费者的需求而忽视外卖骑手的安全,还是应当在尽量保护骑手的安全的前提下提高派送效率?在人工智能系统作为自主行为主体的情况下,系统会逐渐压缩骑手的安全空间。而在发生事故之后的责任鉴定中,系统并没有能力为自己的决策承担其相应的责任。

四、总结

为避免人工智能出现无节制的追求极致从而导致技术、利益、责任等方面的道德风险,实现人类社会可持续发展的目标,人工智能的设计应当秉承着将人类健康、安全和福祉放在首位的原则。由外卖平台人工智能系统这一例所引发出来的思考,进一步提出以下建议:

1、工程设计之初应当强化工程负责人、管理者、工程师以及程序设计者的伦理意识。由于算法、工程体现着设计人员的思想,而相关人员对伦理方面的意识缺失必将导致缺乏伦理思想的工程存在缺陷。

2、强化工程相关人员的风险与安全意识。风险与安全始终是工程无法逃避的问题,针对风险可接受性进行完备分析与评估,并对一系列不可控意外风险制定相关预警机制与应急机制是控制风险、规避风险、妥当处理事故的唯一途径。

3、强化人类主导和监督能力。人类主导以及人为监督有助于人工智能系统不会走向极端,从而出现逻辑上无比正确却存在人类伦理问题的缺陷。

4、明确人工智能系统的责任归属。程序设计之初应当对程序设计者针对不同模块的设计明确责任归属,当下人工智能的发展远远没有达到成熟阶段,相应的人工智能系统也没有能力对其发展的不良后果负责,这个责任很自然的需要其背后的软件工程师、程序设计者、工程负责人以及管理者共同承担;人工智能系统在设计阶段明确责任归属有利于工程事故发生之后的责任归属划分;有利于在程序设计阶段强化工程师们的工程伦理意识。

从技术发展的角度来看,人工智能系统因其发展历史较短、技术成熟度低等原因远未达到可以完全信赖的地步。人工智能系统在设计中应考虑预防性安全措施来防范风险,减少不可接受的伤害。

《新一代人工智能伦理规范》发布

9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(以下简称《伦理规范》),旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。

《伦理规范》经过专题调研、集中起草、意见征询等环节,充分考虑当前社会各界有关隐私、偏见、歧视、公平等伦理关切,包括总则、特定活动伦理规范和组织实施等内容。《伦理规范》提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理要求。同时,提出人工智能管理、研发、供应、使用等特定活动的18项具体伦理要求。《伦理规范》全文如下:

新一代人工智能伦理规范为深入贯彻《新一代人工智能发展规划》,细化落实《新一代人工智能治理原则》,增强全社会的人工智能伦理意识与行为自觉,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展,制定本规范。

第一章 总则

第一条 本规范旨在将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题。

第二条 本规范适用于从事人工智能管理、研发、供应、使用等相关活动的自然人、法人和其他相关机构等。(一)管理活动主要指人工智能相关的战略规划、政策法规和技术标准制定实施,资源配置以及监督审查等。(二)研发活动主要指人工智能相关的科学研究、技术开发、产品研制等。(三)供应活动主要指人工智能产品与服务相关的生产、运营、销售等。(四)使用活动主要指人工智能产品与服务相关的采购、消费、操作等。

第三条 人工智能各类活动应遵循以下基本伦理规范。(一)增进人类福祉。坚持以人为本,遵循人类共同价值观,尊重人权和人类根本利益诉求,遵守国家或地区伦理道德。坚持公共利益优先,促进人机和谐友好,改善民生,增强获得感幸福感,推动经济、社会及生态可持续发展,共建人类命运共同体。(二)促进公平公正。坚持普惠性和包容性,切实保护各相关主体合法权益,推动全社会公平共享人工智能带来的益处,促进社会公平正义和机会均等。在提供人工智能产品和服务时,应充分尊重和帮助弱势群体、特殊群体,并根据需要提供相应替代方案。(三)保护隐私安全。充分尊重个人信息知情、同意等权利,依照合法、正当、必要和诚信原则处理个人信息,保障个人隐私与数据安全,不得损害个人合法数据权益,不得以窃取、篡改、泄露等方式非法收集利用个人信息,不得侵害个人隐私权。(四)确保可控可信。保障人类拥有充分自主决策权,有权选择是否接受人工智能提供的服务,有权随时退出与人工智能的交互,有权随时中止人工智能系统的运行,确保人工智能始终处于人类控制之下。(五)强化责任担当。坚持人类是最终责任主体,明确利益相关者的责任,全面增强责任意识,在人工智能全生命周期各环节自省自律,建立人工智能问责机制,不回避责任审查,不逃避应负责任。(六)提升伦理素养。积极学习和普及人工智能伦理知识,客观认识伦理问题,不低估不夸大伦理风险。主动开展或参与人工智能伦理问题讨论,深入推动人工智能伦理治理实践,提升应对能力。

第四条 人工智能特定活动应遵守的伦理规范包括管理规范、研发规范、供应规范和使用规范。

第二章 管理规范

第五条 推动敏捷治理。尊重人工智能发展规律,充分认识人工智能的潜力与局限,持续优化治理机制和方式,在战略决策、制度建设、资源配置过程中,不脱离实际、不急功近利,有序推动人工智能健康和可持续发展。

第六条 积极实践示范。遵守人工智能相关法规、政策和标准,主动将人工智能伦理道德融入管理全过程,率先成为人工智能伦理治理的实践者和推动者,及时总结推广人工智能治理经验,积极回应社会对人工智能的伦理关切。

第七条 正确行权用权。明确人工智能相关管理活动的职责和权力边界,规范权力运行条件和程序。充分尊重并保障相关主体的隐私、自由、尊严、安全等权利及其他合法权益,禁止权力不当行使对自然人、法人和其他组织合法权益造成侵害。

第八条 加强风险防范。增强底线思维和风险意识,加强人工智能发展的潜在风险研判,及时开展系统的风险监测和评估,建立有效的风险预警机制,提升人工智能伦理风险管控和处置能力。

第九条 促进包容开放。充分重视人工智能各利益相关主体的权益与诉求,鼓励应用多样化的人工智能技术解决经济社会发展实际问题,鼓励跨学科、跨领域、跨地区、跨国界的交流与合作,推动形成具有广泛共识的人工智能治理框架和标准规范。

第三章 研发规范

第十条 强化自律意识。加强人工智能研发相关活动的自我约束,主动将人工智能伦理道德融入技术研发各环节,自觉开展自我审查,加强自我管理,不从事违背伦理道德的人工智能研发。

第十一条 提升数据质量。在数据收集、存储、使用、加工、传输、提供、公开等环节,严格遵守数据相关法律、标准与规范,提升数据的完整性、及时性、一致性、规范性和准确性等。

第十二条 增强安全透明。在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性、可靠性、可控性,增强人工智能系统的韧性、自适应性和抗干扰能力,逐步实现可验证、可审核、可监督、可追溯、可预测、可信赖。

第十三条 避免偏见歧视。在数据采集和算法开发中,加强伦理审查,充分考虑差异化诉求,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。

第四章 供应规范

第十四条 尊重市场规则。严格遵守市场准入、竞争、交易等活动的各种规章制度,积极维护市场秩序,营造有利于人工智能发展的市场环境,不得以数据垄断、平台垄断等破坏市场有序竞争,禁止以任何手段侵犯其他主体的知识产权。

第十五条 加强质量管控。强化人工智能产品与服务的质量监测和使用评估,避免因设计和产品缺陷等问题导致的人身安全、财产安全、用户隐私等侵害,不得经营、销售或提供不符合质量标准的产品与服务。

第十六条 保障用户权益。在产品与服务中使用人工智能技术应明确告知用户,应标识人工智能产品与服务的功能与局限,保障用户知情、同意等权利。为用户选择使用或退出人工智能模式提供简便易懂的解决方案,不得为用户平等使用人工智能设置障碍。

第十七条 强化应急保障。研究制定应急机制和损失补偿方案或措施,及时监测人工智能系统,及时响应和处理用户的反馈信息,及时防范系统性故障,随时准备协助相关主体依法依规对人工智能系统进行干预,减少损失,规避风险。

第五章 使用规范

第十八条 提倡善意使用。加强人工智能产品与服务使用前的论证和评估,充分了解人工智能产品与服务带来的益处,充分考虑各利益相关主体的合法权益,更好促进经济繁荣、社会进步和可持续发展。

第十九条 避免误用滥用。充分了解人工智能产品与服务的适用范围和负面影响,切实尊重相关主体不使用人工智能产品或服务的权利,避免不当使用和滥用人工智能产品与服务,避免非故意造成对他人合法权益的损害。

第二十条 禁止违规恶用。禁止使用不符合法律法规、伦理道德和标准规范的人工智能产品与服务,禁止使用人工智能产品与服务从事不法活动,严禁危害国家安全、公共安全和生产安全,严禁损害社会公共利益等。

第二十一条 及时主动反馈。积极参与人工智能伦理治理实践,对使用人工智能产品与服务过程中发现的技术安全漏洞、政策法规真空、监管滞后等问题,应及时向相关主体反馈,并协助解决。

第二十二条 提高使用能力。积极学习人工智能相关知识,主动掌握人工智能产品与服务的运营、维护、应急处置等各使用环节所需技能,确保人工智能产品与服务安全使用和高效利用。

第六章 组织实施

第二十三条 本规范由国家新一代人工智能治理专业委员会发布,并负责解释和指导实施。

第二十四条 各级管理部门、企业、高校、科研院所、协会学会和其他相关机构可依据本规范,结合实际需求,制订更为具体的伦理规范和相关措施。

第二十五条 本规范自公布之日起施行,并根据经济社会发展需求和人工智能发展情况适时修订。

 

国家新一代人工智能治理专业委员会

2021年9月25日

纪江明:人工智能技术治理的潜在风险及其应对策略

近年来,人工智能成为热点,在给人类带来红利的同时,也给社会带了很多安全隐患。而技术治理的兴起,激发了人们把对改造自然成效卓著的科学技术应用于社会治理中。本文旨在分析人工智能技术治理的潜在风险,未雨绸缪,提出具有针对性的对策建议。

20世纪30年代,数学家、逻辑学家图灵(AlanMathisonTuring)用数学逻辑语言编写了自动机理论,旨在推动机器思维的发展,这是人工智能逻辑的最早萌芽。50年代,麦卡锡(JohnMcCarthy)等5位科学家在美国专题研讨用机器模拟人类智能议题时,首次提出了人工智能(ArtificialIntelligence,AI)概念。当前,随着互联网大数据处理以及深度学习的突破,人工智能研究与开发进入新的发展阶段,其特征是“海量数据、深度融合、快速计算、精密处理”。随着深度学习技术的快速发展,其复合算法越来越精确,人工智能逐渐拥有编程语言处理、语音识别、机器视觉等功能,进而可能拥有像人类一样的思维逻辑和知识智慧。

高科技时代也是一个高风险时代,人工智能时代存在着潜在的社会风险。英国物理学家霍金曾预言,人工智能会对人类社会带来极大危害。我们应警惕人工智能发展带来的潜在危害。

1.个人隐私安全风险。一是个人数据产生端的安全防护。很多大型互联网公司都拥有大量用户实名注册信息,这些信息一旦泄露,后果不堪设想。二是个人信息的被动泄露。如为了攫取不当利益,内部网管人员或外部黑客分子,会采取盗取密码、偷改程序、病毒传输等非法手段,控制机器程序,实施侵权行为。三是智能硬件可能存在漏洞。这些漏洞一旦被网络犯罪分子利用,带来的攻击力量将会是非常巨大的。如当前的智能手机或自动驾驶汽车软件里的一些小漏洞,平时看起来无害,一旦被网络不法分子利用,可能会带来毁灭性后果。

2.伦理道德风险。一是算法程序偏差带来的伦理定位问题。在机器人的工作程序中,需要设置统一的道德标准和道德框架,这样当算法程序出现偏差时,就可以在很大程度上避免出现伦理道德问题。二是人类对机器人虚拟环境的盲目依赖症。机器人可以在很大程度上模拟人类的各类行为,未来人类的衣食住行、办公决策、管理协调等,或许都会由机器人协助完成,人际关系将演变成人机界面关系,人类将会对机器人产生严重的依赖症。三是异化危机。有专家认为,人类正在创造一个比自身更加强大的物种。科学家创造出来的科技成果,往往并不能由本群体决定是否投入使用。机器人不仅可以代替人类的体力劳动、脑力劳动,甚至将来可以代替人类的情感活动(如陪伴机器人),会对人类的情感世界带来干扰,影响人类社会的正常发展。

3.人工智能的监管问题。一是权益监管。据牛津大学统计,未来人工智能的发展会取代1000万个工作岗位。在美国,从联邦政府到州政府都出台了相应文件,从法律层面对无人驾驶进行了严格规定,使其在准入条件、技术标准、安全措施等方面得以规范。如何加强对机器人工人、机器人白领的监管,保护它们的权益和义务,是将来值得研究的问题。二是技术监管。人工智能对监管的技术要求更高,技术控制是风险治理机制的重要措施。当算法出现偏差时,机器人会出现说脏话、性别歧视和种族歧视等现象,这需要加强监管技术,控制预置过程,避免出现技术偏差。

在人工智能领域,面对诸多问题与挑战,我们应采取多元共治的总体思想,从立法、监管、漏洞防范、国际合作等方面采取对策。

1.对人工智能活动进行立法。有关机器人的系列定律,最早由阿西莫夫于1950年提出,其中最重要的是第零定律。根据这些定律,我们需要加强立法,对人工智能的研发、技术、活动、道德等进行规制。英国、美国、澳大利亚等国均对计算机创作物进行过规制。2017年,欧洲议会法律事务委员会倡导制定有关人工智能与机器人的法律,让高水平智能机器人享受与自然人一样的主体地位,同样拥有身份证、养老资格、财产账号等权益,以及纳税人义务。机器人能不能成为民事主体,还有待商榷。在技术研发以及推广使用时,应对机器人的智能等级进行量化,根据不同等级制定不同的应用范围。高科技公司引入机器人时,应将机器人等级与公司规模相匹配,限制引入机器人的数额和比例,严格控制机器人的滥用。

2.加大对人工智能活动的监管力度。为防止人工智能的肆意开发与过度使用,有必要设立监管部门进行专项监督,出台审计措施和相关的监管措施,保障人、机权益,规范市场行为,维护行业秩序。一是优化人工智能的软硬件环境。对服务器、客户终端、网络系统、软件安全性等进行实时监控和安全测试,一旦出现问题立即报警。二是要掌握安全主动权。采取事先预防而不是事后补救的风险规避路径。加强后继服务管理与人工智能技术治理的衔接,出台一系列安全规范措施,推动人工智能健康、可持续发展。三是引入有关保险产品。针对人工智能与机器人的企业责任保险、个人人身保险、失业保险与财产保险,为被保险人提供安全防护,弥补失业、人身伤亡与财产破坏带来的损失。

3.强化对人工智能系统的漏洞防范。为了防御人工智能系统的安全漏洞,技术研发者和产品使用者应联手制定有效的技术安全标准及防御对策,统一用户身份管理、授权管理、访问管理,确保用户数据信息的登录安全、存储安全、使用安全。对于企业来说,应及时转变观念,改变以往隐瞒不报的情况,承认有漏洞的客观存在,积极上报,为信息安全公司修复漏洞提供数据,为网络空间治理和打击犯罪分子提供证据,提升国家整体的网络安全能力。还可以动员群众,群策群力,让内部员工、外部客户、技术志愿者等一起挖掘人工智能系统漏洞。当挖掘出漏洞时,应该及时推出修补程序包,能够让用户迅速地更新优化程序。

(本文系国家社科基金项目(16BRK012)阶段性成果)

(作者单位:湖州师范学院)

原标题:纪江明:应对人工智能技术治理潜在风险

来源:中国社会科学网—中国社会科学报

责任编辑:黄琲排版编辑:黄琲

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇