博舍

中国关于加强人工智能伦理治理的立场文件 人工智能的伦理规范

中国关于加强人工智能伦理治理的立场文件

一、人工智能作为最具代表性的颠覆性技术,在给人类社会带来潜在巨大发展红利的同时,其不确定性可能带来许多全球性挑战,甚至引发根本性的伦理关切。在伦理层面,国际社会普遍担心如不加以规范,人工智能技术的误用滥用恐将损害人的尊严和平等、侵犯人权和基本自由、加剧歧视和偏见、冲击现有法律体系等,并对各国政府管理、国防建设、社会稳定其至全球治理产生深远影响。

中国始终致力于在人工智能领域构建人类命运共同体,积极倡导“以人为本”和“智能向善”理念,主张增进各国对人工智能伦理问题的理解,确保人工智能安全、可靠、可控,更好赋能全球可持续发展,增进全人类共同福祉。为实现这一目标,中国呼吁各方秉持共商共建共享理念,推动国际人工智能伦理治理。

二、2021年12月,中国发布《关于规范人工智能军事应用的立场文件》,呼吁各方遵守国家或地区人工智能伦理道德准则。中国现结合自身在科技伦理领域的政策实践,参考国际社会相关有益成果,从人工智能技术监管、研发、使用及国际合作等方面提出以下主张:

(一)监管

各国政府应坚持伦理先行,建立并完善人工智能伦理准则、规范及问责机制,明确人工智能相关主体的职责和权力边界,充分尊重并保障各群体合法权益,及时回应国内和国际相关伦理关切。

各国政府应重视人工智能伦理与法律的基础理论问题研究,逐步建立并完善人工智能伦理规范、法律法规和政策体系,形成人工智能伦理指南,建立科技伦理审查和监管制度,加强人工智能安全评估和管控能力。

各国政府应增强底线思维和风险意识,加强研判人工智能技术的潜在伦理风险,逐步建立有效的风险预警机制,采取敏捷治理,分类分级管理,不断提升风险管控和处置能力。

各国政府应立足自身人工智能发展阶段及社会文化特点,遵循科技创新规律,逐步建立符合自身国情的人工智能伦理体系,健全多方参与、协同共治的人工智能伦理治理体制机制。

(二)研发

各国政府应要求研发主体加强对人工智能研发活动的自我约束,主动将伦理道德融入人工智能研发过程各环节,避免使用可能产生严重消极后果的不成熟技术,确保人工智能始终处于人类控制之下。

各国政府应要求研发主体努力确保人工智能研发过程的算法安全可控,在算法设计、实现、应用等环节,不断提升透明性、可解释性、可靠性,逐步实现可审核、可监督、可追溯、可预测、可信赖。

各国政府应要求研发主体努力提升人工智能研发过程的数据质量,在数据收集、存储、使用等环节,严格遵守所在国的数据安全规定、伦理道德及相关法律标准,提升数据的完整性、及时性、一致性、规范性和准确性等。

各国政府应要求研发主体加强对数据采集和算法开发伦理审查,充分考虑差异化诉求,避免可能存在的数据采集与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。

(三)使用

各国政府应禁止使用违背法律法规、伦理道德和标准规范的人工智能技术及相关应用,强化对已使用的人工智能产品与服务的质量监测和使用评估,研究制定应急机制和损失补偿措施。

各国政府应加强人工智能产品与服务使用前的论证和评估,推动人工智能伦理培训机制化,相关人员应充分了解人工智能技术的功能、特点、局限、潜在风险及后果,并具备必要的专业素质与技能。

各国政府应保障人工智能产品与服务使用中的个人隐私与数据安全,严格遵循国际或区域性规范处理个人信息,完善个人数据授权撤销机制,反对非法收集利用个人信息。

各国政府应重视公众人工智能伦理教育,保障公众知情权与有效参与,发挥科技相关社会团体作用,引导社会各界自觉遵守人工智能伦理准则与规范,提高人工智能伦理意识。

(四)国际合作

各国政府应鼓励在人工智能领域开展跨国家、跨领域、跨文化交流与协作,确保各国共享人工智能技术惠益,推动各国共同参与国际人工智能伦理重大议题探讨和规则制定,反对构建排他性集团、恶意阻挠他国技术发展的行为。

各国政府应加强对人工智能领域国际合作研究活动的伦理监管,相关科技活动应符合各方所在国家的人工智能伦理管理要求,并通过相应的人工智能伦理审查。

中国呼吁国际社会在普遍参与的基础上就人工智能伦理问题达成国际协议,在充分尊重各国人工智能治理原则和实践的前提下,推动形成具有广泛共识的国际人工智能治理框架和标准规范。

《新一代人工智能伦理规范》发布,保障用户知情同意权是关键

2021年9月25日,国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》(以下简称《规范》),对用户的退出机制、算法歧视和虚假宣传等问题做出具体要求,回应了当前社会各界有关隐私、偏见、歧视、公平等领域的伦理关切,旨在将伦理道德融入人工智能全生命周期。

专家对南都·AI前哨站表示,《规范》中提到的问题,在个人信息保护法、《关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》已有了相应体现,其中的重点之一就是保障用户的选择权。

重点之一是保障用户的选择权

《规范》提出,人工智能各类活动应遵循增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养六项基本伦理规范。

《规范》第四条提到,应保障人类拥有充分自主决策权,有权选择是否接受人工智能提供的服务,有权随时退出与人工智能的交互,有权随时中止人工智能系统的运行,确保人工智能始终处于人类控制之下。

此前,国家网信办发布的《互联网信息服务算法推荐管理规定(征求意见稿)》也针对个性化推荐提出了相关措施,拟要求算法推荐服务提供者不得将违法和不良信息关键词记入用户兴趣点或者作为用户标签并据以推送信息内容,不得设置歧视性或者偏见性用户标签。

对此,中国社科院科技和社会研究中心主任段伟文认为,在人工智能服务的问题上,重点之一是保障用户的选择权。这意味着未来人工智能应用领域必须对用户的选择权有所尊重,如果用户拒绝接受人工智能服务,需得提供替代性的传统技术服务。

他举例说:“以人工客服为例,企业可以根据实际效率决定在哪些项目中提供人工智能之外的人工客服,尤其在涉及到财务交易的情况下,企业需要做出相应的补充。”

此外,段伟文认为,人工智能应从技术举措上实际响应规范,如在交互界面设置弹窗提醒,提醒用户可以选择退出人工智能服务。“在新技术的发展中,公众对其的接受是有过程的,不能因为这个过程影响到用户的实际利益。人工智能的红利应该尽可能为大多数用户考虑。”他说。

让高质量的数据流动起来

南都·AI前哨站注意到,在第十一条中,《规范》对数据的收集、存储、使用、加工、传输、提供、公开等环节做出了数据完整性、及时性、一致性、规范性和准确性等要求。

段伟文认为,这部分的规定关联到了许多具体实践的问题。其中的数据包括个人信息数据,也包括制造业应用中的数据。数据质量的问题和数字化转型有着紧密关联。

“这涉及到怎么让高质量的数据流动起来。就目前来看,有些人工智能的应用之所以质量不高,实际上和数据的质量是有关的。”段伟文说,“如果在数据采集的过程中不具有代表性,可能就会导致歧视、偏见的问题。从伦理规范的角度,质量有问题的数据很可能会带来负面的社会影响,或者是伦理上的风险。”

如何提高数据质量?段伟文认为,一方面人工智能行业要充分认识到数据在人工智能行业中的重要性,加强样本数据的普遍性和代表性;另一方面需要加强数据的共享互通,克服数据孤岛的问题。

虚假宣传问题会得到一致管理

对于人工智能服务的局限性问题,《规范》第十六条提出:“在产品与服务中使用人工智能技术应明确告知用户,应标识人工智能产品与服务的功能与局限,保障用户知情、同意等权利”。这对目前人工智能产品中存在的虚假宣传、夸大产品功能的现象做出了限制。

此前,特斯拉在美国就因涉嫌违规宣传被调查。前段时间,蔚来汽车的宣传也引起了公众的争议。车企在宣传营销时的表达重点是否涉及虚假营销?对于这种现象,又应该如何管制?

段伟文认为,在人工智能应用中,需要保障用户的咨询同意权利。在人工智能的应用中,有一些问题是在使用过程中逐渐暴露出来的。

“如果从发展的眼光来看,在前一个阶段人工智能是被炒作的对象。但随着推广和使用,以及用户的逐渐成熟,产品的局限性就会渐渐浮现出来。这确实涉及到虚假宣传的问题。”段伟文说,“在《规范》发布后,这方面的问题应该会有一致的管理。”

然而,这样的管理需要被细化成各行业服务的伦理准则,才能让相关的伦理规范落到实处。“目前的规范主要是起到提醒的作用,通过提出相应行业的具体的产品服务伦理准则,这个问题是能够得到改观的。”段伟文说。

他同时提到,在监管部门执行的决心外,还需要社会监督的力量。“比如说中国的社会监督,需要公众对这些问题有关注,此外,媒体智库也应该在其中起到推动的作用。”

采写:南都见习记者胡耕硕

编辑:蒋琳

人民日报人民时评:人工智能,以法律和伦理为界

通过对人工智能相关法律、伦理和社会问题的深入探讨,为智能社会划出法律和伦理道德的边界,让人工智能服务人类社会

得益于中国在互联网、大数据、云计算等领域的卓著进步,人工智能在国内发展迅猛。8月23日,以“创新创业创造,迎接智能社会”为主题的2017世界机器人大会,在北京亦创国际会展中心正式开幕。在可以预见的未来,中国的人工智能产业将在自动驾驶、智慧医疗、智慧金融、机器人等领域获得蓬勃发展。

从娱乐、出行到支付手段,人工智能悄然改变着我们的生活。今年7月,国务院印发了《新一代人工智能发展规划》,指出人工智能成为国际竞争的新焦点、经济发展的新引擎,带来社会建设的新机遇,同时人工智能发展的不确定性也带来新挑战。在这些新挑战中,最令普通人关注的,或许就是人工智能时代的“人机关系”:高阶人工智能有没有失控风险?未来的机器会不会挑战人类社会的秩序,甚至获得自主塑造和控制未来的能力?随着人工智能日新月异的发展,很多人有了这样的担心。

高阶人工智能带来福祉还是挑战,是许多文学、电影、哲学作品不断探讨的主题。近年来大众传播对人工智能的关注,无形中也加重了人们对“人机关系”的焦虑。以音源库和全息投影技术为支撑的“二次元”虚拟偶像上台劲歌热舞,人工智能用人脸识别技术与深度学习能力挑战人类记忆高手,“阿尔法狗”击败各国围棋大师,攻占了人类智力游戏的高地……尤其是一些以“人机对战”为噱头的综艺节目,通过混淆人工智能的概念,人为渲染了一种人机之间紧张的对立气氛,既无必要,也缺乏科学性。

事实上,现在所有人工智能仍属于在“图灵测试”概念下界定的“智能”,无论是将要盛行的根据神经网络算法的翻译程序,抑或是基于量子计算理论的各种模型,在未来很长时间内都将是从属于人类的工具。作家韩少功提出了“当机器人成立作家协会”的有趣假设,从文学的角度解释了自己对于人机对立关系的看法。他认为价值观才是人类最终的特点和优势,人工智能的发展,应该促使人们对自身存在的本质进行更加深刻的探索,并坚定人类本身的存在价值。

尽管如此,行将迈入人工智能时代,我们仍需谨慎界定人机之间的关系格局。国务院在《新一代人工智能发展规划》中提出,“建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”。未来,应通过对人工智能相关法律、伦理和社会问题的深入探讨,为智能社会划出法律和伦理道德的边界,让人工智能服务人类社会。这也是世界范围内的一项共识。今年初,麻省理工学院媒体实验室和哈佛大学伯克曼・克莱因互联网与社会研究中心合作推出了AI伦理研究计划,微软、谷歌等巨头也因人工智能的发展风险而成立了AI伦理委员会。越来越多的机器人专家呼吁,在机器人和自动化系统上安装“道德黑匣子”以记录机器的决定与行为。人们已经意识到,人工智能的发展应该以人类社会的稳定与福祉为前提。

中国在人工智能领域发展迅猛,在未来构建人机关系格局上,也应发挥中国传统文化的优势。面对高阶人工智能,既要通过法律和政策予以规范,也要用文明和伦理赋予其更多开放的弹性。在这方面,相信中国文明传统会比偏重逻辑与实证的西方文明传统更有用武之地,更有助于开拓兼顾科技与人文的“中国智造”。

《人民日报》(2017年08月23日05版)

(责编:冯粒、王倩)

分享让更多人看到

腾讯发布人工智能伦理报告 倡导面向人工智能的新的技术伦理观

腾讯科技讯近日,腾讯研究院和腾讯AILab联合发布了人工智能伦理报告《智能时代的技术伦理观——重塑数字社会的信任》。人工智能伦理是国际社会近几年关注的焦点话题。最近,国内外都有重大进展,OECD成员国采纳了首个由各国政府签署的AI原则,即“负责任地管理可信AI的原则(PrinciplesforresponsiblestewardshipoftrustworthyAI)”,这些原则之后被G20采纳,成为人工智能治理方面的首个政府间国际共识,确立了以人为本的发展理念和敏捷灵活的治理方式。无独有偶,我国新一代人工智能治理原则也于近日发布,提出和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理八项原则,以发展负责任的人工智能。

在此背景下,在腾讯研究院过去几年对人工智能伦理进行的持续研究的基础上,腾讯研究院和腾讯AILab联合研究形成了这份人工智能伦理报告《智能时代的技术伦理观——重塑数字社会的信任》,认为在“科技向善”理念之下,需要倡导面向人工智能的新的技术伦理观,包含三个层面:技术信任,人工智能等新技术需要价值引导,做到可用、可靠、可知、可控(“四可”);个体幸福,确保人人都有追求数字福祉、幸福工作的权利,在人机共生的智能社会实现个体更自由、智慧、幸福的发展;社会可持续,践行“科技向善”,发挥好人工智能等新技术的巨大“向善”潜力,善用技术塑造健康包容可持续的智慧社会,持续推动经济发展和社会进步。

以下为报告主要内容:

互联网的前三十年,是一个连接一切的故事,这个故事以前所未有的速度和规模改变着人类和人类社会。如今,以人工智能、大数据为代表的新技术集群加速发展,有望引领第四次工业革命,智能时代的大幕正在拉开,无处不在的数据和算法正在催生一种新型的人工智能驱动的经济和社会形式,生物层、物理层、技术层可能融合为三位一体。简言之,人工智能正在改变这个世界。

因此在当前,以人工智能为代表的这一轮新技术具有巨大的潜力和价值,无疑能够成为一股“向善”的力量,继续造福于人类和人类社会。但任何具有变革性的新技术都必然带来法律的、伦理的以及社会的影响。例如,互联网、大数据、人工智能等数字技术及其应用带来的隐私保护、虚假信息、算法歧视、网络安全、网络犯罪、网络过度使用等问题已经成为全球关注焦点,引发全球范围内对数字技术及其应用的影响的反思和讨论,探索如何让新技术带来个人和社会福祉的最大化。

因此,人工智能伦理开始从幕后走到前台,成为纠偏和矫正科技行业的狭隘的技术向度和利益局限的重要保障。正如华裔AI科学家李飞飞所言,要让伦理成为人工智能研究与发展的根本组成部分。在此背景下,从政府到行业再到学术界,全球掀起了一股探索制定人工智能伦理原则的热潮,欧盟、德国、英国、OECD、G20、IEEE、谷歌、微软等诸多主体从各自的角度提出了相应的人工智能伦理原则,共同促进AI知识的共享和可信AI的构建。要言之,各界已经基本达成共识,人工智能的发展离不开对伦理的思考和伦理保障。

从最早的计算机到后来的信息再到如今的数据和算法,伴随着技术伦理的关注焦点的转变,技术伦理正在迈向一个新的阶段。在新的发展阶段,我们提出新的技术伦理(technologyethics),探索AI、个人、社会三者之间的平衡。就AI技术自身而言,AI需要价值引导,应做到可用、可靠、可知、可控(“四可”),从而让人们可以信任AI,让AI可以给个人和社会创造价值;就AI与个人之关系而言,幸福是人生的终极目的,需要构建和谐共生的人机关系,保障个人的数字福祉和幸福工作权利,实现智能社会人机共生,让个体更自由、智慧、幸福地生活和发展;就AI与社会之关系而言,AI所具有的巨大的“向善”潜力是历史上任何时候都无法比拟的,可以成为一股“向善”的力量,助力经济社会健康包容可持续发展。

?

?

信任(trust):人工智能需要价值引导,做到可用、可靠、可知、可控(“四可”)

就AI而言,虽然技术自身没有道德、伦理的品质,但是开发、使用技术的人会赋予其伦理价值,因为基于数据做决策的软件是人设计的,他们设计模型、选择数据并赋予数据意义,从而影响我们的行为。所以,这些代码并非价值中立,其中包括了太多关于我们的现在和未来的决定。更进一步,现在人们无法完全信任人工智能,一方面是因为人们缺乏足够信息,对这些与我们的生活和生产息息相关的技术发展缺少足够的了解;另一方面是因为人们缺乏预见能力,既无法预料企业会拿自己的数据做什么,也无法预测人工智能系统的行为。因此,我们需要构建能够让社会公众信任人工智能等新技术的规制体系,让技术接受价值引导。

作为建立技术信任的起点,我们认为,人工智能等新技术的发展和应用需要遵循伦理原则。为此,秉持“负责任研究与创新”(responsibleresearchandinnovation)、“科技向善”等理念,我们进一步阐述“四可”原则,用以引导负责任地发展和应用工智能技术,使其可以造福于人类和人类社会。并将“四可”翻译为“ARCC”(available,reliable,comprehensible,controllable,即ARCC,读作ark)。正如传说中保存人类文明火种的诺亚方舟,人工智能的健康发展需要以“伦理方舟”为保障,确保将来友好、和谐、共生的人机关系。

第一,可用(available)。发展人工智能的首要目的,是促进人类发展,给人类和人类社会带来福祉,实现包容、普惠和可持续发展。为此,需要让尽可能多的人可以获取、使用人工智能,让人们都能共享技术红利,避免出现技术鸿沟。可用性还意味着以人为本的发展理念、人机共生、包容性以及公平无歧视,要求践行“经由设计的伦理”(ethicsbydesign)理念,将伦理价值融入到AI产品、服务的设计当中。

第二,可靠(reliable)。人工智能应当是安全可靠的,能够防范网络攻击等恶意干扰和其它意外后果,实现安全、稳定与可靠。一方面人工智能系统应当经过严格的测试和验证,确保其性能达到合理预期;另一方面人工智能应确保数字网络安全、人身财产安全以及社会安全。

第三,可知(comprehensible)。人工智能应当是透明的、可解释的,是人可以理解的,避免技术“黑盒”影响人们对人工智能的信任。研发人员需要致力于解决人工智能“黑盒”问题,实现可理解、可解释的人工智能算法模型。此外,对于由人工智能系统做出的决策和行为,在适当的时候应能提供说明或者解释,包括背后的逻辑和数据,这要求记录设计选择和相关数据,而不是一味追求技术透明。换句话说,技术透明或者说算法透明不是对算法的每一个步骤、算法的技术原理和实现细节进行解释,简单公开算法系统的源代码也不能提供有效的透明度,反倒可能威胁数据隐私或影响技术安全应用。相反,在AI系统的行为和决策上实现有效透明将更可取,也能提供显著的效益。此外,在发展和应用人工智能的过程中,应为社会公众参与创造机会,并支持个人权利的行使。

第四,可控(controllable)。人工智能的发展应置于人类的有效控制之下,避免危害人类个人或整体的利益。短期来看,发展和应用人工智能应确保其带来的社会福祉显著超过其可能给个人和社会带来的可预期的风险和负面影响,确保这些风险和负面影响是可控的,并在风险发生之后积极采取措施缓解、消除风险及其影响。长期来看,虽然人们现在还无法预料通用人工智能和超级人工智能能否实现以及如何实现,也无法完全预料其影响,但应遵循预警原则(precautionaryprinciple),防范未来的风险,使未来可能出现的通用人工智能和超级人工智能能够服务于全人类的利益。

?

?

当然,信任的建立,需要一套规则体系。在这些原则之下,人们可以探索制定标准、法律、国际公约等。对于人工智能需要采取包容审慎、敏捷灵活的治理方式,应避免严格、细致的法律要求,而是可以采取事后监管或者通过出台标准、行业公约、伦理框架、最佳实践、技术指南等调整人工智能等新技术的发展应用,支持行业自律。

幸福(happiness):在人机共生的智能社会,确保人人都有追求数字福祉、幸福工作的权利

各种智能机器正在成为人类社会不可或缺的一部分,和我们的生活和生产息息相关。这给人类与技术之间的关系提出了新的命题,需要深入思考智能社会如何实现人机共生(human-computersymbiosis)。

第一,保障个人的数字福祉,人人都有追求数字福祉的权利。一方面需要消除技术鸿沟和数字鸿沟,全球还有接近一半人口没有接入互联网,老年人、残疾人等弱势群体未能充分享受到数字技术带来的便利。另一方面减小、防止互联网技术对个人的负面影响,网络过度使用、信息茧房、算法偏见、假新闻等现象暴露出了数字产品对个人健康、思维、认知、生活和工作等方面的负面影响,呼吁互联网经济从吸引乃至攫取用户注意力向维护、促进用户数字福祉转变,要求科技公司将对用户数字福祉的促进融入到互联网服务的设计中,例如Android和iOS的屏幕使用时间功能、Facebook等社交平台的“数字福祉”工具、腾讯视频的护眼模式对用户视力的保护等。

第二,保障个人的工作和自由发展,人人都有追求幸福工作的权利。目前而言,人工智能的经济影响依然相对有限,不可能很快造成大规模失业,也不可能终结人类工作,因为技术采纳和渗透往往需要数年甚至数十年,需要对生产流程、组织设计、商业模式、供应链、法律制度、文化期待等各方面做出调整和改变。虽然短期内人工智能可能影响部分常规性的、重复性的工作。长远来看,以机器学习为代表的人工智能技术对人类社会、经济和工作的影响将是深刻的,但人类的角色和作用不会被削弱,相反会被加强和增强。未来二十年内,90%以上的工作或多或少都需要数字技能。人们现在需要做的,就是为当下和未来的劳动者提供适当的技能教育,为过渡期劳动者提供再培训、再教育的公平机会,支持早期教育和终身学习。

?

?

可持续(sustainability):践行“科技向善”,善用技术塑造健康包容可持续的智慧社会

技术创新是推动人类和人类社会发展的最主要因素。而这一轮技术革命具有巨大的“向善”潜力,将对人类生活与社会进步带来突破性的提升。在二十一世纪的今天,人类拥有的技术能力,以及这些技术所具有的“向善”潜力,是历史上任何时候都无法比拟的。换言之,这些技术本身是“向善”的工具,可以成为一股“向善”的力量,用于解决人类发展面临着的各种挑战,助力可持续发展目标。与此同时,人类所面临的挑战也是历史上任何时候都无法比拟的。联合国制定的《2030可持续发展议程》确立了17项可持续发展目标,实现这些目标需要解决相应的问题和挑战,包括来自生态环境的,来自人类健康的,来自社会治理的,来自经济发展的,等等。

将新技术应用于这些方面,是正确的、“向善”的方向。例如,人工智能与医疗、教育、金融、政务民生、交通、城市治理、农业、能源、环保等领域的结合,可以更好地改善人类生活,塑造健康包容可持续的智慧社会。因此,企业不能只顾财务表现,只追求经济利益,还必须肩负社会责任,追求社会效益,服务于好的社会目的和社会福祉,给社会带来积极贡献,实现利益与价值的统一。包括有意识有目的地设计、研发、应用技术来解决社会挑战。如今,“人工智能造福人类”(AIforGood)已经成为全球发展趋势,呼吁与行动并存。以腾讯为例,自2018年1月在国内首次提出“科技向善”以来,腾讯已将“科技向善”作为新的愿景与使命,并身体力行地在医疗、社会治理(如寻找失踪人口)、FEW(粮食、能源、水源)等方面践行“科技向善”理念。

以智能时代的技术伦理重塑数字社会的信任

互联网、人工智能等数字技术发展到今天,给个人和社会带来了诸多好处、便利和效率,未来还将持续推动经济发展和社会进步。如今,步入智能时代,为了重塑数字社会的信任,我们需要呼吁以数据和算法为面向的新的技术伦理观,实现技术、人、社会之间的良性互动和发展。最终,我们希望以新的技术伦理观增进人类对于技术发展应用的信任,让人工智能等技术进步持续造福人类和人类社会发展进步,塑造更健康包容可持续的智慧社会。

智能时代工程师的伦理责任

    当“阿尔法狗”完胜围棋名将李世石和柯洁,机器人索菲亚获得沙特阿拉伯公民身份以后,社会各界对人工智能的关注空前高涨,对智能时代的反思颇多担忧。因为以信息高速公路为基础,以人工智能、虚拟现实、万物互联、大数据应用等为技术内核,以社会生产和人类生活全面智能化为基本特征的智能时代不仅给我们带来了便捷,也对人类隐私、生命乃至公平正义造成了巨大威胁和全面挑战。因此,智能时代的工程师如何化解技术风险,并在保护隐私、关爱生命、守护公平正义等方面主动承担起自身的伦理责任,从而实现工程造福人类的目标,无疑是当前和今后一段时期急需深入思考的重大课题。

保护隐私

    隐私权是指自然人享有的一种私人生活与私人信息不被他人侵扰、知悉、收集、利用和公开的合法权利。随着大数据、物联网等新兴技术的研发与应用,私人领域与公共领域的界限逐渐模糊,个人隐私权也遭受到前所未有的挑战,因此保护隐私和信息安全就成为当前工程师极其棘手和重要的伦理责任。

    大数据的应用可能侵犯人类隐私。近年来,关于数据泄露的报道时有发生,如2018年3月脸书5000万用户的个人信息被英国剑桥分析公司窃取;谷歌为美国国防部开发的“专家项目”通过“点击”任何建筑物、车辆、人群等,就能查看与之相关的一切信息。此外,政府、企业、医院对医疗健康大数据的不当使用,都可能导致个人的健康信息被泄露。在大数据面前,人类几无隐私可言,正如美国作家塔克尔在其《赤裸裸的未来》中描述的那样:“我们生活在一个‘超级透明’的世界,我们泄露出去的海量信息无处不在。”由此促使人们对大数据的思考走向深入,如谁拥有大数据的所有权、使用权?由谁来负责大数据的监管以保证其被合理合法使用?

    物联网可能使个人随时处在智能设备的监控之下。射频识别技术是物联网的重要技术之一,通过射频识别技术,所有带有电子标签的物品如衣服等均可能随时随地不受控制地被扫描、定位和追踪,这势必会导致个人隐私被侵犯。不远的未来,万物互联将会走进现实,所有的人与物都将无一例外地卷入万物互联之中,类似智能手表的穿戴设备则是将人接入网络的入口。通过各种穿戴设备,个人信息将会实现适时自动上传,并被收集、存储和使用。一旦使用不当,人类的隐私问题必将更加凸显。

    如何保护人类的隐私不受侵犯?我国不久前出台的《网络安全法》明确提出的“谁收集、谁负责”的原则对于隐私保护虽然具有一定意义,但要将这项工作真正落到实处,更需智能时代的工程师担负起保护隐私的伦理责任,并在关于数据的收集、使用、存储以及监督等环节中尽力做到:收集要授权,使用需分级,存储应保护,追责当有力。具体来说,数据收集应该征得用户的同意和授权;所有数据需按照隐私程度进行分级,设置不同级别数据的使用权限;数据存储应受到严格的技术保护;如出现不当使用,应追查责任源头并严肃追责。当然,任何事物都具有两面性,智能技术在挑战人类隐私的同时也可以起到积极的正面作用,如智能技术可以通过对海量数据的分析,跟踪网络异常行为,快速检测恶意软件,防止诈骗和黑客入侵,提升网络安全防御水平,从而使人类隐私得到有效保护。

关爱生命

    康德等人提出的道义论强调人在行为之前应该具有善良意志,即善良的愿望或善良的动机。而智能时代语境下的技术理性过度膨胀使得人类生命受到威胁,德国大众汽车公司机器人杀人、Uber自动驾驶汽车撞死行人事件就是最好的例证。为规避智能技术因缺乏人文关怀而带来的潜在风险,在大型工程实践中工程师应从善良意志出发,以关爱生命为其基本伦理规范,力争做出“善”的工程。

    众所周知,人工智能分为弱人工智能、强人工智能和超人工智能三类,其中“阿尔法狗”是弱人工智能的典型代表。对强人工智能产品一旦处置不当,人类将会面临前所未有的威胁甚至走向毁灭。正如霍金所说,人工智能的成功有可能是人类文明史上最大的事件,但是人工智能也有可能是人类文明史的终结,除非我们学会如何避免风险。如何避免风险?首要的是让机器人按照人类的伦理道德规范行事。美国学者瓦拉赫和艾伦在他们的著作《道德机器:如何让机器人明辨是非》中,提出了使机器拥有道德的三条解决路径:一是自上而下,就是把人类已经成熟的伦理系统、道德理论体系灌输进去,即理论驱动决策;二是自下而上式的数据驱动的学习和进化的方式;三是混合进路系统,即将前两种结合起来,使人工智能体在一定的普遍伦理准则指引下,通过深度学习算法,在与人类的互动中不断完善其伦理系统。

    事实上,科幻作家阿西莫夫1942年就在《我,机器人》一书中提出了大家熟知的机器人学三定律,以确保人类不受伤害。站在当下,让智能产品拥有道德固然重要,但工程师积极履行关爱生命的伦理责任,做到有所为有所不为才是根本。近年来,相关国家、部门、企业甚至个人都提出了智能产品研发的道德准则,如韩国政府拟订《机器人道德宪章》、美国信息技术产业委员会(ITI)颁布人工智能政策准则、美国电气电子工程师学会(IEEE)发布第二版《人工智能设计的伦理准则》、欧盟出台史上最严的《通用数据保护条例》,等等。

    为回应智能时代对人类生命的威胁,履行关爱生命的伦理责任,工程师应该做到:反思智能产品关涉的技术风险,做好智能产品前瞻性的伦理评估,避免智能产品伦理缺位;对智能产品开展道德代码和伦理嵌入研究,使机器“算法”遵循“善法”,并按人类伦理道德规范行事;坚决抵制智能武器的开发和应用,严格限制智能产品使用武器的能力,尤其是使用高能武器的能力;注重专能机器人的研发,限制全能机器人的设计,消除当机器人具有自我或反思能力时毁灭人类的可能性,始终将人机关系的主导权牢牢掌握在人类的手中。

守护公平正义

    智能时代将对人类整体幸福带来一些不利影响,如失业人数增加、贫富差距拉大、偏见歧视频现,导致人类对公平正义的价值追求可能无功而返,而这就迫切需要工程师积极应对,勇于担责。

    首先,智能时代可能导致失业率飙升,贫富差距加大。赫拉利在《未来简史》中指出,人工智能的大量应用必将导致大量失业。美国莱斯大学教授瓦迪表示,2045年人类失业率将超过50%。2016年世界经济论坛预测,在2020年全球15个主要的工业化国家中,将有510万个就业岗位流失。以富士康为例,截至2016年,富士康在中国各大生产基地安装了4万台机器人,受此影响,富士康员工数量减少了6万人。失业率飙升是机器人接管人类工作和生活的开始,随后还将导致巨额财富集中到少部分掌握智能技术的高科技企业或国家手中,由此,全球贫富差距将进一步扩大。

    其次,智能时代的偏见或歧视频现。2018年2月的《纽约时报》刊文指出,如今非常热门的人脸识别技术,针对不同种族的准确率差异巨大;在首届2016年“国际人工智能选美大赛”上,基于“能准确评估人类审美与健康标准”的机器人专家组对人类面部进行评判,比赛的获胜者都是白人。类似案例充分说明,当前人工智能在研发或设计方面的偏见或歧视大量存在,亟待改进。尤为危险的是,人工智能还可能强化所习得的偏见,导致偏见走向深度化和普遍化,而不能像人一样有意识地去抵制或克服偏见。

    智能时代的工程师要化解社会矛盾,消除偏见与歧视,应主动担负起守护公平正义的伦理责任,并在工程实践中尽力做到:始终坚持公平原则,在工程设计或人工智能产品开发中,应充分考虑各种因素,避免由于人为因素造成的不平等;始终坚持正义原则,以最大多数人的幸福为基本出发点,让智能产品造福全人类而不是仅为少数人服务;在坚持公平正义原则的同时,还应对工程实践导致的利益受损方包括自然在内给予必要的爱护与补偿。

    智能当道,未来已来。为实现人机和谐共处、人类永续发展,智能时代工程师的伦理责任并不仅囿于以上范围。立足长远,工程师作为智能时代的重要一员,应站在人类命运共同体的高度,直面问题、团结协作、化解矛盾,积极担负起智能时代应有的伦理责任,为增进人类福祉而不懈努力。

    (作者:邱德胜,系西南大学哲学系教授)

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇