《新一代人工智能伦理规范》发布
9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(以下简称《伦理规范》),旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。
《伦理规范》经过专题调研、集中起草、意见征询等环节,充分考虑当前社会各界有关隐私、偏见、歧视、公平等伦理关切,包括总则、特定活动伦理规范和组织实施等内容。《伦理规范》提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理要求。同时,提出人工智能管理、研发、供应、使用等特定活动的18项具体伦理要求。《伦理规范》全文如下:
新一代人工智能伦理规范为深入贯彻《新一代人工智能发展规划》,细化落实《新一代人工智能治理原则》,增强全社会的人工智能伦理意识与行为自觉,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展,制定本规范。
第一章 总则
第一条 本规范旨在将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题。
第二条 本规范适用于从事人工智能管理、研发、供应、使用等相关活动的自然人、法人和其他相关机构等。(一)管理活动主要指人工智能相关的战略规划、政策法规和技术标准制定实施,资源配置以及监督审查等。(二)研发活动主要指人工智能相关的科学研究、技术开发、产品研制等。(三)供应活动主要指人工智能产品与服务相关的生产、运营、销售等。(四)使用活动主要指人工智能产品与服务相关的采购、消费、操作等。
第三条 人工智能各类活动应遵循以下基本伦理规范。(一)增进人类福祉。坚持以人为本,遵循人类共同价值观,尊重人权和人类根本利益诉求,遵守国家或地区伦理道德。坚持公共利益优先,促进人机和谐友好,改善民生,增强获得感幸福感,推动经济、社会及生态可持续发展,共建人类命运共同体。(二)促进公平公正。坚持普惠性和包容性,切实保护各相关主体合法权益,推动全社会公平共享人工智能带来的益处,促进社会公平正义和机会均等。在提供人工智能产品和服务时,应充分尊重和帮助弱势群体、特殊群体,并根据需要提供相应替代方案。(三)保护隐私安全。充分尊重个人信息知情、同意等权利,依照合法、正当、必要和诚信原则处理个人信息,保障个人隐私与数据安全,不得损害个人合法数据权益,不得以窃取、篡改、泄露等方式非法收集利用个人信息,不得侵害个人隐私权。(四)确保可控可信。保障人类拥有充分自主决策权,有权选择是否接受人工智能提供的服务,有权随时退出与人工智能的交互,有权随时中止人工智能系统的运行,确保人工智能始终处于人类控制之下。(五)强化责任担当。坚持人类是最终责任主体,明确利益相关者的责任,全面增强责任意识,在人工智能全生命周期各环节自省自律,建立人工智能问责机制,不回避责任审查,不逃避应负责任。(六)提升伦理素养。积极学习和普及人工智能伦理知识,客观认识伦理问题,不低估不夸大伦理风险。主动开展或参与人工智能伦理问题讨论,深入推动人工智能伦理治理实践,提升应对能力。
第四条 人工智能特定活动应遵守的伦理规范包括管理规范、研发规范、供应规范和使用规范。
第二章 管理规范
第五条 推动敏捷治理。尊重人工智能发展规律,充分认识人工智能的潜力与局限,持续优化治理机制和方式,在战略决策、制度建设、资源配置过程中,不脱离实际、不急功近利,有序推动人工智能健康和可持续发展。
第六条 积极实践示范。遵守人工智能相关法规、政策和标准,主动将人工智能伦理道德融入管理全过程,率先成为人工智能伦理治理的实践者和推动者,及时总结推广人工智能治理经验,积极回应社会对人工智能的伦理关切。
第七条 正确行权用权。明确人工智能相关管理活动的职责和权力边界,规范权力运行条件和程序。充分尊重并保障相关主体的隐私、自由、尊严、安全等权利及其他合法权益,禁止权力不当行使对自然人、法人和其他组织合法权益造成侵害。
第八条 加强风险防范。增强底线思维和风险意识,加强人工智能发展的潜在风险研判,及时开展系统的风险监测和评估,建立有效的风险预警机制,提升人工智能伦理风险管控和处置能力。
第九条 促进包容开放。充分重视人工智能各利益相关主体的权益与诉求,鼓励应用多样化的人工智能技术解决经济社会发展实际问题,鼓励跨学科、跨领域、跨地区、跨国界的交流与合作,推动形成具有广泛共识的人工智能治理框架和标准规范。
第三章 研发规范
第十条 强化自律意识。加强人工智能研发相关活动的自我约束,主动将人工智能伦理道德融入技术研发各环节,自觉开展自我审查,加强自我管理,不从事违背伦理道德的人工智能研发。
第十一条 提升数据质量。在数据收集、存储、使用、加工、传输、提供、公开等环节,严格遵守数据相关法律、标准与规范,提升数据的完整性、及时性、一致性、规范性和准确性等。
第十二条 增强安全透明。在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性、可靠性、可控性,增强人工智能系统的韧性、自适应性和抗干扰能力,逐步实现可验证、可审核、可监督、可追溯、可预测、可信赖。
第十三条 避免偏见歧视。在数据采集和算法开发中,加强伦理审查,充分考虑差异化诉求,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。
第四章 供应规范
第十四条 尊重市场规则。严格遵守市场准入、竞争、交易等活动的各种规章制度,积极维护市场秩序,营造有利于人工智能发展的市场环境,不得以数据垄断、平台垄断等破坏市场有序竞争,禁止以任何手段侵犯其他主体的知识产权。
第十五条 加强质量管控。强化人工智能产品与服务的质量监测和使用评估,避免因设计和产品缺陷等问题导致的人身安全、财产安全、用户隐私等侵害,不得经营、销售或提供不符合质量标准的产品与服务。
第十六条 保障用户权益。在产品与服务中使用人工智能技术应明确告知用户,应标识人工智能产品与服务的功能与局限,保障用户知情、同意等权利。为用户选择使用或退出人工智能模式提供简便易懂的解决方案,不得为用户平等使用人工智能设置障碍。
第十七条 强化应急保障。研究制定应急机制和损失补偿方案或措施,及时监测人工智能系统,及时响应和处理用户的反馈信息,及时防范系统性故障,随时准备协助相关主体依法依规对人工智能系统进行干预,减少损失,规避风险。
第五章 使用规范
第十八条 提倡善意使用。加强人工智能产品与服务使用前的论证和评估,充分了解人工智能产品与服务带来的益处,充分考虑各利益相关主体的合法权益,更好促进经济繁荣、社会进步和可持续发展。
第十九条 避免误用滥用。充分了解人工智能产品与服务的适用范围和负面影响,切实尊重相关主体不使用人工智能产品或服务的权利,避免不当使用和滥用人工智能产品与服务,避免非故意造成对他人合法权益的损害。
第二十条 禁止违规恶用。禁止使用不符合法律法规、伦理道德和标准规范的人工智能产品与服务,禁止使用人工智能产品与服务从事不法活动,严禁危害国家安全、公共安全和生产安全,严禁损害社会公共利益等。
第二十一条 及时主动反馈。积极参与人工智能伦理治理实践,对使用人工智能产品与服务过程中发现的技术安全漏洞、政策法规真空、监管滞后等问题,应及时向相关主体反馈,并协助解决。
第二十二条 提高使用能力。积极学习人工智能相关知识,主动掌握人工智能产品与服务的运营、维护、应急处置等各使用环节所需技能,确保人工智能产品与服务安全使用和高效利用。
第六章 组织实施
第二十三条 本规范由国家新一代人工智能治理专业委员会发布,并负责解释和指导实施。
第二十四条 各级管理部门、企业、高校、科研院所、协会学会和其他相关机构可依据本规范,结合实际需求,制订更为具体的伦理规范和相关措施。
第二十五条 本规范自公布之日起施行,并根据经济社会发展需求和人工智能发展情况适时修订。
国家新一代人工智能治理专业委员会
2021年9月25日
欲望、理性与真实:科幻电影中的人工智能伦理问题
摘要:科幻电影在较深的精神层面凸显了人工智能科技发展所造成的当代伦理困境,本质上是关于当代人的欲望与理性之间的对立、矛盾、斗争和解决。回归智能社会本身,反思智能社会的真实向往,以我们自己的方式解决智能社会中人自身的困惑与焦虑,进而正确引导尚不成熟的人工智能趋利避害发展,就有了重要现实价值。
关键词:科幻电影;人工智能;伦理问题
人工智能技术话题近五年来广泛活跃在社会不同领域,它越出科技圈,正在真实且快速地渗入普通中国人生活中,并引起了人们对人工智能(ArtificialIntelligence,简称AI)的多方面探讨。科幻电影通常是大众接触和了解AI的最便利途径,这里也是许多专家对AI展开天才预测和想象的前沿地带。在科幻电影所构建的“超真实”世界图景中,围绕AI伦理问题所产生的争论往往变得更自由、集中、激烈和尖锐,容易触碰到AI伦理问题的核心和最实质部分,这正是科幻电影对现实人工智能技术的最大警示价值之所在。
科幻电影在较深的精神层面凸显了AI科技发展所造成的当代人伦理困境。AI题材类电影故事的展开通常围绕着“人与机器人二元对立关系”主题,但实际上就是关于当代人自身问题的对立、矛盾、斗争和解决,是人心灵世界内部的遭遇在当今科学世界笼罩下的折光。科幻电影中塑造的AI“他者”形象实际上是人类的映照。影片中的机器人为人类所创造、控制,当它摆脱服务者角色展现出惊人的“自我意识”后的所作所为也只是对人类的模仿和特写。我们看到,科幻电影最乐于展现的就是后一种令人忧虑的情况:“超级人工智能”的实现,带给人类社会巨大风险。①虽然超级人工智能还只是电影想象,但是自从AI诞生之日起,关于AI是否会超越人类智能的争论就从未停止过。至今来看,任何专家的观点都只能看作是一种猜想。也许我们不能阻止AI向人类智能无限迫近,但合理认识并解决智能社会中人自身的困惑和焦虑,进而正确引导尚不成熟的AI趋利避害地发展,却大有可为。
一、智能社会:在欲望和理性之间
马克思说:“各种经济时代的区别,不在于生产什么,而在于怎样生产,用什么劳动资料生产。”②我们身处的时代同以往相比已有了巨大不同。科学技术不仅是当今时代最大的生产力,也成了我们的一种基本的思维方式、生活方式。科技日益朝着智能化、人性化和亲民化的方向发展,人与科技之间的关系更为密切且复杂。现代人身处的是一个智能社会,人的日常生活被各种智能产品环绕着:无人驾驶、人脸识别、智能药丸、微软小冰、高考机器人等。这些几乎无所不能的智能产品是科技奇迹、人间奇迹,是人的认识理性和实践理性所取得的空前成就。尤其是近年来在人与AI的竞赛中,AI一次又一次的胜利彰显着科技理性力量之强劲。千年来,自苏格拉底、柏拉图直至黑格尔,西方传统哲学对启蒙理性的强大信念,是这个理性化、祛蔽化的智能社会的基因和底色,然而对理性趋之若鹜和盲目骄傲必然会使原本作为目的之理性产生质变――工具理性裹挟着现代人走向了幸福生活的反面。
“智能社会”本身就暗含矛盾。它是“充满智能机器的社会”与“人类的社会”的结合体。但机器与人类作为两种本质及其属性绝然不同的存在,二者的结合必定是极其复杂和充满矛盾的过程。事实上这种矛盾早已暴露端倪,在AI产品不断更新换代的过程中,人与机器之间早已不仅仅是使用者与服务者的主仆关系,而是发生了机器不可思议的胜利、人过度依赖机器、机器意外“主动”伤人,直至催生出科幻电影频频上演机器主宰、奴役人的恐怖想象。AI本是人类为实现更美好、更理性生活的伟大发明,但在一次次突破人类能力的胜利中,科技理性却成了满足人类欲望的借口。理性被囚在欲望牢笼里丧失本性,欲望却挑着文明的幌子肆无忌惮。
人不仅是万物之灵,电影中的人类还是掌管着比人类自己更高级的物种。而这种借助科技理性控制一切的权力,必定是集中在少数有权有钱有智的精英手中。我们看到,在电影中被AI奴役的人,乃是现实中的剥削者。他们借助神奇的AI,将理性之绳编成欲望之网覆盖在更多普通人身上,人与人之间的矛盾变得更加隐秘和复杂。AI作为一种高科技、高消费产品,在它成为消费社会新卖点后,就成为又一种新型文化区隔工具。大多数没有AI、不懂AI和不使用AI的人就更容易被边缘化,被区隔在主流社会之外,进一步加重了社会两极分化。当人越来越愿意相信机器,也就不愿意相信人,因此我们变得日益轻率、冷漠和自以为是。
畸形的人类欲望在电影中的超级AI面前暴露无遗,人也不断遭受着欲壑难填之苦。《机械姬》中的漂亮机器人成了满足肉体欲望的工具;《人工智能》中机器人实际上是去世亲人的复活,教人逃避死亡;《她》中男主人公利用虚拟女友逃避现实中的正常人际交往。以往那种只会吃苦耐劳的机器人并不能令人感到满足,出于各种商业、政治、战争目的,AI产品层出不穷,不断刺激着人全身心的各种欲望。欲望像幽灵一样出没于我们的心灵之地,一个个更先进、更智能的AI消费,只能暂时填补欲望之壑,其实心灵早已困顿不已,不堪一击。《她》中的主人公沉溺于虚拟智能世界,难以适应现实社会。现代版的洞穴之喻表明,我们不再害怕黑暗的虚幻之物,却害怕面对现实的光明。电影中的超级AI不仅仅是幻相,它真实表明了现代人早已不再满足于冷冰冰的科技产品,而是想发明一种像人的玩物来满足私欲,自己去扮演全知全能的上帝角色,不用承担现实责任和原罪诅咒。
二、我们真正想要的是什么?
围绕着人与AI机器、人与人、人与自身之间的三对矛盾展开的故事情节既是科幻电影最引人入胜之处,同样也是现实社会中人工智能伦理问题的聚焦点。回到智能社会本身,我们去反思AI的发明和制造本来是为了什么呢――我们是想追求一种好的生活(Goodlife),一种智能机器与人类友好共处的文明社会。
智能社会不是虚拟社会,我们想要的是真实的生活世界。盲目追求科技理性的生活方式,迷失于过度消费的圈套里,我们就会忘记生活的本来面目,不知不觉中过一种“假的生活”。自20世纪以来,特别是现象学打出“面向事情本身”的大旗,人们对科技理性、工具理性的反思和批判就从未休止过。在某种意义上,智能社会正是这样一种无处不以数字量化来显示其存在的社会。监控一个井盖、记录一辆车的轨迹乃至透视一个人的心思,几乎任何实体AI都能以简洁无误的数字全方位展现给我们。但真实的人类社会不是这样,人类社会是一个生活世界,人作为生活世界生生不已的力量源泉,是存在先于本质,AI则相反。人是主动的、生成的、创造的、超越的,有生命力的,相应的生活世界是变化的、丰富的,是高于科学世界的。完全以科学世界那种量化方式作为生活方式和思维方式,就会丧失人的主体性和能动性,幸福生活将变得不可能。只有反过来,以生活世界为起点,才能更合理地解释、理解以智能社会为代表的科学世界。人运用AI,不是为了自保和延续,而是将其作为生活帮手,把人从日常杂多质料中解放出来,更好地发挥创造性,使人有更多闲暇享受生活乐趣和智能社会的便利。
智能社会不是精英社会,我们想要的是每个人自由而全面的发展。智能社会要解放的不是少数社会精英,而是大多数普通人。AI也许会是社会文化区隔的工具,但在斗争的另一面,人与人之间的矛盾在智能社会中也可能会发生微妙变化。特别是当人和AI的矛盾日益明显时,就更加凸显了人与人之间友好交往的必要性。因为人不是AI,人的本质必须是在社会实践中形成,生活意义的建构也必须来自主体经验的体悟。只有与人相处(而不是机器),去体验社会,我们的生活才会更开朗,对生活的记忆才会更深刻,生命的状态才最自然,幸福的感觉才最亲切。我们欢迎更加文明的智能社会的到来,而这样的社会应该是更注重人与人之间的友好对待关系,更注重社会的公平和正义。
智能社会不是享乐社会,我们想要的是真实的快乐。家务机器人、助老机器人、儿童看护机器人、宠物机器人、性爱机器人等各种新奇的AI产品不断刺激我们的消费欲望,这些AI在一定程度上免除了身体劳累之苦,满足各种感官快感。人们常把这种享乐当作伊壁鸠鲁式的快乐,但是快乐在伊壁鸠鲁那里除了肉体无痛苦外,还更注重心灵无纷扰的状态。因为纯粹的肉体快乐乃是消极快乐,能够克服人为制造出来的欲望才是真快乐。在智能社会中,真实的快乐绝不会仅停留在感官层面,必定是来自于人精神的充实和宁静。在这样的社会中,人能坦诚地面对人之为人的局限和不完美,不被欲望奴役于消极快感中。人就是要过一种理性的生活,一种不伪装的、人的生活而非神的生活。只有克制欲望,回归人的理性,才能真正感受智能社会的美好。
三、我们自己的解决方式
智能社会的发展还存在许多矛盾和问题,但是人工智能大潮作为必然态势已迅猛席卷全球,世界主要发达国家纷纷抢占AI滩头阵地,美国、德国、英法等均在国家战略层面制定人工智能发展规划,竞相加大对人工智能的投入力度。我国在2017年出台的《新一代人工智能发展规划》明确提出要在2030年抢占人工智能全球制高点。改革开放近40年,身在中国的每个普通人都深刻感受到祖国的巨大变化,真切感受到了智能社会对人日常生活的广泛影响,不仅享受AI带给我们的便利,另一面也为其所扰。中国人工智能伟大实践的大步迈开,离不开其背后相应理论的有力支撑。而这样的立论支撑必定来自属于我们自己的民族理论。哲学作为时代精神的精华,作为理论思维的制高点,必须勇于迎接问题、解决矛盾、引领和升华我国人工智能实践发展。早有学者指出:“在科学家族中,没有一门学科比AI与哲学的关系更密切……许多没有出路的AI研究,只是因为对哲学家昔日的时代一无所知,才得以维持。”③因此,人工智能问题绝不仅仅是一个技术问题,它本质上是当代人自身的对立、矛盾、斗争和解决。这就决定了人工智能问题是除了科技界,还必须要哲学等人文学科参与进来,一起对待的问题。
世界上每个国家对AI的体验感受和对待解决方式是不同的,我们必须要用自己的理论去发现和解决自己的问题。执古之道,以御今之有。传统哲学特别是中国哲学中尚有许多可挖掘的宝贵资源可供今人借鉴。老子的辩证思维就为我们提供了一种较为开阔通明的精神境地。老子说:“祸兮,福之所倚;福兮,祸之所伏。孰知其极?其无正。正复为奇,善复为妖。人之迷,其日固久。”④古人看到了事物中矛盾对立的双方始终是相反相成,相互依存转化的关系与发展过程。但是人们常常被纠缠着的现实表象所迷惑,无法超拔于事物本质中去做全面、辩证的认识,陷入片面、僵化的认识之中。今天多数人对智能社会、人工智能技术的到来欢呼雀跃,忽视了福祸相依、得失相随、否极泰来的朴素道理。面对人工智能时代到来,我们要清醒看到,智能社会中的得与失始终是合为一体,相互关联着的。当AI代替我们去照看孩子、老人,我们也就难以见证和体验生命的成长和衰落;当AI精确圆满地替我们完成日常生活,我们的生活没有事故也没有了故事,避免了错误也不再用反省,无需自己去解决问题就不会有提高,没有缺陷的生活也便没有了追求和希望。对任何事物,始终保持辩证思考,就是老子留给我们的最大智慧。
智能社会出现的种种矛盾,本质上都是人的欲望与理性之间的对立和矛盾。在亚里士多德那里,欲望本属于非理性部分,但是也可能与理性有关,那就是克制欲望。克制欲望,回归理性,始终不忘形而上的东西,也是老子反复提醒人们注意的地方。当我们欢送物质幸福时代过去,迎接精神丰富的新时代来临之时,还应该始终注意物质生活与精神生活平衡发展。智能社会的提出,显然适应了多数普通人追求精神文化生活的时代需求,但是许多AI伦理问题正是出于人过度的精神方面要求。老子讲的“虚其心、实其腹,弱其志、强其骨”所针对的正是人的这种“为目不为腹”的过度精神欲求。富贵而骄,自遗其咎。在我们奔向更高水平的小康社会时,要时刻注意精神生活的适度和平衡,保持精神追求的向上性,减少不合理的精神欲求。
四、余论
“人类在走向未来,哲学也必将走向未来。未来导引现实是自由自觉人类发展的本质规定。”⑤未来智能社会和AI技术会发展成何种境况还很难预测,但是想象天马行空的科幻电影给了我们一个很好的讨论视域和平台。理论研究者特别是人文学者,更应该具备超前眼光和豁达胸怀,勇于为社会未来发展做出警示,规避风险。
科幻电影中的AI梦魇,其实是人类害怕比自己更高级、更接近神性的智慧物种的主宰。人只有充分认识了自己,正确理解了自己的矛盾,合理解决自己的矛盾,才不会对外界许多新的事物和日益强大的AI感到焦虑。可以预见,在可见的未来,无论怎样发达的智能社会,最智能的、最具智慧的终究只有人类自身。人作为一种“超物之物,超生命的生命,超自然的自然存在”,就在于其具有其他物种所没有的自觉之精神。智能社会,绝不能是人的精神创造性和超越性被扼杀的社会。黑格尔说:“人既然是精神,则他必须而且应该自视为配得上最高尚的东西,切不可低估或小视他本身精神的伟大和力量。”无疑,人必须要依靠人(而不是依靠机器)的智慧,相信人的精神力量,才能朝向智能社会的美好未来走去。
注释:
①所谓超级人工智能,实际上就等同于人类智能,甚至远超于人类智能。
②马克思恩格斯全集(第23卷)[M].北京:人民出版社,1972:204.
③[英]玛格丽特・A.博登(MargaretA.Boden).人工智能哲学[M].刘西瑞,王汉琦译.上海:上海译文出版社,2006:486.
④[魏]王弼,[清]魏源注.老子道德经[M].上海:上海书店出版社,1986:35.
⑤高清海.高清海哲学文存・续编(第三卷)[M].哈尔滨:黑龙江教育出版社,2003:254.
(作者单位:长春大学)
(责编:赵光霞、宋心蕊)分享让更多人看到
我们该如何应对人工智能带来的伦理挑战
返回基金会动态列表>我们该如何应对人工智能带来的伦理挑战?作为第四次科技革命和产业变革的重要推动力量,人工智能技术正以一种迅猛发展的态势,推动社会生产力水平的整体跃升。然而,人工智能在为经济发展与社会进步带来重大发展机遇的同时,也会带来一系列伦理风险和挑战。
人工智能的广泛应用对人类社会的不同领域的伦理存在有什么影响?
我们应该制定什么政策来前瞻性地应对人工智能可能带来的伦理挑战?
2022年4月25日,中国发展研究基金会《人工智能时代的伦理:关系视角的审视》报告发布会线上举办,中国发展研究基金会副秘书长俞建拖介绍报告主要内容,多名相关专家学者以报告为基础,围绕上述议题展开深入探讨。
人工智能的伦理影响
《人工智能时代的伦理:关系视角的审视》(下称“报告”)从关系论视角出发,对人类智能、社会与伦理进行概述,解读关系论下人工智能伦理讨论框架,同时从市场经济、家庭、一般社会、国家和社会、国际关系、人与自然六方面分析人工智能的伦理影响,并在此基础上提出面向未来人工智能伦理发展的建议。
报告指出,人工智能在经济社会生活中的全面渗入有助于促进个人和组织的赋能,促进弱势群体的社会参与,扩展人的机会空间和自由,促进经济的繁荣,减少绝对贫困和剥夺,这些可以视为伦理增益。但是,人工智能的使用可能也会带来一系列伦理风险和挑战,包括失控风险、恶意使用、适应性风险、认知风险等,这些风险在不同的领域有不同的表现。
市场经济方面,人工智能在改善劳工工作环境、维护人的尊严、促进人力资本积累和经济繁荣等方面有积极作用,但同时也存在垄断、过度榨取消费者剩余、劳动力替代、阶层分化和固化等问题,并有可能深刻影响市场经济中的雇佣关系、竞争关系、合作模式、所有关系(所有权)以及相关的伦理规范。
家庭关系方面,人工智能的积极成果是使得一些家庭成员得以被解放,从而可以从事对家庭福祉更有益的事,但功能的疏解可能会使家庭成员之间的关系更加疏远、联系更松散。
随着社会需求的多样化,可能会出现人工智能扮演家庭成员角色的需求,如人工智能儿童、人工智能伴侣、人工智能长辈等,当人工智能开始介入家庭内部人际关系,原来用来规范人类家庭成员的伦理很难再直接适用,而且关系身份的传递也可能导致认知上的混乱。
社会伦理关系方面,一方面,人工智能广泛使用,可能会根本上重塑组织性互动,比如学校作为最重要的伦理再生产组织的教学理念、教学内容、教学方式也有可能发生重要变化。
而在一般非组织性的社会活动中,人工智能的应用以及数据信息环境的改变,社会可能更难在什么是真相和真实知识上达成共识,人们更容易陷入“信息茧房”,机器决策可能会产生“无用阶级”,“大数据+人工智能”对个人隐私侵犯也可能会逼迫人们采取面具化生存策略。
国家和社会层面,人工智能可以被广泛用于公共管理以及公共服务供给,使国家治理变得更加具有公平公正、民主参与、透明、负责任以及高效,促进国家的善治。
但是随着人工智能时代的到来以及虚拟生活方式的普遍流行,国家认同可能会被削弱,机器人税和普遍基本收入会被越来越多的考虑,但是也引发政府规模和权力的扩大,以及随之而来的政府与社会关系的调整,譬如公民对政府的高度依赖、政府社会监控的强化以及个人自由空间的压缩等。
来源:央视网
国际关系层面,人工智能正在成为大国竞争的胜负手和重要领域。从全球实现可持续发展目标的需求看,人工智能可以发挥重要的作用,但是地缘政治竞争的加剧可能会制约其潜能的发挥。人工智能在发达国家的开发和应用,也可能导致全球价值链发展趋势被重置,导致发展中国家被边缘化以及对发达国家的依附。
人工智能在军事领域的应用,包括智能武器的开发与部署、智能军事决策系统、非常规智能战争等,可能会引发军事战略的根本性变革,给国际秩序带来巨大的不确定性。
人与自然关系方面,人工智能的发展对提高资源的利用效率和减少攫取、减少对环境的破坏、更好地顺应和应对自然界挑战具有重要的意义。但是人工智能的发展也可能助长人类创造的雄心,特别是人工智能在生物改造领域的应用,对既有生态体系的影响具有很大的不确定性。
真知灼见:如何应对人工智能可能带来的伦理挑战?
来源:央视网
报告发布会上,北京大学哲学系教授何怀宏指出人工智能是一种区别于传统人造物的机器,其能力对人类而言还有很多未被发掘的部分,我们应该进一步思考人和人工智能这一特殊关系,思考如何促进人工智能发展、人工智能如何给人类赋能、如何深入具体地将人工智能运用到各个领域、以及人工智能的运用会带来哪些新的问题。
中国社会科学院哲学所科技哲学研究员、中国社会科学院科学技术和社会研究中心主任段伟文探讨了人工智能伦理治理的主体问题。他指出,当前实践人工智能领域的伦理规范主要是以科技公司为主体,政府也应积极的参与到该领域的伦理治理中,扮演积极的角色,更加灵活地进行适应性治理。
暨南大学教授、海国图智研究院院长陈定定认为当前社会的主要问题是伦理规范泛滥和冲突,应该建立一个通用的、全面的人工智能伦理规范。
武汉大学计算机学院教授、卓尔智联研究院执行院长蔡恒进指出,未来三五年内人工智能会有重大突破,元宇宙和Web3.0可以看作是人工智能的重要进展。在Web3.0时代,个体、企业、国家将会成为机器节点并融合为超级智能,这有可能会对社会伦理关系产生影响。
北京大学法学院副教授、北京大学法律人工智能研究中心副主任江溯指出,随着智能性技术广泛使用,社会可能会慢慢变成“全景敞视监狱”,个人的自由空间可能会被压缩。我们应该在法律领域探讨相关问题,研判人工智能应用的法律限度并加以约束。
人工智能的伦理挑战
原标题:人工智能的伦理挑战控制论之父维纳在他的名著《人有人的用处》中曾在谈到自动化技术和智能机器之后,得出了一个危言耸听的结论:“这些机器的趋势是要在所有层面上取代人类,而非只是用机器能源和力量取代人类的能源和力量。很显然,这种新的取代将对我们的生活产生深远影响。”维纳的这句谶语,在今天未必成为现实,但已经成为诸多文学和影视作品中的题材。《银翼杀手》《机械公敌》《西部世界》等电影以人工智能反抗和超越人类为题材,机器人向乞讨的人类施舍的画作登上《纽约客》杂志2017年10月23日的封面……人们越来越倾向于讨论人工智能究竟在何时会形成属于自己的意识,并超越人类,让人类沦为它们的奴仆。
一
维纳的激进言辞和今天普通人对人工智能的担心有夸张的成分,但人工智能技术的飞速发展的确给未来带来了一系列挑战。其中,人工智能发展最大的问题,不是技术上的瓶颈,而是人工智能与人类的关系问题,这催生了人工智能的伦理学和跨人类主义的伦理学问题。准确来说,这种伦理学已经与传统的伦理学旨趣发生了较大的偏移,其原因在于,人工智能的伦理学讨论的不再是人与人之间的关系,也不是与自然界的既定事实(如动物,生态)之间的关系,而是人类与自己所发明的一种产品构成的关联,由于这种特殊的产品――根据未来学家库兹威尔在《奇点临近》中的说法――一旦超过了某个奇点,就存在彻底压倒人类的可能性,在这种情况下,人与人之间的伦理是否还能约束人类与这个超越奇点的存在之间的关系?
实际上,对人工智能与人类之间伦理关系的研究,不能脱离对人工智能技术本身的讨论。在人工智能领域,从一开始,准确来说是依从着两种完全不同的路径来进行的。
首先,是真正意义上的人工智能的路径,1956年,在达特茅斯学院召开了一次特殊的研讨会,会议的组织者约翰・麦卡锡为这次会议起了一个特殊的名字:人工智能(简称AI)夏季研讨会。这是第一次在学术范围内使用“人工智能”的名称,而参与达特茅斯会议的麦卡锡和明斯基等人直接将这个名词作为一个新的研究方向的名称。实际上,麦卡锡和明斯基思考的是,如何将我们人类的各种感觉,包括视觉、听觉、触觉,甚至大脑的思考都变成称作“信息论之父”的香农意义上的信息,并加以控制和应用。这一阶段上的人工智能的发展,在很大程度上还是对人类行为的模拟,其理论基础来自德国哲学家莱布尼茨的设想,即将人类的各种感觉可以转化为量化的信息数据,也就是说,我们可以将人类的各种感觉经验和思维经验看成是一个复杂的形式符号系统,如果具有强大的信息采集能力和数据分析能力,就能完整地模拟出人类的感觉和思维。这也是为什么明斯基信心十足地宣称:“人的脑子不过是肉做的电脑。”麦卡锡和明斯基不仅成功地模拟出视觉和听觉经验,后来的特里・谢伊诺斯基和杰弗里・辛顿也根据对认知科学和脑科学的最新进展,发明了一个“NETtalk”的程序,模拟了类似于人的“神经元”的网络,让该网络可以像人的大脑一样进行学习,并能够做出简单的思考。
然而,在这个阶段中,所谓的人工智能在更大程度上都是在模拟人的感觉和思维,让一种更像人的思维机器能够诞生。著名的图灵测试,也是在是否能够像人一样思考的标准上进行的。图灵测试的原理很简单,让测试一方和被测试一方彼此分开,只用简单的对话来让处在测试一方的人判断,被测试方是人还是机器,如果有30%的人无法判断对方是人还是机器时,则代表通过了图灵测试。所以,图灵测试的目的,仍然在检验人工智能是否更像人类。但是,问题在于,机器思维在作出自己的判断时,是否需要人的思维这个中介?也就是说,机器是否需要先绕一个弯路,即将自己的思维装扮得像一个人类,再去作出判断?显然,对于人工智能来说,答案是否定的,因为如果人工智能是用来解决某些实际问题,它们根本不需要让自己经过人类思维这个中介,再去思考和解决问题。人类的思维具有一定的定势和短板,强制性地模拟人类大脑思维的方式,并不是人工智能发展的良好选择。
二
所以,人工智能的发展走向了另一个方向,即智能增强(简称IA)上。如果模拟真实的人的大脑和思维的方向不再重要,那么,人工智能是否能发展出一种纯粹机器的学习和思维方式?倘若机器能够思维,是否能以机器本身的方式来进行。这就出现了机器学习的概念。机器学习的概念,实际上已经成为发展出属于机器本身的学习方式,通过海量的信息和数据收集,让机器从这些信息中提出自己的抽象观念,例如,在给机器浏览了上万张猫的图片之后,让机器从这些图片信息中自己提炼出关于猫的概念。这个时候,很难说机器自己抽象出来的猫的概念,与人类自己理解的猫的概念之间是否存在着差别。不过,最关键的是,一旦机器提炼出属于自己的概念和观念之后,这些抽象的概念和观念将会成为机器自身的思考方式的基础,这些机器自己抽象出来的概念就会形成一种不依赖于人的思考模式网络。当我们讨论打败李世石的阿尔法狗时,我们已经看到了这种机器式思维的凌厉之处,这种机器学习的思维已经让通常意义上的围棋定势丧失了威力,从而让习惯于人类思维的棋手瞬间崩溃。一个不再像人一样思维的机器,或许对于人类来说,会带来更大的恐慌。毕竟,模拟人类大脑和思维的人工智能,尚具有一定的可控性,但基于机器思维的人工智能,我们显然不能作出上述简单的结论,因为,根据与人工智能对弈之后的棋手来说,甚至在多次复盘之后,他们仍然无法理解像阿尔法狗这样的人工智能如何走出下一步棋。
不过,说智能增强技术是对人类的取代,似乎也言之尚早,至少第一个提出“智能增强”的工程师恩格尔巴特并不这么认为。对于恩格尔巴特来说,麦卡锡和明斯基的方向旨在建立机器和人类的同质性,这种同质性思维模式的建立,反而与人类处于一种竞争关系之中,这就像《西部世界》中那些总是将自己当成人类的机器人一样,他们谋求与人类平起平坐的关系。智能增强技术的目的则完全不是这样,它更关心的是人与智能机器之间的互补性,如何利用智能机器来弥补人类思维上的不足。比如自动驾驶技术就是一种典型的智能增强技术,自动驾驶技术的实现,不仅是在汽车上安装了自动驾驶的程序,更关键地还需要采集大量的地图地貌信息,还需要自动驾驶的程序能够在影像资料上判断一些移动的偶然性因素,如突然穿过马路的人。自动驾驶技术能够取代容易疲劳和分心的驾驶员,让人类从繁重的驾驶任务中解放出来。同样,在分拣快递、在汽车工厂里自动组装的机器人也属于智能增强类性质的智能,它们不关心如何更像人类,而是关心如何用自己的方式来解决问题。
三
这样,由于智能增强技术带来了两种平面,一方面是人类思维的平面,另一方面是机器的平面,所以,两个平面之间也需要一个接口技术。接口技术让人与智能机器的沟通成为可能。当接口技术的主要开创者费尔森斯丁来到伯克利大学时,距离恩格尔巴特在那里讨论智能增强技术已经有10年之久。费尔森斯丁用犹太神话中的一个形象――土傀儡――来形容今天的接口技术下人与智能机器的关系,与其说今天的人工智能在奇点临近时,旨在超越和取代人类,不如说今天的人工智能技术越来越倾向于以人类为中心的傀儡学,在这种观念的指引下,今天的人工智能的发展目标并不是产生一种独立的意识,而是如何形成与人类交流的接口技术。在这个意义上,我们可以从费尔森斯丁的傀儡学角度来重新理解人工智能与人的关系的伦理学,也就是说,人类与智能机器的关系,既不是纯粹的利用关系,因为人工智能已经不再是机器或软件,也不是对人的取代,成为人类的主人,而是一种共生性的伙伴关系。当苹果公司开发与人类交流的智能软件Siri时,乔布斯就提出Siri是人类与机器合作的一个最朴实、最优雅的模型。以后,我们或许会看到,当一些国家逐渐陷入老龄化社会之后,无论是一线的生产,还是对这些因衰老而无法行动的老人的照料,或许都会面对这样的人与智能机器的接口技术问题,这是一种人与人工智能之间的新伦理学,他们将构成一种跨人类主义,或许,我们在这种景象中看到的不一定是伦理的灾难,而是一种新的希望。
(作者:蓝江,系南京大学哲学系教授)
人工智能的治理困境
进一步设想,随着人工智能的普及和发展,人工智能一旦有朝一日突破“奇点”,开始拥有自己的意识、思维和情感,人类的命运就可能无法掌握在自己的手中。伊隆・马斯克一直相信人工智能是对人类未来的最大威胁,无限开发智能机器就像在“召唤恶魔”。霍金也一直在告诫世人,人工智能的飞速发展最终将导致人类这一种族的灭亡。就连比尔・盖茨也认为,不出几十年,远超人类智慧的超级智能将会诞生。人们不由不去想:人工智能究竟是人类智慧的延伸体,还是人类智慧的终结者?
2
隐私困境
信息交互与数据流通是人工智能得以实现的前提和基础。大数据的搜集、整理、分析与使用必然涉及每个人生活、工作和交往的所有细节和信息。日常生活中的自动驾驶、手机导航、语音助手、网络购物、账户转存、财务收支等,无不需要与个人的姓名、性别、电话、邮箱、位址、账户等私密信息有效关联。这些海量的信息与数据经过简单的分析和归纳,小至个性特点、脾气秉性,中至饮食习惯、兴趣爱好,大至行踪轨迹、交往范围,甚至私生活、性取向等个人隐私和癖好都无处可藏、无所遁形,几近“裸奔”状态。另外,出于利润和其他目的的考虑,大量的智能机器在互联网上一刻不停、分秒必争地搜集、整理着私人数据。再加之,由于系统安全漏洞、黑客恶意攻击等现象的存在,个人数据始终面临被窃取、被泄露、被买卖的危险。由此看来,数据安全与隐私保护是人工智能时代的核心议题,必须确保信息和数据的安全,确保个人隐私不受侵犯,确保每个人的合法权益。
3
法律困境
2016年5月,美国佛罗里达州一辆自动驾驶的特斯拉与一辆横穿公路的卡车相撞,酿成车毁人亡的悲剧。美国公路安全管理局的调查取证表明,车载自动驾驶模式没有明显缺陷,汽车生产商和驾驶员也没有过错。那么,最终由谁来承担责任呢?一时之间,人们各持已见,众说纷纭。按现行法律,主观过错在法律责任认定中最为关键:过错性责任与无过错责任之间存在质的区别。在此案例中,人工智能系统独立操控汽车,人类并未介入和参与,因此没有任何过错性责任,那么由人工智能自主性操作造成的损害如何认定责任呢?
这就涉及到人工智能时代的一个法律困境:人工智能可否被问责,以及如何问责?不论是公正的法官,还是守法的民众,人们早已习惯无智能时代的思维,所有法律和判决的终极指向都是人类自身。一个人挥刀杀人,为罪行负责的是持刀者而不是那把刀;合法使用枪械的人因枪膛爆炸而受伤,对损伤负责的是售枪公司而不是那把枪;自动投球机导致使用者伤残的,被告上法庭的是生产者和售卖商而不是投球机。那么,究竟人们能否起诉智能机器?再或者:现行的罚款、刑拘、监禁甚至死刑对于智能机器有无意义?这就关涉到更深层次的问题:机器人是否拥有法律地位,能否独立承担法律责任?再进一步,智能机器究竟是法人、自然人、动物还是物品?如何为智能机器重构责任规则?这些问题还有待于人们去思考,去解决。至少在当前的法律框架下,智能机器还不必为自身行为造成的损害承担责任,承担责任者仍是生产者、销售者或使用者。其实,这里预设了一个责任假设:上述责任主体能够且应该预见智能机器的任何行为及其引发的后果,这也意味着,人工智能的生产者、销售者或使用者必须有能力预知风险且合理规避。但人们可以想象:未来的某一天,当智能机器开始拥有自主判断和自主行为的能力时,现行法律规则体系就将陷入死局,新的法律体系必须创立和启用。
4
伦理困境
对于人工智能引发的伦理困境,越来越多的人意识到:“人工智能的潜在危险、我们对其日渐依赖以及法律的灰色地带共同构成了非常重要的问题:我们需要在这个领域建立一种伦理规范。”那么究竟是何种规范呢?阿西莫夫曾提出了著名的“机器人三大法则”:机器人不得伤害人,也不得见人受到伤害而袖手旁观;机器人应服从人的一切命令,但不得违反第一法则;机器人应保护自身的安全,但不得违反第一、二法则。这三条法则之间是否有逻辑上的内在冲突和悖论我们暂且不论,单从现实操作的角度,这三条法则的履行即便是对人也不是一件易事。试想,智能医疗机器人运送伤员去医院时突然遇到另外一位生命垂危的重伤员,它是置之不理继续前进还是立即停下来施救?一辆自动驾驶汽车检测到前方或后方即将发生碰撞会自动做出转向拐弯的反应,如果恰巧两侧都有正常行走的市民,那它是拐还是不拐?类似的伦理困境对正常人也是一个艰难的抉择,更何况是对人工智能呢?再比如,近些年来智能机器人不断走进寻常百姓家,一些超级机器人功能强大到可以满足使用者绝大部分日常需求,那么问题来了,如果使用者与机器人日久生情、萌生爱意,是否可以结婚呢?如果技术再获得突破,是否可以生儿育女呢?人与机器生育的后代与人类是何种关系?这些问题看似匪夷所思甚至有些荒谬,但绝不会太遥远。在可预见的未来,人们可能就要直面这些难题:什么是人的内在规定性?人与机器的区别是什么?传统的家庭结构是否有存在的必要?
5
决策困境
6
如何应对
我们即将面对一个全新的人工智能蓬勃发展的崭新时代。“这意味着国家治理体系和治理能力务必实现从传统治理到互联网治理,再到AI治理的跨级飞跃。”那么,如何在顺应技术革新大潮的前提下,既鼓励人工智能的顺利发展,又合理规避由此带来的风险呢?
首先,要鼓励创新。创新是人类社会的推动力。代表着当前科学和技术最新发展的人工智能是人类智慧发展和社会进步的表现,必须大力支持和积极扶助。新现象、新事物必然对传统规则和体系造成冲击和挑战,对于人工智能引发的一系列治理困境要及时补救,积极应对,主动预防。其次,要适度控制。对于技术的发展、智能的进步和市场的创新,有些可交由市场规律自然选择,优胜劣汰,有些则需要政府提前制定相应的规则和规范,确保人工智能行业稳健、良性和有序发展。既不简单粗暴扼杀,也不任其自由泛滥。权力保持谦逊,市场充满活力,技术方能进步。最后,要多元治理。作为人工智能的利益相关者,面对新问题与新变化,政府、企业、社会组织和个人应联合行动,共同参与,各司其职,各尽其能,以适当的角色、合理的方式同步参与治理,在对话、协商甚至竞争、博弈中寻找最佳应对方案。
无论人们喜欢不喜欢,认可不认可,人类有史以来最伟大的一场变革大幕正在徐徐拉开。迟早有一天,人们将面对这样的终极选择:是将人工智能嵌入人类千百万年所构建的秩序体系,还是调整现有制度规范和价值观念走进人工智能的世界?是大力发展人工智能,促其成为与人类相近或相同的类人群体,还是适当控制人工智能的发展,将其始终定位于劳动工具的角色,从而确保人类的劳动权利和人格尊严?这些问题也许人们现在还不需要回答,但终究要直接面对。在当下,人类必须时刻提醒自己:对于人工智能,既不要过分低估它的能力和发展,也不要过分高估它的威胁与风险。未雨绸缪,防患未然,方能决胜千里。
1.詹姆斯·巴拉特著,闾佳译:《我们最后的发明:人工智能与人类时代的终结》,电子工业出版社,2016年,第255-270页。
3.卢克·多梅尔著,赛迪研究院专家组译:《人工智能:改变世界,重建未来》,中信出版集团,2016年,第245-246页。
4.腾讯研究院等:《人工智能:国家人工智能战略行动抓手》,中国人民大学出版社,2017年,第243页。
5.庞金友:《AI治理:人工智能时代的秩序困境与治理原则》,《学术前沿》,2018年第5期(下),第16页。返回搜狐,查看更多