人工智能发展带来的问题及其伦理思考
摘要:人工智能在推动人类进步与社会发展的过程中扮演着越来越重要的角色。人工智能在改变人类生产生活方式的同时,也不可避免地带来许多潜在风险和社会问题。人工智能的发展可能造成责任主体不清晰、潜在风险因素增多、人的异化现象加剧、道德主体不明确等问题。保障人工智能的安全使用,实现人工智能的良性健康发展,需要确立人工智能发展的基本伦理原则,加强对人工智能发展的价值规范和道德引导,制定人工智能伦理的相关制度。
关键词:人工智能;伦理困境;责任;风险
中图分类号:B82 文献标识码:A
文章编号:1003-0751(2021)03-0093-03
1956年,在美国达特茅斯召开的人工智能会议标志着人工智能的诞生。人工智能及其应用极大地方便甚至改变了人类生活,但同时也引起了相应的争议。对可能或已经出现的难题进行伦理探讨,是题中应有之义。
一、人工智能的发展和运用给人类带来的影响
任何新技术的出现都是一把双刃剑,人工智能也是如此。近些年来,人工智能经历了多次摸索与尝试,取得了许多颠覆性成果。这些成果的运用给人类的生产生活带来便利的同时,也带来了一系列问题。
人工智能为人类生产生活提供了极大的便利。首先,人工智能改变了人类的工作、生活方式。从工厂流水线到智能家居,从网上购物到智能快递分拣,人工智能已经遍布于人类生活的每一个角落,很多领域不再需要人类从事枯燥的重复性劳动。其次,随着人工智能的大范围应用,带动了产业结构的转型升级,社会结构层次也面临相应调整。人工智能不仅可以代替人类从事重复单调的工作,而且可以胜任那些被默认为专属于人类的工作岗位,比如创作诗歌、弹琴作曲、绘画表演等创造性劳动。虽然它们的创作水平还非常有限,但是可以预见到未来人工智能可能带来的变革。
人工智能在为人类生产生活带来便利的同时,也带来了许多潜在风险和社会问题。首先,可能导致有些行业的工人失业。相比人类,人工智能机器在劳动效率、劳动成本等方面有明显优势,这导致有些可以被机器代替人类劳动的行业的工人面临或者即将面临失业。其次,会拉大贫富差距。人工智能的应用在创造极大物质财富的同时,必然会导致不公平竞争的出现,资源的分配将会失去秩序。再次,会越来越多地涉及隐私与信息安全问题。人工智能的行为边界与行为主体不明确,现阶段还缺少相关规制与手段保障人类隐私与国家信息安全。最后,可能導致人的异化。随着人工智能的不断发展进步,可以预见到人工智能威胁人类地位的那一天。人类可能会从创造和使用人工智能,到反过来处处受制于人工智能,人类的主体性地位面临严峻威胁。
二、人工智能发展带来的伦理困境
伴随着人工智能的大范围应用,相关伦理问题也引起了广泛重视与激烈讨论。
第一,责任主体不清晰。人工智能的发展应用必然会引发责任问题,人工智能系统的责任界定与追责问题是人类社会不可回避的问题。这之中最具代表性的就是自动驾驶问题。近年来引起普遍关注的“电车难题”,就是自动驾驶汽车本身难以破解的道德难题。假如行驶在路上的自动驾驶汽车遇到不守规矩的路人,人工智能是选择优先保护乘车人还是路人?自动驾驶颠覆了传统的人车关系,人工智能的介入使道德和法律规范的对象难以界定。假如无人驾驶汽车在行驶中发生交通事故,造成了生命财产损失,那么应该由谁来承担相应的法律责任呢?对人工智能又该如何做责任认定?从哲学层面来讲,责任的产生基于因果关系。行为导致结果,责任由行为主体承担,而人工智能的行为主体尚未明确,人工智能系统承担道德或者法律责任的能力也未有定论。这些问题的出现必然会引发社会恐慌和伦理困境。
第二,潜在风险因素增多。随着人工智能技术在不同领域的应用,其潜在风险也在不同层面显现出来。一是“无用阶级”与失业问题。赫拉利在《未来简史》中提出了关于“无用阶级”的若干断想:人工智能将替代人的劳动而把大多数人排挤出市场,使之沦为毫无价值的“无用阶级”,仅有少数精英升级为“超人类阶级”,人类甚至会因为超级智能的出现而失去控制权。①相比人类,人工智能机器在诸多工作中都有着无可比拟的优势,在竞争中被淘汰的“无用阶级”从失业到被边缘化,逐步失去生存的意义。劳动是人的本质属性,是人类实现自我价值、获取生活意义的重要手段。“无用阶级”失去劳动的机会,意味着失去了生活的意义。这将成为激化社会矛盾、破坏社会结构的重大潜在风险。二是社会不平等矛盾激化。近些年来,以人工智能为核心的技术系统开始全方位介入人类社会。然而,新技术的出现并没有改善原本的社会结构问题,反而存在着加剧社会矛盾的风险。人工智能技术系统的核心控制权与使用权只属于特权群体,这就会拉大不同群体之间的差距。地区差异、收入分配等社会问题已经相当严峻,如果人工智能技术不能平等惠及全人类,那么社会不平等的矛盾只会愈发激化,“数字鸿沟”已经是不争的事实。三是隐私权失去保障。隐私权是一项基本的人格权利。一般来说,隐私权是指自然人的个人信息与生活受到法律保护的权利。任何未经允许采集利用、泄露公开他人隐私的行为都属于侵犯个人隐私,将受到法律制裁。收集和分析数据是人工智能系统的基础。智能化时代一切都被数据化,个体的隐私信息成了数据挖掘的对象。随着人工智能多方位介入人类社会生活,个体隐私不可避免地受到威胁。人们在享受人工智能带来便利的同时,也失去了隐私权的保障。四是超级人工智能的失控风险。深度学习能力是人工智能的重要发展方向,未来甚至可能出现拥有自我意识的超级人工智能。具有自主意识的超级智能的出现,就意味着存在潜在的失控风险。人工智能自我学习和完善的过程是不可控的,自我意识的觉醒首先意味着自我保护。也就是说,人类极有可能被自己创造的人工智能所控制。约瑟夫·科恩、大卫·汉森指出:“制造出有自主意识、能采取自主行动的机器人,同时又使它们按照人类的是非标准行事是件极困难的事,甚至是不可能实现的。”②
第三,人的异化现象加剧。人工智能的成长正在影响“人”的本质属性。人工智能技术不仅在介入人类生活,甚至伴随着生物技术的发展开始介入人类身体。这种无机生命与有机生命的结合是创造性的,无疑也是极具风险性的。人机结合的出现开始模糊人类与人工智能的界限,加剧人的异化。库兹韦尔断言:“生物智能必将与我们正在创造的非生物智能紧密结合。”③当人类不再是纯粹的“人”,部分身体结构与人工智能结合或者替换时,该如何界定此种人机结合的产物?如果人工智能具备了人的本质属性,那么它能否享有人的尊严与权利?能否承担道德或是法律责任?人工智能技术的应用使得人的异化现象愈发严峻,亟须重新明确人的本质属性,规定人工智能的界限,建立处理人机关系的规范与准则。
第四,道德主体不明确。道德主体是指“具有自我意识,能够进行道德认知、能够进行推理并形成自我判断、能够进行道德选择与实施道德行为且承担道德责任的道德行为体”④。人工智能如果在未来真的具备了自我意识,那么应该以什么样的准则来判定它们的道德地位?对于这个问题的回答众说纷纭。“人类中心主义”的观点认为道德是人类独有的概念与特质,是人类精神世界的一种独特的约定俗成的默契,只有人类才能够享有道德主体地位。约翰·塞尔认为人工智能不具备成为道德主体的条件,“从没有一种纯形式的模型,足以凭借自身而产生意向性,因为形式特性自身不足以构成意向性,同时它们自身也没有因果能力,它们的能力不过是在例示过程中随着计算机的运行而产生下一步的形式体系”⑤。在未来人机共处的世界中,需要解决人工智能引发的道德伦理困境。
三、对人工智能发展带来困境的伦理思考
人工智能的高速发展必然会引发新的价值冲突、伦理问题。风险所在,往往也是人类自我拯救之所在。人工智能对人类社会提出了全面挑战,能否应对妥当,关系到人类的生存与命运,亟须对人工智能的发展和运用的过程进行伦理规制,以防患于未然。
第一,确立人工智能发展的基本伦理原则。面对人工智能的严峻挑战,不少组织与个人尝试性地提出了应对策略或伦理准则。这之中影响力较大的就是美国科幻作家阿西莫夫提出的机器人三定律:“机器人不得伤害人类个体或坐视人类个体受到伤害;在与第一定律不相冲突的情况下,机器人必须服从人类的命令;在不违反第一和第二定律的情况下,机器人有自我保护的义务。”⑥鉴于以上三原则明显还不够成熟,阿西莫夫后续又增加了一条根本性原则即机器人不得伤害或者侵犯人类。结合人工智能的进展,以人类的发展和利益为根本,可以在上述定律的基础上进一步提出以下几个原则。一是坚持以人为本。人工智能始终是人类文明的造物,为人类服务和满足社会生活的需要是其根本目标与存在价值,因此以人为本是约束人工智能发展的根本原则。盲目发展和因噎废食的选择都是不可取的。二是做到公开公正。当前的人工智能仍属于一种黑箱工作模式,其工作原理与能力界限对大众来说还是知识盲区,因此要确保公开原则落实到人工智能从研发设计到推广应用的每一个环节,要保证监管部门对整个过程的监督管理,及时处理来自大众的反馈信息。公正是人类社会的道德准则和法治管理的基本要求,也是保证人类合法权益和解决纠纷的基本准则。人工智能的研发和应用要严格贯彻公正原则,保证使用者公正地享受到同样的服务,以平等的姿态来迎接人工智能的技术革命。三是明确道德责任。人工智能的每一个环节,从研发设计到应用管理都离不开人类的身影,因此对所有参与设计、制造、管理的组织和个人都要加强约束和管理,明确各环节的道德责任,建立健全问责机制。工作人员要实事求是地根据人工智能的道德表现对其做出价值评估。
第二,加強对人工智能发展的价值规范和道德引导。人工智能如此突飞猛进地发展,未来不可避免会出现超出人类能力的表现,这就需要用价值来规范和约束,以道德来引导和修正,不能让人工智能为所欲为。一是用价值规范技术。人工智能的设计和应用应遵循人类的普适价值观,人工智能存在的价值在于服务人类社会,保障人类利益。马尔库塞强调,技术的合理性已经转化为政治的合理性,“技术拜物教”正在到处蔓延,“技术的解放力量——使事物工具化——转而成为解放的桎梏,即使人也工具化了”⑦。人工智能技术的研发应当严格禁止出现危害人类的设定或是漏洞,要将服务人类作为根本出发点。二是用道德引导发展。一项新技术的出现有可能引发新的价值冲突与社会矛盾,法律制度无法照顾到方方面面,这就需要道德规范来引导。算法不但是人工智能技术的基础,也将是未来人类社会生活不可或缺的重要部分。落实道德引导人工智能的发展就要从算法入手。将道德算法融入人工智能研发设计的算法之中,就是给人工智能系统的自主决策能力增加了技术保险和底线原则,确保其任何行为都会经过道德准则的审视与引导。
第三,制定人工智能合伦理发展的相关制度。一是研发、设计融入伦理思想。要确保人工智能的发展遵守为人类服务和保障人类的安全与利益的伦理准则,而不是颠倒主次的错位伦理;还要落实人工智能尊重人类主体地位,维护人类尊严的伦理要求。要将伦理观念融入人工智能的底层设计,让人工智能在实现其功能和价值的同时,时刻受到伦理准则的指导与约束。二是构建、完善相关法律规范。为了预防未来人工智能可能引发的矛盾与冲突,需要提前着手建立专门针对人工智能的法律法规。具体来说,针对人工智能将会造成的失业问题、隐私安全争论、知识产权纠纷等,要尽快着手完善补充相关领域的法律法规,让人工智能的发展之路有法可依、有条不紊。针对人工智能的相关法律法规是落实伦理重塑的基本保障,只有从法律层面明确责任、提供规范,才能让伦理约束切实可行。三是成立人工智能伦理委员会,监督人工智能的发展方向。人工智能的向前推进涉及多个学科领域的前沿问题和相关争论,需要成立相关组织机构搭建沟通桥梁,实现多个学科领域专家、工程师和官方权威人士对人工智能的发展方向及前沿问题进行及时研讨和协商。
历史经验告诉我们,人类自身存在不少缺陷和局限,走过不少弯路,犯过不少错误。面对人工智能技术,希望人类可以吸取过往经验教训,构建一个人机和谐相处的伦理道德体系,让全人类共享科技成果带来的便利,让人工智能更好地服务于人类社会。
注释
①巩永丹:《人工智能催生“无用阶级”吗?——赫拉利“无用阶级”断想引发的哲学审度》,《国外理论动态》2019年第6期。
②[美]约瑟夫·巴-科恩、大卫·汉森:《机器人革命——即将到来的机器人时代》,潘俊译,机械工业出版社,2015年,第235页。
③[美]库兹韦尔:《奇点临近》,李庆诚等译,机械工业出版社,2011年,前言。
④闫坤如:《人工智能机器具有道德主体地位吗》,《自然辩证法研究》2019年第5期。
⑤SearleJR.Minds,Brains,andPrograms.Behavioral&BrainSciences,1980,Vol.3,No.3,pp.417-457.
⑥[美]艾薩克·阿莫西夫:《银河帝国8:我,“机器人”》,叶李华译,江苏文艺出版社,2013年,第13页。
⑦[美]赫伯特·马尔库塞:《单向度的人——发达工业社会意识形态研究》,刘继译,上海译文出版社,1989年,第143页。
责任编辑:白杨
ProblemsBroughtAboutbytheDevelopmentofArtificialIntelligenceand
theEthicalConsiderations
WuGe
Abstract:Artificialintelligenceisplayinganincreasinglyimportantroleintheprocessofpromotinghumanprogressandsocialdevelopment.Whileartificialintelligencechangesthewayofhumanproductionandlife,italsoinevitablybringsaboutmanypotentialrisksandsocialproblems.Thedevelopmentofartificialintelligencemayresultinthelackofclarityofresponsibilitysubjects,increasepotentialriskfactors,intensifyalienationofpeopleandunclearethicalsubjects.ToensurethesafeuseofAIandtoachievethehealthydevelopmentofAI,itisnecessarytoestablishthebasicethicalprinciplesforthedevelopmentofAI,strengthenthevalueregulationandmoralguidanceforthedevelopmentofAI,andformulatearelatedsystemfortheethicsofAI.
Keywords:artificialintelligence;ethicaldilemma;responsibility;risk
收稿日期:2020-06-23
作者简介:吴戈,男,吉林大学哲学社会学院博士生(长春130001)。
人工智能发展中的伦理问题探究
李传军
摘要:近年来,人工智能发展势头强劲,深刻地改变了人类的生产方式和生活方式,极大地推动了经济社会的发展。然而,人工智能也引发了一系列重要问题,迫切需要我们从伦理学意义上作出解答。比如,在我们的社会中,人工智能的行为应当是怎样的?人工智能会不会侵犯人们的隐私权?人工智能会造成大规模的失业现象吗?可以在战争中使用智能武器吗?对超级人工智能和异常现象担忧是“杞人忧天”吗?我们应当把人工智能当作人一样对待吗?道义论、功利主义、美德伦理为我们理解人工智能伦理提供了三个不同的视角。寻找人工智能伦理调适的基本路径应当从界定人类与人工智能的关系入手,即人工智能的发展必须增进人类福祉,遵循人类的基本价值观。
关键词:人工智能;科技伦理;道德主体;伦理责任;伦理困境
中图分类号:B82 文献标志码:A 文章编号:1009-3605(2021)06-0038-11
一、导言
近年来,人工智能已经成为信息科技领域发展势头最为强劲的“排头兵”,甚至有人将之称为对人类经济、社会、文化等各领域产生重大影响的颠覆性技术。人工智能研究的最终目标是从一个新的视角来认识人类的思维能力。人工智能与其他新兴技术一道,形成了人工智能技术产业圈,深刻地改变了人类的生产方式和生活方式[1],极大地推动了经济社会的发展。然而,人工智能的“超能力”也足以让人们产生某种担忧,霍金就曾警告超人工智能会毁灭人类[2]。辩证地看,对人工智能盲目乐观或者过于悲观都不可取。积极的态度是正确应对,兴利除弊,使人工智能更好地造福于人类。
对于人工智能的理解取决于何谓“智能”。所谓“智”,即智慧,从心理学角度来看,知觉、判断、思维等构成了智慧的主要内容。所谓“能”,即能力,将智慧以语言或行为表达出来即为能力。那么,基于上述“智能”认识,人工智能一般是指能够模仿人类智能的机器。[3]关于这一点,有人发出这样的疑问:人工智能究竟是扩展了人类的智能,还是对人类智能的替代?人工智能也好,机器智能也好,都不是简单的技术的改变,而是生产力、生产关系、生产资料的改变。就人工智能的本质而言,它还是一种虚构,尤其是一种科技意义上的虚构,这正如文学创作中所虚构的人物和场景一样。尽管如此,后者也产生了重要的作用。问题的关键是,人工智能能否像人们所期望的那样不会对人类造成伤害?或者,人们所担心的是负责设计人工智能的人在一开始设计的时候就作出了错误的选择。
如果仅仅把人工智能看作是一种设备,那么很难说它与伦理问题有什么关联。但是,对人工智能进行伦理考量,可以帮助人工智能设计者或者程序员尽可能考虑到人工智能的潜在风险以及自动设备的责任归属问题。因为即使人工智能并没有内置道德规范,但只要人工智能产生了伦理影响,即可以将之视为道德受体。进一步说,是否人工智能具备自主能力,就可以成为道德主体?而一旦被视为道德主体,是否要求人工智能具备情感、意志等方面的条件?因此,对于人工智能问题,应进行系统的伦理思考,从而使得人工智能程序员、参与者和理论研究者能够在他们的工作中考虑到人工智能对于伦理可能产生的影响。人工智能与新技术融合后,许多新旧问题交织在一起,这使得与人工智能相关的伦理问题极其复杂。[4]
人工智能技术发展非常迅速,比如在一些相当困难的游戏领域,人工智能的表现远远超过人类。在自动驾驶方面,人工智能技术得到了广泛应用。另外,人工智能软件还能够基于大量的数据实现人脸、语言和行为的精准识别。这些人工智能应用产生了大量的公共数据,从而可能对人类未来产生某种不利的影响。即便这只是一种可能性,对于人工智能的伦理考量也是必要的。况且,人工智能不仅在思维层面取得了较大进展,而且在情感层面越来越拟人化,[5]以至于当人工智能以人类所具有的功能相互作用时,至少在部分意义上,它们是被当作社会成员的。人工智能嵌入我们的生活引发了一系列重要的问题。这些问题或多或少与伦理有关联,有些问题迫切需要我们从伦理学意义上作出解答。
二、人工智能引发的伦理问题
人工智能为人类社会发展提供了美好的前景,但同时也产生了诸多至关重要的问题,这些问题如果运用伦理的视角分析可以得到更好的理解。
(一)在我们的社会中,人工智能的行为应当是怎样的?
人类社会经历了几千年才造就现在的文明,在这一过程中,由于人类的错误也曾经使得文明遭遇劫难,人类在处理自身错误时已经积累了一定的经验,但是,对于人工智能可能犯的错误,人类还没有做好充分的准备。计算机病毒造成的损害,人们已经明了,而一旦人工智能系统中植入了不良代码,或者人工智能系统被恶人控制,那么,其造成的损害将是人类所不能承受之重。
人工智能在最基础的层面来说就是能够作出选择的计算机程序。当然,现在的智能系统主要是辅助人类作出决策,例如智慧城市中的交通、供水、供电等方面的系统优化。未来,人工智能会更广泛运用到其他领域,人工智能也有望在我们的日常生活中得到更多的应用,比如智能扫地机、自动驾驶以及帮助照看宠物等。
我们都知道计算机程序能够产生预料之外的后果,而且植入计算机系统也会产生附加的影响。正如真实世界的经济会突然崩溃一样,计算机系统也不例外。人工智能具有自主学习能力,其行为会否超出人类的控制,从而造成无法挽回的损失?它们的责任与一般意义上的社会伦理责任有何关系?这是一个必须认真对待的问题。从本质上来说,人工智能伦理问题虽然是因技术而产生的,但是它却无法仅仅依靠技术来解决,人工智能的技术研发和应用必须受到法律和道德规范的约束。不受任何约束的技术,很有可能造成人类的毁灭。[6]可行的方案是建立人工智能伦理审查委员会以对人工智能伦理相关问题进行全面监管。[7]伦理源于情感,比如孟子所说的“恻隐之心”就是基于情感的伦理意识,“羞恶之心”“辞让之心”“是非之心”,虽然有了较多的理性反思,但或多或少地与情感有一定的联系。因此,人工智能的道德学习是一个比较复杂的过程,它更多的是一个情感过程而非技术过程,因而很难程序化,这就使得人类对于人工智能伦理的监管更为困难。人工智能伦理的关键是将人工智能这种技术物提升到人所處的道德地位,从而使人工智能成为受到伦理规范约束的道德能动者。[8]
(二)人工智能会不会侵犯人们的隐私权?
从社会发展的角度来看,隐私保护是文明社会的一个重要标志。隐私权是一项基本的人格权利,是人权的重要构成部分,保护隐私权就是保护人权。在大数据时代,数据就是隐私。人工智能在开发、使用过程中会收集大量用户信息,这些信息单独地看,都是碎片化的信息,并不包含过多的隐私内容,但是,当运用一定的智能算法来整合这些数据时,某个人的一切行为都会被描绘出来,也就是说,个人信息都会暴露无遗,隐私完全不存在了。在现代社会,很难想像一个人能够完全脱离互联网,然而,只要运用网络,个人隐私信息就不可避免地被获取,特别是一些不法分子在经济利益的驱动下,利用法律或政策的漏洞大肆收集用户个人隐私信息,另外还有一些黑客通过入侵的手段窃取用户的隐私信息。鉴于人工智能的算法对于普通用户而言完全是一个黑箱,用户的个人信息往往是在用户不知情的情况下就被收集了,人们难免对个人隐私信息会否被过度收集而心存疑虑。[9]确实,在信息时代,要做到“大隐隐于网”是极其困难的,每个人都好像是“透明人”,不管他(她)在大街上、在单位,或者是在家里,都像处于“圆形监狱”中。人们都希望一方面享受信息化的便利,另一方面保护个人隐私,这同样也是人们运用人工智能的伦理困境。
由于人工智能具有自主学习的能力,人们在使用人工智能时,哪些信息会被收集,收集的信息如何处理,用户是一无所知的。当人工智能系统存在漏洞时,它不可避免地对人们的隐私权造成侵犯。一旦这些隐私数据被无意或恶意泄露,犯罪分子就可能利用这些隐私数据从事犯罪活动。
数据是人工智能伦理约束的主要内容。为了防范可能出现的上述问题,必须要求人工智能相关数据是透明的,即它所收集的任何数据必须以明示的方式获得用户的许可,而且,这些数据的流向以及使用方式也必须是透明的。对于技术与伦理的关系,有人主张应当伦理优先。人工智能发展不能以牺牲个人隐私权为代价,现在各种应用场景中的人脸识别已经引发人们对于技术凌驾于伦理之上的担忧。人工智能倫理的核心问题之一是责任,在人工智能设计、使用等各个环节都需要强化伦理审查、约束机制,收集要授权,使用有界限,存储应保护,唯其如此,才能形成人工智能有序发展、规范发展、健康发展的局面。
(三)人工智能会造成大规模的失业现象吗?
历史地看,每一次技术革命都会造成失业现象,特定的工种或工作岗位会被淘汰。人工智能是一种能够替代人的智力劳动和体力劳动的前沿技术。毫无疑问,“雇佣”智能机器人“性价比”更高,因此,人工智能所带来的自动化浪潮对于劳动密集型产业的影响是极其巨大的。当人工智能越来越强大时,传统经济领域会减少大量原来由人力所承担的工作岗位,特别是那些简单的、重复性的工作岗位会被人工智能所替代,从而大幅度提高工作效率,降低生产成本,但是就业者的劳动权被剥夺,这会减少其经济收入,降低其生活质量,加重其挫败感,加剧社会不公平,甚至造成社会结构的不稳定。人工智能取代人的工作岗位并不仅仅局限于劳动密集型产业,在一些智力密集型行业,如医疗保健、新闻媒体、教育培训等,都出现了人工智能对人的工作岗位的取代现象[10]。如果随着人工智能应用范围的扩展,当绝大多数工作都由人工智能承担时,那么,人的主体性地位将受到挑战,因为工作并不仅仅是谋生的手段,更重要的是人作为主体的标志。如果一个人因为落后于人工智能时代,而被时代所抛弃,成了“多余的人”,那是多么荒谬的事啊。
当然,也有一种说法是,新技术会增加一些新的工作岗位。然而,这些工作岗位并非那些因为技术革新而失去岗位的人所能胜任的,而且,这些人由于其所从事的主要是简单劳动,劳动技能较低,通过再培训获得需要更高技术要求的新岗位也是极为困难的,即便能够再就业,也很有可能沦为智能机器的附庸。对于这些人来说,不公平显然是存在的。人工智能技术的发展,在提高工作效率、消除旧技术所带来的不公平的同时,也会造成新的不公平,即掌握了人工智能技术的人能够获得更大的就业方面的优势地位,从而形成“人工智能鸿沟”。这一鸿沟可以存在于不同人群,也可以存在于不同地区、不同国家。为了防止“资本的逻辑”或“技术的逻辑”来主宰人类的命运,劳动者要做好心理准备与技能储备;政府应当考虑到人工智能发展对于传统就业的冲击,要为被人工智能替代的人寻找出路,通过教育、培训提升他们的专业技能,建立健全社会保障制度,保护他们的合法权益。
(四)可以在战争中使用智能武器吗?
关于在战争中使用智能武器的做法,已经引起了广泛的争论。反对智能武器的观点认为,一旦允许在战争中使用智能武器,怎样保证它只针对军事人员而不杀戮平民?它能否像战士一样遵循战争道德?谁来决定是足以使敌人丧失反抗能力即可还是直接杀死敌人?有人担心,一旦智能武器被恐怖分子掌控,很可能造成对平民的大规模杀戮,甚至会引发世界大战。
不过,也有很多人支持在战争中使用智能武器。他们认为,很多战争是必需且正义的,智能武器能够让人远离火线。这种观点还认为,在遵循旨在减少战争犯罪的战争法和交战规则的前提下,战争中使用机器人要优于人类参与战争。
无论是否在战争中使用人工智能,都应当以促进人类和平为出发点。一旦出现智能武器使用异常而又无法人为干扰的情况,智能武器可能成为杀人恶魔。据报道,美国曾在阿富汗等地使用智能武器,但造成了163名平民被误杀[11]。不仅如此,智能武器还会引发新一轮军备竞争,破坏人类的基本价值体系,无人机和智能武器的大规模运用很有可能是人类文明的一场灾难。因此,开发智能武器必须进行专家评估,特别是应当对其进行伦理风险评估。人工智能伦理的底线要求是不能允许人工智能对人类作恶。人类只有一个地球,世界各国应共同致力于构建人类命运共同体。因此,对于人工智能的恶意使用以及军事应用,必须从全球治理层面进行法治和伦理的规制。
(五)对超级人工智能和异常现象担忧是“杞人忧天”吗?
我们常说,科技以人为本。20世纪40年代艾萨克·阿西莫夫(IsaacAsimov)就提出了“机器人三定律”[12],明确了人工智能的设计目的在于更好地服务于人类。但是,我们能否保证,人类与人工智能永远处于“蜜月期”?随着人工智能的深度学习能力的增强,人工智能所作出的复杂选择是否一定符合人类社会的伦理规范?甚至,会不会有一天,人工智能强大到足以挑战人类中心地位,它们不再甘心只是人类的工具与附庸,从而主宰人类社会?随着人工智能越来越“智能”,人却变得越来越“傻”了。仅就记忆力而言,人工智能的数据存储能力越来越强大,而人类却患上了健忘症,一旦离开电子存储设备,人类还能记忆什么?
现在,学者们对于未来人工智能的作用存在不同的理解。有学者将人工智能称为我们现在最大的威胁,他们担心:在人机关系中,人类的主体性地位能否得到保障?人类的价值观能否被人工智能所认同?也有学者对人工智能持谨慎乐观的态度,只是对超级人工智能表示担心。他们认为,如果人类能够很好地控制人工智能,那么人工智能的发展前景还是值得期待的。有学者认为,对于人工智能所造成的所谓异常不必“杞人忧天”,即便出现异常,也是低概率事件。不過,这一赌注代价确实太大,因为一旦人工智能出现异常,所造成的损失往往是巨大的。
在信息时代,人类与人工智能共同进行着信息化生存,在信息环境构建方面(或者通俗地表述为“话语权”),显然,人工智能更占据优势地位,如此一来,“人类独一无二的地位将被取代”[13]108。那么,如果伦理规范的制定仅以话语权为依据,人的主体性地位就岌岌可危了。早在公元前5世纪,古希腊智者普罗泰戈拉就提出“人是万物的尺度”这一命题[14]。尽管对于这一命题有不同的理解,但是,其中所蕴涵着人的主体性地位是比较明显的。然而,在人工智能时代,“智能和自主将不再是人类独有的特性”[13]38,人的主体性地位就丧失了,这本质上就是一种“异化”,是技术对人类的“反动”。是否还存在一种可能,即人工智能系统可以完全自主运转,那么,人的位置在哪里?怎样保证在人工智能技术系统的构建与改造过程中,以人为主导并受到人的控制?
(六)我们应当把人工智能当作人一样对待吗?
随着人工智能越来越深地介入人类社会,我们将面临着如何对待人工智能的伦理困境。现在,越来越多的学者认为,人工智能并非与道德无涉。正如在今天的社会中,人工智能已经占据了极其重要的地位,在可以预见的未来,人工智能会成为一个拥有知识和关系的独特个体。作为一个独特个体,人工智能也有自己的权利吗?也许有人认为,人工智能应该追求人类福祉,而不应当享有与人类同等的权利,但是,如果把人工智能定位为道德能动者,那么人工智能必须对其行为负责,人工智能伦理规范在对人工智能提出责任要求的同时,如何保障人工智能的权利也是一个必须加以重视的问题。
网络时代,人们的人际交往能力在不断下降。随着机器人被设计得越来越精密,特别是一些智能伴侣机器人,在外形、声音、行动等方面几乎与真人无异,2017年沙特阿拉伯甚至赋予人形机器人索菲娅(Sophia)以公民身份,人形机器人越来越被视为一个有情感的个体,以保姆、伴侣甚至孩子的身份进入人们的家庭,这种现象很有可能会冲击传统的人伦关系[15]。当人们更多地与机器人交往时,会否减少与他人的人际交往?人际关系会否越来越淡漠?看一看我们周围的“低头族”,也许这种担心并不是多余的。痴迷于网络交流,忽视现实中面对面的交流,使人更疏远。
另一方面,当人工智能发展到一定程度而具有道德判断能力时,其道德感的生成并非瞬间完成的,而是有一个与人类互动养成的过程。此时,人工智能对人类的依赖关系更加强烈,人类与人工智能也同样更加密不可分。人工智能不应被简单地理解为人类的附属品,因为与其他技术产品不同,人工智能被赋予了“生命”“价值”“情感”等方面的内涵。
人工智能伦理最核心的是责任问题,这种责任是相互的,即人类对人工智能的责任和人工智能对人类的责任同等重要。在大工业生产条件下,每个岗位、每个环节各司其职、各负其责,这是效率提升的必然要求,然而,这种高度分工必然造成责任的“碎片化”,即无人对整体负责。人工智能伦理的提出就是要打破这种僵局,构建一种人类与人工智能共生共在的伦理共同体,因为人类与人工智能的生存本质在信息这个层面实质上是相同的。在传统时代,作为个体的人和作为整体的人类与信息、数据关联度并不高,但是,在大数据时代,信息即存在、数据即内容,无论是人类还是人工智能,概莫能外。根据系统论的观点,技术与人类之间是共生关系,人工智能的发展已经使之与人类社会高度融合。而要构建和谐的人-机关系,应当以文化和价值观的可接受性作为前提。
三、理解人工智能伦理的多元视角
人工智能不是与人类社会无关的纯粹技术问题,而是存在于人类社会生活之中并对人类社会生活产生重大影响的新技术。既然人工智能是人类社会实践的产物,那么,讨论人工智能伦理问题就不可能脱离人类社会实践的大背景。在我们研究人工智能伦理问题时,应将之放置于人类社会伦理体系的大框架之中来认识。
人工智能伦理是科技伦理在人工智能领域的具象化,而科技伦理是对于科学技术活动中人与人、人与自然、人与技术等方面关系的伦理规范,属于应用伦理学的范畴。伦理是我们处理与自然、社会关系的基本规范。学习伦理学,可以使我们应对伦理挑战,从而正确地理解世界以及正确地处理与他人的关系。通过伦理学理解世界的大多数研究方法要接受三个方向各异的主要定位:道义论、功利主义、美德伦理。
道义论认为伦理应当遵从道德律令。与人类一样,人工智能也应当遵循道义论伦理学所确立的道德律令。如果人工智能具备自主性,成为道德能动者,具备了道德主体的地位,人工智能必须为自身的过失行为承担责任,那么,这是否意味着人工智能的设计者、生产者、销售者、所有者、使用者等可以免除责任呢?如果人工智能可以承担责任,人类会否将自身应当承担的责任转嫁给人工智能呢?人工智能如果成为人类免责的工具,不论是对于人工智能的权利保障而言,还是对于受害者(人工智能或人)的权利维护而言,都是不公平的。如果需要人工智能承担民事责任,它有财产可供执行吗?如果需要人工智能承担刑事责任,那么有期徒刑这种对人身自由的限制对于人工智能有没有意义?如果判处人工智能死刑,是彻底销毁还是抹去记忆?这种死刑有意义吗?或者说,人工智能会像人那样畏惧死亡吗?“民不畏死,何以死惧之?”对于人工智能亦然是成立的。如果人工智能连对死亡的畏惧之心都没有了,人类如何制约它?人工智能应服务于人类,而不能使人类受制于它,这是人工智能伦理设计的底线原则。
功利主义伦理学也被称为效果主义。通常,人们是根据某种行为的后果来判定是否合乎道德。相比较人类,人工智能在计算(“算计”)行为的后果(“效用”)方面,有着更大的优势。那么,能否说人工智能比人类更高尚呢?但实际上,行为是由理念主导的,道德行为之前必须有道德选择问题。当人机互动成为可能,人类能否洞察人工智能某种行为的内在动机?我们知道,对于情绪管理能力极好的人,测谎仪基本上没有什么用处。同样,人工智能比人类更善于隐藏自己的真实动机。这样一来,人工智能是一个黑箱,人类反而是透明的,人类与人工智能的主次地位就颠倒了。人工智能对于人类的意义又在哪里呢?当然,从现实效用来看,那些道德水准较高的人工智能可能更容易与人类相处,更易被人类社会所接受。
美德伦理虽然历史久远,但是一直未受到足够的重视。美德是美德伦理的核心概念,是指一个人持久的良好品性,包括基本美德(如仁爱、正义等)和派生美德(如友善、诚实、谦虚等)。美德伦理把行为主体的品质和动机作为评价对象,认为美德可以培养,强调道德教育的重要性。与道义论关注责任、功利主义关注后果不同,美德伦理重在优良品质的培养,这是合乎道德行为的保障,因此,可以作为人工智能伦理设计的理论依据。在人类社会中,我们希望好人越多越好,坏人越少越好,同样,在人工智能伦理设计环节,应当将道德规范预先植入人工智能系统,让人工智能成为一个“好机器人”,而不是一个“坏机器人”。
人工智能的发展对于传统道德哲学构成了挑战,一些既有的道德原则和伦理规范的适用性也存在着诸多问题。究其原因,在于人工智能颠覆了传统的人与技术关系的判断。在人工智能作为一种技术出现之前,其他所有的技术都未对人类的主体地位构成挑战,而人工智能则对人进行了重构,甚至人的身份也出现了模糊,比如,基于生物传感技术的可穿戴式人工智能设备就实现了“人-机”合一。人工智能技术的发展是非常迅速的,解决由人工智能所引发的伦理问题更是迫在眉睫。如果我们在人工智能伦理设计中缺乏前瞻性,人工智能技术发展所带来的风险是难以控制的。当前人工智能伦理风险主要包括人类的决策主体地位难以完全保障、用户隐私权受到侵犯、安全责任主体难以落实以及破坏社会公平等方面[16]。人工智能发展的目的在于增进全人类的福祉,任何技术的狂妄所带来的都可能是一场灾难。伦理是作为主体的人在处理与他人、与自然关系时所产生的,是人类的基本属性,人工智能伦理的实现就有一个“学”和“习”或者说“知”和“行”的过程,前者是指将人类伦理观和伦理规范通过技术方式植入人工智能,后者是指人工智能在具体实践中如何贯彻人类伦理观和伦理规范。如果人工智能伦理只是止步于前者,那么,随着人工智能更加“智能化”,特别是当人工智能的自主学习能力更强以至于在某种程度上获得了主体地位时,伦理困境甚至伦理危机就不只是存在于科幻作品中,而极有可能成为现实了。
四、人工智能伦理调适的基本路径
寻找人工智能伦理调适的基本路径应当从界定人类与人工智能的关系入手。因为,人工智能伦理的本质就是人类与人工智能的关系。在讨论人类与人工智能的关系时,有两种理解方式。
一种是“主体说”,即认为人工智能拥有与人类相同的地位,人工智能是法律意义的“自然人”,能够以自己的名义承担责任、享受权利,而自我意识是承担伦理责任的前提,因此,在伦理学意义上,人工智能本身就是道德主体。根据智能化水平的高低,人工智能分为弱人工智能、强人工智能和超人工智能。在目前的技术条件下,人工智能尚处于弱人工智能阶段。在这一阶段,如果说人工智能具备主体地位还比较牵强。当然,我们可以做出一种技术前瞻,未来的人工智能可能达到强人工智能乃至超人工智能水平,人工智能具有了自我意识和深度学习能力,自主性大大增强,一些科幻作品也将人工智能视为道德主体。届时,人工智能伦理问题就更為复杂了。如果把人工智能视为道德主体,而且它能够承担道德责任,甚至比人做得更好,那么,人还有存在的必要吗?人们对于人工智能所可能带来的“去人类化”不无担忧[17]。就其本质而言,这就涉及人工智能与人类在道德构建方面的责任边界问题。人工智能的道德意识不可能自动生成,要通过预先植入或后来学习获得,那么,人类就是人工智能的“造物主”或伦理老师,人工智能的道德意识(比如同情心、善恶、荣辱等)或者由人类通过算法植入或者在与人类的社会交往中生成。当然,如果有人别有用心,罔顾法律和道德,在人工智能的设计环节或学习环节“做手脚”,“教唆”人工智能做坏事,就相当于打开了“潘多拉魔盒”,对人类造成严重危害。所以,从根本上来说,对人类造成威胁不是人工智能,而是人类之中的“害群之人”。
另一种是“客体说”,即认为人工智能是服务于人类的一种技术,这种观点也是本文的立论前提。在目前的弱人工智能阶段,人工智能只具有有限的自主性,背后的设计者和控制者仍然是人。人是主体,而人工智能是客体。既然如此,那么,从法律意义上讲,人工智能必须有其监护人或负责主体。我们目前所探讨的人工智能伦理,本质上是人工智能设计、开发、运用中的伦理问题,承担伦理责任的主体是自然人或法人,而不是作为服务于人的人工智能。因为人工智能是人为构建的计算机系统,支配人工智能的是各种程序代码,程序代码的伦理规范必须是预置在计算机系统中的,这套伦理规范是由程序设计师来构建或选择的,因此,从终极意义上来说,人工智能的道德主体依然是自然人或法人。伦理学家的任务是帮助人工智能工程师确立正确的伦理观,以促进人工智能与人类的伦理维度相匹配。在大工业生产模式下,技术标准与规范是必需的,在人工智能设计中植入伦理标准与规范是人工智能伦理的重要实现方式。当然,这些伦理标准与规范必须合乎大众伦理价值。人工智能伦理本质上是技术伦理,人工智能设计如何体现伦理构建的基本要求,即人工智能不能伤害使用者以及其他道德关联者,这是一个值得关注的重要问题。
一切自由都不是无条件的,如果自由不受任何约束,那必将造成人类的灾难。人工智能越发达,其所获得的自由亦越多,也就越需要伦理的约束。人工智能的进展迫切需要我们扩展伦理学的适用范围。人工智能的设计开发、应用以及人机关系都存在着伦理问题。在过去,伦理学的基本问题只关乎人类和人类行为。随着人工智能的越来越智能化,特别是当人工智能具有思考力和感知力时,它是否被视为“人”,就不是一个纯粹技术问题,而必须进行伦理规范了。因为人工智能能够基于自身对于复杂世界的感知而作出自主的行为选择。在人类的诸多价值或目标之间往往存在着冲突,而且价值是模糊的、难以量化的,道德的复杂性意味着道德主体不仅要在善与恶之间选择,而且有时面临着在两种及以上不同的价值之间做出选择的困境,即“道德困境”。以自动驾驶为例,自动驾驶的汽车应如何设计程序以做出一系列的行为选择,或者当控制系统失灵时能够进行人工干预,从而避免或者对行人或者对其他车辆的伤害?在不可避免造成伤害的情况下,怎样权衡这两种伤害也许根本不存在所谓正确的选择,对于程序设计人员而言,如何在程序设计时进行伦理考量?比如,何种价值应当赋予某种特殊的机器以胜任特殊的任务。当然,之所以选择一套价值而不是其他价值,有其成本效益的考虑。
正如人类社会的和谐存在与发展离不开伦理的调适一样,我们正在进入的人工智能社会也离不开人工智能伦理的约束和规范,人工智能伦理是人工智能发展的“锚定桩”[18]。人工智能的发展必须增进人类福祉[19],遵循人类的基本价值观,然而,人类价值本身是多元的,而且在多种价值之间也存在着冲突与矛盾,到底以何种价值作为人工智能的设计框架呢?因此,人工智能学习者不仅需要学习和掌握如何将各种算法代码植入人工智能系统,并使之做出相应决策的技术,更重要的是要学习伦理理论[20],后者确立了人类选择行为的基本原则,相应地,这些原则对于设计智能系统也是必需的。由于伦理结构的复杂性,即使人工智能具备深度学习的能力,其获得伦理认知能力也是一个循序渐进的过程,毕竟,人工智能既可能“跟着好人学好人”,也可能“跟着巫婆跳假神”,因此,进行人工智能伦理设计可能面临着一个试错的过程。另一方面,伦理规范又具有相对性,不存在普适性的伦理标准,反映在不同时代、不同国家、不同族群等,伦理规范都具有差异性,要将已经达成的伦理共识(比如以人为本、公正、和谐、可持续发展等[21])形成“道德算法”植入人工智能,也即“算法从善”原则[22]。在人工智能设计过程中,伦理审查的关口应当前置,以防患于未然,不能等待出现问题再“亡羊补牢”。人工智能伦理设计要有明确的价值定位,即赋予人工智能友善的动机,具备良好的道德品质,从而做出合乎道德规范的行为。各国应在构建人类命运共同体理念指导下,共同应对人工智能伦理问题,建立完整、有效的人工智能伦理体系[23],确保人工智能的健康、可持续发展,使人工智能更好地增进人类福祉[24]。
参考文献:
[1]闫坤如,马少卿.人工智能伦理问题及其规约之径[J].东北大学学报(社会科学版),2018(4):331-336.
[2]孟伟,杨之林.人工智能技术的伦理问题——一种基于现象学伦理学视角的审视[J].大连理工大学学报(社会科学版),2018(5):112-116.
[3]伍敏敏.刍论人工智能伦理问题的内涵与性质[J].智能建筑与智慧城市,2019(3):13-16.
[4]朱琳,周沐融,杨千腾.“革新”与“交融”:基于规范及准则的人工智能伦理生态圈的构建[J].电子政务,2021(7):80-90.
[5]陈凡,徐旭.当代人工智能伦理设计的困境和超越[J].华中科技大学学报(社会科学版),2020(5):1-7.
[6]王东,张振.人工智能伦理风险的镜像、透视及其规避[J].伦理学研究,2021(1):109-115.
[7]刘露,杨晓雷,高文.我国人工智能伦理监管需求分析及对策研究[J].中国工程科学,2021(3):106-112.
[8]张正清,张成岗.第四次革命:现代性的终结抑或重构——信息倫理对人工智能伦理的启示[J].武汉大学学报(哲学社会科学版),2018(3):177-184.
[9]段伟文.构建稳健敏捷的人工智能伦理与治理框架[J].科普研究,2020(3):11-15.
[10]王前,曹昕怡.人工智能应用中的五种隐性伦理责任[J].自然辩证法研究,2021(7):39-45.
[11]高石.简单粗暴,美国无人机反恐遭抨击[N].人民日报,2016-07-04(21).
[12]温德尔·瓦拉赫,科林·艾伦.道德机器:如何让机器人明辨是非[M].王小红,等,译.北京:北京大学出版社,2017:1.
[13]卢西亚诺·弗洛里迪.第四次革命[M].王文革,译.杭州:浙江人民出版社,2016.
[14]张志伟.西方哲学史[M].第2版.北京:中国人民大学出版社,2010:51.
[15]孙伟平.人工智能导致的伦理冲突与伦理规制[J].教学与研究,2018(8):57-63.
[16]赵志耘,徐峰,高芳,等.关于人工智能伦理风险的若干认识[J].中国软科学,2021(6):1-12.
[17]董青岭.人工智能时代的道德风险与机器伦理[J].云梦学刊,2018(5):39-44.
[18]闫宏秀.用信任解码人工智能伦理[J].人工智能,2019(4):95-101.
[19]李伦,孙保学.给人工智能一颗“良芯(良心)”——人工智能伦理研究的四个维度[J].教学与研究,2018(8):72-79.
[20]任安波,叶斌.我国人工智能伦理教育的缺失及对策[J].科学与社会,2020(3):14-21.
[21]陈静.科技与伦理走向融合——论人工智能技术的人文化[J].学术界,2017(9):102-111.
[22]田海平,郑春林.人工智能时代的道德:让算法遵循“善法”[J].东南大学学报(哲学社会科学版),2019(5):5-13.
[23]陈小平.人工智能伦理体系:基础架构与关键问题[J].智能系统学报,2019(4):605-610.
[24]陈小平.人工智能伦理建设的目标、任务与路径:六个议题及其依据[J].哲学研究,2020(9):79-87.
责任编辑:谭桔华
超级人工智能带来的AI伦理是什么样的
时至今日,人们对AI人工智能并不陌生——城市中随处可见的AI场景及应用,给人类生活带来了很多变化:面部识别,让城市通勤、居家有了更便捷的体验;AI模拟成像,让古风甚至穿越成为可能;智能算法的物品筛选,让购物实现千人千面。而随着接踵而来的核心技术的突破、重磅落地的技术前沿革新,“超级人工智能”的诞生及应用让社会对其产生了不同的看法,一方面认为AI可极大提升生产力,推动社会进步,改善人类的生存环境;另一方面则强调AI颠覆性的发展与存在,或将在未来大面积取代人类,并带来伦理层面的挑战。
AI伦理,顾名思义就是AI的伦理学,亦称作“道德哲学”,是对人类道德生活进行的系统性思考和研究。人类对于AI伦理相关的话题,探讨已久。数据科学家凯西·奥尼尔则在《算法霸权:数学杀伤性武器的威胁》一书中,描述了利用大数据、人工智能相关技术导致的偏见和不公。物理学家史蒂芬·霍金曾经谈到,彻底的人工智能可能导致人类的灭亡,伊隆·马斯克认为,人工智能是一个恶魔,但是人类不一定具备控制这个恶魔的能力。
但即便如此,从1950年的图灵测试落地到今日人工智能城市AICITY的诞生,AI的发展显而易见,在“曲折”中持续前行,由此其中夹杂的AI伦理也逐渐成为AI发展之于社会影响的舆论焦点:“超级人工智能”是否会威胁人类的生存安全?算法决策是否能够保证结果公平?当越来越多的“超级人工智能”,特别是机器人投入到使用中,人与机器人的关系如何处理?从弱人工智能到强人工智能甚至是超级人工智能,人工智能是否会失控?所有这些关乎人工智能发展对人类社会基本运营法则的影响的讨论,都属于人工智能伦理的研究范畴。
这些专家和学者的担心并非杞人忧天。机器学习、深度学习算法等人工智能技术,使得计算机可以从数据中不断“学习”,实现自主学习与进化。当前在众多领域,如餐饮、社会服务、巡控检查等,人工智能已经代替人开展了很多工作。未来在某些领域,人工智能可以做出比人类更高效、更精准、更科学的预测和决算。当人工智能进化到足够的高度,产生类似人的情感及“人性”,甚至是与人类伦理类似的“道德伦理观”时,人与机器人的关系是什么,伦理学中人的地位是否会发生变化?这些当前并未清晰定义的问题关系到未来人类生存、生活、发展的方方面面。
AI伦理的5大热点领域
随着人们对于这一问题的认识不断深入,目前围绕人工智能伦理,已经有了明确的问题聚焦。算法歧视、数据隐私、安全与责任、机器人与人的关系以及科技贫困是当前AI伦理5大热点研究领域。
算法歧视算法基于已有的数据进行未来的预测,算法模型和数据输入很大程度上决定着预测结果。无法保证算法开发设计者自身的价值判断不会嵌入算法系统。
数据隐私人工智能充分挖掘和利用数据的相关性,促进了大量数据的采集和流动。通过人工智能终端,后台服务器可以轻易读取个人的活动信息,公共区域高清摄像头随时捕捉行人、行车信息,人脸识别系统轻松抓取面部生物特征,个人、企业的数据隐私将面临越来越多的讨论。深度伪造技术的应用,也出现了滥用个人信息,制造虚假导向等问题。
安全与责任自动驾驶汽车曾导致人员的伤亡、机器人也曾致人受伤。人工智能系统有较强的自主性,也存在受到网络黑客篡改汽车数据的隐患,当出现相关的安全与责任问题时,如何判断责权。
机器人与人的关系人工智能与人类是命令和服从的关系还是友好互动,和谐共生?机器人是否应该获得“意识觉醒”,机器对人类是否会产生“反控制”,机器人与人的关系应该如何界定。
科技贫困人工智能应用将在越来越多领域代人工,人工智能对人力资源的取代,使人类劳动力将面临失业风险。人工智能作为一种高精尖的技术,具有一定的技术门槛,可能产生人工智能技术被少数实力雄厚的大企业垄断的情况,而造成财富格局的固定化、收入差距的扩大化。
可以看到,AI伦理的5大焦点研究领域实际上涵盖了从科技发展到经济增长,乃至人类安全和社会稳定等诸多重大问题,仅靠学界提出呼声,显然是不够的。可喜的是,我们正在看到包括各国政府在内的多种组织和社会团体正在参与到AI伦理的讨论与探索当中。尤其是一批新锐科技公司从自身业务出发对AI伦理的阐述和发展贡献了有益的新思路。
多方构筑下的世界通识
2015年之后,随着人工智能在包括自动驾驶、城市智能化领域的广泛应用,各国政府、非政府组织及各类研究机构开始对AI伦理积极地探索。2019年,我国提出组建国家科技伦理委员会进行科技伦理相关的规范和研究,2020年该委员会正式成立。2021年1月1日,新《民法典》正式实施,从包括保障公众私生活“安宁权”、构筑个人信息安全防火墙到全面建立反性骚扰制度防线以及及时应对AI等新技术对人格权的挑战进行了描述。
欧洲委员会在《人工智能白皮书》中提出,人工智能最终的目的是增进人类福祉,AI以人为本,给予道德,可持续发展,尊重最基本的权利和价值;欧盟委员会提出“可信AI”,明确了三项基本原则:一、AI应当符合法律规定;二、AI应当满足伦理原则;三、AI应当具有可靠性。
IEEE(电器和电子工程师协会)发布《道德准则设计》,主张将价值观嵌入自主智能系统,并将体现人权的最高立项纳入人工智能及自主系统的一般原则。生命未来研究所提出的阿西洛马人工智能原则中从价值归属、司法透明、共同繁荣等13个方面对人工智能系统及应用提出了要求。
与此同时,一批新锐的人工智能领域的科技公司作为AI技术的具体研发方和应用方也提出了自己对于AI伦理的理解。AI伦理无疑将成为未来AICITY建设的重点关注方向。这类需要在全球进行业务拓展的公司而言,将中西方伦理观念进行融合,使其更具普适性和指导性,不仅是出于业务拓展的需要,也从具体操作层面弥补了当前AI伦理研究的盲点。
围绕人工智能伦理的探索,从当前的伦理问题思索,到未来可能产生相对明确而又普适性极强的伦理原则,形成伦理测度,进而进行伦理符合性评估是未来人工智能城市建设中不可回避的问题。但是中西方在道义与功利的伦理价值取向、情感主义和理性主义文化精神等层面存在差异,导致了对于AI伦理的阐述和解读形成了不同的思想阵营。以疫情中东西方社会面对个人健康码的态度和反应速率为例,不同文化心理下的市民对于公众安全与个人隐私之间的博弈有不同的理解。
此外,有研究者将人工智能分为弱人工智能、强人工智能和超人工智能,面对人工智能本身的复杂性以及未来发展极大的不确定性,当前还无法计算和预测超人工智能是否会产生危害,产生何种危害。而人工智能伦理的研究,正是希望通过伦理的原则对人工智能产生的负面影响形成制约。对于这样的科技公司而言,如何将伦理研究嵌入技术研发,使二者形成深度融合,解决当前及未来的问题,最大效用发挥人工智能的正面作用必将是关乎公司未来长远发展的重要课题。
任何一种革命性技术的到来,总是会伴随着这样或那样的认知冲击。从转基因技术到克隆技术再到当前的人工智能,随着人们知识边界的拓展,伦理范畴的讨论也将始终伴随左右。未来的AI伦理研究和应用必将是一个学界、政界、司法界、科技界共同构建的有机生命体,并向着世界范围内的通识渐进。
文/财小哥
图/云图视觉
时/20210303
原标题:《超级人工智能带来的AI伦理是什么样的?》
阅读原文