人工智能伦理学:让机器明辨是非 – FedAI 中文站
从淘宝网上的产品推荐到根据用户在社交软件上的行为来评估个人信誉,人工智能(AI)正在成为大众日常生活中不可或缺的一部分。当它快速发展并且越来越重要的时候,人工智能涉及到的伦理问题进入公众视角,成为热议话题。
特别是最近发生的一些与自动驾驶汽车有关的事故使这一话题成为公众关注的焦点。此外,麻省理工学院最近进行的大规模研究项目——道德机器项目[ⅰ],进一步揭示了自动驾驶汽车设计师、乘客和其他道路使用者面临的道德困境以及让社会就管理AI应用的道德规范达成一致的复杂性。这些都表明AI与社会之间需要建立社会契约。
1、辨别什么是正确的
截止目前,AI研究界已就AI伦理体系的一些理想品质达成一致。包括以下方面:AI应用程序应尊重并保护用户隐私;AI做出的决定应该是公正的、不偏不倚的、可以向人类解释的,出于问责的目的,如果出现问题,责任归属应该是可能的。各种团体也在研究道德困境,个体和集体的AI伦理决策,以及人与AI之间的伦理互动[ⅱ]。虽然已经取得了一些进展,但这些研究成果还有待在现实世界加以推广应用。
值得注意的是,承认将道德规范纳入AI的重要性也促使人工智能研究和工程界提出了许多全球倡议项目。其中一项是由电气电子工程师协会(IEEE)提出的IEEE自主和智能系统伦理全球倡议,自成立以来,已经制定了《人工智能设计的伦理准则》(EAD)报告。该报告概述了开发和管理未来AI授权系统的原则,指南和最佳实践。
2、获得最佳实践的支持
人工智能促进协会(AAAI)还于2018年与计算机协会(ACM)合作,组织AAAI/ACM人工智能、伦理和社会会议(AIES)[ⅲ]。该会议为人工智能研究人员和社会科学研究人员提供了一个平台,共同制定跨学科解决方案,应对AI应用中的道德挑战。
3、采取积极的、而非不限制性的行动
然而,在AI伦理技术还未成熟的情况下,立法环境已经发生了变化。2016年,欧盟制定了针对AI应用的最严格的隐私保护法之一——通用数据保护法规(GDPR)。GDPR规定了许多旨在保护用户隐私并禁止组织在未经用户明确授权的情况下交换数据的规范。此后,中国和美国也出台了类似的政策法规。严苛的法律环境可能会阻碍AI的发展,因为它使拥有各种类型用户数据的不同公司无法进行协作和建立新业务。
幸运的是,AI研究界对所面临的法律挑战有适当的回应。通过引入机器学习的新范例——联邦学习,不同的数据所有者可以通过在本地存储数据并遵守安全协议(例如同构加密,差异隐私和秘密共享)的前提下来继续协作和集体训练模型,以防止用户隐私泄露[ⅳ]。
4、赋能持续发展
联邦学习的支持者之一是联邦AI生态系统(FedAI)[ⅴ],由微众银行首席人工智能官杨强教授领导。除了为银行和医疗等强监管领域提供全球开放的联邦学习技术研究、开发和部署平台外,FedAI还致力于为开源开发营造更包容的环境,包括提供联邦学习的模块源代码FATE(FederatedAITechnologyEnabler),以及在更严格的AI管理法则下,使AI研究人员和工程师能够创建更复杂、更有效隐私保护的机器学习技术教程材料。
实际上,即使法律政策环境变得更加艰难,这种方法也有可能使AI继续保持其强劲的发展轨迹。人工智能的未来看起来很光明,在这个领域工作是激动人心的。过往的征途坚定了我们的决心,不仅要让AI成为一个有用的工具,更要打造一个可持续的系统性技术,让社会更加公平公正。
[ⅰ]MITMoralMachineprojecthttp://moralmachine.mit.edu/.
[ii]H.Yu,Z.Shen,C.Miao,C.Leung,V.R.Lesser&Q.Yang,“BuildingEthicsintoArtificialIntelligence,”inProceedingsofthe27thInternationalJointConferenceonArtificialIntelligence(IJCAI’18),pp.5527–5533,2018.
[ⅲ]AAAI/ACMConferenceonArtificialIntelligence,Ethics,andSociety(AIES)http://www.aies-conference.com/
[ⅳ]Q.Yang,Y.Liu,T.Chen&Y.Tong,“FederatedLearning:ConceptsandApplications,”ACMTransactionsonIntelligentSystemsandTechnology(TIST),vol.10,no.2,pp.12:1–12:19,2019.
[ⅴ]FederatedAIEcosystem(FedAI)https://www.fedai.org/
人工智能伦理问题的现状分析与对策
中国网/中国发展门户网讯 人工智能(AI)是第四次产业革命中的核心技术,得到了世界的高度重视。我国也围绕人工智能技术制定了一系列的发展规划和战略,大力推动了我国人工智能领域的发展。然而,人工智能技术在为经济发展与社会进步带来重大发展机遇的同时,也为伦理规范和社会法治带来了深刻挑战。2017年,国务院印发的《新一代人工智能发展规划》提出“分三步走”的战略目标,掀起了人工智能新热潮,并明确提出要“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架”。2018年,习近平总书记在主持中共中央政治局就人工智能发展现状和趋势举行的集体学习时强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。2019年,我国新一代人工智能发展规划推进办公室专门成立了新一代人工智能治理专业委员会,全面负责开展人工智能治理方面政策体系、法律法规和伦理规范研究和工作推进。《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》中专门强调要“探索建立无人驾驶、在线医疗、金融科技、智能配送等监管框架,完善相关法律法规和伦理审查规则”。这些均体现了我国对人工智能伦理及其治理的密切关注程度和积极推进决心,同时也突出了这一问题的重要性。
当前人工智能伦理问题
伦理是处理人与人之间关系、人与社会之间关系的道理和秩序规范。人类历史上,重大的科技发展往往带来生产力、生产关系及上层建筑的显著变化,成为划分时代的一项重要标准,也带来对社会伦理的深刻反思。人类社会于20世纪中后期进入信息时代后,信息技术伦理逐渐引起了广泛关注和研究,包括个人信息泄露、信息鸿沟、信息茧房、新型权力结构规制不足等。信息技术的高速变革发展,使得人类社会迅速迈向智能时代,其突出表现在带有认知、预测和决策功能的人工智能算法被日益广泛地应用在社会各个场景之中;前沿信息技术的综合运用,正逐渐发展形成一个万物可互联、万物可计算的新型硬件和数据资源网络,能够提供海量多源异构数据供人工智能算法分析处理;人工智能算法可直接控制物理设备,亦可为个人决策、群体决策乃至国家决策提供辅助支撑;人工智能可以运用于智慧家居、智慧交通、智慧医疗、智慧工厂、智慧农业、智慧金融等众多场景,还可能被用于武器和军事之中。然而,迈向智能时代的过程如此迅速,使得我们在传统的信息技术伦理秩序尚未建立完成的情况下,又迫切需要应对更加富有挑战性的人工智能伦理问题,积极构建智能社会的秩序。
计算机伦理学创始人 Moore将伦理智能体分为4类:伦理影响智能体(对社会和环境产生伦理影响);隐式伦理智能体(通过特定软硬件内置安全等隐含的伦理设计);显示伦理智能体(能根据情势的变化及其对伦理规范的理解采取合理行动);完全伦理智能体(像人一样具有自由意志并能对各种情况做出伦理决策)。当前人工智能发展尚处在弱人工智能阶段,但也对社会和环境产生了一定的伦理影响。人们正在探索为人工智能内置伦理规则,以及通过伦理推理等使人工智能技术的实现中也包含有对伦理规则的理解。近年来,越来越多的人呼吁要赋予人工智能机器一定的道德主体地位,但机器能否成为完全伦理智能体存在巨大的争议。尽管当前人工智能在一些场景下的功能或行为与人类接近,但实则并不具有“自由意志”。从经典社会规范理论来看,是否能够成为规范意义上的“主体”来承担责任,并不取决于其功能,而是以“自由意志”为核心来构建的。黑格尔的《法哲学原理》即以自由意志为起点展开。因此,当前阶段对人工智能伦理问题的分析和解决路径构建应主要围绕着前3类伦理智能体开展,即将人工智能定性为工具而非主体。
当前阶段,人工智能既承继了之前信息技术的伦理问题,又因为深度学习等一些人工智能算法的不透明性、难解释性、自适应性、运用广泛等特征而具有新的特点,可能在基本人权、社会秩序、国家安全等诸多方面带来一系列伦理风险。例如:人工智能系统的缺陷和价值设定问题可能带来公民生命权、健康权的威胁。2018年,Uber自动驾驶汽车在美国亚利桑那州发生的致命事故并非传感器出现故障,而是由于 Uber在设计系统时出于对乘客舒适度的考虑,对人工智能算法识别为树叶、塑料袋之类的障碍物做出予以忽略的决定。人工智能算法在目标示范、算法歧视、训练数据中的偏失可能带来或扩大社会中的歧视,侵害公民的平等权。人工智能的滥用可能威胁公民隐私权、个人信息权。深度学习等复杂的人工智能算法会导致算法黑箱问题,使决策不透明或难以解释,从而影响公民知情权、程序正当及公民监督权。信息精准推送、自动化假新闻撰写和智能化定向传播、深度伪造等人工智能技术的滥用和误用可能导致信息茧房、虚假信息泛滥等问题,以及可能影响人们对重要新闻的获取和对公共议题的民主参与度;虚假新闻的精准推送还可能加大影响人们对事实的认识和观点,进而可能煽动民意、操纵商业市场和影响政治及国家政策。剑桥分析公司利用 Facebook上的数据对用户进行政治偏好分析,并据此进行定向信息推送来影响美国大选,这就是典型实例。人工智能算法可能在更不易于被察觉和证明的情况下,利用算法歧视,或通过算法合谋形成横向垄断协议或轴辐协议等方式,破坏市场竞争环境。算法决策在社会各领域的运用可能引起权力结构的变化,算法凭借其可以处理海量数据的技术优势和无所不在的信息系统中的嵌入优势,对人们的权益和自由产生显著影响。例如,银行信贷中通过算法进行信用评价将影响公民是否能获得贷款,刑事司法中通过算法进行社会危害性评估将影响是否进行审前羁押等,都是突出的体现。人工智能在工作场景中的滥用可能影响劳动者权益,并且人工智能对劳动者的替代可能引发大规模结构性失业的危机,带来劳动权或就业机会方面的风险。由于人工智能在社会生产生活的各个环节日益广泛应用,人工智能系统的漏洞、设计缺陷等安全风险,可能引发个人信息等数据泄露、工业生产线停止、交通瘫痪等社会问题,威胁金融安全、社会安全和国家安全等。人工智能武器的滥用可能在世界范围内加剧不平等,威胁人类生命与世界和平……
人工智能伦理风险治理具有复杂性,尚未形成完善的理论架构和治理体系。人工智能伦理风险的成因具有多元性,包括人工智能算法的目标失范、算法及系统缺陷、受影响主体对人工智能的信任危机、监管机制和工具欠缺、责任机制不完善、受影响主体的防御措施薄弱等。人工智能技术和产业应用的飞速发展,难以充分刻画和分析其伦理风险及提供解决方案。这要求我们必须克服传统规范体系的滞后性,而采用“面向未来”的眼光和方法论,对人工智能的设计、研发、应用和使用中的规范框架进行积极思考和构建,并从确立伦理准则等软法开始,引领和规范人工智能研发应用。
关于人工智能的发展,我们既不能盲目乐观,也不能因噎废食,要深刻认识到它可以增加社会福祉的能力。因此,在人类社会步入智能时代之际,必须趁早从宏观上引导人工智能沿着科学的道路前行,对它进行伦理反思,识别其中的伦理风险及其成因,逐步构建科学有效的治理体系,使其更好地发挥积极价值。
人工智能伦理准则、治理原则及进路
当前全球人工智能治理还处于初期探索阶段,正从形成人工智能伦理准则的基本共识出发,向可信评估、操作指南、行业标准、政策法规等落地实践逐步深入,并在加快构建人工智能国际治理框架体系。
伦理准则
近几年来,众多国家、地区、国际和国内组织、企业均纷纷发布了人工智能伦理准则或研究报告。据不完全统计,相关人工智能伦理准则已经超过40项。除文化、地区、领域等因素引起的差异之外,可以看到目前的人工智能伦理准则已形成了一定的社会共识。
近年来,中国相关机构和行业组织也非常积极活跃参与其中。例如:2018年1月,中国电子技术标准化研究院发布了《人工智能标准化白皮书(2018版)》,提出人类利益原则和责任原则作为人工智能伦理的两个基本原则;2019年5月,《人工智能北京共识》发布,针对人工智能的研发、使用、治理 3 个方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和社会发展的15条原则;2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能发展的8项原则,勾勒出了人工智能治理的框架和行动指南;2019年7月,上海市人工智能产业安全专家咨询委员会发布了《人工智能安全发展上海倡议》;2021年9月,中关村论坛上发布由国家新一代人工智能治理专业委员会制定的《新一代人工智能伦理规范》等。从发布内容上看,所有准则在以人为本、促进创新、保障安全、保护隐私、明晰责任等价值观上取得了高度共识,但仍有待继续加深理论研究和论证,进一步建立共识。
治理原则
美国、欧洲、日本等国家和地区在大力推动人工智能技术和产业发展的同时,高度重视人工智能的安全、健康发展,并将伦理治理纳入其人工智能战略,体现了发展与伦理安全并重的基本原则。
习近平总书记高度重视科技创新领域的法治建设问题,强调“要积极推进国家安全、科技创新、公共卫生、生物安全、生态文明、防范风险、涉外法治等重要领域立法以良法善治保障新业态新模式健康发展”。近年来,我国在应对新技术新业态的规制和监管方面,形成了“包容审慎”的总体政策。这项基本政策在2017年就已正式提出。在2020年1月1日起实施的《优化营商环境条例》第55条中更是专门规定了“包容审慎”监管原则:“政府及其有关部门应当按照鼓励创新的原则,对新技术、新产业、新业态、新模式等实行包容审慎监管,针对其性质、特点分类制定和实行相应的监管规则和标准,留足发展空间,同时确保质量和安全,不得简单化予以禁止或者不予监管。”这为当前人工智能伦理治理提供了基本原则和方法论。一方面,要注重观察,认识到新技术新事物往往有其积极的社会意义,亦有其发展完善的客观规律,应予以一定空间使其能够发展完善,并在其发展中的必要之处形成规制方法和措施。另一方面,要坚守底线,包括公民权利保护的底线、安全的底线等。对于已经形成高度社会共识、凝结在法律之中的重要权益、价值,在执法、司法过程中都要依法进行保护。这既是法律对相关技术研发者和使用者的明确要求,也是法律对于在智能时代保护公民权益、促进科技向善的郑重承诺。
治理进路
在人工智能治理整体路径选择方面,主要有两种理论:“对立论”和“系统论”。
“对立论”主要着眼于人工智能技术与人类权利和福祉之间的对立冲突,进而建立相应的审查和规制制度。在这一视角下,一些国家和机构重点关注了针对人工智能系统本身及开发应用中的一些伦理原则。例如,2020年《人工智能伦理罗马倡议》中提出7项主要原则——透明、包容、责任、公正、可靠、安全和隐私,欧盟委员会于2019年《可信赖人工智能的伦理指南》中提出人工智能系统全生命周期应遵守合法性、合伦理性和稳健性3项要求,都体现了这一进路。
“系统论”则强调人工智能技术与人类、其他人工代理、法律、非智能基础设施和社会规范之间的协调互动关系。人工智能伦理涉及一种社会技术系统,该系统在设计时必须注意其不是一项孤立的技术对象,而是需要考虑它将要在怎样的社会组织中运作。我们可以调整的不仅仅是人工智能系统,还有在系统中与之相互作用的其他要素;在了解人工智能运作特点的基础上,可以在整个系统内考虑各个要素如何进行最佳调配治理。当前在一些政策和法规中已有一定“系统论”进路的体现。例如,IEEE(电气与电子工程师协会)发布的《合伦理设计》11中提出的8项原则之一即为“资质”(competence),该原则提出系统创建者应明确对操作者的要求,并且操作者应遵守安全有效操作所需的知识和技能的原则,这体现了从对使用者要求的角度来弥补人工智能不足的系统论视角,对智能时代的教育和培训提出了新需求。我国国家新一代人工智能治理专业委员会2019年发布的《新一代人工智能治理原则——发展负责任的人工智能》中,不仅强调了人工智能系统本身应该符合怎样的伦理原则,而且从更系统的角度提出了“治理原则”,即人工智能发展相关各方应遵循的8项原则;除了和谐友好、尊重隐私、安全可控等侧重于人工智能开放和应用的原则外,还专门强调了要“改善管理方式”,“加强人工智能教育及科普,提升弱势群体适应性,努力消除数字鸿沟”,“推动国际组织、政府部门、科研机构、教育机构、企业、社会组织、公众在人工智能发展与治理中的协调互动”等重要原则,体现出包含教育改革、伦理规范、技术支撑、法律规制、国际合作等多维度治理的“系统论”思维和多元共治的思想,提供了更加综合的人工智能治理框架和行动指南。基于人工智能治理的特殊性和复杂性,我国应在习近平总书记提出的“打造共建共治共享的社会治理格局”的指导下,系统性地思考人工智能的治理维度,建设多元共治的人工智能综合治理体系。
我国人工智能伦理治理对策
人工智能伦理治理是社会治理的重要组成部分。我国应在“共建共治共享”治理理论的指导下,以“包容审慎”为监管原则,以“系统论”为治理进路,逐渐建设形成多元主体参与、多维度、综合性的治理体系。
教育改革
教育是人类知识代际传递和能力培养的重要途径。通过国务院、教育部出台的多项措施,以及联合国教科文组织发布的《教育中的人工智能:可持续发展的机遇与挑战》、《人工智能与教育的北京共识》13等报告可以看到,国内外均开始重视教育的发展改革在人工智能技术发展和应用中有着不可或缺的作用。为更好地支撑人工智能发展和治理,应从4个方面进行完善:普及人工智能等前沿技术知识,提高公众认知,使公众理性对待人工智能;在科技工作者中加强人工智能伦理教育和职业伦理培训;为劳动者提供持续的终身教育体系,应对人工智能可能引发的失业问题;研究青少年教育变革,打破工业化时代传承下来的知识化教育的局限性,回应人工智能时代对人才的需求。
伦理规范
我国《新一代人工智能发展规划》中提到,“开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架”。同时,还需制定人工智能产品研发设计人员及日后使用人员的道德规范和行为守则,从源头到下游进行约束和引导。当前有5项重点工作可以开展:针对人工智能的重点领域,研究细化的伦理准则,形成具有可操作性的规范和建议。在宣传教育层面进行适当引导,进一步推动人工智能伦理共识的形成。推动科研机构和企业对人工智能伦理风险的认知和实践。充分发挥国家层面伦理委员会的作用,通过制定国家层面的人工智能伦理准则和推进计划,定期针对新业态、新应用评估伦理风险,以及定期评选人工智能行业最佳实践等多种方式,促进先进伦理风险评估控制经验的推广。推动人工智能科研院所和企业建立伦理委员会,领导人工智能伦理风险评估、监控和实时应对,使人工智能伦理考量贯穿在人工智能设计、研发和应用的全流程之中。
技术支撑
通过改进技术而降低伦理风险,是人工智能伦理治理的重要维度。当前,在科研、市场、法律等驱动下,许多科研机构和企业均开展了联邦学习、隐私计算等活动,以更好地保护个人隐私的技术研发;同时,对加强安全性、可解释性、公平性的人工智能算法,以及数据集异常检测、训练样本评估等技术研究,也提出了很多不同领域的伦理智能体的模型结构。当然,还应完善专利制度,明确算法相关发明的可专利性,进一步激励技术创新,以支撑符合伦理要求的人工智能系统设计。
此外,一些重点领域的推荐性标准制定工作也不容忽视。在人工智能标准制定中,应强化对人工智能伦理准则的贯彻和支撑,注重对隐私保护、安全性、可用性、可解释性、可追溯性、可问责性、评估和监管支撑技术等方面的标准制定,鼓励企业提出和公布自己的企业标准,并积极参与相关国际标准的建立,促进我国相关专利技术纳入国际标准,帮助我国在国际人工智能伦理准则及相关标准制定中提升话语权,并为我国企业在国际竞争中奠定更好的竞争优势。
法律规制
法律规制层面需要逐步发展数字人权、明晰责任分配、建立监管体系、实现法治与技术治理有机结合。在当前阶段,应积极推动《个人信息保护法》《数据安全法》的有效实施,开展自动驾驶领域的立法工作;并对重点领域的算法监管制度加强研究,区分不同的场景,探讨人工智能伦理风险评估、算法审计、数据集缺陷检测、算法认证等措施适用的必要性和前提条件,为下一步的立法做好理论和制度建议准备。
国际合作
当前,人类社会正步入智能时代,世界范围内人工智能领域的规则秩序正处于形成期。欧盟聚焦于人工智能价值观进行了许多研究,期望通过立法等方式,将欧洲的人权传统转化为其在人工智能发展中的新优势。美国对人工智能标准也尤为重视,特朗普于2019年2月发布“美国人工智能计划”行政令,要求白宫科技政策办公室(OSTP)和美国国家标准与技术研究院(NIST)等政府机构制定标准,指导开发可靠、稳健、可信、安全、简洁和可协作的人工智能系统,并呼吁主导国际人工智能标准的制定。
我国在人工智能科技领域处于世界前列,需要更加积极主动地应对人工智能伦理问题带来的挑战,在人工智能发展中承担相应的伦理责任;积极开展国际交流,参与相关国际管理政策及标准的制定,把握科技发展话语权;在最具代表性和突破性的科技力量中占据发展的制高点,为实现人工智能的全球治理作出积极贡献。
(作者:张兆翔、谭铁牛,中国科学院自动化研究所;张吉豫中国人民大学法学院;《中国科学院院刊》供稿)
人工智能(AI)和道德伦理的标准在哪里
使用一套开发人工智能的原则真的有用吗?
来源:ConylJay/GettyImages
我们如何创造“好的”人工智能,机器合乎道德意味着什么,我们如何在道德的基础之上使用人工智能?GoodintheMachine——2019年SCINEMA国际科学电影节的参赛作品——深入研究了这些问题,我们道德的起源,以及人工智能和我们自己的道德指引之间的相互作用。
鉴于过去几年有言论对人工智能的未来发出可怕的警告,人工智能伦理学领域已成为研究的重中之重。
这些警告来自牛津大学的尼克·博斯特罗姆等各种专家,也有来自埃隆·马斯克和已故斯蒂芬·霍金等更多公众人物的警告。
作为回应,有些人制定了一套原则来指导人工智能研究人员,并帮助他们谈判人类道德和伦理的难题。
AI伦理领域通常分为两个领域:一个涉及指导开发人工智能的人类的伦理学,另一个涉及指导人工智能或机器人自身道德行为的机器伦理学。然而,这两个领域并不是那么容易分得开。
机器伦理学历史悠久。1950年,伟大的科幻作家IsaacAsimov在他的作品《机器人》中明确阐述了他著名的“机器人三定律”,并提出了这样的建议:
机器人不得伤害人,或通过不作为允许人受到伤害。
机器人必须服从人类赋予它的命令,除非此类命令与第一定律相冲突。
只要这种保护不与第一或第二定律冲突,机器人必须保护自己的存在。
这些法律标准加在一起是阿西莫夫(和编辑约翰·W·坎贝尔)思考如何确保人工智能系统不会让其创建者过于兴奋(避免生产不安全或不受控制的人工智能)。
2004年,改编自《I,Robot》的电影上映,以人工智能为特色,该人工智能对三条法律的解释导致了一项统治人类的计划。
近几年大火的西部世界也是如此。(注:本人最喜欢的美剧之一)。
为了突出这三条法律的道德原则的缺陷,一个由美国人工智能研究员EliezerYudkowsky领导的名为人工智能奇点研究所(现为机器智能研究所)的组织启动了一个名为“三法不安全”的在线项目。
来源:AlexGotfryd/CORBIS/Corbis
艾萨克·阿西莫夫在1950年阐述了他的“机器人三定律”。
Yudkowsky是超级智能人工智能的早期理论家,也是友好人工智能思想的支持者,他认为,如果人工智能发展到阿西莫夫小说中描绘的阶段,这些原则将毫无希望地简单化了。
尽管这三项法律的缺点得到了广泛承认,但从私营企业到政府,许多组织仍然坚持实施开发基于原则的人工智能道德系统的项目,其中一份文件列出了迄今为止发布的“84份包含人工智能道德原则或准则的文件”。
这种对伦理原则的持续关注的部分原因是,虽然这三条法律旨在仅管理人工智能行为,但人工智能伦理原则上适用于人工智能研究人员以及他们开发的智能。AI的道德行为部分反映了设计和实施它们的人的道德行为,正因为如此,AI道德的两个领域密不可分。
如果我们要避免人工智能批评者设想的一些更灾难性的情况,人工智能开发需要强有力的道德指导。
国际非营利组织Atomium-欧洲科学、媒体和民主研究所发起的AI4People于2018年发表的一份评论报告称,其中许多项目制定了与医学伦理学非常相似的一套原则:慈善(只做好事)、非恶意(不伤害)、自治(人类做出个人决定的权力)和正义。
对一些人来说,这种趋同为这些作为未来发展人工智能的可能指导原则提供了极大的可信度。
然而,牛津互联网研究所和英国政府艾伦·图灵研究所的布伦特·米特尔施塔特(AlanTuringInstitute)认为,这种方法被称为“原则主义”,并不像看起来那么有希望。
医学和人工智能研究领域之间存在显著差异,这可能会破坏前者在后者背景下的道德原则的有效性。
他的第一个论点涉及共同的目标和信托义务,即医生等值得信赖的专业人士将他人利益置于自身利益之上的职责。医学显然与促进患者健康和福祉的共同目标联系在一起,这是“一个职业质量的定义,使其从业者成为具有共同目标、价值观和培训的‘道德社区’的一部分”。
然而,对于人工智能研究领域来说,情况并非如此。“人工智能主要由私营部门开发,用于公共(例如刑事判决)和私人(例如保险)等”。“开发人员、用户和受影响方的基本目标不一定一致。”
同样,私人人工智能研究中不存在职业的信托义务及其治理机制。
“人工智能开发人员不致力于公共服务,在其他职业中,公共服务要求从业者在竞争的业务或管理利益面前维护公共利益”。在人工智能研究中,“公共利益不优先于商业利益”。
在一个相关点上,虽然医学的专业文化规定了可以追溯到古希腊医生的必要道德义务和美德,但“人工智能的发展没有可比的历史、同质的职业文化和身份,也没有类似的职业道德框架”。
医学已经很久没有时间从希波克拉底传统提供的最低限度指导的缺点中吸取教训。作为回应,它将适当行为编纂为现代原则主义,为更全面、更令人满意的道德指导提供了指导。
人工智能研究显然是一个年轻得多的领域,缺乏这些丰富的历史学习机会。使问题进一步复杂的是,医学的应用背景相对较窄,而“人工智能原则上可以在涉及人类专业知识的任何背景下部署”,导致其具有根本性的多学科和跨学科性,研究人员来自“不同的学科和专业背景,具有不协调的历史、文化、激励结构和道德义务”。
这使得制定除了“广泛接受的原则来指导负责人工智能开发、部署和治理的人和流程跨越截然不同的使用环境”外,非常困难。问题在于将这些转化为实际的良好做法。“在这个抽象的层面上,“有意义的指导可能是不可能的。”
最后,人工智能研究中“相对缺乏法律和专业问责机制”。在医学有多层次的法律和专业保护来维护专业标准的地方,人工智能开发中基本上不存在此类东西。研究表明,道德守则本身不会导致道德行为,这些守则不会“嵌入组织文化并得到积极的执行”。
“不能认为对自我监管框架的严肃和长期承诺是理所当然的”。
人工智能研究需要在组织层面建立“具有约束力和高度可见的问责结构”,并鼓励该领域的实际道德实践为更高级别的原则提供信息,而不仅仅是依赖自上而下的原则主义。同样,关注组织道德而不是职业道德,同时呼吁人工智能开发专业化(部分领域通过向高风险的人工智能开发人员发放许可证)。
对人工智能伦理学未来的最终建议是敦促人工智能研究人员不要将伦理问题视为需要“解决”的设计问题。“假设非常古老和复杂的规范问题仅靠技术修复或良好的设计就可以解决,那就是太天真了”。
相反,“应该期待和欢迎棘手的原则分歧,因为它们既反映了严肃的道德考虑,也反映了思想的多样性。它们不代表失败,也不需要“解决”。道德是一个过程,而不是目的地。人工智能伦理的真正工作现在才刚刚开始,实施我们的最崇高的原则,未来任重道远。
魏屹东:发展人工智能引发的六大哲学伦理学问题
魏屹东:发展人工智能引发的六大哲学伦理学问题发布时间:2019-05-29
文章来源:《南国学术》2019年第2期
【摘要】人工智能的发展,对社会产生了巨大冲击,从而引发了人们对它的种种忧虑和反思。从哲学视角看,机器自身是否能拥有智能,是否具有人一样的思维,功能主义能否说明机器意识,生物自然主义能否驳倒功能主义理论,对意识和感受性的解释是否存在解释鸿沟,这些问题发人深思。哲学问题表明,机器拥有智能、能够思维意味着“机器中的幽灵”观点的复兴,这就回到了笛卡尔关于物质与心灵独立存在的二元论上,但“幽灵是如何进入机器的”问题,二元论无法说明。功能主义试图从中介因果性给出机器意识的一种功能说明,认为任何两个系统,只要它们具有同构的因果过程,它们就应该具有相同的心理状态。而生物自然主义则坚决反对这种观点,认为心理状态是高层次的涌现特征,它由低层次的神经元中的生理物理过程引起,机器不具有生物功能,当然不可能有意识,也就不可能有理解和思维。其实,机器是否有“智能”,与机器是否“理解”是不同层次的问题,这就看如何定义“智能”和如何去理解了。显然,这些问题的核心是意识问题,即能否用物理状态解释心理状态的问题,而意识问题目前仍是一个谜。在对这个问题的解释上,既有哲学上的混乱,也存在某些“解释鸿沟”。从伦理学视角看,人工智能的发展是否会对人类构成威胁,谁应该对此负责,智能型机器人是否应该有身份认同,它与人类有怎样的伦理关系,这些关于人工智能的安全和伦理问题,值得人们重视。智能型机器人的身份认同,即人形智能型机器人是否被承认是人类,不仅是个法律问题,更是伦理问题。如果机器人会对人类生存产生极大的威胁,禁止其发展就是必须的,人类的法律和道德都绝对不允许杀人。这就意味着,人类必须控制机器人的发展,毕竟智能机是人类自己创造的,产生的不良后果应该由人类自己来承担,人工智能对人类行为方式的影响也应该由人类自己来规范。
【关键词】人工智能功能主义生物自然主义意识智能型机器人
人工智能的快速发展,不仅引发了一系列哲学问题,也引发了一系列伦理学问题。对于这些问题的思考,学界不断有成果面世。从适应性角度看,人类应该能够与其创造的智能机共处共存,因为创造它们是为了服务人类,而不是控制甚至毁灭人类。尽管如此,人工智能的发展后果仍然难以预料。人工智能产生后,有人声称,机器能够智能地行动,哲学界将这种观点称为“弱人工智能假设”;也有人断言,机器的行为实际上是拥有思维能力而不仅仅是模拟思维,哲学界将这种观点称为“强人工智能假设”。大多数人工智能研究者将“弱人工智能假设”视为理所当然,不太关心“强人工智能假设”;也就是说,只要他们设计的程序能够工作,就不关心机器是模拟智能还是真实智能。然而,机器人代替人类工作或思维将会产生什么样的后果?是否会有机器人控制人类的事情发生?这些都是人工智能可能引发的重大哲学、伦理学问题,需要作深层次考察和追问。
一机器的智能是其自身具有的吗?
机器能够智能地行动,是目前机器人技术正在实现的目标。自1956年人工智能产生起,就有人断言,人类学习的每个方面,或智能的任何其他特性,都能够由机器精确地描述或模拟。这似乎表明,“弱人工智能假设”不仅是可能的,而且已经部分实现。然而,也有人认为,弱人工智能不可能,它只是人们狂热崇拜计算主义而产生的一种幽灵。
显然,人工智能可能与否,取决于如何定义它。若将人工智能定义为“对在给定构架上最佳主体程序的探索”,它就是可能的。即对于任何具有k比特程序储存器的数字构架,存在2k个主体程序;接下来是发现最好的程序,并列举和测验它们。而当k非常大时,在技术上则是不可行的。但是,哲学界关注的是理论的而不是实践的问题,他们对人的认知构架和机器的构架的对比更感兴趣。具体说,就是关心机器能否思维,而不关心机器行动的最大效用。
大多数人认为飞机作为机器能飞,但问题是,飞机能飞与机器能思维不是一回事。因为,“飞”是动力学问题,“思维”是认知科学问题,后者比前者要复杂得多。阿兰?图灵(A.Turing,1912—1954)认为,不要问机器能否思维,而是问它能否通过智能行为的测试。图灵这里说的是会思维的机器,而不是一般的机器;即能计算的机器就是智能机,大脑就类似于计算器。这就是著名的“计算器隐喻”。如果将思维定义为计算,那么机器无疑会思维,因为人也会计算,当然也会思维。但是,人的思维与计算器的“计算思维”在本质上是不同的,正如鸟会飞与飞机会飞在本质上的不同。
对于人来说,计算过程肯定是思维过程,但思维过程未必是计算过程,如情感思维、冥想等,尽管这里的计算可以被理解为广义的,包括数学运算、逻辑推理、语言操作、问题解决等。而对计算器来说,计算就是操作和执行人编写的程序,这个过程与情感过程完全不同,尽管情感也可以被量化、被计算,甚至审美、幸福感这些纯粹体验的东西也可以纳入计算范畴。问题来了:一方面,若计算等于思维,机器就是可思维的;若计算不完全等同于思维,机器就可能不会思维。这就需要对“计算”和“思维”概念进行精确定义,找出它们之间的内涵与外延。这是一个棘手的难题,学界一直在争论中。
作为计算器科学的开创者,图灵已预见到对智能机可能存在三种主要反驳:无能力论证,数学反驳,随意性论证。如何看待这些反驳?需要仔细分析和讨论。
1.无能力论证。这种论证的形式是“机器决不能做x”。这里的“x”,是许许多多具体的事例或情形或状态,包括和蔼的、机智的、美丽的、友好的;有主动性,有幽默感;能够辨别是非、犯错误、坠入爱河;享受草莓和冰淇淋;向经验学习;正确地使用词;是它自己思想的主体;有像人一样多的行为多样性,等等。在这些事例中,有些是相当简单的,如犯错误;有些则是人能做到而智能机做不到的,如坠入爱河,因为机器还没有感情。尽管目前的智能型机器人能够做许多连人都难以做到的事情,但它们的背后都有人类专家在操作,独立于人的智能机单独靠自己的能力还不能做出发现。也就是说,智能机在执行任务的过程中,还不能提供洞见,产生顿悟,并且理解,因为洞见、顿悟、理解是人类特有的,智能机目前还不具备这种能力。
2.数学反驳。哥德尔(K.F.G?del,1906—1978)和图灵的工作已经表明,某些数学问题,根据特殊形式系统,原则上是无解的。哥德尔的不完备定律就是这方面著名的例子:若任何形式公理系统“F”有足够能力做算术,则建构一个所谓的哥德尔语句“G(F)”是可能的。该语句具有如下两个属性:
(1)“G(F)”是一个“F”语句,但不能在“F”内被证明。
(2)如果“F”是不矛盾的,那么“G(F)”是真的。
这个定律说明,机器在心理上不如人,因为机器是形式系统,它受不完备定律的约束,不能建立自己的哥德尔语句的真值,而人则没有任何这样的限制。这种观点,引起了学界的长期争论。
首先,哥德尔的不完备定律仅适用于有足够能力做算术的形式系统,包括图灵的智能机。在是否具备心理性这一点上,机器与人不可同日而语,这种观点部分是基于计算器是图灵机的观念,但不完全正确。因为,图灵机是无限的,计算器则是有限的,而且任何计算器都能够用命题逻辑描述为一个巨系统,这不服从哥德尔不完备定律。
其次,一个主体不应该太无知以至于不能建立某些语句的真值,而其他主体能够。例如,“张三不能无矛盾地断言这个语句是真的”。如果张三断言了这个语句,那么他将使他自己陷入矛盾,所以,张三不能一致地断言该语句。这其实已经证明,存在这样一个语句,即张三不能无矛盾地断言语句的真假,而其他人和机器则能够。还有,一个人无论何等聪明,终其一生也不能计算出10100的数目之和是多少,而超级计算器能够在几秒钟搞定。但是,不能就此认为计算器比人聪明,也没有看到这作为基本限制会影响人的思维能力。人类在发明数学和计算器前就已经智能地行动几十万年了。这意味着,形式数学推理在指明什么是智能的方面很可能只是起次要作用的。
最后,也是最重要的,即使承认计算器在其所能够证明方面是有限的,也没有任何证据表明人不受那些限制的影响。严格讲,人们很容易证明一个形式系统不能做“x”,如没有情感、心理活动,但声称人能够使用自己的非形式方法做“x”却没有给出这种观点的任何证据,这难道是合理的吗?的确,证明人这种生物系统不受哥德尔不完备定律支配是不大可能的事情,因为任何一个严格的证明都要有非形式的人的参与才能形式化,并因此驳倒它本身。于是,人们就给直觉留下了余地,认为人能够以某种方式执行数学洞察力的非凡技巧。在做推理时,人们必须假设一致性或无矛盾性的存在。更可能的情形是,人本身就是一个矛盾体。这一点,对于日常推理是如此,对于缜密的数学推理也是如此,著名的“四色地图问题”的证明就充分说明了这一点。
3.随意性论证。这是图灵提出关于人工智能最有影响和后人持续最久的批评,即关于人行为的随意性论证。其含义是,人的行为太过复杂,以致不能通过一组简单的规则来理解;计算器所做的无非是遵循一组规则,不能产生像人这样的智能行为。以一组逻辑规则无能力地理解每件事,在人工智能中被称为“资格问题”。德雷福斯(H.L.Dreyfus,1929—2017)是“资格问题”的主要支持者,他在《计算器不能做什么》《计算器仍然不能做什么》中,对人工智能遵循一组规则产生智能的观点提出一系列批评,其立场被豪格兰德(J.Haugeland,1945—2010)称为“好的老式人工智能”(GOFAI)。这一立场主张,所有智能行为能够通过一个逻辑地从一组事实和描述这个域的规则进行推理的系统中得到理解。德雷福斯正确地指出,逻辑主体对于资格问题是脆弱的,而概率推理系统更适合于开放的域。
不过,应该看到,德雷福斯反对的不是计算器本身,而是编辑计算器程序的方法。根据德雷福斯的观点,人类的专门知识的确包括某些规则的知识,但只是作为在其中人操作的一个整体语境或背景。例如下棋,棋手首先必须掌握关于下棋规则的知识,这些知识作为语境在下棋过程中起作用。新手完全依赖规则,需要计划做什么,而大师看一下棋盘就能够迅速知道如何做,正确的步骤已在头脑中。这就是说,大师无需刻意考虑规则就能迅速做出决定,其思维过程不依赖有意识的心智的内省。但是,这不意味着思想过程不存在,只是在大师那里,思维过程已经融入到熟练的技能中。
德雷福斯提出了获得技能的五个步骤,以基于规则的处理开始,以迅速选择正确答案的能力结束。为此,他还提出一个神经网构架组成一个巨大的案例库,但指出四个问题:(1)源于案例的好的概括没有背景知识是不能获得的。没有人知道如何将背景知识归并入神经网的学习过程。(2)神经网的学习是一种监管学习形式,需要相关的输入和输出的优先识别。因此,没有人类训练者的帮助它不能自动操作。事实上,没有教师的学习能够通过无监管学习和强化学习来完成。(3)学习算法在许多特性上执行得并不好。如果我们挑选一个特性子集,就会有增加新特性的未知方式存在,这使得当下集应该证明不适当考虑习得的事实。事实上,新方法如“支持向量机”(SupportVectorMachine)是能够非常好地处理大量特性集的。随着基于网络大数据的引入,许多应用领域如语言处理、计算器视觉能够处理数千万个特性。(4)大脑能够引导其感官寻求相关信息,能够加工信息以提取与当下情境相关的属性。但是,德雷福斯主张,这种机制的详细过程目前还不能被理解,甚至包括能够指导人工智能研究的假设方式。实际上,由信息价值理论支持的自动视觉领域,已经关注方向传感器问题,而且某些机器人已经吸收了所获得的理论结果。
总之,德雷福斯关注的许多问题,包括背景常识知识、逻辑推理问题、不确定性、学习、决策的合成形式等,的确构成人工智能的主要问题,现在已经归入标准智能主体设计领域。这是人工智能进步的证据,不是其不可能性的障碍。
4.情境主体论证。德雷福斯最强的论证是针对情境主体的,而不是针对无身的逻辑推理引擎的。一个主体,支持其理解“狗”的知识库,仅源于逻辑语句的一个有限集,如狗(x)→哺乳动物(x),与一个观看狗赛跑、同狗一起玩的主体来说,这个主体处于劣势。正如安迪?克拉克(AndyClark)指出的,生物大脑的首要功能是作为生物身体的控制系统,生物身体在丰富多彩的真实世界环境中运动、行动。为了理解人类或动物主体如何工作,人们必须考虑整个主体,而不仅仅是主体程序。事实上,具身认知方法不独立地考虑大脑,而是将它与身体看作一个不可分割的整体。也就是说,认知发生在身体包括大脑内,而身体是嵌入于环境中的。这样,认知就是环境中的认知,即情境认知。可以预计,机器人的传感器技术的发展,一定依赖于具身认知纲领和情境认知纲领。
二机器具有人一样的思维吗?
机器能够像人一样思维是“强人工智能”的假设。许多哲学家认为,机器即使通过了图灵测试,也不能说它能像人那样思维,而只能算作是一种思维模拟。图灵已经预见到这种观点,称其为意识论证——即只有机器不仅能写出乐曲,而且知道它写出了乐曲时,才能承认机器就是大脑;或者说,机器必须意识到它自己的心理状态和行动。说人有意识,几乎没有异议;说机器有意识,则会引起极大争论。意识是认知科学、认知心理学的一个重要议题,它与研究直接经验的现象学相关,即机器必须实际上能够感知情感。在现象学中,判断某物是否有意识的一个标准是所谓的意向性。根据这个标准,对于机器来说,由于它能够是实际地关于真实世界中的某物的,所以,它可能有信念、愿望和其他表征。这种观点,引起了争论。
图灵对反驳机器有意向性观点的回应是机智的。并给出了这样的理由——机器可能有意识,或者有现象学特性或具有意图,问机器能否思维则是一个不清晰的问题,因为人们对机器的要求高于对人类的要求,毕竟在日常生活中,没有直接的证据表明我们了解他人的内在心理状态。这是心灵哲学中的他心问题。与其继续纠结这个问题,不如关注每个人思维的惯例。当时,人们还只是设想人与机器在未来对话的可能性;而如今,人机对话已经是寻常之事,真实思维与人工思维之间已没有语言之间的区别,就像人造尿素与有机尿素之间不存在物理、化学性质之间的区别一样。
如果说无机物与有机物之间的界限已经被打破,那么,机器思维与人类思维之间的界限是否也会被打破呢?这毕竟不是同一层次的问题,前者是物理层次的,后者是精神层次的。对于思维,目前还没有达到从无机物合成有机物的程度,所以多数人还是宁愿相信,人工机器思维无论多么引人注目,也不会是真实的(人的思维),至多是模拟的(似人思维)。正如塞尔(JohnR.Searle)所质疑的:“没有人假设,一场暴风雨的计算器模拟会让我们淋湿……究竟为什么人在其正常心智中会假设心理过程的计算器模拟实际上具有心理过程?”塞尔的质疑有一定道理,既然计算器模拟不会产生实际效果,人们也不能指望计算器模拟心理过程能够产生实际心理状态。然而问题是,这种模拟适当吗?虽然计算器模拟暴风雨不会让人淋湿,但人们并不清楚如何将这个模拟运用到心理过程。它虽然与用洒水器模拟下雨会使人淋湿不同,但暴风雨的计算器模拟的确能仿真湿的特征。如同模拟驾驶不等于真实驾驶,但能让模拟者体验到是在驾驶真实的车。大多数人会同意,在计算器上模拟下棋,与在真实场景下棋没有什么不同,因为这是在执行下棋的行动,而不是在模拟。心理过程更像是模拟暴风雨,还是更像下棋?
其实,图灵的思维惯例给出了可能的答案。在他看来,一旦机器达到某种老练的程度,这个问题本身通常会自动消失。这也会消解“弱”与“强”人工智能之间的差别。不少人对此持反对意见,认为存在一个不可否认的实际问题——人有真实心智,机器没有。要阐明这个实际问题,需要弄清人如何有真实心智,而不仅仅是身体产生神经生理过程。
哲学上解决这个心身问题,与机器是否有真实心智问题直接相关。心身问题是一个既老又新的问题。笛卡尔(R.Descartes,1596—1650)的二元论将心与身截然分开,认为二者独立存在,尽管它们之间存在相互作用,但随后产生的问题是,心是如何控制身体的?而心的一元论,也称物理主义,通过断言心与身不是分离的,心理状态就是物理状态,避免了这个问题。大多数现代心灵哲学家都是不同形式的物理主义者,他们原则上承认强人工智能的可能性。但物理主义者面临的问题是,解释物理状态(特别是大脑的分子构架和电化学过程)如何能够同时是心理状态呢?比如,疼痛、享用美食、知道某人在开车、相信北京是中国的首都等。
著名的“瓮中之脑”(braininavat)思想实验就是为反驳物理主义而提出的。物理主义者试图说明,一个人或机器处于一个特殊心理状态是什么意思。意向状态,如相信、知道、愿望、害怕等,是他们特别关注的,这些状态指向外在世界的某些方面。例如,我吃烧饼的知识是一个关于烧饼和在其上发生了什么的信念。若物理主义是对的,情形一定是,一个人的心理状态的适当描述,由那个人的大脑状态来决定。如果我正集中精力以经意的方式吃烧饼,那么我此刻的大脑状态是“知道某人吃烧饼”这类心理状态的一个实例。当然,我的大脑中所有原子的具体构架对于“我知道我吃烧饼”的心理状态是不必要的。也就是说,我的脑或其他人的脑有许多构架,它们属于同一类心理状态。关键点是,同一脑状态不对应于一个基本明确的心理状态,如某人正吃苹果的知识。
物理主义的观点,的确具有科学理论的简单性特征,但这种简单性受到“瓮中之脑”思想实验的挑战。设想一下,你的脑从你出生就与你的身体分离,并被置于一个神奇设计的瓮中,这个特殊的瓮能很好地保存你的脑,允许它生长、发育。同时,电信号从一个完全虚幻世界的计算器模拟输入你的脑,来自你的脑的移动信号被拦截,并被用于修正模拟直到适当。事实上,你经历的模拟生活精确复制你可能已度过的生活,如果你的脑不是被置于瓮中的话,包括模拟吃虚拟的烧饼。这样,你可能已经用于一个脑状态,该状态与真正吃真烧饼的人的脑状态同一,但是,说你拥有心理状态“知道你吃烧饼”表面上可能是假的。然而,事实是,你没有吃烧饼,你从来没有品尝过烧饼,当然你不可能有这样的心理状态。
这个实验,似乎与脑状态决定心理状态的观点相矛盾。解决这个问题的路径是,心理状态的内容能够从两种不同的视角来解释:宽内容与窄内容。宽内容是从一个通达整个情境的全能的外部观察者的视角给出解释,这个观察者能够区分这个世界中的不同事物。按照这种观点,心理状态的内容既包括脑状态也包括环境的历史。窄内容只考虑脑状态。例如,一个真实吃烧饼的人与一个瓮中之脑吃烧饼者的脑状态的窄内容,在这种情形中是相同的。
如果你的目标是把心理状态归于共享你的世界的其他人,以预测它们可能的行为和效果,那么宽内容就是完全适当的,因为它包括了心理状态所涉及的语境因素,如环境的历史,这是我们关于心理状态的日常语言进化的必要环境。如果你关注的是人工智能系统是否真实地思维和真实地拥有心理状态的问题,那么窄内容就是适当的,因为机器是无语境的,即与环境的历史无关。所以,不能简单地认为,人工智能系统能否像人那样真实地思维,依赖于外在的那个系统的条件。如果我们考虑设计人工智能系统并理解其操作,那么窄内容也是与此相关的,因为正是大脑状态的窄内容,才决定下一个脑状态的内容是什么。这自然产生了这样一些问题——对于脑状态什么是要紧的?什么使得它拥有一个心理状态而其他没有?在这个所涉及的实体的心理操作范围内,功能角色起到何种重要作用?这些是功能主义的替代方案试图说明的问题。
三功能主义的“脑替代”实验能说明机器产生意识吗?
在机器是否有心理状态的问题上,功能主义认为,心理状态是输入与输出之间的任何一个中介因果条件。根据功能主义,任何两个系统,若它们具有同构的因果过程,则具有相同的心理状态。因此,一个计算器程序能够拥有与人相同的心理状态。这里的同构,是指两个不同系统在结构和属性方面的一一对应,在数学上是映射关系。这个假设无论正确与否,都表明存在某种水平的抽象,在这个抽象框架下的操作是无关紧要的。
功能主义的这种观点可由“脑替代”(brainreplacement)思想实验得到清晰的说明。这个实验包含三个假设:(1)神经生理学发展到这样的程度——人脑中所有神经元的输入输出行为和连通性被完全理解;(2)人们能够建构微型电子装置,它能够模仿整个行为,能够顺利连接神经组织;(3)某些神奇的外科技术能够用相应的单子装置替代个体神经元,而不中断脑作为一个整体的操作。一句话,这个实验是由使用电子装置逐个替代人头脑中的所有神经元所构成。
在这里,需要关注的是在操作之后和操作期间“被试者”(subject)的外在行为和内在体验。根据实验的定义,如果这个操作不被执行的话,与所将要观察到的情况相比较,被试者的外在行为必须是保持不变的。虽然意识的在场或缺场不能被第三个当事人确定,实验主体至少应该能够记录他/她自己有意识经验中的任何变化。显然,对于接下来将发生什么会存在一个直接的直觉冲突。但是,功能主义者相信,他们的意识仍然会保持不变。
作为一个生物功能主义者,塞尔也相信他的意识会消失。在他看来,人们会失去对其外在行为的控制。他举了这样一个例子,当医生测试你的视力时,会在你面前举一个红色物体,然后问你看到了什么?你本来想说你没看见任何东西,但你完全不受控制说出你看见一个红色物体。这意味着,你的有意识经验慢慢地消失,而你的外在可观察行为仍然保持不变。
这有两种情形需要注意:一方面,当被试者逐渐成为无意识时,要保持外在行为不变,被试者的意愿同时完全被取消;否则,意识的消失将会反映在外在行为中,如被试者会大叫或以言辞表达。如果将意愿的同时消失看作是某一时刻的神经元逐渐替代的结果,这似乎是一个不太可能的主张。另一方面,在没有真实的神经元保留期间,如果问被试者关于他的有意识经验的问题,那么会发生什么呢?假设一个正常人被尖棍子戳了一下,他会发出尖叫;若一个失去知觉的人被尖棍子戳了一下,他可能没有任何反应。机器就像一个没有知觉的人,被戳一下也没有反应,因为它没有神经元,尽管它可能被设计成有刺激—反应的程序做出应答。假如我们用电子脑替代正常人脑的功能属性,而且电子脑没有包含任何人工智能程序,那么我们必须拥有显示意识的一个解释,这种意识是仅由诉诸神经元功能属性的电子脑产生的。因此,这种解释也必须应用于具有相同功能属性的人脑。
这会导致三种可能的结论:(1)正常人脑中产生这类输出的意识的因果机制仍然能在电子装置中操作,它因此是有意识的。(2)正常人脑中的有意识心理事件与行为没有任何因果联系,并从电子脑中遗失,它因此不是有意识的。(3)这个实验是不可能发生的,因此关于它的推断是无意义的。尽管不排除第二种可能性,但它将意识还原到副现象的地位,即哲学上描述的某物发生了但没有留下影子,好像它存在于可观察的世界。进一步说,如果意识的确是副现象的,那么被试者在被戳痛后就不会有发出尖叫的情况发生,因为不存在有意识经验的痛。相反,人脑可能包含一个次要的、无意识的机制,该机制负责在受到刺激后会发出尖叫声。
总之,功能主义主张,在神经元水平上操作,意味着也能够在任何更大功能单元如一组神经元、一个心理模块、一片脑叶、半脑或整个脑水平上操作。这意味着,如果接受脑替代实验说明替代脑是有意识的观点,那么也应该相信,当整个脑被电子装置替代后意识被保持下来了,而且这个电子装置通过一个查找表从输入到输出的地图不断升级其状态。如果功能主义是对的,这会使大多数人包括弱人工智能者感到不安,因为查找表不是有意识的,至少在查找表期间产生的有意识经验,与在操作一个可能被描述为存取和产生信念、反省、目标等的系统期间产生的有意识经验是不同的。因此,脑替代实验并不能充分说明机器能够产生意识。
四生物自然主义驳倒了功能主义吗?
20世纪80年代,塞尔的生物自然主义开始流行,它对功能主义提出了强烈挑战。根据生物自然主义,心理状态是高层次的涌现特征,它由低层次的神经元中的生理物理过程引起。神经元的这种未指明的属性才是重要的。因此,说心理状态被复制,仅仅是在部分具有相同输入输出行为的某些功能结构程序基础上,而且会要求这个程序在执行一个与神经一样有因果力的认知构架。为了支持这种观点,塞尔描述了一个假设系统,这就是著名的“中文屋”。
这个假设的中文屋系统由一个不懂中文只懂英文的人、一本英文写的规则书(《英汉对照词典》)和一堆纸条(有些是空白,有些写有不认识的符号)构成。中文屋有一个通向外面的窗口,负责收取纸条。屋中的人相当于计算器的中央处理器(CPU),规则书相当于程序,纸条相当于储存器,窗口相当于输入输出装置。屋中的人能够将通过窗口传入写有中文符号的纸条,按照规则书的匹配指令(形式规则)将其编译成中文语句,并将写有中文的纸条传递出去。指令可能包括在新纸条上写符号,在纸堆中发现符号,重新安排纸堆等。这个中文屋系统输入中文纸条并产生中文回答,看上去与图灵设想的系统一样有智能。目前的翻译程序如百度翻译、谷歌翻译等,就相当于中文屋系统。
对此,塞尔认为,中文屋中的人,比如我塞尔本人,完全不懂中文,规则书和一堆纸条不过是一张张纸条,根本不理解中文。这个系统根本不存在对中文的理解,即执行一个正确的程序,不必然产生理解。塞尔假设“中文屋”系统要说明的是,执行一个适当的程序尽管也产生正确的结果,但对于成为一个心智是不充分的。
然而,机器是否有“智能”,与机器是否“理解”,实际上是不同层次的问题。按照计算主义的定义,若一个系统能够计算,它就应该有智能,因为计算就是思维,思维当然是智能行为。但如果将智能定义为包括“理解”在内,则机器系统就难以有智能,因为任何程序无论是形式的还是非形式的,机器系统只能执行程序并不理解程序本身,甚至人有时也只是使用某种语言,不一定理解其意义,如同儿童背诵唐诗,成年人使用0(零)。因此,这就看如何定义、理解“智能”概念了。有智能与有意识、有心灵、能理解,还不是一回事,虽然它们之间有关联。
严格讲,塞尔所反对的不是弱人工智能的观点,而是强人工智能论断——恰当程序设计的机器具有认知状态,程序本身就是对人的认知过程的理解。塞尔在《心灵、大脑与程序》一文中,通过设想一个中文屋,从系统应答、机器人应答、脑模拟者应答、联合应答、他人心灵应答、多重套间应答六个方面系统而详细地反驳这种论断,客观上说,还是非常有力的。然而,将人在中文屋中理解中文,模拟为“CUP”能够开立方运算,是否合适?这是许多强人工智能支持者质疑塞尔反驳的一个普遍问题,也是人工智能专家对哲学界的挑战。
在中文屋与“CPU”两种情形中,对于“理解”而言,都是否定的。因为,人不理解中文,“CPU”也不理解。若问中文屋是否理解中文,按照强人工智能,回答可能是肯定的。塞尔的应答,实际上重申了这样的观点——在人脑中不理解的,在纸中也不能理解,所以不能存在任何理解。塞尔似乎是在说,整体的属性必须存在于部分属性中,这显然不合适。比如,水是湿的,但其组成的成分H2O都不是湿的。
塞尔的主张基于四个公理:(1)计算器程序是形式的(句法的);(2)人类心智基于心理内容(语义的);(3)句法本身对于语义学既不是必要的也不是充分的;(4)生物脑产生心智。塞尔从前三个得出结论,程序对于心智是不充分的,即一个执行程序的主体可能是一个心智,但仅根据执行程序并不必然是一个心智。从最后一个公理得出,能够产生心智的任何其他系统可能会拥有等同于脑的因果力的因果力。由此,塞尔推知,任何人工脑将会拥有复制脑的因果力,不仅仅运行一个特殊的程序,但人脑不会仅根据运行一个程序就产生心理现象。一句话,意识或心灵是生物现象,计算程序是不能产生这种现象的。
但是,这些公理是有争议的。例如,公理(1)(2)依赖于一个句法与语义学之间的未详细说明的区分,这种区分似乎与宽内容、窄内容之间的区分密切相关。一方面,人们可以将计算器看作操作句法符号;另一方面,也可以将计算器看作操作电流,这恰好与大脑运作的情形(生物电流)相似。所以,人们会说脑就是句法的。但是,程序对于心智是不充分的这个结论并不令人满意。塞尔所主张的是,如果你明确地否认功能主义,即公理(3)表明的,那么你就不会必然得出没有脑是具有心智的。这样,中文屋论证可以归结为是否接受公理(3)。
丹尼特(DanielC.Dennett)将中文屋论证称为“直觉泵”(intuitionpump),即中文屋论证放大了人的先验直觉。他认为,塞尔的论证形式对哲学家来说是很熟悉的,即他构建了一种所谓的直觉泵,一种通过在基本思想实验上产生变异来激发一系列直觉的装置。“直觉泵”通常不是发现的引擎,而是一种说服者或教学工具,一种一旦你看到真相就能让人们以你的方式看待事物的方法。丹尼特反对用直觉泵来思考,认为它被许多人滥用。在这种情况下,塞尔几乎完全依赖于错误的结果,即由错误地提出的思想实验产生的有利直觉。因此,生物自然主义者坚信他们的立场,而功能主义者仅确信公理(3)是未经证明的,或者说,塞尔的论证是不足以令人信服的。然而,不可否认的是,中文屋论证不仅对人工智能产生了巨大挑战,也引发了广泛的争论,但很少改变持不同立场人们的观点。比如,博登就旗帜鲜明地反对塞尔的“中文屋”论证,认为他的论断是错误的。
审视这场争论可以发现,那些接受公理(3)进而接受塞尔论证的人,当决定什么实体是心智时,仅仅依赖他们的直觉而不是证据。中文屋论证表明,中文屋凭借执行一个程序的力量不是一个心智,但该论证没有说,如何凭借某些其他理由决定中文屋或计算器或机器人是不是一个心智。不过,塞尔承认人类这种生物机器有心智。按照塞尔的这种观点,人脑可能或不可能执行像人工智能程序的某些东西,但如果人脑能执行,那也不是它们是心智的理由。在塞尔看来,创造一个心智需要更多的东西,比如,相当于个体神经元的因果力的某些东西。但是,这些力是什么,仍然是待解之谜。
然而,需要注意的是,从生物进化的角度看,神经元进化出执行功能角色,即具有神经元的生物远在意识出现于自然界之前就学习和决定了。若这样的神经元由于与它们的功能能力无关的某些因果力而恰好产生了意识,那将是一件惊人的同时存在事件。毕竟,正是这种功能能力才支配了有机物的生存。而在中文屋的情形中,塞尔依赖直觉而非证据,即只看到屋,没有证据证明屋中到底有没有意识发生。我们也可以将大脑看作屋而做同样的论证,即只看到细胞的组合,盲目地根据生物化学或物理学规律操作,那里有心智吗?为什么一大块脑能产生心智而一大块肝脏不能?这仍然是一个巨大的秘密,是一种解释鸿沟。因此,仅仅依靠哲学的思考还不足以弄清心智的形成机制,这需要多学科的联合。
五意识、感受性的解释存在解释鸿沟吗?
对于强人工智能的争论,其核心是意识问题。具体说,意识是否只是生物特性的,非生物的人工意识或机器意识是否可能实现?意识通常表现为不同方面,如感受性、理解、自我意识、自由意志等。这些方面都是哲学上一直在讨论的问题,至今仍在争论。而与意识问题紧密相关的是主体经验,即感受性,它是人们经验的内在性质。人们的某个感觉如疼痛是否有相应的脑状态?或者说,一个心理状态是否有相应的物理状态?这个问题对心智的功能主义说明构成了挑战,因为不同的感受性可能涉及别的同构因果过程是什么的问题。例如,“倒置光谱”(invertedspectrum)思想实验表明,当看见红色物体时某人“x”的主体经验,与当其他人看见绿色物体时的主体经验相同,相反也一样。“x”坚持红色是红的,在红色信号灯亮起时停,也同意红色信号灯的红色比夕阳的红色更强烈。然而,“x”的主体经验在两种情形中是不同的。红色信号灯是停的经验,夕阳是享受或感悟的经验。
感受性问题不仅是心灵哲学的一个重要问题,也是自然科学的一个重要问题,不仅对功能主义形成挑战,也对科学形成挑战。假设神经科学已经探明大脑的运作机制,比如发现一个神经元中的神经过程将一个分子转换为另一个,不同神经元之间的相互连接路径等等,这些发现也不足以让人们接受,拥有神经元的实体如同大脑有任何特殊的主体经验。在神经过程与意识形成之间可能存在某种鸿沟。这在哲学上被称为“解释鸿沟”(explanatorygap),它是心身问题中关于物理现象与心理现象之间的理解关系问题,具体说是能否用物理状态解释心理状态的问题。这种解释鸿沟,导致有人如查尔莫斯(DavidJ.Chalmers)认为,人类无能力完全理解自己的意识;也有人如丹尼特通过否认感受性进而否认解释鸿沟的存在,认为这是由于哲学混乱造成的。但是,无论结论怎样,问题依然存在,争论仍在继续。
其实,如果感受性是意识经验,则主体经验与意识相关,没有主体意识也就没有主体经验。例如,一个丧失意识的植物人没有感觉,也就没有主体经验。如果感受性是非意识经验,那就有点神秘了,毕竟我们不能否认有意识的人有主体经验,主体经验就是感受性。之所以存在解释鸿沟,是由于还没有弄清生物的大脑是如何拥有意识的,更遑论机器脑是如何产生意识的。况且,意识与感受性之间的联系机制也还没有完全弄清,因此,形成所谓的解释鸿沟也就不难理解了。图灵也承认,意识与机器智能是不同的问题,但他否认意识问题与人工智能有太多的联系。也就是说,意识问题不妨碍机器智能问题。当今人工智能的长足发展充分说明,意识与智能不是一回事,有意识的存在一定有智能,如人类;但有智能的存在不一定有意识,如智能机。也许人工智能并不依赖于意识,而是依赖于能创造智能行为的程序。意识可能是一种不需要智能的更高级精神现象。
六人工智能能否对社会伦理构成威胁?
不论智能与意识关系如何,也不论人工意识是否可能,一个显见的事实是,人工智能的迅速发展已经对人类社会产生了非同凡响的影响,这是自我认知领域的一场深刻变革,有人称之为“图灵革命”,也是继哥白尼革命、达尔文革命、神经科学革命后的“第四次革命”。这一次革命之所以与以往不同,在于它将人类看作一个信息体,在信息圈内与其他可逻辑化、自动化信息处理的信息智能体共享自然和人工领域内的成就,相互交织在一起。于是,人类越来越多地将记忆、认知活动甚至日常生活,委托给智能机如计算器、智能手机等来完成,智能机已然成为人类的“延展大脑”。如果没有手机,人们将无所适从;如果电信网络停摆,人们将无法完成购物支付。除认知、经济等领域外,人工智能特别是智能型机器人的发展是否会对人类的精神领域,特别是伦理观念和行为规范产生影响?这一点是肯定的,而且影响巨大。这可以从以下四方面来探讨。
一是智能型机器人的身份认同问题。这不仅是个法律问题,更是伦理问题。一个人形智能型机器人是否被承认是人类,即使法律上的障碍被消除,比如,2017年10月28日,沙特阿拉伯向机器人“索菲娅”授予国籍,宣布机器人索菲娅为其国家的公民,享有与其国民相同的权利。这就是承认机器人的合法人类身份的地位。然而,接下来更棘手的伦理层次的问题是——“索菲娅”与人类是什么关系?她能结婚吗?尽管“索菲娅”与人类外形高度相似,拥有仿生橡胶皮肤,可以模拟62种面部表情,能识别人类面部表情、理解人类语言、能够与人互动,甚至还会开玩笑,但她毕竟还是机器人,缺乏人类拥有的情感力和自然生育能力,更没有人类长期建立起来的伦理观念,因此,对机器人提出伦理要求本身就是不合理的,赋予机器人以所谓的合法身份也就是一场闹剧。
二是智能型机器人的安全性问题。如果机器人会对人类生存产生极大的威胁,如无人驾驶机器成为杀人武器,禁止其发展就是必须的,因为人类法律和道德都绝对不允许杀人。这就是人类如何控制机器人的问题。2018年3月9日,欧洲科学与新技术伦理组织发布《关于人工智能、机器人及“自主”系统的声明》称,人工智能、机器人技术和“自主”技术的进步已经引发了一系列复杂和亟待解决的伦理问题,呼吁为人工智能、机器人和“自主”系统的设计、生产、使用和治理制定国际公认的道德和法律框架。
三是人类道德责任问题。在这种由人工智能和机器人构成的复杂信息社会技术系统中,与道德相关的“智能主体”(agency)应该有怎样的位置?人类如何分担产生的道德责任,或者由谁为其中产生的不良后果负责?不可否认,智能机是人类自己创造并推广应用的,产生的不良后果应该由人类自己来承担。具体来说,谁生产谁负责;正如环境问题,谁污染谁治理。这不仅是一个涉及对人工智能的研发、设计、测试、生产、监管、认证的问题,也是一个包括政府、企业、个人在内民主决策、协调解决的问题,涉及制度、政策及价值观的决策,以确保人工智能技术不会给社会带来危害。例如,哈佛大学肯尼迪政府学院贝尔弗科学与国际事务中心与美国银行宣布成立“人工智能责任运用协会”,旨在解决未来人工智能快速发展中可能出现的问题。
四是人类的行为规范问题。人工智能发展不仅极大地改变了人类的生活方式,也改变了人类的行为方式。目前的互联网给人类带来了极大的便捷,网购、支付宝、外卖非常普及,机器人已代替人类的部分工作,人变得休闲了,但也无所事事了,宅男宅女普遍存在,几天甚至几周不下楼的大有人在。这又带来了社会问题:人与人之间面对面的交流、沟通没了,感情淡化了,冷漠成为常态,不仅导致了网瘾、安全问题,也产生了不良行为。比如,走路看手机导致的车祸,长期宅在家里造成的交流封闭,甚至产生自闭症。假如有一天智能型机器人真的普及了,人类应该如何与它们打交道?应该建立一种怎样的关系?人类面对机器人应该如何规范自己的行为?这是不久的将来人类会面临的社会和伦理问题。
概言之,对于人工智能,人类不仅要关注它如何发展,还要考虑它应该怎样发展。如果人工智能的发展对于人类是弊大于利,如果机器人将会控制人类并要毁灭人类,人工智能研究者就有责任终止这种研究,如同终止核武器的发展一样。这不可避免地给人工智能研究者提出了社会责任和社会伦理的要求。
编者注:此文是作者主持的中国国家社会科学基金重点项目“科学认知的适应性表征研究”(16AZX006)的阶段性成果,发表于《南国学术》2019年第2期第220—231页。
特别声明:本文转载仅仅是出于辅助教学和学习的需要,如其他媒体、网站或个人从本网站转载使用,自负版权等法律责任;作者如果不希望被转载,请与我们接洽。
《人工智能伦理学》
《人工智能伦理学》/马克.考克伯格著
美国麻省理工学院出版社将于2020年4月出版奥地利维也纳大学哲学教授马克.考克伯格(MarkCoeckelbergh)的新书《人工智能伦理学》(AIEthics)。
人工智能应用的日益广泛带来了诸多复杂的伦理问题,考克伯格在书中对这些问题进行了综合分析。从小说《弗兰肯斯坦》中的“怪人”到超人类主义再到技术奇点,该书概述了具有影响力的人工智能故事,并描绘了未来工作场景。
考克伯格从技术层面解释了人工智能,对相关的哲学探讨进行了调查研究,如人与机器之间的根本差异、人工智能的道德状况等。考克伯格还总结了重要的伦理问题,包括人工智能发展过程中面临的隐私、责任、决策授权、透明度、歧视等问题。最后,作者探讨了决策者面临的挑战,给出了一系列政策建议。