博舍

人工智能伦理问题的现状分析与对策 人工智能伦理学论文

人工智能伦理问题的现状分析与对策

中国网/中国发展门户网讯  人工智能(AI)是第四次产业革命中的核心技术,得到了世界的高度重视。我国也围绕人工智能技术制定了一系列的发展规划和战略,大力推动了我国人工智能领域的发展。然而,人工智能技术在为经济发展与社会进步带来重大发展机遇的同时,也为伦理规范和社会法治带来了深刻挑战。2017年,国务院印发的《新一代人工智能发展规划》提出“分三步走”的战略目标,掀起了人工智能新热潮,并明确提出要“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架”。2018年,习近平总书记在主持中共中央政治局就人工智能发展现状和趋势举行的集体学习时强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。2019年,我国新一代人工智能发展规划推进办公室专门成立了新一代人工智能治理专业委员会,全面负责开展人工智能治理方面政策体系、法律法规和伦理规范研究和工作推进。《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》中专门强调要“探索建立无人驾驶、在线医疗、金融科技、智能配送等监管框架,完善相关法律法规和伦理审查规则”。这些均体现了我国对人工智能伦理及其治理的密切关注程度和积极推进决心,同时也突出了这一问题的重要性。

当前人工智能伦理问题

伦理是处理人与人之间关系、人与社会之间关系的道理和秩序规范。人类历史上,重大的科技发展往往带来生产力、生产关系及上层建筑的显著变化,成为划分时代的一项重要标准,也带来对社会伦理的深刻反思。人类社会于20世纪中后期进入信息时代后,信息技术伦理逐渐引起了广泛关注和研究,包括个人信息泄露、信息鸿沟、信息茧房、新型权力结构规制不足等。信息技术的高速变革发展,使得人类社会迅速迈向智能时代,其突出表现在带有认知、预测和决策功能的人工智能算法被日益广泛地应用在社会各个场景之中;前沿信息技术的综合运用,正逐渐发展形成一个万物可互联、万物可计算的新型硬件和数据资源网络,能够提供海量多源异构数据供人工智能算法分析处理;人工智能算法可直接控制物理设备,亦可为个人决策、群体决策乃至国家决策提供辅助支撑;人工智能可以运用于智慧家居、智慧交通、智慧医疗、智慧工厂、智慧农业、智慧金融等众多场景,还可能被用于武器和军事之中。然而,迈向智能时代的过程如此迅速,使得我们在传统的信息技术伦理秩序尚未建立完成的情况下,又迫切需要应对更加富有挑战性的人工智能伦理问题,积极构建智能社会的秩序。

计算机伦理学创始人 Moore将伦理智能体分为4类:伦理影响智能体(对社会和环境产生伦理影响);隐式伦理智能体(通过特定软硬件内置安全等隐含的伦理设计);显示伦理智能体(能根据情势的变化及其对伦理规范的理解采取合理行动);完全伦理智能体(像人一样具有自由意志并能对各种情况做出伦理决策)。当前人工智能发展尚处在弱人工智能阶段,但也对社会和环境产生了一定的伦理影响。人们正在探索为人工智能内置伦理规则,以及通过伦理推理等使人工智能技术的实现中也包含有对伦理规则的理解。近年来,越来越多的人呼吁要赋予人工智能机器一定的道德主体地位,但机器能否成为完全伦理智能体存在巨大的争议。尽管当前人工智能在一些场景下的功能或行为与人类接近,但实则并不具有“自由意志”。从经典社会规范理论来看,是否能够成为规范意义上的“主体”来承担责任,并不取决于其功能,而是以“自由意志”为核心来构建的。黑格尔的《法哲学原理》即以自由意志为起点展开。因此,当前阶段对人工智能伦理问题的分析和解决路径构建应主要围绕着前3类伦理智能体开展,即将人工智能定性为工具而非主体。

当前阶段,人工智能既承继了之前信息技术的伦理问题,又因为深度学习等一些人工智能算法的不透明性、难解释性、自适应性、运用广泛等特征而具有新的特点,可能在基本人权、社会秩序、国家安全等诸多方面带来一系列伦理风险。例如:人工智能系统的缺陷和价值设定问题可能带来公民生命权、健康权的威胁。2018年,Uber自动驾驶汽车在美国亚利桑那州发生的致命事故并非传感器出现故障,而是由于 Uber在设计系统时出于对乘客舒适度的考虑,对人工智能算法识别为树叶、塑料袋之类的障碍物做出予以忽略的决定。人工智能算法在目标示范、算法歧视、训练数据中的偏失可能带来或扩大社会中的歧视,侵害公民的平等权。人工智能的滥用可能威胁公民隐私权、个人信息权。深度学习等复杂的人工智能算法会导致算法黑箱问题,使决策不透明或难以解释,从而影响公民知情权、程序正当及公民监督权。信息精准推送、自动化假新闻撰写和智能化定向传播、深度伪造等人工智能技术的滥用和误用可能导致信息茧房、虚假信息泛滥等问题,以及可能影响人们对重要新闻的获取和对公共议题的民主参与度;虚假新闻的精准推送还可能加大影响人们对事实的认识和观点,进而可能煽动民意、操纵商业市场和影响政治及国家政策。剑桥分析公司利用 Facebook上的数据对用户进行政治偏好分析,并据此进行定向信息推送来影响美国大选,这就是典型实例。人工智能算法可能在更不易于被察觉和证明的情况下,利用算法歧视,或通过算法合谋形成横向垄断协议或轴辐协议等方式,破坏市场竞争环境。算法决策在社会各领域的运用可能引起权力结构的变化,算法凭借其可以处理海量数据的技术优势和无所不在的信息系统中的嵌入优势,对人们的权益和自由产生显著影响。例如,银行信贷中通过算法进行信用评价将影响公民是否能获得贷款,刑事司法中通过算法进行社会危害性评估将影响是否进行审前羁押等,都是突出的体现。人工智能在工作场景中的滥用可能影响劳动者权益,并且人工智能对劳动者的替代可能引发大规模结构性失业的危机,带来劳动权或就业机会方面的风险。由于人工智能在社会生产生活的各个环节日益广泛应用,人工智能系统的漏洞、设计缺陷等安全风险,可能引发个人信息等数据泄露、工业生产线停止、交通瘫痪等社会问题,威胁金融安全、社会安全和国家安全等。人工智能武器的滥用可能在世界范围内加剧不平等,威胁人类生命与世界和平……

人工智能伦理风险治理具有复杂性,尚未形成完善的理论架构和治理体系。人工智能伦理风险的成因具有多元性,包括人工智能算法的目标失范、算法及系统缺陷、受影响主体对人工智能的信任危机、监管机制和工具欠缺、责任机制不完善、受影响主体的防御措施薄弱等。人工智能技术和产业应用的飞速发展,难以充分刻画和分析其伦理风险及提供解决方案。这要求我们必须克服传统规范体系的滞后性,而采用“面向未来”的眼光和方法论,对人工智能的设计、研发、应用和使用中的规范框架进行积极思考和构建,并从确立伦理准则等软法开始,引领和规范人工智能研发应用。

关于人工智能的发展,我们既不能盲目乐观,也不能因噎废食,要深刻认识到它可以增加社会福祉的能力。因此,在人类社会步入智能时代之际,必须趁早从宏观上引导人工智能沿着科学的道路前行,对它进行伦理反思,识别其中的伦理风险及其成因,逐步构建科学有效的治理体系,使其更好地发挥积极价值。 

人工智能伦理准则、治理原则及进路

当前全球人工智能治理还处于初期探索阶段,正从形成人工智能伦理准则的基本共识出发,向可信评估、操作指南、行业标准、政策法规等落地实践逐步深入,并在加快构建人工智能国际治理框架体系。

伦理准则

近几年来,众多国家、地区、国际和国内组织、企业均纷纷发布了人工智能伦理准则或研究报告。据不完全统计,相关人工智能伦理准则已经超过40项。除文化、地区、领域等因素引起的差异之外,可以看到目前的人工智能伦理准则已形成了一定的社会共识。

近年来,中国相关机构和行业组织也非常积极活跃参与其中。例如:2018年1月,中国电子技术标准化研究院发布了《人工智能标准化白皮书(2018版)》,提出人类利益原则和责任原则作为人工智能伦理的两个基本原则;2019年5月,《人工智能北京共识》发布,针对人工智能的研发、使用、治理 3 个方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和社会发展的15条原则;2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能发展的8项原则,勾勒出了人工智能治理的框架和行动指南;2019年7月,上海市人工智能产业安全专家咨询委员会发布了《人工智能安全发展上海倡议》;2021年9月,中关村论坛上发布由国家新一代人工智能治理专业委员会制定的《新一代人工智能伦理规范》等。从发布内容上看,所有准则在以人为本、促进创新、保障安全、保护隐私、明晰责任等价值观上取得了高度共识,但仍有待继续加深理论研究和论证,进一步建立共识。

治理原则

美国、欧洲、日本等国家和地区在大力推动人工智能技术和产业发展的同时,高度重视人工智能的安全、健康发展,并将伦理治理纳入其人工智能战略,体现了发展与伦理安全并重的基本原则。

习近平总书记高度重视科技创新领域的法治建设问题,强调“要积极推进国家安全、科技创新、公共卫生、生物安全、生态文明、防范风险、涉外法治等重要领域立法以良法善治保障新业态新模式健康发展”。近年来,我国在应对新技术新业态的规制和监管方面,形成了“包容审慎”的总体政策。这项基本政策在2017年就已正式提出。在2020年1月1日起实施的《优化营商环境条例》第55条中更是专门规定了“包容审慎”监管原则:“政府及其有关部门应当按照鼓励创新的原则,对新技术、新产业、新业态、新模式等实行包容审慎监管,针对其性质、特点分类制定和实行相应的监管规则和标准,留足发展空间,同时确保质量和安全,不得简单化予以禁止或者不予监管。”这为当前人工智能伦理治理提供了基本原则和方法论。一方面,要注重观察,认识到新技术新事物往往有其积极的社会意义,亦有其发展完善的客观规律,应予以一定空间使其能够发展完善,并在其发展中的必要之处形成规制方法和措施。另一方面,要坚守底线,包括公民权利保护的底线、安全的底线等。对于已经形成高度社会共识、凝结在法律之中的重要权益、价值,在执法、司法过程中都要依法进行保护。这既是法律对相关技术研发者和使用者的明确要求,也是法律对于在智能时代保护公民权益、促进科技向善的郑重承诺。

治理进路

在人工智能治理整体路径选择方面,主要有两种理论:“对立论”和“系统论”。

“对立论”主要着眼于人工智能技术与人类权利和福祉之间的对立冲突,进而建立相应的审查和规制制度。在这一视角下,一些国家和机构重点关注了针对人工智能系统本身及开发应用中的一些伦理原则。例如,2020年《人工智能伦理罗马倡议》中提出7项主要原则——透明、包容、责任、公正、可靠、安全和隐私,欧盟委员会于2019年《可信赖人工智能的伦理指南》中提出人工智能系统全生命周期应遵守合法性、合伦理性和稳健性3项要求,都体现了这一进路。

“系统论”则强调人工智能技术与人类、其他人工代理、法律、非智能基础设施和社会规范之间的协调互动关系。人工智能伦理涉及一种社会技术系统,该系统在设计时必须注意其不是一项孤立的技术对象,而是需要考虑它将要在怎样的社会组织中运作。我们可以调整的不仅仅是人工智能系统,还有在系统中与之相互作用的其他要素;在了解人工智能运作特点的基础上,可以在整个系统内考虑各个要素如何进行最佳调配治理。当前在一些政策和法规中已有一定“系统论”进路的体现。例如,IEEE(电气与电子工程师协会)发布的《合伦理设计》11中提出的8项原则之一即为“资质”(competence),该原则提出系统创建者应明确对操作者的要求,并且操作者应遵守安全有效操作所需的知识和技能的原则,这体现了从对使用者要求的角度来弥补人工智能不足的系统论视角,对智能时代的教育和培训提出了新需求。我国国家新一代人工智能治理专业委员会2019年发布的《新一代人工智能治理原则——发展负责任的人工智能》中,不仅强调了人工智能系统本身应该符合怎样的伦理原则,而且从更系统的角度提出了“治理原则”,即人工智能发展相关各方应遵循的8项原则;除了和谐友好、尊重隐私、安全可控等侧重于人工智能开放和应用的原则外,还专门强调了要“改善管理方式”,“加强人工智能教育及科普,提升弱势群体适应性,努力消除数字鸿沟”,“推动国际组织、政府部门、科研机构、教育机构、企业、社会组织、公众在人工智能发展与治理中的协调互动”等重要原则,体现出包含教育改革、伦理规范、技术支撑、法律规制、国际合作等多维度治理的“系统论”思维和多元共治的思想,提供了更加综合的人工智能治理框架和行动指南。基于人工智能治理的特殊性和复杂性,我国应在习近平总书记提出的“打造共建共治共享的社会治理格局”的指导下,系统性地思考人工智能的治理维度,建设多元共治的人工智能综合治理体系。

我国人工智能伦理治理对策

人工智能伦理治理是社会治理的重要组成部分。我国应在“共建共治共享”治理理论的指导下,以“包容审慎”为监管原则,以“系统论”为治理进路,逐渐建设形成多元主体参与、多维度、综合性的治理体系。

教育改革

教育是人类知识代际传递和能力培养的重要途径。通过国务院、教育部出台的多项措施,以及联合国教科文组织发布的《教育中的人工智能:可持续发展的机遇与挑战》、《人工智能与教育的北京共识》13等报告可以看到,国内外均开始重视教育的发展改革在人工智能技术发展和应用中有着不可或缺的作用。为更好地支撑人工智能发展和治理,应从4个方面进行完善:普及人工智能等前沿技术知识,提高公众认知,使公众理性对待人工智能;在科技工作者中加强人工智能伦理教育和职业伦理培训;为劳动者提供持续的终身教育体系,应对人工智能可能引发的失业问题;研究青少年教育变革,打破工业化时代传承下来的知识化教育的局限性,回应人工智能时代对人才的需求。

伦理规范

我国《新一代人工智能发展规划》中提到,“开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架”。同时,还需制定人工智能产品研发设计人员及日后使用人员的道德规范和行为守则,从源头到下游进行约束和引导。当前有5项重点工作可以开展:针对人工智能的重点领域,研究细化的伦理准则,形成具有可操作性的规范和建议。在宣传教育层面进行适当引导,进一步推动人工智能伦理共识的形成。推动科研机构和企业对人工智能伦理风险的认知和实践。充分发挥国家层面伦理委员会的作用,通过制定国家层面的人工智能伦理准则和推进计划,定期针对新业态、新应用评估伦理风险,以及定期评选人工智能行业最佳实践等多种方式,促进先进伦理风险评估控制经验的推广。推动人工智能科研院所和企业建立伦理委员会,领导人工智能伦理风险评估、监控和实时应对,使人工智能伦理考量贯穿在人工智能设计、研发和应用的全流程之中。

技术支撑

通过改进技术而降低伦理风险,是人工智能伦理治理的重要维度。当前,在科研、市场、法律等驱动下,许多科研机构和企业均开展了联邦学习、隐私计算等活动,以更好地保护个人隐私的技术研发;同时,对加强安全性、可解释性、公平性的人工智能算法,以及数据集异常检测、训练样本评估等技术研究,也提出了很多不同领域的伦理智能体的模型结构。当然,还应完善专利制度,明确算法相关发明的可专利性,进一步激励技术创新,以支撑符合伦理要求的人工智能系统设计。

此外,一些重点领域的推荐性标准制定工作也不容忽视。在人工智能标准制定中,应强化对人工智能伦理准则的贯彻和支撑,注重对隐私保护、安全性、可用性、可解释性、可追溯性、可问责性、评估和监管支撑技术等方面的标准制定,鼓励企业提出和公布自己的企业标准,并积极参与相关国际标准的建立,促进我国相关专利技术纳入国际标准,帮助我国在国际人工智能伦理准则及相关标准制定中提升话语权,并为我国企业在国际竞争中奠定更好的竞争优势。

法律规制

法律规制层面需要逐步发展数字人权、明晰责任分配、建立监管体系、实现法治与技术治理有机结合。在当前阶段,应积极推动《个人信息保护法》《数据安全法》的有效实施,开展自动驾驶领域的立法工作;并对重点领域的算法监管制度加强研究,区分不同的场景,探讨人工智能伦理风险评估、算法审计、数据集缺陷检测、算法认证等措施适用的必要性和前提条件,为下一步的立法做好理论和制度建议准备。

国际合作

当前,人类社会正步入智能时代,世界范围内人工智能领域的规则秩序正处于形成期。欧盟聚焦于人工智能价值观进行了许多研究,期望通过立法等方式,将欧洲的人权传统转化为其在人工智能发展中的新优势。美国对人工智能标准也尤为重视,特朗普于2019年2月发布“美国人工智能计划”行政令,要求白宫科技政策办公室(OSTP)和美国国家标准与技术研究院(NIST)等政府机构制定标准,指导开发可靠、稳健、可信、安全、简洁和可协作的人工智能系统,并呼吁主导国际人工智能标准的制定。

我国在人工智能科技领域处于世界前列,需要更加积极主动地应对人工智能伦理问题带来的挑战,在人工智能发展中承担相应的伦理责任;积极开展国际交流,参与相关国际管理政策及标准的制定,把握科技发展话语权;在最具代表性和突破性的科技力量中占据发展的制高点,为实现人工智能的全球治理作出积极贡献。

(作者:张兆翔、谭铁牛,中国科学院自动化研究所;张吉豫中国人民大学法学院;《中国科学院院刊》供稿)

科学网—人工智能对社会伦理价值的影响

人工智能对社会伦理价值的影响

已有3738次阅读2019-8-2713:08|系统分类:观点评述

人工智能对社会伦理价值的影响

从主题研究角度来看,根据人工智能的特征及其与社会的关联以及目前全球人工智能伦理研究的成果,人工智能伦理研究可概括为四大板块:人工智能道德哲学、人工智能道德决策、人工智能设计伦理和人工智能社会伦理。这些板块相互关联,又拥有相对独立的讨论域。人工智能道德哲学主要关注传统道德哲学如何面对人工智能的挑战,以及人工智能如何促进道德哲学的发展;人工智能道德算法主要研究如何理解和实现人工智能道德决策的问题,使人工智能能够做出合乎道德的决策;人工智能设计伦理研究人工智能得设计和制造应遵循哪些伦理准则,使人工智能的设计与社会价值观保持一致;人工智能社会伦理主要研究如何善用和阻止恶用人工智能,使人工智能造福于人类。

从哲学思考方面来说,科学技术哲学界认为技术与伦理正如两条相互缠绕的通道指引着人工智能的健康发展,一面展示着人类科技认知的水平,另一面展示着人类道德文明的程度。随着人工智能社会伦理问题的凸显,人工智能被赋予的伦理属性以及相关研究越来越多。

从文献计量学视角看,在1999-2018年的WOS数据库中,无论是以“人工智能伦理”为主题的文献还是以“机器人伦理”为主题的文献都呈现出显著的增长趋势。特别是近十年来,相关文献出现了井喷式增长,2018年以“人工智能伦理”为主题的文献量高达96篇,比2017年的文献量翻了一倍,更是1999年文献量的19倍。2016至2018年以“机器人伦理”为主题的文献量分别为59篇,60篇,72篇,这三年的文献数量是1999至2015年文献量的总和。这样高速的增长趋势说明,越来越多的学者意识到人工智能伦理研究对于社会发展的重要意义与积极作用,探索人工智能伦理研究的知识情报有助于人工智能产业以及人类社会的健康发展。

一、人工智能与社会贫富差距

目前国内对人工智能的社会公平与贫富差距影响的研究几乎是空白的,但是也有个别学者在税收和社会风险应对角度对人工智能所引发的社会贫富差距问题进行了宏观探讨。

葛玉御等(2018)认为人工智能通过两条路径影响税收现代化。第一,人工智能的发展会影响经济增长、劳动力就业和收入分配,从而倒逼"促就业、调结构、缩小贫富差距"的税制改革,既要对促进就业和就业转型给予税收支持,税收上做"减法",又要适时对人工智能机器人征税,做"加法",同时,还为破解个人所得税改革和房地产税立法开征的难题创造条件,优化税制。第二,大数据、云计算、机器学习、模式识别和人机交互等人工智能平台与技术会提升税收征管信息化水平,重塑税务工作方式,提升纳税遵从度,推动税收征管进步。

唐钧(2019)在研究人工智能的社会风险应对时发现,人工智能在创造社会效益的同时,也会引发人财损失、秩序破坏等社会风险。技术视角的风险源于"算法主观性"等技术属性,易导致人财损失等恶劣后果;而现有的风险应对措施偏重于"工具理性",难以有效根除责任事故和社会负面影响。社会视角的风险来自于人工智能在社会应用时的"马太效应"等机理所导致的大多数民众和极少数弱势群体的权益受损等问题;而现有的风险应对方案侧重于"价值理性",可能出现效率与公平的失衡或偏颇。

二、人工智能与社会公益

人工智能引发的法律、伦理等问题日益凸显,对当下的社会秩序及公共管理体制带来了前所未有的新挑战。例如,2016年欧盟委员会法律事务委员会提交一项将最先进的自动化机器人身份定位为“电子人(electronicpersons)”的动议,2017年沙特阿拉伯授予机器人“索菲亚”公民身份,这些显然冲击了传统的民事主体制度。那么,是否应该赋予人工智能系统法律主体资格?人工智能发展不可能只有积极的一面,人工智能的发展为违法行为提供了便利。人工智能的技术走在了前面,而法律、人们的习惯和社会公德等并没有跟上。

此外,在人工智能新时代,个人信息和隐私保护、人工智能创作内容的知识产权、人工智能歧视和偏见、无人驾驶系统的交通法规、脑机接口和人机共生的科技伦理等问题都需要我们从法律法规、道德伦理、社会管理等多个角度提供解决方案。

2017年,美国电气和电子工程师协会(IEEE)宣布了三项新的人工智能伦理标准。基于科学和技术的公认事实来引入知识和智慧,以帮助达成公共决策,使人类的整体利益最大化。 第一个标准为:“机器化系统、智能系统和自动系统的伦理推动标准”。这个标准探讨了“推动”,在人工智能世界里,它指的是影响人类行为的微妙行动。 第二个标准是“自动和半自动系统的故障安全设计标准”。它包含了自动技术,如果它们发生故障,可能会对人类造成危害。目前而言,最明显的问题是自动驾驶汽车。 第三个标准是“道德化的人工智能和自动系统的福祉衡量标准”。它阐述了进步的人工智能技术如何有益于人类的益处。 

2018年2月,牛津大学、剑桥大学和OpenAI公司等14家机构共同发布题为《人工智能的恶意使用:预测、预防和缓解》的报告,指出人工智能可能给人类社会带来数字安全、物理安全和政治安全等潜在威胁,并给出了一些建议来减少风险。

欧盟委员会于2019年4月以“建立对以人为本AI的信任”为题,发布了欧洲版的人工智能伦理准则,期望建立“以人为本、值得信任”的人工智能伦理标准,不断促进社会公众接受人工智能技术、应用人工智能技术。欧盟AI高级专家组起草该伦理准则过程中,参考了欧洲科学与新技术伦理小组和欧洲基本权利机构的有关工作成果。为了实现“可信任AI”,该项伦理准则确立了三项基本原则:(1)AI应当符合法律规定;(2)AI应当满足伦理原则;(3)AI应当具有可靠性。根据这三项基本原则和前述欧洲社会价值观,该项伦理准则进一步提出了“可信任AI”应当满足的七项关键要求,包括:(1)人的自主和监督;(2)可靠性和安全性;(3)隐私和数据治理;(4)透明度;(5)多样性、非歧视性和公平性;(6)社会和环境福祉;(7)可追责性。

三、人工智能与科技伦理

    人工智能大数据与道德算法是统摄人工智能载体道德认知与行为的基础,随着生物仿真、神经网络以及脑科学技术的发展,越来越多不同学科的学者加人到人工智能伦理系统的开发与应用中;人工智能伦理研究已经从哲学形而上的讨论转向人工智能载体伦理设计与实践测试中,包括无人驾驶汽车、自动化武器、机器人等多个智能产业;在人工智能载体的应用方面,机器人的伦理价值敏感设计是当下人工智能工程的伦理研究热点。

Bonnefon通过实验测试了人工智能伦理系统对无人驾驶汽车实现道德自主权的可能性,伦理系统设计突出了人们对智能机器的道德期望、文化价值和法律标准。但实验结果证明目前尚没有能够协调道德价值观和个人利益的人工智能伦理系统,更无法通过伦理系统设计去融合不同文化圈的差异,人工智能机器的伦理系统设计研究仍然任重道远。之后,Bryson提出了人工智能自动系统中伦理系统设计标准:①普遍原则设计;②价值观设计;③安全性能设计;④慈善设计;⑤隐私与人权设计;⑥军事人道主义设计;⑦经济与法律设计。

Kurzweil首次提出了“奇点临近论”,当人类临近“奇点((singularity)",智能技术无限制突破,机器将会融合人类的知识和智慧,成为超出人类生物学范畴的“智慧生物”,并将挑战人类生存空间。构建“人类与机器文明”的社会伦理秩序以及人工智能道德安全体系是确保人类生存与延续不可或缺的保障。Chalmers在“奇点临近论”的基础上讨论了人工智能道德安全技术防御问题。

Bostrom认为在人工智能载体的设计之初就应该充分考虑其作为人类事务委托者或决策代理者的伦理规范,同时其表示了对人工智能超越人类大脑成为超级智能的担忧与质疑。超级智能是一种完全独立于人类智慧之外的实在,并且挑战人类生存空间。虽然目前的人工智能发展尚未进人“超级智能”阶段,但是构建人工智能道德代理的风险防范机制是极为必要的。

四、人工智能与人文关怀

人工智能对人文关怀的影响主要体现在对社会公众认知的改变、对权利责任认定以及道德地位的确定、对社会学科的价值形塑、对社会弱势群体的关照和对战争的预防等方面。

刘耀会(2017)通过研究人工智能与社会伦理的关系是发现,随着人工智能的快速发展,社会上针对人工智能出现了两种声音,称之为人工智能支持论和人工智能威胁论。并且以医疗机器人为例,探讨生物医学伦理问题,他认为医疗机器人主要存在公平受益、数据质量、病人隐私和安全及监管等方面的道德伦理问题。吴恺(2019)在对当代人工智能技术发展中的伦理问题研究中发现人工智能技术发展中的伦理问题存在人工智能的"权利"、人工智能事故的责任认定、人工智能的道德地位等方面的问题,并提出了加强人工智能技术的国际交流与合作等解决办法。

徐选国等(2018)从社会工作学科发展角度出发,社会工作作为缓解新时代背景下社会大众美好生活需求与不平衡不充分发展之间矛盾的重要制度性力量,通过履行科学、艺术与政治三大核心属性,以积极回应人工智能时代所引发的结构变迁、秩序重组以及体制创新。蒋晓等(2019)以人工智能新闻应用中的现实问题为突破口,借鉴国外伦理理论和实践中的合理思想和成功经验,结合中国的传统伦理和现实语境,借助技术伦理学的研究视角,从伦理基石、基本原则、政策框架、责任主体、道德规范、技术工具等方面提出中国人工智能新闻伦理的构建路径。 

SharkeyN与SharkeyA在其论文中通过引人能力要素法(capability受护者尊严的维度,approach,CA)讨论并定义了老龄其中包括:①寿命维度度;②体质维度;③感官维度;④社交维度;⑤种族维度;⑥康乐维度;⑦公共环境维度等,并根据能力要素法提出了护理机器人的伦理设计方案,旨在通过拓展机器人护理的伦理能力让老龄受护者获得更多的尊严需求。

Sharkey在其论文中归纳了当下社会在机器人应用中遇到的伦理困境,主要体现在三个方面:①儿童看护机器人对孩子造成的心理依恋与社会交流障碍等问题;②老年看护机器人对老人造成的情感孤独与欺骗;③战争机器人对叛乱分子的残酷打击。Sharkey认为机器人在看护与战争领域的应用只是人工智能载体推向市场与战场的冰山一角,高科技涌动的背后存在着潜在的危机,确立机器人应用的道德防范体制与安全底线标准,应是机器人伦理学研究努力的方向。

参考文献

    李伦,孙保学.给人工智能一颗“良芯(良心)”――人工智能伦理研究的四个维度[J].教学与研究,2018(08):72-79.

    刘鸿宇,苗芳艳,彭拾,夏思宇,王珏.人工智能伦理研究的知识图谱分析[J/OL].情报杂志:1-10

    葛玉御,宫映华.借势人工智能,实现税收现代化[J].税务研究,2018(06):13-18.

    谭铁牛.人工智能的创新发展与社会影响[J].中国人大,2019(03):36-43.

    科技部部长王志刚:人工智能发展走在了社会伦理前面http://news.sina.com.cn/c/2019-03-08/doc-ihrfqzkc2309494.shtml

    欧盟人工智能伦理准则概要-中国法院网https://www.chinacourt.org/article/detail/2019/04/id/3847326.shtml

     BonnefonJF,ShariffA,RahwamI.TheSocialdilemmaofau-tonomousvehicles[J] .Science,2016,352(6293):1573一1575.

     BrysonJ,WinfieldAFT.Standardizingethicaldesignforartifi-cialintelligenceandautonomoussystems[J].Computer,2017,

50(5):116一119.

     KurzweilR.Thesingularityisnear:Whenhumanstranscendbiol-ogy[M].London:PenguinBooks,2005.

     ChalmersDJ.Thesingularity:Aphilosophicalanalysis[J]JournalofConsciousnessStudy,2010,17(9一10):7一63.

     BostromN.Super一intelligence:Paths,dangers,strategies[M]Oxford:OxfordUniversityPress,2014.

    刘耀会.关于人工智能与社会伦理的探讨[J].机器人技术与应用,2017(05):44-48.

    吴恺.当代人工智能技术发展中的伦理问题研究[J].中共山西省委党校学报,2019,42(03):65-68.

    徐选国,杨威威,徐永祥.人工智能时代的多重挑战与社会工作的专业回应[J].人文杂志,2018(06):120-128.

    蒋晓,韩鸿,兰臻.中国语境下的人工智能新闻伦理建构[J].西南民族大学学报(人文社科版),2019,40(06):151-158.

    SharkeyN,SharkeyA.Grannyandtherobots:Ethical issuesmrobotcaregy,2012fortheelderly[J].EthicsandInformationTechnolo-14(1):27一40.

 

https://blog.sciencenet.cn/blog-3378353-1195432.html下一篇:无贫赋收藏IP:159.226.34.*|热度|

论人工智能技术的环境伦理问题,伦理学论文

环境伦理学论文(热点范文10篇)之第七篇

摘要:人工智能技术的快速发展已经改变了人类的生产生活及思维方式,其有关的伦理道德问题也得到理论工作者应有的关注。世界很多研究机构或科技企业对人工智能的发展进行了严格的伦理道德规范。面对人工智能技术的发展对生态环境产生的负面影响,本文试图从技术应用、环境伦理设计、技术管理、资源再利用、法律法规的制定与完善等方面给出应对策略。

关键词:人工智能技术,环境伦理,伦理规范,机器人

近些年来,人工智能技术发展迅速。随着各国政府对人工智能产业的政策扶植及高新技术企业对人工智能加大投入,人工智能技术加速向社会生产生活等各个领域渗透,人们正逐步适应智能时代的巨大改变。在人工智能这场浪潮来临之前,世界各国的理论工作者保持对“人工智能”的高度关注,他们已开始不断思考和挖掘有关人工智能技术伦理问题或有关的哲学问题。

现代技术伦理问题的研究突出显现为滞后性,这一特征表现为技术的创新发展频频引发激烈的伦理冲突,而与此相关的伦理问题的研究还没有跟上,学术界还没有形成有关此类技术发展的伦理道德规范。当代技术伦理问题的研究避免了这种滞后性。类似人工智能对人类隐私的暴露,以及人工智能技术对生态环境的影响等问题,人类必须做到也能够做到问题的预设,发展人工智能伦理,实现人工智能技术与伦理的协同发展。

1伦理规范:人类社会对人工智能技术的发展提出严格要求

在人工智能技术发展的早期,学者们就重视对人工智能技术发展提出伦理要求,美国科幻作家阿西莫夫就曾给出了着名的“机器人学三定律”。第一定律:机器人不得伤害人类;第二定律:机器人必须服从人的命令,但不能违反第一定律;第三定律:机器人必须保护自己,但不得违反第一、第二定律。[1]近些年来,人工智能技术发展迅速,深刻影响到人类生产生活的各个方面,如智能手机、头像门禁识别、医疗诊断、共享单车等。据英国《经济学人》杂志最新封面文章报道,随着机器人变得越来越智能化,社会需要制定一些规则,确保令机器人能够做出符合道德的判断,避免出现混乱。[2]为了适应新的科技发展形势,各国有关组织都十分关注人工智能技术的未来,对其发展提出了更为具体的伦理规范。韩国曾起草了《机器人道德宪章》,包括这样一些内容,如防止人类违法使用机器人、保护机器人获得的数据、保证人类能够控制机器人,并将道德标准设置进计算机程序等[3]。

为了给机器人的设计和应用提供指导方向,避免潜在危险发生,2016年4月英国标准组织(BSI)发布《伦理设计和应用机器人》,给不同类型机器人的研究和发展提供了伦理标准。2016年12月,IEEE发布标准文件《合伦理设计(第一版)》,针对通用人工智能(AGI)和超级人工智能(ASI)的发展提出了涉及八个部分的具体伦理要求。2016年全球着名的微软公司提出了人工智能发展的六大原则。2017年IBM公司也提出了人工智能发展的3个原则,针对其目的、透明性及技能提出了基本要求。

虽然各国有关组织和企业对AI技术的发展提出了明确的伦理道德要求,但是人工智能技术的伦理道德问题并没有随之解决,问题的复杂性在于,不断创新发展的人工智能与即将到来的“人工智能+”将会更广泛地影响着人类社会,人工智能技术的创新发展也将面临更深层次的伦理困境。本文将对有关人工智能技术的环境伦理问题展开深入分析。

2忧虑:人工智能技术的环境伦理问题

我国人工智能技术起步晚,但发展迅速。与此同时,中国政府也在加快推进生态文明社会建设。中国的理论工作者理应关注人工智能技术与生态文明建设之间的关系,进一步明确而言,也就是厘清人工智能技术所涉及到的环境伦理问题。事实上,人工智能技术的发展将对生态环境产生很大的负担。

2.1人工智能技术加速人类对自然资源的利用和消耗

当前,世界许多国家十分重视发展人工智能技术,并且已经开始研制并在各个领域开始试用各种功能各异的人工智能技术产品。这些新的技术产品作为技术人工物,是通过人类创造出来的“机器”或“科技黑箱”作为载体来模拟人类的智能,从而达到预期的目的。人工智能技术无法摆脱技术的自然属性,以人工智能机器人为例,它的研制需要从自然界索取不同的物质,经过多种复杂的程序,是诸多种材料、学科知识、技术的合成。人工智能技术在充分利用自然物性功能的同时,也改变了自然界物质本来的性质和状态。如此以来,人工智能技术的发展对生态环境会产生很大的影响。该技术的快速发展将加速人类对自然资源的攫取与利用,可能会使原本严重的生态问题更加恶化,如不加以规制,将对人类追求的环境伦理的持续性、人与自然协同进化等基本原则形成巨大的挑战。

2.2人工智能技术产品的更新换代会造成大量固体垃圾

随着人工智能技术的快速发展,“人工智能+”将人工智能技术广泛运用到社会生活的各个领域,实现了从理论到技术,从实验到市场的转变,智能家电、智能社区、智能交通等,人类迅速开启了智能生活的模式。但是,人工智能技术的创新发展加速了产品的更新换代,被淘汰的技术产品自然成为了固体垃圾,并且这些智能技术产品都由多种金属、非金属材料研制而成,其成分在自然界很难消解,会产生严重的环境问题。以智能机器人为例,目前根据应用领域有各种不同的机器人,如医疗机器人、水下机器人、家用机器人、农业机器人、军用机器人等等,由于人工智能技术的发展,智能机器人的感知能力、思维能力和行为能力都会实现不断突破,也就实现了更新换代,被淘汰的机器人在不被回收利用的情况下自然就成为了垃圾。

2.3人工智能机器人会挤占人类生存空间

人工智能技术发展的一个重要方向就是催生人工智能机器人,它可以代替人类从事很多繁重复杂的劳动。智能机器人的研制与生产已不是新鲜事物,人类需要关心的是,我们需要在哪些领域发展什么样的智能机器人。须知,智能机器人的大量生产与使用会占用人类大量的生存空间。以“助人吃饭机器”为例,早在80多年前它就已经出现在电影里,1936年美国上映的由卓别林主演的电影《摩登时代》,剧中有这样一个场景,资本家为了延长工人的劳动时间,减少吃饭时间,准备引进“助人吃饭机器”,卓别林被资本家命令试用该机器,结果证明该机器不可靠,且闹出了笑话。随着科技的快速发展,今天人类成功研制“助人吃饭机器”并不是难事,并且可以考虑把他用于医院解决病人吃饭的问题,而不是用来帮助普通人吃饭。即便如此,一定数量的“助人吃饭机器”被研制并投入使用,他们会与人类一起争夺本来就拥挤不堪的病房,挤占人类的生存空间。再比如,“监考智能机器人”的发明也存在类似的问题,大量“监考智能机器人”投入考场,他们会挤占学校教室的空间资源,考试结束以后,“监考智能机器人”的安置也需要消耗学校的教学空间资源。

2.4人工智能技术的运用会破坏相关区域的自然生态环境

人工智能技术的运用总是以特定的载体出现,如功能各异的智能机器人,智能社区的建设,智能交通的建设,还有智能技术运用于森林生态环境的保护等项目,这些项目的建设都需要安装或使用智能技术产品这一载体来达到目的。而这些载体的大量安装和使用会对自然生态环境产生一定的破坏作用。以智能技术在保护森林资源的运用为例,一定数量的智能技术产品安装在森林的各个角落,会对动物的正常活动产生潜在的威胁,一定程度上会影响动植物的成长。从微观领域来看,智能技术产品在使用过程中所可能带来的电磁辐射、噪音等问题,也会破坏相关区域的自然生态环境。

3人工智能技术产生的环境伦理问题对策

现代技术的快速发展已经渗透到人类生产生活的各个细节,使人类陷入到危险的边缘,再一次把人的尊严和价值问题推到技术伦理学的前沿,现代技术发展中的伦理争论反映着以往技术时代所不具有的敏感性、尖锐性和复杂性[4]。技术的发展不受规制,就会引发严重的伦理问题,人工智能技术也不例外。近些年来,有关技术产生的环境伦理问题得到不少学者的重视,人类应从多个视角找寻应对人工智能技术产生环境伦理问题的对策。

3.1发展服务于环境保护的人工智能技术

近些年来,世界发达国家都在快速发展人工智能技术,中国也紧跟时代步伐,加快人工智能技术的投入与研究。科学家、企业家和政府都看到了人工智能技术的广泛应用前景。为了有效加强生态环境的治理,尽量避免工业经济发展对生态环境产生的负面影响,人类应该大力发展服务于环境保护的人工智能技术,换句话说,就是将人工智能技术运用于环保领域。科学家应加快人工智能技术对包括水资源环境、城市空气、市区噪音等方面有关生态环境的监控,推动人工智能技术在工业生产当中降低污染、减少排放等方面发挥积极作用,努力实现经济建设与环境保护的协调。

3.2发展与完善人工智能环境伦理设计,加强对相关技术与产品的管理力度

科学家在准备发展某项人工智能技术之前,应完善有关技术的环境伦理设计,使技术与生态环境协调发展,避免走“先污染、后治理”的老路。设计者在设计时应保持对技术价值的敏感性,将道德嵌入其中,即“道德嵌入”,对智能系统进行道德训练,使其具备类人的道德推理能力,并利用机器学习算法投射使用者的道德偏好[5]。科学家应积极推动人工智能技术的标准化研究,提高产品或部件的普适性,从而提高人工智能技术产品的利用率,减少资源的浪费。此外,要加强对人工智能技术的管理,对每一个人工智能技术产品应设置唯一的识别码,且在其内部放置监控器,实现对产品进行实时远程控制,避免出现意外[6]。有关部门要提高人工智能技术行业准入门槛,确保技术产品在推向市场之前就达到可靠性的要求,避免不成熟的产品走向市场,又很快被淘汰,造成对生态环境的负担。

3.3加强人工智能技术产品回收再利用的研究与实践,提高资源的利用率

近些年来,人工智能技术不断实现了创新发展,实现了产品的不断升级。新一代人工智能技术产品取代以往的技术产品,是因为新技术具有更智能且更强大的特征。人类该如何处置被淘汰的人工智能技术产品?旧技术产品就真的没有一点价值了吗?如何挖掘再利用旧技术产品的资源?进入21世纪,中国正在努力协调人与自然的关系,追求可持续发展,加快构建生态文明社会。生态文明社会的建设强调要节约资源、充分利用资源。随着人工智能技术的发展,科学家应加强人工智能技术产品回收再利用的研究与实践,提高资源的利用率。

3.4加强人工智能技术的环境伦理规范,建立完善有关的法律法规

现代技术并没有单一地朝着服务于人类社会的方向发展。虽然大部分技术专家会自觉按照“造福于人类”的宗旨去从事技术实践活动,自觉抵制对社会有危害的技术行为,但是,还是会有少数分子为了私利敢于铤而走险[7]。人工智能技术的应用有禁区,人类到底需要怎样的人工智能技术?比如,到底要不要发展“助人吃饭机器”?吃饭是人类的基本需要,也是一种享受,何以受制于机器。在科技快速发展的今天,“助人吃饭机器”对于特定的病人可能有阶段性的需要,但它显然不是人类的普遍所需,也会与人类抢夺生存空间,不应该成为人工智能技术的发展方向。此外,随着人工智能技术的广泛应用,其无论如何也不应该成为破坏生态环境的“罪魁祸首”。人类应加强人工智能技术的环境伦理规范,建立完善有关的法律法规,使人工智能技术的应用严格遵循“造福于人类”这一基本宗旨。针对人工智能技术的发展,需要一部具备最高法律效力的国际通用法,而各国在制定自身法律时不应与之冲突,都要严格遵循该法的标准。[8]世界各国及相关国际组织需要完善立法来进一步规范人工智能技术的发展与应用,促进人工智能技术与生态环境的协调发展,这关系到人类的未来,也是全人类共同的责任。

结论

当今社会技术的权力在不断膨胀,越来越深刻地影响着人类。人工智能技术改变了人类的生产生活及思维方式。但是,必须要指出的是,任何技术的进步都是基于人类社会的发展需要及根本利益,背后的主体都是人类。人们在发展某项技术时,努力实现人类及其生存环境的可持续发展,决不能以牺牲生态环境作为代价。对人工智能技术的环境伦理问题及其对策的深入思考并不在于限制该技术的发展与应用,而是尽量避免其消极影响,凸显技术“服务于人类”的宗旨。特别要强调的是,人类要发展某项技术,必须在伊始就要充分考虑其可能存在的各种伦理问题,厘清该技术的发展方向,高度关注其未来。这既是人类对技术的负责,更是人类对自身未来的担当。

参考文献[1]阿西莫夫.我,机器人[M].北京:科学普及出版社,1981:1.[2]李欣.机器人也需要道德标准[N].现代快报,2012-6-5.[3]李俊平.人工智能技术的伦理问题及其对策研究[D].武汉:武汉理工大学,2013:27-28.[4]赵迎欢.高技术伦理学[M].沈阳:东北大学出版社,2005:67.

点击查看>>环境伦理学论文(热点范文10篇)其他文章

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇