浅谈人工智能的伦理问题
浅谈人工智能的伦理问题
资料整理,仅供参考
引言2018 年3月 18日晚上 10 点左右,伊莱恩·赫兹伯格(ElaineHerzberg)骑着自行车穿过亚利桑那州坦佩市的一条街道,突然间被一辆自动驾驶汽车撞翻,最后不幸身亡。这是一辆无人自动驾驶汽车,尽管车上还有一位驾驶员,但车子由一个完全的自驾系统(人工智能)所控制。与其他涉及人与AI技术二者之间交互的事件一样,此事件引发了人们对人工智能中道德和法律问题的思考。系统的程序员必须履行什么道德义务来阻止其研发产品导致人类的生命受到威胁?谁对赫兹伯格的死负责?是该自动驾驶汽车公司测试部们?人工智能系统的设计者,甚至是机载传感设备的制造商?
关于人工智能的伦理讨论一直在进行,从人工智能研究的开始,重点主要集中在讨论可能性和对未来影响的理论工作,但对人工智能实际应用中研究讨论较少。尽管学术界对人工智能伦理道德的关系进行探讨已经持续了几十年,但并没有得出普遍的人工智能伦理是什么,甚至应该如何定义命名也没有统一规范化。近年来,随着社会科技技术的不断发展,人工智能的发展取得重大的突破。人工智能相关伦理研究讨论日益广泛,影响着我们的生活。在当前AI伦理受到越来越多讨论研究的背景下,本文主要通过对一些案例分析人工智能的伦理问题,结合本学期《工程伦理》课程所学,谈谈自己的理解与收获。
人工智能及其案例讨论分析“人工智能”被设计为一种为从环境中获取因素的系统,并基于这些外界的输入来解决问题,评估风险,做出预测并采取行动。在功能强大的计算机和大数据时代之前,这种系统是由人类通过一定的编程及结合特定规则实现,随着科学技术的不断进步,新的方法不断出现。其中之一是机器学习,这是目前AI最活跃最热门的领域。应用统计学的方法,允许系统从数据中“学习”并做出决策。关注技术的进步,我们更关注的是在极端情况下的伦理问题。例如在一些致命的军事无人机中使用AI技术,或者是AI技术可能导致全球金融体系崩溃的风险等。
对大量的数据进行汇总分析,我们可以利用AI技术帮助分析贷款申请人的信誉,决定是否给予贷款以及额度,同时也可以对应聘者进行评估,决定是否录取,还可以预测犯罪分子再次犯罪的几率等等。这些技术变革已经深刻影响着社会,改变着人们生活。但是,此类技术应用也会引发一些令人困扰的道德伦理问题,由于AI系统会增强他们从现实世界数据中学到的知识,甚至会放大对种族和性别偏见。因此,当遇到不熟悉的场景时,系统也会做出错误的判断。而且,由于许多这样的系统都是“黑匣子”,人们往往很难理解系统做出判断的内在原因,因此难以质疑或探究,给人们决策带来风险。举几个具体例子:2014年,亚马逊开发了一种招聘工具,用于识别招聘的软件工程师,结果该系统却表现出对妇女的歧视,最后该公司不得不放弃了该系统。2016年,ProPublica在对一项商业开发的系统进行了分析,该系统可预测罪犯再次犯罪的可能性,旨在帮助法官做出更好的量刑决定,结果也发现该系统对黑人有歧视偏见。在过去的两年中,自动驾驶汽车在依靠制定的规则和训练数据进行学习,然而面对陌生的场景或其系统无法识别的输入时,无法做出正确判断,从而导致致命事故。
由于这些系统被视为专有知识产权,因此该私人商业开发人员通常拒绝提供其代码以供审查。同时,技术的进步本身并不能解决AI核心的根本问题—经过深思熟虑设计的算法也必须根据特定的现实世界的输入做出决策。然而这些输入会有缺陷,并且不完善,具有不可预测性。计算机科学家比其他人更快地意识到,在设计了系统之后,不可能总是事后解决这些问题。越多人认识到道德伦理问题应该被当作在部署一个系统前所要考虑的一个问题。
对失业、不平衡问题的讨论与思考人工智能的重要的道德和伦理问题,既是社会风险的前沿,也是社会进步的前沿。我们讨论两个突出问题:失业、不平衡问题。
1.失业
几十年来,为了释放人类劳动,我们一直在制造模仿人类的机器,让机器替代我们更有效地执行日常任务。随着经济的飞速发展,自动化程度越来越高,大量新发明出现在我们生活中,使我们的生活变得更快,更轻松。当我们使用机器人替代我们人类完成任务,即让手工完成的工作变成自动化时,我们就释放了资源来创建与认知而非体力劳动有关的更复杂的角色。这就是为什么劳动力等级取决于工作是否可以自动化的原因(例如,大学教授的收入比水管工的收入还多)。麦肯锡公司最近的一份报告估计,到2030年,随着全球的自动化加速,接近8亿个工作岗位将会消失。例如,随着自动驾驶系统兴起,AI技术引发了人们对失业的忧虑,大量的卡车司机工作岗位可能受到威胁。我们人类将有史以来第一次开始在认知水平上与机器竞争。最可怕的是,它们比我们拥有更强大的能力。也有一些经济学家担心,作为人类的我们将无法适应这种社会,最终将会落后与机器。
2.不平衡
设想没有工作的未来会发生什么?目前社会的经济结构很简单:以补偿换取贡献。公司依据员工一定量的工作来支付其薪水。但是如果借助AI技术,公司可以大大减少其人力资源。因此,其总收入将流向更少的人。那些大规模使用新技术的公司,其少部分人将获得更高比例的工资,这导致贫富差距在不断扩大。在2008年,微软是唯一一家跻身全球十大最有价值公司的科技公司。苹果以39位居第二,谷歌以51位居第三。然而,到2018年,全球十大最有价值公司前五名均是美国科技公司。
当今世界,硅谷助长了“赢者通吃”的经济,一家独大的公司往往占据大部分市场份额。因此,由于难以访问数据,初创企业和规模较小的公司难以与Alphabet和Facebook之类的公司竞争(更多用户=更多数据,更多数据=更好的服务,更好的服务=更多的用户)。我们还发现一个现象,就是这些科技巨头创造的就业机会相比于市场上其他公司往往少很多。例如,1990年,底特律三大公司的市值达到650亿美元,拥有120万工人。而在2016年,硅谷三大公司的价值为1.5万亿美元,但只有190,000名员工。那么如今技能变得多余的工人将如何生存,这样趋势下去会不会引发社会暴乱,科技巨头应不应该承担更多的社会责任,这些都是值得我们思考的问题。
人工智能伦理问题建议由上文可知,缺乏对伦理的认知,会对社会及人类生活造成的一定风险,因此,为加强AI伦理因素在实际应用的正确导向作用,应从以下几个方面入手:
1.明确定义道德行为
AI研究人员和伦理学家需要将伦理价值表述为可量化的参数。换句话说,他们需要为机器提供明确的答案和决策规则,以应对其可能遇到的任何潜在的道德困境。这将要求人类在任何给定情况下就最道德的行动方针达成共识,这是一项具有挑战性但并非不可能的任务。例如,德国自动驾驶和互联驾驶道德委员会提出:建议将道德价值观编程到自动驾驶汽车中,以优先保护人类生命为重中之重。在不可避免的致命撞车事故发生时,汽车不应基于年龄,性别、身体或心理构造等个人特征来选择是否要杀死一个人。
2.众包人类道德伦理
工程师需要收集足够的关于明确道德伦理标准的数据,以适当地训练AI算法。即使在为道德价值观定义了特定的指标之后,如果没有足够的公正数据来训练模型,那么AI系统可能仍会难以取舍。获得适当的数据具有挑战性,因为道德伦理规范不能始终清晰地标准化。不同的情况需要采取不同的方针,在某些情况下可能根本没有单一的道德伦理行动方针。解决此问题的一种方法是将数百万人的道德伦理困境的潜在解决方案收集打包。例如,麻省理工学院的一个项目,其展示了如何在自动驾驶汽车的背景下使用众包数据来有效地训练机器以做出更好的道德决策。但研究结果还表明,全球道德价值观可能存在强烈的跨文化差异,在设计面向人的AI系统时也要注意考虑这一因素。
3.使AI系统更加透明
政策制定者需要实施指导方针,使关于伦理的AI决策,尤其是关于道德伦理指标和结果的决策更加透明。如果AI系统犯了错误或产生了不良后果,我们将不能接受“ 算法做到了 ”作为借口。但是我们也知道,要求完全算法透明性在技术上不是很有用。工程师在对道德价值进行编程之前应该考虑如何量化它们,以及考虑运用这些人工智能技术而产生的结果。例如,对于自动驾驶汽车,这可能意味着始终保留所有自动决策的详细日志,以确保其道德伦理责任。
结束语伦理问题的出现是工程活动发展的必然要求。以人工智能技术为基础的现代工程活动日益复杂,对自然和社会的影响越来越深刻。同时,作为工程活动中的关键角色,工程师群体在一定意义上具有改变世界的力量。正所谓“力量越大,责任也就越大”。工程师在一般的法律责任之外,还负有更重要的道德责任。作为AI领域的工程技术人员,不断创新人工智能技术的同时也要关注实际应用中的伦理道德,相信人工智能技术可以让世界变得更加美好!
《新一代人工智能伦理规范》发布
9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(以下简称《伦理规范》),旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。
《伦理规范》经过专题调研、集中起草、意见征询等环节,充分考虑当前社会各界有关隐私、偏见、歧视、公平等伦理关切,包括总则、特定活动伦理规范和组织实施等内容。《伦理规范》提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理要求。同时,提出人工智能管理、研发、供应、使用等特定活动的18项具体伦理要求。《伦理规范》全文如下:
新一代人工智能伦理规范为深入贯彻《新一代人工智能发展规划》,细化落实《新一代人工智能治理原则》,增强全社会的人工智能伦理意识与行为自觉,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展,制定本规范。
第一章 总则
第一条 本规范旨在将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题。
第二条 本规范适用于从事人工智能管理、研发、供应、使用等相关活动的自然人、法人和其他相关机构等。(一)管理活动主要指人工智能相关的战略规划、政策法规和技术标准制定实施,资源配置以及监督审查等。(二)研发活动主要指人工智能相关的科学研究、技术开发、产品研制等。(三)供应活动主要指人工智能产品与服务相关的生产、运营、销售等。(四)使用活动主要指人工智能产品与服务相关的采购、消费、操作等。
第三条 人工智能各类活动应遵循以下基本伦理规范。(一)增进人类福祉。坚持以人为本,遵循人类共同价值观,尊重人权和人类根本利益诉求,遵守国家或地区伦理道德。坚持公共利益优先,促进人机和谐友好,改善民生,增强获得感幸福感,推动经济、社会及生态可持续发展,共建人类命运共同体。(二)促进公平公正。坚持普惠性和包容性,切实保护各相关主体合法权益,推动全社会公平共享人工智能带来的益处,促进社会公平正义和机会均等。在提供人工智能产品和服务时,应充分尊重和帮助弱势群体、特殊群体,并根据需要提供相应替代方案。(三)保护隐私安全。充分尊重个人信息知情、同意等权利,依照合法、正当、必要和诚信原则处理个人信息,保障个人隐私与数据安全,不得损害个人合法数据权益,不得以窃取、篡改、泄露等方式非法收集利用个人信息,不得侵害个人隐私权。(四)确保可控可信。保障人类拥有充分自主决策权,有权选择是否接受人工智能提供的服务,有权随时退出与人工智能的交互,有权随时中止人工智能系统的运行,确保人工智能始终处于人类控制之下。(五)强化责任担当。坚持人类是最终责任主体,明确利益相关者的责任,全面增强责任意识,在人工智能全生命周期各环节自省自律,建立人工智能问责机制,不回避责任审查,不逃避应负责任。(六)提升伦理素养。积极学习和普及人工智能伦理知识,客观认识伦理问题,不低估不夸大伦理风险。主动开展或参与人工智能伦理问题讨论,深入推动人工智能伦理治理实践,提升应对能力。
第四条 人工智能特定活动应遵守的伦理规范包括管理规范、研发规范、供应规范和使用规范。
第二章 管理规范
第五条 推动敏捷治理。尊重人工智能发展规律,充分认识人工智能的潜力与局限,持续优化治理机制和方式,在战略决策、制度建设、资源配置过程中,不脱离实际、不急功近利,有序推动人工智能健康和可持续发展。
第六条 积极实践示范。遵守人工智能相关法规、政策和标准,主动将人工智能伦理道德融入管理全过程,率先成为人工智能伦理治理的实践者和推动者,及时总结推广人工智能治理经验,积极回应社会对人工智能的伦理关切。
第七条 正确行权用权。明确人工智能相关管理活动的职责和权力边界,规范权力运行条件和程序。充分尊重并保障相关主体的隐私、自由、尊严、安全等权利及其他合法权益,禁止权力不当行使对自然人、法人和其他组织合法权益造成侵害。
第八条 加强风险防范。增强底线思维和风险意识,加强人工智能发展的潜在风险研判,及时开展系统的风险监测和评估,建立有效的风险预警机制,提升人工智能伦理风险管控和处置能力。
第九条 促进包容开放。充分重视人工智能各利益相关主体的权益与诉求,鼓励应用多样化的人工智能技术解决经济社会发展实际问题,鼓励跨学科、跨领域、跨地区、跨国界的交流与合作,推动形成具有广泛共识的人工智能治理框架和标准规范。
第三章 研发规范
第十条 强化自律意识。加强人工智能研发相关活动的自我约束,主动将人工智能伦理道德融入技术研发各环节,自觉开展自我审查,加强自我管理,不从事违背伦理道德的人工智能研发。
第十一条 提升数据质量。在数据收集、存储、使用、加工、传输、提供、公开等环节,严格遵守数据相关法律、标准与规范,提升数据的完整性、及时性、一致性、规范性和准确性等。
第十二条 增强安全透明。在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性、可靠性、可控性,增强人工智能系统的韧性、自适应性和抗干扰能力,逐步实现可验证、可审核、可监督、可追溯、可预测、可信赖。
第十三条 避免偏见歧视。在数据采集和算法开发中,加强伦理审查,充分考虑差异化诉求,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。
第四章 供应规范
第十四条 尊重市场规则。严格遵守市场准入、竞争、交易等活动的各种规章制度,积极维护市场秩序,营造有利于人工智能发展的市场环境,不得以数据垄断、平台垄断等破坏市场有序竞争,禁止以任何手段侵犯其他主体的知识产权。
第十五条 加强质量管控。强化人工智能产品与服务的质量监测和使用评估,避免因设计和产品缺陷等问题导致的人身安全、财产安全、用户隐私等侵害,不得经营、销售或提供不符合质量标准的产品与服务。
第十六条 保障用户权益。在产品与服务中使用人工智能技术应明确告知用户,应标识人工智能产品与服务的功能与局限,保障用户知情、同意等权利。为用户选择使用或退出人工智能模式提供简便易懂的解决方案,不得为用户平等使用人工智能设置障碍。
第十七条 强化应急保障。研究制定应急机制和损失补偿方案或措施,及时监测人工智能系统,及时响应和处理用户的反馈信息,及时防范系统性故障,随时准备协助相关主体依法依规对人工智能系统进行干预,减少损失,规避风险。
第五章 使用规范
第十八条 提倡善意使用。加强人工智能产品与服务使用前的论证和评估,充分了解人工智能产品与服务带来的益处,充分考虑各利益相关主体的合法权益,更好促进经济繁荣、社会进步和可持续发展。
第十九条 避免误用滥用。充分了解人工智能产品与服务的适用范围和负面影响,切实尊重相关主体不使用人工智能产品或服务的权利,避免不当使用和滥用人工智能产品与服务,避免非故意造成对他人合法权益的损害。
第二十条 禁止违规恶用。禁止使用不符合法律法规、伦理道德和标准规范的人工智能产品与服务,禁止使用人工智能产品与服务从事不法活动,严禁危害国家安全、公共安全和生产安全,严禁损害社会公共利益等。
第二十一条 及时主动反馈。积极参与人工智能伦理治理实践,对使用人工智能产品与服务过程中发现的技术安全漏洞、政策法规真空、监管滞后等问题,应及时向相关主体反馈,并协助解决。
第二十二条 提高使用能力。积极学习人工智能相关知识,主动掌握人工智能产品与服务的运营、维护、应急处置等各使用环节所需技能,确保人工智能产品与服务安全使用和高效利用。
第六章 组织实施
第二十三条 本规范由国家新一代人工智能治理专业委员会发布,并负责解释和指导实施。
第二十四条 各级管理部门、企业、高校、科研院所、协会学会和其他相关机构可依据本规范,结合实际需求,制订更为具体的伦理规范和相关措施。
第二十五条 本规范自公布之日起施行,并根据经济社会发展需求和人工智能发展情况适时修订。
国家新一代人工智能治理专业委员会
2021年9月25日
世卫组织概述了健康人工智能的伦理原则
据外媒TheVerge报道,世界卫生组织日前发布了一份指导文件,概述了人工智能在健康领域的道德使用的六个关键原则。20位专家花了两年时间制定该指南,这标志着关于医疗环境中人工智能伦理的第一个共识报告。
该报告强调了健康人工智能的前景,以及其帮助医生治疗病人的潜力--特别是在资源不足的地区。但它也强调,技术不是解决健康挑战的快速方法,特别是在中低收入国家,政府和监管机构应仔细审查人工智能在医疗领域的使用地点和方式。
世卫组织表示,它希望这六项原则能够成为政府、开发商和监管机构处理该技术的基础。专家们提出的六项原则是:保护自主权;促进人类安全和福祉;确保透明度;促进问责制;确保公平;以及促进具有响应性和可持续性的工具。
有几十种潜在的方式可以将人工智能应用于医疗保健。有一些正在开发的应用,使用人工智能来筛选医疗图像,如乳房X光检查;扫描病人健康记录以预测他们是否可能生病的工具;帮助人们监测自己的健康的设备;以及帮助跟踪疾病爆发的系统。在人们无法接触到专业医生的地区,工具可以帮助评估症状。但是,当它们没有被仔细开发和实施时,它们可能--在最好的情况下--没有实现其承诺。在最坏的情况下,它们可能会造成伤害。
在过去的一年中,一些隐患是显而易见的。在对抗COVID-19大流行病的争夺中,医疗机构和政府转向人工智能工具寻求解决方案。然而,这些工具中的许多都具有世卫组织报告所警告的一些特征。例如,新加坡政府承认,一个联系人追踪应用程序收集的数据也可用于刑事调查--这是一个"功能蠕变"的例子,即健康数据被重新利用,超出了原来的目标。大多数旨在根据胸部扫描检测COVID-19的人工智能程序都是基于糟糕的数据,最终并没有用。美国的医院在测试该程序之前使用了一种旨在预测哪些COVID-19患者可能需要重症监护的算法。
"紧急情况并不证明部署未经证实的技术是合理的,"该报告说。
报告还承认,许多人工智能工具是由大型私人技术公司(如Google)或公共和私营部门之间的伙伴关系开发的。这些公司拥有建立这些工具的资源和数据,但可能没有动力为自己的产品采用拟议的道德框架。他们的重点可能是利润,而不是公共利益。“虽然这些公司可能会提供创新的方法,但人们担心他们最终可能会在政府、供应商和病人面前行使过多的权力,”报告写道。
医疗领域的人工智能技术仍然是新的,许多政府、监管机构和卫生系统仍在摸索如何评估和管理它们。世卫组织的报告说,在方法上深思熟虑和有分寸,将有助于避免潜在的伤害。“技术解决方案的吸引力和技术的承诺可能会导致高估利益,否定人工智能等新技术可能带来的挑战和问题。”
以下是世卫组织指南中六项道德原则的细目,以及它们为何重要的原因。
保护自主权:人类应该对所有健康决定进行监督并拥有最终决定权--这些决定不应该完全由机器做出,医生应该能够在任何时候推翻它们。未经同意,人工智能不应该被用来指导某人的医疗护理,而且他们的数据应该受到保护。
促进人类安全。开发人员应持续监测任何人工智能工具,以确保它们按规定工作,不会造成伤害。
确保透明度。开发者应该公布有关人工智能工具设计的信息。对这些系统的一个经常性批评是,它们是"黑盒子",研究人员和医生很难知道它们是如何做出决定的。世卫组织希望看到足够的透明度,以便用户和监管机构能够充分审计和理解它们。
培养问责制。当人工智能技术出现问题时--比如工具做出的决定导致病人受到伤害--应该有机制来确定谁应该负责(比如制造商和临床用户)。
确保公平。这意味着要确保工具有多种语言版本,并在不同的数据集上进行训练。在过去的几年里,对普通健康算法的仔细审查发现,一些算法中存在种族偏见。
推广可持续发展的人工智能。开发者应该能够定期更新他们的工具,如果一个工具看起来没有效果,机构应该有办法进行调整。机构或公司也应该只引进可以修复的工具,即使是在资源不足的卫生系统。
什么是人工智能 (AI)
虽然在过去数十年中,人工智能(AI)的一些定义不断出现,但JohnMcCarthy在2004年的文章 (PDF,127KB)(链接位于IBM外部)中给出了以下定义:"它是制造智能机器,特别是智能计算机程序的科学和工程。AI与使用计算机了解人类智能的类似任务有关,但不必局限于生物可观察的方法"。
然而,在这个定义出现之前数十年,人工智能对话的诞生要追溯到艾伦·图灵(AlanTuring)于1950年出版的开创性作品"计算机器与智能"(PDF,89.8KB)(链接位于IBM外部)。在这篇论文中,通常被称为“计算机科学之父”的图灵提出了以下问题:“机器能思考吗?” 他在这篇文章中提供了一个测试,即著名的“图灵测试”,在这个测试中,人类询问者试图区哪些文本响应是计算机做出的、哪些是人类做出的。虽然该测试自发表之后经过了大量的审查,但它仍然是AI历史的重要组成部分,也是一种在哲学中不断发展的概念,因为它利用了有关语言学的想法。
StuartRussell和PeterNorvig随后继续发表了“人工智能:一种现代方法 ”(链接位于IBM外部),成为AI研究方面的重要教材之一。在这本书中,他们深入探讨了AI的四个潜在目标或定义,基于理性、思考和行动来区分计算机系统:
人类方法:
像人类一样思考的系统像人类一样行动的系统理想方法:
理性思考的系统理性行动的系统艾伦·图灵的定义可归入"像人类一样行动的系统"类别。
以最简单的形式而言,人工智能是结合了计算机科学和强大数据集的领域,能够实现问题解决。它还包括机器学习和深度学习等子领域,这些子领域经常与人工智能一起提及。这些学科由AI算法组成,这些算法旨在创建基于输入数据进行预测或分类的专家系统。
目前,仍有许多围绕AI发展的炒作,市场上任何新技术的出现都会引发热议。正如Gartner在其hypecycle技术成熟度曲线(链接位于IBM外部)中指出的那样,自动驾驶汽车和个人助理等产品创新遵循“一个典型的创新周期,从欲望膨胀到期望幻灭、到最终了解创新在市场或领域中的相关性和作用。”正如LexFridman在2019年麻省理工学院演讲中指出的那样(01:08:15)(链接位于IBM外部),我们正处于欲望膨胀高峰期,接近幻灭的谷底期。
随着对话围绕AI的伦理道德展开,我们可以开始看到幻灭谷底初见端倪。如想了解更多关于IBM在AI伦理对话中的立场,请阅读这里了解更多信息。