人工智能的伦理挑战
原标题:人工智能的伦理挑战控制论之父维纳在他的名著《人有人的用处》中曾在谈到自动化技术和智能机器之后,得出了一个危言耸听的结论:“这些机器的趋势是要在所有层面上取代人类,而非只是用机器能源和力量取代人类的能源和力量。很显然,这种新的取代将对我们的生活产生深远影响。”维纳的这句谶语,在今天未必成为现实,但已经成为诸多文学和影视作品中的题材。《银翼杀手》《机械公敌》《西部世界》等电影以人工智能反抗和超越人类为题材,机器人向乞讨的人类施舍的画作登上《纽约客》杂志2017年10月23日的封面……人们越来越倾向于讨论人工智能究竟在何时会形成属于自己的意识,并超越人类,让人类沦为它们的奴仆。
一
维纳的激进言辞和今天普通人对人工智能的担心有夸张的成分,但人工智能技术的飞速发展的确给未来带来了一系列挑战。其中,人工智能发展最大的问题,不是技术上的瓶颈,而是人工智能与人类的关系问题,这催生了人工智能的伦理学和跨人类主义的伦理学问题。准确来说,这种伦理学已经与传统的伦理学旨趣发生了较大的偏移,其原因在于,人工智能的伦理学讨论的不再是人与人之间的关系,也不是与自然界的既定事实(如动物,生态)之间的关系,而是人类与自己所发明的一种产品构成的关联,由于这种特殊的产品――根据未来学家库兹威尔在《奇点临近》中的说法――一旦超过了某个奇点,就存在彻底压倒人类的可能性,在这种情况下,人与人之间的伦理是否还能约束人类与这个超越奇点的存在之间的关系?
实际上,对人工智能与人类之间伦理关系的研究,不能脱离对人工智能技术本身的讨论。在人工智能领域,从一开始,准确来说是依从着两种完全不同的路径来进行的。
首先,是真正意义上的人工智能的路径,1956年,在达特茅斯学院召开了一次特殊的研讨会,会议的组织者约翰・麦卡锡为这次会议起了一个特殊的名字:人工智能(简称AI)夏季研讨会。这是第一次在学术范围内使用“人工智能”的名称,而参与达特茅斯会议的麦卡锡和明斯基等人直接将这个名词作为一个新的研究方向的名称。实际上,麦卡锡和明斯基思考的是,如何将我们人类的各种感觉,包括视觉、听觉、触觉,甚至大脑的思考都变成称作“信息论之父”的香农意义上的信息,并加以控制和应用。这一阶段上的人工智能的发展,在很大程度上还是对人类行为的模拟,其理论基础来自德国哲学家莱布尼茨的设想,即将人类的各种感觉可以转化为量化的信息数据,也就是说,我们可以将人类的各种感觉经验和思维经验看成是一个复杂的形式符号系统,如果具有强大的信息采集能力和数据分析能力,就能完整地模拟出人类的感觉和思维。这也是为什么明斯基信心十足地宣称:“人的脑子不过是肉做的电脑。”麦卡锡和明斯基不仅成功地模拟出视觉和听觉经验,后来的特里・谢伊诺斯基和杰弗里・辛顿也根据对认知科学和脑科学的最新进展,发明了一个“NETtalk”的程序,模拟了类似于人的“神经元”的网络,让该网络可以像人的大脑一样进行学习,并能够做出简单的思考。
然而,在这个阶段中,所谓的人工智能在更大程度上都是在模拟人的感觉和思维,让一种更像人的思维机器能够诞生。著名的图灵测试,也是在是否能够像人一样思考的标准上进行的。图灵测试的原理很简单,让测试一方和被测试一方彼此分开,只用简单的对话来让处在测试一方的人判断,被测试方是人还是机器,如果有30%的人无法判断对方是人还是机器时,则代表通过了图灵测试。所以,图灵测试的目的,仍然在检验人工智能是否更像人类。但是,问题在于,机器思维在作出自己的判断时,是否需要人的思维这个中介?也就是说,机器是否需要先绕一个弯路,即将自己的思维装扮得像一个人类,再去作出判断?显然,对于人工智能来说,答案是否定的,因为如果人工智能是用来解决某些实际问题,它们根本不需要让自己经过人类思维这个中介,再去思考和解决问题。人类的思维具有一定的定势和短板,强制性地模拟人类大脑思维的方式,并不是人工智能发展的良好选择。
二
所以,人工智能的发展走向了另一个方向,即智能增强(简称IA)上。如果模拟真实的人的大脑和思维的方向不再重要,那么,人工智能是否能发展出一种纯粹机器的学习和思维方式?倘若机器能够思维,是否能以机器本身的方式来进行。这就出现了机器学习的概念。机器学习的概念,实际上已经成为发展出属于机器本身的学习方式,通过海量的信息和数据收集,让机器从这些信息中提出自己的抽象观念,例如,在给机器浏览了上万张猫的图片之后,让机器从这些图片信息中自己提炼出关于猫的概念。这个时候,很难说机器自己抽象出来的猫的概念,与人类自己理解的猫的概念之间是否存在着差别。不过,最关键的是,一旦机器提炼出属于自己的概念和观念之后,这些抽象的概念和观念将会成为机器自身的思考方式的基础,这些机器自己抽象出来的概念就会形成一种不依赖于人的思考模式网络。当我们讨论打败李世石的阿尔法狗时,我们已经看到了这种机器式思维的凌厉之处,这种机器学习的思维已经让通常意义上的围棋定势丧失了威力,从而让习惯于人类思维的棋手瞬间崩溃。一个不再像人一样思维的机器,或许对于人类来说,会带来更大的恐慌。毕竟,模拟人类大脑和思维的人工智能,尚具有一定的可控性,但基于机器思维的人工智能,我们显然不能作出上述简单的结论,因为,根据与人工智能对弈之后的棋手来说,甚至在多次复盘之后,他们仍然无法理解像阿尔法狗这样的人工智能如何走出下一步棋。
不过,说智能增强技术是对人类的取代,似乎也言之尚早,至少第一个提出“智能增强”的工程师恩格尔巴特并不这么认为。对于恩格尔巴特来说,麦卡锡和明斯基的方向旨在建立机器和人类的同质性,这种同质性思维模式的建立,反而与人类处于一种竞争关系之中,这就像《西部世界》中那些总是将自己当成人类的机器人一样,他们谋求与人类平起平坐的关系。智能增强技术的目的则完全不是这样,它更关心的是人与智能机器之间的互补性,如何利用智能机器来弥补人类思维上的不足。比如自动驾驶技术就是一种典型的智能增强技术,自动驾驶技术的实现,不仅是在汽车上安装了自动驾驶的程序,更关键地还需要采集大量的地图地貌信息,还需要自动驾驶的程序能够在影像资料上判断一些移动的偶然性因素,如突然穿过马路的人。自动驾驶技术能够取代容易疲劳和分心的驾驶员,让人类从繁重的驾驶任务中解放出来。同样,在分拣快递、在汽车工厂里自动组装的机器人也属于智能增强类性质的智能,它们不关心如何更像人类,而是关心如何用自己的方式来解决问题。
三
这样,由于智能增强技术带来了两种平面,一方面是人类思维的平面,另一方面是机器的平面,所以,两个平面之间也需要一个接口技术。接口技术让人与智能机器的沟通成为可能。当接口技术的主要开创者费尔森斯丁来到伯克利大学时,距离恩格尔巴特在那里讨论智能增强技术已经有10年之久。费尔森斯丁用犹太神话中的一个形象――土傀儡――来形容今天的接口技术下人与智能机器的关系,与其说今天的人工智能在奇点临近时,旨在超越和取代人类,不如说今天的人工智能技术越来越倾向于以人类为中心的傀儡学,在这种观念的指引下,今天的人工智能的发展目标并不是产生一种独立的意识,而是如何形成与人类交流的接口技术。在这个意义上,我们可以从费尔森斯丁的傀儡学角度来重新理解人工智能与人的关系的伦理学,也就是说,人类与智能机器的关系,既不是纯粹的利用关系,因为人工智能已经不再是机器或软件,也不是对人的取代,成为人类的主人,而是一种共生性的伙伴关系。当苹果公司开发与人类交流的智能软件Siri时,乔布斯就提出Siri是人类与机器合作的一个最朴实、最优雅的模型。以后,我们或许会看到,当一些国家逐渐陷入老龄化社会之后,无论是一线的生产,还是对这些因衰老而无法行动的老人的照料,或许都会面对这样的人与智能机器的接口技术问题,这是一种人与人工智能之间的新伦理学,他们将构成一种跨人类主义,或许,我们在这种景象中看到的不一定是伦理的灾难,而是一种新的希望。
(作者:蓝江,系南京大学哲学系教授)
首份人工智能伦理全球协议的两项关键共识
11月24日,联合国教科文组织(UNESCO)在第41届大会上通过了首份关于人工智能伦理的全球协议《人工智能伦理问题建议书》(以下简称《建议书》),供193个成员国采用。《建议书》定义了关于人工智能技术和应用的共同价值观与原则,用以指导建立必需的法律框架,确保人工智能的良性发展,促进该项技术为人类、社会、环境及生态系统服务,并预防潜在风险。
作为引领第四次科技革命的关键技术创新,人工智能给全球社会和经济发展带来了重大而深远的正面影响,例如增加生活便利和民生福祉、提升政府和企业运营效率、帮助应对气候变化和贫困饥饿问题。然而,该项技术同时也带来了前所未有的严峻挑战,包括对个人隐私和尊严的重大威胁,性别和种族偏见加剧,大规模监控风险激增等。
鉴于该项技术在实际应用过程中兼具创造性和破坏性,但却长期缺乏全球通用的治理标准,UNESCO于2018年发起“为世界打造运用人工智能的伦理框架”项目,遴选24名来自世界各国的专家历时三年共同撰写完成《人工智能伦理建议书》,并经过193个成员国之间超过100小时的多边谈判和反复修订,最终于今年11月获得通过。这不仅是全球首个针对人工智能伦理的规则框架和共同纲领,也是当前在世界各国政府层面达成的最广泛共识,为下一步制定规范人工智能发展的具体国际法规和技术标准提供了强有力支撑,堪称多边主义的又一次胜利。
《建议书》所建立的人工智能伦理框架主要由价值观、伦理原则和政策指导三部分组成,文本内容十分全面,注重多方观念和利益的平衡。其中,人工智能的价值观强调:一、尊重、保护和促进人权、基本自由及人的尊严;二、保护环境和生态系统的蓬勃发展;三、确保多样性和包容性;四、在和平、公正与互联的社会中共生。伦理原则主要包含:相称性和不损害、保障安全、公平和非歧视、可持续性、隐私权和数据保护、人类监督和决定、透明度和可解释性、责任与问责、技术认知和素养、多利益攸关方协同治理等10方面。政策指导则涉及伦理影响评估、伦理治理和管理、数据政策、发展与国际合作、环境和生态系统、性别、文化、教育和研究、传播和信息、经济和劳动、健康和社会福祉、监测与评估共12个细分领域。同时,《建议书》鼓励所有成员国考虑增设独立的人工智能伦理官员或其它相关机制,以监督审计和持续监测应用该技术带来的影响。
在全面考虑和广泛涵盖的基础上,《建议书》最为核心的内容集中于呼吁各国采取数据保护行动、禁止社会评分和大规模监控、监测和评估人工智能系统的社会及环境影响等。并且,《建议书》在这些问题上没有一味遵从西方人工智能技术先发国家的既有标准,而是通过编撰过程中的区域性专家咨询会、政府间专家磋商、各成员国意见征集等环节来广泛听取和采纳中国等发展中国家的意见和建议,努力平衡价值差异,推动形成多边共识。其中,有两项共识尤为关键。
首先,《建议书》将“可持续发展”确定为全球人工智能发展的总体愿景和重要途径,主张发展人工智能技术和应用都以有利于实现可持续发展目标为优先导向,且需要密切关注和防范阻碍该目标实现的各类风险。同时,《建议书》不囿于应当“发展先行”还是“治理先行”的争论,强调两者相互协同,使人工智能系统在整个生命周期内都可以赋能人类、社会、生态之间的和谐共生。
其次,在人工智能伦理和治理范式创新方面,《建议书》倡导“协同共治”的路径选择。《建议书》强调,诸如人脸识别、自动化决策、社会评分等人工智能应用带来的伦理挑战不可能仅通过禁止使用来解决问题,而是要将基于多边共识的伦理标准贯穿于人工智能系统设计、研发、部署、使用的全部过程,并适配相应的治理规则和手段,实现防患于未然。与此同时,人工智能治理单靠政府或政府间合作并不能有效实现,而是要依靠整个技术生态系统中的多方深度协同。政府、企业、研发、用户、学术界、媒体等利益相关方都需要担负起相应责任,开展全流程协同共治。
UNESCO通过相对平等而广泛的公共讨论促成了《建议书》及首个全球人工智能伦理框架的确立。这不仅凝聚了全世界193个国家对这项新兴技术的可持续发展共识,也进一步打开了未来多边协同治理的新前景。下一步,还需要将其中的价值观、原则和政策加以落地,推动各国形成可执行的标准和细则,将理念化为行动,使理想融入现实。
规则
美欧启动联合应对技术竞争政策对话
12月7日,欧盟委员会执行副主席玛格丽特·维斯塔格、美国联邦贸易委员会主席莉娜·汗和美国司法部反垄断助理总检察长乔纳森·坎特在华盛顿启动了美欧联合应对技术竞争政策对话并发表联合声明,以加强双方在快速发展的技术领域内的政策协调和共同执法。声明指出,美欧坚持共同的民主价值观和对良性市场竞争的信念,在数字竞争执法领域面临网络效应、海量数据、互操作性等共同挑战。因此,美欧将在政策和执法方面进一步加强协调。
英国发布算法透明度的开创性标准
11月29日,英国中央数字办公室(CDDO)发布了算法透明度标准,旨在为政府部门和公共机构提供用于支持决策的算法工具的明确信息,兑现其在国家数据战略和国家人工智能战略中做出的承诺。算法透明度标准涵盖透明度数据标准,透明度模板和行动指南等,将有助于帮助组织提高算法工具的透明性。
缅甸罗兴亚难民因暴力事件起诉Facebook,要求赔偿1500亿美元
12月6日,缅甸的一个罗兴亚难民团体在美国提起一项集体诉讼,指控社交媒体平台Facebook促进了针对受迫害的少数群体的暴力,要求Facebook赔偿1500亿美元。Facebook表示,虽然以前没有及时防止错误信息和仇恨言论传播,但事后已采取补救措施,包括在2月1日缅甸政变后禁止军方使用Facebook和Instagram。Facebook曾表示,它受到美国互联网法“第230条”的保护,免于对用户发布的内容承担责任。罗兴亚难民团体则表示,如果Facebook提出“第230条”作为抗辩理由,他们将寻求通过缅甸法律进行索赔。
政策
美国防部拟重组三个关键技术办公室
12月1日,美国防部宣布将把国防部数字服务局、联合人工智能中心及首席数据官办公室重组为首席数据与人工智能官办公室,以简化流程,并为使用人工智能与数据创造出更具凝聚力的方法。根据拟议计划,三个办公室仍保持独立,但都向新办公室报告。此举将为三个办公室提供更清晰的组织结构,帮助其掌握更多数据并应用于人工智能,进而推动联合全域指挥控制工作。
工信部预测2025年中国大数据产业规模将突破3万亿元
11月30日,国家工信部召开新闻发布会,介绍《“十四五”大数据产业发展规划》相关情况。《规划》提出,到2025年,我国大数据产业规模预计将突破3万亿元,年均复合增长率保持25%左右,创新力强、附加值高、自主可控的现代化大数据产业体系基本形成。《规划》就加快培育数据要素市场、发挥大数据特性优势、夯实产业发展基础、构建稳定高效产业链、打造繁荣有序产业生态、筑牢数据安全保障防线等六个方面设定了重点任务,并安排了数据治理能力提升、重点标准研制及应用推广、工业大数据价值提升、行业大数据开发利用、企业主体发展能级跃升、数据安全铸盾共六个专项行动。此外,《规划》还提出加快构建全国一体化大数据中心体系,推进国家工业互联网大数据中心建设,引导大中小企业融通发展和产业链上下游协同创新,支持传统企业开展大数据业务剥离重组。
监管
美国联邦贸易委员会对英伟达公司收购ARM的交易提起诉讼
12月2日,美国联邦贸易委员会(FTC)宣布,已经以反垄断为由提起诉讼,旨在阻止英伟达公司以400亿美元价格收购ARM的计划。FTC认为,这笔交易将会扼杀云计算、数据中心和自动驾驶汽车等各种技术的市场创新,并将“不公平地削弱”英伟达的竞争对手。这起诉讼是英伟达收购ARM交易在监管方面遭遇的又一次打击。此前,英国政府和欧盟委员会已经开始对该笔交易展开深入的反垄断调查。
产业与技术
Meta与亚马逊AWS达成云服务合作协议
12月1日,Meta公司宣布与亚马逊公司云服务部门(AWS)达成合作,将AWS作为其长期战略云服务提供商,扩大对AWS计算、存储、数据库和安全服务的使用范围,以补充Meta现有的本地基础设施。Meta还将使用AWS的计算服务来加速其AI团队的研发工作,并将在AWS平台上运行第三方合作应用。
城市数字化
国务院发文支持北京城市副中心大力发展数字经济,推进智慧城市建设
11月26日,国务院发布关于支持北京城市副中心高质量发展的意见。意见提出,到2025年,城市副中心绿色城市、森林城市、海绵城市、智慧城市、人文城市、宜居城市功能将基本形成。意见明确,强化科技创新引领,聚焦新一代信息技术、智能制造等领域,实施一批国家重大科技项目和应用示范项目,引导创新链、产业链在城市副中心及周边地区布局,大力发展数字经济。围绕第五代移动通信(5G)网络、人工智能、云计算、大数据、互联网协议第6版(IPv6)等加紧布局数字新基建,在智慧城市、数字乡村建设等领域建成一批示范应用新场景,支持开展科技应用场景沙盒试点。
美国巴尔的摩市计划建设普惠智能网络以缩小数字鸿沟
11月30日,美国巴尔的摩市长办公室宣布,将拨款3500万美元为受公共卫生紧急情况影响最严重的社区和居民提供网络接入方面的救济。其中,首笔600万美元将用于大幅扩大公共互联网接入,以缩小城市中的数字鸿沟。鉴于互联网接入已成为最为关键和基本的公共基础设施,实现网络接入公平成为未来智慧城市的关键内涵之一。巴尔的摩市计划在未来十年间持续投资于在全市范围内建设开放、普惠的智能网络基础设施,以确保每位市民都能平等、便捷的接入互联网。
人工智能的伦理问题
此乃2020年厦门大学研究生小学期工程伦理的结题作业,作者王某某,老师看到了不要认为我是抄袭的哈。这是原创。。时间2020-7-19保存。2019级同学看到了不要引用我的观点哈!!
人工智能的伦理问题a_rose_for_tang2300000000@xmu.edu.cn(厦门大学信息学院,福建厦门361005)
1.引言帕斯卡曾说过:人是一根能思想的苇草。人类的聪明之处,在于其对世界万物,生存的、死去的、可知的、不可知的东西,都能够在头脑里想象到存在的模样,或者说,想象到其可能存在的模样,这是人类的聪慧的体现。自700万年前古猿转变为人类始祖,之后建立了部落国家,在满足了基本的生存需求之后,大众便开始构建一种规范,道德和法律便是两把利器。当一个人作了恶,法律便会制裁他,当一个人想要作恶,道德便会谴责他,伦理概念就交织在这两者之间,伦理在中国的本意是人伦道德之理,指人与人相处的各种道德准则。现代科技的发展,使得伦理不仅限于人与人的交往,当前出现了网络伦理,医学伦理,生物伦理等新的概念,当然了还有机器人伦理学的研究。身系于社会关系的人,都遭受了伦理规则的桎梏。可是,当人类把自己的聪明经验赋予给了机器,用一串串01字符来决定机器对现实发生的事情的反应,人类看上去就不再是宇宙万物下的唯一智慧的个体了,现在,那些有着机械臂,判断循环语句的硬软结合体,逐渐浮现并影响人们的生活。与此同时,那些在人工智能领域产生的伦理问题有哪些,以及适用于人类的伦理规则,是否还适用在这些新出现的“人类“身上,是一个又一个亟需讨论的问题。
2.人工智能的伦理问题初探:人工智能的蓬勃发展不可避免地带来了许多伦理问题,像是自动驾驶汽车产生交通事故的问责问题,医学机器带来的医疗事故归责,等等由人工智能带来的生产生活上的损害。这些是具体的问题体现,就我而言,将人工智能的伦理问题暂时归结为以下的三个方面。
2.1身份模糊人的身份定位是由其社会关系决定的,就一位女性来说,她在家庭之中可以兼任母亲,女儿,姑姑,阿姨等角色,在工作中她可以担当经理,师傅,同事等角色,在普通的马路上她可以作为路人甲,追星族一员等身份。这在人工智能的发展后,如何给那些人工智能安排好合适的身份标签,将会是伦理困境之一。对待一个自动驾驶的软件,人们对待它无法像对待现实世界中,自己在劳务市场招聘来的司机一样,现实中的司机有血有肉,有的脾气暴躁一些,会骂骂咧咧,有的还会在车内吸烟,需要别人禁止。长年累月的相伴下,可能雇主还会和司机称兄道弟,但是和软件不会,软件只会自动开门,自动驾驶,如果需要可以加一些幽默程序,来讲些趣事,但是它们不会被生活上的柴米油盐琐事困扰,它们虽然可以说出来这些麻烦事,但是还是无法被人所认同,可是它对人们的悉心照顾又不亚于那些现实的司机,不能简单地看待它们作为一个可以随用随装的软件程序。再比如说,未来的医生被人工智能所取代,每一位病人被一位专属医生所救治,病人本该向医生护士道谢,但是此刻的他们是医生机器人和护士机器人,病人所要道谢的对象应该是机器人还是软件设计者,还是医院的软件管理人员?同时,智能家居里面的管家系统,替代了类似电视剧里面传统大宅门内的老管家,新的管家们更加无微不至地照顾学生的起居饮食,但是无法定位它们的独特身份,它们的所有记忆可以被当作日志保存下来,即使遭到了破坏也可以及时恢复,它们无法像那些管家们一样,融入所服务的家庭,然后成为其中一员。这些例子只是说明,当前来看,人们还是无法定位这些智能体是作为一款随用随弃的工具,还是将成为一个可以寄托情感的“类人“体。
2.2工作取代工作是社会分工中每个劳动者体现社会价值和自我价值的角色定位。人类从原始部落开始就有了工作的划分,有的人作为观察员,勘探哪里有野兽、有果实,有的人作为捕猎者,张弓搭箭,诱敌捕猎。在当前的社会下,工作对人类的重要程度依旧是不言而喻的,人们从工作中获得生存资料,获得自我实现。而当人工智能发展到一定的程度,许多工作将要被取代,李彦宏的想法是:让AI存在的价值是教人学习、让人成长,而非超越人、替代人。想法很美好,当前的发展趋势却不允许人们活在自己的美梦中,第一次工业革命极大提高了生产力,将人类的双手从纺纱机上释放出来,这是它的优点,可是由此失业的人很多。毋庸置疑的是,未来那些工作枯燥,重复简单的工作将会被那些机器人取代,这一批下岗工人本来就是社会上的弱势群体,那么,他们的生活保障由谁负责,或者说,他们莫名地被下岗了,这本来可能就不符合伦理规范。换个方面来说,这对那些需要提高生产效率的企业家,以及提高生活舒适度的消费者来说又有些不公正,他们所追求的是利益最大化,生活满意程度最高,在现有的科技水平之下,不让他们使用这些科技又不符合他们的利益需求,这就导致了那些人工智能的分工困境,哪些工作能做,哪些工作不能被取代陷入两难。有的人建议说:只让人工智能取代那些具有高危险性的工作,这也产生了不公,这些人虽然只是社会的小部分,但是他们的利益却被影响了,生命的利益得到了保证,生存的利益却可能遭到了侵犯。总的来说,人工智能只是试图取代工作,而不是创造工作,这就是矛盾的本质原因。调和那些本来可以选择工作或者不工作的人,以及想要提高生活质量的人,成为了伦理困境之一。
2.3赏罚制度当前社会对违反社会伦理规则的人有特定的惩罚规则,或是罚款或是判刑。奖赏也有一定的规则,好人好事,见义勇为等,赏钱赏物。这些规定一定程度上维持了社会的稳定,不过对于人工智能,这些赏罚制度是否仍旧适用,又是难题之一。简单地思索一下,人工智能的惩罚方法是无法像对待人类一样,轻则监禁,重则枪毙,对那些智能程序的赏罚,没有合适的实施方法,如果以人类的体验标准来看,程序体会不到痛苦的感觉,也享受不到被赞美的快乐,这就使对它们的惩罚只单单变成一种触发条件,在必要的时候不得不触发,没有了相应的作用。另一个方面,惩罚那些犯错的人工智能是公平的吗?他们的产生过程并非自愿,人类可以控制自己的思想欲望,他们不可以,他们按照规则一步一步地执行程序,做的或对或错,都是身不由己,可是惩罚那些制作者也不完全合理,他们本意也并非作恶。总而言之,如何规范人工智能的行为,制定合适的赏罚方案,也是伦理问题之一。
3.如何应对对应的方法有如下几条。
3.1新的伦理规范无以规矩,不成方圆。首先要建立人工智能的法律规范,人工智能技术的研发和应用正在蓬勃发展,与此同时,人工智能伦理方面的法律规范却相对空白,这一问题是首要的,有了法律依据,主观判断的错误就会减少很多。各国应该相互交流,积极促进通过一部具有最高效力的国际通用法则,保证人工智能伦理问题不会在个别地域“生根发芽”,进而造成世界范围的伦理问题。
3.2研发者的道德责任感增强主体分大小,国家社会只是大局,具体实施还是取决于研发个体,因此,规避人工智能伦理困境的一个重要方面就是加强科学家的道德建设,培养其道德责任感。在科学技术范围里,科研人员比人工智能机器更需要接受伦理规范的约束,因为科研人员决定着未来能否制造出对人类有益的机器人并且不会被滥用对人类造成危害。
3.3多渠道监督在以政府监督为主体的监管方式下,辅以民众的监督。政府应充分利用权利对人工智能生产者和研发者进行准入认证,要求其公开人工智能产品的安全信息,例如从设计源代码、学习训练数据、专业机构的检测报告等。对于民众,应当根据不同领域的特点,赋予人们监督决策权,限制人工智能的自主程度和智能水平。
4.总结人类的智慧若是真的能够完全传递给人工智能的话,那么伦理问题的解决倒是可以简单不少,可以直接采取社会已有的伦理规则,但是前提要确定这些人工智能是隶属于人类的范畴还是机器的范畴,这个前提的结果要在真正的人工智能出现的时候就要立刻决定下来的,不然就会绵绵无期地陷入新的伦理辩论。人工智能伦理问题的解决也许像人类社会上的许多伦理问题一样,或许本来就没有答案,只能在未来的生活中一一实践,然后调错探索。