人工智能的若干伦理问题
李增军李梦阳
习近平总书记在中央政治局就人工智能发展现状和趋势进行集体学习时指出:“要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。”人工智能的发展深刻影响了世界经济、政治、社会和军事的变革,极大地推动人类的发展和进步。与此同时,人工智能给人类社会带来的伦理问题和安全问题也引起了世界范围的关注,霍金等科学家认为,人类需要敬畏人工智能的崛起,人工智能是人类生存的最大威胁,甚至可能导致人类灭亡。我们认为,问题未必有如此严重,但保持高度警惕、未雨绸缪是完全必要的。
当前,人工智能发展中人们已经看到和即将感受到的伦理问题至少涉及八个方面。
一、人工智能的岗位替代作用深刻影响着人类的就业安全
每一次技术革命的到来,都会给人类的就业带来冲击。凯恩斯曾经说过:“一种新的疾病在折磨着我们,这种疾病是由技术进步导致的失业,即所谓‘技术性的失业’。”人工智能革命对人类就业的冲击,同历史上任何一次技术革命相比,范围更广、层次更深、影响更大。我们必须面对的事实是,人工智能已经、正在和将要在许多领域就业岗位上替代人类劳动。富士康因为人工智能的导入,已经有非常多的生产线和工厂实现了自动化,不需要人,甚至不需要开灯。仅在昆山工厂,富士康就减员6万员工。麻省理工学院发布研究报告称,过去20年,美国有36万-67万工作岗位被机器人夺走,未来10年,还将有350万个岗位被人工智能替代。中国工程院院士邬贺铨表示,人工智能会部分取代现在的就业,49%的劳动人口可能会被取代。近几年来,人工智能领域一大批科技成果集体亮相,诸如无人超市,微笑还能享受打折的优惠;微医健康通,使患者在家就能看名医;唇语识别,可以用眼睛听你说话;而一个小小的翻译蛋,即可替代翻译、扫除语言障碍;能算账的财务机器人;会哄娃娃的教育机器人。此外还有,智慧法院(智能机器人导诉)、智慧泊车、智医助理、机器人撰写新闻稿、能击败人类棋手的AlphaGo、骨科手术机器人等等。人工智能不仅可以替代体力劳动,大量依靠脑力劳动的岗位也会被其取代,这将给人类就业问题带来极大的挑战。
二、数据泄露和信息泛滥导致对隐私权的侵犯
隐私权是指公民享有的私人生活安宁、私人空间安全与私人信息依法受到保护,不被他人非法侵扰、知悉、搜集、利用和公开的一种人格权。建立在大数据和深度学习基础上的人工智能技术,需要海量数据来学习训练算法,带来了数据盗用、信息泄露和个人侵害的风险。从人们的数据轨迹中可以获取许多个人信息,这些信息如果被非法利用,将会构成对隐私权的侵犯。人们对智能工具的使用实际上是在为自己织一张网,移动支付、聊天软件、网络购物、智慧导航、智能手环、网络约车,把自己的行动、爱好、教育、财富,甚至健康状况都暴露无遗,对智能工具使用越多、频率越高,这张网织得越密越细,越无处可逃。这些数据和信息如果被不良商家掌握,会无休止地推销、电话骚扰,使人不堪其扰,严重影响私生活安宁;如果被犯罪分子或黑客掌握和利用,会对人的财产甚至生命构成威胁。2015年,中美两国都发生了社保信息泄露事件。中国上海、河南等19个省市上千万人身份证、社保参保、薪酬、房产等5279万条敏感信息被泄露。美国第二大医疗保险公司遭黑客攻击,8000万用户的姓名、出生日期、社会安全号、家庭地址及受雇公司等个人信息受到影响。此外,用于商业目的的无人机的广泛使用,无处不在的监控系统,在方便生活、保障安全的同时,其跟踪、收集、储存特定信息的功能,也对公民隐私权构成极大威胁。
三、信息伪造和欺诈严重侵蚀社会诚信体系
人工智能具有强大的数据收集、分析以及信息生成能力,与之伴生的是虚假信息、欺诈信息大量充斥网络。互联网已经成为人们的主要信息来源,各类网站、自媒体、公众号、微博、微信群、朋友圈,都是信息发布源,可以说是真假难辨,有虚假新闻,有虚假广告,有的貌似“鸡汤”实则“毒药”,有的“挂着羊头卖狗肉”。互联网传销,互联网金融诈骗,P2P诈骗、众筹诈骗、网络理财诈骗,手段隐蔽,技术含量高,涉众性强,各类互联网犯罪呈高发多发态势。随着人工智能技术的不断发展,很多东西都可以被仿造,包括我们自身。在乌镇举行的第五届世界互联网大会上,中国首个“人工智能主持人”横空出世,它首先模仿的是新华社著名主持人邱浩,不论是外形、声音、眼神,还是脸部动作、嘴唇动作,“AI合成主播”与邱浩本人的相似度都高达99%。更不可思议的是,它可以随意切换,照此程度模仿其他主持人,模仿他们的声音,克隆他们的相貌。我们想象一下,如果别人克隆你的声音、你的体型、你的相貌,在网络上生成另外一个你,与你的家人或同事进行视频对话,会有什么样的后果。人工智能时代,眼见不一定为实。信息的伪造和欺诈,不仅会侵蚀社会的诚信体系,还会对国家的政治安全、经济安全和社会稳定带来负面影响。
四、网络沉迷和智能依赖影响人的全面发展
人的全面发展是马克思主义的最高价值追求,也是我国教育方针的理论基石。人工智能的发展在推动人类整体进步的同时,带来的个体能力的退化也不容忽视。一个相当普遍的现象是,智能手机和网络空间越来越让人上瘾,人被手机绑架,手不离机,机不离手,手机利用率之高,令人叹为观止。一些人对网络游戏的痴迷更是到了不能自拔的程度。马克思指出,“自由时间都是供自由发展的时间”,按照马克思的划分,自由时间包括娱乐、休息和用于发展个人才能(学习科学文化知识)三部分。现在的问题是,由于对手机和网络的沉迷,自由时间中用于休息和发展个人才能的时间被严重挤占,甚至挤占了工作时间和劳动时间,势必影响人的全面发展。更令人忧虑的是,沉迷网络的大军中,青少年学生、未成年人是主体力量。网络上的色情、暴力和欺诈,对他们世界观和价值观的形成造成十分严重的负面影响。另外一个值得注意的现象是,智能设备简易、便捷的操作方式,催生了许多人的懒惰和依赖,键盘一敲、手机一点,吃的送上门了,穿的送上门了,用的送上门了,汽车到门口来接了。机器智能了,人类退化了。就像当年的“傻瓜”相机,相机先进了,使用相机的人成了只需按一下快门的“傻瓜”。
五、情感计算和类脑智能将挑战传统道德法律
让机器人更像人类,一直是科学家们追求的目标,情感计算和类脑智能技术的发展为实现这一目标提供了可能。2017年4月,全球首款智能性爱机器人Harmony问世,她具有学习能力并预设了天真、善良、性感等12种人格特征,会和人类产生情感,可以模拟出真实的体温。智能化性爱机器人的问世,将在一定范围、一定程度上改变人们的家庭、婚姻、恋爱、情侣、伴侣的观念,并对出轨、性侵、肖像权益等道德法律问题提出挑战。情感计算技术的发展使人机情感交互更为自然。我们比喻人没有情感像冷冰冰的机器,如果冷冰冰的机器被赋予了人的情感会怎么样呢?你的AI伙伴可能比家人更了解你的心思、更了解你的健康状况,它能捕捉你的表情,根据你的喜怒哀乐、用你想听的话和你对话。神经科技和脑机接口的发展不断引领类脑智能技术的创新,但神经科技和人工智能的融合发展也会带来伦理挑战。人类大脑与机器智能直接连接,绕过大脑和身体正常的感觉运动功能,扰乱人们对于身份和能动性的认知。增强型神经技术的应用,可能改变人的体能和心智。“超人”的出现已经不是科幻,“缸中之脑”假想可能成真,这些将极大地改变社会规范。我是谁?这样一个基本问题,可能不再单单是哲学家的终极追问,而是我们每一位普通人要经常面对的问题。如果我不是我了,那么,我们的基本人权呢?我们的道德和法律责任呢?
六、数据质量和算法歧视会带来偏见和非中立性
人工智能以大数据和深度学习为基础,理论上讲,客观的数据和理性的算法没有情绪和偏好,应该会带来中立的结果,但数据的质量、算法歧视以及人为因素往往会导致偏见和非中立性,比如性别歧视、种族歧视以及“有色眼镜”效应。事实上,数据和算法导致的歧视往往具有更大的隐蔽性,更难以发现和消除。有一项研究发现,谷歌的广告算法展示给女性用户的招聘职位要比给男性展示的待遇低。美国一些法院使用的犯罪风险评估算法COMPAS被证明对黑人造成了系统性歧视,认为黑人被告比拥有类似犯罪记录的白人被告更有可能再次犯罪。微软在Twitter上上线的聊天机器人Tay在与网民互动过程中,由于大量恶意数据的输入,成为集性别歧视、种族歧视等于一身的“不良少女”。中国有句古话:“浪子回头金不换”,但人工智能超强的数据记忆,会对一个人历史污点形成“有色眼镜”效应,对其就业、贷款,甚至恋爱、交友,产生持续负面影响。凭算法对你个人信息的分析,银行就可以拒绝为你贷款,买票时你的优先度就被降低,购物时只能看到低廉的产品。更可怕的是,当你遭到不公平待遇时,你不知道是谁在歧视你,不知道因为什么被歧视,你无处申诉、无法解决、无能为力。
七、数据垄断和算法独裁将挑战现行的权力结构
以色列学者尤瓦尔·赫拉利在其新著《今日简史:人类命运大议题》中对数据独裁进行了集中讨论,在他看来,数据将是21世纪最重要的资产,21世纪的政治将是关于数据流控制权的斗争。我们的数据越来越集中在阿里、腾讯、谷歌、脸谱等少数科技巨头手里,这些公司将逐步形成数据霸权。在数据霸权面前,不仅每个个体都无能为力,政治、经济和社会的权力结构也将深刻调整。我们现在能感受到的已经有很多方面。我们在互联网上看到的新闻,往往是个性化新闻推荐或者自动生成的新闻,经常看到的是耸人听闻的“标题党”,或者虽是我们关心的题材,但新闻内容却空洞无物。我们打开搜索引擎,到处充斥的是真假难辨的广告和宣传,百度的“魏则西事件”就是极端的例证。基于数据垄断和算法的操控,形成了一种新的权力独裁。这种权力掌握在几家大公司手里,他们是游戏规则的制定者,既是运动员,又是裁判员;他们是基础平台的建造者,也是海量数据的拥有者,而平台应该是公共基础设施,数据应该是公共资源。人工智能让我们越来越方便的同时,也让我们越来越依赖,我们没有了独立自由决策的能力,成为数据和算法的奴隶。更为可怕的是,以前培养青少年价值观的是教师和书本,人工智能时代可能是数据和算法。
八、人工智能对传统安全和非传统安全带来新的挑战
一方面是人工智能运行中的安全性和可控性。在网络安全方面,利用计算机网络自身存在的漏洞,非法入侵获取重要数据、篡改系统数据、植入病毒等手段,进行攻击和破坏活动。近年来,全球网络攻击事件不断涌现,病毒软件、木马僵尸网络,通过人工智能技术研发新的网络攻击工具,对一些关键基础设施进行攻击和破坏。在智能设备运行的安全方面,比如无人驾驶汽车,有可能发生车祸,对乘车人和路人造成伤害,带来人身和财产安全问题。这里存在伦理困境和法律责任问题。麻省理工学院在网站上曾就自动驾驶汽车的伦理问题向网民征求意见:在来不及刹车的情况下,自动驾驶汽车如果往前开就会把三个闯红灯的人撞死,但如果转向就会碰到障碍物使车上的五个人死亡。在此情景下,车辆应当如何选择?另一方面,是一些科学家担心的人工智能对人类的威胁和伤害。智能武器是可自动寻找、识别、跟踪和摧毁目标的现代高技术兵器,包括精确制导武器、智能反导系统、无人驾驶飞机、无人驾驶坦克、无人驾驶潜艇、无人操作火炮、智能地雷、智能鱼雷和自主多用途智能作战机器人等,它将成为未来战场主力军,信息处理和计算能力成为战争胜负的决定因素。人工智能武器是继火药和核武器之后战争领域的第三次革命。人工智能如果被赋予伤害、破坏或欺骗人类的自主能力,将是人类的灾难,后果难以想象。
马克思说过,问题总是随着解决问题的方法同时产生的。人工智能所带来的伦理问题,虽然严重但并不可怕。说到底,人工智能就是工具,在生产力诸要素中,工具永远不能成为主要的因素,人才是主要的起决定性作用的要素。人不仅是生产力的基本要素,而且是“主要的生产力”“最大的生产力”,是“生产力中决定性的要素”,这是马克思主义的一个基本观点。
无论是过去、现在或是将来,一切智能产品都只能由人设计开发,即便是将来赋予机器人类脑功能,它也只能充当“二传手”。马克思有一个生动的比喻:“最蹩脚的建筑师从一开始就比灵巧的蜜蜂高明的地方,是他在用蜂蜡建蜂房以前,已经在自己的头脑中把它建成了。”解决问题的钥匙始终掌握在人的手里,人工智能所带来的伦理问题必须靠解决人类自身的伦理问题来解决。
作者单位:河北衡水职业技术学院/清华大学
ChatGPT:人工智能发展中存在哪些伦理问题,应该如何解决
0分享至随着人工智能技术的快速发展和应用,引起了越来越多的伦理问题,主要涉及以下几个方面:1.隐私和安全问题:人工智能技术需要收集大量的数据,并进行分析和处理,但这些数据中可能包含用户的个人隐私信息。如何保护用户的隐私和数据安全,是一个需要重视的问题。2.恶意使用问题:人工智能技术可以实现自主决策和行动,在某些情况下可能被恶意使用,如自动造成人类伤害、进行犯罪活动等,这需要制定相关的法律和规章来管理和监管。3.歧视和不公问题:人工智能技术不会受到偏见或歧视影响,但在训练数据和算法产生的过程中,却可能隐藏着一些人类认知和社会偏见。因此,人工智能技术可能继承这些不公平内容导致产生与伦理原则相悖的行为。4.就业和社会影响问题:人工智能技术将会对大量的职业造成影响,如何解决技术带来的就业问题,也是一个需要解决的伦理问题。人工智能技术对社会的影响和发展也需要深入探讨和研究。解决以上的伦理问题,可以从以下几个方面入手:1.制定相关的法律和规章,对人工智能技术的开发和使用进行监管和管控。2.鼓励企业和组织发表道德、透明和公正方针,提高人工智能的伦理意识。3.加强人类在人工智能技术中的介入和监管,在算法中增加透明和解释性,以便更好地理解其产生的决策和影响。4.加强教育和科学普及,提高公众对人工智能技术的理解和意识,同时激发公众对惩治人工智能技术利用行为的积极性。如果您对ChatGPT感兴趣可以搜索关注公众号:2049AI,也可以在评论区参与讨论,文中使用的GPT工具在百度手机助手里搜索:AI大聪明特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.
/阅读下一篇/返回网易首页下载网易新闻客户端人工智能的若干伦理问题思考
摘要:本文首先讨论了人工智能伦理的相关概念与发展,指出在当今人工智能技术高速发展的时代,对人工智能伦理的研究是很有必要的。其次对人工智能伦理研究的常见问题进行了分析,并在最后对人工智能的伦理问题的发展进行了讨论。
关键词:人工智能伦理人机环境交互
一、引言
人工智能(ArtificialIntelligence)一词起源于1956年的达特茅斯会议。AI一词一经提出,就引起了众多学者的关注与研究,人们致力于让机器像人一样具有智能,能够与人进行自然的人机交互。虽然总体目标基本一致,但是AI可以分为两个大的方向:一派提倡从上到下(top-down)的方法,即认知主义。这派学者提倡研究人类的策划、推理以及解决问题的能力。先赋予机器复杂的智力,再让他们去完成简单的行为。而另一派则是自下而上的,被称为涌现主义。即不包括任何抽象概念或推理过程,只需让机器人对所感知到的刺激做出反应即可[1]。他们这两派均取得了很大成就,尤其是近些年深度学习算法的提出与发展,给人类的生活带来了很大的帮助。
但是,与此同时,人工智能的迅速发展也给人的生活带来了一些困扰与不安,尤其是在奇点理论提出后,很多人质疑机器的迅速发展会给人类带来极大的危险,随之而来的很多机器事故与机器武器的产生更加印证了人们的这种印象。于是,关于机器伦理、机器道德的研究层出不穷。本文就将从人工智能的伦理问题入手,先行论述人工智能伦理及其相关概念,再讨论一些人工智能伦理的焦点问题:如人工智能能否取代人类、人工智能的责任问题。并在文章的最后给出笔者的一些看法。
二、人工智能伦理相关概念
1.伦理的概念
伦理一词,英文为ethics,一词源自于希腊文的“ethos”,其意义与拉丁文“mores”差不多,表示风俗、习惯的意思。西方的伦理学发展流派纷呈,比较经典的有叔本华的唯意志主义伦理流派、詹姆斯的实用主义伦理学流派、斯宾塞的进化论伦理学流派还有海德格尔的存在主义伦理学流派。其中存在主义是西方影响最广泛的伦理学流派,始终把自由作为其伦理学的核心,认为“自由是价值的唯一源泉”[2]。
在我国,伦理的概念要追溯到公元前6世纪,《周易》、《尚书》已出现单用的伦、理。前者即指人们的关系,“三纲五伦”、“伦理纲常”中的伦即人伦。而理则指条理和道理,指人们应遵循的行为准则。与西方相似,不同学派的伦理观差别很大,儒家强调仁、孝悌忠信与道德修养,墨家信奉“兼相爱,交相利”,而法家则重视法治高于教化,人性本恶,要靠法来相制约[2]。
总的来说,伦理是哲学的分支,是研究社会道德现象及其规律的科学。对其研究是很必要的。因为伦理不但可以建立起一种人与人之间的关系,并且可以通过一种潜在的价值观来对人的行为产生制约与影响。很难想象,没有伦理的概念,我们的社会会有什么人伦与秩序可言。
2.人工智能伦理
其实在人工智能伦理一词诞生以前,很多学者就对机器与人的关系进行过研究,并发表了自己的意见。早在1950年,维纳在《人有人的用途:控制论与社会》一书中就曾经担心自动化技术将会造成“人脑的贬值”[3]。20世纪70年代,德雷福斯曾经连续发表文章《炼金术与人工智能》以及《计算机不能做什么》[4],从生物、心理学的层次得出了人工智能必将失败的结论。而有关机器伦理(与人工智能伦理相似)的概念则源自《走向机器伦理》一文[5]。文中明确提出:机器伦理关注于机器对人类使用者和其他机器带来的行为结果。文章的作者之一安德森表示,随着机器的越来越智能化,其也应当承担一些社会责任,并具有伦理观念。这样可以帮助人类以及自身更好的进行智能决策。无独有偶,2008年英国计算机专家诺埃尔·夏基教授就曾经呼吁人类应该尽快制定机器(人)相关方面的道德伦理准则。目前国外对于人工智能伦理的研究相对较多,如2005年欧洲机器人研究网络(EURON)的《机器人伦理学路线图》、韩国工商能源部颁布的《机器人伦理宪章》、NASA对“机器人伦理学”所进行的资助等[6]。(注:本文认为人工智能伦理与机器(人)伦理本质上没有太大区别,本文中两者可以替换)。而且国外相关的文献也相对丰富,主要集中在机器人法律、安全与社会伦理问题方面。
国内方面相关研究起步较晚,研究不如国外系统与全面。但是近些年来,相关学者也将重点放在人工智能的伦理方面。相关文献有《机器人技术的伦理边界》[7]、《人权:机器人能够获得吗?》[8]、《我们要给机器人以“人权”吗?》[9]、《给机器人做规矩了,要赶紧了?》[10]、《人工智能与法律问题初探》[11]等等。值得一提的是,从以上文献可以看出,我国学者已经从单纯的技术伦理问题转向人机交互关系中的伦理研究,这无疑是很大的进步。
不过,遗憾的是,无论是在国内还是国外,现在仍然很少有成型的法律法规来对人工智能技术与产品进行约束,随着人们将注意力转向该方向,相信在不远的将来,有关政府部门会出台一套通用的人工智能伦理规范条例,来为整个行业作出表范。
三、人工智能是否会取代人类
有关人工智能与人的关系,很多人进行过质疑与讨论。1967年,《机器的神话》[12]作者就对机器工作提出了强烈的反对意见,认为机器的诞生使得人类丧失个性,从而使社会变得机械化。而近些年来,奇点理论的提出与宣传[13],更加使得人们担忧机器是否将会全面替代人类,该理论的核心思想即认为机器的智能很快就将超过人类。
笔者认为,人工智能不断进步,这是个不争的事实。机器的感觉,运动、计算机能都将会远远超过人类。这是机器的强项。但是不会从根本上冲击人类的岗位与职业。这是出于以下几方面的考虑:首先机器有自己的优势,人类也有自己的优势,且这个优势是机器在短期无法比拟与模仿的。人类具有思维能力,能够从小数据中迅速提炼归纳出规律,并且可以在资源有限的情况下进行非理性决策。人类拥有直觉能够将无关的事物相关化。人类还具有与机器不尽相同的内部处理方式,一些在人类看来轻而易举的事情,可能对于机器而言就要耗费巨大的资源。2012年,google训练机器从一千万张的图片自发的识别出猫。2016年,谷歌大脑团队训练机器,根据物体的材质不同,来自动调整抓握的力量。这对于一个小孩子来说,是很简单的任务,但在人工智能领域,确正好相反。也许正如莫桑维克悖论所阐述的,高级推理所需要的计算量不大,反倒是低级的感觉运动技能需要庞大的计算资源。
其次,目前人类和机器还没有达到同步对称的交互,仍然存在着交互的时间差。目前为止,仍然是人类占据主动,而且对机器产生不可逆的优势。皮埃罗·斯加鲁菲在《智能的本质》[14]一书中曾经提出:人们在杂乱无章中的大自然中建立规则和秩序,因为这样的环境中人类更容易生存和繁衍不息。而环境的结构化程度越高,制造在其中的机器就越容易,相反,环境的结构化程度越低,机器取代的可能性越小。由此可见,机器的产生与发展是建立在人们对其环境的了解与改造上的。反过来,机器的发展进一步促进了人们的改造与认知活动。这就如天平的两端,单纯的去掉任何一方都会导致天平的失衡。如果没有人类的指引与改造作用,机器只能停留在低端的机械重复工作层次。而机器在一个较低端层次工作的同时也会使得人们不断追求更高层次的结构化,从而使得机器向更高层次迈进。这就像一个迭代上升的过程,人-机器-人-机器,以此循环,人类在这段过程中总是处于领先的地位。所以机器可以取代人类的工作,而不是人类。
再次,人工智能的高速发展同时带来了机遇。诚然,技术的发展会带来一些负面影响,但是如果从全局来看,是利大于弊的。新技术的发展带来的机遇就是全方位的。乘法效应就是说明的这个道理:在高科技领域每增加一份工作,相应的在其它行业增加至少4份工作,相应的,传统制造业为1:1.4[14].我们应该看到,如今伴随着人工智能业的飞速发展,相关企业如雨后春笋般诞生,整体拉动了相关产业(服务业、金融业)的发展,带来了更多的就业机会。
而且,任何一项技术的发展都不是一蹴而的,而是循序渐进的过程。无论是最早期的类人猿的工具制造、还是后来的电力发展、再到现在的互联网时代,技术的发展与运用是需要时间来保证的。现在社会上有些人担心人工智能的发展会立即冲击自己的工作,实则是有些“杞人忧天”的意味。以史可以明鉴,历史上大的技术突破并没有对人类的工作产生毁灭性的打击。蒸汽机的诞生替代了传统的骡马、印刷机的诞生取代了传统的抄写员、农业自动化设施的产生替代了很多农民的工作,但这都没有致使大量的工人流离失所,相反,人们找到了原本属于人类的工作。新兴技术创造的工作机会要高于所替代的工作机会。所以,我们不必过分担心机器取代人类工作的问题。
四、谁来为事故负责
2016年7月,特斯拉无人驾驶汽车发生重大事故,造成了一名司机当场死亡。这件事故很快成为了新闻媒体的焦点。人们不仅仅关注这件事情本身所带来的影响,更加担心机器作为行为执行主体,发生事故后责任的承担机制。究竟是应该惩罚那些做出实际行为的机器(并不知道自己在做什么),还是那些设计或下达命令的人,或者两者兼而有之。如果机器应当受罚,那究竟如何处置呢?是应当像西部世界中将所有记忆全部清空,还是直接销毁呢?目前还没有相关法律对其进行规范与制约。
随着智能产品的逐渐普及,我们对它们的依赖也越来越深。在人机环境交互中,我们对其容忍度也逐渐增加。于是,当系统出现一些小错误时,我们往往将其归因于外界因素,无视这些微小错误的积累,我们总是希望其能自动修复,并恢复到正常的工作状态。遗憾的是,机器黑箱状态并没有呈现出其自身的工作状态,从而造成了人机交互中人的认知空白期。当机器不能自行修复时,往往会将主动权转交给人类,人类就被迫参与到循环中,而这时人们并不知道发生了什么,也不知道该怎样处理。据相关调查与研究,如果人们在时间与任务压力下,往往会产生认知负荷过大的情况,从而导致本可以避免的错误。如果恰巧这时关键部分出了差错,就会产生很大的危险。事后,人们往往会责怪有关人员的不作为,往往忽视机器一方的责任,这样做是有失偏颇的。也许正如佩罗所说:百分之60到80的错误可以归因于操作员的失误。但当我们回顾一次次错误之时,会发现操作员面临的往往是系统故障中未知甚至诡异的行为方式。我们过去的经验帮不上忙,我们只是事后诸葛亮[15]。
其实,笔者认为人工智能存在三种交互模式,即人在环内、人在环外与以上两者相结合。人在环内即控制,这个时候人的主动权较大,从而人们对整个系统产生了操纵感。人在环外即自动,这时候,人的主动权就完全归于机器。第三种情况就是人可以主动/被动进入系统中。目前大多数所谓的无人产品都会有主动模式/自动模式切换。其中被动模式并不可取,这就像之前讨论的那样,无论是时间还是空间上,被动模式对于系统都是不稳定的,很容易造成不必要的事故。
还有一种特殊情况,那就是事故是由设计者/操纵者蓄意操纵的,最典型的就是军事无人机这种武器,军方为了减少己方伤亡,试图以无人机代替有人机进行军事活动。无人机的产生将操作员与责任之间的距离越拉越远,而且随着无人机任务的愈加复杂,幕后操纵者也越来越多,每个人只是完成“事故”的一小部分。所以人们的责任被逐渐淡化,人们对这种“杀戮”变得心安理得。而且很多人也相信,无人机足够智能,与军人相比,能够尽可能减少对无辜平民的伤害。可具有讽刺意义的是,美国的无人机已经夺去了2500至4000人的性命。其中约1000位平民,且有200名儿童[14]。2012年,人权观察在一份报告中强调,完全自主性武器会增加对平民的伤害,不符合人道主义精神[16]。不过,目前对于军事智能武器伦理的研究仍然停留在理论层面,要想在实际军事战争中实践,还需要更加做出更多的努力。
综上可以看出,在一些复杂的人机环境系统中,事故的责任是很难界定的。每个人(机器)都是系统的一部分,完成了系统的一部分功能,但是整体却产生了不可挽回的错误。至于人工智能中人与机器究竟应该以何种方式共处,笔者将在下面一节中给出自己的一些观点。
五、笔者的一些思考
通过以上的讨论与分析,笔者认为,人工智能还远没有伦理的概念(至少是现在),有的只是相应的人对于伦理的概念,是人类将伦理的概念强加在机器身上。在潜意识中,人们总是将机器视之合作的人类,所以赋予机器很多原本不属于它的词汇,如机器智能、机器伦理、机器情感等。在笔者看来,这些词汇本身无可厚非,因为这反映出人们对机器很高的期望,期望其能够像人一样理解他人的想法,并能够与人类进行自然的交互。但是,现在的当务之急,是弄清楚人的伦理中可以进行结构化处理的部分,因为这样下一步才可以让机器学习,形成自己的伦理体系。而且伦理,正如第一部分讨论的,是由伦和理组成的,每一部分都有自己的含义,而“伦”,即人伦,更是人类在长期进化发展中所逐渐形成的,具有很大的文化依赖性。更重要的是,伦理是具有情景性的,在一个情景下的伦理是可以接受的,而换到另一种情景,就变得难以理解,所以,如何解决伦理的跨情景问题,也是需要考虑的问题。
而且值得一提的是,就人机环境交互而言,机指而不仅仅是机器,更不是单纯的计算机,而且还包括机制与机理。而环境不仅仅单指自然环境、社会环境,更要涉及到人的心理环境。单纯的关注某一个方面,总会做到以偏概全。人工智能技术的发展,不仅仅是技术的发展与进步,更加关键的是机制与机理的与时俱进。因为两者的发展是相辅相成的,技术发展过快,而机制并不完善,就会制约技术的发展。现在的人工智能伦理研究就有点这个意味。现在的人类智能的机理尚不清楚,更不要提机器的智能机理了。而且,目前机器大多数关注人的外在环境,即自然环境与社会环境,机器从传感器得到的环境数据来综合分析人所处的外在环境,但是却很难有相应的算法来分析人的内部心理环境,人的心理活动具有意向性,具有动机性,这也是目前机器所不具备的,也是不能理解的。所以对于人工智能的发展而言,机器的发展不仅仅是技术的发展,更是机制上的不断完善。研究出试图理解人的内隐行为的机器,则是进一步的目标。只有达到这个目标,人机环境交互才能达到更高的层次。
六、发展与展望
人工智能伦理研究是人工智能技术发展到一定程度的产物,它既包括人工智能的技术研究,也包括机器与人、机器与环境及人、机、环境之间关系的探索。与很多新兴学科一致,它的历史不长,但发展速度很快。尤其是近些年,依托着深度学习的兴起,以及一些大事件(AlphaGo战胜李世石)的产生,人们对人工智能本身,以及人工智能伦理研究的兴趣陡然上升,对其相关研究与著作也相对增多。但是,可以预期到的是,人工智能技术本身离我们设想的智能程度还相去甚远,且自发的将人的伦理迁移到机器中的想法本身实现难度就极大。而且如果回顾过去的话,人工智能总是在起伏中前进,怎样保证无论是在高峰还是低谷的周期中,政府的资助力度与人们的热情保持在同一水平线,这也是一个很难回避的问题。这些都需要目前的人工智能伦理专家做进一步的研究。
总之,人工智能伦理研究不仅仅要考虑机器技术的高速发展,更要考虑交互主体-人类的思维与认知方式,让机器与人类各司其职,互相促进,这才是人工智能伦理研究的前景与趋势。
参考文献:
[1][法]斯特凡·东希厄,徐寒易译.会做梦的机器人[J].环球科学.2017(4):48-49.
[2]毕彦华.何谓伦理学[M].中央编译出版社,2010.
[3][美]维纳,陈步译.人有人的用处:控制论与社会[M].北京大学出版社,2010.
[4][美]哈里亨德森,侯然译.人工智能-大脑的镜子[M].上海科学技术文献出版社,2011.
[5]M.Anderson,S.Anderson,C.Armen,TowardsMachineEthics:ImplementingTwoAction-BasedEthicalTheories[C].InM.Anderson,S.Anderson,C.Armen(Eds.),MachineEthics:AAAIFallSymposium,TechnicalReportFS-05-06.MenloPark,CA:AAAIPress,2005:1-7.
[6]王绍源,崔文芊.国外机器人伦理学的兴起及其问题域分析[J].未来与发展,2013,(06):48-52.
[7]迟萌.机器人技术的伦理边界机器人技术与应用[J].2009,(03).
[8]江晓原.人权:机器人能够获得吗?--从《机械公敌》想到的问题[N].中华读书报,2004-12-l.
[9]黄建民.我们要给机器人以"人权"吗?读书与评论[J].2009(06):55-58.
[10]姜潘.给机器人做规矩,要赶紧了[N].文汇报,2011-6-7.
[11]唐昊沫,舒心.人工智能与法律问题初探[J].哈尔滨学院学报,2007(01)
[12][美]刘易斯.芒福德,宋俊岭等译.机器的神话[M].北京:中国建筑工业出版社,2009.
[13][美]库兹韦尔,李庆诚,董振华,田源译.奇点降临.北京:机械工业出版社.2011.
[14][美]皮埃罗斯加鲁菲,任莉张建宇译.智能的本质[M].北京:人民邮电出版社,2017.
[15]JamesReason.Humanerror[M].:CambridgeUniversityPress.1990.
[16]杜严勇.关于机器人应用的伦理问题[J].2015,vol5(2):25-34.
摘自《科学与社会》2018.1