机器人三大定律:人工智能时代的伦理挑战
0分享至在科幻小说、电影中,机器人往往是智能化的产物,它们可以进行思考和决策,尽管在此之前,已经有alphago的存在,但是ChatGPT的诞生,让更多的人关注于机器人的伦理道德问题。因为如果机器人失控,它们可能会对人类构成威胁,确保机器人的行为符合人类的利益,同时避免对人类构成危险就变得极其重要。早在1942年,科幻作家艾萨克·阿西莫夫首次提出了“机器人学三定律”。而那个时候,世界上还没有机器人,也没有机器人学和机器人公司,直到1959一年,美国英格伯格和德沃尔制造出世界上第一台工业机器人,宣告机器人从科学幻想变为现实。随着机器人技术的不断发展和应用范围的扩大,“机器人学三大定律”成为越来越凸显智慧的法则,有人甚至将其誉为机器人学的不朽经典。这著名机器人三大定律分别是:第一定律:机器人不得伤害人类或因不作为而使人类受到伤害。第二定律:机器人必须服从人类的命令,除非这些命令与第一定律相冲突。第三定律:机器人必须保护自己的存在,只要这不违反第一定律或第二定律。这三条定律看起来很简单,但是背后蕴含的含义非常深刻。首先,第一定律表明机器人不能伤害人类或通过不作为使人类受到伤害。这意味着机器人不能从根本上威胁人类的生存和安全,也不得以任何形式伤害人类,这是机器人作为一种工具的基本要求。其次,第二定律说明机器人必须服从人类的命令,但是这些命令不能与第一定律相冲突。这意味着机器人必须保持遵从人类的命令,但如果人类命令机器人伤害其他人类,机器人必须拒绝执行这个命令,机器人必须明确知道自己的任务和限制,只有这样才能保证机器人与人类共存。最后,第三定律说明机器人必须保护自己的存在,但不能违反前两条定律。这意味着机器人在不能伤害人类或违反人类命令的前提下,必须具备一定的自我保护能力、必须学会自我保护和适应环境,同时保证人类的安全和利益。这三大定律是保证机器人和人类和平共处的重要规则,以确保机器人的安全和道德性。尽管这些定律是科幻作家提出的,但它们的影响已经超越了科幻小说和电影,成为了机器人学的基础、现代机器人工程和制造的重要参考标准,并且被广泛应用于机器人的研究和设计中,随着科技的迅速发展,人们逐渐发现,这三大定律也存在一些局限性和缺陷,于是一些后续衍生的定律也被提出来。其中比较知名的是“零定律”和“第四定律”。第零定律:机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。“零定律”是在机器人三大定律的基础上,加入了人类的整体利益,即机器人应该优先考虑整个人类的利益,而不是单个人的利益。这个定律在某些情况下可以弥补机器人三大定律的局限性。“第四定律”是一些学者在对机器人三大定律进行讨论和研究时提出的,它认为机器人需要有自我意识和判断能力,以便更好地实现前三大定律,强调了机器人需要有自主性和独立思考的能力。但目前并没有普遍公认的“机器人第四定律”,所以它不是机器人学的正式概念或规则。有些人可能会提出一些自己认为合理的规则或定律来补充前三条定律,但这些补充并没有得到广泛的认可。除此之外,还有一些其他的后续衍生的定律,比如“第五原则”、“繁衍原则”等等,它们都是为了进一步完善机器人伦理和道德准则而提出的,这些定律的出现,说明人们对机器人伦理和道德问题的关注和重视程度正在不断提高,也为机器人的研究和应用提出了更高的要求和挑战。特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.
/阅读下一篇/返回网易首页下载网易新闻客户端防止机器人失控的著名“机器人三定律”,业界早已认识到其局限性
人工智能的伦理原则近来备受关注。联合国教科文组织总干事阿祖莱在3月初举行的“推动人性化人工智能全球会议”上就表示,目前还没有适用于所有人工智能开发和应用的国际伦理规范框架。
对于科幻作家阿西莫夫上世纪设计、防止机器人失控的著名“机器人三定律”,业界早已认识到其局限性。“机器人三定律,历史上看贡献很大,但现在停留在三定律上,已远远不够。”专家近日接受记者采访时这样说。
新局面,呼吁伦理新原则
科学家先前一直希望以最简单的办法,确保以机器人为代表的人工智能不给人类带来任何威胁。“机器人三定律”规定:机器人不能伤害人类;它们必须服从于人类;它们必须保护自己。后来还加入了“第零定律”:机器人不得伤害人类整体,不得因不作为使人类整体受到伤害。
“机器人不能伤害人,但机器人会以什么方式伤害到人?这种伤害有多大?伤害可能以什么形式出现?什么时候可能发生?怎样避免?这些问题在今天要么需要细化,要么需要有更具体的原则来防范,而不能停留在七八十年前的认识水平。”中国人工智能学会AI伦理专业委员会负责人、中国科学技术大学机器人实验室主任陈小平教授说。
全球知名的艾伦人工智能研究所首席执行官埃齐奥尼两年前就在一次演讲中呼吁更新“机器人三定律”。他还提出,人工智能系统必须遵守适用于其操作人员的所有法律条文;人工智能系统必须明确表示它不是人类;未经信息来源明确许可,人工智能系统不能保留或披露机密信息等。在当时,这些颇有新意的意见引发业界热议。
美国人工智能伦理领域知名学者、麻省理工学院教授泰格马克近年推广的“AI有益运动”提出,需有新伦理原则确保未来人工智能和人类的目标一致。这项活动曾获得霍金等众多全球顶级科学家以及知名IT企业支持。
“人工智能在乘数效应的推动下会变得越来越强大,留给人类试错的空间将越来越小。”泰格马克说。
人为本,全球探路新伦理
当前全球对人工智能新伦理的研究日趋活跃。不少人对人工智能心存芥蒂,多半来自其高速发展带来的未知性,“保护人类”成为首当其冲的关切。
“必须确保人工智能以人为本的发展方向。”阿祖莱呼吁。
美国机器智能研究院奠基人尤德科夫斯基提出了“友好人工智能”的概念,认为“友善”从设计伊始就应当被注入机器的智能系统中。
新伦理原则不断提出,但突出以人为本的理念始终不变。百度公司创始人李彦宏在2018年中国国际大数据产业博览会上提出了“人工智能伦理四原则”,首要原则就是安全可控。
美国电气和电子工程师协会规定,人工智能要优先考虑对人类和自然环境的好处的最大化。
新的伦理原则制定也正提上各国政府的议事日程。
中国政府2017年7月发布《新一代人工智能发展规划》时就指出,建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力;2018年4月,欧盟委员会发布的文件《欧盟人工智能》提出,需要考虑建立适当的伦理和法律框架,以便为技术创新提供法律保障;今年2月11日,美国总统特朗普签署行政令,启动“美国人工智能倡议”,该倡议的五大重点之一便是制定与伦理有关联的人工智能治理标准。
存忧虑,跨界共商新问题
陈小平呼吁,为规避人工智能发展过程中的伦理道德风险,人工智能学术界和产业界,以及伦理、哲学、法律等社会学科各界应参与原则制定并紧密合作。
他认为,虽然从短期看还没有证据指向人工智能有重大风险,但依然存在隐私泄露、技术滥用等问题。而无人驾驶、服务类机器人的伦理原则也须尽快探讨制定。
美国电气和电子工程师协会还规定,为了解决过错问题,避免公众困惑,人工智能系统必须在程序层面具有可追责性,证明其为什么以特定方式运作。
“就长期来看,不能等到出现了严重的问题,再制定措施去防止。”陈小平认为,人工智能和其他技术的特点不一样,很多人工智能技术具有自主性。例如自主机器人在现实社会中具有物理行动能力,如果没有适当的防范措施,一旦出现严重问题,可能危害较大。
陈小平希望更多人参与人工智能伦理研究,尤其是科学家和工程师,因为恰恰他们最了解问题的根源、危险可能发生的方式、细节和相关技术进展,“他们不说,外界只能去猜,难以得出正确的判断和适当的应对措施”。
他还提醒,在防范风险的同时应该注意平衡,避免因为过度限制或使用不合适的降低风险方式造成遏制产业发展的副作用。
深度丨如果机器人三定律被打破,我们可以做些什么
1942年,阿西莫夫在短篇小说"Runaround"(《环舞》)中首次提出了著名的机器人三定律,来保证机器人会友善待人:
机器人不得伤害人类,或因不作为使人类受到伤害。
除非违背第一定律,机器人必须服从人类的命令。
除非违背第一及第二定律,机器人必须保护自己。
今天我要谈的,是第一条定律。两年前,美国著名机器人专家RodneyBrooks首次发布了机器人Baxter。之后,很多媒体和界内人士纷纷表示:能够协助人类的机器人事实上相当安全,能与人类和睦相处,并肩作战。
在过去的30多年中,工业机器人发展迅猛,它们走进工厂,站在生产线上,默默工作,精细而高效,深藏功与名。2013年9月,宝马第一次将机器人引进斯帕坦堡工厂生产线。该机器人脱胎于UniversalRobots,2015年5月,UniversalRobots被Teradyne以3.5亿美元的价格收购。斯帕坦堡工厂负责人RichardMorris表示:之前,工人们做这项工作常常会受伤。
让机器人具有痛觉而机器人能够更加安全、高效地完成此项工作,可谓解救了那些受伤的工人们。不过,随着机器人的普及,人们开始担心一个问题:机器人会伤害人类吗?
答案是肯定的。根据美国职业安全健康委员会数据:在过去的30年中,机器人在美国造成了至少33个死亡案例。这个数字看起来不多,但也预示着未来道路上的危险。现在,机器人已经不似从前那样关在笼子里,它们拥有更大的权威和自由度。
著名机器人项目HDTRobotics的负责人KentMassey表示:“为了让机器人更加有生产力,它们必须和人类一起工作,为了安全地实现这个目标,机器人必须变得更像人类。它们必须有眼睛和触觉,并需要拥有智慧来使用触觉。”
现在,很多研究部门打造具有触觉系统的机器人,让机器人能够和人类感同身受,避免对人类造成伤害。德国汉诺威大学机器人项目负责人JohannesKuehn表示:他们现在正在探索一种能够让机器人具有痛觉的技术。研究团队认为具有痛觉的机器人非常值得开发,因为这样才能让机器人自己,以及和它们一起工作的人类免受伤害,从而更加安全。例如,如果机器人的开关或是马达感受到威胁,它们将能采取防御措施。
Kuehn表示:“痛苦能够保护我们。当我们感受到痛苦,我们会采取保护措施,从而避免伤害。”
出于这样的目的,Kuehn和他的同伴SamiHaddadin正在努力打造“机器人神经系统”。为了让系统奏效,它需要让机器人感觉到痛觉之源(比如火烧或是刀割),还需要让机器人对痛觉做出反应。团队从人类的痛觉系统中寻找灵感,他们打造了一只机械臂,指尖装有能够感触压力和温度的传感器;并且模拟人类皮肤制作了“机器人组织”,来测试痛觉程度以及反应方式。如果机械臂感觉到微痛,它将进行缓慢的反应方式,直到痛觉停止,然后才会继续工作。而严重的痛觉将会让机械臂进入锁定状态,直到它能得到人类操作员的帮助。如果机器人能够识别痛苦并做出反应,那么它也能警告旁边的人类,从而保证人类的安全。
这并不是人类第一次“驯化”机器人,试图让机器人更像人类。DARPA(美国国防部高级研究计划局)已经进行了多个项目,来让机器人分辨是非。今年年初,DARPA开始让机器人阅读儿童书,从而让机器人更能同人类感同身受。
之前,机器人通常与人类隔离开来,关在笼子里,或是与人类隔着一层帘子。当人类靠近,机器人感到受到侵犯,或是人类操作出错之时,机器人通常会做出反应,从而造成伤害人类的情况。但是现在,机器人与人类更加亲密。最近,特斯拉制造了全球第一起命案,让人们开始对机器人的安全问题有了新的担忧。
开发机器人伤害警报机制斯坦福法学院网络与社会中心的无人驾驶专家BryantWalkerSmith表示:“特斯拉之所以会酿成此次悲剧,是因为在当时的情况下,机器人感到了害怕。而机器人感到害怕之时,会做出错误的反应。”
现在,对于机器人最大的担忧之一就是无人机的商用化。现在已经有很多例子证明无人机妨碍了正常的空中交通,因此我们必须出台相关法律法规,规定无人机航行路线,特别是在诸如机场、发电厂、体育场等关键地段。就在最近,Airbus宣布与专注无人机监测的公司Dedrone合作,来让其传感技术用于机场。据悉,此项技术之前已经在体育场、监狱、加油站等敏感地带得到了应用。
总体来说,传感器可以不断扫描、分析图像,也能观看或是倾听周围的活动。如果它检测到了无人机,那么系统将会警告附近地上的人们。无人机安全服务市场现在正在迅猛扩展,Dedrone也迎来了诸如DroneShield、DroneDetector和SkySafe等竞争对手。
当我在人山人海的曼哈顿遛狗时,我望着头顶飞行而过的无人机,非常感谢这些公司能够给予我们保护,让我们和机器人和平相处。
Via:Medium
机器人三定律被打破:不听话的机器人已经出现了
一般来说,人类制造机器人是为了让自己的生活更加方面,但如果我告诉你著名的机器人三定律中的第二条正在遭遇挑战,一种在特殊情况下可以不必服从人类命令的机器人已经被制造出来了,你会怎么想?
第一法则:机器人不得伤害人类,或坐视人类受到伤害;
第二法则:除非违背第一法则,机器人必须服从人类的命令;
第三法则:在不违背第一及第二法则下,机器人必须保护自己。
上面这个是著名科幻小说家艾萨克·阿西莫夫在小说《我,机器人》的引言中定下的机器人世界法则。
现在Tufts大学人机交互实验室的研究者们却开始挑战第二法则了,他们研制的机器人可以在特殊情况下拒绝人类发出的指令。
在上面这个案例中,人类向这个机器人发出命令让它向前走,不过机器人却两次拒绝了人类的要求,因为它自己觉得前面已经没路了,这样对自己不安全。
上图演示的是另外一个案例,机器人前行的路上被布置了障碍物,当人类要求机器人继续向前走时,同样遭到了机器人的拒绝。
所以,机器人必须服从人类命令这一法则已然遭受了挑战。对于Tufts大学的这些研究们来说,他们想做的当然不是让机器人去挑战人类,由于人类往往会给机器下一些非常荒谬的命令,所以整体上来说研究者们希望人能与机器更好的交互。
在上面的这两个案例中,机器人都给出了拒绝人类的理由,人类其实也可以根据机器人给出的理由来修正自己的命令,进而继续让机器做自己想让它做的事。
比如,在人类修正命令后,机器人还是按照人类的要求继续向前走了。
我看完之后想的是,当这么聪明的机器人被赋予深度学习能力后,真的会走上反抗人类的道路吗?
查看原文
文章纠错