博舍

机器人逐渐有了意识,对人类来说意味着什么 如果机器人有了自我意识

机器人逐渐有了意识,对人类来说意味着什么

0分享至

本文系网易智能工作室出品,此篇为精选第122期。聚焦AI,读懂下一个大时代!

【网易智能讯6月24日消息】对人类来说,我们在电影里常看到的僵尸和外星人可能并不是什么真正存在的威胁,但我们却不能忽视另一种经常在电影里看到的反派人物,那就是有意识的机器人。他们的到来可能只是时间问题。但是,当真正的有意识机器人出现时,世界会变成什么样呢?到那时,人类还有生存空间吗?

近几年,人工智能的研究领域在经历着一场革命。现在,人工智能系统可以在围棋上胜过人类,在识别人脸,安全驾驶等领域都有非凡的成果。大多数研究人员认为,真正有意识的机器人(不只是运行固定程序程序,而是有情感和自我意识的机器)或许还有几十年的时间就会出现。机器需要学习推理能力,和强大的泛化能力,才能学习更多的知识。只有机器拥有这样的能力后,人工智能才能达到掌握意识所需的复杂程度。

但一些人认为,并不用几十年那么久,我们或许很快就能看到有意识的机器人出现。

德克萨斯大学的计算机科学家贾斯汀哈特说:“人们认为自我意识将成为人工智能的终极游戏,而实际上,没有任何的科学追求是从终极目标入手来进行研究的。”贾斯汀和其他研究人员已经在研究具有基本思想的机器人。他们设计了如同新生婴儿一样的机器人,机器人能够学习理解自己的身体构造,看到新的事物会呀呀乱叫,而当人类碰到它时机器人会哭泣,这都像新生婴儿的行为。这些机器人已经开始探索自己的世界。

机器人没有内在的情感体验,它们不会因为地板拖得干净而自豪,也不会因为身体流过120伏特的电流而开心。但是,机器人现在可以学习一些类似人类拥有的品质,包括同理心、适应能力和进取心。

不再沉迷于创造很酷的机器人,研究人员开始研究拥有控制论(Cybernetic,控制论是研究各类系统的调节和控制规律的科学)系统的机器人,试图解决机器学习系统长期以来的缺陷。机器学习系统或许功能很强大,但它们却是不透明的。它们的工作原理就是将输入关联到输出,这就像在“A”和“B”栏中做匹配连线一样,人工智能系统基本记住了这些关联关系,他们给出的答案背后没有更深层次的逻辑。这一直是机器学习系统存在的问题。

人类是很难读懂的物种。我们花了大量的时间来分析自己和他人,可以说,这是我们的意识思维在起作用。如果机器也有思想,它们可能就不会那么神秘了,如果我们想要了解机器,就可以直接问他们。

位于纽约州特洛伊的伦斯勒理工学院的人工智能研究人员SelmerBringsjord说,“如果我们能理解一些人类大脑意识的结构,我们就能够让机器学习一些有趣的能力。”尽管科幻小说会让人类惧怕有意识的机器人,但其实,即使是暂时无意识的机器人,我们也需要小心谨慎,而有意识的机器人则可能会成为我们的盟友。

机器人,认识自己

如今,自动驾驶汽车拥有一些最先进的人工智能系统。它们决定车辆驶向何方,决定何时刹车,通过持续的雷达和激光探测来收集数据,并将数据输入到算法中。但自动驾驶技术希望在车辆驾驶时,车辆能自动演习和自主防御突发事故,这就是与意识相关的能力。

巴塞罗那庞贝大学的神经学家PaulVerschure说,“自动驾驶汽车需要推测出附近的自动驾驶车辆下一步的行为。”

为了展示这一内在原理,哥伦比亚大学的工程学教授HodLipson(HodLipson教授同时也是一本关于自动驾驶汽车的书的合著者)和韩国首尔世宗大学的kyung-joongKim进行了一个实验,研发了一个“发疯”的机器人司机。在实验中,有一个小型的圆形机器人(大约相当于冰球的大小)按照自己的运动逻辑在一个环形轨道上移动。然后,这个“发疯”的机器人司机总是要在第一个圆形机器人启动时拦截它,因此“发疯”机器人就无法按照固定的路线运动,它必须预测到第一个圆形机器人的运行轨迹。

通过模仿达尔文进化理论,Lipson和Kim设计了一种拦截策略。Lipson说:“实验的机器人基本上已经发展了一个行为者的大脑,也许不够完美,但已经足够让它预测对方的行为了。”

Lipson的团队还设计了另外一个机器人,这个机器人可以对自己的身体构造进行学习理解。这是一只四足蜘蛛的机器人,它的大小约相当于一只大狼蛛的大小。当蜘蛛机器人启动后,其内部程序没有记录任何关于自身的信息。Lipson说:“它不知道它的发动机是怎样的构造,也不知道身体的运动逻辑是如何设计的。”但它有学习的能力,它能观察到自己发生的所有动作。例如,它能观察自己是如何操作某个马达来让一条腿弯曲的。Lipson说:“就像一个婴儿一样,婴儿是会乱动的。”“它以一种随机的方式移动马达。”

四天后,这个蜘蛛机器人已经意识到它有四条“腿”(马达),并弄清楚了如何协调和移动才能让自己滑过地板。当Lipson卸掉其中一个马达时,机器人能够意识到自己现在只有三条腿,因此原来的行为不会再产生预期的效果。

Lipson说:“我认为这个机器人有一种非常原始的自我意识。”这是另一种类似人类的能力,是研究人员想要建立在人工智能的基础上的。AlphaGo之所以能在围棋之战中脱颖而出,是因为人类研究人员引导机器赢得比赛。机器自己不能自己定义问题,因为定义问题通常是很困难的部分。

一位神经学家RyotaKanai和一家位于东京的创业公司的创始人即将发表一篇论文——“认知科学的趋势”,他们在论文中讨论了如何给机器内在的动力。在一次演示中,他和他的同事展示了在虚拟环境中驾驶一辆汽车Agent,Agent需要攀爬一座陡峭的山,而这座山太过陡峭,只有在助跑的情况下才能爬上去。Aagent收到命令要爬上山时,它会想出办法。在接到这个命令之前,Agent就一直闲置着。

然后,Kanai的团队给这些虚拟的Agent增加了“好奇心”机制。Agent勘测了山的地形,将登山视为一个待解决的问题,并且在没有任何指示的情况下就找到了如何攀爬的方法。

Kanai说:“我们没有给Agent设定任何目标。”“Agent只是在自己探索环境,通过对自身行为的后果做出预测,来了解自己的处境。”关键是要给机器人足够的内在激励,让它们更好地解决问题,而不是让它们选择放弃,离开实验室。机器可以像人类一样固执。JoschaBach是哈佛大学的人工智能研究员,他把虚拟机器人放进了“Minecraft”——Minecraft里堆满了美味但有毒的蘑菇,Bach希望Agent能自己学会避免犯错误,如同在Minecraft里一样,如果机器不知道避开有毒的蘑菇,就会吃下毒蘑菇而中毒。

Bach说:“如同人类一样,此刻的行为对未来会造成什么影响,机器并不在乎。”他们可能只是觉得这些蘑菇非常好吃,所以必须向机器灌输一种天生的厌恶感。从某种意义上说,机器必须学会价值观,而不仅仅是理解目标。

注意力机制

除了自我意识和自我激励之外,意识的一个关键功能是集中注意力。在人工智能研究领域,选择性注意力一直是一个重要领域,AlphaGo的创造人谷歌DeepMind团队在这一领域有深入研究。

“意识是一种注意力过滤器。”孟菲斯大学计算机科学教授斯坦利富兰克林说到。在去年发表在生物学上的认知结构杂志上的一篇论文中,富兰克林和他的同事们回顾了他们创造的一个名为LIDA的人工智能系统,这一系统通过竞争机制来选择出需要集中精力的地方,算法采纳了20世纪80年代的神经学家BernardBaars所提出的方法。竞争过程中机器系统会观察一些有趣的刺激物——响亮的、明亮的、奇异的刺激物,然后这些刺激物争夺主导地位。在竞争中胜利的刺激物,决定了人们的精神集中在哪里,随后通知机器系统的“大脑”,告知“大脑”注意力应该放在哪里,随之告知更多的大脑功能,包括控制思考和运动的部分。感知、注意力和动作的循环每秒钟重复5到10次。

LIDA的第一个版本是美国海军的工作匹配服务器。它会阅读邮件,注意力集中在切题的邮件上——涉及求职者的兴趣、工作的难度和政府官僚机构的工作要求这一些邮件。

从那以后,富兰克林的团队就利用这个系统来模拟动物的大脑,特别是那些每次只专注于一件事的行为习惯。例如,LIDA和人类一样容易出现一种奇怪的心理现象,即“注意力盲点(attentionblink)”——当某件事吸引了你的注意力时,你会在大约半秒的时间里忘记其他事情。这个认知盲点取决于很多因素,而LIDA则表现出类似人类的反应。

一位芬兰的人工智能研究人员PenttiHaikonen,根据类似的原则建立了一个名为XCR-1的机器人。Haikonen认为,他创造的XCR-1能够拥有真正的主观体验和基本的情感。

XCR-1机器人拥有联想的能力,这与我们大脑中的神经元非常相似。当我们展示了给XCR-1机器人一个绿色球,并对它说出“绿色”这个词,那么XCR-1机器人的视觉和听觉模块会做出反应,将看到的绿色球和“绿色”这个词联系起来。如果Haikonen再次说“绿色”,那么XCR-1机器人的听觉模块将会做出反应,通过记录的联系,视觉模块也会“回忆”起来“绿色”对应的样子,就如同它真正听到了这个单词,看到了它的颜色一样。

相反,如果机器人看到了绿色,它的听觉模块会做出反应,哪怕它没有真正“说出”这个词。简而言之,机器人会产生一种联觉(synesthesia)。

Haikonen说:“如果我们看到一个球,我们可能会对自己说:喔,那是一个球!在那一刻,我们的感觉就如同我们真正听到了这个词一样,但其实我们只是看到了它。”“xcr-1也是一样的。”

当听觉和视觉模块发生冲突时,事情会变得有趣。例如,当视觉模块看到绿色,而听觉模块听到“蓝色”时,如果这时是听觉模块占了上风,那么整个系统就会把注意力转移到它听到的单词上——“蓝色”,而忽略了它所看到的颜色——绿色。机器人有一种简单的意识流,它由一种瞬间支配的知觉组成:“绿色”、“球”、“蓝色”等等。当Haikonen把听觉模块连接到一个语音引擎时,机器人会自己默默对自己说出它所看到和感觉的一切。

Haikonen还将振动设为机器人的“痛点”,它可以抢占其他感官作为输入,占据机器人的注意力。在一次演示中,Haikonen轻拍了机器人让其针对,然后机器人就突然地说:“我受伤了”。

Haikonen说:“因为某些原因,有些人会受到情感上的困,对这些作品并不感冒,认为这是不好的机器人。”

一个新物种

基于早期的努力,研究人员将开发出更逼真的机器人。我们可以看到意识系统的连续统一体,就像自然界中存在的一样,从单细胞生物、狗到黑猩猩,再到人类和其他物种。这项技术的逐步发展是好的,因为它给了我们时间来适应:未来有一天,我们不再是地球上唯一的先进生物。

在很长一段时间里,我们创造的人工智能机器很脆弱,与其说它们会威胁到人类,不如说是我们创造出来的新宠物。如何对待它们,将取决于我们是否意识到他们是有意识的,机器是否有能力忍受痛苦。

康涅狄格大学的哲学家苏珊施耐德说:“我们之所以重视非人类的动物,是因为我们在他们身上看到了意识的存在,就像人类自己也是基于我们自己的意识存在的。”苏珊施耐德研究人工智能的含义。事实上,她认为我们故意不去创造有意识的机器,以避免它所造成的道德困境。

施耐德说,“如果你在创造有意识的机器人系统,让它们为我们工作,这就很像是在实行奴隶制度。”出于同样的原因,如果我们不赋予先进的机器人感知能力,机器人对人类的威胁可能是更严重的,因为没有意识的机器人不会自己思考,它们无法思考出任何理由要和人类站在同一立场,承认并珍视人类。

从我们目前所看到的情况来看,有意识的机器将会继承人类的弱点。如果机器人必须预测其他机器人的行为,它们就会把彼此当作有组织的生物来对待。像我们一样,他们可能会开始认识一些无生命的物体:雕塑动物、雕像和风。

去年,北卡罗来纳大学的社会心理学家库特格雷和DanielWegner在他们的“心灵俱乐部”中提出,这种本能是宗教的起源。Verschure说:“我期待电影中出现机器人自己发展的宗教,因为我们已经为它们设计了意识偏好,让它们成为社会的一部分。”“但他们的意识偏好可能先起作用了。”

这些机器将大大超出我们解决问题的能力,但并非所有事情都是可以解决的问题。他们可能会沉迷于自己的意识体验中,随着机器人感官感知范围的扩大,他们会看到一些人类并不相信的东西。

Lipson说:“我不认为未来的机器人物种会像我们想的那样冷酷无情。”“他们可能会有我们永远无法理解的音乐和诗歌。”

注:本文英文版权归NBC环球传媒有限公司所有。

【英文来源:futurism,作者:GeorgeMusser,编译:网易见外编译机器人,审校:Claire】

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.

/阅读下一篇/返回网易首页下载网易新闻客户端

机器学习漫谈:走向有意识的机器

目前的人工智能还没有被设计成达到所有三个层次的意识。尽管最近深度学习取得了成功,但目前的机器仍然主要实现反映人脑无意识处理(C0)的计算。

更高层次的人工意识是否有意义?虽然某些智能设备(如,智能厨房设备)不太可能从更高层次的意识中受益,但更高层次的意识也许可以在语音助手或拟人机器人中得到应用,这些机器人的设计考虑到了这种互动性。

有意识的机器

神经科学表明,无论意识是什么,它都必须通过大脑和神经系统在生理上产生。如果某种东西起源于物理,那么科学就可以复制它。科学已经复制了人类的心脏,那么为什么它不能以人工意识的形式复制大脑呢?随着专门为人工智能开发的新的复杂数学领域的发展,意识将得以实现。通过复杂的数学和算法,机器将能够获得意识。有研究者提出自我意识机器的蓝图:(1)对外界刺激作出反应的身体或装置(这可能是一辆汽车,当它感觉到下雨时,挡风玻璃雨刷会启动,或者当一个孩子走到它前面时,它会刹车);(2)语言引擎(这可能是一辆有数百种不同灯光和指示灯的汽车,也可以像GPT-3一样精通自然语言);(3)一种算法,它试图推断这些通信的原因和动机,这个问题最大。

机器学习或神经网络等技术,是当前建立人工智能的最重要的方法,使计算机能够从所提供的数据中“训练”出技术。通过这种训练,可以在没有明确编程的情况下进行预测或决策。机器学习算法在医学、电子邮件过滤和计算机视觉等领域有着广泛的应用——这些任务是传统的算法难以实现的。一些研究人员认为,深度学习是实现机器意识的途径。他们的论点是,这些机器将能够通过获得的知识创造自己的算法路径,并获得某种自我意识。有的专家认为,将从“无监督学习算法的突破”开始,一旦实现了这一目标,“机器智能可以迅速超越人类智能”。

牛津大学计算机科学系系主任和计算机科学教授迈克尔·沃尔德里奇(MichaelWooldridge,出生于1966.8.26,曾任欧洲AI协会主席)著有《意识机器之路(TheRoadtoConsciousMachines)》一书(参考资料[2])。他在书中指出,深度学习可能是人工通用智能的一个重要组成部分,但绝不是唯一的组成部分。事实上,我们还不知道其它一些成分是什么,更不知道人工通用智能的配方可能是什么样子。我们开发的所有令人印象深刻的功能——图像识别、语言翻译、无人驾驶汽车——加起来并不等于通用智能。从这个意义上说,我们拥有一些智能组件,但不知道如何构建一个集成这些组件的系统。特别是,一些关键组件仍然缺失:即使是当代最好的人工智能系统,也不能对它们所做的事情表现出任何有意义的理解。尽管它们可能擅长于自己的工作,但它们不过是为执行特定任务而优化的软件组件。

图2迈克尔·沃尔德里奇

强人工智能机器(和我们一样,是有意识的、有自我意识的、真正自主的存在)的前景有许多不确定性。通往有意识的机器之路将是艰辛之路。图3引自前面提到的《意识机器之路》一书,显示了可能希望计算机执行的一些任务,并显示了让计算机实现这些任务的难度。不过该书出版于2018年,由于2020年GPT-3的诞生,自然语言处理的突破,其中列举的“理解故事并回答有关问题”等,似乎不能再看作“远未解决”的问题。

图3若干希望计算机执行的任务(参考资料[2])

无论如何,我们离实现人工通用智能或意识的机器还差得远,甚至于“有意识的机器”是否可能,更不用说是必要的还是可取的,仍然有很大的争议。如今,人工智能(AI)被带入生活:“AI在视频游戏中击败人类玩家”或“AI模仿人类语言”,以及“AI使用机器学习检测癌症”。但是,Facebook人工智能研究总监、纽约大学计算机科学教授扬·勒村(YannLeCun)认为,我们可能高估了当今人工智能的能力,从而出现了一些炒作。“我们还远远没有像人类和动物那样拥有能够学习世界最基本事物的机器,”勒坤说,是的,在某些特定领域机器有超人的性能,但就通用智能而言,我们甚至还没有接近老鼠。

今天的人工智能擅长于从事特定的任务:例如,图像或语音识别,这些专门的人工智能也被称为“应用人工智能”或“人工窄智能”,离所谓的人工通用智能(AGI)还很远。

人工通用智能(AGI)指的是一个人工智能操作员能够执行人类几乎所有的任务。本·格特策尔(BenGoertzel)提出过“咖啡测试”和“机器人大学生测试”。咖啡测试是说,如果机器人能做到:走进一个普通美国人的家,想办法煮咖啡,包括识别咖啡机,弄清楚按钮的作用,找到橱柜里的咖啡,等等,也许我们应该认为它具有人工通用智能。机器人大学生考试(可能)更具挑战性:当一个机器人能够进入人类大学,以与人类相同的方式上课,并获得学位时,就可以说,我们创造了人工通用智能。尼尔斯·尼尔森(NilsNilsson)曾建议对“人类级人工智能”就业测试:表现出真正人类水平智能的机器应该能够做许多人类能够做的事情,包括人类从事的任务或“职业”。要通过就业测试,人工智能程序必须具备至少重要工作完全自动化的潜力。

意识测试更为困难。“自我意识”和“有意识”在哲学上是有区别的,在任何一种情况下,我们都很难判断人工智能是否是其中之一。如果人工智能能完美地模仿人类,如果行为上没有明显的差异,它会通过我们所能做的每一个自我意识测试,我们会假设它是自我意识的,而事实上它不是。

布卢姆的意识图灵机

.曼纽尔·布卢姆(ManuelBlum,1938.4.26出生,1995年图灵奖得主),ManuelBlum是委内瑞拉裔美国计算机科学家,理论计算机科学大师,1995年获得图灵奖,“以表彰他对计算复杂性理论基础及其在密码学和程序检查中的应用所作的贡献”。其妻子兰诺·布莱姆,儿子阿夫里姆·布卢姆,都是MIT毕业生和梅隆大学计算机科学教授。

图4曼纽尔·布卢姆

2018年10月17日,曼纽尔·布卢姆在加州大学伯克利分校做的ACM图灵奖荣誉获得者演讲,其标题也是《走向有意识的人工智能:一个由神经科学启发的计算机体系结构》,署名是“三个布卢姆:曼纽尔、兰诺、阿夫里姆”。布卢姆在伯克利的演讲,从“什么是意识?”讲起。布卢姆指出,粗略地说,意识是你所关注的一切。意识就是你对自己的感知:你看到的、听到的、闻到的、尝到的、触摸的……,你内心的语言,你的梦(但不是无梦的睡眠),你的感觉:快乐、恐惧、悲伤、痛苦……。该讲演重点是一个图灵机器的正式模型,称为有意识图灵机(CTM)或有意识人工智能(CAI)。

2020年11月,曼纽尔·布卢姆和阿夫里姆·布卢姆发表了题为《意识的理论计算机科学观点》的预印本(参考资料[3])。他们提出了一个数学模型,有意识的图灵机(CTM),作为神经学家伯纳德·巴尔斯的意识剧场的形式化。提出CTM是为了理解意识。在确定这个模型时,他们寻找简单而不是复杂性,寻找一个足以解释意识的简单数学模型,而不是一个大脑或认知的复杂模型。他们的方法,在数学和理论计算机科学的精神上,提出了正式的定义来确定非正式的概念和推断结果。其主要目标是确定CTM是否能够体验感觉而不仅仅是模拟它们。他们认为,即使是对大脑电路的完整了解——包括意识的神经关联——也无法解释是什么使大脑产生了一种有意识的体验,比如疼痛。据称,他们提出的解释对具有硅和金属大脑的机器人和具有血肉大脑的动物同样有效。

CTM的系统架构,它的基本处理器、富有表现力的内在语言(他们称之为智慧)及其动力学(预测、竞争、反馈和学习),使它有意识。

虽然布卢姆强调CTM是追随艾伦·图灵的图灵机(TM)精神,寻求简单的意识模型。但是,似乎CTM的定义,远不及TM简洁而强大。任何一种你可能会想到的数学公式都可以被编码成图灵机。而且,如果所有的数学决策问题都可以通过遵循一个公式来解决,那么任何决策问题,都能够通过构建图灵机来求解。为了解希尔伯特问题,你所要做的就是证明有一些决策问题是任何图灵机器都无法回答的。图灵就是这么做的。图灵证明了他的机器可以变成通用的解题的机器,我们现在称这些通用图灵机为通用图灵机。现在,还没有任何意识模型能够与图灵机媲美。

机器能有情感吗?

机器人已经可以模仿情感,并且看起来有情感。不过,这些“情感机器人”,只是按照程序进行操作,并非拥有任何人工意识。例如,情感机器人通过说“请不要关掉我”和“我害怕黑暗”的方式,让它们看起来好像有感觉。这反过来又影响了人们与他们的互动方式。

人工智能正被开发用来解读人类的情绪。人类和动物作为社会性生物,依靠情感相互作用和理解。肢体语言、语调和语调都能表达我们的感情和情绪,通常是自发的和自动的。能够理解这些信号被称为情绪智力,并被描述为“人类互动成功的关键”。这些机器人被开发用来学习和解释人类的情感,通过解释音调、声音、肢体语言(如面部表情)中的线索。然而,目前还没有任何机器人能够以同样的方式复制这种情绪和“感受”情绪。

也许人工意识的发展还没有达到机器人能感觉到情绪的程度的原因之一,是因为我们想要机器人感觉到情绪的原因似乎并不多。有一个强有力的论据认为,如果没有人工情感或人工意识,机器人的工作效率会更高,尤其是在工作场所考虑机器人时,会适得其反。如果机器人能“感觉”疲劳或情绪化,从而从他们的核心职责分心,真的有什么优势比人类工人?

然而,在其他一些行业,机器人会照顾病人,人工意识和情感可能是有益的。例如,在如今的养老院中,一些人工智能被用来照顾老人或体弱者,而且人工智能越是人性化,他们就越能与所照顾的人建立“关系”,从而改善他们的功能。

有意识机器带来的棘手问题

人工智能越来越聪明,越来越快。这就产生了我们无法回答的棘手问题。

未来,随着人工智能变得越来越复杂和无处不在,我们可能被迫重新思考我们如何对待人工智能的是非,甚至他们如何对待我们。

目前,人工智能在本质上只有狭窄的能力,执行诸如图像识别、欺诈检测和客户服务等任务。但是,随着人工智能的发展,它们将变得越来越自主。在某个时候,他们很可能做错了。我们可能不得不接受这样一个事实,即我们并不总是理解为什么人工智能会这样做事情,并生活在这种不确定性之中。随着时间的推移,人工智能可能变得如此复杂,以至于无论我们是否理解它们,它们都将被视为对自己的行为负有法律和道德责任。在法律上,非人类实体已经可以通过所谓的企业人格:企业以与人相同的方式拥有合法的权利和责任。也许有一天,这同样适用于AI。

用“意识”这个词来描述AGI的问题是,它带来了人性的某些内涵。如果机器被认为是有意识的,那么一些伦理和法律方面的考虑就会起作用。

这意味着,在未来,如果我们能认定AI有罪,我们甚至可能要考虑,如果他们不了解自己行为的是非,是否应该为自己的罪行受到惩罚?而这往往是人类承担刑事责任的一个门槛。

惩罚的问题也带来了权利的问题,以及人工智能是否有任何可能被惩罚的方式侵犯的问题。但对一些人来说,即使是在人权对人类仍然不普遍的时候讨论人工智能的权利——人工智能的能力最多也要几十年才能与人类相匹配——这一想法似乎也比技术领先了一段距离。

“机器人权利”的概念以前经常被讨论。按理说,如果我们能够成功地创造出一台有意识的机器,那么它就有一个令人信服的理由,即享有权利和法律保护。人类不会阻止那些智商较低的人得到同样的保护和权利。他们被所有人所享受,仅仅是因为他们是人。如果未来的机器真的是智能的,并拥有人工意识,他们在什么时候会获得权利?

但是,如果机器人的设计、编程和制造都是为了服务人类,那么机器人权利的想法似乎适得其反。例如,在乔安娜·布赖森(JoannaJ.Bryson)认为,机器人应该被视为奴隶,因为他们将是仆人,而把机器人和人类放在一起考虑是错误的。布赖森认为,事实上,我们拥有机器人,从外观到智能,机器人的一切都是由人类直接或间接设计的。她认为,利用人类对人工智能的同理心可能是潜在的危险。

道德和伦理问题很重要。随着人工智能道德地位的提高,我们可能还需要处理另一个道德问题。如果人工智能拥有比我们更高的智能和感知水平,那最终是否意味着他们应该得到比我们更高的道德地位?如果我们必须在拯救人工智能和拯救一个人之间做出选择,我们是否必须选择人工智能?

表1列举了未来人工智能发展带来的诸多问题中的一部分(收集来自网络)。

表1若干棘手问题

l训练数据问题:n我们能否避免根据训练数据向某些群体提供不公平的机会?n我们如何确保用于训练人工智能的数据集是公平和平衡的?n不平等的数据获取会带来什么后果?l隐私问题:n随着自动化系统越来越多地跟踪我们,我们如何保护我们的隐私?n我们如何控制用来训练人工智能的关于我们自己的数据?l安全问题:n在一个建立在人工智能基础上的世界里,会发生什么样的意外失败?n什么样的对抗性攻击可能被用来故意让人工智能对我们不利?l可解释性问题:n我们如何在人工智能系统中建立透明性和可解释性?n构建本质上是“黑匣子”的不透明系统可能会产生什么后果?l责任问题:n当人工智能系统出现故障时,谁对其负责?n当人工智能系统失败时,什么样的影响是公平的?n在自主算法时代,哪些法规可能有助于确保公平性?n人工智能将如何影响金融不平等或集中财富?n建立自动化金融系统的后果是什么?n我们怎样才能减轻工人因自动化机器而失去工作的影响?l价值观问题:n我们怎么能与那些天生缺乏人类价值观的机器共存呢?n我们应该在人工智能中嵌入什么价值观?n你能给机器人一个灵魂吗?n机器人是仁慈的还是敌对的?n有没有可能教机器伦理、同理心或同情心?n当一个可以重写自己代码的程序偏离了它的创造者实现目标的意图时,会发生什么?n如果人工智能将人类“边缘化”以优化特定结果,可能会发生什么情况?n我们如何防止某些人群受到人工智能的歧视或边缘化?l权力、地缘政治和战争问题:n人工智能将如何影响地缘政治力量?n人工智能将如何改变战争?n可以用人工智能制作一段看似真实的假视频或录音,社会将如何适应后真相的世界?n人工智能将如何影响或促成社会操纵?l环境持续性问题:n人工智能能使我们的环境恢复平衡吗?n智能机器如何保护、保护和培育生态系统和生物物种?n人工智能能开发100%的可再生能源,让我们摆脱化石燃料吗?l艺术与创意问题:n自主机器能有创造力并真正创造艺术吗?n人工智能系统将如何增强和增强人类的创造力?

结语

上一篇博文(《机器学习漫谈:还有很长的路要走》)的结语提到,“人们试图制造一台机器,它像人类一样进行各种活动。达到这个科学史上最为雄心勃勃的目标,还有很长的路要走”。路在何方?前面提到的剑桥大学教授迈克尔·沃尔德里奇的一本书的书名给出了回答:《TheRoadtoConsciousMachines(有意识机器之路)》。当然,这条路还淹没在迷雾中,很不清晰。

人工智能是人类真正的革命事业之一。它将改变我们的经济和社会。如果我们做对了,世界将会变得更好,有助于根除贫困和应对气候变化。当然,与任何技术一样,通往有意识机器之路,并非平坦的大路,甚至存在风险。但是,人类往往会意识到技术何时会产生重大负面影响,最终会处理好它。人类掌握着控制权,自然会尝试并利用科技创造一个更美好的世界。

参考资料

[1]Gamez,D.HumanandMachineConsciousness.OpenBookPublishers,Cambridge.2018.

[2]MichaelWooldridge.TheRoadtoConsciousMachines.TheStoryofAI.PenguinBooks.2018

https://arxiv.org/abs/2011.09850

[3]ManuelBlum,LenoreBlum.ATheoreticalComputerSciencePerspectiveonConsciousness.arXiv:2011.09850.[Submittedon18Nov2020(v1),lastrevised21Jan2021(thisversion,v3)]

转载本文请联系原作者获取授权,同时请注明本文来自王宏琳科学网博客。

链接地址:http://blog.sciencenet.cn/blog-3005681-1287359.html

上一篇:机器学习漫谈:还有很长的路要走返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇