如何正确看待具有人类意识的人工智能
编译|AI报道
4月23日是世界读书日,AI报道为大家推荐由企鹅出版社出版的《PossibleMinds:Twenty-FiveWaysofLookingatAI》。在这本书中,编者JohnBrockman汇集了25位人工智能领域知名学者的观点。
这次我们推荐的是书中丹尼尔·丹尼特(DanielC.Dennett)对于人工智能是否能具备人类的意识的观点和看法,此文曾发表在《连线》杂志,标题为“WillAIAchieveConsciousness?WrongQuestion”
丹尼尔·丹尼特(DanielC.Dennett),1942年出生于美国波士顿,1965年取得牛津大学哲学博士,现任塔夫茨大学哲学教授与认知科学研究中心主任。2016年9月,被美国教育网站TheBestSchools选为全球50位最具影响力的健在哲学家。丹尼尔曾接受金融时报记者JohnThornhill的采访,表达了其对当代人工智能,机器人和宗教的观点,并就当今世界哲学家扮演的角色表达了看法,字句之间充满着哲人的睿智与犀利。
AI报道将原文编译如下:
1950年,当控制论之父诺伯特维纳(NORBERTWIENER)在写《人有人的用处》(theHumanUseofHumanHuman)这本书时,真空管仍是主要的电子元件,当时只有少数几台真正运行的电脑。
但维纳当时对未来(也就是我们的现在)的想象,那些令人印象深刻的细节,几乎没有明显的错误。他比任何其他早期人工智能哲学家都更清楚的意识到,人工智能不仅会在许多智能活动中模仿并取代人类,还会在这个过程中改变人类。维纳写道:“我们不过是不断流动的河水中的漩涡。”“我们不是一成不变的东西,而是让自己永存的模式。”
例如,当有大量具有吸引力的机会存在时,人类往往愿意付出一点代价,并接受一些很小的、甚至微不足道的经商成本,来获得新的权力。很快,人类变得非常依赖新工具,以至于失去了独立发展成长的能力。选择成为必修课。
有这么一个古老的故事,在这个故事里发生了许多进化史上有名的场景。那时,大多数哺乳动物都能自己合成维生素C,但灵长类动物却选择了以水果为主的饮食,因此失去了这种天生的能力。我们称之为人类的自我延续模式,而现在人类依赖衣服、熟食、维生素、疫苗、信用卡、智能手机和互联网,未来还要加上人工智能。
维纳预见到了一些这种早期状态的问题,而艾伦·图灵和其他早期的人工智能乐观主义者却基本上忽略了这些问题。维纳表示,真正的危险是--这样的机器是不可能靠自己运作起来的,但它们却可以由一个人或一群人用来加强对其他种类的控制,政治领导人可能不是通过控制机器而是试图通过狭隘和漠视人类可能性的政治手段去控制他们的人口,事实上,他们就是被机械地构思出来的。
毫无疑问,这些危险现在无处不在。
例如,在媒体领域,在那些发烧友和电影爱好者的眼中,数字音频和视频的创新让他们为放弃模拟格式时付出了很小一部分的代价,而作为回报,他们也可以轻而易举反地以近乎完美的保真度复制唱片。
但这背后隐藏着巨大的成本。奥威尔的“真理部”(乔治·奥威尔的政治讽刺小说《一九八四》中,专门制造假新闻的部门被冠名为“真理部”)现在有了切实可行的可能性。人工智能技术可以制造出几乎无法检测真伪的“记录”,这将使得过去150年来习以为常的调查工具变得过时。
人类会简单地放弃短暂的摄影证据时代,回到记忆和信任提供黄金标准的早期世界,还是在真理的军备竞赛中开发新的防御和进攻技术?(可以想象回到模拟电影的曝光模式,保存在“防篡改”系统中,直到向陪审团展示等等,但是要多久才会有人想出一种方法去质疑这种系统?)
从最近的经验中得出的一个令人不安的教训是,破坏信誉声誉的代价远低于保护这种声誉的代价。维纳从最普遍的角度看待这一现象:“从长远来看,武装我们自己和武装我们的敌人之间没有区别。“信息时代也是虚假信息时代。
人类能做什么?在我看来,一个关键的短语,即“这些机器本身是无助的”,是维纳几乎是不加思索的观察得出的结论。就像我最近一直在争论的那样,人类在制造工具,而不是同伴,最大的危险在于没有意识到这种差异,人类应该努力强调这种差异,用政治和法律创新来标记和捍卫这种差异。
人工智能目前的表现是依赖于人类的智慧的,但它却不分青红皂白地吞噬着人类造物者所创造的一切,并从中提取出可以找到的模式——包括人类一些有害的习惯。这些机器还没有目标、策略和自我批评和创新的能力,是无法通过反思自己的思维和目标来超越数据库。
正如维纳所说,它们是无能为力的,并不是因为他们是被束缚的智能体或残缺的智能体,而是因为它们根本不是智能体——根本没有能力“被理性所感动”。重要的是人类要保持这种状态,当然,这需要一些努力。
从长远来看,“强人工智能”或通用的人工智能在原则上是可能的,但并不可取(后面会详细介绍)。如今,可能会出现更受约束的人工智能,它并不一定是邪恶的,但也带来了一系列的危险——主要是它可能会被误认为是强大的人工智能!
许多外行或内行的人都低估如今的系统与主导大众想象的科幻系统之间的差距,这种差距仍然很大。以IBM的沃森为例,它可以作为人类想象力中一个有价值的里程碑。
沃森是一个涉及很多人超大规模研发过程的结果,得益于数百年的智能设计,它消耗的能量是人类大脑的数千倍。沃森在节目《Jeopardy!》的胜利虽然有点勉强,但这是一场真正的胜利,这得益于危险的程式化限制才得以实现,但为了让它有竞争力,甚至这些规则也必须被修改(其中一个折衷方案是:放弃一点通用性、一点人性化,最后获得一个受欢迎的节目)。
尽管IBM发布了误导性广告来暗示沃森具备一般的对话能力,而且把沃森变成一个似乎是多维度的智能体,就像把一个手动计算器变成沃森一样,但沃森并不是一个好公司。沃森可能是这种智能体中一个有用的核心部分,但更像是小脑或杏仁核,而不是大脑,充其量是一个专用的子系统,它可以发挥很大的支持作用,但完成构建任务框架的目的和计划以及建立对话上深入挖掘的能力还是远远不够的。
为什么人类要从沃森身上创造出一个有思想、有创造力的智能体呢?也许图灵关于操作测试的绝妙想法——著名的图灵测试——把人类引入了一个陷阱:至少要在屏幕后面创造一个真实的人的幻觉,构建起“恐怖谷”的桥梁。
这里的危险在于,自从图灵提出他的挑战(毕竟,这是一个愚弄裁判的挑战)以来,人工智能的创造者们就一直试图用可爱的类人动作,例如迪士尼化的效果,来迷惑外行和解除外行的疑虑。约瑟夫·魏森鲍姆(JosephWeizenbaum)创造的伊莱扎(ELIZA)是一个非常早期的聊天机器人,就是这种肤浅的错觉制造的先驱。它的程序简单得可笑,却能轻而易举地说服人们进行一场认真的心灵对话,但这让约瑟夫·魏森鲍姆感到沮丧,哪怕这是伊莱扎第一次执行任务。
约瑟夫·魏森鲍的担心是对的。如果说人们从年度罗布纳奖限制性图灵测试竞赛中学到了什么的话,那就是---即使是非常聪明的人,如果他们不了解计算机编程的可能性和捷径方式,也很容易被简单的技巧所迷惑。
对这些在人工智能“用户界面”上伪装的方法,人们的态度有轻蔑也有庆幸的。他们普遍认为,这些伎俩并不深奥,但可能很有效。一个非常受欢迎的态度转变就是坦率地承认人性化的掩饰是虚假的广告——这是要谴责的,而不是称赞的。
这是怎么做到的呢?一旦我们认识到,人们开始在很大程度上是基本人工智能的“建议”来做出生死攸关的决定,而人工智能系统的内部操作是深不可测的。在实践中,我们可以找到一个很好的理由,那就是那些以各种方式鼓励人们更信任这些系统的人,应该在道德上和法律上承担责任。
人工智能系统是非常强大的工具——正因为如此强大,以至于即使是专家也有充分的理由不相信他们的工具所提供的“判断”。但是,如果这些工具使用者想要在未知领域驱动这些工具获得经济或其他方面的好处,他们需要确保自己知道如何负责任地做到这一点,并拥有最大的控制权和正当理由。
正如对药剂师、起重机操作员和其他因为错误和误判会产生可怕后果的专家进行授权和许可一样,人们也会对这些系统的操作者进行授权许可和绑定。在保险公司和其他保险商的压力下,迫使人工智能系统的创造者,竭尽全力寻找和揭示他们产品中的弱点和漏洞,并培训那些有资格操作这些系统的人来警惕这些人工智能系统。
事实上,能够抵制把一个表面上的人当作人来对待的诱惑,是一种丑陋的天赋,散发着种族主义或物种歧视的味道。许多人会发现,培养这样一种无情的怀疑态度在道德上是令人反感的,我们可以预见,即使是最熟练的系统用户偶尔也会屈服于“与”他们的工具交朋友的诱惑,哪怕只是为了减轻他们在履行职责时的不适。
无论人工智能设计师如何小心翼翼地为他们的产品洗去虚假的“人类”痕迹,我们都可以遇见到,一个繁荣时期出现大量的捷径、变通方法,以及对系统及其操作人员的实际“理解”的扭曲。电视上广告的新药的已知副作用列表让人无语,但与某些特定系统无法负责任地回答的问题的强制性披露相比,这些问题将相形见绌,那些“忽视”产品缺陷的制造商将受到严厉惩罚。(人们普遍注意到,当今世界日益加剧的经济不平等在很大程度上是由数字企业家积累的财富造成的;为了公众利益,我们应该制定立法,让他们把雄厚的资金交由第三方保管。)
我们不需要人造的具有意识的智能体。有太多的自然意识的智能体,足以处理任何应该保留给这样的特殊和特权的实体的任务。我们需要的是智能工具。工具没有权利,不会有可能受到伤害的感觉,也不会对无能的用户强加给它们的“滥用”产生怨恨。
不制造有人类意识的智能体的原因之一是,不管它们变得如何智能化(原则上可以有自主能力,自我增强型或自我创造性),如果没有可能会被放弃的特别规定,它们不会与我们这些具备自然意识的智能体分享我们的脆弱性或我们的死亡。
我曾经在塔夫茨大学举办的一场关于人工智能体和自主性的研讨会上,向学生们提出了一个挑战:给我一个能与你签署有约束力的合同机器人的规格说明书,它不是作为某个人类的代理人,而是作为它自己的代理人。这不是一个让它理解条款或在纸上用笔的问题,而是作为一个道德上负责任的智能体拥有并理应拥有法律地位的问题。小孩子不能签订这样的合同,那些法律地位要求他们由这样或那样的监护人照顾和负责的残疾人也不能。
对于想要获得如此崇高地位的机器人来说,问题在于,它们和超人一样,刀枪不入,无法做出可信的承诺。如果他们食言,会发生什么事?违反诺言的惩罚是什么?被锁在牢房里,或者更有可能被拆除?除非我们首先安装了人工智能本身无法忽视或禁用的功能(考虑到人工智能的狡诈和自知之明,在系统上讲,很难要让它成为万无一失的解决方案),否则,对人工智能来说,被锁起来几乎没有什么不便;而且如果保存了人工智能设计和软件中存储的信息,那么拆除人工智能(无论是机器人还是像沃森这样的智能体)也不会杀死它。
数字记录和传输非常容易,这一突破使得软件和数据实际上是不朽的。将机器人从弱势群体的世界中移除(至少是通常想象的那种拥有数字软件和记忆机器人)。如果这不是显而易见的,想想如果我们每周都能“备份”一些人,人类的道德会受到怎样的影响。如果没有蹦极绳索的帮助,周六你头朝下从一座高桥上跳下,周日早上,你恢复周五晚上的备份,你将不会记得这一切,但是你可以欣赏你明显死亡的过程。
因此,我们创造的不是,也不应该是一个有意识的人型生物,而是一个完全新型的实体,没有良知,没有对死亡的恐惧,没有让人分心的爱恨,没有个性(但各种弱点和怪癖,毫无疑问会被称为系统的“个性”):真理盒(如果我们幸运的话)几乎肯定会被散布谎言所污染。
如果我们不在自己被这些人工智能将奴役我们的幻想上有所考虑,那么我们将很难学会与它们共存。人类对人类的利用很快就会再一次发生永久性的改变,但如果我们对自己的发展轨迹负责,就能在一些危险中掌舵,向前发展。
来源:AI报道编译自 http://www.wired.com/story/will-ai-achieve-consciousness-wrong-question/