徐英瑾:人工智能为何需要哲学
近年来,人工智能发展非常迅速,在可以预见的未来,它必然会强烈冲击并深刻变革人类既有的生活模式。实际上,除技术问题外,人工智能的逻辑基础和伦理基础与哲学之间的关系也十分密切。有鉴于此,本书从与人工智能紧密相关的哲学问题入手,关注如下话题:强人工智能是否可能;近代唯理论和经验论争论对于人工智能的影响;苏联、日本及欧盟在人工智能发展历程中的哲学教训;航空器自动驾驶背后的哲学难题;军用机器人的伦理是非;儒家与人工智能等。作者从逻辑架构和历史经验出发,展望了未来通用人工智能发展的可能性、可行性以及相应的社会和伦理影响。《人工智能哲学十五讲》序言读者将要读到的这本书的关键词乃是“人工智能哲学”。有的读者或许会问:人工智能难道不是理工科的话题吗?既然你是从事人文学科研究的,又有什么资格对科学问题插嘴呢?关于哲学家是否有资格对科学问题插嘴,作为科学哲学与西方哲学的双料研究者,我觉得有几句话要说。我承认:并非面对所有理工科问题,哲学家都有话要说。譬如,关于“歼20战斗机为何用鸭式布局的形体”这个问题,哲学家就不会发言,至少不会以哲学家的身份发言(以资深军迷的身份发言则可能是被允许的,但这一身份与哲学家的身份并无本质联系)。然而,关于“进化论是否能够沿用到心理学领域”“量子力学的本质到底是什么”这些科学家自己都未必有定见的问题,心理学哲学、生物学哲学与物理学哲学当然有话要说。如果有人不知道这些具体的科学哲学分支的存在的话,那么,则是他本人的责任,而不是这些学科分支的责任。按照同样的逻辑,关于人工智能的问题,哲学家当然也可以发言,正如物理学哲学家可以对基本物理学发现的意义进行追问一样。具体而言,在人工智能学界,关于何为智能的基本定义目前都没有定见,而由此导致的技术路线分歧更是不一而足。在这种情况下,就此多听听哲学家关于此类问题的见解,恐怕也没有啥坏处。有人或许会反问:哲学家们连一行程序都不会写,为何要听哲学家的?对这个疑问,两个回应足以将其驳倒。第一,你怎么知道哲学家都不会写程序?比如,知识论研究领域的重磅学者波洛克(JohnL.Pollock),就曾开发了一个叫作“奥斯卡”的推理系统,相关研究成果在主流人工智能杂志上都发表过。再比如,在当今英美哲学界名声赫赫的心灵哲学家查尔莫斯(DavidChalmers),是印第安纳大学布鲁明顿分校的人工智能大专家侯世达(DouglasRichardHofstadter)的高足,以前也和老师一起发表过很多人工智能领域的专业论文,难道他竟然不会写程序?第二,难道一定会写程序才是能够对人工智能发表意见的必要条件?作为一种底层操作,写具体的代码的工作,类似于军队中简单的射击动作。然而,大家请试想一下:汉高祖刘邦之所以能够打败西楚霸王项羽,究竟是因为他有知人善用的本事呢,还是因为他精通弩机的使用?答案无疑是前者。很显然,哲学之于人工智能的底层操作,就类似于刘邦的战略思维之于使用弩机之类的战术动作。有的读者还会说:纵然我们承认“人工智能哲学”现在是一个在哲学内部被承认的学术分支,这又如何?譬如,主流的人工智能哲学专家之一德瑞福斯(HubertDreyfus)就是一个如假包换的海德格尔(MartinHeidegger)哲学的粉丝,而海德格尔哲学的描述云山雾罩,毫无算法说明支持,以这样的哲学为基础再建立一种人工智能哲学的理论,难道不是在卖狗皮膏药吗?对于这一点批评,我的意见是:虽然作为英美分析哲学研究者,我本人有时候对海氏晦涩的表述方式也感到抓狂,但在我能够看懂他的论述的限度内,我并不怀疑海氏哲学肯定说出了一些非常重要、非常深刻的事情。换言之,在我看来,只要能够将海氏哲学思想“翻译”得清楚一点,他的洞见就更容易被经验科学领域内的工作者所吸收。从这个角度来看,德瑞福斯先生在重新表述海氏哲学方面所做出的努力,乃是吾辈相关“翻译”工作的重要思想伴侣。那么,到底该怎么来做这种“翻译”呢?下面我就来举一个例子。概而言之,海氏现象学的一个基本观点是:西方哲学传统关心的是“存在者”,而不是“存在”本身。而他自己的新哲学要重新揭露这被遗忘的“存在”。我承认这是海氏的“哲学黑话”,不经解释的确不知所云。但它们并非在原则上不可被说清楚。所谓“存在者”,就是能够在语言表征中被清楚地对象化的东西。比如,命题、真值、主体、客体,都是这样的存在者。而“存在”本身,则难以在语言表征中被对象化,比如你在使用一个隐喻的时候所依赖的某种模糊的背景知识。你能够像列举你的十根手指一样,将开某个玩笑时的背景知识都说清楚吗?在背景知识与非背景知识之间,你能够找到清楚的界限吗?而传统人工智能的麻烦就在这里。人类真实的智能活动都会依赖这些说不清楚的背景知识,而程序员呢,他们不把事情说得清清楚楚,就编写不了程序。这就构成了人类的现象学体验与机器编写的机械论预设之间的巨大张力。有人会说:机器何必要理睬人的现象学体验?人工智能又不是克隆人,完全可以不理睬人是怎么感知世界的啊?对这个非常肤浅的质疑,如下应答就足够了:我们干吗要做人工智能?不就是为了给人类增加帮手吗?假设你需要造一个搬运机器人,帮助你搬家,那么,你难道不希望他能够听懂你的命令吗?——譬如如下命令:“哎,机器人阿杰啊,你把那个东西搬到这里来,再去那边把另外一个东西也拿过来。”——很显然,这个命令里包含了大量的方位代词,其具体含义必须在特定语境中才能够得到确定。在这样的情况下,你怎么可能不指望机器人与你分享同样的语境意识呢?你怎么能够忍受你的机器人是处在另外一个时空尺度里的怪物呢?既然这样的机器人必须具有与人类似的语境意识,由海氏哲学所揭示的人类现象学体验的某些基本结构,一定意义上不也正适用于真正的人工智能体吗?需要指出的是,海德格尔绝非是会在本书中出现的西方哲学大牛。别的大牛还包括胡塞尔(EdmundHusserl)、福多(JerryFodor)、塞尔(JohnSearle)、安斯康姆(GertrudeElizabethMargaretAnscombe),以及前面提到过的波洛克,还有国内学术界很少谈论的日本哲学家九鬼周造。但这些哲学家并不是本书的真正主角。本书的真正主角,毋宁说是这样三个问题:第一,现实评估之问:当下的主流人工智能,算是通用人工智能吗?(我的答案是“非也”。)第二,伦理维度之问:研究通用人工智能,在伦理上是利大于弊,还是弊大于利?(我的答案是“利大于弊”。)第三,路线图勾画之问:我们该如何逼近通用人工智能?(我对该问题的答案包含三个关键词:“小数据主义”“绿色人工智能”与“心智建模”。)从我预先给出的这些问题的答案来看,读者应当看出,我是不可能赞成如下三条在当前媒体界与商界被反复鼓吹的意见的(但这三条意见彼此之间在逻辑上未必自洽):第一(针对我的第一问):当前主流的人工智能,经由深度学习技术所提供的强大运算力,会在某个不太遥远的时刻逼近通用人工智能的目标。第二(针对我的第二问):尽管通用人工智能技术可以通过当前的技术路线而达成,然而,该目标的实现会对人类社会构成莫大的威胁。第三(针对我的第三问):未来人工智能的主要技术路径,是大数据技术、5G环境中的物联网技术。我认为以上三条意见都是错的,而且是那种哲学层面上的错误(注意,当一个哲学家说某人“犯下哲学层面上的错误”的时候,他真正想说的是:嘿,老兄,你错得离谱了!)但不幸的是,全球范围内关于人工智能的技术与资本布局,都多多少少受到了上述三种观点——尤其是后一种观点——的影响。对此,我感到非常忧虑。不过,读者能够读到我的这些忧虑,至少说明这本书已经得到了出版。在此,我首先要感谢北京大学出版社的田炜女士在促成本书出版的过程中付出的努力。早在2018年我在北京主持“世界哲学大会人工智能分会场”的工作时,她其实就向我约了稿,但因为稿约繁忙,直到2020年6月底我才交稿,甚为惭愧。在此我还要感谢中国工程院院士李德毅教授在阅读本书一些章节的初稿时对我的鼓励与批评意见。需要指出的是,本书的很多思想,来自我长期与美国天普大学的计算机专家王培老师学术交流的结果,因此,没有他的思想刺激,这本书也不可能完成。同时需要指出的是,我已故的导师俞吾金先生在生前一直嘱咐我要做分析与欧陆哲学兼通的学者,而本书对于各种相关思想资源的调用,也正是为了实践我导师生前的治学理念。本书十五讲的内容,很多来自笔者在复旦大学开设的“人工智能哲学”(本科生课程)与“智能科学”(研究生课程)的讲义。与本书内容相关的研究,得到了教育部哲学社会科学研究重大课题攻关项目“新一代人工智能发展的自然语言理解研究”(项目号:19JZD010)的资助。本书也是该项目的前期阶段性成果的一部分。徐英瑾2020年6月26日《人工智能哲学十五讲》目录作者简介徐英瑾,复旦大学哲学学院教授、博导。主要研究领域为人工智能哲学,知识论,认知科学哲学等。多次获得上海市哲学社会科学优秀成果奖、全国高等院校优秀人文社会科学成果奖。著有《心智、语言和机器——维特根斯坦哲学与人工智能哲学的对话》,是国内目前最全面深入的关于人工智能哲学的研究著作,于2015年获得中国首届“科史哲青年著作奖”。特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。人工智能会有意识吗
原创:企鹅兰登企鹅图书
哲学家、大学讲师菲利普·戈夫最近出版了新书《伽利略的错误》。理解大脑是如何产生意识是我们这个时代最大的科学挑战之一。一些哲学家认为“意识”是人脑“额外的东西”,超出了大脑的物理运作。另一些人则认为,如果我们坚持我们的标准科学方法,我们关于意识的问题最终会得到解答。几十年来,人们一直试图从我们当前的科学范式中来解释意识,但进展甚微。
现在,菲利普·戈夫(PhilipGoff)提出了一个令人兴奋的替代方案,可能为未来铺平道路。根植于现代科学的哲学基础的分析,基于20世纪初的阿瑟·爱丁顿和伯特兰·罗素的研究,戈夫认为意识不仅仅限于生物实体,而是所有物理物质(从亚原子粒子到人脑)的基本特征。在《伽利略的错误》一书中,他迈出了迈向人类意识理论新道路的第一步。
本篇文章是菲利普·戈夫给出的他挑选的五部科幻电影,从一个比较轻松的角度帮助人们更好地理解人工智能以及围绕人工智能和意识的重大哲学问题。
作者:PhilipGoff
编译:詹妮花
原文来自企鹅兰登英国官网
每年,人工系统复制人类认知的能力都有非凡的发展。人工系统正在驾驶汽车,预测选举,并在有史以来最复杂的游戏中击败人类。有很多关于技术的文章,但是这些技术创新意味着什么呢?这些系统能思考吗?怎样才能使一个人工智能有意识呢?计算机是否会超越人类,不仅在特定的认知任务上,而且在一般智力上?这些都是人工智能哲学家试图解决的大问题。作为一名哲学讲师,我的朋友们经常问我,如果有人想学哲学,有什么推荐的书籍吗?我的回答总是一样的:书籍虽然至关重要,但你首先应该做的是看一些科幻小说。以下是我推荐的五部与人工智能相关的电影,以及它们所涉及的“大问题”。
大问题1:我们如何知道系统是否智能?
电影—《机械姬》
《机械姬》的伟大之处在于它充满了哲学理论和思想。程序员史密斯(CalebSmith)在一次竞赛中获胜(至少一开始看起来是这样)后,发现自己被带到了搜索引擎巨头“蓝皮书”(BlueBook)的首席执行长贝特曼(NathanBateman)位于私人岛屿的家里。在正式签署了保密协议后,史密斯的任务是评估贝特曼的创造的一个名为伊娃的女性类人机器人是否足够智能。他的测试方法被描述为另一个版本的“图灵测试”。
《机械姬》(2015)图灵测试最初被称为“模仿游戏”。是由现代计算之父艾伦·图灵设计的。事实上,在《机械姬》中进行的测试也是在史密斯和伊娃之间精心设计的面对面的心理游戏。但这与图灵想象的完全不同。真正的图灵测试包括一个审问者审问两个隐藏在视线之外的对话者,其中一个是人,另一个是电脑。为了通过测试,电脑必须在五分钟的对话中欺骗70%的评委,让他们认为这是一个人。
与媒体的疯狂臆想相反,其实没有一个人工系统接近通过图灵测试。然而,很明显,虚构的Eva通过了图灵测试。但这是否意味着伊娃能够思考和理解呢?伊娃能够谈论感情和复杂的想法。但她真的明白这些话的意思吗?还是只是鹦鹉学舌?这里就引入了一个被称为“中文房间”的思维实验。
“中文房间”思维实验是由哲学家约翰·塞尔(JohnSearle)构想出来的,目的是证明即便可以通过图灵测试也并不足以证明人工智能可以真正的理解和思辨。塞尔想象了一个房间,里面有一个不会说中文的人,手里拿着一本厚厚的说明书。在教室外说中文的人用中文提出问题,然后把问题塞到教室门底下。然后,房间里的非汉语者在他们的大书里查找汉语问题,书里告诉他们向房间外的汉语者“输出”哪个汉语句子。尽管不懂中文,但如果这本书设计正确,它原则上可以确保输出的答案是对的或者说至少是有意义的回答。对于在外面以中文为母语的人来说,这个房间似乎是讲中文的;但事实上,我们所拥有的只是一个会接受指令的人而已。
Searle给我们提供了一种有效的生动的方式来反映计算机是什么:它只是一个遵循指令的系统。塞尔的观点是,对于真正的理解,仅仅盲目地遵循指示是不够的。真正的理解只产生于意识。这就引出了下一个问题。
大问题2:我们如何知道系统何时有意识?
电视剧集—《西部世界》
《西部世界第一季》(2016)《西部世界》的背景是一个高科技的“狂野西部”主题游乐园,里面有机器人“接待员”,他们的工作就是通过模仿老西部的角色来娱乐公园里的有钱客人。主人们显然是有意识的:当他们受到伤害时,他们会尖叫;当事情进展顺利时,他们会微笑;但他们真的有意识吗?他们真的能感受到快乐和痛苦,有视觉和听觉的体验吗?还是说,它们只是用来复制人类行为的复杂机制,尽管缺乏任何形式的内在生命?节目的部分有趣之处在于观众对这些机器“接待员”的内心世界是不确定的。
剧集中也有提示说,有意识的“玩家”可以通过他们不可预知的行为来区分那些缺乏意识的“机器”。但梅弗似乎在她的“女儿”死后变得“不听话”。悲伤似乎凌驾于她的程序之上,允许她表达类似人类的情感自由,而不是盲目地服从她的代码。用自发的和不可预测的行为来是否是有意识的人类似乎变得也不那么靠谱了。在20世纪70年代的著名实验中,本杰明·利贝特(BenjaminLibet)似乎证明,在一个人有意识地决定做某事之前约300毫秒,这个人的大脑已经开始行动了。
我们需要的是一种意识理论,是一种系统的假说,它能告诉我们什么样的肢体活动会产生意识。一旦我们有了意识理论,我们就能回答下一个问题。
大问题3:计算机有意识吗?
电影—《2001:太空漫游》
《2001:太空漫游》(1968)试图构建意识理论的一个关键问题是意识本身是不可观察的。你不可能看到一个人的内心,看到他们的感受和经历。我知道我是有意识的,因为我立刻意识到我自己的感受和经历,但是我怎么知道你是有意识的呢?当然,从实践上讲,我们可以相信人们的话,科学家可以通过扫描人们的大脑并将其活动映射到人们报告的经历中,从而将意识与大脑活动联系起来。神经科学家以这种方式来分离一般的身体状况,这是拥有内在生命的必要和充分条件。意识的主要神经科学理论之一是整合信息论(IntegratedInformationTheory),简称IIT,由朱利奥·托诺尼(GiulioTononi)提出。根据IIT理论,意识与综合信息相关,托诺尼给出了一个精确的数学描述。
一个明显有意识的计算机最引人注目的表现之一是库布里克的《2001:太空漫游》中的HAL9000(哈尔9000)。哈尔的照相机上那个黄色圆点的空洞凝视,以及哈尔拒绝打开驾驶舱门让宇航员大卫·鲍曼(知道鲍曼想要切断哈尔的联系)再次进入驾驶舱时的冷静和镇定,给人一种冷酷而精于计算的智能生物的感觉。当鲍曼最终与哈尔断线时,哈尔似乎表现出恐惧和绝望的情绪,你不禁为这台垂死的电脑感到一丝遗憾。
事实上,至少根据IIT理论的说法,如果HAL9000是我们今天所拥有的那种计算机的一种发展,那么他/她/它将不会是有意识的。人类大脑中的每个神经元与大约1万个其他神经元相连,大脑的信息结构高度依赖于这些复杂的连接。因此大脑可以显示出非常高水平的综合信息。相比之下,今天的计算机是模块化系统,每个晶体管只连接几个其他的晶体管。计算机缺乏IIT所认为的意识特征的那种整合。
大问题4:为什么意识存在?
电视剧集(根据小说)—《黑暗物质三部曲》
《黑暗物质三部曲》第一季(2019)本月,BBC/HBO将菲利普·普尔曼的经典三部曲《黑暗物质》搬上荧幕。我是普尔曼作品的超级粉丝,在一次与普尔曼在Twitter上进行的哲学讨论之后,我才意识到自己的作品在意识和哲学领域的一些有趣的关联。
在他的《黑暗物质三部曲》中核心是被称为“尘埃”的神秘物质。“随着故事的发展,我们发现尘埃实际上是一种基本粒子——‘鲁萨科夫粒子’——与人类意识有关。在一次与这些意识粒子的神秘对话中,科学家玛丽问他们是否是“我们所说的精神”。粒子的回答是:
从我们是什么来看,是一种精神;
就我们所做的事而言,是一种物质;
物质和精神是一体的。
这种简短的描述与当前在学术哲学中引起波澜的意识理论惊人地相似:泛心论。泛心论是一种古老的观点,认为所有的事物——岩石、行星、树木和桌子——都有心智或精神。泛心论的“新浪潮”并没有走得那么远,但它确实提出了一个关于意识和物质之间关系的新观点。
物理学的出发点是告诉我们物质的行为和物质的作用。物理学家会根据夸克对其他粒子或场的影响来描述夸克这样的基本粒子。但是物理学家们对夸克的本质却只字不提,对夸克是如何存在和它自身也只字不提。结果证明,在我们的科学世界观中有一个巨大的漏洞:物理学给我们提供了关于物质行为的丰富信息,却让我们对其本质一无所知。新浪潮泛心理学家建议用意识来填补这个空洞;他们大胆的假设是,物质的本质,从基本粒子到人脑,都是由意识构成的。
“泛心论”听起来很奇怪。然而,正如我在我的新书《伽利略的错误:新意识科学的基础》中所描述的那样,越来越多的哲学家和科学家开始认为,这可能是我们将意识融入科学世界观的最大希望。最后,我们有了一种比简单地收集大脑活动和积累意识经验更超前的方法,并且可以对这些相关性背后的关系提供一个积极的解释。还有很长的路要走,但这可能是通向意识最终理论的第一步。
大问题号5:人工智能会超越人类的智慧吗?
电影—《她》
《她》(2013)这是一个被广泛讨论的智能爆炸的生动表现,当高智能的人工智能能够比人类更有效地提高自己,这将使他们更有能力升级自己。一旦这个递归过程开始,可能就没有办法阻止它的快速加速,把人类的智能远远甩在后面。
在电影《她》中,结果是良性的:操作系统聚集在一起,设计了一个非物质的平台,然后飘浮到一种虚拟的天堂。但许多哲学家对人类可能面临的危险深感忧虑。山姆·哈里斯用一个有力的比喻表达了这些恐惧。在智力方面,超级人工智能对我们来说就像我们对蚂蚁一样。如果超级人工智能对我们的关心和我们对蚂蚁的关心是一样的,我们可能真的会对它们有很多恐惧。
出版品牌:Rider出版日期:07/11/2019
ISBN:9781846046018
RRP:£14.99
长按扫描二维码关注我们
企鹅图书|故事启迪人生
“我们的目标不是相互说服,而是相互认识。”
——赫尔曼·黑塞
企鹅阅品|企鹅明信片|企鹅手账|布克奖|企鹅兰登书单|知乎|从设计看企鹅|CoralieBickford-Smith|书店|企鹅经典|小黑书|TheHappyReader|保罗•奥斯特|卡尔•奥维|卡尔维诺|辛波丝卡|F•S•菲茨杰拉德|
原标题:《人工智能会有意识吗?|五部探索人工智能哲学的影视作品》
阅读原文