从辩证唯物主义角度谈人工智能
作者简介:孙闻博,主要研究哲学;自动化技术方向。文章来源:中国新通信,2021年第23期摘要:从辩证唯物主义角度谈人工智能,必须要回答关于人工智能的热点问题,对智能机器人、人机大战和人机关系进行阐释;同时更要阐明自身的人工智能发展观,厘清人工智能与人类智慧的根本区别。辩证唯物主义要在引领哲学与科学、技术与工程以及人工智能发展的过程中,彰显自身的时代意义。关键词:人工智能;科学技术哲学;辩证唯物主义引言
人工智能是20世纪以来迅猛发展起来的一门交叉科学和前沿科学,是半个多世纪以来科学技术发展所取得的重大成果之一,它对社会生活的诸方面甚至于整个人类文明的多维度都产生了强烈效应和巨大影响。辩证唯物主义作为马克思主义哲学的世界观和自然观基础,作为现代唯物主义哲学的科学形态,对于人工智能的探讨,具有重大的理论与实践意义,将有利于哲学和科学在人工智能领域的理论与实践的双重发展。从辩证唯物主义角度谈人工智能,既要回答关于人工智能的热点问题,更要注重阐释辩证唯物主义自身的人工智能观及其时代意义。
一、辩证唯物主义对人工智能热点问题的回答
2016年1月27日,谷歌研究者开发的人工智能机器人“阿尔法围棋”,以5:0完胜欧洲围棋冠军樊麾;2016年3月15日,“阿尔法围棋”又以4:1的总分战胜世界围棋冠军李世石;2017年5月27日,“阿尔法围棋”最终以3:0再次完胜当时的世界围棋冠军柯洁。“阿尔法围棋”象征着计算机技术已经进入人工智能的新IT时代,它的“智慧”在围棋中正在接近甚至超过人类。人工智能在围棋上的突破是具有划时代意义的事件,人机大战正生动地告诉世界人工智能已达到如此的高度,这一切都促使人们更为深入地从哲学角度特别是从辩证唯物主义角度思考人工智能以及人机关系(人与机器人的关系)。
1.1“人工智能”及其本质
第三次科技产业革命以来,科学家和哲学家都会思考这样一个问题:人类能让某种人造机器像人一样思考吗,能造出可以模仿人类大脑功能的机器吗?答案显然是肯定的,这种人造机器就是如今的人工智能机器人,即“人工智能”。然而,辩证唯物主义认为,人工智能是指运用机械和电子装置来模拟和代替人类大脑的部分思维功能,其本质是对人脑思维的模拟与延伸。人工智能只是像人一样思考而不是人的思考,只是对人类大脑功能的模仿而非复制,它达不到人脑思维的高度,更不可能超越人脑。
1.2“人机大战”及其实质
一般而言,“人机大战”有两种层面的含义。第一种,是在资本主义制度下,由于劳动异化导致了科学技术的异化,从而造成了机器对工人的统治以及工人对机器的抗争。正如马克思所说:“机器具有减少人类劳动和使劳动更有成效的神奇力量,然而却引起了饥饿和过度的疲劳。财富的新源泉,由于某种奇怪的、不可思议的魔力而变成贫困的源泉。”“机器劳动极度地损害了神经系统,同时它又压抑肌肉的多方面运动,夺去身体上和精神上的一切自由活动。”这种人机大战的实质是工人对资本主义生产关系的斗争,结果是“资产阶级的灭亡和无产阶级的胜利”,大机器真正意义上成为了劳动人民的生产方式。
第二种,就是在人工智能语境下使用的,从形式上看是指人与智能机器在智力与智慧方面的比拼、角逐甚至对抗,但从内容上看则不然。包括机器在内的任何工具,本质上都是人类自身器官及其功能的延伸,“自然物本身就成为他的活动的器官,他把这种器官加到他身体的器官上,……延长了他的自然的肢体”,而且这种通过工具作为中介的延伸,都属于相对延伸,或者说外部延伸。人对自身器官及其功能的延伸还有一种绝对延伸,或者说内部延伸,在这里,人类不是通过工具而是通过教育和训练等非中介途径,从自身器官内部来绝对地延伸某种功能和力量。例如,通过体育锻炼强健体质体魄,通过文化教育提升思维意志等,都属于区别使用外在工具延伸自然力的内部延伸。人工智能作为机器的一种,当然也不例外地是对人脑思维能力的延伸,而且非内在的外部延伸。而这种人机大战的实质是人脑绝对(内部)延伸与相对(外部)延伸的对战,其结果并不是一方战胜或消灭另一方,而是人脑的相对(外部)延伸居上并带动着包括绝对(内部)延伸在内的人脑整体机能的联动发展。
1.3“人机关系”及其辨析
人类自诞生以来就面对着自由与必然的永恒矛盾,为了追求自由,实现限定中的超越,人类必须不断地制造和使用各种生产工具从事改造自然的实践活动。在以劳动生产为主体的社会实践活动中,为了克服自身劳动器官的局限性,获取到更多的物质财富,人类必须不断改进旧的工具、创造新的工具。从简单手工工具到蒸汽机器,再到电子机器,又到自动化控制装置,最后到人工智能,这不仅是一部物质工具的发展史,也是一部人类社会的发展史。正如马克思所说:“工业的历史和工业的已经生成的对象性的存在,是一本打开了的关于人的本质力量的书,是感性地摆在我们面前的人的心理学”。
1.3.1“人机关系”的一般本质
在人类工业史甚至整个人类发展史过程中,包括机器在内的一切物质工具作为实践中介的根本性质从未也不可能改变,同样的,劳动者、生产者、实践者等“现实的人”作为实践主体的根本地位从未也不可能改变。因而,人机关系的一般本质,就是实践主体与实践中介的互动关系。人工智能虽然是机器系统的最高形态,但其仍然是物质工具的发展环节,它没有也不可能改变自己作为实践中介的一般本质,它始终要受到实践主体的统摄作用。
1.3.2人工智能与“非人”
什么是人?这一问题始终困扰着古今中外的哲学家和科学家。马克思运用历史唯物主义根本立场观点方法,在人类历史上第一次科学揭开了人的本质之谜:“人的本质不是单个人所固有的抽象物,在其现实性上,它是一切社会关系的总和。”而从辩证唯物主义角度出发,恩格斯在《自然辩证法》中科学指出:“人同其他动物的最终的本质的差别……又是劳动”。换言之,现实的人都是劳动的人,劳动是人的“类本质”。
人工智能不是劳动本身,它可以是劳动的产物,也可以是劳动的对象,但更多的是劳动的中介。人工智能是作为工具系统中的超级机器而存在的,它是人类实践活动的中介之一,它是“非人”而绝对不是人,它与人的关系只能是实践中介与主体的关系而绝不是实践主体与主体间关系。
1.3.3人工智能与“准人”
物质生产方式是物质资料生产实践借以运行的方式,从内容上看是生产力与生产关系辩证统一的方式,从结构上看是生产者与生产资料有机结合的方式。在生产过程中,生产者居于主体地位并具有主导性,而生产资料居于中介或客体地位并具有受动性,两者之间有着不容混淆的明确界限。生产资料可以是劳动手段,可以是劳动对象,也可以是劳动成果,唯独不可以是劳动者(生产者)。因而,人工智能在质上属于生产资料,它的变化发展只能在劳动手段、劳动对象和劳动成果的度内进行,永远不可能突破这一度的临界点而质变为生产者。所以,人工智能永远也不能发展成为人,它不是“准人”。
1.3.4人工智能与“超人”
人类思维是至上性和非至上性的统一,人的认识能力也是无限性和有限性、绝对性和相对性的统一。正如恩格斯指出的:“人的思维是至上的,同样又是不至上的,它的认识能力是无限的,同样又是有限的。按它的本性、使命、可能和历史的终极目的来说,是至上的和无限的;按它的个别实现情况和每次的现实来说,又是不至上的和有限的。”这就是说,人类对任何事物的认识与把握,在任何特定的阶段,都是非至上的、有限的和相对的。人类对自身大脑的认识与把握亦是如此。人工智能究其实质而言只是对人脑功能的模仿,它是人类对自身大脑的物质“结构—功能”的认知及模拟,但是人类永远不会穷尽这种认知,也永远不能达到那种绝对的完全模拟,因而人工智能永远都不会达到和人类智慧同等的程度,更不可能升格成为“超人”。
人工智能与“类人”人工智能在某种意义上可以看做是“类人”,“类”即“相像”“近似”之意,正如“类人猿”不是“猿人”一样,“类人”不是人还是“非人”,但它像人而且与人特别是人的思维有近似之处。“类人机器人”的出现,尤为明显地确证并深化了辩证唯物主义关于实践基本结构历史变化的观点。辩证唯物主义认为,实践主体、客体、中介的相互联系形成了实践的基本结构,而实践基本结构的历史变化主要表现为主体通过中介而客体化与客体通过中介而主体化的双向运动。“类人机器人”集中体现了在人工智能实践领域中客体所呈现出的“类主体”特征,也在很大程度上反映出主体所呈现的客体化趋向。
二、辩证唯物主义的人工智能观及其意义
辩证唯物主义的人工智能观是科学的人工智能观,它正确解答了人工智能的存在与发展问题,揭示了人工智能与人类智慧的根本区别,对于哲学、科学和技术特别是人工智能本身的新发展具有重大的时代意义。
2.1人工智能发展观
2.1.1人工智能发展的实质:机器进化
人类在发展过程中为了不断解决自由与必然、主体与客体之间的矛盾,必须不断推动物质工具进化。第一次工业革命实现了物质工具由手工工具到机器工具的飞跃,第二次工业革命实现了机器工具系统内由蒸汽机器到电子机器的质变,新科技产业革命实现了机器由半自动化到全自动化的新突破,而与此同时的智能革命则力图实现全自动机器向人工智能机器的新飞跃。由此可见,人工智能的诞生是机器进化的结果,人工智能的发展过程就是机器进化的历史过程。
2.1.2人工智能发展的途径:结构模拟和功能模拟
人工智能发展主要通过两条途径:一是“结构模拟”,即运用电子仿生技术,依照人脑的内部结构制造“类人脑”机器,来模拟人脑的功能;二是“功能模拟”,即采取黑箱方法,撇开人脑的内部结构,而从功能过程或行为过程上模拟人脑的部分功能。由于人脑的极端复杂性以及现代科学技术水平的制约,人工智能主要是通过功能模拟来实现的,即便最前沿的技术工程试图通过结构模拟来实现人工智能,那也与真正意义上的、完全意义上的结构模拟相距甚远。
2.1.3人工智能发展的科学哲学基础:信息论和控制论
作为实践中介的机器与作为实践主体的人,存在着共同的信息与控制规律,都具有信息转换与控制系统,其活动都表现为特定的信息输入与信息输出的双向控制过程。信息论与控制论通过运用系统方法,从功能上揭示了机器与人等不同系统所具有的共同规律,并以此为依照与电子计算机技术有机结合,在物质实践过程中模拟人脑的部分功能以及主体的部分活动,由此产生并发展了其最重要的实践成果——人工智能。
2.2人工智能与人类智慧的根本区别
人工智能与人类智慧存在着多种多样的区别,这些区别并不会因为人工智能本身的发展而消除,至多是改变了这些区别的存在形式。在这些多种多样的区别中,有没有“社会—历史性”是人工智能与人类智慧的根本区别,这一区别从本质上区分了人工智能与人类智慧,并且制约着两者其它诸种区别的存在形式。
人工智能是机器进化的结果,它在运作过程中无意识探求问题或任务本身的社会意义和历史价值,在执行指令或任务时也不会自觉到这一过程的社会后果和历史影响,即人工智能不具有社会历史性。
人类及其人类智慧是社会性与历史性的统一。正如马克思指出的:“个人是社会存在物”,“不是自然的产物,而是历史的产物”。人类智慧伴随劳动生产及社会实践的需要而产生和发展,是通过社会的教育训练以及对历史上积累沉淀的文明成果的汲取吸收而逐渐形成的。人类复杂多维的社会关系,形成了人类丰富多彩的主观世界,也造就了高卓深邃的人类智慧。
人类智慧能够再现人类思想发展的全部历史逻辑,能够将思维自身作为思维对象,能够把一切社会过程本身同时作为历史过程来思考,能够自觉到主体自身的社会责任感和历史使命感。
2.3辩证唯物主义人工智能观的时代意义
第一,深化了马克思主义意识论,推动了马克思主义哲学的发展。辩证唯物主义人工智能观丰富了意识对物质的能动作用原理,完善充实着马克思主义关于世界物质统一性的思想理论;扩展了意识论的研究领域,将人机辩证关系原理纳入马克思主义意识论体系;开拓了意识论研究的新课题,突出了思维形式和思维规律对思维活动的重要性以及对思维内容的相对性与独立性,这都开辟了马克思主义哲学研究和建设的新天地、新境界。
第二,深化了自然辩证法,推动了自然科学和技术工程的发展。辩证唯物主义人工智能观丰富和发展了马克思主义自然观,深化了自然辩证法唯物论、辩证论和价值论的统一,彰显了自然辩证法的能动性、实践性和革命性。因此,辩证唯物主义人工智能观拓展了人工自然观的研究视野,伴随并引领着“新一代信息技术同机器人和智能制造技术相互融合步伐加快”,既推动自然科学新成果加速向技术工程转化,又推动技术工程新需求和新经验反作用于自然科学的新研究,从而双向、纵横、联动地推进了人工自然观、人工自然技术(尤其是人工智能技术自身)以及人工自然界的共同发展。
第三,为人工智能的进一步发展指明了正确方向,提供了科学方法。应当注意到,人工智能革命并非由科学家在实验室中取得突破后迅速衍生和应用,而是由产业界来带动。因而,如何整合产学研各界,成为一个迫切问题。对此,习近平总书记指出:“深化科技体制改革,建立以企业为主体、市场为导向、产学研深度融合的技术创新体系”;“要坚持创新驱动,推动产学研结合和技术成果转化”。同时,习近平总书记还对当前包括智能革命在内的新科技产业革命的兴起动因以及顺应策略作出了重要指示:“人们对生产生活便捷化的要求,带动了云计算、物联网、移动互联网、大数据等新一代信息技术不断涌现和突破。……发达国家劳动力成本全面上升,促进了智能制造技术迅速发展,使机器人在越来越多领域代替人力。”如何应对智能革命?“要培育发展新产业,加快技术、产品、业态等创新,支持节能环保、新一代信息技术、高端装备制造等产业成长。按照高端化、智能化、绿色化、服务化的方向,实施好《中国制造2025》、‘互联网+’行动计划,积极发展健康、教育、养老、旅游等服务业。”
参考文献:略
徐英瑾:人工智能为何需要哲学
近年来,人工智能发展非常迅速,在可以预见的未来,它必然会强烈冲击并深刻变革人类既有的生活模式。实际上,除技术问题外,人工智能的逻辑基础和伦理基础与哲学之间的关系也十分密切。有鉴于此,本书从与人工智能紧密相关的哲学问题入手,关注如下话题:强人工智能是否可能;近代唯理论和经验论争论对于人工智能的影响;苏联、日本及欧盟在人工智能发展历程中的哲学教训;航空器自动驾驶背后的哲学难题;军用机器人的伦理是非;儒家与人工智能等。作者从逻辑架构和历史经验出发,展望了未来通用人工智能发展的可能性、可行性以及相应的社会和伦理影响。《人工智能哲学十五讲》序言读者将要读到的这本书的关键词乃是“人工智能哲学”。有的读者或许会问:人工智能难道不是理工科的话题吗?既然你是从事人文学科研究的,又有什么资格对科学问题插嘴呢?关于哲学家是否有资格对科学问题插嘴,作为科学哲学与西方哲学的双料研究者,我觉得有几句话要说。我承认:并非面对所有理工科问题,哲学家都有话要说。譬如,关于“歼20战斗机为何用鸭式布局的形体”这个问题,哲学家就不会发言,至少不会以哲学家的身份发言(以资深军迷的身份发言则可能是被允许的,但这一身份与哲学家的身份并无本质联系)。然而,关于“进化论是否能够沿用到心理学领域”“量子力学的本质到底是什么”这些科学家自己都未必有定见的问题,心理学哲学、生物学哲学与物理学哲学当然有话要说。如果有人不知道这些具体的科学哲学分支的存在的话,那么,则是他本人的责任,而不是这些学科分支的责任。按照同样的逻辑,关于人工智能的问题,哲学家当然也可以发言,正如物理学哲学家可以对基本物理学发现的意义进行追问一样。具体而言,在人工智能学界,关于何为智能的基本定义目前都没有定见,而由此导致的技术路线分歧更是不一而足。在这种情况下,就此多听听哲学家关于此类问题的见解,恐怕也没有啥坏处。有人或许会反问:哲学家们连一行程序都不会写,为何要听哲学家的?对这个疑问,两个回应足以将其驳倒。第一,你怎么知道哲学家都不会写程序?比如,知识论研究领域的重磅学者波洛克(JohnL.Pollock),就曾开发了一个叫作“奥斯卡”的推理系统,相关研究成果在主流人工智能杂志上都发表过。再比如,在当今英美哲学界名声赫赫的心灵哲学家查尔莫斯(DavidChalmers),是印第安纳大学布鲁明顿分校的人工智能大专家侯世达(DouglasRichardHofstadter)的高足,以前也和老师一起发表过很多人工智能领域的专业论文,难道他竟然不会写程序?第二,难道一定会写程序才是能够对人工智能发表意见的必要条件?作为一种底层操作,写具体的代码的工作,类似于军队中简单的射击动作。然而,大家请试想一下:汉高祖刘邦之所以能够打败西楚霸王项羽,究竟是因为他有知人善用的本事呢,还是因为他精通弩机的使用?答案无疑是前者。很显然,哲学之于人工智能的底层操作,就类似于刘邦的战略思维之于使用弩机之类的战术动作。有的读者还会说:纵然我们承认“人工智能哲学”现在是一个在哲学内部被承认的学术分支,这又如何?譬如,主流的人工智能哲学专家之一德瑞福斯(HubertDreyfus)就是一个如假包换的海德格尔(MartinHeidegger)哲学的粉丝,而海德格尔哲学的描述云山雾罩,毫无算法说明支持,以这样的哲学为基础再建立一种人工智能哲学的理论,难道不是在卖狗皮膏药吗?对于这一点批评,我的意见是:虽然作为英美分析哲学研究者,我本人有时候对海氏晦涩的表述方式也感到抓狂,但在我能够看懂他的论述的限度内,我并不怀疑海氏哲学肯定说出了一些非常重要、非常深刻的事情。换言之,在我看来,只要能够将海氏哲学思想“翻译”得清楚一点,他的洞见就更容易被经验科学领域内的工作者所吸收。从这个角度来看,德瑞福斯先生在重新表述海氏哲学方面所做出的努力,乃是吾辈相关“翻译”工作的重要思想伴侣。那么,到底该怎么来做这种“翻译”呢?下面我就来举一个例子。概而言之,海氏现象学的一个基本观点是:西方哲学传统关心的是“存在者”,而不是“存在”本身。而他自己的新哲学要重新揭露这被遗忘的“存在”。我承认这是海氏的“哲学黑话”,不经解释的确不知所云。但它们并非在原则上不可被说清楚。所谓“存在者”,就是能够在语言表征中被清楚地对象化的东西。比如,命题、真值、主体、客体,都是这样的存在者。而“存在”本身,则难以在语言表征中被对象化,比如你在使用一个隐喻的时候所依赖的某种模糊的背景知识。你能够像列举你的十根手指一样,将开某个玩笑时的背景知识都说清楚吗?在背景知识与非背景知识之间,你能够找到清楚的界限吗?而传统人工智能的麻烦就在这里。人类真实的智能活动都会依赖这些说不清楚的背景知识,而程序员呢,他们不把事情说得清清楚楚,就编写不了程序。这就构成了人类的现象学体验与机器编写的机械论预设之间的巨大张力。有人会说:机器何必要理睬人的现象学体验?人工智能又不是克隆人,完全可以不理睬人是怎么感知世界的啊?对这个非常肤浅的质疑,如下应答就足够了:我们干吗要做人工智能?不就是为了给人类增加帮手吗?假设你需要造一个搬运机器人,帮助你搬家,那么,你难道不希望他能够听懂你的命令吗?——譬如如下命令:“哎,机器人阿杰啊,你把那个东西搬到这里来,再去那边把另外一个东西也拿过来。”——很显然,这个命令里包含了大量的方位代词,其具体含义必须在特定语境中才能够得到确定。在这样的情况下,你怎么可能不指望机器人与你分享同样的语境意识呢?你怎么能够忍受你的机器人是处在另外一个时空尺度里的怪物呢?既然这样的机器人必须具有与人类似的语境意识,由海氏哲学所揭示的人类现象学体验的某些基本结构,一定意义上不也正适用于真正的人工智能体吗?需要指出的是,海德格尔绝非是会在本书中出现的西方哲学大牛。别的大牛还包括胡塞尔(EdmundHusserl)、福多(JerryFodor)、塞尔(JohnSearle)、安斯康姆(GertrudeElizabethMargaretAnscombe),以及前面提到过的波洛克,还有国内学术界很少谈论的日本哲学家九鬼周造。但这些哲学家并不是本书的真正主角。本书的真正主角,毋宁说是这样三个问题:第一,现实评估之问:当下的主流人工智能,算是通用人工智能吗?(我的答案是“非也”。)第二,伦理维度之问:研究通用人工智能,在伦理上是利大于弊,还是弊大于利?(我的答案是“利大于弊”。)第三,路线图勾画之问:我们该如何逼近通用人工智能?(我对该问题的答案包含三个关键词:“小数据主义”“绿色人工智能”与“心智建模”。)从我预先给出的这些问题的答案来看,读者应当看出,我是不可能赞成如下三条在当前媒体界与商界被反复鼓吹的意见的(但这三条意见彼此之间在逻辑上未必自洽):第一(针对我的第一问):当前主流的人工智能,经由深度学习技术所提供的强大运算力,会在某个不太遥远的时刻逼近通用人工智能的目标。第二(针对我的第二问):尽管通用人工智能技术可以通过当前的技术路线而达成,然而,该目标的实现会对人类社会构成莫大的威胁。第三(针对我的第三问):未来人工智能的主要技术路径,是大数据技术、5G环境中的物联网技术。我认为以上三条意见都是错的,而且是那种哲学层面上的错误(注意,当一个哲学家说某人“犯下哲学层面上的错误”的时候,他真正想说的是:嘿,老兄,你错得离谱了!)但不幸的是,全球范围内关于人工智能的技术与资本布局,都多多少少受到了上述三种观点——尤其是后一种观点——的影响。对此,我感到非常忧虑。不过,读者能够读到我的这些忧虑,至少说明这本书已经得到了出版。在此,我首先要感谢北京大学出版社的田炜女士在促成本书出版的过程中付出的努力。早在2018年我在北京主持“世界哲学大会人工智能分会场”的工作时,她其实就向我约了稿,但因为稿约繁忙,直到2020年6月底我才交稿,甚为惭愧。在此我还要感谢中国工程院院士李德毅教授在阅读本书一些章节的初稿时对我的鼓励与批评意见。需要指出的是,本书的很多思想,来自我长期与美国天普大学的计算机专家王培老师学术交流的结果,因此,没有他的思想刺激,这本书也不可能完成。同时需要指出的是,我已故的导师俞吾金先生在生前一直嘱咐我要做分析与欧陆哲学兼通的学者,而本书对于各种相关思想资源的调用,也正是为了实践我导师生前的治学理念。本书十五讲的内容,很多来自笔者在复旦大学开设的“人工智能哲学”(本科生课程)与“智能科学”(研究生课程)的讲义。与本书内容相关的研究,得到了教育部哲学社会科学研究重大课题攻关项目“新一代人工智能发展的自然语言理解研究”(项目号:19JZD010)的资助。本书也是该项目的前期阶段性成果的一部分。徐英瑾2020年6月26日《人工智能哲学十五讲》目录作者简介徐英瑾,复旦大学哲学学院教授、博导。主要研究领域为人工智能哲学,知识论,认知科学哲学等。多次获得上海市哲学社会科学优秀成果奖、全国高等院校优秀人文社会科学成果奖。著有《心智、语言和机器——维特根斯坦哲学与人工智能哲学的对话》,是国内目前最全面深入的关于人工智能哲学的研究著作,于2015年获得中国首届“科史哲青年著作奖”。特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。人工智能简史:哲学家和人工智能
左:休伯特・徳雷弗斯
右:约翰·塞尔
1.德雷弗斯和《计算机不能干什么》
休伯特・徳雷弗斯是美国为数不多的欧陆派哲学家之一,主攻胡塞尔、海徳格尔和梅洛-庞蒂(Merleau-Ponty),但他出名主要靠的还是批判人工智能。
休伯特・徳雷弗斯是苦出身,但本科、博士都毕业于哈佛大学,刚入学时读过一段时间物理,很快就转了哲学。他还有个兄弟斯图亚特・德雷弗斯(StuartDreyfus),也是哈佛博士。中西部的农民家庭一家出两个哈佛博士倒是个励志的故事。斯图亚特・德雷弗斯的专业是应用数学,毕业后也去了加州大学伯克利分校,在工业工程与运筹学系任教,曾和动态规划的祖师爷贝尔曼合作,还一度研究过神经网络。兄弟俩1988年还联手写过一本批评专家系统的书《人定胜机》(MindoverMachine)。
休伯特・德雷弗斯在哈佛博士毕业前,就开始在隔壁的麻省理工学院教哲学导论,毕业后顺理成章地成了麻省理工学院哲学系助理教授。那时的麻省理工学院哲学系和语言学系还没合并。学校最热门的明星人物之一是明斯基。德雷弗斯1961年在他兄弟的帮助下拿到了一个在美国军方智库兰德公司夏季实习的机会,期间接触到纽厄尔和司马贺的工作。1964年夏季他再次到兰德公司工作,写出了那篇广为流传的“炼金术与人工智能”。他在兰德工作时的老板起初看见这篇文章后非常不爽,他认为德雷弗斯的东西是糟糕的哲学,他扣着这篇东西没有立即发表。但徳雷弗斯把预印本在各个圈子里散发。徳雷弗斯的批评者认为那根本就不是兰德的报告,德雷弗斯不过是利用他在兰德短期工作的身份,为报告背书。9个月之后,德雷弗斯在兰德的老板怕被别人批评在实施检查制度,最终同意以最低级别的兰德公司内部备忘录的形式印发了这篇文章。这篇文章一开始只是攻击纽厄尔和司马贺的观点,后来内容逐渐被扩充,攻击的范围也扩大,终于成为一本书,书名是《计算机不能干什么》,变成了对人工智能的全面批评。
德雷弗斯的书出来后,他马上成了人工智能学界的死敌。麻省理工学院的人工智能圈子在明斯基的影响下,根本不待见他,他在食堂吃饭时大家都躲着他。德雷弗斯后来指控麻省理工学院的计算机教授企图阻挠他获到终身教职(tenure),因为害怕他对AI的批评会导致学校拿不到政府资助。他甚至考虑雇一个演员装扮成美国国防部先进研究局(DARPA)的官员和他在麻省理工学院教授俱乐部里吃饭,以此吓唬他同校的人工智能教授们。最后校长维斯纳(JerryWiesner)不得不干预,在咨询了邻居哈佛大学以及苏联的计算机同行后,亲自批准给德雷弗斯终身教职。维斯纳是电机工程(EE)的教授,麻省理工学院的EE和计算机至今还是一个系,维斯纳在计算机教授间颇有威信,著名的MediaLab就是在他手里建立的。苏联那时正批控制论,徳雷弗斯的调子倒是合拍。后来DARPA传唤德雷弗斯到首都华盛顿听取他的反动言论,再后来,还真有了AI的核冬天,而那期间麻省理工学院人工智能实验室的政府资助也确实大幅减少。
1992年《计算机不能干什么》出版20周年纪念时,徳雷弗斯新写了序,新瓶装旧酒,书又被重新出版了一遍,正文内容没什么变化,只是书名被改为《计算机仍然不能干什么》。这本书的副书名随版本不同,时有变化,或“人工智能的极限”,或“人工理性批判"(ACritiqueofArtificialReason),很明显,这是抄自康德的《纯粹理性批判》。人工的当然不纯粹,一个假酒一个茅台,不同的是:康德初衷是建设,而德雷弗斯则是大批判。更有意思的是,新版的出版社竟然变成了麻省理工出版社。麻省理工出版社毕竟不是早年结下梁子的麻省理工学院,此时的人工智能圈子应该也更有自信了吧。
德雷弗斯从以下四个层面批评人工智能。
德雷弗斯的批评随着人工智能的进展也与时俱进,但可以总结为多少有些互相矛盾的两句话:其一,所有人工智能研究者搞的东西都是哲学家玩剩下的,例如霍布斯的“推理即计算”(reasoningiscalculation)、笛卡尔的心理表示、菜布尼茨的“广义计算”(universalcharacteristic);其二,有好多人能干的事,现在的计算机干不了。徳雷弗斯甚至小肚鸡肠地推断明斯基提出框架概念肯定受到明斯基的一个学生的影响,而那个学生上过德雷弗斯的现象学的课。
纽厄尔和司马贺1957年曾做过一个乐观的预测:十年内计算机下棋能赢人,十年内计算机将能证明人还没有证明的定理。这成了德雷弗斯的把柄,也是他最有力的武器。每次计算机下棋有些进展,徳雷弗斯都会跳出来说:“那还是赢不了人啊。”其实1966年德雷弗斯就曾和当时最厉害的下棋程序Machack对弈过一局,并且输给了Machack,但他说赢我不算赢。他不得不再次澄清他原来的论断是计算机当时不能赢人类棋手,并不是永远不能赢人类棋手,这不是废话嘛。美国计算机学会人工智能组的出版物SIGARTBulletin引用了明斯基的战友佩珀特(SeymourPapert)以维特根斯坦的格式写的笔记:
1.5计算机不能下棋。
1.5.1德雷弗斯也不能下棋。
1965年司马贺再度预言:他的原定目标可以在20年内可以实现,结果到了1985年,自然为德雷弗斯徒增笑料。直到1996年马库恩(McCune)的定理证明程序EQP证明了罗宾斯猜想,1997年IBM“深蓝”战胜象棋世界冠军卡斯帕罗夫。常被德雷弗斯讽刺的另一个领域——几何定理证明——在1978年吴文俊的工作之后也渐趋成熟。不知道如果现在德雷弗斯再写一版那本书,书名该改成啥,《计算机就是不能干》?不过人工智能的乐观派也该学到点教训:老老实实干活,没事別瞎吹。
1986年,麻省理工学院人工智能实验室的老大温斯顿(明斯基的学生)邀请已经在加州大学伯克利分校任教的德雷弗斯回来做了个讲座,题目居然是“为什么AI从业者应该读《存在与时间》?”《存在与时间》是德国哲学家海德格尔的成名作。海德格尔是德雷弗斯偏爱的哲学家,素不为英美哲学家所喜。2008年德雷弗斯还写过篇文章“为什么海德格尔派的AI失败了,为什么需要更多的海德格尔”,大意是人工智能中的重要思想都来自海德格尔,而正是因为贯彻海德格尔思想的不彻底导致了人工智能的失败,为了成功,我们需要更多的海德格尔。换句话说,成功是因为听从海德格尔的教导,失败是因为没听从他的教导。德雷弗斯文中似乎把人工智能没有成功的主要原因都归结为“框架问题”,并提出“框架问题”是不能通过符号派的表示手段来解决的,唯一手段是利用神经网络,而他所谓的神经网络研究也被海德格尔早就料事如神地在《存在与时间》里想到了。德雷弗斯认为明斯基一票人不懂海德格尔,所以导致知识表示的框架问题。这听起来真有点儿像仁波切们说他们早就料到了量子力学一样。
德雷弗斯声称明斯基的“框架”式知识表示的根源是海德格尔的犹太人师傅胡塞尔(EdmundHusserl)。胡塞尔的现象学就是知识表示系统,只是胡塞尔在他75岁(1934年)时认识到知识表示是死路,而明斯基在1988年还没认识到。德雷弗斯这么说的根据是明斯基的框架系统有个顶层概念,而胡塞尔也有个东西叫“神圣不可侵犯的本源”(Inviolablythesame)如果认真读过胡塞尔,就知道胡塞尔现象学和知识表示没啥关系,只是有修辞性的比喻,而非实质性的相似。德雷弗斯大概知道科学家对胡塞尔和海德格尔的晦涩语言伪装的深刻不感兴趣。
哲学家有两类,一类是深刻的,一类是混饭的。罗素和弗里格是深刻的,没有他们,就不会有数理逻辑,也就不会有哥徳尔、丘奇、图灵,以及后来的计算机科学。但没有现代的欧陆哲学,世界不过省了些粮食而已。没有胡塞尔和海德格尔,明斯基照样会想出“框架”,从而催生后来的“面向目标的程序设计”方法论。所谓“顶层”概念就是Java程序设计语言里的Object,或者知识图谱DBpedia里的Thing。按照德雷弗斯们的说法,哲学系是不是应该要求读现象学的博士必须熟练掌握一门面向对象的程序设计语言?
在20世纪80年代末期,神经网络研究复兴之后,德雷弗斯对人工智能的全面批评也缩小为对符号派的专门攻击。他和他的兄弟斯图亚特・德雷弗斯一起撰文写书。斯图亚特虽然是运筹学专家,但一直都在做神经网络的研究,甚至号称发明了“反向传播”(back-propagation)的原始概念。考虑到这一点,他们的攻击不免有报复和落井下石之嫌。
徳雷弗斯曾经引用梅洛-庞提批判人工智能:人脑是和环境直接交流的,而不是通过表示(representation)。德雷弗斯曾经按照海德格尔的思路创造了一个词:“随手拈来"(readiness-to-hands),也就是说直接性是不经过表示的。可以把这算作对符号派的朦胧批判吧。但这种批评有点像算命常用的两头堵,因为你无论怎么直接地接近环境,他都可以说这和人脑不同。不知道波普尔会怎么评价海德格尔,或者德雷弗斯的这种解读。很可惜德雷弗斯不知道深度学习,对多层的解释恰恰是因为需要表示。造飞机不需要按照鸟的结构,飞机的翅膀不会动。飞机的表示是空气动力学。飞机能飞吗?
明斯基和佩珀特的学生维诺格拉德(TerryWinograd)加入德雷弗斯和塞尔的批评阵营,确实给他们增色不少。维诺格拉德早期在麻省理工学院的研究课题“积木世界”是自然语言处理的经典工作。在碰到问题时维诺格拉徳放弃了原来的研究方向。他联手德雷弗斯和塞尔一道批评麻省理工学院的学生只能将课题限制在“微世界”而不是“实际世界”。但罗马不是一天建成的,任何一门科学一开始不都是从小处着手吗?所谓“微世界”就是维诺格拉徳的积木世界。其实积木世界从某种意义上体现了维特根斯坦后期《哲学研究》中的思路,语义就是与环境的交互。用维特根斯坦的例子,师傅对徒弟说“递给我一块砖”,如果徒弟真递过来那就是听懂了。
德雷弗斯能够如此长久地混迹人工智能的江湖,有两个原因:其人工智能内部一直就是两大派不和,而且派中有派,很少有过学科的发展像人工智能这样起伏跌宕,苍蝇不叮无缝的蛋;其二,相当一批人工智能工作者有哲学情怀。2001年第一次互联网泡沫崩裂时,德雷弗斯又出了本大批判互联网的书《关于互联网》,风格一如既往。他的出发点是互联网的隐私和媒体的责任感。这倒更符合他的训练和智力。
2.塞尔和中文屋
塞尔是德雷弗斯之后又ー位批评人工智能的干将,但他主要以英美哲学立身。他是地道的美国人,一开始就读威斯康辛大学麦迪逊分校,但三年级时获得罗徳奖学金(RhodesScholarship),去了英国,结果本科硕士和博士三个学位都是在牛津拿的。他在牛津时跟随日常语言学派的领袖奥斯丁(JohnLangshawAustin),回美国后马上就到加州大学伯克利分校教书,出名很早。塞尔晚年还被中国的清华大学和华东师大聘为名誉教授。2017年初,84岁高龄的塞尔被他的一名博士后以“性侵害”罪名告到法庭,这个罪名比“性骚扰”要厉害一级。而据他的同事说他素有这个毛病,过去就有多名学生和他发生性关系以换取金钱和分数的好处。伯克利校方既然知道他的不当行为却不加处置,为此在案件中也被连带。他原本在2017春季要教的“心智哲学”的课也被取消了。
言归正传,1980年塞尔在《行为与脑科学》杂志上发表了“心灵大脑和程序”(Minds,BrainsandPrograms)ー文。文中的一个思想实验“中文屋”马上成为最喜欢被引用的假想实验之一。曾有人批评《行为与脑科学》杂志不严谨,更像哲学杂志。但说实在的,这杂志经常登些好看的文章并屡次挑起事端。当年彭罗斯的《皇帝新脑》(Emperor’sNewMind)一书出来后颇引争议,《行为与脑科学》就搞了一期争辩专刊,正方反方吵得不亦乐乎,各方都抬出了自己的大佬,无论从吸引眼球还是严肃讨论的角度看,这都是成功的。
所谓“中文屋”思想实验是这样的:假设有个只懂英文不懂中文的人(塞尔的第一人称“我”)被锁在一个房间里,屋里只给“我”留了一本手册或一个计算机程序,这个手册或程序教“我”在收到中文信息时如何用中文应对。屋外的人用中文问问题,屋里的“我”依靠程序用中文回答问题,沟通方式是递纸条。塞尔的问题是:假设屋外的人不能区分屋里的人是不是母语为中文,那么屋里的“我”是不是就算懂中文?塞尔自己认为“我”不懂中文。很明显,这个场景源自图灵测试,只不过图灵测试的环境是英文,而中文屋里既有中文又有英文。
塞尔的文章出来后,引起轰动。其实轰动的原因很简单:谈论这种玩意儿没什么门槛,谁都可以说三道四:哲学家、科学家,以及各种媒体人。塞尔毕竟是老练的哲学家,已经预测大家会质疑他的论断,他在文尾也设想了各种回答。中文屋的第一个问题是,我们只是算屋里人理解中文呢,还是屋子加人作为一个系统理解中文。塞尔的论断是屋里人即使查遍手册,顶多算是理解语法,而不算理解语义。我们可以问塞尔这样的问题:戴眼镜的人能算看见东西吗?一个耳聋的人通过换上人工耳蜗重获听觉后算是能听见吗?一个坐飞机的人算能飞吗?如果对这些问题的答案都是“算”,那中文屋作为一个系统为什么不算理解中文呢?
塞尔认为必须内化(换句话说:手册必须变成人身的一部分)才能算懂中文,那么内化到什么程度才能算呢?爱因斯坦说“我的笔加上我要比我自己聪明”,笔算不算外化?原来纸笔时代的拼写错误,现在用任何文本编辑软件,如微软Word,都可自动纠错,这算内化吗?内化就是一点外部工具都不能借助吗?内化是完全的物理隐藏,还是只是个反应时间问题?在一开始查手册时,反应时间必定很慢,但熟能生巧之后,查手册变成下意识的动作,那算内化吗?即使中文是母语的人也免不了查手册啊。我猜对塞尔来说,可能人工耳蜗算是内化,飞机肯定是外化,而眼镜则是可算可不算。
在塞尔的术语里,理解或意识等同于一个抽象的哲学观念“意向(intention)或“意向性”(intentionality)。屋里的人并没有“意向”,所以“我”没有理解中文。在塞尔的论辩里,时而意向性是人特有的性质,时而意向性是不可检测到的东西。
塞尔认为他不是反人工智能,他只是反“强人工智能”,但在“强人工智能”和“弱人工智能”之间并没有质的区别,只有量的渐变。中文屋测试的不是屋中的“我”而是屋中的程序。如果那本种奇的手册成者程序已经通过图灵测试,那程序就是一个机器翻译的神器。这本身就是强人工智能了。而且那程序已经有语义功能了。假设游戏不是中文翻译,而是下棋,那“我”算不算会下棋?断言中文屋是不是有智能,就像断言AlphaGo会不会下围棋一样,要看应用场景。一个数学家离开了数学也不一定就是聪明的。
塞尔的第二个准备好的答辩就是所谓“机器人”反驳。如果那本手册或者那个程序那么厉害,如果把它放到一个机器人里,那么这个机器人就可以做很多人可以做的事情,那么它是不是就算能理解了呢?塞尔的答辩是这恰恰说明单纯的形式化符号操纵是没有理解力的。
维特根斯坦后期哲学《哲学研究》中有个例子:泥瓦匠要徒弟把砖头递给他。如果徒弟把砖头递过来了,那么徒弟就是懂了。理解是一个社会现象,而不是一个独立的哲学概念,或个人行为。按此,语义也是社会的。翻译只是心心交互?翻译需要涉及外部世界吗?维特根斯坦说语义就是语言的使用。语言的使用也必涉及心物交互。从这个角度看,也许关于中文屋的讨论可以更有建设性。
3.普特南和缸中脑
普特南灿烂的学术生涯覆盖了数学、计算机科学和哲学。他虽是哲学出身,但他也是解决希尔伯特第十题的主要推手之一,他和逻辑学家戴维斯长期合作研究机器定理证明,是这个领域的开拓者之一。他的哲学研究也涉猎广泛,并且立场常常变来变去。他的变化和徳雷弗斯的浅薄机会主义不同,普特南是高处不胜寒,自己换着法儿和自己辩论。他在1960年就写过一篇“心和机器”(MindsandMachines),定义了计算主义(Computationalism)和功能主义(Functionalism)。普特南指出同样的软件可以在不同的硬件上运行,软件的功能和硬件的实现可以分开。到20世纪80年代初,普特南又变成计算主义和功能主义的批判者。
1981年普特南出版了《理性、真理与历史》(Reason,Truth,andHistory)一书,该书的开篇就给出了“缸中脑”的假想实验:
“一个人(想象一下那是您自己)被邪恶科学家施行了手术,他的大脑(您的大脑)被从身体中取出,放入一个缸中,缸里盛有维持脑存活需要的营养液。脑的神经末梢和一台超级计算机相连,这台计算机使大脑的主人保持一切完好的幻觉。对于他来说,似乎人、物体、天空还都存在,但实际上,此人(您)体验到的一切都是计算机传输到神经末梢的电子脉冲的结果。这台计算机非常聪明,此人要是抬起手,计算机发出的反馈能让他“看到”并“感到”手正在抬起。不仅如此,邪恶科学家还可通过改变程序使受害者“经验到”(即幻觉到)邪恶科学家所希望的任何情景或环境。他还可以消除这次脑手术的痕迹,从而使受害者觉得自己一直是处于这种环境。受害者甚至还会以为他正坐着读书,读的就是这样一个有趣但荒诞的故事:一个邪恶科学家把人脑从人体中取出放到一个有营养液的缸中。神经末梢连到一台超级计算机,它使这个大脑的主人具有如此幻觉……
普特南更进一步设想,假设所有的感觉器官都泡在缸里,而外面的世界就是一台大自动机。美国科幻电影《黑客帝国》(Matrix)、《盗梦空间》(Inception)等都受“缸中脑”思想实验的启发。
普特南发明了一种新的图灵测试,他称之为“图灵指称测试”(TuringTestforReference),测试的方法和图灵测试一样,通过传递打印纸条,来判断是否机器能像人那样指称外部世界的客体。普特南的结论是机器不能像人那样指称。图灵指称测试实际上已经很接近塞尔的中文屋。尽管如此,普特南一直对“意向性”这样模糊不清的概念不爽。
普特南进一步把缸中脑和图灵指称测试做了对比。图灵指称测试的底线是语言,任何超越语言的东西,图灵测试没法回答,例如,如果给机器一张丘吉尔的照片,机器会不知所云。但缸中脑的底线是神经末梢,给缸中脑一张照片,缸中脑知道如何反应,缸中脑毕竟也是脑啊。但问题是缸中脑知道如何与外部世界做对应吗?泡在缸中的人脑,如何知道自己是颅中脑,还是缸中脑?人工智能的基本问题是可否造一台机器能有智能,“缸中脑”中的机器则起了另一种作用:人脑是否能确定外在的世界是直接实在还是间接实在。
普特南曾经正面地批评过人工智能:人工智能并没干什么哲学家不能干的事。但这要看是什么人工智能的学者和什么哲学家。如果是普特南这样的哲学家,计算机科学家必须认真倾听,因为普特南自己就是一位富有成就的计算机科学家,他也是人工智能一些分支的开拓者,计算机科学大概会更加认为他是自己人而不是他者。他在塔夫茨大学的邻居丹尼特(DanielDennett)则会对人工智能采取更加同情的态度。他认为即使人工智能没有解决什么实际问题,但从更深的层次提出问题本身就是进步。哲学家总不会因为生物学家没有解答什么是生命,就怪罪生物学没有取得进展吧。没有人工智能,有些问题根本就提不出来。普特南和丹尼特都算是建设性的意见,区别是一个把人工智能当成自己的用户,而另一个把自己当成人工智能的用户。
4.给哲学家一点忠告
曾经有一个教条:哲学指导科学。这种观点为大多数科学家所不齿,费曼、惠勒和杨振宁等物理学家都曾撰文批驳。但这恰是徳雷弗斯的天真立场。维特根斯坦曾经有言:哲学家的工作应该是一直给人提醒(assemblingreminders),而不是指导。德雷弗斯最早对人工智能的批评其实很简单:还不能做什么。比如最早他说下棋还不能做,当计算机科学家证明他不对时,他又说还有什么仍然不能做。如果把这些都当作维特根斯坦所谓的“提醒”,倒也不错。但比较让计算机科学家愤慨的是,他会常常会以教导的语气说,你们应该照着海徳格尔说的做。
在文明初期,哲学家掌握所有的学问,哲学就是学问的代名词,说哲学家指点科学倒也不算错。但科学进步的过程就是与哲学渐行渐远的过程,当下的科学已经和哲学关系不大,一战后的欧陆哲学已经和科学彻底无缘。偏重科学和逻辑的英美分析哲学也挡不住哲学的颓势,最后一个从哲学中脱离的硬学问是逻辑,目前最好的逻辑学家都在数学系和计算机系,哲学已经空洞化。那些非逻辑学出身的哲学家存在的一个普遍问题是压根就没见过硬的、复杂的问题。对一个不太出名的哲学家的谬论,最好的应对办法是把他交给比他数学稍微好一点的同行。但如果碰到出名的哲学家,我们只好直接迎战,否则他的谬见会影响智力还不如他的媒体人,从而被散布得更远。
彭罗斯其实也看不起塞尔,他在《皇帝新脑》书里评论塞尔时说塞尔被计算机科学家误导了,而计算机科学家又被物理学家误导了,这明显表示了某种学科的智力层级的歧视。彭罗斯把塞尔的几种辩解轻易批倒,但他还是喜欢塞尔的结论:强人工智能不靠谱。颇有否定之否定或敌人的敌人的意思——彭罗斯自己作为物理学家不认同强AI,强AI多出自计算机科学家,而哲学家塞尔又是反对强AI的。这是为彭罗斯引出自己的理论铺路的:人脑实际上就是有量子效应。我们也由此可以看出科学家和文科生有时是一笔乱账地互相寻求支持,科学家内心知道哲学家之不靠谱,而哲学家有时特别需要科学家的背书,尽管科学家内心知道哲学家对自己工作的陌生和胡乱引用。
德雷弗斯批评人工智能太重分析,而不够综合,因而提倡现象学。生物学家、诺贝尔奖金获得者埃德尔曼(GeraldEdelman)和他的学生里克(GeorgeReeke)则说人工智能太过综合而不够分析。他们在合作的一篇文章“实在的大脑和人造的智能”(RealBrainandArtificialIntelligence)开篇中就讽刺亚里士多德——亚里士多德的《动物学》里陈述女人的牙齿数目比男人少,亚里士多德从来也不看亚里士多德夫人的嘴。埃德尔曼希望计算机科学家应该等神经科学家了解了大脑的生物学之后再谈论人工智能,或者干脆加入神经科学家的队伍一起先研究大脑。但计算机科学家恐怕没那个耐心。我们造飞机并不需要知道鸟是怎么飞的。我们享受飞机的远程旅行,也不需要懂空气动力学。我这里并非在为功能主义辩护。其实,科学体系历来如此,底层的学科说上层学科不够分析,物理学家对化学家如是说,化学家对生物学家如是说,生物学家对心理学家如是说。而哲学和人工智能恰恰可以和哪个学科都能挂上,分析和综合就看不清了。
如果真认为海德格尔有用,就应该像弗里格和罗素清理逻辑那样,把这些东西整理成可以交流的形式。也许哲学家真怕他们惯用的冷僻词汇被翻译成通俗易懂的语言。当代哲学,尤其是欧陆哲学,就像韩国整容术,乍一看唬人,其实遗传不了。
彭罗斯曾经这样谈到机器的情感和道德:如果你买一台计算机,它是有情感的,那么我们就有道徳问题,因为计算机的意愿可能被违反,并可能会被当作奴隶。我们首先必须说道徳是一个社会问题,也就是说当一个社会只有一个个体(无论是人还是计算机)时,是不存在道德问题的。
哲学家很喜欢对人工智能说三道四,原因可能是人工智能关心的问题,例如意识、生命、思维、自由意志等概念,都是哲学家自认固有的地盘。但如果我们用谷歌距离函数计算维基百科中所有学科的距离和关联度,我们会发现人工智能和哲学的距离并没有想象的那么近,也没有想象的那么依赖哲学。
创造性非虚构(creativenonfiction),例如传记,也算文学的一类,普利策奖就为此有专奖。当下的大部分哲学家都是从事创造性写作但又没有创造能力的人,他们是没有オ华的文学家。计算理论家阿伦森(ScottAaronson)曾写过一篇文章“为什么哲学家应该学点计算复杂性?”,婉转地表达了对那些喜欢随意地对计算理论说三道四的哲学家的期望。学点计算理论,少说外行话,至少能有助于哲学家了解科学家在谈论什么问题。计算理论的源头可追溯到罗素、维特根斯坦和哥德尔,他们都有哲学背景。甚至图灵也有哲学情怀,他甚至被哲学家兼传记作家蒙克(RayMonk)称为与柏拉图、罗素并列的十大哲学家。我一直很好奇为什么对人工智能感兴趣的欧陆哲学家比他们的分析哲学对头更多。
丹尼特曾说哲学家喜欢假想实验。其实从某种意义上说,整个人工智能就是个大的假想实验。只不过哲学家用纸和笔,而计算机科学家用计算机硬件和软件。本质是一样的。不同的是哲学家从不为假想实验的结果所苦恼,反而会时不时洋洋自得;而计算机科学家则偶尔会被他们取得的成果所惊到。崇尚科学的英美分析哲学家和欧陆哲学家分歧已久。英国哲学家克里切利(SimonCritchley)曾经写过一本毒舌的《哲学家死亡录》,里面记录了有史以来哲学家的各种死法,他的结论是分析哲学家的死大多是无趣的,而欧陆哲学家的死则多彩缤纷。随着大数据手段的成熟(套用德雷弗斯的话说,所谓成熟就是“随手拈来”),也许哲学家又重新有机会对科学的全局观有所洞见。到底应该是哲学家向科学家学习,还是科学家向哲学家学习?让科学家写一本《哲学家不能干什么》要远比哲学家写《科学家不能干什么》容易得多。
来源:尼克,《人工智能简史》,人民邮电出版社,2017年12月第1版,第177-194页。
往期推荐
什么是直觉泵?
赵汀阳|人工智能的自我意识何以可能?
丽泽悦读|HilaryPutnam:《理性、真理与历史》
徐英瑾|人工智能科学在十七、十八世纪欧洲哲学中的观念起源
张励耕|感知、性质与关系——对维特根斯坦心理学哲学中“内在关系”概念的辨析
责任编辑丨鱼籽
欢迎关注丨丽泽哲学苑
simpleliving,noblethinking.返回搜狐,查看更多