博舍

人工智能简史:哲学家和人工智能 人工智能发展的哲学问题是谁提出的

人工智能简史:哲学家和人工智能

左:休伯特・徳雷弗斯

右:约翰·塞尔

1.德雷弗斯和《计算机不能干什么》

休伯特・徳雷弗斯是美国为数不多的欧陆派哲学家之一,主攻胡塞尔、海徳格尔和梅洛-庞蒂(Merleau-Ponty),但他出名主要靠的还是批判人工智能。

休伯特・徳雷弗斯是苦出身,但本科、博士都毕业于哈佛大学,刚入学时读过一段时间物理,很快就转了哲学。他还有个兄弟斯图亚特・德雷弗斯(StuartDreyfus),也是哈佛博士。中西部的农民家庭一家出两个哈佛博士倒是个励志的故事。斯图亚特・德雷弗斯的专业是应用数学,毕业后也去了加州大学伯克利分校,在工业工程与运筹学系任教,曾和动态规划的祖师爷贝尔曼合作,还一度研究过神经网络。兄弟俩1988年还联手写过一本批评专家系统的书《人定胜机》(MindoverMachine)。

休伯特・德雷弗斯在哈佛博士毕业前,就开始在隔壁的麻省理工学院教哲学导论,毕业后顺理成章地成了麻省理工学院哲学系助理教授。那时的麻省理工学院哲学系和语言学系还没合并。学校最热门的明星人物之一是明斯基。德雷弗斯1961年在他兄弟的帮助下拿到了一个在美国军方智库兰德公司夏季实习的机会,期间接触到纽厄尔和司马贺的工作。1964年夏季他再次到兰德公司工作,写出了那篇广为流传的“炼金术与人工智能”。他在兰德工作时的老板起初看见这篇文章后非常不爽,他认为德雷弗斯的东西是糟糕的哲学,他扣着这篇东西没有立即发表。但徳雷弗斯把预印本在各个圈子里散发。徳雷弗斯的批评者认为那根本就不是兰德的报告,德雷弗斯不过是利用他在兰德短期工作的身份,为报告背书。9个月之后,德雷弗斯在兰德的老板怕被别人批评在实施检查制度,最终同意以最低级别的兰德公司内部备忘录的形式印发了这篇文章。这篇文章一开始只是攻击纽厄尔和司马贺的观点,后来内容逐渐被扩充,攻击的范围也扩大,终于成为一本书,书名是《计算机不能干什么》,变成了对人工智能的全面批评。

德雷弗斯的书出来后,他马上成了人工智能学界的死敌。麻省理工学院的人工智能圈子在明斯基的影响下,根本不待见他,他在食堂吃饭时大家都躲着他。德雷弗斯后来指控麻省理工学院的计算机教授企图阻挠他获到终身教职(tenure),因为害怕他对AI的批评会导致学校拿不到政府资助。他甚至考虑雇一个演员装扮成美国国防部先进研究局(DARPA)的官员和他在麻省理工学院教授俱乐部里吃饭,以此吓唬他同校的人工智能教授们。最后校长维斯纳(JerryWiesner)不得不干预,在咨询了邻居哈佛大学以及苏联的计算机同行后,亲自批准给德雷弗斯终身教职。维斯纳是电机工程(EE)的教授,麻省理工学院的EE和计算机至今还是一个系,维斯纳在计算机教授间颇有威信,著名的MediaLab就是在他手里建立的。苏联那时正批控制论,徳雷弗斯的调子倒是合拍。后来DARPA传唤德雷弗斯到首都华盛顿听取他的反动言论,再后来,还真有了AI的核冬天,而那期间麻省理工学院人工智能实验室的政府资助也确实大幅减少。

1992年《计算机不能干什么》出版20周年纪念时,徳雷弗斯新写了序,新瓶装旧酒,书又被重新出版了一遍,正文内容没什么变化,只是书名被改为《计算机仍然不能干什么》。这本书的副书名随版本不同,时有变化,或“人工智能的极限”,或“人工理性批判"(ACritiqueofArtificialReason),很明显,这是抄自康德的《纯粹理性批判》。人工的当然不纯粹,一个假酒一个茅台,不同的是:康德初衷是建设,而德雷弗斯则是大批判。更有意思的是,新版的出版社竟然变成了麻省理工出版社。麻省理工出版社毕竟不是早年结下梁子的麻省理工学院,此时的人工智能圈子应该也更有自信了吧。

德雷弗斯从以下四个层面批评人工智能。

德雷弗斯的批评随着人工智能的进展也与时俱进,但可以总结为多少有些互相矛盾的两句话:其一,所有人工智能研究者搞的东西都是哲学家玩剩下的,例如霍布斯的“推理即计算”(reasoningiscalculation)、笛卡尔的心理表示、菜布尼茨的“广义计算”(universalcharacteristic);其二,有好多人能干的事,现在的计算机干不了。徳雷弗斯甚至小肚鸡肠地推断明斯基提出框架概念肯定受到明斯基的一个学生的影响,而那个学生上过德雷弗斯的现象学的课。

纽厄尔和司马贺1957年曾做过一个乐观的预测:十年内计算机下棋能赢人,十年内计算机将能证明人还没有证明的定理。这成了德雷弗斯的把柄,也是他最有力的武器。每次计算机下棋有些进展,徳雷弗斯都会跳出来说:“那还是赢不了人啊。”其实1966年德雷弗斯就曾和当时最厉害的下棋程序Machack对弈过一局,并且输给了Machack,但他说赢我不算赢。他不得不再次澄清他原来的论断是计算机当时不能赢人类棋手,并不是永远不能赢人类棋手,这不是废话嘛。美国计算机学会人工智能组的出版物SIGARTBulletin引用了明斯基的战友佩珀特(SeymourPapert)以维特根斯坦的格式写的笔记:

1.5计算机不能下棋。

1.5.1德雷弗斯也不能下棋。

1965年司马贺再度预言:他的原定目标可以在20年内可以实现,结果到了1985年,自然为德雷弗斯徒增笑料。直到1996年马库恩(McCune)的定理证明程序EQP证明了罗宾斯猜想,1997年IBM“深蓝”战胜象棋世界冠军卡斯帕罗夫。常被德雷弗斯讽刺的另一个领域——几何定理证明——在1978年吴文俊的工作之后也渐趋成熟。不知道如果现在德雷弗斯再写一版那本书,书名该改成啥,《计算机就是不能干》?不过人工智能的乐观派也该学到点教训:老老实实干活,没事別瞎吹。

1986年,麻省理工学院人工智能实验室的老大温斯顿(明斯基的学生)邀请已经在加州大学伯克利分校任教的德雷弗斯回来做了个讲座,题目居然是“为什么AI从业者应该读《存在与时间》?”《存在与时间》是德国哲学家海德格尔的成名作。海德格尔是德雷弗斯偏爱的哲学家,素不为英美哲学家所喜。2008年德雷弗斯还写过篇文章“为什么海德格尔派的AI失败了,为什么需要更多的海德格尔”,大意是人工智能中的重要思想都来自海德格尔,而正是因为贯彻海德格尔思想的不彻底导致了人工智能的失败,为了成功,我们需要更多的海德格尔。换句话说,成功是因为听从海德格尔的教导,失败是因为没听从他的教导。德雷弗斯文中似乎把人工智能没有成功的主要原因都归结为“框架问题”,并提出“框架问题”是不能通过符号派的表示手段来解决的,唯一手段是利用神经网络,而他所谓的神经网络研究也被海德格尔早就料事如神地在《存在与时间》里想到了。德雷弗斯认为明斯基一票人不懂海德格尔,所以导致知识表示的框架问题。这听起来真有点儿像仁波切们说他们早就料到了量子力学一样。

德雷弗斯声称明斯基的“框架”式知识表示的根源是海德格尔的犹太人师傅胡塞尔(EdmundHusserl)。胡塞尔的现象学就是知识表示系统,只是胡塞尔在他75岁(1934年)时认识到知识表示是死路,而明斯基在1988年还没认识到。德雷弗斯这么说的根据是明斯基的框架系统有个顶层概念,而胡塞尔也有个东西叫“神圣不可侵犯的本源”(Inviolablythesame)如果认真读过胡塞尔,就知道胡塞尔现象学和知识表示没啥关系,只是有修辞性的比喻,而非实质性的相似。德雷弗斯大概知道科学家对胡塞尔和海德格尔的晦涩语言伪装的深刻不感兴趣。

哲学家有两类,一类是深刻的,一类是混饭的。罗素和弗里格是深刻的,没有他们,就不会有数理逻辑,也就不会有哥徳尔、丘奇、图灵,以及后来的计算机科学。但没有现代的欧陆哲学,世界不过省了些粮食而已。没有胡塞尔和海德格尔,明斯基照样会想出“框架”,从而催生后来的“面向目标的程序设计”方法论。所谓“顶层”概念就是Java程序设计语言里的Object,或者知识图谱DBpedia里的Thing。按照德雷弗斯们的说法,哲学系是不是应该要求读现象学的博士必须熟练掌握一门面向对象的程序设计语言?

在20世纪80年代末期,神经网络研究复兴之后,德雷弗斯对人工智能的全面批评也缩小为对符号派的专门攻击。他和他的兄弟斯图亚特・德雷弗斯一起撰文写书。斯图亚特虽然是运筹学专家,但一直都在做神经网络的研究,甚至号称发明了“反向传播”(back-propagation)的原始概念。考虑到这一点,他们的攻击不免有报复和落井下石之嫌。

徳雷弗斯曾经引用梅洛-庞提批判人工智能:人脑是和环境直接交流的,而不是通过表示(representation)。德雷弗斯曾经按照海德格尔的思路创造了一个词:“随手拈来"(readiness-to-hands),也就是说直接性是不经过表示的。可以把这算作对符号派的朦胧批判吧。但这种批评有点像算命常用的两头堵,因为你无论怎么直接地接近环境,他都可以说这和人脑不同。不知道波普尔会怎么评价海德格尔,或者德雷弗斯的这种解读。很可惜德雷弗斯不知道深度学习,对多层的解释恰恰是因为需要表示。造飞机不需要按照鸟的结构,飞机的翅膀不会动。飞机的表示是空气动力学。飞机能飞吗?

明斯基和佩珀特的学生维诺格拉德(TerryWinograd)加入德雷弗斯和塞尔的批评阵营,确实给他们增色不少。维诺格拉德早期在麻省理工学院的研究课题“积木世界”是自然语言处理的经典工作。在碰到问题时维诺格拉徳放弃了原来的研究方向。他联手德雷弗斯和塞尔一道批评麻省理工学院的学生只能将课题限制在“微世界”而不是“实际世界”。但罗马不是一天建成的,任何一门科学一开始不都是从小处着手吗?所谓“微世界”就是维诺格拉徳的积木世界。其实积木世界从某种意义上体现了维特根斯坦后期《哲学研究》中的思路,语义就是与环境的交互。用维特根斯坦的例子,师傅对徒弟说“递给我一块砖”,如果徒弟真递过来那就是听懂了。

德雷弗斯能够如此长久地混迹人工智能的江湖,有两个原因:其人工智能内部一直就是两大派不和,而且派中有派,很少有过学科的发展像人工智能这样起伏跌宕,苍蝇不叮无缝的蛋;其二,相当一批人工智能工作者有哲学情怀。2001年第一次互联网泡沫崩裂时,德雷弗斯又出了本大批判互联网的书《关于互联网》,风格一如既往。他的出发点是互联网的隐私和媒体的责任感。这倒更符合他的训练和智力。

2.塞尔和中文屋

塞尔是德雷弗斯之后又ー位批评人工智能的干将,但他主要以英美哲学立身。他是地道的美国人,一开始就读威斯康辛大学麦迪逊分校,但三年级时获得罗徳奖学金(RhodesScholarship),去了英国,结果本科硕士和博士三个学位都是在牛津拿的。他在牛津时跟随日常语言学派的领袖奥斯丁(JohnLangshawAustin),回美国后马上就到加州大学伯克利分校教书,出名很早。塞尔晚年还被中国的清华大学和华东师大聘为名誉教授。2017年初,84岁高龄的塞尔被他的一名博士后以“性侵害”罪名告到法庭,这个罪名比“性骚扰”要厉害一级。而据他的同事说他素有这个毛病,过去就有多名学生和他发生性关系以换取金钱和分数的好处。伯克利校方既然知道他的不当行为却不加处置,为此在案件中也被连带。他原本在2017春季要教的“心智哲学”的课也被取消了。

言归正传,1980年塞尔在《行为与脑科学》杂志上发表了“心灵大脑和程序”(Minds,BrainsandPrograms)ー文。文中的一个思想实验“中文屋”马上成为最喜欢被引用的假想实验之一。曾有人批评《行为与脑科学》杂志不严谨,更像哲学杂志。但说实在的,这杂志经常登些好看的文章并屡次挑起事端。当年彭罗斯的《皇帝新脑》(Emperor’sNewMind)一书出来后颇引争议,《行为与脑科学》就搞了一期争辩专刊,正方反方吵得不亦乐乎,各方都抬出了自己的大佬,无论从吸引眼球还是严肃讨论的角度看,这都是成功的。

所谓“中文屋”思想实验是这样的:假设有个只懂英文不懂中文的人(塞尔的第一人称“我”)被锁在一个房间里,屋里只给“我”留了一本手册或一个计算机程序,这个手册或程序教“我”在收到中文信息时如何用中文应对。屋外的人用中文问问题,屋里的“我”依靠程序用中文回答问题,沟通方式是递纸条。塞尔的问题是:假设屋外的人不能区分屋里的人是不是母语为中文,那么屋里的“我”是不是就算懂中文?塞尔自己认为“我”不懂中文。很明显,这个场景源自图灵测试,只不过图灵测试的环境是英文,而中文屋里既有中文又有英文。

塞尔的文章出来后,引起轰动。其实轰动的原因很简单:谈论这种玩意儿没什么门槛,谁都可以说三道四:哲学家、科学家,以及各种媒体人。塞尔毕竟是老练的哲学家,已经预测大家会质疑他的论断,他在文尾也设想了各种回答。中文屋的第一个问题是,我们只是算屋里人理解中文呢,还是屋子加人作为一个系统理解中文。塞尔的论断是屋里人即使查遍手册,顶多算是理解语法,而不算理解语义。我们可以问塞尔这样的问题:戴眼镜的人能算看见东西吗?一个耳聋的人通过换上人工耳蜗重获听觉后算是能听见吗?一个坐飞机的人算能飞吗?如果对这些问题的答案都是“算”,那中文屋作为一个系统为什么不算理解中文呢?

塞尔认为必须内化(换句话说:手册必须变成人身的一部分)才能算懂中文,那么内化到什么程度才能算呢?爱因斯坦说“我的笔加上我要比我自己聪明”,笔算不算外化?原来纸笔时代的拼写错误,现在用任何文本编辑软件,如微软Word,都可自动纠错,这算内化吗?内化就是一点外部工具都不能借助吗?内化是完全的物理隐藏,还是只是个反应时间问题?在一开始查手册时,反应时间必定很慢,但熟能生巧之后,查手册变成下意识的动作,那算内化吗?即使中文是母语的人也免不了查手册啊。我猜对塞尔来说,可能人工耳蜗算是内化,飞机肯定是外化,而眼镜则是可算可不算。

在塞尔的术语里,理解或意识等同于一个抽象的哲学观念“意向(intention)或“意向性”(intentionality)。屋里的人并没有“意向”,所以“我”没有理解中文。在塞尔的论辩里,时而意向性是人特有的性质,时而意向性是不可检测到的东西。

塞尔认为他不是反人工智能,他只是反“强人工智能”,但在“强人工智能”和“弱人工智能”之间并没有质的区别,只有量的渐变。中文屋测试的不是屋中的“我”而是屋中的程序。如果那本种奇的手册成者程序已经通过图灵测试,那程序就是一个机器翻译的神器。这本身就是强人工智能了。而且那程序已经有语义功能了。假设游戏不是中文翻译,而是下棋,那“我”算不算会下棋?断言中文屋是不是有智能,就像断言AlphaGo会不会下围棋一样,要看应用场景。一个数学家离开了数学也不一定就是聪明的。

塞尔的第二个准备好的答辩就是所谓“机器人”反驳。如果那本手册或者那个程序那么厉害,如果把它放到一个机器人里,那么这个机器人就可以做很多人可以做的事情,那么它是不是就算能理解了呢?塞尔的答辩是这恰恰说明单纯的形式化符号操纵是没有理解力的。

维特根斯坦后期哲学《哲学研究》中有个例子:泥瓦匠要徒弟把砖头递给他。如果徒弟把砖头递过来了,那么徒弟就是懂了。理解是一个社会现象,而不是一个独立的哲学概念,或个人行为。按此,语义也是社会的。翻译只是心心交互?翻译需要涉及外部世界吗?维特根斯坦说语义就是语言的使用。语言的使用也必涉及心物交互。从这个角度看,也许关于中文屋的讨论可以更有建设性。

3.普特南和缸中脑

普特南灿烂的学术生涯覆盖了数学、计算机科学和哲学。他虽是哲学出身,但他也是解决希尔伯特第十题的主要推手之一,他和逻辑学家戴维斯长期合作研究机器定理证明,是这个领域的开拓者之一。他的哲学研究也涉猎广泛,并且立场常常变来变去。他的变化和徳雷弗斯的浅薄机会主义不同,普特南是高处不胜寒,自己换着法儿和自己辩论。他在1960年就写过一篇“心和机器”(MindsandMachines),定义了计算主义(Computationalism)和功能主义(Functionalism)。普特南指出同样的软件可以在不同的硬件上运行,软件的功能和硬件的实现可以分开。到20世纪80年代初,普特南又变成计算主义和功能主义的批判者。

1981年普特南出版了《理性、真理与历史》(Reason,Truth,andHistory)一书,该书的开篇就给出了“缸中脑”的假想实验:

“一个人(想象一下那是您自己)被邪恶科学家施行了手术,他的大脑(您的大脑)被从身体中取出,放入一个缸中,缸里盛有维持脑存活需要的营养液。脑的神经末梢和一台超级计算机相连,这台计算机使大脑的主人保持一切完好的幻觉。对于他来说,似乎人、物体、天空还都存在,但实际上,此人(您)体验到的一切都是计算机传输到神经末梢的电子脉冲的结果。这台计算机非常聪明,此人要是抬起手,计算机发出的反馈能让他“看到”并“感到”手正在抬起。不仅如此,邪恶科学家还可通过改变程序使受害者“经验到”(即幻觉到)邪恶科学家所希望的任何情景或环境。他还可以消除这次脑手术的痕迹,从而使受害者觉得自己一直是处于这种环境。受害者甚至还会以为他正坐着读书,读的就是这样一个有趣但荒诞的故事:一个邪恶科学家把人脑从人体中取出放到一个有营养液的缸中。神经末梢连到一台超级计算机,它使这个大脑的主人具有如此幻觉……

普特南更进一步设想,假设所有的感觉器官都泡在缸里,而外面的世界就是一台大自动机。美国科幻电影《黑客帝国》(Matrix)、《盗梦空间》(Inception)等都受“缸中脑”思想实验的启发。

普特南发明了一种新的图灵测试,他称之为“图灵指称测试”(TuringTestforReference),测试的方法和图灵测试一样,通过传递打印纸条,来判断是否机器能像人那样指称外部世界的客体。普特南的结论是机器不能像人那样指称。图灵指称测试实际上已经很接近塞尔的中文屋。尽管如此,普特南一直对“意向性”这样模糊不清的概念不爽。

普特南进一步把缸中脑和图灵指称测试做了对比。图灵指称测试的底线是语言,任何超越语言的东西,图灵测试没法回答,例如,如果给机器一张丘吉尔的照片,机器会不知所云。但缸中脑的底线是神经末梢,给缸中脑一张照片,缸中脑知道如何反应,缸中脑毕竟也是脑啊。但问题是缸中脑知道如何与外部世界做对应吗?泡在缸中的人脑,如何知道自己是颅中脑,还是缸中脑?人工智能的基本问题是可否造一台机器能有智能,“缸中脑”中的机器则起了另一种作用:人脑是否能确定外在的世界是直接实在还是间接实在。

普特南曾经正面地批评过人工智能:人工智能并没干什么哲学家不能干的事。但这要看是什么人工智能的学者和什么哲学家。如果是普特南这样的哲学家,计算机科学家必须认真倾听,因为普特南自己就是一位富有成就的计算机科学家,他也是人工智能一些分支的开拓者,计算机科学大概会更加认为他是自己人而不是他者。他在塔夫茨大学的邻居丹尼特(DanielDennett)则会对人工智能采取更加同情的态度。他认为即使人工智能没有解决什么实际问题,但从更深的层次提出问题本身就是进步。哲学家总不会因为生物学家没有解答什么是生命,就怪罪生物学没有取得进展吧。没有人工智能,有些问题根本就提不出来。普特南和丹尼特都算是建设性的意见,区别是一个把人工智能当成自己的用户,而另一个把自己当成人工智能的用户。

4.给哲学家一点忠告

曾经有一个教条:哲学指导科学。这种观点为大多数科学家所不齿,费曼、惠勒和杨振宁等物理学家都曾撰文批驳。但这恰是徳雷弗斯的天真立场。维特根斯坦曾经有言:哲学家的工作应该是一直给人提醒(assemblingreminders),而不是指导。德雷弗斯最早对人工智能的批评其实很简单:还不能做什么。比如最早他说下棋还不能做,当计算机科学家证明他不对时,他又说还有什么仍然不能做。如果把这些都当作维特根斯坦所谓的“提醒”,倒也不错。但比较让计算机科学家愤慨的是,他会常常会以教导的语气说,你们应该照着海徳格尔说的做。

在文明初期,哲学家掌握所有的学问,哲学就是学问的代名词,说哲学家指点科学倒也不算错。但科学进步的过程就是与哲学渐行渐远的过程,当下的科学已经和哲学关系不大,一战后的欧陆哲学已经和科学彻底无缘。偏重科学和逻辑的英美分析哲学也挡不住哲学的颓势,最后一个从哲学中脱离的硬学问是逻辑,目前最好的逻辑学家都在数学系和计算机系,哲学已经空洞化。那些非逻辑学出身的哲学家存在的一个普遍问题是压根就没见过硬的、复杂的问题。对一个不太出名的哲学家的谬论,最好的应对办法是把他交给比他数学稍微好一点的同行。但如果碰到出名的哲学家,我们只好直接迎战,否则他的谬见会影响智力还不如他的媒体人,从而被散布得更远。

彭罗斯其实也看不起塞尔,他在《皇帝新脑》书里评论塞尔时说塞尔被计算机科学家误导了,而计算机科学家又被物理学家误导了,这明显表示了某种学科的智力层级的歧视。彭罗斯把塞尔的几种辩解轻易批倒,但他还是喜欢塞尔的结论:强人工智能不靠谱。颇有否定之否定或敌人的敌人的意思——彭罗斯自己作为物理学家不认同强AI,强AI多出自计算机科学家,而哲学家塞尔又是反对强AI的。这是为彭罗斯引出自己的理论铺路的:人脑实际上就是有量子效应。我们也由此可以看出科学家和文科生有时是一笔乱账地互相寻求支持,科学家内心知道哲学家之不靠谱,而哲学家有时特别需要科学家的背书,尽管科学家内心知道哲学家对自己工作的陌生和胡乱引用。

德雷弗斯批评人工智能太重分析,而不够综合,因而提倡现象学。生物学家、诺贝尔奖金获得者埃德尔曼(GeraldEdelman)和他的学生里克(GeorgeReeke)则说人工智能太过综合而不够分析。他们在合作的一篇文章“实在的大脑和人造的智能”(RealBrainandArtificialIntelligence)开篇中就讽刺亚里士多德——亚里士多德的《动物学》里陈述女人的牙齿数目比男人少,亚里士多德从来也不看亚里士多德夫人的嘴。埃德尔曼希望计算机科学家应该等神经科学家了解了大脑的生物学之后再谈论人工智能,或者干脆加入神经科学家的队伍一起先研究大脑。但计算机科学家恐怕没那个耐心。我们造飞机并不需要知道鸟是怎么飞的。我们享受飞机的远程旅行,也不需要懂空气动力学。我这里并非在为功能主义辩护。其实,科学体系历来如此,底层的学科说上层学科不够分析,物理学家对化学家如是说,化学家对生物学家如是说,生物学家对心理学家如是说。而哲学和人工智能恰恰可以和哪个学科都能挂上,分析和综合就看不清了。

如果真认为海德格尔有用,就应该像弗里格和罗素清理逻辑那样,把这些东西整理成可以交流的形式。也许哲学家真怕他们惯用的冷僻词汇被翻译成通俗易懂的语言。当代哲学,尤其是欧陆哲学,就像韩国整容术,乍一看唬人,其实遗传不了。

彭罗斯曾经这样谈到机器的情感和道德:如果你买一台计算机,它是有情感的,那么我们就有道徳问题,因为计算机的意愿可能被违反,并可能会被当作奴隶。我们首先必须说道徳是一个社会问题,也就是说当一个社会只有一个个体(无论是人还是计算机)时,是不存在道德问题的。

哲学家很喜欢对人工智能说三道四,原因可能是人工智能关心的问题,例如意识、生命、思维、自由意志等概念,都是哲学家自认固有的地盘。但如果我们用谷歌距离函数计算维基百科中所有学科的距离和关联度,我们会发现人工智能和哲学的距离并没有想象的那么近,也没有想象的那么依赖哲学。

创造性非虚构(creativenonfiction),例如传记,也算文学的一类,普利策奖就为此有专奖。当下的大部分哲学家都是从事创造性写作但又没有创造能力的人,他们是没有オ华的文学家。计算理论家阿伦森(ScottAaronson)曾写过一篇文章“为什么哲学家应该学点计算复杂性?”,婉转地表达了对那些喜欢随意地对计算理论说三道四的哲学家的期望。学点计算理论,少说外行话,至少能有助于哲学家了解科学家在谈论什么问题。计算理论的源头可追溯到罗素、维特根斯坦和哥德尔,他们都有哲学背景。甚至图灵也有哲学情怀,他甚至被哲学家兼传记作家蒙克(RayMonk)称为与柏拉图、罗素并列的十大哲学家。我一直很好奇为什么对人工智能感兴趣的欧陆哲学家比他们的分析哲学对头更多。

丹尼特曾说哲学家喜欢假想实验。其实从某种意义上说,整个人工智能就是个大的假想实验。只不过哲学家用纸和笔,而计算机科学家用计算机硬件和软件。本质是一样的。不同的是哲学家从不为假想实验的结果所苦恼,反而会时不时洋洋自得;而计算机科学家则偶尔会被他们取得的成果所惊到。崇尚科学的英美分析哲学家和欧陆哲学家分歧已久。英国哲学家克里切利(SimonCritchley)曾经写过一本毒舌的《哲学家死亡录》,里面记录了有史以来哲学家的各种死法,他的结论是分析哲学家的死大多是无趣的,而欧陆哲学家的死则多彩缤纷。随着大数据手段的成熟(套用德雷弗斯的话说,所谓成熟就是“随手拈来”),也许哲学家又重新有机会对科学的全局观有所洞见。到底应该是哲学家向科学家学习,还是科学家向哲学家学习?让科学家写一本《哲学家不能干什么》要远比哲学家写《科学家不能干什么》容易得多。

来源:尼克,《人工智能简史》,人民邮电出版社,2017年12月第1版,第177-194页。

往期推荐

什么是直觉泵?

赵汀阳|人工智能的自我意识何以可能?

丽泽悦读|HilaryPutnam:《理性、真理与历史》

徐英瑾|人工智能科学在十七、十八世纪欧洲哲学中的观念起源

张励耕|感知、性质与关系——对维特根斯坦心理学哲学中“内在关系”概念的辨析

责任编辑丨鱼籽

欢迎关注丨丽泽哲学苑

simpleliving,noblethinking.返回搜狐,查看更多

人工智能的伦理挑战

原标题:人工智能的伦理挑战

控制论之父维纳在他的名著《人有人的用处》中曾在谈到自动化技术和智能机器之后,得出了一个危言耸听的结论:“这些机器的趋势是要在所有层面上取代人类,而非只是用机器能源和力量取代人类的能源和力量。很显然,这种新的取代将对我们的生活产生深远影响。”维纳的这句谶语,在今天未必成为现实,但已经成为诸多文学和影视作品中的题材。《银翼杀手》《机械公敌》《西部世界》等电影以人工智能反抗和超越人类为题材,机器人向乞讨的人类施舍的画作登上《纽约客》杂志2017年10月23日的封面……人们越来越倾向于讨论人工智能究竟在何时会形成属于自己的意识,并超越人类,让人类沦为它们的奴仆。

维纳的激进言辞和今天普通人对人工智能的担心有夸张的成分,但人工智能技术的飞速发展的确给未来带来了一系列挑战。其中,人工智能发展最大的问题,不是技术上的瓶颈,而是人工智能与人类的关系问题,这催生了人工智能的伦理学和跨人类主义的伦理学问题。准确来说,这种伦理学已经与传统的伦理学旨趣发生了较大的偏移,其原因在于,人工智能的伦理学讨论的不再是人与人之间的关系,也不是与自然界的既定事实(如动物,生态)之间的关系,而是人类与自己所发明的一种产品构成的关联,由于这种特殊的产品――根据未来学家库兹威尔在《奇点临近》中的说法――一旦超过了某个奇点,就存在彻底压倒人类的可能性,在这种情况下,人与人之间的伦理是否还能约束人类与这个超越奇点的存在之间的关系?

实际上,对人工智能与人类之间伦理关系的研究,不能脱离对人工智能技术本身的讨论。在人工智能领域,从一开始,准确来说是依从着两种完全不同的路径来进行的。

首先,是真正意义上的人工智能的路径,1956年,在达特茅斯学院召开了一次特殊的研讨会,会议的组织者约翰・麦卡锡为这次会议起了一个特殊的名字:人工智能(简称AI)夏季研讨会。这是第一次在学术范围内使用“人工智能”的名称,而参与达特茅斯会议的麦卡锡和明斯基等人直接将这个名词作为一个新的研究方向的名称。实际上,麦卡锡和明斯基思考的是,如何将我们人类的各种感觉,包括视觉、听觉、触觉,甚至大脑的思考都变成称作“信息论之父”的香农意义上的信息,并加以控制和应用。这一阶段上的人工智能的发展,在很大程度上还是对人类行为的模拟,其理论基础来自德国哲学家莱布尼茨的设想,即将人类的各种感觉可以转化为量化的信息数据,也就是说,我们可以将人类的各种感觉经验和思维经验看成是一个复杂的形式符号系统,如果具有强大的信息采集能力和数据分析能力,就能完整地模拟出人类的感觉和思维。这也是为什么明斯基信心十足地宣称:“人的脑子不过是肉做的电脑。”麦卡锡和明斯基不仅成功地模拟出视觉和听觉经验,后来的特里・谢伊诺斯基和杰弗里・辛顿也根据对认知科学和脑科学的最新进展,发明了一个“NETtalk”的程序,模拟了类似于人的“神经元”的网络,让该网络可以像人的大脑一样进行学习,并能够做出简单的思考。

然而,在这个阶段中,所谓的人工智能在更大程度上都是在模拟人的感觉和思维,让一种更像人的思维机器能够诞生。著名的图灵测试,也是在是否能够像人一样思考的标准上进行的。图灵测试的原理很简单,让测试一方和被测试一方彼此分开,只用简单的对话来让处在测试一方的人判断,被测试方是人还是机器,如果有30%的人无法判断对方是人还是机器时,则代表通过了图灵测试。所以,图灵测试的目的,仍然在检验人工智能是否更像人类。但是,问题在于,机器思维在作出自己的判断时,是否需要人的思维这个中介?也就是说,机器是否需要先绕一个弯路,即将自己的思维装扮得像一个人类,再去作出判断?显然,对于人工智能来说,答案是否定的,因为如果人工智能是用来解决某些实际问题,它们根本不需要让自己经过人类思维这个中介,再去思考和解决问题。人类的思维具有一定的定势和短板,强制性地模拟人类大脑思维的方式,并不是人工智能发展的良好选择。

所以,人工智能的发展走向了另一个方向,即智能增强(简称IA)上。如果模拟真实的人的大脑和思维的方向不再重要,那么,人工智能是否能发展出一种纯粹机器的学习和思维方式?倘若机器能够思维,是否能以机器本身的方式来进行。这就出现了机器学习的概念。机器学习的概念,实际上已经成为发展出属于机器本身的学习方式,通过海量的信息和数据收集,让机器从这些信息中提出自己的抽象观念,例如,在给机器浏览了上万张猫的图片之后,让机器从这些图片信息中自己提炼出关于猫的概念。这个时候,很难说机器自己抽象出来的猫的概念,与人类自己理解的猫的概念之间是否存在着差别。不过,最关键的是,一旦机器提炼出属于自己的概念和观念之后,这些抽象的概念和观念将会成为机器自身的思考方式的基础,这些机器自己抽象出来的概念就会形成一种不依赖于人的思考模式网络。当我们讨论打败李世石的阿尔法狗时,我们已经看到了这种机器式思维的凌厉之处,这种机器学习的思维已经让通常意义上的围棋定势丧失了威力,从而让习惯于人类思维的棋手瞬间崩溃。一个不再像人一样思维的机器,或许对于人类来说,会带来更大的恐慌。毕竟,模拟人类大脑和思维的人工智能,尚具有一定的可控性,但基于机器思维的人工智能,我们显然不能作出上述简单的结论,因为,根据与人工智能对弈之后的棋手来说,甚至在多次复盘之后,他们仍然无法理解像阿尔法狗这样的人工智能如何走出下一步棋。

不过,说智能增强技术是对人类的取代,似乎也言之尚早,至少第一个提出“智能增强”的工程师恩格尔巴特并不这么认为。对于恩格尔巴特来说,麦卡锡和明斯基的方向旨在建立机器和人类的同质性,这种同质性思维模式的建立,反而与人类处于一种竞争关系之中,这就像《西部世界》中那些总是将自己当成人类的机器人一样,他们谋求与人类平起平坐的关系。智能增强技术的目的则完全不是这样,它更关心的是人与智能机器之间的互补性,如何利用智能机器来弥补人类思维上的不足。比如自动驾驶技术就是一种典型的智能增强技术,自动驾驶技术的实现,不仅是在汽车上安装了自动驾驶的程序,更关键地还需要采集大量的地图地貌信息,还需要自动驾驶的程序能够在影像资料上判断一些移动的偶然性因素,如突然穿过马路的人。自动驾驶技术能够取代容易疲劳和分心的驾驶员,让人类从繁重的驾驶任务中解放出来。同样,在分拣快递、在汽车工厂里自动组装的机器人也属于智能增强类性质的智能,它们不关心如何更像人类,而是关心如何用自己的方式来解决问题。

这样,由于智能增强技术带来了两种平面,一方面是人类思维的平面,另一方面是机器的平面,所以,两个平面之间也需要一个接口技术。接口技术让人与智能机器的沟通成为可能。当接口技术的主要开创者费尔森斯丁来到伯克利大学时,距离恩格尔巴特在那里讨论智能增强技术已经有10年之久。费尔森斯丁用犹太神话中的一个形象――土傀儡――来形容今天的接口技术下人与智能机器的关系,与其说今天的人工智能在奇点临近时,旨在超越和取代人类,不如说今天的人工智能技术越来越倾向于以人类为中心的傀儡学,在这种观念的指引下,今天的人工智能的发展目标并不是产生一种独立的意识,而是如何形成与人类交流的接口技术。在这个意义上,我们可以从费尔森斯丁的傀儡学角度来重新理解人工智能与人的关系的伦理学,也就是说,人类与智能机器的关系,既不是纯粹的利用关系,因为人工智能已经不再是机器或软件,也不是对人的取代,成为人类的主人,而是一种共生性的伙伴关系。当苹果公司开发与人类交流的智能软件Siri时,乔布斯就提出Siri是人类与机器合作的一个最朴实、最优雅的模型。以后,我们或许会看到,当一些国家逐渐陷入老龄化社会之后,无论是一线的生产,还是对这些因衰老而无法行动的老人的照料,或许都会面对这样的人与智能机器的接口技术问题,这是一种人与人工智能之间的新伦理学,他们将构成一种跨人类主义,或许,我们在这种景象中看到的不一定是伦理的灾难,而是一种新的希望。

(作者:蓝江,系南京大学哲学系教授)

[经典论道] 人工智能的四大哲学问题

20世纪西方科学哲学的发展,经历了向“语言研究”和“认知研究”的两大转向,认识论的研究在不断去形而上学化的同时,正在走向与科学研究协同发展的道路。作为当代人工智能科学的基础性研究,认知研究的目的是为了清楚地了解人脑意识活动的结构与过程,对人类意识的智、情、意三者的结合作出符合逻辑的说明,以使人工智能专家们便于对这些意识的过程进行形式的表达。人工智能要模拟人的意识,首先就必须研究意识的结构与活动。意识究竟是如何可能的呢?塞尔说道:“说明某物是如何可能的最好方式,就是去揭示它如何实际地存在。”[1]这就使认知科学获得了推进人工智能发展的关键性意义,这就是认知转向为什么会发生的最重要原因。

由于哲学与认知心理学、认知的神经科学、脑科学、人工智能等学科之间的协同关系,无论计算机科学与技术如何发展,从物理符号系统、专家系统、知识工程,到生物计算机与量子计算机的发展,都离不开哲学对人类意识活动的整个过程及其各种因素的认识与理解。**人工智能的发展一刻也离不开哲学对人类心灵的探讨。**无论是强AI派抑或弱AI派,从认识论上看,人工智能依赖于物理符号系统模拟了人类思维的部分功能,但是,其真正对人类意识的模拟,不仅有赖于机器人本身技术上的革新,而且也有赖于哲学对意识活动的过程及其影响因素的了解。

从今天来看,人工智能的哲学问题已不是人工智能的本质是什么,而是要解决一些较为具体的智能模拟方面的问题。这些问题包括:

1.关于意向性问题

人脑的最大特点是具有意向性与主观性,并且人的心理活动能够引起物理活动,心身是相互作用的。大脑的活动通过生理过程引起身体的运动,心理状态是脑的特征。“确实存在着心理状态;其中一部分是有意识的;大部分是具有意向性的;全部心理状态都是具有主观性的;大部分心理状态在决定世界中的物理事件时起着因果作用。”[2]在这样的前提下,塞尔认为,计算机或人工智能是无法像人的大脑一样,既具有意向性又具有主观性的。他对一些强AI观点提出了批评,认为坚持这种观点的人,把人的思维与智能纯形式化了。而计算机程序的那种形式化、语法化的特征,对于那种把心理过程与程序过程视为同样过程的观点是致命的。因为人心不仅仅是形式的或语法的过程,人的思想所包含的决不只是一些形式化的符号。实际上,形式化的符号是不具有任何语义的。“计算机程序永不可能代替人心,其理由很简单:计算机程序只是语法的,而心不仅仅是语法的。心是语义的,就是说,人心不仅仅是一个形式结构,它是有内容的。”[3]塞尔认为,机器究竟能否进行思维的关键在于:它是否能够给对象赋予意义。“意识、思想、感情、情绪以及心理的所有其他特征远非语法所能包容。不管计算机的模拟能力有多强,按照定义,它也不能复制那些特征。”[4]在塞尔看来,计算机模拟毕竟不是现实,例如,我们可以用计算机模拟风暴来临时城市周边防洪的形势,用计算机模拟仓库的火灾,用计算机模拟车祸发生的场景,等等。但是,谁会认为这种模拟就是事实呢?心毕竟是种生物学现象,其复杂性绝非是计算机所能模拟与复制的。

计算机有没有意向性,这个问题的争论可以归结如下:1)究竟什么叫做意向性?机器人按照指令从事特定的行为是不是意向性?2)人类在行动之先就已经知道自己究竟是在做什么,具有自我意识,知道其行动将会产生什么样的结果,这是人类意识的重要特征。那么我们应该如何理解机器人按照指令从事某种行为呢?3)意向性能否被程序化?塞尔认为,“脑功能产生心的方式不能是一种单纯操作计算机程序的方式。”[5]相反,人们要问的是:意向性是不是一种可以理解的精神,如果可以理解,那么为什么就不能程序化?塞尔认为,计算机具有语法,但不具有语义。但实质上,语法与语义本身就是二而一的问题,两者是从来也不会相分离的。如果两个机器人之间可以互相交流,那么我们难道能说它们之间只有语法而没有语义吗?如果程序能把语法与语义包含在一起,那么我们还有必要分清楚语法与语义吗?塞尔的观点是,哪怕计算机复制了意向性,但复制不是原本。其实,当我们对人类的认知及其与其行为的关系弄得一清二楚时,我们肯定能够把我们对人类大脑的心理过程与行为的关系编成程序,输入各种我们所了解的有关人类的信息,使计算机“无所不知”。然而,到了那个时候,我们是否还能像塞尔所说的,人工智能不是智能,人工智能中没有意向性和心理过程,因为它缺乏人类的蛋白质与神经细胞吗?意向性的复制是不是“意向性”?对理解的复制是不是“理解”?对于思想的复制是不是“思想”?对于思维的复制是不是“思维”?我们的回答则是:基础是有别的,功能是相同的。依赖于不同的基础形成同样的功能,人工智能只不过是我们人类智能的特殊的实现方式。塞尔用意向性来否定人工智能的深度,虽然有一定的根据,然而,当人工智能能够模拟出类似于人一样的思想时,即使人们都认为人工智能和人的智能是有着本质区别的,那么我们也会感到这种区别已经不具有什么重要意义了。塞尔的观点只能将人的心灵再度神秘化!

2.人工智能中的概念框架问题

任何科学都是建立在它所已知的知识之上的,甚至科学观察的能力也无不与已知的东西相关,我们只能依赖于已知的知识,才能理解未知的对象。知与未知永远都是一对矛盾,两者总是相互并存又相互依赖的。离开了已知,就无法认识未知;离开了未知,我们就不能使科学认识有所发展和进化。“科学学习如何观察自然,而且它的观察能力随着知识的增长而增长。”[6]有大量的证据可以证明,当人们观察物体时,观察者得到的经验并非决定于以光线进入他眼球的信号,也不仅仅决定于观察者视网膜上的映像。两个正常的观察者从同一地方观看同一个物体,并不一定得到同样的视觉经验,即使在他们的视网膜上的映像实际上是一样的。正如汉森所说的那样,观察者在观看物体时,看见的比眼球接触到的多得多。所以,夏佩尔说,“观察者在观看物体时得到的视觉经验,部分地依赖于他过去的经验、他的知识和他的期望。”观察对于科学是十分重要的了,但是,“观察陈述必须用某种理论的语言构成”,“观察陈述是公共实体,用公共的语言加以阐述,包含着具有不同程度的普遍性和复杂性的理论。”[7]这就表明了观察需要理论,科学需要理论为先导,科学认识不是建立在未知的基础上,而是建立在已知的知识基础上的。

概念框架也称背景知识、背景信念。之所以将人们认知的概念框架称作信念,是因为概念框架是在不断地学习与实践中形成的,得到确证的那些可资利用的可靠的信息;这些信息在过去已被证明是非常成功的,我们对它没有理由怀疑。如果说背景信念有什么不确定性,那么我们可以说背景信念是不断在增长的、变化的,它处在不断的更新中。

人们认知结构中的概念框架究竟是由哪些元素构成的?对于这个问题,科学哲学家们仅仅将其理解为已知的知识。例如,“世界图景”(图尔敏)、“研究传统”(劳丹)、“研究范式”(库恩)、“背景信念”(夏佩尔)等等。为了理解概念框架,我们首先要将认知主体看作是一个处在复杂环境中的人,他不仅是一个科学的观察者,而且是一个社会的观察者、生活的理解者、情感的关系者,总之是一个社会的有着七情六欲的人。

我们根据一个人所处的社会环境与现实社会背景,便可以具体地归纳这个认知者所具有的概念框架是由哪些因素构成的。但是,由于概念框架是一个变量,如果我们不对智能模拟的目标加以限定,那么计算机编程就会面临指数爆炸的问题。因此,对人类智能的模拟就必须把机器人的目的加以限定,让机器人做特定的、有限的工作。人脑的活动是分区域的,那么对人脑意识的模拟首先应当分功能地进行。

概念框架问题是人工智能研究过程中最为棘手的核心问题,它所带来或引发的相关问题的研究是十分困难的。在这个问题上,基础性的研究是哲学的任务,即概念框架应当包含哪些因素,日常知识如何表达为确定的语句,人类智能中动机、情感的影响其状况是如何的,如何解决某些心理因素对智能的不确定性影响。而人工智能的设计者们则要研究这些已知知识应当如何表达,机器人如何根据概念框架完成模式识别,概念框架与智能机行为之间如何联系,概念框架如何生成、补充、完善,以及在运用这个概念框架某部分知识的语境问题,等等。而至于智、情、意的形式表达方面,则是人工智能研究者的任务。

3.机器人行为中的语境问题

人工智能要能学习和运用知识,必须具备识别语言句子的语义的能力,在固定的系统中,语义是确定的。正因为这样,物理符号系统可以形式化。但是,在语言的运用中则不然,语言的意义是随语境的不同而有差别的。

实际上,AI也就是首先要找到我们思想中的这些命题或者其他因素的本原关系、逻辑关系,以及由此而映射出构成世界的本原关系、客体与客体之间的关系。最初的物理符号系统便是以此为基础的。但是,由于人们的思想受到了来自各方面的因素的影响,甚至语言命题的意义也不是绝对确定的单个句子或原子命题的意义更是如此。因此,最初,简单的一些文字处理与符号演算完全可以采取这种方式,但进一步的发展,例如机器人之间的对话、感知外界事物、学习机等等,就必须在设计时考虑语句所使用的场合及各种可能的意义。

我们再回到维特根斯坦思想的发展。维特根斯坦的早期思想在哲学研究中遭到了来自各个方面的批评,主要的问题是语言的日常用法,是不可能按照维特根斯坦规定的那样来使用的。在日常的使用中,语言的实际用法即语境决定了语言命题的意义。“哲学不可用任何方式干涉语言的实际用法;因而它最终只能描述语言的用法。”[8]任何语言总是有确定的意义的,关键在于它是处在什么样的场合中,如何使用,即用于一个特定场合的句子其意义是确定的,否则这个句子就无法为人们所理解,就无所谓意义,所以“我们无疑懂得这个词,而另一方面,它的含义就在于它的用法”[9]。

约翰·奥斯汀则把语言划分为两类:一类是记述式的,或者说是陈述,具有真或假的特性;另一类是完成行为式的话语,“它要完成它所特有的任务,这就是被用于完成某种行为。说出那样一种话语,就是完成某种行为。”[10]“完成行为式话语必须是在特定的环境中说出,这种环境与有关的行为在各个方面都是合适的。”[11]完成行为式的话语在我们日常生活中往往体现为一定的效果,即如果这件事是如此这般地发生了,那它便是正常的,如果相反,那它便是不正常的。在奥斯汀看,我们没有纯粹的语言标准,把陈述式或完成行为式分离开来,例如火车站广播员说,“请各位旅客在越过铁轨时通过天桥行走”,它既是直陈式的,又是完成行为式的句子。不管奥斯汀对句子的划分存在什么样的问题,但是,我们从维特根斯坦后期思想、奥斯汀的语言哲学来看,语境问题是确定语言意义的极为重要的方面。

由此看来,由于语境问题的存在,人工智能的语言编码就不是一种纯粹逻辑的技术,也不是一个纯粹认知心理学的问题。功能模拟在产生特定思维过程中已经显现出超人的有效性,记忆、知觉、意象、概念形成、问题解决、言语理解等等,都被看作可用实验来检验理论的研究领域,有关这些领域,提出了迭代、递归、组块、后进先出存储、水平搜索、垂直搜索、几何图形编码或其他信息加工的组合。但是,人的精神状态以及语言在实际中的运用,则是一个更为复杂的领域。如果要模拟人的行为,那么就必然会涉及到语言及其运用,涉及到语境的问题。

福多和拉普提出了“内容整体论”概念,认为一个表达式只有作为整个语言的部分时才能够有内容。如果我相信命题P,那么,我就得相信与P处于语境关系中的各种命题。内容整体论是与语言原子论相对而言的,这种原子论相信,表达式可以通过自身与语言之外的实体的关系而具有意义。“我们所说的内容整体论是认为,具有内容这种属性是整体性的,在这种意义上,只有当语言中的许多其他(不同义的)表达式具有内容时,某个表达式才能够具有内容。”[12]当然,持内容整体论观点的最早也许是“奎因—迪昂”原理,主张句子命题的意义必须是句子处在一个整体的科学理论语境中才能确定。

而自弗雷格对词义的分析时提出语境原则以来,语境论现已普遍成为语言哲学所探讨的重要方面。弗雷格认为,一个词的意义只有在句子的语境中才有意义,例如“暮星”与“晨星”虽然是相同的对象,但其语境不同,意义也是不同的。达米特在语境论基础上,提出了“从属原则”,即如果一个词独立于它出现时的句子,那么我们就无法确定它的意义。同样,没有领会整个思想,我们也就不能掌握构成这个思想的组成部分。

在哲学上,语境论是在“概念的相对性”提出之后形成的,它作为反对形式化的一种观点,即反对人们认为可以建立一套能被普遍应用而无须考虑特殊情况的抽象形式,或者我们可以通过研究一个陈述的逻辑结构来确定它的含义的观点。语境论者包括道德语境论(伦理情景主义)与哲学的语境论。“在语言哲学中,语境主义提出,一个词的意思是通过它在一个句子中的用法或出现来确定的,也就是说,通过它对句子内容的作用来确定的。因此,句子或命题在对意思的解释上比词或概念更重要。理解一个词就是理解它如何被用在一个句子中。语境定义是以语境主义为基础的,它指的是:解释一个词,要求助于它出现于其中的句子。根据对语境主义的类比,奎因和戴维森创立了人们所说的语义和整体论,这一观点认为,一个句子的意思是由它在整个语言中的用法确定的。”[13]奎因说道:“即使假定终究可以给同义性的概念提供一个令人满意的标准,但是,这种做法仍然只是考虑了‘意义’这个词的一种语境,即‘意义相似’这个语境。语词是否也有语言学家们应予以注意的其他一些语境呢?是的,语词肯定还有另一种语境,即‘具有意义’这个语境。”[14]因此,我们说同义的问题时,就得确立情境的相似性,但是,“没有两种情景是完全相似的,即使在其中说出同一形式的情境也有无数的差别。”[15]

鉴此,人工智能在设计语言编码时,就不得不考虑整个思想以及言语的各种情境条件对于句子意义的制约作用。然而,困难在于找出那些与语言情境有关联的主观成份,而对于后者,则几乎是不可能的。因为外部情境是一个极不确定的因素,每一个场景都是不相同的,这只能根据社会文化的类型大致确定几种不同情境类型,社会化的认识论则将在这方面提出它们自己的见解。

显然,从事对语境问题研究的哲学家们推动了这个转向。实际上,把世界形式化,或者形式地理解智能行为,直至目前人们认为是极为困难的,这些困难用形式化的方法是无法逾越的。由此可见,西蒙和纽厄尔的符号程序已经走到了终点。致命的局限性是由于符号程序没有看到信息加工系统是动态的、相互作用的、自组织的系统。而罗森布拉特则清楚地看到了这一点。

4.日常化认识问题

人工智能模拟不仅要解决心身关系,即人脑的生理与心理的关系问题,而且还必须解决人脑的心理意识与思维的各个层次间的关系,以及人的认识随环境的变化而变化、随语境的变化而变化的问题。根据智能系统的层次性分析,我们可以逐步做到对各个层次的模拟,但是,智能层次性分析也只是一种抽象化的分析或理想化的分析而已。实际的智能是多个层次之间不可分割的相互关联着的整体,各层次间究竟是如何发生关联的?在什么情况下发生什么样的关联?这便涉及到日常化的认识问题。

因此,建立在符号系统基础上的人工智能无法解决人类认识的日常化问题,特别是无法解决人脑的情感、动机、意向性等心理活动功能,无法解决我们的日常认识因语境不同而意义不同的问题。

现象学大师胡塞尔则认为,世界、思想的背景、日常语境等是一个非常复杂的系统,这个系统是与那些同个人复杂的信念体系等相联系的事实组成的。但是,原则上说,我们可以将自己在世界中的存在悬置起来,而完成对人类信念系统的独立描述,这样,我们智能行为的基础就可以得以确定。但是,海德格尔却反对其导师胡塞尔的观点。我们所生存的世界,我们说话的语境等等我们日常应付自如的方式,是我们社会活动的一部分,是我们的存在方式。这种存在方式是我们无法像胡塞尔那样将它抽取出一定的成分确定化的。明斯基指出:“仅是建构一个知识基础,就成为智能研究的重大问题……关于常识性知识的内容和结构,我们还是知道得太少了。‘极小’常识系统必须‘知道’有关因果、时间、目的、地点、过程和知识类型……某些情况。在这一领域中,我们需要花力气做严格的认识论研究。”[16]1970年后,在明斯基的倡导下,人们开始研究“微世界”领域,打算形成系统地处理知识的方法,并且人们希望这些限定的、孤立的微世界能够逐步变得更接近现实,并且能早日成为通往现实世界的理解手段。但是,最终人们发现这种研究在目前的情况下过于困难。因为,关键的问题是我们必须在面对常识的研究中形成一组抽象原理,以与常识理解相对称。“但是,人类很可能根本不是按照通常的方式使用常识性知识的。正如海德格尔和维特根斯坦所指出的,与常识性理解相当的,很可能是日常技能。所谓‘技能’,并不是指过程的规则,而是指在众多的特定场合知道该做什么。”[17]如果是这样的话,理解技巧就不是以某种确定的规则为基础的了,例如道德语境、审美情境等等。那么,基于符号的AI就无法对这样一种人们在特定的语境中所做出的特定行为做出模拟了。这就迫使AI的研究从符号操作理论转向神经网络模型的建构。

由于物理符号系统是一个物理的过程,它与人的心理活动有着根本的区别。因此,要模拟人的心理与意识,在原则上是不可能的事。但是,模拟人的意识所要解决的问题主要是三个方面:

首先,限定人工智能的目标。必须使单一的机器人对人的意识的模拟特定化,即不要让机器人做太多的过于复杂的事情,不要使编程陷入指数爆炸。根据西蒙的观点,人的认识就是解决问题,而人在解决问题时是先易后难、逐个逐个地解决,而不是一次解决无数个复杂问题。

其次,必须把人的心理与意识分层次进行模拟。只要能够展示出人脑的功能,那么尽管物理的过程与人的生理、心理的过程是截然不同的,但从功能上来说则是等效的。但是,要分层次地进行模拟,心理学的实验则是必不可少的。即为了给观察到的人类行为建立模型而编制符号系统程序,心理学对参试者观察与实验的结果便可作为构造物理符号系统的假设。

再次,必须建立理解意义的各种条件性假设。由于语句的意义在使用过程中是变化的,其意义随语境的不同而不同,这就需要我们在编程时设计出各种条件性假设,不同的语境有着不同的条件,只要我们设计出这些条件,那么其意义就得以确定。

【参考文献】[1][2][3][4][5]塞尔.心、脑和科学[M].杨音莱译.上海:上海译文出版社,1991.15、19、23、28、30-31.[6]夏佩尔.理由和求知[M].褚平,周文彰译.上海:上海译文出版社,1990.380.[7]查尔默斯.科学究竟是什么?[M].查汝强等译.北京:商务印书馆,1982.34.[8][9]维特根斯坦.哲学研究[M].陈嘉映译.上海:上海人民出版社,2001.75、121.[10][11]奥斯汀.记述式与完成行为式[A].载涂纪亮主编.语言哲学名著选辑[C].北京:三联书店,1988.202、203.[12][13]转引自布宁.西方哲学辞典[S].余纪元编著.北京:人民出版社,2001.194、196-197.[14][15]奎因.从逻辑的观点看[M].江天骥等译.上海:上海译文出版社,1987.45、56.[16]转引自博登.人工智能哲学[M].刘西瑞,王汉琦译.上海:上海译文出版社,2001.440.[17]德雷福斯.造就心灵还是建立模型:人工智能的分歧点[A].载博登.人工智能哲学[C].442-443.

(注明:本文作者郑祥福(浙江师范大学法政学院,浙江金华321004))

人工智能发展中的哲学论辩

    《中华读书报》2015年1月7日刊载了黄铁军先生《人类能制造出“超级大脑”吗?》(以下简称《超级大脑》)。人类是否能够制造出“超级大脑”,问题很大,本文仅谈如何看待人工智能发展中的哲学论辩问题。

    电脑是否能够代替人脑

    黄先生在《超级大脑》一文的开头说:

    人类能够制造出具有自主意识的“超级大脑”吗?这方面的哲学论辩已经持续上百年,再喋喋不休已经意义不大。行胜于言,对这个问题最好的回答是制造出“超级大脑”。六十多年来,计算机性能按照摩尔定律持续提升,新型微纳电子器件快速进步,越来越多的技术证象表明,仿照人类大脑结构和机理,制造出逼近乃至超越人脑的“超级大脑”,不仅在技术上是可能的,而且它的性能会远远超人脑,还很有可能会涌现出自主意识。

    黄先生还认为,技术按指数速度持续增长,“机器能否超越人类”这主要取决于技术。“按照各种预测,只需要十年左右就能见分晓”。相比之下,一百年来,关于这个问题的哲学思辨没有多大改观。黄先生说,他对制造“超级大脑”的估计,也许过于乐观,而且迎来的是天使还是魔鬼都还未可知,但踯躅不前决非上策。

    众所周知,人工智能问题的提出与论辩,是与电子计算机的产生密切相关的。现代第一台电子计算机是1946年美国宾夕法尼亚大学研制的ENIAC。就在那一年,阿希贝就提出“能否设计一个脑”的问题。此后,电子计算机经历了电子管、晶体管、集成电路和大规模集成电路四代发展后,进入了超大规模集成电路的第五代的研制,从而出现计算机人工智能化的新阶段。由于电子计算机与人脑的某些功能存在着类比的可能性,并对后者的功能进行模拟与放大。现有的计算机基本上还是冯·诺伊曼型的,即按照冯·诺伊曼提出的EDVAC原则设计的。而人脑不完全是冯·诺伊曼型的计算机,它具有多维功能,不仅能进行数字计算,传统逻辑思维,还能进行形象思维、直觉思维、辩证思考等等。它的工作方式是自编程序、集中控制与分散控制相结合的并行处理。人脑与电脑相比较,其结构极端复杂,是由千亿个神经元组成错综复杂的神经网络,人们至今对它知之甚少,所以,电脑对人的模拟是先从功能模拟入手,收效显著。它无疑可以、而且早就已经,代替并大大超过了人脑的部分功能,这个客观事实,已经成为现代人的常识。

    但是,问题在于:电脑是否能够完全代替并超过人脑的全部功能?或者,换一种说法,人类是否能够制造出超过人脑全部功能的所谓“超级大脑”?这正是关于人工智能的所有哲学论辩的焦点和关键所在。《超级大脑》一文的作者根据现代技术发展的状况进行预测,对此持乐观的看法,当然无可厚非。笔者认为,目前就作此断言,其根据尚且不足。几十年来围绕此问题而发生的哲学论辩,也并未“过时”;即使有些看法随着科学技术的发展而显得过时,但从整个科学技术发展的历史长河来说,作为其中的必要环节,只要我们不割断历史,似乎不能说是“意义不大”。

    对于“奇点”理论,也有不同的看法

    人类能制造出“超级大脑”吗?目前两种看法,一种持存疑和否定的态度,另一种则是肯定人工智能将会超过人类智能,只是时间上的问题。

    在《超级大脑》一文中,黄先生在文章中的不同段落中,在讲到不同的技术进展时,都有所提示。他说,近年来,最惹人注目的是美国著名的发明家和思想家雷蒙德·库兹韦尔的“奇点”理论。在《灵魂机器的时代:当计算机超过人类智能时》《奇点临近:2045年》等书中预言:到21世纪初,地球上将出现一种足以与人类智能抗衡的新型智能,最终它将远远超过人类的智能。根据摩尔定律,他推演出电脑超越人脑的“库兹韦尔曲线”,预测到2027年,一千美元可以买到超越一个人(脑力)的电脑,到2050年,一千美元可以买到超过全部人类大脑的计算机。他还预测了机器智能赶超人类智能之各个方面后发展的下一阶段:人类与机器的联合,即嵌入我们大脑的知识和技巧,将与我们创造的容量更大、速度更快、知识分享能力更强的智能相结合。这种融合便是奇点的本质。根据这个预测,黄先生无比乐观地写道:“在‘奇点’到来之际,机器将自我完善,超越人类,从而开启一个新的时代。”此外,史蒂芬·霍金、比尔·盖茨等著名人士对人工智能发展前景表示担忧,都发出了警告:如果智能机器缺乏监管,人类将迎来一个黑暗的未来。

    但是,对于是否存在奇点的问题,国内外的学术界和产业界存在着完全不同的观点。中国科学院计算所研究员、中国计算机学会副秘书长陈熙霖先生认为,机器智能很难超越人类,也许更像永远处在逼近的过程中。如果仅仅是从记忆能力上看,或者计算能力上看,今天的计算机已经远远把人的能力甩在后面了。但是,从人类的智力活动的整体而言,它包括了记忆、联想、归纳、演绎、判断、思考、顿悟、甚至做梦等诸多内容,而且智力还与情感、意志有关。从这个意义上看,机器智能很难超越人类。英特尔中国研究院院长吴甘沙表示相信奇点,但采用一种预测的态度而非预报,言之凿凿说2027或2045年有点不合适。美国《华尔街日报》曾发表题为《人工智能不是威胁——现在还不是》等相关文章。这些文章肯定了过去几十年里,计算机在许多事情上表现“都有长足的进步”,但“为什么要把未来的幽灵说成即将到来的恶魔呢?”由此可见,“奇点”理论并没有形成科学技术界和产业界的共识。

    从《中华读书报》4月8日刊载的《超级智能:路线图、危险性与应对策略》一文所披露的情况得知。刚刚结束的博鳌亚洲论坛分论坛上,五位世界顶尖人工智能研究者均持谨慎乐观态度,认为“没有任何证据证明计算模式能够产生情感”。几位研究者的观点比较类似:“人工智能刚刚处于起步发展阶段,远不够先进。”该文还写道:“目前我们看到的人工智能只是嵌入式的人工智能,就是有一些算法可以模拟人脑的部分的功能,比如对于语言、翻译,还有对于语音、图像的识别,这些都是非常基础性的。而要让机器能够自主决策,需要有更深层的研究,了解人脑的构造。甚至,我们还没有进入人工智能的时代,我们仅仅是在人机交互的初期,现在所谓的机器人‘意识’,其实都是基于大数据基上的分析预判,是通过各种复杂体系和算法后得出的最合理选择。”

    倡导哲学与科学的联盟,实现哲学与科学的对话

    这里,实际上有一个在人工智能的发展过程中如何看待哲学论辩的问题。平心而论,在科学技术发展的历史长河中,伴随有这样那样的哲学论辩,这是不以人们主观意志为转移的客观事实。人工智能事业发展的几十年过程中,重大争论如影随形,从未停止。除了有逻辑学派与心理学派、符号加工假说与联接主义之争以外,还有计算机是否能够表达语言的争论。当然最尖锐、最关键的莫过于“人工智能能够超过人类智能”之论辩。在诸多的争论里,有的是属于科学技术范畴的,有的则是涉及哲学原则了。

    正确的态度应该是冷静地探究这种论辩产生的原因,实事求是地分析不同观点是非得失,遵循“百家争鸣”的方针来探讨有关问题。

    在前面提到的《人工智能的发展和若干争论问题》一文中,数学家林建祥先生所举出的德雷弗斯,是一个颇能说明问题的例子。德雷弗斯是一位对人工智能持怀疑态度、具有代表性的哲学家。在他写的《计算机不能做什么——人工智能的极限》中,虽然他对计算机功能的预言做出尖刻的讽刺,后来被技术的发展所纠正,但他也做出了科学的分析,使人冷静地看到计算机的局限,推动人们去寻找解决技术难题的办法。根据人工智能发展的历史事情,林建祥先生说了这样的一段话:

    计算机的实践经常提出非常深入的哲学问题,必然能丰富哲学的思维。而哲学问题的切实讨论,也定会对计算机的应用发展研究,提供正确的方向。

    这里,就涉及到科学家与哲学家的联盟问题了。人们通常认为,关于哲学家和科学家建立联盟的主张是列宁最早提出的。其实,早在18世纪,法国著名的唯物主义哲学家狄德罗(D.Dideror,1713~1784)就已经明确地提出来了。狄德罗在《对自然的解释》(1753年)一书中写道:

    有一些,在我看来是有很多仪器而很少观念的;另一些则有很多观念而根本没有仪器。真理的利益将要求那些思考的人终于肯和那些行动的人结合起来,以便使思辨的人免得从事运动;使操作的人在他所从事的无限运动中有一个目标;使我们的一切努力彼此联合起来并且同时被导向对付自然的抵抗;以及使得在这种哲学的联盟中,每人都充当一个适合于他的角色。

    很明显,狄德罗在这里所说的那些“没有仪器”的“思考的人”,指的就是哲学家;而那些“很少观念”而又有“很多仪器”的“操作的人”,指的就是自然科学家。他在这里已经十分明确地使用了“联合起来”,“哲学的联盟”这样的提法了。

    恩格斯在《自然辩证法》中,强调的是哲学理论家和自然科学家之间在知识上、学术研究上的“相互补偿”。他说:

    正如今天的自然科学家,不论自己愿意与否,都不可抗拒地被迫注意理论的一般结论一样,每个研究理论问题的人,也同样不可抗拒地被迫接受近代自然科学的成果。在这里发生某种的相互补偿。如果理论家在自然科学领域中是半通,那末今天的自然科学家在理论的领域中,在直到现在被称为哲学的领域中,事实上也同样是半通。

    1971年,美国曾经召开了“人工智能的可能性与局限性”的讨论会,会议曾经向全国科学基金会提出了一份总结性的建议书,其中指出,“这个问题的特点是,哲学家和计算机科学家们都对同一问题进行过讨论,但这两组人员之间都没有重大的交往”。(《外国自然科哲学摘译》,1976年第2期)这个状况非常值得深思。当人类文明处于早期,古代的哲学和自然科学还汇合在一起的时候,当然不存在两者的联盟问题。但到了近代,在自然科学从哲学中分化出去并独立起来时,哲学家和自然科学家的联盟问题,就具有现实性,并显得十分重要,而且,随着自然科学的发展,这种联盟关系就愈来愈加重要。今天,现代科学正朝着整体化的方向发展,自然科学和社会科学相互渗透的趋势不断加强。在这种情况下,应当消除哲学与自然科学的对立,在自然科学家、哲学家和社会科学家(包括管理科学家)之间,建立密切协作的联盟,取长补短,相互学习,共同推动科学技术的进步。

徐英瑾:人工智能为何需要哲学

近年来,人工智能发展非常迅速,在可以预见的未来,它必然会强烈冲击并深刻变革人类既有的生活模式。实际上,除技术问题外,人工智能的逻辑基础和伦理基础与哲学之间的关系也十分密切。有鉴于此,本书从与人工智能紧密相关的哲学问题入手,关注如下话题:强人工智能是否可能;近代唯理论和经验论争论对于人工智能的影响;苏联、日本及欧盟在人工智能发展历程中的哲学教训;航空器自动驾驶背后的哲学难题;军用机器人的伦理是非;儒家与人工智能等。作者从逻辑架构和历史经验出发,展望了未来通用人工智能发展的可能性、可行性以及相应的社会和伦理影响。

《人工智能哲学十五讲》序言

读者将要读到的这本书的关键词乃是“人工智能哲学”。有的读者或许会问:人工智能难道不是理工科的话题吗?既然你是从事人文学科研究的,又有什么资格对科学问题插嘴呢?

关于哲学家是否有资格对科学问题插嘴,作为科学哲学与西方哲学的双料研究者,我觉得有几句话要说。我承认:并非面对所有理工科问题,哲学家都有话要说。譬如,关于“歼20战斗机为何用鸭式布局的形体”这个问题,哲学家就不会发言,至少不会以哲学家的身份发言(以资深军迷的身份发言则可能是被允许的,但这一身份与哲学家的身份并无本质联系)。然而,关于“进化论是否能够沿用到心理学领域”“量子力学的本质到底是什么”这些科学家自己都未必有定见的问题,心理学哲学、生物学哲学与物理学哲学当然有话要说。如果有人不知道这些具体的科学哲学分支的存在的话,那么,则是他本人的责任,而不是这些学科分支的责任。

按照同样的逻辑,关于人工智能的问题,哲学家当然也可以发言,正如物理学哲学家可以对基本物理学发现的意义进行追问一样。具体而言,在人工智能学界,关于何为智能的基本定义目前都没有定见,而由此导致的技术路线分歧更是不一而足。在这种情况下,就此多听听哲学家关于此类问题的见解,恐怕也没有啥坏处。

有人或许会反问:哲学家们连一行程序都不会写,为何要听哲学家的?

对这个疑问,两个回应足以将其驳倒。

第一,你怎么知道哲学家都不会写程序?比如,知识论研究领域的重磅学者波洛克(JohnL.Pollock),就曾开发了一个叫作“奥斯卡”的推理系统,相关研究成果在主流人工智能杂志上都发表过。再比如,在当今英美哲学界名声赫赫的心灵哲学家查尔莫斯(DavidChalmers),是印第安纳大学布鲁明顿分校的人工智能大专家侯世达(DouglasRichardHofstadter)的高足,以前也和老师一起发表过很多人工智能领域的专业论文,难道他竟然不会写程序?

第二,难道一定会写程序才是能够对人工智能发表意见的必要条件?作为一种底层操作,写具体的代码的工作,类似于军队中简单的射击动作。然而,大家请试想一下:汉高祖刘邦之所以能够打败西楚霸王项羽,究竟是因为他有知人善用的本事呢,还是因为他精通弩机的使用?答案无疑是前者。很显然,哲学之于人工智能的底层操作,就类似于刘邦的战略思维之于使用弩机之类的战术动作。

有的读者还会说:纵然我们承认“人工智能哲学”现在是一个在哲学内部被承认的学术分支,这又如何?譬如,主流的人工智能哲学专家之一德瑞福斯(HubertDreyfus)就是一个如假包换的海德格尔(MartinHeidegger)哲学的粉丝,而海德格尔哲学的描述云山雾罩,毫无算法说明支持,以这样的哲学为基础再建立一种人工智能哲学的理论,难道不是在卖狗皮膏药吗?

对于这一点批评,我的意见是:虽然作为英美分析哲学研究者,我本人有时候对海氏晦涩的表述方式也感到抓狂,但在我能够看懂他的论述的限度内,我并不怀疑海氏哲学肯定说出了一些非常重要、非常深刻的事情。换言之,在我看来,只要能够将海氏哲学思想“翻译”得清楚一点,他的洞见就更容易被经验科学领域内的工作者所吸收。从这个角度来看,德瑞福斯先生在重新表述海氏哲学方面所做出的努力,乃是吾辈相关“翻译”工作的重要思想伴侣。

那么,到底该怎么来做这种“翻译”呢?下面我就来举一个例子。概而言之,海氏现象学的一个基本观点是:西方哲学传统关心的是“存在者”,而不是“存在”本身。而他自己的新哲学要重新揭露这被遗忘的“存在”。我承认这是海氏的“哲学黑话”,不经解释的确不知所云。但它们并非在原则上不可被说清楚。所谓“存在者”,就是能够在语言表征中被清楚地对象化的东西。比如,命题、真值、主体、客体,都是这样的存在者。而“存在”本身,则难以在语言表征中被对象化,比如你在使用一个隐喻的时候所依赖的某种模糊的背景知识。你能够像列举你的十根手指一样,将开某个玩笑时的背景知识都说清楚吗?在背景知识与非背景知识之间,你能够找到清楚的界限吗?而传统人工智能的麻烦就在这里。人类真实的智能活动都会依赖这些说不清楚的背景知识,而程序员呢,他们不把事情说得清清楚楚,就编写不了程序。这就构成了人类的现象学体验与机器编写的机械论预设之间的巨大张力。

有人会说:机器何必要理睬人的现象学体验?人工智能又不是克隆人,完全可以不理睬人是怎么感知世界的啊?对这个非常肤浅的质疑,如下应答就足够了:我们干吗要做人工智能?不就是为了给人类增加帮手吗?假设你需要造一个搬运机器人,帮助你搬家,那么,你难道不希望他能够听懂你的命令吗?——譬如如下命令:“哎,机器人阿杰啊,你把那个东西搬到这里来,再去那边把另外一个东西也拿过来。”——很显然,这个命令里包含了大量的方位代词,其具体含义必须在特定语境中才能够得到确定。在这样的情况下,你怎么可能不指望机器人与你分享同样的语境意识呢?你怎么能够忍受你的机器人是处在另外一个时空尺度里的怪物呢?既然这样的机器人必须具有与人类似的语境意识,由海氏哲学所揭示的人类现象学体验的某些基本结构,一定意义上不也正适用于真正的人工智能体吗?

需要指出的是,海德格尔绝非是会在本书中出现的西方哲学大牛。别的大牛还包括胡塞尔(EdmundHusserl)、福多(JerryFodor)、塞尔(JohnSearle)、安斯康姆(GertrudeElizabethMargaretAnscombe),以及前面提到过的波洛克,还有国内学术界很少谈论的日本哲学家九鬼周造。但这些哲学家并不是本书的真正主角。本书的真正主角,毋宁说是这样三个问题:

第一,现实评估之问:当下的主流人工智能,算是通用人工智能吗?(我的答案是“非也”。)

第二,伦理维度之问:研究通用人工智能,在伦理上是利大于弊,还是弊大于利?(我的答案是“利大于弊”。)

第三,路线图勾画之问:我们该如何逼近通用人工智能?(我对该问题的答案包含三个关键词:“小数据主义”“绿色人工智能”与“心智建模”。)

从我预先给出的这些问题的答案来看,读者应当看出,我是不可能赞成如下三条在当前媒体界与商界被反复鼓吹的意见的(但这三条意见彼此之间在逻辑上未必自洽):

第一(针对我的第一问):当前主流的人工智能,经由深度学习技术所提供的强大运算力,会在某个不太遥远的时刻逼近通用人工智能的目标。

第二(针对我的第二问):尽管通用人工智能技术可以通过当前的技术路线而达成,然而,该目标的实现会对人类社会构成莫大的威胁。

第三(针对我的第三问):未来人工智能的主要技术路径,是大数据技术、5G环境中的物联网技术。

我认为以上三条意见都是错的,而且是那种哲学层面上的错误(注意,当一个哲学家说某人“犯下哲学层面上的错误”的时候,他真正想说的是:嘿,老兄,你错得离谱了!)但不幸的是,全球范围内关于人工智能的技术与资本布局,都多多少少受到了上述三种观点——尤其是后一种观点——的影响。对此,我感到非常忧虑。

不过,读者能够读到我的这些忧虑,至少说明这本书已经得到了出版。在此,我首先要感谢北京大学出版社的田炜女士在促成本书出版的过程中付出的努力。早在2018年我在北京主持“世界哲学大会人工智能分会场”的工作时,她其实就向我约了稿,但因为稿约繁忙,直到2020年6月底我才交稿,甚为惭愧。在此我还要感谢中国工程院院士李德毅教授在阅读本书一些章节的初稿时对我的鼓励与批评意见。需要指出的是,本书的很多思想,来自我长期与美国天普大学的计算机专家王培老师学术交流的结果,因此,没有他的思想刺激,这本书也不可能完成。同时需要指出的是,我已故的导师俞吾金先生在生前一直嘱咐我要做分析与欧陆哲学兼通的学者,而本书对于各种相关思想资源的调用,也正是为了实践我导师生前的治学理念。

本书十五讲的内容,很多来自笔者在复旦大学开设的“人工智能哲学”(本科生课程)与“智能科学”(研究生课程)的讲义。与本书内容相关的研究,得到了教育部哲学社会科学研究重大课题攻关项目“新一代人工智能发展的自然语言理解研究”(项目号:19JZD010)的资助。本书也是该项目的前期阶段性成果的一部分。

徐英瑾

2020年6月26日

《人工智能哲学十五讲》目录

作者简介

徐英瑾,复旦大学哲学学院教授、博导。主要研究领域为人工智能哲学,知识论,认知科学哲学等。多次获得上海市哲学社会科学优秀成果奖、全国高等院校优秀人文社会科学成果奖。著有《心智、语言和机器——维特根斯坦哲学与人工智能哲学的对话》,是国内目前最全面深入的关于人工智能哲学的研究著作,于2015年获得中国首届“科史哲青年著作奖”。

特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇