人工智能不能忽视符号逻辑以及原因 大数据文摘转载自数据派THU 作者:Walid Saba 翻译:欧阳锦 校对:黄衍楠 泛化和高级表示 著名的机器学习(M
来源:雪球App,作者:大数据文摘,(https://xueqiu.com/6597170251/210096691)
大数据文摘转载自数据派THU
作者:WalidSaba
翻译:欧阳锦
校对:黄衍楠
泛化和高级表示
著名的机器学习(ML)研究者YoshuaBengio,也被认为是深度学习(DL)的教父之一,他最近被引述说:
现在的深度学习在感知方面取得了巨大的进步,但它还没有在能够发现高层次表征的系统上取得成果,也就是我们在语言中使用的那种概念。人类能够利用这些高层次的概念,以强大的方式进行概括。这是连婴儿都能做到的事情,机器学习却非常不擅长。
Bengio的诊断是正确的。在著名的三人组(GeoffHinton、YoshuaBengio和YannLeCun)中,与Hinton的"很快深度学习就能做任何事情"相反,Bengio已然持更开放的态度去讨论DL的局限性。但是Bengio仍然坚持认为,DL范式最终可以在不诉诸符号和逻辑推理的情况下进行高级推理。
DL极端主义者在承认符号和逻辑推理(S&LR)时遇到的问题是,这将使神经网络成为只是可用于感知和模式识别等低层次任务的工具之一,而S&LR将拥有模拟类似人类的高层次推理的高等级地位,即我们在面对复杂问题时解决任务、语言理解等方面使用的那种高层次推理。
因此,任何把思维看作神经网络的人都不会承认对符号和逻辑推理(S&LR)的需要。但是,如果他们现在不接受这一事实,最终他们也会接受的——如果他们承认对那种让我们得以"以强大的方式进行概括"的抽象概念的高级表征的需要,而显然Bengio确实承认了。
没有逻辑概括就没有基本事实的学习
在之前的一篇文章中,我讨论了自上而下学习(相对于从数据自下而上学习)的可能性:通过实例化先天(形而上学)模板,因为否则就很难解释儿童没有花费时间从数据中学习这些模板,就在早期就知道基本的天真常识性物理学(naïvecommonsensephysics)。作为一个例子,我使用了LocatedIn模板。这个模板的逻辑可以用下面的图片来描述。
因为他的棒球手套在他的公文包里,所以汤姆知道如果他把公文包放在他母亲的SUV里,他的棒球手套的位置也是他母亲的SUV的位置。他还知道,如果他们开车去纽约的伍德斯托克,那么他的棒球手套现在就在纽约的伍德斯托克,等等。
正如我们之前所讨论的,假设一个孩子从观察/数据中自下而上地学习上述模板的逻辑是非常奇怪的。有很多技术上的原因可以解释为什么这是一个奇怪的假设,但我们在此指出,这种自下而上/数据驱动的对这些(常识)幼稚的物理学模板的学习有两个非常关键的问题。(i)这篇论文遇到了一个循环性问题,因为在学习LocatedIn模板的逻辑时,人们需要已经学习了(例如)ContainedIn模板的逻辑,而这又可能递归地假定已经知道LocationIn模板;(ii)如果这些模板是自下而上学习的(因此是单独学习的),我们有可能学得不同,但由于我们不被允许学得不同,它们不可能是个人观察(或经验)的结果。
但现在暂且搁置 "一切都从数据中自下而上地学习"的观点的所有问题,我想在这里集中讨论这个简单模板的逻辑。显然,孩子不是在数据/实例层面上学习这个模板(棒球手套/公文包;公文包/SUV,然后SUV/纽约州......)而是在一个更高的层面上;即physicalObject-containedIn-physicalObject。没有什么可以解释一个孩子是如何快速地意识到这个模板的逻辑的(如果一个孩子从对实例的观察中了解到这一点,他们将花费一生的时间来学习这个基本的常识性物理事实)。
那么,这样一个模板的逻辑是如何学习的呢?一个建议是,它是自上而下而不是自下而上学习的:有描述我们生活的世界的物理模板,孩子“学习”这些常识性事实所需要的只是实例化一些先天模板次。上述具体模板的逻辑可以描述为:
作为另一个简单的例子,孩子也会很快学会把某个椅子,比如说chair1,涂成红色,从而得到Color(chair1,red)这一事实。但是,一旦这个模板被实例化,孩子就不需要看到door2涂成白色,就知道会产生Color(door2,white);也不需要看到car100涂成黄色,就知道会产生Color(car100,yellow)。孩子学会了对代表概念的更高层次符号的量化概括:
孩子通过看到大量涂有不同颜色的物体,自下而上地从数据中学习上述模板,这一点根本不靠谱。如果没有其他合理的解释来说明孩子如何如此迅速地 "学会"这些常识性的物理事实,我们认为这种普遍的模板的逻辑是与生俱来的,孩子通过寥寥几次实例化模板,自上而下地迅速学会了这些事实。如果这个说法是正确的,那么它唯一可能发生的方式就是对符号进行量化--这些符号代表了整个类别而不是具体的实例(例如,位置、物体、颜色等)。在没有量化和符号逻辑的情况下,似乎没有合理的解释,这种类型的概括和学习是如何在自下而上/数据驱动的方法中发生的。
没有逻辑概括就没有语言的学习
除了常识性的形而上学事实,对代表高层次概念的符号进行量化是对儿童如何学习语言的唯一合理解释。当一个孩子听到(和理解)诸如以下的句子时
然后孩子会知道,任何人类都可以成为爱的媒介,而他们爱的对象可以是任何实体。因此,孩子会理解或产生任何具有以下结构的句子。
这是一个给潜在无限数量的句子的模板,因为爱的媒介可以是任何人类,而爱的对象可以是任何实体(人类,如玛丽或隔壁的男孩;或像弹吉他这样的活动!)。因此,孩子所学到的是对某一类型/类别的符号进行量化的规则。下面是上述模板的一些实例。
同样,关于儿童如何非常迅速地学习这些模板的唯一合理解释是,儿童"掌握"了一个高级模板,而这个模板只有在代表高级概念的符号(宽泛地说,代表特定类型的符号)上通过量化来定义,才能被正确实例化。
Bengio和对能用高级表征进行概括的人工智能的追求
Bengio是正确的,"人类能够使用这些高级概念以强大的方式进行概括",ML/DL"还没有提供能够发现高级表征(我们在语言中使用的那种概念)的系统"也是正确的。但他的说法,如果我们坚持自下而上/数据驱动的范式,排除其他任何范式,就可以获得这种概括,是错误的。他认为,在不承认对符号的逻辑量化(符号的范围/代表高级概念)的情况下,我们可以做到儿童早期掌握的那种概括和概念化,也是错误的。还要注意,有些符号又可以用复杂的句法结构来定义。请考虑以下情况:
(1)"戴着黑色AC/DC帽子经常来这里的高个子男孩"
(2)"约翰"
虽然(1)是一个复杂的名词短语,但从语义上讲,(1)和(2)都是同一类型的对象,即一个人!
数据是很重要的。而在数据中寻找重要的相关性也很重要并且有很多有用的应用。但是认知,特别是人类层面的认知,远不止是观察数据中的一些模式。尽管有着被误导的炒作和媒体的狂热,到目前为止,没有任何合理的理论可以证明人类能够进行的那种高级推理可以摆脱符号推理。
顺便说一句,我在这篇文章中没有说过任何至少从20世纪80年代初就已经观察到的、支持和证明过的东西。阅读JerryFodor将是一个好的开始--因此,也许现在是时候以开放的心态重新阅读人工智能和认知科学了?
AndrewGordon和JerryHobbs关于如何将常识形而上学形式化的重要参考资料
原文标题:
AICannotIgnoreSymbolicLogic,andHere’sWhy
原文链接:
网页链接
点「在看」的人都变好看了哦!
人工智能的三大学派
符号主义、连接主义、行为主义是人工智能的三大学派。
符号主义(symbolicism)符号主义,又称逻辑主义、心理学派或计算机学派。
人工智能的符号主义学派是一种认为人工智能源于数理逻辑的观点,它试图用符号系统和规则来表示和操作人类的思维过程,例如推理、证明、解决问题等。
下图是用决策树模型输入业务特征预测天气,就是典型的符号主义。
图:用决策树模型输入业务特征预测天气
它叫做符号主义,是因为它使用了数学和物理学中的逻辑符号,如变量、常量、函数、谓词、量词等,来构建复杂的表达式和语句,从而表达知识和逻辑。
符号主义学派是人工智能的早期和主流学派之一,它的代表性成果有专家系统和知识工程等。
符号主义首个代表性成果是:1956年Newell和Simon等人研制的成为“逻辑理论家”的数学定理证明程序LT,可以证明出《自然哲学的数字原理》(PrincipiaMathematica)中的38条数学定理(后来可以证明全部52条定理),表明了可以应用计算机研究人的思维过程,模拟人类智能活动。
图:Newell和Simon
符号主义最辉煌的时候,是专家系统,专家系统的能力来自于它们存储的专业知识,知识库系统和知识工程成为了上世纪80年代AI研究的主要方向。
图:专家系统
专家系统仅限于一个专业细分的知识领域,从而避免了常识问题;专家系统其简单的设计又使它能够较为容易地编程实现或修改。专家系统仅仅局限于某些特定情景,且知识采集难度大、费用高、使用难度大,在其它领域如机器翻译、语音识别等领域基本上未取得成果。未能实现的日本的第五代计算机项目就是典型。图:日本第五代计算机概念图
在20世纪80年代末,符号主义学派开始衰落。其原因如下:
符号主义试图将人类思想、行为和结果抽象为简洁深入的规则,类似于数学定理。然而,人类的思想是极其复杂而广泛的,而人类的智能不仅仅是逻辑和推理的结果。人类抽象出的符号,源头是身体对物理世界的感知,人类能够通过符号进行交流,是因为人类拥有类似的身体。计算机只处理符号,就不可能有类人感知,人类可意会而不能言传的“潜智能”,不必或不能形式化为符号,更是计算机不能触及的。1997年5月,名为“深蓝”的IBM超级计算机打败了国际象棋世界冠军卡斯帕罗夫,这一事件在当时也曾轰动世界,其实本质上,“深蓝”就是符号主义在博弈领域的成果。
图:卡斯帕罗夫对战超级电脑“深蓝”
连接主义(connectionism)连接主义认为人工智能源于仿生学,用神经网络和学习算法来模拟人类的大脑结构(神经元的连接)和功能,代表性的成果有感知机和反向传播算法。
1957年,弗兰克·罗森布拉特(FrankRosenblatt)在一台IBM-704计算机上模拟实现了一种他发明的叫做“感知机”(Perceptron)的神经网络模型。
图:神经细胞与感知机
感知机可以被视为一种最简单形式的前馈式人工神经网络,是一种二分类的线性分类判别模型,其输入为实例的特征向量(x1,x2...),神经元的激活函数f为sign,输出为实例的类别(+1或者-1),模型的目标是要将输入实例通过超平面将正负二类分离。
1969年,“符号主义”代表人物马文·明斯基(MarvinMinsky)的著作《感知器》提出对XOR线性不可分的问题:单层感知器无法划分XOR原数据,解决这问题需要引入更高维非线性网络(MLP,至少需要两层),但多层网络并无有效的训练算法。这些论点给神经网络研究以沉重的打击,神经网络的研究走向长达10年的低潮时期。
1974年,哈佛大学沃伯斯(PaulWerbos)博士论文里,首次提出了通过误差的反向传播(BP)来训练人工神经网络。
BP算法的基本思想不是(如感知器那样)用误差本身去调整权重,而是用误差的导数(梯度)调整。通过误差的梯度做反向传播,更新模型权重,以下降学习的误差,拟合学习目标,实现“网络的万能近似功能”的过程。
其后的发展就是等算力和数据的提升,我们在深度学习中有讲解。
知识图谱知识图谱是大数据时代的知识工程集大成者,是符号主义与连接主义相结合的产物,是实现认知智能的基石。
行为主义(actionism)强调行为和刺激之间的关系,将人类的思维过程看成是一种条件反射和刺激响应的过程。认为人工智能源于控制论,用感知-动作模式和自适应机制来模拟人类的行为和反应,代表性的成果有进化算法和多智能体系统。
这一学派的代表作者首推布鲁克斯(Brooks)的六足行走机器人,它被看作是新一代的“控制论动物”,是一个基于感知-动作模式模拟昆虫行为的控制系统。
图:1989年,由麻省理工学院制造的六足机器人Genghis(成吉思汗),被认为是现代历史上最重要的机器人之一。由于其体积小,材料便宜,Genghis被认为缩短了生产时间和未来空间机器人设计的成本。它有12个伺服电机和22个传感器,可以穿越多岩石的地形。
在他的实验室中还有大量的机器昆虫(如上图所示),相对于那些笨拙的机器人铁家伙来说,这些小昆虫要灵活得多。
著名的研究成果还有波士顿动力机器人和波士顿大狗。
图:波士顿大狗
总结研究领域
注重方向
符号主义
研究抽象思维
注重数学可解释性
连接主义
研究形象思维
偏向于仿人脑模型
行为主义
研究感知思维
偏向于应用和身体模拟
人类具有智能不仅仅是因为人有大脑,并且能够保持持续学习。机器要想更“智能”,也需要不断学习。符号主义靠人工赋予机器智能,连接主义是靠机器自行习得智能,行为主义在与环境的作用和反馈中获得智能。它们彼此之间扬长补短,相信随着人工智能研究的不断深入,这三大学派会融合贯通,共同合作创造更强大的强大的人工智能。