博舍

【徐献军】德雷福斯对人工智能的批判仍然成立吗? 反对人工智能的原因是什么

【徐献军】德雷福斯对人工智能的批判仍然成立吗?

 

 

在当代哲学对于人工智能的思考当中,美国现象学家德雷福斯(HubertL.Dreyfus)的批判无疑是最具代表性的观点之一。在他这里,欧洲的现象学哲学与美国的人工智能技术汇合在了一起。自1960年获聘美国麻省理工学院的助理哲学教授以来,德雷福斯就直接接触到了当时世界上最为前沿的人工智能研究。明斯基(MarvinMinsky)与麦卡锡(JohnMcCarthy)于1959年,在麻省理工学院创立了计算机科学与人工智能实验室。当该实验室的学生们,将人工智能的抱负(通过给计算机编程,让它们展现人类的智能)以及人工智能对于哲学的偏见(哲学只是先天不足的思考)传达给德雷福斯时,他产生了深深的困惑。

幸运的是,他的弟弟就是一名任职于美国兰德公司的计算机专家,而这使他得以越过哲学与人工智能之间的专业鸿沟(通常的哲学工作者即使对人工智能有兴趣,也缺乏深入人工智能领域的机会或能力)。德雷福斯甚至受聘于兰德公司,而职责就是评估纽厄尔(AlanNewell)和西蒙(HerbertSimon)在认知模拟领域中的工作。这件事在今天看来仍然是耐人寻味的。我们不知道为什么兰德公司会让一位哲学家,来评估人工智能的前景。但这件事至少可以启发我们:在今天的人工智能政策制订中,让哲学家参与讨论应该是有先例的。

德雷福斯向兰德公司提交的报告是《人工智能与炼金术》(1965)。这篇报告最具刺激性的地方就是将当时炙手可热的人工智能,比喻成了古代的炼金术:“炼金术士们十分成功地从好象是尘土的东西中提炼出了水银,这使他们在数百年毫无成果地想把铅变成黄金的努力之后,仍然不相信:在化学层次上,人们是难以改变金属性质的。为了免遭炼金术士们的命运,现在我们应该问一问:我们在哪里?现在,在把更多的时间和经费花到信息加工之前,我们应该问一问,人类主体的原型是否表明了计算机语言适合分析人的行为。把人类的智能行为全部分解为离散的规则去支配运算,是可能的吗?以数字的方式去恰当地分析人类的智能行为是可能的吗?这两个问题的答案是同一个:不可能。”[1]84这篇报告的核心问题是:认知行为之下的信息加工过程,是否可以被明晰地表达为程序,然后在数字计算机上得到模拟。德雷福斯根据当时人工智能的挫折指出:数学计算机不能具备人类信息加工的三种基本形式(边缘意识、本质/偶然区分、歧义容忍)。但德雷福斯的批判,不是对人工智能的否定。实际上,他是提出了一种新的人工智能开发程序,即根据人脑的结构与运作去设计人工智能(这实际上是一种具身人工智能的思想)。

这篇报告后来扩展为了专著《计算机不能做什么》(1972),以及《计算机仍然不能做的是什么?》(1992)。这些专著产生了非常大的影响,因为它们促使人工智能领域的一些专家(如厄廷格尔(AnthonyG.Oettinger)、威诺格拉德(TerryWinograd)等)开始反思人工智能中的哲学假设。今天看来,德雷福斯专著中有关技术的部分,可能已经有点过时了,但其中的哲学部分(他对海德格尔、梅洛-庞蒂哲学的解释)仍然有持久的生命力。本文尝试探索两个问题:一,德雷福斯对人工智能提出批判的哲学依据是什么?二,在深度学习与强化学习大放异彩的今天,德雷福斯的批判是否还能成立,或者说在多大程度上还能成立?对这两个问题的探索,不仅有助于推进人工智能的哲学研究,也有助于我们对人工智能的未来保持一个冷静与理智的态度。

一、德雷福斯的现象学哲学依据

纵观德雷福斯一生的研究,尽管他也从人工智能的具体挫折(如认知模拟与语义信息加工的难题)出发去展开他对人工智能的批判,但他的基本立足点是哲学,尤其是海德格尔与梅洛-庞蒂的现象学哲学。然而,他对于海德格尔与梅洛-庞蒂现象学哲学的解释,已经非常不同于海德格尔与梅洛-庞蒂原来的哲学了,而是德雷福斯自己的哲学,或者说德雷福斯式的海德格尔与梅洛-庞蒂了。“用海德格尔式的术语来说,如果说西方形而上学在控制论中达到了它的顶峰,那么人工智能近来的困难,揭示的是技术(technology)的限度,而不是工艺(technological)的局限。”[2]227

德雷福斯将海德格尔及梅洛-庞蒂哲学,与人工智能相联系的原因是:他认为人工智能是西方传统理性主义哲学与现代计算机发明相结合的产物。换言之,人工智能不是单纯的技术发明,而是有着悠久的哲学思想传承。人工智能不仅源于哲学,而且是将理性主义哲学原则推到极致的体现。因此,人工智能的出现具有重要的哲学意义,因为人工智能中的成功与挫折,可以成为判断哲学思想之优劣的一种客观依据。

在德雷福斯看来,当苏格拉底在雅典寻找能够阐明专家技能背后之规则的人时,作为人工智能基础的理性主义思想就产生了。游叙弗伦(Euthyphro)是一名虔诚问题专家。苏格拉底要求游叙弗伦说明:判定虔诚行为的规则是什么。但游叙弗伦只能告诉他一些虔诚行为的案例。不光游叙弗伦是如此,其他的工匠、诗人、政治家都不能阐明他们专家技能背后的规则。苏格拉底由此断定,这些专家和他自己一样都是无知的。苏格拉底的学生柏拉图,对上述难题进行了解释。柏拉图说,专家们已经忘记了让他们成为专家的行事规则,而哲学家就是要帮这些专家把他们的行事规则回忆起来。但不管专家们是否意识到了这些行事规则,它们总是在起作用的。现代人工智能(尤其是知识工程),就是要提取专家们的行事规则,然后把它们编成程序输入到计算机中。[3]19-20

近现代哲学中,上述理性主义得到进一步发展。例如,霍布斯提出推理就是计算,莱布尼兹说存在着一系列可以表达所有知识的原素(普遍特征),康德说概念就是规则,维特根斯坦说世界可分析为逻辑原子。尽管纽厄尔、明斯基、西蒙等人工智能专家没有直接学习上述理性主义哲学,但他们在运用理性主义思维之后,得到了与哲学家们一样的观点。当然,他们是把理性主义哲学思维与计算机发明进行了组合。“所有人工智能研究工作的必要前提是:世界必须可表征为本身是由始基构成的结构化描述序列。因此,哲学和技术在依赖始基时,都继续确立了柏拉图所探索的那个世界:一个明晰性、确定性和控制都已经得到保证的世界,一个由数据结构、决策理论和自动化构成的世界。”[2]212

海德格尔与梅洛-庞蒂对上述理性主义哲学进行了最有力的批判。在梅洛-庞蒂对知觉的分析中,他把一切存在都是确定的思想,称为“常识预设”(leprejudgedumonde)。“感知的设定证据不是建立在意识证词之上,而是建立在常识预设(未经质疑的世界信念)之上的。……有两种误解性质的方式:第一种是把性质当作意识的元素(性质是意识的对象),并把性质当作无声的印象,而且性质始终是有意义的;第二种是相信:这种感知与这种对象在性质层面上是完全的和确定的。和第一种错误一样,第二种错误也来自于常识预设。”[4]5-6梅洛-庞蒂引用了著名的缪勒-莱尔错觉(两条原本等长的线条,因两端箭头的朝向不同,看起来箭头朝内的线条比箭头朝外的线条要短些)来说明:实在的景象是模糊与不确定的。假设一切存在都是确定的认识论与心理学假设,实际上是掩盖了人的主观性。梅洛-庞蒂依据格式塔心理学,进一步说明了:人的主观性是与身体性相关联的。“如果我的目光不能包围物体,那么物体就是小的;如果我的目光能充分包围物体,那么物体就是大的……对于世界的知觉只是我存在场的扩展;知觉不会超越存在场的本质结构,并且身体总是存在场中的自主体,而不是存在场的对象。世界是我置身于其中的、开放与不确定的统一体。”[4]317-318

德雷福斯根据梅洛-庞蒂的身体现象学提出:身体在人类的智能行为中起着关键作用。“把人同机器(不管机器建造得多么巧妙)区别开来的,不是一个独立的、普遍的、非物质的灵魂,而是一个涉入的、处于情境中的、物质的身体。给人工智能制造最多麻烦的,正是智能行为的身体方面。”[2]236人类智能活动中那些不可形式化的、不可表征的信息加工活动,只有对于身体来说才是可能的。例如,一个人可以很熟练地使用筷子,却很难马上说出如何使用筷子的操作规则。因此,在德雷福斯看来,人工智能能否成功的关键在于:人类能否制造出类人的身体。从目前的神经科学与意识科学水平来看,这个目标的实现仍然是遥不可及的。

海德格尔则将传统的理性主义哲学思想称为“计算思维”(rechnendeDenken)。这种思维是理性主义哲学的追求,并且将在现代计算机技术、信息论或控制论中实现。[2]233为“计算思维”所必须的是规则模型。理性主义哲学家们这么做,是因为他们想把知识与情境分离开来,从而获得一种普遍性的知识;而计算机专家这么做,是因为计算机最适合(甚至是只能)处理脱离情境的信息。因此,计算机所处理的只是一个人工的虚拟世界(或者说是微世界);这个世界由清晰的、可表征的基本事实与规则构成。为了模拟人类的世界,计算机专家们试图把情境分解为事实与规则,而他们使用的方法总是刻板与有限制的(如决策树、学习算法)。根据海德格尔的“在世界中存在”的思想,最好的世界模型不是存储在脑中、输入到计算机中的世界模型,而是世界本身。“因为事实和规则本身是无意义的,所以要获得海德格尔所称为意义或涉入的东西,事实和规则必须被赋予相关性。但是在计算机程序中,用来定义相关性的谓词仍然是无意义的事实,所以出现了这种让人惊讶的情况:计算机被给予的事实越多,它就越难计算出哪些事实与当前情境是相关的。……这样的搜索随着事实的增加,会变得越来越困难,并最终变得让人绝望。”[5]48

在深度学习中,神经网络似乎通过设计者输入的数值(value),模拟了人类的价值或意义系统,但神经网络终究是知其然,不知其所以然。因为设计者本人也是如此。“此在……只不过是……牵挂地消释于世界中。”[6]197最适应情境需求的技能行为是无心的(即无精神表征的),而这时人与世界的联系是直接的;只有在无心的技能化应对活动出现中断时,人们才会进行深思熟虑的活动,即通过精神表征来间接地建立与世界的联系。换言之,高层次的表征活动是以低层次的非表征活动为基础的。正如精神病学家们所揭示的那样,精神分裂症患者的紊乱首先是在其存在底层的。精神分裂症患者不得不承担本该以非表征方式完成的工作,而这使得他们表现出了极端相反的两种倾向:一是在所有的工作中都表现得极端缓慢,二是具有异常的缜密性和理智性。换言之,非表征技能化应付的效率,远高于有表征的技能化应付。[7]112-113当然,人工智能设计中的表征活动与精神疾病患者的表征活动是完全不同的———前者是自主的、可控制的,而后者是不由自主的、不可控制的。

如上所述,德雷福斯发现人工智能的基础正是理性主义哲学假设,因此人工智能与哲学之间是连续的———人们完全可以从哲学的角度去考虑人工智能进路的终极可能性。换言之,人们可以将人工智能看作是将理性主义哲学原则推到极致的工艺产品。如果海德格尔和梅洛-庞蒂是对的,那么人工智能的表征主义进路就是错的。因为在海德格尔和梅洛-庞蒂看来,人类真正的智能是身体性的与无法表征的。德雷福斯批判表征主义人工智能的最根本依据就是:如果理性主义哲学原则在哲学上就已经是不能成立的,那又何必耗费巨大的人力与物力去推行呢?

二、人工智能的发展是否已经有效克服了德雷福斯的批判?

德雷福斯对人工智能的批判,经历了长期的排斥与抵制(德雷福斯甚至为此丢掉了在麻省理工学院的教职),但最终得到了人工智能界的接受。近些年的人工智能界,如加州大学伯克利分校计算机科学教授拉塞尔(StuartRussell)和谷歌研究总监诺维格(PeterNorvig)已经大方地承认:“哲学的历史比计算机要悠久得多,而且哲学一直在尝试解决与人工智能有关的问题:心灵是如何运作的?机器是否可以像人那样进行智能活动;如果机器有人一样的智能活动,那么机器会有真正的、有意识的心灵吗?”[8]1020他们认为德雷福斯在提出批判意见时,已经成为了人工智能理论家;德雷福斯所关注的许多问题(如常识知识、不确定性、学习的决策形式等)确实是重要的问题,而且现在已经被纳入标准的智能自主体设计当中。但他们非常乐观地认为:德雷福斯提出的所有难题,都已经得到解决,或者说在原则上可以圆满解决的。拉塞尔等人将德雷福斯的批判意见归纳为四条。[8]1025接下来,我们将逐条检查拉塞尔等人的乐观主义,在多大程度上是正确的。前三条批判意见都涉及了明晰性假设。理性主义哲学家们认为,我们的日常知识是完全可以被明晰化的,而以海德格尔为代表的反理性主义哲学家们则反对这一点。德雷福斯正是基于海德格尔哲学的立场,提出了背景知识的不可表征性、基于表征数据的神经网络与学习算法的局限性。明晰性假设也就是人工智能的最关键假设:即存在论假设———世界是否可以分解为最基本的明晰要素。第四条批判意见涉及了具身哲学的问题,即在人们知道具身机制的运作细节之前,就无法让人工智能真正实现具身。

1.第一条批判意见是:

如果没有背景知识,就不能对实例进行很好的概括,并且没有人知道如何将背景知识纳入神经网络的学习过程。“可把背景当作是另一种事物,并可以用表征任何日常事物的那种结构化描述来表征它,这种假想对我们整个的哲学传统来说是尤其重要的。海德格尔是第一个辩识和批判过这一假想的人;按照他的意见,我现在把这个假想称为形而上学的假想。”[2]56

拉塞尔等人既肯定了背景知识的重要性,也意识到了利用背景知识的难度。“一个使用背景知识的自主学习自主体,首先必须获得背景知识,以便在新的学习过程中使用它们。这个方法本身就是一个学习过程。因此自主体的生活历史将以累积或渐进的发展为特征。据推测,自主体开始时是一无所有的,就像一个很好的纯粹归纳程序一样,在真空中进行归纳。但是一旦自主体从知识树上掉落,就不能再继续这种天真的推测,而应该利用其背景知识来进行更有效的学习。问题是如何真正做到这一点。”[8]777可以使用的方法包括:基于解释的学习(EBL)、基于相关性的学习(RBL)与归纳逻辑编程(ILP)。但不论是什么方法,都需要以知识表征(即以明确的形式提供知识)为基础,而这是德雷福斯所坚决否认的———背景知识是难以表征与形式化的,因为背景知识往往处于意识的边缘,或者说背景知识是默会的。

2.第二条批判意见是:

神经网络学习是一种有监督学习的形式,要求事先确定的相关输入和正确输出;因此,没有人类培训师的帮助,神经网络学习就不能自主运作。“神经网络确实表现出了学习能力;但在有监督学习中,是由人来决定:哪些情况是好的,并且是由人来提供智能。网络学到的只是:如何通过网络的力量去把握智能。我们真正需要的是这样的系统:它能靠自己学会如何应对环境,并在环境发生变化时修正它的反应。”[2]xxxviii-xxxix

拉塞尔等人认为,有监督学习确实需要事先确定的相关输入和正确输出,但无监督学习和强化学习不需要人类培训师与标记数据。无监督学习的典型就是聚类(clustering),即在对象集合中辨别多个范畴的问题,而这种问题是无监督的,因为没有给出范畴标签。聚类算法只需要知道如何计算相似度就可以工作,而不需要知道相似的范畴。[8]817但无监督数据仍然需要从表征数据开始。强化学习的任务是让奖励最大化。我们可以下棋为例。在有监督学习中,自主体需要被告知它在每个棋局位置时的正确行动(这是人类大师已经发现的下法)。在强化学习中,自主体可以在没有人类教师反馈的情况下进行学习,但这时需要奖励的引导,即被告知赢了或输了(这就是强化)。在棋类游戏中,自主体在游戏结束时才接收到强化,而在如打乒乓球这类的游戏中,每次得分都是一个强化。[8]830强化学习使人工自主体更为接近人类的行为方式,因为人类就是把痛苦与毁灭作为惩罚,而把快乐与生存作为奖励的。在复杂领域中,强化学习几乎是培养高水平智能的唯一可行方法,因为它大大减少了对表征数据的需求。但是,使用强化学习的神经网络,仍然需要对相应领域中稳定特征的表征。在特征清晰但计算量大的领域中,强化学习是相当有效的。例如围棋游戏虽然计算量大,但其特征非常少并且清晰(黑白二子)。但某些领域(如中国股市)往往存在着大量难以表征的不稳定特征。因此,无监督学习与强化学习,仍然以表征数据为基础,而无法产生非表征的智能。

3.第三条批判意见:

学习算法在确定后,就很难识别新的特征。“但是,如果我们从可能相关特征的有限系列出发,而且当前系列不足以解释有关强化与情境转换的学习事实,那就没有增加新特征的方法。”[2]xliii拉塞尔等人则认为,支持向量机等的、处理大型特征集的新方法,有非常好的效果,而随着基于Web的大型数据集的引入,语言处理和计算机视觉等领域的许多应用程序,不仅能处理海量特征,而且在原则上可以产生新的功能。

在学习算法中,人们可以把之前的数据表征为一阶逻辑理论,然后通过两种方式去搜索与这个理论一致的逻辑假设。第一种方法是当前最佳假设搜索(current-best-hypothesisserarch):即当新的例子进入时,调适原有假设以保持新旧一致性。但这种方法的缺点是:回溯之前所有的例子是非常昂贵的,因为假设空间是一个呈指数级增长的空间。因此有了第二种方法,即最小承诺搜索(least-commitmentsearch)———为了避免回溯,就只保留那些与所有数据一致的假设,而每一个新的例子要么是无效的,要么就脱离一部分假设(或者说是删除了与新例子不符的假设)。但是,已有的算法(如变型空间)(versionspace),仍然不适用于现实世界学习。[8]770-798因此,对第三条批判意见的解决仍然只是“原则上的”。

4.第四条批判意见:

人们现在还不知道人脑运作的细节,更无法用脑科学去指导人工智能研究。“要想概括人类的行事方式,网络建筑就必须这样来设计:网络可以根据与人类相关的特征,对情境作出反应。这些特征不仅必须以过去的重要经验为基础,还要以近来决定如何去看情境的经验为基础。只有在网络进入以视角为基础的、类人期待情境中时,网络才能识别未被期待的输入(如森林中的坦克)以及当在情境中没有的、重要的期待输入。现在没有网络具有这种能力,现在也没有人知道甚至想过:人脑建筑是如何产生这种能力的。”[2]xxxviii

拉塞尔等则认为,信息价值理论(informationvaluetheory)使人工自主体,具备了类似于人脑决策机制的能力。“信息的价值在于它能够改变计划,并且新计划明显好于旧计划。”[8]631在信息价值的引导下,敏感的自主体可以合理的顺序来提出问题,避免不相关的问题,并掌握每个信息的重要性。然后,人们就可以制造出能够做简单决策的自主体,而其决策步骤是这样的:创造因果模型、简化为量化的决策模型、赋予概率、赋予用途、确证与提升模型。[8]634这类自主体的典型就是STANLEY。它是一台无人驾驶的机器人车,而在2005年,它以22英里的时速在美国莫哈韦沙漠中,首先完成了132英里长的DARPA挑战赛。这样的努力确实已经吸取了德雷福斯的具身化建议,但在人工智能具身化后,进一步的问题就是:人类怎么把心给予机器呢?心是可以对象化的么?

综上所述,尽管进入21世纪以来,人工智能的神经网络进路的确取得了很大的进步,并有了非常广泛的应用,但神经网络进路中纷繁复杂的技术工作,都有共同的哲学假设(即存在论假设),而且人们也没有在具身研究中取得根本性突破,因此过去德雷福斯对于人工智能的批判仍然是成立的。德雷福斯的人工智能批判的核心意义在于:他有效揭示了人工智能的核心假设,并指出了这种哲学假设对于现实人工智能工作的束缚。值得注意的是:德雷福斯的批判不是对人工智能的单纯否定,而是开发新的人工智能进路的建议。人与机器的根本差异在于:人可以处理那些难以表征的任务,而机器不可以。在人类完全破解人类身体与意识的奥秘之前(也许根本不可能破解),人类也无法让机器具备处理难以表征任务的能力。尽管人工智能可以进行很多似乎是“智能”的活动,但我们切不可就此认为那就是人类的智能活动方式。事实上,人工智能只是人造智能,而非类人或替代人的智能。

结语

人工智能已经广泛地融入了人类的世界(如图像识别、机器翻译、信用卡自动审批等),而且人工智能已经在某些领域(如机器词典、下棋、数学定理证明等)表现出了远远超越人类智能的水平。但我们始终不能忘记的是:人工智能中的问题,不只有科学技术的属性,而且有哲学的属性。德雷福斯的功绩在于:他阐明了一些根本性的人工智能哲学问题。这些问题既与人工智能有关,也超越了人工智能的范围。其中最重要的哲学洞见是:人类最根本的智能活动是非表征的、不可形式化、不可规则化的。人类的风险不在于:人工智能在可表征的、可形式化、可规则化的智能活动中超越了人类,而在于人类放弃了自身的独特性,而逐渐向人工智能的活动方式靠近。换言之,可怕的不是造出像人一样的机器,而是培养出像机器一样的人。

【参考文献】

[1]HubertDreyfus.AlchemyandArtificialIntelligence[R].RANDPaperP-3244,1965.

[2]HubertDreyfus.WhatComputersStillCan’tDo:ACritiqueofArtificialReason[M].MA:MITPress,1992.

[3]HubertDreyfus.FromSocratestoexpertsystems:thelimitsofcalculativerationality[J].BulletinoftheAmericanAcademyofArtsandSciences,1987,40(4):15-31.

[4]MauriceMerleau-Ponty.PhenomenologyofPerception[M].trans.DonaldA.Landes.LondonandNewYork:Routledge,2014.

[5]徐献军.具身认知论[M].杭州:浙江大学出版社,2009.

[6]MartinHeidegger.TheBasicProblemsofPhenomenology[M].Cambridge:IndianaUniversityPress,1981.

[7]WolfgangBlankenburg.DerVerlustdernatürlichenSelbstverstndlichkeit[M].Berlin:ParodosVerlag,2012.

[8]Russell,S.&Norvig,P.ArtificialIntelligence:AModernApproach[M].UpperSaddleRiver:Prentice,2014.

(原载《自然辩证法研究》2019年第01期)

微软首席科学家反对马斯克呼吁禁止人工智能的公开信 称其为模糊不清的要求

站长之家(ChinaZ.com)5月4日消息:随着OpenAI的ChatGPT、微软的新Bing和Google的Bard等AI聊天机器人的普及,生成式人工智能成为了热门话题。有一部分人认为它将帮助人们更轻松地生活,而另一部分人则更关注AI的黑暗面。埃隆·马斯克和其他技术专家甚至呼吁禁止发展人工智能,引用安全原因并写了一封公开信。然而,微软首席科学家EricHorvitz反对这一禁令请求,并表示我们应该更多地研究和了解人工智能技术。

EricHorvitz在接受财富杂志采访时,对马斯克的公开信表示尊重,并认为人们的担忧是「合理的」。然而,个人来说,他希望看到更多的了解和对AI的研究和发展,而不是暂停六个月。他进一步表示,他不确定这样做是否可行。

「在一些方面,这是一个非常模糊的请求。在AI伙伴关系上,我们花时间思考什么是实际问题。如果要暂停某些事情,应该暂停哪些具体方面以及为什么?停止与深入调查,并提出可能解决问题的解决方案,哪个成本和收益更高?」他补充道。

他还表示,六个月的暂停时间并不算长,我们需要投资更多的时间来理解、指导甚至监管这项技术。我们需要「投入进去,而不是暂停」。

虽然微软的EricHorvitz相当确信探索AI领域并收集更多信息,但谷歌的一位顶尖科学家最近因为他辞职,以便他可以自由地谈论即将到来的危险,而成为了热门话题。

GeoffreyHinton在谷歌工作了十年,他的生命的工作围绕着人工智能。然而,在三月份,他辞去了工作,以便可以自由地谈论新兴技术的危险。在接受纽约时报采访时,Hinton表达了他对人工智能可能影响就业市场并取代一些工作如私人助理和翻译的担忧。

此外,他补充说,AI的增强版本可能是人类自身的威胁,因为它们有一种学习「意想不到的行为」的倾向,来自所分析的大量数据。他还谈到,这可能在未来成为一个问题,因为公司和个人不仅可以允许AI生成他们自己的代码,实际上还可以在自己的设备上运行它。Hinton说,这可能会导致「真正的自主武器(如杀人机器人)变成现实」。

他补充说,之前人们认为这种可能性还很遥远。至于他,他认为我们距离实现这个目标还有30到50年的时间。但是,情况已不再如此。

与此同时,自2022年11月以来,ChatGPT已经存在,并且越来越多的公司已经采用了AI技术。许多专家已经就人工智能的快速增长提出警告,而另一些人则鼓励我们学习这种技术并最终掌握它。

(举报)

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇