博舍

《人工智能基础》读书笔记——(一) 人工智能的读书笔记

《人工智能基础》读书笔记——(一)

第一章

1.专家系统:基于人工定义的规则来回答特定的问题;2.机器学习:当代的人工智能普遍通过学习来获得进行预测和判断的能力,这样的方法称为机器学习;3.监督学习:机器学习有很多种方式,最常见的一种学习方式是禁毒学习(supervisedlearning),通过预测公式得到预测值,并通过比较在每个样本上的预测值和真实值得差别获得反馈,机器学习的算法然后依据这些反馈不断地修正预测公式,在这种学习方式中,预测量通过反馈对学习过程进行了监督作用。监督学习要求每个样本提供预测量的真实值。4.无监督学习:希望在不提供预测量真实值得条件下进行学习5.半监督学习(semi-supervisedlearning):是介于监督学习和无监督学习之间的,它要求对小部分的样本提供预测量的真实值,这种方法通过有效利用所提供的小部分监督信息,往往可以取得比无监督学习更好的学习效果,同时也把获取监督信息的成本控制在可以接受的范围。6.强化学习:利用学习得到的模型来指导行动,我们关注的不是某个判断是否准确,而是行动过程是否能带来最大的效益,强化学习的目标是获得一个策略去指导行动一个强化学习模型一般包括如下几个部分:1.一组可以动态变化的状态(state)。比如,围棋棋子的分布位置,每只股票的价格2.一组可以选取的动作(action)。比如,对于围棋来说,就是可以落子的位置;对于股票交易来说,就是每个时间点,买入或者卖出的股票以及数量3.一个可以和决策主体交互的环境。这个环境会决定每个动作后状态如何变化。比如,围棋博弈中的对手,或者股票市场4.回报机制。当决策主体通过行动使状态发生变化时,它会获得回报或者接受惩罚(回报为负值)强化学习会从一个初始的策略开始,通常情况下,初始策略不一定很理想。在学习过程中,决策主体通过行动和环境进行交互,不断获得反馈(回报或者惩罚),并根据反馈调整优化策略。

《AI30》读书笔记

人工智能的浪潮在2023上半年席卷全球,各种媒体频繁报道相关的新闻,各种AI工具层出不穷。但是我似乎对AI本身缺少一个更加系统的认识,熟悉一些概念,但是对这些概念之间的联系并不甚了解,我迫切的想弄明白人工智能热闹的背后是什么?这些热闹能持续下去吗?这些想法和好奇促成了我阅读这本书的理由。

先说说阅读这本书的感受。

这本书并不涉及艰深晦涩的数学原理,作者从AI的发展开始讲起,介绍了不同的人工智能学习的流派,然后将重点关注到了现在促成人工智能领域发展的深度学习领域,在书的末尾,作者也指出了人工智能领域当下面临的困境,我们距离通用人工智能的目标似乎还很遥远。

尽管书上的内容并不涉及非常底层的数学知识,但并不是说这本书非常好读,作者介绍了当下最热门的几个机器学习背后的原理,能感觉到作者已经尝试用通俗的语言去描述了,但是我还是看的一知半解。

#Part1

人工智能的发展是伴随着计算机的发展,到现在差不多也就半个多世纪的时间,人工智能刚开始的时候定义的很多领域依然是现代人工智能正在重点关注的领域。

人工智能有很多流派,有人支持数学逻辑作为理性思维的语言,有人支持程序从数据中提取特征,还有人则认为计算机应该模仿人脑,从生物学和心理学的角度找到灵感,进而实现人工智能。这些争论一直持续到现在。

我们需要理清楚的事深度学习并不等同于人工智能,正如上面所言,人工智能是个非常广的概念,它的目标是创造具有智能的机器,而深度学习只是实现人工智能的方法。深度学习本身又是机器学习这个领域下的一种方法。

这部分主要介绍了基础的感知机和多层神经网络的一些工作原理,随着一些关键的算法的提出来,机器学习开成为人工智能领域的独立分支学科。

但是机器学习只能完成一些定义好的领域比较狭小的任务,像是AlphaGo只会下围棋,如果是下象棋,这个程序就无能为力了,这里也顺带引出了通用人工智能的概念。人工智能并不是真的理解它现在处理的信息,这一点书里反复提到。

就目前人工智能的技术发展来看,人工智能的发展是否存在奇点,这一点存在相当大的争议。尽管现在ChatGPT很火,也确实能解决一部分问题,但是我觉得这并不是通用人工智能的起点。

#Part2视觉识别

卷积神经网络的启发来自于人眼识别系统,作者相对比较详细的介绍了通过卷积神经网络进行图像识别的原理,这里也涉及到特征学习的概念。

搞清楚深度神经网络和卷积神经网络的关系。

卷积神经网络(ConvNets)是深度神经网络中的一种,卷积是提取输入的内容进行特征学习,在不断训练中通过反向传播算法不断调整网络中神经元的权重和阈值,大量训练后形成一个稳定的权重阈值,这就是一个成熟的模型。

在图像识别领域的机器学习发展过程中面临的一个问题是,缺少大量标注的数据,是李飞飞解决了这个问题,她的团队产出了一组大量的标注过的基准数据集ImageNet,用来对参加图像识别比赛的参赛者进行训练的。

2012年的时候基于卷积神经网络的算法在图像识别大赛中表现很出色,识别正确率非常高,基于神经网络的的人工智能正式成为了主流的研究方向。

深度学习的崛起,很大一部分得益于互联网上的海量数据,以及计算机硬件的快速处理能力。

关于机器无法自助学习这个问题,我之前想的是为啥不用写个脚本什么的把数据爬下来喂给机器,转念一想给机器学习的数据都是需要进行人工标注的,所以没有办法直接给机器来学习。

关于调侃机器学习调参这件事儿,其实对神经网络调参是个很复杂的事儿,具体参数包括网络层数,感受野大小,学习率等等...调节的好坏对神经网络能否良好运行非常关键...所以我们不应该小看神经网络里调参这个事儿。

目前所有深度学习都是监督学习,并没有无监督学习的算法,无监督学习主要是在没有标记数据的情况下学习样本所属类别的方法。监督学习面临的最大问题是,不可能对世界上所有的事物都进行标注,然后把这些信息告诉计算机。

和人类学习不同,机器学习并不能解释它自己的决策过程,所以很多时候我们没有办法信任机器学习,就像人们没有办法彻底相信自动驾驶一样。

机器学习学到的内容很容易被攻击,找到一个点简单修改一下图像,就能让机器识别成一个完全不一样的东西,而且你不知道机器到底学了个啥,现在很热门的一个领域是对抗式学习,就是对抗机器学习的成果,算是机器学习领域的攻防战吧。

#Part3游戏与推理

这部分主要是介绍强化学习的概念。

强化学习和监督学习是两种不同的机器学习方法。监督学习是需要输入特征和输出标签,而强化学习主要是根据环境对机器的反馈,主要是奖励,来确定机器的下一步行为。

强化学习需要一个模拟的环境(监督学习是需要标注后的数据),最终是通过模拟的环境的表现来决定在真实世界的表现。

强化学习和监督学习最终的应用场景不一样,监督学习更适合识别和分类,强化学习更适合连续学习和决策类的问题,比如机器人控制和游戏AI。

强化学习也会用到神经网络「神经网络负责学习在一个给定状态下应给动作分配什么值。具体而言,神经网络将当前状态作为输入,其输出是智能体在当前状态下能够采取的所有可能动作的估计值」

神经网络只是工具,而强化学习和监督学习是不同的学习方式。

强化学习也只是在某个领域起作用,不管是强化学习方式还是深度学习,几乎没有一个人工智能既能干这个又能干那个的。事实上计算机并不知道自己在这个领域上「学」到了什么东西。

,算是机器学习领域的攻防战吧。

#Part4自然语言

谷歌的自动翻译是需要进行训练的,图像转文字也是需要数据进行训练的,感觉现在用到的大量的人工智能的东西都是需要训练的。

翻译还是没有办法完全取代人类,在有的地方表现的好,有的地方表现的不好,最根本的问题是机器翻译没有办法彻底理解它要翻译的内容。

自然语言处理的一个目的就是问答机器人,就像是现在的ChatGPT一样,作者在这章节里举的例子是IBM的沃森,作者认为沃森有点过度营销的意思。

关于机器是否会做阅读理解,这个和我之前发过的ChatPDF很类似,基本上那也是给定一段文本,然后问机器一个相关的问题,看是否能得到正确的答案。这些问答类的机器,也是经过专门的数据集进行训练过的。

自然语言也同样面临样本攻击的风险,事实上只要机器并不是完全理解它所处理的信息,它就可能被对抗样本攻击。

#Part5常识

这部分内容主要是介绍人脑是如何去构建世界模型的,介绍了人类理解世界和抽象概念的方式。

人工智能想要长效的发展,变的更加通用的话,就要像人类一样去理解世界。

这部分的内容最后基本上衔接到了《千脑智能》这本书的里的内容。构建通用人工智能的任务可能还是最终需要搞明白人脑是如何运作的,然后通过模拟人脑的方式实现。现在深度神经网络可能已经发展到尽头了?

#最后

我觉得人工智能和人类在一些认知方面还是很类似的,比如学习的迁移能力,人工智能在某个领域学到的东西没有办法迁移到别的领域,我们说它并没有真的「理解」这个东西,但是对于人来说,如果不能学一反三,触类旁通,那其实也可以说是没有真的理解某件事。这个认知特点,人和机器没什么区别。

当我们说我真的理解了某件事的时候,我们会说,「哦,我知道了」,然后伴随一个恍然大悟的表情,这个过程中发生了什么?我自己的理解是,他把新学到的东西和自己现有的知识体系结合在了一起,或者说是从他现有的知识体系里推断出、察觉出和新知识的关联。上面这个我知道了的过程,如果再具体一点的话,可以用认路的方式形容。你对自己的街区里的路非常熟悉,当你走出这个街区,你会把新的路和自己已知的街区的方向和街道结合起来,当你从别的街道回来自己熟悉的街道,在从另一个角度看到自己熟悉的路的时候,你同样也会说,哦,原来到这儿了啊。这个过程和你认识新知识的过程其实是非常非常类似的。

《千脑智能》的作者发展人工智能的路子其实和深度学习并不一样,他的思路是上面提到的人工智能流派里的逆向人脑,然后造出和人类思维方式一样的智能机器。

李开复《人工智能》读书笔记

Q:AI会让人类大量失业吗?

A:大部分工作将发生转变而非消失。

就如同没有夕阳行业,只有夕阳做法而已。工作形式一定会发生转变,我们要拥抱转变,让AI成为好帮手。

大多数情况下,人工智能并不是一种全新的业务流程或全新的商业模式,而是对现有业务流程、商业模式的根本性改造。AI重在提升效率,而非发明新流程、新业务。

AI提升的效率是几何级数的,这将是AI运用相当长时间的重点,就是提升效率。

从根本上说,深度学习和所有机器学习方法一样,是一种用数学模型对现实世界中的特定问题进行建模,以解决该领域内相似问题的过程。

深度学习绝对不是人工智能领域的唯一解决方案,二者之间也无法画上等号。但说深度学习是当今乃至未来很长一段时间内引领人工智能发展的核心技术,则一点儿也不为过。

关于深度学习的定义和当前的地位。

2016年年初,马文•闵斯基去世时,曾经对乔布斯和苹果影响巨大的教父级人物艾伦•凯(AlanKay)是这样评价马文•闵斯基的:“马文是为数不多的人工智能先驱之一,他用自己的视野和洞见,将计算机从一部超强加法器的传统定位中解放出来,并为其赋予了新的使命——有史以来最强大的人类力量倍增器之一。”

对人工智能之父马文明斯基的地位评价,最强大的倍增器!

在马文•闵斯基自己看来,理解音乐是理解人类大脑的一种有效途径,反之,理解人类的大脑也有助于我们欣赏音乐的本质。有时对问题领域的扩展可以让问题变得更简单。

马文明斯基是个跨界人才,曾发明名为“音乐三角”的音乐合成器,他强调跨界的重要性,解决复杂问题有时候需要跳出问题,跨界去寻找答案,往往会有意外收获。

机器视觉领域最有效的深度学习算法——卷积神经网络(CNN)

卷积,这么专业的名词我也听讲了。

辛顿家族的这张脑图可是花了我很多时间制作,不过意外收获是,我终于搞清楚各种称谓之间的区别。原来曾祖父就是祖父的爸爸,或者说爷爷的爸爸,哈哈~

在人工智能领域,大多数人倾向于过于乐观地预测全局大势,而过于悲观地估计局部进展。

AI技术在许多垂直领域内的局部进展,比如围棋,比如智慧医疗,比如自动驾驶,都比很多人之前预料的更早来到我们面前。但AI的整体发展,尤其是最重大的技术突破,几乎每一步都要比多数人预测来得晚。比如,图灵测试刚提出时,很多人认为计算机达到图灵测试所标示的强人工智能的水平,最多只要三十年的时间,但直到今天,我们也不敢说,AI到底何时才能像成人一样自由对话。

人工智能边界非常广,涵盖的细分领域非常多,现在的重要突破多是集中在某一个特别领域,专注于一点更有可能获得突破,不要贪多。

担心人工智能能控制甚至毁灭人类的,是对超人工智能过于乐观的“科幻”爱好者;担心人工智能取代绝大部分人类工作,造成全球大范围失业的,则是不相信科技进步能凭借自身力量优化社会资源分配、调整经济结构、构建新就业秩序的保守主义者。

理性看待人工智能的发展,以及与人类的关系。

AI创业的五大基石:

•清晰的领域界限:人工智能创业,要解决的领域问题一定要非常清晰,有明确的领域边界。目前的人工智能技术只有在限定问题边界、规范使用场景、拥有大数据支持的领域才能发挥最大效能。

•闭环的、自动标注的数据

•千万量级的数据量

•超大规模的计算能力

•顶尖的AI科学家

清晰的领域界限,殊为重要。只攻一点,更可能成功,不要贪婪,不要冒进。

AI时代该如何学习?

Q:AI时代,孩子到底该学什么,才不至于被机器“抢”了工作?

A:与其讨论让孩子学什么,不如先讨论孩子该如何学。学习方法远比学什么内容更重要。

嗯,学习方法远比学什么内容更重要。

Minerva大学四年的主题依次是基础、方向、专注、综合。

非常有创新精神的大学,四年的主题值得借鉴。

人工智能时代,自动化系统将大幅解放生产力,极大地丰富每个人可以享有的社会财富。而且,由于人工智能的参与,人类可以从繁重的工作中解放出来,拥有大量的休闲时间。

我并不认同。《未来简史》悲观预测未来会有很多“无用之人”,我也悲观。因为一定会有新的更有挑战、新的相对费时的工作出现(或者说转变)。人类不会有大量的休闲时间,一定会被其他事情排满,就像在公司中一样,不可能让你闲着。

这个时候,这个社会对文化、娱乐的追求就会达到一个更高的层次,而未来的文娱产业,总体规模将是今天的数十倍甚至上百倍。那么,学习文艺创作技巧,用人类独有的智慧、丰富的情感以及对艺术的创造性理解去创作文娱内容,显然是未来人类证明自己价值的最好方式之一。作家、音乐家、电影导演和编剧、游戏设计师等,一定是人工智能时代的明星职业。

马云也说,未来2H有大发展前景。人们物质生活提高了,精神追求必定提高。Happiness(幸福)、Health(健康),都有大作为。感性族群,有创造力的人会有更大的舞台展示自己,实现抱负。

科幻作家、雨果奖得主郝景芳说:“很显然,我们需要去重视那些重复性标准化的工作所不能够覆盖的领域。包括什么呢?包括创造性、情感交流、审美、艺术能力,还有我们的综合理解能力、我们把很多碎片连成一个故事这样的讲述能力,我们的体验。所有这些在我们看来非常不可靠的东西,其实往往是人类智能非常独特的能力。”

郝景芳说的更浅显易懂了,人类独特的情感、能力,这是短期内人工智能无法媲美和超越人类的。

人工智能时代,学习或教育本身不是目的,我们真正的目的,是让每个人在技术的帮助下,获得最大的自由,体现最大的价值,并从中得到幸福。

目的:自由、价值、幸福。

法国哲学家布莱兹•帕斯卡说过:“人只不过是一根芦苇,是自然界最脆弱的东西;但他是一根能思想的芦苇。用不着整个宇宙都拿起武器来才能毁灭;一口气、一滴水就足以致他死命了。然而,纵使宇宙毁灭了他,人却仍然要比致他于死命的东西更高贵得多;因为他知道自己要死亡以及宇宙对他所具有的优势,而宇宙对此确是一无所知。因而,我们全部的尊严就在于思想。”

有独立思想的人,才可能实现自己不同寻常的抱负,才可能过上不一样的人生。

作者:CCtalk梁逸钦

链接:https://www.jianshu.com/p/3a27e6343ffe

來源:简书

简书著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。

《AI:人工智能的本质与未来》读书笔记

来源:雪球App,作者:慢慢的杨小渔,(https://xueqiu.com/5881296730/196773513)

 #小渔读书笔记#  

【小渔:人类在AI的探索道路上,既在迷雾中探寻未知的科学,又向内洞察人本身。

昨天看的那个小册子《AI是未来的电》比较容易理解。今天这一本太轻敌了,直到看到最后的后记部分“玛格丽特·博登教授是OBE勋章获得者,人工智能领域最著名的人物之一。”难怪这么专业。

我找了几本AI的书,这一本应该最后看,不应该第二本就看。讲的比较抽象,需要有一定的基础才能更加理解。等继续看几本之后,回过头来再复习下内容吧。】

作者:【英】玛格丽特·博登

出版社:中国人民大学出版社

01什么是人工智能

人工智能(ArtificialIntellegence,AI)就是让计算机完成人类心智(mind)能做的各种事情。通常,我们会说有些行为(如推理)是“智能的”,而有些(如视觉)又不是。但是,这些行为都包含能让人类和动物实现目标的心理技能,比如知觉、联想、预测、规划和运动控制。

智能不是一维的,而是结构丰富、层次分明的空间,具备各种信息处理能力。于是,人工智能可以利用多种技术,完成多重任务。

人工智能有两大主要目标:一个是技术层面的,利用计算机完成有益的事情(有时候不用心智所使用的方法);另一个是科学层面的,利用人工智能概念和模型,帮助回答有关人类和其他生物体的问题。大多数人工智能工作者只关注其中一个目标,但有些也同时关注两个目标。

值得一提的是,心理学家和神经学家利用人工智能提出了各种影响深远的心智—大脑理论,如“大脑的运作方式”和“这个大脑在做什么”的模型:它在回答什么样的计算(心理)问题,以及它能采用哪种信息处理形式来达到这一目标等。这两个问题不一样,但都十分重要。还有一些问题尚未回答,因为人工智能本身已经告诉我们:心智内容十分丰富,远远超出了心理学家们先前的猜想。

最后,人工智能向我们发出了挑战——如何看待人性,以及未来在何方。的确,有些人会担心我们是否真的有未来,因为他们预言人工智能将全面超过人的智能。虽然他们当中的某些人对这种预想充满了期待,但是大多数人还是会对此感到害怕。他们会问,如果这样,那还有什么地方能保留人类的尊严和责任?

虚拟机

当然,这并不是说虚拟机只是杜撰或凭空想象出来的东西。虚拟机是真实存在的。我们不仅可以利用虚拟机完成系统内的任务(如果将其连接到照相机或机器人的手等这样的物理设备上),甚至还可以做好外部世界的工作。如果程序突发问题,人工智能工作者通常很少去找硬件方面的原因,而是对虚拟机或软件中的事件和因果关系更感兴趣。

编程语言也是虚拟机(它的指令只有翻译成机器码后才能运行)。有些指令用更低级的编程语言进行定义,所以多个层级的指令都需要翻译。否则,要是用机器码的位组合模式处理信息,大多数人将无法正常思考。如果信息处理过程过于复杂且层级划分过于细化的话,那么也没有人能正常思考。

虚拟机不只是编程语言。虚拟机一般包含各个层级的活动模式(信息处理)。虚拟机也不只是在电脑上运行的虚拟机。在第6章中,我们将看到“人类的心智”也可以被看作在大脑中实现的虚拟机,更确切地说,是并行运行(在不同时间发展和学习得到的)且交互的虚拟机集合。

要实现人工智能领域的进步,我们需要不断完善有趣实用的虚拟机的定义。不断改良物理机(更大、更快)确实有好处,它甚至可能是实现某种虚拟机的必要条件。但是,只有具备海量信息的虚拟机才能在这些物理机上运行,否则后者就算功能再强大也没用。

各类外部世界的信息得到充分利用。所有人工智能系统都需要输入和输出设备,要是只需要一个键盘和一个屏幕就好了。它通常还需要专用传感器(可能是照相机或压敏晶须)或反应器(可能是供音乐或演讲用的声音合成器或机器人的手)。人工智能程序不仅处理内部信息,还与这些计算机的接口连接,或改变它们。

人工智能程序处理通常包含内部的输入和输出设备,供整个系统内部的虚拟机交互。例如,象棋程序的某一部分可能通过注意其他部分的情况来发现自己所面临的潜在威胁,这时候,它就有可能与那个部分配合,共同阻断本次威胁。

人工智能的主要类型

信息处理的方法取决于其所包含的虚拟机。我们将在后面的章节中看到,这主要有五种处理类型,每种处理类型又都包含很多变体。一种是经典逻辑或符号主义,有时称为有效的老式人工智能(GeodOld-FashionedAI,以下简称GOFAI);另一种是人工神经网络或联结主义。此外,还有进化编程、细胞自动机以及动力系统。工作者通常只使用一种方法来处理信息,但也存在混合虚拟机。

除了实际应用外,这些方法能够启发心智、行为和生活。神经网络有助于模拟大脑的内部结构以及进行模式识别和学习。经典逻辑人工智能(特别是与统计学结合时)可以模拟学习、规划和推理。进化编程阐明了生物进化和大脑发育。细胞自动机和动力系统可用来模拟生物体的发育。有些方法更接近于生物学,而不是心理学;有些方法更接近非条件反射行为,而不是慎重思考。要想全面了解心智,除了要用到上述所有方法外,还可能需要更多别的方法。

许多人工智能工作者并不关心心智的运作方式,他们只注重技术效率,而不追求科学理解。即使人工智能技术起源于心理学,但现在与心理学的联系却很少。然而,我们会发现,如果要想在强人工智能(artificialgeneralintelligence)方面取得进步,我们需要加深理解心智的计算架构。

人工智能的预言

她认识到了分析机的潜在通用性和处理符号(表示“宇宙中的所有主体”)的能力。她还描述了现代编程的各种基础知识:存储程序、分层嵌套的子程序、寻址、微程序设计、循环、条件、注释以及程序错误。她并没有谈到编曲或科学推理是如何在巴贝奇的机器上实现的。是的,人工智能可以实现,但是实现的方法当时仍然是一个谜团。

人工智能的起源

一个世纪以后,艾伦·图灵(AlanTuring)解开了这个谜团。1936年,图灵提出,每个合理计算在原则上都可以由现在被称为“通用图灵机”(TuringMachine)的数学系统来执行。图灵机是一个虚构系统,建立和修改用“0”和“1”表示的二进制符号组合。

1950年,他那篇以幽默方式提出图灵测试(见第6章)的论文成为了人工智能的宣言[第二次世界大战后不久,其论文得到进一步完善,但《官方保密法》(OfficialSecretsAc)阻止其出版]。它抓住了智能信息处理(游戏、知觉、语言和学习)的症结,并暗示了当时计算机领域已经取得的成就,让人跃跃欲试(只有“暗示”,因为布莱切利园的工作仍然属于最高机密)。它甚至给出了算法,如神经网络和进化计算,不过在其论文发表很久以后,这些算法才得到广泛认可。要解开奥秘,这些都只是冰山一角,只是泛泛而谈——纲领性的东西,而不是程序。

图灵坚信,人工智能一定能以某种方式实现。20世纪40年代初,他的这一信念得到了神经病学家/精神病学家沃伦·麦卡洛克(WarrenMcCulloch)和数学家瓦尔特·皮茨(WalterPitts)的支持。

麦卡洛克和皮茨将罗素和谢林顿的观点结合,因为他们都描述了二进制系统。逻辑的真/假(true/false)值映射到图灵机中的脑细胞开/关(on/off)活动和个体状态0/1中。谢林顿认为,神经元不仅进行严格的开/关活动,而且具有固定阈值。因此,逻辑门(and、or和not)被定义为微小的神经网络,可以相互连接来表示高度复杂的命题。任何东西只要能用命题逻辑表述,那就能用某种神经网络和某种图灵机来计算。

控制论

麦卡洛克比GOFAI和联结主义对早期人工智能的影响更为深远。20世纪40年代,在其神经学和逻辑学研究成果的指引下,处于萌芽期的控制论运动得到蓬勃发展。

当时,控制论者的研究重心是生物自组织。它涵盖了各种适应和新陈代谢,包括自主思考、微观运动行为和(神经)生理调节。其核心思想是“双向循环性”或反馈。关键问题是目的论或目的性。对于反馈取决于目标的差异性而言,这些概念高度相关——目标现阶段的偏差被用于指导下一步动作。

计算机建模者们分道扬镳

大约从1960年开始,工作者们的研究方向便出现了分歧。广义上来说,对生命感兴趣的人只关注控制论,而那些对心智感兴趣的人则关注符号计算。网络爱好者们当然对大脑和心智都感兴趣,但他们通常研究联想学习,而非具体的语义内容或推理,所以他们关注的是控制论而不是符号人工智能。研究的分支越来越多,不幸的是,各分支之间缺乏对彼此应有的尊重。

构成人类心智的虚拟机本来就是各式各样的,因此大家没必要对人工智能领域的研究分歧太过惊讶。

02 强人工智能:人工智能领域的圣杯

最先进的人工智能是一种神奇美妙的东西,可以提供各式虚拟机,以进行各种不同类型的信息处理。它没有核心秘密,也没有统一的核心技术。人工智能工作者来自各个领域,几乎没有统一的目标和方法。本书只能涵盖最近取得的极少一部分成就。总之,人工智能的方法范围极其宽泛。

随着近来计算机能力的不断增强,强人工智能在21世纪再次引起人们的兴趣。如果这一目标得以实现,人工智能系统将减少对专用编程技巧的依赖,而受益于推理和知觉这些通用功能——语言、创造力和情感。

只有超级计算机还远远不够

对于任何想要实现这个梦想的人而言,超级计算机必然是一个助推器。组合爆炸——其中需要的计算超过实际能执行的计算——已不再构成威胁。然而,我们不能一直靠增强计算能力来解决问题。

通常,我们还需要新的解决方法。此外,即使某一具体方法从理论上讲是可行的,但也可能需要大量的时间或存储,才能在实践中发挥作用。

另外,效率也很重要:计算数量越少越好。总之,问题必须易于处理。

如今,已经有几个基本策略可以做到这一点。它们由经典符号人工智能或GOFAI开创,在今天仍然必不可少:第一,只关注一部分搜索空间(问题的计算机表示,解决方案假定就在该表示中);第二,简化假设以构建较小的搜索空间;第三,有效安排搜索过程;第四,用新方式表示问题,以构建不同的搜索空间。

启发式搜索

无论是对人还是对机器来说,启发法都有利于问题的解决。强人工智能使用启发法的模式是:让程序只针对搜索空间的某些部分,同时避开其他部分。

利用启发法,我们不再需要穷举搜索整个搜索空间,但它们有时会和(有限的)穷举搜索结合使用。1997年,因击败世界冠军加里·卡斯帕罗夫(GaryKasparov)而名声大噪的IBM国际象棋程序深蓝(DeepBlue)使用的是专用硬件芯片,每秒能处理2亿个位置,可以知道接下来8步的所有备选棋步。但是,它不得不用启发法来选择备选棋步中的“最佳”棋步。由于启发法可信度不高,所以即使是深蓝,也不能每次都胜出。

人工智能领域中的规划

规划不仅限于人工智能:我们都在规划。请想想假期打包东西的情景。你必须找到所有要带的东西,但这些东西可能没有放在同一个地方。你可能还要买一些新东西(比如防晒霜)。你必须决定是把所有东西放一块儿(也许放在床上,也许放在桌子上),还是把每样东西都放在皮箱里。这个决定可能部分取决于你是否决定最后再放衣服,因为你怕把衣服弄皱。你是需要一个背包,还是要一个手提箱,或者两者都要,你如何取舍?

现代人工智能规划程序并不那么依赖从有意识的内省中或实验观察中获得的想法。它们的规划比早期程序的规划要复杂得多,但基本思想一致。

一个规划列举出一系列在常规层级上表示的动作——一个最终目标、加上很多子目标和次级子目标……这样就不用一次性考虑所有的细节。在某一适当的抽象层级规划上可以修剪搜索空间内的搜索树,因此一些细节根本不需要考虑。有时,最终目标本身就是一个动作规划——可能是调度送向/运出工厂或战场的货物。有时候,它还是一个问题的答案,比如医疗诊断。

数学简化

数学简化在定义搜索空间时的优点是可以利用搜索的数学方法。这种方法定义清晰,而且至少方便数学家理解。这并不代表任何数学定义的搜索都有实际使用价值。如上所述,某一方法在数学层面可以保证解决某一特定类别的所有问题,但是该方法在实际运用中并不适用,因为其时间成本可能是无限的。然而,它可能建议与此类似但更实际的方法,请见第4章中有关“反向传播”的讨论。

知识表示

一般来说,实现人工智能的最难部分是最开始如何向系统表示问题。即使人类看似可以直接与程序交流(用英语对着Siri说话或者在谷歌的搜索引擎中输入法语单词),但事实并非如此。人们无论是处理文本还是图像,都必须将包含的信息(“知识”)以机器可以理解的方式表示给系统,换句话说,以系统可以处理的方式表示(机器是否“真”的理解,我们将在第6章中进行讨论)。 

人工智能表示问题的方式五花八门。有些是对GOFAI中知识表示的一般方法进行演绎或改动。越来越多的是针对一小类问题制定的一些高度专业化的方法。例如,我们可能为人类某种癌细胞的X射线图像或照片精心设计一种新的表示方法,从而可以得到某个非常具体的医学解释方法(因此,这种新方法不能用来识别猫或CAT扫描)。 欲实现强人工智能,通用方法是关键。这些方法最初受到人类认知心理学研究的启发,包括:IF—THEN规则集;个体概念的表示;模式化的动作序列;语义网络;以及利用逻辑或概率进行推理。

基于规则的程序

在基于规则的编程中,大量知识/信念被表示为一套将条件与动作联系起来的“如果—则”(IF—THEN)规则集:如果满足这个条件,则进行那个动作。这种形式的知识表示利用了形式逻辑[埃米尔·珀斯特(EmilPost)的“产生式”系统]。但是人工智能先驱艾伦·纽厄尔(AllenNewell)和赫伯特·西蒙(HerbertSimon,又名司马贺)通常认为它是人类心理学的基础。

框架、词向量、脚本、语义网络

在一些利用最新技术处理大数据的应用中,单个概念可能被表示为一个簇或“云”,由成百上千个偶尔相关的概念组成(概念对之间的相关性概率各不相同,详见第3章)。类似地,概念现在可以用“词矢量”而不是单词来表示。此处的语义特征生成许多不同概念并连接各个概念,由(深度学习)系统发现,可用来预测接下来的词——例如,在机器翻译中的运用。然而,这些表示用在推理或谈话中的时候,不像经典框架那么经得起检验。

逻辑和语义网

如果一个人的最终目标是强人工智能,逻辑似乎是一种超级不错的知识表示。因为逻辑普遍适用。原则上来说,相同的表示(相同的逻辑符号主义)可以用来表示视觉、学习和语言等,当然也适用于由此产生的任意集成。此外,它提供了很有说服力的定理证明方法,以处理信息。

计算机视觉

自1980年以来,有关人工智能视觉的各种知识表示研究大多基于心理学,特别是大卫·马尔(DavidMarr)和詹姆斯·吉布森(JamesGibson)的理论。马尔注重构建3D表示(通过反转图像形成的过程),而不是用它们执行动作。吉布森强调视觉可供性对动作的支持,即一些视觉线索,它们能提示一条路或一根承重树枝,甚至是友好的或敌对的物种成员。尽管有了这些心理学研究基础,但是目前的视觉程序仍然严重受限。

框架问题

无论在什么样的领域中,要找到合适的知识表示都很难,部分原因是需要避免框架问题(注意:虽然在用框架作为概念的知识表示时,也出现过这个问题,但是此处“框架”的含义不一样)。

正如麦卡锡和海斯最初定义的那样,框架问题指假定(由机器人规划时)一个动作仅会引起这些改变,然而它也可能会导致那些改变。一般来说,只要人类默认的含义被计算机忽略,框架问题就会出现,因为这些含义没有被阐明。

智能体和分布式认知

一个人工智能体(Agents)是一个独立的(“自主的”)程序,有时可以比作膝盖反射,有时可以比作一个微型大脑。电话应用程序或拼写校正器可以称为智能体,但一般情况下又不是,因为不同的智能体之间通常会进行合作。它们会利用自己十分有限的智能与其他智能体合作或并肩达到单凭自己的力量无法实现的目的。而且,智能体之间的相互作用与智能体一样重要。

机器学习

人类水平的强人工智能还包括机器学习。然而,这并不是说要和人类一样。该领域的研究始于心理学家进行的有关概念学习和强化方面的工作。不过它现在取决于可怕的数学技术,因为所使用的知识表示都包含概率论和统计学可以说从心理学入手的研究已经远远落后了。一些现代机器学习系统与人类头部内可能发生的事情之间少有或甚至没有相似之处。但是,贝叶斯概率在该人工智能领域研究中的运用之广,不亚于最近的认知心理学和神经科学理论。

机器学习分三种类型:监督式学习、非监督式学习和强化学习(这种划分源于心理学,可能还涉及不同的神经生理机制,跨物种的强化学习包含多巴胺)。

在监督式学习中,程序员“训练”系统,方法是为一系列输入(标记的示例和无标记的示例)定义一组希望得到的结果,并且不断反馈该系统是否完成所希望的结果。学习系统对相关特征作出假设。只要系统分类出错,它就相应地修正自己的假设。具体的错误消息至关重要(不只是反馈系统出错了)。

在非监督式学习中,用户不提供希望得到的结果或错误消息。学习由原则驱动,而原则是指共同发生的特征产生它们以后将共同发生的期望。非监督式学习可以用来发现知识。程序员不需要知道数据中有什么模式/分类,系统自己会找到它。 强化学习受奖励和惩罚所驱动:反馈信息告诉系统它刚刚做的事情是好还是坏。通常,强化不只是二进制,还是由数字表示,如视频游戏中的分数。“它刚刚做了什么”可能是单个决定(例如游戏中的某个步骤),也可能是一系列决定(例如国际象棋走到最后将军了)。在一些视频游戏中,每动一步,数字分数都会更新。在极其复杂的情况下,例如象棋,仅在许多决定完成之后才能得到成功或失败的信号,用于信用分配的某一程序识别出那些最可能带来成功的决定(进化人工智能是一种强化学习形式,其中成功由适应值函数监控,详见第5章)。

通用系统

完整的强人工智能可以完成更多任务。打造一位高性能的人工智能“专家”已经很困难,打造一个人工智能“通才”更是难上加难(深度学习不是答案:它的狂热追随者承认,需要“新范式”将其与复杂推理结合,而后者是“我们没有一点头绪”的学术密码)。所以,大多数人工智能研究人员放弃早期设想,转向各色细分任务,他们取得的成就通常让人惊叹。

梦想复兴

一个真正达到人类水平的系统将会面临更多问题。难怪强人工智能是如此地难以捉摸。

缺失的方面

要实现真正的强人工智能,只做到这些还远远不够。明斯基的未来人工智能宣言——“走向人工智能”,既发现了障碍,也给出了承诺。许多障碍还有待克服。

03 语言、创造力和情感

人工智能的一些领域似乎特别具有挑战性,如语言、创造力和情感。如果人工智能不能模拟它们,要实现强人工智能就好似做白日梦。

无论就上述哪一方面而言,我们所取得的成就都早已超出了人们的想象。即便如此,一些困难仍然显著存在。这些典型的“人类”特征只是在一定程度上被模拟。

语言

无数的人工智能应用程序使用NLP(自然语言处理)。大多数程度关注的是计算机对呈现给它的语言的“理解”,而不是计算机自己创造语言。因为对于NLP而言,创造比接受更困难。

由此可见,总结、提问或翻译自然语言文本不一定非得处理复杂的语法。今天的NLP更多依赖于“体力”(计算能力)而不是大脑(语法分析)。数学,特别是统计学,已经取代逻辑,机器学习(包括但不限于深度学习)已经取代句法分析。这些NLP的新方法(从书面文本到语音识别)非常高效,所以在实际应用中,95%的成功率是可接受标准。 在现代NLP中,功能强大的计算机统计搜索海量(“语料库”)文本(在机器翻译中,这些是由人类配对的翻译),以找到常见的和意料之外的单词模式。它们可以知道鱼/水、鱼/蝌蚪、鱼和薯条、盐和醋的统计结果。NLP现在可以学习构建“词向量”(如第2章中所述),来表示既定概念下该词所有含义出现的概率云。不过此处的关注点通常是词和短语,而不是句法。语法没有被忽略:文本在接受检测的过程中,其中一些单词将被(自动或手动地)赋予形容词和副词之类的标记。但是句法分析却很少使用。

创造力

创造力——产生新颖的、异乎寻常的以及有价值的想法或人工制品的能力——是人类智慧的顶峰,对实现人类水平的强人工智能也是必不可少的。但人们普遍认为它很神秘。现在我们连人类是如何产生的新颖想法都没弄明白,更别提计算机了。

此外,人工智能概念还有助于解释人类的创造力。借此,我们可以分出三种类型的创造力:组合型、探索型和变革型。三者包含不同的心理机制,能带来不同的惊喜。

总之,人工智能的创造力有很多应用。在科学或艺术的一些小角落里,它有时可以和人类的创造力一决高下,甚至超过人类。但在一般情况下要和人类创造力匹敌就另当别论了。强人工智能仍然离我们很遥远。

人工智能与情感

和创造力一样,情感也被看作与人工智能格格不入的东西。除了直观上觉得不可能,想想情绪和情感依赖于大脑中散布的神经调节剂这一事实,构建情感的人工智能模型也似乎不太现实。

一直以来,情感被人工智能忽视(与西蒙富有洞察力的评论命运相似),其中一个原因是它没有得到很多心理学家和哲学家的重视。换句话说,他们认为智能不需要情感。相反,他们觉得情感不利于解决问题,会破坏理性。“情感可以帮助一个人决定做什么以及做这件事的最佳方法”的想法不合潮流。

情感最终会越来越重要,部分得益于临床心理学和神经科学的发展。但它能进入人工智能领域离不开马文·明斯基和亚伦·斯洛曼这两位人工智能科学家。他们一直把大脑看成一个整体,而不是像大多数同事那样,将自己的想法局限在智能领域内的某个小角落中。

如果要实现强人工智能,那么我们必须考虑和利用情感因素,如焦虑。

04 人工神经网络

人工神经网络(artificialneuralnetworks,ANN)是由许多相互连接的单元组成,每个单元只能计算一件事情。这样的描述听起来有些无聊。但人工神经网络似乎很有魔力。它必然也让记者们着迷。弗兰克·罗森布拉特的“感知器”(光电机)在没有接受明确指导的情况下可以学会识别字母,曾在20世纪60年代成为各大报纸的“宠儿”,吸睛无数。20世纪80年代中期,人工神经网络名声大振,至今仍然备受媒体的青睐。最近与人工神经网络相关的大量宣传还包括深度学习。

人工神经网络有无数应用,从操控股票市场和监测货币波动到识别语音或人脸,但真正有趣的是它们的运行方式。

由于当前对深度学习的热情高涨,神经网络的网络不像以前那样罕见了。但是,这些网络还是相对比较简单的。人脑必须包括无数在很多层级上以极其复杂的方式进行交互的网络。总之,强人工智能仍然十分遥远。

人工神经网络更广泛的含义

人工神经网络是作为计算机科学的人工智能取得的一大胜利,但它们的理论含义并未仅局限于此。它们与人类概念和记忆有一些相似之处,因此引发了神经科学家、心理学家和哲学家们的兴趣。

神经科学家们的兴趣由来已久。事实上,罗森布拉特没有把具有开创意义的感知器当作一个在现实中有用的小发明,而是把它当作一条神经心理学理论。今天的神经网络尽管与大脑有很多差异,但是在计算神经科学中扮演着重要的角色。

分布式并行处理

有一种人工神经网络理论尤其吸睛——PDP。事实上,当人们提及“神经网络”或“联结主义”(不常用的术语)时,他们通常说的就是PDP。 PDP网络的运行方式主要有四大优势,涉及技术应用和理论心理学(以及精神哲学)。

第一,它们只需要被显示例子而不需要被精确编程,就能学习模式以及各个模式之间的关联。

第二,可以解决约束满足问题,弄清部分冲突迹象的意思。它们不需要严格定义(不需要被表示成一系列的充分必要条件)。相反,它们处理具有家族相似性的重叠集合,这也是人类概念的一个特征。

第三,能够识别不完整的或部分损坏的模式。也就是说,它们具有找寻内容的记忆。人类也有这种记忆,例如,听到开头几个音符就能识别一段旋律,或者即使是一段旋律几个音弹错了,也能识别这段旋律。

第四,它们很强健。PDP网络就算丢失一些节点,也不会满口胡言或停止运行。它可能显示出适度的退化,在这个过程中,它的性能随着损害的增加而逐渐变差。它们不像符号程序那么脆弱。

PDP系统有多种类型。所有类型都是由三层或更多层互通单元组成的,每个单元只能计算一个简单的东西。但这么多单元连在一起,那情况就完全不一样了。

神经网络学习

大多数人工神经网络能够学习。这包含在权重中作出自适应改变,有时也包含在连接中作出自适应改变。通常,网络的解剖结构(单元的数量以及单元之间的连接)是固定的。如果是这样,学习只改变权重。但有的时候,学习或进化(见第5章)能够增加新的连接和修剪旧的连接。构造型神经网络将这一点做到了极致:开始时没有任何隐藏单元,随着学习的不断深入,它们增加了隐藏单元。

反向传播、大脑和深度学习

PDP的追随者们认为,人工神经网络比符号人工智能更接近大脑。PDP的设计灵感确实来自大脑,一些神经学科学家确实用它来模拟神经机能。然而,人工神经网络还是与大脑中的东西有很大差异。

网络丑闻

这听起来像是令人信服的科学论证。但他们最初发表的批评文章的确尖酸刻薄(初稿甚至更毒:友好的同事劝他们语气缓和一点,多突出一下科学论点)。这篇文章让人有想法当然不足为奇。坚持不懈的人工神经网络研究人员极其反感他们新发现的文化缺位(支持符号人工智能的人放弃了人工神经网络)。PDP甚至引起了更大的躁动。人工神经网络的“死亡”和复兴包含嫉妒、自负、自我吹嘘和幸灾乐祸:“我们早就告诉过你了。”

连接不是一切

对于人工神经网络的大多数描述都暗含这样一层意思:与神经网络相关的唯一重要的事情就是它的解剖结构。哪些神经元与哪些神经元相关联,以及权重有多强?这些问题当然十分重要。然而,最近的神经科学表明,由于化学物质在大脑中扩散,生物学回路有时能够改变神经元的计算功能(不仅仅是让它基本形成)。

混合系统

刚刚提到的模拟/数字网络和硬件/湿件网络被描述为“混合”系统,这可以理解。但这个术语通常用来指既包含符号又包含联结主义信息处理的人工智能程序。

明斯基在其早期宣言中已经说过,可能有必要包含二者,一些早期的符号程序确实结合了串行处理和并行处理。但这种尝试很罕见。我们也看到在PDP到来后,明斯基继续推崇符号和人工神经网络的混合系统。然而,这样的系统并没有立即出现(尽管辛顿建立了集中式和分布式联结主义相结合的网络来表示部分/整体层级,如家庭树)。 的确,符号处理和神经网络处理结合的系统仍然不常见。一个重逻辑,一个重概率,这两种方法差异巨大,大多数研究人员只擅长一种。

总之,在我们的大脑中实现的虚拟机既是串行的,也是并行的。人类智力需要二者的巧妙合作。假如能实现人类水平的强人工智能,那么它也会如此。 

05 机器人和人工生命

人工生命模拟生物系统。和人工智能一样,它有着技术和科学双重目的。人工生命对于人工智能而言不可或缺,因为已知的所有智能都可以在生物体上找到。的确,有许多人相信心智只能由生命产生(见第6章)。冷静的技术人员不担心这个问题。不过他们确实在开发多种实际应用的时候考虑了生物学。这些应用包括机器人、进化编程和自组织设备。机器人是人工智能的经典例子:它们的出镜率很高,而且具有独创性,还具有很大的商机。尽管进化人工智能应用很广,但没有那么出名。知道自组织机器的人甚至更少(非监督学习除外,见第4章)。然而,在理解自组织的过程中,生物学对人工智能来说很有用,同样,人工智能对于生物学来说也很有用。

机器人和有趣的昆虫

而今天的机器人却焕然一新。焦点也已经从人类转变为昆虫。昆虫可能不够智能,不能模拟世界或做规划,但它们可以管理。它们的行为合乎时宜且适应性强,对,此处就是指行为而非动作。但这主要是一种反射(习惯性思维)而不是熟思。昆虫们不假思索地对当下情境作出回应,而不是想象中可能发生的一些事情或目标状态。因此,这些机器人得到了这样的标签——“情境”或“基于行为”的机器人(情境行为不仅限于昆虫,社会心理学家在人类身上也发现了许多与情境有关的行为)。

进化人工智能

大多数人认为,人工智能需要一丝不苟的设计。鉴于计算机的无情天性,要是没有一丝不苟的设计,它怎能这样?其实,它能够这样。

进化人工智能通常有这样一个特点:它从符号人工智能中产生,但也用于联结主义。它有许多实际应用,包括艺术(该领域可能欢迎不可预测性)和开发对安全苛求的系统(例如飞机发动机)。

程序能够自我改变(而不是由程序员重写),甚至可以用遗传算法(GA)完善自身。受真实生命遗传学的启发,程序能够随机变异和非随机选择。选择需要成功的标准或“适应度函数”(与生物学中的自然选择类似)与遗传算法一起工作。于是,定义适应度函数成了关键。

今天,模拟突变率仍处在系统地变化和追踪阶段,遗传算法研究人员正在分析“适应值曲面”“神经(原文如此)网络”和“遗传漂变”。在突变尚未增加生殖适应度的情况下,如何维持突变?这项工作作了解释。总之,人工智能在帮助生物学家提出进化理论。

自组织

生物有机体的关键特征是它们具有组织自我的能力。自组织是指从不太有序的起源到有序结构的自发出现。这种性质让人不解,甚至自相矛盾。它能否在非生物上发生,这一点尚不明显。

艾伦·图灵通过追本溯源解释了自组织。他问道:“同质事物(如未分化的卵子)为何会创造结构?”他承认,大多数生物发育为现有顺序增加了新顺序,例如胚胎神经管中变化的顺序。但是从同质性中得到的顺序是基本(数学上最简单的)情况。

胚胎学家也设想了“组织者”:以未知方式指导发育的未知化学物质。图灵不认同组织者,而是考虑和化学扩散相关的超级通用原则。他指出,如果不同的分子相遇,结果将取决于它们的扩散速率、浓度,以及它们之间的相互作用对分子的破坏/构建速度。他的证明方法是改变设想的化学方程中的数字并研究结果。有些数字组合只产生形体不明的化学品混合物。但其他数字组合则产生顺序,例如,某一分子浓度的常规峰值。他说,这样的化学峰值可能在生物学上被表示为表面标记(条纹),或重复结构的起源,如花瓣或身体的部分。三维中的扩散反应能够产生空心化现象,如早期胚胎中的原肠胚形成。

06 强人工智能会有真正的智能吗

事情并不是非黑即白。我们要的是仔细论证,而不只是未经核实的直觉。这些论证表明:对于上述问题,没有任何无懈可击的答案。因为所涉及的概念本身就颇具争议性。只有透彻理解概念本身的含义,我们才有信心说假设的强人工智能将会或不会具备真正的智能。总之,没有人知道确切的答案。

有些人可能会说:“这没关系,强人工智能实际上做的事情才是关键。”然而,我们将看到,上述问题的答案可能会影响到我们处理强人工智能的方式。

07 奇点

人工智能自出现以来,其未来就一直备受关注。一些人工智能专家过度狂热的预言让记者和文化评论员们十分振奋,有时甚至是害怕。如今最好的例子是(Singularity),即人工智能超过人类智力极限的时间点。

代表人工智能将达到人类水平的智能(默认这将是真正的智能,见第6章)。不久的将来,强人工智能将变为超人工智能。届时系统将智能化到可以自我复制,从而在数量上超过人类,并且还可以自我提高,从而在思想上超越人类。最重要的问题和决定将交由计算机负责。

预言家

强人工智能向超人工智能过渡的观点近来已经成了媒体的老生常谈,但它最早始于20世纪中叶。关键的发起人是杰克·古德(“Jack”Good,他和艾伦·图灵一道在布莱切利园担任密码破译家)、弗诺·文奇(VernorVinge)和雷·库兹韦尔(RayKurzweil)。而图灵自己曾经预言“机器将获得控制权”,但没有详细说明。

库兹韦尔的论点根基是“摩尔定律”,它是英特尔创建者之一戈登·摩尔(GordonMoore)的观察报告,即一美元带来的计算机能力每年翻倍(物理定律最终将征服摩尔定律,当然不是在可预见的未来实现)。库兹韦尔指出,任何指数级增长都有悖于常理。他说这表明人工智能的发展速度将超乎想象。所以,他和文奇一样坚持认为,基于过去经验的预测基本没有价值。

竞争的预测

尽管有些人宣称,对奇点出现之后所做的预言几乎毫无价值,但还经常会出现此类预言。文学作品中也充斥着大量令人难以置信的例子,我们在这里仅列几个。 S信徒分为两个阵营:悲观者(跟随文奇)和乐观者(跟随库兹韦尔)。他们多半同意,强人工智能向超人工智能的转型将在本世纪末之前顺利发生,但他们的分歧点是超人工智能到底有多危险。

为怀疑论辩护

根据摩尔定律,人工智能有望持续不断地取得进步。但是增大的计算机功率和增加的可用数据(如云存储和整个物联网上的24×7小时监测的传感器)不能保证出现似人类的人工智能。这对S信徒来说是个坏消息,因为实现超人工智能的前提是强人工智能。 S信徒忽略了当前人工智能的局限性。他们根本不在乎,因为他们有一张王牌:技术的突飞猛进正在改写所有规则手册的概念。这允许他们随意预言。他们偶尔会承认“本世纪末的”预言可能不现实。但是,他们坚持认为,“从不”仅代表一段长时间。

“从不”的确是一段长时间,所以包括我自己在内的S怀疑者都有可能错了。这些S怀疑者没有强有力的理由——特别是如果他们原则上承认强人工智能可能实现(像我一样)。他们甚至可以被说服:尽管有巨大的延迟,但奇点最终会发生。

然而,仔细考虑最先进的人工智能,我们有理由支持怀疑派的假设(或如果你喜欢,也可以说是他们的赌注),而不是S信徒的胡乱猜测。

全脑仿真

S信徒预言人工智能、生物技术和纳米技术将以指数级速度发展,它们之间的合作将日新月异。事实上,这些预测已经在发生了。大数据分析现在用于推进基因工程、药物开发和许多其他科学项目(埃达·洛夫莱斯的论证,见第1章)。同样,人工智能和神经科学现已经被结合用来研究全脑仿真(WBE)。 WBE的目的是通过仿真大脑的单个组件(神经元)以及各组件之间的连接和信息处理能力,来模拟一个真实的大脑。希望在于,这些所获得的科学知识有许多应用,包括从阿尔茨海默症到精神分裂症等精神疾病的治疗。

简而言之,把自下而上的WBE看作理解人类智力的途径可能会失败。但它可能有助于我们理解大脑。它可以帮助人工智能科学家开发出更实际的应用。但是,到21世纪中期,届时的WBE将能解释人类智力的观点是一种错觉。

我们应该担心什么

如果S怀疑派是对的,确实没有奇点,那也不代表我们就万事大吉了。人工智能已经引起了人们的担心。未来的进步肯定会带来更多问题,所以对人工智能长期安全的焦虑也是非常必要的。更重要的是,它的短期影响也不容忽视。

我们为此做了些什么

总而言之,从某种程度上来说,正是由于这种观点,让人工智能研究团体、政策制定者和普通老百姓才逐渐意识到一些切实存在的危险。他们早就该注意到了!

译者后记

《AI:人工智能的本质与未来》的作者玛格丽特·博登教授是OBE勋章获得者,人工智能领域最著名的人物之一。在本书中,作者试图用通俗易懂的语言,向读者介绍人工智能的方方面面。

本书概括起来,可以分为三个部分:

人工智能的前世,从埃达·洛夫莱斯夫人的预言到艾伦·图灵的图灵机、到沃伦·麦卡洛克提出的神经活动中内在思想的逻辑演算、再到唐纳德·赫布的学习理论,囊括了人工智能各分支的历史演变过程,提到了多学科共同发展为人工智能的发展带来了巨大推动力;

人工智能的今生,讲述了当前技术的最新进展,如逻辑符号主义的不断完善、人工神经网络的再次复兴、机器人技术和人工生命的蓬勃发展以及强人工智能面临的种种难题等;

人工智能的未来,作者提出了如下问题,比如,人工智能是否真的能够实现?会思考的智能体是否需要道德约束?何时会出现超越人类智能的智能体?智能体带来利益的同时也带来了威胁,对此我们如何应对?作者不仅详述并总结了当前各个学派的观点,还给出了自己的答案。

 #慢慢日日新#  自然而然 第221天

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇