博舍

人工智能在游戏中的应用与未来展望 关于人工智能的小游戏推荐有哪些

人工智能在游戏中的应用与未来展望

人工智能在游戏中的应用与未来展望

摘要:人工智能是全球科技发展的一个热点,其在多个领域都有突出的应用。本文主要介绍了人工智能在游戏中的三大应用,并对其发展趋势和前景进行了相关讨论。

关键词:人工智能,游戏,发展应用,前景

一.人工智能概述

人工智能(ArtificialIntelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,在游戏中的应用也极为广泛,对玩家而言,游戏在玩法和开发上的拓展,能带来众多更有趣更精良的游戏;也会让体验变得更特别、更个性化、更令人回味。于整个产业来说,更多的创新和技术进步将推动产业的蓬勃发展,更加良性。

二.人工智能在游戏中的三类应用1.AI智能游戏引擎

游戏AI引擎可以绕过算法,提供“傻瓜式”的创作平台和工具:帮助开发者简化游戏制作流程,降低制作难度,塑造随机地图和创造NPC等等。目前主流的游戏AI引擎有三类:AI渲染引擎、NPC制作引擎和游戏创作引擎。

常见的有3D游戏需要提高游戏画面的表现力度,不断提升3D图形技术的功能,游戏画面在设计时除了重视美术设计质量外,在游戏表现的各个环节需要编辑较多的数据,这个程序员带来较大的挑战,这些问题的解决归根到底是完善游戏引擎。游戏画面设计在引擎中一般采用层次的设计方式,需要不断明确人工智能技术在各个环节的作用。游戏引擎的主要结构包括三个:高层接口、中层接口和低层接口,具体来说,高层接口的作用是能够让用户使用人功智能技术调控中层接口,通过改变算法控制游戏中游戏角色的战术动作、攻击活动等进行操作,中层接口可以通过与底层接口相结合,控制底层接口中的动画和运动等变换速度快的画面,保证游戏中的角色能够做一些高难度的动作,为用户提供高质量的服务,底层接口的作用在于控制角色的动画与基本动作,并提供物理计算与3D渲染等功能,但是底层接口的功能只能操作角色的朝向和位置,不能进行跳跃的动作,这些动作需要由中层接口完成。

2.神经网络算法

要让NPC更聪明一点,目前这方面的AI解决方案主要有这四种:

有限状态机、蒙特卡洛决策树、神经网络、遗传算法。

在传统游戏中,最为广泛使用是有限状态自动机(FSM),这是一种专家型的预编程算法。与FSM相比,蒙特卡洛决策树(MCST)会多步联想做决策,而非只就当前形势。这种多元化的行为能带来玩家更强大的个性化交互游戏体验,但其难度和成本也更大,且无学习能力。MCST模式下的NPC最大的缺陷在于学习能力。他们不能从玩家那里学习任何东西,不会根据玩家的习惯性操作做出相应的变化。

而人工神经网络(ANN)和遗传算法则可以解决机器学习的问题。**但是,神经网络下的NPC是“不可控的”(“非线性”和“非常定性”特征导致),这给游戏的运营与维护带来不少的风险,NPC的行为将在不断学习中变得难以预测,游戏后期的调试变得异常困难,有可能出现脱轨的问题。**另一种技术——遗传算法(GeneticAlgorithm)创造了一个不可击败的敌人。**遗传算法是基于达尔文进化论提出的一种决策计算模型,计算机在模拟自然进化过程中寻求最优解。**体现在游戏上,NPC会根据以往的经验去优化策略,新一轮的进攻的“敌人”会接收“牺牲者”的意志,并针对玩家的过往策略逐个击破。这意味着越强大的玩家将面临越强大的敌人,并且没有尽头。主机游戏SHMUP中,游戏开发者就为玩家置入了运用遗传算法的敌人。他们让玩家反抗经过多代进化敌人的AI,当这一代又被击败时,遗传算法对AI进行排名并使用它们创造新一代的敌人来对抗玩家。在著名进化策略类游戏孢子和怪物系列都在遗传算法上有所突破。

3.AI操作系统

人工智能操作系统的理论前身为20世纪60年代末由斯坦福大学提出的机器人操作系统,应具有通用操作系统所具备的所有功能,并且包括语音识别、机器视觉、执行器系统、和认知行为系统。在游戏中,相对于游戏引擎和算法开发方向而言,它可以直接识别玩家操作,使游戏产业第一次从间接的数字控制转向更自然的模拟控制。人工智能在游戏中的运用甚至帮助现实世界的进步。因为游戏能够为现实世界提供准确数据和测试平台,例如赛车游戏为自动驾驶提供数据支持等等。

三.对人工智能游戏的未来展望

在过去的20年里,AI在游戏中取得了显着的进步。对于今天的游戏开发者来说,创造一个高效的A.I.系统与创造优质游戏和美妙的图像同样重要。每个工作室都开始为A.I.分配一个专门的编程团队。在游戏开发的早期阶段设计游戏。他们花费更多的资源和时间来建立多样化,称职和表现良好的非玩家角色(NPC)。更多的开发人员使用高品质的A.I.设计使他们的游戏在竞争日益激烈的市场中脱颖而出。

理想的目标是让玩家始终沉浸在游戏中。NPC应该让人觉得是活生生会呼吸的人,而且这种错觉在游戏中不会以任何方式被打破。人类的行为很有趣,像对话这种微妙的互动行为,在未来AI可能会实现。如果能在诸如此类的互动上有所突破,那么游戏中更多的部分将有更强的互动性。说不定会产生全新类型的游戏。

四.总结

通过游戏展我们可以看到游戏AI正在向更高的质量,更适应玩家的需求,给玩家带来非凡体验的方向迅猛发展。也许我们所期待的、理想中的、极大拟人化的游戏AI将会很快得以实现,并且给我们的生活增添更多的快乐与色彩。而游戏AI也将为人类在人工智能方面的研究上添上非常重要的一笔!

人工智能发展现状及应用

导读:

人工智能(ArtificialIntelligence),英文缩写为AI。人工智能被认为是第四次科技革命的核心驱动力,目前许多领域都在探索AI技术的应用,可谓方兴未艾。那么什么是人工智能,它经历了怎样的发展历程,现阶段发展状况如何,它有哪些应用。本篇文章就为大家做个简单分享。同时也会为大家详细介绍一下百度的AI技术体系。

 

本文主要内容:

1.人工智能概念

①智能

②人工智能

2.人工智能的发展

①人工智能的发展历程

②AI是中国的机遇

3.AI与百度

①百度AI的发展历程

②百度AI的技术体系

③百度AI的场景化应用

 

 

1.人工智能概念

1.1智能

谈到人工智能,需要首先理解“智能”一词的具体含义。智能是指人类才具有的一些技能。人在进行各种活动的过程中,从感觉到记忆再到思维产生了智慧,智慧产生了人类本身的行为和语言,行为和语言统称为能力;智慧和能力结合在一起就是人工智能中的智能一词。

比如,人类的语言表达能力就是一种智能(语言智能);人类进行复杂数学运算的能力也是一种智能(数字逻辑智能);人类的交往能力也是一种智能(人际智能),人们对音调、旋律、节奏、音色的感知能力,也是一种智能(音乐智能)。他们都属于智能的范畴。

1.2人工智能

把智能的概念与人的逻辑理解相结合,并应用到机器中,让机器能更好的模拟人的相关职能,这就是人工智能。人工智能就是要让机器的行为看起来就像是人所表现出的智能行为一样。

人工智能概念,最早可以追溯到上世纪90年代初,这个时候需要提到一位科学家:图灵。

艾伦·麦席森·图灵(英语:AlanMathisonTuring,1912年6月23日—1954年6月7日),英国数学家、逻辑学家,被称为计算机科学之父,人工智能之父。

图灵最早定义了什么是人工智能,怎样去界定一个机器(或一个设备)是否具备智能。他最早提出了图灵测试(即:一个人在不接触对方的情况下,经过某种特殊的方式和对方进行一系列的问答,如果在某些时间之内,他无法根据这些问题判断对方是人还是计算机,那么我们就认为这台机器具备智能化的思维)。直到2000年左右,才真正有计算机通过了图灵测试,才实现了一个突破。在2014年图灵测试大会上,出现了一个通过图灵测试的机器(或者称为智能聊天的机器人)。这两年人工智能的高速发展,也印证了最早的图灵测试,这也让我们反向看到了图灵在人工智能定义方面做出的突出贡献。

现今,在做图灵测试时,判断这个设备是否具备人工智能,更多的还是从模拟人的角度来考量。但在当前科技背景下,人工智能需要涵盖更广的内容,它不仅仅要模拟人本身的职能,还需要具备一些扩展、替代甚至延伸的职能。

举个例子,在医疗领域,需要经常在实验室进行病毒化验,人处这样的实验环境下会比较危险,经常会出现一些事故,如果能够用机器替代人来做这些实验,这些事故就可以避免。此时,这台机器就不仅仅是在模拟人,而是在替代人,机器本身就具备了替代人的能力。

当前,很多人在担忧:人工智能的发展会不会对人类造成威胁。其实,目前人工智能还处于早期的阶段(或者称之为婴幼儿阶段),我们还处于弱人工智能时代。

当然,随着时间的推移,将来我们可能会把弱人工智能时代推进到强人工智能,甚至再往前推进到超人工智能和智能爆炸时代。但至少目前,我们离这样的时代还有非常远的距离,要实现这样的目标,需要非常多的时间积累,可能要通过几代人甚至十几代人的努力。所以大家不要有过多的担心,人工智能现在更多的还是用于服务人类,用来提高人们的工作效率。

上图引自MIT大学一位教授。

针对人工智能所覆盖的领域,这位教授提出一个观点:“我们要尽可能避免做这些容易“进水”的工作,以免被日后所淘汰掉”。

这张图水平面以下的工作,如存储,计算、甚至象棋活动等,已经被海平面淹没。在海平面边缘的工作,如翻译、驾驶、视觉和音频等,很有可能在未来的一段时间,随着技术的进步也会被淹没。再来看图上高海拔地区的工作,如艺术创新、科学研究,文学创作等,让人工智能替代人类去做这些工作,在现阶段是比较困难的。要让人工智能实现像人一样具备主观能动性,还需要比较长的时间。我们在选择工作,或者在做技术探索的时候,应该从更高的层面布局,而把那些可以被人工智能替代的工作交给计算机去做,这样我们就可以从一些重复性、冗余性的工作中抽离出来,去专门从事创造性的工作(比如艺术创作等)。

2.人工智能的发展2.1人工智能的发展历程

我们回顾一下人工智能发展的历程。

人工智能并不是特别新鲜的词,在计算机出现后不久,大家就已经开始探索人工智能的发展了。

1943到1956年这段时间,为人工智能的诞生期,期间有很多人尝试用计算机进行智能化的应用,当然此时不能称为人工智能,只是有类似的概念。

人工智能的分水岭是1956年达特茅斯会议,在本次会议上正式提出了AI这个词。

1956到1974年这段时间,是人工智能发展的黄金时代,是人工智能的第1个高速发展期,通常把这段时间称之为人工智能大发现时代。

1974到1980年这6年的时间里,进入了人工智能发展的第1个低谷,在这个低谷期,出现了非常多的问题,比如计算上的问题、存储上的问题、数据量的问题,这些问题限制了人工智能的发展。

1980到1987年这段时间是人工智能的第2个繁荣期。期间诞生了大量的算法,推动了神经网络的高速发展,同时出现了许多专业的科研人员,发表了许多创造性的论文。

1987到1993年这段时间是人工智能的第2个低谷期,期间有个词叫“AI之冬”。有大量的资本从AI领域撤出,整个AI科研遇到了非常大的财政问题,这是导致”AI之冬”的主要原因。

1993年之后,人工智能又进入到高速发展期,期间出现了许多经典案例,比如1997年IBM公司的深蓝案例,2001年IBM的沃森案例,2016年谷歌AlphaGo案例。这些案例是人工智能在应用层面的体现。

上图概括了人工智能的发展历程。

可以看到,从1956年达特茅斯会议AI这个词诞生,一直发展到现在,人工智能共经历了60多年的跌宕起伏,并不是仅在2016、2017这两年间才出现了人工智能这个概念。

从宏观上看,AI的发展历程经历了三次比较大的起伏。

第1次起伏是从1943年到1956年,首次出现了神经网络这个词,把人工智能推到一个高峰,期间出现了许多大发现。而第1次低谷使人工智能进入到了反思的阶段,人们开始探讨人工智能的应用。

第2次起伏是在上世纪80年代,期间BP算法的出现,神经网络新概念的普及,推动了人工智能又进入第2次高峰和发展。然而从1987年到1993年又进入到了了第2次低谷,这主要因为一些财政原因导致。

第3次起伏从2006年开始,由辛顿提出了深度学习的概念,把神经网络往前推动了一大步,也把人工智能推到了高速发展阶段,尤其是近几年在非结构化领域取得了许多突破(例如在语音与视觉方面),给人工智能进入商业化应用带来许多的基础性技术沉淀。

人工智能为什么会在前面的发展过程里遇到了那么多的坎坷?为什么在最近这几年会进入一个高速发展期?

我们归结了近几年人工智能高速发展的三点原因:

①算力飞跃

人工智能(尤其是深度学习),对底层计算能力的要求非常高。早期的计算受到了极大限制,从CPU发展到了GPU,使得算力几乎能达到几倍甚至十几倍量级的增长。再从GPU到TPU,计算速度能达到15~30倍的增长,使得在算力层面不断取得突破。此外,大量云资源的出现将我们计算的成本压到了最低,我们在处理海量计算的同时,也可以享受比较低的成本。再者,芯片技术的发展,使得端处理能力持续提高,这些都帮助我们在算力层面取得了很大的突破。

②数据井喷

从PC互联网时代到移动互联网时代,再到可穿戴设备的应用,都产生了大量的数据。这两年,每年产生的数据量可以达到50%左右的增长。2017年到2018年,这段时间内基本上每个月产生的数据量可以达到几十个亿的量级,数据量已经非常高。物联网的连接,能帮助我们把更多的数据采集回来,帮助我们在数据层面做更多的积累,这是数据井喷带来的积极影响。

③算法突破

近几年来,从机器学习到深度学习,算法不断取得突破。使得我们可以处理更多的大规模、无监督、多层次等复杂业务。

算法、算力、数据是人工智能的三要素,算力是骨骼,数据是血液和食物,算法就是大脑,三者不断取得突破,才能促进人工智能高速发展。

2.3AI是中国的机遇

人工智能技术的发展也促进了很多产业的发展。中国目前有非常好的历史机遇,不仅仅是在技术上有大量的积累,同时,国家也为人工智能的发展提供了非常好的政策环境。此外,市场空间、资金支持、人才储备,也都为人工智能的发展提供了非常好的条件。

通过上图可以看到,人工智能的研发人才目前还比较短缺。图上数据来源于领英在2017年所做的全球AI人才报告。以2017年的数据来看,全球人工智能专业的人才数量超过190万,在这190万人才中,美国处于第一梯队,有85万+;而中国在人工智能领域的人才积累比较少,从数据上来看,目前国内人工智能方面的专业技术人才可能只有5万+,当然这是2017年的数据,现在可能会有一些增长,但是量级也没有达到我们想象的那么大。

所以从国内目前来看,这约5-10万的AI技术人才,对比AI产业的高速发展需求,两者之间有巨大矛盾。那怎样更好的用这些人才作为突破,把人工智能方面的技术人才储备提高到百万级别。这正是整个百度(包括百度的教育合作与共建,包括百度所有对外输出的体系,包括我们今天所做的课程)所努力的方向,我们期望通过百度的技术赋能,真正的帮助人工智能取得更好的人才积累,真正培养一些在未来对人工智能行业有巨大贡献的专业人才,这是百度现在的定位目标。

AI浪潮已然到来,行业人工智能时代已经到来。目前,人工智能已经大量应用在2c和2b领域,怎么让人工智能跟具体行业有更好的接触,产生更多的积累,是我们正在重点探索的方向。

比如百度的搜索引擎,已经融入了很多AI元素。模糊匹配、拍照识图、深度挖掘检索等都应用到了大量的人工智能技术。

再如推荐系统,他会基于个人的一些喜好和历史阅读习惯来给用户做一些内容的推荐和匹配,这是很典型的结合大数据做的精准应用,实际上也属于人工智能的范畴。

再如人脸识别技术、语音技术、智慧交通和无人驾驶等,都是AI技术与行业应用的融合,并且这些技术正在不断取得突破。百度现在L4级别的无人驾驶车已经初步实现了一些小规模的量产,未来会有更多的人将真正的体会到无人驾驶给生活带来的便利。

3.AI与百度

3.1百度AI的发展历程

上图为百度在人工智能领域的发展轨迹,早在2009年,百度就开始尝试探索人工智能相关技术,直到2019年,百度用了近十年的时间布局人工智能。

2009年尝试性布局人工智能,2013年发布IDL,2014年成立硅谷实验室以及百度研究院,2015年首次发布DuerOS,2016年发布百度大脑1.0版本,同年,百度的自动驾驶技术进入试运营状态,2017年是百度人工智能技术高速发展的一年,不仅成立了深度学习国家实验室,同时也成立了硅谷第二实验室以及西雅图实验室,并且Apollo平台开始运行并对外推广,在2018年到2019年,DuerOS和Apollo平台发展到3.0版本,百度大脑发展到5.0版本。经过近十年的发展和积累,百度的人工智能技术目前处于相对领先的位置。

百度在人工智能领域领域取得的进展有目共睹,比如,百度成立了首个国家级AI实验室;2016年被美国《财富》杂志评选为深度学习领域四大巨头之一;百度的刷脸支付、强化学习、自动驾驶等技术入选MIT2017年全球十大突破性技术;在AI领域,百度的中国专利申请超过2000项。

3.2百度AI的技术体系

百度的技术体系非常全面,覆盖了计算体系、大数据技术体系以及人工智能技术体系等,在机器学习、深度学习、区块链、知识图谱、自然语言处理、量子计算等领域均有雄厚的技术积累。这些技术可以按内容划分成三个板块,第一是A板块(即AI技术板块),第二是B板块(即大数据板块),第三是C板块(即云计算板块)。这就是百度在2016年提出的ABC概念。从一开始的1.0版本,发展到如今的3.0版本,代表着百度在人工智能领域的整体布局。在人工智能领域的布局中,百度的探索不仅停留在最核心的技术上,也同时将核心技术与更多的领域相结合,如边缘计算、物联网(InternetofThings,IoT)和区块链等,得到了如ABC+区块链、ABC+DuerOS、ABC+Apollo等对外输出模式,向各行各业提供解决方案。

在A板块中,将百度大脑分成了不同的层次。最底层是算法层,包含机器学习和深度学习算法,使用百度的PaddlePaddle深度学习框架提供算法层的基础支撑;算法层之上为感知层,感知层可分为对声音的感知和对光的感知,其中,对声音的感知主要是语音技术板块,对光的感知主要是图像技术、视频技术、AR/VR等技术板块;在感知层之上是认知层,认知层更多的是处理人类听到和看到的内容,对其进行深度理解,深度理解需要自然语言处理(NLP/NLU)、知识图谱等技术作为支撑,同时也需要积累大量用户画像数据,这些技术能帮助人们快速的理解和分析人类听到和看到的内容,并对内容进行有效的反馈,这是认知层面的技术;在认知层之上是平台层,平台层将底层的内容进行融合、封装,对外提供开放、完整的AI技术,并引入大量的生态合作伙伴,共同探讨人工智能产业的布局。

百度人工智能整体技术体系,最底层是深度学习框架飞桨PaddlePaddle,作为底层计算框架,飞桨PaddlePaddle支撑着上层场景化能力与平台中的全部板块。在场景化能力与平台中,包含了诸多场景大板块,每个大板块下又细分为多个技术板块,比如语音板块包含了语音合成以及语音唤醒等技术板块;计算机视觉技术中的OCR技术,包括传统通用OCR识别,以及垂直领域OCR的识别,可以对30多个OCR识别领域进行精准识别,比如票据识别、证件识别以及文字识别等;在人脸/人体识别板块,同时也会引入图像审核以及图像识别方面的技术;在视频板块,有视频比对技术,视频分类和标注技术,以及视频审核技术;在自然语言处理板块,有机器翻译技术;知识图谱板块,有AR/VR技术。这些板块构成了人工智能体系的技术蓝图。

近两年来,人工智能技术在各行各业中的应用不断加深,实践证明,单一的技术在落地时会受到诸多限制,所以现在人工智能在落地时可能不仅仅用到某一个单独的技术板块,而是需要先把这些板块进行融合,然后再进行实际应用,比如在拍照翻译的应用场景下,既需要用到OCR技术,同时也用到NLP技术。因此在实际应用中,需要综合各个板块的技术,把不同的技术体系和技术内容有机地融合起来,再去解决行业中面临的痛点。

 

3.3百度AI的场景化应用

2014年到2015年期间,在计算机视觉领域的部分场景下,计算机视觉识别准确率已经超过了人眼识别。而利用深度学习技术的计算机听觉识别,在2017年左右也已经超过人耳听力极限。

人工智能业务场景化不仅依赖底层的硬件资源,也需要超大规模的标注数据,这是监督学习的特点,所以在人工智能早期研究中,有评论说“有多少人工就有多少智能”,这句话在特定角度来看是具有一定意义的。在监督学习中,训练模型需要庞大的标注数据,再结合GPU强大的数据处理能力去训练特定模型,也就是从算法的层面去做更多的工作,在训练模型的过程中需要发挥人的主观能动性,更好的解决在行业应用中出现的一些痛点,构建出行业专属的模型。

比如,将人体分析技术应用到实际行业场景中时,需要结合人脸识别技术和人体识别技术。可以通过基础手势识别,识别一个人在开车时有没有系安全带、是不是在打电话等。

利用人体分析技术,可以做到行为识别,首先设定特定区域,然后对区域内的人员行为进行识别,比如人群过密、区域越界、人员逆行、徘徊以及吸烟等,在特定场景下,行为识别能够帮助用户避免安全隐患。

自然语言处理有很多相关技术,比如说词法分析、词向量表示、语义相似度、短文本相似度、情感相似度分析等。这些技术用在不同的应用场景下。

在公检法系统应用中,为了避免出现非常严重的问题,如同案不同判,具体解决方案是当诉讼呈递给法官时,根据当前诉讼内容在公检法系统中寻找历史上类似的案件,参考历史类似案件的判决,给法官提供判案依据。

在媒体领域应用中,对基础的财经类新闻,可以由机器进行新闻文章的编写,即机器写作。这些技术都是基于NLP在相应领域做的智能化应用,可以让编辑或记者从重复性的工作中解脱出来。

人工智能从广义上来看,也包括大数据及云计算相关技术,这些技术也都涵盖在百度AI技术体系中。在大数据领域,主要包括数据采集、数据存储、数据分析以及数据可视化等,利用这些技术,我们在进行模型训练的时候,对数据进行科学的管理可以帮助我们提高模型训练效率。

百度AI技术体系也提供算力层面的支持,通过GPU服务器以及FPGA服务器提供的算力,更好的解决应用层面的问题。

百度AI就是这样一个从基础层,到感知层、认知层的完整体系,为多行业、多场景提供“一站式解决方案”,力求实现“多行业、多场景全面赋能”。

回顾

本篇文章,我们和大家分享了人工智能的相关概念,人工智能的发展历程,从中也可以看出AI是我们的历史机遇。同时本文也为大家详细介绍了百度的AI技术体系,经过10余年的努力,百度AI已经形成从基础层,到感知层、认知层的完整技术体系,为多行业、多场景提供“一站式解决方案”,力求实现“多行业、多场景全面赋能”。

关于人工智能,你应该知道的四个关键人物

图灵测试用来区分机器能否在智力行为上表现得和人无法区分。图灵在《计算机与智能》这篇论文的开篇提出一个问题“机器是否能思考?”,为了检测这一问题,图灵提出了模仿游戏:这场测试中有A、B、C三个主体,A是机器,B是拥有正常思维的人,A和B坐在房间里,C是坐在房间外的裁判。裁判C对机器A和正常人B进行询问,如果他没有办法区别机器和人类,那么机器A就通过了图灵测试(参考维基百科)。

图灵测试示例(图片来自网络)

1956年召开的达特茅斯会议被普遍认为是人工智能的起源,这次会议的主要发起人有当时在达特茅斯学院数学系任教的麦卡锡(JohnMcCarthy)及在哈佛大学任教的明斯基(MarvinMinsky)。

达特茅斯学院(DartmouthCollege)

麦卡锡出生在波士顿,他的父亲是一位爱尔兰移民,爱好发明。母亲是热心于女权运动的立陶宛犹太人。1944年,麦卡锡在加州理工大学攻读数学专业,因为初中自学了大学低年级的高等数学,进入加州理工的头两年得以免修数学。1948年麦卡锡在普林斯顿大读研期间,受到冯·诺依曼的影响,开始尝试在计算机上模拟人的智能。

麦卡锡博士毕业后,在普林斯顿大学担任讲师,在那里遇到了志趣相投的友人明斯基。随后,麦卡锡转至斯坦福大学做了2年的助理教授,又受到达特茅斯学院数学系系主任克门尼(JohnKemeny)的邀请,前往达特茅斯学院任教。

1956年,麦卡锡与明斯基、香农共同发起了达特茅斯会议,他为此次会议起名为“SummerResearchProjectonArtificialIntelligence(人工智能夏季研讨会)”。一般认为“ArtificialIntelligence(人工智能)”一词由麦卡锡发明,但也有学者指出麦卡锡在晚年回忆这个词是他从别人那里听来的,随着麦卡锡的离世,这一学术用语的发明人也成了谜。

1959年,麦卡锡开发了著名的LISP语言(ListProcessinglanguage),成为人工智能界第一个最广泛流行的语言,1971年麦卡锡获得图灵奖。

1927年,明斯基出生在纽约的一个犹太家庭,曾在布朗士科学高中(theBronxHighSchoolofScience,纽约最著名的三所老牌高中之一)和菲利普斯学院(thePhillipsAcademy,美国最知名的私立中学)就读。1945年高中毕业后明斯基入伍成为海军,退伍后他在哈佛大学主修数学专业,同时也选修电气工程、遗传学、心理学等多个学科的课程。

1950年他进入普林斯顿大学攻读数学博士,博士论文题为“神经网络和脑模型问题(NeuralNetsandtheBrainModelProblem)”,是对人工神经网络(ANNs)领域的早期贡献,1954年明斯基取得博士学位后留校任教。

1959年,明斯基和麦卡锡分别离开哈佛大学和达特茅斯学院,齐聚在麻省理工,共同创建了世界上第一个人工智能实验室——MITAILab(麻省理工人工智能实验室)。1969年,他被授予图灵奖,也是历史上第一位获此殊荣的人工智能学者。

明斯基作出重要贡献的领域,除了人工智能(机器学习、知识表示、常识推理、计算机视觉、机器人操作),还包括认知心理学、神经网络、自动机理论、符号数学,图形学和显微镜技术,他设计并制造了带有触觉传感器的机械手。

塞缪尔出生在堪萨斯州,1923年本科毕业于恩波利亚学院,1926年在麻省理工学院获得电气工程硕士学位。硕士毕业以后塞缪尔留在麻省理工担任讲师。1946年,塞缪尔在伊利诺伊大学担任电气工程系教授,并积极参与设计首批电子计算机,在那里他逐渐构思出一个跳棋程序。

1949年,塞缪尔加入位于纽约的IBM,参与研发晶体管和IBM的第一台存储程序计算机701。1956年,塞缪尔写出了跳棋程序,他发现与程序对弈的过程中,程序也下的越来越好,这是最早的机器学习程序之一,具备“自学习”的能力。

塞缪尔用IBM701计算机玩跳棋

1959年,塞缪尔创造了“机器学习”这个术语,并将其定义为:thefieldofstudythatgivescomputerstheabilitytolearnwithoutbeingexplicitlyprogrammed(翻译仅供参考:此研究领域是计算机在不被明确编程的情况下,赋予它学习能力)。1966年,他从IBM退休,作为讲师和研究助理来到斯坦福大学,开启全新的职业生涯。

正是因为这些勇于探索和打破传统的科技巨人,才有了今天人工智能技术的飞跃。

参考资料:

1.尼克.《人工智能简史》[M].中国工信出版集团&人民邮电出版社,2017

2.SelmaSabanovic,StasaMilojevic,JasleenKaur.JohnMcCarthy[History][J].IEEERobotics&AutomationMagazine,2012

3.GeorgeStrawn,CandaceStrawn.MastermindsofArtificialIntelligence:MarvinMinskyandSeymourPapert[J].ITProfessional,2016

4.GioWiederhold,JohnMcCarthy.ArthurSamuel:PioneerinMachineLearning[J].IBMJournalofResearchandDevelopment,1992

【注:本文由Edubrain编辑整理】返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇