博舍

浅析对人工智能,机器学*和深度学*的理解 对人工智能技术的认识 理解

浅析对人工智能,机器学*和深度学*的理解

我们对于“人工智能”这个术语都很熟悉。毕竟,它是《终结者》,《黑客帝国》和《机械姬》等美国大片电影中非常流行的关键词。但你最*或许也听说过其他术语,像“机器学*”和“深度学*”,有时这两个术语会和“人工智能”互相替换使用,前年早些时候,GoogleDeepMind的AlphaGo打败了韩国的围棋大师李世乭九段。在媒体描述DeepMind胜利的时候,将人工智能(AI)、机器学*(machinelearning)和深度学*(deeplearning)都用上了。这三者在AlphaGo击败李世乭的过程中都起了作用,但它们说的并不是一回事。那么这三个名词之间有什么区别?

 我会先解释一下人工智能(AI)、机器学*(ML)和深度学*(DL),以及它们有怎样的区别。

1三者的概念

人工智能(英语:Artificial Intelligence, AI):是指由人工制造出来的系统所表现出来的智能。通常人工智能是指通过普通电脑实现的智能。人工智能的研究可以分为几个技术问题。其分支领域主要集中在解决具体问题,其中之一是,如何使用各种不同的工具完成特定的应用程序。AI的核心问题包括推理、知识、规划、学*、交流、感知、移动和操作物体的能力等。

目前有大量的工具应用了人工智能,其中包括搜索和数学优化、逻辑推演。而基于仿生学、认知心理学,以及基于概率论和经济学的算法等等也在逐步探索当中。

机器学*(英语:MachineLearning):是人工智能的一个分支。人工智能的研究是从以“推理”为重点到以“知识”为重点,再到以“学*”为重点,一条自然、清晰的脉络。显然,机器学*是实现人工智能的一个途径,即以机器学*为手段解决人工智能中的问题。机器学*在*30多年已发展为一门多领域交叉学科,涉及概率论、统计学、逼*论、凸分析、计算复杂性理论等多门学科。机器学*理论主要是设计和分析一些让计算机可以自动“学*”的算法。机器学*算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学*算法中涉及了大量的统计学理论,机器学*与推断统计学联系尤为密切,也被称为统计学*理论。算法设计方面,机器学*理论关注可以实现的,行之有效的学*算法。很多推论问题属于无程序可循难度,所以部分的机器学*研究是开发容易处理的*似算法。

机器学*有下面几种定义:

机器学*是一门人工智能的科学,该领域的主要研究对象是人工智能,特别是如何在经验学*中改善具体算法的性能。机器学*是对能通过经验自动改进的计算机算法的研究。机器学*是用数据或以往的经验,以此优化计算机程序的性能标准。

机器学*已广泛应用于数据挖掘、计算机视觉、自然语言处理、生物特征识别、搜索引擎、医学诊断、检测信用卡欺诈、证券市场分析、DNA序列测序、语音和手写识别、战略游戏和机器人等领域。

机器学*最成功的应用领域是计算机视觉,虽然也还是需要大量的手工编码来完成工作。人们需要手工编写分类器、边缘检测滤波器,以便让程序能识别物体从哪里开始,到哪里结束;写形状检测程序来判断检测对象是不是有八条边;写分类器来识别字母“ST-O-P”。使用以上这些手工编写的分类器,人们总算可以开发算法来感知图像,判断图像是不是一个停止标志牌。

深度学*(英语:DeepLearning):是机器学*拉出的分支,它试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。

深度学*是机器学*中一种基于对数据进行表征学*的方法。观测值(例如一幅图像)可以使用多种方式来表示,如每个像素强度值的向量,或者更抽象地表示成一系列边、特定形状的区域等。而使用某些特定的表示方法更容易从实例中学*任务(例如,人脸识别或面部表情识别)。深度学*的好处是用非监督式或半监督式的特征学*和分层特征提取高效算法来替代手工获取特征。

 

统计学*:关于计算机基于数据构建概率统计模型,并运用模型对数据进行预测与分析的一门学科。机器学*:致力于研究如何通过计算的手段,利用经验来改善系统自身的性能。深度学*:机器学*中的神经网络算法的延伸,可以理解为包含很多个隐层的神经网络模型。

 

2 三者的区别人工智能:人工智能是人类社会发展主要目标机器学*:机器学*是实现人工智能的核心技术深度学*:是机器学*中最热门的算法

1956年,约翰·麦卡锡成为了第一位创造了人工智能机器的人。他制造的机器具备足够高的能力,得以执行类似人类智力水平的任务,包括:做出规划、理解语言、识别对象和声音、学*并解决问题等。

 对于人工智能,我们可以从广义和狭义两个层面来理解。广义层面来讲,AI应该具备人类智力的所有特征,包括上述的能力。狭义层面的人工智能则只具备部分人类智力某些方面的能力,并且能在这些领域内做的非常出众,但可能缺乏其他领域的能力。比如说,一个人工智能机器可能拥有强大的图像识别功能,但除此之外并无他用,这就是狭义层面AI的例子。

 从核心上来说,机器学*是实现人工智能的一种途径。

1959年,ArthurSamuel在AI之后创造了“机器学*”这个短语,并将其定义为“在没有被明确编程的情况下就能学*的能力。”当然,你可以不使用机器学*的方式来实现人工智能,不过这需要你运用复杂的规则和决策树,再敲下几百万行的代码才行。

 实际上,机器学*是一种“训练”算法的方式,目的是使机器能够向算法传送大量的数据,并允许算法进行自我调整和改进,而不是利用具有特定指令的编码软件例程来完成指定的任务。

 举个例子,机器学*已经被用于计算机视觉(机器具备识别图像或视频中的对象的能力)方面,并已经有了显著的进步。你可以收集数十万甚至数百万张图片,然后让人标记它们。例如,让人标记出其中含有猫的图片。对于算法,它也能够尝试建立一个模型,可以像人一样准确地标记出含有猫的图片。一旦精度水平足够高,机器就相当于“掌握”了猫的样子。

深度学*是机器学*的众多方法之一。其他方法包括决策树学*、归纳逻辑编程、聚类、强化学*和贝叶斯网络等。

 深度学*的灵感来自大脑的结构和功能,即许多神经元的互连。人工神经网络(ANN)是模拟大脑生物结构的算法。

 在ANN中,存在具有离散层和与其他“神经元”连接的“神经元”。每个图层挑选出一个要学*的特征,如图像识别中的曲线/边缘。正是这种分层赋予了“深度学*”这样的名字,深度就是通过使用多层创建的,而不是单层。

3 深度学*,给人工智能以璀璨的未来

深度学*使得机器学*能够实现众多的应用,并拓展了人工智能的领域范围。深度学*摧枯拉朽般地实现了各种任务,使得似乎所有的机器辅助功能都变为可能。无人驾驶汽车,预防性医疗保健,甚至是更好的电影推荐,都*在眼前,或者即将实现。

3.1现在说的很火的深度学*是什么呢?深度学*是机器学*中神经网络算法的延伸,只不过应用的比较广深度学*在计算机视觉和自然语言处理中更厉害一些有些人问到底是学*机器学*还是深度学*?其实一切的基础都是机器学*,做任何事情没有坚实的基础只会越来越迷茫,机器学*值得我们从头开始

4  如何学好机器学*?4.1机器学*我该怎么学?机器学*本质包含了数学原理推导与实际应用技巧机器学*中有很多经典算法,既然要学*,那就需要清楚一个算法是怎么来的(推导)以及该如何应用机器学*中,数学非常重要,大学的数学基础即可,如果都忘了,那么就边学边查,哪里不会学哪里就OK数学推导一定要会,我们不光要知其然还要知其所以然,这对于我们的应用具有很大的帮助4.2 机器学*可以分为下面几种类别监督学*从给定的训练数据集中学*出一个函数,当新的数据到来时,可以根据这个函数预测结果。监督学*的训练集要求是包括输入和输出,也可以说是特征和目标。训练数据中的目标是由人标注的。常见的监督学*算法包括回归分析和统计分类。

无监督学*与监督学*相比,训练集没有人为标注的结果。常见的无监督学*算法有聚类。

半监督学*介于监督学*与无监督学*之间。它主要考虑如何利用少量的标注样本和大量的未标注样本进行训练和分类的问题。。

增强学*通过观察来学*做成如何的动作。每个动作都会对环境有所影响,学*对象根据观察到的周围环境的反馈来做出判断。

在传统的机器学*领域,监督学*最大的问题是训练数据标注成本比较高,而无监督学*应用范围有限。利用少量的训练样本和大量无标注数据的半监督学*一直是机器学*的研究重点。

当前非常流行的深度学*GAN模型和半监督学*的思路有相通之处,GAN是“生成对抗网络”(GenerativeAdversarialNetworks)的简称,包括了一个生成模型G和一个判别模型D,GAN的目标函数是关于D与G的一个零和游戏,也是一个最小-最大化问题。

 GAN实际上就是生成模型和判别模型之间的一个模仿游戏。生成模型的目的,就是要尽量去模仿、建模和学*真实数据的分布规律;而判别模型则是要判别自己所得到的一个输入数据,究竟是来自于真实的数据分布还是来自于一个生成模型。通过这两个内部模型之间不断的竞争,从而提高两个模型的生成能力和判别能力。

所以我们就安心学*好机器学*就好,那么如何学*好机器学*呢,下面用几张图片展示!

 

图片总结的如此清晰,我就不重复说了(此图片来此天善智能某课堂的PPT)5 机器学*知识结构

小编从学*机器学*需要的各个方面在此阐述了要想学*机器学*,首先需要学*或者说准备什么东西,从以下四个方面说起。

5.1数学基础

大学专业不是数学的同志们需要恶补的知识科目如下:

微积分线性代数矩阵论凸优化离散数学概率论统计学随机过程

 

5.2  机器学*理论

机器学*的理论知识如下,其中推荐的包括算法和学*模型,还有训练的网址,全是干货哦,当然还是不全,以后小编了解到会逐渐加上的。

有监督机器学*模型和算法:分类和回归线性回归感知机器学*决策树朴素贝叶斯人工神经网络,逻辑回归,随机森林,GBDTlightgbmxgboost....

 

5.3 编程与开发

编程开发使用的主要是python语言和Linux服务器,加上TensorFlow

python:numpypandasmatplotlibseabornsklearnLinux:javacSparkHadoopSQLexcel..

 

 

5.4英文能力熟练地英语阅读能力6 以下文章将会有助于你更加深入了解人工智能、机器学*、深度学*:

 小编文中许多知识点都是参考下面的文章,大家有兴趣的可以继续了解三者的区别。

1、ArtificialIntelligence,MachineLearning,andDeepLearning

2、WhyDeepLearningisRadicallyDifferentfromMachineLearning

3、一篇文章讲清楚人工智能、机器学*和深度学*的区别

4、人工智能,机器学*和深度学*有什么区别?

5、如何区分人工智能、机器学*和深度学*?

6、WHYDEEPLEARNINGISSUDDENLYCHANGINGYOURLIFE

7、TheCurrentStateofMachineIntelligence3.0

8、Hereare50CompaniesLeadingtheAIRevolution

 

深度丨人工智能前沿技术应用趋势与发展展望

基础数据集建设已经成为基本共识

自从李飞飞等在2009年成功创建ImageNet数据集以来,该数据集就已经成为了业界图形图像深度学习算法的基础数据集,通过举办比赛等方式极大地促进了算法的进步,使得算法分类精度已经达到了95%以上。这也使得一些大型研究机构和企业逐渐认识到了数据的价值,纷纷开始建立自己的数据集,以便进行数据挖掘和提升深度学习模型的准确率。如美国国家标准研究院的Mugshot、谷歌的SVHN、微软的MSCOCO等图像基础数据集,斯坦福大学的SQuAD、卡耐基梅隆大学的Q/ADataset、Salesforce的WikiText等自然语言数据集以及2000HUB5English、CHiME、TED-LIUM等语音数据集。

新型计算基础设施陆续成为产业界发展目标

由于深度学习对算力有较高的需求,因此相继出现了一些专门的计算框架和平台,如伯克利大学的Caffe、微软的CNTK、Facebook的Torch、亚马逊的MXNet、百度的PaddlePaddle等,尤其是谷歌的TensorFlow能够支持异构设备的分布式计算,其平台API能力已经覆盖了CNN、RNN、LSTM等当前最流行的深度神经网络模型。除了从计算框架软件平台进行研发之外,产业界同时也从硬件方面探索计算能力的提升方法。最为直接的方法就是采用计算能力更强的GPU替代原有的CPU等。此外,谷歌、IBM等一些大型企业在大量采用GPU的同时,也在探索进行符合自身计算环境的芯片研发,从而进一步降低成本、提高效率,因此产生了TPU等性能更加卓越的新型芯片。

人工智能技术发展面临的挑战

虽然人工智能技术发展已经取得了前所未有的成绩,但随着深度学习技术应用的不断深化和产业化步伐的逐步加快,人工智能技术发展也面临着不少挑战。

主流技术深度学习还具有较大局限性

一是在有限样本和计算单元的情况下,对复杂函数的表示能力有限,其针对复杂分类问题的泛化能力受限。二是通过深度学习是一种基于概率统计的算法,机器系统学习到的是大概率内容,不是知识,无法像人类一样进行举一反三的应用。三是深度学习存在黑箱问题,不能解释其自身做出决策的原因。

基础数据积累还远远不能满足模型训练需要

由于大数据技术的出现和使用时间还不长,各类基础数据不论从数量上还是从质量上来看,都尚需要较长时间的积累。一方面,某些关键领域和学术数据集还严重不足。另一方面,已有规模化的基础数据集不仅数据质量良莠不齐,而且基本上由少数几家巨头或政府所掌握,鉴于监管和竞争等因素,无法实现有效流动。基础数据的缺乏,使得深度学习模型训练也造成了样本基础缺失。

计算框架和通用智能芯片尚未形成定局

虽然已经出现了TensorFlow、Caffe、CNTK、Torch、MXNet、PaddlePaddle等深度学习计算框架,但由于深度学习应用场景众多,相关应用呈现碎片化特点,无论从功能还是性能角度来讲,用于实现最后应用落地的开源计算框架与实际需求之间都还存在着相当的距离,满足产业发展需求且具有绝对统治地位的开源计算框架也还没有出现。同时,深度学习芯片还只是刚刚起步,而且还基本上属于专有领域的芯片,通用智能芯片的产业化还需要较长时间的探索。

人机和谐共处的有效途径开始艰难探索

由于黑箱问题及其基于概率统计的特点,基于深度学习的智能系统存在产生不可控结果的隐患。我们已经看到,使用了人工智能技术的智能驾驶汽车出现了多次的事故,甚至造成了人员的伤亡。另外,使用了智能算法的自动驾驶飞机也出现了多次坠机事故。这些事故不仅造成了人们的生命和财产损失,也严重打击了人们对人工智能的信心。实际上,这些事故的发生除了有技术方面的原因之外,还涉及到AI伦理的问题,也就是如何保证人类与智能系统之间的和谐共处、协同合作等问题。目前来看,AI的伦理问题还需要较长的探索过程。

人工智能技术发展趋势

短期来看,人工智能技术的发展将围绕对上述问题的解决进行。下面从算法理论、数据集基础、基础设施、人机协同等以下几个方面进行探讨。

算法理论

在算法理论层面,将继续按照深度学习完善和新算法的两条主线发展。首先,深度学习在提升可靠性、可解释性等方面的研究以及零数据学习、无监督学习、迁移学习等模型的研究将成为热点方向,这不仅仅是深度学习算法本身发展的需要,也是产业发展的需要。其次,学术界将继续开展新型算法的探索,包括对传统机器学习算法的改进、传统机器学习算法与深度学习的结合以及与深度学习迥异的新型算法等。

数据集基础

在数据集基础方面,学术界与产业界将共同合作构建语音、图像、视频等通用数据集以及各行业的专业数据集,使得各类数据集能够快速满足相关需求。一方面,随着对人工智能认识的不断加深,将会有越来越多的企业和政府机构开展数据自建和数据标注等工作。另一方面,随着深度学习的发展,将会出现智能化的数据标注系统来帮助和替代人类进行数据标注等工作。再有,在政府引导和支持下,一些开放的标准化数据集将会陆续出现,为整个行业提供标准化训练数据集。

计算平台与芯片

在计算平台与芯片方面,大型企业自研计算框架、自建计算平台,甚至是自研芯片等,仍将是普遍现象。这主要是由于以下两个方面的原因。一是企业出于自身数据和业务安全的考虑,对使用其他机构提供的训练平台仍然持有不信任的态度;二是每个企业的数据中心和相关平台都有其自身的特点,自研计算框架、自建计算平台和自研芯片能够更好地满足自身的业务发展需要。

人机协同机制

在人机协同机制方面,“人在回路”将成为智能系统设计的必备能力。目前,机器智能并没有实现人们所希望的“以人为中心”,仍然还是以机器为中心,这也是人类屡受智能系统伤害的主要原因之一。因此,将人类认知模型引入到机器智能中,使之能够在推理、决策、记忆等方面达到类人智能水平,将成为学术界和产业界共同追求的目标,并可能在一定的时间内取得较好的阶段性成果。

人工智能技术发展展望

长期来看,人工智能技术将分别沿着算法和算力两条主线向前发展,并逐步带领人类进入到人机协同的新时代。

高度关注类脑智能算法

深度学习是基于冯·诺依曼体系结构发展起来的。由于受到内存墙等相关方面的制约,难以达到较高的计算效率。为此,近些年来IBM等已经开始进行颠覆冯·诺依曼体系结构的类脑智能算法与技术的探索。类脑智能借鉴大脑中“内存与计算单元合一”等信息处理的基本规律,在硬件实现与软件算法等多个层面,对于现有的计算体系与系统做出本质的变革,并实现在计算能耗、计算能力与计算效率等诸多方面的大幅改进。目前,随机兴奋神经元、扩散型忆阻器等已经在IBM、马萨诸塞州阿姆赫斯特大学、清华大学等机构研制成功,IBM已经研制成功TrueNorth芯片,清华大学团队也成功研制出了基于忆阻器的PUF芯片。

智能部署从中心向边缘和终端扩散

随着智能装备和智能机器人等智能终端的逐渐增多,智能终端的快速反应以及相互之间的协同行动需求将会越来越迫切,对智能服务的实时性将会越来越强烈。这就要求智能服务从云端向网络边缘甚至终端扩散,智能模型与算法需要部署在网络边缘或终端之上,就近提供网络、计算、存储、应用等核心能力,从而满足通信、业务、安全等各方面的关键需求。

目前,英伟达、高通等都已经陆续开展了用于边缘网络或终端的AI专用芯片。而随着5G网络的普遍部署,边缘智能将会获得快速的发展。

深度学习通用平台和通用AI芯片将会出现

随着人工智能应用在生产生活中的不断深入融合,智能终端的互联互通将会成为必然。由于跨框架体系开发及部署需要投入大量资源,因此尽管每个终端的智能模型可能不同,但深度学习计算框架的模型底层表示将会逐渐趋同,形成深度学习通用计算框架和平台。随着计算框架的整合,GPU和TPU等芯片将可能会被通用AI芯片所替代。

量子计算推动形成新一轮计算革命

不论现在还是将来,人工智能无疑都将是最为消耗计算资源的业务和应用之一,计算效率也将是智能体永恒的追求目标。量子计算具有强大的计算能力和效率,已经成为全球公认的下一代计算技术。IBM已经在近期推出了世界上第一个商用的通用近似量子计算系统里程碑产品IBMQSystemOne,客户可以通过互联网使用这台量子计算机进行大规模的数据计算,为人工智能计算展示了良好的前景。

人工智能已经逐渐向工业、农业、交通、医疗、金融等各个领域渗透,并开始形成新的业态,成为了新一轮技术革命的制高点。因此,必须积极主动把握人工智能技术和产业发展机遇,认清技术发展趋势,在类脑智能、边缘智能、通用平台与芯片、量子计算等前沿技术领域加快布局,勇闯人工智能科技前沿的“无人区”,才能抓住人工智能时代发展的主动权。返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇