人工智能推理应用于场景的四大典型方式
来源:英伟达NVIDIA中国
从Alexa和谷歌地图导航等语音助手,到Bing的对话搜索,人工智能已经成为许多人日常生活的一部分。
这些任务需要执行深度学习推理,也可以被认为是将人工智能应用于场景。
为人工智能提供动力的深度学习神经网络是基于大量数据进行训练的。将这种训练应用于数字世界——识别口语、图像或路标,或者建议你可能想买的衬衫或下一部要看的电影等,这就是推理。
GPU上推理应用的范围之广可能让您大吃一惊。从木材行业到古代日本文本的研究,它无处不在。
下面即将为您呈现运行在GPU上的四种不同的推理方式。
打击诈骗
PayPal正在使用GPU上的深度学习推理来精确定位欺诈性交易,并帮助确保它们不会再次发生。
这家公司每天处理数百万笔交易。人工智能的进步,尤其是基于逻辑回归的神经网络模型使其能够过滤掉欺骗商家的行为,并打击非法产品的销售。
通过确定某些交易失败的原因和发现提高工作效率的机会,深度学习模型还可以帮助PayPal来优化其运营。
而且,由于这些模型总是在学习,它们可以根据人们的兴趣提供相关的广告,从而使用户体验个性化。
洞察天气
总部位于波士顿的ClimaCell公司正致力于通过密切倾听大自然的强大声音,为天气预报带来前所未有的速度、精度和准确性。
该公司利用GPU的推理,提供超本地化、高分辨率的“近距离预报”,可以帮助企业和人们在铺路项目、风力发电、以及规划每日通勤以避免恶劣天气等方面做出更好的决定。该公司还提供预测和历史数据。
ClimaCell的GPU模型在运行中为了实现这一目标,该公司编写了一种软件,可以将现有通信网络中的信号转换成传感器,从而分析周围环境并提取实时天气数据。
ClimaCell的网络可以快速分析这些信号,并将它们与美国国家海洋和大气管理局(NationalOceanicandAtmosphericAdministration,简称NOAA)的数据整合起来,然后使用运行在NVIDIAGPU加速器上的预测模型将它们结合在一起。
检测癌症
乳腺X光机在检测乳腺癌方面很有效,但却比较昂贵。在许多发展中国家,该机器很少在大城市以外的地区普及。
Mayo诊所的研究人员ViksitKumar正在领导一项工作,利用GPU支持的推理技术,通过超声波设备更准确地对乳腺癌图像进行分类,这种设备在全世界范围内都更便宜,也更容易获得。
根据他们的研究论文,Kumar和他的团队已经能够非常准确地检测和分割乳腺癌肿块,很少出现假阳性。
红色轮廓显示了人工分割的肿瘤边界,而深度学习预测的边界以蓝色、绿色和青色显示。
该团队使用NGC注册表中的TensorFlow深度学习框架容器在NVIDIAGPU上进行本地处理。它还使用NVIDIAV100Tensor核心GPU在AWS上使用相同的容器。
最终,Kumar希望将超声波图像用于其他类型疾病的早期检测,如甲状腺癌和卵巢癌。
制作音乐
MuseNet是一个来自人工智能研究组织OpenAI的深度学习算法演示,它可以使用10种乐器和许多不同的风格自动生成音乐——从流行音乐到古典音乐。
通过将不同的乐器和声音应用到算法生成的音乐中,人们可以创建全新的曲目。演示使用NVIDIAV100Tensor核心GPU来完成这个推理任务。
使用此演示,您可以对您最喜欢的歌曲进行改编。比如加入吉他、去掉钢琴、加入鼓点,或者把它的风格改成爵士乐或者古典摇滚。
该算法并不是为了模仿人类对音乐的理解而编写的。相反,它接受了数十万首歌曲的训练,使它能够学习音乐中普遍存在的和弦、节奏和曲风。
其72层网络使用NVIDIAV100Tensor核心GPU和cuDNN加速的TensorFlow深度学习框架进行训练。
未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。
未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。
如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”
人工智能之搜索方法
人工智能之搜索方法人工智能课程复习笔记专题人工智能绪论人工智能之知识表示人工智能之搜索方法人工智能之经典逻辑推理人工智能之专家系统人工智能之不确定推理方法人工智能之机器学习
一、搜索的基本概念1、搜索的含义根据问题实际情况,不断寻找可利用的知识,构造一条代价最小的推理路线,使问题得以解决的过程称为搜索。
搜索类型按是否使用启发式信息:盲目搜索、启发式搜索按问题的表示方式:状态空间搜索、与或树搜索
2、问题表示法2.1状态空间表示法状态空间表示法用“状态”和“算符”来表示问题
状态:描述问题求解过程不同时刻的状态算符:表示对状态的操作状态空间:由初始状态集合,算符集合、目标状态集合构成的三元组。状态空间图:状态空间的图表示,节点为状态、有向边为算符
解:初始状态到目标状态所使用的算符序列
例子:二阶“梵塔”问题状态空间方法1)状态的表示柱的编号用i,j来代表(i,j)表示问题的状态其中:i代表A所在的柱子j代表B所在的柱子状态集合(9种可能的状态)s0=(1,1),s1=(1,2),s2=(1,3)s3=(2,1),s4=(2,2),s5=(2,3)s6=(3,1),s7=(3,2),s8=(3,3)
2)操作(算符)的定义定义操作A(i,j)表示把A从i移到j;B(i,j)表示把B从i移到j。操作集合(共12个算符):A(1,2),A(1,3),A(2,1),A(2,3),A(3,1),A(3,2)B(1,2),B(1,3),B(2,1),B(2,3),B(3,1),B(3,2)
3)状态空间图
2.1与或树表示法与或树表示方法也称问题归约方法。把复杂问题转换为若干个需要处理的子问题后再加以分别求解的策略,可以递归的进行,直到问题转换为本原问题的集合。
分解将问题归约为一组子问题,当子问题都有解,原问题才有解。即子问题的“与”同原问题等价
等价变换将原问题归约为一组子问题,当子问题其中一个有解,原问题就有解。即子问题的“或”同原问题等价
本原问题不能再分解或变换,而且可以直接求解的问题。
端节点与终止节点在与/或树中,没有子节点的节点称为端节点;若该端节点是本原问题,则为终止节点。
可解节点满足一下条件之一:1)它是一个终止节点2)它是一个或节点,且其子节点至少有一个是可解节点。3)它是一个与节点,且其子节点均为可解节点
不可解节点可解节点的条件均不满足
解树可推出初始节点为可解节点的所有可解节点构成的子树
例子
二、状态空间树的搜索方法1、状态空间的盲目搜索方法特点1)按规定路线搜索,不使用启发式信息2)适用于状态空间图为树结构的问题搜索过程OPEN表:待考查节点CLOSED表:已考察节点结束标志目标状态出现
1.1宽度优先搜索1)把起始节点放入OPEN表中2)若OPEN表为空表则没有解,失败退出,否则继续。3)把OPEN表的第一节点N放入CLOSED表中4)考察节点N是否为目标节点,如果是则得到了解,否则继续5)如果N不可扩展,转至2),否则继续。6)取出N的所有节点放入OPEN表末尾,并为其配置父节点指针,然后转至2)例子
宽度优先改进判断其子节点是否为目标节点,这样可以减少一层
1.2深度优先搜索与宽度优先方法相同,只是第3)步从OPEN表取的是最后一个节点。例子
有界深度优先搜索固定深度:到一定深度没有则搜索兄弟节点可变深度:先小深度,再变大可变深度改进:搜到解后该深度为最大深度,继续搜索,深度只能减小,直至找到最优解
1.3代价树边上标有代价的树称为代价树。在代价树中,若用g(x)表示从初始节点S0到节点x的代价,用c(x1,x2)表示从父节点x1到子节点x2的代价,则有:g(x2)=g(x1)+c(x1,x2)
代价树的宽度优先搜索每次扩展时总是从OPEN表中选取全部代价最小的节点进行扩展。代价树的深度优先搜索每次扩展时总是选取刚扩展出来的节点中代价最小的节点进行扩展。
2、状态空间的启发式搜索在搜索过程中,关键的一步是如何确定下一个要考察的节点,确定的方法不同就形成了不同的搜索策略。如果在确定节点时能充分利用与问题求解有关的控制信息,估计出节点的重要性,就能在搜索时选择重要性较高的节点,以利于求得最优解。
估计函数f(x)=g(x)+h(x)其中g(x)为从初始节点S0到节点x已经实际付出的代价;h(x)是从节点x到目标节点Sg的最优路径的估计代价,h(x)称为启发函数,它体现了问题的启发性信息。
局部择优搜索当一个节点被扩展以后,按f(x)对每一个子节点计算估价值,并选择最小者作为下一个要考察的节点。
深度优先搜索:f(x)=d(x)代价树的深度优先搜索:f(x)=g(x)局部择优搜索:f(x)=g(x)+h(x)
全局择优搜索每次总是从OPEN表的全体节点中选择一个估价值最小的节点。
宽度优先搜索:f(x)=d(x)代价树的宽度优先搜索:f(x)=g(x)全局择优搜索:f(x)=g(x)+h(x)
有序搜索当搜索过程生成一个节点i时,需要把节点i的状态与已生成的所有节点的状态进行比较,若节点i是一个已生成的节点,则表示找到一条通过节点i的新路径。若新路径使节点i的估价值更小,则修改节点i指向父节点的指针,使之指向新的父节点;否则,不修改节点i原有的父节点指针,即保留节点i原有的路径。
(1)把初始节点S0放入OPEN表,f(S0)。(2)如果OPEN表为空,则问题无解,退出。(3)把OPEN表的第一个节点(记为节点n)取出放入CLOSED表。(4)考察节点n是否为目标节点。若是,则求得了问题的解,退出。(5)若节点n不可扩展,则转第(2)步。(6)扩展节点n,生成其全部子节点。对节点n的每个子节点i,计算f(i)。考察节点i是否为已生成过的节点。①如果节点i既不在OPEN表中,又不在CLOSED表中,则节点i是一个新节点。为节点i配置指向父节点n的指针,把节点I放入OPEN表中,然后对OPEN表中的全部节点按估价值从小到大的顺序进行排序。②如果节点i已在OPEN表中或在CLOSED表中,则节点i是一个已生成过的节点。比较节点i刚计算的f(i)新值与表中记载的f(i)旧值,若新的f(i)值较小则:(a)对表中节点i的有关记载进行下述修改:用f(i)的新值代替旧值,修改节点i指向父节点的指针,使之指向新的父节点n。(b)若节点i在CLOSED表中,则把节点i移回OPEN表。(7)然后转第(2)步A*算法
我们希望估价函数f是f*的一个估计,此估计可由下式给出:f(n)=g(n)+h(n)其中:g是g*的估计;h是h*的估计。对于g(n)来说。很显然g(n)≥g*(n)。对于h*(n)估计h(n),它依赖于有关问题的领域的启发信息。
定义1:在GRAPHSEARCH过程中,如果第8步的重排OPEN表是依据f(x)=g(x)+h(x)进行的,则称该过程为A算法。定义2:在A算法中,如果对所有的x,h(x)≤h*(x)成立,则称h(x)为h*(x)的下界,它表示某种偏于保守的估计。定义3:采用h*(x)的下界h(x)为启发函数的A算法,称为A*算法。
三、与或树的搜索算法基本思想:扩展(自上而下)标示(自下而上)结束条件:初始节点为可解或不可解
搜索过程:(1)把原始问题作为初始节点S0,并将其作为当前节点。(2)应用分解或等价变换算符对当前节点进行扩展。(3)为每个子节点设置指向父节点的指针(4)选择合适的子节点作为当前节点,反复应用(2)(3)步,在此期间要多次应用可解标示过程和不可解标示过程,直到初始节点被标示为可解节点或不可解节点。可解标示过程:由可解子节点来确定父节点,祖父节点等为可解节点的过程‘与’节点只有当其子节点全为可解节点时,才为可解节点;‘或’节点只要有一个子节点为可解节点,它就是可解节点。不可解标示过程:由不可解子节点来确定父节点,祖父节点等为不可解节点的过程‘与’节点只要其子节点有一个为不可解节点,它就是不可解节点;‘或’节点只有当其子节点都为不可解节点,它才是不可解节点。
1、与或树的盲目搜索1.1与或树的宽度优先搜索按照“先产生的节点先扩展”的原则进行搜索。与/或树的宽度优先搜索与状态空间的宽度优先搜索的主要差别是,需要在搜索过程中需要多次调用可解标识过程或不可解标识过程.
1.2与或树的深度优先搜索与/或树的深度优先搜索和与/或树的宽度优先搜索过程基本相同,其主要区别在于OPEN表中节点的排列顺序不同。在扩展节点时,与/或树的深度优先搜索过程总是把刚生成的节点放在OPEN表的首部。
2、与或树的启发式搜索2.1与或树的有序搜索解树的代价终止节点:h(x)=0或节点:h(x)=min{c(x,yi)+h(yi)}与节点:h(x)=∑(c(x,yi)+h(yi))或h(x)=max{c(x,yi)+h(yi)}不可扩展的非终止节点:h(x)=∝例子
希望树搜索过程中最有可能成为最优解的那棵树(1)初始节点S0在希望树T(2)如果n是具有子节点n1,n2,…,nk的或节点,则n的某个子节点ni在希望树T中的充分必要条件是h(ni)=min{c(n,ni)+h(ni)}
(3)如果n是与节点,则n的全部子节点都在希望树T中。例子
2.2博弈树在博弈过程中,任何一方都希望自己取得胜利。因此,当某一方当前有多个行动方案可供选择时,他总是挑选对自己最为有利而对对方最为不利的那个行动方案。把上述博弈过程用图表示出来,则得到的是一棵“与或树”。
博弈树的特点
博弈的初始格局是初始节点。在博弈树中,“或”节点和“与”节点是逐层交替出现的。自己一方扩展的节点之间是“或”关系,对方扩展的节点之间是“与”关系。双方轮流地扩展节点。所有自己一方获胜的终局都是本原问题,相应的节点是可解节点;所有使对方获胜的终局都是不可解节点。极大极小分析法
为计算得分,需要根据问题的特性信息定义一个估价函数,用来估算当前博弈树端节点的得分。
当端节点的估值计算出来后,再推算出父节点的得分。推算的方法是:
对“或”节点,选其子节点中一个最大的得分作为父节点的得分,这是为了使自己在可供选择的方案中选一个对自己最有利的方案;对“与”节点,选其子节点中一个最小的得分作为父节点的得分,这是为了立足于最坏的情况。或取大,与取小
如果一个行动方案能获得较大的倒推值,则它就是当前最好的行动方案。
α-ß剪枝技术
或节点取大,可以实时获得下确界;与节点取小,可以实时获得上确界
α剪枝:对于一个与节点MIN,若能估计出其倒推值的上确界β,并且这个β值不大于MIN的父节点(一定是或节点)的估计倒推值的下确界α,即α≥β,则就不必再扩展该MIN节点的其余子节点了
因为或取大,或的子节点是与节点,与节点取小。所以与节点的一个子节点出来后就知道该与节点的最大值β(与节点取小,后面只能把该值调小而已)。该与节点的父节点是或节点,取大,所以当β无法大于此时父节点的值时,后面就无法再大与了,所以该与节点没必要在扩展节点了。
ß剪枝对于一个或节点max,若能估算其下确界α,并且这个α不小于其父节点(与节点)的上确界β,即α≥β,则不必再扩展max的子节点了。
或节点取大,所以可以估算下确界α,后面再扩再扩展只节点,都不可能变小了,而其父节点是与节点,与节点取小有上确界β,不能再变大了,所以α≥β,α对β是没影响的,所以不用再扩展了。
人工智能(二)确定性推理(启发式推理、消解推理)
人工智能(二)确定性推理(启发式推理、消解推理)推理就是由已知判断推出另一个判断的思维过程。知识+推理=人类智慧专家知识库+推理机=人工智能
一、推理的方法及其分类##按逻辑基础分类1.演绎推理(三段论)从一般性知识出发,推出蕴含在已知知识中的适合于个别情况的结论。是一种由一般到个别的推理方法,核心是三段论。
2.归纳推理是一种由个别到一般的推理。按照所选事物的广泛性又可分为完全归纳推理和不完全归纳推理完全归纳推理:是指在进行归纳时需要考察相应事物的全部对象,推出该类事物是否具有此属性;不完全归纳推理:在进行归纳时,只考察了相应事物的部分对象就得出了关于该事物的结论。按照推理所使用的方法可分为枚举、类比、统计和差异归纳推理等
3.类比归纳推理是指两个或两类事物有许多相似或相同的属性的基础上,推出他们在其他属性上也相同或相似。
##按推理过程所用知识的确定性分类确定性推理、不确定性推理(模糊推理)(1)确定性推理:推理时所用的知识与证据都是确定的,推出的结论也是确定的,其真值或者为真或者为假。(2)不确定性推理:推理时所用的知识与证据不都是确定的,推出的结论也是不确定的。
##按是否利用启发式知识分类启发式、非启发式(1)启发式:A算法、A*算法(估价函数)(2)非启发式:状态空间的广度优先搜索、深度优先搜索、代价树搜索
二、消解推理1.谓词演算公式向子句集的转换步骤一个例子,说实在话,我只能看懂例子
2.消解推理反演~~