博舍

AI人工智能 最常见的机器学习算法 常见人工智能算法

AI人工智能 最常见的机器学习算法

在本节中,我们将学习最常见的机器学习算法。算法如下所述-

线性回归它是统计和机器学习中最著名的算法之一。

基本概念-主要是线性回归是一个线性模型,假设输入变量x和单个输出变量y之间的线性关系。换句话说,y可以由输入变量x的线性组合来计算。变量之间的关系可以通过拟合最佳线来确定。

线性回归的类型

线性回归有以下两种类型-

简单线性回归-如果线性回归算法只有一个独立变量,则称为简单线性回归。多元线性回归-如果线性回归算法具有多个独立变量,则称其为多元线性回归。

线性回归主要用于基于连续变量估计实际值。例如,可以通过线性回归来估计一天内基于实际价值的商店总销售额。

Logistic回归它是一种分类算法,也称为logit回归。

主要逻辑回归是一种分类算法,用于根据给定的一组自变量来估计离散值,如0或1,真或假,是或否。基本上,它预测的概率因此它的输出在0和1之间。

决策树决策树是一种监督学习算法,主要用于分类问题。

基本上它是一个基于自变量表示为递归分区的分类器。决策树具有形成根树的节点。有根树是一个带有称为“根”节点的定向树。Root没有任何传入边缘,所有其他节点都有一个传入边缘。这些节点被称为树叶或决策节点。例如,考虑下面的决策树来判断一个人是否适合。

支持向量机(SVM)

它用于分类和回归问题。但主要用于分类问题。SVM的主要概念是将每个数据项绘制为n维空间中的一个点,每个特征的值是特定坐标的值。这里n将是功能。以下是了解SVM概念的简单图形表示-

在上图中,有两个特征,因此首先需要在二维空间中绘制这两个变量,其中每个点都有两个坐标,称为支持向量。该行将数据分成两个不同的分类组。这条线将是分类器。

朴素贝叶斯这也是一种分类技术。这种分类技术背后的逻辑是使用贝叶斯定理来构建分类器。假设是预测变量是独立的。简而言之,它假设类中某个特征的存在与任何其他特征的存在无关。以下是贝叶斯定理的等式-

朴素贝叶斯模型易于构建,特别适用于大型数据集。

K-最近邻居(KNN)

它用于问题的分类和回归。它被广泛用于解决分类问题。该算法的主要概念是它用来存储所有可用的案例,并通过其k个邻居的多数选票来分类新案例。然后将该情况分配给通过距离函数测量的K近邻中最常见的类。距离函数可以是欧几里得,明可夫斯基和海明距离。考虑以下使用KNN-

计算上KNN比用于分类问题的其他算法昂贵。变量的规范化需要其他更高的范围变量可以偏差。在KNN中,需要在噪音消除等预处理阶段进行工作。

K均值聚类

顾名思义,它用于解决聚类问题。它基本上是一种无监督学习。K-Means聚类算法的主要逻辑是通过许多聚类对数据集进行分类。按照这些步骤通过K-means形成聚类-

K-means为每个簇选取k个点,称为质心。每个数据点形成具有最接近质心的群集,即k个群集。它将根据现有集群成员查找每个集群的质心。需要重复这些步骤直到收敛。

随机森林它是一个监督分类算法。随机森林算法的优点是它可以用于分类和回归两类问题。基本上它是决策树的集合(即森林),或者可以说决策树的集合。随机森林的基本概念是每棵树给出一个分类,并且森林从它们中选择最好的分类。以下是随机森林算法的优点-

随机森林分类器可用于分类和回归任务。可以处理缺失的值。即使在森林中有更多的树,它也不会过度适合模型。

人工智能常用的29种算法

趋势预测在很多应用场景中都会起到至关重要的作用,比如淘宝商家会考虑库存量应该保持在多少才能够满足客户需求,商场希望得知假期会迎来多大的客流量以安排系列活动,机场想要预测五一黄金周会有多大的客运量来做相应的应急部署等。在智能运维领域,趋势预测同样具有一定的理论意义和实际应用价值。

趋势预测在运维场景中的应用背景

在实时监控系统中会采集到大量的数据,有些数据具有周期性等时间特征,也称之为时间序列。如果能挖掘出时间序列中所蕴含的信息,实现辅助人工决策,甚至是自动决策,都会为运维工作带来事半功倍的效果。比如KPI异常检测可以衡量服务的健康程度,分析出CPU、交易量、响应时间等指标的历史规律后,设置动态阈值,得到更加准确的异常报警,减少漏报误报情况的发生,提高应急响应效率;通过对历史事件单的分析,预测出下次系统告警可能发生的时间或者指定时间内可能发生告警的系统等,就可以根据分析结果做出相应的响应措施,为后续运维工作带来极大的指导意义。类似这样的应用场景还有很多

人工智能的常用十种算法

导读:人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。

小编有以下的学习视频资料,有需要的可以扫码加我哦~人工智能题库,大厂面试题学习大纲自学课程大纲还有200GAI资料大礼包免费送哦~

这是小编发布的人工智能必备数学基础人工智能必备数学基础(二)/微积分、泰勒公式与拉格朗日乘子法_Java_rich的博客-CSDN博客

人工智能必备数学基础(一)_Java_rich的博客-CSDN博客

1、决策树

根据一些feature(特征)进行分类,每个节点提一个问题,通过判断,将数据分为两类,再继续提问。这些问题是根据已有数据学习出来的,再投入新数据的时候,就可以根据这棵树上的问题,将数据划分到合适的叶子上。

 2、随机森林

随机森林是集成学习的一个子类,它依靠于决策树的投票选择来决定最后的分类结果。集成学习通过建立几个模型组合的来解决单一预测问题。集成学习的简单原理是生成多个分类器/模型,各自独立地学习和作出预测。这些预测最后结合成单预测,因此优于任何一个单分类的做出预测。

随机森林的构建过程:

假设N表示训练用例(样本)个数,M表示特征数目,随机森林的构建过程如下:

 输入特征数目m,用于确定决策树上一个节点的决策结果;其中m应远小于M。从N个训练用例(样本)中以有放回抽样的方式,取样N次,形成一个训练集,并用未抽到的用例(样本)作预测,评估其误差。  对于每一个节点,随机选择m个特征,决策树上每个节点的决定都是基于这些特征确定的。根据m个特征,计算其最佳的分裂方式。每棵树都会完整成长而不会剪枝,这有可能在建完一棵正常树状分类器后会被采用。 重复上述步骤,构建另外一棵棵决策树,直到达到预定数目的一群决策树为止,即构建好了随机森林。其中,预选变量个数(m)和随机森林中树的个数是重要参数,对系统的调优非常关键。这些参数在调节随机森林模型的准确性方面也起着至关重要的作用。科学地使用这些指标,将能显著的提高随机森林模型工作效率。

 3、 逻辑回归

基本上,逻辑回归模型是监督分类算法族的成员之一。Logistic回归通过使用逻辑函数估计概率来测量因变量和自变量之间的关系。

逻辑回归与线性回归类似,但逻辑回归的结果只能有两个的值。如果说线性回归是在预测一个开放的数值,那逻辑回归更像是做一道是或不是的判断题。

逻辑函数中Y值的范围从0到1,是一个概率值。逻辑函数通常呈S型,曲线把图表分成两块区域,因此适合用于分类任务。

 比如上面的逻辑回归曲线图,显示了通过考试的概率与学习时间的关系,可以用来预测是否可以通过考试。

4、线性回归

所谓线性回归,就是利用数理统计中的回归分析,来确定两种或两种以上变量间,相互依赖的定量关系的一种统计分析方法。

线性回归(LinearRegression)可能是最流行的机器学习算法。它试图通过将直线方程与该数据拟合来表示自变量(x值)和数值结果(y值)。然后就可以用这条线来预测未来的值!

这种算法最常用的技术是最小二乘法(Leastofsquares)。这个方法计算出最佳拟合线,以使得与直线上每个数据点的垂直距离最小。总距离是所有数据点的垂直距离(绿线)的平方和。其思想是通过最小化这个平方误差或距离来拟合模型。

5、朴素贝叶斯

朴素贝叶斯(NaiveBayes)是基于贝叶斯定理,即两个条件关系之间。它测量每个类的概率,每个类的条件概率给出x的值。这个算法用于分类问题,得到一个二进制“是/非”的结果。

朴素贝叶斯分类器是一种流行的统计技术,经典应用是过滤垃圾邮件。

6、神经网络

NeuralNetworks适合一个input可能落入至少两个类别里:NN由若干层神经元,和它们之间的联系组成。第一层是input层,最后一层是output层。在hidden层和output层都有自己的classifier。

input输入到网络中,被激活,计算的分数被传递到下一层,激活后面的神经层,最后output层的节点上的分数代表属于各类的分数,下图例子得到分类结果为class1;同样的input被传输到不同的节点上,之所以会得到不同的结果是因为各自节点有不同的weights和bias,这也就是forwardpropagation。

7、K-均值

K-均值(K-means)是通过对数据集进行分类来聚类的。例如,这个算法可用于根据购买历史将用户分组。它在数据集中找到K个聚类。K-均值用于无监督学习,因此,我们只需使用训练数据X,以及我们想要识别的聚类数量K。

先要将一组数据,分为三类,粉色数值大,黄色数值小。最开始先初始化,这里面选了最简单的3,2,1作为各类的初始值。剩下的数据里,每个都与三个初始值计算距离,然后归类到离它最近的初始值所在类别。欺诈检测中应用广泛,例如医疗保险和保险欺诈检测领域

8、支持向量机

要将两类分开,想要得到一个超平面,最优的超平面是到两类的margin达到最大,margin就是超平面与离它最近一点的距离。

是一种用于分类问题的监督算法。支持向量机试图在数据点之间绘制两条线,它们之间的边距最大。为此,我们将数据项绘制为n维空间中的点,其中,n是输入特征的数量。在此基础上,支持向量机找到一个最优边界,称为超平面(Hyperplane),它通过类标签将可能的输出进行最佳分离。

 应用于面部识别、文本分类等

9、K-最近邻算法

给一个新的数据时,离它最近的k个点中,哪个类别多,这个数据就属于哪一类。例子∶要区分“猫”和“狗”,通过“claws”和“sound”两个feature来判断的话,圆形和三角形是已知分类的了,那么这个“star”代表的是哪一类呢? 

 10、降维

降维(Dimensionalityreduction)试图在不丢失最重要信息的情况下,通过将特定的特征组合成更高层次的特征来解决这个问题。主成分分析(PrincipalComponentAnalysis,PCA)是最流行的降维技术。

主成分分析通过将数据集压缩到低维线或超平面/子空间来降低数据集的维数。这尽可能地保留了原始数据的显著特征。

整理了一份关深度学习和机器视觉的资料,有python基础,图像处理opencv自然语言处理、机器学习、数学基础等资源库,想学习人工智能或者转行到高薪资行业的,大学生都非常实用,无任何套路免费提供,+vx领取的内部资源,人工智能题库,大厂面试题学习大纲自学课程大纲还有200GAI资料大礼包免费送哦~有什么问题都可以来问我

欢迎大家扫码 获取AI免费视频资料

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇