博舍

【人工智能】— 维度灾难、降维、主成分分析PCA、获取旧数据、非线性主成分分析 人工智能是灾难行为吗

【人工智能】— 维度灾难、降维、主成分分析PCA、获取旧数据、非线性主成分分析

【人工智能】—维度灾难、降维、主成分分析PCA、获取旧数据、非线性主成分分析高维数据与维度灾难维度灾难降维为什么需要降维?PRINCIPLECOMPONENTANALYSIS主成分的几何图像最小化到直线距离的平方和举例主成分的代数推导优化问题计算主成分(PrincipalComponents,PCs)的主要步骤获取旧数据的方法?主成分分析的最优性性质主要的理论结果PCA图像压缩使用核的非线性主成分分析评价高维数据与维度灾难

大多数机器学习和数据挖掘技术对于高维数据可能不太有效。这是由于维度灾难(CurseofDimensionality)导致的。

随着维度的增加,查询的准确性和效率会迅速下降。因此,在高维数据中,许多机器学习和数据挖掘技术可能无法处理。

然而,高维数据的内在维度可能很小。例如,在某种类型的疾病中负责的基因数量可能很少。因此,对于高维数据,需要使用专门针对高维数据的技术,如降维和特征选择,以提高机器学习和数据挖掘的效率和准确性。

维度灾难

在高维数据中,维度灾难(CurseofDimensionality)会导致以下问题:

随着维度的增加,数据在所占用的空间中变得越来越稀疏。密度和点之间的距离的定义对于聚类和异常检测变得越来越无意义。如果N1=100N_1=100N1​=100表示单个输入问题的密集样本,则在维度为101010的情况下,需要样本量为N10=10010N_{10}=100^{10}N10​=10010才能获得相同的采样密度。半径为rrr、维度为ddd的超球体与边长为2r2r2r、维度为ddd的超立方体之间的比例在ddd趋近于无穷时收敛于000,即几乎所有的高维空间都“远离”中心。

因此,对于高维数据,需要特别注意选择适当的特征和降维技术,以便提高数据的密度和距离的意义,同时减少维度灾难的影响。

降维

降维(DimensionalityReduction)是指将原始高维数据映射到低维空间的过程。

在不同的问题设置下,降维的标准可能会有所不同:

无监督学习:最小化信息损失;监督学习:最大化类别差异。

给定由ddd个变量组成的数据点集合,可以计算将数据映射到低维空间的线性变换(投影)。设f(x1,x2,…,xn)f(x_1,x_2,ldots,x_n)f(x1​,x2​,…,xn​)是在RdR^dRd上的原始数据点,PPP是一个Rd×mR^{d imesm}Rd×m的矩阵,表示投影。则,变换后的数据点yyy由y=PTf(x1,x2,…,xn)y=P^Tf(x_1,x_2,ldots,x_n)y=PTf(x1​,x2​,…,xn​)得到,其中m≪dmlldm≪d。

因此,可以通过找到最优投影矩阵PPP,在保留重要特征和最小化信息损失的同时降低数据维度,从而实现降维的目的。常用的降维技术包括主成分分析(PCA)和线性判别分析(LDA)等。

为什么需要降维?

降维(DimensionalityReduction)有以下应用:

可视化:将高维数据投影到二维或三维平面上,以便可视化和理解数据的结构和特征。数据压缩:降维可以减少数据的维度,从而提高数据的存储和检索效率。噪声去除:降维可以去除冗余和不相关的特征,从而对查询准确性产生积极影响。

因此,降维是在处理高维数据时非常重要的技术,可以帮助我们更好地理解和利用数据。

PRINCIPLECOMPONENTANALYSIS

主成分分析(PrincipalComponentAnalysis,PCA)是一种常用的无监督学习算法,用于降低数据的维度并发现数据中的主要成分。

维度降低(Dimensionalityreduction)是指通过减少数据的特征维度,将高维数据映射到低维空间中。维度降低的目的有以下几个方面:

数据压缩:高维数据可能包含冗余信息,通过降维可以减少存储空间和计算开销。特征选择:降维可以帮助选择最相关的特征,去除噪音或不重要的特征,提高模型的效果和泛化能力。可视化:降维可以将高维数据可视化在二维或三维空间中,更直观地理解数据之间的关系。

主成分分析(PCA)是一种经典的降维技术。它通过线性变换将原始数据映射到一组新的正交特征上,这些特征被称为主成分。PCA的目标是找到能够最大化数据方差的投影方向,从而保留尽可能多的数据信息。通过PCA,可以对数据进行降维,将其表示为较少数量的主成分,其中每个主成分都是原始特征的线性组合。

非线性PCA使用核函数(Kernels)扩展了传统的PCA方法,使其能够处理非线性数据。通过应用核函数,可以将原始数据映射到高维特征空间,然后在该空间中进行线性PCA。这样可以处理非线性关系,发现更复杂的数据结构和模式。

主成分的几何图像

在主成分分析中,主成分可以通过几何图像来理解。对于在ddd维空间中的nnn个数据点,主成分分析可以将数据投影到一维空间中。

具体地,可以选择一条直线,使得数据点在该直线上分布得很好。这条直线被称为主成分。主成分是在保留数据大部分信息的前提下,将数据投影到一维空间中的最佳方式。

主成分的选择可以通过计算数据的协方差矩阵和对该矩阵进行特征值分解来实现。每个特征向量都代表了在数据中的一个主要方向,并且与该方向上的方差成比例。因此,可以选择特征值最大的几个特征向量来作为主成分,并将数据投影到这些方向上。

最小化到直线距离的平方和

在主成分分析中,为了找到最佳的主成分,需要最小化数据点到该主成分投影的距离的平方和。这是因为,最小化这个距离的平方和可以最大化数据点在主成分上的投影的平方和。

具体地,可以将每个数据点表示为向量xmathbf{x}x,然后将其投影到主成分上得到向量pmathbf{p}p。这个投影可以通过将向量xmathbf{x}x投影到主成分的单位向量umathbf{u}u上来实现,即p=x⋅uumathbf{p}=mathbf{x}cdotmathbf{u}mathbf{u}p=x⋅uu。

然后,最小化每个数据点到主成分的距离的平方和,可以表示为以下式子:

∑i=1n∥xi−pi∥2sum_{i=1}^n|mathbf{x}_i-mathbf{p}_i|^2i=1∑n​∥xi​−pi​∥2

其中,∥⋅∥|cdot|∥⋅∥表示向量的范数。将向量pimathbf{p}_ipi​替换为xi⋅uumathbf{x}_icdotmathbf{u}mathbf{u}xi​⋅uu,可以得到以下式子:

∑i=1n∥xi−(xi⋅u)u∥2sum_{i=1}^n|mathbf{x}_i-(mathbf{x}_icdotmathbf{u})mathbf{u}|^2i=1∑n​∥xi​−(xi​⋅u)u∥2

为了最小化这个式子,需要最大化每个数据点在主成分上的投影的平方和。这是由于,根据勾股定理,数据点到主成分的距离的平方和等于每个数据点在主成分上的投影与该数据点之间的距离的平方和。因此,最小化数据点到主成分的距离的平方和等价于最大化每个数据点在主成分上的投影的平方和。

综上所述,为了找到最佳的主成分,需要最大化每个数据点在主成分上的投影的平方和,即最小化数据点到主成分的距离的平方和。

举例

具体来说,第一个主成分是对原始数据的最小距离拟合,以得到一条直线,使得数据点在该直线上分布得很好。该直线是在保留了数据大部分信息的情况下,将数据投影到一维空间中的最佳方式。

第二个主成分是在与第一个主成分正交的平面上进行的最小距离拟合。该平面是由第一个主成分所定义的直线所张成的平面的垂直平面。通过这个过程,可以找到另一条直线,使得数据点在该直线上分布得很好,并且与第一个主成分正交。

主成分的代数推导

在主成分分析中,主成分可以通过代数推导来获得。设有一个ddd维的数据集,其中包含nnn个数据点,可以将其表示为一个d×nd imesnd×n的矩阵XXX。我们的目标是找到一个ddd维的向量umathbf{u}u,使得将数据投影到该向量上时,投影数据的方差最大。

具体来说,我们首先将数据投影到一个ddd维的向量umathbf{u}u上,得到一个一维的数据集Y=u⊤XY=mathbf{u}^ opXY=u⊤X。

然后,我们要找到一个u1u_1u1​最大化这个数据集的方差,即:

优化问题

我们可以使用拉格朗日乘数法来求解主成分。具体来说,我们要求解以下问题:

max⁡uu⊤Su subject tou⊤u=1max_{mathbf{u}}mathbf{u}^ opSmathbf{u} ext{subjectto}quadmathbf{u}^ opmathbf{u}=1umax​u⊤Su subject tou⊤u=1

其中,SSS是数据的协方差矩阵。我们可以使用拉格朗日乘数法将约束条件加入目标函数中,得到:

L(u,λ)=u⊤Su−λ(u⊤u−1)L(mathbf{u},lambda)=mathbf{u}^ opSmathbf{u}-lambda(mathbf{u}^ opmathbf{u}-1)L(u,λ)=u⊤Su−λ(u⊤u−1)

其中,λlambdaλ是拉格朗日乘数。对umathbf{u}u和λlambdaλ分别求导并令其等于零,可以得到:

∂L∂u=2Su−2λu=0∂L∂λ=u⊤u−1=0egin{aligned}frac{partialL}{partialmathbf{u}}&=2Smathbf{u}-2lambdamathbf{u}=0\\frac{partialL}{partiallambda}&=mathbf{u}^ opmathbf{u}-1=0end{aligned}∂u∂L​∂λ∂L​​=2Su−2λu=0=u⊤u−1=0​

将第一个式子中的umathbf{u}u提出来,可以得到:

Su=λuSmathbf{u}=lambdamathbf{u}Su=λu

这个式子说明,投影向量umathbf{u}u是数据集的协方差矩阵SSS的特征向量,对应的特征值为λlambdaλ。因此,可以通过计算协方差矩阵SSS的特征向量和特征值,来确定投影向量umathbf{u}u,以及数据在该投影向量上的投影。通过类似的方式,可以确定更多的主成分。每个主成分都是在前面主成分所定义的子空间上进行的最小距离拟合,并且与前面的主成分正交。

计算主成分(PrincipalComponents,PCs)的主要步骤

计算数据的协方差矩阵SSS。如果数据没有被中心化,则需要先将每个变量的均值减去每个观测值:,然后再计算SSS。

找到前mmm个特征向量。

通过解特征向量问题得到Su=λuSmathbf{u}=lambdamathbf{u}Su=λu的特征向量umathbf{u}u,并按照对应的特征值λlambdaλ从大到小排序,选取前mmm个特征向量。形成投影矩阵PPP。

将前mmm个特征向量按列组成矩阵PPP,这个矩阵可以将数据投影到前mmm个主成分所张成的子空间中。对一个新的测试点进行投影。

获取旧数据的方法?

如果P是一个方阵,我们可以通过下式来恢复x。

在这种情况下,P并不是满秩的,但我们仍然可以通过来恢复x,并且会丢失一些信息。

目标:损失最少的信息主成分分析的最优性性质

主要的理论结果

由协方差矩阵S的前m个特征向量组成的矩阵P解决了以下最小问题:

其中,P是由协方差矩阵S的前m个特征向量组成的矩阵。

PCA投影使大小为m的所有线性投影中的重建误差最小化。

PCA图像压缩

使用核的非线性主成分分析

根据点积重写PCA

假设数据已经中心化

协方差矩阵S可以写成

如果uuu是对应于非零特征值的S的特征向量

S的特征向量位于由所有数据点跨越的空间中

协方差矩阵可以写成矩阵形式:

评价

PCA(主成分分析)的评论:

•PCA是一种线性降维方法。

•PCA可以进行核化处理,从而可以处理非线性问题。

•许多非线性降维方法(如Isomap、图拉普拉斯特征映射和局部线性嵌入/LLE)可以看作是使用特殊核的核PCA。

•PCA是一个非凸优化问题,但是相对容易求解。

•PCA是一种在统计学和机器学习中广泛应用的方法,它可以用于数据降维、特征提取、数据可视化等领域。PCA能够提取数据中最重要的特征,并将数据投影到低维空间中,以便更好地理解数据。

人工智能( AI)会带来灾难吗?

沃伦·巴菲特(WarrenBuffet)是一位著名的投资大师,他在人工智能(AI)的崛起方面表达了一定的担忧。将AI的兴起与原子弹的发明相提并论,可以从以下几个方面进行解读:1.潜在的安全隐患:AI技术的发展确实可能带来一些安全隐患,尤其是在军事和安防领域。如果AI被不当使用或误用,可能导致灾难性的后果。正如原子弹的发明给人类带来了巨大的灾难一样,AI技术的滥用可能给社会带来巨大的负面影响。2.对就业的影响:AI技术的发展可能会导致部分传统行业的就业岗位减少,特别是那些容易被自动化取代的低技能工作。这对于依赖这些工作岗位的人来说,意味着收入和生活水平的下降,进而引发一系列社会问题。3.不平等加剧:随着AI技术的普及,掌握这些技术的企业和精英阶层可能会进一步扩大他们的经济优势,从而加剧社会*差距和不平等。4.对隐私和数据安全的威胁:AI技术的发展需要大量的数据来训练算法,这可能导致用户隐私和数据安全问题。非法获取和使用用户数据的行为可能会对个人和企业造成严重的损害。尽管巴菲特的观点是出于对人工智能可能带来的负面影响的担忧,但我们也不能忽视AI技术所带来的积极影响,如提高生产效率、改善医疗保健、提高生活质量等。因此,我们需要在发展AI技术的同时,关注其潜在的安全隐患和负面影响,并采取相应的措施来确保技术的可持续发展和社会的和谐稳定。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇