博舍

智能制造中的高频应用技术之回归模型 人工智能回归算法的应用领域有哪些内容

智能制造中的高频应用技术之回归模型

前言

当我们把基于数据驱动的方法和人工智能等技术引入工业、制造业领域时,会发现这样的应用场景与一般应用场景的一个重要差异是重视回归模型。一般AI应用场景与商业数据分析场景下,我们相对重视分类、聚类模型:这些模型对我们希望认知的目标形成定性判断,如判别当前的市场状态是否景气,或通过视觉识别一个人是否具有开门权限等等。而工业场景通常有更高的要求。

很多工业应用场景要求我们对观测目标形成定量判断。这些应用场景出现在工业产品的研发、制造、运维的全生命周期。这就要求我们在工业场景更多使得使用可以定量的回归模型。通过构建回归模型,我们可以总结、掌握存在于工业产品生命周期中各阶段的规律。然后在此基础上实现降本增效,质量提升,问题规避乃至实时控制等。我们从各阶段中各选择一个示例说明这些情形:

在对产品进行设计时,不同的设计参数选择会形成不同的产品性能。在理论上,设计参数与性能的关系可以通过各种仿真计算获取,在此基础上使用数学规划(最优化)方法,就能够得到最优的设计参数。但是在实际工作中,每执行一次仿真都要耗费较多的时间和硬件资源,使得优化设计难以推进。为此就需要引入所谓代理模型,代理模型基于若干次仿真结果,模拟一个计算量相对非常小的仿真过程替代,从而在优化设计中大幅减少真实仿真过程的调用。而这里的代理模型,就是一种基于若干仿真计算结果数据的一种回归模型。

制造业的生产线具有大量工业参数以及影响因素,这些参数和因素影响到制成品的良品率。那么在具备感知这些参数与影响因素取值的条件下,我们希望建立这些要素与制成品良品率之间的某种近似函数关系,这就要求我们建立感知数据与产品良品率之间的回归模型。

对于核能设施、航天、航空、航海产品、高级制造产线等复杂昂贵工业品而言,使用数字孪生技术实时监控其运行状态,并基于此估计产品可能遇到的运行风险是当前重要的发展建设方向。这一技术要求在获取现实感知数据后需要快速测算整体系统的状态,以及系统在接下来一段时间的状态变化。由于数字孪生的高实时性,使用复杂的机理模型解算这种状态往往并不可行,这时就要求数字孪生系统内部包含对系统机理关系的一种近似表示。这种表示综合了系统的机理关系与系统的实际状态信息,形成一种计算复杂度低,鲁棒性好,精度高的系统近似模型。这种近似模型的求解大多属于回归模型构建。

这些示例证明了回归模型构建在智能制造的各阶段应用的普遍性。这种回归模型的大量应用是工业领域使用人工智能技术的一个重要特点。虽然已经有很多文章对回归模型做了介绍,但往往着眼于具体的算法介绍而缺少系统的归纳。

为此我们专门撰写本文对回归模型的相关技术问题进行梳理,以期帮助相关从业者了解回归模型的整体技术框架。本文后续部分讨论以下内容:首先介绍回归的概念,包括它与“拟合”的区别与联系;其次,我们从最小二乘法开始介绍一系列经典的回归方法,并介绍回归模型常见的计算与评估方式;最后,我们汇总所有方法给出其特性比对,以供实际工业智能从业者按照需求选型。

回归的定义

在统计学中,回归分析(regressionanalysis)指的是确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法。–百度百科

“回归”这个名词最早是由达尔文(进化论提出者)的表弟,英国著名生物学家兼统计学家高尔顿提出的。他发现身高显著超过均值的父母,其后代一般会比父母低;另一方面身高显著低于均值的父母其后台在统计上要比父母高。他将这一规律描述为人类后代的身高会倾向于“回到”平均值附近,因此使用了“回归”(regression)这一词汇。这则轶闻中值得注意之处,是“回归”这一概念首先来自统计学领域。可以说,回归在某种意义上就是寻求变量间最符合某种统计概率的定量关系。主要解决下述问题:

确定几个特定的变量之间是否存在相关关系,如果存在的话,找出它们之间合适的数学表达式。根据一个或几个变量的值,预测或控制另一个变量的取值,并且可以知道这种预测或控制能达到什么样的精确度。

一个与回归概念很相近的数学概念是“拟合(curvefitting)”。由于这两个概念所涵盖的实际计算方法有很多重叠,因此在很多场合我们不对其加以区分,把它们当作一回事。大多数情况下这并没有问题,除了以下方面:

回归分析不强制要求先验模型,可能会根据数据的特征或不同的优化目标选择不同的表示方法。而曲线拟合通常存在一个先验的模型,因此拟合的主要工作是为其模型确定合理的参数,这也是fitting一词的含义。回归分析立足于统计学,因此除获取数据间关系外,通常还要估计这一关系的统计特性,比如在确定关系之外数据间存在的随机残差的统计特征等。曲线拟合的任务通常只计算合理参数使得其偏差最小。对某些问题而言不存在一个可以绘制的曲线,这种情形的术语倾向于使用回归而不是曲线拟合,比如通过采样数据计算统计分布特征值。回归模型的多种形式

回归模型可以有很多种表示形式,不同的形式往往具有不同的功能,性能以及求解方式。

总体上我们可以把回归模型分为三类:

解析模型非参数化模型神经网络

其中每一类模型当然还能进一步划分成很多小类。下面我们对其逐一进行介绍。

解析模型(参数模型)

显然的,解析模型是指那些可以用数学表达式表示的模型。这种模型是我们说起“回归”的时候最先想到的形式,学生们在课堂上接触的最多,学者们在研究中最想构建,科学规律最简洁有说服力的表达形式。

然而在实际生活中解析模型能解决的问题并不是那么多。请想象一下如何用一个解析表达式表示一床被子,或者一张脸。可能出于简便的目的,一张被子会被简化成一个平面,或者复杂些,一个二维流形;但把一张脸简化成一个球面,多数人恐怕都难以接受。

虽然具有这样的局限性,在工业领域,使用解析模型求解回归问题仍然是常见且有效的。这是因为解析模型和其它回归模型相比有三个工业领域非常看重的特征,在这些特性加持下,较为简单的应用场景中使用解析模型很合适:

解析模型对数据量要求较小。解析模型在一定程度上体现了对数据规律的先验认知。解析模型参数确定后,使用该模型对新输入求解非常快速。

解析模型大体可以分为两种:

线性参数函数加和的形式其它

第一种解析模型是由很多个自变量的函数加和构成,并且加和的每一项都只有一个线性加权函数;其它模型是指不具备这样的特征的模型,比如指数回归,又比如下面这个洛伦兹函数模型,如果我们确切的知道所观察得变量之间得关系符合这一规律,就需要基于采样数据求解式(1)中的两个参数它的函数曲线以及带有高斯误差的采样数据的形态在某种确定的参数下是这样的。

—接下来的数学公式不需要细看,我们只想说明这个工作的复杂性。

求解这样一个函数的参数并不非常容易,会让我们想起牛顿法,牛顿下山法或者梯度下降法等等名词。这里以梯度下降法为例。梯度下降法通常也称为最速下降法。要使用梯度下降法找到一个函数的局部极小值,必须向函数上当前点对应梯度(或者是近似梯度)的反方向的规定步长距离点进行迭代搜索。在回归问题中,这个函数的自变量是各个系数。梯度下降方法,迭代计算所求系数。其具体步骤包括:

将洛伦兹函数计算结果与实测结果之间差异以MSE形式表示为损失函数。如式2所示:待定系数取值正确时上述损失函数得最小值0。此时损失函数对各系数偏导数为零。因此需要计算损失函数对各系数偏导数,因此需要写出各参数的偏导数形式如下:在此基础上,首先初始化待求参数,比如全部赋值为1,然后定义梯度下降计算步长,比如设置为0.01。然后使用上式3,4,5,迭代计算梯度后,以指定步长调整初始值,使参数逐步靠近合理值。在上述设置下,50步迭代其三个参数变化轨迹大概是下面这个样子。在这个示例中,参数正确的迭代到了理论值附近(array([2.99990868,2.00008539,3.9999999])),但这种方式其实是很脆弱的。首先这样一个复合的形式在实际问题中非常难定义,然后即使有了这样一个形式,在求解时如果使用了不恰当的初始值和步长,以及不合适的计算方法的话,是很难得到稳定的结果的。感兴趣的朋友可以尝试在上述公式基础上变更初始值与步长,很容易就能看到发散的结果。

因此,在工业实际上,应用中使用更多的是第一种模型,因为第一种模型有两个重要的特征:

它可以在某个取值范围内(或者说某个邻域上)拟合大量(连续)函数。这种模型求解简便。

先说明第一个特征。回顾一下高等数学中泰勒展开,我们应该能够理解这种多项式的性能。这也有助于我们确定用于拟合数据的模型的各项:应当优先选择幂较小的项,然后适应性的增加高次项。就像泰勒展开式那样,幂越高的项其系数很有可能越小。而在一般情形下如果我们得到相反的结果,在没有更多先验知识时就该看看是否计算出了问题。

然后讨论第二个特征,对于多项式而言,一般的,最常使用的求解方法是最小二乘法。统计学理论可以证明,最小二乘法实现了给定样本与映射形式上的最大似然估计。通过形式上使误差的平方和达到最小,结果上使数据误差并且求解也非常方便。它原本用于估计没有精确解的多元线性方程组,但实际上只要多项式中每一项都只有一个数乘参数,对于待求参数而言这个形式就是线性的,因此也就可以使用最小二乘法估计这些参数的最优取值。

值得一提的是在实际使用最小二乘法求解多项式系数时,由于需要对样本规模的巨大矩阵求逆的计算过于昂贵,通常不使用它的矩阵形式求解,而是借助对矩阵进行SVD分解获得解。

线性参数函数加和的形式能够解决工业领域中很大一部分回归问题。但是在一些具体的应用场景中往往存在着具体的要求,这些要求有可能体现在解析模型从建模到求解的各个阶段。比如:

不确定的先验关系:在实际工业场景中遇到的数据通常具有很多变量,使用这些变量建模在这种模型形式下会产生相当多的项。事实上,如果只取二次项,n个变量会有Cn2+n项。比如n=10,这在一个工业场景中并不少见,如果选择有理二次多项式对这些变量建模,就会有55个二次项。我们知道事实上这些二次项中有很多都是不必要的,但通常不知道具体应当是哪些。这种普遍的情形使得我们期望,在给定一个普遍的先验形式的基础上,通过回归建模能够得到一个相对具体的,不包含多余项的相对准确的形式。

这种期望以数学的形式表达,可能体现在对模型损失函数的定义上(添加正则化项),也可能只体现在求解过程中。通过添加不同的要求并进行求解,我们可以获取参数取值非常不同的解析模型。在其中某些正则化解析模型中,大量加和项的参数取值被置为零,这样我们就得到了相对精简的表达模型。比如常见的lasso回归,弹性网络回归以及稀疏回归等等,都是这一理念的体现。需要注意的是,不同的正则项定义一方面表达了某种先验的认知,另一方面也会改变参数求解的方法,比如lasso回归使用了最小角算法进行求解。这些求解方法本身优劣不同,会影响到最终的建模质量。

目标变量与自变量难以分离:这同样是工业场景中的常见情况。比如某种材料的二向失效性能力学测试,其在两个主应力为横纵坐标轴的图像上大体呈现为椭圆形态。这种情况内含了两种目标变量雨自变量难以分离的情形。一方面这两个方向上受力变量呈现椭圆的关系意味着目标变量与自变量构成一种隐函数的表达,因此需要考虑隐函数形式的回归模型求解;另一方面在不同的受力状态,比如两方向同时受拉或者两方向同时受压时,两个变量之间的关系并不相同,不能使用同一个回归模型,因此会遇到分段函数构建回归模型的问题,不同于后面会提到的局部多项式,分段函数模型对数据的分割是先验明确的,主要的问题在于各分段之间回归模型的连续性问题。这些与业务密切相关的具体情形并没有统一的求解策略,必须按照业务实际与模型的数学特征给出相应的解决方案。基于统计的非参数模型

解析模型确实是一种强大的回归范式,但它也存在若干不足,比如在以下三个方面:

这种建模方式主要面向全局数据拟合,对局部特殊的数据往往难以特殊处理。在求解实际回归问题时,给定的解析形式相当于明确了一种确定的数据先验形式,这种先验形式可能和实际情形不符。比如对于多项式形式的模型,它暗示了数据之间的关系是连续的,乃至可微的。而现实情形可能并不符合这种假设。解析模型给出的回归结论通常都是确定的,它往往缺少对变量之间关系中可能存在的统计信息的描述。即使使用一个概率密度函数构建一组样本数据的统计特征,最终求出的概率密度函数与实际数据分布之间的相符程度通常也无法表达。

为此,很多基于统计的非参数回归模型被提出,尝试解决这些问题。非参数回归模型也叫无参数回归模型。这种模型不需要用户提供关于变量间关系很特定的先验形式,而是基于一般数据分布规律与样本数据构建模型。很多智能回归模型可以归类到非参数模型,比如保序回归,决策树回归等,这其中两个具有代表性的模型框架是高斯过程回归(GPR)和局部多项式回归(LPR)。

高斯过程回归(GaussianProcessRegression,GPR)是使用高斯过程(GaussianProcess,GP)先验对数据进行回归分析的非参数模型。

高斯过程(GaussianProcess,GP)是概率论和数理统计中随机过程(stochasticprocess)的一种,是一系列服从正态分布的随机变量(randomvariable)在一指数集(indexset)内的组合。

高斯过程回归是在1996年由两位学者提出了系统的描述及相应的求解方法,但它的变体,或者在特定领域作为一种实用技术已经存在了50多年。工业产品研发相关的技术人员在使用isight这样的优化设计软件求解最优设计方案时会遇到仿真计算过于昂贵,拖慢优化迭代过程的问题。为解决这个问题他们经常使用名为克里金(Kriging)的代理模型对仿真计算做部分替代。这个克里金法就是在地统计学中对高斯过程回归的一种实现。

由于本文面向工业智能制造从业者,这里不对高斯过程回归的数学过程做详细描述,只介绍种回归算法的特点:

高斯过程回归所蕴含的先验是待回归的函数是一个(多元)高斯过程。在高斯过程回归种,各变量之间存在的相关性由其协方差定义。一般的,这个协方差矩阵使用径向基核函数表示,它意味着样本点之外的未知数据求解是基于该数据距离各样本点的距离决定的,通常距离它越近的样本点提供的信息权重越大。因此它是一种类似于临近点插值的算法。基于第二个特点,可以推论较为精确的模型性能源自于样本数据在取值范围内的充分采样。基于第二个特点,可以推论该模型内插性能较好,但外推性能难以保证。在实际拟合计算时,每次都需要使用核函数计算待求解变量与样本变量之间的协相关矩阵,因此计算量较大。

局部多项式回归方法由名字可知,它在不同的局域使用不同的多项式进行拟合。算法希望对数据进行恰当的分割,使得每个区域的多项式覆盖范围总体得到较好的拟合精度。这种算法在完成模型构建后对每个区域的预测的计算复杂度显然小于高斯过程回归类算法,而其精度又好于全局多项式回归。这样看来局部多项式回归是一个相对折衷的较好方案,但这种方法的模型求解相对繁琐,并且其性能受到很多参数影响,因此对建模人员的技术有一定要求。但可以通过调用美林数据的TempoAI等产品,使用其内置局部多项式功能节点对这种方法进行直接调用。

用于回归的神经网络模型

人工智能的发展证明了神经网络的巨大潜力。因此在传统回归建模方法之外,也需要考虑使用神经网络方法构建回归模型。与传统回归方法相比,神经网络模型的一大优点是它具有非常灵活的拟合能力,因此有能力表达复杂的变量间关系。但另一方面,神经网络模型构建也存在若干局限,比如要求较多数量的训练样本数据,又比如先验知识除作为代价函数的一个添加项之外并没有更好的机理与数据的融合策略,此外神经网络的计算复杂度通常也比较高。

基于此,目前在回归模型构建领域对神经网络的使用并不广泛。相对常见用于回归模型构建的神经网络是rbf神经网络模型,该种网络使用一种固定的三层网络模型,以径向基函数(一般的,高斯函数)作为激活函数,以样本数作为输出神经元数量。这种神经网络模型实际上与当前常见的BP神经网络之间的差异较大,而与高斯过程回归的原理更为接近。根据J.-P.Costa等人的研究,在实际使用中rbf神经网络的性能略逊于高斯过程回归。

回归模型的评估:数学与业务要求

对回归模型的评估大致有以下面向。

模型在样本数据上的性能

如果样本数据不包含误差,可以想象这个差异必然是越小越好。一般回归模型使用均方误差描述这一差异,我们在前面式(2)中也使用了它。

均方误差(mean-squareerror,MSE)是反映估计量与被估计量之间差异程度的一种度量。设t是根据子样确定的总体参数θ的一个估计量,(θ-t)2的数学期望,称为估计量t的均方误差。它等于σ2+b2,其中σ2与b分别是t的方差与偏倚。

事实上这一评估准则不仅用于量度模型的性能,MSE通常是求解回归模型的直接优化目标。因此当模型确定了基本形式,其求解结果就是改该基本形式所确定的可选的函数族中能得到最小MSE的那个。

如果样本数据包含误差,那么MSE通常不为零,但是当我们选择vc维很高的解析模型,或者层数较多的神经网络时,我们可能将样本中所包含的噪声误认为是规律的一部分而将其纳入回归模型中,即形成过拟合。在这种情形下当MSE为零或者极小的,我们往往不能确定是发生了过拟合,还是样本数据规律性足够强。为此还需要引入其它标准。

模型在未知数据上的性能

为识别回归模型是否发生了过拟合,我们需要引入训练集与测试集。这两个概念已经随着机器学习的发展而为很多人所熟知。简单的说,训练集与测试集都是从样本数据中随机采样获得,并且具有相同的统计分布特征(因此要求样本数量足够大),这两个数据集之间没有重合,并且他们合并起来就是样本总集。

在回归模型构建时,我们只使用训练集中的数据,而在完成模型构建后进行评估时,我们分别使用训练集和测试集中的数据,并比较两个数据集在同一个回归模型上的性能(比如MSE)差异。如果这两个数据集在模型上具有相似的性能,我们就说这个模型没有过拟合,相反如果训练集数据在模型上的MSE值很低,而测试集数据在模型上的MSE值很高的话,这个模型就已经过拟合了。需要注意过拟合的模型完全不能够使用,它通常对现实不具有任何指导意义。

有时候我们获取的样本数据只能局限在一个有限的取值区间,这在工业生产中是常见的。我们希望经由这个有限取值区间去推断其它取值范围上目标变量的情形,因此除了上述对样本集进行分拆以验证模型没有发生过拟合之外,还需要研究模型在样本数据所覆盖取值范围之外的性能与范围之内性能的差异。即模型在样本统计分布区间外推的能力。直觉上,解析模型会比非参数模型具有均方误差(mean-squareerror,MSE)是反映估计量与被估计量之间差异程度的一种度量。设t是根据子样确定的总体参数θ的一个估计量,(θ-t)2的数学期望,称为估计量t的均方误差。它等于σ2+b2,其中σ2与b分别是t的方差与偏倚。

更好的外推性能,但是这要求模型解析的形式本征的表达了变量关系。这并不容易验证。另外,即使将已知数据按照区间进行分割,我们也只能知道所得模型在故意掩盖的取值范围上的外推性能,而不能知道其在未知取值区间上真正的外推性能。有些情形需要数据分析人员与业务专家针对具体问题进行具体的分析。

模型的计算复杂度

基于工程实际,我们总希望得到的回归模型计算又快,结果又准确。但现实往往不允许我们既要有要。这就牵涉到回归模型的计算复杂度问题。在算法课程中我们把计算复杂度分为两类:时间复杂度和空间复杂度。但对于模型构建而言考虑的方面要多一些,这包括:

模型构建时的计算复杂度(时间、空间)模型使用时的计算复杂度(时间、空间)模型对样本数据量的要求

对不同种类的模型,它们在上述三个方面的性能都存在一些差异。但是由于模型的构建通常是离线的,有限次数的,而模型的使用常常是高频次的,有时间限制的。因此一般而言我们关注模型使用时的计算复杂度。但是对智能制造领域而言,基于数据很难获得的实际情形,模型对样本数据量的要求通常是一个重要的考量因素。

模型的选型

最后,我们总结前述对回归模型的形式,求解难易程度,性能特性等给出如下的选型推荐。

人工智能应用算法大全及其原理解析与应用领域

人工智能(AI)是一种计算机科学技术,可以通过模拟人类思维和行为,使机器能够执行像人类一样的任务。在AI技术中,算法是非常重要的组成部分。在这里,我们列出一些重要的AI算法,以及它们的原理和应用领域。

1.机器学习算法

机器学习算法是AI中最为重要的算法之一。它是一种通过数据自我学习的技术。机器学习算法可以根据先前的经验来预测结果。机器学习算法的应用范围广泛,例如图像识别、语音识别、自然语言处理、医学诊断等领域。

2.深度学习算法

深度学习算法是一种机器学习算法,它使用深层神经网络来模拟人类神经系统。深度学习算法可以用于图像和语音识别、语言翻译和自然语言处理。

3.支持向量机算法

支持向量机算法是一种监督学习算法,可以用于二分类和多分类任务。它使用线性分类器来分离不同的类别,并使用支持向量来确定决策边界。支持向量机算法在图像分类、文本分类、生物信息学等领域具有广泛的应用。

4.决策树算法

决策树算法是一种基于树型结构的分类和回归算法。它将数据划分为多个子集,并使用树节点来表示每个子集的条件。决策树算法在医学诊断、金融风险评估等领域广泛应用。

5.聚类算法

聚类算法是一种无监督学习算法,用于将数据分成不同的群组或簇。聚类算法根据数据的相似性来划分簇。聚类算法在市场细分、社交网络分析、生物信息学、地图分类等领域有广泛的应用。

6.遗传算法

遗传算法是一种模拟自然选择和遗传机制的优化算法。遗传算法可以优化复杂问题的解决方案。遗传算法在工程设计、项目管理、生产规划等领域具有广泛的应用。

7.神经进化算法

神经进化算法是一种结合了神经网络和遗传算法的算法。它使用遗传算法来优化神经网络的架构和参数。神经进化算法可以用于模式识别、数据挖掘、任务规划等领域。

在人工智能应用程序中,算法是实现人工智能的关键。上述算法都具有广泛的应用领域,并且具有自己的优缺点。选择正确的算法对于实现高效的人工智能应用程序至关重要。

人工智能在图像处理、语音识别和自然语言处理中的应用有哪些

当谈到人工智能在图像处理、语音识别和自然语言处理领域的应用时,我们可以看到它们正发挥着重要的作用。人工智能技术利用计算机科学和机器学习算法,使得计算机能够模仿人类的智能行为和决策过程。

 人工智能在图像处理、语音识别和自然语言处理领域有广泛的应用。以下是这些领域中人工智能的一些常见应用:

图像处理:图像分类和识别:利用深度学习和卷积神经网络等技术,实现图像的分类和识别任务,例如物体识别、人脸识别等。目标检测和跟踪:通过训练神经网络模型,实现对图像中特定目标的检测和跟踪,例如行人检测、车辆跟踪等。图像生成和增强:利用生成对抗网络(GAN)等技术,生成逼真的图像,并进行图像增强,例如超分辨率图像生成、图像修复等。语音识别:语音转文本:利用深度学习模型,将语音信号转化为文字,实现语音识别任务,例如语音助手、语音转写等。语音情感分析:通过分析语音信号的声调、语速等特征,实现对语音中情感的识别和分析。自然语言处理:文本生成和翻译:通过神经网络模型,实现文本的生成和翻译任务,例如文本摘要生成、多语言翻译等。问答系统和对话机器人:利用自然语言处理和知识图谱等技术,实现智能问答系统和对话机器人,能够回答用户的问题和进行自然对话。整理了有关人工智能的籽料,有图像处理opencv自然语言处理、机器学习、数学基础等人工智能资料,深度学习神经网络+CV计算机视觉学习(两大框架pytorch/tensorflow+源码课件笔记)关注公众H:AI技术星球 回复 123这些只是人工智能在图像处理、语音识别和自然语言处理领域中的一些应用示例,随着技术的发展和创新,还会出现更多新的应用和突破。人工智能的应用不仅限于这些领域,还延伸到医疗诊断、智能交通、金融风控等多个行业。随着技术的进步和数据的丰富,人工智能在各个领域的应用将会更加广泛和深入。

人工智能监管难题:如何“用魔法打败魔法”

我国人工智能专门立法具有一定的可行性,但是也面临着诸多现实难题。

全球AI立法进程明显提速,世界各国的监管都在追赶AI的演化速度。

当地时间6月14日,欧洲议会以499票赞成、28票反对和93票弃权,高票通过了《人工智能法案》(AIAct)谈判授权草案。按照欧盟立法程序,欧洲议会、欧盟成员国和欧盟委员会将开始“三方谈判”,以确定法案的最终条款。

欧洲议会称“已经为制定史上首部人工智能法案做好谈判准备”。美国总统拜登释放管控AI信号,有美国国会议员提交了AI监管立法提案。美国参议院民主党领袖查克·舒默展示了他的“人工智能安全创新框架”,并计划在短短“几个月”内制定联邦层面的人工智能法案。

我国相关立法也已提上日程,人工智能法草案预备在今年内提请全国人大常委会审议。6月20日,首批境内深度合成服务算法备案清单也已经出炉,百度、阿里巴巴、腾讯等26家公司、共计41个算法榜上有名。

尽管中国、美国、欧盟都倡导准确、安全、透明度等原则性的AI监管理念,但在具体思路和方式上,存在许多不同。颁布全面的AI法律,背后是对自身规则的输出,欲掌握规则优势。

国内一些专家呼吁尽快开展人工智能法律规制,但目前面临的现实难题不容忽视。此外还有一个重要的考虑是:要监管还是要发展。这并不是一个二元对立的选择,但在数字领域,平衡两者却颇为不易。

欧盟冲刺,中美提速

如果一切顺利,欧洲议会通过的《人工智能法案》有望在今年年底前获批。全球首部综合性人工智能监管法律很有可能落地欧盟。

“该草案会影响其他处于观望的国家加速立法。一直以来,人工智能技术是否应当纳入法治监管范畴始终争议不断。现在来看,《人工智能法案》落地后,相关网络平台,如业务内容以用户信息生成为主的平台,势必会承担更高的审核义务。”北京航空航天大学法学院副教授赵精武告诉《中国新闻周刊》。

作为数字战略的一部分,欧盟希望通过《人工智能法案》全面监管人工智能,其背后的战略布局也已摆到台面。

北京万商天勤(杭州)律师事务所执行主任彭晓燕告诉《中国新闻周刊》,《人工智能法案》除适用于欧盟境内,还规范位于欧盟之外、但系统输出数据在欧盟使用的系统提供方或使用者。极大扩展了法案的管辖适用范围,也可以窥见抢占数据要素管辖范围的端倪。

中国国际问题研究院欧洲研究所副所长、研究员金玲在《全球首部人工智能立法:创新和规范之间的艰难平衡》一文中也写道,《人工智能法案》突出欧盟人工智能治理的道德优势,是欧盟又一次欲发挥其规范性力量,通过规则优势弥补技术短板的尝试。反映了欧盟欲抢占人工智能领域道德制高点的战略意图。

《人工智能法案》已酝酿两年。2021年4月,欧盟委员会提出基于“风险分级”框架的人工智能立法提案,后经多轮讨论和修订。在ChatGPT等生成式AI风靡后,欧盟立法者又紧急添“补丁”。

一个新变化是,《人工智能法案》最新草案加强了对通用人工智能(generalpurposeAI)的透明度要求。例如,基于基础模型的生成式AI必须要对生成的内容进行标注,帮助用户区分深度伪造和真实信息,并确保防止生成非法内容。像OpenAI、Google等基础模型的提供者,若是在培训模型期间使用了受版权保护的数据,也需要公开训练数据的详细信息。

此外,公共场所的实时远程生物识别技术从“高风险”级别调整为“被禁止”级别,即不得利用AI技术,在欧盟国家的公共场合进行人脸识别。

最新草案也进一步提高了违法处罚数额,将最高3000万欧元或侵权公司上一财政年度全球营业额的6%,修改为最高4000万欧元或侵权公司上一年度全球年营业额的7%。这比欧洲的标志性数据安全法律《通用数据保护条例》所规定的,最高可处以全球收入的4%或2000万欧元罚款高出不少。

彭晓燕告诉《中国新闻周刊》,处罚数额的提高,侧面反映了欧盟当局对人工智能监管决心与力度。对于谷歌、微软、苹果等营收数千亿美元的科技巨头而言,若违反《人工智能法案》规定,罚款可能达到上百亿美元。

而在大洋彼岸的美国,华盛顿忙于回应马斯克等人呼吁加强AI管控之际,6月20日,美国总统拜登在旧金山会见了一群人工智能专家和研究人员,讨论如何管理这项新技术的风险。拜登当时称,在抓住AI巨大潜力的同时,需要管理其对社会、经济和国家安全带来的风险。

风险管控成为AI热门话题的背景是,美国并未对AI技术采取像反垄断那般严厉措施,尚未出台联邦层面、综合性的AI监管法律。

美国联邦政府首次正式涉足人工智能监管领域是在2020年1月,当时发布了《人工智能应用监管指南》,为新出现的人工智能问题提供监管和非监管措施指引。2021年出台的《2020年国家人工智能倡议法案》更多算是在AI领域的政策布局,与人工智能治理和强监管还有一定距离。一年后,白宫于2022年10月发布的《人工智能权利法案蓝图》(简称“《蓝图》”)为人工智能治理提供了支持框架,但并不是美国官方政策,不具备约束力。

美国AI立法进展甚微,已招致许多不满。不少人批评,在数字经济的规则制定方面,美国已落后欧盟和中国。不过,或许是看到欧盟《人工智能法案》即将走过最后“关卡”,美国国会近期出现了立法加速迹象。

拜登举行AI会议当天,民主党众议员泰德·刘(TedW.Lieu)、安娜·埃舒(AnnaEshoo),以及共和党众议员肯·巴克(KenBuck)一同提交了《国家人工智能委员会法案》提案。同时,民主党参议员布莱恩·夏兹(BrianSchatz)将在参议院提出配套立法,一同专注于人工智能监管问题。

根据法案内容,人工智能委员会将由来自政府、行业、民间社会和计算机科学领域的共20名专家组成,将审查美国当前的人工智能监管方法,共同制定全面的监管框架。

“AI正在社会上做出令人惊叹的事情。如果不受控制和监管,会造成重大伤害。国会绝不能袖手旁观。”泰德·刘在一份声明中说。

一天后,6月21日,参议院民主党领袖查克·舒默(ChuckSchumer)在战略和国际研究中心(CSIS)发表演讲,揭示他的“人工智能安全创新框架”(简称“AI框架”)——鼓励创新,同时推进安全、问责制、基础和可解释性,呼应了包括《蓝图》在内的宏观规划。他曾在4月提出过该框架,但当时基本没有透露细节。

AI框架背后是查克·舒默的一项立法战略。他在此次演讲中表示,要在短短“几个月”内制定联邦层面的人工智能法案。不过,美国立法程序繁琐,不仅要经过参众两院投票,还需经过多轮听证会,耗时长久。

为了拉快进度,作为AI框架的组成部分,查克·舒默计划从今年9月起举办一系列人工智能洞察力论坛,涵盖创新、知识产权、国家安全和隐私在内的10个主题。他告诉外界,洞察论坛不会取代国会关于人工智能的听证会,而是同步进行,以便立法机构可以在几个月而不是几年内推出有关该技术的政策。他预计,美国的AI立法可能要到秋天“才能开始看到一些具体的东西”。

虽进度并未赶上欧盟,但我国相关立法也已提上日程。6月初,国务院办公厅印发《国务院2023年度立法工作计划》,其中提到,人工智能法草案等预备提请全国人大常委会审议。

按照我国《立法法》的规定,国务院向全国人大常务委员会提出法律草案后,由委员长会议决定列入常务委员会会议议程,或者先交有关的专门委员会审议、提出报告,再决定列入常务委员会会议议程,后续一般需经历三次审议后再交付表决。

今年以来,不少国家AI立法提速,彭晓燕认为这是竞争和技术发展一同催热的结果。

“数据要素越来越成为国家战略要素,各国也希望通过立法确立管辖权,抢占人工智能话语权。同时,ChatGPT等人工智能技术的迭代更新,让社会看见了强人工智能发展的新希望(11.680,-0.01,-0.09%)。新技术的发展势必会带来新的社会问题与社会矛盾,需要规范介入调整,技术的发展某种程度上推动了立法的更新。”彭晓燕说。

分歧远多于趋同

中国、美国、欧盟是全球AI发展的主要驱动力(2.970,0.01,0.34%),但三者在AI立法方面也存在一些不同。

欧盟《人工智能法案》从用途、功能等角度将人工智能应用风险分为4个层级,无论草案经过几轮修改,“风险分级”仍然是欧盟治理AI的核心理念。

金字塔顶端对应对人类安全造成“不可接受”的风险。例如,根据人们的社会行为或个人特征对其进行分类的打分系统等,这些将被完全禁止使用。

在最新草案中,欧洲议会扩大了“不可接受的风险”清单,防止人工智能系统出现侵入性和歧视性。全面禁止公共空间生物识别、情感识别、预测性警务(基于侧写、地点或过去的犯罪行为),以及从网络随意抓取面部图像等六类人工智能系统。

第二类是对人类安全或基本权利产生负面影响的人工智能系统,会被视为“高风险”。例如,航空、汽车、医疗设备等产品中使用的AI系统,以及必须在欧盟数据库中注册的八个特定领域,涵盖关键基础设施、教育、培训、执法等。在符合人工智能规定和事先合格评定的情况下,各种“高风险”人工智能系统将获得授权,遵守一系列要求和义务才能进入欧盟市场。

另外,影响选民和选举结果的人工智能系统,以及根据欧盟《数字服务法》,拥有超过4500万用户的社交媒体平台所使用的推荐系统也将被列入高风险名单,例如Facebook、Twitter和Instagram。

处在金字塔底部的是有限风险、风险很小或没有风险的人工智能系统。前者具有特定透明度义务,需要告知用户正在与AI系统互动,后者无强制性规定,基本上不受监管,如垃圾邮件过滤器等应用。

因有着严格的监管条款,《人工智能法案》被很多业内人士视为长了许多尖锐的“牙齿”。不过,该法案也试图在强监管和创新之间寻求平衡。

例如,最新草案要求成员国至少建立一个可供中小企业和初创企业免费使用的“监管沙盒”,在一个受监督和安全可控的场景中,对创新性人工智能系统在投入使用前进行测试,直到满足合规要求。欧盟普遍认为,该提议不仅可以让当局实时关注技术变化,也帮助AI企业减轻监管压力的同时能继续创新。

金玲在前述文章中称,欧盟的上游治理方法一方面要求企业承担更多的前置成本,另一方面也因为风险评估不确定性影响企业投资热情。因此,尽管委员会一再强调人工智能立法将支持欧洲数字经济的创新和增长,但现实的经济分析似乎并不认同这个结论。法案反映了欧盟在促进创新和权利保护之间难以有效平衡的内在冲突。

美国同欧盟、中国一样,都支持主要基于风险的人工智能监管方法,倡导准确、安全、透明度。不过,在赵精武看来,美国监管思路更注重利用AI,推动AI行业的创新和发展,最终是为了保持美国的领导地位和竞争力。

“不同于中国和欧盟秉持的‘风险预防和技术安全’监管理念,美国则侧重商业发展优先。中国和欧盟均侧重人工智能技术应用安全保障,避免人工智能技术滥用侵害个体权利,美国则是以产业发展作为监管重心。”赵精武说。

有研究发现,美国国会立法主要集中在鼓励和指导政府使用人工智能。例如,美国参议院曾于2021年推出一项人工智能创新法案,要求美国国防部实施一项试点计划,以确保其能够获得最佳的人工智能和机器学习软件能力。

查克·舒默在前述演讲中就将创新视为北极星,其AI框架就是要释放人工智能的巨大潜力,支持美国主导的人工智能技术创新。《人工智能应用监管指南》在开篇就明确应继续促进技术和创新的进步。《2020年国家人工智能倡议法案》最终目标也是要通过增加研究投入、建立劳动力系统等手段确保美国在全球AI技术领域保持领先地位。

彭晓燕表示,从指导性的规范设计角度来看,美国立法及制度层面上对人工智能发展尚且处在弱监管的态势,社会层面以开放的态度积极鼓励人工智能技术的创新与拓展。

与欧盟具有更加明确的调查权和全面的监管覆盖范围相比,美国采取了一种分散化的人工智能监管方式,部分州和机构以较小程度推进AI治理。这样导致的结果是,全国性的AI监管倡议都非常地宽泛和原则化。

例如,《蓝图》作为美国人工智能治理政策里程碑事件,制定了安全有效的系统、防止算法歧视、保护数据隐私、通知及说明、人类参与决策制定等五项基本原则,并无更加细致条款。

彭晓燕认为,《蓝图》未制定具体的实施措施,而是以原则性规定的方式搭建人工智能发展基本框架,旨在指导人工智能系统设计、使用及部署。

“像这类规范,不具有强制性,这是美国出于对人工智能产业扶持发展的考虑。目前,人工智能尚处于新兴发展阶段,高强度监管势必会一定程度上限制产业发展与创新,因而美国在立法上保持相对谦抑态度。”彭晓燕说。

“如果没有法律赋予各机构新的权力,它们就只能根据已有权力规范人工智能的使用。另一方面,对人工智能相关的道德原则保持较少规定,各机构可以自行决定如何监管,保留哪些使用权利。”卡内基分析师哈德里恩·普格(HadrienPouget)认为,这使得以白宫为首的联邦机构既受限制又自由。

以利用和创新为主导的AI治理理念,注定美国的“拳头”不会太硬。美国著名智库布鲁金斯学会研究员亚历克斯·恩格勒(AlexEngler)指出,对于教育、金融、就业等具有社会影响力的人工智能,欧盟和美国正采取不同的监管方法。

在对具体AI应用上,欧盟《人工智能法案》对聊天机器人(16.670,0.02,0.12%)有透明度要求,而在美国还没有联邦层面的规定。面部识别被欧盟视为“不可接受的风险”,美国则是通过美国国家标准与技术研究院(NIST)人脸识别供应商测试计划提供公共信息,但不强制制定规则。

“欧盟的监管范围不仅涵盖了更广泛的应用,而且为这些人工智能应用制定了更多规则。而美国的做法更狭隘地局限于调整当前的机构监管机构来尝试治理人工智能,人工智能的范围也有限得多。”亚历克斯·恩格勒说,尽管存在宽泛的相同原则,但在AI风险管理中,分歧远多于趋同。

赵精武总结中国、欧盟、美国的AI监管模式,发现中国以人工智能技术应用场景为限,专门针对人脸识别技术、深度合成、自动化推荐等应用场景制定专门监管规则。欧盟是以风险水平为导向,根据人工智能应用的风险水平是否属于可接受水平。美国则是在既有的传统法律制度框架判断人工智能技术应用的合法性。

此外,美国也将更多注意力集中在人工智能研究上面,为其投入更多资金。就在5月初,美国白宫宣布投资约1.4亿美元,建立七个新的国家级人工智能研究所。有研究者认为,美国此举是希望能更加了解AI,从而减轻监管过程中产生的担忧。

彭晓燕则表示,我国采取鼓励人工智能技术发展同时有限规范相关领域管理的措施,以调和的政策与管理要求引导人工智能技术发展。

我国立法面临诸多现实难题

欧盟正加速落地全球首部AI监管法案,赵精武告诉《中国新闻周刊》,欧盟的“风险等级制”人工智能监管措施,《人工智能法案》提出的“通用模型”监管概念,以及专门针对ChatGPT这类生成式人工智能应用的披露义务、数据版权合规义务,都对我国人工智能立法有参考价值。

事实上,我国对于人工智能的立法早已起步,2017年国务院发布的《新一代人工智能发展规划》提出,到2025年,初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。

地方上,2022年,深圳市出台《深圳经济特区人工智能产业促进条例》,被看作我国首部人工智能产业专项立法。《条例》提到,完善人工智能领域监管机制,防范人工智能产品和服务可能出现的伦理安全风险和合规风险。

当前,我国人工智能规制主要由几大部委共同推进,分别从不同领域推动人工智能领域的规范和发展。《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理办法(征求意见稿)》等规范性文件也相继出台。

“综合历来管理规范来看,我国关于人工智能领域的规定采用区分业务领域、区分技术方向的措施,管理规范趋于分散化。在规范出台上,往往具有应时性特征,在特定技术出现后作出专门性管理规定。规范由行政部门主导颁布,侧重监管,在规范层级上未上升为法律。”彭晓燕说。

值得注意的是,6月20日,首批境内深度合成服务算法备案清单出炉,百度、阿里巴巴、腾讯、字节跳动、美团等26家公司、共计41个算法榜上有名。

随着AI立法热度升温,国内开始有专家呼吁尽快开展人工智能法律规制。不过,在赵精武看来,我国人工智能专门立法具有一定的可行性,但是也面临着诸多现实难题。

“一是立法文件之间的体系衔接问题,人工智能专门立法与其他规范性文件之间的适用关系尚未解决,尤其是专门立法与现行立法在内容层面的重叠问题亟待解决。二是人工智能技术更新迭代速度加快,保障法律与技术的同步发展存在一定的难度;三是人工智能监管规则缺乏整体性,数据、算法和算力三大核心要素的监管规则仍处于探索阶段;四是人工智能立法的重心究竟是以安全风险治理为主,还是以产业发展保障为主争议较大。”赵精武说。

无论是欧盟的《人工智能法案》,还是中国、美国等国家针对AI的规定、倡议、规划,都在试图构建一个完善的监管框架:既能确保安全,又能为AI创造更好条件。

基于这种普适性原则,彭晓燕告诉《中国新闻周刊》,我国建立的人工智能法律,首先应当建立在积极鼓励发展创新的基础上,使得人工智能在相对开放的空间领域进行规范发展,划定发展红线。

“此外,还需要解决现下大家集中关心的人工智能领域法律问题,包括但不限于人工智能违法违规内容的禁止、人工智能数据安全保护、人工智能伦理安全的保障、知识产权侵权的防范等等。”彭晓燕说。

赵精武认为,我国应当建立以产业发展保障为导向的人工智能法律。

“现行立法在一定程度已经可以基本满足人工智能技术应用监管的需求。预防技术风险,保障技术安全只是治理过程,其最终目的仍然还是需要回归到人工智能产业发展层面。毕竟人工智能法律不是限制产业发展,而是引导和保障相关产业的良性发展。”赵精武说。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇