影像篡改与识别(三):人工智能时代
2019年,据美联社报道,一名间谍利用AI生成的个人资料和图片,在全球知名的职场社交平台LinkedIn上欺骗联系人,包括政治专家和政府内部人员[1][2]。
这位30多岁的女性名叫凯蒂•琼斯,拥有一份顶级智库的工作,虽然她的关系网规模不大,只有52个联系人,但却都有着举足轻重的影响力,比如:一位副助理国务卿、一位参议员的高级助理、以及正在考虑谋求美联储一席之地的经济学家保罗•温弗里。
然而,经过许多相关人员和专家的调查采访,美联社证实了凯蒂•琼斯其实并不存在,她的人脸照片似乎是由一种典型的GAN技术生成的,这个角色只是潜伏在LinkedIn上的众多幻影资料之一,其目的极有可能是从事间谍活动。
这则报道让人们意识到,进入人工智能时代,影像篡改技术又发生了革命性的变化,而滥用这种AI伪造技术带来的安全问题更是与日俱增,甚至严重威胁到国家和社会的安定。今天我们就来说说这种神秘的GAN技术。
人工智能时代的GAN技术是指什么?GAN,全称是生成式对抗网络GenerativeAdversarialNetwork,它是一种AI深度学习模型,而关于GAN的诞生不承想竟然是一次“酒后的意外”[3][4]?
2014年,当时“GAN之父”Goodfellow还在蒙特利尔大学读博士,一天晚上他与几个朋友在一家名为“三个酿酒师”的酒吧里给师兄庆祝博士毕业。
一群技术工程师们边喝酒边聊天,聊到了如何让计算机自动生成照片这个问题。Goodfellow的朋友们提出了一个想法,将照片中的所有构成元素全部输入到计算机进行统计分析,以便让它能够自己生成照片。
然而,Goodfellow却认为这个想法是不太现实的,需要考虑的数学统计量实在太多。突然他灵光一闪:是否可以让一个神经网络来“监督指导”另一个神经网络生成照片呢?不过这个大胆的想法却让朋友们一致产生了怀疑。
酒后回到家,Goodfellow连夜编写了程序来验证这个“不切实际”的想法,谁也不会想到竟然第一次测试就取得了成功。那一夜Goodfellow难以入眠,因为他所创造出来的东西就是如今大名鼎鼎的GAN技术。
那么,GAN技术究竟是指什么呢?先举一个“印钞者与警察”的例子[5]:
印钞者通过参考真实钞票的样子来印制钞,而警察需要辨别拿到的钞票是真是假;
起初,印钞者的能力不足,印制的钞很容易被警察识别,所以印钞者就不断提升自己的造假能力;
同时,警察在辨别过程中也在不断积累经验,提升自己的钞识别能力,这就形成了一个相互对抗的过程;
直到最后,印钞者可以印制出完美的假的钞票,而警察再也无力区分它的真假。
实际上,GAN技术的思想与这个例子是异曲同工的。
GAN本身包含两个神经网络,一个是生成器(同印钞者)用来从一个随机噪声生成一张照片;另一个是判别器(同警察)用来辨别生成照片和真实照片的真假。下面三张图很好的诠释了GAN网络的迭代训练过程[6]:
训练初期,Generator生成器造出来的图像与真实图像RealData相差很大,Discriminator判别器很容易区分;
训练中期,Generator生成器迭代更新,已经可以造出内容接近的图像,而Discriminator判别器的识别困难度也在不断增加;
训练后期,Generator生成器已经可以造出非常逼真的图像,而Discriminator判别器再难以区分真假,只能随机猜测,即0.5概率认为是真,0.5概率认为是假。
是的,当GAN网络训练收敛后的Generator生成器,就是所谓人工智能时代的一件影像篡改利器。当然,随着前几年GAN技术的火热,许多专家和学者都投入到了GAN的技术研究上来,如今GAN家族早已是“人丁兴旺”。
影像篡改的AI工具箱继Goodfellow以后,GAN技术并没有就此停下脚步,而是逐渐衍生出至少上百种模型,它们都可以轻易实现影像篡改处理,比如:CGAN、DCGAN、WGAN、CycleGAN、PGGAN、StarGAN、SAGAN、BigGAN、StyleGAN……
这些AI模型在生成虚假图片上,都不同程度地提升了人眼视觉质量以及模型鲁棒性,下面介绍三种比较流行的GAN模型。
(1)CycleGAN模型
CycleGAN[7]是2017年伯克利AI研究室提出来的一种用于图像风格迁移的GAN模型。
什么是“图像风格迁移”呢?
简单理解就是,将一幅图像从一种风格变换成另一种风格,比如:水墨风格变成油画风格、雨天场景变成雪天场景、航拍照片变成谷歌地图等等。
上图展示了三组图像风格迁移示例,左边是莫奈油画和实景照片之间的转换,中间是斑马和普通马之间的转换,右边是夏天景色和冬天景色之间的转换。
那么,CycleGAN是怎么做到的呢?
实际上,它包含两组风格映射关系,生成器G将X变换成Y,生成器F将Y变换成X,而判别器DY用来约束Y的生成质量,判别器DX用来约束X的生成质量。
当然,为了保证图像风格迁移的质量,其实还引入了一种循环一致性约束。要怎么理解循环一致性呢?顾名思义,就是指经过一次循环变换仍保持图像内容的一致性,比如:图像X先经过生成器G变换为图像Y,然后这个Y再经过生成器F变换为新X,经历了一次完整的循环,这两个图像X应该尽可能保持一致才对。
我们可以看到,CycleGAN比Goodfellow最初的GAN模型要复杂了一些,需要使用两组生成器和判别器一起协同工作。不过,它的虚假照片生成质量也是有目共睹的,而且在实际应用上也要更加广泛一些。
(2)PGGAN模型
PGGAN[8]是2017年英伟达公司提出的一种渐进式训练GAN的模型。
或许你已经略微感觉到GAN有一丢丢复杂,嗯……可以理解,GAN网络的训练过程是比较麻烦的,尤其是在训练一些大型复杂的图像时会比较容易崩掉。而PGGAN通过一种渐进式的训练方式可以很好地解决这个问题,它是怎么做的呢[9]?
我们不要一上来就直接“学习”复杂的高清图像,而应该从低清开始,学好了之后再逐步提升图像的分辨率,比如:4x4到8x8,……,最后到1024x1024。
上图展示了从左到右渐进式地提升训练图像的分辨率和网络的层规模,可以看到,刚开始学习的4x4图像比较模糊,随后会逐步变得清晰起来。
当然,PGGAN有了这种相对稳定的训练方式,自然会在一定程度上提升GAN网络生成虚假图像的视觉质量。(3)StyleGAN模型
StyleGAN[10]是2018年英伟达公司提出的一种风格迁移GAN模型,它号称可以自动学习对图像高级语义特征的解耦分离[11]。该怎么理解高级语义特征的解耦分离呢?
以一张人脸图片为例,如人脸的姿势、身份以及发型、发色、斑痕、皱纹、胡须等众多高级语义特征在一定程度上其实都是可以分别控制生成的。“解耦分离”这一点对于提升图像生成的多样性以及人们对“黑盒”神经网络的理解都有着重要的意义。
StyleGAN是如何做到这一点的呢?
利用一个映射网络提前学习一种styleA特征,分别输入到生成器的不同尺度层,A可以用来控制生成风格的全局属性,如人脸的姿势、身份等;
通过高斯噪声获取一种styleB特征,也分别输入到生成器的不同尺度层,B可以用来控制一些次要的随机变化,如发型、发色、斑痕、皱纹、胡须等。
我们能够看出,StyleGAN与以往GAN模型单一输入的生成器结构是不同的,它在生成器中引入了不同风格变量的输入,可以较好的控制不同的高级语义特征。当然,StyleGAN生成的图片质量也有了更进一步的提升。
上图展示了一组风格混合的人脸生成效果,左边一列表示源A图片,上边一行表示源B图片,其余都是对应A与B图片的混合。可以发现,控制风格混合能够让生成人脸产生不同的特征表现。
上图展示了通过控制输入噪声强度,在头发、轮廓和部分背景上能够产生不同的随机变化。左边是StyleGAN生成图片,中间是不同噪声输入在头发位置的局部放大图片,右边是利用超过100次的图像像素计算得到的标准偏差图,高亮部分指出了受噪声影响的位置。
GAN技术也有积极的一面
庞大的GAN家族见证了AI生成虚假图片的发展,同样也加速了这些虚假图片的传播。或许曾经你也见到过许多利用GAN生成图片从事不道德活动的事件,不过,GAN其实也是有它积极的一面的。
数据增强
众所周知,AI技术是建立在大量数据之上的,比如:图像分类、目标检测、语义分割等,它们都需要庞大的数据来帮助AI模型进行充分地学习。但是,在一些特定问题上搜集数据可能是比较困难的,那么,此时GAN技术就可以派上用场,通过现有的数据训练GAN模型,从而泛化生成更多的新数据。
影视创作
一部好的电影通常需要的制作成本和时间周期非常大,比如:从撰写剧本到布设场景,再到演员拍摄以及后期剪辑等等。
实际上,前期GAN技术就可以根据剧本里的文字描述进行学习并快速生成逼真影像,高效地创作出电影脚本,避免一些不必要的投入或者浪费[12]。下图展示了一幅Google在2021年提出的用于文本到图像转换的XMC-GAN模型效果[13]。
当然,在电影宣传方面,IBM也在尝试利用以GAN为主的AI技术,识别电影台词和场景内容,通过快速生成电影宣传片来压缩所需的时间成本。
图像修复
通常在生活中,人们都会遇到一些因年深日久或无意破坏造成的照片残破、难以辨认的情况,以前只能寄希望于专家的修复工作。
现在,利用GAN技术也能快速的还原照片损毁的部分内容,下图展示了一幅2019年提出的EdgeConnect图像修复效果[14],有趣的是它利用两个生成器和两个判别器实现了“先画轮廓,再涂色”的新颖思路。
上图中包含6组损毁照片的修复效果,每组照片从左到右依次是原始图片、损毁图片、绘制轮廓图片、修复图片。
事实上,GAN技术能够创造的价值远远不止这些,比如还可以用于AI游戏设计等更多充满想象力的领域。
篡改识别是需要人工智能的GAN生成的虚假影像有这么多的积极用途,但是总觉得似乎都难以盖过恶意篡改的风头,比如人脸伪造。也许是人们在这方面的关注更多一些,或者说是恶意篡改影像通常带来的危害过于严重吧。
那么,在人工智能时代有没有一些有效的篡改检测方法呢?
答案自然是肯定的,影像篡改识别需要强大的AI技术,而基于深度学习的神经网络正是解决这类图像篡改问题的一把好手。
首先,要怎么解释基于深度学习的神经网络呢?
假设有一个数学运算:y=k*x+b,其中x表示输入值,y表示输出值,k和b表示已知参数,当输入一个x值就能计算出一个y值。
而神经网络可以简单理解为:由无数个这样的计算组成的复杂计算结构,输入一个x值计算出一个y值,这个y值再作为另一个计算的输入,得出下一个输出……
至于深度学习,可以理解为:对一个有着足够“深”层次的计算结构进行训练学习,比如:y=k*x+b,此时k和b都是未知参数,那么就需要搜集一组已知的[x,y]作为训练数据,带入计算式中“拟合”出k和b的数值,这就是所谓的学习过程。
当然,在影像篡改识别问题上,输入x通常指的是一张图片或一个图像块,而乘加运算指的可能是一种卷积运算,k和b是训练好的模型参数,输出y指的是问题的结果,如图像的真假标志或者篡改的具体位置等。
解释了这么多,再来看看真实的例子。现如今,基于深度学习的影像篡改识别方法已经非常多了,下面介绍其中三种比较常见的AI方法。
(1)U-Net模型
U-Net[15]是2015年德国弗莱堡大学的生物信号研究中心提出来的,之所以叫“U-Net”,是因为它的网络结构酷似U型。它最初是一种用于医学图像分割的卷积神经网络模型,不过在影像篡改识别问题上,这个网络也同样适用。
为什么说U-Net模型适用呢?
U-Net是通过U型网络将医学RGB图片直接学习到二值分割图片的,当然,所谓的“分割特征”是根据网络中一系列的卷积运算自动学习的。
要是我们能够搜集一些篡改RGB图片作为训练数据“x”,然后人工标注篡改位置得到二值图片作为训练数据“y”,那么,是不是也可以让U-Net网络来集中精力学习图片篡改区域和真实区域之间的差别,进而训练出网络的模型参数“k”和“b”。
上图展示一组训练数据[x,y],左边是湖中复制粘贴两条小船的篡改图片“x”,右边是人工标注篡改位置的二值图片“y”,这个标签y是为了告诉模型篡改的位置在哪里。
那么,U-Net网络要怎么做呢?
利用U型结构前半部分的卷积和下采样操作,逐层收缩图像数据的分辨率,提取有效的分割特征;
利用U型结构后半部分的卷积和上采样操作,逐层恢复图像数据的分辨率,实现篡改位置的定位。
U-Net模型其实也相当于一种Encoder-Decoder结构,先对图像数据进行编码提取特征,然后再进行解码生成定位数据。
当U-Net网络经过大量的训练数据[x,y]学习后,模型就可以有效地区分出图像中正常区域与篡改区域的像素差异,而之后就算再给它输入一张从未见过的篡改图片,它也能准确地将篡改位置定位识别出来。
(2)双流网络模型
双流网络[16]是2017年马里兰大学帕克分校提出的一种人脸篡改检测模型。
它的设计思想非常简单,为避免专注于一种特定的鉴别特征,而使用了包含两个分支的神经网络,分别提取不同的篡改痕迹。这就好比人们想要确定一朵花,光描述它的形状或许是不够的,如果再加上颜色信息或者生长环境特点呢?会不会更准确些?
这个双流网络的结构具体是怎么设计的[17]呢?
人脸分类流,使用了一个成熟的GoogleNet,通过真实的和篡改的人脸图片训练一个二分类器(真或假),可以捕捉一些如人脸轮廓、五官上的高级篡改痕迹;
块级Triplet流,训练了一个Triplet网络,试图捕捉一些低级隐藏特征,比如:CFA模式、局部噪声残差等相机特征;
双流融合,将高级语义特征与低级噪声特征融合起来,可以有效地提升检测性能。
上图展示了双流网络的效果,第一列为真实人脸,第二列为篡改人脸,第三列为人脸分类流的输出特征,第四列为块级Triplet流的SVM分类得分,而右边两列中的红色表示篡改概率较强、蓝色表示篡改概率较弱。
图中可以看出,捕捉到的两种不同特征都可以在一定程度上记录篡改痕迹,哪怕有一种特征失败(第四列下面两个低级特征),另一种特征也是能够起到作用的。
(3)视频帧间光流模型
视频帧间光流模型[18]是2019年意大利佛罗伦萨大学MICC与帕尔马CNIT联合提出的一种用于视频篡改检测的模型。
众所周知,一个视频通常包含大量的图像帧(以一个10s视频为例,每秒30帧就会有300帧图像),而这些图像帧之间一般都具有高度相关性,比如:帧间内容的相似性、运动物体的连续性等。
那什么是视频帧间光流呢?
当人们观察空间物体时,物体的运动景象会在人眼的视网膜上形成一连串连续变化的影像,这些影像不断“流过”视网膜,就像是一种光的“流”,所以称作光流[19]。
而光流一般是指空间运动物体在观察成像平面上的像素运动的瞬时速度,它是由于空间物体本身的移动或相机的运动产生的。
对于视频帧间光流,可以简单理解为:在一个视频中,三维空间物体的运动会体现在二维图像帧上产生的一个位置变化,当运动间隔极小时,这种位置变化可以被视为一种描述运动物体瞬时速度的二维矢量。
上图左边展示了一个人说话的视频帧,说话引起嘴巴的运动会在局部产生光流变化,而右边是一个篡改视频的图像帧,可以看出,篡改并不具备这种光流变化特征。
当然,这种反映物体运动瞬时速度的光流,是可以根据视频中连续帧产生的位置变化以及图像帧的时间间隔估计出来的。实际上,这个视频帧间光流模型就是一种帧间光流结合CNN进行视频篡改识别的方法。
正如上图Opticalflow,模型先利用颜色编码方法[20]将光流转换成包含3个通道的图像数据,其中,像素的颜色由光流矢量方向与水平轴的夹角决定,而颜色的饱和度由运动强度决定。最后,光流特征会基于CNN实现篡改检测识别。
结束语人工智能时代,是一个影像篡改识别技术革新的时代。
在篡改伪造方面,除了独占鳌头的GAN技术以外,实际上还有一些如变分编码器VAE(VariationalAuto-Encoder)等方法,都能产生以假乱真的影像效果。若这些篡改技术被恶意利用的话,将不由得令人生畏。
相比以前的检测识别,这个时代的特征提取在一定程度上解放了人工是一大进步(由神经网络代劳),但是从解决问题方面来讲仍然尚显不足,如何进一步有效鉴别虚假影像,估计还会在很长一段时间内给人们带来严峻的挑战。
参考文献
[1]https://apnews.com/article/ap-top-news-artificial-intelligence-social-platforms-think-tankspolitics-bc2f19097a4c4fffaa00de6770b8a60d
[2]https://zhuanlan.zhihu.com/p/69124138
[3]https://www.sohu.com/a/133490643_308467
[4]https://baijiahao.baidu.com/s?id=1615737087826316102&wfr=spider&for=pc
[5]https://blog.csdn.net/hello_next_day/article/details/96970888
[6]https://www.datasciencecentral.com/profiles/blogs/with-images-know-everything-about-gans-generative-adversarial
[7]Jun-YanZhu,TaesungPark,PhillipIsola,andAlexeiAEfros.UnpairedImage-to-imageTranslationUsingCycle-consistentAdversarialNetworks.InProc.ofICCV2017.
[8]T.Karras,T.Aila,S.Laine,andJ.Lehtinen.ProgressivegrowingofGANsforimprovedquality,stability,andvariation.CoRR,abs/1710.10196,2017.
[9]https://zhuanlan.zhihu.com/p/93748098
[10]T.Karras,S.Laine,andT.Aila.AStyle-basedGeneratorArchitectureforGenerativeAdversarialNetworks.InProc.ofCVPR2018.
[11]https://zhuanlan.zhihu.com/p/353858823
[12]http://www.woshipm.com/ai/1949179.html
[13]H.Zhang,J.Koh,J.Baldridge,H.Lee,andY.Yang,“Cross-ModalContrastivelearningforText-to-ImageGeneration”.Arxiv:2101.04702v4.2021.
[14]K.Nazeri,E.Ng,T.Joseph,F.Qureshi,andM.Ebrahimi,“EdgeConnect:GenerativeImageInpaintingwithAdversarialEdgeLearning”.Arxiv:1901.00212v3.2019.
[15]RonnebergerO,FischerP,BroxT.U-Net:convolutionalnetworksforbiomedicalimagesegmentation[C].InternationalConferenceonMedicalImageComputing&Computer-assistedIntervention.IEEE,2015:234-241.
[16]P.Zhou,X.Han,V.Morariu,andL.Davis,“Two-streamneuralnetworksfortamperedface.detection,”inIEEEComputerVisionandPatternRecognitionWorkshops,2017.
[17]https://zhuanlan.zhihu.com/p/92474937
[18]AmeriniI,GalteriL,CaldelliR,BimboAD.DeepfakeVideoDetectionthroughOpticalFlowbasedCNN[C].ProceedingsoftheIEEEInternationalConferenceonComputerVisionWorkshops.2019.
[19]https://blog.csdn.net/qq_41368247/article/details/82562165
[20]https://www.pianshen.com/article/55811037530/
云上攻防往期推荐:
影像篡改与识别(一):胶片时代
影像篡改与识别(二):数字时代
模式识别与人工智能审稿周期
《模式识别与人工智能》(月刊)创刊于1989年是由国家智能计算机研究开发中心和中国科学院合肥智能机械研究所共同主办、科学出版社出版的性期刊本刊主要发表和报道模式识,模式识别与人工智能属于月刊审稿周期在13个月左右具体周期以杂志社公布为准。前往《模式识别与人工智能》首页模式识别与人工智能简介《模式识别与人工智能》(,这个期刊不要投稿了审稿周期6个月是合肥工业大学智能研究所的专刊而且要求打印邮寄投稿现。希望《模式识别与人工智能审稿周期》一文对您能有所帮助!
模式识别能力是人工智能必须具备的能力吗担任下列专家委员会委员:(1)中国计算机学会杰出会员、资深会员(2)中国计算机学会人工智能与模式识别专委会委员(3)中国计算机学会多值逻辑与模糊逻辑专委会常委委员(4)中国人工智能学会知识工程与分布式智能专业委员会委员(5)中国人工智能学会机器学学习专业委员会委员(6)中国人工智能学会粗糙集与软计算专业委员会常委委员(7)江苏省计算机学会人工智能专业委员会常委委员(8)江苏省计算机学会大数据专家委员会委员担任下列国际期刊编委:(1)《IJCI:InternationalJournalofCollaborativeIntelligence》主编(2)《JDCTA:JournalofDigitalContentsTechnologyandApplication》副主编(3)《JCIT:JournalofConvergenceInformationTechnology》编委(4)《AISS:AdvancesinInformationSciencesandServiceSciences》编委(5)《IJACT:InternationalJournalofAdvancementsinComputingTechnology》编委(6)《JCP:JournalofComputers》编委(7)《JSW:JournalofSoftware》编委(8)《IPL:CInformationProcessingLetters》编委(9)《AMIS:AppliedMathematics&InformationSciences》编委担任下列国际期刊特约编辑:(1)《AppliedMathematics&InformationSciences》特约编辑(GuestEditor)(2)《INFORMATION》的特约编辑(GuestEditor)(3)《Neurocpmputing》特约编辑(GuestEditor)(4)《TheScientificWorldJournal》的特约编辑(GuestEditor)(5)《MathematicalProblemsinEngineering》的特约编辑(GuestEditor)(6)《JournalofComputers(JCP)》特约编辑(GuestEditor)(7)《JournalofSoftware(JSW)》特约编辑(GuestEditor)(8)《JournalofNetworks(JNW)》的特约编辑(GuestEditor)担任下列国际SCI源刊特约审稿专家:(1)《JournalofInformationScience》(2)《AppliedSoftComputing》(3)《InformationSciences》(4)《ComputationalStatisticsandDataAnalysis》(5)《IEEETransactionsonFuzzySystems》(6)《InternationalJournalofPatternRecognitionandArtificialIntelligence》(7)《Neurocpmputing》(8)《SoftComputing》(9)《PatternRecognition》(10)《PatternRecognitionLetters》担任下列国内核心期刊审稿专家:(1)《计算机学报》(2)《软件学报》(3)《计算机研究与发展》(4)《中国科学》(5)《电子学报》(6)《模式识别与人工智能》(7)《计算机科学》(8)《小型微型计算机系统》(9)《计算机应用研究》(10)《计算机工程与科学》(11)《微电子学与计算机》担任下列国内外会议PCChairorMember:(1)全国智能信息处理学术会议(NCIIP)程序委员会主席(2)江苏省人工智能学术会议程序委员会主席(3)202220222022年信息、智能与计算国际研讨会主席(4)粒度计算国际会议程序委员会委员(5)智能信息处理国际会议程序委员会委员(6)中国机器学习会议程序委员会委员(7)中国粗糙集与软计算、中国粒计算、中国Web智能联合会议程序委员会委员等。丁世飞.研究方向模式识别与人工智能机器学习与数据挖掘粗糙集与软计算粒度计算感知与认知计算丁世飞.学术成果已完成的项目:1.2001-2003参加并完成国家自然科学基金项目“信息模式识别理论及其在地学中的应用”的研究(项目编号:40074001)2.1999-2001主持完成省教育厅项目“信息模式识别理论及其在害虫预测预报中的应用研究”3.1998-2000主持完成省教育厅项目“农作物病虫害现代生物数学预报技术研究”4.2005-2006主持中国博士后科学基金项目“视感知学习理论及其应用研究”(No.2005037439)5.2004-2006主持山东省作物生物学国家重点实验室开放基金项目“山东省玉米病虫害数字模式分类的研究”(No.20040010)6.2006-2008参加国家自然科学基金项目“多元数据的信息模式研究与地学数据分析”(No.40574001)7.2006-2022参加国家863高技术项目“基于感知机理的智能信息处理技术”(No.2006AA01Z128)8.2007-2022主持中国科学院智能信息处理重点实验室开放基金项目“基于认知的模式特征分析理论与算法研究”(No.IIP2006-2)9.2022-2022主持江苏省基础研究计划(自然科学基金)项目“面向高维复杂数据的粒度知识发现研究”(No.BK2022093)10.2022-2022主持北京邮电大学智能通信软件与多媒体北京市重点实验室开放课题“粒度SVM方法与应用研究”11.2022-2022参加国家自然科学基金项目“分布式计算环境下的并行数据挖掘算法与理论研究”(No.60975039)12.2022-2022主持中国科学院智能信息处理重点实验室开放基金项目“高维复杂数据的粒度支持向量机理论与算法研究”(No.IIP2022-1)目前正在进行的项目:1.2022.1-2022.12主持国家重点基础研究发展计划(973计划)课题“脑机协同的认知计算模型”(No.2022CB329502)2.2022.1-2022.12主持国家自然科学基金项目“面向大规模复杂数据的多粒度知识发现关键理论与技术研究”(No.61379101)3.2022.1-2022.12参加国家自然科学基金项目“多元空间的模式分析方法研究及其在测量中的应用”(No.41074003)已出版著作:1.丁世飞,靳奉祥,赵相伟著.现代数据分析与信息模式识别.北京:科学出版社,20222.丁世飞编著.人工智能.北京:清华大学出版社,20223.史忠植著.知识工程.北京:清华大学出版社,2022(丁世飞等参编)4.史忠植著.神经网络,北京:高等教育出版社,2022(丁世飞,许新征等参编)已发表论文:2022年[1]ShifeiDing,HongjieJia,LiwenZhang,FengxiangJin.Researchofsemi-supervisedspectralclusteringalgorithmbasedonpairwiseconstraints.NeuralComputingandApplications,2022,24(1):211-219.(SCI,EI)[2]ShifeiDing,HongjieJia,JinrongChen,FengxiangJin.GranularNeuralNetworks.ArtificialIntelligenceReview,2022,41(3):373-384.(SCI,EI)[3]ShifeiDing,HuajuanHuang,XinzhengXu,JianWang.PolynomialSmoothTwinSupportVectorMachines.AppliedMathematics&InformationSciences,2022,8(4)(SCI,EI)[4]ShifeiDing,ZhongzhiShi.TrackonIntelligentComputingandApplications.Neurocomputing,2022,vol.130,1-2.(SCI,EI)[5]ShifeiDing,XiaopengHua.Recursiveleastsquaresprojectiontwinsupportvectormachines.Neurocomputing,2022,vol.130,3-9.(SCI,EI)[6]花小朋,丁世飞.局部保持对支持向量机.计算机研究与发展,2022,51(3)(EI)2022年[1]XinzhengXu,ShifeiDing,WeikuanJia,GangMa,FengxiangJin.ResearchofassemblingoptimizedclassificationalgorithmbyneuralnetworkbasedonOrdinaryLeastSquares(OLS).NeuralComputingandApplications,2022,22(1):187-193.(SCI,EI)[2]ShifeiDing,HuiLi,ChunyangSu,JunzhaoYu,FengxiangJin.Evolutionaryartificialneuralnetworks:areview.ArtificialIntelligenceReview,2022,39(3):251-260.(SCI,EI)[3]LiHui,DingShifei.ResearchofIndividualNeuralNetworkGenerationandEnsembleAlgorithmBasedonQuotientSpaceGranularityClustering.AppliedMathematics&InformationSciences,2022,7(2):701-708.(SCI,EI)[4]HuiLi,ShifeiDing.ResearchandDevelopmentofGranularNeuralNetworks.AppliedMathematics&InformationSciences,2022,7(3):1251-1261.(SCI,EI)[5]ShifeiDing,BingjuanQi,HongjieJia,HongZhu.ResearchofSemi-supervisedSpectralClusteringBasedonConstraintsExpansion.NeuralComputingandApplications,2022,22(Suppl1):405-410.(SCI,EI)[6]ShifeiDing,YananZhang,JinrongChen,WeikuanJia.ResearchonUsingGeneticAlgorithmstoOptimizeElmanNeuralNetworks.NeuralComputingandApplications,2022,23(2):293-297.(SCI,EI)[7]Hua-juanHuang,Shi-feiDing,Zhong-zhiShi.Primalleastsquarestwinsupportvectorregression.JournalofZhejiangUniversitySCIENCEC,2022,14(9):722-732.(SCI,EI)[8]ShifeiDing,YouzhenHan,JunzhaoYu,YaxiangGu.Afastfuzzysupportvectormachinebasedoninformationgranulation.NeuralComputingandApplications,2022,23(suppl1):S139-S144(SCI,EI)[9]黄华娟,丁世飞.多项式光滑孪生支持向量回归机.微电子学与计算机,2022,30(10):5-8.[10]丁世飞,黄华娟.加权光滑CHKS孪生支持向量机.软件学报,2022,24(11):2548-2557.[11]贾洪杰,丁世飞.基于邻域粗糙集约减的谱聚类算法.南京大学学报.自然科学版,2022,49(5):619-627.[12]HongZhu,ShifeiDing,XinzhengXu,LiXu.AparallelattributereductionalgorithmbasedonAffinityPropagationclustering.JournalofComputers,2022,8(4):990-997.(EI)[13]HongZhu,ShifeiDing,HanZhao,LinaBao.AttributegranulationbasedonattributediscernibilityandAPalgorithm.JournalofSoftware,8(4):834-841.(EI)[14]YananZhang,ShifeiDing,XinzhengXu,HanZhao,WanqiuXing.AnAlgorithmResearchforPredictionofExtremeLearningMachinesBasedonRoughSets.JournalofComputers,2022,8(5):1335-1342.(EI)[15]HuiLi,ShifeiDing.ANovelNeuralNetworkClassificationModelbasedonCoveringandAffinityPropagationClusteringAlgorithm.JournalofComputationalInformationSystems,2022,9(7):2565-2573.(EI)[16]ShifeiDing,JunzhaoYu,HuajuanHuang,HanZhao.TwinSupportVectorMachinesBasedonParticleSwarmOptimization.JournalofComputers,2022,8(9):2296-2303.(EI)[17]HuajuanHuang,ShifeiDing,FulinWu.InvasiveWeedOptimizationAlgorithmforOptimizatingtheParametersofMixedKernelTwinSupportVecotrMachines.JournalofComputers,2022,8(8):2077-2084.(EI)[18]HongjieJia,ShifeiDing,HongZhu,FulinWu,LinaBao.AFeatureWeightedSpectralClusteringAlgorithmBasedonKnowledgeEntropy.JournalofSoftware,2022,8(5):1101-1108.(EI)[19]TongfengSun,ShifeiDing,ZihuiRenNovelImageRecognitionBasedonSubspaceandSIFT.JournalofSoftware,2022,8(5):1109-1116.(EI)[20]ShifeiDing,FulinWu,RuNie,JunzhaoYu,HuajuanHuang.TwinSupportVectorMachinesBasedonQuantumParticleSwarmOptimization.JournalofSoftware,2022,8(7):1743-1750.(EI)[21]DingShifei,ZhangYanan,XuXinzheng,BaoLina.Anovelextremelearningmachinebasedonhybridkernelfunction.JournalofComputers,2022,8(8):2110-2117.(EI)[22]ShifeiDing,HuajuanHuang,RuNie.ForecastingMethodofStockPriceBasedonPolynomialSmoothTwinSupportVectorRegression.LectureNotesinComputerScience,2022,Volume7995,2022,pp96-105.(EI)2022年[1]ShifeiDing,HongZhu,WeikuanJia,ChunyangSu.Asurveyonfeatureextractionforpatternrecognition.ArtificialIntelligenceReview,2022,37(3):169-180.(SCI,EI)[2]ShifeiDing,LiXu,ChunyangSu,FengxiangJin.AnoptimizingmethodofRBFneuralnetworkbasedongeneticalgorithm.NeuralComputingandApplications,2022,21(2):333-336.(SCI,EI)[3]ShifeiDing,BingjuanQi.ResearchOfgranularsupportvectormachine.ArtificialIntelligenceReview,2022,38(1):1-7.(SCI,EI)[4]Xin-zhengXU,Shi-feiDING,Zhong-zhiSHI,HongZHU.Optimizingradialbasisfunctionneuralnetworkbasedonroughsetsandaffinitypropagationclusteringalgorithm.JournalofZhejiangUniversity-SCIENCEC(Computers&Electronics),2022,13(2):131-138.(SCI,EI)[5]BingjuanQi,ShifeiDing,HuajuanHuang,JunzhaoYu.ASupportVectorExtractionMethodbasedonClusteringMembership.InternationalJournalofDigitalContentTechnologyanditsApplications,2022,6(13):1-10.(EI)[6]ChangTong,Shi-feiDing,HongZhu,HongjieJia.AGranularityAttributeReductionAlgorithmBasedonBinaryDiscernibilityMatrix.InternationalJournalofAdvancementsinComputingTechnology,2022,4(12):213-221.(EI)[7]XiaopengHua,ShifeiDing.MatrixPatternBasedProjectionTwinSupportVectorMachines.InternationalJournalofDigitalContentTechnologyanditsApplications,2022,6(20):172-181.(EI)[8]JunzhaoYu,ShifeiDing,HuajuanHuang.TwinSupportVectorMachinesBasedonRoughSets.InternationalJournalofDigitalContentTechnologyanditsApplications,2022,6(20):493-500.(EI)[9]HuajuanHuang,ShifeiDing.ANovelGranularSupportVectorMachineBasedonMixedKernelFunction.InternationalJournalofDigitalContentTechnologyanditsApplications,2022,6(20):484-492.(EI)[10]ShifeiDing(Guesteditorial).SpecialIssue:AdvancesinInformationandComputers,JournalofComputers,2022,7(10):2351-2353.(EI)[11]ShifeiDing(Guesteditorial).SpecialIssue:AdvancesinInformationandNetworks.JournalofNetworks,2022,7(7):1007-1008.(EI)(被EI收录,收录号:20223415368412)[12]ShifeiDing(Guesteditorial).SpecialIssue:AdvancesinInformationandNetworks.JournalofSoftware,7(9):1923-1924.(EI)[13]ShifeiDing,ZhentaoYu(Guesteditorial).SpecialIssue:AdvancesinComputersandElectronicsEngineering.JournalofComputers,2022,7(12):2851-2852.(EI)[14]丁世飞,朱红,许新征,史忠植.基于熵的模糊信息测度研究.计算机学报,2022.35(4):796-801(EI).[15]朱红,丁世飞,许新征.基于改进属性约简的细粒度并行AP聚类算法.计算机研究与发展,2022,49(12):2638-2644(EI)[16]许新征,丁世飞,史忠植,赵作鹏,朱红.一种基于QPSO的脉冲耦合神经网络参数的自适应确定方法.模式识别与人工智能,2022,25(6):909-915(EI)[17]马刚,丁世飞,史忠植.基于极速学习的粗糙RBF神经网络.微电子学与计算机,2022,29(8):9-14.2022年[1]ShifeiDing,WeikuanJia,ChunyangSu,etal.ResearchofNeuralNetworkAlgorithmBasedonFactorAnalysisandClusterAnalysis.NeuralComputingandApplications,2022,20(2):297-302(SCI,EI).[2]ShifeiDing,ChunyangSu,JunzhaoYu.AnOptimizingBPNeuralNetworkAlgorithmBasedonGeneticAlgorithm.ArtificialIntelligenceReview,2022,36Algorithm.ArtificialIntelligenceReview,2022,36(2):153-162(SCI,EI).[3]ShifeiDing,WeikuanJia,ChunyangSu,etal.ResearchofNeuralNetworkAlgorithmBasedonFactorAnalysisandClusterAnalysis.NeuralComputingandApplications,2022,20(2):297-302(SCI,EI).[4]ShifeiDing,ChunyangSu,JunzhaoYu.AnOptimizingBPNeuralNetworkAlgorithmBasedonGeneticAlgorithm.ArtificialIntelligenceReview,2022,36(2):153-162(SCI,EI).[5]DingShifei,QianJun,XuLi,ZhaoXiangwei,JinFengxiang.AClusteringAlgorithmBasedonInformationVisualization.InternationalJournalofDigitalContentTechnologyanditsApplications,2022,5(1):26-31(EI).[6]ShifeiDing,YuZhang,LiXu,JunQian.AFeatureSelectionAlgorithmBasedonTolerantGranule.JournalofConvergenceInformationTechnology,2022,6(1):191-195(EI).[7]DingShifei,LiJianying,XuLi,QianJun.ResearchProgressofGranularComputing(GrC).InternationalJournalofDigitalContentTechnologyanditsApplications,2022,5(1):162-172(EI).[8]DingShifei,QianJun,XuLi,ZhaoXiangwei,JinFengxiang.AClusteringAlgorithmBasedonInformationVisualization.InternationalJournalofDigitalContentTechnologyanditsApplications,2022,5(1):26-31(EI).[9]ShifeiDing,YuZhang,LiXu,JunQian.AFeatureSelectionAlgorithmBasedonTolerantGranule.JournalofConvergenceInformationTechnology,2022,6(1):191-195(EI).[10]DingShifei,LiJianying,XuLi,QianJun.ResearchProgressofGranularComputing(GrC).InternationalJournalofDigitalContentTechnologyanditsApplications,2022,5(1):162-172(EI).[11]ShifeiDING,JinrongCHEN,XinzhengXU,JianyingLI.RoughNeuralNetworks:Areview.JournalofComputationalInformationSystems,2022,7(7):2338-2346(EI).[12]ShifeiDing,XinzhengXu,HongZhu.StudiesonOptimizationAlgorithmsforSomeArtificialNeuralNetworksBasedonGeneticAlgorithm(GA).JournalofComputers,2022,6(5):939-946(EI).[13]ShifeiDING,YaxiangGU.AFuzzySupportVectorMachineAlgorithmwithDualMembershipBasedonHypersphere.JournalofComputationalInformationSystems,2022,7(6):2028-2034(EI).[14]丁世飞,齐丙娟,谭红艳.支持向量机理论与算法研究综述.电子科技大学学报,2022,40(1):2-10(EI).[15]贾伟宽,丁世飞,许新征,苏春阳,史忠植.基于Shannon熵的因子特征提取算法研究.模式识别与人工智能,2022,24(3):327-331(EI).2022年以前[1]ShifeiDing,WeikuianJia,XinzhengXu,etal.NeuralNetworksAlgorithmBasedonFactorAnalysis.LectureNotesinComputerScience,Vol.6063/2022,pp.319-324(EI).[2]ShifeiDing,WeikuanJia,ChunyangSu,etal.AnimprovedBPNeuralNetwokAlgorithmBasedonFactorAnalysis.JournalofConvergenceInformationTechnology,2022,5(4):103-108(EI).[3]ShifeiDing,LiXu,HongZhu,LiwenZhang.ResearchandProgressofClusterAlgorithmsbasedonGranularComputing.InternationalJournalofDigitalContentTechnologyanditsApplications,2022,4(5):96-104(EI).[4]ShifeiDing,LiXu,ChunyangSu,HongZhu.UsingGeneticAlgorithmstoOptimizeArtificialNeuralNetworks,JournalofConvergenceInformationTechnology,2022,5(8):54-62(EI).[5]ShifeiDing,YongpingZhang,XiaofengLeietal.Researchonaprincipalcomponentsdecisionalgorithmbasedoninformationentropy.JournalofInformationScience,2022,35(1):120-127(SCI,EI).[6]ShifeiDing,ChunyangSu,WeikuanJia,FengxiangJin,ZhongzhiShi.SeveralProgressofSemi-SupervisedLearning.JournalofInformation&ComputationalScience,2022,6(1):211-217(EI).[7]Shi-FeiDing,Shi-XiongXia,Feng-XiangJin,Zhong-ZhiShi.NovelFuzzyInformationProximityMeasures.JournalofInformationScience,2007,33(6):678-685(SCI,EI).[8]DingShifei,ShiZhongzhi.SupervisedFeatureExtractionAlgorithmBasedonImprovedPolynomialEntropy.JournalofInformationScience,32(4):309-315,2006.8(SCI,EI)[9]DingShifei,ShiZhongzhi.StudiesonIncidencePatternRecognitionBasedonInformationEntropy.JournalofInformationScience,31(6):497-502,2005.12(SCI,EI).[10]DingShifei,JinFengxiang.InformationcharacteristicsofdiscreteK-Ltransformbasedoninformationentropy.TransactionsNonferrousMetalsSocietyofChina,2003.6(SCI,EI).[11]ShifeiDing,ZhongzhiShi,XiaoyingWang.SymmetricCrossEntropyandInformationFeatureCompressionAlgorithm.JournalofComputationalInformationSystems,1(2):247-252,2005.6(EI).[12]DingShifei,ShiZhongzhi.StudiesonInformationClusteringAlgorithmBasedonMID.ChineseJournalofElectronics,Vol.15No.4A,pp.918-920,2006(SCI,EI).[13]DingShifei,ShiZhongzhi.Divergence-basedSupervisedInformationFeatureCompressionAlgorithm.LectureNotesinComputerScience,Vol.3971/2006,pp.1421-1426(SCI,EI).[14]ShifeiDing,ZhongzhiShi.ANovelSupervisedInformationFeatureCompressionAlgorithm.LectureNotesinComputerScience,Vol.3991/2006,pp.777-780(SCI,EI).[15]ShifeiDing,ZhongzhiShi,YunchengWang,andFengxiangJin.OptimizationFeatureCompressionandFNNRealization.LectureNotesinControlandInformationScience,Vol.344/2006,pp.951-956(SCI,EI).[16]ShifeiDing,ZhongzhiShi,andFengxiangJin.SupervisedFeatureExtractionAlgorithmBasedonContinuousDivergenceCriterion.LectureNotesinArtificialInteligence,Vol.4114/2006,pp.268-277(SCI,EI).[17]丁世飞,贾伟宽,许新征,苏春阳.基于PLS的Elman神经网络算法研究.电子学报,2022,38(2A):71-75(EI).[18]许新征,丁世飞,史忠植,贾伟宽.图像分割的新理论何新方法.电子学报,2022,38(2A):76-82(EI).[19]丁世飞,靳奉祥.Fuzzy-Grey信息集成模式识别算法的研究.计算机辅助设计与图形学学报,2004,16(3):275-278(EI).[20]丁世飞,靳奉祥,史忠植.基于PLS的信息特征压缩算法.计算机辅助设计与图形学学报,2005,17(2):368-371(EI).[21]丁世飞,史忠植.基于广义距离的直接聚类算法研究.计算机研究与发展,2007,44(4):674-679(EI).[22]丁世飞,黄华娟.加权光滑CHKS孪生支持向量机.软件学报,2022,24(11):2548-2557(EI).丁世飞,获奖情况1.2007年获全国优秀博士学位论文提名奖2.2006年获山东省优秀博士学位论文奖3.2007年获山东高等学校优秀科研成果二等奖,第1位4.2006年获中国科学院计算技术研究所优秀博士后出站报告4.2004年获山东高等学校优秀科研成果二等奖,第1位5.2001年获山东省省级教学成果三等奖,第4位
模式识别与人工智能期刊投稿难度本书广泛吸取统计学、神经网络、数据挖掘、机器学习、人工智能、群智能计算等学科的先进思想和理论,将其应用到模式识别领域中;以一种新的体系,系统、全面地介绍模式识别的理论、方法及应用。全书共分为13章,内容包括:模式识别概述,特征的选择与提取,模式相似性测度,贝叶斯分类器设计,判别函数分类器设计,神经网络分类器设计(BP神经网络、径向基函数冲经网络、自组织竞争神经网络、慨率神经网络、对向传播神经网络、反馈型神经网络),决策树分类器,粗糙集分类器,聚类分析,模糊聚类分析,遗传算法聚类分析,蚁群算法聚类分析,粒子群算法聚类分析。
模式识别与人工智能期刊影响因子近十多年来,随着算法与控制技术的不断提高,人工智能正在以爆发式的速度蓬勃发展。并且,随着人机交互的优化、大数据的支持、模式识别技术的提升,人工智能正逐渐的走入我们的生活。本文主要阐述了人工智能的发展历史、发展近况、发展前景以及应用领域。
人工智能(ArtificialIntelligence)简称AI,是麦卡赛等人在1956年的一场会议时提出的概念。
近几年,在“人机大战”的影响下,人工智能的话题十分的火热,特别是在“阿尔法狗”(AlphaGo)战胜李世石后,人们一直在讨论人是否能“战胜”自己制造的有着大数据支持的“人工智能”,而在各种科幻电影的渲染中,人工智能的伦理性、哲学性的问题也随之加重。
人工智能是一个极其复杂又令人激动的事物,人们需要去了解真正的人工智能,因此本文将会对什么是人工智能以及人工智能的发展历程、未来前景和应用领域等方面进行详细的阐述。
人们总希望使计算机或者机器能够像人一样思考、像人一样行动、合理地思考、合理地行动,并帮助人们解决现实中实际的问题。而要达到以上的功能,则需要计算机(机器人或者机器)具有以下的能力:
自然语言处理(naturallanguageprocessing)
知识表示(knowledgerepresentation)
自动推理(automatedreasoning)
机器学习(machinelearning)
计算机视觉(computervision)
机器人学(robotics)
这6个领域,构成了人工智能的绝大多数内容。人工智能之父阿兰·图灵(AlanTuring)在1950年还提出了一种图灵测试(TuringTest),旨在为计算机的智能性提供一个令人满意的可操作性定义。
关于图灵测试,是指测试者在与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。进行多次测试后,如果有超过30%的测试者不能确定出被测试者是人还是机器,那么这台机器就通过了测试,并被认为具有人类智能。
图灵测试是在60多年前就已经提出来了,但是在现在依然适用,然而我们现在的发展其实远远落后于当年图灵的预测。
在2022年6月8日,由一个俄罗斯团队开发的一个模拟人类说话的脚本——尤金·古斯特曼(EugeneGoostman)成为了首个通过图灵测试的“计算机”,它成功的使人们相信了它是一个13岁的小男孩,该事件成为了人工智能发展的一个里程碑。
在2022年,《Science》杂志报道称,人工智能终于能像人类一样学习,并通过了图灵测试。一个AI系统能够迅速学会写陌生文字,同时还能识别出非本质特征,这是人工智能发展的一大进步。
①1943-1955年人工智能的孕育期
人工智能的最早工作是WarrenMcCulloch和WalterPitts完成的,他们利用了基础生理学和脑神经元的功能、罗素和怀特海德的对命题逻辑的形式分析、图灵的理论,他们提出了一种神经元模型并且将每个神经元叙述为“开”和“关”。人工智能之父图灵在《计算机与智能》中,提出了图灵测试、机器学习、遗传算法等各种概念,奠定了人工智能的基础。
②1956年人工智能的诞生
1956年的夏季,以麦卡锡、明斯基、香农、罗切斯特为首的一批科学家,在达特茅斯组织组织了一场两个月的研讨会,在这场会议上,研究了用机器研究智能的一系列问题,并首次提出了“人工智能”这一概念,人工智能至此诞生。
③1952-1969年人工智能的期望期
此时,由于各种技术的限制,当权者人为“机器永远不能做X”,麦卡锡把这段时期称作“瞧,妈,连手都没有!”的时代。
后来在IBM公司,罗切斯特和他的同事们制作了一些最初的人工智能程序,它能够帮助学生们许多学生证明一些棘手的定理。
1958年,麦卡锡发表了“ProgramwithCommonSense”的论文,文中他描述了“AdviceTaker”,这个假想的程序可以被看作第一个人工智能的系统。
④1966-1973人工智能发展的困难期
这个时期,在人工智能发展时主要遇到了几个大的困难。
第一种困难来源于大多数早期程序对其主题一无所知;
第二种困难是人工智能试图求解的许多问题的难解性。
第三种困难是来源于用来产生智能行为的基本结构的某些根本局限。
⑤1980年人工智能成为产业
此时期,第一个商用的专家系统开始在DEC公司运转,它帮助新计算机系统配置订单。1981年,日本宣布了“第五代计算机”计划,随后美国组建了微电子和计算机技术公司作为保持竞争力的集团。随之而来的是几百家公司开始研发“专家系统”、“视觉系统”、“机器人与服务”这些目标的软硬件开发,一个被称为“人工智能的冬天”的时期到来了,很多公司开始因为无法实现当初的设想而开始倒闭。
⑥1986年以后
1986年,神经网络回归。
1987年,人工智能开始采用科学的方法,基于“隐马尔可夫模型”的方法开始主导这个领域。
1995年,智能Agent出现。
2001年,大数据成为可用性。
在1997年时,IBM公司的超级计算机“深蓝”战胜了堪称国际象棋棋坛神话的前俄罗斯棋手GarryKasparov而震惊了世界。
在2022年时,Google旗下的DeepMind公司研发的阿尔法围棋(AlphaGo)以4:1的战绩战胜了围棋世界冠军、职业九段棋手李世石,从而又一次引发了关于人工智能的热议,随后在2022年5月的中国乌镇围棋峰会上以3:0的战绩又战胜了世界排名第一的柯洁。
2022年1月6日,百度的人工智能机器人“小度”在最强大脑的舞台上人脸识别的项目中以3:2的成绩战胜了人类“最强大脑”王峰。1月13日,小度与“听音神童”孙亦廷在语音识别项目中以2:2的成绩战平。随后又在1月21日又一次在人脸识别项目中以2:0的成绩战胜了“水哥”王昱珩,更在最强大脑的收官之战中战胜了人类代表队的黄政与Alex。
2022年9月1日,百度李彦宏发布了“百度大脑”计划,利用计算机技术模拟人脑,已经可以做到孩子的智力水平。李彦宏阐述了百度大脑在语音、图像、自然语言处理和用户画像领域的前沿进展。目前,百度大脑语音合成日请求量2.5亿,语音识别率达97%。
“深度学习”是百度大脑的主要算法,在图像处理方面,百度已经成为了全世界的最领先的公司之一。
百度大脑的四大功能分别是:语音、图像,自然语言处理和用户画像。
语音是指具有语音识别能力与语音合成能力,图像主要是指计算机视觉,自然语言处理除了需要计算机有认知能力之外还需要具备推理能力,用户画像是建立在一系列真实数据之上的目标用户模型。
工业4.0是由德国提出来的十大未来项目之一,旨在提升制造业的智能化水平,建立具有适应性、资源效率及基因工程学的智慧工厂。
工业4.0已经进入中德合作新时代,有明确提出工业生产的数字化就是“工业4.0”对于未来中德经济发展具有重大意义。
工业4.0项目主要分为三大主题:智能工厂、智能生产、智能物流。
它面临的挑战有:缺乏足够的技能来加快第四次工业革命的进程、企业的IT部门有冗余的威胁、利益相关者普遍不愿意改变。
但是随着AI的发展,工业4.0的推进速度将会大大推快。
人工智能可以渗透到各行各业,领域很多,例如:
①无人驾驶:它集自动控制、体系结构、人工智能、视觉计算等众多技术于一体,是计算机科学、模式识别和智能控制技术高度发展的产物世界上最先进的无人驾驶汽车已经测试行驶近五十万公里,其中最后八万公里是在没有任何人为安全干预措施下完成的。英国政府也在资助运输研究实验室(TRL),它将在伦敦测试无人驾驶投递车能否成功用于投递包裹和其他货物,使用无人驾驶投递车辆将成为在格林威治实施的众多项目之一。
②语音识别:该技术可以使让机器知道你在说什么并且做出相应的处理,1952年贝尔研究所研制出了第一个能识别10个英文数字发音的系统。在国外的应用中,苹果公司的siri一直处于领先状态,在国内,科大讯飞在这方面的发展尤为迅速。
③自主规划与调整:NASA的远程Agent程序未第一个船载自主规划程序,用于控制航天器的操作调度。
④博弈:人机博弈一直是最近非常火热的话题,深度学习与大数据的支持,成为了机器“战胜”人脑的主要方式。
⑤垃圾信息过滤:学习算法可以将上十亿的信息分类成垃圾信息,可以为接收者节省很多时间。
⑥机器人技术:机器人技术可以使机器人代替人类从事某些繁琐或者危险的工作,在战争中,可以运送危险物品、炸弹拆除等。
⑦机器翻译:机器翻译可以将语言转化成你需要的语言,比如现在的百度翻译、谷歌翻译都可以做的很好,讯飞也开发了实时翻译的功能。
⑧智能家居:在智能家居领域,AI或许可以帮上很大的忙,比如模式识别,可以应用在很多家居上使其智能化,提高人机交互感,智能机器人也可以在帮人们做一些繁琐的家务等。
专家系统是一个智能计算机程序系统,其内部含有大量的某个领域专家水平的知识与经验,能够利用人类专家的知识和解决问题的方法来处理该领域问题。也就是说,专家系统是一个具有大量的专门知识与经验的程序系统,它应用人工智能技术和计算机技术,根据某领域一个或多个专家提供的知识和经验,进行推理和判断,模拟人类专家的决策过程,以便解决那些需要人类专家处理的复杂问题,简而言之,专家系统是一种模拟人类专家解决领域问题的计算机程序系统。
知识库是专家系统质量是否优越的关键所在,即知识库中知识的质量和数量决定着专家系统的质量水平。一般来说,专家系统中的知识库与专家系统程序是相互独立的,用户可以通过改变、完善知识库中的知识内容来提高专家系统的性能。
机器学习(MachineLearning,ML)是一门涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等的多领域交叉学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能,它是人工智能的核心,是使计算机具有智能的根本途径,也是深度学习的基础。
机器学习领域的研究工作主要围绕以下三个方面进行:
(1)面向任务的研究
研究和分析改进一组预定任务的执行性能的学习系统。
(2)认知模型
研究人类学习过程并进行计算机模拟。
(3)理论分析
从理论上探索各种可能的学习方法和独立于应用领域的算法
机器学习是继专家系统之后人工智能应用的又一重要研究领域,也是人工智能和神经计算的核心研究课题之一。但是现有的计算机系统和人工智能系统没有什么学习能力,至多也只有非常有限的学习能力,因而不能满足科技和生产提出的新要求。
遗传算法(GeneticAlgorithm)是模拟达尔文生物进化论的自然选择和遗传学机理的生物进化过程的计算模型,是一种通过模拟自然进化过程搜索最优解的方法。它借鉴生物界的进化规律(适者生存,优胜劣汰遗传机制)进行随机化搜索,它是由美国的J.Holland教授1975年首先提出,其主要特点是直接对结构对象进行操作,不存在求导和函数连续性的限定;具有内在的隐并行性和更好的全局寻优能力;采用概率化的寻优方法,能自动获取和指导优化的搜索空间,自适应地调整搜索方向,不需要确定的规则。遗传算法的这些性质,已被人们广泛地应用于组合优化、机器学习、信号处理、自适应控制和人工生命等领域,它是现代有关智能计算中的关键技术。
DeepLearning即深度学习,深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本。是机器学习中一种基于对数据进行表征学习的方法。
他的基本思想是:假设我们有一个系统S,它有n层(S1,…Sn),它的输入是I,输出是O,形象地表示为:I=>S1=>S2=>…..=>Sn
=>O,如果输出O等于输入I,即输入I经过这个系统变化之后没有任何的信息损失,设处理a信息得到b,再对b处理得到c,那么可以证明:a和c的互信息不会超过a和b的互信息。这表明信息处理不会增加信息,大部分处理会丢失信息。保持了不变,这意味着输入I经过每一层Si都没有任何的信息损失,即在任何一层Si,它都是原有信息(即输入I)的另外一种表示。DeepLearning需要自动地学习特征,假设我们有一堆输入I(如一堆图像或者文本),假设设计了一个系统S(有n层),通过调整系统中参数,使得它的输出仍然是输入I,那么就可以自动地获取得到输入I的一系列层次特征,即S1,…,Sn。对于深度学习来说,其思想就是对堆叠多个层,也就是说这一层的输出作为下一层的输入。通过这种方式,就可以实现对输入信息进行分级表达了。
深度学习的主要技术有:线性代数、概率和信息论;欠拟合、过拟合、正则化;最大似然估计和贝叶斯统计;随机梯度下降;监督学习和无监督学习深度前馈网络、代价函数和反向传播;正则化、稀疏编码和dropout;自适应学习算法;卷积神经网络;循环神经网络;递归神经网络;深度神经网络和深度堆叠网络;
LSTM长短时记忆;主成分分析;正则自动编码器;表征学习;蒙特卡洛;受限波兹曼机;深度置信网络;softmax回归、决策树和聚类算法;KNN和SVM;
生成对抗网络和有向生成网络;机器视觉和图像识别;自然语言处理;语音识别和机器翻译;有限马尔科夫;动态规划;梯度策略算法;增强学习(Q-learning)。
随着人工智能的发展,人工智能将会逐渐走入我们的生活、学习、工作中,其实人工智能已经早就渗透到了我们的生活中,小到我们手机里的计算机,Siri,语音搜索,人脸识别等等,大到无人驾驶汽车,航空卫星。在未来,AI极大可能性的去解放人类,他会替代人类做绝大多数人类能做的事情,正如刘慈欣所说:人工智能的发展,它开始可能会代替一部分人的工作,到最后的话,很可能他把90%甚至更高的人类的工作全部代替。吴恩达也表明,人工智能的发展非常快,我们可以用语音讲话跟电脑用语音交互,会跟真人讲话一样自然,这会完全改变我们跟机器交互的办法。自动驾驶对人也有非常大的价值,我们的社会有很多不同的领域,比如说医疗、教育、金融,都会可以用技术来完全改变。
[1]Russell,S.J.Norvig,P.人工智能:一种现代的方法(第3版)北京:清华大学出版社,2022(2022.12重印)
[2]库兹韦尔,人工智能的未来杭州:浙江人民出版社,2022.3
[3]苏楠.人工智能的发展现状与未来展望[J].中小企业管理与科技(上旬刊),2022,(04):107-108.
[4]王超.从AlphaGo的胜利看人工智能的发展历程与应用前景[J].中国新技术新产品,2022,(04):125-126.
[5]朱巍,陈慧慧,田思媛,王红武.人工智能:从科学梦到新蓝海——人工智能产业发展分析及对策[J].科技进步与对策,2022,(21):66-70.
[6]王江涛.浅析人工智能的发展及其应用[J].电子技术与软件工程,2022,(05):264.
[7]杨焱.人工智能技术的发展趋势研究[J].信息与电脑(理论版),2022,(08):151-152.
[8]张妮,徐文尚,王文文.人工智能技术发展及应用研究综述[J].煤矿机械,2022,(02):4-7.
[9]王永忠.人工智能技术在智能建筑中的应用研究[J].科技信息,2022,(03):343+342.
[10]李德毅,肖俐平.网络时代的人工智能[J]中文信息学报,2008,(02):3-9.
[11]李红霞.人工智能的发展综述[J].甘肃科技纵横,2007,(05):17-18
[12]孙科.基于Spark的机器学习应用框架研究与实现[D].上海交通大学,2022.
[13]朱军,胡文波.贝叶斯机器学习前沿进展综述[J].计算机研究与发展,2022,(01):16-26.
[14]何清,李宁,罗文娟,史忠植.大数据下的机器学习算法综述[J].模式识别与人工智能,2022,(04):327-336.
[15]郭亚宁,冯莎莎.机器学习理论研究[J].中国科技信息,2022,(14):208-209+214.
[16]陈凯,朱钰.机器学习及其相关算法综述[J].统计与信息论坛,2007,(05):105-112.
[17]闫友彪,陈元琰.机器学习的主要策略综述[J].计算机应用研究,2004,(07):4-10+13.
[18]张建明,詹智财,成科扬,詹永照.深度学习的研究与发展[J].江苏大学学报(自然科学版),2022,(02):191-200.
[19]尹宝才,王文通,王立春.深度学习研究综述[J].北京工业大学学报,2022,(01):48-59.
[20]刘建伟,刘媛,罗雄麟.深度学习研究进展[J].计算机应用研究,2022,(07):1921-1930+1942
[21]马永杰,云文霞.遗传算法研究进展[J].计算机应用研究,2022,(04):1201-1206+1210.
[22]曹道友.基于改进遗传算法的应用研究[D].安徽大学,2022