博舍

教你用AI修复旧相片 人工智能画质修复工具怎么用

教你用AI修复旧相片

朋友们!如需转载请标明出处:人工智能AI技术的博客_CSDN博客-python系列教程,人工智能,程序人生领域博主

在这篇文章当中,我将讲述我们如何为老军人的照片创造一个基于AI技术的相片修复项目。什么是照片修复呢?它由以下三个步骤组成:

我们找到所有的照片缺陷:折痕,磨损,破洞

我们基于所发现的照片缺陷周围的像素值来进行图像修复

我们为图像上色

接下来,我将阐释照片修复的每一个步骤,并且告诉你我们如何获得数据,用哪种网络训练,取得了哪些成就,以及犯了什么错误。

  寻找缺陷

我们需要在一张已经上传的照片当中找到所有与缺陷相关的像素值。首先,我们需要弄清楚人们会上传什么样的照片。我们与immortalregiment项目的创始人交流过,一个存储二战遗留照片的非商业组织,他们分享数据给我们。在此基础上进行分析,我们意识到人们上传的大部分个人或集体肖像存在中等到大量的缺陷。

接着我们必须收集一个训练集,这个训练集需要对图像进行分割,得到一张图片,和一张把所有缺陷都标注出来的黑底白纹蒙版。做这一步最简单的方法是让评估员创立分割蒙版。当然,一般人非常清楚怎样找到缺陷,但那会耗费太长时间。

标记一张照片中缺陷处的像素将会花费一个小时或一整个工作日,因此,在几周内收集一个超过100张图片的训练集是不简单的。这就是为什么我们尝试加强我们的数据,并创造我们自己的缺陷:拍一张照片,用图片上的随机纹理增加缺陷,最终得到一张显示有缺陷的图像部分的蒙版。在没有增强的情况下,我们已经获得了含有68张手动标记照片的训练集和和11张照片的验证集。

最流行的分割方法是:使用unet和预训练编码器,将BCE(binarycross-entropy)与DICE(Sørensen–Dicecoefficient)的和最小化。

在我们为了项目任务使用这个分割方法时,什么样的问题会出现呢?

虽然照片看起来像有许多的缺陷,非常老旧而残破,有缺陷的部分仍然远远小于没有受到损伤的部分。为了解决这个问题,我们可以增加BCE中的积极类内权重,最优权重应是清晰像素与缺陷像素的比率。

第二个问题是如果我们用可以立刻上手使用的预训练编码器和UNET,将会损失许多位置数据。第1层如果由一个核为5、步长为2的卷积组成,网络运行得更快。我们牺牲网络运行的时间来换取更好的缺陷定位。我们在第1层之后移除最大的pooling层,将卷积步长减至1,卷积核减至3。

如果我们通过压缩处理小图片,比如说到256或512像素,小瑕疵会因为内插而消失。然而,我们还需要处理大图像。在实际应用中我们一般把1024像素的照片瑕疵分割。这就是为什么我们必须将网络训练成为适于处理大图像。但这会引起在单个GPU上处理规格小批量的问题。

在训练中,我们我们可以在一个GPU上匹配20张左右的图片。因此我们最终会在BatchNorm层得到不准确的平均值和标准偏差值。我们可以通过 In-placeBatchNorm 来解决这个问题。一方面节省内存空间,另一方面拥有一个SynchronizedBatchNorm版本,可以同步所有GPU上的数据。这样我们计算平均值和标准偏差值就不是参照一个GPU上的20张图片,而是4个GPU上的80张图片,这改善了网络集成。

最后,基于增加bce的权重,改变体系结构和使用In-placeBatchNorm,我们将分割做得更好,但为了做得更好而使用TestTimeAugmentation并不会花费许多。我们可以在一张输入的图片上运行网络,获取镜像,再重新运行网络去找到所有的小缺陷。

用了四个GeForce1080Ti显卡,花费了18个小时,相对时间较长,但这就是精益求精的代价。

  图像修复

我们使用了在图像分割领域很火的Unet网络。为了做图像修复,我们需要上传原始图像和一个掩模(使用1标记了所有干净区域的像素,使用0标记了需要好修复的像素)。数据是这样被搜集的:在一些开源的图像数据集上(例如:OpenImagesV4)加入了一些在生活中会出现的照片瑕疵,然后我们训练网络去重新修复有瑕疵的这部分。

我们是如何使用在图像修复中使用Unet的呢?

我们使用了部分卷积替代了原始的那一版。当我们使用一些核去卷积一个区域时,我们没有把损坏的像素算在内。这使得图像修复更精密。从英伟达的论文来举个例子,他们使用了Unet结合默认的2维卷积的修复结果在中间这幅图,使用部分卷积的修复结果在右边这幅图。

我们花了5天来训练这个网络。在最后一天我们停止了BatchNorms来使得受损部分的边缘更不易被看见。

这个网络处理一副512*512的图像需要花费50ms,验证集上的PSNR(“PeakSignaltoNoiseRatio”的缩写,即峰值信噪比)等于26.4。然而在这种任务中,你不能完全依赖这个指标。为了选择最好的模型,我们在一些验证图片上运行几个好的模型,将结果隐藏,然后投票选出我们最喜欢的模型修复过的图片,这是我们如何选择最终模型的方法。

我之前提到过我们人工在干净的图片上加了一些缺陷 。所以在训练时需要一直跟踪添加的缺陷的最大面积。以防当你"喂"给网络一张它从没有在训练中处理过的,有很大缺陷的图片。网络可能会失控并且产生不可用的结果。因此,如果你想修复有大缺陷的图片,增大你训练集里的缺陷。

这是一个关于我们的算法效果的例子:

  着色

我们已经将图片有缺陷的部分分割了出来并且修复了他们;第三步——颜色复原。就像我之前说的,ImmortalRegiment项目有很多个人或集体的相片。我们希望网络可以在修复这些照片上起到很好的作用。因为现有的服务不能有效且快的着色,所以我们决定提出我们自己的着色方案。我们希望我们的被着色的图片更可信。

github有个很流行的相片着色repo。它有着很好的效果但是还是有很多问题。例如,它有可能会将衣服涂成蓝色,这也是我们没有使用他的原因。

所以,我们决定在图像着色方面提出一个算法。其中最简单的方案是:预测一张黑白照片的R,G,B三个通道的值。但是,我们可以使工作更简单:使用YCbCr色彩表达式来替换RGB色彩表达式。Y通道表示亮度。一张上传的黑白照片只在Y通道里有数值,我们会复用这个数值。而只需要预测Cb和Cr通道的值。Cb是蓝色与亮度的差值,Cr是红色与亮度的差值。

为什么要选择YCbCr色彩表达式?因为人眼对明暗变化的敏感程度会比对色彩变化的敏感程度更高。这是我们选择复用了人眼更敏感的Y通道(亮度)及预测我们可能出错的Cb和Cr通道值的原因,因为我们不会很注意颜色错误。这个具体的特性广泛用于彩色电视产生的初期,那时通道传输能力还不足以传输所有颜色。图片是依据YCbCr色彩表达式来传输的,Y通道数值没有改变,Cb和Cr的数值均减半。

  如何新建一个基准模型

我们将现有的CbCr值输入进带有预训练好编码器的Unet网络,然后最小化L1损失函数来预测合理的CbCr值。我们希望为照片上色,因此除了OpenImages数据集的相片之外,我们需要更多任务特定的相片。

我们去哪里得到穿着军装的人的彩色照呢?在网上会有些人因为兴趣或者金钱为老照片上色。他们做的很仔细很准确。他们是根据档案材料来为制服,肩牌和勋章上色,所以他们的成果很值得信赖。最后,我们使用了200幅手工上色的身着军装的人的照片。

另一个有用的数据源是TheWorkers’andPeasants’RedArmy网站。它的创办者之一几乎拍了所有自己身着二战时期军装的照片。

在某些照片中,他模仿了著名照片人物的姿势。他的照片都是白色背景,这可以让我们在背景上添加不同的自然风景来扩充数据。我们也使用了一些平常的相片,并在上面添加了肩章和其他战争相关的元素。

我们训练了AlbuNet-50——这是一个使用了预训练好的ResNet-50作为编码器的Unet。在预测时,这个网络给出了一些合理的结果:皮肤是粉色的,眼睛——灰绿色,肩章——微黄色。然而,会有一些区域没有被着色。这是因为跟去预测一些别的颜色相比,不做任何变化会使L1误差有更优的结果。

我们正在比较我们的结果与原始真实照片-由Klimbim手工着色

我们该如何解决这个问题呢?我们需要一个判别:一个输入图像,并判断图像是否是真实的图像的神经网络。下面的其中一张图片是手工着色的,另一张是由我们的生成器AlbuNet-50绘制的。人类如何区分手动和自动着色的照片呢?通过观察细节。你能告诉我们的哪个照片是基准解决方案得到的吗?

回答:左边的图片是手动上色的,右边是自动上色的。

我们使用了基于自注意机制的GAN的论文中的判别器。这是一个很小的卷积网络,在最上面的几层是被称为自注意力的层。它使我们的网络“更加关注”图像细节。我们也使用谱归一化。你可以在上面的论文中找到更多的细节。我们利用L1损失项和判别器损失项的组合训练了网络。现在得到的网络在图像的细节上着色更好,背景看起来更一致。再举一个例子:左边是只训练L1损失项的网络得到的结果;右边是结合L1损失项的结果。

在四个GeForce1080Ti上,训练过程花费了两天时间。处理一张512x512的图片需要30毫秒。验证集的最小均方误差(MSE)为34.4。就像图像修复一样,基于我们并不想选择的评价准则。这就是为什么我们选择了6个具有最佳验证指标的模型,并直接为最佳模型投票。

当我们已经创建了一个生产系统,并推出了一个网站,我们继续验证,获得结果,我们最好尽量减少每个像素L1损失,而不是减少感知损失。为了计算它,我们将网络的预测和一张ground-truthl照片提供给VGG-16网络,获取底层的特征map,并利用最小均方误差进行比较。这种方法修复了更多的区域,并给出了更有色调的结果。  

  简要回顾

Unet是一个非常棒的模型。在第一个分割任务中,我们在训练过程中遇到了一个问题,就是处理高分辨率的图像,这就是为什么我们使用In-Place批归一化。在我们的第二个任务(图像修复)中,我们使用了部分卷积而不是标准卷积,这让我们得到了更好的结果。在进行着色时,我们增加了一个简单的判别器网络,它可以对生成不真实图像的生成器进行惩罚。我们还使用了感知损失。

第二个结论——评估人员是必不可少的。不仅在创建分割掩码阶段,而且在最终的结果验证阶段。最后,我们给用户提供了三张照片:一幅带有缺陷的原始照片,一幅带有缺陷的彩色照片,以及一幅简单的彩色照片,以防缺陷搜索和图像修复算法出错。

我们从WarAlbumproject中获得了一些照片,并在这些神经网络上进行了处理。以下是我们得到的结果:

我的微信公众号是:人工智能知识分享

人工智能自动修复图片,模糊图片秒变高清

喜欢收藏图片或拍照的朋友,难免会遇到图片太模糊、像素太低的情况,而这些棘手的问题往往不是美图秀秀等简单的照片编辑软件可以解决的。这个时候我们有什么好的图片修复工具值得我们人手呢,一起往下看吧!

动手能力强的专业技术高的可能就会打开ps来进行精修调试了,但是对于大部分人来说,没有PS基础,操作起来就会比较复杂,不适合我们新手小白,那今天就给大家带来了牛学长图片修复工具。可以帮助我们简单快捷的完成图片修复的过程。

牛学长图片修复工具,没有任何技术要求,人人都可以快速的让模糊图片变得清晰起来,提高图片清晰度。牛学长图片修复工具有着基于领先的智能AI修复技术,对不同场景的图片修复需求,牛学长AI智能都能匹配最佳修复方案,一键修复照片高清,在不损失质量的情况下提供最佳效果。一键重建高清图片。

这款软件主要有四个智能AI修复模型,大家可以根据自己的需求选择最适合自己的:

通用模型:适合风景、建筑、动物、花卉等真实场景的图片

降噪模型:适用于普通照片去除噪点,以及动漫卡通图片变清晰

人脸专用模型:专门针对人脸修复、老照片修补的模型

黑白上色:专门针对黑白照片进行上色的AI模型

第一步:点击“添加文件”按钮将需要照片添加到软件中,也可以直接将照片拖入到软件中进行添加,可批量添加多张照片进行批量操作。

 

第二步:如下图所示在右边进行设置,选择AI模型,每个AI模型都有说明比较适合那种类型的图片,可根据图片类型选择适合的AI模型,然后点击“预览效果”等待结果就可以。

修复完成后我们可以在线预览,照片清晰度高度还原。最后点击“导出”按钮即可导出效果图片。

以上就是今天分享的修复图片清晰度的方法。只需要将需要处理的模糊图片导入即可,就可以自动帮你处理,是不是很简单,有需要的朋友可以在牛学长图片修复工具中自己体验一下。软件会通过AI算法将噪点和锯齿的部分进行修复和补充,尽可能地提高图片清晰度。

人工智能视频画质增强优化工具

牛学长视频修复工具采用人工智能技术智能修复视频画质清晰度,AI智能技术实现一键无损修复视频清晰度和增强画质分辨率,让您的老旧/低清视频重获新生!

牛学长视频修复工具是一款功能强大的AI人工智能视频画质增强优化工具,支持通过还原大部分细节来提升画面质量,无论由于相机抖动、低光、阴影或其他不可控因素而丢失了哪些细节。使用人工智能算法,牛学长视频AI可以逐帧提高视频质量。牛学长视频AI基于人工智能技术,可以帮助您提高视频质量并将旧的低分辨率视频升级到更高分辨率。转换后,所有旧视频都将获得最佳观看体验。借助AI的力量提高视频质量,从SD到HD、HD到4K或8K优质视频,并100%自动处理视频而无需微调。

提高视频质量

这款基于人工智能的自动视频增强器支持通过恢复大部分细节来提高镜头质量,无论由于相机抖动、光线不足、阴影或其他不可控因素而丢失了哪些细节。使用人工智能算法,牛学长视频AI可以逐帧提高视频质量。

低分辨率视频提高分辨率

牛学长视频AI可以通过应用AI技术的力量来提高视频的分辨率。这款基于AI的视频修复工具使用基于深度学习的超分辨率技术将视频从480p升级到1080p、720p到UHD以及1080p到4K。

强大的人工智能引擎

AI引擎是提升视频质量的核心。牛学长视频AI配备强大的算法和AI引擎,无需专业编辑技能即可对您的视频进行自动去噪、色彩校正、去隔行、亮度调整,画质老旧、模糊、虚焦等视频皆可修复。

牛学长视频修复工具利用AI视频画质增强技术,助你一键增强视频画质为高清!一起来看看效果吧~

免费试用支持Windows10/11

人像修复清晰度的画面对比

动漫高清修复,提升视频帧率

以上就是今天分享的利用人工智能提升视频画质的内容了,利用牛学长视频修复工具帮助我们增强视频画质,是不是很简单。一键即可完成视频修复操作。无需复杂操作,真正实现自动化操作。

分享给朋友:分享至微信朋友圈:

打开微信,点击底部的“发现”,使用“扫一扫”即可将网页分享至朋友圈。

上一篇>视频画质增强怎么做?下一篇>视频画质增强神器:助你一键还原视频高清!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇