博舍

今年很火的AI绘画怎么玩 网上很火的ai绘画是什么软件做的

今年很火的AI绘画怎么玩

1、前言2022年绝对可以说是AIGC元年,从google搜索的趋势来看,在2022年AI绘画及AI生成艺术的搜索量激增。

AI绘画在这一年的爆发一个很重要的原因就是StableDiffusion的开源,这也离不开这几年DiffusionModel扩散模型在这几年里的迅猛发展,结合了OPENAI已经发展得很成熟的文本语言模型GPT-3,从文本到图片的生成过程变得更加容易。

2、GAN(生成对抗网络)的瓶颈从14年诞生,到18年的StyleGAN,GAN在图片生成领域获得了长足的发展。就好像自然界的捕食者与被捕食者相互竞争共同进化一样,GAN的原理简单来说就是使用两个神经网络:一个作为生成器、一个作为判别器,生成器生成不同的图像让判别器去判断结果是否合格,二者互相对抗以此训练模型。

GAN(生成对抗网络)经过不断发展其有了不错的效果,但有些始终难以克服的问题:生成结果多样性缺乏、模式坍缩(生成器在找到最佳模式后就不再进步了)、训练难度高。这些困难导致AI生成艺术一直难以做出实用的产品。

3、Diffusion Model(扩散模型)的突破在GAN多年的瓶颈期后,科学家想出了非常神奇的DiffusionModel(扩散模型)的办法去训练模型:把原图用马尔科夫链将噪点不断地添加到其中,最终成为一个随机噪声图像,然后让训练神经网络把此过程逆转过来,从随机噪声图像逐渐还原成原图,这样神经网络就有了可以说是从无到有生成图片的能力。而文本生成图片就是把描述文本处理后当做噪声不断添加到原图中,这样就可以让神经网络从文本生成图片。

DiffusionModel(扩散模型)让训练模型变得更加简单,只需大量的图片就行了,其生成图像的质量也能达到很高的水平,并且生成结果能有很大的多样性,这也是新一代AI能有难以让人相信的「想象力」的原因。

当然技术也是一直在突破的,英伟达在1月底推出的StyleGAN的升级版StyleGAN-T就有了十分惊艳的进步,在同等算力下相比于StableDiffusion生成一张图片需要3秒,StyleGAN-T仅需0.1秒。并且在低分辨率图像StyleGAN-T要比DiffusionModel要好,但在高分辨率图像的生成上,还是DiffusionModel的天下。由于StyleGAN-T并没有像StableDiffusion那样获得广泛的应用,本文还是以介绍StableDIffusion为主。

4、Stable Diffusion在今年早些时间,AI作画圈经历了DiscoDiffusion、DALL-E2、Midjouney群雄混战的时代,直到StableDiffusion开源后,才进入一段时间的尘埃落定,作为最强的AI作画模型,StableDiffusion引起了AI社群的狂欢,基本上每天都有新的模型、新的开源库诞生。尤其是在Auto1111的WebUI版本推出后,无论是部署在云端还是本地,使用StableDiffusion都变成一个非常简单的事情,并且随着社区的不断开发,很多优秀的项目,比如Dreambooth、deforum都作为StableDiffusionWEBUI版的一个插件加入进来,使得像微调模型、生成动画等功能都能一站式完成。

5、AI绘画玩法及能力介绍下面介绍下目前使用StableDiffusion可以有哪些玩法以及能力

StableDiffusion能力简介(以下图片使用SD1.5模型输出)

简介

输入

输出

text2img

通过文字描述生成图片,可通过文字描述指定艺术家风格、艺术类型。这里以艺术家GregRutkowski的风格举例。

abeautifulgirlwithafloweredshirtposingforapicturewithherchinrestingonherrighthand,byGregRutkowski

img2img

通过图片以及文字描述生成图片

abeautifulgirlwithafloweredshirtposingforapicturewithherchinrestingonherrighthand,byGregRutkowski

inpainting

在img2img的基础上,通过设置遮罩,只绘制遮罩内的区域,一般用于修改关键词微调画面。

abeautifulgirlwithafloweredshirt gentlysmiling posingforapicturewithherchinrestingonherrighthand,byGregRutkowski

使用DreamBooth基于SD模型训练微调的大模型,训练后使用该模型可使用上述的text2imgimg2img等能力

NovelAI

text2img

目前效果最好的二次元动漫画风的模型,由 NAI基于danbooru站的公开图片作为数据集训练,但由于danbooru本身存在版权问题,NovelAI一直比较受争议,并且该模型是商用服务泄漏流出,使用需谨慎。

abeautifulgirlwithafloweredshirtposingforapicturewithherchinrestingonherrighthand

NovelAI

img2img

使用NovelAI的模型进行img2img。目前在各个社区很火的意间AI作画,也是使用的这个能力。但意间在免责声明中提到他们的动漫模型是自己收集的数据集训练的。

*右边样例的文字描述是根据图片内容根据AI反推得出的,画师风格随机

abeautifulgirlwithafloweredshirtposingforapicturewithherchinrestingonherrighthand

AI绘画

基于用户照片训练的主体模型

基于用户提供的几张照片训练一个针对主体的模型,用这个模型可以根据描述生成任意包含该主体的图片。

该组图使用同事的20张照片基于StableDiffusion1.5模型训练2000步出模型,配合几个风格化的prompt输出。

prompt举例(图1):

portraitofalicepoizon,highlydetailedvfxportrait,unrealengine,gregrutkowski,loish,rhads,caspardavidfriedrich,makotoshinkaiandloisvanbaarle,ilyakuvshinov,rossdraws,elegent,tombagshaw,alphonsemucha,globalillumination,detailedandintricateenvironment

*alicepoizon是训练此模型时为这个人物的命名

基于同类型风格训练的风格模型

使用相同风格的一组图片训练一个微调后的大模型,可以通过该大模型生成生成风格统一的图片。

该组图使用了得物数字藏品ME.X训练微调出的风格模型生成。

abeautifulgirlwithafloweredshirt

LionelMessi

LeonardoDiCaprio

ScarlettJohansson

6、目前主要应用情况介绍

简介

样例

美图、抖音、6pen、意间等公司提供的AI绘画服务

提供更加便捷的AI绘画体验,可以使用众多风格各异的定制大模型。

midjouney与DallE2

两个商业化的AI作画服务。midjouney有自己特色的模型,产品化程度高;DallE2则是提供了付费的API服务,有着较高质量的生成效果。

Lensa、漫镜等提供个人模型训练服务

提供了前面的Dreambooth+StableDiffusion的服务,大概18-25元一次,上传15-20张用户照片,生成定制的20张左右的艺术照片。

AI 开源社区Huggingface

​​https://huggingface.co/​​

目前主流的AI开源社区,类似github,有大量用户自己finetuned(微调)的基于StableDiffusion模型,可以下载并部署到自己的服务器或者本地电脑上。

例如右侧的pix2pix模型是一个结合了GPT3的StableDiffusion模型,可以通过自然语言描述来完成前文提到的inpainting功能。

7、自己搭一个StableDiffusionWEBUI服务7.1云端版本这里使用AutoDL提供的云端算力来搭建,也可以使用其他平台比如GoogleColab或者百度飞桨等。

首先在AutoDL上注册账号并且租一台A5000/RTX3090显卡的云主机。https://www.autodl.com/market/list以此主机创建镜像,镜像可在www.codewithgpu.com上选择已经打包好的算法镜像。这里以https://www.codewithgpu.com/i/AUTOMATIC1111/stable-diffusion-webui/Stable-Diffusion-for-NovelAI这个镜像为例,选择后创建。

创建后开机并启动JupterLab,

运行下面指令启动服务即可。如果遇到系统盘空间不足的情况,也可以将stable-diffusion-webui/文件夹移入数据盘autodl-tmp再启动。如果遇到启动失败,可以根据你机器的位置配置一下学术资源加速。

cdstable-diffusion-webui/rm-rfoutputs&&ln-s/root/autodl-tmpoutputspythonlaunch.py--disable-safe-unpickle--port=6006--deepdanbooru6.2本地版本如果你有一块显卡还不错的电脑,那可以部署在本地,这里介绍下Windows版本的搭建:

首先需要安装Python3.10.6,并且添加环境变量到Path中安装gitCloneStableDiffusionWEBUI的工程代码到本地将模型文件放置于models/Stable-Diffusion目录下,相关模型可以去https://huggingface.co/下载运行webui-user.bat,通过本机电脑ip及7860端口访问服务。8、总结本文介绍了AI绘画的一些相关的信息,感兴趣的朋友也可以自己把服务部署起来,自己试着学习用DreamBooth或者最新的Lora微调一下大模型。相信在2023年,随着AIGC热度的不断提高,我们的工作和生活都会因为AI带来巨大的改变。前段时间ChatGPT的推出给我们带来了巨大的震撼,就好像刚进入互联网时期搜索信息的能力一样,今后学会使用AI来辅助我们的工作也将是一个非常重要的能力。

9、参考资料从起因到争议,在AI生成艺术元年聊聊AI   https://sspai.com/post/76277

神经网络学习笔记6——生成式AI绘画背后的的GAN与Diffusion初解https://blog.csdn.net/qq_45848817/article/details/127808815

Howdiffusionmodelswork:themathfromscratch     https://theaisummer.com/diffusion-models/

GAN结构概览           https://developers.google.com/machine-learning/gan/gan_structure

TheabsolutebeginnersguidetoMidjourney–amagicalintroductiontoAIart  https://www.entrogames.com/2022/08/absolute-beginners-guide-to-midjourney-    magical-introduction-to-ai-art/

TheviralAIavatarappLensaundressedme—withoutmyconsent  https://www.technologyreview.com/2022/12/12/1064751/the-viral-ai-avatar-app-     lensa-undressed-me-without-my-consent/

instruct-pix2pix   https://huggingface.co/timbrooks/instruct-pix2pix

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇