AI抠图使用指南:Stable Diffusion WebUI Rembg实用技巧
抠图是图画处理东西的一项必备才能,能够用在重绘、重组、替换布景等场景。最近我一直在探究 Stable Diffusion WebUI 的各项才能,那么 SD WebUI 的抠图才能体现怎么呢?这篇文章就给大家分享一下。

装置插件

作为一个生成式AI,SD本身并没有精细的抠图操控才能,它需求凭借插件来实现。

这儿咱们运用 stable-diffusion-webui-rembg 这个插件,插件装置成功后,会出现在“高清化”这个页面的底部。

AI抠图使用指南:Stable Diffusion WebUI Rembg实用技巧

装置方法一

合适网络拜访各种资源比较疏通的同学。

插件地址:github.com/AUTOMATIC11…

直接在 Stable Diffusion WebUI 中经过网址装置,操作步骤如下图所示:

AI抠图使用指南:Stable Diffusion WebUI Rembg实用技巧

第5点指示插件已经装置成功,只需求在“已装置”页面中重启SD WebUI就能够了。

实际抠图时,插件还会依据挑选的抠图算法主动下载相关的模型,第一次运用某个算法抠图时等待的时刻会长一点。

装置方法二

合适拜访外网不怎么方便的同学。

先经过别的东西,比方迅雷下载到本地,然后再布置到相应的目录。

插件地址:github.com/AUTOMATIC11…

算法模型地址:github.com/danielgatis…

或者下载我已经打包好的文件,关/注/公/众/号:萤火遛AI,发消息:抠图,即可获取相关文件。

AI抠图使用指南:Stable Diffusion WebUI Rembg实用技巧

stable-diffusion-webui-rembg.zip 是插件程序,解压后放到 stable-diffusion-webui/extensions 目录。

u2net.zip 是算法模型文件,解压后放到当前用户的暂时目录:

  • Windows是:C:\Users{你登录的Windows用户名}.u2net
  • Linux是:/root/.u2net/

如果布置在云服务器,需求先上传zip压缩文件,再解压到指定的目录。参阅解压指令:

unzip -o /root/autodl-tmp/stable-diffusion-webui-rembg.zip -d /root/stable-diffusion-webui/extensions/stable-diffusion-webui-rembg/
unzip -o /root/autodl-tmp/u2net.zip -d /root/.u2net/

装置完毕之后,记住重启SD。

运用rembg

根本运用

点击“高清化”页签,上传要抠图的相片,“Remove background”这儿挑选抠图算法,最后点击“生成”。

AI抠图使用指南:Stable Diffusion WebUI Rembg实用技巧

AI抠图使用指南:Stable Diffusion WebUI Rembg实用技巧

看看默认的抠图作用:头发这儿还有些底色没去掉,这部分和布景有些交错,算法不能很好的辨认。

留意人像周围黑色的部分实际上都是通明的,咱们把这张图片放到白色的布景中人像周围便是白色了。

AI抠图使用指南:Stable Diffusion WebUI Rembg实用技巧

咱们把这个“Alpha matting”勾上,然后会出来几个选项,把“Erode size”的值改为“15”,它能够优化远景图边际的分割。

AI抠图使用指南:Stable Diffusion WebUI Rembg实用技巧

从头生成,看看这次的成果,头发这块根本上看不出来之前的底色了,可是衣领这儿有些模糊了。我尝试了不同的参数,也没能到达完美。或许把图片放到PS中再处理下是个正确的方法,以成果为导向,不能死抱着AI不放,有兴趣的能够试试。

AI抠图使用指南:Stable Diffusion WebUI Rembg实用技巧

参数介绍

上面做了一个根本的演示,可是这些参数咱们怎么配置才能发挥最好的作用呢?这一末节就来看看这些参数的界说。

先看看这几个算法模型:

  • u2net:通用的的预练习模型,通常用这个就行。
  • u2netp:u2net的轻量级版本。
  • u2net_human_seg:专门针对人像分割的预练习模型,仅仅分割人像时主张运用。
  • u2net_cloth_seg:专门从人像上抠衣服的预练习模型,它会把衣服分红三部分:上半身、下半身和全身。
  • silueta:和u2net相同,可是大小减少到43Mb,方便在小内存机器上运用。
  • isnet-general-use :一个新的通用的预练习模型。
  • isnet-anime:专门针对动画人物的高精度分割。

再看看它的两个选项:

  • Alpha matting:Alpha遮罩,这是一个比较专业的图画处理术语。在图画处理中,有一个东西用来表明图画中每个像素点的通明度,这个东西称为Alpha通道;然后Alpha遮罩利用Alpha通道来操控图画的通明度,从而到达隐藏或显示某些部分的目的;在抠图这儿便是努力让远景部分都显示出来,让布景部分都变通明。这个选项有三个参数,用来操控抠图的作用,咱们看下:
    • Erode size:Alpha抠图腐蚀尺度,经过在图画中构建一个长宽为这个值的矩形进行腐蚀。太小了远景和布景别离不彻底,边际有交叉;太大了远景和布景会腐蚀的太多,边际缺损明显。
    • Foreground threshold:远景图画的阈值,值过小布景或许被辨认为远景,值过大远景或许被辨认为布景。
    • Background threshold:布景图画的阈值,值小了远景或许被辨认为布景,值大了布景或许辨认为远景。

运用Alpha遮罩时能够初始用这几个经验值:(15, 220, 100),详细参数值再依据实际情况进行调整。

  • Return mask:返回抠图的蒙地图,下面立刻就会介绍它的用法和用处。

运用蒙版

这一末节以替换图片布景为例,演示蒙版的用法。详细想法是生成一张马斯克登陆火星的相片。

生成蒙版

只需在生成时勾选上“Return mask”,最终输出图片就会变成蒙地图。

AI抠图使用指南:Stable Diffusion WebUI Rembg实用技巧

如下图所示,能够看到人物变成了白色的蒙版,咱们把这个蒙地图片先保存到本机,后面立刻要用。

AI抠图使用指南:Stable Diffusion WebUI Rembg实用技巧

替换布景

在“图生图”中打开“部分绘制(上传蒙版)”。这儿需求上传两张相片,一张原图,一张人物的蒙地图。

AI抠图使用指南:Stable Diffusion WebUI Rembg实用技巧

图生图的详细参数如下:

提示词:(the desert), ((night)), dim sun, (stargate), a man in a suit and white shirt smiling for a picture, a alien standing in the distance, digital painting, stargatejackal,surrealistic, hdri, smooth, sharp focus, illustration, fantasy, intricate, elegant, highly detailed, 8k lora:sgasgard_v1:1

反向提示词:EasyNegative, moon

缩放形式:填充,因为我想调整下图片的宽高比到 16:9,原图没这么宽,所以需求填充新扩展的空间。

蒙版形式:绘制非蒙版内容,在“部分绘制(上传蒙版)”中白色的区域是蒙版,因为咱们要重绘布景,所以这儿挑选的是“绘制非蒙版内容”。

采样器:DPM++ 2M SDE Karras,这是最近新加的一个采样器,主张体会下。当然也能够用别的采样器。

采样步数:配合采样器设置。

宽度、高度:依据 16:9的比例设置。

AI抠图使用指南:Stable Diffusion WebUI Rembg实用技巧

看看出图的作用:

AI抠图使用指南:Stable Diffusion WebUI Rembg实用技巧


以上便是本文的主要内容了,感兴趣的同学赶紧去试试吧。

如果你刚开始学习AI绘画,主张先看这两篇 Stable Diffusion WebUI 装置指南:

手把手教你在本机装置Stable Diffusion秋叶整合包

手把手教你在云环境炼丹(布置Stable Diffusion WebUI)