Stable Diffusion高清修复老照片-图生图

修复老照片的意义就不多说了,相信大家都明白,这里直接开讲方法。

1、原理

这个方法需要一个真实模型,以便让修复的照片看起来比较真实,我这里选择:realisticVisionV20,大家有更好的给我推荐哦。

还需用搭配两个特殊设置:

ControlNet Tile:这是一个ControlNet模型,用于放大和补充细节。

ADetailer:这是一个插件,用于修复人脸,也需要加载对应的模型。

我从网上找了一张比较模糊的照片(如有侵权,请告知替换)。

2、实操

打开Stable Diffusion WebUI,进入“图生图”界面。

(1)选择好大模型,填写合适的提示词和反向提示词。

扫描二维码关注公众号,回复: 16703229 查看本文章

注意提示词需要匹配照片。不会写的同学,可以使用WebUI中的反向推导工具先生成一个,然后再进行修改,我这里贴出这张图的提示词:

提示词:ultra detailed, masterpiece, best quality, an photo of a old man in a hat and a hat on his heads, with greying temples, (looking at viewer), a character portrait, mingei,simple background, clean
反向提示词:easy_negative, NSFW, (worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, skin spots, acnes, skin blemishes,age spot, (ugly:1.331), (duplicate:1.331),(morbid:1.21), (mutilated:1.21), (tranny:1.331),flower,lines,white point,plant,

(2)基础生成参数设置。

图生图这里上传待修复的图片:

缩放模式:裁剪,不改变尺寸的情况下这个没影响,改变尺寸的时候会截取。

采样器:Euler a

采样步数;20

尺寸:768*1064,想要出图的尺寸,一般原图尺寸就可以,生成好了再裁减。

提示词引导系数:7,这是默认值,出图不满意的时候可以调整试试。

重绘强度:这里选择1,以更好的补充细节,可以根据实际情况调整 。

图像生成种子:-1,代表随机种子,建议不要固定,否则每次出来的都一样。

(3)设置ControlNet Unit

在第一个Unit中上传原图;勾选“启用”,否则ControlNet不生效;勾选“Pixel Perfect”,勾选“Allow Preview”。

这里选择Control类型为 Tile,注意预处理器和模型都要对应上,都是包含tile的,一般WebUI会自动选择上,没有自动的需要自己选择;

Control Weight 用来控制Tile的权重;

Starting Control Step 和 Ending Control Step 用来控制ControlNet介入图像生成的步骤。

如果想让SD更自由发挥一下,可以调整下权重和介入步数,这里采用默认值。

(4)修脸插件

对于修复大爷的照片,这里感觉没什么用,如果生成效果不好的话,可以试试它。

(5)最后点击生成,看看效果,还不错!

3、相关下载

修脸插件:看我另一篇文章,其中人像插件部分有介绍怎么安装。

真实模型:C站可以下载,不方便访问的可以关注公/众/号:萤火遛AI(yinghuo6ai), 发消息:真实模型,即可获得下载地址。


OK,以上就是本文的主要内容,感谢阅读。

猜你喜欢

转载自blog.csdn.net/bossma/article/details/131763872