跳转到内容

进阶:Mazz的SD进阶分享

📓

作者:Mazz_W

c站地址: https://civitai.com/user/Mazz_W

教程原地址:https://aigarlic.fanbox.cc/posts/5928584

以下是作者分享这幅作品的8K版本和创作过程

教程开始:

Stable Diffusion + Matte Painting 全流程掌控

本教程适用人群:AI全流程掌控者

第一步:构思和构图

主题:描绘一个退休天狗隐居山林的形象

构图:采用竖构图,初始尺寸比例定为1152*1920px。

画面元素:背景为森林及阳光,中景为主要人物、石头和各种物品,前景为植物及土地

镜头:低视角,对焦中景,前景虚化。

第二步:背景绘制

找到森林和石头的图片素材,在Photoshop中进行合成,加入光线,粗略处理成想要的构图和透视角度。

使用Stable Diffusion img2img,生成最初的背景图

注意,此时不需要在意任何画面细节。生成的图片即使有一些错误也不需要修补。

Prompt: 
masterpiece, best quality, low angle, depth of field, a forest with sunbeams shining through the trees, rocks laying on the ground in the foreground

第三步:人物绘制

首先需要确定人物动作。这里我在草图的基础上,用Clip Studio Pro中的3D人物模型进行姿态调整。你也可以使用其他3D Pose类软件生成人物姿态。

然后我们需要使用ControlNet的Openpose功能,生成人物姿态。

为了控制人物的色彩,可以用一张色彩合适的图片放入img2img中,将Denoising strength调至0.9以上,作为色板使用。当然,你也可以画出基本色稿放入img2img中,或是使用ControlNet Color等插件来控制色彩。

在此过程中需要进行img2img反复迭代,并且适时加入背景中的森林和光线元素,以便将来合成时人物与背景更易于融合。

人物大致确定以后,使用photoshop进行简单融合,再使用img2img继续生成画面。此过程依然需要反复迭代,并配合inpainting和inpainting sketch进行调整。

至此,画面已经有了雏形。脸部角度和手都存在问题,但是不用急于修改。

Prompt: 
masterpiece, best quality, 1male, japanese monk, back lighting, ((rim light)), long hair, white hair, floating hair, white beard, long beard, meditation, in the forest with sunbeams shining through the trees, rocks laying on the ground in the foreground, depth of field, low angle

第四步:天狗

现在我们要让老人上天狗面具。由于Stable Diffusion没有合适的模型和Lora可以方便地生成天狗面具,所以我为此训练了专用Lora。

Lora在使用时需要使用inpainting sketch进行重绘,或是使用Photoshop剪裁并简单手绘好面具后进入img2img重绘。注意重绘区域要小,以免Lora的风格污染画面的其他元素。

绘制Stable Diffusion不能很好地识别和绘制的特殊物品,最直接的方法就是自制Lora

第五步:其他物品

延续之前的思路,在画面中一件一件添加其他物品。

方法仍然是:在画面局部使用Photoshop加入素材或使用Inpaiting Sketch绘制物体,再进行多次img2img迭代,得到满意的效果后,在Photoshop中进行融合,最后整体再使用img2img再次生成。

在绘制局部物体的时候,可以根据需要使用不同的模型和Lora,而不必担心整体画风发生改变。

第六步:局部修正

修正物体:包括手、物体比例等。

修正背景:由于AI无法理解物体的遮挡关系,所以背景中的树木会出现错位现象,我们需要手动修复树干被遮挡后的连续性。

此时,我们已经有了完整的画面,且画面中没有明显的瑕疵。

Prompt: 
masterpiece, best quality, 1male, japanese monk with a tengu mask and large beads necklace, a little puppy, a katana, a gourd, back lighting, ((rim light)), long hair, white hair, white beard, long beard, meditation, (textured clothing), ultra detailed, in the forest with sunbeams shining through the trees, rocks laying on the ground in the foreground, depth of field, low angle

第七步:放大

放大有几种方法:


使用Extra>Upscaler进行放大 - 无法增加细节


使用Ultimate SD upscale放大 - 对于元素较多的复杂画面容易出现错误


使用ControlNet Tile + Ultimate SD upscale放大 - 同样对于复杂画面容易出现错误

所以这一次我们需要使用手动分区放大。

photoshop将画面均匀裁剪成512*512px的局部图

使用Stable Diffusion img2img逐一生成1920*1920px的图,

Denoising控制在0.39-0.49。

再针对重要的物体分别通过img2img进行放大生成,放大倍数为1920/512=3.75。

在分区域放大的过程中,可以使用ControlNet和Ultimate SD upscaler,增加更多细节。

最后,使用Photoshop将所有放大后的局部图进行拼合,精修,调色。


至此,所有工作就完成了!来看看最终效果。

结语

Stable Diffusion等AI绘图工具,目前还无法应对有元素丰富的复杂画面。特别是对画面有精确要求的时候,使用单一的img2img不能生成令人满意的效果。

工作流的核心在于,每一个环节只让AI做一件事,提升AI对指令的精确理解。此外,这个工作流与传统绘画中“从整体到局部”的流程相似,对于习惯于手绘的画师比较友好。另外,由于90%的工作由作者本人把控,AI并没有过多的自由发挥,对作者而言,这体现了创作的本质。

附本工作流使用的模型和Lora:


Model: Lyriel V1.5 / DreamShaper V1.5

Lora: NijiExpressive V1.0 / MazzNohMask V0.5


评论问答精选:

Stanley baby

MazzNohMask V0.5 这个Lora找不到

AIGARLIC

mazz表示这个丹没有达到他预期中那么好使, 所以回炉修整一下。 当然,重新上线后会出现在新的篇幅里。

kidnap-princess

您好,想請教關於最後的手動分區放大,在拼合的時候重疊的部分應該會有不少不一致的地方,這個是怎麼處理的呢?

mazzaloth

有几个方法: 1.控制denoising strength,让分区时区别不会太大 2. 在放大生成时,生成更多的图,挑选容易拼合的 3. 在两个区域重叠部分再选一个区域放大后回到ps拼合 4. 拼合以后发现有不一致的地方,把这个地方截取后用当前尺寸img2img低denoising生成一遍,让AI来融合一下

AIGARLIC

感谢 mazz大佬的详细解释, 大家可以提出感兴趣的主题和对文内疑问, 因为大佬真的会看(`・ω・´)ゞ