跳转到内容

莱森:利用一致性MJ 出海马体写真的教程来啦

🐱

作者:莱森

原文: https://x.com/lyson_ober/status/1768173476869980271?s=20

视频教程:

Midjourney cref 海马体写真教程来啦!10 分钟不到出写真~视频在下面 (记得mark 看文字笔记)

超低学习成本,你只要会用任意手机修图软件...就能解决 Midjourney Cref 角色一致性直出之后的「形似而神不似」的问题。

简而言之,文字笔记:

得益于 --cref [image url]和 --cw [0~100],midjourney 能够迅速达成角色一致性的目的而无需 Lora。

其中,cref 代表 character reference(角色参考);cw 则代表 character weight(参考权重),默认为 100,会参考角色的人脸和服装特点。如果你只想关注人脸,请调低到 0。

你不需要对角色原图使用 /describe 来贴近目标生成角色的形象,因为 --cref 会帮你完成这件事情。

于是,风格复制和服装的替换,则应当用提示词(prompt)和 --sref [image url] 来解决。

顾名思义,--sref 代表 style reference,权重参数为 --sw [0~1000],默认值 100,越高越接近参考图像的风格

举个例子,现在我们要海马体这张图像,我们先用 /describe 指令反推海马体的提示词,再配合 --sref [海马体图像的 url],就可以轻松复制图像风格。

在回车之前,检查你的提示词,不要出现和 sref 风格差异过大的 prompt;也可以增加一些你之前学过的有用的 prompt。

Upscale 最满意的那一张。接下来解决大家最关心的「形似而神不似」的问题。其实非常简单,这个问题其实是:MJ 直出和原人物在眼睛、眉毛、鼻子等其他地方的大小、间距有一些细微的差距。

如果你不控制变量一个个调整,就会觉得「怎么眼睛嘴巴合在一起就不像我了?」

此时,用醒图(英文版叫做 hypic)或者美图秀秀等 App 调整脸部,拖拖修图进度条就好了~完成度就从50%->80%甚至更高!

如果你用的是醒图,我建议关注一下【人像 -> 面部重塑 -> 面部 -> 比例】,调整一下上庭、中庭、下庭。


其他备注 1:

在转绘这部分有一个重点案例是照片 -> Minecraft 这种风格幅度变化很大的。

有小伙伴的问题是发现即便 --sw 风格权重拉满了还是复制不了像素小人风格。

经过实验发现:原因是 --cw 太高。猜想原理:cref 提取的人物本身包含了一定程度的风格特性。MJ 把这部分特质也当成了「作为你 character 的一部分」。

调低 cw 发现成功复制,猜想正确。(见视频)


其他备注 2:

cref 和 sref 还可以同时参考多张 url,那是不是说我只要上传同一个人不同角度的照片,就更容易直出呢?

实验发现不是..用语言描述的感觉是:MJ 它会把多张照片理解为多张人脸,直接把形状揉在一起。结果非常容易畸形。

补充笔记 3:

如果你觉得 MJ 直出的皮肤缺乏质感(过于光滑),那么还是打开醒图【人像 -> 手动美颜 -> 皮肤肌理】就可以了。

如果你想快速调整光源但又不想学 PS,那就试试 Luminar 吧。可以直接官方下载和购买完整版,或者如果你是 macos 订阅了 setapp 也能使用有基础功能的 Luminar 版本。视频如下

主要是讲解近处亮度/远处亮度的调整,以及利用 Luminar 在保留皮肤质感的前提下快速修复人物面部的瑕疵、过度反光的问题。

🐱

更多一致性案例:Midjourney 人物一致性已上线