跳转到内容

工具教程:Flux

🥇

作者:郑敏轩/Mike/六耳 -

https://space.bilibili.com/3461579519560151?spm_id_from=333.999.0.0

Flux制作团队由来:

Flux模型团队制作者:原stable diffusion核心团队因开源理念不合,出来成立“黑森林”团队。黑森林获3200万美元投资,拿出第一款产品:Flux

首次一次发布三种型号:

拿出来时有三种型号:

Flux pro(最好的,闭源使用)

Flux dev(开源,供学习研究使用,不支持商用)

Flux schnell(开源,开源最彻底,支持商用)

参数量比较:

Flux的参数训练量达到了12B,且语言支持自然语言。

12B我们类比一下8月6日的智谱发布的开源视频模型CogVideoX-2B,开源的是2B的一个模型,所以模型的视频推理结果不如快手的可灵。8月28日智谱最新开源了5B的视频模型。

视频还在5B,由此可见图像12B确实是一个高度(开源里面)

所以Flux一出现就占据极重要影响。

🌟

Flux:训练参数12B(120亿)

SD3 Large:训练参数8B(80亿)

SD3 Medium:训练参数2B(20亿)

硬件要求变高:

由参数带来的,是硬件要求变高,推理dev版本的Flux模型时,最低显存需要16G,建议24G,模型本身大小是22多G,如果训练的话,经过优化目前16G也可以训练Lora模型,但是DB方式训练微调模型的话,除显存最低要24G外,要求内存也需要32G以上才行。

模型特点:

图片质量审美进一步提升

手的崩坏得到优化

语言理解增强

由于训练时包含了文字,所以支持自然语言且理解“左右”等位置关系(早期SD1.5不支持不理解位置关系,所以几乎无法靠语言描述进行精确生成,现在对语言理解有一步不小的增强)且支持英文生成

仍不支持中文显示,但英文显示结果良好

训练时就”见识“过各种尺寸大小:

所以生成图像的尺寸弹性很强,不像之前只能在512或1024、768得到好结果。

安装及使用:

因为上次祐萌刚刚讲过了comfyUI的使用,我们就讲一下在comfyUI中如何使用Flux

(在ForgeUI中同样可以使用,国内还可以去哩布哩布、阿里云等众多平台使用,有很多平台可以薅羊毛,这里介绍本地部署comfyUI)

🎨

把这 4 个模型,放到对应的目录下就可以了。

  • t5xxl_fp16.safetensors:放在 ComfyUI/models/clip/ 目录下
  • clip_l.safetensors:放在 ComfyUI/models/clip/ 目录下
  • ae.safetensors:放在 ComfyUI/models/vae/ 目录下
  • flux1-dev.safetensors:放在 ComfyUI/models/unet/ 目录下

怎么记和理解呢?

flux1-dev.safetensors是底模,ae.safetensors是VAE,clip_l.safetensors和t5xxl_fp16.safetensors是关于文字语言编码,这么理解就行。

哪里下载呢?

t5xxl_fp16.safetensors 和 clip_l.safetensors 下载地址:

https://huggingface.co/comfyanonymous/flux_text_encoders/tree/main

t5xxl 分为 fp16 和 fp8,如果你内存超过 32GB,那就用 fp16 的,如果没超过,那就用 fp8 的。

ae.safetensors 和 flux1-dev.safetensors 下载地址:

https://huggingface.co/black-forest-labs/FLUX.1-dev/tree/main

我随后也准备一下百度网盘和夸克网盘。

🎉

更新:(下面准备了夸克和百度的网盘链接,方便部分同学下载)

flux相关模型(体积较大)的夸克网盘链接:https://pan.quark.cn/s/b5e01255608b

flux相关模型(体积较大)的百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW-03ei0g?pwd=ub9h 提取码:ub9h

如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,速度会快很多,下载地址:

https://huggingface.co/Kijai/flux-fp8/tree/main

最后我们再下载dev的工作流

上面我把工作流复制上了,用上面这个就行。或者下面官方原版的图片链接,图片导入comfyUI就是工作流。

https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png

我们打开 ComfyUI,把工作流或图片拖拽到 ComfyUI 里:

显存不够16G?低配置方案?

开源社区迅速展开了对低配置方案的优化,NF4来自我们controlnet的作者,GGUF则包含多个版本可以使用

NF4模型下载

https://huggingface.co/lllyasviel/flux1-dev-bnb-nf4/blob/main/flux1-dev-bnb-nf4.safetensors

放置在ComfyUI/models/checkpoint/中(不像其他 Flux 模型那样放置在 UNET 中)

NF4配套节点插件

git clone https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4.git

GGUF模型下载

Flux GGUF模型:https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main

GGUF配套节点插件

GGUF节点包:https://github.com/city96/ComfyUI-GGUF

以下是使用GGUF生图:

值得一提的是在最新版本的comfyUI中GGUF的节点插件是可以在Manager管理器中搜到下载安装的,NF4的配套节点插件则搜不到。

注意使用精度优化的低配模型的话,工作流和原版是不一样的。此处没有专门列举。

自己改的话就是把上面官方的这个fp8的工作流,只需把底模的节点换成NF4的或者GUFF的即可。

相关生态发展很快,有Lora、Controlnet、IP-adpter相关生态建设非常速度,以及字节最近发布的Flux Hyper lora是为了8步快速生图。

下节我们先讲讲Flux的lora训练。