1.从0到1搭建所有flux生态所需模型,clip、lora、controlnet、节点包等
2.挑选最适合自己配置的flux模型
3.flux文生图与最佳采样器
4.flux高清放大
5.flux图生图
6.flux局部重绘
7.flux controlnet
flux1devFP16精度:
- 本地跑flux最优质的模型
- 不支持商用
- 生图速度慢的不行
- 建议16GB显存以上用户使用
flux1schnellFP16:
- 与其他flux效果完全不同
- apache2.0license许可下支持商用
- 生图速度比原模快
- 支持4步生图
- 建议16GB显存以上用户使用
flux1devFP16和flux1schnellFP16下载存放地址:根目录-models-unet
flux1devFP8:
- 非常推荐
- 效果仅次于fluxFP16原模
- 生图速度很快
- 6-8GB显存可使用
flux1schnellFP8:
- 与其他flux效果完全不同
- apache2.0license许可下支持商用
- 生图速度比原模快
- 支持4步生图
- 6-8GB显存可使用
下载存放地址:根目录-models-unet
NF4下载路径:根目录-models-checkpoints
NF4小知识:
- NF4全称是:Next-Gen Flux Model
- 在尽可能保全细节的基础上最大程度怀远flux原模的效果
- 速度提升4倍
- 显存要求降低4倍
GGUF版本下载:根据显存大小下载最接近显存数字的模型,比如:6GB选择Q3_K _S或Q4_0
GGUF小知识:
- GGUF全称是GPT-Generated Unified Format
- 大预言模型训练LLaMa.cpp框架中的一种文件格式
- 可以在任何大模型统一架构的基础上简化模型的处理
city96/FLUX.1-dev-gguf at main (huggingface.co)
GGUF下载路径:根目录-models-checkpoints
comfyanonymous/flux_text_encoders at main (huggingface.co)
Clip下载路径:根目录-models-clip
节点下载路径:根目录-custom nodes(文件需解压)
Comfy Converted可以直接放入根目录-models-loras另外一款是需要放入根目录-models-xlabs-loras文件夹才能被识别
XLabs-AI/flux-controlnet-hed-v3 at main (huggingface.co)
节点下载路径:根目录-models-xlabs-controlnet
安装完以上内容,已经安全完flux全生态需要的文件了。
目前flux只支持comfyui和webui forge版本,webui A1111版本不支持
搭建绘画工作流
搜索节点:load diffusion
flux采样器 调度器搭配推荐:
- 官方:Euler+Simple
- 小王子:Euler+Beta
- 可尝试:uni_pc_bh2+simple
- 可尝试:ipdmn+simple

文章中提到的工具包在社群里都能搜索到。