Nunchaku FLUX.1 CustomV3部署教程:WLS2+RTX4090 Windows平台兼容性配置指南
想在自己的Windows电脑上,用RTX4090显卡跑一个高质量的文生图模型吗?Nunchaku FLUX.1 CustomV3就是一个绝佳的选择。它不是一个普通的模型,而是一个精心调校过的工作流程,能帮你生成细节丰富、风格独特的图片。
很多朋友在Windows上部署这类工具时,总会遇到各种环境问题,比如驱动不匹配、依赖库冲突,或者性能跑不满。今天这篇教程,就是为你准备的。我会手把手带你,在Windows 11的WSL2环境下,用你的RTX4090显卡,把Nunchaku FLUX.1 CustomV3完整地跑起来。整个过程清晰明了,即便你之前没怎么接触过命令行,也能跟着一步步完成。
1. 理解Nunchaku FLUX.1 CustomV3:它是什么,能做什么?
在开始动手之前,我们先花几分钟了解一下我们要部署的这个“家伙”。知道它的来龙去脉和能耐,后面配置起来心里更有底。
1.1 核心构成:一个强强联合的工作流
Nunchaku FLUX.1 CustomV3不是一个单一的模型文件。你可以把它理解为一个“明星团队”:
- 基石模型:Nunchaku FLUX.1-dev。这是整个工作流的基础,一个强大的文生图模型,负责理解你的文字描述并生成图像的初始框架。
- 加速引擎:FLUX.1-Turbo-Alpha。你可以把它看作一个“性能增强模块”。它的加入,旨在不显著牺牲画质的前提下,大幅提升图片生成的速度,让你等待的时间更短。
- 风格画笔:Ghibsky Illustration LoRAs。这是赋予图片独特灵魂的关键。LoRA是一种轻量化的模型微调技术。这里使用的Ghibsky Illustration风格LoRA,能够引导生成的图片偏向某种特定的插画美学(可能类似于吉卜力工作室的清新、细腻风格),让输出结果更具艺术感和一致性。
简单来说,Nunchaku FLUX.1 CustomV3 = 强大的基础模型 + 速度优化 + 独特的艺术风格。这个组合拳的目的,就是让你能快速、稳定地生成高质量且风格化的图片。
1.2 它能为你带来什么?
部署成功后,你将获得一个本地运行的AI绘画工具。相比于使用在线服务,本地部署有几个明显优势:
- 隐私安全:你的提示词和生成的图片完全在本地处理,无需上传到任何服务器。
- 无限使用:没有调用次数、排队时间或会员费用的限制,想生成多少就生成多少。
- 完全可控:你可以深度定制工作流,调整各种参数,探索模型能力的边界。
- 发挥硬件性能:充分利用你RTX4090显卡的强大算力,获得更快的生成速度。
接下来,我们就进入正题,开始准备部署环境。
2. 环境准备:配置WSL2与GPU支持
我们的目标是在Windows系统内,创建一个Linux子系统(WSL2),并让这个子系统能够直接调用你主机上的NVIDIA RTX4090显卡。这是最关键的一步。
2.1 启用Windows功能并安装WSL2
首先,我们需要打开Windows的几个必要功能。
以管理员身份打开 PowerShell。在开始菜单搜索“PowerShell”,右键点击它,选择“以管理员身份运行”。
在打开的窗口里,依次输入并执行以下三条命令。这可能会要求你重启电脑,请按照提示操作。
dism.exe /online /enable-feature /featurename:Microsoft-Windows-Subsystem-Linux /all /norestart dism.exe /online /enable-feature /featurename:VirtualMachinePlatform /all /norestart wsl --set-default-version 2第一条命令启用“Linux子系统”,第二条启用“虚拟机平台”,第三条将WSL的默认版本设置为2。
重启电脑。完成上述操作后,务必重启一次计算机,让设置生效。
2.2 安装Linux发行版并配置用户
重启后,我们安装一个Linux系统。
- 打开微软商店(Microsoft Store),搜索“Ubuntu”。选择最新的LTS版本(比如Ubuntu 22.04 LTS)并点击安装。
- 安装完成后,从开始菜单启动Ubuntu。第一次启动会进行初始化,需要你设置一个用户名和密码。这个密码在后续输入命令时会经常用到,请务必记住。
提示:Linux下输入密码时,光标不会移动或显示星号,这是正常现象,照常输入后按回车即可。
2.3 安装NVIDIA CUDA驱动与WSL2工具包
要让WSL2里的Linux系统能用上你的RTX4090,需要在Windows和Linux两边都进行配置。
在Windows上安装驱动:
- 访问NVIDIA官网的驱动程序下载页面。
- 选择你的产品系列(GeForce RTX 40 Series)、具体型号(RTX 4090)和操作系统(Windows 11)。点击“搜索”并下载最新的Game Ready或Studio驱动程序。
- 运行安装程序,选择“自定义安装”,并务必勾选“执行清洁安装”,以确保驱动安装干净。安装完成后再次重启Windows。
在WSL2(Ubuntu)中安装CUDA工具包:
- 再次打开你的Ubuntu终端。
- 依次执行以下命令来安装NVIDIA为WSL2准备的CUDA工具包。这个过程会下载几百MB的文件,请保持网络通畅。
# 首先,更新软件包列表 sudo apt update # 然后,安装CUDA工具包(此命令适用于Ubuntu 22.04) wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-keyring_1.1-1_all.deb sudo dpkg -i cuda-keyring_1.1-1_all.deb sudo apt update sudo apt -y install cuda-toolkit-12-4验证GPU是否可用:
- 安装完成后,在Ubuntu终端中输入以下命令:
nvidia-smi- 如果配置成功,你会看到一个表格,显示了你的RTX 4090显卡信息、驱动版本以及CUDA版本(应该是12.4或更高)。看到这个,就说明最难的坎已经过去了——你的WSL2现在可以全力调用你的显卡了!
3. 部署Nunchaku FLUX.1 CustomV3工作流
环境搞定,现在我们来部署主角。我们将使用ComfyUI这个强大的图形化节点工具来运行Nunchaku FLUX.1 CustomV3工作流。
3.1 安装Miniconda与创建Python环境
为了管理Python版本和依赖库,我们使用Miniconda。
- 在Ubuntu终端中,下载并安装Miniconda:
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh bash Miniconda3-latest-Linux-x86_64.sh- 安装过程中,一直按回车阅读许可协议,输入
yes同意。 - 当问及安装路径时,直接按回车使用默认路径。
- 最后询问“Do you wish the installer to initialize Miniconda3?”,一定要输入
yes,这会将conda命令添加到你的shell配置中。
- 安装过程中,一直按回车阅读许可协议,输入
- 关闭当前终端,再重新打开一个新的Ubuntu终端。这时你应该能在命令行开头看到
(base)字样,说明conda已激活。 - 创建一个专用于本项目的Python环境(这里以Python 3.10为例):
看到命令行提示符从conda create -n flux python=3.10 -y conda activate flux(base)变成(flux),说明你已经进入了新建的环境。
3.2 克隆仓库与安装依赖
- 克隆包含Nunchaku FLUX.1 CustomV3工作流的仓库(这里假设仓库地址为
example/repo,你需要替换为实际地址):git clone https://github.com/example/repo.git cd repo - 安装PyTorch及相关依赖。请根据你的CUDA版本(我们之前安装的是12.4)选择对应的命令。在
(flux)环境下执行:pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu124 - 安装ComfyUI及其他项目要求的依赖。通常项目会提供一个
requirements.txt文件:
如果项目没有该文件,你可能需要参考其文档手动安装pip install -r requirements.txtcomfyui等包。
3.3 下载模型与加载工作流
- 放置模型文件:根据项目说明,你需要将下载好的
nunchaku-flux.1-dev基础模型、flux.1-turbo-alpha加速模型以及ghibsky-illustration的LoRA文件,放入ComfyUI对应的模型文件夹中,通常是ComfyUI/models/checkpoints和ComfyUI/models/loras。 - 启动ComfyUI:在项目目录下,运行启动命令:
如果一切顺利,终端会输出一个本地访问地址,通常是python main.pyhttp://127.0.0.1:8188。 - 在Windows中访问:打开你的Windows浏览器(Chrome、Edge等),在地址栏输入
http://127.0.0.1:8188,就能看到ComfyUI的界面了。
4. 快速上手:你的第一张AI生成图
现在,你已经成功打开了ComfyUI的大门。让我们用最简单的方式生成第一张图片。
- 加载工作流:在ComfyUI界面中,点击右侧的“Load”按钮,或者从菜单栏选择“Load”。找到并选择项目提供的
nunchaku-flux.1-dev-myself.json工作流文件并加载。这时,画布上会出现一系列连接好的节点,这就是预设好的Nunchaku FLUX.1 CustomV3流水线。 - 修改提示词:在节点图中,找到名为“CLIP Text Encode (Prompt)”或类似的节点。双击其中的文本框,删除默认文字,输入你想要图片的描述,例如:
a beautiful fantasy landscape with a crystal clear lake and ancient trees, ghibli style, masterpiece, best quality。 - 点击生成:确认所有节点连接无误后(预设工作流通常已连好),点击界面右上角大大的“Queue Prompt”按钮。
- 等待与查看:后台开始运行。你可以在终端看到生成进度。稍等片刻(时间取决于你的提示词复杂度和迭代步数),图片就会在“Save Image”节点预览,并自动保存到输出目录。
- 保存图片:在“Save Image”节点生成的图片上右键,可以选择“Save Image”将其保存到本地。
恭喜!你已经在自己的Windows电脑上,利用RTX4090,通过Nunchaku FLUX.1 CustomV3工作流生成了第一张AI绘画作品。你可以尝试修改提示词、调整采样器步数、切换不同的风格LoRA,来探索无限的可能性。
5. 常见问题与优化建议
部署过程很少一帆风顺,这里列出几个你可能遇到的问题和解决办法。
5.1 部署过程中可能遇到的“坑”
nvidia-smi命令不生效:检查Windows驱动是否安装正确,并确认在PowerShell中执行了wsl --set-default-version 2。尝试在Windows PowerShell中运行wsl --shutdown重启WSL,然后再打开Ubuntu试试。- 运行
python main.py时提示缺少模块:确保你已经在(flux)的conda环境下,并且正确安装了requirements.txt中的所有依赖。有时需要手动安装一些系统库,比如libgl1-mesa-glx。 - 生成图片时显存不足(OOM):虽然RTX4090有24GB显存,但如果分辨率设置过高或同时加载多个大模型,也可能溢出。尝试在ComfyUI的工作流中降低生成图片的宽度和高度(如从1024x1024降至768x768),或者减少采样步数。
- 生成速度不如预期:确认在ComfyUI的采样器节点中,是否正确加载了
FLUX.1-Turbo-Alpha相关的模型或配置。Turbo模型通常需要配合特定的采样器(如Euler a)和较少的步数(如20步)才能发挥加速效果。
5.2 让体验更好的小技巧
- 使用
--listen参数启动:如果你想在局域网内的其他设备(比如iPad)上访问ComfyUI界面,可以使用python main.py --listen命令启动。这样会监听所有网络接口,通过你的电脑IP地址加端口号就能访问。 - 管理多个工作流:ComfyUI支持保存和加载工作流(
.json文件)。将调试好的、不同用途的工作流(比如人像专用、风景专用)分别保存下来,以后可以一键加载,非常方便。 - 探索社区节点:ComfyUI的强大之处在于其可扩展性。你可以安装第三方自定义节点,来实现面部修复、高清放大、背景移除等更多高级功能。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。