news 2026/3/8 10:18:06

Linux下安装ComfyUI并配置Wan 2.1工作流

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Linux下安装ComfyUI并配置Wan 2.1工作流

Linux 下部署 ComfyUI 并集成 Wan 2.1 视频生成工作流

在 AI 内容创作领域,从静态图像到动态视频的跨越正变得越来越重要。传统文生图工具已无法满足对时间维度表达的需求,而像Wan 2.1这样的视频生成模型,配合ComfyUI的节点式流程编排能力,为开发者和创作者提供了一套高度可控、可复用的解决方案。

本文将带你一步步在 Linux 系统上完成 ComfyUI 的安装与配置,并成功运行基于 Wan 2.1 模型的文生视频与图生视频工作流。整个过程涵盖环境搭建、依赖管理、模型部署和实际使用技巧,适合有一定命令行基础的技术用户或 AI 工程师参考实践。


系统准备:确认硬件与驱动支持

在开始前,请确保你的系统具备以下条件:

  • 操作系统:Ubuntu 20.04 LTS 或更新版本
  • GPU:NVIDIA 显卡(建议 RTX 3060 及以上)
  • CUDA 支持:推荐 CUDA 12.x 环境
  • 存储空间:至少 20GB 可用空间(含模型缓存)

首先检查系统版本:

cat /etc/issue

正常输出应类似:

Ubuntu 20.04.6 LTS \n \l

接着验证 GPU 是否被识别:

nvidia-smi

如果命令未找到,说明 NVIDIA 驱动尚未安装;若显示 GPU 型号及显存信息,则表明驱动已就绪,可以继续下一步。

💡 提示:如果你使用的是云服务器(如阿里云、AWS EC2),通常需要手动安装驱动或选择预装 CUDA 的镜像。


使用 Conda 管理 Python 环境

为了避免全局 Python 环境污染,强烈建议使用conda创建独立虚拟环境。这不仅能隔离依赖冲突,也便于后续清理和迁移。

创建名为comfyui的 Python 3.10 环境:

conda create -n comfyui python=3.10 -y

激活该环境:

conda activate comfyui

此后所有操作都应在该环境下进行。你可以通过以下命令确认当前 Python 版本:

python --version

预期输出:

Python 3.10.x

(可选)删除旧环境

如果你之前尝试过安装但失败了,可以通过以下命令查看已有环境:

conda env list

若存在名为comfyui的旧环境,可执行:

conda remove --name comfyui --all

这样就能彻底清除残留配置,重新开始。


安装 PyTorch 与 CUDA 支持

ComfyUI 依赖 PyTorch 实现 GPU 加速推理。为了充分发挥性能,我们需要安装支持 CUDA 的版本。

目前推荐使用PyTorch 2.3+配合CUDA 12.6

pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu126

安装完成后,在 Python 中测试 CUDA 是否可用:

import torch print(torch.__version__) print(torch.cuda.is_available()) print(torch.cuda.get_device_name(0))

理想输出如下:

2.3.0+cu121 True NVIDIA GeForce RTX 4090

⚠️ 如果torch.cuda.is_available()返回False,请逐一排查:

  • NVIDIA 驱动是否最新?
  • 是否安装了nvidia-cuda-toolkit
  • PyTorch 安装命令中的 CUDA 版本是否匹配?

常见误区是误用了 CPU-only 版本的 PyTorch,务必确保使用--extra-index-url指定 CUDA 构建源。


克隆 ComfyUI 主程序

进入目标目录并拉取官方仓库:

mkdir ~/comfyUI && cd ~/comfyUI git clone https://github.com/comfyanonymous/ComfyUI.git cd ComfyUI

此时你会看到项目的基本结构:

ComfyUI/ ├── main.py ├── nodes/ ├── web/ ├── models/ └── requirements.txt

其中main.py是启动入口,models/目录用于存放各类模型文件,web/包含前端界面资源。


安装 Python 依赖包

接下来安装 ComfyUI 所需的第三方库:

pip install -r requirements.txt

这个过程可能耗时几分钟,具体取决于网络速度。主要依赖包括:

  • numpy,pillow:图像处理基础
  • transformers:HuggingFace 文本编码器接口
  • onnxruntime:ONNX 模型运行时支持
  • accelerate:多设备调度与内存优化

💡 若国内网络较慢,可更换为清华源加速下载:

bash pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

注意不要跳过此步骤,否则启动时会因缺少模块报错。


下载 Wan 2.1 模型文件

Wan 2.1 是由 ModelScope 社区发布的高性能 AI 视频生成模型,已在 ComfyUI 中实现良好适配。其完整模型包可通过modelscopeCLI 工具获取。

先安装modelscope客户端:

pip install modelscope

然后执行下载命令:

modelscope download --model 'Comfy-Org/Wan_2.1_ComfyUI_repackaged' --local_dir './Wan_2.1_ComfyUI_repackaged'

成功后,你将在本地看到以下关键文件:

  • wan_2.1.safetensors:主模型权重
  • config.json:模型配置
  • 多个.json示例工作流文件(如文生视频、图生视频模板)

这些文件构成了后续运行的基础,尤其是.safetensors权重文件,必须正确放置才能加载。


配置模型路径以供 ComfyUI 识别

ComfyUI 对模型路径有严格规范。我们必须将 Wan 2.1 的组件复制到对应子目录中。

首先创建必要的模型目录结构:

mkdir -p models/checkpoints mkdir -p models/vae mkdir -p models/clip

然后分别拷贝核心文件:

# 主模型 cp Wan_2.1_ComfyUI_repackaged/wan_2.1.safetensors models/checkpoints/ # VAE 解码器 cp Wan_2.1_ComfyUI_repackaged/vae.pt models/vae/ # CLIP 文本编码器 cp Wan_2.1_ComfyUI_repackaged/clip_l.safetensors models/clip/

最终结构应如下所示:

ComfyUI/models/ ├── checkpoints/ │ └── wan_2.1.safetensors ├── vae/ │ └── vae.pt └── clip/ └── clip_l.safetensors

✅ 注意:文件名无需修改,ComfyUI 会自动扫描checkpoints/目录下的.safetensors文件并在 UI 中列出。


启动 ComfyUI 服务

一切就绪后,即可启动主程序:

python main.py --listen 0.0.0.0 --port 33310 --cuda-device 0

参数说明:

  • --listen 0.0.0.0:允许局域网访问(不加则仅限本地)
  • --port 33310:自定义端口(避免与其他服务冲突)
  • --cuda-device 0:指定使用第一块 GPU(多卡时可切换)

首次运行时,系统会自动建立索引并加载模型列表。等待日志出现:

Startup complete, running on: http://0.0.0.0:33310 To see the GUI go to: http://127.0.0.1:33310

表示服务已成功启动。


访问 Web 图形界面

打开浏览器,输入服务器地址:

http://<你的服务器IP>:33310

例如本地调试可访问:

http://localhost:33310

你会看到一个清晰的节点式编辑器界面:左侧是可拖拽的节点面板,中间是画布,右侧是参数设置区。

点击右上角菜单 → Language → 简体中文,即可切换为中文界面,降低操作门槛。


加载 Wan 2.1 预设工作流

Wan 2.1 提供了多个开箱即用的工作流模板,位于下载目录中:

ls Wan_2.1_ComfyUI_repackaged/*.json

常见模板包括:

  • text_to_video_wan.json:文生视频
  • image_to_video_wan_480p_example.json:图生视频(480p)
  • image_to_video_wan_720p_example.json:图生视频(720p)

在 Web UI 中,点击左上角“Load”(加载)按钮,上传对应的.json文件。

加载成功后,画布将展示完整流程,典型节点链路如下:

[文本提示] → [CLIP 编码] → [Latent 初始化] → [Wan 2.1 模型] → [采样器] → [VAE 解码] → [视频合成]

每个节点均可双击修改参数,例如调整提示词、帧数、分辨率等。


使用技巧与常见问题处理

推荐操作流程

  1. Empty Latent Image节点设置输出尺寸与帧数(如 480x480, 16 帧)
  2. CLIP Text Encode输入正向/负向提示词(支持自然语言描述动作、风格)
  3. 点击顶部“Queue Prompt”提交生成任务
  4. 观察终端日志跟踪进度(模型加载、逐帧推理等)
  5. 完成后视频将保存至ComfyUI/output/目录,格式为 MP4 或 GIF

常见问题与应对策略

问题原因分析解决方法
CUDA out of memory分辨率或帧数过高导致显存溢出降低至 480p 或减少帧数(如 8~16 帧),或启用--gpu-only参数限制内存占用
模型无法加载文件未放在models/checkpoints/检查路径和文件名是否准确,重启服务刷新索引
页面无法访问防火墙或安全组限制开放 33310 端口,或使用 SSH 隧道:
ssh -L 33310:localhost:33310 user@server
工作流报错“Node not found”缺少自定义节点插件根据提示安装所需插件(如有CustomNode报错)

进阶建议

  • 备份工作流:完成调试后,点击“Save”将流程导出为.json,便于团队共享或批量调用。
  • 组织输入输出:利用input/output/文件夹分类管理素材与结果,提升工程化水平。
  • 自动化生成:结合Run Counter节点与脚本调度器,实现定时批量生成任务。
  • 性能调优:对于低显存设备,可尝试启用--disable-smart-memory强制释放缓存,或使用split attention技术分块计算。

这套基于 ComfyUI + Wan 2.1 的视频生成方案,不仅提供了高质量的时间一致性输出,还保留了极高的可定制性。无论是做短视频内容生成、动画原型设计,还是构建私有化 AI 视频流水线,它都是一个值得投入掌握的工具组合。

随着更多视频模型的涌现和节点生态的完善,这种“可视化编程”式的 AI 创作方式,正在成为连接创意与技术的新桥梁。

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/7 7:09:26

PaddleOCR多语言识别配置:使用markdown编写结构化训练说明文档

PaddleOCR多语言识别配置&#xff1a;使用Markdown编写结构化训练说明文档 在企业数字化转型的浪潮中&#xff0c;文档自动化处理正成为提升效率的关键环节。尤其是在金融票据识别、跨境物流单据解析、政府档案电子化等场景下&#xff0c;系统不仅要准确提取中文文本&#xff0…

作者头像 李华
网站建设 2026/3/7 8:44:47

c++14 四种互斥锁

在C14中&#xff0c;标准库提供了四种互斥锁类型&#xff0c;它们均定义在头文件中&#xff0c;用于多线程编程中保护共享资源&#xff0c;防止数据竞争。以下是具体分类及示例说明&#xff1a; std::mutex&#xff08;基础互斥锁&#xff09; 功能&#xff1a;最基本的互斥锁…

作者头像 李华
网站建设 2026/3/7 10:06:53

LangFlow中Agent决策链的可视化呈现方式

LangFlow中Agent决策链的可视化呈现方式 在构建智能对话系统时&#xff0c;你是否曾为调试一个不调用工具的Agent而翻遍日志&#xff1f;是否经历过因上下文丢失导致的回答断裂&#xff0c;却难以定位问题源头&#xff1f;随着大语言模型&#xff08;LLM&#xff09;驱动的Agen…

作者头像 李华
网站建设 2026/3/7 5:44:13

Qwen3-32B大模型调用与鉴权接口详解

Qwen3-32B大模型调用与鉴权接口详解 在当前AI应用快速落地的背景下&#xff0c;如何高效、安全地接入高性能大模型&#xff0c;已成为开发者关注的核心问题。Qwen3-32B作为参数规模达320亿的开源语言模型&#xff0c;在推理能力、上下文长度和多场景适应性方面表现突出&#xf…

作者头像 李华
网站建设 2026/3/7 8:06:40

IDEA全局设置以及实用的配置

在使用IDEA开发时&#xff0c;如果想进行全局设置&#xff0c;而不是每次打开或新建项目都要重新设置&#xff0c;可以在打开IDEA时就进行设置&#xff0c;而不是进入到项目里面之后再设置&#xff0c;如下图所示&#xff1a;常用的IDEA设置Maven配置&#xff0c;设置读取的Mav…

作者头像 李华
网站建设 2026/3/8 3:07:13

LobeChat能否用于构建心理陪伴机器人?人文关怀视角分析

LobeChat能否用于构建心理陪伴机器人&#xff1f;人文关怀视角分析 在数字生活日益深入的今天&#xff0c;孤独感正悄然成为一种“时代病”。从深夜独坐的年轻人&#xff0c;到空巢独居的老人&#xff0c;许多人渴望被倾听、被理解&#xff0c;却难以获得稳定的情感支持。与此同…

作者头像 李华