当前位置: 首页 > news >正文

Nunchaku FLUX.1-dev部署教程:ComfyUI-nunchaku插件安装+工作流加载详解

Nunchaku FLUX.1-dev部署教程:ComfyUI-nunchaku插件安装+工作流加载详解

想用上最新的Nunchaku FLUX.1-dev模型,在ComfyUI里生成惊艳的图片,但被一堆插件、模型、工作流搞得头晕?别担心,这篇教程就是为你准备的。

我花了几天时间,把整个部署流程从头到尾跑了一遍,踩了不少坑,也总结出了最顺滑的安装方法。今天我就手把手带你,从零开始,在ComfyUI里把Nunchaku FLUX.1-dev模型跑起来。不管你是刚接触ComfyUI的新手,还是想尝鲜新模型的老玩家,跟着步骤走,半小时内你就能看到第一张由FLUX.1-dev生成的图片。

1. 环境准备:打好地基

在开始安装插件和模型之前,咱们得先把基础环境准备好,这就像盖房子前得把地基打牢。主要就三件事:显卡、软件和工具。

1.1 硬件要求:你的显卡够用吗?核心是一块支持CUDA的NVIDIA显卡。显存是关键,直接决定了你能跑哪个版本的模型:

  • 推荐配置:24GB及以上显存。这样可以比较流畅地运行FP16精度的完整模型,体验最佳效果。
  • 入门选择:如果显存只有8GB或12GB,也不用灰心。我们可以选择FP8或INT4量化版本的模型,它们对显存要求低很多,后面会详细说怎么选。

1.2 软件环境:Python和PyTorch

  • Python:需要3.10或更高版本。这是大多数AI工具链的基础。
  • PyTorch:需要安装与你的系统和CUDA版本匹配的PyTorch。如果你已经安装了ComfyUI,这一步通常已经完成了。

1.3 必备工具:搞定模型下载我们需要一个工具来从Hugging Face等平台下载模型文件。在终端里运行下面这条命令安装它:

pip install --upgrade huggingface_hub

这个huggingface_hub库后面会频繁用到,它能帮我们省去手动下载和整理的麻烦。

环境检查无误后,我们就可以进入正题了。

2. Nunchaku ComfyUI插件安装部署

这是核心步骤,我们要把Nunchaku的“能力”添加到ComfyUI里。整个过程分为两步:安装插件本身,然后安装插件需要的后端引擎。

2.1 安装ComfyUI-nunchaku插件

这里给你两种方法,选一个你觉得顺手的就行。

方法A:使用Comfy-CLI(最省心)如果你喜欢命令行,且希望流程自动化,这个方法是最快的。它通过ComfyUI官方的命令行工具来管理插件。

# 1. 安装ComfyUI CLI工具 pip install comfy-cli # 2. 安装ComfyUI(如果已经安装过,可以跳过) comfy install # 3. 安装Nunchaku插件 comfy noderegistry-install ComfyUI-nunchaku # 4. 将安装的插件移动到ComfyUI的正确目录(假设ComfyUI安装在当前目录) mv ComfyUI-nunchaku ComfyUI/custom_nodes/nunchaku_nodes

方法B:手动安装(更灵活)如果你想更清楚地知道文件装在哪,或者需要自定义安装路径,手动安装更适合你。

# 1. 克隆并安装ComfyUI(如果已安装可跳过) git clone https://github.com/comfyanonymous/ComfyUI.git cd ComfyUI pip install -r requirements.txt # 2. 克隆Nunchaku插件到custom_nodes目录 cd custom_nodes git clone https://github.com/mit-han-lab/ComfyUI-nunchaku nunchaku_nodes

无论哪种方法,完成后你的ComfyUI/custom_nodes/目录下应该会有一个nunchaku_nodes文件夹。

2.2 安装Nunchaku后端

插件只是个“界面”,真正干活的“引擎”是Nunchaku后端。从插件v0.3.2版本开始,安装变得非常简单。通常,在安装插件依赖的过程中,脚本会自动处理后端安装。如果遇到问题,你也可以在插件目录下寻找名为install_wheel.json的文件,按照说明一键安装或更新后端wheel包。

插件和后端都就位后,我们接下来去准备最重要的模型文件。

3. Nunchaku FLUX.1-dev模型使用准备

模型是生成图片的“大脑”。我们需要准备两类模型:FLUX系列通用的基础模型,和Nunchaku专用的FLUX.1-dev主模型。

3.1 配置Nunchaku工作流

工作流(Workflow)是ComfyUI的操作流程图。Nunchaku插件自带了一些示例工作流,我们先把它们复制到ComfyUI能识别的位置。

# 进入你的ComfyUI根目录 cd ComfyUI # 创建用户工作流目录(如果不存在) mkdir -p user/default/example_workflows # 复制Nunchaku示例工作流到该目录 cp custom_nodes/nunchaku_nodes/example_workflows/* user/default/example_workflows/

这样,启动ComfyUI后,你就可以在网页端的菜单里直接加载这些预设好的工作流了。

3.2 下载模型文件

这是最关键的一步,请根据你的显卡情况,对号入座下载对应的模型文件。

第一步:下载基础FLUX模型(必须)这些是FLUX模型家族共享的组件,包括文本编码器和VAE(变分自编码器)。

# 下载文本编码器模型,会放到 models/text_encoders 目录 hf download comfyanonymous/flux_text_encoders clip_l.safetensors --local-dir models/text_encoders hf download comfyanonymous/flux_text_encoders t5xxl_fp16.safetensors --local-dir models/text_encoders # 下载VAE模型,会放到 models/vae 目录 hf download black-forest-labs/FLUX.1-schnell ae.safetensors --local-dir models/vae

第二步:下载Nunchaku FLUX.1-dev主模型(核心)这是真正的图片生成模型。请根据你的显卡类型选择正确的版本

你的显卡类型推荐模型版本说明
Blackwell架构(如RTX 50系列)FP4量化版新架构专属优化
其他NVIDIA显卡(如RTX 20/30/40系列)INT4量化版兼顾效果与显存占用
显存较小(如8GB-12GB)FP8量化版显存要求更低,效果稍逊

这里以最常用的INT4版本为例,下载命令如下:

# 下载INT4量化版主模型,会放到 models/unet/ 目录 hf download nunchaku-tech/nunchaku-flux.1-dev svdq-int4_r32-flux.1-dev.safetensors --local-dir models/unet/

第三步(可选):下载LoRA模型LoRA像是模型的“风格滤镜”或“能力增强包”,可以让生成的图片具有特定风格或更优质量。比如,FLUX.1-Turbo-Alpha这个LoRA能显著加快生成速度。

你可以将下载的LoRA模型文件(.safetensors格式)直接放入ComfyUI/models/loras/目录下即可。需要时在工作流中启用。

完成以上所有下载后,你的模型目录结构应该大致如下:

ComfyUI/models/ ├── text_encoders/ # 存放 clip_l.safetensors, t5xxl_fp16.safetensors ├── vae/ # 存放 ae.safetensors ├── unet/ # 存放 svdq-int4_r32-flux.1-dev.safetensors 等主模型 └── loras/ # 存放各种LoRA模型文件

万事俱备,只欠启动!

4. 启动ComfyUI并运行FLUX.1-dev文生图

4.1 启动ComfyUI服务

在ComfyUI的根目录下,打开终端,运行启动命令:

python main.py

看到终端输出类似“Running on local URL: http://127.0.0.1:8188”的信息后,就说明服务启动成功了。打开你的浏览器,访问这个地址(通常是http://127.0.0.1:8188),就能看到ComfyUI的网页操作界面了。

4.2 加载Nunchaku工作流

在ComfyUI网页界面,点击右上角的“Load”按钮,在弹出的对话框中,你应该能看到一个default文件夹,里面就是我们刚才复制过来的示例工作流。

这里有一个重要选择:

  • nunchaku-flux.1-dev.json推荐使用这个。这是功能最全的文生图工作流,支持加载多个LoRA,能发挥模型的最佳效果。
  • nunchaku-flux.1-dev-qencoder.json:这个工作流使用了4-bit量化的T5文本编码器,可以进一步降低显存占用,适合显存非常紧张的用户,但生成效果可能略有损失。

加载nunchaku-flux.1-dev.json后,你会看到一个已经连接好的节点流程图,这就是我们的“生产线”。

4.3 设置参数并生成图片

现在到了最激动人心的环节:输入你的想法,让模型把它画出来。

  1. 输入提示词:在工作流中找到“Positive Prompt”节点(通常是一个大的文本输入框)。FLUX模型对英文提示词的理解更好,所以尽量用英文描述。例如:A majestic dragon soaring through ancient Chinese mountains, detailed scales, misty atmosphere, epic lighting, 8k, masterpiece

  2. 调整参数(可选)

    • 推理步数(Steps):一般20-50步。步数越多,细节可能越丰富,但耗时也越长。注意:如果你禁用了FLUX.1-Turbo-Alpha这个LoRA,步数建议至少设为20。
    • 分辨率:在“Empty Latent Image”节点设置。例如1024x1024。分辨率越高,显存占用越大。
    • LoRA权重:你可以调整已加载的LoRA(如Turbo-Alpha)的影响强度。
  3. 点击生成:检查所有设置无误后,点击界面上的“Queue Prompt”按钮。稍等片刻(生成时间取决于你的显卡和步数),生成的图片就会出现在右边的预览窗口了!

5. 总结与关键注意事项

走完整个流程,你应该已经成功在ComfyUI里部署并运行了Nunchaku FLUX.1-dev模型。回顾一下,核心就是三步:装插件、下模型、用工作流。为了让你后续使用更顺畅,这里再强调几个容易出错的点:

  1. 模型别放错地方:这是最常见的问题。务必确认FLUX.1-dev主模型在models/unet/,LoRA在models/loras/,文本编码器在models/text_encoders/,VAE在models/vae/。目录不对,ComfyUI就找不到模型。
  2. 量化模型按需选:显存不够就别硬上FP16完整版。FP8或INT4量化版是显存紧张时的救星,在效果和资源间取得了很好的平衡。
  3. 工作流节点缺失:如果加载工作流后看到一堆红色的“Missing Node”报错,说明缺少一些自定义节点。别慌,去安装一个叫“ComfyUI Manager”的插件,它能帮你一键安装缺失的节点。
  4. 推理步数有讲究:使用nunchaku-flux.1-dev.json工作流时,如果关闭了FLUX.1-Turbo-AlphaLoRA,记得把步数(Steps)调到20以上,否则出图质量会大打折扣。

Nunchaku FLUX.1-dev是一个潜力巨大的模型,尤其在细节和氛围渲染上表现突出。现在你已经掌握了部署和使用它的方法,接下来就是尽情探索提示词的魔法,创造出属于你的独特作品了。多尝试不同的风格组合和LoRA,你会发现它更多的可能性。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

http://www.jsqmd.com/news/469868/

相关文章:

  • 2026年温州安卓云手机厂商选择指南与五强解析 - 2026年企业推荐榜
  • 2026年Q1北京工程采购:精选6家靠谱吉林白石材供应厂家 - 2026年企业推荐榜
  • PETRV2-BEV开源BEV模型训练教程:支持VOVNet主干+GridMask增强训练
  • 2026年质量好的注塑加工厂家推荐:PEEK注塑加工精选公司 - 品牌宣传支持者
  • Qwen3-0.6B-FP8在软件测试场景的应用:自动生成测试用例与报告
  • FLUX.2-klein-base-9b-nvfp4入门必看:C语言基础与模型底层API调用示例
  • 如何通过NGA-BBS-Script优化论坛浏览体验:告别繁杂界面,提升阅读效率
  • GPT-SoVITS对比:Fish-Speech 1.5在语音克隆领域的技术优势
  • 【解放生产力】taskt:零门槛实现自动化流程的颠覆性RPA工具
  • EcomGPT-7B模型剪枝实战:减少50%参数保持90%精度
  • DeepSeek-OCR-2效果展示:中英文混排、表格嵌套、手写体混合文档识别集锦
  • 富途控股季报图解:营收64亿港元,净利34亿港元 纳税6.6亿港元
  • 深度解析嵌入式for循环实现原理!
  • Instagram视频高效下载解决方案:零门槛掌握的内容保存技术
  • MarkdownViewer++:Notepad++插件中的Markdown预览解决方案,让文档创作所见即所得
  • SiameseAOE模型参数详解与效果调优实战
  • 如何用Chinese-STD-GB-T-7714轻松搞定学术参考文献格式
  • Qwen3-ForcedAligner在司法领域的应用:庭审录音智能标记系统
  • 多模型对比:Qwen3-ASR-1.7B与Whisper的实测性能分析
  • StructBERT零样本分类-中文-base科研辅助:学术论文摘要自动归类至CCF分类体系
  • Z-Image-Turbo-rinaiqiao-huiyewunv开源镜像部署:辉夜大小姐微调权重本地化落地实践
  • 文脉定序应用场景:高校图书馆数字资源检索增强,支持古籍OCR文本重排序
  • Fish Speech 1.5声音克隆教程:如何用手机录音打造专属AI声线
  • Qwen3-ASR-1.7B惊艳效果:粤语新闻联播→带时间轴的全文本+关键事件标记
  • 立创EDA开源实战:STM32核心板“原神雷电将军”彩色丝印设计与硬件解析
  • 弦音墨影完整教程:从Qwen2.5-VL模型加载到水墨UI定制全流程
  • StructBERT模型在嵌入式设备上的轻量化部署探索
  • 01 立创开源:1.8W 太阳能楼道灯DIY,基于ET5120A驱动与RA97 RG0低蓝光灯珠
  • Qwen3-TTS在嵌入式系统的轻量化部署方案
  • 基于BERT文本分割的Java应用集成实战:SpringBoot服务开发指南