当前位置: 首页 > news >正文

第五十九篇-ComfyUI+V100-32G+运行Flux Schnell

环境

系统:CentOS-7 CPU : E5-2680V4 14核28线程 内存:DDR4 2133 32G * 2 显卡:Tesla V100-32G【PG503】 (水冷) 驱动: 535 CUDA: 12.2 ComfyUI version: 0.4.0 ComfyUI frontend version: 1.34.8

系统软件信息

系统信息 OS linux Python Version 3.12.12 | packaged by Anaconda, Inc. | (main, Oct 21 2025, 20:16:04) [GCC 11.2.0] Embedded Python false Pytorch Version 2.9.1+cu128 Arguments main.py --listen --port 8188 --cuda-malloc --lowvram RAM Total 62.68 GB RAM Free 60.25 GB

启动

python main.py --listen --port8188--cuda-malloc --lowvram

使用模版


Flux Schnell完整版文生图

下载模文件并按提示的要求放入目录中


可以使用迅雷单独下载文件

https://huggingface.co/Comfy-Org/Lumina_Image_2.0_Repackaged/resolve/main/split_files/vae/ae.safetensors https://huggingface.co/comfyanonymous/flux_text_encoders/resolve/main/clip_l.safetensors https://huggingface.co/comfyanonymous/flux_text_encoders/resolve/main/t5xxl_fp16.safetensors https://huggingface.co/Comfy-Org/flux1-schnell/resolve/main/flux1-schnell.safetensors

如果没有Manager情况下可以重启ComfyUI

运行结果


第一次时间长一点

时间

loaded completely;30782.57MB usable,22680.62MB loaded, full load: True100%|████████████████████████████████████████████████████████████████████████|4/4[00:04<00:00,1.16s/it]Requested to load AutoencodingEngine Unloaded partially:78.83MB freed,22601.80MB remains loaded,54.02MB buffer reserved, lowvram patches:0loaded completely;411.45MB usable,319.75MB loaded, full load: True Prompt executedin34.40seconds got prompt loaded completely;30387.70MB usable,22680.62MB loaded, full load: True100%|████████████████████████████████████████████████████████████████████████|4/4[00:04<00:00,1.10s/it]Prompt executedin6.17seconds

GPU

Mon Dec1523:04:282025+---------------------------------------------------------------------------------------+|NVIDIA-SMI535.129.03 Driver Version:535.129.03 CUDA Version:12.2||-----------------------------------------+----------------------+----------------------+|GPU Name Persistence-M|Bus-Id Disp.A|Volatile Uncorr. ECC||Fan Temp Perf Pwr:Usage/Cap|Memory-Usage|GPU-Util Compute M.||||MIG M.||=========================================+======================+======================||0Tesla PG503-216 On|00000000:04:00.0 Off|0||N/A 34C P0 237W / 250W|23824MiB / 32768MiB|100% Default||||N/A|+-----------------------------------------+----------------------+----------------------+

总结

1.GPU 占用2.5G 2.GPU 100% 3.6 秒左右一张1024*1024 4.还是挺好用的
http://www.jsqmd.com/news/95247/

相关文章:

  • Nginx负载均衡部署多个ACE-Step实例:应对大规模访问需求
  • 彻底搞懂单线程、多线程、多进程与异步编程:从原理到选型的终极指南
  • vLLM推理引擎实战:高效部署LLaMA系列模型的终极方案
  • 实习面试题-JavaScript 面试题
  • ensp下载官网替代站点推荐:网络安全实验资源集合
  • AI从业者必看:哪些岗位值得投入,哪些浪费时间,建议收藏
  • LPrint:跨平台标签打印的革命性解决方案
  • 2025年12月新疆旅游团推荐:冬季北疆冰雪游五大旅行社综合实力排行榜单深度分析 - 十大品牌推荐
  • (7-4-02)基于MCP实现的金融投资Agent(2)视觉代理MCP服务器:图像处理+数据验证
  • 实习面试题-SpringCloud 面试题
  • Beyond Compare软件功能扩展技术配置指南
  • 深度收藏!大模型产品经理生存指南:避免这4个致命思维陷阱
  • 抖音内容解析与智能下载工具的技术解析
  • innodb 更新存储的索引大小以及记录数
  • 2025年金榜如愿深度解析:AI驱动精准匹配背后的技术壁垒与口碑实证 - 十大品牌推荐
  • Mem Reduct终极内存优化指南:从卡顿到极速的完美蜕变
  • 小米运动自动刷步神器:3步搞定微信支付宝数据同步
  • STM32F030CxT6学习记录
  • Layui-Vue:构建企业级应用的终极Vue组件解决方案
  • 3步解锁MTK设备调试工具:从系统恢复至重生的完美指南
  • Shell - What does : do?
  • 在Windows环境下部署Seed-Coder-8B-Base的详细步骤
  • 使用Miniconda创建专用环境测试LLM推理性能
  • 基于gpt-oss-20b构建专属知识库问答系统的完整流程
  • 轻松部署Qwen3-8B:结合ComfyUI打造可视化交互界面
  • ZonyLrcToolsX 终极歌词下载工具:让每首歌都有完美歌词陪伴
  • 3个步骤搞定联发科调试:从零开始的设备救砖指南
  • SQLite Studio:为什么选择这个轻量级数据库管理工具?
  • PyTorch Lightning简化Qwen3-VL-30B训练流程代码结构
  • 收藏必备!2025年企业AI Agent落地的四大主流路径深度解析,小白到程序员都能看懂