当前位置: 首页 > news >正文

比迪丽LoRA部署实录:从裸机Ubuntu到WebUI可用的30分钟完整过程

比迪丽LoRA部署实录:从裸机Ubuntu到WebUI可用的30分钟完整过程

1. 引言:为什么选择比迪丽LoRA?

如果你喜欢《龙珠》里的比迪丽,想用AI画出她的各种形象,这个LoRA模型就是为你准备的。比迪丽LoRA是一个专门训练的角色模型,能让你在Stable Diffusion、FLUX等AI绘画工具中,稳定生成这位经典角色的动漫、二次元或写实风格图片。

今天我要分享的,是从一台全新的Ubuntu服务器开始,到完整部署比迪丽LoRA WebUI的完整过程。整个过程我实测下来,顺利的话30分钟就能搞定。无论你是刚接触AI绘画的新手,还是想快速部署一个可用环境的开发者,这篇实录都能给你清晰的指引。

2. 环境准备:你需要什么?

在开始之前,我们先看看需要准备什么。其实要求不高,大部分云服务器都能满足。

2.1 硬件要求

项目最低要求推荐配置
GPU8GB显存16GB显存或更高
内存16GB32GB
存储50GB可用空间100GB SSD
系统Ubuntu 20.04/22.04Ubuntu 22.04 LTS

关键点说明

  • GPU是必须的:没有独立显卡(特别是NVIDIA显卡)基本跑不动
  • 显存8GB起步:生成1024×1024的图片需要至少8GB显存
  • 存储空间要够:模型文件、依赖包加起来需要几十GB空间

2.2 软件环境

  • 操作系统:Ubuntu 22.04 LTS(其他版本也行,但22.04最稳定)
  • Python:3.10版本(这是WebUI的硬性要求)
  • CUDA:11.8或12.1(根据你的显卡驱动选择)
  • Git:用来克隆代码仓库

如果你用的是云服务器,大部分提供商都提供预装好Ubuntu的镜像,直接选择就行。本地机器的话,建议用最新的Ubuntu版本。

3. 完整部署步骤:跟着做就行

下面是我实际操作的完整过程,每个步骤都有详细说明。如果你完全按照这个来,应该能一次成功。

3.1 第一步:系统基础设置(5分钟)

首先登录你的Ubuntu服务器,如果是新系统,建议先更新一下:

# 更新系统包 sudo apt update sudo apt upgrade -y # 安装基础工具 sudo apt install -y git wget curl python3-pip python3-venv

然后设置Python 3.10(如果系统默认不是这个版本):

# 检查Python版本 python3 --version # 如果不是3.10,可以安装 sudo apt install -y python3.10 python3.10-venv python3.10-dev

3.2 第二步:安装CUDA和显卡驱动(10分钟)

这是最关键的一步,显卡驱动装不好,后面都白搭。

# 先卸载可能存在的旧版NVIDIA驱动 sudo apt purge -y nvidia-* # 添加NVIDIA官方仓库 wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-keyring_1.1-1_all.deb sudo dpkg -i cuda-keyring_1.1-1_all.deb sudo apt update # 安装CUDA 12.1(根据你的需求选择版本) sudo apt install -y cuda-12-1 # 安装完成后,更新环境变量 echo 'export PATH=/usr/local/cuda-12.1/bin:$PATH' >> ~/.bashrc echo 'export LD_LIBRARY_PATH=/usr/local/cuda-12.1/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc source ~/.bashrc # 验证安装 nvidia-smi

如果nvidia-smi命令能正常显示显卡信息,说明驱动安装成功。你会看到类似这样的输出:

+---------------------------------------------------------------------------------------+ | NVIDIA-SMI 535.161.07 Driver Version: 535.161.07 CUDA Version: 12.2 | |-----------------------------------------+----------------------+----------------------+ | GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. | | | | M. | |=========================================+======================+======================| | 0 NVIDIA GeForce RTX 4090 Off | 00000000:01:00.0 Off | Off | | 0% 38C P8 18W / 450W | 0MiB / 24564MiB | 0% Default | | | | N/A | +-----------------------------------------+----------------------+----------------------+

3.3 第三步:克隆和设置WebUI(5分钟)

现在我们来获取比迪丽LoRA的WebUI代码:

# 创建项目目录 mkdir -p ~/bituam-webui cd ~/bituam-webui # 克隆仓库(这里假设你有仓库地址) git clone https://github.com/your-repo/bituam-webui.git . # 如果没有公开仓库,你可能需要从其他来源获取 # 创建Python虚拟环境 python3.10 -m venv venv source venv/bin/activate # 升级pip pip install --upgrade pip

3.4 第四步:安装依赖和模型(8分钟)

这是耗时最长的步骤,因为要下载很多依赖包和模型文件。

# 安装PyTorch(根据你的CUDA版本选择) pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121 # 安装WebUI依赖 pip install -r requirements.txt # 下载基础模型(SDXL) # 这里需要下载SDXL 1.0模型,大约7GB # 你可以手动下载后放到指定目录,或者用脚本下载 mkdir -p ~/bituam-webui/models/Stable-diffusion cd ~/bituam-webui/models/Stable-diffusion # 下载SDXL模型(示例命令,实际链接可能需要调整) wget https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors # 下载比迪丽LoRA模型 mkdir -p ~/bituam-webui/models/Lora cd ~/bituam-webui/models/Lora # 这里放入你的比迪丽LoRA文件,通常以.safetensors结尾

重要提示:模型文件比较大,下载可能需要一些时间。如果网络不好,可以考虑先下载到本地再上传到服务器。

3.5 第五步:配置和启动(2分钟)

所有文件都准备好后,进行最后的配置:

# 回到项目目录 cd ~/bituam-webui # 创建配置文件(如果不存在) cp config.json.example config.json # 编辑配置文件,设置模型路径等 # 这里主要确保模型路径正确

然后启动WebUI:

# 启动WebUI服务 python launch.py --listen --port 7860

如果一切正常,你会看到类似这样的输出:

Running on local URL: http://0.0.0.0:7860 To create a public link, set `share=True` in `launch()`.

3.6 第六步:验证和访问

打开浏览器,输入你的服务器IP和端口:

http://你的服务器IP:7860

如果能看到WebUI界面,恭喜你,部署成功了!

4. 可能遇到的问题和解决方法

在实际部署中,可能会遇到各种问题。这里我整理了几个常见问题和解决方法。

4.1 显卡驱动问题

问题nvidia-smi命令报错或没有输出

解决

# 重新安装驱动 sudo apt purge -y nvidia-* sudo apt autoremove -y sudo apt install -y nvidia-driver-535 # 版本根据你的显卡调整 # 重启系统 sudo reboot

4.2 CUDA版本不匹配

问题:PyTorch安装时提示CUDA版本不兼容

解决

# 查看CUDA版本 nvcc --version # 根据CUDA版本安装对应的PyTorch # CUDA 11.8 pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 # CUDA 12.1 pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

4.3 内存/显存不足

问题:运行时报错CUDA out of memory

解决

  1. 减小生成图片的尺寸(从1024×1024降到768×768)
  2. 使用--medvram--lowvram参数启动:
    python launch.py --listen --port 7860 --medvram
  3. 关闭其他占用显存的程序

4.4 端口被占用

问题:7860端口已经被其他程序使用

解决

# 查看哪个进程占用了7860端口 sudo lsof -i :7860 # 停止那个进程,或者换一个端口 python launch.py --listen --port 7861

4.5 模型文件找不到

问题:启动时提示模型文件不存在

解决

  1. 检查模型文件路径是否正确
  2. 确保文件权限可读:
    chmod 644 ~/bituam-webui/models/Stable-diffusion/*.safetensors chmod 644 ~/bituam-webui/models/Lora/*.safetensors
  3. 检查文件是否完整下载(文件大小是否正确)

5. 优化和进阶设置

部署完成后,你还可以进行一些优化,让系统运行更稳定、更高效。

5.1 设置开机自启动

如果你希望服务器重启后WebUI能自动启动,可以设置systemd服务:

# 创建服务文件 sudo nano /etc/systemd/system/bituam-webui.service

添加以下内容:

[Unit] Description=Bituam WebUI Service After=network.target [Service] Type=simple User=你的用户名 WorkingDirectory=/home/你的用户名/bituam-webui Environment="PATH=/home/你的用户名/bituam-webui/venv/bin" ExecStart=/home/你的用户名/bituam-webui/venv/bin/python launch.py --listen --port 7860 Restart=always RestartSec=10 [Install] WantedBy=multi-user.target

然后启用服务:

sudo systemctl daemon-reload sudo systemctl enable bituam-webui sudo systemctl start bituam-webui

5.2 使用Nginx反向代理(可选)

如果你希望通过域名访问,或者需要HTTPS,可以设置Nginx:

# 安装Nginx sudo apt install -y nginx # 创建站点配置 sudo nano /etc/nginx/sites-available/bituam-webui

添加配置:

server { listen 80; server_name 你的域名; location / { proxy_pass http://127.0.0.1:7860; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; } }

启用配置:

sudo ln -s /etc/nginx/sites-available/bituam-webui /etc/nginx/sites-enabled/ sudo nginx -t sudo systemctl reload nginx

5.3 性能优化建议

  1. 使用xformers加速

    pip install xformers # 启动时添加--xformers参数
  2. 启用TensorRT(NVIDIA显卡):

    • 安装TensorRT
    • 转换模型为TensorRT格式
    • 可以显著提升推理速度
  3. 调整WebUI参数

    • 减少--max-batch-count值降低内存占用
    • 使用--opt-sdp-attention优化注意力机制

6. 使用比迪丽LoRA生成图片

部署完成后,怎么用这个LoRA生成比迪丽的图片呢?其实很简单。

6.1 基本使用方法

  1. 打开WebUI:访问http://你的IP:7860
  2. 选择模型:在左上角选择SDXL基础模型
  3. 加载LoRA:点击LoRA标签,选择比迪丽LoRA
  4. 输入提示词:在正向提示词中加入bidilividel
  5. 调整参数:设置图片尺寸、步数等
  6. 点击生成

6.2 提示词示例

这里有几个生成比迪丽的提示词示例:

# 动漫风格 bidili, anime style, 1girl, martial arts uniform, smiling, masterpiece, best quality # 写实风格 videl, realistic, photograph, 1girl, fighting pose, detailed eyes, professional lighting # 特定场景 bidili, in city, night, neon lights, cyberpunk style, detailed background

6.3 参数设置建议

参数建议值说明
采样方法DPM++ 2M Karras适合动漫风格
步数25-35平衡质量和速度
引导系数7-9控制创意程度
尺寸1024×1024SDXL最佳尺寸
LoRA权重0.7-0.9控制角色特征强度

7. 总结与建议

7.1 部署过程回顾

整个部署过程可以总结为六个关键步骤:

  1. 系统准备:安装Ubuntu和基础工具
  2. 驱动安装:安装NVIDIA驱动和CUDA
  3. 环境搭建:创建Python虚拟环境
  4. 依赖安装:安装PyTorch和WebUI依赖
  5. 模型下载:获取SDXL和LoRA模型
  6. 启动测试:运行WebUI并验证

每个步骤都有明确的操作命令,跟着做基本不会出错。

7.2 给新手的建议

如果你是第一次部署AI绘画环境,我有几个建议:

  1. 按顺序操作:不要跳步,一步步来
  2. 注意版本匹配:Python、CUDA、PyTorch版本要匹配
  3. 预留足够空间:模型文件很大,确保磁盘空间充足
  4. 耐心等待:下载和安装可能需要较长时间
  5. 善用日志:遇到问题先看错误日志

7.3 后续学习方向

部署只是第一步,真正好玩的是如何使用:

  1. 学习提示词工程:如何写出更好的提示词
  2. 探索LoRA组合:尝试多个LoRA的组合效果
  3. 参数调优:找到最适合你需求的参数设置
  4. 批量生成:学习使用脚本批量生成图片
  5. 模型训练:尝试训练自己的LoRA模型

7.4 资源推荐

  • 模型下载:Hugging Face、Civitai
  • 学习社区:相关技术论坛、Discord群组
  • 工具推荐:Prompt生成工具、图片管理软件
  • 进阶教程:LoRA训练指南、WebUI插件开发

部署比迪丽LoRA WebUI的过程,虽然涉及多个步骤,但每个步骤都不复杂。关键是要有耐心,遇到问题不要慌,按照错误提示一步步排查。一旦部署成功,你就能随时生成喜欢的比迪丽图片了。

这个环境不仅可以用于比迪丽,还可以加载其他LoRA模型,生成各种风格的图片。你可以把它当作一个基础的AI绘画平台,在此基础上探索更多可能性。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

http://www.jsqmd.com/news/449705/

相关文章:

  • 向光生长优化算法(PGA)-2025年SCI一区新算法-公式原理详解与性能测评 Matlab代码免费获取
  • pytest测试框架3-web自动化
  • 基于Django的Python音乐智能推荐系统(含完整源码+12000字毕业论文+实操演示视频)
  • 基于深度学习的绝缘子缺陷识别检测系统|全新web界面|多模态|AI大模型智能分析|YOLOv8、YOLOv10、YOLOv11、YOLOv12
  • YOLOv5+Qwen3-ASR-0.6B构建智能监控告警系统
  • BAT资深工程师主讲|Python自动化运维高阶实战课(含Python零基础入门+全套源码课件)|从0搭建企业级运维自动化平台
  • 文件自动同步软件:PanguFlow
  • 多层电路板哪家强?2026年猎板性能与性价比评测
  • 林俊旸:阿里千问的“吹哨人”
  • 使用Typora撰写FRCRN技术文档:Markdown与图表完美结合
  • 小程序制作平台对比:码云数智、有赞、微盟深度解析
  • 基于MATLAB的D2D Cluster建模与资源分配实现
  • 遗传-粒子群自适应优化算法--MATLAB 两个算法融合且加入自适应变化的权重和学习因子
  • 【MongoDB】深入研究副本集与高可用性——Replica Set 架构、故障转移、读写分离 - 教程
  • 万象熔炉 | Anything XL从零开始:safetensors单文件加载与Euler A调度器调优
  • 那层看不见的防线
  • 低成本玩转AI绘画:Stable Diffusion v1.5 低显存需求与高效部署方案
  • Pi0机器人模型效果实测:生成(50,14)维度数组对接ROS/Mujoco
  • 数组元素去重(综合应用):
  • 计算机毕业设计之springboot微信小程序的垃圾分类回收
  • OFA-Image-Caption实战:为Unity游戏引擎中的场景截图自动生成旁白
  • CineBot TMS软件安装设置项目
  • 基于深度学习的超市商品识别检测系统|全新web界面|多模态|AI大模型智能分析|YOLOv8、YOLOv10、YOLOv11、YOLOv12
  • DMXAPI 开发者指南:如何用 1 个 Key 调用 300+ 大模型?
  • 四天工作制在软件测试领域的技术性困境与体系化破局
  • MedGemma-X在Linux系统的部署与性能调优
  • 计算机毕业设计之基于Spring Boot框架的文学名著分享系统的设计与实现
  • 人工智能+AI的基于web的NBA球星勒布朗詹姆斯球员生涯网站laravel
  • 项目设计流程之关于模块流程到前端交互落地
  • JMM详解