比迪丽LoRA部署实录:从裸机Ubuntu到WebUI可用的30分钟完整过程
比迪丽LoRA部署实录:从裸机Ubuntu到WebUI可用的30分钟完整过程
1. 引言:为什么选择比迪丽LoRA?
如果你喜欢《龙珠》里的比迪丽,想用AI画出她的各种形象,这个LoRA模型就是为你准备的。比迪丽LoRA是一个专门训练的角色模型,能让你在Stable Diffusion、FLUX等AI绘画工具中,稳定生成这位经典角色的动漫、二次元或写实风格图片。
今天我要分享的,是从一台全新的Ubuntu服务器开始,到完整部署比迪丽LoRA WebUI的完整过程。整个过程我实测下来,顺利的话30分钟就能搞定。无论你是刚接触AI绘画的新手,还是想快速部署一个可用环境的开发者,这篇实录都能给你清晰的指引。
2. 环境准备:你需要什么?
在开始之前,我们先看看需要准备什么。其实要求不高,大部分云服务器都能满足。
2.1 硬件要求
| 项目 | 最低要求 | 推荐配置 |
|---|---|---|
| GPU | 8GB显存 | 16GB显存或更高 |
| 内存 | 16GB | 32GB |
| 存储 | 50GB可用空间 | 100GB SSD |
| 系统 | Ubuntu 20.04/22.04 | Ubuntu 22.04 LTS |
关键点说明:
- GPU是必须的:没有独立显卡(特别是NVIDIA显卡)基本跑不动
- 显存8GB起步:生成1024×1024的图片需要至少8GB显存
- 存储空间要够:模型文件、依赖包加起来需要几十GB空间
2.2 软件环境
- 操作系统:Ubuntu 22.04 LTS(其他版本也行,但22.04最稳定)
- Python:3.10版本(这是WebUI的硬性要求)
- CUDA:11.8或12.1(根据你的显卡驱动选择)
- Git:用来克隆代码仓库
如果你用的是云服务器,大部分提供商都提供预装好Ubuntu的镜像,直接选择就行。本地机器的话,建议用最新的Ubuntu版本。
3. 完整部署步骤:跟着做就行
下面是我实际操作的完整过程,每个步骤都有详细说明。如果你完全按照这个来,应该能一次成功。
3.1 第一步:系统基础设置(5分钟)
首先登录你的Ubuntu服务器,如果是新系统,建议先更新一下:
# 更新系统包 sudo apt update sudo apt upgrade -y # 安装基础工具 sudo apt install -y git wget curl python3-pip python3-venv然后设置Python 3.10(如果系统默认不是这个版本):
# 检查Python版本 python3 --version # 如果不是3.10,可以安装 sudo apt install -y python3.10 python3.10-venv python3.10-dev3.2 第二步:安装CUDA和显卡驱动(10分钟)
这是最关键的一步,显卡驱动装不好,后面都白搭。
# 先卸载可能存在的旧版NVIDIA驱动 sudo apt purge -y nvidia-* # 添加NVIDIA官方仓库 wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-keyring_1.1-1_all.deb sudo dpkg -i cuda-keyring_1.1-1_all.deb sudo apt update # 安装CUDA 12.1(根据你的需求选择版本) sudo apt install -y cuda-12-1 # 安装完成后,更新环境变量 echo 'export PATH=/usr/local/cuda-12.1/bin:$PATH' >> ~/.bashrc echo 'export LD_LIBRARY_PATH=/usr/local/cuda-12.1/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc source ~/.bashrc # 验证安装 nvidia-smi如果nvidia-smi命令能正常显示显卡信息,说明驱动安装成功。你会看到类似这样的输出:
+---------------------------------------------------------------------------------------+ | NVIDIA-SMI 535.161.07 Driver Version: 535.161.07 CUDA Version: 12.2 | |-----------------------------------------+----------------------+----------------------+ | GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. | | | | M. | |=========================================+======================+======================| | 0 NVIDIA GeForce RTX 4090 Off | 00000000:01:00.0 Off | Off | | 0% 38C P8 18W / 450W | 0MiB / 24564MiB | 0% Default | | | | N/A | +-----------------------------------------+----------------------+----------------------+3.3 第三步:克隆和设置WebUI(5分钟)
现在我们来获取比迪丽LoRA的WebUI代码:
# 创建项目目录 mkdir -p ~/bituam-webui cd ~/bituam-webui # 克隆仓库(这里假设你有仓库地址) git clone https://github.com/your-repo/bituam-webui.git . # 如果没有公开仓库,你可能需要从其他来源获取 # 创建Python虚拟环境 python3.10 -m venv venv source venv/bin/activate # 升级pip pip install --upgrade pip3.4 第四步:安装依赖和模型(8分钟)
这是耗时最长的步骤,因为要下载很多依赖包和模型文件。
# 安装PyTorch(根据你的CUDA版本选择) pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121 # 安装WebUI依赖 pip install -r requirements.txt # 下载基础模型(SDXL) # 这里需要下载SDXL 1.0模型,大约7GB # 你可以手动下载后放到指定目录,或者用脚本下载 mkdir -p ~/bituam-webui/models/Stable-diffusion cd ~/bituam-webui/models/Stable-diffusion # 下载SDXL模型(示例命令,实际链接可能需要调整) wget https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors # 下载比迪丽LoRA模型 mkdir -p ~/bituam-webui/models/Lora cd ~/bituam-webui/models/Lora # 这里放入你的比迪丽LoRA文件,通常以.safetensors结尾重要提示:模型文件比较大,下载可能需要一些时间。如果网络不好,可以考虑先下载到本地再上传到服务器。
3.5 第五步:配置和启动(2分钟)
所有文件都准备好后,进行最后的配置:
# 回到项目目录 cd ~/bituam-webui # 创建配置文件(如果不存在) cp config.json.example config.json # 编辑配置文件,设置模型路径等 # 这里主要确保模型路径正确然后启动WebUI:
# 启动WebUI服务 python launch.py --listen --port 7860如果一切正常,你会看到类似这样的输出:
Running on local URL: http://0.0.0.0:7860 To create a public link, set `share=True` in `launch()`.3.6 第六步:验证和访问
打开浏览器,输入你的服务器IP和端口:
http://你的服务器IP:7860如果能看到WebUI界面,恭喜你,部署成功了!
4. 可能遇到的问题和解决方法
在实际部署中,可能会遇到各种问题。这里我整理了几个常见问题和解决方法。
4.1 显卡驱动问题
问题:nvidia-smi命令报错或没有输出
解决:
# 重新安装驱动 sudo apt purge -y nvidia-* sudo apt autoremove -y sudo apt install -y nvidia-driver-535 # 版本根据你的显卡调整 # 重启系统 sudo reboot4.2 CUDA版本不匹配
问题:PyTorch安装时提示CUDA版本不兼容
解决:
# 查看CUDA版本 nvcc --version # 根据CUDA版本安装对应的PyTorch # CUDA 11.8 pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 # CUDA 12.1 pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu1214.3 内存/显存不足
问题:运行时报错CUDA out of memory
解决:
- 减小生成图片的尺寸(从1024×1024降到768×768)
- 使用
--medvram或--lowvram参数启动:python launch.py --listen --port 7860 --medvram - 关闭其他占用显存的程序
4.4 端口被占用
问题:7860端口已经被其他程序使用
解决:
# 查看哪个进程占用了7860端口 sudo lsof -i :7860 # 停止那个进程,或者换一个端口 python launch.py --listen --port 78614.5 模型文件找不到
问题:启动时提示模型文件不存在
解决:
- 检查模型文件路径是否正确
- 确保文件权限可读:
chmod 644 ~/bituam-webui/models/Stable-diffusion/*.safetensors chmod 644 ~/bituam-webui/models/Lora/*.safetensors - 检查文件是否完整下载(文件大小是否正确)
5. 优化和进阶设置
部署完成后,你还可以进行一些优化,让系统运行更稳定、更高效。
5.1 设置开机自启动
如果你希望服务器重启后WebUI能自动启动,可以设置systemd服务:
# 创建服务文件 sudo nano /etc/systemd/system/bituam-webui.service添加以下内容:
[Unit] Description=Bituam WebUI Service After=network.target [Service] Type=simple User=你的用户名 WorkingDirectory=/home/你的用户名/bituam-webui Environment="PATH=/home/你的用户名/bituam-webui/venv/bin" ExecStart=/home/你的用户名/bituam-webui/venv/bin/python launch.py --listen --port 7860 Restart=always RestartSec=10 [Install] WantedBy=multi-user.target然后启用服务:
sudo systemctl daemon-reload sudo systemctl enable bituam-webui sudo systemctl start bituam-webui5.2 使用Nginx反向代理(可选)
如果你希望通过域名访问,或者需要HTTPS,可以设置Nginx:
# 安装Nginx sudo apt install -y nginx # 创建站点配置 sudo nano /etc/nginx/sites-available/bituam-webui添加配置:
server { listen 80; server_name 你的域名; location / { proxy_pass http://127.0.0.1:7860; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; } }启用配置:
sudo ln -s /etc/nginx/sites-available/bituam-webui /etc/nginx/sites-enabled/ sudo nginx -t sudo systemctl reload nginx5.3 性能优化建议
使用xformers加速:
pip install xformers # 启动时添加--xformers参数启用TensorRT(NVIDIA显卡):
- 安装TensorRT
- 转换模型为TensorRT格式
- 可以显著提升推理速度
调整WebUI参数:
- 减少
--max-batch-count值降低内存占用 - 使用
--opt-sdp-attention优化注意力机制
- 减少
6. 使用比迪丽LoRA生成图片
部署完成后,怎么用这个LoRA生成比迪丽的图片呢?其实很简单。
6.1 基本使用方法
- 打开WebUI:访问
http://你的IP:7860 - 选择模型:在左上角选择SDXL基础模型
- 加载LoRA:点击LoRA标签,选择比迪丽LoRA
- 输入提示词:在正向提示词中加入
bidili或videl - 调整参数:设置图片尺寸、步数等
- 点击生成
6.2 提示词示例
这里有几个生成比迪丽的提示词示例:
# 动漫风格 bidili, anime style, 1girl, martial arts uniform, smiling, masterpiece, best quality # 写实风格 videl, realistic, photograph, 1girl, fighting pose, detailed eyes, professional lighting # 特定场景 bidili, in city, night, neon lights, cyberpunk style, detailed background6.3 参数设置建议
| 参数 | 建议值 | 说明 |
|---|---|---|
| 采样方法 | DPM++ 2M Karras | 适合动漫风格 |
| 步数 | 25-35 | 平衡质量和速度 |
| 引导系数 | 7-9 | 控制创意程度 |
| 尺寸 | 1024×1024 | SDXL最佳尺寸 |
| LoRA权重 | 0.7-0.9 | 控制角色特征强度 |
7. 总结与建议
7.1 部署过程回顾
整个部署过程可以总结为六个关键步骤:
- 系统准备:安装Ubuntu和基础工具
- 驱动安装:安装NVIDIA驱动和CUDA
- 环境搭建:创建Python虚拟环境
- 依赖安装:安装PyTorch和WebUI依赖
- 模型下载:获取SDXL和LoRA模型
- 启动测试:运行WebUI并验证
每个步骤都有明确的操作命令,跟着做基本不会出错。
7.2 给新手的建议
如果你是第一次部署AI绘画环境,我有几个建议:
- 按顺序操作:不要跳步,一步步来
- 注意版本匹配:Python、CUDA、PyTorch版本要匹配
- 预留足够空间:模型文件很大,确保磁盘空间充足
- 耐心等待:下载和安装可能需要较长时间
- 善用日志:遇到问题先看错误日志
7.3 后续学习方向
部署只是第一步,真正好玩的是如何使用:
- 学习提示词工程:如何写出更好的提示词
- 探索LoRA组合:尝试多个LoRA的组合效果
- 参数调优:找到最适合你需求的参数设置
- 批量生成:学习使用脚本批量生成图片
- 模型训练:尝试训练自己的LoRA模型
7.4 资源推荐
- 模型下载:Hugging Face、Civitai
- 学习社区:相关技术论坛、Discord群组
- 工具推荐:Prompt生成工具、图片管理软件
- 进阶教程:LoRA训练指南、WebUI插件开发
部署比迪丽LoRA WebUI的过程,虽然涉及多个步骤,但每个步骤都不复杂。关键是要有耐心,遇到问题不要慌,按照错误提示一步步排查。一旦部署成功,你就能随时生成喜欢的比迪丽图片了。
这个环境不仅可以用于比迪丽,还可以加载其他LoRA模型,生成各种风格的图片。你可以把它当作一个基础的AI绘画平台,在此基础上探索更多可能性。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。
