Qwen3.5-2B从零开始:Windows WSL2环境下Qwen3.5-2B部署实录
Qwen3.5-2B从零开始:Windows WSL2环境下Qwen3.5-2B部署实录
1. 项目介绍
Qwen3.5-2B是一款20亿参数规模的轻量级多模态大语言模型,专为本地化部署优化设计。作为阿里云通义千问系列的最新成员,它在保持轻量化的同时,提供了强大的文本理解和生成能力。
1.1 核心能力
- 轻量对话:流畅的日常交流体验
- 文案创作:营销文案、社交媒体内容生成
- 多语言翻译:支持中英互译及多种语言处理
- 基础代码:Python等编程语言的辅助编写
- 视觉理解:图片内容识别(OCR)、图表解析
- 长文本处理:超长文档摘要、知识库检索
1.2 技术特点
- 本地化运行:完全离线,保障数据隐私
- 低延迟响应:优化后的推理速度
- 硬件友好:适配消费级显卡
- 多模态支持:图文混合输入处理
2. 环境准备
2.1 系统要求
- 操作系统:Windows 10/11(需启用WSL2)
- WSL发行版:Ubuntu 20.04/22.04
- 显卡:NVIDIA GPU(推荐RTX 3060及以上)
- 显存:至少6GB(实际运行约需4.5GB)
- 内存:建议16GB以上
- 存储空间:模型文件约4GB
2.2 基础环境配置
# 更新系统包 sudo apt update && sudo apt upgrade -y # 安装基础工具 sudo apt install -y git wget curl python3-pip # 安装CUDA Toolkit(根据显卡驱动选择版本) wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pin sudo mv cuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600 sudo apt-key adv --fetch-keys https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/3bf863cc.pub sudo add-apt-repository "deb https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/ /" sudo apt-get update sudo apt-get -y install cuda3. 模型部署
3.1 创建Python环境
# 安装conda wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh bash Miniconda3-latest-Linux-x86_64.sh -b -p $HOME/miniconda source ~/miniconda/bin/activate # 创建专用环境 conda create -n torch28 python=3.10 -y conda activate torch28 # 安装PyTorch(匹配CUDA版本) pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu1183.2 下载模型文件
# 创建模型目录 mkdir -p /root/ai-models/unsloth/Qwen3___5-2B # 下载模型权重(需提前获取下载链接) # 此处替换为实际下载命令 wget -P /root/ai-models/unsloth/Qwen3___5-2B [模型下载链接]3.3 安装依赖库
pip install transformers==5.5.0 gradio safetensors sentencepiece4. 服务配置
4.1 准备WebUI文件
# 创建项目目录 mkdir -p /root/Qwen3.5-2B cd /root/Qwen3.5-2B # 创建webui.py(示例内容) cat > webui.py << 'EOF' from transformers import AutoModelForCausalLM, AutoTokenizer import gradio as gr model_path = "/root/ai-models/unsloth/Qwen3___5-2B" tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True) model = AutoModelForCausalLM.from_pretrained(model_path, device_map="auto", trust_remote_code=True) def predict(input_text): response, history = model.chat(tokenizer, input_text, history=None) return response iface = gr.Interface(fn=predict, inputs="text", outputs="text") iface.launch(server_name="0.0.0.0", server_port=7860) EOF4.2 配置Supervisor
# 安装Supervisor sudo apt install -y supervisor # 创建配置文件 sudo tee /etc/supervisor/conf.d/qwen3-2b-webui.conf << 'EOF' [program:qwen3-2b-webui] command=/root/miniconda/bin/conda run -n torch28 python /root/Qwen3.5-2B/webui.py directory=/root/Qwen3.5-2B autostart=true autorestart=true stderr_logfile=/root/Qwen3.5-2B/logs/webui.log stdout_logfile=/root/Qwen3.5-2B/logs/webui.log environment=PYTHONUNBUFFERED=1 user=root EOF # 创建日志目录 mkdir -p /root/Qwen3.5-2B/logs # 重载配置 sudo supervisorctl reread sudo supervisorctl update5. 服务管理
5.1 常用命令
# 启动服务 supervisorctl start qwen3-2b-webui # 停止服务 supervisorctl stop qwen3-2b-webui # 重启服务 supervisorctl restart qwen3-2b-webui # 查看状态 supervisorctl status qwen3-2b-webui # 查看日志 tail -f /root/Qwen3.5-2B/logs/webui.log5.2 端口管理
# 检查端口占用 ss -tlnp | grep 7860 # 释放端口(替换<PID>为实际进程ID) kill -9 <PID>6. 使用指南
6.1 访问Web界面
服务启动后,可通过以下地址访问:
http://localhost:78606.2 功能示例
基础对话:
- 输入:"你好,介绍一下你自己"
- 输出:模型会进行自我介绍并展示能力
文案创作:
- 输入:"写一段关于夏日防晒霜的营销文案,200字左右"
- 输出:生成符合要求的营销内容
代码辅助:
- 输入:"用Python写一个快速排序算法"
- 输出:生成可运行的Python代码
6.3 高级功能
- 多轮对话:保持上下文连续对话
- 图片理解:上传图片后询问相关内容
- 长文档处理:粘贴长文本请求摘要
7. 常见问题解决
7.1 服务启动失败
现象:端口未监听解决方法:
# 检查日志 tail /root/Qwen3.5-2B/logs/webui.log # 常见问题: # 1. 显存不足 - 尝试减小batch size # 2. 依赖缺失 - 检查pip安装的包7.2 性能优化
- 量化加载:修改webui.py添加量化配置
model = AutoModelForCausalLM.from_pretrained( model_path, device_map="auto", trust_remote_code=True, torch_dtype=torch.float16 # 使用半精度减少显存占用 )- 批处理:适当调整max_length参数控制内存使用
8. 总结
通过本教程,我们完成了Qwen3.5-2B在Windows WSL2环境下的完整部署流程。这款轻量级大模型特别适合需要本地化、隐私保护的场景,同时保持了足够强大的文本处理能力。
8.1 关键要点回顾
- WSL2环境配置CUDA支持
- Conda虚拟环境管理
- Supervisor服务守护
- Gradio交互界面部署
- 常见问题排查方法
8.2 后续建议
- 尝试不同的prompt工程技巧提升输出质量
- 探索模型在多模态任务中的应用
- 关注官方更新获取性能优化和新功能
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。
