Ubuntu 24.04 部署大模型
在 Ubuntu 24.04 上部署 Ollama + DeepSeek R1:7B 以及 Open WebUI(通常指
Open WebUI,即原 Ollama WebUI)是一个非常流程化的过程。以下是完整的安装指南:
1. 安装 Ollama
Ollama 是运行大模型的引擎。在终端中执行以下官方一键安装脚本:
bash
curl -fsSL https://ollama.com/install.sh | sh
请谨慎使用此类代码。
- 验证安装:输入
ollama --version,如果显示版本号则说明安装成功。 - 服务管理:安装后 Ollama 会自动作为系统服务运行。你可以通过
sudo systemctl status ollama查看其状态。
2. 下载并运行 DeepSeek R1:7B
使用 Ollama 极其简单的命令即可获取并运行模型:
bash
ollama run deepseek-r1:7b
请谨慎使用此类代码。
- 说明:此命令会自动从 Ollama 官方库 下载 7B 版本的模型文件(约 4.7GB),并在下载完成后直接进入命令行交互模式。
- 退出界面:按
Ctrl+D或输入/bye即可退出当前对话界面。
3. 部署 Open WebUI (推荐 Docker 方式)
为了获得类似 ChatGPT 的网页交互体验,最简单的方法是使用 Docker 运行 Open WebUI。
第一步:安装 Docker(如果尚未安装)
bash
sudo apt update
sudo apt install docker.io -y
sudo systemctl start docker
sudo systemctl enable docker
请谨慎使用此类代码。
第二步:运行 Open WebUI 容器
如果你的 Ollama 在同一台机器上运行,使用以下命令:
bash
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
请谨慎使用此类代码。
- 参数说明:
-p 3000:8080:将容器的 8080 端口映射到本机的 3000 端口。--add-host=host.docker.internal:host-gateway:允许容器通过该地址访问宿主机上的 Ollama API。
4. 访问与配置
- 打开浏览器:访问
http://localhost:3000(或服务器 IP:3000)。 - 创建账户:首次登录需要注册一个管理员账号(仅存储在本地设备)。
- 选择模型:在界面顶部的下拉菜单中选择
deepseek-r1:7b,即可开始对话。
💡 进阶技巧:
- 显卡加速:如果你的 Ubuntu 配备了 NVIDIA 显卡,请确保已安装 NVIDIA Container Toolkit,这样 Docker 容器就能调用 GPU 加速推理,大幅提升响应速度。
- 模型列表:你可以随时通过命令
ollama list查看本地已安装的所有模型。
