当前位置: 首页 > news >正文

Ubuntu 24.04 部署大模型

Ubuntu 24.04 部署大模型

在 Ubuntu 24.04 上部署 Ollama + DeepSeek R1:7B 以及 Open WebUI(通常指 Open WebUI,即原 Ollama WebUI)是一个非常流程化的过程。
以下是完整的安装指南:
 
1. 安装 Ollama
Ollama 是运行大模型的引擎。在终端中执行以下官方一键安装脚本:
 
bash
curl -fsSL https://ollama.com/install.sh | sh
请谨慎使用此类代码。
  • 验证安装:输入 ollama --version,如果显示版本号则说明安装成功。
  • 服务管理:安装后 Ollama 会自动作为系统服务运行。你可以通过 sudo systemctl status ollama 查看其状态。 
 
2. 下载并运行 DeepSeek R1:7B
使用 Ollama 极其简单的命令即可获取并运行模型:
 
bash
ollama run deepseek-r1:7b
请谨慎使用此类代码。
  • 说明:此命令会自动从 Ollama 官方库 下载 7B 版本的模型文件(约 4.7GB),并在下载完成后直接进入命令行交互模式。
  • 退出界面:按 Ctrl+D 或输入 /bye 即可退出当前对话界面。 
 
3. 部署 Open WebUI (推荐 Docker 方式)
为了获得类似 ChatGPT 的网页交互体验,最简单的方法是使用 Docker 运行 Open WebUI。 
 
第一步:安装 Docker(如果尚未安装)
 
bash
sudo apt update
sudo apt install docker.io -y
sudo systemctl start docker
sudo systemctl enable docker
请谨慎使用此类代码。
 
第二步:运行 Open WebUI 容器
如果你的 Ollama 在同一台机器上运行,使用以下命令:
 
bash
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
请谨慎使用此类代码。
  • 参数说明:
    • -p 3000:8080:将容器的 8080 端口映射到本机的 3000 端口。
    • --add-host=host.docker.internal:host-gateway:允许容器通过该地址访问宿主机上的 Ollama API。
 
4. 访问与配置
  1. 打开浏览器:访问 http://localhost:3000(或服务器 IP:3000)。
  2. 创建账户:首次登录需要注册一个管理员账号(仅存储在本地设备)。
  3. 选择模型:在界面顶部的下拉菜单中选择 deepseek-r1:7b,即可开始对话。 
 

💡 进阶技巧:
  • 显卡加速:如果你的 Ubuntu 配备了 NVIDIA 显卡,请确保已安装 NVIDIA Container Toolkit,这样 Docker 容器就能调用 GPU 加速推理,大幅提升响应速度。
  • 模型列表:你可以随时通过命令 ollama list 查看本地已安装的所有模型。