当前位置: 首页 > news >正文

教你无痛本地部署deep seek

本次目标:部署 DeepSeek 本地模型,Chatbox 提供 UI 界面,并通过 Ollama 提供 API 支持。
原则:小白也能理解并真正的上手实践(操作简单)

1.下载Chatbox并配置为本地DeepSeek
2.下载Ollama并安装运行DeepSeek
3.不需要联网也能和DeepSeek畅快聊天

Snipaste_2025-11-13_15-22-06
1.下载Chatbox并配置为本地DeepSeek
Chatbox官方网站:

https://chatboxai.app/en

我这里是Windows

下载的Chatbox-1.11.8-Setup.exe,大小100M多点,点击安装,按下面提示拖到Applications内:Snipaste_2025-11-13_15-39-21

实际正确应该选择OLLAMA API,然后就可以看到我们上一步安装好的deepseek-r1:1.5b。
Snipaste_2025-11-13_15-37-14

3.无需联网也能和DeepSeek畅快聊天
配置好DeepSeek本地模型之后,就可以实现在断网情况下自由问答了
Snipaste_2025-11-13_15-37-36

2.下载Ollama并安装运行DeepSeek
从Ollama官方网站下载Ollama:

https://ollama.com/
进入Ollama官方网站后,可以看到Ollama已经支持DeepSeek-R1的部署:
Snipaste_2025-11-13_15-27-33

点击DeepSeek-R1的链接可以看到有关deepseek-r1的详细介绍:

目前deepseek-r1模型大小提供了7个选择:1.5b、7b、8b、14b、32b、70b、671b。
因为我笔记本的显卡配置较低,所以这里只能选择最小的1.5b模型来做演示:

你可以根据你的硬件情况选择,通常模型大小(参数量)越大,模型的理解和生成能力越强,但也会消耗更多的计算资源。

点击Download按钮下载符合自己平台的Ollama:
Snipaste_2025-11-13_15-28-08

我这里选择windows,点击下载。
下载文件大小不到200M,文件名为:OllamaSetup.exe。

解压后打开Ollama应用程序,提示:

点击Install安装ollama。

按照提示,打开终端,使用 Win + R 快捷键调用 terminal:
Snipaste_2025-11-13_15-33-15

这里Ollama默认给出的例子是下载/运行llama3.2大模型,
我们这里不使用这个llama3.2模型,直接下载/运行deepseek,参数选择最小的1.5b,在终端窗口运行下面命令:

ollama run deepseek-r1:1.5b
Snipaste_2025-11-13_15-32-14

ollama run deepseek-r1:1.5b
pulling manifest
pulling manifest
pulling manifest
pulling manifest
pulling manifest
pulling manifest
pulling aabd4debf0c8... 100% ▕████████████████████████████████████████▏ 1.1 GB
pulling 369ca498f347... 100% ▕████████████████████████████████████████▏ 387 B
pulling 6e4c38e1172f... 100% ▕████████████████████████████████████████▏ 1.1 KB
pulling f4d24e9138dd... 100% ▕████████████████████████████████████████▏ 148 B
pulling a85fe2a2e58e... 100% ▕████████████████████████████████████████▏ 487 B
verifying sha256 digest
writing manifest
success

Send a message (/? for help)
这里就直接可以和DeepSeek对话了:

Hi! Who are you?

Hi! I'm DeepSeek-R1, an artificial intelligence assistant created by DeepSeek. I'm at your service
and would be delighted to assist you with any inquiries or tasks you may have.

Send a message (/? for help)

http://www.jsqmd.com/news/39373/

相关文章:

  • 第六篇: `dmesg` `lspci` - 硬件层面的“黑匣子”与“雷达” - 教程
  • Unreal Python 菜单扩展
  • kettle 将数据库中所有的表数据导出在excel中
  • rsync+lsyncd实时同步客服端数据到服务端
  • 2025年西南地区口碑好的石材源头厂家综合实力排行榜
  • SWOOLE PROCESS多进程模型
  • 【备忘】通用查询增加一个与查询实体不相关的简单条件方法
  • 如何 运行 seatunnel web 开发版
  • 苏珊大爷
  • 深入解析:mysql_page pagesize 如何实现游标分页?
  • Continuous Trajectory: 从 Independent Set Process 到另类 Giant Component
  • Bakas Trick
  • c++初学者的随笔记录_1
  • bug等级
  • bug的内容包含(重点)
  • mybatis 打印执行SQL
  • 10年湛江老导游私藏路线!除了生蚝,这座海滨之城还有多少惊喜等你发现
  • ld.lld: error: undefined symbol: _impure_ptr 出现该问题解决办法
  • 5、MySQL 常用值
  • 2025年平移门行业十大服务商权威推荐榜单:专业选择指南
  • 2025年平移门服务商综合实力排行榜:十大优质企业深度解析
  • 气象数值预报高性能计算
  • 北京婚姻诉讼律师精选推荐
  • 基于ComfyUI的Wan2.2文生视频显卡性能实测
  • 2025年不锈钢列管式冷凝器源头厂家权威推荐榜单:化工冷凝器/新型风冷冷凝器/不锈钢冷凝器源头厂家精选
  • 10年恩施老导游小胡吐血整理!这5个景点不去等于白来,内含独家避坑指南
  • P13544 [OOI 2022] Serious Business
  • 区间与除法-线段树
  • CF1799F Halve or Subtract
  • Agent使用