当前位置: 首页 > news >正文

Python系列AI系列(仅供参考):AI大模型之采用DeepSeek-Coder:6.7b + Ollama + Continue离线部署

AI大模型之采用DeepSeek-Coder:6.7b + Ollama + Continue离线部署

  • AI大模型之采用DeepSeek-Coder:6.7b + Ollama + Continue离线部署
    • 一、流程梳理
      • 1、外网一次性下载清单(仅需这 1 次联网)
        • 1. 核心工具安装包
        • 2. 推荐模型下载(选 1 个即可)
        • 3. 下载完成验证
      • 2、内网断网环境 安装配置 一步一命令核对表
        • 🔴 阶段 1:安装 Ollama 环境
        • 🟠 阶段 2:安装 Continue IDEA 插件
        • 🟡 阶段 3:配置 Continue 连接本地模型(核心步骤)
        • 🟢 阶段4:离线功能验证(确保万无一失)
      • 3、日常使用命令速查(内网环境)
        • 1. 启动/停止模型服务
        • 2、项目级中文提问模板(直接复制用)
    • 二、大模型简单对比(程序员视角)
      • deepseek-coder:6.7b
      • qwen2:7b
    • 三、实际应用(方案 B: DeepSeek-Coder:6.7b + Ollama + Continue)
      • 1、外网必须下载的 3 样
        • (1)Ollama 安装包
        • (2)Continue IDEA 插件 ZIP
        • (3)下载 DeepSeek-Coder 模型(关键)
      • 2、内网一步一命令安装配置(纯离线)
        • 阶段 1:安装 Ollama
        • 阶段 2:安装 Continue 插件(Idea里)
        • 阶段 3:配置 Continue(核心)
          • 方法1:
          • 方法 2:手动打开文件(100% 成功,备用)
            • 注意:乱码问题
        • 阶段 4:启动模型(不用也可以)
        • 阶段 5:离线使用(中文提问,不用也可以)




AI大模型之采用DeepSeek-Coder:6.7b + Ollama + Continue离线部署

一、流程梳理

1、外网一次性下载清单(仅需这 1 次联网)

1. 核心工具安装包

2. 推荐模型下载(选 1 个即可)

模型下载命令需在外网环境执行,执行前确保 Ollama 已安装:

方案 A:中文首选(后端项目分析最优)

# 通义千问2 7B 量化版,中文极强,代码理解好,4GB显存可跑ollama pull qwen2:7b

方案 B:代码专用(DeepSeek Coder)

# DeepSeek Coder 6.7B 量化版,代码理解拉满,中文支持优秀ollama pull deepseek-coder:6.7b

方案 C:低配电脑(8G 内存可用)

# Qwen2 1.5B 量化版,体积小,速度快,适合低配机器ollama pull qwen2:1.5b
3. 下载完成验证
  • Ollama 安装包:文件大小约 200MB 左右

  • Continue 插件 ZIP:文件大小约 10-20MB

模型文件:默认存储在 C:\Users\你的用户名.ollama\models 目录,qwen2:7b 完整大小约 4.5GB,deepseek-coder:6.7b 约 4GB

2、内网断网环境 安装配置 一步一命令核对表

全程断网,所有操作均在本地完成,无任何外网请求

🔴 阶段 1:安装 Ollama 环境

🟠 阶段 2:安装 Continue IDEA 插件

🟡 阶段 3:配置 Continue 连接本地模型(核心步骤)

以 Qwen2:7b 为例,DeepSeek 仅需修改模型名即可:

(1) 打开 IDEA 右侧 Continue 面板 → 点击右上角 ⚙️ 设置图标 → 选择 Open Settings;

(2)打开 config.json 配置文件 ,完全替换 models 数组为以下配置(直接复制):

{"models":[{"title":"Local Qwen2 7B","provider":"openai","model":"qwen2:7b","apiBase":"http://localhost:11434/v1","apiKey":"ollama","contextWindow": 32768,"systemMessage":"你是一个专业的 Java 后端开发助手,全程用中文回答,只分析用户提供的项目代码,不生成通用原理。"}],"tabAutocompleteModel":{"title":"Local Qwen2 7B","provider":"openai","model":"qwen2:7b","apiBase":"http://localhost:11434/v1","apiKey":"ollama"}}

(3)保存配置文件,重启 IDEA ,配置生效 ;

(4)启动本地模型服务:

打开CMD/终端,执行命令:ollama run qwen2:7b

✅ 成功:显示 >>> 提示符,保持窗口打开

🟢 阶段4:离线功能验证(确保万无一失)

(1)彻底断开网络(拔网线/关闭WiFi) , 确保电脑完全断网 ;

(2)在 Continue 聊天框输入测试指令:@Repo 用中文帮我分析这个项目的登录功能,告诉我核心代码位置和调用链;

(3)等待模型回答:

✅ 成功:模型正常读取项目代码,用中文精准定位功能、解释逻辑 ;

❌ 失败:检查 Ollama 服务是否启动、配置文件是否正确。

3、日常使用命令速查(内网环境)

1. 启动/停止模型服务
# 启动 Qwen2 模型(保持窗口打开)ollama run qwen2:7b# 启动 DeepSeek 模型ollama run deepseek-coder:6.7b# 查看已安装模型ollama list# 停止模型服务(Windows 直接关闭CMD窗口即可)
2、项目级中文提问模板(直接复制用)
# 功能定位模板@Repo 用中文详细说明这个项目中【XX功能】的实现逻辑、入口文件、涉及的类和方法、完整调用链,只讲我项目里的代码,不要通用原理。# 代码分析模板@Repo 帮我分析这个项目中【XX模块】的代码结构,用中文说明每个类的作用、方法之间的调用关系。# 问题排查模板@Repo 用中文帮我排查这个项目中【XX报错】的原因,定位相关代码并给出修复方案。

二、大模型简单对比(程序员视角)

deepseek-coder:6.7b

专门为代码训练,天生懂编程

写函数、补全逻辑、查 bug、解释代码、生成注释都很顺

支持多语言:Java、Python、Go、JS、C/C++、SQL 都不错

体量 ~4GB,本地跑压力小

缺点:通用聊天、写文案不如通用大模型

qwen2:7b

阿里通用大模型,综合能力强

代码能写,但不是专精代码,复杂逻辑偶尔跑偏

适合:既要写代码,又要写文档、总结、翻译

大小 ~4.5GB,比 deepseek-coder 稍大

三、实际应用(方案 B: DeepSeek-Coder:6.7b + Ollama + Continue)

1、外网必须下载的 3 样

(1)Ollama 安装包

下载地址:https://ollama.com/download

文件名类似:OllamaSetup.exe

保存好,内网直接双击安装

点击后会下载一个 .exe 安装包(比如 OllamaSetup.exe),后续拷到内网笔记本上,双击安装,就能在离线环境用 Ollama 了。

(2)Continue IDEA 插件 ZIP
  • 下载地址:https://plugins.jetbrains.com/plugin/22707-continue/versions

  • 下载对应你 IDEA 版本的 .zip

  • 不要解压,直接保存

注意idea版本与插件适配:Continue 1.0.67 只支持 IDEA 2024.1 及以上版本,你的 IDEA 是 2023.2,版本太旧,装不上高版本插件。

(3)下载 DeepSeek-Coder 模型(关键)

在外网电脑打开 CMD,执行(需要外网已安装ollama):

ollama pull deepseek-coder:6.7b

等待显示 success 即可。

①双击安装OllamaSetup.exe(外网)

②打开 CMD,执行(外网):

ollama pull deepseek-coder:6.7b

等它下载完 → 出现 success

上一步下载的ollama里如果你提问它必须依据某个大模型才能回答,目前没有一个大模型列表里的都是需要联网下载的,我这里选择下载大模型 deepseek-coder:6.7b。

③然后把整个文件夹复制走:

C:\Users\你的用户名\.ollama

2、内网一步一命令安装配置(纯离线)

阶段 1:安装 Ollama

(1)双击 OllamaSetup.exe 安装

(2)打开新 CMD,输入:

ollama--version


出现版本号 = 成功

(3)把从外网拷来的 .ollama 文件夹,覆盖到内网电脑:

C:\Users\内网用户名\.ollama


(4)查看模型是否存在:

ollama list

可以发现,ollama基于大模型deepseek-coder:6.7b可以使用了:

阶段 2:安装 Continue 插件(Idea里)
  • IDEA → File → Settings → Plugins

  • 点右上角齿轮 → Install Plugin from Disk…

-选择你下载的 Continue-xxx.zip

  • 重启 IDEA

  • 双击导入continue插件;

阶段 3:配置 Continue(核心)
方法1:

打开 Continue 设置 → Open Settings把下面这段 完整复制粘贴 替换原有内容:

{"models":[{"title":"DeepSeek-Coder 6.7B (离线)","provider":"openai","model":"deepseek-coder:6.7b","apiBase":"http://localhost:11434/v1","apiKey":"ollama","contextWindow": 16384,"systemMessage":"你是专业Java后端开发助手,只分析项目代码,全程用中文回答,简洁准确,不废话。"}]}

保存,重启 IDEA。

方法 2:手动打开文件(100% 成功,备用)

如果点击齿轮没反应,直接手动找到文件:

按 Win+R 打开「运行」,输入:%USERPROFILE%\.continue


回车后会直接跳转到 Continue 的配置文件夹

用 IDEA / 记事本打开里面的 config.json,替换成上面的配置,保存即可。


如果你只有 config.yaml(如图所示):

删除旧的 config.yaml,新建一个文件,命名为 config.json

把下面这段完整复制进去,保存:

{"name":"Local Assistant","version":"1.0.0","schema":"v1","models":[{"title":"DeepSeek Coder 6.7B (Ollama)","model":"deepseek-coder:6.7b","apiBase":"http://localhost:11434","provider":"ollama","options":{"temperature": 0.7,"num_ctx": 4096}}],"tabAutocompleteModel":[{"title":"DeepSeek Coder 6.7B (Ollama)","model":"deepseek-coder:6.7b","apiBase":"http://localhost:11434","provider":"ollama","options":{"temperature": 0.7,"num_ctx": 4096}}],"contextProviders":[{"name":"codebase"}]}

注意:乱码问题


解决方法;

1、打开 IDEA → File → Settings → Editor → File Encodings
把所有编码都改成 UTF-8:

2、上面勾选后还是乱码的话,

找到 IDEA 的安装目录,进入 bin 文件夹


记事本 / Notepad++打开 idea64.exe.vmoptions(64 位系统)
在文件最末尾,添加这 3 行配置:

阶段 4:启动模型(不用也可以)

打开 CMD,运行:

ollama run deepseek-coder:6.7b

出现 >>> 就可以用了,窗口不要关。

阶段 5:离线使用(中文提问,不用也可以)

在 Continue 里直接发:

@Repo 帮我找这个项目里登录功能在哪里实现,调用链是什么
@Repo 这个接口的业务逻辑在哪个类哪个方法

全部离线、中文、不联网。







Copy-paste monkey

AI大模型之采用DeepSeek-Coder:6.7b + Ollama + Continue离线部署

http://www.jsqmd.com/news/675829/

相关文章:

  • 8大网盘直链解析神器:如何轻松获取真实下载地址的完整指南
  • 瑞祥商联卡闲置不用?3个轻松变现技巧大揭秘! - 团团收购物卡回收
  • 2026年雅思高分App推荐:从听力到写作,全科覆盖 - 品牌2025
  • SeqGPT-560M从零开始教程:无需代码,Web界面完成零样本NLP任务
  • 2026年GEO监测工具大全|免费AI搜索优化直接用
  • 一键解锁Discord隐藏频道:ShowHiddenChannels插件让你的服务器管理更轻松
  • 深度解析开源虚拟显示驱动:如何用Parsec VDD实现专业级多屏扩展方案
  • WindowsCleaner:5步解决C盘空间不足的智能清理方案
  • 药用级泊洛沙姆 188 哪家价格便宜 高性价比采购指南 - 品牌推荐大师
  • AI论文生成工具有哪些?实测8款写论文的AI软件排行榜,应对各类论文需求! - 掌桥科研-AI论文写作
  • 微信小程序轮播图自定义指示器:从官方小圆点到创意进度条的完整实现方案
  • 避坑指南:ESP32-C3驱动ST7735屏,为什么你的屏幕不亮或花屏?
  • 硬件工程师的避坑指南:调试MIPI D-PHY信号完整性,从示波器眼图到状态机时序
  • 终极指南:如何免费解锁WeMod Pro高级功能
  • 3D 地球卫星轨道可视化平台开发 Day11(筛选指定卫星字段生成适配前端的JSON数据)
  • Real-Anime-Z企业应用:为动漫工作室搭建私有化风格化图像生成平台(含权限管理)
  • 群晖DSM 7.X保姆级教程:不用RAID,教你挂载NTFS硬盘做媒体库和冷备份
  • 别再踩坑了!Windows 10/11上SQL Server 2019 Developer版保姆级安装与SSMS配置全流程
  • 卢布尔雅那大学:纯视觉驱动实现图像异常自主检测能力提升突破
  • J1900软路由折腾记:从ESXi 6.7报错到OpenWrt网络配置,一篇讲透所有坑
  • Python系列AI系列(仅供参考):PyCharm智能开发实战:本地部署DeepSeek-R1与CodeGPT的高效融合指南
  • 中文文献元数据自动抓取:Jasminum插件彻底解决Zotero中文支持难题
  • PatchTST实战解析:如何用Transformer革新时间序列预测
  • 数字化转型选型必看:NocoBase 全方位深度评测——它能否成为企业级应用开发的“破局者”?
  • Vue-Office终极指南:5分钟实现专业级Office文档预览方案
  • 【权威基准测试报告】:Spring Boot 4.0 Agent-Ready vs 3.3 + 自研Agent方案——RPS提升47%、GC暂停下降63%,但代价是……
  • 3步轻松实现微信聊天记录完整导出:WeChatExporter终极指南
  • 用STC8G1K08单片机DIY智能车信标调试板,手把手教你从原理图到调频发射
  • TVA时代企业IT工程师的转型之路(三)
  • 告别干扰盲区!用STK 12.5.0新功能,深度分析卫星通信中的射频干扰与链路预算