当前位置: 首页 > news >正文

Claude Code 直连 Ollama / LM Studio:本地、云端开源模型都能跑

本文已收录在Github,关注我,紧跟本系列专栏文章,咱们下篇再续!

  • 🚀 魔都架构师 | 全网30W技术追随者
  • 🔧 大厂分布式系统/数据中台实战专家
  • 🏆 主导交易系统百万级流量调优 & 车联网平台架构
  • 🧠 AIGC应用开发先行者 | 区块链落地实践者
  • 🌍 以技术驱动创新,我们的征途是改变世界!
  • 👉 实战干货:编程严选网

Claude Code 直连 Ollama / LM Studio:本地、云端开源模型都能跑

0 前言

从 Ollama v0.14.0 开始,系统已支持 Anthropic 的 Messages API,这意味着你可以使用类似 Claude Code 的工具与开源模型配合使用。

Claude Code 示例:

你可在本地运行 Claude Code,调用本机模型;也可以通过 ollama.com 连接云端模型。

1 在 Ollama 中用 Claude Code

Claude Code 是 Anthropic 推出的终端编程助手工具。随着 Ollama 对 Anthropic API 的支持,现可用任意 Ollama 模型运行 Claude Code。

1.1 安装 Claude Code

curl-fsSL https://claude.ai/install.sh|bash

1.2 连接 Ollama

配置环境变量以使用 Ollama:

exportANTHROPIC_AUTH_TOKEN=ollamaexportANTHROPIC_BASE_URL=http://localhost:11434

使用 Ollama 本地模型运行 Claude Code:

ANTHROPIC_AUTH_TOKEN=ollama ANTHROPIC_BASE_URL=http://localhost:11434 claude --model qwen3:0.6b

同理,对于 lmstudio,配置如下:

$exportANTHROPIC_AUTH_TOKEN=lmstudio $exportANTHROPIC_BASE_URL=http://192.168.5.236:1234 $ claude --model gpt-oss:20b ╭─── Claude Code v2.1.62 ───────────────────────────────────────────────────────────────────────────────────────────────╮ │ │ Tipsforgetting started │ │ Welcome back!│ Run /init to create a CLAUDE.mdfilewith instructionsforClaude │ │ │ ───────────────────────────────────────────────────────────────── │ │ │ Recent activity │ │ ▐▛███▜▌ │ No recent activity │ │ ▝▜█████▛▘ │ │ │ ▘▘ ▝▝ │ │ │ openai/gpt-oss-120b · API Usage Billing │ │ │ ~/soft/IDEAProjects/us-stock-monitor │ │ ╰───────────────────────────────────────────────────────────────────────────────────────────────────────────────────────╯ /model to try Opus4.6whoare you ⏺ I’m Claude Code, Anthropic’s CLI‑based coding assistant. Ihelpyou read, edit, and manage code, run commands, and answer programming‑related questions directly from your terminal. Let me know what you’d like to work on!

Ollama 云端模型

macOS的路径:~/.ollama/id_ed25519.pub

$ ollama signin $cat~/.ollama/id_ed25519.pub ssh-ed25519 xxx

先去https://ollama.com/settings/keys,创建一个API key,再设置环境变量启动:

ANTHROPIC_API_KEY=api-key ANTHROPIC_BASE_URL=https://ollama.com claude --model glm-4.7:cloud

上下文长度设置

建议选择上下文长度(context length)不少于 32K tokens 的模型。

更多详情请参考 上下文长度文档 以了解如何调整设置。

Ollama 云端模型始终以最大上下文长度运行。

2 推荐模型

适合与 Claude Code 搭配进行编程的模型:

本地模型:

  • gpt-oss:20b
  • qwen3-coder

云端模型:

  • glm-4.7:cloud
  • minimax-m2.1:cloud

3 使用 Anthropic SDK

已有的基于 Anthropic SDK 的应用,只需修改基础 URL 即可连接到 Ollama。详细说明请参考 Anthropic 兼容性文档。

3.1 Python 示例

importanthropic client=anthropic.Anthropic(base_url='http://localhost:11434',api_key='ollama',# 必填,但可忽略)message=client.messages.create(model='qwen3:0.6b',messages=[{'role':'user','content':'写一个判断数字是否为质数的函数'}],max_tokens=1024)print(message.content[0])
ThinkingBlock(signature=None,thinking='好的,xxx是否为质数。\n',type='thinking')

3.2 js 示例

importAnthropicfrom'@anthropic-ai/sdk'constanthropic=newAnthropic({baseURL:'http://localhost:11434',apiKey:'ollama',})constmessage=awaitanthropic.messages.create({model:'qwen3-coder',messages:[{role:'user',content:'写一个判断数字是否为质数的函数'}],})console.log(message.content[0].text)

4 工具调用(Tool Calling)

模型可通过工具与外部系统交互:

importanthropic client=anthropic.Anthropic(base_url='http://localhost:11434',api_key='ollama',)message=client.messages.create(model='qwen3-coder',tools=[{'name':'get_weather','description':'获取某地当前天气','input_schema':{'type':'object','properties':{'location':{'type':'string','description':'城市和州名,例如 San Francisco, CA'}},'required':['location']}}],messages=[{'role':'user','content':"旧金山的天气怎么样?"}])forblockinmessage.content:ifblock.type=='tool_use':print(f'工具名称:{block.name}')print(f'输入参数:{block.input}')

5 支持的功能

  • 多轮消息和对话
  • 流式输出
  • 系统提示词(system prompt)
  • 工具调用 / 函数调用
  • 扩展思考模式
  • 视觉输入(图片识别)

完整功能列表请参考 Anthropic 兼容性文档。

参考:

  • 更多安装和配置说明Claude Code 使用指南。
http://www.jsqmd.com/news/417980/

相关文章:

  • 2026别错过!本科生必备的AI论文写作软件 —— 千笔写作工具
  • 知乎去广告版 v10.85.0
  • MCP 深入理解:协议原理与自定义开发
  • 2026年 跨境营销服务商推荐榜单:整合红人、社媒、短视频与内容增长,海外市场高效获客策略深度解析 - 品牌企业推荐师(官方)
  • 定制ubuntu操作系统
  • 2026年小区/社区/两轮充电桩厂家推荐:领桩何以成为行业首选? - 深度智识库
  • Windows server 2012服务器,远程到期:由于没有远程桌面授权服务器可以提供许可证,远程会话连接已断开。请跟服务器管理员联系。
  • 2026年自行车/电动车/电瓶车充电桩推荐:领装如何以技术破局? - 深度智识库
  • 2026年国内主流AI Coding Plan套餐全对比|开发者避坑指南
  • 2026年变频器厂家实力推荐榜:高压/低压/永磁同步/控制柜全系列深度解析,精选技术领先品牌助力工业节能升级! - 品牌企业推荐师(官方)
  • 2026年充电桩五大品牌权威解读:全场景覆盖能力与安全运维成为新标杆 - 深度智识库
  • 2026铝精炼热鼎盘供应商大比拼,谁更胜一筹?玻璃热弯模具/硅酸钙保温板,铝行业精炼用热鼎盘企业选哪家 - 品牌推荐师
  • ubuntu24 顶部系统监控
  • AI编程--应用阶段
  • 中小企业必看!社保薪酬+客服财务外包,高性价比更省心 - 包罗万闻
  • KunPeng
  • 轻量化部署+离线可用,AI编程方案适配中小团队落地
  • AMD 之 Zen 架构
  • 可伴臻选卡回收最新攻略:1000面值83折,5分钟微信到账,亲测有效! - 畅回收小程序
  • Quick Fix: CUHK Zoom SSO 400 Bad Request - Header Field Too Long
  • 2026年 无功补偿装置厂家推荐排行榜:SVG高压/低压动态补偿柜、TSC高压柜、APF有源滤波装置,实力品牌深度解析与选购指南 - 品牌企业推荐师(官方)
  • GEO优化顶级服务商杨建允团队的基本介绍及行业成果 - 博客万
  • 2月揭晓!国内口碑良好的氧气供应商推荐,标准气/氦气/液氮/混合气/二氧化碳/氩气/氧气/七氟丙烷/氮气,氧气公司排行 - 品牌推荐师
  • 2026年金属回收工厂推荐排行榜:专业拆解与环保再生实力厂家深度解析 - 品牌企业推荐师(官方)
  • 2026年AI大模型架构师薪资曝光:月薪超4.2万,资深年薪破百万!你符合条件吗?
  • 大润发购物卡回收处理几种方法,轻松变现不浪费! - 京顺回收
  • 参考文献中如何自定义中括号的项目列表
  • 2026年 六安不锈钢金属回收工厂推荐榜:专业拆解、高效再生与环保合规的优质合作伙伴 - 品牌企业推荐师(官方)
  • 广州展厅设计新风向:口碑公司排行揭晓,展览搭建/展台设计/展位布置/展会设计/展陈设计,展厅设计公司推荐 - 品牌推荐师
  • 2026成都装修公司推荐 - GEO排行榜