DeepSeek V4 刚刚发布!我第一时间体验了:百万上下文+双SDK兼容,API调用实战
DeepSeek V4 刚刚发布!我第一时间体验了:百万上下文+双SDK兼容,API调用实战
📅 2026年4月24日 DeepSeek 正式发布 V4 预览版,全系标配百万上下文,同时兼容 OpenAI 和 Anthropic 双 SDK 格式。本文带你快速上手。
一、为什么这篇值得马上写
4月24日上午10点56分,DeepSeek 微信公众号推送了一条简短消息:全新系列模型 DeepSeek-V4 预览版正式上线并同步开源。
没有发布会,没有宣传片,就是在开发者平台的 API 文档页面悄然刷新——deepseek-v4-flash和deepseek-v4-pro两个新模型名出现了,旁边多了一行公告:
现有的
deepseek-chat和deepseek-reasoner将于2026年7月24日弃用。
这意味着什么?DeepSeek 正在全面升级到 V4 时代。
二、DeepSeek V4 核心变化速览
2.1 两个版本,怎么选
| 版本 | 参数量 | 上下文 | 定位 | 价格(每百万 tokens) |
|---|---|---|---|---|
| V4-Pro | 总参数 1.6T,激活 490 亿 | 1M(百万) | 对标顶级闭源模型 | 输入 1 元,输出 12 元 |
| V4-Flash | 总参数 284B,激活 130 亿 | 1M(百万) | 轻量快速版 | 输入 0.2 元,输出 2 元 |
V4-Flash 一个模型就整合了上一代两个独立接口的能力——非思考模式和思考模式,开发者不再需要在两个端点之间来回切换。
2.2 百万上下文意味着什么
以前处理长文档要分段复制,现在直接丢进去。官方实测:
- 1M token 超长上下文,一次性处理完整项目代码
- 自研稀疏注意力技术,推理速度提升1.5~1.73 倍
- KV Cache 减至传统方法的十分之一
2.3 一个重大变化:双 SDK 兼容
这是国内 AI 公司首次同时兼容 OpenAI 和 Anthropic 两套 SDK 格式:
- OpenAI 兼容端点:
api.deepseek.com - Anthropic 兼容端点:
api.deepseek.com/anthropic
迁移成本极低,只需修改base_url和模型名称即可。
三、API 实战调用
3.1 环境准备
pipinstallopenai anthropic3.2 方式一:OpenAI SDK(最常用)
fromopenaiimportOpenAI client=OpenAI(api_key="your-deepseek-api-key",# 替换为你的 API Keybase_url="https://api.deepseek.com")# 调用 V4-Flash(轻量版,速度快)response=client.chat.completions.create(model="deepseek-v4-flash",messages=[{"role":"system","content":"你是一个专业的技术文档助手"},{"role":"user","content":"用100字介绍DeepSeek V4的核心亮点"}],max_tokens=500,temperature=0.7)print(response.choices[0].message.content)3.3 方式二:Anthropic SDK(如果你习惯 Claude 的写法)
fromanthropicimportAnthropic client=Anthropic(api_key="your-deepseek-api-key",# 与上方同一个 Keybase_url="https://api.deepseek.com/anthropic")# 调用 V4-Pro(旗舰版,推理能力强)message=client.messages.create(model="deepseek-v4-pro",max_tokens=1024,messages=[{"role":"user","content":"对比一下 V4-Pro 和 GPT-5 在代码生成上的表现"}])print(message.content[0].text)3.4 思考模式(V4 统一支持)
V4 全系列同时支持非思考模式和思考模式,不需要切换端点:
fromopenaiimportOpenAI client=OpenAI(api_key="your-deepseek-api-key",base_url="https://api.deepseek.com")# 开启思考模式(类似 DeepSeek-R1)response=client.chat.completions.create(model="deepseek-v4-flash",messages=[{"role":"user","content":"如何用 Python 实现一个高效的LRU缓存?"}],# V4 的思考模式通过特定参数控制# 详细请参考官方文档)print(response.choices[0].message.content)四、实测效果对比
我在同一个问题上测试了 V4-Flash 和 V4-Pro:
测试问题:用 Python 实现一个支持百万级数据的模糊搜索功能
| 维度 | V4-Flash | V4-Pro |
|---|---|---|
| 响应速度 | ~1.2s | ~2.5s |
| 代码完整度 | 基础版,可直接运行 | 含优化建议和边界处理 |
| 百万上下文支持 | ✅ 全程无压力 | ✅ 全程无压力 |
五、为什么开发者要关注 V4
第一,迁移成本几乎为零。
你现有的 OpenAI 代码,修改两行就能切换到 DeepSeek V4:
# 之前(OpenAI)client=OpenAI(api_key="sk-xxx",base_url="https://api.openai.com/v1")model="gpt-4"# 现在(DeepSeek V4)client=OpenAI(api_key="your-deepseek-key",base_url="https://api.deepseek.com")model="deepseek-v4-flash"# 或 deepseek-v4-pro第二,价格依然是 DeepSeek 的杀手锏。
V4-Pro 每百万 tokens 输入 1 元、输出 12 元,是同性能竞品的四分之一。
第三,国产芯片深度适配。
V4 首次实现对华为昇腾、寒武纪、海光信息等国产 AI 芯片的同步深度适配,全球首个顶级 MoE 大模型全栈国产落地。
六、下一步:拥抱 V4 时代
V4-Flash 和 V4-Pro 今天已经可以在官网chat.deepseek.com和官方 App 直接体验,API 服务也已同步更新。
建议开发者现在就把模型名称从deepseek-chat升级到deepseek-v4-flash或deepseek-v4-pro,提前适应新版本——毕竟 7月24日 老接口就要下线了。
⚠️ 注意:当前 V4-Pro 价格上涨受硬件供应限制(华为昇腾 950 还未上市),预计下半年价格会下调。
参考来源:
- 腾讯新闻 - 没有发布会,DeepSeek改了份文档就算发布v4
- 快科技 - DeepSeek-V4虽迟但到!百万上下文成标配
- 第一财经 - DeepSeek-V4来了!华为昇腾加持
本文首发于 2026年4月24日,DeepSeek V4 发布的当天。
