等了 15 个月,DeepSeek V4 终于来了——我只想说:黄仁勋的噩梦成真了
1.6 万亿参数 · 百万上下文标配 · 打到2毛钱 · 跑在华为芯片上
全球 AI 圈,
先说结论:这次 V4 的发布,有三件事让我睡不着
第一件:百万 token 上下文,从"高端奢侈品"变成"全系标配"。
一年前,谷歌 Gemini 1.5 靠 1M 上下文吊打所有人,定价贵得让人咋舌。 而今天,DeepSeek 把它做成了连最便宜的 Flash 版本都自带的基础功能。 就像你去买国产手机,发现 1TB 存储已经是入门款了——有点麻木,但确实震到了。
第二件:百万 token 的价格,被打到了 2 毛钱。
V4-Flash:0.2 元 / 百万 Tokens。 国内竞品里,Kimi-K2.6 缓存命中价 1.1 元,GLM-5.1 要 1.3~2 元。 DeepSeek 在上下文翻了数倍的前提下,价格反而是别人的零头。
这不叫"价格战",这叫降维打击。
第三件:黄仁勋说过"那将是灾难性的"——然后 DeepSeek 真的做到了。
V4 不仅跑在英伟达 GPU 上,还完成了华为昇腾 NPU 的全面适配,性能不降反升,部分场景加速接近翻倍。英伟达 CEO 黄仁勋曾公开说:"如果 DeepSeek 先在华为平台上发布,对我们国家将是灾难性的结果。"
现在,那个"灾难",发生了。
DeepSeek V4 到底是什么?用人话说一遍
DeepSeek V4 是深度求索(DeepSeek)于 2026 年 4 月 24 日发布的新一代旗舰大语言模型,全量开源,MIT 协议,附带 58 页技术报告。
这次发布了两个版本:
| 版本 | 总参数 | 激活参数 | 上下文 | 输入定价 | 输出定价 |
|---|---|---|---|---|---|
| V4-Pro(旗舰) | 1.6T | 49B | 1M tokens | ¥1/M | ¥2/M |
| V4-Flash(轻量) | 284B | 13B | 1M tokens | ¥0.2/M | ¥0.4/M |
💡1M tokens 是什么概念?大约是 75 万个英文单词,或者相当于一部《红楼梦》全文的 3 倍。过去处理这么长的文本,要么超出模型限制,要么贵到令人咋舌。
技术上它做了什么?三个真正的突破
我知道很多人不关心架构细节,但这三个点你必须了解——因为它们直接解释了"为什么能这么便宜"。
突破 1:混合注意力机制,把长文本的计算量砍掉了 73%
处理 1M token 的超长上下文,最大的障碍是算力成本随长度平方增长——文本翻倍,算力翻四倍。
V4 用"混合注意力机制"(Hybrid Attention)解决了这个问题:将 token 压缩与稀疏注意力结合,让 1M 上下文的实际计算量只有上一代 V3.2 的27%,显存占用降至10%。
用大白话说:同样的文本,V4 花的电费是 V3 的四分之一。这才是"打到 2 毛钱"的底气所在,而不是靠补贴烧钱。
突破 2:原生支持华为昇腾,把算力枷锁卸了
以往中国 AI 公司有一个隐形天花板:英伟达芯片受出口管制,顶级算力供不应求,推理成本居高不下。
DeepSeek V4 直接在华为昇腾 NPU 上完成了精细粒度的专家并行(EP)方案验证:
- 通用推理任务:1.50~1.73 倍加速
- 对延时敏感的 RL 推演 / Agent 场景:1.96 倍加速
这意味着什么?意味着 DeepSeek 可以不依赖英伟达,在国产算力上跑出更高性价比。官方也暗示:待下半年华为昇腾 950 超节点批量上市,Pro 版本的 API 价格还会大幅下调。
这颗子弹的杀伤力,会在未来 6~12 个月慢慢释放。
突破 3:默认开启思维链,推理能力内置
V4 原生默认开启 Thinking Mode(深度推理模式),不需要用户额外切换。
配合后训练阶段引入的 10 个专项内部模型(数学、代码、Agent 等),V4 在推理类任务上的表现有了质的跃升。在 Artificial Analysis 综合评估(Elo)榜单上:
- DeepSeek V4-Pro:1554 分(开源模型第一)
- GLM-5.1:1535 分
- Kimi K2.6:1484 分
- DeepSeek V3.2:约 1199 分(V4 直接领先 355 分)
在算法竞赛类(Codeforces)和顶级推理类测评中,V4-Pro 甚至超过了 Claude-Opus-4.6 和 GPT-5.4 的标准配置版本。
但我也要泼一盆冷水
炸场归炸场,有几个点值得冷静看待:
1. 不如 R1 那次震撼。DeepSeek R1 发布时,全球都惊呼"没想到中国能做出来"。V4 这次更像是"意料之中的强",大家已经开始适应这个节奏了。
2. 没有多模态,纯文本。V4 不能看图、不能生视频,对于普通用户来说缺少直观冲击力。GPT-5、Gemini 都在大力推图文视频一体化,这是 V4 目前的明显短板。
3. 与顶级闭源模型仍有差距。官方技术报告罕见地坦诚:V4-Pro "略落后于 GPT-5.4 和 Gemini-3.1-Pro",差距大约在3~6 个月。开源最强,但还不是全球最强。
4. 500 亿融资传言悬而未决。据传 DeepSeek 正在洽谈 500 亿元融资,腾讯、阿里都在桌上,投前估值 3000 亿。官方至今没有正面回应——这份沉默,让人浮想联翩。
这件事真正的意义
V4 的发布,不只是一个模型发布。
它完成了三件事:
- 让百万上下文从"高端特性"变成行业基准,所有模型都必须跟进,否则显得落后
- 用国产算力跑出顶级性能,打破了"先进 AI 必须依赖英伟达"的潜意识
- 再次把 API 价格地板踩穿,逼得所有大模型厂商重新审视定价策略
中国 AI 产业的发展路径,从来就不是"弯道超车",而是另起一条道。
DeepSeek 的打法是:我不一定比你最先进,但我能让同等能力的成本低一个数量级,然后开源给全世界用。这种打法,正在重塑全球 AI 的权力格局。
怎么上手体验?
- 官网直接用:chat.deepseek.com(已更新为 V4)
- API 调用:platform.deepseek.com
- 开源模型下载:HuggingFace / ModelScope 搜索
DeepSeek-V4,MIT 协议,商用免费 - 技术报告:HuggingFace 官方仓库附带完整 58 页技术报告,值得一读
最后说一句
2023 年,大家还在讨论"中国 AI 能不能追上美国"。
2026 年,我们在讨论的是"DeepSeek 这次把价格打到多低"。
时代变了。
🔖觉得有用就点个赞吧,更多 AI 前沿内容持续更新~
💬评论区聊一聊:你觉得 DeepSeek 的"开源+极低价"策略,最终会不会把国内其他大模型逼死?
