当前位置: 首页 > news >正文

等了 15 个月,DeepSeek V4 终于来了——我只想说:黄仁勋的噩梦成真了

1.6 万亿参数 · 百万上下文标配 · 打到2毛钱 · 跑在华为芯片上

全球 AI 圈,

先说结论:这次 V4 的发布,有三件事让我睡不着

第一件:百万 token 上下文,从"高端奢侈品"变成"全系标配"。

一年前,谷歌 Gemini 1.5 靠 1M 上下文吊打所有人,定价贵得让人咋舌。 而今天,DeepSeek 把它做成了连最便宜的 Flash 版本都自带的基础功能。 就像你去买国产手机,发现 1TB 存储已经是入门款了——有点麻木,但确实震到了。

第二件:百万 token 的价格,被打到了 2 毛钱。

V4-Flash:0.2 元 / 百万 Tokens。 国内竞品里,Kimi-K2.6 缓存命中价 1.1 元,GLM-5.1 要 1.3~2 元。 DeepSeek 在上下文翻了数倍的前提下,价格反而是别人的零头

这不叫"价格战",这叫降维打击

第三件:黄仁勋说过"那将是灾难性的"——然后 DeepSeek 真的做到了。

V4 不仅跑在英伟达 GPU 上,还完成了华为昇腾 NPU 的全面适配,性能不降反升,部分场景加速接近翻倍。英伟达 CEO 黄仁勋曾公开说:"如果 DeepSeek 先在华为平台上发布,对我们国家将是灾难性的结果。"

现在,那个"灾难",发生了。


DeepSeek V4 到底是什么?用人话说一遍

DeepSeek V4 是深度求索(DeepSeek)于 2026 年 4 月 24 日发布的新一代旗舰大语言模型,全量开源,MIT 协议,附带 58 页技术报告。

这次发布了两个版本:

版本总参数激活参数上下文输入定价输出定价
V4-Pro(旗舰)1.6T49B1M tokens¥1/M¥2/M
V4-Flash(轻量)284B13B1M tokens¥0.2/M¥0.4/M

💡1M tokens 是什么概念?大约是 75 万个英文单词,或者相当于一部《红楼梦》全文的 3 倍。过去处理这么长的文本,要么超出模型限制,要么贵到令人咋舌。


技术上它做了什么?三个真正的突破

我知道很多人不关心架构细节,但这三个点你必须了解——因为它们直接解释了"为什么能这么便宜"。

突破 1:混合注意力机制,把长文本的计算量砍掉了 73%

处理 1M token 的超长上下文,最大的障碍是算力成本随长度平方增长——文本翻倍,算力翻四倍。

V4 用"混合注意力机制"(Hybrid Attention)解决了这个问题:将 token 压缩与稀疏注意力结合,让 1M 上下文的实际计算量只有上一代 V3.2 的27%,显存占用降至10%

用大白话说:同样的文本,V4 花的电费是 V3 的四分之一。这才是"打到 2 毛钱"的底气所在,而不是靠补贴烧钱。

突破 2:原生支持华为昇腾,把算力枷锁卸了

以往中国 AI 公司有一个隐形天花板:英伟达芯片受出口管制,顶级算力供不应求,推理成本居高不下。

DeepSeek V4 直接在华为昇腾 NPU 上完成了精细粒度的专家并行(EP)方案验证:

  • 通用推理任务:1.50~1.73 倍加速
  • 对延时敏感的 RL 推演 / Agent 场景:1.96 倍加速

这意味着什么?意味着 DeepSeek 可以不依赖英伟达,在国产算力上跑出更高性价比。官方也暗示:待下半年华为昇腾 950 超节点批量上市,Pro 版本的 API 价格还会大幅下调

这颗子弹的杀伤力,会在未来 6~12 个月慢慢释放。

突破 3:默认开启思维链,推理能力内置

V4 原生默认开启 Thinking Mode(深度推理模式),不需要用户额外切换。

配合后训练阶段引入的 10 个专项内部模型(数学、代码、Agent 等),V4 在推理类任务上的表现有了质的跃升。在 Artificial Analysis 综合评估(Elo)榜单上:

  • DeepSeek V4-Pro:1554 分(开源模型第一)
  • GLM-5.1:1535 分
  • Kimi K2.6:1484 分
  • DeepSeek V3.2:约 1199 分(V4 直接领先 355 分)

在算法竞赛类(Codeforces)和顶级推理类测评中,V4-Pro 甚至超过了 Claude-Opus-4.6 和 GPT-5.4 的标准配置版本。


但我也要泼一盆冷水

炸场归炸场,有几个点值得冷静看待:

1. 不如 R1 那次震撼。DeepSeek R1 发布时,全球都惊呼"没想到中国能做出来"。V4 这次更像是"意料之中的强",大家已经开始适应这个节奏了。

2. 没有多模态,纯文本。V4 不能看图、不能生视频,对于普通用户来说缺少直观冲击力。GPT-5、Gemini 都在大力推图文视频一体化,这是 V4 目前的明显短板。

3. 与顶级闭源模型仍有差距。官方技术报告罕见地坦诚:V4-Pro "略落后于 GPT-5.4 和 Gemini-3.1-Pro",差距大约在3~6 个月。开源最强,但还不是全球最强。

4. 500 亿融资传言悬而未决。据传 DeepSeek 正在洽谈 500 亿元融资,腾讯、阿里都在桌上,投前估值 3000 亿。官方至今没有正面回应——这份沉默,让人浮想联翩。


这件事真正的意义

V4 的发布,不只是一个模型发布。

它完成了三件事:

  1. 让百万上下文从"高端特性"变成行业基准,所有模型都必须跟进,否则显得落后
  2. 用国产算力跑出顶级性能,打破了"先进 AI 必须依赖英伟达"的潜意识
  3. 再次把 API 价格地板踩穿,逼得所有大模型厂商重新审视定价策略

中国 AI 产业的发展路径,从来就不是"弯道超车",而是另起一条道

DeepSeek 的打法是:我不一定比你最先进,但我能让同等能力的成本低一个数量级,然后开源给全世界用。这种打法,正在重塑全球 AI 的权力格局。


怎么上手体验?

  • 官网直接用:chat.deepseek.com(已更新为 V4)
  • API 调用:platform.deepseek.com
  • 开源模型下载:HuggingFace / ModelScope 搜索DeepSeek-V4,MIT 协议,商用免费
  • 技术报告:HuggingFace 官方仓库附带完整 58 页技术报告,值得一读

最后说一句

2023 年,大家还在讨论"中国 AI 能不能追上美国"。

2026 年,我们在讨论的是"DeepSeek 这次把价格打到多低"。

时代变了。


🔖觉得有用就点个赞吧,更多 AI 前沿内容持续更新~

💬评论区聊一聊:你觉得 DeepSeek 的"开源+极低价"策略,最终会不会把国内其他大模型逼死?

http://www.jsqmd.com/news/711637/

相关文章:

  • DSMC架构:为OpenClaw智能体构建外部大脑,解决长会话失忆问题
  • 视觉推理与文本到图像生成的技术演进
  • 多模态大语言模型与扩散变换器的融合架构设计与优化
  • 迈威生物明日上市:发行价27.64港元 面临破发风险 年亏9.7亿
  • 从STM32到RISC-V:C语言裸机编程跨架构迁移 checklist(含寄存器映射表+时钟树校验脚本)
  • 近期,不错的LLM Agent统一记忆框架综述~
  • 2026年4月上海闵行搬家服务机构排行一览 - 优质品牌商家
  • wllama实战:基于WebAssembly在浏览器本地运行大模型
  • 代码嵌入模型C2LLM:多注意力池化技术解析与应用
  • 多智能体AI研究系统架构设计与实践
  • 离线机器人策略学习中的后验转移重加权方法解析
  • 车子松开方向盘就跑偏?别大意,这是底盘发出的安全预警
  • 学术党福利:用学校邮箱免费获取Mosek许可证,并配置给CVX for MATLAB的全流程记录
  • 基于Vue 3与Claude API的全栈AI应用开发实战指南
  • ServerlessClaw:基于AWS无服务器架构的AI智能体集群设计与部署
  • 非配对多模态学习UML框架:原理、实现与应用
  • 基于Cloudflare Workers构建ChatGPT插件:从原理到部署实战
  • AI音视频总结工具BibiGPT:从架构解析到本地部署实战
  • 2026年8款CRM横评:从精细化运营到数据安全全较量
  • 浸没式超滤厂家专业度实测解析 核心指标对比榜 - 优质品牌商家
  • LLM代码验证新方法:基于内部计算结构的属性图分析
  • DASD-4B-Thinking:轻量级语言模型的知识蒸馏技术解析
  • FPGA原型验证:核心价值、挑战与工程实践
  • 有限状态机在Web自动化测试中的实践与优化
  • AI沙箱合规生死线(GDPR/CCPA/中国生成式AI管理办法第12条):Docker-only方案如何通过等保三级与金融信创认证(附审计清单模板)
  • 基于Claude与Edge TTS构建私有AI播客摘要系统
  • VS Code Copilot Next企业部署实战:3步完成CI/CD流水线自动注入,附Gartner认证合规检查清单
  • 2026年国内活动板房核心厂家top5推荐及地址梳理:折叠箱房,拓展箱房,苹果仓,z型打包箱,优选推荐! - 优质品牌商家
  • GPU内核自动化优化:OpenEvolve进化算法实践
  • Quansheng UV-K5对讲机固件破解与频段扩展指南