
大刘在《三体》中写过一个后来被无数次引用的意象——黑暗森林。每个文明都是带枪的猎人,谁先暴露自己,谁先死。森林里不是没有人,是每个人都知道亮灯会招来子弹,所以大家都熄灯。
4月24 日,“神秘的东方力量” DeepSeek V4 Preview 上线,梁文锋团队第一次把模型和华为昇腾 950PR 深度绑定做官宣;但所有人都看明白了——线 Pro Max,要等昇腾 950 超节点下半年量产之后才能放出来。
每一家手里都握着至少一把“枪”——一个比公开版本更强的模型、一个还没轮到公众的下一代架构、一片还没大规模铺开的芯片超节点。但没有一家敢先把这把枪举起来。
因为在这个行业里,“先亮”的代价从来都不止泄密那么简单。先亮,意味着把自己的能力上限亲手交给对手做参照系;意味着率先承担安全审视、监管收紧、舆论压力的全部火力;意味着把自己变成下一轮所有竞对都要瞄准的那个移动靶子。森林里没有英雄主义——每一个先开枪的人,都把自己变成了下一个被瞄准的人。
早早更新完 Opus 4.7,Anthropic 仍旧霸榜各种榜单,而且手里还藏着只提供给企业客户的 Mythos——俨然一副不紧不慢的姿态。
但 Opus 4.7 的这一周期,几乎是 Claude 用户体验最差的一次,“差评如潮”。
3 月初,Anthropic 改了 Claude Code 的默认推理深度,从 high 调到 medium。这个决定的出发点可以理解:high 模式下 UI 经常看起来像卡死了一样,响应慢得让付费用户抓狂。但问题是,他们当时没有公布。
3 月底,又上线了一个“效率优化”——如果 Claude Code 会话空闲超过一小时,系统就会清掉旧的 reasoning block。按设计,这是为了省算力。实际跑起来的效果,是每一轮对话之后 Claude 都像失忆,把上下文忘得干干净净。开发者社区那几周涌进大量吐槽:“Claude 开始不记得我上一轮让它干什么了。”
直到近期,第三件事发生了——在系统提示里加了一条压缩 verbosity 的指令。按 Anthropic 后来自己承认的说法,这条指令让 Claude Code 的编码质量直接跌了 3%。
这种带着一丝“哦,我的工程策略有点 bug,修复就好了”的轻蔑感,和 OpenAI 的重量级发布只在前后脚之间。很难说这是巧合。
更耐人寻味的是, Opus 4.7 发布的时候,Anthropic 顺带做了一个反常的动作:公开承认 Opus 4.7 的性能不及一个尚未发布的模型——Mythos。这很明显是一种“战略性退守”——Anthropic 把最强能力留在企业端、不急于推向大众,因为团队还没准备好把 Mythos 放出去。
这个说法可以信。但从商业叙事的角度看,另一半同样真实:Anthropic 等了六周才公开承认 Claude Code 在退化,等到 OpenAI 要放新牌的那一天才把问题端出来。如果不是同行压力足够大,如果不是 Opus 4.7 已经证明了“我们还有后手”,这份声明可能永远都不会到来。
在 Claude 这一侧,挤牙膏不是指刻意能力,而是:能力的释放节奏、对问题的披露节奏,都跟着竞对的节奏走。
拿出自己最前沿的能力,注定会被当做靶子打。又或者说,在 Anthropic 看来,4.6 对竞争对手造成的压力都还没散去——既然如此,更强的牌没必要现在就打出来。
如果 Anthropic 是“藏着一个 Mythos 不发”,那 OpenAI 这一侧的挤牙膏更隐蔽——它把能力的释放权,留在了自己服务器的负载曲线和一个叫 auto-router 的分档机制里。
他顺手补了一条信息很关键:GPT-5.5 是自 GPT-4.5 之后 OpenAI 第一次完全重训的基础模型;也就是说,过去半年发出去的 5.1、5.2、5.3、5.4,全部只是增量更新。换言之,过去的四次小版本更新,OpenAI 都是收着力气发布的——因为他们不清楚竞争对手会放出什么东西。
但更值得记住的一幕发生在 GPT-5.5 上线几个小时之后。Codex 用户在 GitHub 提了 Issue #19241,投诉 Fast mode 一开始真的很快,等更多用户被放进来之后肉眼可见变慢,而计费还按 Fast 档结算。措辞很熟悉:“请 OpenAI 调查 GPT-5.5 Fast mode 是否在高负载下被降级。”
也就是说,就在 OpenAI 把 GPT-5.5 作为“下一代”放出来的同一时间,内部至少跑着 5 到 6 条平行的产品线,每一条都还没轮到公众。
OpenAI 自己倒是认了。在 2026 年官方的年度路线图里,他们用了一个学术圈讨论已久的词——capability overhang——承认当前大模型的真实能力和用户实际能用出的效果之间,存在一个巨大的 gap。
熟悉吗?和 Anthropic 对待 Mythos 的话术几乎是同一句线 日那次 Codex 泄露真的是误操作,OpenAI 主动把 capability overhang 这个词放进路线图,传递的信号已经写得很清楚——我们手里还多得很,你们看着办。
你手里有远多于卖给用户的东西,你才有的挤。GPT-5.5 的 24 小时,把这个前提再一次变成了现场直播。
DeepSeek 这一边,“挤”的方式彻底变了——它不是在藏能力,而是在等一个更合适的交付时机。
但放在 DeepSeek 自己的坐标系里,V4 Preview 已经比 V3 那种“便宜到诡异”的价格贵了不止一点。所有人都知道——这不是满血版。
要从 2025 年 R2 那次没发出来的发布讲起。R2 原定于 2025 年 5 月发布,但最终被延后到秋冬。整个中国Deepseek 的基础设施迁向华为的 CANN 生态。对于任何一个实验室实验室,这都不可能是一个季度能完成的工程——编译器、算子、通信库、推理框架、MoE 路由,全部要重写。
而 V4 这一次,是 DeepSeek 第一次把昇腾正式写进训练硬件清单。V4 是混合训练的第一个版本——昇腾首次入场。
但专门为大规模训练优化的下一代芯片昇腾 950DT,按华为路线 才量产。也就是说,V4 训练能跑起来,是用上一代的 950PR 拼出来的;要让 V4 Pro Max 这种 1.6T MoE 的满血版本既能训得彻底又能大规模推得起来,还要等下一代到位。
真正的工程难点不是“V4 能不能训出来”——已经训出来了——而是“V4怎样在昇腾上跑得满、跑得稳、跑得便宜”。
昇腾 950PR 在 2026 年 Q1 量产,FP4 算力 1.56 PFLOPS、片上内存 112GB,纸面规格对标并超过英伟达 H20。但从一颗芯片跑得起,到一整片超节点能稳定服务数百万 token/秒的推理请求,是两回事。V4 Pro Max 的满血版,锁的就是这个“超节点”——昇腾 950 系列的大规模集群版本,2026 年下半年陆续到位。
这构成了一个和前两家完全不同的策略。Anthropic 和 OpenAI 挤牙膏的逻辑,是我手里有更强的,先不给你;DeepSeek 挤牙膏的逻辑,是我满血的那一版,要等一个让价格再下一个台阶的时刻。
DeepSeek 真正的杀手锏从来不是“性能最前沿”,而是“在性能够用的前提下,把 token 价格砍到别人不敢砍的位置”。V4 Preview 在英伟达卡和昇腾 950PR 上做了适配,但要做到量产规模的满血推理,必须等超节点到位。一旦等到那一刻,两件事会同时发生:一是 V4 Pro Max 的能力可以释放到顶;二是推理成本、API 定价会再落一阶——对一家靠价格打穿市场的公司,后者比前者更致命。
人们线 年初发生过的那个“DeepSeek 时刻”,没有在这次发布里再次上演。而 V4 Preview 的发布其实是一段预告片,真正的重头戏,是下半年的“DeepSeek + 华为昇腾”时刻。
从这个角度看,梁文锋团队现在做的不是被迫的“藏”,而是一次商业上克制的“选择”——选择把最强版本的首发,交到一个它最有话语权的场景里:国产超节点大规模部署后的第一天。在那之前,先用 V4 Preview 把性价比的叙事再巩固一轮。
DeepSeek 背负的从来不是让国产大模型在某个榜单上拔到第一的“长板叙事”,而是让芯片、训练、推理、定价四条线同时跑通的“系统性叙事”——后者比前者重要得多。
现在英伟达还把控着顶尖算力。但按照黄仁勋自己抛出的那块“AI 五层蛋糕”——能源、芯片、基础设施、模型、应用——国产大模型产业在每一层都已经有了能跑通的国产方案,差距正在以肉眼可见的速度缩小。补上芯片这块最后的拼图,DeepSeek 的开源大模型故事,才是一个比美国大模型更大的故事:这是一场不用消耗过多成本、让全球实现智能平权的重要一步。
OpenAI 的“藏”——是结构的。他们有 Pro 档,不常给你,理由是 infrastructure 和价格分层。
DeepSeek 的“藏”——是必要的。它关乎一整套社会智能跃迁的叙事范本。
但从另一个侧面来看,这又像极了大刘描绘的黑暗森林:在这片漆黑的智能森林里,每一个顶尖猎人都不会率先开出自己的那一枪。
没人知道谁会率先打出最致命的一枪。但可以确定的是,今天你用的每一个模型,都不是它真正的样子。
deepseek写代码的能力再怎么昇腾都跟anthropic的能力没有可比性。但是对于大规模处理文本内容,比如整理或翻译大规模文档,接入各种以文本内容为主的生产系统比如客服,DeepSeek的能力和价格已经完美了。那为anthropic 吹新蜂的程序员,如果让你为大规模客服系统接入一个大模型api,难道你接anthropic 的模型?
DeepSeek自己都说了主要就是缺高端算力,小编写了一堆跟Anthropic 毫不相关的问题来强行比较是什么意思?所有程序员都知道世界最好的模型是什么。
在线客服
电话咨询


官方微信
返回顶部