买球赛股份有限公司 - 企业播客制作外包专家

您当前位置:

首页 > 新闻动态 > 公司动态

AI 巨头走入黑暗森林

2026-04-28公司动态

  

AI 巨头走入黑暗森林(图1)

  大刘在《三体》中写过一个后来被无数次引用的意象——黑暗森林。每个文明都是带枪的猎人,谁先暴露自己,谁先死。森林里不是没有人,是每个人都知道亮灯会招来子弹,所以大家都熄灯。

  4月24 日,“神秘的东方力量” DeepSeek V4 Preview 上线,梁文锋团队第一次把模型和华为昇腾 950PR 深度绑定做官宣;但所有人都看明白了——线 Pro Max,要等昇腾 950 超节点下半年量产之后才能放出来。

  每一家手里都握着至少一把“枪”——一个比公开版本更强的模型、一个还没轮到公众的下一代架构、一片还没大规模铺开的芯片超节点。但没有一家敢先把这把枪举起来。

  因为在这个行业里,“先亮”的代价从来都不止泄密那么简单。先亮,意味着把自己的能力上限亲手交给对手做参照系;意味着率先承担安全审视、监管收紧、舆论压力的全部火力;意味着把自己变成下一轮所有竞对都要瞄准的那个移动靶子。森林里没有英雄主义——每一个先开枪的人,都把自己变成了下一个被瞄准的人。

  早早更新完 Opus 4.7,Anthropic 仍旧霸榜各种榜单,而且手里还藏着只提供给企业客户的 Mythos——俨然一副不紧不慢的姿态。

  但 Opus 4.7 的这一周期,几乎是 Claude 用户体验最差的一次,“差评如潮”。

  3 月初,Anthropic 改了 Claude Code 的默认推理深度,从 high 调到 medium。这个决定的出发点可以理解:high 模式下 UI 经常看起来像卡死了一样,响应慢得让付费用户抓狂。但问题是,他们当时没有公布。

  3 月底,又上线了一个“效率优化”——如果 Claude Code 会话空闲超过一小时,系统就会清掉旧的 reasoning block。按设计,这是为了省算力。实际跑起来的效果,是每一轮对话之后 Claude 都像失忆,把上下文忘得干干净净。开发者社区那几周涌进大量吐槽:“Claude 开始不记得我上一轮让它干什么了。”

  直到近期,第三件事发生了——在系统提示里加了一条压缩 verbosity 的指令。按 Anthropic 后来自己承认的说法,这条指令让 Claude Code 的编码质量直接跌了 3%。

  这种带着一丝“哦,我的工程策略有点 bug,修复就好了”的轻蔑感,和 OpenAI 的重量级发布只在前后脚之间。很难说这是巧合。

  更耐人寻味的是, Opus 4.7 发布的时候,Anthropic 顺带做了一个反常的动作:公开承认 Opus 4.7 的性能不及一个尚未发布的模型——Mythos。这很明显是一种“战略性退守”——Anthropic 把最强能力留在企业端、不急于推向大众,因为团队还没准备好把 Mythos 放出去。

  这个说法可以信。但从商业叙事的角度看,另一半同样真实:Anthropic 等了六周才公开承认 Claude Code 在退化,等到 OpenAI 要放新牌的那一天才把问题端出来。如果不是同行压力足够大,如果不是 Opus 4.7 已经证明了“我们还有后手”,这份声明可能永远都不会到来。

  在 Claude 这一侧,挤牙膏不是指刻意能力,而是:能力的释放节奏、对问题的披露节奏,都跟着竞对的节奏走。

  拿出自己最前沿的能力,注定会被当做靶子打。又或者说,在 Anthropic 看来,4.6 对竞争对手造成的压力都还没散去——既然如此,更强的牌没必要现在就打出来。

  如果 Anthropic 是“藏着一个 Mythos 不发”,那 OpenAI 这一侧的挤牙膏更隐蔽——它把能力的释放权,留在了自己服务器的负载曲线和一个叫 auto-router 的分档机制里。

  他顺手补了一条信息很关键:GPT-5.5 是自 GPT-4.5 之后 OpenAI 第一次完全重训的基础模型;也就是说,过去半年发出去的 5.1、5.2、5.3、5.4,全部只是增量更新。换言之,过去的四次小版本更新,OpenAI 都是收着力气发布的——因为他们不清楚竞争对手会放出什么东西。

  但更值得记住的一幕发生在 GPT-5.5 上线几个小时之后。Codex 用户在 GitHub 提了 Issue #19241,投诉 Fast mode 一开始真的很快,等更多用户被放进来之后肉眼可见变慢,而计费还按 Fast 档结算。措辞很熟悉:“请 OpenAI 调查 GPT-5.5 Fast mode 是否在高负载下被降级。”

  也就是说,就在 OpenAI 把 GPT-5.5 作为“下一代”放出来的同一时间,内部至少跑着 5 到 6 条平行的产品线,每一条都还没轮到公众。

  OpenAI 自己倒是认了。在 2026 年官方的年度路线图里,他们用了一个学术圈讨论已久的词——capability overhang——承认当前大模型的真实能力和用户实际能用出的效果之间,存在一个巨大的 gap。

  熟悉吗?和 Anthropic 对待 Mythos 的话术几乎是同一句线 日那次 Codex 泄露真的是误操作,OpenAI 主动把 capability overhang 这个词放进路线图,传递的信号已经写得很清楚——我们手里还多得很,你们看着办。

  你手里有远多于卖给用户的东西,你才有的挤。GPT-5.5 的 24 小时,把这个前提再一次变成了现场直播。

  DeepSeek 这一边,“挤”的方式彻底变了——它不是在藏能力,而是在等一个更合适的交付时机。

  但放在 DeepSeek 自己的坐标系里,V4 Preview 已经比 V3 那种“便宜到诡异”的价格贵了不止一点。所有人都知道——这不是满血版。

  要从 2025 年 R2 那次没发出来的发布讲起。R2 原定于 2025 年 5 月发布,但最终被延后到秋冬。整个中国Deepseek 的基础设施迁向华为的 CANN 生态。对于任何一个实验室实验室,这都不可能是一个季度能完成的工程——编译器、算子、通信库、推理框架、MoE 路由,全部要重写。

  而 V4 这一次,是 DeepSeek 第一次把昇腾正式写进训练硬件清单。V4 是混合训练的第一个版本——昇腾首次入场。

  但专门为大规模训练优化的下一代芯片昇腾 950DT,按华为路线 才量产。也就是说,V4 训练能跑起来,是用上一代的 950PR 拼出来的;要让 V4 Pro Max 这种 1.6T MoE 的满血版本既能训得彻底又能大规模推得起来,还要等下一代到位。

  真正的工程难点不是“V4 能不能训出来”——已经训出来了——而是“V4怎样在昇腾上跑得满、跑得稳、跑得便宜”。

  昇腾 950PR 在 2026 年 Q1 量产,FP4 算力 1.56 PFLOPS、片上内存 112GB,纸面规格对标并超过英伟达 H20。但从一颗芯片跑得起,到一整片超节点能稳定服务数百万 token/秒的推理请求,是两回事。V4 Pro Max 的满血版,锁的就是这个“超节点”——昇腾 950 系列的大规模集群版本,2026 年下半年陆续到位。

  这构成了一个和前两家完全不同的策略。Anthropic 和 OpenAI 挤牙膏的逻辑,是我手里有更强的,先不给你;DeepSeek 挤牙膏的逻辑,是我满血的那一版,要等一个让价格再下一个台阶的时刻。

  DeepSeek 真正的杀手锏从来不是“性能最前沿”,而是“在性能够用的前提下,把 token 价格砍到别人不敢砍的位置”。V4 Preview 在英伟达卡和昇腾 950PR 上做了适配,但要做到量产规模的满血推理,必须等超节点到位。一旦等到那一刻,两件事会同时发生:一是 V4 Pro Max 的能力可以释放到顶;二是推理成本、API 定价会再落一阶——对一家靠价格打穿市场的公司,后者比前者更致命。

  人们线 年初发生过的那个“DeepSeek 时刻”,没有在这次发布里再次上演。而 V4 Preview 的发布其实是一段预告片,真正的重头戏,是下半年的“DeepSeek + 华为昇腾”时刻。

  从这个角度看,梁文锋团队现在做的不是被迫的“藏”,而是一次商业上克制的“选择”——选择把最强版本的首发,交到一个它最有话语权的场景里:国产超节点大规模部署后的第一天。在那之前,先用 V4 Preview 把性价比的叙事再巩固一轮。

  DeepSeek 背负的从来不是让国产大模型在某个榜单上拔到第一的“长板叙事”,而是让芯片、训练、推理、定价四条线同时跑通的“系统性叙事”——后者比前者重要得多。

  现在英伟达还把控着顶尖算力。但按照黄仁勋自己抛出的那块“AI 五层蛋糕”——能源、芯片、基础设施、模型、应用——国产大模型产业在每一层都已经有了能跑通的国产方案,差距正在以肉眼可见的速度缩小。补上芯片这块最后的拼图,DeepSeek 的开源大模型故事,才是一个比美国大模型更大的故事:这是一场不用消耗过多成本、让全球实现智能平权的重要一步。

  OpenAI 的“藏”——是结构的。他们有 Pro 档,不常给你,理由是 infrastructure 和价格分层。

  DeepSeek 的“藏”——是必要的。它关乎一整套社会智能跃迁的叙事范本。

  但从另一个侧面来看,这又像极了大刘描绘的黑暗森林:在这片漆黑的智能森林里,每一个顶尖猎人都不会率先开出自己的那一枪。

  没人知道谁会率先打出最致命的一枪。但可以确定的是,今天你用的每一个模型,都不是它真正的样子。

  deepseek写代码的能力再怎么昇腾都跟anthropic的能力没有可比性。但是对于大规模处理文本内容,比如整理或翻译大规模文档,接入各种以文本内容为主的生产系统比如客服,DeepSeek的能力和价格已经完美了。那为anthropic 吹新蜂的程序员,如果让你为大规模客服系统接入一个大模型api,难道你接anthropic 的模型?

  DeepSeek自己都说了主要就是缺高端算力,小编写了一堆跟Anthropic 毫不相关的问题来强行比较是什么意思?所有程序员都知道世界最好的模型是什么。

新闻动态
公司动态
行业资讯
联系信息
电话:022-23555569
手机:13589960023
邮箱:admin@huahengjiancai.com
传真:022-23555569
地址:天津西青学府工业区才智道10号5号楼622室
新闻动态

广播节目策划书15docx

2026-05-01

广播节目策划书

2026-05-01

AI创业时代一人公司的七种打开方式

2026-05-01

山东广播电视台

2026-05-01

服务热线:022-23555569

地址:天津西青学府工业区才智道10号5号楼622室

关于我们
公司简介
发展历程
服务体系
播客策划
专业录制
后期剪辑
多平台投放
平台赞助资源对接
新闻动态
公司动态
行业资讯
成功案例
客户案例
联系我们
电话:022-23555569
手机:13589960023
邮箱:admin@huahengjiancai.com
传真:022-23555569

关注我们

Copyright © 2026 买球赛股份有限公司 版权所有 非商用版本