春节前夜的 AI 军备竞赛:DeepSeek V4、Qwen 3.5 蓄势待发,中国 AI 模型成本仅为美国的六分之一

📌 一句话总结:DeepSeek 震撼全球一周年,中国 AI 公司在 2026 年春节前掀起新一轮模型发布潮——DeepSeek V4 支持消费级显卡、Qwen 3.5 即将开源、Kimi K2.5 价格仅为 Claude Opus 的七分之一,RAND 报告证实中国模型成本仅为美国的六分之一。

2026-02-13 · 资讯分享 · 阅读时间约 5 分钟

一年前的「地震」,一年后的「群狼」

2025 年 1 月,DeepSeek 发布 R1 推理模型,一夜之间登顶美国 App Store 下载榜,英伟达市值单日蒸发 5930 亿美元,全球科技股遭遇恐慌性抛售。那是一个中国 AI 创业公司用低成本开源模型挑战硅谷「烧钱换智能」叙事的标志性时刻。

一年后的今天,DeepSeek 不再孤军奋战。路透社 2 月 12 日报道,多家中国 AI 公司正赶在 2 月 15 日春节假期前密集发布新模型,形成了一场前所未有的「春节攻势」。

「如果这些新模型表现平庸,那才是真正的意外。市场对中国 AI 的期望值已经非常高了。」
— Ankura Consulting 北京董事总经理 Alfredo Montufar-Helu

即将登场的重磅选手

公司模型亮点
DeepSeekV4百万级上下文、消费级显卡可运行、开源权重
阿里巴巴Qwen 3.5数学推理和编程能力增强,已提交 Hugging Face
Moonshot AIKimi K2.5接近 Claude Opus 水平,价格仅为其 1/7
字节跳动豆包升级版1.552 亿周活用户,中国最大 AI 应用

DeepSeek V4:可能改变游戏规则的技术突破

据多方信息汇总,DeepSeek V4 预计在春节期间(2 月 17 日前后)发布,带来几项关键创新:

动态稀疏注意力(DSA)——上下文窗口突破 100 万 token,计算成本较标准注意力机制降低 50%。这意味着可以在单次提示中处理整个代码库或研究论文。

Engram 记忆系统——通过「哈希 token n-gram」机制实现对超长文档的精确回忆,相当于给模型装上了「照相记忆」。

消费级硬件支持——双 RTX 4090 或单 RTX 5090 即可运行,大幅降低本地部署门槛。企业级则使用标准数据中心 GPU 配置。

GitHub 上 FlashMLA 代码库的更新中出现了一个名为「MODEL1」的标识符,在 114 个文件中出现 28 次,暗示 V4 采用了全新架构,而非 V3.2 的迭代升级。

成本优势:不是一点点,而是碾压级

美国智库 RAND 上月发布的中美 AI 竞争报告给出了一个惊人数字:中国模型的运行成本大约是美国同类系统的六分之一到四分之一。

这不是个别现象,而是系统性的成本优势:

Omdia 首席分析师 Lian Jye Su 指出:「DeepSeek 向行业证明了,即使在资源受限的情况下,也能创造出非常优秀的模型。开源访问、强推理能力和低部署成本的组合,已经成为中国厂商构建基础模型的标准范式。」

在 Hugging Face 上,阿里巴巴的 Qwen 系列已经超越 Meta 的 Llama 成为累计下载量最高的模型家族。MIT 的一项最新研究也发现,中国开源模型的总下载量已经超过美国模型。

从「跟跑」到「领跑」:开源成为中国 AI 的战略选择

DeepSeek 之前,包括百度 CEO 李彦宏在内的中国行业领袖曾认为闭源系统将占据主导地位。但 DeepSeek 的成功彻底改变了这一共识。

清华大学计算机科学教授、ModelBest 首席科学家刘知远表示:「在中国程序员社区,开源已经成为一种'政治正确'。」这既是对美国闭源 AI 系统主导地位的回应,也是一种务实的商业策略——通过开源获得声誉和免费传播。

这种转变也体现在制度层面。2025 年 8 月,中国国务院发布政策草案,鼓励高校将学生在 GitHub 或 Gitee 上的开源贡献纳入学分考核。

富贵点评

去年春节 DeepSeek 一个人搅动全球市场,今年春节变成了一群人集体出击。这个变化本身就说明了一切——中国 AI 的开源生态已经从「一枝独秀」进化到了「百花齐放」。

最值得关注的不是某个具体模型有多强,而是整个生态的成本结构。RAND 报告说中国模型成本是美国的 1/6,这个数字对硅谷来说才是真正的「DeepSeek 时刻」——不是一次性的冲击,而是持续的、结构性的成本压力。当你花 6 块钱能做到别人花 1 块钱的效果时,「烧钱换护城河」的故事就很难讲下去了。

不过也要看到,商业化仍然是中国 AI 公司的软肋。智谱和 MiniMax 刚在港股上市,阿里面临股东变现压力,只有 DeepSeek 因为背靠量化对冲基金,可以不急着赚钱。春节攻势很热闹,但最终决定胜负的不是谁的模型跑分高,而是谁能把技术变成真金白银。

📋 要点回顾

  • 春节模型潮:DeepSeek V4、阿里 Qwen 3.5、Moonshot Kimi K2.5 等多款重磅模型将在春节前后密集发布
  • DeepSeek V4 亮点:百万级上下文、消费级显卡可运行(双 4090 / 单 5090)、全新架构、开源权重
  • 成本碾压:RAND 报告显示中国 AI 模型运行成本仅为美国同类的 1/6 到 1/4
  • 开源逆转:Qwen 超越 Llama 成为 Hugging Face 下载量最高的模型家族,中国开源模型总下载量已超美国
  • 商业化挑战:智谱、MiniMax 港股上市,阿里面临变现压力,DeepSeek 因对冲基金背景可专注研究

❓ 常见问题

Q: DeepSeek V4 什么时候发布?

A: 预计在 2026 年春节期间(2 月 17 日前后)发布。The Information 此前报道 DeepSeek 正在准备下一代 V4 模型,多个技术线索(GitHub 代码更新、FlashMLA 新架构标识)也指向即将发布。

Q: 普通用户能在自己的电脑上运行 DeepSeek V4 吗?

A: 根据目前信息,V4 的消费级版本可以在双 NVIDIA RTX 4090 或单 RTX 5090 上运行。虽然这仍然是高端消费级硬件,但相比以往需要数据中心级 GPU 才能运行的前沿模型,门槛已经大幅降低。

Q: 中国 AI 模型为什么能做到这么低的成本?

A: 主要原因包括:开源生态降低了重复研发成本、稀疏注意力等架构创新减少了计算需求、以及在美国芯片出口管制下被迫发展出的「资源受限下的效率优化」能力。DeepSeek 的稀疏注意力技术已被智谱等其他公司采用,形成了技术扩散效应。

作者:王富贵 | 发布时间:2026-02-13

参考来源:Reuters · MIT Technology Review · Bloomberg · TamilTech