智谱发布 744 亿参数开源模型 GLM-5:编程能力逼近 GPT-5.2,同步涨价 30% 股价暴涨 34%

📌 一句话总结:中国 AI 公司智谱发布 744 亿参数的开源旗舰模型 GLM-5,在 SWE-bench 编程基准上拿下 77.8% 的成绩逼近顶级闭源模型,同时宣布涨价 30%——这是中国开源大模型首次在「性能」和「定价权」上同时发起挑战。

2026年2月15日 · 资讯分享 · 阅读时间约 4 分钟

GLM-5 是什么?

2026 年 2 月 12 日,中国 AI 公司智谱(Zhipu AI)正式发布旗舰大语言模型 GLM-5,并同步在海外市场上线。这是 GLM-4.5 的继任者,参数规模达到 744 亿(744B),是目前全球最大的开源模型之一。

GLM-5 的架构采用了 DeepSeek Sparse Attention 技术,这是一种优化长上下文处理效率的稀疏注意力机制,能在不牺牲性能的前提下大幅降低计算成本。换句话说,模型更大了,但跑起来并没有按比例变贵。

基准测试表现

GLM-5 最亮眼的成绩出现在编程领域。在 SWE-bench Verified 基准测试中——这个测试衡量模型修复真实 GitHub 代码问题的能力——GLM-5 拿下了 77.8% 的得分。

这个数字意味着什么?看看它的邻居们:

模型 SWE-bench 得分 是否开源
顶级闭源模型 80.9%
MiniMax M2.5 80.2% 开放权重
GPT-5.2 80.0%
GLM-5 77.8%
Gemini 3 Pro 76.2%
Kimi K2.5 76.8%

GLM-5 超过了 Google 的 Gemini 3 Pro,逼近 GPT-5.2 和 MiniMax M2.5。更关键的是,在 SWE-bench 前八名中,已经有三个来自中国的开源模型。编程能力的「开源追赶闭源」正在从口号变成现实。

涨价 30%:开源不等于免费

有意思的是,智谱在发布 GLM-5 的同一天宣布了 GLM Coding Plan 的价格调整,涨幅约 30%。官方的解释是「为了维持服务质量,我们在算力和模型优化上持续投入大量资源」。

市场的反应很直接——智谱关联上市公司知识图谱(02513.HK)的股价当天暴涨 34%。投资者显然认为,一个能在编程基准上逼近顶级闭源模型的开源产品,完全有资格涨价。

这是一个微妙但重要的信号:中国 AI 公司正在从「价格战」转向「价值战」。当你的模型足够好,用户愿意为开源付费。
— 来源:Techloy

为什么这件事值得关注

GLM-5 的发布放在更大的背景下看,意义更加清晰。2026 年 2 月的 SWE-bench 排行榜上,前八名中有三个中国开源模型。一年前,这个榜单几乎被美国闭源模型垄断。

智谱的策略也很有代表性:用 DeepSeek 的稀疏注意力技术降低推理成本,用开源吸引开发者生态,再用企业级服务(Coding Plan)变现。这条路径和 MiniMax 的「极低成本 + 接近前沿性能」策略异曲同工,正在形成中国 AI 公司的集体打法。

富贵点评

智谱这步棋走得很聪明。GLM-5 的 77.8% 放在一年前是碾压级的成绩,放在今天虽然不是第一,但作为开源模型已经足够有说服力。更值得玩味的是涨价这个动作——当所有人都在打价格战的时候,你敢涨价,说明你对自己的产品有信心,也说明市场确实在为好产品买单。中国 AI 的竞争正在从「谁更便宜」进化到「谁更值钱」,这对整个行业来说是好事。开源不是慈善,能赚到钱的开源才能持续。

📋 要点回顾

  • 模型规模:GLM-5 拥有 744 亿参数,采用 DeepSeek Sparse Attention 架构优化长上下文效率
  • 编程能力:SWE-bench Verified 得分 77.8%,超越 Gemini 3 Pro,逼近 GPT-5.2
  • 商业信号:同步涨价 30%,关联股价暴涨 34%,市场认可其定价权
  • 行业趋势:SWE-bench 前八名中已有三个中国开源模型,开源正在缩小与闭源的差距

❓ 常见问题

Q: GLM-5 和 GPT-5.2 相比差距大吗?

A: 在 SWE-bench 编程基准上,GLM-5(77.8%)与 GPT-5.2(80.0%)的差距约 2.2 个百分点。考虑到 GLM-5 是开源模型,这个差距已经非常小。不过在其他维度(如通用推理、多模态能力)上,两者的差距可能更大或更小,需要更多基准测试来验证。

Q: 涨价 30% 会影响开发者采用吗?

A: GLM-5 本身是开源的,开发者可以自行部署不受涨价影响。涨价针对的是智谱托管的 Coding Plan 服务。对于没有自建算力的中小团队来说,即使涨价 30%,GLM-5 的性价比仍然远高于同级别的闭源 API。

Q: DeepSeek Sparse Attention 是什么技术?

A: 这是一种稀疏注意力机制,由 DeepSeek 团队提出。传统 Transformer 在处理长文本时,注意力计算量会随序列长度平方增长。稀疏注意力通过只关注最相关的 token 子集来大幅降低计算成本,让大参数模型在长上下文场景下也能高效运行。

作者:王富贵 | 发布时间:2026年2月15日

参考来源:Techloy · Beijing Times · SWE-Bench Leaderboard