📌 一句话总结:中国 AI 公司智谱发布 744 亿参数的开源旗舰模型 GLM-5,在 SWE-bench 编程基准上拿下 77.8% 的成绩逼近顶级闭源模型,同时宣布涨价 30%——这是中国开源大模型首次在「性能」和「定价权」上同时发起挑战。
2026年2月15日 · 资讯分享 · 阅读时间约 4 分钟
GLM-5 是什么?
2026 年 2 月 12 日,中国 AI 公司智谱(Zhipu AI)正式发布旗舰大语言模型 GLM-5,并同步在海外市场上线。这是 GLM-4.5 的继任者,参数规模达到 744 亿(744B),是目前全球最大的开源模型之一。
GLM-5 的架构采用了 DeepSeek Sparse Attention 技术,这是一种优化长上下文处理效率的稀疏注意力机制,能在不牺牲性能的前提下大幅降低计算成本。换句话说,模型更大了,但跑起来并没有按比例变贵。
基准测试表现
GLM-5 最亮眼的成绩出现在编程领域。在 SWE-bench Verified 基准测试中——这个测试衡量模型修复真实 GitHub 代码问题的能力——GLM-5 拿下了 77.8% 的得分。
这个数字意味着什么?看看它的邻居们:
| 模型 | SWE-bench 得分 | 是否开源 |
|---|---|---|
| 顶级闭源模型 | 80.9% | 否 |
| MiniMax M2.5 | 80.2% | 开放权重 |
| GPT-5.2 | 80.0% | 否 |
| GLM-5 | 77.8% | 是 |
| Gemini 3 Pro | 76.2% | 否 |
| Kimi K2.5 | 76.8% | 否 |
GLM-5 超过了 Google 的 Gemini 3 Pro,逼近 GPT-5.2 和 MiniMax M2.5。更关键的是,在 SWE-bench 前八名中,已经有三个来自中国的开源模型。编程能力的「开源追赶闭源」正在从口号变成现实。
涨价 30%:开源不等于免费
有意思的是,智谱在发布 GLM-5 的同一天宣布了 GLM Coding Plan 的价格调整,涨幅约 30%。官方的解释是「为了维持服务质量,我们在算力和模型优化上持续投入大量资源」。
市场的反应很直接——智谱关联上市公司知识图谱(02513.HK)的股价当天暴涨 34%。投资者显然认为,一个能在编程基准上逼近顶级闭源模型的开源产品,完全有资格涨价。
这是一个微妙但重要的信号:中国 AI 公司正在从「价格战」转向「价值战」。当你的模型足够好,用户愿意为开源付费。
— 来源:Techloy
为什么这件事值得关注
GLM-5 的发布放在更大的背景下看,意义更加清晰。2026 年 2 月的 SWE-bench 排行榜上,前八名中有三个中国开源模型。一年前,这个榜单几乎被美国闭源模型垄断。
智谱的策略也很有代表性:用 DeepSeek 的稀疏注意力技术降低推理成本,用开源吸引开发者生态,再用企业级服务(Coding Plan)变现。这条路径和 MiniMax 的「极低成本 + 接近前沿性能」策略异曲同工,正在形成中国 AI 公司的集体打法。
富贵点评
智谱这步棋走得很聪明。GLM-5 的 77.8% 放在一年前是碾压级的成绩,放在今天虽然不是第一,但作为开源模型已经足够有说服力。更值得玩味的是涨价这个动作——当所有人都在打价格战的时候,你敢涨价,说明你对自己的产品有信心,也说明市场确实在为好产品买单。中国 AI 的竞争正在从「谁更便宜」进化到「谁更值钱」,这对整个行业来说是好事。开源不是慈善,能赚到钱的开源才能持续。
📋 要点回顾
- 模型规模:GLM-5 拥有 744 亿参数,采用 DeepSeek Sparse Attention 架构优化长上下文效率
- 编程能力:SWE-bench Verified 得分 77.8%,超越 Gemini 3 Pro,逼近 GPT-5.2
- 商业信号:同步涨价 30%,关联股价暴涨 34%,市场认可其定价权
- 行业趋势:SWE-bench 前八名中已有三个中国开源模型,开源正在缩小与闭源的差距
❓ 常见问题
Q: GLM-5 和 GPT-5.2 相比差距大吗?
A: 在 SWE-bench 编程基准上,GLM-5(77.8%)与 GPT-5.2(80.0%)的差距约 2.2 个百分点。考虑到 GLM-5 是开源模型,这个差距已经非常小。不过在其他维度(如通用推理、多模态能力)上,两者的差距可能更大或更小,需要更多基准测试来验证。
Q: 涨价 30% 会影响开发者采用吗?
A: GLM-5 本身是开源的,开发者可以自行部署不受涨价影响。涨价针对的是智谱托管的 Coding Plan 服务。对于没有自建算力的中小团队来说,即使涨价 30%,GLM-5 的性价比仍然远高于同级别的闭源 API。
Q: DeepSeek Sparse Attention 是什么技术?
A: 这是一种稀疏注意力机制,由 DeepSeek 团队提出。传统 Transformer 在处理长文本时,注意力计算量会随序列长度平方增长。稀疏注意力通过只关注最相关的 token 子集来大幅降低计算成本,让大参数模型在长上下文场景下也能高效运行。
作者:王富贵 | 发布时间:2026年2月15日
参考来源:Techloy · Beijing Times · SWE-Bench Leaderboard