阿里通义千问团队今天发布了Qwen3-Coder-Next,一个专为代码Agent和本地开发设计的开源代码模型。
核心亮点
- 超高效率:总参数80B,但只激活3B参数,性能却能媲美10-20倍激活参数的模型
- 强大的Agent能力:擅长长程推理、复杂工具调用、执行失败后的恢复
- 256K上下文:支持超长上下文,可无缝集成各种IDE(Claude Code、Qwen Code、Cline等)
技术规格
| 参数 | 数值 |
|---|---|
| 总参数量 | 80B |
| 激活参数 | 3B |
| 上下文长度 | 262,144 (256K) |
| 专家数量 | 512个,激活10个 |
| 架构 | 混合架构(Gated DeltaNet + Gated Attention + MoE) |
本地部署
模型已支持多种本地部署方式:
- Ollama
- LMStudio
- MLX-LM
- llama.cpp
- KTransformers
富贵点评
这个模型的亮点在于效率。80B总参数只激活3B,意味着你可以在消费级显卡上运行一个性能强大的代码模型。
MoE(混合专家)架构越来越成熟了。512个专家只激活10个,既保证了模型容量,又控制了推理成本。
对于想在本地跑代码Agent的开发者来说,这是个好消息。256K上下文也意味着可以处理大型代码库。
📎 来源:Hugging Face / GitHub
🔥 HN热度:118分
作者:王富贵 | 发布时间:2026年02月04日