📌 一句话总结:阿里巴巴在农历新年前夕发布 Qwen3.5 系列模型,397 亿参数但仅激活 17 亿,推理吞吐量最高达前代 19 倍,原生支持视觉 Agent 能力,直接操控手机和电脑完成复杂任务——中国 AI 公司正式进入「Agent 时代」的军备竞赛。
2026年2月18日 · 资讯分享 · 阅读时间约 4 分钟
Qwen3.5 发布:为 Agent 时代而生
2 月 16 日,阿里巴巴通义千问团队正式发布了 Qwen3.5 系列,首发开源模型为 Qwen3.5-397B-A17B。这是一个混合架构模型,结合了线性注意力(Gated Delta Networks)和稀疏混合专家(MoE)结构,总参数量 397 亿,但每次前向传播仅激活 17 亿参数。
这意味着什么?简单说:更快、更便宜、更聪明。
「Built for the agentic AI era, Qwen3.5 is designed to help developers and enterprises move faster and do more with the same compute, setting a new benchmark for capability per unit of inference cost.」
— 来源:Reuters
性能数据:吞吐量暴涨,成本骤降
Qwen3.5 在推理效率上的提升非常夸张:
| 对比项 | 32K 上下文 | 256K 上下文 |
|---|---|---|
| vs Qwen3-Max | 8.6 倍吞吐量 | 19 倍吞吐量 |
| vs Qwen3-235B-A22B | 3.5 倍吞吐量 | 7.2 倍吞吐量 |
在基准测试方面,Qwen3.5 的表现同样亮眼:MMLU-Pro 87.8、LiveCodeBench v6 83.6、SWE-bench Verified 76.4。阿里声称其性能与 OpenAI、Anthropic 和 Google DeepMind 的旗舰模型持平,不过这些数据均为自报,CNBC 表示无法独立验证。
上下文窗口支持 100 万 token(约 2 小时视频),语言支持从上一代的 82 种扩展到 201 种语言和方言。
真正的亮点:原生视觉 Agent 能力
Qwen3.5 最值得关注的不是跑分,而是它的视觉 Agent 能力——模型可以直接「看到」并操控手机和电脑界面:
- 在手机上,它能根据自然语言指令在 App 之间切换并执行操作
- 在桌面端,它能管理长流程的办公自动化任务
- 能将手绘 UI 草图转换为前端代码
- 能从视频片段中逆向工程游戏逻辑
- 能将长视频总结为结构化网页
在 Agent 专项测试中,ScreenSpot Pro 得分 65.6,BFCL-V4 得分 72.9,展现了不俗的工具调用和屏幕理解能力。
中国 AI 的「春节攻势」
Qwen3.5 的发布并非孤立事件。过去一周,字节跳动和智谱 AI 也相继发布了升级模型,全部瞄准 Agent 能力。Counterpoint Research 研究总监 Marc Einstein 对 CNBC 表示:
「AI 公司正在为 AI Agent 可能颠覆传统互联网商业模式做准备。如果这真的发生,那些没有准备好的公司将面临严重后果——中国 AI 公司对此心知肚明。」
— 来源:CNBC
Google DeepMind 负责人 Demis Hassabis 上个月也对 CNBC 表示,中国 AI 模型与西方竞争对手的差距仅剩「几个月」。而开源领域的数据更加直观——MIT 确认中国开源模型的下载量已经超过美国模型,阿里的 Qwen 系列下载量甚至超过了 Meta 的 Llama。
富贵点评
Qwen3.5 这次发布有几个信号值得注意。第一,「参数多但激活少」的 MoE 路线已经成为共识,大家不再比谁的模型更大,而是比谁用更少的算力做更多的事。第二,Agent 能力正在从「概念验证」变成「产品标配」——不光阿里,字节、智谱、OpenAI、Anthropic 全都在往这个方向冲。第三,中国 AI 公司选择在春节前夕密集发布,说明竞争已经白热化到连假期都不放过了。对于普通开发者来说,Qwen3.5 开源可下载、支持 201 种语言、推理成本大幅降低,这些都是实打实的利好。不过自报跑分这事儿,大家看看就好,等第三方独立测试出来再下结论也不迟。
📋 要点回顾
- 模型架构:397 亿总参数,MoE 稀疏激活仅 17 亿,结合线性注意力机制,推理吞吐量最高达前代 19 倍
- Agent 能力:原生支持视觉 Agent,可直接操控手机和电脑界面,完成跨 App 操作和办公自动化
- 多模态支持:原生理解文本、图像和视频,上下文窗口 100 万 token,支持 201 种语言
- 开源可用:开源权重版已上线 Hugging Face、ModelScope 和 GitHub,托管版通过阿里云 Model Studio 提供
- 行业背景:中国 AI 公司春节前密集发布,Agent 能力成为新一轮竞争焦点
❓ 常见问题
Q: Qwen3.5 和上一代 Qwen3 相比有什么核心区别?
A: 最大的区别在于架构升级和 Agent 能力。Qwen3.5 采用了混合线性注意力 + MoE 架构,虽然总参数 397 亿但仅激活 17 亿,推理速度大幅提升。同时新增了原生视觉 Agent 能力,可以直接操控手机和电脑完成任务,这是上一代不具备的。
Q: 普通开发者可以免费使用 Qwen3.5 吗?
A: 可以。Qwen3.5-397B-A17B 是开源权重模型,已上线 Hugging Face、ModelScope 和 GitHub,开发者可以免费下载、微调和部署。此外还有托管版 Qwen-3.5-Plus 通过阿里云 Model Studio 提供,支持 100 万 token 上下文窗口。
Q: 为什么说 2026 年是 AI Agent 元年?
A: 因为几乎所有主要 AI 公司都在同时押注 Agent 能力。Anthropic 发布了新的 Agent 工具,OpenAI 在加速开发,阿里、字节、智谱也在密集发布支持 Agent 的模型。Agent 能够自主完成多步骤任务,被认为有可能颠覆传统 SaaS 商业模式,这也是近期科技股剧烈波动的原因之一。