Qwen3.6-35B-A3B 正式发布!MoE架构实现"以小博大",轻量高效成开源新标杆
北京时间 2026 年 4 月 16 日,阿里巴巴千问大模型团队正式开源了其新一代稀疏混合专家(MoE)模型 Qwen3.6-35B-A3B。这款模型以350亿总参数、仅激活30亿参数的独特架构,在智能体编程、多模态理解等领域展现出惊人的性能,迅速成为全球 AI 社区关注的焦点。 Qwen3.6-35B-A3B 采用了先进的 MoE(混合专家)架构,其内部包含 256 个专家网络,每次推理仅激活 8 个路由专家 + 1 个共享专家。这使得模型在拥有巨大知识容量的同时,保持了极高的推理效率。 官方发布的基准测试数据显示,Qwen3.6-35B-A3B 在同级别模型中表现极为出色,尤其是在智能体编程和复杂任务处理上,展现出了越级的实力。 从数据中可以清晰地看到,Qwen3.6-35B-A3B 在绝大多数编程与智能体相关的基准测试中都处于领先地位。特别是在 Terminal-Bench 2.0(终端编程)和 QwenWebBench(前端代码生成)上,提升幅度尤为显著,意味着它在处理复杂的终端任务和生成高质量前端代码方面有了质的飞跃。 在SWE-bench Pro这一硬核编程基准测试中,Qwen3.6-35B-A3B的得分从上代的53.4%跃升至64.3%,单代涨幅近11个百分点。横向对比,这一成绩超越了GPT-5.4(57.7%)和Gemini 3.1 Pro(54.2%),以仅30亿激活参数的身份,实现了对顶尖闭源模型的"以下犯上"。 在Terminal-Bench 2.0(考察模型在终端环境下的编程能力)中,Qwen3.6-35B-A3B取得了51.5的高分,显著领先于前代Qwen3.5-35B-A3B(40.5)、Gemma4-31B(42.9)等同类开源模型。 Qwen3.6-35B-A3B内置了强大的视觉编码器,在MMBench、RealWorldQA、SimpleVQA等多项视觉语言基准测试中,表现已与Claude Sonnet 4.5持平,部分任务实现超越。 在空间智能方面,模型在RefCOCO(考核模型对复杂图像识别能力)上取得了92.0的优异评分,在ODInW13上取得了50.8的成绩,均处于业内前列。 在考察长程编程任务的NL2Repo基准测试中,Qwen3.6-35B-A3B取得了29.4的高分,远超Gemma4-31B(15.5)和Gemma4-26BA4B(11.6)。此外,模型已实现对OpenClaw、Qwen Code、Claude Code等主流Agent框架的深度兼容,能够将模型的编程能力、原生多模态能力更好地赋予各类智能体,完成更长程、更复杂的任务。 这得益于MoE架构的核心设计哲学。传统的稠密模型,不管什么任务,都会调用全部参数参与计算——就像做一道加减法,却要全公司开会讨论,成本高、速度慢。MoE架构则把模型拆成多个"专家",每次只激活与当前任务相关的少数专家来处理。 Qwen3.6-35B-A3B内部有256个专家网络,每次推理仅激活8个路由专家+1个共享专家。这使得它跑起来的时候,资源消耗跟一个30亿参数的模型差不多,但调用的知识储备却是350亿级别的。 Qwen3.6-35B-A3B 已在以下平台全面开放: 由于模型采用 MoE 架构,激活参数仅 30 亿,本地部署的门槛大幅降低。以下是几种常见的本地运行方案: 模型一经发布,便在全球 AI 社区引发了热烈反响。著名开发者 Simon Willison 在他的个人博客中分享了一个有趣的案例:他使用 Unsloth 量化的 Qwen3.6-35B-A3B 模型,在自己的 MacBook Pro M5 上生成了一个 "骑自行车的鹈鹕" 的 SVG 图像,其质量甚至超过了 Claude Opus 4.7 的生成结果。这个案例生动地展示了 Qwen3.6 在多模态生成和本地化部署方面的巨大潜力。 开源社区对 Qwen3.6-35B-A3B 的评价普遍积极,认为它进一步抬高了"以小胜大"的开源模型效率上限,是本地部署的智能体编程首选模型。 Qwen3.6-35B-A3B 的开源,不仅是阿里巴巴在 AI 领域的又一重要里程碑,也为全球开发者提供了一个强大、高效、易用的工具。随着端侧 AI 与自动化智能体需求的激增,这款"低功耗高智能"的模型无疑将成为推动 AI 应用民主化的关键力量。 据了解,阿里下周还将继续开源千问3.6系列新模型,而性能最强的旗舰版模型 Qwen3.6-Max 也将发布。我们期待看到千问系列持续进化,为开发者带来更多惊喜。 立即访问 Qwen/Qwen3.6-35B-A3B,体验这款前沿模型吧!我们期待看到你用 Qwen3.6 创造出更多令人惊叹的应用。💎 模型亮点速览
⚙️ 核心参数与架构
参数项 值 总参数量 350 亿 激活参数量 30 亿 架构类型 稀疏 MoE (混合专家) 层数 40 隐藏层维度 2048 专家数量 256 激活专家数 8 (路由) + 1 (共享) 上下文长度 262,144 tokens (原生,可扩展至1,010,000) 词表大小 248,320 开源协议 Apache 2.0 数据来源:Hugging Face 官方模型页面
📊 性能评测:全面超越同级选手
评测基准 Qwen3.5-27B Gemma4-31B Qwen3.5-35BA3B Qwen3.6-35BA3B SWE-bench Verified 75.0 52.0 70.0 73.4 SWE-bench Multilingual 69.3 51.7 60.3 67.2 SWE-bench Pro 51.2 35.7 44.6 49.5 Terminal-Bench 2.0 41.6 42.9 40.5 51.5 Claw-Eval Avg 64.3 48.5 65.4 68.7 Claw-Eval Pass^3 46.2 25.0 51.0 50.0 SkillsBench Avg5 27.2 23.6 4.4 28.7 QwenClawBench 52.2 41.7 47.7 52.6 NL2Repo 27.3 15.5 20.5 29.4 QwenWebBench 1068 1197 978 1397 TAU3-Bench 68.4 67.5 68.9 67.2 VITA-Bench 41.8 - - 41.8 数据来源:Hugging Face 官方模型页面
💡 性能表现深度分析
1. 智能体编程:30亿激活参数如何"以下犯上"?
2. 多模态与空间智能:比肩闭源旗舰
3. 长程任务与Agent框架兼容
4. 为什么30亿激活参数能超越270亿稠密模型?
🛠️ 上手即用:如何获取 Qwen3.6-35B-A3B
官方渠道
本地部署方案
硬件建议
🌟 社区反响
🔭 展望