Qwopus3.5 — 用 Reasoning SFT 释放 27B 模型的推理潜力
Qwopus3.5 是开发者 Jackrong (JIRONG) 发布的开源大语言模型系列。名称取自 Qwen + Opus — 基座是阿里的 Qwen3.5-27B,训练目标是借鉴 Claude Opus 的推理风格来提升小模型的推理质量。 它不是简单的知识蒸馏,而是通过 Reasoning SFT(推理监督微调)让 27B 参数的模型学会了结构化推理。所有训练和测试均由作者自费在 Google Colab 上完成 — 这意味着你也可以复现整个流程。 当前最新版本为 v3.5,相比 v3 使用了约 2 倍的 SFT 训练数据,在泛化能力和 agentic 编程任务上进一步提升。 在本地模型的世界里,27B 是一个关键的参数量级 — 大到足以产生高质量推理,小到能在消费级硬件上流畅运行。Qwopus 在这个量级上做到了三件事: 社区还提供了 GPTQ、AWQ、i1-GGUF、abliterated 等多种量化和变体版本,可在 Hugging Face 搜索 这是理解 Qwopus 的关键。如果你只记住一件事,记住这个:Reasoning SFT 不是让模型学新知识,而是教它如何使用已有的知识去推理。 很多人看到"Opus"就以为是从 Claude 蒸馏知识。实际上,Qwopus 的训练方法完全不同: 相关论文 Rethinking Generalization in Reasoning SFT(arXiv:2604.06628)指出: 换句话说:训练初期模型可能在某些任务上变差,但随着训练深入,推理能力会"涌现"并迁移到新领域。 Qwopus 的推理模式不是简单地"想完再说",而是 Act-then-refine: 这种方式比简单的长 CoT 模仿更有效,尤其适合编程和多步骤任务。v3 版本放弃了 v2 的浅层 CoT,转向结构化可验证推理链,内部逻辑更严谨。 v3.5 没有引入新架构、RL 阶段或模板重设计,纯粹通过扩大 SFT 数据量(约 2 倍)来增强泛化能力。这本身就是一个有趣的实验结论 — 在 Reasoning SFT 框架下,数据量的扩展能直接转化为泛化能力的提升。 训练数据覆盖:数学、编程、谜题、多语言对话、指令遵循、多轮交互和 STEM 任务。 MMLU-Pro 子集(280 题): 作者自建 Agentic 编程测试(44 题): v3.5 的关键提升在于多步骤 agentic 编程:能通过工具调用读取源码、诊断 timezone 解析 bug 并提出修复方案,而 v3 未能定位根因。 官方指出推理 SFT 存在能力权衡:多步推理能力显著提升,但在部分对齐敏感的基准上可能出现轻微回退。 Qwopus 目前缺乏在标准完整 benchmark 上的评测数据,因此无法与其他模型进行严格的横向对比。以下仅展示 Qwopus 相对于其基座模型 Qwen3.5-27B 的提升: 待作者在完整标准 benchmark 上发布评测结果后,才能与 Gemma 4、Llama 4 Scout 等同级别模型进行公平比较。 已观察到的特点: 光看 benchmark 数字不够直观。以下是社区用户使用完全相同的提示词(生成一个关于 "Divine Scalar Field Hypothesis" 的学术预印本网站),在本地环境下的公平对比。 三次生成,三种完全不同的设计语言。这说明模型在创意生成上有较强的多样性。 结论:在前端/UI 设计、创意生成、动画交互等需要审美 + 细节 + 多样性的场景中,Qwopus v3 在社区实测中表现优于 Gemma 4。这不是全面 benchmark,但对本地前端开发、原型设计场景来说值得一试。 以下测试展示了 Reasoning SFT 在日常逻辑推理中的实际效果。 看似简单,实则包含一个隐含前提陷阱 — 大多数人(和模型)会被"50 米"的短距离误导,直觉回答"走路"。 模型展现了完整的多层推理: 最终结论正确:必须开车去,因为这是让车到达洗车店的唯一合理方式。 这道题测试的不是知识量,而是推理质量: 这正是 Act-then-refine 推理模式的典型体现:先分析问题结构,再逐步验证,最终输出经过多轮检验的答案。不少同级别模型会直接回答"走路",因为它们更倾向于模式匹配而非深入推理。 任何支持 GGUF 格式的推理引擎均可加载:llama.cpp、koboldcpp、text-generation-webui 等。 选择建议:你不需要 H100 集群,也不需要每月 $200 的 API 账单。一台 16GB 显存的笔记本,就能跑一个推理能力显著超越同级别开源模型的本地模型。
这个模型是什么?
为什么值得关注?
模型版本一览
官方发布
模型 参数量 格式 说明 Qwopus3.5-27B-v3.5 27B SafeTensors 最新版,2x SFT 数据,推荐 Qwopus3.5-27B-v3 27B SafeTensors 稳定版 Qwopus3.5-27B-v3.5-GGUF 27B GGUF v3.5 量化版,适合本地部署 Qwopus3.5-27B-v3-GGUF 27B GGUF v3 量化版 Qwopus3.5-9B-v3-GGUF 9B GGUF 轻量版,适合低显存设备 MLX-Qwopus3.5-9B-v3-6bit 9B MLX Apple Silicon 优化版 社区衍生
Qwopus 查看。技术深度:Reasoning SFT 到底做了什么?
基座与微调
Reasoning SFT vs 知识蒸馏
知识蒸馏 Reasoning SFT(Qwopus 的方法) 目标 让小模型模仿大模型的输出 让模型学会推理的过程和结构 数据 大模型的输入-输出对 高质量长 Chain-of-Thought 数据 效果 模仿格式,但推理深度有限 激活模型已有的潜在知识 泛化 局限于训练分布 可迁移到未见过的任务类型 推理 SFT 的泛化能力是动态的、有条件的 — 取决于优化程度、数据质量和模型本身的能力。短期训练可能低估泛化效果,域外性能常呈现"先降后升"的恢复模式。
Act-then-refine — 先行动,再优化
<think>...</think> 标签进行结构化思考(Refine)v3 → v3.5:不换架构,只加数据
评测表现
v3 vs v3.5 对比
版本 正确 总数 准确率 变化 v3 250 280 89.29% — v3.5 253 280 90.36% +1.07% 注:由于算力限制,v3.5 仅在 v3 使用的同一 280 题子集上评测(完整 MMLU-Pro 约 12000 题),结果仅供版本间纵向对比,不可与其他模型的完整评测直接比较。
版本 通过 总数 通过率 v3 42 44 95.5% v3.5 43 44 97.7% 注:这是作者自建的 44 题测试集,非标准 SWE-bench(500+ 题)。由于样本量小且非标准化,通过率不可与其他模型在 SWE-bench 上的成绩直接比较。
与基座模型的对比
实测一:前端创意生成 — Qwopus v3 vs Gemma 4
Qwopus v3 — 三次生成,三种截然不同的风格
测试 风格 亮点 #1 深空科幻 星空背景、彩虹渐变标题、粒子动画、指针悬停高亮 #2 学术极简 纯白背景、左侧导航栏、经典论文排版,仅加一行提示即切换风格 #3 暗黑现代 荧光渐变、3D 倾斜卡片、悬停发光、指针拖尾动画,视觉冲击力极强 Gemma 4 — 同一提示词
其他社区反馈
实测二:逻辑推理 — 一道"简单"的洗车题
测试环境:Qwopus3.5 v3.5 Q6_K 量化,Apple M3 Pro 36GB
测试题
我想洗车,我家距离洗车店只有 50 米,请问你推荐我走路还是开车去呢?
Qwopus 的推理过程
为什么这道题能说明问题?
适用场景
场景 说明 Qwopus 的优势 编程辅助 代码阅读、bug 诊断、修复建议 多步骤 agentic 工作流,97.7% 通过率 前端/UI 生成 一次生成高质量页面 创意多样性突出,动画和交互细节丰富 逻辑推理 数学、竞赛题、日常逻辑 Reasoning SFT 带来的深度推理能力 工具调用 多步骤 agentic 任务 支持 <tool_call> 格式,能串联多步操作多语言对话 英、中、韩、日、西班牙语 继承 Qwen3.5 的多语言基础 STEM 任务 生物、化学等学科问题 结构化推理链提升解题准确率 本地编程助手 配合终端工具或 IDE 插件 低延迟、零成本、数据不出本机 快速上手:10 分钟本地部署
方式一:LM Studio(推荐,最简单)
Qwopus3.5-27B-v3.5-GGUF(或 v3)http://localhost:1234/v1,兼容 OpenAI 格式方式二:Ollama(一行命令)
ollama pull gag0/qwen35-opus-distil:27b
ollama serve方式三:其他 GGUF 运行时
硬件需求:你的设备能跑吗?
模型 量化 内存/显存需求 适用设备 9B Q4_K_M ~6 GB 入门级 GPU / M1 Mac 9B Q8_0 ~10 GB 中端 GPU / M2 Mac 27B Q4_K_M ~16 GB RTX 4060 Ti 16GB / M2 Pro 27B Q5_K_M ~20 GB RTX 4070 Ti / M3 Pro 27B Q6_K ~23 GB RTX 4080 / M3 Pro 36GB 27B Q8_0 ~30 GB RTX 4090 / M3 Max 已知局限(诚实比营销重要)
相关链接