【开源新王】GLM-4.7-Flash (30B-A3B MoE) 上线

在 30B 这个 “黄金尺寸” 上,智谱交出了一份离谱的答卷。直接对标 Qwen3-30B-A3B,但在关键指标上实现了反超:

  1. 工程化落地强:SWE-bench 59.2 分。这意味着它不仅是写代码片段,而是真能处理复杂的工程 Issue。

  2. 逻辑推演:AIME 25 跑到 91.6,数学和复杂逻辑不再是小模型的短板。

  3. 长文本 & Agent:在 τ²-Bench 和 BrowseComp 表现优异,依然是构建 Agent 的一把好手。

总结:如果你在寻找一个既能跑得动、又具备顶尖逻辑 / 代码能力的本地模型,这是目前的首选。

下载地址https://huggingface.co/zai-org/GLM-4.7-Flash


📌 转载信息
转载时间:
2026/1/20 10:05:37

标签: AI Agent, Large Language Model, Code Generation, GLM-4.7-Flash, Mixture of Experts

添加新评论