包含关键字 typecho 的文章

JeecgBoot AI专题研究 | 2026 年 4 月大模型四强横评:参数、基准、价格、场景全维度对比

48 小时内两款旗舰接连亮相——昨天 GPT-5.5,今天 DeepSeek-V4-Pro。加上 4 月初发布的 GLM-5.1 和 3 月稳住阵脚的 MiniMax M2.7,四款顶级大模型一齐摆在桌面上。这篇文章只做一件事:把它们拉到同一把尺子下,告诉你谁擅长什么、差在哪里、怎么选最划算


写在前面:为什么是这四款?

一个很直观的现象是,2026 年 4 月的模型发布节奏被压缩到了"按天计"。过去一款旗舰模型从发布到铺开通常需要一两周缓冲期,但现在:

  • MiniMax M2.7(2026-03-18)——首款"自我进化"模型
  • GLM-5.1(2026-04-10)——智谱编程 Agent 旗舰
  • GPT-5.5(2026-04-23)——OpenAI 自 GPT-4.5 以来首次全面重训
  • DeepSeek-V4-Pro(2026-04-24)——今日凌晨刚发布的 1.6T 开源预览版

其它模型(Kimi K2.6、Qwen3-Max、文心 5.5 等)也在同一时间段内发布,但这四款覆盖了开源 vs 闭源编程 vs 推理 vs 文字大参数 vs 小激活四对关键维度,最具横评价值。


一张图看懂四款模型

把核心规格压缩到一张表里:

维度GLM-5.1MiniMax M2.7DeepSeek-V4-ProGPT-5.5
发布时间2026-04-102026-03-182026-04-24(今日)2026-04-23
开源协议✅ 开源✅ 开源MIT❌ 闭源
总参数754B (MoE)未公开 (MoE)1.6T (MoE)未公开
激活参数40B~10B49B未公开
上下文窗口200K262K1M1M (API) / 400K (Codex)
多模态文本 + 代码文本 + 代码文本 + 代码文本 + 代码
输入定价~$1.74/M$0.30/M$1.74/M$5.00/M
本地部署⚠️(Pro 版 865GB)

参数规模直观对比(总参数 B,越长越大):

DeepSeek-V4-Pro   ████████████████████████████████████████  1,600B
GLM-5.1           ██████████████████▊                         754B
MiniMax M2.7      未公开(MoE,激活 ~10B)
GPT-5.5           未公开(闭源)

激活参数对比(真实推理成本的关键指标):

DeepSeek-V4-Pro   ████████████████████████████████████████   49B
GLM-5.1           █████████████████████████████████           40B
MiniMax M2.7      ████████                                    10B
GPT-5.5           未公开

⚠️ 一个容易忽略的点:激活参数才是真实推理开销的指标,总参数决定知识上限,但每次推理只激活其中一小部分。MiniMax M2.7 激活仅 10B,这就是它能把输出速度拉到 ~100 TPS(接近主流模型 2 倍)的底层原因。


基准测试一:编程与软件工程

编程能力是本轮最值得关注的赛道,因为四款模型有三款都把它列为主打能力

SWE-bench Pro(真实 GitHub 仓库修复,业界公认最硬的编程评测):

GLM-5.1           ██████████████████████████████████████████  58.4%
MiniMax M2.7      ████████████████████████████████████████▌   56.2%
DeepSeek-V4-Pro   ███████████████████████████████████████▊    55.4%
GPT-5.5           未公布(Opus 4.7 以 64.3% 领先对比项)

三款国产模型在 55~58% 区间高度贴靠,统计误差范围内实力相当。GPT-5.5 在这项上"策略性失踪"——按 OpenAI 惯例不公布意味着数据不够漂亮。第三方测试显示它被 Claude Opus 4.7 压制明显。

Terminal Bench 2.0(CLI / 终端多步操作,最接近真实 DevOps 场景):

GPT-5.5           ██████████████████████████████████████████████████████████████  82.7%
GLM-5.1           ████████████████████████████████████████▎                       ~57%
MiniMax M2.7      ████████████████████████████████████████                        57.0%
DeepSeek-V4-Pro   未公布

这项差距一下拉开了约 25 个百分点——说明 GPT-5.5 在多步 Shell 任务、状态维护、工具链协作上有系统性优势,这恰恰是企业级 Agent 落地最吃力的环节。


基准测试二:推理与知识

GPQA Diamond(研究生级物理/化学/生物推理题):

DeepSeek-V4-Pro   █████████████████████████████████████████████  90.1%
MiniMax M2.7      ███████████████████████████████████████████▌   87.0%
GLM-5.1           未公布
GPT-5.5           未公布

HLE(Humanity's Last Exam,极难知识广度测试):

DeepSeek-V4-Pro   ██████████████████▊                              37.7%
MiniMax M2.7      ██████████████                                   28.0%
GLM-5.1           未公布
GPT-5.5           未公布

DeepSeek-V4-Pro 在纯推理和知识广度上优势非常显著——这与它 1.6T 的超大总参数高度相关。如果你的工作场景是科研、数学推导、复杂 STEM 问题,它几乎是开源选项里的唯一答案。


基准测试三:真实职业工作

GDPval(覆盖 44 种真实职业的知识工作评测,任务来自律师、医生、数据科学家等):

GPT-5.5           ███████████████████████████████████████████▌   84.9%
MiniMax M2.7      ████████████████████████▌                     50 ELO (AA, 开源最高)
GLM-5.1           未公布
DeepSeek-V4-Pro   未公布

GPT-5.5 在这项上是最强,因为它的训练数据和 RLHF 大量针对"职业交付"场景调优。MiniMax M2.7 的 AA 分榜(Artificial Analysis)位列开源第一,办公自动化(Excel / PPT / Word 复杂编辑)表现突出。


价格对比:谁更能打"性价比"?

API 输入定价对比($/百万 tokens,柱长与价格成正比):

MiniMax M2.7      █▊                                               $0.30   ← 最低
GLM-5.1           ██████████                                       $1.74
DeepSeek-V4-Pro   ██████████                                       $1.74
GPT-5.5           █████████████████████████████                    $5.00   ← 最高

横向换算一下,同样是做 100 万 tokens 输入:

  • MiniMax M2.7:2 块钱人民币
  • GLM-5.1 / DeepSeek-V4-Pro:约 12.5 元
  • GPT-5.5:约 36 元

GPT-5.5 的价格是 MiniMax M2.7 的 17 倍。对于内容生产、客服对话、轻量 Agent 这些高频调用场景,这个差距足以决定项目生死。


深度解析一:GLM-5.1

智谱 4 月 10 日发布并开源的旗舰模型,最核心的卖点是长程 Coding Agent 能力——官方和第三方都在强调"能连续自主工作 8 小时"。

亮点

  • 能在单次任务中走完"提出方案 → 写代码 → 跑实验 → 看结果 → 再优化"的完整闭环,而不是生成一次代码就停下来等人评价
  • SWE-bench Pro 58.4% 拿下国产第一、开源第一
  • Code Arena Elo 达 1,530,由 Arena.ai 独立验证,全球第三(仅次于 Opus 4.7 和 GPT-5.5)
  • 前端 UI 生成(React / Vue / 全栈脚手架)能力突出,生成质量接近 Claude 水平
  • 幻觉压制明显优于前代,是国产第一梯队中最可靠

痛点

  • 服务稳定性仍是硬伤,高峰期 429 错误频繁,响应延迟偏高
  • 本次涨价 33%,编码场景定价首次追平 Anthropic——性价比光环在淡化
  • 对于简单任务,8 小时的长程能力用不上,属于"配置过剩"

适合谁:大型代码仓库重构、全栈应用生成、需要深度 Agent 能力的开发团队。


深度解析二:MiniMax M2.7

3 月 18 日发布。它最大的故事不在参数上,而在训练方式上——首款由模型自身深度参与训练迭代的 MiniMax 模型。通过 Agent Harness 系统,模型在训练中自主修改脚手架代码、调整采样参数,甚至给自己写新的操作规范。

亮点

  • 文字创作公平用例集均分 91.7 位列第一,超越 GPT-5.4 和 Claude Opus 4.6
  • 办公场景(复杂 Excel 公式、PPT 排版、Word 结构化文档)表现突出
  • GDPval-AA ELO 1,495,开源模型中最高
  • 激活参数仅 10B,Token 生成速度约 100 TPS(主流模型约 50 TPS)
  • API $0.30/M,是四款中性价比最高的

痛点

  • 复杂数学、多步逻辑推理系统性偏弱,HLE 只有 28 分
  • 小激活参数决定了它在知识广度上比不过 V4-Pro
  • 不适合科研、STEM、严谨推理类任务

适合谁:内容生产、营销文案、客服对话、办公自动化,以及对成本和速度同时敏感的 To C 产品。


深度解析三:DeepSeek-V4-Pro(今日发布)

今天(4 月 24 日)凌晨刚在 Hugging Face 放出的预览版。目前参数规模最大的开源模型——1.6T,超过 GLM-5.1 的 754B、Kimi K2.6 的 1.1T。

亮点

  • 1M token 上下文成为标准配置——支持"整个代码库 + 年度提交历史 + 全套文档"一次性喂入
  • 采用混合注意力架构(CSA + HCA),1M 上下文推理仅需 DeepSeek-V3 的 27% FLOPs 和 10% KV cache
  • GPQA Diamond 90.1%、HLE 37.7%,数学/STEM/竞赛编程超越所有公开评测的开源模型
  • Agent 能力显著增强,内部评测体验优于 Claude Sonnet 4.5,接近 Opus 4.6 非思考模式
  • MIT 协议,本地部署完全无限制
  • 针对 Claude Code / OpenClaw / OpenCode 做了专项适配,API 对 Anthropic 协议兼容

痛点

  • 预览版,稳定性待观察(过去 24 小时社区已有少量 bug 反馈)
  • 无多模态支持
  • 1.6T 总参数的私有化部署门槛极高——Pro 版本单卡无法加载,需要 H100×8 起步
  • 激活 49B 的推理成本在三款开源模型中最高

适合谁:科研机构、大型代码库分析、需要 1M 上下文的文档处理、以 MIT 协议做二次开发的企业。


深度解析四:GPT-5.5(昨日发布)

4 月 23 日发布,是 OpenAI 自 GPT-4.5 以来首次全面重训的基础模型。此前的 GPT-5.x 系列都在同一个基座上做后训练迭代,而 5.5 是从训练流程开始重建。

亮点

  • Terminal Bench 2.0 82.7% 大幅领先,国产三款都在 57% 附近
  • GDPval 84.9%(44 种职业),OSWorld-Verified 78.7%(计算机操控),Tau2-bench 电信客服 98.0%
  • 延迟与 GPT-5.4 持平,但完成相同 Codex 任务少用约 40% 的输出 token——更聪明也更省钱
  • 面向企业级广泛工作场景,在商业、法律、教育、数据科学上获得早期测试者高度评价

痛点

  • AA-Omniscience 幻觉率高达 86%,远超 Opus 4.7 的 36%——"知道的更准,不知道的更敢编",Agent 工作流中风险较高
  • API $5/$30(输入/输出),是 DeepSeek-V4-Pro 的约 3 倍,MiniMax M2.7 的近 17 倍
  • SWE-bench Pro 未公布,第三方数据显示被 Opus 4.7(64.3%)明显压制
  • 闭源,无法私有化部署

适合谁:企业级 Agent、复杂 DevOps 流水线、对广泛职业场景有覆盖需求、同时对价格不敏感的团队。


能力雷达图:一眼看出各自的"形状"

按 5 个核心能力维度(1~10 分)对比:

能力维度GLM-5.1MiniMax M2.7DeepSeek-V4-ProGPT-5.5
代码生成9788
推理 / STEM75108
文字创作71079
Terminal/Agent76810
性价比71084
上下文671010
服务稳定性687(预览版待观察)10

可视化条形图(代码能力):

GLM-5.1           █████████████████████████████████████████████  9
MiniMax M2.7      ███████████████████████████████████            7
DeepSeek-V4-Pro   ████████████████████████████████████████       8
GPT-5.5           ████████████████████████████████████████       8

可视化条形图(推理 / STEM):

GLM-5.1           ███████████████████████████████████            7
MiniMax M2.7      █████████████████████████                      5
DeepSeek-V4-Pro   ██████████████████████████████████████████████ 10
GPT-5.5           ████████████████████████████████████████       8

可视化条形图(文字创作):

GLM-5.1           ███████████████████████████████████            7
MiniMax M2.7      ██████████████████████████████████████████████ 10
DeepSeek-V4-Pro   ███████████████████████████████████            7
GPT-5.5           █████████████████████████████████████████████  9

可视化条形图(性价比):

GLM-5.1           ███████████████████████████████████            7
MiniMax M2.7      ██████████████████████████████████████████████ 10
DeepSeek-V4-Pro   ████████████████████████████████████████       8
GPT-5.5           ████████████████████                           4

选型决策树:你该选谁?

根据具体使用场景,给出明确推荐:

你的场景首选备选选型理由
大型代码仓库 Agent / 全栈开发GLM-5.1DeepSeek-V4-ProSWE-bench Pro 国产第一,8 小时长程能力
超长文档 / 完整代码库投喂DeepSeek-V4-ProGPT-5.51M 标准上下文 + 开源可本地化
内容生产 / 营销文案 / 办公自动化MiniMax M2.7GPT-5.5文字第一 + 速度快 + 价格最低
数学 / STEM / 科研推理DeepSeek-V4-ProGPT-5.5GPQA 90.1%,HLE 37.7%,开源最强
Terminal / DevOps / 计算机操控GPT-5.5GLM-5.1Terminal Bench 领先 25 个百分点
企业级广泛职业工作GPT-5.5MiniMax M2.7GDPval 84.9%,覆盖广
高频低成本调用(客服、轻 Agent)MiniMax M2.7GLM-5.1$0.30/M + 100 TPS
开源 + 私有化部署DeepSeek-V4-ProGLM-5.1MIT 协议 + 超大参数
幻觉敏感场景(法律、医疗)GLM-5.1幻觉压制为国产第一梯队最佳

常见误区:别被单一指标忽悠

在横评过程中,几个容易被"标题党"带偏的点:

误区一:总参数越大越强
DeepSeek-V4-Pro 1.6T 参数确实在知识广度上占优,但激活只有 49B。对大多数场景而言,激活参数决定推理质量上限,总参数决定长尾覆盖。编程、对话、写作这些日常任务,40B 激活已经够用。

误区二:Terminal Bench 代表整体实力
GPT-5.5 在 Terminal Bench 上 82.7% 遥遥领先,但这只说明它在"多步 Shell 命令、状态维护"这一类任务上强。它在 SWE-bench Pro 上的表现(未公布,推测低于 58%)恰恰说明单一基准不能说明全部。

误区三:开源 = 免费
三款开源模型都可以本地部署,但 DeepSeek-V4-Pro Pro 版本 865GB,H100×8 集群起步,单月硬件成本 10 万+。"能跑"和"跑得起"是两件事。MiniMax M2.7 的小激活设计反而在私有化场景更友好。

误区四:低幻觉 = 不瞎说
GLM-5.1 宣传"幻觉压制为国产第一梯队最佳",但这只是相对前代和国产同类的说法。绝对水平上,Claude Opus 4.7 的 36% 幻觉率仍是业界最低,低成本的代价是回答的"硬度"和"胆量"。


一个开发者的实用建议

如果你只能选一款长期用:

  • 预算优先:MiniMax M2.7($0.30/M,速度还快)
  • 开源优先:DeepSeek-V4-Pro(1.6T + MIT + 1M 上下文)
  • 编程优先:GLM-5.1(国产编程当前最优,服务在改善)
  • 企业交付优先:GPT-5.5(虽贵但广,幻觉风险需要配合监控)

如果可以同时接入多款(推荐做法):

  • 轻量路由(客服、闲聊、简单代码)→ MiniMax M2.7
  • 重度编程(复杂项目、Agent 工作流)→ GLM-5.1
  • 长文档 / 科研(论文阅读、代码库分析)→ DeepSeek-V4-Pro
  • 关键决策节点(最终确认、高价值输出)→ GPT-5.5

这样一套组合下来,平均成本能控制在 $0.8~$1.5/M,同时保留了"关键时刻顶得住"的最终武器。


总结

用一句话概括四款模型:

  • GLM-5.1:国产编程 Agent 当前最优解,8 小时长程能力是最大差异化
  • MiniMax M2.7:文字能力被严重低估,小激活带来最佳性价比
  • DeepSeek-V4-Pro:今天刚出,1M 上下文 + MIT 协议 + 超大参数三合一
  • GPT-5.5:Terminal 和广泛职业工作的天花板,但高幻觉 + 高价格需要认真权衡

这四款模型没有绝对的赢家,但每款都有不可替代的那部分。2026 年这个节点,"一款模型打天下"的时代已经结束,多模型组合 + 场景路由才是未来 6~12 个月的标配。

未来几周,随着 DeepSeek-V4-Pro 稳定版落地、GPT-5.5 价格可能的调整、以及 Kimi K3 和 Qwen4 的可能发布,格局还会继续演变。值得持续跟踪。


本文为 JeecgBoot AI 专题研究系列文章。数据来源:OpenAI 官方博客、智谱开放文档、MiniMax 官网、DeepSeek Hugging Face 模型卡、Atlas Cloud、DataLearnerAI、VentureBeat、TechCrunch 等。发布时间:2026 年 4 月 24 日。

刚刚,DeepSeek 在官方公众号发文宣布,全新系列模型 DeepSeek-V4 的预览版本正式上线,并同步开源!

 

DeepSeek-V4 拥有百万字超长上下文,在 Agent 能力、世界知识和推理性能三大维度上均实现了国内与开源领域的领先。

 

秉承 DeepSeek 一贯的开放精神,本次发布的模型按大小分为两个版本,欢迎开发者、研究者和企业用户前往体验和下载。

 

模型按大小分为两个版本:

  • DeepSeek-V4 模型开源链接:

https://huggingface.co/collections/deepseek-ai/deepseek-v4

https://modelscope.cn/collections/deepseek-ai/DeepSeek-V4

  • DeepSeek-V4 技术报告:

https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf

 

Pro 版本面向的是高性能,Flash 版本则主攻性价比。

 

API 服务已同步更新,通过修改 model_name 为 deepseek-v4-pro 或 deepseek-v4-flash 即可调用。

 

从技术报告来看,有一点特别值得注意,DeepSeek V4 并不是只在 NVIDIA 体系内做优化,而是明确将细粒度专家并行(EP)方案同时在 NVIDIA GPU 和华为 Ascend NPU 上完成验证,这说明其推理路径已经具备跨算力平台的适配能力。但在开源层面,当前释放的仍主要是基于 CUDA 的 MegaMoE 和 DeepGEMM,底层实现深度绑定 NVIDIA 工具链。

 

另外,官方 API 页面还提到,受限于高端算力,目前 V4-Pro 的服务吞吐仍有限,预计下半年昇腾 950 超节点批量上市后,Pro 价格会大幅下调。这意味着,DeepSeek 一边在现有 CUDA 生态内持续做极致优化,一边也在为华为 Ascend 等多算力环境预留空间,开始尝试把模型运行时从单一硬件依赖中解耦出来。

DeepSeek-V4-Pro:性能比肩顶级闭源模型

  • Agent 能力大幅提高:相比前代模型,DeepSeek-V4-Pro 的 Agent 能力显著增强。在 Agentic Coding 评测中,V4-Pro 已达到当前开源模型最佳水平,并在其他 Agent 相关评测中同样表现优异。目前 DeepSeek-V4 已成为公司内部员工使用的 Agentic Coding 模型,据评测反馈使用体验优于 Sonnet 4.5,交付质量接近 Opus 4.6 非思考模式,但仍与 Opus 4.6 思考模式存在一定差距。

 

  • 丰富的世界知识:DeepSeek-V4-Pro 在世界知识测评中,大幅领先其他开源模型,仅稍逊于顶尖闭源模型 Gemini-Pro-3.1。

 

  • 世界顶级推理性能:在数学、STEM、竞赛型代码的测评中,DeepSeek-V4-Pro 超越当前所有已公开评测的开源模型,取得了比肩世界顶级闭源模型的优异成绩。

 

DeepSeek-V4-Flash:主攻性价比

 

  • 相比 DeepSeek-V4-Pro,DeepSeek-V4-Flash 在世界知识储备方面稍逊一筹,但展现出了接近的推理能力。而由于模型参数和激活更小,相较之下 V4-Flash 能够提供更加快捷、经济的 API 服务。

 

  • 在 Agent 测评中,DeepSeek-V4-Flash 在简单任务上与 DeepSeek-V4-Pro 旗鼓相当,但在高难度任务上仍有差距。

 

百万上下文已成标配

 

官方公众号文章中介绍,DeepSeek-V4 开创了一种全新的注意力机制,在 token 维度进行压缩,结合 DSA 稀疏注意力(DeepSeek Sparse Attention),实现了全球领先的长上下文能力,并且相比于传统方法大幅降低了对计算和显存的需求。

 

从现在开始,1M(一百万)上下文将是 DeepSeek 所有官方服务的标配。

 

DeepSeek-V4 和 DeepSeek-V3.2 的计算量和显存容量随上下文长度的变化

 

值得注意的是,DeepSeek-V4 还针对 Claude Code 、OpenClaw、OpenCode、CodeBuddy 等主流的 Agent 产品进行了适配和优化,在代码任务、文档生成任务等方面表现均有提升。下图为 V4-Pro 在某 Agent 框架下生成的 PPT 内页示例:

 

目前,DeepSeek API 已同步上线 V4-Pro 与 V4-Flash,支持 OpenAI ChatCompletions 接口与 Anthropic 接口。访问新模型时,base_url 不变, model 参数需要改为 deepseek-v4-pro 或 deepseek-v4-flash。

 

V4-Pro 和 V4-Flash 均提供 1M 上下文长度,并同时支持非思考模式与思考模式。后者可通过 reasoning_effort 参数调节思考强度(可选 high 或 max)。对于复杂的 Agent 类任务,建议启用思考模式并将强度设为 max。具体调用方式及参数设置请查阅 API 文档。

 

需注意:旧接口中的 deepseek-chat 和 deepseek-reasoner 两个模型名将于 2026 年 7 月 24 日 停止使用。过渡期内,它们分别指向 deepseek-v4-flash 的非思考模式与思考模式。

拆解关键技术创新

混合注意力机制

 

CSA 与 HCA 是关键创新是 V4 系列最关键的创新之一。传统注意力机制处理长序列时,每个 token 都需要与所有历史 token 计算注意力,导致计算量随序列长度平方增长。V4 设计了两种互补的压缩注意力架构:

 

压缩稀疏注意力(CSA):首先将每 m 个 token 的 KV 缓存压缩为 1 个条目(m=4),然后使用 DeepSeek 稀疏注意力,每个查询 token 仅需关注 k 个压缩后的 KV 条目(k=512~1024),引入 Lightning Indexer(轻量索引器)高效选出重要的压缩块,整体将序列长度压缩至 1/m。

 

高度压缩注意力(HCA):采用更激进的压缩率(m'=128),将每 128 个 token 压缩为 1 个,保持稠密注意力(不稀疏),适用于信息密度较低的场景,CSA 与 HCA 以交错方式堆叠,兼顾效率与表达力。

 

工程亮点:支持 RoPE 部分位置编码(仅最后 64 维),维持相对位置信息;引入滑动窗口注意力分支捕获局部依赖;采用 Attention Sink 技术让注意力得分总和可以不为 1。

 

此外,Engram 和 mHC 两个版块上的创新也同样很关键。

Engram 记忆模块

 

首先是 Engram (条件记忆模块):这是 DeepSeek 创始人梁文锋署名论文中的核心概念。它试图解决传统 Transformer 架构将记忆与推理混为一谈的根本问题,模型既需要用注意力去“检索”知识,又需要用注意力去“推理”。

 

工作原理是 Engram 将模型能力从连续的神经计算转移到确定性的哈希查找。它将那些固定的、需要记忆的模式(如实体名、固定搭配)存入一个类似“字典”的查找表中,使模型能以 O(1) 的复杂度快速调用,而无需消耗大量算力去“计算”记忆。

 

实际效果:这使得模型能将宝贵的注意力资源解放出来,专注于复杂的组合与推理任务。在实验阶段,一个集成了 270 亿参数 Engram 的模型,在参数和浮点运算次数(FLOPs)同等的情况下,性能超过了纯 MoE 模型。

mHC 流形约束超连接

 

mHC (流形约束超连接,Manifold-Constrained Hyper-Connections):这是一个旨在解决极深网络训练不稳定性的创新。传统 Transformer 模型在堆叠到很深的时候,容易出现梯度爆炸或消失等信号 degradation 问题。

 

通过将连接矩阵约束在双随机矩阵流形上,mHC 确保了信号增益在每一层都保持稳定(约 1.6 倍),从而让深层表示得以保留。这使训练更深、更强的模型成为可能,将计算利用率从行业平均的约 60%提升到了 85%以上,同时减少了 30%+的原始计算依赖。

 

除了核心架构的创新,V4 在训练和推理工程层面也进行了大量优化。

Muon 优化器:万亿参数的新训练范式

V4 首次在万亿参数 MoE 模型上大规模采用 Muon 优化器。

 

团队设计了一套混合 Newton-Schulz 迭代策略:前 8 步使用快速收敛系数,后 2 步切换为稳定系数,在正交化精度与收敛速度间取得最优。为解决 ZeRO 并行与 Muon 需要完整梯度矩阵的矛盾,团队设计了混合 ZeRO 分配策略——稠密参数限制并行度并用背包算法负载均衡,MoE 专家参数独立展平后均匀分布。进一步地,MoE 梯度在同步前以随机舍入方式量化到 BF16,通信量减半;同时采用“all-to-all + 本地 FP32 求和”规避低精度加法器的累积误差。

FP4 量化:无损压缩与推理加速

V4 在 MoE 专家权重和 CSA 索引器的 QK 路径上应用了 FP4 量化感知训练。一个关键发现是:FP4 到 FP8 的解量化是无损的——因为 FP8 拥有更大的动态范围,FP4 子块的细粒度尺度信息可以被完全吸收。这使得整个量化流程可以无缝复用现有的 FP8 训练框架。

在推理和 RL rollout 阶段,直接使用真实 FP4 权重,实现实时的显存节省和计算加速。对索引器分数的 FP32→BF16 量化更是带来了 2 倍加速,同时保持 99.7%的召回率。

专家并行:通信-计算深度融合

MoE 模型的专家并行受限于跨节点通信。传统方案中,Dispatch 和 Combine 阶段是纯通信瓶颈。V4 的创新是将专家切分为“波”——每个波包含一小部分专家。当波内专家的通信完成后,计算立即开始,无需等待其他专家。稳态下,当前波的计算、下一波的 token 传输、已完成专家的结果发送三者同时进行。这一细粒度流水线在 NVIDIA GPU 和华为昇腾 NPU 上实现 1.5~1.73 倍加速,在 RL rollout 等高敏感场景下可达 1.96 倍。

 

团队还提出了硬件设计建议:当前每 GBps 互联带宽足以覆盖 6.1 TFLOP/s 的计算需求,盲目增加带宽会带来收益递减。这一洞察对未来 AI 加速器设计具有指导意义。

确定性内核:大规模训练的可复现性保障

训练万亿参数模型时,非确定性行为可能导致难以调试的 loss 尖峰。

V4 实现了全面的批量不变性和确定性:任何 token 的输出不因 batch 内位置而改变;每次运行的梯度累积顺序保持一致。技术难点包括:注意力反向传播中放弃 split-KV 方案,改用双核策略(满波时单 SM 处理、部分波时多 SM 协作但保证累积顺序);MoE 反向传播通过 rank 内 token 顺序预处理加 rank 间 buffer 隔离解决竞争;mHC 中小矩阵乘法(输出维度仅 24)被迫使用 split-k 时,先输出各 split 部分再通过专用核确定性归约。

这些工程打磨使得大规模训练的可复现性达到新高度。

TileLang DSL:高性能内核的高效开发

为支撑数百个融合核的开发,V4 团队采用 TileLang 领域特定语言,并实现了主机代码生成——将数据类型、形状约束等元数据嵌入生成的 launcher 中,运行时验证开销从数十微秒降至 1 微秒以下。同时集成 Z3 SMT 求解器进行形式整数分析,支持向量化优化、屏障插入等高级编译优化。严格对齐数值精度与 CUDA 工具链,保证 bit 级可重现性。

训练稳定性:预知路由与 SwiGLU 钳位

万亿 MoE 模型的训练稳定性是一大挑战。V4 识别出 loss 尖峰与 MoE 层异常值的强相关性,且路由机制会加剧异常值。为此设计了预知路由:在 step t 使用历史参数θ_{t-Δt}计算路由索引,当前参数仅做特征计算,通过管线执行与通信重叠将额外开销控制在 20%,且仅在尖峰发生时动态激活。

 

配合 SwiGLU 钳位(线性分量钳位到[-10,10],门控分量上界钳位到 10),有效消除了异常值,且不影响性能。

框架层优化:长上下文 RL 落地

V4 的框架优化覆盖了训练与推理全流程:

 

  • 上下文并行适配:两阶段通信策略解决压缩边界跨 rank 的问题,每个 rank 发送最后 m 个未压缩 KV,all-gather 后融合为完整序列。

  • 张量级激活检查点:扩展自动微分框架,支持对单个张量标注重计算,框架自动计算最小重计算子图,释放显存并复用指针,开发者无需关心底层内存细节。

  • 异构 KV 缓存管理:分离状态缓存(SWA+未就绪压缩 token)和经典 KV 缓存,支持磁盘存储以实现共享前缀请求的零重复预填充。

后训练范式:同策略蒸馏

V4 的后训练采用“独立专家训练→同策略蒸馏”两阶段范式。首先针对数学、代码、Agent、指令跟随等领域独立训练专家模型,每个专家经过 SFT 和 GRPO 强化学习,支持三种推理模式(Non-think/Think High/Think Max)。

 

特别地,使用了生成式奖励模型替代传统标量奖励模型,模型的 actor 与 judge 角色统一,将推理能力内化到评估中。

 

然后通过同策略蒸馏将十多个专家融合到一个统一模型。采用逆向 KL 散度作为目标,并使用全词表 logit 蒸馏(而非 token 级 KL 估计),梯度估计更稳定。工程上,教师权重 offload 到分布式存储,仅缓存最后一层 hidden states,训练样本按教师索引排序确保每个教师头只加载一次,使得在万亿参数级别进行多教师蒸馏成为现实。

 

不得不说,DeepSeek-V4-Pro-Max(最大推理强度模式)在多项基准上重新定义了开源模型的天花板:

 

  • 知识:SimpleQA-Verified 达到 57.9%,远超前代开源模型(约 30%);

  • 编程:Codeforces Elo 3206 分,排名人类第 23,首次有开源模型在该任务上追平 GPT-5.4;

  • Agent:SWE-Verified 80.6%,接近 Claude Opus 4.6 的 80.8%;Terminal Bench 2.0 67.9%,与 GPT-5.4 的 68.5%持平;

  • 中文任务:功能性写作以 62.7%的胜率优于 Gemini 3.1 Pro,创意写作在写作质量维度达到 77.5%胜率。

 

V4-Flash-Max 则以极低成本实现了与 GPT-5.2 和 Gemini 3.0 Pro 相当的推理性能,证明了高效架构的可行性。

过去一年 DeepSeek 重要发布回顾

 

2025 年除夕夜,当大多数用户还沉浸在年味中时,DeepSeek 低调发布了DeepSeek-R1。没有发布会、没有铺天盖地的宣发,但几天之内,这个模型迅速在技术社区、研究圈与开发者社群中扩散开来。事后来看,R1 更像是一个信号:推理模型,开始从“研究话题”走向“工程现实”。

 

DeepSeek 发布了在数学、代码编写和逻辑推理方面表现卓越的 DeepSeek-R1 模型。其性能直追 OpenAI o1,并能够展示详尽的思维链。该模型通过 MIT 协议开源了相关权重和代码,不仅产生了深远的技术影响,更直接重塑了全球开源与商业大模型,乃至中美大模型的技术竞争格局。

 

R1 之后:持续迭代,而非“一次性爆款”。

 

3 月 25 日,DeepSeek V3 模型已完成小版本升级,欢迎前往官方网页、APP、小程序试用体验(关闭深度思考),API 接口和使用方式保持不变。

 

DeepSeek 反馈称此次 DeepSeek-V3 的小版本升级,版本号为 V3-0324,主要聚焦于体验优化和性能提升。在官方网页、App 和小程序中,用户关闭“深度思考”功能,可获取更快的响应速度,适合对实时性要求高的场景(如简单问答、代码片段生成)。

 

5 月 28 日,DeepSeek R1 模型已完成小版本升级,版本为 DeepSeek-R1-0528。这款开源大模型支持 128K 超长上下文,中文能力超越 GPT-4-Turbo 登顶 SuperCLUE 榜首,代码性能媲美顶级闭源模型。亮点包括:处理整本小说/超长文档的"大海捞针"能力、MIT 开源协议支持商用、免费开放使用。适用场景涵盖企业文档分析、教育科研、编程辅助等。

 

8 月 21 日,DeepSeek-V3.1 正式发布。本次升级包含以下主要变化:

 

  • 混合推理架构:一个模型同时支持思考模式与非思考模式;

  • 更高的思考效率:相比 DeepSeek-R1-0528,DeepSeek-V3.1-Think 能在更短时间内给出答案;

  • 更强的 Agent 能力:通过 Post-Training 优化,新模型在工具使用与智能体任务中的表现有较大提升。

 

官方 App 与网页端模型已同步升级为 DeepSeek-V3.1。用户可以通过“深度思考”按钮,实现思考模式与非思考模式的自由切换。

 

DeepSeek-V3.1 上下文已扩展为 128K。同时,API Beta 接口支持了 strict 模式的 Function Calling,以确保输出的 Function 满足 schema 定义。

 

9 月 22 日,DeepSeek-V3.1 已更新至 DeepSeek-V3.1-Terminus 版本。据 DeepSeek 介绍,此次更新在保持模型原有能力的基础上,针对用户反馈的问题进行了改进,包括:语言一致性:缓解中英文混杂、偶发异常字符等情况。在 Agent(智能体)能力方面,进一步优化 Code Agent 与 Search Agent 的表现,DeepSeek-V3.1-Terminus 的输出效果相比前一版本更加稳定。

9 月 29 日,DeepSeek 发布 DeepSeek-V3.2-Exp 模型,这是一个实验性(Experimental)的版本。

 

作为迈向新一代架构的中间步骤,V3.2-Exp 在 V3.1-Terminus 的基础上引入了 DeepSeek Sparse Attention(一种稀疏注意力机制),针对长文本的训练和推理效率进行了探索性的优化和验证。

 

DeepSeek Sparse Attention(DSA)首次实现了细粒度稀疏注意力机制,在几乎不影响模型输出效果的前提下,实现了长文本训练和推理效率的大幅提升。

 

12 月 1 日,DeepSeek 官方同时发布两个正式版模型:DeepSeek-V3.2 和 DeepSeek-V3.2-Speciale。

 

DeepSeek-V3.2 的目标是平衡推理能力与输出长度,适合日常使用,例如问答场景和通用 Agent 任务场景。

 

在公开的推理类 Benchmark 测试中,DeepSeek-V3.2 达到了 GPT-5 的水平,仅略低于 Gemini-3.0-Pro;相比 Kimi-K2-Thinking,V3.2 的输出长度大幅降低,显著减少了计算开销与用户等待时间。

 

DeepSeek-V3.2-Speciale 的目标是将开源模型的推理能力推向极致,探索模型能力的边界。

V3.2-Speciale 是 DeepSeek-V3.2 的长思考增强版,同时结合了 DeepSeek-Math-V2 的定理证明能力。该模型具备更好的指令跟随、数学证明与逻辑验证能力,在主流推理基准测试上的性能表现媲美 Gemini-3.0-Pro。

 

V3.2-Speciale 模型成功斩获 IMO 2025(国际数学奥林匹克)、CMO 2025(中国数学奥林匹克)、ICPC World Finals 2025(国际大学生程序设计竞赛全球总决赛)及 IOI 2025(国际信息学奥林匹克)金牌。其中,ICPC 与 IOI 成绩分别达到了人类选手第二名与第十名的水平。

DeepSeek 官方表示,在高度复杂任务上,Speciale 模型大幅优于标准版本,但消耗的 Tokens 也显著更多,成本更高。目前,DeepSeek-V3.2-Speciale 仅供研究使用,不支持工具调用,暂未针对日常对话与写作任务进行专项优化。

 

再然后到了 2026 年 1 月 13 日,喜欢闷声做大事的 DeepSeek 再次发布重大技术成果,在其 GitHub 官方仓库开源了新论文与模块 Engram,论文题为 “Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models”,梁文锋再次出现在合著者名单中。

 

与传统的大模型架构相比,该方法提出了一种新的“查—算分离”机制,通过引入可扩展的查找记忆结构,在等参数、等算力条件下显著提升模型在知识调用、推理、代码、数学等任务上的表现。代码与论文全文均已开源。

 

论文地址:https://github.com/deepseek-ai/Engram/blob/main/Engram_paper.pdf

代码地址:https://github.com/deepseek-ai/Engram

 

这种查和算分离的 Engram 新方法的整体架构如下图所示:

 

我们为什么需要 Engram ?

 

目前主流的大语言模型架构依然基于 Transformer 和 Mixture-of-Experts(MoE)结构。MoE 是目前推进参数规模和能力扩展的关键技术之一,通过动态路由机制,只激活部分参数以降低计算成本,同时在任务容量方面实现大规模扩展。DeepSeek 自家系列模型(如 DeepSeek V2、DeepSeek V3 等)也采用了先进的 MoE 方法进行扩展训练。

 

但在这些传统的 Transformer 架构(无论是 Dense 还是 MoE)中,模型的参数实际上承担着两种截然不同的角色:

 

事实性记忆(Memorization): 存储海量的知识事实。例如,“法国的首都是哪里?”、“世界最高的山脉是哪座”等。这类信息相对死板,更多依赖于“查表”式的检索。

 

逻辑推理与计算(Calculation): 负责复杂的逻辑链条、多步推理和情境理解。例如,“根据这段代码的逻辑推导可能的 Bug”、“解析一段复杂的哲学论证”。

 

目前的大语言模型倾向于将这两者混在一起。当你试图让模型记住更多知识时,你不得不增加参数量。而在传统的 Dense 模型中,参数量增加意味着前向传播时的计算量(FLOPs)也会同步激增。MoE 架构虽然通过稀疏激活解决了“算力随参数同步爆炸”的问题,但 DeepSeek 研究发现,MoE 专家在处理“死记硬背”的任务时依然不够高效。

 

神经网络本质上是连续的数学变换,用高昂的矩阵运算去模拟简单的“查表检索”,本身就是一种极大的浪费。DeepSeek 的 Engram 正是为了打破这一困境——“该查表的查表,该算的算”。

参考链接:https://mp.weixin.qq.com/s/8bxXqS2R8Fx5-1TLDBiEDg

今日,DeepSeek-V4-Pro 1.6T 旗舰模型(1.86 万亿参数)及 DeepSeek-V4-Flash 284B 高效模型(2840 亿)正式发布。由智源研究院牵头研发的众智 FlagOS 第一时间对两个“巨无霸”模型进行全量适配,已经完成 DeepSeek-V4-Flash 在 8 款以上 AI 芯片上的全量适配与推理部署,包括海光、沐曦、华为昇腾、摩尔线程(FP8)、昆仑芯、平头哥真武、天数、英伟达(FP8)等芯片。FlagOS 同时正在推进 DeepSeek-V4-Pro 模型在多个芯片的迁移适配,后续即将开源。

首先完成在八款芯片适配的 DeepSeek-V4-Flash 采用混合专家(MoE)架构,总参数量 284B,激活参数仅 13B,支持 100 万 token 上下文长度。该模型在架构上引入了混合注意力机制(结合压缩稀疏注意力 CSA 与高度压缩注意力 HCA,大幅提升长上下文效率)、流形约束超连接(mHC,增强跨层 信号传播稳定性)以及 Muon 优化器(加速收敛、提升训练稳定性)。预训练数据超过 32Ttoken,后训练采用两阶段范式——先通过 SFT 和 GRPO 强化学习独立培养领域专家,再通过在线策略蒸馏将多领域能力统一整合到单一模型中。在最大推理力度模式(Flash-Max)下,给予更大思考预算使其推理能力可接近 Pro 版本水平;受限于参数规模,在纯知识类任务和最复杂的 Agent 工作流上略逊于 Pro。

 

围绕 DeepSeek-V4-Flash 多芯适配,此次 FlagOS 系统软件技术栈突破了三大关键技术:FlagGems 全算子替代(实现多芯片统一适配)为 o-group 采用独立张量并行策略解锁更多低显存场景、以及“FP4+FP8 混合精度”的原生权重到 FP8/BF16 的精度路径转换。当下国内出货的 AI 芯片,都没有 FP4 的支持。英伟达也只有在 Blackwell 及之后的高端芯片才支持 FP4。这三项关键技术,使得 DeepSeekV4 能够在当前各种厂商的主流 AI 芯片上稳定运行,而非仅限于支持 FP4 和大显存的少数高端 AI 加速卡。

三大技术突破:为什么对支持多种 AI 芯片十分重要

突破一:FlagGems 提供支持 8 种以上芯片的全算子替代——真正意义上的跨芯方案

本次 DeepSeek-V4-Flash 的适配,FlagGems 实现了模型推理链路中全部算子的替代。这意味着:

  • 彻底脱离 CUDA 算子依赖:DeepSeek-V4-Flash 的 MoE 专家调度、Attention 计算、RMSNorm、TopK 路由等全部核心计算模块,均由 FlagGems 基于 Triton/Triton-TLE 语言重新实现,不调用任何 cuDNN/cuBLAS 等 NVIDIA 私有库。

  • 无需芯片厂商逐一适配:传统模式下,每款新模型上线,芯片厂商需要投入工程团队做算子适配。现在通过 FlagGems+FlagTree 编译器的组合,新模型的算子可以直接编译到多款芯片后端,芯片厂商不需要做任何额外工作。

  • 新算子即时可用:DeepSeek-V4-Flash 引入的新计算模式(如 o-group 相关的分组路由机制),FlagGems 已经实现了对应的新算子,并通过 FlagTree 编译器统一编译到所有支持的芯片后端。

FlagGems 作为全球最大的 Triton 单一算子库,已拥有超过 400 个大模型常用算子,并已正式进入 PyTorch 基金会生态合作项目。在 40 个主流模型上,推理任务算子覆盖度达到 90%~100%,完整支持 DeepSeek-V4-Flash 的全部计算需求。

突破二:为 o-group 采用独立并行策略——解除张量并行最多单机 8 卡限制

DeepSeek-V4-Flash 为了进一步降低计算开销采用了分组输出投影技术(Grouped Output Projection),配置为 o-group=8,这导致在传统的张量并行时候,最多切 8 份。而当前一些主流国产芯片的单卡显存为 32GB 或 64GB,尤其在 BF16 格式情况下,需要张量并行大于 8 份才能放的下。

为了解除这个限制,FlagOS 专门针对 o-groups 进行了单独张量并行策略设计和实现,确保 o-groups 切分不超过 8 份的前提下,能够让模型其他部分还采用经典的张量并行策略,并且实现超过 8 份的切分。通过不同的张量并行策略组合,能够实现多于 8 台设备的张量并行运行。

 

FlagOS 团队对 o-group 张量并行改动包括:

  • 独立的并行策略:独立于已有的张量并行通信组之外,为 o-group 单独构建所需要的张量并行通信组,确保其他模型结构张量并行切分超过 8 的情况下,o-group 的张量并行在 8 以内。

  • 参数转换调整:对 o-group 相关的参数,也进行了对应单独的张量并行切分处理,以确保在新的独立张量并行策略下,也能够被正确加载。

  • 覆盖面扩展:这一优化能够将 DeepSeek-V4-Flash 在单独采用张量并行策略下,将可运行芯片范围从"仅限单机 80GB 以上显存的个别高端卡"扩展到"多机 64GB/32GB 的更多主流国产芯片",包括海光、沐曦、天数智芯等厂商的主力产品线。

突破三:从“FP4+FP8 混合精度” 到 BF16 的精度转换——打通主流芯片的计算路径

DeepSeek-V4-Flash 模型发布时首次采用 FP4+FP8 混合精度,该精度只有在 Blackwell 及之后的英伟达最新硬件上才有支持,但当前所有国内非英伟达 AI 芯片都未能支持,只有摩尔线程原生支持了 FP8,其余依然以 BF16 为主。

FlagOS 完成了从 FP4 到 BF16 的完整精度转换:

  • 权重反量化:将 FP4 量化权重转换为 BF16 格式。这不是简单的类型转换,而是需要根据 DeepSeek 的量化方案进行逆量化计算,确保数值精度。

  • 计算路径重建:FP4 和 BF16 在底层计算上有本质差异——FP4 的动态范围更窄,累加精度、溢出处理策略均不同。FlagOS 对推理链路中的 GEMM、Attention、MoE 路由等关键计算节点逐一适配了 BF16 路径。

  • 精度对齐验证:经过标准评测集验证,BF16 版本与 FP4 原生版本在核心能力指标上保持对齐,确保精度转换不引入业务层面的效果损失。

本次,FlagOS 推出了 FP8 和 BF16 两种适配版本,让 DeepSeek-V4-Flash 不再是“只有最新 NVIDIA 卡才能跑”的模型,而是真正可以部署在 FP8 及 BF16 生态的主流国产芯片上。

FlagGems 开源高性能新算子全面支持 DeepSeek-V4-Flash

本次新发布的 DeepSeek-V4-Flash 共有大约 67 个算子,FlagGems 已全量支持。新支持了 Act Quant、hc_split_sinkhorn、FP8 MatMul、Sparse Attention、Hadamard Transform 等 5 个新算子,实现了对 DeepSeek-V4-Flash 的全面支持,也为跨芯适配打下重要基础。

FlagGems 支持 DeepSeek-V4-Flash 新算子的性能对比

为了支持更多 AI 芯片的使用,FlagOS 对 DeepSeek-V4-Flash 中使用的新算子使用 Triton 语言进行重新实现,基于 FlagTree 统一编译器,性能全部超过原生性能。

C++ Wrapper 技术是 FlagOS 技术社区专门为提升基于 Triton 语言的算子内核调用效率而打造的技术。目前已经支持了该技术的芯片包括华为昇腾、寒武纪、摩尔线程、平头哥真武、及英伟达等。使用了 C++ Wrapper 技术,在普通的 Transformers 框架下,可以显著提升使用了 Triton 算子的模型的端到端效率,实现跨芯普适、和高效推理的双重目标。通过端到端效果评测(NV H20,DeepSeek-V4-Flash FP8),C++ Wrapper + Triton 比 TileLang 快 11%,比 Python Wrapper 版快 39%。

开发者体验优化:“发布即多芯” + “极简部署”

1. 核心能力与原生版本对齐

经 GPQA_Diamond、AIME 等权威评测集验证,FlagOS 适配后的 DeepSeek-V4-Flash,在语言理解、复杂推理、代码生成、数学计算等核心能力上,与 CUDA 原生版本对齐,可放心应用于金融、教育、政企服务、代码开发等场景,无需担心适配导致业务效果折损。

评测数据:

注:本测试结果仅用于对迁移前(Nvidia-Origin)和迁移后(-FlagOS)版本的互相对齐验证,并不代表 DeepSeek 模型的官方性能,DeepSeek 模型的官方性能以 DeepSeek 官方公布数据为准。

 

2. 极简部署:开箱即用,底层优化无感知

FlagOS 将核心算子库、编译器等技术组件前置内置到 DeepSeek-V4-Flash 代码框架中,开发者加载模型时,底层优化代码自动生效,无需手动添加任何 FlagOS 初始化代码。同时,基于 FlagRelease 直接提供了多芯片版本的 DeepSeek-V4-Flash-FlagOS 模型版本,标准化 Docker 镜像 + 一键加速命令,解决了开发者最头疼的环境配置、效果对齐、性能优化等问题。

“Claude 变笨了。”

Anthropic 正面回应模型“变笨”:三处优化导致的

 

过去一段时间,这个声音在 Hacker News、Reddit 以及 X 上此起彼伏。尤其是在万众瞩目的 Opus 4.7 发布后,不少老用户反馈 Claude Code 变得健忘、重复且废话连篇。

 

 

作为目前全球最强梯队的编程模型,Claude 的口碑滑坡让 Anthropic 压力倍增。

 

所以今天一早,Claude Code 研发团队打破沉默,发布了一篇看起来诚意十足的分析文章,名为《An update on recent Claude Code quality reports》,他们在文章中坦言,用户反馈的“降智”并非错觉,而是源于三处看似合理、实则导致连锁反应的产品优化

 

没错,Claude Code 真的“变笨”了。

 

研发团队表示,目前 Anthropic 已修复全部漏洞,并宣布重置所有订阅用户的使用限额以示诚意。

 

截至 4 月 20 日(版本 v2.1.116),这三个问题均已修复。在这篇文章中,他们详细阐述了发现了什么、修复了什么,以及今后将如何改进,避免类似问题再次发生。

三处优化细节详述

 

事件的起因,源于产品团队对“用户体验”的过度优化。经过调查,Claude Code 团队找出了三个不同的问题:

 

第一个优化发生在 3 月 4 日。通常来说,模型思考时间越长,输出效果越好。当时,不少用户吐槽 Opus 模型思考时间太长,甚至导致 UI 卡死。为了缩短延迟、节省 Token,团队私自将默认推理强度(Reasoning Effort)从“高”降到了“中”。

 

在产品层面,团队再从中选一个点作为默认值,并通过 Messages API 的 effort 参数传递该值;同时,团队还将其他可选强度通过 /effort 命令提供给用户。

 

内部评估认为,“中”等强度能以极小的智能损失换取显著的速度提升。然而,真实环境中的开发者并不买账,上线后不久,就有用户反映 Claude Code 感觉变笨了。对 AI 而言,“多思考一秒钟”往往意味着从“生成垃圾代码”到“产出优雅重构”的跨越。

 

在听取更多客户的反馈后,团队做了多次设计迭代,让当前的推理强度设置更清晰,以便提醒用户可以更改默认值(例如启动时弹出提示、增加内联的强度选择器、恢复“ultrathink”选项),但大多数用户仍然保留了“中”等推理强度默认值。

 

4 月 7 日,团队在意识到这种取舍逻辑的错误后,将默认强度重新调回了“高”,并在 Opus 4.7 上默认开启了“极高”模式。此问题影响的模型是 Sonnet 4.6 和 Opus 4.6。

 

第二个优化发生在 3 月 26 日。当 Claude 执行一项任务并进行推理时,这些推理内容通常会被保留在对话历史中。这样,在后续的每一轮交互中,Claude 都能了解自己之前为何做出某些编辑和工具调用。

 

3 月 26 日,团队针对这一功能上线了一项本意是提高效率的优化,有点类似于“自动清理历史思考内容”的功能。他们利用提示缓存(prompt caching)来降低用户连续 API 调用的成本并加快速度。Claude 在发起 API 请求时将输入 token 写入缓存;如果一段时间没有活动,该提示就会被从缓存中逐出,为其他提示腾出空间。

 

原本的设计应该很简单:如果会话空闲超过一小时,系统会剪除旧的推理信息以节省成本。为此,团队使用了 clear_thinking_20251015 这个 API 头部,并配合 keep:1 参数。

 

但代码中隐藏的一个漏洞:它并没有只清除一次思考历史,而是在会话后续的每一轮中都进行清除。一旦跨过空闲阈值,后续每一轮对话都会触发清理。这意味着 Claude 只能记住最近的一句对话,它彻底忘记了自己当初为什么要修改代码。在用户眼中,Claude 开始重复啰嗦、胡言乱语。这种“健忘”不仅损害了智能,还因为频繁的缓存未命中(Cache Miss)导致用户的使用额度被光速消耗

 

据悉,该漏洞的发现过程较为曲折,由于 Anthropic 内部两个互不相关的实验干扰,导致漏洞难以复现——一个是仅用于服务端、涉及消息队列的内部实验,另一个是在思考内容展示方式上的正交改动,该改动在大多数 CLI 会话中掩盖了漏洞,使得外部构建测试时未能发现问题。

 

此外,该漏洞处于 Claude Code 的上下文管理、Anthropic API 和扩展推理三个模块的交汇点,相关变更已通过多轮人工和自动化代码审查、单元测试、端到端测试、自动化验证及内部试用,且仅在陈旧会话这一边缘情况下出现,因此 Anthropic 花费超过一周时间才找到并确认其根本原因。

 

值得注意的是,在调查过程中,团队使用 Opus 4.7 对有问题的拉取请求进行了反向的“代码审查”测试。当提供了获取完整上下文所必需的代码仓库后,Opus 4.7 发现了该漏洞,而 Opus 4.6 未能做到。

 

为防范此类问题再次发生,Anthropic 目前正增加对更多代码仓库作为代码审查上下文的支持,该漏洞也已经在 4 月 10 日 v2.1.101 版本中修复好了。此问题影响的模型是 Sonnet 4.6 和 Opus 4.6。

 

第三个优化发生在 4 月 16 日。Anthropic 曾为降低 Claude Opus 4.7 版本的冗长程度,修改了系统提示语。据悉,Claude Opus 4.7 相较于前代,明显更加“啰嗦”,虽能在困难问题上表现更出色,但会生成更多输出 token。

 

在该版本发布前几周,Anthropic 便开始对 Claude Code 进行调整,综合运用模型训练、提示语优化、思考体验改进等多种方式降低冗长程度,其中新增的一条系统提示语——“长度限制:在工具调用之间的文本控制在 25 个单词以内。最终回复控制在 100 个单词以内,除非任务确实需要更多细节”,对 Claude Code 的智能产生了过大影响。

 

该提示语经过数周内部测试,在 Anthropic 运行的评估集上未出现性能退化,因此于 4 月 16 日随 Opus 4.7 版本一同上线。

 

但在后续调查过程中,Anthropic 通过更广泛的评估集开展更多消融测试(即从系统提示中逐行删除以理解每行影响),发现 Opus 4.6 和 4.7 版本均出现 3%的性能下降。

 

为此,Anthropic 在 4 月 20 日的发布中,立即撤销了该条系统提示语。该优化受影响的模型包括 Sonnet 4.6、Opus 4.6 和 Opus 4.7。

未来如何改进?

为了避免再次出现这些问题,Claude Code 团队表示将从下面三个方面进行改进:

 

首先,是内部全员强制使用公共构建版,确保开发者与用户“同频感同身受”

 

Claude Code 团队将推动内部使用版本的统一,确保更大比例的内部员工使用 Claude Code 的精确公共构建版本,而非用于测试新功能的内部版本,以此更贴近普通用户的实际使用场景,提前发现潜在问题。同时,团队将对内部使用的代码审查工具进行改进,并计划将优化后的代码审查工具同步提供给客户,助力客户提升使用体验。

 

其次,是引入更严苛的提示语审计工具,对系统提示语的每一行修改进行持续的消融测试。

 

在系统提示语管理方面,Claude Code 团队将增加更严格的控制措施。对于每一次系统提示语的更改,团队都会针对每个模型运行广泛评估,持续开展消融测试以明确每一行提示语的具体影响;同时,已构建新的工具,让提示语的修改更易于审查和审计。

 

第三,是增加“浸泡期”,对于任何可能牺牲智能换取性能的改动,采取逐步上线的流程。

 

团队已在自身的 CLAUDE.md 文件中新增指导原则,确保针对特定模型的更改仅限定在该模型范围内,避免跨模型影响。对于任何可能牺牲智能换取其他收益的改动,团队将增加“浸泡期”,扩大评估集范围,并采用逐步上线的流程,以便更早发现并规避问题。

 

在用户沟通与反馈渠道方面,Claude Code 团队近期已在 X(原 Twitter)平台创建 @ClaudeDevs 账号,用于深入解释产品决策及其背后的原理,同时会在 GitHub 的集中讨论帖中同步相关更新,提升产品决策的透明度。

分析报告没有让用户满意

 

当 Anthropic 试图用一份详尽的技术报告挽回 Claude 的口碑时,它可能低估了开发者积压已久的怒火。

 

在官方承认由于“推理强度下调”、“缓存漏洞”和“提示语冗长控制”导致 Claude 性能大幅下滑后,社交媒体上的评论呈现出一边倒的抨击。

 

对于众多支付高额订阅费的专业开发者来说,这份迟到的“真相”不仅没能平息焦虑,反而因补偿方案的敷衍和官宣时机的微妙被质疑在“作秀”。

 

在 X 上,一位网友反馈称,即使在重置后,流量消耗速度依然惊人:“我用了 5 个小时,x20 的套餐就烧掉了 64% 的流量,而我什么特别的事都没做。情况正在变得越来越糟。”

 

还有 X 用户愤怒地表示:“这简直是胡说八道!过去两周,我一直在反思是不是自己的提示词或工作流程出了问题,甚至怀疑过自己都没怀疑过 Claude,结果发现是你们的漏洞吞噬了我的历史记录。把重置当作道歉?这才是真正侮辱人的地方。”

 

该用户还表示:“过去一年我为 Anthropic Max 支付了约 2400 美元,为 OpenAI 支付了 0 美元。过去 48 小时我切换到 OpenAI 的Codex感觉真的非常棒,我正严肃考虑彻底更换系统。失去最忠实用户的方式,不是因为模型出 Bug,而是因为糟糕的道歉。”

另一位网友则精准补刀:“你们总是在每周限额到期前两小时宣布‘重置’,这根本不叫重置,这叫敷衍。”

 

最令社区玩味的是本次公告发布的时间点——恰逢 OpenAI 发布GPT-5.5的当天。有部分 X 用户认为,这样的做法是在分散人们对于 GPT 5.5 发布的关注。

 

有 X 用户质疑道:“几个月来你们一直坚称‘模型没有退化’,现在却在 GPT-5.5 发布的当天突然官宣漏洞分析,这很难不让人怀疑是在转移注意力。更讽刺的是,你们声称‘用 Claude 开发 Claude’,结果长达 15 天的严重漏洞竟然在内部完全没被发现?”

 

这场风波正在引发连锁反应:核心用户的忠诚度降至冰点。也让一部分人从 Anthropic 转向了 OpenAI。

 

对于 Anthropic 而言,这次危机揭示了一个残酷的现实:在大模型竞争进入白热化的今天,技术领先只是入场券,透明度与对用户时间的尊重才是留住开发者的护城河。

参考链接:

https://x.com/ClaudeDevs/status/2047371123185287223

https://www.anthropic.com/engineering/april-23-postmortem

2025 年端午节假期,李志飞把自己关在房间里,每天从早上 9 点干到凌晨 1 点。他在用 Cursor 手搓了一个“AI 时代的飞书”,十几万行代码,一天烧掉 300 美元的 Token。三天后产品跑起来了,他的腰也坏了。

他把这段经历搬到公司的小型发布会,语气里难掩兴奋:“我们从一个有想法、有工程能力、但没有执行能力的团队,变成了一个超级个体。”那段时间他四处分享,在公司里讲,在湖畔大学讲,在朋友圈里讲。

“超级个体“成了 AI 圈最具诱惑力的叙事。几乎每位从业者,都被“一人顶一个团队”、“一夜重构产品”的故事撩拨过。

但这份狂热,只持续了一两个月。很快,李志飞发现了一个吊诡的事实:他自己确实变强了,但出门问问作为一家公司,却依然原地踏步。员工还是按旧方式开会、提需求、做文档、等排期、催研发。

“这只是超级个体的进化,但团队还是在旧有的工作方式里空转。”2025 年下半年,这位刚上市一年多的 AI 公司 CEO 第一次意识到:“超级个体在组织里,可能是一场灾难。”

不到一年后,出门问问交出了新答卷,企业级 AI 原生协作平台 CodeBanana。它的思想底座,源自于李志飞与高佳(出门问问首席战略官)合著的《超级组织》方法论:企业如何从“以人为核心”走向“智能体协同”。而 CodeBanana,正是这一理念的产品化落地。

这一次,他想讲的已经不再是“一个人怎么变强”,而是指向一个更具挑战性、也更现实的命题:当 AI 已经能让个体长出翅膀,组织又该如何一起变强?

一、CodeBanana 先是一场内部实验

CodeBanana 的核心理念,被李志飞浓缩成一句话:沟通发生在哪里,执行就发生在哪里。

这句话听起来有点像口号,但落到产品结构里,逻辑就比较清晰了。

在 CodeBanana 里,最基本的单元不是文档,不是会议,也不是单条任务,而是“项目”。每个项目同时包含三层结构:群聊、Agent 和独立 Workspace。群聊承载人际沟通,Agent 负责调度执行,Workspace 沉淀上下文与资产。

换言之,它不是在传统协作软件里外挂一个 AI 助手,而是从项目创立之初,就把 Agent 当作正式成员编入阵型。

这套设计如果只停留在发布会 Demo 里,难免显得像在谈概念。但 CodeBanana 真正有说服力的地方在于:它最早并非对外售卖的标品,而是出门问问在自己身上做出来的内部工具与工作法则。

从 2025 年 8 月开始,李志飞先在研发团队下了一道近乎极端的铁律:禁止手写一行代码。哪怕改一个变量名,也必须用自然语言指挥 AI。有工程师觉得职业价值被怀疑,有人因此离开。

到 2025 年底,研发团队基本完成蜕变。李志飞给出了一组数字:研发效率飙升至从前的 4-5 倍,工程师从前端、后端、iOS 等细分工种,逐渐演变为全栈执行者。同年,出门问问孵化出两款体量不小的新品(TicNote 录音硬件与 CodeBanana),按以往的研发节奏,这基本无法实现。

更关键的是,这套方法随后被推向了非研发团队。

李志飞在群访中透露,最近三四个月他们将 AI 协作延展至非技术岗,十人中大概有三名达到了他定义的“超级个体”标准:市场人员能做 Dashboard、能爬数据、能自己搭系统;销售甚至自己搓出了一个 CRM。

“目前 Token 成本已经占公司人力成本的 15%平均每个员工每月 Token 支出两三千美元。”一家 AI 公司在自己身上做了 18 个月的实验,有数字、有案例、有阻力、有筛选。这便是 CodeBanana 作为产品能否打胜仗的第一份答辩。

发布会上,李志飞用几轮实时 Demo 将这些场景拉得更具体。

昔日,销售接到客户需求,需与工程师反复拉扯,折腾数日方能拼出标书;如今,制作 Word 文档、处理图标等复杂流程被封装成 Skill,销售开完会直接在群里 @Agent,十几分钟内就能生成几十页文档。

市场岗的同事,搭起了一个覆盖数据爬取、竞品分析、ROI 计算和传播规划的网站;招聘场景下,一个岗位就是一个项目,简历流入后,AI 一分钟内完成评估、打分与排名,后续的面试提问与评价也由 AI 深度参与。

这些案例比 Demo 更有分量。

因为它们印证了 CodeBanana 的真正野心:它要解决的不是“AI 能不能写段代码”,而是要把“执行权能否归还需求方”。销售最懂客户要什么,市场最懂投放要什么,HR 最懂岗位要什么。过去他们手握需求,却无执行能力;如今,他们能通过 Agent 调度执行力。

二、不想打“协同办公”这场旧仗

真正让 CodeBanana 跳出“又一个协作工具”叙事的,是李志飞对竞争身位的重新定义。

面对飞书、钉钉、Notion 都在重兵投入 AI 集成,CodeBanana 的护城河在哪?

李志飞的回答很直接。他认为,飞书、钉钉争夺的是企业协作管理市场,而 CodeBanana 做的是“协作管理 + 执行”,切走的是劳动力市场的 Token 预算。他进一步将这个市场推演为:中国 8000 万知识工作者,如果工资的 15% 转化为 Token,这将是一个完全不同量级的蓝海。

这个回答包含两层深意。

第一层是差异化。CodeBanana 无意在传统协同办公的红海里肉搏。它不想做更聪明的群聊、更会总结的文档工具,而是试图向下穿透,直抵“任务如何被执行”的底座。

第二层是野心。它将自己的市场,不再定义为办公软件市场,而是知识工作中日益膨胀的 AI 执行成本与 AI 劳动力调度市场。

所以,CodeBanana 的功能设计并不是围绕“消息效率”展开,而是围绕“组织可控的执行”展开。

比如, Team Agent 与 Private Ask。前者面向团队共享,执行过程可见、可介入、可叫停;后者偏向个人私密,只读不写。

再比如,项目之间默认是独立文件空间,互不可见。若需跨项目协作,必须通过 A2A(Agent to Agent)的方式完成。企业若要沉淀公共知识库,可以单独建项目,再让其他项目的 Agent 来调用。

这和个人 AI 工具的逻辑完全不同。

Cursor、Claude Code 追求的是“个体如何更快闭环”;CodeBanana 追问的则是:当 AI 开始替团队干活,组织能否看清它在干什么、谁授权了它、它的边界在哪、结果如何复用、出了岔子谁来叫停?

这也解释了为何发布会要反复强调权限、跨项目调用、Skill 复用和定时任务。老板临时改期,工程师可将开发 Agent 的编辑权限开放给老板;老板在筹备群里直接 @Agent,页面主视觉、票务信息、倒计时同步刷新;后续“日程变更通知全员”的流程,还能被沉淀为 Skill 供下次复用。

这里真正有价值的不是网页生成,而是需求、权限、执行和复用被放进了同一个系统。

当然,这也意味着 CodeBanana 面对的问题会比普通 AI 工具更复杂。

大量项目并发时,如何防止 Agent 重复工作、越权?

李志飞没有把话说满。他承认系统仍在完善,目前先靠权限卡口,未来需解决排队通知机制。至于一个产品该建几个项目、哪些任务该并行、哪些该同组,眼下仍需 CEO 或产品经理在顶层设计时想清楚。未来,系统会尝试根据企业的人员构成与工作流,反向建议“该建几个群、谁该在群里”。

这种坦诚反而划清了产品的边界:CodeBanana 绝非开箱即用的效率魔法,而是一套需要重塑认知的组织工作系统。 它要真正跑通,企业买的不只是工具,更是对项目、权限、文件、人员与 Agent 之间关系的重新理解。

三、结语:真正被重写的,是工作系统

CodeBanana 尚不能被写进一份已充分验证的标准答案里。它仍需在真实组织的泥沼中跋涉,经受并发、权限、成本、可靠性及习惯迁移的考验。

但它值得关注的地方,也正在这里。

出门问问并非简单发布了一款 AI 协作产品,而是将过去一年多的组织实验进行了产品化:先让 CEO 自己蜕变为超级个体,再将这种能力溢向研发团队,最终推至销售、市场、HR 等非研发岗。

这也是 CodeBanana 最核心的叙事:AI 不再只是插在工具栏里的外挂,而是开始嵌入组织的骨架。

如果说超级个体解决的是“一个人怎么变强”,那么 CodeBanana 和“超级组织”想回答的,是那个更艰难的命题:当一群人和一群 Agent 混编作战,组织怎样才能不被新的效率反噬?

真正的竞争,或许并不发生在“谁的协作文档更好用”的层面。而是另一个维度:谁能率先把 AI 从工具栏里拿出来,放进公司的工作系统里。

4月21日,第五届中国国际软件发展大会在北京国家会议中心开幕。本次大会以“人工智能与软件变革——AI融合与数智出海新机遇”为主题,汇聚了全球软件产业的顶尖智慧与创新力量。作为中国开源生态的重要力量,OpenAtom openKylin(以下简称“openKylin”)社区受邀参会,凭借扎实的品牌实力与持续的技术创新,一举斩获“2025年软件和信息技术服务业明星开源社区”行业荣誉。

同时,由麒麟软件联合国防科技大学、北京航空航天大学、工信部电子五所、中国科学院软件研究所、上海交通大学、国家工业信息安全发展研究中心、国网湖北公司及openKylin社区等多方共同承担的国家重点研发计划阶段性核心成果——“链源罗盘”开源供应链综合评估平台也在大会上正式发布。

全链路安全守护:“链源罗盘”正式亮相
当前,全球开源生态发展迅猛,主流代码托管平台上开源项目数超4亿。以操作系统、数据库、AI框架等为代表的基础软件生态加速成熟,开源软件在信息技术创新技术体系中正成为关键支撑底座。然而开源组件质量参差不齐、依赖关系复杂、合规风险、安全漏洞等隐患日益突出,开源软件供应链的安全形势愈发严峻。
在本届中国国际软件发展大会上,“面向开源软件全生命周期的供应链综合评估平台——链源罗盘”作为重要成果发布。该平台是业界首个面向开源软件全生命周期的供应链综合评估平台,覆盖了软件质量、安全性、合规性、可持续性和可信度5大评估模型,助力开源供应链更透明、更安全、更可持续的演化。

中国软件行业协会常务副秘书长陈宝国、麒麟软件副总经理李祥凯、北京航空航天大学软件学院院长胡春明、中国科学院软件研究所副所长武延军、工信部电子五所北京中心主任冯冠霖、国防科技大学计算机学院某中心主任余杰、openKylin社区生态委员会主任李震宁出席发布仪式。

为落实国家《“十四五”软件和信息技术服务业发展规划》中“提升软件供应链安全保障能力”的号召,openKylin社区深度参与国家重点研发计划《开源开放社区软件供应链生态分析》项目,围绕开源软件供应链生态问题开展应用验证。“链源罗盘”正是该项目的阶段性核心成果。

一键评估,多维分析
链源罗盘平台支持输入开源软件名称,一键生成供应链可靠性评估报告。报告从组件依赖关系、代码与依赖质量、供应链抗风险能力、合规与法律风险、开发者活跃度与项目更新等多个维度进行综合评估开源项目的整体可靠性,为企业核心组件选型、社区开源治理、供应链风险审计等场景提供关键支撑。

全面覆盖,全程守护
目前,平台已基于Github、Gitee等代码托管平台主流开源项目形成150万条依赖关系、33万条漏洞信息收录、200万+开发者画像分析,3万+项目综合评估,并构建openKylin和openEuler 2个可信仓库,实现了“源代码分析—二进制文件评估—可信仓库构建—商业发行版构建”的全流程闭环。

目前,开源模式已成为全球技术创新的主流方向,中国开源项目数量已位居全球第二,供应链安全正成为行业关注的焦点。“链源罗盘”的发布,将汇聚政府、企业、高校及科研机构等多方力量,为提升国内开源生态成熟度及全球影响力提供坚实支撑,推动开源软件使用向安全化、合规化、自主化迈进。

openKylin社区荣膺“2025年明星开源社区”
在本次大会的表彰环节,openKylin社区凭借在开源生态建设、技术创新、社区治理及产业协同等方面的突出表现,被授予 “2025年软件和信息技术服务业明星开源社区” 称号。这一荣誉不仅是对社区过去工作的肯定,更彰显了openKylin在推动中国开源软件供应链安全、构建可信开源基础设施方面的重要贡献。

作为中国领先的智能操作系统开源社区,openKylin社区始终秉持“开源、自愿、平等、协作”的理念,持续汇聚开发者、企业和科研机构的力量。未来,openKylin将继续深化开源软件全生命周期的安全治理,助力开源生态向更安全、更合规、更自主的方向迈进,为全球开源创新贡献中国智慧。

一直是两个 gpt plus 混用,除了缓存,没遇到任何问题。
今天升级了一下 codex 。
功能改完后,想改一下风格,发完这句话以后,A 账户返回额度耗尽

然后我换 B 账户,跟 B 账户对话前,我"git inti ➡ git add .➡ git commit -m" 提交了版本。B 账户改的面目全非,我 git 还原

奇怪的事情来了:git 历史变成了变得文件夹的文件。。最重要的是,B 账户告诉我,现存文件的 1893 行和 3675 行与我的要求没有任何关联。。也就是我所有我改好的代码,在我切换账户后,他凭空消失了。。。

根据Gartner《2026年全球AI驱动项目管理软件市场趋势报告》显示,2026年全球该领域市场规模已突破160亿美元,AI功能的实用性、与业务的适配度成为企业选型的核心考量。本文基于2026年市场实测数据、行业专家评审及海量用户反馈,筛选出排行榜前十的产品,以中立视角解析每款产品的核心优势,结合平台工具特性与用户思维给出选型参考,助力各类团队精准匹配需求。

一、2026年AI驱动项目管理软件排行榜前十权威解析

(一)禅道

作为国内开源AI项目管理软件的标杆,禅道2026年全面升级AI能力,深耕研发项目管理领域,兼顾敏捷与传统管理模式,适配多行业研发团队,核心优势集中在三大板块:

  • AI赋能全流程研发闭环​:新增AI智能需求解析功能,可自动识别需求文档中的核心要点并转化为可执行任务,结合Scrum、Kanban等敏捷框架,实现需求管理、迭代规划、缺陷跟踪的AI辅助闭环,大幅减少人工录入成本,适配研发团队全链路需求。
  • 开源灵活且AI适配性强​:提供开源版、企业版多版本选择,开源版不限人数、免费使用,支持私有部署保障数据安全;AI模块支持自定义训练,可对接Git、Jenkins等开发工具,通过API接口扩展AI功能,尤其适合预算敏感的中小型研发团队。
  • AI可视化效能度量​:内置AI驱动的研发效能分析模块,可自动生成30+项度量指标,通过可视化图表直观呈现项目进度、团队效率瓶颈,还能给出AI优化建议,帮助管理者实现数据驱动的管理决策。

(二)Jira

Jira作为全球知名度最高的AI驱动项目管理软件之一,2026年升级AI预测模型,深耕IT研发领域,功能强大且生态完善,适配中大型企业及复杂项目,核心优势如下:

  • AI迭代风险精准预测​:基于历史项目数据训练的AI模型,可精准预估项目延期风险、资源缺口,自动给出资源调整建议,帮助团队提前规避风险,尤其适合复杂迭代项目的精细化管理。
  • AI生态集成能力突出​:与Atlassian生态下的Confluence、Bitbucket无缝衔接,同时支持与Slack、Microsoft 365等第三方工具集成,AI模块可跨平台同步数据,打通研发、协作、沟通全链路,解决“信息孤岛”问题。
  • AI自定义工作流​:支持通过AI生成自定义字段、工作流及仪表盘,可根据企业业务需求快速搭建专属管理模块,丰富的AI插件市场可覆盖测试管理、时间跟踪等场景,满足中大型企业多样化需求。

(三)Asana

Asana以“AI驱动任务协作”为核心,2026年优化AI轻量化适配能力,界面简洁、操作便捷,适配营销、运营、研发等多团队场景,核心优势如下:

  • AI任务智能管理​:支持AI任务拆分、优先级自动排序,可根据团队成员工作量智能分配任务,结合截止日期设置AI提醒,避免任务遗漏,降低团队沟通成本。
  • 轻量AI适配性强​:无需复杂培训即可上手,AI看板视图可直观呈现任务流转状态,自动识别任务瓶颈并提醒,适配小型敏捷团队快速迭代,同时满足非研发团队的轻量管理需求。
  • AI跨团队协同​:支持多团队、多项目管理,AI可自动同步跨部门任务进度,与Slack、Google Workspace深度集成,实时推送任务更新,提升跨团队协作效率。

(四)Trello

Trello以“极简AI看板”为核心特色,2026年新增AI辅助功能,轻量易用、灵活度高,适合小型团队、初创团队及个人管理,核心优势如下:

  • AI简易操作赋能​:保留卡片式看板设计,新增AI语音创建任务、卡片智能分类功能,拖拽式操作结合AI辅助,新手可快速上手,极大降低学习成本。
  • 轻量AI场景适配​:专注简单迭代管理,AI可自动识别任务标签、同步进度,支持Kanban框架,适合需求简单、迭代周期短的项目,兼顾轻量性与实用性。
  • AI扩展灵活​:通过Power-Ups扩展AI功能,可添加AI时间跟踪、文件智能整理等模块,与Google Drive、Slack等工具集成,根据用户需求灵活适配。

(五)Monday.com

Monday.com以“AI可视化工作流”为核心,2026年推出AI Agents功能,模块化设计、灵活度高,适配多行业、多规模团队,尤其适合非研发团队,核心优势如下:

  • AI Agents协同赋能​:支持接入ChatGPT、Gemini等主流AI代理,可自动组织项目、更新 workflows、生成报告,实现人机协同办公,大幅提升工作效率。
  • AI可视化自定义​:提供多种AI优化视图(看板、日历等),支持模块化拖拽配置,AI可根据业务流程自动推荐工作流模板,直观呈现项目进度与任务流转。
  • AI集成生态丰富​:拥有1800+应用集成生态,AI模块可与Zoom、CRM工具等无缝衔接,打通项目管理、客户管理全链路,满足企业多样化协作需求。

(六)ClickUp

ClickUp以“AI全功能集成”为特色,2026年升级AI智能生成功能,兼顾敏捷管理与通用项目管理,性价比高,适配各类规模团队,核心优势如下:

  • AI全功能覆盖​:整合AI任务管理、文档协作、时间跟踪等功能,可自动生成任务描述、拆分用户故事,根据会议纪要创建待办事项,无需额外搭配工具。
  • AI模板智能适配​:提供丰富的AI敏捷模板,可根据团队类型自动优化模板内容、工作流,快速适配不同团队的管理模式,提升项目启动效率。
  • AI高性价比优势​:多种定价方案兼顾各类团队,AI功能免费嵌入基础套餐,2026年用户性价比评分达4.9/5.0,是初创企业与中小型团队的优选。

(七)Basecamp

Basecamp以“AI简化协作流程”为核心,2026年优化AI沟通辅助功能,风格简洁,适配远程团队与中小型企业,核心优势如下:

  • AI任务与沟通一体化​:整合AI任务管理、沟通功能,可自动汇总任务评论、生成沟通纪要,直接在任务页面开展AI辅助沟通,简化协作流程。
  • AI远程协作适配​:支持跨时区协作,AI可自动同步不同时区任务进度、发送截止日期提醒,移动端适配完善,支持AI离线操作提醒,提升远程协作体验。
  • AI简易操作无门槛​:界面简洁直观,AI功能隐藏在核心操作中,无需专业培训,团队成员可快速上手,专注核心协作需求,适合注重简洁高效的团队。

(八)Microsoft Project

Microsoft Project作为企业级AI项目管理软件代表,2026年升级Copilot功能,兼顾传统与敏捷管理,稳定性强,适配大型企业及复杂项目,核心优势如下:

  • AI Copilot智能规划​:Copilot功能可根据项目名称和描述自动生成工作分解结构(WBS),分析风险登记册并给出缓解措施,自动生成项目状态报告,节省管理者时间。
  • AI生态紧密集成​:与Office 365、Microsoft Teams无缝衔接,AI可同步文档、沟通数据,契合大型企业现有办公生态,降低工具切换成本,提升协同效率。
  • AI企业级数据分析​:提供AI驱动的多维度报表,可直观呈现项目进度、资源利用率、成本消耗,自动给出优化建议,适配企业级管理决策需求。

(九)Smartsheet

Smartsheet以“AI数据驱动管理”为特色,2026年升级AI数据处理能力,兼顾敏捷管理与数据处理,适配数据密集型项目与企业,核心优势如下:

  • AI数据处理能力突出​:采用电子表格逻辑设计,AI可自动录入、筛选、分析复杂数据,关联项目任务与数据,适合财务、供应链等数据密集型项目管理。
  • AI敏捷与传统融合​:支持Kanban看板、甘特图等视图,AI可自动切换管理模式,根据项目需求推荐最优管理方式,适配既有敏捷又有传统规划需求的企业。
  • AI集成能力优秀​:与Excel、Power BI深度集成,AI可快速导入导出数据并进行智能分析,同时支持与Microsoft 365等工具衔接,打通数据与项目管理链路。

(十)Zoho Projects

Zoho Projects作为Zoho生态下的AI驱动工具,2026年搭载Zia Agents功能,性价比高、生态适配性强,适配中小型企业,核心优势如下:

  • AI生态兼容度高​:搭载Zia Agents AI解决方案,可与Zoho生态全系应用(CRM、Mail等)无缝衔接,实现项目管理与客户管理、邮件沟通的AI一体化协同。
  • AI基础功能完善​:支持Scrum、Kanban框架,AI可辅助任务管理、迭代规划、缺陷跟踪,功能实用无冗余,满足中小型企业基础AI管理需求。
  • AI高性价比优势​:定价低于市场均值30%,提供AI功能低价套餐,支持按需付费,同时提供完善的AI技术支持,适合预算敏感的中小型企业。

二、2026年AI驱动项目管理软件核心总结

本次榜单基于2026年市场实测、专家评审及用户反馈筛选,10款产品各有侧重、无绝对优劣,核心差异集中在AI功能适配性、生态集成及定价上,结合平台工具与用户思维可总结为两大核心视角:

从平台工具视角来看,所有产品均以“AI赋能效率”为核心,差异化体现在三个方向:一是全功能AI集成(如ClickUp、Microsoft Project),侧重AI覆盖项目全流程;二是轻量AI适配(如Trello、Basecamp),聚焦核心场景的AI简化操作;三是生态型AI赋能(如Monday.com、Zoho Projects),依托自身生态实现AI协同。所有产品均具备基础敏捷框架与AI结合的能力,稳定性与扩展性各有侧重。

从用户思维视角来看,选型核心是“AI功能与需求匹配”而非“功能越多越好”:中小型研发团队优先选禅道(开源AI)、Zoho Projects(高性价比AI);非研发团队可选Asana、Monday.com(轻量AI+多场景适配);大型企业优先选Microsoft Project、Jira(企业级AI+生态衔接);数据密集型团队首选Smartsheet(AI数据处理);初创团队可选Trello、ClickUp(轻量AI+低成本)。


三、实用FAQ(结合全文核心内容)

FAQ1:中小型研发团队,预算有限,想选AI功能实用的软件,优先选哪款?

优先选择禅道(开源版)或Zoho Projects。禅道开源版免费、无人数限制,支持私有部署,2026年升级的AI需求解析、效能分析功能完全适配研发团队,仅需少量技术维护成本;Zoho Projects搭载Zia Agents AI功能,基础AI管理功能完善,定价亲民,适合预算敏感、无需复杂AI功能的中小型研发团队。

FAQ2:非研发团队(如营销、运营),不懂复杂AI操作,适合哪款AI驱动项目管理软件?

适合,非研发团队的“快速迭代、任务零散”特点与AI驱动的轻量管理理念高度契合。优先选择Asana、Trello或Monday.com:Asana AI任务管理简易,无需复杂操作即可上手,适合跨部门协作;Trello AI功能轻量化,卡片式操作+AI辅助,适合小型非研发团队快速协作;Monday.com的AI Agents可自动完成基础操作,可视化界面简洁,适配营销、运营多场景。

FAQ3:大型企业有复杂项目管理需求,需AI赋能且衔接现有办公生态,该如何选型?

优先选择Microsoft Project或Jira。Microsoft Project的Copilot AI功能可实现复杂项目规划、风险预警与报告生成,与Office 365、Teams等微软办公生态无缝衔接,契合大型企业现有办公模式;Jira的AI风险预测、自定义扩展能力突出,可与Atlassian生态及第三方工具衔接,适合大型企业研发类复杂项目,同时支持AI与业务流程深度融合,满足多样化需求。

楼主背景:牡丹,魔羯座,没有感情经验,又单身太多年,一是不知道怎么有效感情升温,二是怕用力过猛导致妹子不适facepalm求大家支个招
妹子背景:金牛座,暂时没有具体感情信息,但根据相处感觉和穿搭,妹子应该没谈过或者很少,属于安静朴实型的,也比较独立,不太喜欢麻烦别人和欠别人。

我和这个妹子加微信有快一年了,打球认识的,前期打了几回球就没再联系了,我对她还是有好感的,当时我找她要的微信,四五月的时候我邀请她出来玩,她没出来,就没下文了,主要也不知道妹子对我的感觉。(中间有一次打完球吃饭,妹子带我去一个她平常去的苍蝇馆子,对她印象比较好,能看出来是勤俭型的)

之前看到她发朋友圈,对看比赛比较感兴趣,我这个月邀请了一下,她同意了,当天她做地铁两个小时来看比赛,我给她带了小礼物,她很惊喜,估计没想到我会给她准备礼物,其实我也是试一试,如果妹子态度没什么回应,我估计也就算了。庆幸的是,当天回去给我发了微信说我很 nice,一顿夸夸。我觉得有戏。

前几天平安夜,我工作日打球刚结束,发现她在球馆,下班专门坐地铁来球馆给我送圣诞节礼物,一些糖果、苹果,一个小兜提着很可爱。

最新进展:上周去看阿凡达,我买了电影票,她提前去买了炸鸡咖啡吃的,看完一块走夜路走了不到一个小时,边散步边聊,送她到地铁站,分开前她说 要抱抱吗?我也不扭捏,直接大手一抱。

计划:元旦放假见两次面,一天打球+吃饭,一天晚上去看脱口秀,妹子已经同意了。

后面应该怎么逐渐升温,每次见面抱一抱吗?去看脱口秀那天准备牵手试试。

先说背景,家里经济一直不太行,小时候甚至还有拿低保的时候,在这种情况下,我老是想买一些其实可以完全没必要买的东西,比如手机电脑各种小东西,前些年因为这个吃了大亏,负债十几万,今年还完了。

最近不知道是因为什么,又开始想换手机,想买 pad,在年前还想换 mac,但是我也深知这些都是非必要的,而且这两年身体也亮了红灯,想想父母都没用过很好的手机啥的,深感愧疚。

之前有人说我这是小时候身边人太容易得到想要的东西被影响了,现在冷静下来后我只感觉自己脑子有点不正常facepalm

电动螺丝刀,S40/S40P双版本可选!硬核性能加持,多档位可调,精密拆装新纪元

当工具行业还在 “功能内卷” 时,我们在思考:真正的高端工具,能否成为 “技术图腾”,“审美符号” 与 “体验革命” 的三位一体?当工具不再是简单的 “劳作器具”,而是科技与匠心的结晶,它能迸发怎样的能量?

S40/S40P 电动螺丝刀给出了答案 — 它不是一款工具的迭代,而是一次对 “精密拆装领域” 的行业话语权重构:以大师级工艺为骨,以智能黑科技为魂,以用户极致体验为核,以 “重新定义精密拆装” 的姿态,宣告工具行业的高端革命正式开启!

一、工艺之巅:在 “工业艺术品” 与 “专业工具” 间找到完美平衡

全铝机身采用顶级 CNC 一体化加工,每一寸肌理都镌刻着精密制造的态度;防滑设计并非简单的功能叠加,而是在人机工程学与美学之间的精妙妥协 —— 握持时,是扎实可靠的工具质感;静置时,是可赏可玩的工业艺术品。

二、智能内核:让 “精密” 可视化,让 “操作” 优雅化

1、OLED 数显黑科技

定制化 OLED 屏实时呈现参考扭力、旋转方向、作业进度,“精密” 不再是抽象概念,而是一目了然的数字标尺。

2、3D 体感控制

突破性 3D 体感技术,手势轻转即可实现角度精准调控,告别传统操作的笨拙感,拆装动作如行云流水般优雅。

三、性能猛兽:大扭力与长寿命的 “黄金契约”

1、强磁高速电机

S40 峰值转速 180RPM,S40P 直接拉满 260RPM,转速三档可调,动力输出 “收放自如”;

2、高性能齿轮箱

合金齿轮精密咬合,不仅能迸发澎湃大扭力(S40 达 0.2N・m,S40P 飙升至 0.26N・m),更实现 “长寿命” 承诺 —— 反复作业不易磨损,堪称 “性能与耐用的双向奔赴”。

四、细节满满:把 “用户痛点” 变成 “行业亮点”

1、光明之眼:前置 LED 照明

六颗高亮 LED 灯珠,明暗自由调节,哪怕在黑暗狭小的作业空间(如手机内部、精密仪器腔体内),也能照亮每一处细节;

2、批头自由:H4/800 全兼容

标配六大类 19 枚精密批头,从十字、一字到五星、三角,覆盖电子维修、模型组装、家居拆装等全场景,真正实现 “一枚工具,万种可能”;

3、扭力校准:精准到毫厘

专业级扭力校准功能,让 “力道把控” 从 “经验主义” 升级为 “数据驱动”,杜绝过拧 / 欠拧风险。

五、品质背书:权威认证的 “信任票”

历经长时间的研发攻坚,每一台的螺丝刀,都是 “可靠” 与 “创新” 的具象化表达。它不是一款普通工具,而是专业人士的 “战力放大器”,是极客玩家的 “收藏级装备”,更是行业从 “将就” 到 “讲究” 的里程碑之作!

目录
一、通用模型vs垂类模型:备案差异的本质
二、垂类模型备案被卡的四大核心原因
三、行业特定风险:法律、教育案例解析
四、垂类模型备案的专项合规要点
五、备案材料准备的重点与难点

image.png

在备案服务中,我们常听到垂类模型企业发出这样的疑问:"我们的技术不比通用大模型差,为什么通用模型备案顺利,我们却被反复打回?"这种困惑背后,是两类模型在备案逻辑上的本质差异。

生成式人工智能 #大模型备案 #算法备案 #网络安全 #AI产品安全应用

一、通用模型vs垂类模型:备案差异的本质

通用大模型与垂类模型在技术架构上可能相似,但在备案逻辑上存在根本性差异。这种差异决定了它们面临的审查重点截然不同。

image.png

垂类模型的风险特征决定了它需要"双重过关":既满足生成式AI备案的通用要求,又满足特定行业的专业标准。

二、垂类模型备案被卡的四大核心原因

基于我们协助垂类模型备案的经验,以下四个原因是最常见的"卡点":

原因一:行业专业性被低估——垂类模型的专业性决定了它可能涉及高影响场景,但企业在备案材料中对专业风险的评估往往不够深入

原因二:适用场景描述模糊——通用模型的服务范围容易描述,垂类模型却常出现"场景边界不清"的问题,监管部门难以判断模型能力的边界

原因三:专业语料合规证明不足——垂类模型往往依赖专业数据集训练,这些数据的授权、知识产权、隐私保护往往更加复杂

原因四:行业标准与备案要求衔接不畅——部分行业已出台AI应用的相关标准,但与网信办备案要求的衔接关系不清晰

垂类模型备案的核心挑战不在于技术,而在于证明"在特定专业场景下,模型的行为是可控的、风险是可接受的"。这需要企业在备案材料中充分展示对专业场景的理解和对潜在风险的管控能力。

三、行业特定风险:法律、教育案例解析

不同行业的垂类模型面临不同的专业风险。以下通过两个典型行业案例说明:

不过大家可以放心,不管是教育还是法律类AI,我们都有成功备案经验,帮各位老板快速拿到备案号。

fb973a56b91b38e57649e8ce0ffb3cc4.png

针对垂类模型备案的特殊性,企业需在通用备案要求的基础上强化以下合规要点:

适用场景的精确界定:明确模型适用于哪些行业、哪些场景、哪些用户群体。避免"万物皆可"的模糊表述,场景边界越清晰,监管审查越容易通过

行业专业风险的专项评估:针对所在行业可能出现的专业风险,建立专项评估机制。以医疗AI为例,需评估模型在诊断建议、用药推荐等高影响场景下的安全性

专业语料的合规证明:垂类模型的训练语料往往来自专业数据库、学术论文、行业报告等,这些数据源可能涉及复杂的授权关系。建议从语料采集阶段就建立完整的授权链条

行业合规的衔接说明:部分行业已有AI应用的相关规定(如医疗AI需符合医疗器械相关法规),需在备案材料中说明与行业监管要求的衔接关系

免责声明与使用指引:垂类模型的专业性决定了其使用场景有限,需在服务协议中明确使用条件、责任边界和使用指引

实操建议:垂类模型企业应在备案启动前,主动联系属地网信办,说明模型的行业定位和应用场景,获取针对性的材料准备指引。部分地区网信办对特定行业的垂类模型有明确的审查要点,提前了解可避免走弯路。

四、备案材料准备的重点与难点

垂类模型备案材料的核心难点在于"专业性证明"。以下是各类核心材料需要特别关注的要点:

8ccae268be7466a69eae2262a82759c8.png

特别需要强调的是,垂类模型的适用场景描述是备案材料中最容易被忽视、也最容易被退回的部分。很多企业的申请表上只写"应用于XX行业",但监管需要了解的是更具体的"在XX行业的哪些具体场景下使用、解决什么问题、服务什么用户"。

专业场景测试题集的构建同样关键。通用大模型的测试题集可以覆盖"常见的不安全内容",但垂类模型需要增加"专业场景下的边界情况"测试。例如,医疗AI需要测试模型在面临"用户描述的症状可能是癌症早期"这类高影响场景时的回应。

专家评审机制:部分地的垂类模型备案可能涉及行业专家评审,企业需提前了解是否需要提供额外的行业资质证明或专业评估报告。

C0 USB测试仪来了,高精度+全协议+双C直通,重新定义专业测量标准!

玩机、维修、研发、测试必备的USB测量工具!C0 多功能USB测试仪,以16位高精度测量、全协议覆盖、双Type-C直通设计、全能专业功能四大核心优势,为快充测量带来更精准、更全面、更专业的全新体验。

一、四大核心:精准直击专业需求

(1)16位高精度测量,数据稳准无偏差

采用合金采样电阻+16位专用ADC的黄金组合,实现电压、电流、功率测量的极致精准与稳定,细微波动也能清晰捕捉,彻底告别普通测试仪数据漂移、误差大的痛点,满足研发、质检等高精度场景严苛要求。

(2)主流快充协议全覆盖,识别更全更准

全面支持PD3.2/UFCS/QC/SCP等新老主流快充协议监控,覆盖绝大多数快充设备,协议识别率更高、兼容性更强,无论是最新PD协议还是国产UFCS融合快充,都能精准解析、稳定监测。

(3)双Type-C直通设计,快充测量零干扰

创新双Type-C USB3.0公母直插结构,支持4-36V宽压、6A大电流传输,测量时不影响快充与数据传输,完美解决传统测试仪接口不兼容、测量不稳定问题,CC线材场景也能轻松适配。

(4)全能专业功能,一站式解决测量需求

集纹波测量、线阻检测、数据记录、重力感应屏、上位机升级、Type-C便捷取电于一体,搭配0.96寸IPS高清屏,数据直观、操作灵活,还能通过上位机持续固件升级,功能持续迭代更省心。

二、不惧对比:为什么选择C0测试仪?

相较于普通USB测试仪,C0从精度、协议、接口到功能,均实现全方位升级,彻底解决普通测试仪“精度差、协议少、接口鸡肋、功能单一”的核心痛点。

无论是核心的测量精度、协议覆盖,还是实用的接口设计、功能配置,C0都全方位碾压市面普通产品,真正做到“高精度、全协议、强适配、全功能”,一站式解决各类USB测量需求。

三、创新亮点拉满:使用体验全面升级

(1)双C直通无干扰创新结构设计:快充与测量互不影响,彻底解决测量干扰快充的核心难题;

(2)重力感应自适应屏:屏幕随使用角度自动旋转,横竖查看数据都清晰,操作更灵活便捷;

(3)免驱上位机+在线升级:连接电脑自动识别,无需安装额外驱动,支持固件在线更新,功能持续优化、长久耐用;

(4)Type-C便捷取电:优化CC线材无负载无法来电的痛点,各类线材场景都能正常测量,适配性拉满。

四、全能适配:全场景测量首选

C0多功能USB测试仪,数码玩机爱好者的快充测试、维修工程师的故障排查,研发人员的产品调试、质检团队的精度检测,都能完美适配,以高精度、全功能、强适配的硬核实力,成为你身边靠谱的USB测量专家。

五、产品总结

C0多功能USB测试仪,以 “高精度+全协议+双C直通+全功能” 四大核心特质,打破普通USB测试仪的性能局限。它凭借16位ADC+合金采样电阻的硬核配置,彻底告别普通测试仪数据漂移、精度不足的痛点。

以 PD3.2、UFCS、QC、SCP 等全协议覆盖,解决协议老旧、适配不全的难题;靠双 Type‑C 直通设计,规避测量干扰快充、接口兼容性差的困扰。

用纹波检测、线阻测量、数据记录、重力感应屏、上位机升级等一站式全能功能,弥补普通产品功能单一、扩展性弱、使用场景受限的不足。

无论是日常玩机、维修检测,还是研发调试、专业测试,都能精准稳定、高效省心地完成测量,真正做到一台设备满足全场景专业测量需求!

GPT-5.5 是 OpenAI 于 2026 年 4 月 23 日发布的新一代旗舰大语言模型,定位"真实工作的新型智能",是自 GPT-4.5 以来首个从零重新训练的基础模型。它在 Agent 编码、计算机操控和深度研究三个方向实现了显著跨越,API 定价从 GPT-5.4 的 $2.50/$15 翻倍至 $5.00/$30(每百万 token 输入/输出)。对企业 IT 负责人和开发者来说,核心问题只有一个:额外的成本能否换来足够的业务价值?

在这里插入图片描述


一、GPT-5.5 是什么:架构与版本全解

GPT-5.5 以内部代号"Spud"(土豆)预热,是 GPT-5.x 系列中首个完整重新训练的基础模型,而非对上一代的微调改进。这一架构起点意味着性能跨越幅度大于此前历次更新。

三个发布版本:

  • GPT-5.5 Standard:API 标准版本,面向通用开发场景
  • GPT-5.5 Thinking:扩展推理预算,适合需要深度思考的复杂任务
  • GPT-5.5 Pro:最高精度变体,仅限 Pro/Business/Enterprise 订阅,面向"不允许第一次答错"的关键决策场景

核心能力对比:

能力维度GPT-5.4GPT-5.5
上下文窗口1.05M tokens1M tokens(Codex: 400K)
多模态文本+图像+音频原生全模态(含视频)
计算机操控改善中生产可用级
多步工具链偏好单次触发全自主循环
幻觉率基线-60%(OpenAI 自测)
MMLU91.1%92.4%

二、Agent 能力全面解析:这次不一样在哪里

GPT-5.5 的 Agent 能力核心突破在三点:多步自主循环、计算机操控达生产可用水平、MCP 工具命中精度大幅提升。

在这里插入图片描述

2.1 命令行 Agent:Terminal-Bench 2.0 领先 7.6 个百分点

在 Terminal-Bench 2.0(测试需要规划、迭代和工具协调的复杂命令行工作流)中,GPT-5.5 以 82.7% 位列行业第一,分别领先:

  • GPT-5.4(75.1%):+7.6pp
  • Claude Opus 4.7(69.4%):+13.3pp
  • Gemini 3.1 Pro(68.5%):+14.2pp

根据 OpenAI 官方发布数据(2026 年 4 月 23 日),GPT-5.5 在 Codex 相同任务上输出 token 消耗更低——这是历史上首次旗舰模型在性能提升的同时减少了 token 使用量。

2.2 计算机操控:OSWorld-Verified 78.7%

OSWorld-Verified(衡量自主桌面任务完成度)中,GPT-5.5 得分 78.7%,高于 GPT-5.4(75.0%)和 Claude Opus 4.7(78.0%)。OpenAI 将此描述为"可以真正和你一起使用电脑":模型能看到屏幕内容、点击按钮、跨应用导航,无需定制工具链即可完成跨系统工作流。

2.3 MCP 工具调度:MCP Atlas +8.1pp

在 MCP Atlas 工具调度基准上,GPT-5.5 得分 75.3%(GPT-5.4:67.2%,+8.1pp)。对构建多工具编排 Agent 的开发者而言,这一提升直接降低工具调用出错率。开发者通过标准 OpenAI SDK 格式即可接入;支持 OpenAI 接口的 MCP 编排平台(如七牛云的 MCP 服务)无需修改 SDK 层代码即可切换到 GPT-5.5。

2.4 Agent 与传统提示词工程的本质差异

传统提示词工程是在单次对话中最大化输出质量;Agent 模式是让模型在多步循环中自主规划、执行、验证和纠错。

以代码调试为例:

  • 传统提示词:给模型代码+错误信息,返回修复方案(一次性输出)
  • Agent 模式:模型在终端运行代码 → 读取报错 → 查找文档 → 修改代码 → 重新运行验证,直到通过(自主循环)

Expert-SWE 内部基准(任务中位数人工完成时间为 20 小时)中,GPT-5.5 得分 73.1%(GPT-5.4:68.5%),支撑了其在长周期工程任务上的实际能力。


三、价格翻倍后怎么算账:成本分析与降本策略

GPT-5.5 定价相比 GPT-5.4 恰好翻倍,但 OpenAI 明确声明"每项任务实际消耗的 token 更少"——价格涨幅需结合 token 效率综合评估。

3.1 官方定价对比(2026 年 4 月)

模型输入($/百万 token)输出($/百万 token)
GPT-5.5$5.00$30.00
GPT-5.4$2.50$15.00
Claude Opus 4.7$5.00$25.00
Gemini 3.1 Pro$2.00$12.00

数据来源:OpenAI 官方 API 定价页面、Appwrite 技术博客,2026 年 4 月 23 日。

三条降本路径:

  1. Batch API(异步处理):享受 50% 折扣,即 $2.50/$15.00,适合非实时批量任务
  2. 缓存输入:GPT-5.5 缓存输入 $0.50/百万 token(标准的 10%),重复系统提示场景节省显著
  3. Flex 处理:延迟不敏感任务可走 Flex 模式,进一步降低优先级成本

3.2 升级 vs 不升级决策矩阵

根据 LLM Stats(2026 年 4 月)实测升级建议:

推荐升级至 GPT-5.5:

  • Agent 编码(Codex、Cursor、Devin 式工作流):Terminal-Bench +7.6pp,MCP Atlas +8.1pp,每任务 token 消耗更少,综合 ROI 为正
  • 计算机操控 / 浏览器 Agent:OSWorld +3.7pp,更少的恢复循环意味着更低总成本
  • 超长上下文(256K–1M token):Graphwalks BFS 在 256K 处从 21.4% 跳至 73.7%,这是"价格翻倍最值回票价"的场景

建议继续使用 GPT-5.4:

  • 高并发摘要、分类、信息提取:5.4 已接近饱和,2× 费用换不来可感知质量提升
  • 标准客服型多轮对话:Tau2-bench Telecom 上 5.4(98.9%)甚至小幅优于 5.5(98.0%)

3.3 混合路由架构:用 5.5 规划、5.4 执行

对成本敏感型企业,最实用的架构是双模型路由:

  1. 用 GPT-5.5(或 Thinking 版)完成任务规划、结构分解和复杂推理
  2. 用 GPT-5.4(或 Mini/Nano 变体)执行高频低复杂度子任务
  3. 非实时批量任务全走 Batch API(享 50% 折扣)

四、与竞品关键对比:GPT-5.5 的优势与短板

GPT-5.5 在 Agent 编码和计算机操控两项上建立明显领先,但在纯代码补全(SWE-Bench Pro)上仍落后 Claude Opus 4.7。

在这里插入图片描述

SWE-Bench Pro 的重要注脚

SWE-Bench Pro(公开版)中,Claude Opus 4.7 以 64.3% 领先 GPT-5.5 的 58.6%。但 OpenAI 在官方发布页中注明:Anthropic 自报存在部分题目记忆化迹象。 这是 OpenAI 措辞最直接的竞品质疑,独立机构尚未复现验证,评估结果可比性存疑。

综合对比表(2026 年 4 月):

维度GPT-5.5Claude Opus 4.7Gemini 3.1 Pro
Terminal-Bench 2.082.7%69.4%68.5%
SWE-Bench Pro58.6%64.3%(存疑)54.2%
OSWorld 计算机操控78.7%78.0%
ARC-AGI-285.0%75.8%77.1%
API 价格(输入/输出)$5/$30$5/$25$2/$12
幻觉率改善-60%

五、企业 IT 采购与升级决策指南

2026 年 4 月,企业 IT 负责人评估 GPT-5.5 时,应围绕"工作流自动化密度"而非"基准分"做决策。

适合优先升级的企业类型:

  • 开发工具平台(IDE、代码审查、DevOps):Terminal-Bench 和 Expert-SWE 双重提升直接对应生产效率
  • 研究与知识工作平台:GDPval 84.9%(领先竞品约 17pp)+ 幻觉率-60%,适合文档生成、报告撰写
  • RPA / 流程自动化厂商:计算机操控达生产可用水平,可减少对人工干预的依赖

持观望态度的场景:

  • 高吞吐量 NLP 流水线:优先评估 GPT-5.5 Mini(发布时间待定)或保持 5.4
  • 预算固定、成本优先:Gemini 3.1 Pro($2/$12)在多数基准上仍具竞争力

API 访问现状(截至 2026 年 4 月 24 日): GPT-5.5 当前已开放 ChatGPT(付费计划)和 Codex,API 正式端点"即将推出(coming very soon)",尚未全量上线。企业 IT 团队可提前预构建集成,无需等待公告后再行动。


常见问题

Q:GPT-5.5 和 GPT-5.4 可以同时使用吗?

可以。OpenAI 未下线 GPT-5.4,两者可在同一项目中并行调用。建议将 5.4 保留用于成本敏感型高频任务(摘要、分类),5.5 仅用于真正需要 Agent 推理或超长上下文的工作流,避免全量切换带来的预算冲击。

Q:GPT-5.5 的"幻觉率降低 60%"可信吗?

这是 OpenAI 官方发布声明中的数据(来源:openai.com,2026 年 4 月 23 日),对比基准为 GPT-5.4,具体测评方法未完整披露。目前尚无独立机构复现验证,企业在高风险输出场景中仍建议保留人工核查流程。

Q:SWE-Bench Pro 上 Claude Opus 4.7 领先,是否意味着纯代码任务应该选 Claude?

对于以 SWE-bench 为代理指标的纯代码补全任务,Opus 4.7 在基准上确实更强。但 OpenAI 指出 Anthropic 报告了记忆化迹象,建议在自己的私有代码库上实测后再做迁移决策,不要仅凭公开基准分。

Q:GPT-5.5 Pro 对普通开发者值得购买吗?

GPT-5.5 Pro 输出定价约为 $180/百万 token(约 6× 标准),适合"第一次回答必须正确"的高精度关键决策场景。对大多数开发者而言,Standard + Thinking 版本已能覆盖 90% 以上的生产需求。

Q:国内企业通过第三方 API 中间层接入 GPT-5.5 时需注意什么?

核心是确认中间层是否支持 GPT-5.5 的新参数(如 Thinking 模式的推理预算控制)和 Computer Use API。标准 OpenAI SDK 接口(Chat Completions 和 Responses API)均保持向后兼容,现有代码迁移成本低。


结语

GPT-5.5 是 2026 年 4 月 AI 模型竞赛中一个真实的质量跃升。 Terminal-Bench +7.6pp、MCP Atlas +8.1pp、幻觉率 -60% 的组合,对于以 Agent 工作流为核心的开发团队,完全可以抵消 2× 的定价增幅。但对于高吞吐量、低复杂度场景,GPT-5.4 仍是更明智的选择。

正如 LLM Stats(2026 年 4 月)所总结:核心问题不是"GPT-5.5 好不好",而是"你的工作流是否真正在消耗额外的推理能力"。

据 OpenAI 官方博客(April 23, 2026)描述,GPT-5.5 代表"一种新型智能"——从当前基准数据看,这一定位在 Agent 编码和计算机操控两个垂直领域得到了实质支撑。

延伸资源:


本文内容基于 2026 年 4 月 24 日公开数据。GPT-5.5 API 端点当前处于"即将推出"状态,访问时间可能在本文发布后短期内更新;所有基准数据均来自 OpenAI 官方发布及 Appwrite、LLM Stats、Apidog 等独立技术博客交叉核实。建议定期查阅 OpenAI 官方文档获取最新状态。

DuckDB-paimon 是由 PolarDB 团队开发的一款 DuckDB 扩展插件,允许通过 SQL 直接查询 Apache Paimon 表,无需任何 ETL 搬运,无需 Flink/Spark 集群,打开 DuckDB Shell 即可对 Paimon 表执行 SQL 分析。

近期发布 v0.0.3-variegata 版本带来了一项系统性的改进:谓词下推(Predicate Pushdown)能力的全面覆盖。

谓词下推意味着什么

"谓词"这个词听起来有些学术,其实就是 SQL 中 WHERE 后面的那些过滤条件,比如 WHERE age > 18 或 WHERE region = 'cn-hangzhou'。

当 DuckDB 通过 duckdb-paimon 查询一张 Paimon 表时,有两种处理方式:

方式一(没有谓词下推):DuckDB 向 Paimon 发起请求,Paimon 把表里所有的数据都从数据湖存储层读出来,通过网络传给 DuckDB,再由 DuckDB 的执行器在内存里逐行检查哪些符合 WHERE 条件。如果这张表有 1 亿行,哪怕最终只需要 1000 行,也得先把 1 亿行全部搬过来。

方式二(有谓词下推):DuckDB 在发起请求的同时,把 WHERE 条件也一并告知 Paimon。Paimon 在自己的存储层读取文件时,就能利用列式存储的文件级统计信息(比如每个文件中某列的最小值/最大值),直接跳过那些肯定不包含目标数据的文件,甚至在行组(row group)级别提前过滤,只把可能命中的数据传出来。

Paimon 的数据通常存放在对象存储(如阿里云 OSS、AWS S3)上,每次 I/O 都有网络开销。谓词下推减少的不只是计算量,更是从 Paimon 数据湖存储层实际读出的数据量本身。对于存储在对象存储上的大表,这个差别非常明显——扫描 1 TB 和扫描 100 GB,不只是速度上的区别,也是存储读取成本上的区别。

v0.0.2 已经具备了基本的扫描能力,但谓词下推覆盖还不完整。v0.0.3 把这部分补全,覆盖了日常 SQL 里最常见的那几类过滤条件。

谓词下推意味着什么新增支持的谓词类型

比较运算符
=、!=、<、>、<=、>= 这几个基础运算符现在都能下推。这是最高频的过滤场景,比如:

SELECT * FROM paimon_table WHERE age > 18;
SELECT * FROM paimon_table WHERE status != 'deleted';

NULL 判断

SELECT * FROM paimon_table WHERE email IS NULL;
SELECT * FROM paimon_table WHERE phone IS NOT NULL;

BETWEEN
范围查询是时序数据和日志表里最常见的过滤方式:

SELECT * FROM paimon_table WHERE event_time BETWEEN '2026-01-01' AND '2026-04-01';

NOT BETWEEN 同样支持。

IN / NOT IN

SELECT * FROM paimon_table WHERE region IN ('cn-hangzhou', 'cn-shanghai');
SELECT * FROM paimon_table WHERE category NOT IN ('test', 'demo');

LIKE
字符串前缀、后缀、模糊匹配:

SELECT * FROM paimon_table WHERE name LIKE 'Zhang%';

AND / OR 逻辑组合

多个条件组合后整体下推,DuckDB 解析出的谓词树按原结构传递给 Paimon:

SELECT * FROM paimon_table
WHERE region = 'cn-hangzhou'  
AND event_time >= '2026-04-01'  
AND status IN ('active', 'pending');

AND 和 OR 的嵌套组合均支持。

其他改动

**
安全修复**:Paimon secret 中的 key_id 字段现在会在日志和错误信息中自动脱敏,避免敏感凭据被意外打印。

DuckDB 升级:底层 DuckDB 从 v1.5.1 升级至 v1.5.2。

获取方式

点击下方阅读原文,从 [GitHub Releases] 下载 Linux amd64 或 arm64 预编译包。也可参考项目 README 从源码构建。本期互动评论区分享您的应用场景和使用体验,截至4月28日(含),留言且留言处点赞数前三,随机赠送社区礼品。
图片

今天看到一条新闻,让我愣了好久。

谷歌在Cloud Next '26上宣布:他们内部75%的新代码已经由AI生成,再由工程师审核确认。

75%。

这个数字比去年秋天的50%又涨了,现在已经超过三分之二。

说实话,刚看到这个数字的时候,我心里有点不是滋味。

我是2018年入职的,在谷歌写代码已经快8年了。

刚入职那会儿,写代码是核心工作。每天早上来,打开IDE,开始敲代码——写业务逻辑、优化性能、设计架构、改bug,一行一行敲,忙到下班。

那时候我觉得,代码行数就是我的KPI,写得多=干得好。

但这两年,情况完全变了。

去年团队引入AI编程工具之后,我的工作方式彻底不一样了。

早上来了,先想清楚今天要做什么功能,然后把需求描述给AI,它直接给我生成代码框架。我再去看代码对不对、有没有漏洞、符不符合架构设计,审核通过之后提交。

一个功能,以前我可能要写一天;现在半天就能搞定,剩下的时间干嘛?

去做那些AI做不了的事:和产品经理撕需求、review架构方案、和别的团队对齐技术标准……

有人问我:那你是不是觉得自己被AI替代了?

我觉得这个问题本身就有点问题。

不是"替代",是"升级"。

以前我花大量时间在"怎么写"上;现在我更多在思考"写什么"和"为什么写"。

就像计算器发明之后,数学家没有被淘汰——反而因为计算负担减轻,可以去研究更深的问题。

AI让写代码变快了,但系统设计、业务理解、技术判断……这些能力反而更重要了。

<<<对了。顺嘴提一句,技术大厂,前后端-测试机会,全国一线及双一线城市均有坑位,待遇和稳定性还不错,感兴趣看看。

当然,我也承认,这个转变不容易。

身边有同事确实有点跟不上——习惯了埋头写代码,突然要他去做架构判断、做技术决策,他反而不知道该干嘛。

这种感觉就像从"执行者"变成"管理者",需要完全不同的思维方式。

但我觉得,这才是未来程序员的方向。

会写代码只是基础;能驾驭AI、能做技术决策、能解决复杂问题,才是真正的竞争力。

现在我每天的工作流程大概是:


上午:和产品经理对齐需求,确定今天要做的事


下午:用AI生成代码,自己做审核和架构调整


晚上:看技术文档、学新技术、做技术方案


比以前写代码忙多了,但有意思多了。

因为以前我是个"码农",现在我更像个"技术导演"——AI是我手下的演员,我来决定演什么、怎么演。

所以,回到那个问题:AI会不会取代程序员?

我的答案是:会取代"只会写代码"的程序员,但不会取代"能用AI创造价值"的程序员。

关键是,你愿不愿意迈出那一步,从"敲代码"变成"指挥AI"?

2026 年的 Go 语言开发已经进入了深度工程化阶段。开发者在构建现代化应用时,不再仅仅关注语法逻辑,而是将目光投向了系统的可观测性、API 的标准化以及长期维护的稳定性。以下是目前在 Go 生态中表现突出的几个库,它们代表了当前后端开发的技术趋势。

image.png

Echo:高性能Web服务首选

在追求低延迟的微服务场景中,Echo 凭借其极致的路由匹配性能和极简的API设计,依然占据着统治地位。它避开了过度封装的陷阱,让开发者能直观地掌控请求处理的每一个环节。

package main

import (
        "net/http"
        "github.com/labstack/echo/v4"
)

func main() {
        app := echo.New()

        // 简单的健康检查接口
        app.GET("/health", func(c echo.Context) error {
                return c.JSON(http.StatusOK, map[string]string{"status": "alive"})
        })

        app.Start(":8080")
}

Huma:强类型API文档化的方案

Huma 彻底终结了代码写完还要手动更新Swagger的痛苦。它通过声明式的结构体定义,将业务逻辑与 OpenAPI 3.1 规范深度绑定。只要程序能编译通过,对外提供的API文档就一定是准确的。

package main

import (
        "context"
        "github.com/danielgtaylor/huma/v2"
        "github.com/danielgtaylor/huma/v2/adapters/humaecho"
        "github.com/labstack/echo/v4"
)

type ProfileResponse struct {
        Body struct {
                Username string `json:"username"`
        }
}

func main() {
        e := echo.New()
        config := huma.DefaultConfig("User Service", "1.0.0")
        api := humaecho.New(e, config)

        huma.Register(api, huma.Operation{
                Method: "GET",
                Path:   "/profile/{id}",
        }, func(ctx context.Context, input *struct{ ID string `path:"id"` }) (*ProfileResponse, error) {
                res := &ProfileResponse{}
                res.Body.Username = "dev_user_" + input.ID
                return res, nil
        })

        e.Start(":8080")
}

Ent:彻底告别反射的图论ORM

Ent 改变了传统ORM依赖字符串拼接和反射的弊端。它通过代码生成技术,将数据库表关系转化为强类型的Go代码。开发者在编写查询逻辑时,可以享受到完整的IDE补全和编译期检查。

// 使用生成的代码进行流式查询
func GetActiveUsers(ctx context.Context, client *ent.Client) ([]*ent.User, error) {
        return client.User.
                Query().
                Where(user.StatusEQ("active")).
                Order(ent.Desc(user.FieldCreatedAt)).
                All(ctx)
}

slog:结构化日志的标准答案

slog 已经成为Go应用日志处理的通用语言。作为标准库的一部分,它提供了高性能的 JSON 输出能力,能够无缝对接各类日志采集系统,解决了过去各个库之间日志格式不统一的难题。

package main

import (
        "log/slog"
        "os"
)

func main() {
        // 全局配置结构化日志
        logger := slog.New(slog.NewJSONHandler(os.Stdout, nil))
        slog.SetDefault(logger)

        slog.Info("支付网关启动",
                slog.String("env", "production"),
                slog.Int("retry_limit", 3),
        )
}

OpenTelemetry Go Auto Instrumentation (eBPF):可观测性的降维打击

你不会还在手动埋点吧?基于 eBPF 技术的自动仪表工具,可以在不侵入业务逻辑的前提下,自动捕获系统的调用链数据。这种零代码侵入的监控方式,极大地提升了复杂分布式系统的排障效率。

// 业务代码无需任何 OTEL 埋点
// 仅需标准的 HTTP 处理逻辑,eBPF 代理会自动捕获 Trace ID 和耗时
package main

import (
        "net/http"
        "log"
)

func main() {
        http.HandleFunc("/data", func(w http.ResponseWriter, r *http.Request) {
                w.Write([]byte("自动追踪测试"))
        })
    // 运行时通过外部 otel-go-instrumentation 代理启动即可
        log.Fatal(http.ListenAndServe(":8080", nil))
}

Koanf:轻量级配置管理的标配

Koanf 解决了配置来源多样化的问题。无论是本地 YAML 文件、环境变量还是远程配置中心,Koanf 都能以极低的资源占用完成加载与合并,是构建云原生应用时管理动态参数的利器。

package main

import (
        "github.com/knadh/koanf/providers/env"
        "github.com/knadh/koanf/v2"
)

var k = koanf.New(".")

func main() {
        // 仅加载前缀为 APP_ 的环境变量
        k.Load(env.Provider("APP_", ".", func(s string) string {
                return s
        }), nil)

        apiToken := k.String("APP_API_TOKEN")
        println("已加载Token长度: ", len(apiToken))
}

Sigstore:构建不可篡改的供应链安全

随着安全合规要求的提升,Sigstore 已经成为发布流程中的必选项。它让开发者能方便地对二进制文件进行数字签名,确保代码从编译、分发到部署的整个生命周期都真实可信。

package main

import (
        "github.com/sigstore/sigstore-go/pkg/verify"
)

func VerifyBinary(artifactPath string, signature []byte) error {
        // 使用 Sigstore 库校验二进制文件的合法性
        // 此处演示初始化验证器的逻辑概念
        policy := verify.NewPolicy()
        _, err := verify.VerifyArtifact(artifactPath, signature, policy)
        return err
}

Temporal:长事务与分布式流转的救星

对于涉及多步调用、且每一步都可能失败的复杂业务,Temporal 提供了近乎完美的解决方案。它通过持久化工作流状态,确保了业务逻辑在遇到网络波动或服务宕机时能够自动恢复。

// 工作流定义示例
func RefundWorkflow(ctx workflow.Context, transferID string) error {
        policy := workflow.RetryPolicy{
                InitialInterval: time.Second,
                MaximumAttempts: 5,
        }
        ao := workflow.ActivityOptions{
                StartToCloseTimeout: 10 * time.Second,
                RetryPolicy:         &policy,
        }
        ctx = workflow.WithActivityOptions(ctx, ao)

        return workflow.ExecuteActivity(ctx, ExecuteRefund, transferID).Get(ctx, nil)
}

不管是Go的新手,还是资深的Go程序员,部署Go开发环境都是比较繁琐的,得考虑各种变量,还要处理依赖冲突。

而 ServBay 支持一键部署 Go 环境,就省了不少配置 PATH 路径和处理依赖冲突的时间。而且它还支持多个版本的 Go 同时并存,开发者可以为不同的项目指定不同的运行版本,并实现版本间的一键平滑切换。

这种灵活性确保了在尝试上述新技术栈时,不会对现有的稳定环境造成任何冲击。

image.png


总结

现代 Go 开发的重心已经向稳定性倾斜。Echo 和 Huma 负责构建稳健的接口,Ent 处理复杂的数据关联,slog 和 OpenTelemetry 保证了系统的透明度。结合 Koanf 的灵活配置与 Temporal 的流程编排,一套成熟、可扩展的后端架构便初具规模。开发者应根据项目的实际需求,在这些优秀的工具中选择合适的组合。

Victoria是一款专业的硬盘诊断、测试和修复工具,由俄罗斯开发者Sergey Kazansky开发。它能对HDD机械硬盘、SSD固态硬盘、甚至NVMe、SAS/SCSI等各种存储设备进行全面检测。

如果你需要检测硬盘健康状况、修复坏道、或者测试存储设备性能,那Victoria绝对是你的首选工具。

这款软件在数据恢复和硬件维护领域有着极高的声誉,因为它不仅功能强大,而且是完全免费的。对于经常处理硬盘问题、购买二手硬盘、或者需要维护服务器的人来说,Victoria能帮你避免数据丢失的风险。

Victoria主要针对Windows平台,支持多种语言界面。下面这个表格帮你了解Victoria与其他硬盘工具的区别:

截止到发文,Victoria 的最新版本是 5.37,也是目前最稳定的版本。下面我就手把手教你如何下载和安装它。

Victoria下载

Victoria安装包(官网中文版)下载地址:
https://pan.quark.cn/s/995d2ff26df3
https://pan.xunlei.com/s/VOqQPNTEVqBVUEQP4rgk58EkA1?pwd=e7pu#

Victoria安装

Victoria不需要复杂的安装过程,解压即用,这大大降低了使用门槛。以Windows系统为例:
1)下载Victoria的ZIP压缩包,解压到任意文件夹。建议解压到D盘或其他非系统盘。进入解压后的文件夹,找到"Victoria.exe"主程序文件。

2)双击运行Victoria.exe:

3)如果需要创建桌面快捷方式,可以右键点击Victoria.exe,选择"发送到"→"桌面快捷方式"。

Victoria基础使用

打开Victoria后,主界面分为几个主要区域。最上面是菜单栏,左侧是硬盘列表,右侧是功能选项卡。

首先在硬盘列表中选择你要检测的硬盘。Victoria支持检测所有连接到电脑的存储设备,包括内置硬盘、外置硬盘、U盘等。

选择硬盘后,点击"测试"选项卡,这里有几个关键功能:"读取"测试可以检测硬盘的读取速度,"写入"测试可以检测写入速度,"擦除"功能可以安全擦除硬盘数据。

在"S.M.A.R.T."选项卡里,你可以查看硬盘的健康状态。S.M.A.R.T.是硬盘自我监测、分析和报告技术,能提前预警硬盘可能出现的故障。

除了基础检测,Victoria还有一些高级功能值得一试。在"测试"选项卡里,选择"读取"模式,然后点击"Scan开始",Victoria会对硬盘进行全面扫描。

扫描过程中,你会看到不同颜色的方块:绿色表示正常区域,橙色表示读取较慢的区域,红色表示坏道。如果发现坏道,Victoria可以尝试修复。

修复坏道有两种方法:一种是"重映射",将坏道标记为不可用,用备用扇区替换;另一种是"擦除",尝试强制写入数据来恢复坏道。

对于NVMe固态硬盘,Victoria 5.37版本新增了专门的支持。在"NVMe"选项卡里,你可以查看NVMe硬盘的详细信息,包括温度、健康状态、剩余寿命等。

Victoria还支持SAS/SCSI接口的硬盘,这在服务器维护中特别有用。最新版本增加了对SAS/SCSI硬盘的完整支持,包括温度监控、启停控制等功能。

Victoria常见使用问题

Victoria检测不到我的硬盘怎么办?首先确保硬盘已正确连接,然后在Victoria里点击"刷新"按钮。如果还是检测不到,可能是硬盘接口驱动问题,可以尝试更新主板芯片组驱动。

扫描过程中程序卡住了怎么办?Victoria扫描大型硬盘可能需要很长时间,特别是全盘扫描。如果程序完全无响应,可以尝试停止扫描,然后重新开始。建议先进行快速扫描,了解硬盘大致状况。

修复坏道会丢失数据吗?是的,修复坏道的过程可能会破坏该区域的数据。所以在修复前,一定要先备份重要数据。如果硬盘上有重要文件,建议先尝试恢复数据,再考虑修复。

Victoria支持哪些操作系统?Victoria主要支持Windows系统,从Windows XP到Windows 11都能正常运行。

Victoria总结

Victoria是一款功能强大、完全免费的硬盘检测和修复工具,无论是普通用户还是专业技术人员都能从中受益。它能帮你全面检测硬盘健康状况,修复坏道,测试性能,避免数据丢失风险。

如果你经常处理硬盘相关问题,或者需要购买二手硬盘,我强烈建议你下载Victoria试试。它的便携特性让你无需安装就能使用,强大的功能足以应对大多数硬盘问题。相信用过之后你也会像我一样,把它列为硬盘维护的必备工具。

本来应该是下面那一个样子的,不知怎的变成上面那样了,新特性?question
设备是一加 ACE5
image

AnLink是一款免费的Android手机投屏和控制软件,通过USB或Wi-Fi连接,延迟低,画面清晰,操作流畅,能让你的安卓手机屏幕实时显示在电脑上,并且可以用鼠标键盘直接操作手机。

这款软件在手机投屏领域有着不错的口碑,因为它不仅功能实用,而且是完全免费的。对于那些需要在电脑上操作手机、录制手机屏幕、或者进行手机应用测试的人来说,AnLink能大大提高工作效率。

AnLink支持Windows和macOS系统,兼容大多数Android手机。下面这个表格帮你了解它与同类工具的区别:

截止到发文,AnLink的最新版本提供了丰富的功能,包括文件传输、屏幕录制、键盘映射等。下面我就手把手教你如何下载和安装这个实用的投屏工具。

AnLink下载

AnLink安装包(官网正版)下载地址:
https://pan.quark.cn/s/a45e7d0c4fa9
https://pan.xunlei.com/s/VOqtPMDl6npYgMejZ6ekOJaxA1?pwd=p2ct#

AnLink安装

AnLink的安装非常简单,下载AnLink安装压缩包,解压后得到“AnLinkSetup.exe”安装程序,双击运行:

2)勾选“Custom installation”,选择安装位置,建议安装到D盘或其他非系统盘,避免占用C盘空间:

3)等待安装完成,这个过程通常很快。

4) 界面默认是英文的,可以参考下图将其设置为中文:

设置好中文后,重新启动才会生效:

AnLink基础使用

首先确保你的安卓手机和电脑在同一个Wi-Fi网络下,或者用USB数据线连接。

在手机上,需要开启"开发者选项"和"USB调试"功能。不同手机开启方法略有不同,一般在"关于手机"里连续点击"版本号"7次,就能开启开发者选项。可以在 AnLink 里挑选你自己的手机型号:

相应地 AnLink 会给出详尽的连接操作步骤:

AnLink软件的界面简洁明了。如果是USB连接,直接用数据线连接手机和电脑,AnLink会自动检测并连接。如果是Wi-Fi连接,需要在手机上安装AnLink的配套应用,然后在电脑上输入手机上显示的连接码。

经实际测试,我的手机是 ViVo 的,但开发者选项在系统设置里,和 AnLink 提示的不同,所以如果大家根据图示没有找到,那就自己去别的设置里找找。下图是我采用 USB 成功连接的截图:

连接成功后,你的手机屏幕就会显示在电脑上。你可以用鼠标点击手机屏幕上的任何位置,用键盘输入文字,就像直接操作手机一样。

AnLink高级用法

结合我连接成功的截图,在AnLink的工具栏上,你可以找到"文件传输"功能,这个功能可以在电脑和手机之间快速传输文件,比用数据线更方便。

"屏幕录制"功能可以录制手机屏幕的操作过程,适合制作教程视频或记录游戏精彩时刻。录制质量可以调整,支持多种分辨率和帧率。

"键盘映射"功能是游戏玩家的最爱。你可以将手机游戏的操作按键映射到电脑键盘上,用键盘玩手机游戏,操作更精准。

"多设备管理"功能可以同时连接多台安卓设备,在电脑上切换管理,适合应用测试人员或数码爱好者。

"屏幕截图"功能可以快速截取手机屏幕,保存到电脑上。截图质量高,支持多种格式。

AnLink常见使用问题

AnLink连接不上手机怎么办?首先检查USB数据线是否正常,或者Wi-Fi网络是否稳定。然后确保手机已开启USB调试模式。有些手机需要选择"文件传输"模式而不是仅充电。

投屏画面有延迟怎么办?USB连接的延迟通常比Wi-Fi低。如果使用Wi-Fi,确保手机和电脑在同一个网络下,并且网络信号良好。关闭其他占用网络的应用程序也能改善延迟。

AnLink支持哪些安卓版本?AnLink支持Android 5.0及以上版本,兼容大多数现代安卓手机。对于较旧的安卓版本,可能部分功能无法使用。

需要root权限吗?AnLink不需要root权限,普通用户就能正常使用所有功能。这大大降低了使用门槛。

AnLink收费吗?AnLink是完全免费的软件,没有功能限制,也没有广告。这是它最大的优势之一。

AnLink总结

AnLink是一款功能实用、完全免费的安卓投屏工具,无论是普通用户还是专业人士都能从中受益。它能让你在电脑上方便地操作手机,提高工作和娱乐效率。

如果你经常需要在电脑上操作手机,或者想用键鼠玩手机游戏,我强烈建议你下载AnLink试试。它的简单易用和免费特性让它成为投屏工具中的优秀选择。相信用过之后你也会像我一样,把它列为手机投屏的必备工具。