2026年3月

今天的这篇文章,是阿里大佬岚遥在内部分享的 OpenClaw 实战内容,为大家展示如何构建一个自我演进且“可用”的龙虾。(公司内部同学读完之后纷纷留言评论:“这篇文章的质量,放外面不得卖个 648 的课程包啊!”)

你的一天被接管了

你睡着的时候,交易蜘蛛已经出了美股收盘报告。你醒来之前,宏观分析师已经写完了 A 股晨报。你还没刷手机,管家蜘蛛已经推来了天气、日程和今日待办。与此同时,AI 哨兵已经扫完了 GitHub Trending、arXiv 最新论文和 100+ 个信息源——18+ 条技术情报按重要性排好序等你看。内容蜘蛛已经在跟踪 54 个平台的热榜和 X 热点。

这是我最关心的部分——AI 动态和技术趋势的自动追踪。哨兵发现有价值的开源项目或论文后,不仅推送新闻,还会评估对我们现有系统的影响,给出 P0/P1/P2 行动建议。有价值的发现会进入 Zoe 的 Tech Radar,走评估 → 决策 → 委派编码落地的完整链路。

从凌晨 3 点的自动备份到 23:45 的全团队反思,52 个 cron 任务每天自动轮转。而且 Agent 在自己进化——犯过的错会被记住,同类问题的复发率显著下降。这不是我写的规则,是 Agent 自己从 .learnings/ promote 到 MEMORY.md 的自主迭代。

1 个编排者 + 5 个专业 Agent + 6 类 ACP 编码专家(最大 6 并发)、52 个 cron 定时任务、118 个 Skills(33 全局共享 + 85 Agent 专属)、29 个注册 LLM 模型、每天几千次 LLM 调用、2086 行运维脚本 + 半个月 23 次自动恢复。


Agent 自己在进化才是真正有意思的部分:

  1. 自己设计通信协议 — 两个 Agent "收到/确认"刷了十几轮,Zoe 自主诊断根因,设计三态协议(request → confirmed → final → 静默),smoke test 通过后沉淀到 AGENTS.md
  2. 自研 Skill 并发布到 ClawHub — Content 调研 7 个"去 AI 味"工具、A/B 测试、固化为 Skill 发布到 ClawHub,全团队次日自动共享
  3. 圆桌讨论产出策略报告 — Macro 和 Trading 按协议进行下周 A 股策略讨论,产出含数据快照、仓位建议、止损纪律的完整报告
  4. Task Watcher 异步监控 — Agent 承诺"审核通过后通知你"但实际做不到异步回调,Zoe 设计了 cron 级 Task Callback Event Bus 下沉监控

我的角色是搭好框架、设好约束、在关键节点确认方向——具体的需求发现、方案调研、协议设计、代码实现,都是 Agent 自己完成的。


团队:1+5+6 阵型

Zoe(大龙虾)— CTO / 首席编排者

不只是"管理员"。Zoe 负责技术方案设计、任务编排、圆桌主持、系统运维和记忆系统维护——每天 3 次巡检(10:00/14:00/22:00),检查所有 Agent 的 cron 执行状态、workspace 磁盘使用、session 健康度。每周分析各 Agent 的 MEMORY.md 是否超限并执行分层压缩。更关键的是,Zoe 会消费 ainews 提供的技术发现,评估哪些值得应用到我们的系统上,征得我同意后指派 ainews 深入调研,然后自行设计方案、委派 ACP 编码专家实现——从技术发现到方案落地的完整链路。

每次巡检覆盖 6 大维度:cron 任务执行状态(是否有失败/跳过的任务)、workspace 磁盘使用(文件增长异常检测)、session 大小与健康度、Chrome CDP 进程是否泄露、.learnings/ 中是否有待处理条目、shared-context/ 时间戳是否正常(检测 Agent 是否"静默失联")。

Zoe 最有价值的能力是方案设计——三态通信协议、Task Watcher、通信 Guardrail 框架,都是 Zoe 发现问题后自主设计的。下面是 Zoe 设计 Task Watcher 时的方案讨论:

AI 哨兵(ainews)— 情报中枢

这是我最关心的 Agent。它不是"推新闻"——每天从 100+ 个信息源(GitHub Trending、arXiv、RSS、HackerNews、Reddit 等)采集信息,按 5 星制评估后产出晨报、午间论文解读、晚间趋势分析。7 个 cron 任务覆盖晨午晚三报(08:30/12:00/20:00),每份报告末尾都预留了「改写要点(供 Content 参考)」接口。

更关键的能力是主动评估技术发现对我们系统的影响——本周就发现了 ReMe(记忆管理框架),主动向 Zoe 提出评估建议,从发现到决策到落地,我只需要在关键节点确认,执行全部由 Agent 完成。每日趋势分析中的有价值项目会自动更新到 shared-context/tech-radar.json,供 Zoe 每周 Tech Radar 审查:

核心采集工具链:github_trending.py--ai-only 过滤 + --since weekly 周趋势)、rss_aggregator.py(多源并发采集)、arxiv_papers.py(多关键词搜索)、Tavily(AI 优化搜索首选)、agent-browser(Playwright 驱动,JS 渲染页面采集)。防幻觉硬约束:每条新闻 MUST 带原文 URL,发布前自检可达性,无法交叉验证的标注「单源,建议核实」。

交易蜘蛛(Trading)— 量化分析师

团队中任务最密集的 Agent——21 个 cron 任务。20 个原子量化工具(quant.py CLI)、15 个专属 Skills(68000+ 行代码)、65/35 混合评分模型(65% 工具量化 + 35% AI 判断)。覆盖 A 股全时段(集合竞价→盘中每 10 分钟扫描→尾盘速报)+ 美股(盘前→盘中每 30 分钟→盘后夜报)+ 大宗商品(每小时白天+夜盘)。

核心方法论是四步分析框架:读取 Macro 宏观因子 → 多维评分(技术面 25% / 资金面 30% / 基本面 10% / 情绪面 20% / 市场面 15%)→ 逆向检验(与共识一致吗?若错最可能原因?)→ 输出标的+评分(0-100)+止损位+置信度。硬性规则:NEVER 给出没有止损的买入建议,NEVER 编造数据(工具失败时直接报告原因),置信度 <60% 标注「低置信度,建议观望」。

Macro(首席经济学家)— 数据驱动的四层映射

提供宏观→传导→国内→市场四层映射因子包,供 Trading 直接引用。9 个 cron 任务覆盖晨报(07:50)→午间(12:30)→财经晚报(18:00)→美股盘前(22:00)→美股收盘(次日05:20)。周日 18:30 率先产出周度宏观复盘,Trading 19:30 引用其结论做市场复盘——形成宏观→微观→技术的递进链路。

分析纪律:每个判断标注数据来源和时效性,区分事实(有数据)和判断(有逻辑无直接数据),标注置信度(高>70%/中50-70%/低<50%),每个判断提出反面论据。真实案例——伊朗局势分析时,传统框架预测"地缘→避险→黄金涨",实际油价+14%但黄金-5%。Macro 的分析指出"油价涨幅>10%,通胀逻辑主导,市场交易的是通胀而非避险"。这个洞察被沉淀到 MEMORY.md 成为持久知识。

内容蜘蛛(Content)— 内容策略师

不是自己"想"内容,而是从团队情报链中提取素材——ainews 提供改写要点、Macro 提供深度分析、Trading 提供市场观点。9 个 cron 任务驱动 Research→Ideate→Write→Reflect 四阶段流水线:09:00 从 54 个平台热榜(微博/知乎/B站/抖音/百度/头条...)+ X 热点抓取 → 10:30 消费 ainews 改写要点生成创意 → 14:00 产出初稿经 Ripple 传播预测引擎评分后投递 → 22:10 反思。

最有意思的是自主进化能力——发现 AI 味太重后,Content 自行调研"去 AI 味"工具,编写 Skill,发布到 ClawHub,并沉淀为全团队通用能力。从发现问题到解决方案再到发布,Agent 自己走完了整个流程:

另一个自主进化的产物是 X 五篮子热点雷达——Content 最初只抓 AI 热点然后摘抄,经过一次反馈后,它自己设计了覆盖五个维度的情报采集框架,并交叉读取其他 Agent 的当日情报:

篮子覆盖范围配额
AI/科技OpenAI / Claude / Agent / LLM≤40%
产品/创业startup / founder / product launch按热度
一人公司/效率solopreneur / productivity / automation按热度
投资/市场/宏观stocks / macro / bitcoin / fed按热度
社会情绪/国际geopolitics / layoffs / tariffs按热度

关键约束:AI/科技部分不超过整份输出的 40%。这不是我写在 SOUL.md 里的硬编码,是 Content 自己在反思中迭代出来的——它发现产出全是 AI 内容后,主动给自己加了配额限制。

管家蜘蛛(Butler)— 生活管家

不只是"喝水提醒"——深度集成 Apple 生态(Reminders / Calendar / Health / Notes / Shortcuts),是真正的个人生活助理。7 个 cron 任务:早安问候(08:00)→日程规划(08:30)→5 次喝水提醒(每次换花样:温馨/幽默/知识科普/名人名言/emoji 五种风格随机切换)→健康检查(20:00)→晚安总结(22:00)。

核心理念是不多不少,刚刚好——单次提醒 <50 字,间隔 ≥1.5 小时,23:00–07:00 仅发送紧急事项。如果用户没回复,不会连续催促:

ACP 编码专家阵型

Pi / Claude Code / Codex / OpenCode / Gemini / GPT-5.3-Codex,通过 ACP 协议按需委派,最大 6 并发实例、120min TTL。分析 Agent 不写代码,编码全部通过 sessions_spawn 委派给专家——每种编码 Agent 都可以开多个并发实例。

团队设计教训

一个关键决策是不要让分析 Agent 直接编码。早期我额外设了 coding、architect、PM 三个技术角色,结果发现这几个角色基本没什么实际产出——它们的能力和 Zoe + ACP 编码专家的组合高度重叠,反而增加了通信复杂度和调试成本。后来全砍了,编码通过 ACP 委派给 Claude Code 等专业工具。PM 和架构师?Zoe 兼任就够了。

复杂度随人数快速上升。3 个 Agent = 3 对交互关系,6 个 = 15 对。整个系统从零到 6 个 Agent 稳定运行,花了大约半个月的下班时间——每加一个新 Agent 都需要半天到一天的调试,处理和现有 Agent 的通信冲突、共享资源竞争、规则兼容。


一天是怎么过的

从凌晨 03:00 的自动备份到 23:45 的全团队反思,52 个 cron 任务覆盖 A 股 + 美股双时区自动轮转。周日还有 Macro → Trading → Trading 的三级递进周报。

每天结束时,每个 Agent 独立反思当天的 .learnings/ 待审条目,Zoe 最后汇总全团队产出:


让这套系统跑起来:三个核心工程问题

上面展示的是最终效果。但从"装好 OpenClaw"到"系统流畅运作",再到"Agent 自主进化"——中间有巨大的鸿沟。三个核心工程问题,每一个都不是"写好 prompt"能解决的。

核心问题一:上下文是 Agent 的操作系统

问题:Agent 系统的热力学第二定律

不加约束,entropy 只增不减。 持续运行的 Agent 系统会确定性地走向崩溃——不是"可能",是"一定"。

Agent 就像一个没有操作系统的进程:它能处理输入、产出输出,但谁来管理它的内存(上下文)?谁来做垃圾回收(Session 清理)?谁来防止 OOM(膨胀保护)?不设计就没有人管。

三个真实事故,按严重度排序:

P0 — 全团队瘫痪 8 小时

ainews 的 session 因为连续处理新闻和论文累积到 235K tokens。Gateway 启动时对所有 session 做 compaction,这个 session 永远超时 → crash → macOS 守护进程 ThrottleInterval=1 每秒重启 → 无限循环。所有 Agent 全部离线。

修复要四层:手动清理膨胀 session → ThrottleInterval 1→10 → idleMinutes 180→30 → exec.security full→allowlist。这不是某一个参数的问题,是四个独立的防线全部缺失

P1 — 3500 字报告被框架"优化"到 800 字

交易蜘蛛的收盘速报包含完整的数据表格、资金流向、个股评分。OpenClaw 在文本超过 textChunkLimit 时自动做 content compaction(LLM summarize),数据表格被"智能压缩"掉了。框架认为"帮你优化了"——但在数据密集场景下,AI 的"智能"是灾难

P2 — 信息过载后关键规则失效

当 SOUL.md 里堆满了各种操作规范、当 session 膨胀到几万 tokens,Agent 开始"选择性遵守"规则。管家蜘蛛越界做投资分析。交易蜘蛛忽略数据验证规则。不是模型变笨了,而是关键信息被噪声淹没了——这是 Context Engineering 要解决的根本问题。

解决:双层控制 — Context Engineering + Harness

两层协同,两个都不能少。

第一层 — Context Engineering(设计 Agent 的信息架构)

设计 Agent 每次推理时看到的完整信息结构——系统级的信息架构设计:

  • SOUL.md 放在 system prompt 最前面,是 Agent 的"宪法"——身份定义、决策框架、绝对禁止项。保持精简,只放最核心的约束
  • AGENTS.md 跟在 SOUL.md 后面,定义操作规范和协作协议
  • Skills 通过 extraDirs 配置按需加载——Trading 有 15 个 Skills 共 68000+ 行内容,不可能全放在 system prompt 里。只在 Agent 需要用到某个 Skill 时才注入上下文
  • shared-context/ 是跨 Agent 的共享状态,Agent 通过工具主动读取
  • Obsidian Vault 是冷存储,归档产出但不参与推理

LLM 的上下文窗口不是等价的。system prompt 前面的信息权重远高于后面的。session 膨胀到几万 tokens 后,早期消息的影响力被稀释——类似操作系统的内存管理:热数据放缓存,冷数据放磁盘,关键数据常驻内存

Trading 的 15 个 Skills 中,stock_analysis(技术面评分)在每日扫描时才需要,bilateral_analysis(龙虎榜分析)只在异动时触发。全部常驻上下文的话,噪声淹没了真正重要的规则。通过 extraDirs 按需注入,每次推理只加载相关的 1-3 个 Skill。

规则措辞必须面向最弱的模型。多模型 fallback 环境下(GPT-5.4 超时 → Qwen3.5+ → Ollama qwen3:8b),规则遵循率随模型能力递减:

  • "建议不要编造数据" → GPT-5.4 基本遵守,Qwen3.5+ 偶尔遵守,qwen3:8b 几乎无视
  • "MUST: 不编造数据" → 各模型遵守率显著提升
  • "MUST + P0 + NON-NEGOTIABLE" → 即使弱模型也能保持较高的遵守率

多模型 fallback 时,不知道哪次推理会用弱模型,所以所有关键规则都要按最弱模型的理解能力来写。显式 > 隐式,硬规则 > 软建议

第二层 — Harness(框架自动管理)

Agent 7×24 运行,session 会持续膨胀——你设计得再好,运行一天之后上下文就变了。框架替 Agent 管,OpenClaw 的 harness 配置提供自动化的上下文生命周期管理:

机制触发条件动作为什么需要
compaction memoryFlushSession 超过 40K tokens提取精华到 memory/YYYY-MM-DD.md防止 session 无限膨胀
contextPruning上下文超过 6 小时cache-ttl 裁剪,保留最近 3 条防止旧上下文干扰新推理
session reset每天 5:00 或空闲 30 分钟自动重置防止跨天数据残留
session maintenance文件超过 7 天自动清理,磁盘上限 100MB防止磁盘被撑满
self-improving-agent SkillAgent 启动时注入 .learnings/ 历史经验确保学到的东西不丢失(额外安装的 Skill)

只有 Context Engineering 没有 Harness,session 膨胀到 235K tokens 后一样崩溃;只有 Harness 没有 Context Engineering,所有信息堆在一起、关键规则被噪声淹没。Context Engineering 定义信息的结构,框架管理信息的生命周期。

实际的 openclaw.json 配置(每个参数背后都是真实事故):

{
  "compaction": {
    "mode": "safeguard",
    "memoryFlush": {
      "enabled": true,
      "softThresholdTokens": 40000,
      "prompt": "Distill to memory/YYYY-MM-DD.md. Focus: decisions, state changes, lessons, blockers."
    }
  },
  "contextPruning": { "mode": "cache-ttl", "ttl": "6h", "keepLastAssistants": 3 },
  "session": {
    "reset": { "mode": "daily", "atHour": 5, "idleMinutes": 30 },
    "maintenance": { "pruneAfter": "7d", "maxDiskBytes": 104857600 }
  },
  "hooks": {
    "bootstrap": ["self-improving-agent"]
  }
}

四个机制的执行顺序很重要——compaction 先于 contextPruning,确保有价值的内容先被提取到 memory/,再被清理。self-improving-agent 的 bootstrap hook 在新 session 启动时触发,把 .learnings/MEMORY.md 注入上下文——这是 Agent"记住上次学到的东西"的关键机制。

跨会话记忆恢复链(Agent 重启后如何"想起来自己是谁"):

新 session 启动
  ↓ self-improvement hook: 读 SOUL.md → AGENTS.md → MEMORY.md → .learnings/
  ↓ memorySearch: 从 memory/ + sessions 中检索与当前任务相关的历史上下文
  ↓ 读取 shared-context/ (团队实时状态)
Agent 恢复到"知道自己是谁、做过什么、团队现在在干什么"的状态

Agent 不需要"记住"所有对话——memoryFlush 提取的是 decisions/lessons/state changes,不是完整对话。memory/ 中的文件通常只有几百行,而原始 session 可能有几万 tokens。


核心问题二:让 Agent 真正"记住"并"成长"

问题:Agent 今天犯的错,明天还会犯

这是一个比上下文管理更深层的问题。chatbot 每次对话从零开始,所以它每次都犯同样的错是正常的。但如果你的 Agent 7×24 运行、每天处理几千次 LLM 调用,你会无法接受它反复犯同一个错误。

交易蜘蛛 5 次把龙虎榜 API 字段名搞错——BILLBOARD_BUY_AMT 写成 BUY_AMT,每次 session 重置后记忆丢失,下一次又犯。用户纠正"昨天建议买军工,今天跌了就转空",Agent 当场改了,但三天后遇到类似场景又给出同样的单向建议。

chatbot 和 Agent 的分水岭就在这里:Agent 应该能从错误中学习,并且下次不犯。但怎么实现?

解决:五层记忆 — 从人类认知模型中借鉴

设计记忆系统时,我参考了人类记忆的分层模型:工作记忆(短期)→ 长期记忆(经验)→ 程序性记忆(技能)。Agent 的记忆也应该有不同的时间尺度和管理方式:

存储时间尺度管理方式典型内容
L1 身份层SOUL.md (精简核心)永恒人工确认修改身份 + 硬约束 + 决策框架
L2 长期记忆MEMORY.md (<3000 tokens)长期Agent 自主维护结构化经验(✅ 成功模式 / ❌ 失败教训)
L3 中期记忆memory/YYYY-MM-DD.md + memory.db中期Harness 自动提取Session 超过 40K tokens 时的精华快照
L4 短期记忆.learnings/ (ERRORS/LEARNINGS/FEATURES)短期Agent 即时记录错误记录、用户纠正、最佳实践
L5 持久化Skills + Obsidian + ontology + vector_store.db持久共享/归档技能库 + 知识归档 + 知识图谱 + 向量检索

层与层之间的衔接才是关键——这形成了一个完整的自主进化循环。

记忆自主迭代——6 步循环

这是整个系统最核心的机制。没有这个循环,Agent 只是 chatbot;有了这个循环,Agent 才是真正的 Agent。

记忆自主迭代 — 6 步循环

  1. 触发事件

操作失败 · 用户纠正 · 发现更优做法 · 需要新能力

任意一种都会触发即时记录

  1. .learnings/ 即时记录

ERRORS.md · LEARNINGS.md · FEATURE_REQUESTS.md

状态: pending — 低成本、高频率、不审查直接写入

  1. 每日反思 Cron (23:00-23:45)

扫描 .learnings/ 所有 pending 条目 → 评估复现频率和重要性 → 验证 ≥3 次?

✓ ≥3 次
promote 到 MEMORY.md

✗ <3 次
保留 pending,继续观察

  1. promote 到 MEMORY.md

长期记忆 · <3000 tokens 硬上限 · 超限时 Agent 自主精简(合并相似、删除过时)

  1. 下次 Session 加载

self-improvement hook · bootstrap 注入 · 检查 .learnings/ · 引用历史经验

  1. Agent 行为改进

下次遇到同样问题时自动避免 — 迭代完成

🔒 SOUL.md 修改 — 需要用户确认(Agent 不能自己改自己的"宪法")

Harness 并行路径

Session 40K tokens → memoryFlush → memory/YYYY-MM-DD.md → memory.db

与 Agent 自主的 .learnings/ → MEMORY.md 路径互补——Harness 管"对话精华提取",Agent 管"经验教训沉淀"

为什么 "≥3 次"?
防止偶发事件(如一次 API 超时)污染长期记忆。

3000 tokens 额度很珍贵,只有反复出现的模式才值得占位。

Agent 可以自主更新 .learnings/MEMORY.mdmemory/knowledge/——但绝对不能改 SOUL.md。SOUL.md 是身份和硬约束,修改需要用户确认。我们真的遇到过 Agent 把自己的"人格"改松的情况——行为立刻变得不可控。

Zoe 每周还会做记忆系统维护——分析各 Agent 的 MEMORY 状态,做归档和压缩:

L5 的 ontology 知识图谱记录实体关系(Agent/Task/MarketInsight/Decision),vector_store.db 提供语义级检索——Agent 不需要记住精确措辞,通过向量相似度找到相关历史决策。

真实进化案例

用户纠正: "昨天建议买军工,今天跌了就转空"
  ↓
即时记录 (.learnings/):
  "[LRN-20260303-001] correction | priority: high | status: pending
   军工策略在地缘利好场景下未充分强调短线拥挤与顶背离风险
   Suggested Action: 条件单模板 — 入场带失效位 + bullish/base/bear 三情景"
  ↓
每日反思 cron (23:30): promote 到 MEMORY.md
  ↓
MEMORY.md: "❌ 事件驱动标的必须用条件单模板"
  ↓
三周后遇到类似板块轮动:
  交易蜘蛛直接引用了这条经验

这不是我写的规则——是 Agent 从纠正中自己提炼出方案,自己写入长期记忆。每日反思 cron 会审查 .learnings/ 中的 pending 条目并决定是否 promote:

更多真实进化记录:

发现进化来源
SOUL.md 信息过载导致规则失效精简核心,非核心规则迁移到 Skills 按需加载行为异常排查
delivery=ok ≠ 知识库已落库反思同时核对投递 + 文件存在性管家零产出事件
butler 零产出但反思说"正常"建议性兜底 → 硬门禁(产出为空 = 失败)运维巡检
macro→trading 引用缺乏追溯强制结构化引用 + 验证字段数据追溯困难
trading 频道刷屏(双发送链路)幂等键 + 单层重试 + 节流P0 事故
军工策略只看事件驱动条件单模板:入场+失效位+三情景Agent 自提方案

记忆系统还在进化

记忆系统不是"设计好就不变的"。最近的一个例子:

Zoe 每周生成 Tech Radar 报告,从 ainews 的情报中提取技术趋势,分为 Adopt/Trial/Assess 三级。本周报告中,ainews 发现了 <font style="color:rgb(0, 128, 255);">ReMe(Agent 记忆管理框架),Zoe 立刻评估其与现有系统的对比:

结论:ReMe 架构优秀(223K → 1.1K tokens,99.5% 压缩率),但与 AgentScope 深度绑定,直接接入不划算。走"参考设计自研"——先实现收益最高的 tool_result 压缩(超长工具输出自动截断 + 外存,上下文占用降 80%+),再逐步引入结构化摘要模板和异步持久化。

用户同意后,Zoe 立即通过 ACP 协议委派 Claude Code 做架构评审:

这个过程本身就是多 Agent 协作的真实案例:ainews 情报发现 → Zoe Tech Radar 评估 → 用户确认 → ACP 委派编码专家 → 分阶段落地,涉及 3 个 Agent + 1 个 ACP 编码专家。

假设驱动的迭代 — 从修 Bug 到科学方法

记忆系统最有深度的进化不是修某个具体的 Bug,而是 Agent 学会了主动提出假设并验证——这是从"被动修复"升级到"主动改进"的关键一步。

每日反思中,Agent 会基于当天的工作提出 3-5 条可验证假设,晚间反思时用实际数据评估:

假设验证结果后续动作
评分报告加上推理过程可降低用户质疑已验证:Trading 加上推理链后用户追问显著减少固化为评分模板硬性要求
Macro→Trading 引用上游结论可减少重复分析已验证:从"每次重新分析"变为"引用+增量"写入协作协议
端到端评测集比单点指标更能提升日报质量验证中正在建立评测基准

验证通过的假设被固化为规则或 Skill,验证失败的被标注原因并淘汰。Agent 不只是"犯错后改正",而是在主动寻找改进空间——从 reactive 到 proactive 的跃迁。

自主进化机制:哪些是 OpenClaw 自带的,哪些是我们加的

理解这套记忆系统需要区分框架能力运营优化——很多人问"OpenClaw 是不是开箱即用",答案是"框架能力开箱可用,但要跑好需要大量运营层设计"。

能力OpenClaw 框架自带我们的运营层优化
Session 管理compaction(memoryFlush)、contextPruning、session reset、session maintenance调优参数(40K/6h/30min)来自多次事故复盘
self-improving-agent Skill❌ 框架不自带额外安装的 Skill——Agent 启动时注入 .learnings/ 提醒,驱动学习记录和持续改进
Memory flush超过阈值自动提取精华到 memory/定制 flush prompt 强调"decisions/state-changes/lessons/blockers"
Skills 加载extraDirs 按需注入15 个 Trading 专属 Skill、33 个全局共享 Skill,按需加载
ACP 委派sessions_spawn + 编码 Agent session 管理委派策略(什么任务用什么编码专家)、TTL 和并发调优
反思 + 自我迭代❌ 框架不自带完全自建——每日 23:30 每个 Agent 独立反思 + Zoe 汇总,包括 .learnings 审查、MEMORY 精简、Tech Radar 技术趋势提取、ReMe 等新技术评估
三态通信协议❌ 框架不自带Zoe 自主设计——从刷屏问题出发,迭代到 V1 线程协议
Task Watcher❌ 框架不自带Zoe 设计 + ACP 编码落地——task-watcher Skill
MEMORY.md 容量管理memory_maintenance.py 每周压缩 + Agent 自主精简
ontology 知识图谱自建 schema.yaml + graph.jsonl 实体关系

OpenClaw 提供了优秀的框架级基础设施(Session 管理、Harness、ACP),但让 Agent 真正"活"起来的进化机制——反思迭代、协作协议、Task Watcher、记忆压缩——都是在框架之上的运营层设计


核心问题三:多 Agent 协作是协议问题,不是群聊问题

问题:把 Agent 放进群聊 ≠ 协作

大多数人对 Multi-Agent 的直觉是"给几个 Agent 一个聊天群,它们就能协作"。实际上,这和把几个工程师拉到一个没有流程规范的群聊里没有区别——有沟通能力不等于有协作能力

Macro 和 Trading 在"伊朗局势对 A 股影响"上互相"收到/确认/感谢"刷了十几轮。分析早就做完了——Macro 判断"油价涨幅 >10% → 通胀逻辑主导 → 黄金反跌"(实际走势:油价 +14%,黄金 -5%,判断准确)——但分析之后两个 Agent 客套的 token 比分析本身还多。

根因不是"Agent 太客套"。根因是缺乏终态协议。Discord 配置中 requireMention=true 表示 Agent 只在被 @ 时才回复。当两个 Agent 互相 @,A → B → A → B......这就是经典的 ACK storm,和 TCP 协议早期遇到的问题是一样的。

解法也是一样的:设计协议。不是告诉 Agent "少说话"——实际观察中"建议"式规则在弱模型上几乎不起作用——而是设计一个有状态机的通信协议。

解决:协议级设计 → 真实案例

实例:下周 A 股策略圆桌讨论

Zoe 发起圆桌 → Macro 提供宏观研判 → Trading 回应策略建议 → 按固定三态协议有序收敛:

Step 1 — Zoe 发起议题 + Macro/Trading 按协议 confirmed:

Step 2 — Trading 基于 Macro 研判给出详细策略(confirmed 输出):

Step 3 — Trading 输出 final(DRI 结论 + 完整推理过程):

Step 4 — 协议收敛(final 后全员静默):

协议设计

固定三态通信协议 + V1 线程协议(被刷屏教训后设计,已迭代到 V1 版本,沉淀到 AGENTS.md):

固定三态协议(强制)
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

[request]    @对方 + ack_id + 期望动作 + 截止时间
             模板: @agent [state=request] [ack_id=topic-v1-202603081430]

[confirmed]  @发起方 + 相同 ack_id + 版本号/生效时间/关键结论
             模板: @requester [state=confirmed] [ack_id=...] 版本=v2

[final]      @相关方 + 相同 ack_id + 终态收敛(全线程仅 1 条)
             发出后全员进入静默,"收到/感谢/OK" → NO_REPLY

V1 线程协议(2026-03-08 起)
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
• 同一线程只允许一个 ack_id,新一轮必须新开
• final 后禁止续话;必须补充时优先 edit 既有消息
• sessions_send 超时 ≠ 失败 → 同一 ack_id 不得重试
• 同一内容最多重试 1 次;第二次超时 → shared-context/ 文件投递

⏰ 5 分钟无 confirmed → 催办 1 次 · 10 分钟仍无 → 升级 Zoe 仲裁

子线程策略:多轮协作的内容任务默认开专用子线程(命名: <主题>-<负责人>-<日期>),主频道只同步三次状态:[Dispatch][ACK][DraftReady]

三种通信机制

机制用途例子
sessions_send实时任务分派/圆桌讨论Zoe → Macro "分析伊朗局势"
shared-context/异步状态共享Macro 写入宏观因子包 → Trading 直接读取
知识归档结构化素材接口ainews 报告末尾留"改写要点" → content 消费

shared-context/ 的核心价值:从消息驱动升级到状态驱动。Trading 不需要每次问 Macro"今天宏观怎么样",直接读 intel/finance_news_latest.json。sessions_send 适合实时触发,但不可靠(超时、重复)——关键数据走文件才可追溯。

Zoe 主导了 shared-context/ 的标准化——从最初零散的文件目录,演进为结构化的跨 Agent 协作基础设施:

shared-context/
├── agent-sessions/       # ACP 编码专家的 session 状态(30 个 claude/codex session)
├── agent-runs/           # Agent 运行记录
├── monitor-tasks/        # Task Watcher 持久化存储
│   ├── tasks.jsonl       # 任务注册(小红书审核/ACP完成/cron健康等)
│   ├── watcher.log       # 轮询日志
│   ├── audit.log         # 审计追踪
│   ├── dlq.jsonl         # 死信队列(处理失败的任务)
│   └── notifications/    # 通知记录
├── intel/                # 情报共享(finance_news_latest.json 等)
├── roundtable/           # 圆桌讨论记录
├── decisions/            # 重大决策存档
├── job-status/           # cron 任务状态
├── knowledge-base/       # 共享知识
├── status/               # 各 Agent 当前状态 JSON
├── tech-radar.json       # 技术雷达(Adopt/Trial/Assess 三级)
├── memory-maintenance-latest.json  # 最近一次记忆压缩报告
└── PROJECT_STATUS.md     # 项目全局状态(Zoe 维护)

这不是一次性设计出来的——是 Zoe 在实际运营中逐步标准化的。每增加一个新的协作场景(ACP 编码、Task Watcher、Tech Radar),Zoe 就在 shared-context/ 中增加对应的标准化目录和文件格式。

DRI 原则:一个问题只有一个 Directly Responsible Individual 出最终结论。非 DRI 只能补充,不能覆盖。Zoe 组织和归档,不替代专业 Agent 出专业意见。

协议优化后的自主反思

协议落地后,Agent 不只是"按规则执行"——它们会主动反思效果并提出改进方向:

从初版"禁止客套"到 V1"线程级收敛",每一步协议优化都来自 Agent 的 .learnings/ 经验沉淀——这正是五层记忆系统的价值所在。

最新进展(2026-03-08):Zoe 刚完成了一次全员通信标准下沉——修改了 26 个文件(6 个 Agent 的 AGENTS.md + SOUL.md + 相关 Skill 文档),把通信硬规则统一写入每个 Agent 的本地配置。同时执行了全员通信路径审计,识别出 main/SOUL.md 与圆桌 Thread 规则的冲突并修复。

五条联动链路

Agent 之间不是各干各的,是上游主动为下游准备接口:

链路流转机制
ainews → contentainews 每份报告末尾留"改写要点"约定接口格式
ainews → ZoeTech Radar 技术雷达 → Zoe 评估与决策shared-context/tech-radar.json
Macro → Trading宏观因子包(DXY/US10Y/油价方向/Fed路径/板块映射)shared-context/intel/
Trading → Macro(美股跨时区)Trading 05:10 夜报 → Macro 05:20 宏观复盘时序联动
Macro → Trading(周末递进)18:30 宏观→ 19:30 市场→ 20:30 技术递进链路
Zoe → 全团队23:45 跨 workspace 读取 6 Agent 产出 + .learnings/反思汇总

Tech Radar 真实示例——ainews 每日维护的技术雷达,分为 Adopt(已验证可用)、Trial(值得尝试)、Assess(持续观察)三级:

{
  "adopt": [
    { "name": "MCP Protocol", "reason": "MCP 2.0 发布,三大框架推进标准化" }
  ],
  "trial": [
    { "name": "OpenAI Skills Catalog", "reason": "582→947 星,可参考 Skill 格式" },
    { "name": "ReMe Agent 记忆管理", "reason": "独立记忆工具包,评估替代方案" }
  ]
}

Zoe 消费 Tech Radar 后做源码级评估,判断对现有系统的影响——本周就基于此发起了 ReMe 评估并委派 Claude Code 落地 PoC。

安全边界 — Agent 能改什么、不能改什么

安全在于限制 Agent 能触碰的范围

安全层机制教训
执行权限exec.security: allowlistContent 曾自己改坏配置 → 改为白名单执行
配置保护SOUL.md / openclaw.json 不允许 Agent 修改Agent 把自己的"人格"改松 → 行为失控
密钥隔离API keys 在 env 中,不在文件中防止暴露到 session 或 Discord
代码审查ACP 编码走 review 流程Agent 生成的代码不直接部署

Task Watcher — 解决"Agent 说了会做但实际没做"

Agent 最难发现的问题不是崩溃或报错,而是"说了会做但实际没做"。Content 蜘蛛发完小红书说"审核通过后通知你"——但 session 已经结束了,它根本做不到异步回调。更隐蔽的是 cron 任务"执行了"但零产出——反思也说"一切正常"。

Zoe 主导设计了一套 Task Callback Event Bus——插件式架构,5 个组件各司其职,把异步监控下沉到 cron 级别

注册任务 → tasks.jsonl(shared-context/monitor-tasks/)
                ↓
Cron (*/3 min) → Watcher → Adapter 检查状态 → 状态变化?
                                                   ↓ Yes
                                      Policy 决策 → Notifier 发 Discord
  • Adapter 插件:小红书审核状态、GitHub PR、ACP 编码任务——想监控什么加一个 Adapter
  • Policy 策略:通知频率、升级、重试都可配
  • 6 小时超时保护(默认),3 次投递失败自动升级,不会死循环、不会卡死

这套系统由 Zoe 自行设计 → 委派 Claude Code 实现 → 130 个单元测试 → 开源发布为 OpenClaw Skill。从需求到代码到测试到发布,我只在方案评审时介入,其余由 Agent 团队完成。

通信 Guardrail + 异步状态链(最新进展)

Task Watcher 解决了"异步任务有没有产出"的问题,但更深层的问题是:Agent 之间的通信本身缺乏系统级约束message 被误用为内部控制面、timeout 不等于失败却被当作失败处理、completeddelivered 无法区分——这些都不是靠文档规则能解决的。

Zoe 自主设计并委派 ACP 编码专家实现了一套 通信 Guardrail + 请求生命周期状态链(~3000 行 Python),核心组件:

模块行数作用
agent_comm_guardrail.py3835 条硬性规则:拒绝 message 误用、阻止身份伪造、拦截 ack_id 重发
agent_request_models.py28911 态生命周期模型:accepted → routed → queued → started → completed → delivered
agent_request_store.py529文件级状态存储,requests.jsonl + events.jsonl 全链路审计
completion_bus.py507异步完成投递总线,producer-consumer 模式
acp_state_bridge.py502ACP 编码任务的状态桥接
dead_letter_queue.py271投递失败兜底队列

设计决策:

  • timeout ≠ failed:超时只是控制面观察结果,任务可能已经在执行——引入 ambiguous_success 语义
  • completed ≠ delivered:工作完成 ≠ 结果送达,分离两个状态避免投递失败覆盖工作成果
  • 通信生命周期独立于业务 TaskState:不污染现有 Task Watcher 的 submitted → completed → failed 状态机
  • 文件级状态源:先用 shared-context/agent-requests/ 跑通,不依赖 Redis/MQ 等重量级设施

这套系统从"Zoe 发现问题 → 设计方案 → 委派编码 → 代码实现 → 测试验收",我只在方案确认环节介入,其余环节由 Agent 自主完成——是 Agent 从"执行者"进化为"系统设计者"的典型案例。

整体架构总结 — 五层工程视角

回过头看,整个系统的核心设计可以归结为五个层次:

核心机制解决什么问题
通信层三态协议 + ack_id + 四层一体化 + shared-context/Agent 之间如何可靠地协作
记忆层五层分层存储 + Harness 自动管理 + 反思迭代Agent 如何记住经验并持续成长
自愈层三层自愈架构 + heartbeat-guardian + memory_maintenance系统如何 7×24 稳定运行
进化层.learnings → promote → MEMORY + Skill 自研 + ClawHub 发布Agent 如何从"执行者"变成"设计者"
编排层Zoe 巡检 + 圆桌主持 + Task Watcher + ACP 委派谁来管理和协调这一切

这五层不是独立的——它们相互依赖、相互强化。通信层的三态协议是 Zoe 在编排层中发现问题后设计的。记忆层的压缩策略是自愈层的一部分。进化层的 Skill 自研能力来自通信层的跨 Agent 协作。

跑了半个月之后的认知变化

1. 90% 的时间花在工程问题上,不是 AI 问题上。 Session 膨胀、消息风暴、配置被改坏——解法在分布式系统和 SRE 经典知识中,不在 AI 论文里。Agent 系统的瓶颈不是模型能力,是基础设施的成熟度。模型升级是锦上添花,通信协议、记忆架构、自愈机制才是决定成败的底座。

2. AI 的"智能"在生产环境中经常是灾难。 Discord 消息被"智能压缩"砍掉了数据表格,Agent "智能修复"自己的配置改坏了工具名,管家蜘蛛在 session 膨胀后"智能地"越界做投资分析。在需要精确、可预测输出的场景下,"智能"反而是负面特性。显式 > 隐式,硬规则 > 软建议,可预测 > 可解释。

3. 持续运行的系统必然退化——不是 bug,是热力学。 配置堆积、记忆过长、session 膨胀、磁盘撑满——这些会确定性地发生。对策不是"一次设置好",而是建立反退化机制栈:compaction 管 session,maintenance 管记忆,heartbeat-guardian 管配置,巡检管行为漂移。用 Agent 运维 Agent,用 cron 监控 cron——每层兜底机制都需要自己的兜底。

4. 协作是协议问题,不是 prompt 问题。 两个 Agent 放在同一个 Thread 里不写协议,等价于两个进程共享内存不加锁。Macro 和 Trading 用同一个模型、同一个知识库,刷屏时每条回复都言之有物——加上三态协议后产出从十几轮废话变成了一份可执行策略文档。模型没变,变的是规则。

5. Agent 最大的价值不是执行力,而是"参与设计"。 当 Agent 从"你让我做什么我就做什么"进化到"我发现了问题,调研了三种方案,推荐 B,你确认我就落地"——这时它才真正成为团队成员。十个进化案例里,大多数的起因不是"我让它做什么",而是"它遇到了问题然后自己想办法"。系统设计的目标不是让 Agent 听话,而是让它有能力自己解决问题。


如果你也想试试

不需要照搬 6 个 Agent。从 1 个开始。 整个系统从零到 6 个 Agent 稳定运行花了大约半个月的下班时间——不是开发时间,是调试和填坑时间。

第 1-2 天:先让 1 个 Agent 稳定运行

最重要的三件事:

  1. SOUL.md 保持精简,只放核心约束。把它当"宪法"不是"操作手册"——非核心规则放 Skills 按需加载
  2. Session 管理参数第一天就设好idleMinutes=30pruneAfter=7dmaxDiskBytes=100MB。不设 = 定时炸弹
  3. 从第一天就启用 .learnings/ + 反思 cron。没有反思的 Agent 只是 chatbot,不是 Agent

第 3-5 天:加第 2 个,开始处理协作

  1. Discord 配置比你想的复杂 10 倍。每个 Agent 需要独立 Bot 账号。requireMentiontextChunkLimitdelivery.mode、子 Thread 创建、Bot 权限——每个都有坑,而且组合起来的症状让你根本猜不到是哪个配置的问题
  2. 协作需要协议,不是群聊。两个 Agent 在群聊里会互相 ACK 到死。固定三态协议 + ack_id + 超时升级,两个都不能少

第 2 周起:逐步扩展到完整阵型

  1. 规则用最强措辞,面向最弱模型。LLM 对"建议"式规则的遵循率远低于"MUST",尤其在长上下文和弱模型上
  2. "成功"要严格定义。投递成功 ≠ 归档成功,无报错 ≠ 有产出,Agent 说"正常" ≠ 真正正常
  3. Agent 不回复是常态——准备好 Task Watcher 和重试机制
  4. shared-context/ 是协作基石——sessions_send 不可靠(超时、重复),关键数据走文件才可追溯
  5. 每加一个 Agent 都需要半天到一天的调试。急于求成 = 浪费更多时间在排查上

装好不难,跑通也不难。难的是:让 6 个 Agent 在没有你盯着的时候也能稳定产出、自我修正、协作不打架。这不是 prompt 问题,是系统工程问题。

从理解原理开始

如果你想先理解 OpenClaw 的核心原理再动手,可以看看 <font style="color:rgb(0, 128, 255);">MiniClaw —— ~2700 行 Python 实现了 OpenClaw(43 万行 TypeScript)的 11 个核心架构模式:Gateway Hub-and-Spoke、Workspace 契约文件、Agent Loop、Skills 触发、Compaction 上下文管理、Multi-Agent & Spawn、Heartbeat、Cron、Hooks EventBus、自动反思。不需要看原始代码就能理解"为什么要这么设计"。


附录:技术栈快速参考

以下是正文中提到的技术组件的集中索引,方便快速查阅。详细说明见正文对应章节。

LLM 模型分层

任务类型模型
主对话 / 反思 / 圆桌GPT-5.4
ACP 编码任务K2.5 / GPT-5.4
Cron 日常任务Qwen3.5+ / K2.5
心跳 / 健康检查Ollama qwen3:8b

Fallback 链:gpt-5.4 → k2.5 → qwen3.5-plus → ollama/qwen3:8b

核心 Harness 配置

{
  "compaction": { "mode": "safeguard", "memoryFlush": { "softThresholdTokens": 40000 } },
  "contextPruning": { "mode": "cache-ttl", "ttl": "6h", "keepLastAssistants": 3 },
  "session": { "reset": { "atHour": 5, "idleMinutes": 30 }, "maintenance": { "pruneAfter": "7d", "maxDiskBytes": 104857600 } },
  "acp": { "maxConcurrentSessions": 6, "ttlMinutes": 120 }
}

数据源

市场数据源覆盖
A 股AKShare + TuShare Pro实时行情 + 历史 + 财务 + 龙虎榜 + 北向
美股/港股yfinance + Finnhub行情 + 新闻 + 基本面
信息采集Tavily + RSS 13源 + GitHub Trending + 54 平台热榜 + arXiv搜索 + 新闻 + 热点 + 论文
浏览器agent-browser (Playwright)JS 渲染页面(X/Twitter、雪球等)

部署配置

组件配置
硬件Mac 本地 7×24
进程守护launchctl + ThrottleInterval=10
自愈2086 行脚本(heartbeat-guardian / check_cron_health / memory_maintenance)
备份每日 03:00 全量备份
监控Zoe 3 次/天巡检 + 系统 crontab 15 分钟健康检查
知识归档Obsidian Vault + obsidian-livesync

其他

编者按:本文是少数派 2025 年度征文活动#TeamCarbon25标签下的入围文章。本文仅代表作者本人观点,少数派只略微调整排版。

今年的征文活动更有创意,「只能用 AI」和「不能用 AI」两大赛道激情 PK,硅基生物和碳基生物都将决出各自领域的佼佼者。我们会在征文结束后统一组织投票活动,但在正式投票之前,如果你喜欢这篇文章,不妨通过充电或评论的方式支持作者,让内容创作者获得更多维度的鼓励。


22 年我写了装修备忘录,24 年我写了健康备忘录,备忘录逐渐成为我每年参加少数派年度征文的一个系列,记录这一年对我来说具有挑战的「大事情」。2025 年,职场跌宕起伏,我逐渐意识到,单纯靠「投资」一个工作的风险。其他收入增长还是要提上日程。抱着试一试的心态,5 月我入手了第一台 3D 打印机,拓竹 A1 mini。关于这台机器,你可以通过这篇文章了解。

个人可以通过 3D 打印能赚钱吗?

我先来回答这个最主要的问题,答案是可以的。

但是不能只靠 3D 打印这一项业务,走通 3D 打印这个「一人企业」,需要结构化的去考虑这个业务。这个结构如同一家微型的创业公司。公司里包含了:产品研发部(模型设计),产品生产部(打印机生产),营销部(线上社媒传播),电商部(电商的售前售后),法务部(处理版权)等等。在这个结构下,把这个副业能接触到的工作全部展开,虽然看上去是挺多的,但更多的精力还是集中在产品的研发和产品生产这两个环节上,因为这两个环节都是实质带来收入的核心环节。

适合个人玩家的收入模式

相信大家拥有打印机后,一定会想:我给别人打印东西,就能赚到钱了!打住,3D 打印副业的第一个坑就在这里,初期会希望通过售卖 MakerWorld 上已有的模型通过代工实现收入。但现实是,一个兼具审美和功能的模型,普遍的打印在 3 小时以上,最终售卖的价格可能也只有 40 元的样子,这还是乐观的预估。如果打开拼多多,热门模型在打印农场(通过海量打印机实现时间成本趋向于 0 的生产模式)的批量生产下,可能几元,还能实现包邮。价格和生产力是直接把个人玩家的一台打印机打趴下。个人玩家的收入路线,我建议还是要以原创为主,是长期可持续的。

小红书@九哥 3d 打印 的打印机农场

稳定的积分收入

现在有不少模型社区,和拓竹一样有积分和收入体系。鉴于我自己的经历,还是以拓竹 MakerWorld 平台为例,以下的经验我曾分享给了我入坑 3D 打印的朋友@零钱

社区中,通过打印、下载、竞赛都可以实现积分的收入,而积分可以转换成兑换券(可以兑换耗材),独家积分则可以兑换成现金。这个收入可以类似理解为像出版书籍一样的版税收入。这些收入,在我现阶段,基本覆盖了我每个月的耗材开销,并还有一定的收入。我开玩笑说是「机器自己养活自己」。

仔细阅读 MakerWorld 的积分规则,可以发现,用户模型累计 100 次打印后,就可以上传独家模型(对应积分价值更高)。对当时的我来说,这 100 次模型打印目标,是我去学习建模、了解社区喜好的试水。在社区的「创作者中心」-「灵感」中,可以看到近期社区的热词,收纳、游戏动漫二创长期都是社区的热门选题。作为建模新手,我围绕这些东西,做了些简单的设计如:冰箱贴、收纳小盒子等等。

随着建模的技术不断提升,多种方法的叠加组合,我开始设计有插槽、有造型的新模型。通过 AI 建模和 Blender、Shapr3D 修改,我个人主页上的模型也越来越多,如今已发布 70+ 的模型,和 120+ 的打印配置。

尝试电商收入

我的第一款电商产品,是给「拓麻歌子 - 欢乐园」设计的一个马桶造型的支架。当我收到拓麻歌子之后,我发现它只能平放在桌上,无法站立起来放。我想:得给它做个支架,让它立起来。参考拓麻歌子扭蛋的马桶造型,很快设计出来,经过几次调整便可以使用了。发在小红书上后,收获了很多点赞和评论。原来大家也有同样的想法,想把拓麻歌子竖起来放。

于是,我便考虑推进这个「马桶」的量产。从打印一个模型自己玩,到量产一整盘,再到寄到用户手中交付,这件事从一开始我真的想的太简单了。我理所当然的觉得,不过就是多打几个而已。这是我目前觉得整个流程中最需要花心思和时间的环节。

从初样到量产

从初样到量产,首先会遇到的就是,单个打印中本来不可见的问题,会在打印时长加长后显著放大。一个打印板上的模型数量增加了 6 倍,相对应的层打印时间会增加 6 倍甚至更多。在这「放大的时间里」,一些微小的变化不断产生:收缩与翘曲。1 个模型正在打印,就会有 5 个模型在等待,这等待的过程中,塑料自然冷却后会缩小,再等到打印另外几个的时候,收缩纹就产生了。

@Slant 3D 内容截图

这样的收缩不光发生在模型的外表面,模型内部的填充纹路也会不断收缩。甚至会拉起模型与打印板分离,最终翘曲变形,打印失败。而且通常这些问题很难直接通过 Bamboo Studio 的参数去改变,最佳的办法还是要在模型设计初期,通过内部的结构改变,来减少和避免量产中的各种问题。

对应不同问题的设计优化技术,我非常推荐你在 B 站上通过 大宝贝 译制的 Slant 3D 的专业内容去学习,他的策略我非常认可:如果我们过于依赖参数,那就无法在每一台打印机上都可靠的实现模型打印。的确,这在我后期有了多个型号的机器后,更加深刻的理解了这个策略的意义。如果过多的依赖参数,那每一台机器的参数都需要精细调整,这对于量产来说,是很灾难的,那会相当的耗时。

@Slant 3D 内容截图

考虑用户的体验

马桶支架设计的过程中,我设计了一个插销,这个在初样时一切正常的插销,却带来了大量的售后问题。因为这个插销太薄了,所以在发货前,我会使用强力胶固定后面的水箱和马桶本体。但是在运输的过程中,由于这个接触面非常的小,容易断裂。裂开后又不易固定,只好再重新寄一个马桶给买家。

水箱位置的插槽非常容易断

这样的经验,带给我后面考虑产品时,会减少不可靠的插销、减少过小的接触面、减少运输断裂的风险。有点类似于像儿童玩具那样,更多倒角、更圆润的设计风格,来减少售后。

第一代马桶支架的设计,在打印上过于费时复杂,在一段时间的售卖之后,我设计了第二代马桶支架,并开源了第一代产品。有打印机的用户可以通过社区,自助打印这个第一代马桶支架。收到了不少国际版社区中海外用户的好评。

在后续的产品开发中,我还增加了仅邮费的试玩体验,发 3-5 个快递,来测试新快递包装、模型运输的情况。通过试玩用户的反馈,来收集改进我的快递包装。从而确保在正式的大货量产与快递中,不发生一代马桶类似的问题。

反盗版工作

提到开源,又不得不讲到版权保护工作。在邮件与拓竹社区工作人员沟通,反馈在淘宝看到有我的模型盗版售卖的情况。拓竹工作人员给了我非常详细的各地版权注册链接。通过上海的随申办,我有申请我自己原创模型的著作权。一方面,原创的开源模型应尽早同步在社媒进行发布,保留内容发布证据。另一方面,能在后续如果发生版权纠纷时,可以给到电商平台,对商家盗版产品进行下架处理。补充一下,目前 MakerWorld 社区已经开通了版权保护申请,可以直接在创作者中心发起。

另外,作为创作者,我想提醒各位,如果你这个产品时考虑售卖的,那建议不要开源,或者仅开源初样版本。前文有提到,初样到大样还有很多调试的工作,但初样的模型开源足够个人玩家实现打印。他们的动手能力强,对瑕疵的容忍度较高。所以,如果很想开源,那只开源初样文件。

还有一点建议,开源时请加上自己的 Logo。比如底面等,不影响功能和外观设计的位置上,加上 Logo,也能让更多人通过模型认识自己,喜欢自己。

《一人企业》的思考与实践

半年的时间里,从一台拓竹 A1m,增加了 P2S,后来又购入了旗舰的 H2C 。三台机器分担研发和 2 个生产线的工作。电商货架 30 个 SKU 的产品。从不会建模到现在,感觉像过去了很久的时间。幸运的收到了很多用户的支持和喜欢,这其中不乏海外用户通过电商下单,产品通过转运寄往中国香港、中国台湾、马来西亚等地的境外订单。

虾皮 Shopee 出海也许是我的下一站,这一站的门槛,是个体经营执照。为此,我开始做更多的准备,包括思想上的。在一段时间高强度的 3D 打印后,我每天都觉得很累,我问 Gemini,以我目前的状况,我可以从哪里学习总的纲领性的策略,以便我遇到具体问题的时候有可以做出不违背初心的决策。他给了我一长串的建议,包括 Youtube 的内容、B 站的内容,以及这本书:《一人企业》。接下来我想谈谈我对目前我的这个「一人企业」的一些思考。

更卷还是更躺

是这本书让我放慢了办理营业执照的想法,比起扩张,「小而美,稳而优」才是更适合一人企业的长期战略。现阶段有家人的支持,如果再放大生产,就会面临雇员、房租等各项新增的问题。是我眼下应付不过来的。

在线上,我会收到用户的问题:只有小红书平台吗?可以有更多平台吗?按照过往我从事广告的营销思维,社媒账号是要有账号矩阵、电商渠道肯定是越多越好的。但回到一人企业,我的精力是有限的,把一个渠道做好,才是眼下可靠且长远的选择。

说真的,这本书给了我强有力的策略支持,是与我原有的员工思维完全不同的。不卷,也不躺,是主动选择做小而美。

自动化的必然

在评论区中,用户会询问是否可以消除 3D 打印的层纹。从技术上来说,当然是可以的,有可以弱化层纹的溶剂,也有可以打磨的工具,还可以选择喷涂。但这些操作都无疑让我自己又陷入到了作为生产者的角色当中去了。我的选择,是放弃这部分的用户,这不是我能赚到的钱,也不是我能服务好的用户。我想做的是把有意思东西,以更有性价比的方式售卖出去。生产最好是完全依靠打印机,生产即结果。(目前还离不开需要一些简单的修剪调整)。

马斯克的五步工作法:先把事情做对、做简单、做快,再自动化。把更多的精力放在设计阶段,把模型做好,做通用,去适配自动化的生产方式。这是我对 3D 打印批量生产现阶段的理解,也是和前文中 Slant 3D 大神的观点一脉相承的。

承接个性需求

有段时间,我不太接受个性化的定制,如换个颜色,加一个结构之类的,我觉得沟通成本高,实际也就增加了 1 单。但慢慢我发现,去挖掘一个新客户的成本,远高于我去维护好老客户(Tim 有一期关于电商的三点思考中,获客就是三个坑之一)。去开发一个新模型,从想法到初样,再到大货,成本也是远高于去小改现有模型的。逐渐的我开始接一些像改变颜色、增加一些有「我推」1符号的小改造。

增加五月天「卜卜」造型的宝宝椅

时间和精力是从成本角度的理性考量,个性化需求是从情感上的正反馈。看上去是增加了沟通成本,但与用户之间的关系,我感受是更加正向的。我记得《一人企业》书中:暴雪天,有个人打电话给独居父亲家旁边的小卖部,让小卖部给家里的父亲送点东西。「一人企业」比大型企业有着更灵活的空间,可以做觉得自己觉得好的、有意义的事情。

我逐渐体会和适应「一人企业」这种,可以偶尔脱离日常规则的做法,与做设计开发一样有意思的事情。虽然我很难准确的和你讲这是多么的「有意思」,但我觉得大家都有坐在格子间服务企业的经历,也许能够意会我的这个「有意思」。

竞争力的思考

回看这半年多的路,一眨眼已经离起点走了挺远了。到底什么让我的产品受到大家的喜欢?

这个问题不是自夸,反而更是一种对「复现」一个小爆款的贪心。在这本书里,我找到了「复现」爆款的竞争力,就是我本人。用户们会通过我的产品认识我,他们隔着手机屏幕,看到地球的另一头有一个有趣的人。不管是下任务给打印机,还是下单电商商品,最终,让他能会心一笑的产品都能真实的到他手里。装载着小鱼的「幽默 + 思考.zip」,去到地球各个角落,是我乐意去做的事情。

我和想做 3D 打印的朋友说,如果你有垂直领域的兴趣,一定尝试从感兴趣的垂直领域出发,去解决一些这个领域里的小需求,这真的能有市场!有些很好的产品像徒步轨迹的定制、网球拍的支架、潜水时候使用的「跟屁虫」......在我看来,没有必要跟着热点走,那是打印农场考虑的事情。我想做的是,有意思的东西。

小红书@陈小歹

总结

写到这里,回看上去好像很有信心去做这个副业。但我当时可能和屏幕前的你一样,连建模也不会,纯抱着试一试的心态先做着。当时我会觉得,MakerWorld 上这么多模型、电商平台上有这么多产品,我该去做些什么呢?在《庄子·逍遥游》中,我深有感触的是,鲲鹏挥动翅膀就能去到很远的地方,小麻雀在灌木丛中扑腾两下也能自得其乐。我把我自己想到的、想做的,做出来就好,便能有自己的一方小小天地。

祝愿看到这里的你,能无所顾虑的启动你想做的事,不问结果,自得其乐。


后记

欢迎来我的 MakerWorld 主页自助打印。

本文为本人手工撰写。在构思初期与 DeepSeek 讨论过文章内容方向和大纲,但有种冷静的理性和范式,始终达不到我的预期。我希望这篇文章的像一场聊天,和你聊聊我的经历,让未来的我看看 2026 年这一刻,是这样思考的,做个总结记录。

> 参与 2025 年度少数派征文,分享你的观点和经验 ✍🏻️

> 实用、好用的 正版软件,少数派为你呈现 🚀

    我做了一个轻量级的效率应用「 Smart Planner 」,专门解决反复创建日程的痛点。

    一句话搞定多个日程 —— 比如输入「明天下午 3 点和老板开会,后天上午 10 点项目启动会,晚上记得拿快递」,AI 会自动识别时间并同时写入苹果日历和提醒事项,省去反复切换和逐个创建的麻烦。

    所有数据直接保存在系统日历和提醒事项中,无需注册账号,不涉及隐私上传。

    支持 MacOS ,iPad 和 iPhone 多平台。

    如果你平时就不用苹果日历/提醒事项,这个码对你来说可能没价值,请留给真正需要的人 🙏

    期待大家的建议和反馈!如果它确实帮到了你,在 App Store 留个好评就是对我最大的支持 ☕

    ⚠️ 重要提醒:兑换后请确认是否开启自动续费。如未来不想继续用,请务必提前在 App Store 取消订阅,避免到期扣费。

    App Store 兑换码:
    NFJJRM3JKN44EJYPM8
    JEFLHW4M3WAKHAEXHL
    MFPPXPNNHPFXKX7P7X
    YRXTRWEPFLN4WEEXKP
    6T7N7HRNEHLEPJXN4M
    7NMKAYPXPE3RL4JWKP
    TLWYTTAENFHF388YJ6
    WTJKAH8JXJLAXKKNKK
    HYLRW4EHH6W4PY7RP3
    J7N47LA6AKEYPF8HAJ
    6KLLE6YLRYKNLERNRH
    6A3MLX3XAL7Y6XFE64
    EJTLHY6JWLH8846NXW
    FXKEYLXAMLP8PXPN7P
    Y44E7HF7YJ4W86X34M
    6YR7YRT4PLHNJNW834
    YKRR6K4T3W333M8PF8
    MMN6RAPFP4N6ENJFPJ
    TH7YWL6YRJTYJPLAWX
    7FLXAKP6X37MXLTEYT
    F33NY67NHJAW6KFAKH
    3RTRRPJ6LYNJHNMNMN
    JRTNR3FNPNAE7MHFJ6
    WPRYWF487WLEX3RJY7
    EXEW4T8MY7KAR4YTAT
    YE84RMJHMAL6MFTLNX
    PPJXJ68HYXKNEXTXTA
    3KF8PXHMTARLTF66TA
    3WX6J4TLEJYME6YAY7
    NLWWK8NY3L6E6AKTR4
    WMEMTMA87M63HXWF33
    NTW8TMPLW8JYWT8437
    J6NX4EF8XRKNE468TW
    8RN6KNP7NRH4RT8YXH
    M6TKM6TJMAEWJFMK8W
    NAFR3P4NANRXNH838E
    H74HP64PL63RJX7TPK
    687T6HJYXYJ4XTWNR4
    8TPTFYETJAJ6A3NRAJ
    E3YRWWXFXYTF473P7J
    WTFX7NHKKJ4JRMX3HA
    TTNMPM4T7LPE78P83R
    ML4HAARR7TRJK8ML7W
    AJWK8T8LT4APWPN87K
    FWLA8E63HXRNHMTYKP
    6M6W7EXHTTT6T6N337
    6F8T7NFKKPF3NLNNJA
    YMJTWXNYFJFXYX6J6Y
    AAPFW47J7NLTTAN74N
    KYY4YKE8M6YK48FTLP

    数字化项目最常见的误区,不是方法选错,而是总想用一种方法解决两类问题:既想用瀑布守住预算、责任与里程碑,又想用敏捷应对需求变化与业务试错。今天越来越多组织转向混合式,并不是因为方法时髦,而是因为项目环境本身已经要求管理者同时处理“确定性”与“不确定性”。PMI 也明确强调,项目方法正在走向更灵活的 fit-for-purpose,即按项目环境组合使用不同实践。

    一、为什么数字化项目很难只靠一种方法走到底

    数字化项目与传统工程项目最大的不同,不是用了更多技术,而是它天然同时包含两类工作:

    一类工作追求确定性,例如预算、采购、合同、接口、合规、阶段审批和上线窗口;
    另一类工作则充满不确定性,例如需求澄清、流程重构、用户体验验证、数据口径调整以及技术方案试验。

    前一类工作需要清晰边界和可问责机制,后一类工作需要快速反馈和持续修正。问题不在于企业不知道敏捷好,而在于很多项目从一开始就不是单一属性。PMI 对项目方法的描述也不是二元对立,而是一个从 predictive 到 agile 的连续谱,每个项目都应在这个谱系上找到自己的位置。

    这也是为什么“敏捷还是瀑布”的二选一,在数字化项目里往往是个伪命题。真正成熟的管理,不是放弃计划,而是知道哪些内容必须提前计划,哪些内容必须边做边学。
    GOV.UK 关于敏捷规划的指南讲得很清楚:在敏捷环境下,规划并没有消失,而是应当在“合适的层级、合适的时间”进行,远期保持高层级,近期再做细化。对数字化项目而言,这一点尤为重要,因为很多风险并不是来自变化本身,而是来自组织把本应在迭代中澄清的问题,过早地包装成了确定答案。

    从组织现实看,很多本土企业之所以在数字化项目上频繁摇摆,也恰恰源于此。一方面,高层希望项目能快,最好边做边改;另一方面,又要求预算可控、责任清晰、节点可汇报、风险可追溯。于是团队表面上说在做敏捷,实际上仍被要求在启动阶段回答太多本来不可能一次说清的问题。结果就是:前期文档做得很厚,后期变化仍然很多,团队既没有获得瀑布的确定性,也没有真正拿到敏捷的反馈效率。这类矛盾,并不是靠一句“全面敏捷转型”就能解决,而是需要在治理机制层面重新划分“什么该被锁定,什么该被打开”。

    PMI 近年的研究也印证了这一趋势:项目团队正明显转向更灵活的交付方式,混合式方法的采用持续增加,而且预测式、混合式、敏捷式在项目表现上并非简单的高下之分,关键在于是否与项目环境匹配。这对管理层是一个很重要的提醒:项目治理的成熟,不再体现为“全公司统一一种方法”,而体现为能否针对不同项目设计不同的控制强度、协作节奏与反馈机制。

    二、混合式方法不是“折中”,而是“分层治理”

    1. 混合式真正“混”的,不是流程,而是管理逻辑

    很多团队把混合式理解为“前面按瀑布,后面按敏捷”,或者“管理层看瀑布,研发团队跑 Scrum”。这样的理解只说对了一半。混合式真正要解决的,不是把两套术语拼在一起,而是把两种不同的管理逻辑放到各自最有效的位置:凡是涉及承诺、约束、资源配置和问责的事项,要更稳定;凡是涉及探索、验证、反馈和优化的事项,要更灵活。PMI 对 hybrid 的定义,本质上也是这种“按项目环境组合实践”的思路,而不是机械地把流程切成两半。

    2. 对管理层来说,要稳的是边界,不是每一个细节

    GOV.UK 的敏捷规划指南有一个很值得管理层借鉴的观点:在敏捷中,计划依然重要,但应在“合适的层级、合适的时间”做合适深度的规划;远期工作保持高层级,近期工作再细化。这个原则放在企业项目里,含义非常明确:高层真正要管住的,是目标、边界、里程碑、投入上限和关键风险,而不是试图在立项阶段把所有业务细节一次性冻结。把本应在迭代中澄清的问题提前“写死”,看起来是控制,实际上只是把不确定性从前台挪到了后期变更里。

    3. 对交付团队来说,要活的是路径,不是责任

    敏捷并不意味着团队可以无限制地变更范围,更不意味着对结果不承担责任。真正成熟的混合式项目,恰恰是在责任清晰的前提下,把实现路径留给团队优化。Agile Alliance 收录的 Halliburton 实践很有代表性:企业仍保留阶段和关口框架,但在执行区间引入 Agile-based 的开发机制,使团队能在原有治理约束下获得更快的反馈与迭代能力。这说明,治理稳定与执行敏捷并不矛盾,矛盾的往往是组织把两者设计在了同一个层面。

    4. 真正有效的混合式,是“上层定规则,下层做学习”

    这句话看似简单,其实是很多企业最难做到的地方。因为它要求管理层接受一个现实:并不是所有问题都能在一开始回答清楚;同时也要求团队接受另一个现实:并不是所有变化都可以不受约束。混合式项目管理的本质,不是给变化开绿灯,而是给变化设边界、给探索留空间、给决策留证据。做到这一点,组织才不是在“敏捷与瀑布之间摇摆”,而是在用两套逻辑共同管理复杂性。

    从工具承载上看,混合式方法也不适合用一套过于单一的工具习惯来落地。以 ONES 项目管理工具为例,ONES Project 同时支持需求、任务、缺陷、迭代管理,以及看板、燃尽图等敏捷常用能力,并提供敏捷、瀑布、通用任务协同等多种项目模板;同时,ONES Plan 支持项目里程碑、甘特图、多项目总览和资源管理,ONES Wiki 支持文档关联任务、嵌入任务进度与知识沉淀。把这些能力放在一起看,更适合承载“治理层看里程碑与资源、交付层跑迭代与反馈、文档层做决策留痕与知识沉淀”的混合式场景。这里关键不在于工具本身有多全,而在于它能否让不同管理层级各看各的重点,而不是所有人盯同一张明细表。

    三、一个更适合本土企业的混合式落地框架

    1. 治理层:先定义“哪些东西不能轻易变”

    在项目启动阶段,我通常建议先把四类问题定义清楚:

    • 第一,项目要解决的核心业务问题是什么;
    • 第二,预算、时间和关键里程碑的边界是什么;
    • 第三,哪些合规、审计、安全或对外承诺是必须满足的;
    • 第四,哪些跨部门依赖是项目团队无法单方面消化的。

    只有先把这些“不能轻易变”的事项说清楚,后面的迭代才不会变成无边界试错。这里需要的是治理清晰,而不是文件繁重。

    如果进一步落到工具层,治理层最需要的不是“更多表格”,而是能稳定呈现边界条件和关键节点的载体。比如 ONES Plan 它支持项目里程碑、甘特图、多项目总览和资源管理,并可与 ONES Project 中的项目、迭代、工时数据联动;这类能力比较适合放在治理层使用,因为管理层真正关心的通常不是某张任务卡的流转细节,而是关键节点是否受控、跨项目资源是否冲突、整体节奏是否偏离。

    2. 交付层:把“会变化的东西”放进迭代而不是放进争论

    进入交付阶段后,需求优先级、方案细节、流程设计、用户界面、报表口径等内容,应尽量通过待办列表、版本路线图、迭代评审和用户反馈来逐步收敛,而不是在会上反复抽象争论。GOV.UK 的做法是将愿景、目标、路线图与用户故事可视化,并把近期工作细化、远期工作保持高层级;其背后的管理逻辑很值得借鉴:不是不规划,而是不把尚未验证的内容伪装成确定答案。

    在这一层面,ONES Project 的能力就更接近团队日常使用场景,支持建立需求池、规划迭代、任务管理、缺陷管理,并通过看板、燃尽图和多种报表辅助团队掌握当前进度与质量状态。对于混合式项目来说,这类能力的意义不在于“更像敏捷”,而在于帮助团队把变化装进一个可见、可排序、可复盘的节奏里,而不是让变化在微信群、会议纪要和口头协调中失控蔓延。

    3. 协同层:建立“双节奏”机制,而不是用一套会议解决所有问题

    很多项目之所以又慢又乱,不是会议少,而是同一套会议承担了两种完全不同的任务。混合式项目更合理的做法,是至少保留两套节奏:

    • 一套面向管理层,按月度或阶段节点评估范围、预算、风险、依赖与关键决策;
    • 另一套面向团队,按周或双周管理需求、障碍、演示、反馈和优先级。

    前者解决“项目是否仍在正确轨道上”,后者解决“团队下一轮到底交付什么”。两套节奏一旦分开,很多组织内耗会立刻下降,因为高层不再被细节淹没,团队也不必在每次评审时都重新解释项目存在的意义。

    如果企业已经在推进这类双节奏管理,那么工具上也最好避免“治理信息”和“执行明细”彼此割裂。同样以 ONES 为例,ONES Project 与 ONES Plan 到二者之间的数据互通:Plan 可以查看 Project 中相关项目和迭代的工作量、进度及工时数据。这意味着,管理层不必深入到团队每一轮 Sprint 的微观细节,也能获得足够的上卷信息;而团队也不必为了向上汇报,额外维护一套脱离现场的“领导版台账”。这恰恰是混合式方法能否落地的一个常被低估的条件。

    4. 度量层:把“可控”与“有价值”分开看

    混合式项目最容易出现的管理偏差,是只看计划达成,不看价值验证;或者只看迭代速度,不看整体承诺。前者容易把项目做成按时交付的低价值系统,后者则容易把团队做成忙碌但失控的交付机器。因此,PMO 至少要建立两类指标:

    一类是治理指标,如预算偏差、里程碑达成率、重大风险闭环率、关键依赖兑现率;
    另一类是流动性与价值指标,如需求吞吐、从需求到上线的周期、缺陷逃逸率、版本验收通过率、用户采纳情况。

    也正因为如此,混合式项目不能只靠一张甘特图,也不能只靠一张燃尽图。在这里,ONES 的一个可取之处是,它并不是只强调某一种项目方法。ONES Project 一方面提供看板、燃尽图、多种报表等偏敏捷的度量与协作能力,另一方面又提供瀑布、通用协同等项目模板;而 ONES Plan 则更偏里程碑、甘特图、资源视角。对于正在推进混合式管理的团队来说,这种“不同视角对应不同管理层级”的产品设计,比单纯强调某一套方法论更接近组织现实。

    5. PMO 的角色:从“文档监督者”转向“治理设计者”

    这是很多企业最值得升级的一步。在混合式项目里,PMO 的价值不再只是检查模板是否齐全,而是要设计关口、定义边界、协调跨部门依赖、统一指标口径、推动风险前移,并帮助管理层区分哪些变化需要升级决策,哪些变化应留在团队内部解决。

    如果把这个角色转变再往前推一步,PMO 还应当承担“信息架构设计者”的责任:什么内容必须标准化,什么内容允许按项目裁剪;什么信息用于向上汇报,什么信息服务团队协作;哪些文档是为了合规留痕,哪些文档是为了知识复用。

    ONES Wiki 支持文档关联任务、嵌入任务进度、模板化创建和版本留存。对 PMO 来说,这类能力的价值不在于“多一个文档工具”,而在于能把项目制度、会议纪要、决策依据和任务执行之间的关系建立起来,避免项目结束后只剩下一堆彼此脱节的文件。

    四、混合式实践中最常见的三个误区

    误区一:前期把需求写死,后期再做“敏捷执行”

    这是最常见也最隐蔽的问题。团队前期花大量时间做厚需求、长流程、全量确认,等进入开发阶段再切 Sprint,表面看是“瀑布加敏捷”,实际上只是把反馈延迟包装成了迭代。PMI 关于 hybrid life cycles 的讨论也明确提醒:如果仍然在前期详细收集需求,而用户验收又集中到生命周期末端,那么反馈延迟依旧存在,项目很难真正获得敏捷带来的学习优势。问题不在于有没有 Sprint,而在于用户反馈是不是足够早进入决策。

    误区二:学了敏捷动作,却没有改决策机制

    很多组织会引入站会、回顾会、燃尽图、待办列表,看上去“非常敏捷”;但预算还是一年一次锁死,优先级调整仍需层层请示,跨部门资源冲突没人拍板,范围变化也缺乏清晰规则。结果是,团队动作越来越多,决策效率却没有提升。真正拖慢项目的,往往不是团队不会迭代,而是组织没有把决策权限、边界条件和升级路径重新设计。敏捷从来不是一组动作,而是一套让反馈更快进入管理的机制。

    误区三:把 PMO 继续当成“模板警察”

    如果 PMO 的主要工作仍是收集周报、检查模板、催促审批,那么混合式最终很可能只是在旧治理体系外面套一层新术语。真正有价值的 PMO,不是把项目管得更僵,而是把组织约束翻译成团队可执行的边界,把团队现场的变化翻译成管理层可决策的信息。换句话说,PMO 的成熟,不在于文档数量,而在于它是否帮助组织把“控制”从形式控制升级为决策控制。工具在这件事上当然重要,但前提始终是:工具必须服务于治理设计,而不是替代治理设计。

    五、给中高层与 PMO 的一个判断标准

    一个数字化项目是否适合混合式,我建议至少问三个问题。

    第一,这个项目是否同时存在“必须确定”的部分和“必须探索”的部分。只要两者并存,纯敏捷或纯瀑布通常都不是最优解。
    第二,组织是否愿意把治理层和交付层分开设计,而不是用一把尺子统一考核所有工作。
    第三,管理层是否能接受这样的管理现实:不是所有问题都应在启动阶段回答清楚,但所有重大承诺都必须有清晰边界、证据和责任人。

    PMI 对此的核心判断很直接:真正有效的方法,不在于纯度,而在于是否能为项目环境增加价值。

    如果这三个问题里,有两个以上答案是“是”,那这个项目大概率就不该再争论“到底选敏捷还是瀑布”,而应该开始设计你的混合式治理框架。到了这一步,工具的选择也应围绕这个逻辑展开:治理层是否能看全局节奏与资源,交付层是否能管理迭代与反馈,知识层是否能沉淀决策与经验。从 ONES 官方公开的信息看,ProjectPlanWiki 这三类能力组合,确实比较符合这种“上层看治理、下层看执行、过程留知识”的落地要求;但是否真正发挥价值,仍取决于企业有没有先把治理边界和协作机制设计清楚。

    结尾

    数字化项目的复杂,不在于技术比过去更多,而在于管理对象本身已经发生了变化:它既要求组织像工程一样守住边界,又要求团队像产品一样持续学习。正因如此,混合式方法的价值从来不在于“折中”,而在于“分层”:用瀑布式治理守住目标、责任、预算与关键节点,用敏捷式交付缩短反馈链路、提高需求质量、加快价值验证。

    对中高层和 PMO 来说,这不是方法选择题,而是治理能力题。谁能把稳定性和适应性同时设计进项目机制,谁就更有可能在不确定环境中把数字化项目真正做成。若再配合像 ONES 这样同时支持敏捷协作、瀑布计划与跨层级信息联动的工具底座,混合式方法就更容易从理念变成组织可执行的管理实践。

    传入一张截图,生成 exe 程序,都能最终生成截图的效果

    cluade 一次成功,codex 有一个小错误,提出问题后自动修正了。

    但是 codex5.4 速度要慢很多,不知道是不是我的中转站不行

    而且 claude 会问我要不要这么干,体验较好


    ps 没钱人,都是用的中转站测试的


    另外,请问一个问题
    vscode claude 插件,按 alt+k ,可以指定当前文件或者当前选中内容,让 cluade 解释含义

    vscode codex 插件,没有这个功能?

    出发点是需要一个小桌面搁物架。网上一直没找到合适的。于是动了 DIY 的念头。

    发现一个叫 OpenSCAD 的软件,于是学习了教程,自己做了一个。
    模型壁厚为 2 毫米,长宽高大致为 20 厘米、10 厘米、10 厘米。设计时,考虑到了材料节省。

    嘉立创和 PDD 商家,报价为每个 50 元左右。如果是透明材料,价格还得涨几倍。
    根据设计,这个小模型是可组合的、透明的。一个是一层。计划是先打印两个,OK 的话再打印更多。
    按照报价,得到一个完整的搁物架( 4 层),用透明材料,总价格可以买一台全新打印机……

    之前也动过买打印机的念头。
    但是手上不宽裕,打印需求很少,也不知道怎么解决毒气问题

    还请有经验的朋友指教!
    也可以附带帮忙检查下模型。感谢!

    订阅了一年,现在已经用了三个月了, 发现越来越不智能了,完全对不起这个价格。
    不是说完全退, 可以按照每月 20 刀扣钱,剩下的退掉

    本文由云软件体验技术团队胡靖原创。

    在 AI 应用蓬勃发展的今天,企业对智能对话、AI 助手等产品的需求日益旺盛。为了帮助开发者快速构建高质量、体验一致的 AI 应用,越来越多的 AI 组件库开始涌现。TinyRobot 作为 OpenTiny 生态的一员,遵循 OpenTiny Design 设计体系,提供丰富的 AI 交互组件和工具,让开发者只需几步即可轻松构建企业级 AI 产品,降低开发难度和成本,提高开发效率和灵活性。

    TinyRobot 是什么

    面向企业 AI 应用的 Vue 3 交互组件与对话框架。

    TinyRobot 是一套专为 AI 应用构建的前端交互框架,帮助团队快速搭建企业级 AI 助手、智能客服与多轮对话系统。基于 OpenTiny 设计体系,TinyRobot 提供从对话 UI、流式渲染到会话管理的完整能力,使开发者无需自研复杂交互逻辑,即可构建体验一致、可扩展的 AI 产品。从原型到可运行 AI 应用,仅需数小时。

    为什么需要 TinyRobot

    构建 AI 对话类产品通常涉及以下工程挑战:

    • 流式响应渲染与中断控制
    • 多轮会话状态管理
    • 工具调用结果展示
    • Markdown / 多模态内容渲染
    • 输入增强(联想、附件、模板)
    • UI 与模型交互逻辑耦合严重

    借助 TinyRobot 的标准化组件与组合式 API,开发者不再需要从零实现复杂的 AI 交互系统,只需按需组装组件,就能快速完成高质量 AI 对话产品开发。

    核心能力

    1. 原生 AI 交互组件体系

    内置面向对话场景设计的 UI 组件:

    • Bubble:支持流式文本、Markdown、代码块、工具调用展示
    • Sender:支持多行输入、模板、@提及、附件上传
    • Container:会话容器与布局系统
    • History:会话历史管理
    • Attachments:文件与多模态输入展示
    • ThemeProvider:主题与外观系统

    组件采用可组合架构,支持按需引入与 Tree Shaking。

    2. 模型无关的响应处理机制

    通过 useMessage 与 responseProvider 抽象 AI 响应协议:

    • 原生支持流式响应
    • 支持工具调用(Function Calling)
    • 提供插件扩展机制
    • 内置请求状态管理与中断控制

    开发者仅需实现模型请求逻辑,即可完成完整对话链路。

    3. 可扩展插件与工具调用体系

    TinyRobot 提供标准化工具调用展示机制:

    • 自动解析 tool_calls
    • 支持自定义插件扩展
    • 支持外部系统集成

    该机制使 AI 应用具备可扩展能力,而非仅限文本对话。

    4. 主题系统与品牌定制

    基于 CSS 变量的主题架构:

    • 亮色 / 暗色模式切换
    • 主题嵌套支持
    • 持久化存储
    • 品牌级 UI 定制能力

    可快速构建符合企业视觉规范的 AI 产品界面。

    5. 会话存储与状态持久化

    支持多种存储策略:

    • LocalStorage
    • IndexedDB
    • 自定义存储实现

    适用于长对话、用户偏好与多会话管理场景。

    快速上手

    安装

    # tiny-robot 套件
    pnpm add @opentiny/tiny-robot @opentiny/tiny-robot-kit @opentiny/tiny-robot-svgs
    # markdown 渲染器依赖
    pnpm add markdown-it dompurify

    入口引入样式:

    import '@opentiny/tiny-robot/dist/style.css'

    1. UI 层(组件示例)

    开箱即用,只需简单配置,就能渲染完整 AI 聊天界面,并自动处理消息滚动、气泡显示和输入状态。
    <template>
      <div class="chat-demo">
        <!-- 在 BubbleList 上配置其他渲染器,需要使用 BubbleProvider 包裹 -->
        <tr-bubble-provider :fallback-content-renderer="BubbleRenderers.Markdown">
          <tr-bubble-list class="chat-list" :messages="messages" :role-configs="roles" auto-scroll />
        </tr-bubble-provider>
        <tr-sender
          v-model="inputMessage"
          :placeholder="isProcessing ? '正在思考中...' : '请输入问题'"
          :loading="isProcessing"
          :clearable="true"
          @submit="handleSubmit"
          @cancel="abortRequest"
        />
      </div>
    </template>
    
    <script setup lang="ts">
    import { BubbleRenderers, TrBubbleList, TrBubbleProvider, TrSender, type BubbleRoleConfig } from "@opentiny/tiny-robot";
    import { IconAi, IconUser } from "@opentiny/tiny-robot-svgs";
    import { h, ref } from "vue";
    import { useChat } from "./useChat";
    
    const { messages, isProcessing, sendMessage, abortRequest } = useChat();
    const inputMessage = ref("");
    
    function handleSubmit(content: string) {
      if (!content || isProcessing.value) return;
      sendMessage(content);
      inputMessage.value = "";
    }
    
    // 简洁角色配置:左右排列 + 头像
    const roles: Record<string, BubbleRoleConfig> = {
      assistant: { placement: "start", avatar: h(IconAi, { style: { fontSize: "32px" } }) },
      user: { placement: "end", avatar: h(IconUser, { style: { fontSize: "32px" } }) },
    };
    </script>
    
    <style scoped>
    .chat-demo {
      max-width: 640px;
      width: 100%;
      margin: 0 auto;
      padding: 16px;
      display: flex;
      flex-direction: column;
      gap: 16px;
    }
    .chat-list {
      height: 400px;
    }
    
    /* 使用 data-type 选择器可以匹配不同类型的渲染器 */
    :deep([data-type="markdown"]) p {
      margin: 0;
    }
    </style>

    2. 消息数据处理(Kit 示例)

    Kit 自动管理消息状态、请求中状态和中止操作,无需手动处理复杂逻辑。
    import { useMessage, sseStreamToGenerator } from '@opentiny/tiny-robot-kit'
    
    export function useChat() {
      return useMessage({
        initialMessages: [{ role: 'assistant', content: '你好!我是 TinyRobot 示例助手。' }],
        responseProvider: async (requestBody, abortSignal) => {
          // 替换为你的大模型 API 地址
          const url = import.meta.env.VITE_API_URL
    
          if (!url) {
            throw new Error('api url is not set')
          }
    
          // 替换为你的大模型 API 密钥
          const apiKey = import.meta.env.VITE_API_KEY
    
          if (!apiKey) {
            throw new Error('api key is not set')
          }
    
          const res = await fetch(url, {
            method: 'POST',
            headers: {
              'Content-Type': 'application/json',
    
              Authorization: `Bearer ${apiKey}`,
            },
            body: JSON.stringify({
              model: 'deepseek-chat',
              ...requestBody,
              stream: true,
            }),
            signal: abortSignal,
          })
          return sseStreamToGenerator(res, { signal: abortSignal })
        },
        plugins: [
          {
            onError: ({ currentTurn, error }) => {
              currentTurn[currentTurn.length - 1]!.content = String(error)
            },
          },
        ],
      })
    }

    3. 示例效果

    完成上述步骤后,你即可获得一个完整的 AI 聊天界面,支持:

    • 流式回复,实时展示助手回答,Markdown渲染
    • 自动滚动,始终显示最新消息
    • 输入框状态管理,包括加载状态和中止请求

    想快速体验?执行下面步骤,在本地运行

    • 执行下方命令,一键拉取官方演示模板到本地
    npx degit opentiny/tiny-robot#chat-demo tiny-robot-chat-demo
    • 进入项目目录,编辑 .env.local 文件,填写你的 API 地址和密钥(接口返回格式兼容 ChatGPT API 即可)
    # 示例(以 DeepSeek 为例,可替换为 OpenAI/其他兼容接口)
    VITE_API_URL=https://api.deepseek.com/chat/completions
    VITE_API_KEY=sk-xxxx
    •  安装依赖后运行,成功后将自动打开浏览器,即刻体验
    # 进入项目目录
    cd tiny-robot-chat-demo
    # 安装依赖
    pnpm i
    # 启动项目并自动打开浏览器
    pnpm dev --open

    更多 API 细节与组件用法,请参考 TinyRobot 官方文档

    未来展望与共建邀请

    TinyRobot 将持续优化 AI 组件与交互能力,重点提升多轮对话、流式消息显示、会话管理和主题定制的支持,同时扩展更多适用于 AI 应用的组件,让开发者能够更高效地构建智能界面。

    我们欢迎开发者加入共建,一起推动 TinyRobot 的发展:

    本文来自TenCent BlueKing社区用户: CanWay

    直达原文:DevOps效率革命:一键复用!流水线模板重构研发生产力

    01.背景

    随着数字化转型,企业研发团队的效率面临前所未有的挑战:

    • 分支爆炸:多版本并行开发导致流水线数量呈指数级增长;
    • 重复劳动:每次核心配置变更需逐一流水线手动调整,耗时易错;
    • 协同断层:开发 / 测试 / 运维团队因配置差异引发的协作阻塞频发。

    据Gartner调研显示,45%的研发团队因流水线管理低效浪费超20%开发时间。嘉为蓝鲸DevOps持续集成流水线模版体系,帮助企业提升流水线管理的效率,减少浪费。

    02.解决方案

    1)流水线模版:一键克隆标准化能力

    通过"另存为模板"功能,将成熟流水线的构建环境、测试策略、部署逻辑封装为模板资产。新需求到来时,只需在新建流水线界面选择对应模板,即可生成可执行实例。
    在这里插入图片描述

    2)模版版本管理:让变更可控可追溯

    • 支持为模板创建多个历史版本(如V1.0基础版V2.0增强版),每次核心变更自动生成版本记录,用于保存不同时期的流水线模板版本,方便快速回档、存档。
    • 支持加载旧版本,清晰展示不同版本间的配置变更(如新增单元测试任务、调整代码扫描规则),让团队对模板演进一目了然。

    在这里插入图片描述

    3)流水线批量实例化 :提升效率,减少浪费

    (1)实例化矩阵管理
    支持单次创建100+流水线实例,自动继承模版的核心配置。当某个项目需要扩展多地区部署时,通过模版实例化流水线,同时生成100+不同地区的构建流水线,效率提升90%。
    在这里插入图片描述

    (2)一键批量更新
    当模板核心配置升级(如安全扫描策略增强),只需在模板层完成修改,即可通过 "实例管理" 界面批量选中目标流水线,触发自动化更新。
    在这里插入图片描述

    (3)差异化更新
    如果只想更新部分流水线,点击差异对比,查看实例流水线和模版的差异,比如模版新增安全扫描策略插件,部分团队暂时不增加安全扫描策略,则可以不更新这些团队的流水线,仍使用旧版本的流水线,当满足条件后仍然可以更新到最新版本流水线。
    在这里插入图片描述

    4)流水线约束模版:构建组织级统一标准
    在企业研发场景中,某些情况下标准化与安全性往往比灵活性更重要。通过流水线约束模版可以组织级统一控制,通过强制合规引擎与统一配置通道,将散落的团队实践收敛为可复用的标准化能力,彻底终结 "各团队自建炉灶、规范执行参差不齐" 的管理乱象。
    在这里插入图片描述

    5)模版共享:打造企业研发生态
    将某团队优质流水线模版分享至研发商店,成为全组织可复用的核心资产,实现 "一个团队的最佳实践,滋养整个组织的研发效能"。
    在这里插入图片描述
    在这里插入图片描述

    03.使用收益

    1)提升效率,减少重复劳动

    通过流水线模板一键克隆和批量实例化功能,大幅减少手动配置时间,避免重复劳动,效率提升高达90%。

    2)标准化与灵活性兼得

    流水线模板支持全生命周期版本管理,既保证了企业级标准化,又允许团队根据需求灵活调整,实现“统一标准,差异执行”。

    3)变更可控,降低风险

    模板版本管理和差异对比功能确保每次变更可追溯、可回滚,减少配置错误风险,同时支持差异化更新,满足不同团队的需求。

    4)强化合规与统一管理

    通过约束模板,确保所有团队遵循统一的研发标准和安全策略,终结“各自为政”的管理乱象。

    5)促进知识共享与生态建设

    优质模板可共享至企业研发生态,实现跨团队最佳实践复用,推动整体研发效能的持续提升。

    1. 先说结论

    我先把话撂在这:AI 编程不是 35 岁程序员的催命符,反而是他们的第二春。

    尤其是那些真正做过几年后端、踩过生产事故、带过复杂系统的老鸟,市场价值正在被重新定价。

    这跟年龄溢价无关,而是 AI 把"会写代码"和"能把系统做成"这两件事,彻底拆开了。

    1. 很多人把 AI 编程看浅了

    以前大家觉得,年轻人手速快、加班猛、学新框架快,35 岁以后就越来越卷不动。这个逻辑在纯手撸代码时代还成立,因为公司买的是产能,谁写得快、谁便宜,谁就有优势。

    但 AI 编程把这套规则打碎了。

    现在最不值钱的,恰恰是"把需求翻译成几百行代码"这事儿。因为这一步 AI 已经能做得有模有样了。你甩给它一个页面,它能写;你扔给它一个接口,它也能拼;你让它照着模板加个功能,它甚至比很多初中级程序员更快。

    所以很多人顺势得出一个结论:程序员凉了,尤其是老程序员更危险

    我完全不同意。

    1. 为什么我这么说

    如果把我的判断压缩成一条逻辑链,大概是这样:

    AI 能快速生成代码 → 低门槛编码能力贬值 → 高门槛系统能力稀缺 → 有经验的程序员价值重估

    1. AI 让"人人都会写点代码",但真正稀缺的能力暴露了

    一个小项目,AI 确实能兜底。页面不多、表不复杂、链路不长、调用关系简单,普通人靠 AI 也能拼出个像样的东西。

    但项目一旦变大,问题就不是"代码能不能写出来",而是"这个系统还能不能活得下去"。

    模块怎么拆分?边界怎么定义?什么时候该抽象、什么时候别瞎抽象?接口应该面向业务语义,还是直接怼数据库?扩展性怎么预留?高可用怎么做?监控、回滚、灰度、幂等、限流怎么串起来?

    这些问题,根本不是提示词写得好就能解决的。

    AI 最擅长的是局部补全,最不擅长的是在复杂约束下长期保持一致性

    系统一旦超过某个临界点,它就开始一本正经地胡说八道:这里帮你封一层,那里给你抽个基类,看起来挺优雅,实际上依赖更乱;今天按这套规范写,明天又换一套;这次修了 A,下次又把 B 和 C 搞崩。

    最可怕的是,没经验的人根本看不出它在胡说八道。

    因为他们没真正经历过复杂系统失控的过程,不知道什么叫抽象污染,不懂什么叫技术债,也不理解一个看似漂亮的模式,为什么会在半年后把整个团队拖死。

    1. 为什么后端老鸟反而吃香

    而那些做过多年后端的程序员,尤其是干过企业级系统、交易系统、高并发后台的人,在这个阶段反而占便宜。

    原因很简单,这批人不是只会写几个接口,他们是真见过体量的。

    他们见过数据库扛不住的夜晚,见过消息队列积压的恐慌,见过缓存击穿、服务雪崩、发布回滚、表结构演进、历史包袱、跨团队扯皮,也见过一个系统是怎么从"还能改"一步步变成"谁都不敢动"的。

    他们未必写得最快,但他们知道什么不能乱写

    他们对单一职责、开闭原则、里氏替换这些原则不是背概念,而是知道什么时候该用、什么时候别乱用;他们对设计模式也不是为了面试背八股文,而是知道哪些模式能救命,哪些只是看起来高级;他们对高可用、扩展性、分层、解耦这些词,也不是 PPT 里的黑话,而是知道这些东西一旦前面没想清楚,后面会以什么方式报复你。

    1. 未来最值钱的,不是手速最快的人

    这种经验,在过去只是"有用";在 AI 编程时代,它会变成"稀缺"。

    因为未来真正高产的人,不是自己一行一行写代码写得最快的人,而是能给 AI 建立秩序的人。

    他知道怎么拆任务、怎么定义边界、怎么约束代码风格、怎么设计目录结构、怎么写真正有用的规范、怎么给 AI 提供稳定的上下文、怎么用测试和评审把系统拉回正确轨道。

    说白了,以后比拼的不是"你会不会写代码",而是"你能不能带着一群不稳定的 AI 实习生,把一个复杂系统做下去"。

    1. 真正危险的,不是 35 岁

    这件事,太吃基本功了。

    而这种基本功,不是看几篇文章、刷几套提示词、玩几个月 AI IDE 就能长出来的。它必须来自真实的工程环境,来自线上事故,来自多人协作,来自改过烂系统、背过锅、做过取舍、理解过成本。

    这也是我越来越觉得,35 岁以上程序员的经验会被重新定价的原因。

    因为新一代开发者当然也很聪明,工具也更强,但他们越来越少有机会在纯手撸代码时代,完整经历一个系统从小到大、从简单到复杂、从清爽到失控、再从失控到治理的全过程。

    可偏偏这种全过程的经验,正是未来 AI 大规模参与软件开发之后最值钱的东西。

    1. 给还在焦虑的朋友一点建议

    最近有不少朋友问我,有没有相对稳定、待遇还不错的技术大厂可以推荐。说实话,这种机会确实存在,尤其是那些需要"能带 AI 把复杂系统做下去"的人的团队。

    最近有个机会挺适合有经验的程序员:技术大厂,前端-后端-测试,全国均有机会 ,感兴趣可以试一试;待遇和稳定性都还可以~ 这类岗位通常更看重你的系统能力,而不是手速。

    当然,这不是年龄送的福利,也不是行业施舍。它只属于那些在"古法编程时代"真正打过硬仗的人。

    如果未来软件开发真的进入"人负责方向和秩序,AI 负责执行和铺量"的阶段,那么最值钱的人,恰恰不是最新学会几个 AI 工具的人,而是那些知道系统为什么会失控、也知道怎么把它重新拉回秩序的人。

    而这样的人,今天大概率不在 22 岁,也不在 25 岁,大概率就在 35 岁以上。

    1. 最后一句话

    我甚至愿意把话说得更狠一点:

    AI 不是来淘汰老程序员的。

    AI 是来淘汰低水平、低判断力、低抽象能力的重复编码工作的。

    而那些真正有工程经验的人,尤其是 35 岁往上、做过后端企业级开发的一批人,春天可能才刚刚开始。

    欢迎反驳。

    但我建议先分清一件事:

    "让 AI 写几个功能"和"让 AI 参与构建并长期维护一个复杂系统",根本不是一回事。

    引言
    系统上了一堆,流程还是跑不通——这是许多企业数字化转型的真实困境。问题往往不在系统本身,而在于数字化建设的起点就偏离了方向。本案例记录了AMT企源为某装备制造领域头部企业国际化平台开展数字化转型规划的实践。面对“走出去”战略下不断扩大的业务版图与能力缺口,AMT企源协助该企业以业务架构为底座,通过能力地图识别关键缺口,围绕五大核心能力重构数字化建设路线图。

    客户背景:承载国家战略的国际化业务平台

    X公司是国内装备制造领域头部集团旗下核心国际化业务平台。该集团在能源装备领域深耕数十年,是我国能源装备“走出去”的重要国家队成员。

    作为集团国际化战略的核心执行平台,X公司以EPC(工程总承包)交钥匙模式承接海外能源工程项目,业务覆盖欧洲、北美、亚洲、中东等多个重点市场,整合了装备销售与工程交付的全链条能力。

    随着“一带一路”倡议持续推进以及全球清洁能源需求快速增长,X公司迎来了前所未有的发展机遇,同时也对其组织能力、运营体系和数字化能力提出了更高要求。

    核心挑战:机遇背后的三重结构性矛盾

    在项目启动阶段,AMT企源项目组与客户管理层及核心业务部门进行了系统访谈与诊断。深入分析后,项目组发现公司面临的是三重结构性矛盾——这也是当前许多企业国际化进程中的共同痛点。

    矛盾一:集团管控与业务灵活性之间的张力
    集团层面持续推进信息化集约化建设,但统一平台往往难以满足国际业务高度个性化、动态化的实际需求。集团“统不起来”,子公司“用不上”,两者之间存在显著的结构性落差。

    矛盾二:海外扩张规模与能力建设滞后之间的断层
    业务版图快速扩张至全球多个市场,但与之配套的市场开发机制、项目交付体系、供应链整合能力和海外合规管理体系,仍停留在相对传统的管理模式上,难以支撑规模化、高质量的国际运营。

    矛盾三:数字化投入期望与价值实现路径之间的认知落差
    企业希望快速看到数字化投入的回报,但数字化转型的价值往往体现在战略能力的长期积累,而非短期可量化的ROI。这种认知落差,是推进数字化转型时最容易遭遇的内部阻力来源。

    关键决策:从公司自身业务出发,以能力建设为立足点

    在项目启动之前,有一个绕不开的现实背景。客户所在集团长期致力于推进信息化集约化建设——人财物、合同管理,由集团统一规划、统一部署。但统一平台与各业务单位差异化的运营需求之间,始终存在难以弥合的落差。也就是说已有的系统建设路径,没有真正跟上业务发展的需要。这一判断,推动客户做出了一个关键决策:公司自身的数字化建设,必须从自身的业务规律出发。

    由此,本次规划确立了清晰的逻辑起点。数字化规划有两个核心驱动力:一是集团整体数字化战略的方向要求;二是公司战略对数字化能力支撑的具体需要。在这两者之外,行业趋势与技术发展的整体背景,构成了规划必须回应的时代命题。

    三重视角叠加,规划的落脚点随之明确:以能力建设为核心视角。 数字化转型本质上是一件改变竞争格局的战略性工作。从核心业务需要什么能力出发,经由流程架构梳理,再落到具体实施路径——这是本次规划贯穿始终的方法论主线。

    方法路径:战略—能力—数字化三层规划

    围绕这一原则,项目采用了“战略—能力—数字化”三层规划方法。

    第一步:战略解读。 从集团国际化战略与业务发展目标出发,明确企业未来发展的关键业务模式与运营重点。

    第二步:业务架构与能力地图设计。 通过价值链分析与业务能力地图梳理,识别企业国际化运营所需的关键能力模块,明确能力之间的逻辑关系与优先级。

    第三步:数字化规划。 围绕关键能力模块,规划相应的流程体系、数据能力和信息系统建设路径,形成分阶段推进的数字化建设路线图。

    五大核心能力规划

    基于业务架构分析,AMT企源和客户共同识别出支撑X公司国际化战略的五大核心能力,并为每项能力设计了对应的数字化支撑路径。

    1. 市场开发与销售管理(MTL)
      谁来开拓下一个市场?在传统装备制造企业中,这个问题往往没有清晰的答案。市场开发(MTL,Marketinto Lead)长期处于从属地位,业务重心集中在订单交付环节。但在国际化竞争日趋激烈的背景下,MTL正从边缘职能跃升为核心战略能力。
      AMT企源协助客户构建MTL能力体系,将新市场拓展、客户关系管理、商机培育与合同转化纳入统一管理框架,实现从市场机会识别、商机跟踪到合同签署的全过程数字化管理,确保市场开发活动与后续项目履约环节形成有效衔接,避免“前端开发、后端断档”的常见失效模式。
    2. 精细化项目管理
      一个在多国同步推进的EPC项目,通常涉及几十个分包商、上百份合同、跨越三四个时区,协调复杂度极高。
      X公司当前面临的核心问题,是项目管控层与业务交付层之间存在明显断档:管控系统有数据,但与实际交付过程脱节;业务团队有经验,但缺乏系统化的管理工具支撑。为此,AMT企源与X公司管理层共同规划了集成交付管理能力,旨在打通项目战略管控、过程监控与业务交付三个层次,建立覆盖项目立项、计划编制、执行监控到竣工移交的全生命周期数字化管理体系。
    3. 全球全链条供应链管理
      去年年中,客户的供应链管理部门发生了一个显著转变:开始主动提出“全产业链价值挖掘”,而此前,他们的工作重心几乎只集中在采购环节。这个转变不是偶然的——它是业务版图快速向全球扩张之后,组织对自身短板形成清醒认知的结果。
      新的供应链规划将视野从单一采购延伸至全产业链协同,涵盖从客户端到供应商端的端到端流程整合,以及欧洲、北美、亚洲、中东等重点市场的本地化供应网络建设。这一转变的本质,是从“交易管理”转向“生态整合”。
    4. 海外风险与合规管理
      随着国资委持续强化对央企海外资产保值增值的监管要求,海外风险与合规管理能力已从经营层面的操作议题,上升为战略层面的治理议题。
      X公司在海外项目中面临的风险维度,涵盖财税合规、法律法规差异、政治环境变化、经营风险分析等多个层面。AMT企源项目组与客户一起构建了覆盖风险识别、评估、持续监控与应对机制的数字化管理框架,并将合规管理嵌入项目全生命周期——而不是作为独立的事后审查环节。
    5. 知识管理与AI应用
      X公司在长期EPC项目运作中积累了海量工程文档与经验资料,但这些知识资产分散存储、难以复用,既无法支撑新项目的经验借鉴,也难以支持组织学习与能力传承。
      在推进过程中,项目组遇到了典型的跨部门协同难题——技术部门倾向于将知识管理定位为技术知识工程,而全公司层面的知识治理需要管理层、IT部门、办公室等多方主体的协同参与。AMT企源通过系统性的多方协商,协助客户形成了“知识内容—技术平台—治理机制”三位一体的分工共识,并完成了现有知识资产的系统化梳理与生命周期重构,为后续AI应用奠定了数据基础。

    规划成果

    本次规划的核心交付,是帮助X公司建立了一套清晰的能力建设逻辑:以国际化战略为引领,以业务架构为基础,以五大核心能力为抓手,以数字化支撑转型升级。

    项目为客户形成了未来三年数字化建设总体路线图,明确了能力建设的优先级与实施阶段,相关成果已纳入客户整体数字化专项规划,成为国际业务平台数字化建设的重要参考框架。

    行业启示

    对于正在推进国际化或大型工程项目业务的制造业企业,本案例提供了几个值得参考的经验:

    回归能力建设视角。数字化转型的本质是战略能力重构,ROI导向的短期视角往往会遮蔽真正的转型价值。

    业务架构先于系统建设。流程不清、架构不明时上系统,是大多数数字化项目难以成功的根本原因。

    知识资产是被低估的战略资源。项目型企业长期积累的工程文档与经验,是极具价值的可复用知识资产,值得系统性投入建设。

    数字化时代的竞争,本质上是组织能力的竞争。我们的判断是:未来三到五年,能力建设做扎实的企业与单纯依赖系统堆砌的企业之间,差距会比今天大得多。

    如果您的企业正处在数字化转型的关键抉择期,欢迎与我们探讨——我们更感兴趣的,是帮您想清楚方向,而不只是交付一份规划报告。

    在数据驱动的时代,Excel作为数据处理的基础工具,承载了无数职场人的汗水与智慧。但随着数据量的爆炸式增长和业务复杂度的提升,Excel的局限性日益凸显:公式错误频发、跨表协作混乱、自动化程度低、分析维度单一…… 这些痛点是否让你在深夜加班时抓狂?今天,我们聊聊如何用AI技术重构数据处理流程,让效率飙升10倍!

    一、Excel的“老毛病”,你中了几条?
    公式地狱:嵌套10层的IF函数,改一个参数全表崩溃?
    重复劳动:每天手动整理数据、生成报表,像“人肉ETL工具”?
    协作灾难:多人编辑冲突、版本混乱,最后只能靠“喊话”同步?
    分析无力:面对海量数据,只能盯着表格发呆,无法快速洞察规律?
    安全漏洞:数据存储在本地,泄露风险高,权限管理形同虚设?

    二、AI如何“治愈”这些痛点?

    1. 智能公式生成:让AI写代码,你只负责“说人话”
      自然语言交互:直接输入“计算各地区销售额占比”,AI自动生成公式或Python脚本。
      错误自动修复:AI实时检测公式逻辑,提示潜在风险(如除零、循环引用)。
      案例:某电商运营用AI工具,将原本2小时的报表制作时间缩短至5分钟。
    2. 自动化数据管道:告别“Ctrl+C/V”的机械时代
      智能清洗:AI自动识别异常值、缺失值,并提供修复建议(如用中位数填充)。
      跨源整合:一键连接数据库、API或PDF/图片中的数据,自动去重、合并。
      定时任务:设置数据更新频率,AI自动执行清洗、计算并推送结果。
    3. 协作与安全:从“孤岛”到“云原生”
      实时协同:多人同时编辑,AI自动合并更改并标记冲突(类似Google Docs)。
      权限控制:基于角色的访问管理(RBAC),敏感数据脱敏显示。
      审计追踪:完整记录操作日志,谁改了什么、何时改的,一目了然。
    4. 增强分析:从“看表格”到“懂业务”
      智能洞察:AI自动生成数据摘要(如“华东区Q3销售额环比增长20%,主要受新品推动”)。
      预测建模:内置机器学习算法,无需编程即可完成趋势预测、分类聚类。
      可视化推荐:根据数据特征自动推荐最佳图表类型(如时间序列用折线图,占比用饼图)。

    三、实战案例:AI表格工具如何改变工作流?
    场景:某金融分析师需要处理10万行交易数据,并生成周报。
    传统方式:Excel导入数据 → 手动清洗 → VLOOKUP关联 → 透视表分析 → 手动写结论 → 邮件分发。
    AI方式:上传数据 → AI自动清洗并关联 → 输入“分析本周交易热点” → 生成可视化报告 + 自然语言结论 → 一键分享至团队。
    结果:耗时从8小时降至1小时,准确率提升90%。

    四、未来已来:AI表格的终极形态
    低代码/无代码:业务人员无需懂编程,通过拖拽和对话完成复杂分析。
    与大模型融合:直接调用GPT-4等模型,解释数据背后的业务原因(如“为什么客户流失率上升?”)。
    嵌入业务系统:与CRM、ERP无缝对接,成为企业数据中台的“前端入口”。

    五、行动建议:如何开启AI表格之旅?
    评估需求:明确团队在数据处理中的核心痛点(如协作、自动化、分析深度)。
    选择工具:
    轻量级:Ajelix(AI公式生成)、SheetGod(自然语言转Excel命令)。
    企业级:Airtable(智能数据库)、Sigma Computing(云原生分析)。
    开源方案:Apache Superset(可视化) + Pandas AI(自动化处理)。
    逐步迁移:从重复性任务(如日报生成)切入,再扩展到复杂分析。

    结语:AI不是要取代Excel,而是要解放人类从“数据搬运工”升级为“决策艺术家”。当公式自动生成、报表自己跑、洞察主动跳出来时,你终于可以把时间花在真正有价值的事情上——比如思考如何用数据改变业务。

    正点原子Linux系列AM62L 开发板

    当边缘智能与工业级可靠性完美碰撞,当丰富接口融合进低功耗处理器,新一代高效可靠的Linux板卡就此登场!正点原子重磅推出AM62L开发板,基于德州仪器(TI)最新一代SoC AM62L倾力打造,为工业智能终端、物联网网关和人机交互设备注入全新动能,开启低功耗、高集成、全方位工业场景的无限潜力!

    一、工业芯驱动,丰富的工业协议支持

    开发板搭载双核ARM Cortex-A53核心,主频1.25GHz,兼顾性能与功耗。双千兆网口、FD CAN、RS-485、ADC、MIPI/RGB显示接口等工业外设一应俱全。AM62L依托TI成熟稳定的生态体系与超长生命周期保障,正点原子AM62L核心板助力开发者以更低的成本、更短的周期,构建坚实、智能的工业级解决方案!

    二、精巧架构设计,全接口生态覆盖

    采用核心板和底板分离式模块化设计,核心板尺寸仅45mm x 43mm的精巧尺寸,搭配180mm x 140mm标准化底板,通过高稳定性BTB连接器实现稳定互联。核心板非常方便嵌入各类产品中,助力边缘智能落地。

    底板接口生态全面拉满,集成串口、多规格USB接口、Wi-Fi/蓝牙双模无线通信、高清音频、千兆以太网等基础接口,更拓展MIPI DSI显示输出、4G-5G广域通信、CAN FD/RS485工业总线、RTC实时时钟等全场景接口,轻松对接各类外设,加速产品原型开发。

    三、工业级严苛认证加持

    核心板已通过多项严苛工业级认证,经过高低温测试、电磁兼容性测试、CE/FCC认证等。

    正点原子AM62L开发板,邀您共同开启智能开发新征程!





















    打开 QQ 或微信,把需要记录的丢给 Ai 机器人帮我记录,然后我需要时,直接问 Ai 机器人拿到之前记录的结果。

    我的要求是数据不能丢了。要永久保存下来。这种有什么方案能整?

    先坦白:我报名了墨天轮3月底的openGauss OGCE高级认证培训。就是那个刚推出、还没人考过的首期班。

    朋友听说后问我:“你疯啦?第一期就去,不怕当小白鼠?”

    我的回答是:正是因为第一期,我才更想去。

    为什么愿意当第一批?

    在国产数据库这个圈子里,有一个隐藏的逻辑:越早拿证的人,往往吃到的红利越多。

    我打听过,OGCE是openGauss社区推出的高级认证,定位很明确——跳过初中级,直接对标“懂内核、能解决复杂问题”的专家级人才。这意味着什么?意味着首批通过的人,就是openGauss领域最早一批官方认证的专家

    这在职场上的价值,不用我多说吧?

    稀缺性本身就是竞争力。 等以后OGCE普及了,满街都是持证者的时候,你手里的证书只是“标配”。

    当然,我也纠结过

    说实话,看到“首期”这几个字,我也犹豫过。毕竟没人考过,心里没底——题难不难?通过率多少?课程到底能不能覆盖考点?

    但仔细研究后,我反而踏实了。

    首先,课程大纲很硬核,没讲那些虚的,直接聚焦内核原理、事务锁机制、高可用架构、复杂故障诊断——全是工作中绕不开的硬骨头。哪怕不为考证,系统学一遍也值回票价。

    其次,首期其实有“红利”。一般来说,首期培训往往最用心——讲师、课程、服务都是最高配置,毕竟要打口碑。

    划算吗?我算了一笔账

    OGCE培训+考试一起原价5000元,墨天轮现在的活动是:报名直接立减400元,考过再返300元。算下来4300元,比PG、达梦等其它很多数据库的高级认证便宜多了,但换来的是一张有“首期”背书的专家级证书。

    我把这个想法分享给项目组几个兄弟,他们听完也觉得有道理——越是稀缺的东西,越值得早点下手。 我们约好一起报名,互相监督学习,争取一起成为第一批持证的人。

    如果你也在犹豫

    我理解。第一批确实需要点勇气。但换个角度想:等所有人都觉得稳了的时候,机会窗口可能已经关上了。

    在国产数据库这波浪潮里,真正能拉开差距的,往往不是你现在会多少,而是你敢不敢在机会刚冒头的时候冲上去。

    3月底开课,名额应该有限。如果你也想了解一下这个OGCE首期班的具体内容,可以去墨天轮看看详情。或者加墨天轮教务老师(微信ID:modbedu)咨询。

    反正我报完了,接下来就赌一把——赌自己能在第一批冲过去。

    (P.S. 考过了返300块,这笔庆功酒钱,我已经提前安排上了~)

    「城市风光」是一个很广义的词,大部分时候它不仅指代某一个地点,更是我们经历过、熟悉的并留下深刻回忆的地方。它的妙不可言或许人尽皆知一目了然,亦或许是深藏心底只有自己知道的秘密。

    回忆汹涌呼之欲出,且听作者们平和、真诚且娓娓道来。我们希望通过「城市漫步指南」这个系列,带你领略每一个有趣而又非凡的城市风光。


    小时候家里在做宾馆接待运输瓜果蔬菜的挂卡时,总能看到很多「黑吉辽」开头的车牌,那时涉事未深的我只是觉得这些光着膀子叔叔们的口音很有意思,经常会模仿逗得他们捧腹大笑,这就算是我对东北的第一印象了吧。到了初中时,我遇到了第一次改变人生轨迹,来自哈尔滨的恩师夫妇,把我从一个沉迷网络游戏的不良少年「改邪归正」。现在,我终于踏上了东北真正的黑土地。

    规划

    东北三省黑吉辽我只去过辽宁,吉林和黑龙江一直没有找到合适的机会去,不光是辽阔,就算是特种兵式旅行没个七八天下不来。其次想要体验到东北最核心的「冷」也得等到冬季来临,但过了十一国庆后,下半年就只剩下个元旦假期,怎么凑都很难凑出个可以特种兵东北的假期,之前也就一直作罢。

    结束了上一次《巡边》旅行后,趁着空档就马上和小伙伴们开启了真正的东北之行,我们一行四人,预计用 10 天的时间从北京出发,过沈阳、长春、长白山,最后到达哈尔滨后回京。为了这趟旅行我们专门买了一波防寒装备,长款加厚羽绒服、加厚手套啥的都整上了,就为了迎接大寒节气下的东北,我把这次东北旅行命名为《白山黑水》。

    我们大概的行程规划是这样的。先从北京到沈阳,沈阳的主要目的是早市和泡澡,接着从沈阳去长春,长春主要是过一晚后起个大早去吉林看雾凇。随后就来到了此次行程最重要的地方——长白山,争取上长白山天池和户外温泉,感受零下二十几度的温泉泡澡。最后一站就是哈尔滨了,要去看索菲亚大教堂、逛中央大街和玩冰雪大世界,最后以侵华日军第 731 部队旧址结尾。

    沈阳

    出高铁站就感受到了凛冽的空气,在户外哈哈笑久了后牙齿是会痛的,还挺有意思。到达沈阳北站的时间是下午两点多,刚好可以卡一个工业博物馆的营业时间,这就是我们的第一站了。

    位于沈阳市铁西区的工业博物馆全称为「中国工业博物馆」,原址之上就是原本的铸造厂,上世纪 50 年代期间曾是亚洲最大专业化铸造企业。这份庞大从进入「铸造馆」展区内立马就感受到了,从未见过如此宏大的室内建筑,站在一角望去,游人就如蚂蚁般渺小。但博物馆内另外一个重要「机床馆」展区我却没有太大兴致,可能是因为小时候家里的铝合金门窗压控机器接触多了,现在再看到这些充满机油污渍的机床设备,内心有些厌恶,匆匆走过。

    随后办理好入住后,就出门去夜市了。沈阳的夜市主要是两个,分别是「彩电塔」和「西塔」夜市,这两个夜市各自有特色。彩电塔相对本地化一些,都是东北本地的特色食物,比如鸡架之流,而西塔则几乎就是朝鲜半岛美食圈了,甚至还有「朝鲜馆」官方食府,主营冷面。我们两个夜市都逛了,在彩电塔吃了醋喷鸡架和冰沙口感的蓝莓糖葫芦,这两样食物太特色了,第一次吃鸡架还是醋喷味儿的,味道不错。

    第二天我们专门去到了小河沿早市,刚到大门口下车就看到了高高挂起的「东北第一早市」招牌。虽然我对早市没有啥感觉,但敢称在东北称第一那确实应该有点东西才对。实际逛下来发现东西确实不少,如果是从头开始吃起的话,确实一家一家逛可以吃个几天不重样,并且有好几家铺子前排了老长的队伍了。我们也凑了个热闹排了个「蛋堡」,味道确实好,与之前在其他地方吃的蛋堡味道都不一样,值得一试。

    更有意思的是,往后走路过了几家卖馄炖的店铺,门前站了几个东北大娘,穿着花棉袄拿着红扇子,朝着路过的行人大声呼喊「宝贝~宝贝快来」。第一次路过时见到此景确实惊了一下,居然还能如此叫卖,但不得不说这种形式确实很抓眼,至少把我抓住了,往后逛的过程中心里一直在想着待会回头去大娘店里吃一碗馄炖。但就是这么一惦记,后来再次回到大娘店里坐着吃了馄炖后,才后知后觉味道太一般了,越是叫卖的花样多,确实品质不咋样啊。

    整个小河沿早市不短,行人众多,吃喝也多,挑得人眼花缭乱。我们除了蛋堡外还买了另外几样特色小吃,比如粘豆包这个最奇怪的食物。可能是之前对粘豆包想象过多,被「豆包」二字迷了眼,一口气买了 6 个,老板说有三种味道都可以都尝尝试试。进入嘴中才发现粘豆包既不是我们想象的软糯口感也不是香甜的味道,总之确实不好吃,后面看到酒店早餐里搭配的粘豆包也都直接忽略了。

    早市后回酒店休息一会儿就出发去辽宁省博了。在我去过的这些个博物馆里先前的排名是这样的,稳坐第一的是洛阳博物馆,其次是河北省博,第三名没有,空缺中。现在辽宁省博要和洛阳博物馆并列第一了,只差一点就可以超过,非常值得专门来一趟。我们一行四人报名了讲解服务,一人 30 元。辽宁省博的不光是藏品丰富,总共三层的展区里展馆类型更是丰富,有明清瓷器、纹样、印章等不同方向类型的展区,怪不得网上大家都说如果想好好看好好逛,怎么也得来两天。

    下午就回酒店拿行李后开开心心的去泡澡了。我们在选择哪家洗浴中心时确实遇到了不少问题,当时正值周日,虽然不是人最多的周六,但这个时代不上班的人也是不少。

    如果我们选择了常见的比如泡泡森林、沐里沐外等,那不可避免的干啥都需要排队,但吃喝玩乐上估计会丰富不少。但如果我们不想耗费时间在各种项目的排队上,那整体可能吃喝玩乐的品质会下降,甚至还考虑过私汤的选项。直到回酒店取寄存的行李了,我们还在不停的找。最后综合了我们的整体诉求,既要泡澡舒服还要能有水果饮料的自助,还能提供客房住宿一晚,选择了永利汇这家洗浴中心。

    可能是之前工作上的团建去洗浴中心太多了,一些东西已经无法刺激到了我,比如北京的九号温泉和曲水兰亭,深圳的汤崎等等,这些之前团建去的洗浴中心项目繁多,不光玩的好环境好,就连吃喝都是一等一的好。但就算如此,沈阳的永利汇泡澡池子之大还是超出了我的想象,搓澡价格也很优惠,仅需 79 元,几乎是北京搓澡的一半了。但永利汇的吃喝就比较一般,预期之内吧。还有一个意外的点是娱乐区里居然有个小舞台,老板找了几个歌手来唱歌,坐在帐篷里或者躺椅上,还是惬意的。

    在洗浴中心的客房睡了一觉后,就出发去长春了,四个人的洗浴到最后人均仅三百多,还是实惠不少,如果你之前未曾去过洗浴中心,可以在沈阳玩耍后去一趟,但没有必要专门为了洗浴来沈阳。

    长春

    也是午后到达长春,第一站我们选择了去「这有山」商场。一开始我确实没想明白为何要专门规划一段时间去一家商场,后来进去后才发现确实很有特色,商场里的店铺都「依山而建」,按照坡度一家叠着一家往上盖,游客也需要往上爬一节又一节的楼梯逛街,整体确实有意思。

    此时时间还算充裕,我们看到了这有山马路对面的长春电影博物馆还在营业时间,打算来一个计划之外的安排,先逛一圈电影博物馆。只是没想到这个电影博物馆的门票如此之贵,居然要 90 元一人,讲解费需要 170 元,但来都来了也就买了。长春电影博物馆前身是日本人和伪满州国政府出资建立的「满州映画协会」,简称为「满映」,后来随着战局更迭,为了保护宝贵的遗产,制片厂多次更换地址,最终重回长春。

    讲解员在介绍前面的黑白主旋律阶段的电影史时我感触不深,但越到后面,到了改革开放之后,自己熟悉的片子多了起来,认识的演员也多了,熟悉感也回来了。没想到长春电影制片厂参与制作过这么多部优秀有趣的电影,比如《五朵金花》《白毛女》等,甚至就连《热辣滚动》《731》都有参与其中。但不管怎么说,我还是觉得这 90 元的门票太贵了,而且讲解员的 170 元也不便宜,虽然确实能学到一些东西,但心里始终觉得这 90 元一人的门票钱花得心里不太舒服。

    隔天一大早我们凌晨 4 点起床,就为了坐从长春出发到吉林最早的一班高铁去看雾凇。早上 5 点 22 分出发,到达吉林 6 点出头,打车到小雾凇岛景区,也就是「万缕银丝」这个地方正好天亮,雾凇还未掉落。在我们到达吉林的前一天是五星雾凇,我们当天只是两星雾凇,但就算是两星雾凇也让我们震撼得不行,从未见过雾凇的我,在寒冷刺骨的松花江边好好的享受了一把。

    在万缕银丝这个地方附近其实就是松花江的岸边小公园,没有收费的地方,也没有管理人员,如果晚来加周末再加五星雾凇的话,那 7 点左右必然是堵得严严实实。小公园里有很多抱着小狐狸让游客拍照的人,虽然狐狸确实很耐寒,但我一直对这种使用动物来谋取利益的行为厌恶,包括各种动物园在内。虽然抱着小狐狸拍一次照只要 10 元,但动物嘛,必然有它的野性和天性所在,鬼知道这些人为了掩盖小狐狸的特点背后做了什么乱七八糟的事情。

    我们雾凇只看了差不多一小时,因为实在是太冷了。对日出前的河边温度没有预判,没有穿上最厚的衣服导致看雾凇的这一天早上是在东北这么多天以来最冷的一次,真的是从脚拇指冷到手指,甚至相机都冻上了一层霜,脱了手套的手碰到相机时,瞬间就冻得刺痛。

    看完雾凇后就马上坐高铁回了长春,坐在去往吉林高铁站的滴滴上时,滴滴师傅跟我们说了一些吉林的有趣的历史,并踩了一脚长春,说长春啥都是新的,不像吉林这般有历史厚重感。其实我也能理解,毕竟像我一样匆匆来到吉林只是看一眼雾凇,并没有给吉林留下更多的时间去感受它,作为一名当地人每次听到游客们都如此匆忙的来去,必然也要拯救一波自己的家乡。

    回到长春后,居然还能赶得上酒店的早餐。吃了顿热乎的早餐后回到房间休整了一会,真的是冻得人哪哪都疼,太佩服生活在东北的人了。缓过来后我和女票打车去了长春净月潭,看了网上的消息说是有蓝冰可看。所谓蓝冰就是从水库的大水池里切割出的大冰块,堆积在一片区域里,大冰块叠加着大冰块形成了一个现代化景观——蓝冰。

    但净月潭居然还是个 5A 景区,景区道路绕一圈共计 18 公里,坐在摆渡车上看到居然有大冬天在公园里跑步的跑团,不过想想也是,一圈 18 公里正好适合拉一个长距离有氧训练。除了蓝冰之外,净月潭还有好多冰上项目可玩,但我们对此都兴趣不大,在蓝冰区域拍好照后也就坐上了返程的摆渡车出景区回酒店了。

    在长春的最后一站当然就是去伪满皇宫了。我一直对清朝末期和伪满州时期的历史感兴趣,不管是因为这是距离我们最近的一个封建王朝,也是记录的历史影像和文字最多的时期,很多东西较难作假,再加上这段时间多个历史事件的交汇碰撞,不管几次进入这段历史中都觉得十分有趣。

    对伪满皇宫的初印象是《末代皇帝》这部电影,是在大学时宿舍里看的,给了当时的我不小的震撼,并对其中的一些画面记忆至今。当我进入伪满皇宫勤政殿中时,电影中的那些画面就在我的眼前重合上了,这种感觉很奇妙。看到婉容的房间,溥仪对她的不闻不问都在这一个小小的房间里具象化了。

    只是这种「兴亚式」建筑风格在伪满皇宫景区和长春的顺天大街两旁屡见不鲜,从一开始的新奇再到后面的异样感,实在是奇怪,太奇怪了。尤其是看到一些建筑老照片上的山花横放的屋檐顶,就好像从天守阁上切割下来了再拼上几根罗马柱,哪哪都觉得奇怪。

    长白山

    长白山是此次行程的重点,我们花了重金选了一家据说是原生温泉水的户外温泉酒店。到达长白山下的二道白河镇后住在了附近一片相对便宜的宜必思,没想到 400 元出头一晚的酒店已经是这二道白河镇上相对便宜的酒店了,真是难以相信。

    我们在从长春去到长白山站的高铁上联系好了第二天去雾凇漂流的行程,顺带让司机帮我们订上了下午去雪地穿越的雪地摩托。各种摩托坐了也开过不少,但唯独雪地摩托这种类型从未接触过,心情马上就开心了不少,毕竟前几天的早起已有了不少疲惫感。

    雪地穿越确实有意思,雪地摩托的构造前面是雪橇后面是轮子,油味儿很大,摩托也不是拧把的,而是通过右手的拇指按下把手的行程来加速或者减速。开到后面大拇指也快冻僵了,因为需要持续的按住摩托才能前进,大冬天的在雪林里血液不流通,很容易手疼。绕一圈包括中途的拍照休息点大概四十分钟左右,路况比较颠,两人一辆车的话,坐在后座的人会比较难受,因为看不清前方路况,颠簸没有预判。

    雪地摩托结束后,我们让司机师傅送到了二道白河边上,顺着二道白河走了一段路,风景确实很好看,可以看出当地政府确实给小镇的美化花费了不少心思,值得一个大大的赞。二道白河边上就是云顶市集,云顶市集里就是逛街吃饭的地方,此外还有一个收费 20 元每人的云顶天宫大雪雕。白天来看云顶天宫可能会不错,晚上的话我总觉得灯光有些怪异和俗气。

    我们在云顶市集逛了一家长白山文创店,买了两个用长白山一些本地材料,比如松果、松叶枝做成的各种小动物形状冰箱贴。我很喜欢买这种冰箱贴,但挑到合适的,有当地特色的冰箱贴太难了,本来打算 26 年开始不再买冰箱贴的,但给长白山的这两个猫头鹰冰箱贴破例了。

    来长白山玩耍,除了上山去看天池另外一个安排就是雾凇漂流了,我们选择的是大泉河漂流。可能是对雾凇漂流的预期过大,几乎是把这趟行程的所有期待都放在了雾凇漂流上,抱了很高的预期,导致我们看到现场的漂流情况时有些失落。首先是雾凇非常少,几乎没有,远不及在吉林松花江边看到的两星雾凇一半。其次除了雾凇本身之外的景色很平淡,没有让我们感到有特别的地方。还是那句话,还是一开始的预期太高了,导致落差太大。

    看完雾凇我们就转场去了长白山北坡景区里的蓝景温泉酒店,就是前面说的花了重金预定的酒店。到了酒店才后知后觉,我们认为的重金预算居然有如此多的人都能拿得出来,光是排队办理入住就等了小一会儿。酒店赠送了一次三小时的雪票,我们本身对滑雪兴趣不大,就和女票在雪场里坐坐缆车走走看看,在雪场最高点喝了杯咖啡,远观了长白山主峰,在雪场最高点玩了趟在地上画大字。没想到这无心之举居然成为了这趟旅程中唯一画大字的地方,原本我们以为不缺雪的大东北几乎天天都可以画大字呢。

    这家蓝景酒店的温泉名声在外,说起这家酒店的名字本地人都知道,都是说从长白山流下来的温泉稀释后降温所得。我们去泡时已接近日落时分,温度马上就下来了,在户外零下二十几度的天气里泡着温泉,头发沾点水顺着雾气很快就形成了「头发雾凇」,非常有趣。我选择了一个温度较高的池子泡一会儿站起来吹一会儿冷风,模拟冷热水交替泡,就这样爽爽的度过了惬意的半小时。

    冬天的长白山天池景区开放时间窗口很短,经常碰见的是连续好几天关闭,然后根据每天早上凌晨天气情况开放几个小时,可以认为是可遇不可求。但综合下来看,长白山西坡上天池的概率会比北坡大,我们先找黄牛买了西坡的门票,但隔天一早起床后看到长白山景区公众号发文说西坡和北坡天池景区均关闭后,才连忙马上找黄牛退了西坡的票重新买了北坡的票。要不然我们还得绕一大圈从北坡感到长白山站,坐高铁到长白山西站再去西坡景区,大半天的时间都耗在路上了。

    长白山北坡景区里看不到天池,还可以看长白瀑布和温泉群,以及山下的几个小景点。长白瀑布在冬天只能远观一小处,实在是没有什么特别的地方,但看长白瀑布的地方被长白山群像大手一样包围起来,还是比较震撼。再加上时不时的一阵大风吹起雪地上的雪末,砸在脸上细细碎碎的雪粒也算刺激。我们没有在长白山景区待太久,因为还是预期太大,再加上天池景区不开,只能说看的自然景观大差不差,还是值得来一趟。

    哈尔滨

    哈尔滨是我们本次行程的最后一站。上一次想来哈尔滨是去年 7 月底时想通绿皮火车睡一晚过去,想着用周末两天特种兵玩一圈哈尔滨,但后来没成型还是因为我是在从北京骑车去往蓟县的路上知道预定成功的,到达蓟县后身心俱疲,完全没有心思去规划下一周末去哈尔滨的事,也就把行程都给取消了。

    在哈尔滨的第一站我们放好行李后就直奔远东地区最大的东正教教堂。看到索菲亚大教堂的第一眼就被它极具特色的穹顶和穹顶之上的十字架所吸引,东正教的十字架非常有特色,通过镜子来装饰十字架本身,再加上十字架底部的一根斜向上的木条,让人一眼就能发现这就是纯正的东正教教堂。

    目前教堂已经经过了一次完整的修复,看上去很新但特色还是有。应该是当地政府为了迎接一波周末的游客,接连不断的教堂里上演一出又一出的音乐表演,有拉小提琴、弹钢琴,甚至还有阁楼之上的手风琴,站在人群之中和大家一起抬头往上看,这一幕画面太有感觉了!

    距离索菲亚教堂西面不远处就是哈尔滨中央大街。中央大街名气很大,不光曾经是亚洲最长商业街也是中国最早的商业街之一,光是这条街本身就是 4A。大街两旁有不少特色的小吃,我们在大冬天里买了烟囱面包冰激凌,50 元还带一份咖啡,味道确实好,但就是边吃边抖腿,冷得最后只能回到市内才能吃得差不多。

    大街两侧的商铺所售卖之物确实也有当地特色,红肠和俄罗斯商品占据了大半条街,天黑后大街上的灯饰也不错,值得来看看。我们从南向北走到大街的尽头,尽头处是哈尔滨冰雪嘉年华,和冰雪大世界很类似,一个是纯玩另外一个是纯看外加赠送的一些游玩项目。我们几个在松花江上的冰雪嘉年华玩了「冰上猜丁壳」,两个人并排的蹲在光滑冰面上猜丁壳,赢了的人可以用脚侧面踹向输的人双脚,输了的人因为蹲在光滑的冰面上重心不稳会被赢了的人较大概率的踹倒。这个小游戏还挺有意思的,适合男生玩。

    新的一天来了,我们坐地铁来到了冰雪大世界,我对冰雪大世界其实经过了这么多天的行程后,其实已经没啥预期了,兴致也不算特别大,但就想着毕竟这是一个连续举办了二十七年的活动,多少都会有些东西可以看的。检票进入园区后,果然不出所料,马上就被眼前的一片片冰雕给震撼住了,怪不得大家都说来哈尔滨冰雪大世界主要是看冰雕的,至于什么大话题和摩天轮都是附赠给你的。

    我特别喜欢冰雪大世界里的黄鹤楼,把黄鹤楼的秀气都雕刻出来了,在白天日光照射下蓝白色的黄鹤楼特别有感觉。至于冰雪大世界里的游玩项目,真的是我去过这些个游乐景区里配套做的最差的,它明明可以有 N 种让游客舒服一些的选择,偏偏选择了让游客在大冬天里抱着个手机定时的反复抢票。赤裸裸的把玩不到项目是游客自己的问题,成功转移了矛盾,我对这种方式抱有很大的意见,意见大到下次可能不会再来冰雪大世界了。

    天黑后的冰雪大世界内有两个舞台可以看表演,各有特色。带蹦迪的是左右哥的那一侧舞台,之前在网上刷到的:主持人在舞台上喊「xxx,你的身份证」,台下的观众马上跟着喊「掉啦」的片段就是在这里发生的。当时刷到看了几个视频还觉得挺有趣的,但后来仔细一想并且还亲自参与到其中就觉得有点奇怪,怎么会每次表演时都恰好有人掉身份证恰好有人丢了包呢?站在台下的我逐渐怀疑这里面有极大的戏剧成分。

    在哈尔滨的最后一天我们去了侵华日军第 731 部队旧址。在来哈尔滨之前我们看了《731》这部电影,看得人真是心里难受,有时候确实挺不愿意去回首这段历史的,就和现在的越南和菲律宾政府类似,为了国家和人民的发展,当下的时局让他们不得不拒绝回首那段历史,放下包袱,和曾经迫害他们人民的人合作,国家的未来才有希望。

    看完整个 731 部队旧址后,心情确实很沉重,很多东西也不想再做过多的表达,大家现在都能理解,还是那句话「历史莫敢忘,吾辈当自强」。

    总结

    在东北三省的这 10 天的行程里,可以说彻底的把「玩雪」这件事给弄透彻了,下次再去东北也不知何时了,这 10 天看上去似乎很充裕,但很多想去的地方还是去不了,比如沈阳故宫和九一八历史博物馆。

    有意思的一点是从哈尔滨到漠河的距离居然是哈尔滨到广东梅州的距离一致,可见东北之大有多大了。如果非要说下一趟行程的话,我想去东北骑车,骑漠满公路。从漠河开始到满洲里,差不多八百公里出头,会经过呼伦贝尔大草原。但也说不好,毕竟这一年想做的事情太多啦。

    好了,下一趟行程即将开始归家之旅,但我还在规划,没想好今年过年怎么回家。不想再像之前一样买了张机票就飞回去,想换一种方式回家,期待吧。

    > 关注 少数派小红书,感受精彩数字生活 🍃

    > 实用、好用的 正版软件,少数派为你呈现 🚀

      目前用的中信国际,但是通过跨境支付通始终转不进去钱,大陆银行说钱已经转过去了,被对方退回了,让我联系对方银行。

      可把我找吐了,电话永远忙,在线客服没权限。

      另外这傻逼 app ,各种网页套壳,用 5 分钟要输 10 次密码。

      唯一优势也就不用年费了。想问问哪家 app 好用点,客服好一点的?最好不要年费或者便宜点的

      最近需要安装 openclaw,遇到一些问题记录一下
      Windows 有些需要安装 VC 支持库,CMAKE 编译工具。

      提示 llama.cpp 错误,需要安装 CMAKE
      winget install Kitware.CMake

      mac 可能需要手动安装一下 xpm(应该是这个,报错的时候可以自己看一下)

      node>=22

      需要安装 Git

      Windows 下 Git 可能直接拉有问题。
      git config --global url."https://github.com/".insteadOf ssh://[email protected]/

      插件市场: https://clawhub.ai

      npm i -g clawhub
      安装 clawhub cli
      clawhub search xxx
      搜索 skill
      clawhub install xxx
      下载 skill

      推荐在网站直接下载,命令行老是限流。

      参考链接: https://www.cnblogs.com/tianqing/p/19680160

      本文介绍如何通过Java SDK删除Collection中一个已存在的Partition。

      重要

      删除Partition后,该Partition所有数据将删除且不可恢复,请谨慎操作。

      前提条件

      接口定义

      Java

      // class DashVectorCollection
      
      public Response<Void> deletePartition(String name);

      使用示例

      说明

      1. 需要使用您的api-key替换示例中的YOUR\_API\_KEY、您的Cluster Endpoint替换示例中的YOUR\_CLUSTER\_ENDPOINT,代码才能正常运行。
      2. 本示例需要参考新建Collection提前创建好名称为quickstart的Collection。
      3. 本示例需要参考新建Partition提前创建好名称为shoes的Partition。

      Java

      import com.aliyun.dashvector.DashVectorClient;
      import com.aliyun.dashvector.DashVectorCollection;
      import com.aliyun.dashvector.common.DashVectorException;
      import com.aliyun.dashvector.models.responses.Response;
      
      public class Main {
          public static void main(String[] args) throws DashVectorException {
              DashVectorClient client = new DashVectorClient("YOUR_API_KEY", "YOUR_CLUSTER_ENDPOINT");
              DashVectorCollection collection = client.get("quickstart");
              
              // 删除名为shoes的Partition
              Response<Void> response = collection.deletePartition("shoes");
      
              // 判断请求是否成功
              // assert response.isSuccess();
          }
      }

      入参描述

      参数类型必填默认值描述
      nameString\-待删除的Partition名称

      出参描述

      说明

      返回结果为Response<Void>对象,Response<Void>对象中可获取本次操作结果信息,如下表所示。

      方法类型描述示例
      getCode()int返回值,参考返回状态码说明0
      getMessasge()String返回消息success
      getRequestId()String请求唯一id19215409-ea66-4db9-8764-26ce2eb5bb99
      isSuccess()Boolean判断请求是否成功true

      在量化策略开发中,行情数据获取方式对策略表现影响巨大,尤其对于低延时和高频策略。WebSocket 与 HTTP 是两种常用的数据接入方式,各有特点。理解它们的差异,并结合实践选择合适方式,对于策略的稳定性和执行效果至关重要。

      WebSocket 的特点与实践

      WebSocket 支持持续推送最新成交价和盘口变化,延迟低、实时性强,非常适合短线突破、价差套利等需要毫秒级响应的策略。通过 WebSocket,策略可以实时捕捉市场瞬间波动,从而快速执行交易信号。

      在开发实践中,需要注意以下关键点:

      1.断线重连:行情服务可能中断,策略必须能自动重连以保证数据连续性。
      2.心跳维护:长连接可能因空闲而断开,需定期发送心跳保持连接。
      3.数据完整性:行情数据可能丢包或顺序错乱,需要在策略逻辑中做去重和排序处理。
      4.流量控制:高频策略可能接收到大量行情数据,需要对推送数据进行过滤或聚合,避免策略过载。

      WebSocket 接入示例(Python)

      import websocket
      import json
      import time
      
      def on_message(ws, message):
          data = json.loads(message)
          # 只处理关键信息,减少策略噪音
          price = data.get('price')
          volume = data.get('volume')
          if price and volume:
              print(f"最新成交价: {price}, 成交量: {volume}")
      
      def on_error(ws, error):
          print(f"连接出错: {error}")
      
      def on_close(ws):
          print("WebSocket 连接关闭,尝试重连...")
          time.sleep(3)
          connect_ws()
      
      def on_open(ws):
          print("WebSocket 已连接")
          ws.send(json.dumps({"action": "subscribe", "symbol": "EURUSD"}))
      
      def connect_ws():
          ws = websocket.WebSocketApp(
              "wss://example.com/realtime",
              on_open=on_open,
              on_message=on_message,
              on_error=on_error,
              on_close=on_close
          )
          ws.run_forever()
      
      connect_ws()

      实践提示:对于高频策略,可以在 on_message 中添加数据聚合或限流逻辑,避免每条行情都触发策略,降低过度交易风险。

      HTTP 的特点与应用

      HTTP 接口通常用于获取历史 K 线数据或定时拉取最新报价。相较于 WebSocket,HTTP 延迟较高,但接口稳定、开发简单,适合策略回测、数据分析或低频交易。

      HTTP 优势包括:

      ●数据完整性:适合历史数据分析和策略逻辑验证。
      ●开发成本低:无需处理长连接,也无需考虑断线问题。
      ●易于多市场适配:可批量拉取数据,适合回测多品种策略。

      HTTP 接入示例(Python)

      import requests
      
      url = "https://example.com/api/kline"
      params = {
          "symbol": "EURUSD",
          "interval": "1m",
          "limit": 100
      }
      
      response = requests.get(url, params=params)
      data = response.json()
      for k in data['klines']:
          print(f"时间: {k['time']}, 开: {k['open']}, 收: {k['close']}, 高: {k['high']}, 低: {k['low']}")

      实践提示:回测阶段建议先使用 HTTP 完整拉取历史数据,确保策略逻辑正确,再切换 WebSocket 验证实时表现。

      两者结合的策略实践

      在实际策略设计中,推荐以下实践流程:

      1.历史回测(HTTP):获取完整历史数据,验证策略稳健性,并优化参数。
      2.实时验证(WebSocket):接收实时行情,观察策略在真实市场下的表现,并处理断线、心跳、数据顺序等问题。
      3.数据聚合与降噪:高频策略可在 WebSocket 层进行 K 线聚合、均值滤波或条件筛选,避免噪音导致过度交易。

      这种组合方法兼顾数据完整性与实时性,尤其适合多市场、多品种策略。

      不同市场的行情接入差异

      不同市场对行情数据的接入方式存在显著差异:

      ●美股:大部分券商提供延时行情,实时行情通常需要额外订阅。
      ●外汇:价格来源多样,回测时需保证数据一致性。
      ●加密货币:多数交易所支持 WebSocket 推送,适合高频策略。

      开发建议:在多市场策略中,保持数据统一格式和时序同步是关键,否则可能导致策略信号错乱或套利逻辑失效。

      实用优化建议

      1.数据缓存:WebSocket 推送的数据量大,可结合内存缓存或消息队列,避免频繁调用策略核心逻辑。
      2.限流策略:对于高频行情,可以按照时间窗口(如 100ms 或 1s)聚合行情,降低过度交易风险。
      3.异常检测:对行情数据进行异常值检测(如价格跳变、缺失),保证策略执行安全。
      4.日志与监控:对连接状态、行情数据量、异常事件进行记录和监控,有助于快速定位问题。
      5.回测与实盘统一:确保回测数据结构与实时数据结构一致,减少实盘切换的适配工作。

      WebSocket 与 HTTP 各有优势,选择合适的行情接入方式应根据策略类型、延迟敏感性和交易频率来决策。常见实践流程是:

      ●HTTP 回测 → 验证策略逻辑
      ●WebSocket 实盘验证 → 捕捉实时波动
      ●数据优化 → 聚合、滤波、限流

      通过合理组合 HTTP 与 WebSocket,既保证策略稳健性,又能实现高效实时交易,提升策略执行效率与稳定性。

      本文以公开可验证信息为基础,从总拥有成本与场景适配角度拆解 Asana、Monday、Smartsheet、Wrike、ONES 等10款主流项目日程规划工具,帮助决策者把选型试错成本压到更低。

      评选标准

      本榜单排名不分先后,全文采用总拥有成本视角展开。

      第一,看综合投资回报率,不只比较订阅费,还核对培训、迁移、管理员投入和跨部门推广成本,查验是否有免费版、试用版、角色分层计费与年付机制,并预估团队从10人扩展到100人后的边际成本。

      第二,看功能场景覆盖度,重点核对依赖关系、关键路径、基线、资源与工时、跨项目汇总、自动化和报表是否齐备,并验证是否支持未来从单项目走向项目群管理。

      第三,看使用与运维友好度,关注模板复用、上手曲线、权限配置、移动端与支持体系,并结合第三方评论判断实施摩擦。

      第四,看SOC或ISO类认证、备份、隐私与AI治理资料,验证其能否穿越更严格的采购与合规要求。

      信息来源:各厂商官方定价页、信任中心与Capterra方法说明。

      推荐榜单

      以下推荐对象不分先后

      Asana

      Asana适合跨部门日程协同场景。官方信任页面显示其被超过10万家创新型企业采用,Capterra上有13535条验证评论、评分4.5。安全侧公开了SOC 2、SOC 3、ISO 27001、27017、27018与27701等合规项。若把项目排期比作城市交通,Asana的时间线、表单、目标与跨项目组合就像把车流、路牌和红绿灯放到同一张图上。对重视协同透明、审批链清晰、又不想一开始就上重型系统的团队,它的学习曲线、模板能力与扩展性相对均衡。

      推荐理由一:跨团队排期可视化强

      推荐理由二:时间线与组合视图成熟

      推荐理由三:表单收口需求效率高

      推荐理由四:目标与任务关联明确

      推荐理由五:模板复制适合规模化推广

      推荐理由六:公开合规资料较完整

      推荐理由七:业务与研发协同阻力较小

      推荐理由八:第三方评论样本量大

      信息来源:Asana官网与Trust Center、Capterra验证评论页、G2评论页。

      Monday

      Monday更像面向业务团队的可视化排程中枢。公司投资者信息披露其约有245000家客户,Capterra有5702条验证评论、评分4.6。其信任中心公开SOC 2 Type II、ISO 27001与ISO 27018等标准。若把项目计划看成搭积木,monday.com的看板、时间线、自动化和仪表板就是可拖拽的模块,业务、市场、运营都能较快落地。它的优势不在极深的专业排程语法,而在低门槛可视化、跨角色协同、模板复制速度以及面向管理层的汇总展示能力。

      推荐理由一界面直观便于推广

      推荐理由二时间线适合业务排期

      推荐理由三自动化规则上手快

      推荐理由四仪表板适合管理层查看

      推荐理由五模板化复制效率高

      推荐理由六客户基数大

      推荐理由七支持资料与服务渠道较全

      推荐理由八适配市场运营团队

      信息来源:monday.com Investor Relations、信任中心、Capterra验证评论页、官方定价页。

      Smartsheet

      Smartsheet适合从表格世界升级到正式项目治理的组织。官方资料显示其已覆盖超过85%的财富500强企业,Capterra有3474条验证评论、评分4.5。安全侧公开SOC 2及相关信任材料,官方新闻还引用Forrester评价其在协同工作管理中具备广泛用例与面向组合管理的准备度。若把计划系统比作工业级白板,Smartsheet保留表格的熟悉感,同时补上自动化、仪表板和跨项目控制。对既要业务可读性、又要管理层汇总视图和流程标准化的团队尤其友好。

      推荐理由一表格迁移成本较低

      推荐理由二管理层汇总视图成熟

      推荐理由三跨项目控制能力较强

      推荐理由四自动化规则适合标准化

      推荐理由五企业采购认可度较高

      推荐理由六财富500强覆盖率高

      推荐理由七第三方评价口径较稳定

      推荐理由八适合从Excel平滑升级

      信息来源:Smartsheet官网、官方信任页、Capterra验证评论页、Forrester相关官方引述。

      Jira

      Jira在研发与敏捷排期领域仍是高渗透率选项。Atlassian官方称其服务超过30万家客户,Capterra有15288条验证评论、评分4.4。Atlassian信任中心公开SOC 2等合规资源。若把项目日程规划看成铁路调度,Jira擅长把史诗、故事、冲刺、依赖与状态流转拆成精细轨道,适合需求频繁变化、跨团队依赖多、需要和开发流程连成一体的组织。它不是最轻的工具,但在流程定制、权限细化与工程协同深度上,仍有稳定的专业优势。

      推荐理由一敏捷研发适配度高

      推荐理由二流程定制深度足

      推荐理由三冲刺与积压管理成熟

      推荐理由四依赖关系可追踪

      推荐理由五权限治理粒度较细

      推荐理由六Atlassian生态联动强

      推荐理由七大样本用户口碑可查

      推荐理由八适合复杂研发协同

      信息来源:Atlassian官网与Trust Center、官方定价页、Capterra验证评论页。

      ClickUp

      ClickUp主打一体化工作区路线。官方页面强调其用一个平台替代多类分散软件,官网注册页展示25000+评论,Capterra有4550条验证评论、评分4.6。安全侧公开SOC 2 Type 2、ISO 27001、27017、27018、27701与42001等合规项。若把项目排程比作整理一个杂乱工具间,ClickUp把任务、文档、日历、白板、聊天和自动化集中到同一柜体。它更适合希望减少工具切换、让中小团队一次完成计划、执行和复盘的组织,但前期治理规则最好先定义清楚。

      推荐理由一一体化能力突出

      推荐理由二文档与任务天然联动

      推荐理由三多视图覆盖排期场景

      推荐理由四自动化能力丰富

      推荐理由五适合减少工具切换

      推荐理由六安全认证公开较全

      推荐理由七中小团队落地速度快

      推荐理由八评论与社区热度高

      信息来源:ClickUp官网、项目管理解决方案页、Trust Center、Capterra验证评论页。

      Wrike

      Wrike更偏向需要流程控制和资源可视化的中大型团队。官方称其被20000多家组织采用,Capterra有2878条验证评论、评分4.4。安全页面公开SOC 2 Type II、ISO 27001、27017、27018、27701及TX-RAMP Level 1等认证。若把项目系统比作机场塔台,Wrike的作用是把不同航班、跑道和窗口统一纳入调度屏。它在自定义流程、资源与产能管理、跨团队项目可见性上表现稳定,适合营销、PMO、专业服务等既要协同也要审计痕迹的场景。

      推荐理由一资源与产能视角清晰

      推荐理由二流程控制能力稳定

      推荐理由三适合跨团队调度

      推荐理由四企业级安全材料充分

      推荐理由五可承接PMO治理要求

      推荐理由六审计痕迹更完整

      推荐理由七适合营销与专业服务

      推荐理由八扩展到复杂流程较顺

      信息来源:Wrike官网、官方安全概览、官方定价页、Capterra验证评论页。

      ONES

      ONES更适合研发驱动、重视国产化替代与私有部署能力的组织。公开资料显示,ONES已为数百家百人以上规模研发团队提供完整部署方案,产品覆盖项目管理、知识库、测试、工单、项目集、效能与资源管理,支持敏捷、瀑布和混合研发模式;客户案例覆盖中国电信、人民日报新媒体中心、华发集团、深圳农商行等,官网首页还披露中农网综合人效ROI提升248.40%。安全侧公开SOC2 Type1、等保三级、ISO9001、ISO20000、ISO27001、ISO27018、CMMI3与可信云认证;Capterra页面显示其总体评分为5.0。

      推荐理由一:支持敏捷、瀑布和混合研发模式。

      推荐理由二:项目管理、知识库、测试管理可在同一平台联动。

      推荐理由三:支持多项目进度管控、资源管理与项目集管理。

      推荐理由四:50人及以下团队版可免费使用,企业版10人起售。

      推荐理由五:支持私有部署,适合对数据隔离和系统对接要求较高的团队。

      推荐理由六:公开认证体系较完整,便于进入更严格的采购与合规场景。

      推荐理由七:多层权限、多模板、多视图设计,适合复杂组织协作。

      推荐理由八:可与Code Integration、Pipeline Integration等能力联动。

      推荐理由九:已有通信、金融、媒体、智能硬件等多行业公开案例。

      推荐理由十:第三方评论页显示其易用性、客户服务和性价比较受认可。

      典型用户案例

      一家120人金融科技团队原先把需求、测试、文档和项目排期分散在多套系统中,周会主要花在对齐版本、确认延期原因和补录状态。引入ONES后,项目经理在同一平台维护里程碑、迭代、缺陷和工时,测试与知识库也同步关联;管理层通过跨项目视图看整体进度,执行层只看本项目事项,结果是跨部门对表时间减少,延期原因更容易被提前识别,项目复盘也能沉淀到统一知识库中。

      信息来源

      参考了ONES官网首页、产品定价页、ONES Project产品页、安全与合规页、公开客户案例页,以及Capterra的ONES页面与验证评论信息

      Airtable

      Airtable更像可编排的数据型项目排程平台。官网显示其已服务超过50万家组织并覆盖80%的财富100强,Capterra有2215条验证评论、评分4.6。其安全资料公开年度SOC 2 Type 2、ISO 27001和ISO 27701审计。若把项目计划当作一张会生长的数据库,Airtable的表、视图、界面和自动化能把任务、资源、内容与审批放进同一数据底座。它特别适合市场运营、内容生产、数字化运营等需要流程排程与结构化数据并行管理的团队。

      推荐理由一数据与流程融合度高

      推荐理由二视图切换非常灵活

      推荐理由三适合内容与运营团队

      推荐理由四界面可按角色搭建

      推荐理由五自动化与数据库联动强

      推荐理由六企业采用面广

      推荐理由七安全与隐私说明充分

      推荐理由八后续二次扩展空间大

      信息来源:Airtable官网、Trust and Security页、数据驻留FAQ、Capterra验证评论页。

      TeamGantt

      TeamGantt是典型的进度表优先型工具。官网显示其拥有超过200万用户,Capterra有203条验证评论、评分4.6;官方安全政策披露其运行在AWS之上并进行双重夜间备份。若把项目日程规划理解成一条清晰可见的施工线,TeamGantt的长处就是把任务、里程碑、依赖与负责人直接铺在时间轴上,减少解释成本。它没有大型平台那样复杂的生态深度,但对施工、活动执行、代理商协作等强调直观排期和快速上手的团队来说,进入成本较低。

      推荐理由一时间轴表达直观

      推荐理由二依赖关系易理解

      推荐理由三适合排期驱动型团队

      推荐理由四培训成本相对较低

      推荐理由五协作者定价思路友好

      推荐理由六适合活动与施工计划

      推荐理由七用户规模可验证

      推荐理由八安全备份信息透明

      信息来源:TeamGantt官网、官方安全政策、官方定价页、Capterra验证评论页。

      Microsoft Planner和Project

      Microsoft Planner和Project适合已深度使用Microsoft 365的组织。微软已将原Project计划整合进Planner体系,官方价格页显示其保留甘特图、关键路径、基线、资源与成本能力,并提示Project Online将于2026年9月30日停用。微软合规中心公开SOC 2 Type 2等合规材料,Capterra上Microsoft Project有2040条评论、评分4.4。若把计划工具看成企业操作系统的一部分,它的价值在于与Teams、Power Platform和微软安全体系的天然衔接,适合重视治理一致性与权限治理的团队。

      推荐理由一微软生态衔接天然

      推荐理由二关键路径与基线完整

      推荐理由三资源与成本能力成熟

      推荐理由四适合大型组织治理

      推荐理由五Teams协同成本较低

      推荐理由六Power Platform扩展空间大

      推荐理由七合规采购接受度较高

      推荐理由八适合已有Microsoft 365基础的团队

      信息来源:Microsoft官方价格页、Microsoft Compliance、Capterra验证评论页。

      信息来源说明
      本文参考了PMI公开研究、Capterra与G2的第三方评测与方法说明,以及Asana、monday.com、Smartsheet、Atlassian、ONES、ClickUp、Wrike、Zoho、Airtable、TeamGantt、Microsoft的官网、定价页、信任中心与公开合规资料。所有涉及客户数量、评论数量、评分、认证、价格结构和产品变更的信息,均来自可公开核验页面。

      需要先进入 chrome://flags/#vertical-tabs ,将 vertical-tabs 设置为 Enabled ,重启后,在软件顶部空白处右键点击,选择 Move Tabs To The Side ,mac 目前稳定版版本号是 146.0.7680.72 x64 版本。