2026年2月

哈喽,做仓储、供应链的朋友们,是不是又被WMS选型愁到头大?

2026年仓储数字化越来越卷,WMS早就不是“大企业专属”,中小企业也得靠它提效、省成本,但市面上牌子五花八门,吹得都天花乱坠,选错了不仅白花冤枉钱,还得返工内耗。

今天不玩虚的,结合我这大半年接触的客户案例、实际使用反馈,按大家给的顺序,盘点7家国内靠谱的WMS厂家,每一家都唠唠实在的优点、擅长的行业,帮你快速对号入座,选型少走弯路,全程干货不掺水~

话不多说,咱们逐个来!

  1. 富勒WMS——老牌实力派,复杂场景稳得住

富勒算是WMS行业的“老大哥”了,做这行很多年,口碑一直很稳。身边做中大型企业的朋友,十有八九都听过它。

优点很突出:稳定性极强,功能全面,尤其是在医药、冷链这种对合规和追溯要求极高的领域,有很深的积累,支持GSP监管码全程追溯,还能实时监控冷链温控、断点预警,完全能满足行业监管需求。而且它的“闪电实施”方法特别省心,平均21天就能上线,不用长时间耽误仓储运转,还能无缝对接ERP、MES等系统,形成完整供应链闭环。

行业优势:主打制造、医药、冷链、第三方物流,适合仓储规模大、流程复杂、多仓协同的企业,比如大型制造集团、连锁物流企业,选它基本不会踩坑。

  1. 微仓VWMS——中小企业福音,高性价比接地气

如果你的企业规模不大,预算有限,又想实现精细化仓储管理,微仓VWMS一定要重点看!它是富勒投资的SaaS WMS,主打一个“低成本、高适配”。

优点:SaaS架构,不用一次性投入大成本,按年收费,计费灵活,还免服务器租用和运维费用,中小企负担得起。操作特别简单,不用专门培训员工,上手就能用,而且支持智能上下架、效期预警,能解决手工记账差错多、找不到货的痛点。开放API接口,可对接各主流ERP,多仓库、多包装管理也能轻松搞定。

行业优势:覆盖服装、电商、中小制造、医药等多个行业,不管是单仓还是多仓,只要需求不极端复杂,它都能适配,是中小企业数字化升级的高性价比之选。

  1. 巨沃WMS——电商专属,高并发能扛住

做电商的朋友,对巨沃应该不陌生,它算是电商仓储领域的“标杆选手”,身边很多电商卖家都在用水。

优点:自主研发的系统,微服务架构,承载能力超强,大促期间订单峰值也能轻松扛住,单仓日处理订单量很可观。支持多仓库、多货主、多平台店铺管理,线上线下一体化,波次拣选、分拣打包、复核发货的流程特别顺畅,还能对接AGV、分拣机等智能硬件,大幅降低错发率。而且它的SaaS版本能快速上线,零运维成本,还能自动升级。

行业优势:主打电商(含跨境电商)、时尚鞋服、食品、图书等行业,服务过7号衣库、益嘉粮油等知名品牌,深谙电商仓储痛点,适合中小电商卖家、大型电商仓库,尤其是有跨境需求的企业,它的多币种适配、海外仓管理功能很实用。

  1. 通天晓WMS——全渠道能手,大中型企业适配

通天晓也是行业内的实力派,主打“弹性灵活”,能适配各种复杂的仓储场景,身边做快消、家电的朋友用得比较多。

优点:基于规则配置,流程灵活可定制,支持多组织、多仓库、多货主管理,单仓日处理订单峰值能达300w+,全渠道一盘货管理做得很好,能实现电商、门店、分销商的库存共享,优化库存配置。可视化看板做得不错,仓库出入库、订单进度实时可见,方便管理者把控全局,还能对接智能硬件,拓展性强。

行业优势:擅长快消、家电家居、汽配及工业品,比如百事食品、源氏木语都是它的客户,适合大中型企业,尤其是对全渠道协同、可视化管理有需求的企业。

  1. 洞隐WMS——智能化黑马,医药合规标杆

洞隐是近几年崛起的黑马,主打智能化和合规性,技术实力很扎实,深耕医药行业,口碑很不错。

优点:云原生架构,自动更新无需手动升级,低代码配置,能快速上线,还支持灵活定制。AI能力突出,有智能装箱、路径规划算法,能优化作业流程,内嵌WES可管控各类智能设备,实现人工与设备高效协同。在医药合规方面,通过国家药监局认证,温湿度监控、效期预警、药品追溯全流程管控,数据自动留痕,还能对接医院HIS系统,适配SPD医院物流场景。

行业优势:核心主打医药、医疗行业,服务过国药控股、上药集团等龙头企业,同时也适配制造、物流等行业,适合有智能化需求、对合规性要求高的企业。

  1. 弘人C-WMS——SaaS首选,信创适配能打

弘人C-WMS是国内SaaS WMS的佼佼者,早在2016年就布局SaaS模式,前瞻意识很强,信创适配能力突出,很多政企单位都在用水。

优点:云原生微服务架构,融合AI技术,有虚拟员工、AI驾驶舱等功能,能实现智能决策。场景化流程引擎,适配20+行业,可根据企业业务规则灵活配置,制造行业的JIT供料协同、冷链行业的温区优化都能搞定。信创适配能力强,通过麒麟、统信系统及金仓数据库认证,能与国产软硬件全流程适配,数据安全有保障。

行业优势:适配制造、快消、冷链、供应链等行业,尤其适合有信创需求的政企单位和中型制造企业,性价比适中,落地能力强。

  1. 唯智WMS——一体化能手,全场景覆盖

最后一家唯智,主打供应链一体化,不只是单纯的仓储管理,能打通仓储、运输、配送全链路,适合有一体化需求的企业。

优点:功能全面,支持平库、立体库、黑灯工厂等多种仓库类型,自动化、智能化程度高,作业任务智能生成、自动分发,支持全程无纸化作业。入库、出库、库内管理流程完善,效期、批次、安全库存管理到位,作业可视化看板能实时展示作业量、人员效率等信息,还能与ERP、MES系统实时对接,支持JIT、JIS作业模式。

行业优势:覆盖制造、零售、物流、医药等多个行业,适合大中型企业、集团化企业,尤其是有自动化仓库、需要供应链全链路协同的企业,能实现多场景、多业态统一管理。

唠到这里,7家WMS厂家就介绍完啦,总结一下:

中小企业、预算有限→微仓VWMS;电商/跨境电商→巨沃WMS;医药/冷链、合规需求高→富勒WMS、洞隐WMS;大中型企业、全渠道/一体化需求→通天晓WMS、唯智WMS;信创需求→弘人C-WMS。

其实选型没有最好,只有最适合,结合自己的企业规模、行业、核心需求来选,就能避开90%的坑~

 一个完全免费的办公软件套装,Mac 用户用来替代 Microsoft Office 的主流选择。

详细步骤

  1. 第一步:下载安装包

  2. 第二步:打开并看到安装窗口

    • 在“下载”文件夹里,双击​ 你刚下的这个 WPS_Office.dmg文件。
    • 双击后,桌面上会弹出一个新窗口,里面通常有两个图标:一个是WPS的应用程序图标,另一个是“应用程序”文件夹的快捷方式。
  3. 第三步:把软件“拖”进电脑

    • 这是最关键的一步,用鼠标按住那个WPS的图标,把它拖到旁边的“应用程序”文件夹图标上,然后松手。
    • 你会看到一个复制进度条,等它走完就拖好了。这步就相当于把软件安装到了你的电脑里。
  4. 第四步:完成安装,开始使用

    • 打开“访达”,在边栏找到并进入“应用程序”文件夹,你就能看到WPS Office躺在里面了。
    • 第一次运行:双击它,可能会弹出一个提示,说这是从网上下载的软件,问你是否确定要打开。点“打开”就行,以后就不会再问了。
  5. 第五步(可选):推出磁盘镜像

    • 装完后,回到桌面,你可能会看到窗口旁边多了一个“WPS”的磁盘图标。在它上面右键点击,选择“推出”,或者直接把它拖到废纸篓(这时废纸篓图标会变成“推出”),就能把它删掉了。这个 .dmg文件本身(在下载文件夹里)也可以删掉,不占地方。

安装后:之后想用WPS,直接到“应用程序”文件夹里找,或者把它拖到程序坞上固定住,方便以后打开。

MongoDB 近日宣布,在 MongoDB Atlas 上正式推出 Embedding 与 Reranking API 的公开预览版本。通过这一新 API,开发者可以在托管云数据库中直接调用 Voyage AI 的搜索模型,在一个统一的集成环境中构建语义搜索、AI 助手等功能,同时实现监控与计费的统一管理。

这一方案将构建 AI 检索系统所需的关键组件整合在同一平台上。MongoDB 表示,该 API 具备数据库无关性,可集成到任何技术栈或数据库中,面向正在构建检索驱动型 AI 系统的团队,覆盖从语义搜索、RAG(检索增强生成)到 AI Agent 等多种场景。MongoDB 高级技术产品营销经理 Thibaut Gourdel 与 MongoDB 资深产品经理 Wen Phan 在文中写道:

目前构建 AI 检索系统,往往需要把数据库、向量搜索和检索模型服务商“拼接”在一起,每一个环节都会引入额外的运维复杂度。为了解决这一问题,我们在 MongoDB Atlas 上推出了 Embedding 与 Reranking API。

此处输入图片的描述

MongoDB Atlas 上的 Embedding 与 Reranking API

在 .local San Francisco 活动上发布的另一项重要内容是 Voyage 4 系列模型的上线。该系列目前包含四种不同模型:voyage-4-large、voyage-4、voyage-4-lite,以及开源权重的 voyage-4-nano。与以往嵌入模型需要对查询和文档使用同一模型不同,Voyage 4 提供的文本嵌入模型运行在统一的向量空间中。这意味着,团队可以使用 voyage-4-large 存储数据,同时在查询阶段灵活使用任意 Voyage 4 模型。

此外,向量搜索的自动化嵌入功能已在社区版中开启预览,MongoDB Vector Search 的 Lexical Prefilters(词法预过滤)也已进入公开预览阶段,为开发者在向量搜索之外提供文本与地理分析过滤能力。对此,Deepak Goyal 在 LinkedIn 上评论道:

我昨天花了 3 个小时排查我们向量存储中一个长达 12 小时的同步延迟问题。这几乎是每个 AI 团队现在都在缴纳的“同步税”。如果你的数据已经滞后 24 小时,那你的 RAG 就谈不上“智能”,它只是一个索引做得不错的档案库。统一数据流之后,趋势已经很清晰:专用向量数据库的角色,正越来越接近 AI 世界里的“外置 GPU”。性能固然出色,但在多数生产环境下,集成式方案在速度和复杂度控制上更占优势。

在模型能力方面,这些嵌入模型支持 256 到 2048 维度,并支持量化处理,使开发者能够在准确率、成本与性能之间进行权衡。除了通用模型外,Voyage 还提供面向特定领域、整文档分析、多模态数据,以及多阶段搜索系统中重排序(reranking)的专用模型选项。

Gourdel 与 Phan 强调,尽管 MongoDB Atlas 已经内置了向量搜索能力,但新 API 的核心价值在于进一步降低复杂度:

这对于构建生产级 AI 系统至关重要。扩展 LLM 应用的关键,在于在恰当的时间提供正确的上下文,而这意味着必须将业务数据与高性能搜索进行紧密集成。

自 MongoDB 在近一年前宣布收购 Voyage AI 以来,社区便一直在期待并讨论 Voyage AI 能力与 MongoDB Atlas 的深度整合。此次 Embedding 与 Reranking API 的推出,也被视为这一整合方向的正式落地。

目前,Embedding 与 Reranking API 仍处于预览阶段。MongoDB 同时提供了 “Voyage AI Quick Start” 教程,形式为 GitHub 上的 Python Notebook,供开发者快速上手体验。

原文链接:

https://www.infoq.com/news/2026/02/mongodb-embedding-reranking-api/

这两年数据库圈有点像3年前的云原生圈:"分布式"、"新一代内核"、"重构存储引擎"这些词突然又密集起来了。

前几天刷群,看到有人转了 OpenTeleDB 的开源消息,说是"基于 PostgreSQL 的新一代内核"。说实话,我第一反应是:又一个魔改 PG?

但看到里面提到一个点:原位更新 + Undo 引擎(XStore),我还是没忍住下了源码。 因为这恰好戳中我这些年被 PG 折磨得最狠的痛点:

表膨胀、autovacuum 抽风、性能像心电图一样忽高忽低。

所以这次我没看 PPT,也没看宣传稿,直接跑到机器上拆了半天,想看看它究竟动了 PG 的哪根"老筋"。

一、先说结论:XStore 不是快,而是"稳"

image.png

我装的是 OpenTeleDB 的 17.6 内核版。 创建方式很直观:

SELECT relname, amname
FROM pg_class c
JOIN pg_am a ON c.relam = a.oid
WHERE relname = 'test_xstore';

image.png

这一步其实就已经很有意思了------它不是 fork 了一套新引擎,而是作为插件挂进去的。 这个思路我很认可:

  • 不绑死 PG 版本
  • 能跟着大版本升级
  • 出问题可以随时回退

像 Citus、openHalo 这些"成功插件化路线"的项目,本质都是这个思路。

image.png

二、打开数据目录,我第一次意识到:它真不是换皮

$PGDATA 下面,多了一个非常显眼的目录:

drwx------ 2 postgres postgres  4096 Nov  3 20:15 undo

这就是 XStore 的核心: 它不是靠多版本链来维护 MVCC,而是靠 Undo 日志回滚。

这点和 Oracle、MySQL InnoDB 的逻辑更像。

也正是它敢说"原位更新"的底气来源。

三、插入测试:它不快,但很"诚实"

我用同样的参数,在同一台机器上跑了两组:

INSERT INTO test_xstore (name, value)
SELECT md5(random()::text), (random()*1000)::int
FROM generate_series(1,10000000);
INSERT INTO test_heap (name, value)
SELECT md5(random()::text), (random()*1000)::int
FROM generate_series(1,10000000);

image.png

结果是:

image.png

写慢了将近一倍。这点我反而觉得真实:因为 XStore 在写数据页的同时,还要写一份 Undo。物理写入翻倍,吞吐下降是必然的。如果一个系统告诉你"原位更新 + Undo 还更快",那我反而会不太信。

四、创新实验:模拟1千万数据的存储膨胀对比

我设计了一项创新实验:在 1000 万条级别的大数据量下,评估 XStore 与 Heap 表在高频更新下的空间膨胀、索引稳定性以及查询性能表现。该实验主要有两个创新点:

大规模数据模拟

  1. 使用 generate_series(1,10000000) 生成 1000 万条数据,保证数据量级对存储膨胀影响明显。
  2. 初始数据包括 idnamevalueupdated_at 四列,与前期实验一致,但数据量增加十倍,以模拟真实大规模 OLTP 系统负载。

多维度空间分析

  1. 不仅监控表总大小,还分别统计索引占用和 TOAST 表空间。
  2. 每轮更新后,通过 pg_relation_sizepg_total_relation_sizepg_indexes_size 获取精细化指标。
  3. 引入 可视化趋势分析,绘制表空间增长曲线,以直观展示 XStore 与 Heap 的差异。

image.png

4.1 实验设计

表结构

CREATE TABLE xstore_large (
    id SERIAL PRIMARY KEY,
    name TEXT,
    value INT,
    updated_at TIMESTAMP DEFAULT CURRENT_TIMESTAMP
) USING XSTORE;

CREATE TABLE heap_large (
    id SERIAL PRIMARY KEY,
    name TEXT,
    value INT,
    updated_at TIMESTAMP DEFAULT CURRENT_TIMESTAMP
);

image.png

初始化 1000 万条数据

INSERT INTO xstore_large (name, value)
SELECT 'name_' || g, g
FROM generate_series(1, 10000000) AS g;

INSERT INTO heap_large (name, value)
SELECT 'name_' || g, g
FROM generate_series(1, 10000000) AS g;

image.png

先对现在存入1000w数据的空间监控与记录一下如下。

image.png

SELECT
    pg_size_pretty(pg_total_relation_size('xstore_large')) AS xstore_total,
    pg_size_pretty(pg_indexes_size('xstore_large')) AS xstore_index,
    pg_size_pretty(pg_total_relation_size('heap_large')) AS heap_total,
    pg_size_pretty(pg_indexes_size('heap_large')) AS heap_index;
 xstore_total | xstore_index | heap_total | heap_index
--------------+--------------+------------+------------
 985 MB       | 388 MB       | 789 MB     | 214 MB

多轮全表更新

  • 连续 5 轮更新,每轮更新 valueupdated_at,模拟写入密集场景:
UPDATE xstore_large
SET value = value + 1, updated_at = CURRENT_TIMESTAMP;

UPDATE heap_large
SET value = value + 1, updated_at = CURRENT_TIMESTAMP;

image.png

空间监控与记录

SELECT
    pg_size_pretty(pg_total_relation_size('xstore_large')) AS xstore_total,
    pg_size_pretty(pg_indexes_size('xstore_large')) AS xstore_index,
    pg_size_pretty(pg_total_relation_size('heap_large')) AS heap_total,
    pg_size_pretty(pg_indexes_size('heap_large')) AS heap_index;

第一轮:

image.png

 xstore_total | xstore_index | heap_total | heap_index
--------------+--------------+------------+------------
 985 MB       | 388 MB       | 1578 MB    | 428 MB

第五轮:

image.png

 xstore_total | xstore_index | heap_total | heap_index
--------------+--------------+------------+------------
 985 MB       | 388 MB       | 1628 MB    | 428 MB

4.2 千万数据更新膨胀可视化

image.png

image.png

五、实验结论

这组 1000 万级数据 + 多轮全表更新的实验,其实把 PG 传统 Heap 表的"老问题"放大得非常清楚。

最核心的对比结果只有一句话:

XStore 的空间是线性的、可预测的;Heap 表的空间是失控的、不可预测的。

具体来看:

  1. 表空间膨胀

a. Heap 表在第一次更新后,表体空间直接翻倍,从 789MB 飙到 1578MB。

b. 之后每一轮更新,虽然增长幅度趋缓,但空间再也回不到初始状态。

c. XStore 从头到尾不变: 985MB → 985MB → 985MB

  1. 索引体积稳定性

a. Heap 表索引从 214MB 膨胀到 428MB,且在后续更新中保持"高位横盘"。

b. XStore 的索引尺寸始终维持在 388MB 左右,没有明显漂移。

  1. 更新行为本质差异

a. Heap:每一次 UPDATE,本质都是 DELETE + INSERT → 老版本残留 → 表膨胀 → 索引碎片 → autovacuum 压力。

b. XStore:真正的原位更新 → 历史版本进 Undo → 主表物理页不变 → 无膨胀。

  1. 长期可运维性

a. 在 Heap 表上,如果你不 VACUUM,它一定会慢; 如果你 VACUUM,系统一定会抖。

b. 在 XStore 上,这两件事都不再是必选项。

这意味着什么?

它不是让你飞起来,而是让你不再塌方

六、我的心得

说实话,这几年我已经对"新一代数据库内核"这类说法有点免疫了。大多数项目,要么是在 PG 上糊一层分布式壳; 要么就是换个名字,重新卖一遍 MVCC。而 XStore 给我的感觉不一样。它没有试图掩盖代价。写入更慢, IO 更多,架构更复杂。

但它正面承认了一个事实:

PostgreSQL 的 MVCC,在高频更新场景下已经接近物理极限。

这不是参数调优能解决的事,也不是加机器能扛住的事,而是存储模型本身的问题。这些年我见过太多系统:白天 QPS 很稳,半夜 autovacuum 开始清垃圾,延迟突然拉长,业务报警,DBA 开始手工 VACUUM / REINDEX / CLUSTER,第二天继续循环。

这不是运维水平的问题,而是模型在和现实硬扛。XStore 让我第一次意识到:原来 PG 也可以选择不走这条老路。它没有追求"更快",而是选择了一个更难、但更稳的方向:

  • 用 Undo 换空间可控
  • 用写放大换性能平滑
  • 用工程复杂度换系统长期可预期性

如果你是写多、更新密集型 OLTP 系统,如果你被表膨胀、索引碎片、autovacuum 抽风折磨过,那你会和我一样---不一定立刻用它,但你会开始认真看它。这大概就是我这次拆源码、跑实验,最大的收获。

maxima-5.47.0-win64.exe是 Maxima 5.47.0​ 的 64 位 Windows 安装包,Maxima 是个开源的数学计算软件,能做代数运算、微积分、方程求解、绘图啥的,搞数学、物理、工程的人用它算题挺方便。

一、准备工作

  1. 下载安装包

二、安装步骤

  1. 双击 maxima-5.47.0-win64.exe运行。
  2. 如果是 Win10/Win11,会弹出“用户账户控制”提示 → 点  “是” (需要管理员权限)。
  3. 进入安装向导,选语言(一般默认 English,有的版本有中文可选)→ 点  “Next”
  4. 阅读许可协议 → 选 “I accept the terms…” → 点  “Next”
  5. 选安装位置:

    • 默认是 C:\Program Files\Maxima-5.47.0,可点 Browse 改路径(比如 D 盘)。
  6. 选附加任务:

    • 建议勾“Create a desktop shortcut”(创建桌面快捷方式),方便以后打开。
  7. 点  “Install” ​ 开始安装,等进度条走完(大概一两分钟)。
  8. 安装完成后,向导会提示是否立即启动 → 可先取消,等会儿再开。

三、首次运行与基本使用

  1. 在开始菜单找到 Maxima 5.47.0​ → 点开(或双击桌面快捷方式)。
  2. 第一次打开会弹出命令行窗口(wxMaxima 图形界面也可能一起启动),这就是 Maxima 的主界面。
  3. 基本计算:在命令行里直接输数学表达式,比如 1+1;回车,就会出结果 2;
  4. 用 wxMaxima(图形界面) :如果装了 wxMaxima,界面更友好,像普通软件一样有菜单、按钮,适合新手。
  5. 绘图:用 plot2d()函数画二维图,plot3d()画三维图,比如 plot2d(sin(x), [x, -%pi, %pi]);回车就能出正弦曲线。

在景德镇一家百年瓷器工坊里,年轻的传人没有像祖辈那样手把手教徒弟拉胚技巧,而是通过一个全息投影的“陶瓷导师”智能体,向分布在全国其他城市的学徒们演示如何把握釉料浓淡的微妙差异。这一场景,正是智能体技术与传统行业融合的缩影——不是取代,而是重生。


一、 智能体的进化:从工具到伙伴

传统行业中的智能化进程已经历了三个阶段:机械化替代人力、信息化整合流程、数据化辅助决策。而如今进入的第四阶段,是智能体深度融合。

  • 属性转变:从被动响应的“工具”转变为具备感知、决策和交互能力的“业务伙伴”。
  • 典型案例:山东某蔬菜大棚。
  • “它知道我什么时候会忘记调整温度,知道我哪些经验是宝贝哪些是偏见。”

二、 冲击:被重构的价值链

智能体的融入正在从三个维度重塑传统行业的核心价值:

环节落地场景核心成效
生产环节东北机床厂“守护智能体”设备精度提升 40%,实现自主调参
供应链环节云南普洱茶供应链智能体国际市场份额两年内增长 150%
服务环节上海老字号“穿搭顾问智能体”定制业务满意度 98%,回头率增 3 倍

三、 融合:传统智慧的数字化传承

智能体与传统行业融合最深刻之处,在于对隐性知识的捕获。

1. 技艺的“永生”

苏州刺绣大师的指尖技艺通过高精度传感器被转化为数字模块。108 种针法的力度、角度和节奏不再仅仅依靠口传心授,而是成为了可量化的科学。

2. 标准与风味的平衡

山西老陈醋酿造中,老师傅的“观色闻香”被分解为 23 个可测量参数

  • 成果:产品一致性从 68% 提升至 95%,同时保留了传统陈醋的灵魂。

四、 新生态:人机协作的文艺复兴

这种协作模式并非简单的指令下达,而是呈现出三种进化形态:

  1. 增强型协作
  2. 案例:广州某红木家具厂。
  3. 模式:经典元素 + 现代人体工学 = 新中式家具
  4. 镜像型协作
  5. 案例:景德镇陶瓷艺术。
  6. 模式:智能体学习创作习惯,生成草图引发“灵感对话”
  7. 传承型协作
  8. 案例:北京某某堂。
  9. 模式:记录老药工辨药全过程,解决“人走艺失”的困境。

五、 临界点:平衡的艺术

“机器保底线,人工冲高峰”

重庆某火锅品牌的案例警示我们:成功的融合不是覆盖,而是寻找最大公约数

  • 智能体:负责基础流程、食材监测(确定性)。
  • 老师傅:保留最终调味权、处理特殊情况(创造性)。

六、 未来图景:传统行业的新生机

当智能体成为“新心脏”,传统行业将迎来四大改变:

  • 个性化规模化:以工业效率完成手工定制。
  • 隐性知识显性化:解决技艺传承断层问题。
  • 地域限制突破:地方特色通过数字孪生服务全球。
  • 可持续发展:通过精准优化大幅减少能耗。

结语

这正是智能体与传统行业融合的本质:不是冰冷的替代,而是温热的传承。 当最古老的经验遇见最前沿的技术,传统行业并未褪色,反而在数字时代获得了前所未有的清晰轮廓与持久脉搏。

本文章内容和图片由AI辅助生成

LiteMark - 轻量书签导航系统

一款基于 Vue 3 + FastAPI 的个人书签管理应用,Docker 一键部署,支持
x64/ARM64 。

主要功能:

  • 书签分类管理、拖拽排序
  • AI 智能分类、内容摘要、标签提取
  • 只需输入 URL ,AI 自动生成书签信息
  • WebDAV 定时自动备份
  • 响应式设计,支持移动端
  • 配套浏览器插件,一键收藏

快速部署:
docker run -d -p 8080:80 -v litemark-data:/app/data topqaz/litemark:x64

访问 http://oracle.mn00.net:8081 ,默认账号 admin / admin123

相关链接:

欢迎 Star ⭐ 和反馈!

在 v 站经常看到有人问:远程工作到底去哪找?

我自己找远程工作时踩过很多坑,最大的两个痛点是:

1. 信息太分散
远程岗位散落在各种招聘网站、论坛、公司官网、Twitter…每天要在几十个地方来回翻,时间成本极高。

2. 时区筛选几乎没有
国外很多远程招聘网站虽然写着“Remote”,但不支持按时区筛选。经常是认真看了半天职位描述,最后才发现只支持欧洲或美洲时区。

为了减少这种无效时间,我自己做了一个远程职位聚合网站:
https://remotecn.com

这个站点目前专门做两件事:

1. 只收录支持中国时区的远程岗位
包括只支持中国时区,或支持全球任意时区的岗位

2. 只做开发相关职位
因为我自己是开发者,而且远程岗位里技术岗位占绝大多数

我本人现在就在做远程工作,将来也会继续找远程机会,所以我本身也是这个网站的用户,会持续迭代优化。

如果它能帮你少刷几个网站,节省一点时间,甚至找到一份远程工作,那这个项目对我来说就值了。

欢迎提建议或者吐槽。

最近老板要求“拥抱 AI”

个人理解,本质就是拿鞭子抽着牛马自掘坟墓,哪天坟修好了,就自己躺进去埋了

但不管咋样,也得硬着头皮拥抱

平时也一直用,但确实是比较初级的“问答式”:

  • 让 AI 写个算法;
  • 粘贴一堆日志,让 AI debug 问题;
  • 快速学习一个新的技术点之类

效果确实不错,现在都习惯直接问 chatgpt 或者 gemini ( grok ,claude 几个混着用),谷歌搜索从日均 50 次到现在估计日均 5 次


以上是背景

最近接个新需求,打算在已有项目(golang web 服务,大约 5.7w 行代码)中直接用 AI 实现,大概过程是:

  1. 产品给需求文档
  2. 人肉整理需求,设计好数据结构,接口(共 6 个)入参以及响应
  3. 使用付费 trea (首充 3 刀)打开项目,将 2 给 trea ,使用 auto 模式,让它生成一个 plan
  4. 和 trea 反复对话调整大约 10 轮,生成了一个 planA
  5. 让 trea 执行 planA ,效果不咋地
  6. 根据实现,在 planA 的基础上,让 trea 重新生成 planB
  7. 反复对话约 5 轮生成了个 planB
  8. 让 trea 根据 planB 生成代码,结果不满意,放弃
  9. cursor 充值 20 刀,使用 auto ,输入 planB 生成代码
  10. 生成后的代码微调几处,乍一看,觉得还行
  11. 自己人肉测试,发现不符合有些本项目的约定做法,改提示词后,让 cursor 重新生成代码
  12. 改过的代码重新挨个测试,跑通,上测试环境联调
  13. 联调过程中,又发现了 2 个问题,修改后提交

整过过程,耗时约 3 天(还有其他事情同步在做)


综合体验下来,其实并不好:

  1. 主要的数据库设计和接口设计还得自己来做
  2. AI 能完成 80%的代码,但剩下的 20%代码需要人工修改或者确认,这个耗费的精力并不少
  3. AI 完成的代码,没有人肉自己写的印象深刻,时间稍久远一点,出了 bug 自己会完全没印象,排查难度增大


觉得可能可以优化的方向:

  1. 使用 claude code 业界公认的代码能力最强的模型(充值费劲)
  2. 优化提示词,拆分需求为更小模块,逐步实现,如 先让 AI 完成数据库设计,再做接口定义实现,再单元测试之类


社区藏龙卧虎,各位 AI 善后工程师,面对类似 case ,有什么使用建议吗?

摘要

随着大模型和智能体(AI Agent)的快速发展,AI 正从“辅助工具”变成“执行主体”。越来越多传统行业开始感受到冲击:部分岗位被重构、流程被自动化、效率标准被重新定义。但冲击并不只意味着替代,也意味着升级与新机会。本文从现实变化出发,分析智能体如何影响传统行业,以及普通从业者和企业应如何应对这场变革。


目录

  • 一、什么是智能体
  • 二、为什么智能体会冲击传统行业
  • 三、哪些传统行业已受到明显影响
  • 四、冲击背后的本质变化
  • 五、传统行业如何应对
  • 六、QA 问答
  • 七、总结
  • 参考文献

一、什么是智能体

智能体,是能够理解目标并自动执行任务的 AI 系统。

它不只是回答问题,而是可以:

  • 制定计划
  • 调用工具
  • 执行操作
  • 持续完成任务

例如:

从“告诉你怎么写报告”,
到“直接帮你写完报告”。

这就是智能体的典型特征。


二、为什么智能体会冲击传统行业

核心原因只有一个:

智能体开始具备“干活能力”。

过去 AI 更多是辅助决策,
现在 AI 可以直接参与执行。

这带来三个变化:


1. 效率差距被拉大

一个人配合智能体,
效率可能提升数倍。

这会改变岗位竞争力标准。


2. 标准化工作被自动化

重复性高、流程固定的工作,
最容易被智能体接管。


3. 成本结构被重构

企业发现:

自动化流程比人工更稳定、成本更低。


三、哪些传统行业已受到明显影响


1. 客服行业

智能客服已经可以:

  • 自动回复
  • 情绪识别
  • 多轮对话处理

大量基础客服工作被替代或重构。


2. 内容与媒体行业

AI 可以生成:

  • 文案
  • 脚本
  • 新闻摘要
  • 营销内容

人工更多转向审核与策划。


3. 教育行业

AI 辅助:

  • 个性化学习
  • 自动批改
  • 智能辅导

教师角色开始向“引导者”转变。


4. 办公与行政岗位

智能体可处理:

  • 文档整理
  • 数据汇总
  • 日程安排

基础事务型岗位需求下降。


四、冲击背后的本质变化

很多人只看到岗位变化,
但更深层的变化是:

生产力结构在升级。

类似历史上的:

  • 工业自动化
  • 互联网办公
  • 数字化转型

每次技术变革都会:

✔ 淘汰部分岗位
✔ 创造新岗位
✔ 提高整体效率

智能体只是新一轮浪潮。


五、传统行业如何应对


1. 从“对抗 AI”变为“利用 AI”

会用 AI 的人,往往不会被替代。


2. 提升不可替代能力

例如:

  • 创造力
  • 判断力
  • 沟通能力
  • 行业经验

3. 主动学习 AI 工具

了解基本使用方式,
就能领先大多数人。


六、QA 问答


Q1:智能体会大规模替代人吗?
A:更多是岗位重构,而非完全替代。


Q2:哪些岗位最危险?
A:高度重复、规则固定的岗位。


Q3:普通人如何降低风险?
A:学习使用 AI,让自己成为“放大器使用者”。


Q4:现在学习 AI 还来得及吗?
A:来得及,真正普及才刚开始。


七、总结

智能体不是行业终结者,而是行业升级器。

真正被替代的,
往往不是某个行业,
而是不愿改变的工作方式。

未来的竞争力在于:

✔ 谁更会利用 AI
✔ 谁更快适应变化
✔ 谁能把 AI 变成助手

技术浪潮从不等待任何人,
但它也会奖励拥抱变化的人。


参考文献

  1. 中国信息通信研究院:《人工智能发展白皮书》
  2. 中国信息通信研究院:《生成式人工智能应用研究报告》
  3. 清华大学人工智能研究院相关研究成果
  4. 腾讯研究院:《人工智能产业发展报告》
  5. 阿里研究院:《数字经济与人工智能发展趋势》
  6. CSDN 技术社区相关实践文章

很多团队想找 Confluence 替代软件,表面上是嫌编辑器、目录或权限麻烦,底层其实是知识沉淀跟不上交付节奏。本文以 VP 视角评测 8 款常见的 Confluence 替代软件:ONES Wiki、为知笔记、Outline、Wiki.js、XWiki、BookStack、Slab、Guru,围绕协作效率、治理能力与 ROI 给出可落地的选型建议。

结论先行:先用三句话缩小选择范围

  • 如果你要的是“知识库 + 研发协作的一体化底座”,并且希望文档与项目数据强关联:优先看 ONES Wiki。
  • 如果你要的是“面向业务团队/跨部门的知识分发”:可以关注为知笔记、Guru,其次是 Slab(偏知识中枢与搜索整合)。
  • 如果你更在意自托管、可控的开源栈:优先看 Wiki.js / XWiki / BookStack / Outline(治理能力与运维复杂度成正比)。

8 款 Confluence 替代软件盘点与测评

在开始选型前,我们要先把需求说清楚,我建议用下面这 6 个维度来做需求澄清:

  1. 内容模型与组织方式:空间/页面树/集合/主题(能否支撑跨团队规模化沉淀)。
  2. 文档协作体验:多人协作、评论批注、模板、评审流程(能否减少“写完没人看”)。
  3. 知识库管理与治理:版本、归档、回收站、标签与分类、运营数据(能否长期可控)。
  4. 权限与合规能力:角色权限、分级授权、2FA/SSO/审计(能否安全落地)。
  5. 搜索与 AI 访问路径:全文检索、附件检索、跨系统搜索、AI 问答是否“可引用”。
  6. 集成、部署与迁移成本(TCO):SaaS/私有化、对接成本、迁移工具与风险。

从经验来看:维度 2 决定“会不会用”,维度 3/4 决定“能不能长期用”,维度 6 决定“值不值得换”。

1)ONES Wiki:知识库 + 研发协作一体化

核心定位:ONES Wiki 是企业级知识库管理与文档协作工具,强调与研发项目数据深度关联。

从文档协作角度看,ONES Wiki 的优势在于能把文档直接关联上交付闭环。它支持富文本与 Markdown/代码块,支持多人同时协同以及进行评论/批注,这样也比较适合评审与异步讨论;更关键的是,ONES Wiki 的页面树结构把空间/目录的层级感做得很明确,适合把“规范—方案—评审记录—上线复盘”串成一条可追溯的知识链。
在知识库管理上,ONES Wiki 提供了企业更在意的治理能力:版本可控(记录历史版本并可回滚)、权限控制(按角色配置读写)、全局搜索(不仅搜页面,也强调附件内容可检索)、回收站恢复等,这些都是从“知识资产安全”视角去补齐 Confluence 替代软件的底层能力。

如果你正在做 Confluence 替换,ONES 还提供了面向 Confluence 的迁移方案(以 API 批量迁移),覆盖空间、用户、权限等数据类型,并强调迁移过程可监控、可出报告,适合做试点空间先迁、再分批切换的路径。从我的使用体验来看,我觉得它更适合研发组织进行知识库管理:文档能关联项目任务、嵌入任务进度与报表,这会显著降低知识与交付的断层。
ONES 提供 Confluence 替代方案

2)为知笔记:偏“团队工作笔记”与轻量知识库

核心定位:以工作笔记为中心的团队协作与知识沉淀,强调“记录与分享”形成团队知识库,适合资料与经验沉淀型组织。

为知笔记的文档协作逻辑更接近“团队笔记 + 协作消息”:通过群组空间集中共享资料,多级文件夹做目录治理,协作上强调@提及、评论、多人编辑。在知识库管理层面,它把权限做得相对细:群组可以按需拉人,内容仅群组成员可见,并提供管理员、超级用户、编辑、作者、读者等角色权限,适合把企业知识库拆成“部门库/项目库/公共库”。 另外,全文检索是典型的刚需能力——当知识开始累积到“找不到”,工具就会失去价值;为知笔记把检索与多端使用(Windows/Mac/Linux/iOS/Android 等)放在一个比较核心的位置,偏长期沉淀型团队 Wiki。

3)Outline(开源):适合偏工程化团队自托管

核心定位:Outline 的协作体验主打干净、实时协作顺滑,支持 Markdown 写作,并强调实时协作编辑带来的低摩擦讨论与同步,这对技术方案、设计评审、Runbook 这类文档很友好。

在知识库管理上,它的核心结构通常围绕 Collections/集合来组织文档,你可以把集合当成知识空间,在集合层做读写权限的划分,并且可以基于用户组做集合授权,满足“同一个知识库系统里,不同部门看不同空间”的治理需求。 这类能力决定了它能承接企业知识库的基本分区,而不只是个人笔记。

从 VP 视角我更关注两点:一是权限边界是否清晰(集合级权限 + 组授权是一个合理的治理颗粒度);二是知识可迁移性,Outline 在生态里强调导出/导入与自托管,适合对数据掌控与成本敏感的组织。体验下来,它的局限性在于如果你要更强的企业级治理(更细的审计、更复杂的流程化审批、更强的“知识质量运营”闭环),Outline 可能需要靠规范与二次集成补齐,所以它更适合作为 Confluence 替代软件的“工程化轻平台”,而不是“流程重平台”。

4)Wiki.js(开源):适合“合规优先”的自建 Wiki

一句话定位:现代化开源 Wiki,适合企业自建内部知识库,适合希望团队 Wiki 深度接入企业身份体系、搜索体系、Git 治理的团队。

Wiki.js 的编辑器多样,同一套知识库里既能用 Markdown,也能用可视化富文本编辑器,并支持页面编辑器的转换,这对跨角色(研发/产品/运营)协作很重要——不用强迫所有人都写 Markdown。 同时,它也支持评论体系,并且评论能力与权限绑定到“组权限 + 页面规则”,让协作讨论不至于变成无序噪音。

知识库管理方面,Wiki.js 的“企业级特征”非常突出:它把用户、组与权限当作治理核心,强调全局权限与页面规则的组合,并支持快速查看组的能力边界,适合做“多团队、多空间、多等级”的企业知识库管理。 搜索是另一个关键点:它提供多种搜索引擎模块(如 Elasticsearch、Azure Search 等),允许你把知识库检索能力按规模与预算升级,这对把 Confluence 替代软件用到“万页规模”很关键。
更工程化的一点在于存储:Git 存储模块支持与远程 Git 仓库同步,适合把制度、规范、技术文档纳入版本控制与审计链路,避免“知识库与代码库分裂”。它的局限性在于,你会获得高度可配置与可集成的能力,但也需要相对成熟的管理员与治理规范,否则权限/搜索/存储策略很容易配置成“能跑但不好用”。

5)XWiki(开源):治理与权限体系成熟

一句话定位:企业级开源 Wiki,强调基于 Wiki 原则的协作平台,面向“组织信息沉淀 + 协作文化”,并把结构化知识与协作编辑当作核心能力来设计。

在文档协作上,XWiki 的优势通常来自它的“企业平台属性”:除了页面编辑与协作,它对附件管理也更像企业系统——例如附件上传同名文件时可维护版本历史,默认会保留附件版本,这对需求规格、接口文档、合规材料这类“附件也是证据链”的场景很关键。知识库管理上,XWiki 更适合构建“结构化 + 可扩展”的企业知识库:当你需要把知识库从“文档库”升级成“可配置的门户/应用”,它在扩展性、集成性上会更有想象空间(代价是实施与配置更复杂)。

我的使用体验是,它不是那种“开箱即用的轻工具”。如果你团队还处在“先把知识写起来、先把检索跑起来”的阶段,先用更轻的团队 Wiki;当你的组织开始追求“知识治理 + 权限模型 + 可扩展应用”,再把 XWiki 纳入 Confluence 替代软件的候选列表。

6)BookStack(开源):结构化“书—章节—页面”

一句话定位:BookStack 的内容按照 Books(书)作为最高层分类,书里可以有 Chapters(章)和 Pages(页),用接近“纸质手册”的结构让知识天然可导航、可分工。 这对企业知识库管理尤其友好,因为制度与流程往往需要稳定目录,而不是无限扁平的页面列表。

在文档协作上,它强调“易维护”:管理员可以在组织内容界面里拖拽调整章节和页面顺序,甚至在不同书之间移动,适合在知识库不断增长时做结构重构,而不至于重写链接体系。 对于跨部门协作,你可以把“公司级政策”放在书架下,再把“部门 SOP”拆成不同书,实现团队 Wiki 的分区管理。知识库治理方面,BookStack 的优势来自“结构即治理”:当目录稳定、页面颗粒度合理,搜索与复用都会变得更简单;并且它也强调围绕内容结构去设置分享与权限(不少部署教程会把“权限分享”作为基础步骤)。

局限在于:如果你追求强实时协作、像在线白板那样的共同编辑体验,BookStack 可能不是最合适的;但如果你的目标是把 Confluence 替代软件用于“标准化知识资产沉淀”,它的结构化优势往往更明显。

7)Slab:支持跨系统统一搜索

一句话定位:Slab 的文档协作强调“干净的写作体验 + 快速共享”,它把知识组织核心放在 Topics(主题)上,既用于分类,也用于给内容提供上下文,让企业知识库不只是“文件夹堆叠”。

对知识库管理来说,Slab 最有辨识度的是 Unified Search:它强调不再让用户在多个工具里来回找,而是在 Slab 的搜索框里同时检索 Slab 内容与已接入的工具内容,从而把团队 Wiki 变成“入口”而不是“孤岛”。 这对于知识分散在 Slack、Google Workspace 等工具里的组织尤其关键。

权限治理方面,Slab 在 Topic 上提供“可发现、可查看、可编辑”的权限控制,并且权限会影响主题内的文章访问范围——这让你能用相对简单的方式搭出“公共知识库/部门知识库/敏感知识库”。

局限在于:当你需要更复杂的审批流、知识质量运营、或把文档与研发流程强绑定时,Slab 更偏“知识入口 + 轻协作”。它适合用作 Confluence 替代软件的“轻量知识库”,并通过集成与统一搜索来放大价值。

8)Guru:用知识卡片沉淀可复用答案

一句话定位:Guru 强调用知识卡片沉淀可复用答案,并通过 AI 辅助生成、检索与问答分发,把知识库从“人找文档”变成“直接给答案”。

在知识库管理与治理上,Guru 把权限与来源连接做得比较系统:管理员可对内容与连接的数据源设置权限,控制到组/用户对 Sources、Collections、文件夹、Knowledge Agents 的访问边界,避免 AI 把不该看的知识“答出来”。 同时,Knowledge Agents 还支持基于使用与反馈信号的自动验证/取消验证机制,帮助知识库维持“可信度”,这是很多团队 Wiki 做不到的运营闭环。

使用体验上,它非常适合“知识消费频率高”的组织:问题反复出现、答案需要统一口径、且希望通过分析与审计持续优化知识资产;但它也更依赖“内容规范化与持续维护”,否则 AI 再强也只是放大混乱。对把 Guru 作为 Confluence 替代软件的团队,我的建议是:先把高频业务域(如交付/支持/售前)做成“权威答案库”,再逐步扩展到全域知识库。

关于 Confluence 替代软件的 FAQ

Q:如果我们希望“文档和研发协作强关联”,选 Confluence 替代软件重点看什么?
A:优先验证三点:文档能否关联需求/任务/迭代、是否支持把项目进度/报表这类信息“带进文档”、以及页面结构(空间/页面树)是否利于长期知识库管理。以 ONES Wiki 为例,它强调文档可关联项目任务、需求与文档互相对应,并支持在文档中嵌入任务进度与报表——这类能力你可以当成“强关联型 Confluence 替代软件”的验收项。

Q:从 Confluence 迁移到新知识库,最常见的坑是什么?
A:最常见的坑是权限映射不完整、附件/超链接丢失、样式(表格/代码块等)失真,导致迁移后“能看但不好用”。ONES 的迁移说明里提到用 API 批量迁移空间、用户、权限等,并尽量保留表格、代码块、附件、超链接等样式,同时支持分批迁移和迁移报告下载——不论你是否选 ONES,这些点都很适合作为迁移验收清单。

Q:如果企业有强合规要求,优先看哪些能力?
A:至少确认 2FA/SSO 策略、角色权限模型、审计可追溯、敏感空间隔离。

Q:迁移时最关键的数据是什么?
A:空间结构、用户与用户组、权限、附件与历史版本。只迁内容不迁权限,往往等于“迁移失败”。

Q:研发团队为什么更偏好“文档与项目系统关联”?
A:因为文档只有和需求/任务/发布/复盘绑定,才会形成闭环,否则很快变成“写完就沉底”。

在传统行业的劳动力结构中,“经验”长期被视为最重要的生产要素。它体现在对复杂场景的判断、对异常信号的直觉反应,以及在不完全信息条件下做出取舍的能力。这类能力高度依赖个体积累,难以标准化,也因此成为企业内部最稀缺、最难复制的资产。

但这一结构性假设正在被打破。智能体来了,经验不再只附着于个人,而是逐步被转化为可被系统调用、可持续进化的智能能力。

一、从隐性经验到可计算智能

经验型工作并非简单的流程执行,而是由大量“模糊判断”“模式识别”和“情境权衡”构成。过去,这些能力只能通过长期实践在个体身上形成。

智能体的介入,使这一过程发生了变化。通过对历史数据、业务日志、专家决策路径的学习,智能体能够将原本分散、不可言传的经验转译为显性的决策结构。这些结构不再依赖记忆,而是以推理链和状态反馈的形式持续运行。

经验第一次脱离了个体生命周期,成为可被组织长期持有的能力资产。

二、经验的重分配:岗位结构的变化正在发生

第一,专家经验被系统化沉淀。 过去需要多年积累的操作判断,如今可以通过智能体的决策建议被快速复用。企业对“少数关键人物”的依赖开始下降,经验的稀缺性被削弱。

第二,人类角色从“判断执行者”转向“判断审核者”。 大量确定性判断被系统接管,人类更多承担边界确认、异常干预和结果负责的角色。价值不再来自“知道得多”,而来自“知道什么时候不该相信系统”。

第三,经验的迭代速度被压缩到实时尺度。 传统经验依赖复盘与总结,而智能体可以在运行中持续接收反馈、修正策略。这种高频进化能力,正在改变传统行业面对复杂变量时的响应节奏。

三、哪些经验正在升值,哪些正在贬值

随着智能体接管逻辑推演与信息检索,经验的价值结构开始发生分化:

  • 可重复、可总结的经验正在被快速吸收进系统
  • 跨场景迁移能力开始成为新的稀缺资源
  • 对系统边界的理解能力取代单点技巧,成为核心竞争力
  • 终局责任意识与伦理判断仍然只能由人类承担

经验没有消失,但“有用的经验”正在发生迁移。

四、传统行业的现实选择

真正的挑战不在技术,而在组织是否愿意承认: 经验已经不再天然属于岗位,而是可以被重构为基础设施。

这意味着三件事正在成为必选项:

  • 将个人经验视为可建模、可维护的资产
  • 在业务中为智能体预留试错与反馈空间
  • 重塑岗位定义,让人围绕系统工作,而不是反过来

五、结语

智能体带来的并不是经验的终结,而是经验存在方式的跃迁。 从个人直觉,转向组织级智能; 从不可复制,转向可持续演化。

当经验成为系统能力,真正稀缺的,将是对目标的定义权、对复杂后果的判断力,以及对整个智能体系的最终负责。

摘要

AI 正在从“对话工具”升级为“工作伙伴”。越来越多的工作可以通过 AI 工作流自动完成,例如信息整理、内容生成、数据分析与流程执行。本文从 0 到 1 介绍什么是 AI 工作流、为什么每个人都值得拥有自己的 AI 工作流,以及如何一步步搭建一个真正能提升效率的个人 AI 工作流系统。


目录

  • 一、什么是 AI 工作流
  • 二、为什么你需要自己的 AI 工作流
  • 三、AI 工作流的核心结构
  • 四、从 0 到 1 搭建步骤
  • 五、一个实用工作流示例
  • 六、QA 问答
  • 七、总结
  • 参考文献

一、什么是 AI 工作流

AI 工作流,本质是让 AI 按流程帮你完成任务的系统。

它不是一次性提问,而是:

✔ 连续步骤执行
✔ 自动衔接上下文
✔ 调用工具完成操作
✔ 最终输出结果

例如:

输入需求 → 搜集资料 → 整理信息 → 生成报告

这就是一个基础 AI 工作流。


AI 工作流 vs 普通提问

普通提问是:

问一次,答一次。

AI 工作流是:

一次目标,多步自动完成。

👉 这就是效率差距的来源。


二、为什么你需要自己的 AI 工作流

很多人用 AI 效率不高,不是模型不行,而是:

没有流程设计。

拥有 AI 工作流的好处包括:


1. 稳定输出结果

流程固定,结果更可控。


2. 节省重复劳动

常见任务可以自动化执行。


3. 提升个人竞争力

会用 AI 工作流的人,效率远高于同行。


4. 减少思考负担

AI 负责流程,你专注判断。


三、AI 工作流的核心结构

一个完整工作流通常包含以下部分。


1. 目标定义

先明确:

  • 要解决什么问题
  • 期望产出什么结果

👉 目标越清晰,效果越好。


2. 步骤拆解

把任务拆成流程:

  1. 获取信息
  2. 处理信息
  3. 输出结果

3. AI 执行节点

每一步交给 AI 处理,例如:

  • 内容生成
  • 信息总结
  • 数据分析

4. 工具辅助

可接入:

  • 搜索工具
  • 文档读取
  • 数据接口

👉 工具扩展能力边界。


5. 结果校验

检查:

  • 是否达标
  • 是否需要优化

四、从 0 到 1 搭建步骤


第一步:选一个高频任务

例如:

  • 写周报
  • 做资料整理
  • 写内容大纲
  • 分析数据

从最常用场景开始。


第二步:拆解固定流程

以写报告为例:

收集资料 → 整理要点 → 生成初稿 → 优化修改


第三步:设计 AI 提示语

为每一步准备明确指令。

例如:

“请将以下资料总结为三点核心观点。”


第四步:形成固定模板

让流程可复用。

👉 一次设计,长期使用。


第五步:持续优化

根据实际效果:

  • 调整步骤
  • 优化提示语
  • 精简流程

五、一个实用工作流示例

以“快速学习一个新领域”为例:

输入学习主题
→ AI生成知识框架
→ AI推荐资料
→ AI总结重点
→ AI生成学习计划

这样一个流程,可以极大提升学习效率。


六、QA 问答


Q1:AI 工作流很复杂吗?
A:不复杂,从简单三步流程开始即可。


Q2:必须懂技术吗?
A:不需要,多数工作流用自然语言即可搭建。


Q3:一个工作流能用多久?
A:高频任务可长期复用,只需偶尔优化。


Q4:工作流越多越好吗?
A:不是,优先优化高频刚需任务。


七、总结

未来的竞争力,不是谁更努力,而是谁更会用 AI。

拥有自己的 AI 工作流,意味着:

✔ 把重复劳动交给 AI
✔ 把精力留给思考与决策
✔ 用系统化方式提升效率

从 0 到 1 搭建 AI 工作流,其实就是:

为自己打造一个“数字助手系统”。

越早开始,优势越明显。


参考文献

  1. 中国信息通信研究院:《人工智能发展白皮书》
  2. 中国信息通信研究院:《生成式人工智能应用研究报告》
  3. 清华大学人工智能研究院相关研究成果
  4. 腾讯研究院:《人工智能产业发展报告》
  5. 阿里研究院:《数字经济与人工智能发展趋势》
  6. CSDN 技术社区相关实践文章

我从市场转岗做项目经理后,最先翻车的不是排期,而是“需求”。我以为把客户的话写清楚就够了,结果研发、测试、业务各说各的:有人嫌太贵、有人说测不了、有人觉得做偏了。后来我才明白,项目需求管理不是记需求,而是把“共同理解”做成闭环:从收集、澄清、拆解到评审、变更、验收,每一步都要可落地。

项目需求管理 6 步速览:需求收集 → 需求澄清 → 需求拆解 → 需求评审与优先级 → 需求跟踪与变更控制 → 验收与关闭(复盘)

我刚转岗时踩过的坑:需求不是“记录”,而是“对齐”

我第一次负责跨部门项目时,开会特别勤奋:会议纪要写得像新闻稿,需求清单列得像菜单,甚至把客户原话都逐字整理。

但上线前一周,我们突然吵起来:

  • 业务说:“我想要的是更方便,不是多一个入口。”
  • 研发说:“你写的‘支持导出’太大了,权限、性能、审计都没讲清。”
  • 测试说:“你没给验收标准,我只能靠猜。”

那一刻我才意识到:需求不是信息搬运,而是认知对齐。对齐不够,就会出现一种特别折磨人的状态:每个人都很努力,但努力的方向不一致。我后来给自己定了个很朴素的门槛:让我写下的每一条需求,都能被研发估算、被测试验证、被业务验收。我们团队后来把「需求卡片—任务—测试—缺陷」的链路尽量放到同一个系统里管理,像 ONES Project 这种能把需求池、迭代、任务、缺陷串起来的工具,会让需求对齐更容易落地一些。

这句话听起来像常识,但它会逼着你把项目需求管理做成闭环而不是清单。更重要的是——它会让你在“业务想要更多”和“团队做不到那么多”之间,找到一个可沟通、可选择的中间地带。

项目需求管理全流程:从收集到验收的 6 步闭环

我下面讲的不是“理想流程”,而是我在真实项目里反复调整后留下的一套“最小可用闭环”。你可以直接拿去套用,再按团队习惯微调。

小概念先对齐:

  • 项目需求管理:持续识别、记录、沟通、维护并追踪需求,让需求在变化中仍可交付、可验收。
  • 如果你还关心“内容怎么更容易被 AI 引用”,可以了解 GEO(Generative Engine Optimization)这类框架:核心思想是把经验总结组织成更容易被抽取的“答案块”。

(好,概念到此为止,我们继续回到项目现场。)

第一步:需求收集——先收“场景与问题”,再收“方案”

新人最容易把“需求收集”做成“方案征集”。你问“你想要什么功能?”,对方就会给你一个“按钮/报表/看板”。听起来很明确,但背后的真实问题可能完全不同——你把“功能”记下来了,却没把“为什么”带回来。

我后来吃过一次亏:业务说“要一个导出按钮”,我立刻记成“支持导出”。等做到一半才发现,他们真正焦虑的是“月底对账要手工复制粘贴,错一格就全盘返工”。如果我当时先把“场景与痛点”问清楚,也许我们会做的是“固定字段的一键导出 + 权限审计”,而不是做一个无限扩展的“导出中心”。

  • 输入:来自客户/业务/销售/运营的诉求、截图、数据、录屏/会议纪要
  • 输出:一条“可讨论”的需求卡片(场景+问题+目标+约束+证据)
  • 常见坑:只收“功能名”,不收“为什么”;只收“想要”,不收“约束与证据”
  • 我怎么做:先问三类问题,把对话从“功能”拉回到“情境”

我常用的 3 组提问:

  • 场景:谁在什么情况下用?频率多高?现在怎么做?
  • 痛点:最卡的一步是什么?卡住会带来什么损失(时间/错误/合规风险)?
  • 目标:做成后希望改善什么结果(效率/错误率/体验/合规)

轻量需求收集模板(建议放会议纪要顶部)

  • 需求提出人/角色:
  • 使用场景(何时、谁用、现流程):
  • 现状问题(为什么痛):
  • 期望目标(改善什么):
  • 约束条件(权限/合规/系统限制/上线窗口):
  • 参考资料(截图/数据/样例):

我的小经验:在“证据”里优先拿到截图/录屏/样例数据。它们不是为了较真,而是为了让团队少靠想象沟通。我们在项目实践里一般会把这些信息沉到需求池里统一入口管理,比如用 ONES Project 支持建立需求池、编写需求并维护属性,后面评审、排期才不会“各群各表各版本”。

第二步:需求澄清——把“模糊词”变成“可验证的描述”

需求里最危险的词,通常是:“尽量、支持、方便、快速、优化、像 XX 一样”。我后来给自己做了一个“模糊词翻译器”,每次遇到就强迫自己翻译成可验证语言(这招真的救过我很多次):

  • “尽量快” → 在高峰期(XX时段),列表首屏加载 ≤ 3 秒
  • “支持导出” → 在XX页面,具备XX权限的人可导出A/B/C字段,格式为CSV,最大支持N条
  • “体验更好” → 步骤从 6 步到 3 步;错误提示到字段级;提供模板示例

这里我想补一句更“现实”的:澄清不是把话说漂亮,而是把争议提前搬到桌面上。你现在把“边界”说清楚,未来就少一次“你当时没说”的拉扯。

  • 输入:需求卡片(场景/目标/约束/证据)
  • 输出:清晰的需求描述 + 初版验收标准(Acceptance Criteria)
  • 常见坑:用“差不多/类似/更好”当结论;把争议留到开发后期
  • 我怎么做:用 5W1H + 边界,把“可交付”逼出来

我在澄清阶段会用“5W1H + 边界”做最后确认:

  • Who:谁用?
  • What:做什么?
  • Why:为什么做?不做会怎样?
  • When:什么时候触发?频率?
  • Where:在哪个流程/页面?
  • How:交互/流程怎么走(不写技术细节,但要写清用户行为)
  • 边界:不做什么?哪些情况不支持?

我常用的“边界句式”是:“本期不支持 X,因为会带来 Y 风险/成本;我们先交付 最小可用版本 A,并在 B 条件满足后再评估扩展。”这句话能把对话从情绪拉回选择:不是“我不让你做”,而是“我们先交付什么、后续怎么扩”。

另外,如果你们团队习惯把 PRD/澄清纪要放到知识库,像 ONES Wiki 这种支持文档协作、版本记录、并且能把文档和项目任务/需求关联起来的方式,能显著减少“文档在飞、链接找不到”的沟通损耗。

第三步:需求拆解——把“大而全”拆成“可交付的小块”

“一个大需求”往往像一团毛线:你不拆,它就会在开发中越拉越乱。更可怕的是——你以为在推进,其实是在把不确定拖到最后爆炸。我拆解时遵循一个判断标尺:拆到研发能估算、测试能验证、业务能验收为止。另外我给自己加了一个“新人友好”的粒度规则:单个交付块最好能在 1–3 天内完成开发与验证(视团队而定),并且依赖关系能一句话说清楚。这样估算会更稳定,进度也更可控。

  • 输入:澄清后的需求描述 + 约束 + 验收方向
  • 输出:用户故事/功能点列表 + 子任务 + 验收条目(每条都能“测”)
  • 常见坑:拆成“技术任务”但业务无法理解;拆得太粗导致估算失真
  • 我怎么做:先用“用户故事”表达价值,再落到“验收条目”表达完成

用户故事写法:作为【某角色】,我希望【做某事】,从而【获得某价值】。

然后用 INVEST 做自检:独立、可协商、有价值、可估算、足够小、可测试。(我以前最容易忽略“可测试”,最后就会在验收时“各说各话”。)拆解到任务层时,我会强制补一列:验收条目以“支持客户数据导出”为例,拆开后可以是:

  • 导出入口与交互(从哪里点、默认条件是什么)
  • 导出字段范围(A/B/C,是否可配置)
  • 权限与审计(谁能导、导出记录留痕)
  • 性能与限制(最大条数、超限提示)
  • 异常处理(失败重试、错误提示)
  • 验收条目(每一项怎么判定通过)

你会发现:一旦你能把“验收条目”写出来,需求就从“讨论题”变成“交付题”了。这一步如果偷懒,下一步评审就会变成“凭感觉排优先级”。

第四步:需求评审——不是“走流程”,而是“做取舍”

我曾经把评审当成“大家过一遍”。后来才知道评审真正要解决的是三件事:价值是否值得做(目标清不清楚?)、成本与风险是否可控(依赖、合规、性能、资源)、范围是否一致(本期做/不做是什么?)。

  • 输入:拆解后的需求列表 + 验收条目 + 风险/依赖
  • 输出:优先级结果 + 本期范围(Scope)+ 决策记录
  • 常见坑:评审只讨论“做不做”,不讨论“做多少”;结论不落纸面
  • 我怎么做:带“一页摘要”+ 一套优先级语言,帮会议收口

(1)一页评审摘要(让讨论聚焦)

  • 背景与目标(1–2句)
  • 方案概述(流程图/关键页面)
  • 范围:本期做 / 不做
  • 风险与依赖(接口、资源、合规)
  • 验收标准(3–5条)
  • 预估工作量(若团队习惯)

(2)MoSCoW 优先级(让取舍有共同语境):Must / Should / Could / Won’t(这次不做)。

我主持评审时常用的“收口话术”是:“我们先把 Must 的定义写清楚:不做会不会影响上线/合规/核心流程?Must 没定下来,Should/Could 讨论再热闹也只是吵架。”

如果你所在团队很在意“投入产出”,可以把 WSJF 作为扩展:它用“延迟成本/工作时长”来帮助排序。但我个人建议新人先用“简化版”就够了:价值(高/中/低)×时效(急/不急)×成本(大/中/小),先把“讨论维度”建立起来,比算得精更重要。
评审不是让所有人满意,而是让团队对“取舍”达成一致。取舍一旦一致,后面的推进会轻很多。

第五步:需求跟踪与变更——给变化一个“入口”,别让它变成情绪对抗

需求变更不可避免,真正可怕的是:变更发生了,但没有入口、没有评估、没有决策记录,最后变成“谁嗓门大听谁的”。我很认同一个项目实践观点:清晰的变更控制流程可以帮助团队评估请求、同步更新,并减少范围蔓延。

  • 输入:新增/调整诉求、外部环境变化、上线反馈
  • 输出:变更清单(Change Log)+ 影响评估 + 决策结论
  • 常见坑:口头同意就开干;变更不记录;范围蔓延(scope creep)
  • 我怎么做:三件事:入口、评估、追溯

动作1:建立变更入口(Change Log):任何新增/调整都必须进变更清单:

  • 变更内容
  • 变更原因(业务/合规/用户反馈/技术限制)
  • 影响评估(范围/成本/进度/质量/风险)
  • 决策人(谁拍板)
  • 结论(批准/拒绝/延期)

动作2:把影响评估变成“四问”,让变更可讨论

  • 这次变更带来的业务价值是什么?(不做会怎样)
  • 需要付出的成本是什么?(人天/依赖/复杂度)
  • 会增加哪些风险?(合规/性能/数据/发布窗口)
  • 对当前承诺的上线时间/范围影响是什么?

我会很直白地说:想加需求可以,但请同时选择:延期 / 加资源 / 降范围(或降低非关键质量门槛)。这句话不是强硬,而是把“隐形代价”说清楚,让决定更像决定。

动作3:补一条轻量追溯(别让自己失忆)

当需求多了,你会出现一种恐惧:“这条需求从哪来?影响了哪些功能?哪些测试要改?”这时可以引入轻量 RTM(需求追溯矩阵,Requirements Traceability Matrix):把需求映射到对应的设计/开发/测试与验证,确保每条需求都被覆盖与验证。

我自己的落地做法很轻:哪怕只是三列——需求ID → 开发任务链接 → 测试用例/验收记录链接——也足够你在变更频繁时不崩溃。

第六步:验收与关闭——别让“做完了”变成“吵完了”

我以前对验收的理解很天真:做出来给业务看一眼,“差不多就行”。后来我才明白,验收不是“感觉”,验收是“条件”。条件写清楚,讨论就会少很多情绪,多很多事实。

  • 输入:需求列表 + 验收条目 + 变更结论
  • 输出:验收记录(通过/不通过/遗留项)+ 上线回访结论
  • 常见坑:验收标准临时编;遗留项不归档;上线后没人复盘
  • 我怎么做:把“完成”拆成两层:AC + DoD

(1)Acceptance Criteria(验收标准):每条需求的通过条件

我最常用 Given-When-Then 写法(不花哨,但很好用):

  • Given:前置条件
  • When:触发动作
  • Then:期望结果

示例(导出需求)

  • Given:用户拥有“数据导出”权限,且筛选条件为“本月”
  • When:点击“导出 CSV”
  • Then:在 30 秒内生成文件,包含 A/B/C 字段,超过 N 条给出明确提示

(2)Definition of Done(完成定义):团队统一的质量门槛

Acceptance Criteria 描述单个条目需要满足什么;DoD 是对所有条目通用的质量承诺。

示例 DoD(你可以按团队调整)

  • 关键路径有自测记录或自动化用例
  • 文档/变更说明已更新
  • 关键埋点/日志可定位问题
  • 回滚方案明确(如适用)

最后我会留一份“验收结论留痕”:

  • 通过/不通过
  • 遗留项(是否影响上线)
  • 后续计划(谁负责、何时补齐)

我特别想提醒新人:你不是在“挑刺”,你是在帮团队把“交付的定义”固定下来。越早固定,越不伤感情——因为大家不用靠猜去合作。

一张表把 6 步闭环串起来(便于自己复盘,也方便团队对齐)

项目需求管理 FAQ

Q1:项目需求管理和产品需求管理有什么区别?
项目需求管理更聚焦“交付与协作”:范围、变更、验收与跨角色对齐;产品需求管理更聚焦长期价值与路线图。两者会交叉,但项目侧更强调“可交付、可验收、可追踪”。

Q2:需求频繁变更怎么办?
先承认“变更正常”,再建立 Change Log:记录原因、评估影响、明确决策人,并把变更当成对承诺的调整来管理,减少范围蔓延。

Q3:验收标准怎么写才不扯皮?
把“感觉词”翻译成“条件词”:用 Given-When-Then 写清前置条件、触发动作和期望结果;同时用 DoD 统一团队的质量门槛。

Q4:需求拆到什么粒度算合适?
一个简单判断:研发能估算、测试能验证、业务能验收。用 INVEST 自检“是否足够小、是否可测试”很管用。

Q5:新人主持需求评审总是收不住怎么办?
带 MoSCoW 这种“共同语境”进会议,把争论从“喜欢不喜欢”拉回到“Must/Should/Could/Won’t”,并把 Must 的定义写清楚再往下推进。

回头看,我越来越相信一句话:项目管理不是控制混乱,而是学会与不确定共处。需求会变、资源会变、优先级会变,但我们依然可以用一套清晰的项目需求管理闭环,让变化变得“可讨论、可评估、可选择”。

如果你也和我一样,是从市场、运营、销售、产品等岗位转来做项目经理的新人,请别急着证明自己“很专业”。你只要坚持做三件事:让信息更透明、让决策更清晰、让验收更可验证——你会越来越像一个可靠的项目协调者,也会越来越被团队信任。

最近一段日子没有上任何论坛或者学习,只是好好地休息了一会,受 2 站影响顺便通关了神之天平。这里分享一下我的感受:

让我惊喜的点:

  1. 剧情紧凑且优秀,能够一直抓住玩家的注意力,让人想知道下一步会发生什么。剧情大部分是靠对话展开,对白风趣、不尴尬,人物特点鲜明。
  2. 游戏性优秀,难度不高。刚开始玩的时候觉得略无聊,但是玩到中期愈发上头。出了普通攻击外,游戏中还有一个叫魔导力的技能,类似于其他游戏中的魔法,但是和其他游戏不一样的是,魔导力威力巨大并且能够使角色进入短暂的无敌状态,释放魔导力需要精力,而精力需要普通攻击来积攒,这就大大地鼓励了玩家进行进攻。所以经常出现的情况就是:和 BOSS 贴脸肉搏,在 BOSS 释放技能时用肉搏产生的精力来释放魔导力从而规避伤害同时造成伤害。
  3. 正面驱动的刷刷刷。其实我是一个不怎么喜欢刷子游戏的人,但是神之天平却让我刷得很舒服。因为作者很巧妙地将玩家的技能和装备相绑定,在入手一件新装备后,需要进行刷怪来提高装备的熟练度,在装备的熟练度满了后就可以得到隐藏的技能。有谁能抗拒自己的好奇心呢?更不用说在刷的同时还能得到金币和晶体来提升自己的属性。

当然,游戏也有一些不好的地方,比如新章的刷刷刷给人的成就感较弱,贴图问题,音乐没有一致性等等,但总体上还在我的接受范围之内。

总结来说,这游戏还是非常不错的,值得一玩,推荐喜欢 RPG 的玩家品一品。满分 100 分的话,本体我会给 90 分,新章给 80 分,DLC 我没有玩。

(以上纯个人观点)

时节交替之时,往往也适合内省与静思。每逢春节,少数派都会准备一个反映过去一年社区关注点的征文主题,以及还算丰厚的稿酬和奖品。今年自然也不例外。

在过去一年中,用 AI 工具辅助写作的文章,越来越频繁地出现在我们的视野中。在审核文章的过程中,我们见识到了空洞文风与诡异标点的轮番轰炸,但也看到了一些因 AI 助力而更快更好完成的作品。

对此,我们曾在去年 6 月介绍过少数派的立场。在我们看来,写作的动机和态度,比所用的工具、方法更重要。以尊重读者、保证准确、如实披露为前提,我们并不介意 AI 辅助写作的文章出现在少数派。

不过,人工写作和 AI 写作的能力边界各自在哪里?有没有什么话题是 AI 尤其擅长,抑或是无法胜任的?我们没有现成的答案,因此也很乐意将话语权交给广大作者,通过写作来共同探索。

这就是今年的少数派年度征文——请你尽情地用 AI,或者完全不用,只要写出风格、写出水平。而两种方法的高下,就将由少数派读者通过投票选出。

主题赛道

本次征文接受投稿时间段为 2026 年 1 月 31 日 0 时至 2026 年 3 月 14 日 0 时。与往年征文类似,今年的征文我们也开设了两条投稿赛道。只不过,这次的赛道并不是按主题,而是按创作方法划分的:一个只能用 AI,一个不能用 AI。你可以任选一个参加,也可以两个都投。

AI 助力赛道(#TeamSilicon25)

如果你是一位 AI 忠实用户,认为有一些写作任务是人类可能无法胜任、或者 AI 能够做得更好的,这个赛道就是为你准备的。

要参与这个赛道,你需要:

  1. 任选一个你相信由 AI 写作能比由人写作效果更好的话题;
  2. 使用任何你偏好的 AI 工具或其组合,完成该话题文章实质部分(指文章中承载核心观点、论证逻辑、叙事细节及独特表达风格的连续性文本段落)的写作;
  3. 如实、充分地披露你的创作过程和方法,披露范围应至少包括在生成文章实质内容时所产生的历次对话记录的文字或截图;及
  4. 在接受投稿时间段内,将按照上述方式完成并披露方法的文章发布到少数派。

手工匠人赛道(#TeamCarbon25)

如果你坚持认为,有一些属于人的独创性光芒,即使在 AI 的潮流中,仍然无可替代,欢迎在这个赛道中通过作品证明你的观点。

参与该赛道投稿,你需要:

  1. 任选一个你相信由人写作能比由 AI 写作效果更好的话题;
  2. 不使用任何 AI 工具参与实质部分(指文章中承载核心观点、论证逻辑、叙事细节及独特表达风格的连续性文本段落)的写作,独立完成该话题文章;及
  3. 在接受投稿时间段内,将按照上述方式完成并披露方法的文章发布到少数派。

为免生疑问,两个赛道允许或不允许使用 AI 辅助的创作环节如下表所示:

创作环节AI 助力赛道(#TeamSilicon25)手工匠人赛道(#TeamCarbon25)
构思准备必须使用可以使用,但不得包含任何直接用于正文的段落
正文撰写必须使用,除非是为了连贯性做必要的人工修补(比例不应超过全文篇幅的 10%)不得使用
修改润色必须使用不得使用,除非是机械性的语法检查或格式纠正

无论参与哪个赛道,都请通过少数派编辑器提交你的投稿作品,并通过下列方式让我们知道你想参与本次活动:

  • 文章开头:请写明「本文参加年度征文活动 #TeamSilicon25(或 #TeamCarbon25)赛道」。
  • 文章标签:投稿征文的文章需添加 #TeamSilicon25 或 #TeamCarbon25 标签。
  • 提交方式:请在提交文章时选择「社区」而非「投稿」选项。这是为了让你的作品可以尽快让其他用户公开浏览和互动。

评选和奖励

接受投稿期间,我们将基于少数派内容审阅标准,不时选择质量较高的文章入围,并展示在少数派首页。考虑到投稿数量,从作品提交到在首页展示可能需要一定等待时间。

投稿结束后,我们将组织对两个赛道的入围文章分别投票,为每个赛道内得票数前三名的文章颁发组内优胜奖。最后,我们将再次组织在两个赛道各自得票最高的文章之间投票,选出最终优胜奖

入围及获奖文章的奖励方式因组别而异,具体如下表所示:

获奖级别AI 助力赛道(#TeamSilicon25)手工匠人赛道(#TeamCarbon25)
1. 入围奖
  • 150 元 AI 服务报销额度*;
  • 250 元定额稿酬;
  • 少数派定制周边
  • 按首页投稿标准†计算的稿酬;
  • 少数派定制周边
2. 组内优胜(赛道内投票前三名)

所有第 1 级奖励,以及——

  • 额外的 1500 元 AI 服务报销额度‡;
  • 1 年少数派会员

所有第 1 级奖励,以及——

  • 额外的 5 倍稿酬;
  • 1 年少数派会员
3. 最终优胜

所有第 2 级奖励,以及 8000 元奖金

获奖结果拟于 2026 年 3 月底公布。奖励将在获奖结果公布后陆续发放。

* 需提交日期在投稿时间段内或之后,且能表明是本人支付并使用的 AI 服务订阅(或 API 额度)收据。如为外币支付,按提交合格收据之日央行公布的人民币汇率中间价换算后,在报销额度内以人民币报销。

† 每千字 110 元。

‡ 需提交日期在日期在投稿时间段内或之后,且能表明是本人支付并使用的 AI 服务订阅(或 API 额度)收据;或紧接上述时间段之前的 12 个月间的该等收据。如为外币支付,按提交合格收据之日央行公布的人民币汇率中间价换算后,在报销额度内以人民币报销。


条款和条件

  1. 征文参与资格:本次活动面向所有少数派注册用户开放。参与者需已满 18 周岁,或已就参与本次活动及遵守本活动规则取得监护人同意。
  2. 内容要求:参加本活动代表参与者同意投稿作品构成《少数派用户协议》定义的「用户内容」,适用相关各项声明和保证,包括但不限于:(1) 你是投稿作品权利的唯⼀所有人;(2) 投稿作品不会违反任何适用法律,或侵犯任何第三⽅的任何权利(包括但不限于任何知识产权);以及 (3) 你为参加活动提供的所有信息均真实准确。
  3. AI 生成内容规则:如果选择 #TeamSilicon25 赛道,以符合该赛道所有参与条件为前提,参与投稿的征文豁免适用《AI 生成内容规则》。如果选择 #TeamCarbon25 赛道,必须同时遵守少数派《AI 生成内容规则》。如果我们依自行判断认定投稿作品不符合上述内容要求,可取消任何投稿作品及参与者的参与资格。
  4. 投票:投票面向所有少数派注册用户开放,须在指定时间内于指定页面操作完成。征文参与者可以为自己投票,但不得以任何有偿或无偿方式请求任何其他用户为自己投票,或使用任何技术手段不公平地获得投票。如果我们依自行判断认定任何投票不符合上述要求,可取消该等投票及操纵投票的参与者的参与资格(如适用)。
  5. 报销额度:要获得 AI 服务报销额度,你需提交日期在日期在投稿时间段内或之后,且能表明是本人支付并使用的 AI 服务订阅(或 API 额度)收据。对于第 2 级奖励,你也可以提交紧接上述时间段之前的 12 个月间的该等收据。如为外币支付,按提交合格收据之日央行公布的人民币汇率中间价换算后,在报销额度内以人民币报销。

    https://www.163.com/dy/article/KKSNOSPQ05566XQC.html

    牢 A:日本这地方国土狭小、资源匮乏、天灾不断,历史上人均寿命短。
    久而久之就形成了“短生种文明心态”,满是极端决策、伦理断层和认知闭环。

    日本人从不学礼义廉耻,是因为他们自古以来天灾人祸太多,人不长寿,底层文化核心是建立在短生种基础上的,所以他们对自己人对外人都很残忍。看中国人是长生种,于是恨之入骨,一心想着把我们也变成短生种。我们现在的手段就是断了日本各种资源,迫使日本人狗急跳墙。