有多少重仓恒生科技和中概的 V 友?
调研下,看看港股熊市,有多少还没割肉的同学。
xiaohack博客专注前沿科技动态与实用技术干货分享,涵盖 AI 代理、大模型应用、编程工具、文档解析、SEO 实战、自动化部署等内容,提供开源项目教程、科技资讯日报、工具使用指南,助力开发者、AI 爱好者获取前沿技术与实战经验。
调研下,看看港股熊市,有多少还没割肉的同学。
去年国庆后公司裁员,没想到自己也在名单中,在这家公司工作了 4 年,就赔了 2 个月工资。
那时候觉得休息一下也好,缓一缓再找。
11 月份开始投简历。大部分是已读不回,有几个聊几句也没有面试机会。
前前后后找了 2 个月,一个面试都没有
才慢慢接受,是真的找不到了。
摆烂一段时间,每天睡到中午,刷手机,点外卖,
然后觉得干耗着也不是办法,就想着自己做点什么。
之前一直在公司做业务开发,但从来没独立做过一个完整产品,
什么支付、多语言、SEO 、部署全都要从头学,
就硬着头皮开始学。
磕磕绊绊搞了两个月,产品总算上线了。
做的是一个 AI 视频和图片生成平台
产品链接是:
有需要的朋友,可以注册下,留下邮箱,前 20 名我赠送积分
请各位指导,谢谢了
这款后端平台专为开发者打造,让 AI 代理能轻松构建和部署全栈应用,告别繁琐配置。

热度:🔺538
Cardboard 就像你的智能剪辑伙伴,能快速将原始素材处理成专业视频,省时省力。

热度:🔺450
Teract AI 是你的在线声誉管家,学习你的声音,帮你精准参与社交媒体讨论,提升影响力。

热度:🔺358
OpenUI 为生成式用户界面设定了开放标准,让 AI 应用不再局限于文字输出,互动性更强。

热度:🔺341
Knowlify 能把枯燥的文档变成生动动画视频,特别适合团队制作高质量解说内容。

热度:🔺279
谷歌推出的首款原生多模态嵌入模型,能统一处理文本、图像、视频等多种媒体,开启智能检索新篇章。

热度:🔺245
Firecrawl CLI 是 AI 代理和开发者的网络数据利器,高效抓取和清理信息,让数据获取更可靠。

热度:🔺185
IonRouter 让你以市场半价访问顶尖开放模型,加速 AI 服务部署,成本效益显著。

热度:🔺167
Citable 专为中小企业打造,帮你抢先获取 AI 答案,优化地理搜索策略,抢占市场先机。

热度:🔺150
MorphMind 把 AI 从聊天机器人变成可操控的专家团队,让你深度参与智能工作流,提升产出质量。

热度:🔺144
梦饷科技是国内领先的商品分发智能解决方案提供商,自2015年成立以来,历经代购时代、店主时代、开源时代和AI时代,期间发布了爱库存App、饷店H5、饷店小程序等产品,确立了B2R的商业模式和分利模型。截至目前,梦饷科技已服务超400万店主,累计为4万多个品牌销售商品。 近年来,梦饷科技提出AI战略,并持续深耕AI技术与电商业务的深度结合。 在由上海市商务委员会指导、上海市网购商会主办的《2025 年上海商业人工智能优秀案例集(电商与零售篇)》 中,梦饷科技凭借“AI 驱动客服体系重构”项目脱颖而出,荣获“卓越引领奖”,成为此次评选中唯一入选的私域电商平台。 当AI已成为私域电商的 “核动力引擎”,梦饷科技正通过AI技术重构 “人货场” 关系 —— 驱动店主成为多领域专家、重构商品特征匹配逻辑、进化全渠道运营能力,实现从 “流量运营” 到 “智能运营” 的跨越。 梦饷科技拥有多重业务形态,其中,饷店小程序是梦饷集团旗下的去中心化品牌特卖平台,为了实现转化效率和用户体验提升,饷店小程序希望推进推荐系统迭代升级,以实现短时间内多个场景推荐效果显著优化。具体痛点如下: 精细化召回需求丰富: 尽管智能推荐价值已被充分认可,但在系统能力建设方面仍处于关键爬坡期: 在推荐效果持续优化的过程中,梦饷团队的关注重点已从“有没有推荐”转向“推荐得好不好”,这是从“经验驱动”迈向“数据+算法驱动”的必经之路。 针对上述问题,阿里云协助梦饷科技构建了云原生的搜索推荐系统技术架构,该架构基于阿里云智能推荐 PAI-Rec 和 TorchEasyRec 实现。 PAI-Rec 提供智能数据诊断能力,帮助客户快速理解数据分布,科学构建特征体系。 通过推荐算法定制配置产出多种统计特征,避免繁琐的特征工程统计开发工作: 依托 TorchEasyRec,实现深度模型的高效应用与快速迭代。 对某些用户具有较强的商品性别偏好,可以根据用户性别偏好对商品加权,满足业务需求。 为了避免某些商品反复曝光给用户,可以做曝光频率控制,当曝光数量较多则设置过滤。 PAI-Rec 平台已内置完整的工具链能力,无需自行开发,显著降低系统建设成本。 截至12月底,梦饷推荐系统升级在核心业务场景中取得显著成效:当AI已成为私域电商的 “核动力引擎”,梦饷科技携手阿里云PAI,通过AI技术重构 “人货场” 关系 —— 驱动店主成为多领域专家、重构商品特征匹配逻辑、进化全渠道运营能力,实现从 “流量运营” 到 “智能运营” 的跨越。
关于梦饷科技
业务痛点

业务节奏快,运营诉求多样且时效性强
技术底座尚在建设中,研发资源面临较大投入压力
基于阿里云PAI-Rec升级梦饷推荐系统架构

推荐算法升级:实现智能化效果提升
特征选择与工程指导
深度学习算法低成本落地
精细化召回能力:满足多样化运营需求
售罄过滤与热卖商品召回
利用 PAI-Rec 的过滤机制,通过配置 FilterConfs 实时过滤已售罄商品,确保推荐结果均为可购状态。
可采用 UserGlobalHotRecall 或自定义策略,结合商品销量、库存状态等维度筛选高转化潜力商品,用于特定场景的强转化引导。多维度热门商品召回
通过配置 UserGroupHotRecall 组件并设置 category 触发器,实现在指定类目下的热门商品精准召回。
支持基于用户属性(如性别 + 城市)的组合条件配置,在召回引擎中设置多个触发条件,实现人群细分下的个性化热度推荐。基于业务规则的调整权重和曝光频率控制
平台化建设:一体化推荐系统平台
PAI-Rec 提供完整的 AB 实验管理后台,支持按天或按小时粒度追踪实验表现,并允许自定义核心评估指标,实现精准效果归因。
平台提供专用工具,自动比对离线与在线特征的生成结果,有效识别并预警数据不一致问题,保障实验结论的准确性。
提供多维度的推荐结果可视化分析能力,支持对召回来源、排序分布、曝光覆盖等关键环节进行深度洞察,助力快速定位问题。项目成果与展望
✅ UV点击率提升30%,用户对推荐内容的兴趣度和匹配精准度实现跨越式增长;
✅ 推荐场景驱动的交易额(GMV)显著上升,全面达成客户设定的年度业务目标。
在徽章的弹窗中,鼠标移入徽章不同位置有一种 3d 晃动的感觉,这种是怎么实现的呢
PIP 绩效改进计划表填表日期:2025 年 2 月 3 日部门:前端开发工程师工作中需要
改善的地方绩效状况描述 1 、bug 修复效率与质量双低:处理已知 bug 时耗时过长,修复后易出现复现、衍生新 bug 的情况,未形成有效修复闭环。
2 、发布与线上稳定性把控不足:负责模块多次出现发布问题,引发线上事故,未做好发布前自查、验证,缺乏风险预判意识。
3 、需求交付与代码质量不达标:需求落地完成度低,常出现功能遗漏、逻辑偏差;代码质量差等问题,增加团队协作成本。
PIP 绩效改进计划 绩效改进期:2 个月开始日期:2026 年 03 月 10 日结束日期:2026 年 5 月 10 日绩效改进目标考核目标考核标准结果值(百分制)考核结果 1.提测质量要求提测版本的原生功能 bug 数控制在 7 个及以内(以测试人员正式提测报告统计为准,不含需求变更、环境问题导致的非代码类 bug )。
20%2.生产环境 bug 管控本计划周期所属季度内,负责模块引发的生产环境 bug 数控制在 5 个及以内(含线上偶现、必现 bug ,不含外部依赖、运维环境导致的 bug ),且生产 bug 需在规定时限内响应修复(紧急 bug≤2h ,一般 bug≤24h ) 20%3.代码相关核心职责主动承接团队代码评审工作,负责指定需求的代码批改,确保评审覆盖需求逻辑、代码规范、性能优化、边界处理等维度,输出明确评审意见并跟进整改。
负责自身承接需求的全流程代码实现,从需求拆解、方案设计到编码、自测,确保代码符合团队编码规范,落地与需求设计 100% 匹配 20%4.工作职责 1:完成 Y 端 UI 改版以及老师和学员测评交互逻辑串联
2:提测后功能 bug 不能多余 10 个
3:上线后的生产 bug 不能多余 3 个 20%员工本人签名、日期:直接主管签名、日期:最终考核得分:绩效改善
情况说明备注:
1 、此表目的:帮助员工提升绩效,以便于员工更好的完成工作;
2 、“工作中需要改善的地方”与“PIP 绩效改进计划”,由直接主管与员工面谈时填写,经员工本人签字确认后,将文件扫描报备 HR ,原件由直接主管留存;“绩效改善情况说明”由部门主管于绩效改进计划结束后确认,最终由 HR 保管;
3 、在计划截止时间到期后,上级主管将对员工改进结果进行评分,评分≥80 分为通过;
4 、若考核通过,则可继续担任本岗位,若考核未通过,则视为不胜任目前岗位。员工本人签名、日期:直接主管签名、日期:部门主管签名、日期:人力资源签名、日期:
被 openclaw 创始人指责,舔着脸说自己分流,降低压力。
高情商:我帮你分流了。
低情商:我要自己搞个社区,先拿你的东西启动。

名字还是 tencenthunyuan😅,混元、deepseek、qclaw,一路摘,一路丢人。
大家好,我是老刘 最近Flutter 官方主动推出了Flutter开发的官方 Skill(还没正式发布)。有不少朋友让老刘谈谈对这件事怎么看。 我是躺床上看的😄 Flutter官方主动推出Skill,说明 Flutter 团队非常敏锐地捕捉到了 AI 编程的趋势,也说明Flutter官方团队对AI编程的重视程度。 这给其他框架(如 RN, KMP)通过了压力,也树立了标杆。 未来,一个框架是否流行,不仅取决于它本身的性能和生态,还取决于它对 AI 是否友好。“文档写得好”可能不如“Skill写的好”更有吸引力。 接下来我们先来介绍一下这个Flutter官方的Skill,然后再看看对我们这些Flutter开发者来说,会有哪些影响。 老刘个人觉得这个影响还是蛮大的。 首先Agent可以理解为一个具备特定领域知识和技能的人,他可以规划、记忆和多步执行一个任务,能够独立的完成特定领域的复杂任务。 MCP是通过标准协议,让Agent能调用外部工具,比如调用一个API获取当前天气信息。 而skill是给Agent的一本技术手册,它可以告诉Agent如何完成某个特定的任务,比如计算器这个skill,就能告诉Agent如何进行加减乘除等运算。 更具体一点说,老刘常用的Trae可以理解为一个Agent,他能写各种各样的代码,我日常会用它来写Flutter代码。 而我们可以给他提供一个Riverpod的skill,告诉他如何使用Riverpod来管理状态,以及RIverpod的最佳实践有哪些。 这样Trae写出的Riverpod代码就不会产生幻觉,也更能符合我们项目要求的最佳实践。 本文介绍的Flutter 官方skill,就是为了帮助开发者更方便的使用Flutter框架,提高开发效率。 Skill是AI的外挂知识库:通过 SKILL.md ,我们把最新的 Flutter 知识(比如 3.41 新特性)喂给 AI,让它从通用程序员变成Flutter专家。 那么这次Flutter官方提供的skill都包含哪些功能呢? Flutter官方skill的具体说明可以看github上的官方文档:https://github.com/flutter/skills 注意:根据文档说明,该仓库目前仍处于开发阶段,尚未准备好供生产环境使用。 这些 Skill 旨在为 AI Agent提供操作Flutter项目的专业能力。以下是按功能类别的整理: flutter-environment-setup-windows / macos / linux : flutter-architecture : flutter-theming : flutter-localization : flutter-layout : flutter-animation : flutter-accessibility : flutter-state-management : flutter-http-and-json : flutter-databases : flutter-caching : flutter-performance : flutter-app-size : flutter-concurrency : flutter-native-interop : flutter-platform-views : flutter-plugins : flutter-routing-and-navigation : flutter-testing : 可以通过以下命令安装这些 skills: 更新 skills: 目前主流的AI开发工具比如Claude Code、Cursor、Trae等都已经提供了对skill的支持。 同时,你也可以利用Flutter skill提供的tool来创建自己的skill,比如创建一个Riverpod使用方法的skill,后续老刘可以写篇文章介绍一下。 接下来我们来看看这对我们这些客户端开发者来说意味着什么? Flutter 的环境搭建(尤其是在 Windows上配置Android环境)一直是新手的噩梦。 官方提供了 此外,对于复杂的架构(Architecture)和状态管理,新手往往不知道如何起手,有了官方 Skill 加持的 AI,可以直接生成符合官方推荐架构的代码骨架,让新手起步就是最佳实践。 以前我们用 AI 写 Flutter 代码,它可能会给出过时的 API(比如还在用 老刘这边常用的解决方案是建立一个Flutter开发者智能体,把项目标准的代码规范都写在智能体中。 这样的问题是比较难以保证全面性,时不时需要添加一些新的内容然后同步给所有人。 Flutter 官方 Skill 其实给了我们另一个更优雅的解决方案,相当于给 AI 注入了标准的使用模板。 这一点我认为是Skill对软件开发造成的最深远的影响。 我记得之前不少文章里面提到过,在AI时代,AI友好度是衡量一个库或者开发框架好坏的新维度。 那要如何提高AI友好度呢? 之前有两个最直观的方面: 框架本身的简洁程度 老刘经常举的例子就是Flutter的状态管理,对程序员来说,可能Riverpod更为省事好用,但是对于AI来说,可能Bloc就更好。 因为Bloc所有代码都摆在明面上,不像Riverpod有大量自动生成的代码,而且Riverpod还有多个不同的模式可供选择。 Bloc的这种简单不管是AI生产代码还是bug定位都会更为精准。 这样就相当于天然的提升了AI友好度。 足够多数量的使用案例 这个应该很好理解了,因为AI并没有真正的逻辑思维。 也就是说如果你只给他说明文档,没有任何代码案例,AI是很难生成正确代码的。 只有基于大量代码案例,AI才能基于模式匹配而生成正确的代码。 那么Skill在提升AI友好度方面有什么帮助呢? 如果说官方文档是提供给开发者的使用说明书,那么一个库或者框架官方提供的Skill,就是给AI的使用说明书。 AI可以不用在训练大模型时有这个库的大量案例,只需要有一份优秀的Skills,就可以完成很好的代码生成。 所以老刘大胆预测,官方的Skills将是未来开发框架和三方库的标配,就好像现在的官方文档一样。 而基于Skills,我们的开发范式将会产生更彻底的变革。 开发者将更多地扮演架构师和验收者的角色,而将繁琐的编码工作更放心的交给AI。 Flutter 官方 Skill 的发布,标志着 Flutter 开发进入了 AI Native 的新阶段。 对于开发者来说,这既是工具的升级,也是角色的挑战。 我们要做的,不仅仅是会写Dart代码,更要学会如何高效地使用这些 Skill,让 AI 成为我们最得力的超级助手。 拥抱变化,从尝试Flutter 官方Skill开始吧! 🤝 如果看到这里的同学对客户端开发或者Flutter开发感兴趣,欢迎联系老刘,我们互相学习。 🎁 点击免费领老刘整理的《Flutter开发手册》,覆盖90%应用开发场景。 📂 老刘也把自己历史文章整理在GitHub仓库里,方便大家查阅。1. skill 和 agent、mcp 在使用场景上有什么差异?

2. Flutter 官方skill 都有哪些功能?
2.1 功能清单
环境与基础配置
UI 与布局
数据、网络与状态
性能与优化
原生交互与插件
测试
2.2 如何使用Flutter skill
npx skills add flutter/skillsnpx skills update flutter/skills3. Flutter 官方skill 发布后,对开发者意味着什么?
3.1 降低门槛,新手也能快速“上道”
flutter-environment-setup 等 skill,意味着 AI 可以手把手甚至自动帮你完成环境配置。3.2 减少 AI “幻觉”,代码质量更有保障
FlatButton),或者混用不同的状态管理逻辑。flutter-performance)、包体积缩减(flutter-app-size)这些高级话题,普通开发者可能不熟悉,但现在的 AI 可以在官方 Skill 的指引下给出专业的优化建议。这部分也是老刘自己的智能体中没有的内容。3.3 开发模式的转变:从查文档到用 Skill

4. 总结
🔗 https://github.com/lzt-code/blog
长话短说,我购买了科大智能充电桩,来安装充电桩的师傅在打孔的时候把另一个车主的充电桩的线打断了,现在车主找来了。
现在对方车主要求换新的,这我能理解,毕竟修的话有安全隐患,对他来说是无妄之灾,他肯定想恢复原样。科大智能方面表示可以帮忙维修。然后就僵住了。
现在对方车主不想跟科大智能扯皮了,说是我的充电桩,就该找我,让我来协调,不然他就算起诉也是起诉我。
这件事我是同情对方车主的,他还是跑网约车的,这个事耽误了他好几天。但是对我来说我也算是无妄之灾吧,笔记给你不是我上手安装的。
现在我的问题是:
1.我购买的充电桩,然后安装师傅来安装,对别人造成了损失,我有连带责任吗?如果有的话,是百分之多少?
2.我准备让警察协调,这事警察可以划分责任吗,可以协调吗?民事纠纷警察是不是不管?
3.如果起诉,他起诉我合理吗?是起诉我还是起诉我和充电桩商家?
4 ,有没有类似遭遇的老哥,希望分享下经验
现在人工智能(AI)可以说是相当火爆,对于想投身AI领域的同学,有必要对AI相关的名词了解清楚。其领域涉及的概念繁多,为了方便查阅,我将常见且重要的AI名词按照类别进行了整理和解释。这个术语表涵盖了从基础理论到前沿技术的核心词汇,希望能帮助你快速理解。 人工智能(Artificial Intelligence,AI):指通过计算机程序或机器模拟、延伸和扩展人类智能的理论、方法、技术及应用系统。目标是使机器能像人一样思考、学习、决策。 图灵测试(Turing Test):由艾伦·图灵提出,测试机器是否能表现出与人类无法区分的智能行为。如果一台机器在对话中能让人类无法分辨它是人还是机器,就认为它具有智能。 强人工智能vs弱人工智能: 超人工智能(Artificial Superintelligence,ASI):假设中在几乎所有领域都远超最聪明人类的智能体,仍处于理论阶段。 智能体(Agent):能够感知环境并采取行动以实现目标的实体,可以是软件程序(如聊天机器人)或硬件设备(如机器人)。 机器学习:实现AI的主要途径,通过数据训练模型,使计算机能从经验中自动改进。 监督学习(Supervised Learning):使用带标签的数据训练模型,输入与输出一一对应,如分类、回归任务(识别猫狗图片)。 无监督学习(Unsupervised Learning):使用无标签数据,让模型自行发现数据中的模式或结构,如聚类、降维(客户分群)。 半监督学习(Semi-supervised Learning):结合少量标签数据和大量无标签数据训练,降低标注成本。 强化学习(Reinforcement Learning,RL):智能体通过与环境交互,根据奖惩信号学习最优策略,如AlphaGo、自动驾驶。 特征(Feature):用于描述数据的属性或变量,如预测房价时的面积、卧室数量。 标签(Label):监督学习中希望预测的结果,如邮件是否为垃圾邮件(是/否)。 模型(Model):通过算法从数据中学习到的规律或表示,可用于对新数据进行预测。 训练(Training):使用数据调整模型参数,使模型预测误差最小的过程。 过拟合(Overfitting):模型在训练数据上表现极好,但在新数据上表现差,因为学到了噪声或细节。 欠拟合(Underfitting):模型过于简单,无法捕捉数据中的规律,在训练和测试数据上表现都差。 泛化能力(Generalization):模型对新数据的适应能力,是衡量模型好坏的关键。 交叉验证(Cross-validation):将数据分成多份,轮流用作训练集和验证集,以更稳健地评估模型性能。 偏差与方差(Bias and Variance): 损失函数(Loss Function):衡量模型预测值与真实值差异的函数,训练目标是最小化损失。 梯度下降(Gradient Descent):通过计算损失函数对参数的梯度,沿梯度反方向更新参数以最小化损失的优化算法。 超参数(Hyperparameter):训练前人为设定的参数,如学习率、神经网络层数,不由模型自动学习。 深度学习的核心是构建多层神经网络,自动提取数据的层次化特征。 神经网络(Neural Network):模拟人脑神经元结构的计算模型,由输入层、隐藏层、输出层组成,每层包含多个神经元。 神经元(Neuron):神经网络的基本单元,接收输入、加权求和、经激活函数输出。 激活函数(Activation Function):引入非线性,使网络能学习复杂模式。常用:ReLU、Sigmoid、Tanh。 层(Layer): 深度神经网络(Deep Neural Network,DNN):具有多个隐藏层的神经网络。 卷积神经网络(Convolutional Neural Network,CNN):专为处理网格状数据(如图像)设计的网络,利用卷积核提取局部特征,常用于计算机视觉。 循环神经网络(Recurrent Neural Network,RNN):处理序列数据(如文本、时间序列)的网络,具有记忆能力,但存在长程依赖问题。 长短期记忆网络(Long Short-Term Memory,LSTM):RNN的一种变体,通过门控机制有效解决长期依赖问题。 门控循环单元(Gated Recurrent Unit,GRU):LSTM的简化版本,参数更少,训练更快。https://mybj123.com/29850.html Transformer:基于自注意力机制的架构,彻底改变了自然语言处理领域,是BERT、GPT等模型的基础。 自注意力(Self-Attention):Transformer的核心,允许序列中每个位置关注所有其他位置,捕捉长距离依赖。 多头注意力(Multi-Head Attention):将自注意力并行执行多次,从不同表示子空间学习信息。 前馈网络(Feed-Forward Network,FFN):Transformer中的组成部分,对每个位置的表示进行非线性变换。 位置编码(Positional Encoding):Transformer中为序列添加位置信息的方法,因为模型本身不具备顺序概念。 残差连接(Residual Connection):将输入直接加到输出上,缓解深层网络梯度消失问题,让训练更深网络成为可能。 层归一化(Layer Normalization):对每个样本的特征进行归一化,稳定训练过程。 反向传播(Backpropagation):计算损失函数对每个参数梯度的算法,用于更新网络权重。 优化器(Optimizer):实现梯度下降的具体算法,如SGD、Adam、RMSprop。 批量(Batch):一次训练中同时输入模型的多个样本。 轮次(Epoch):完整遍历一次整个训练数据集。 学习率(Learning Rate):梯度下降中参数更新的步长,过大可能震荡,过小收敛慢。 嵌入(Embedding):将离散对象(如词、商品)映射为连续向量,便于模型处理。 词嵌入(Word Embedding):将单词表示为低维稠密向量,语义相近的词向量距离近,如Word2Vec、GloVe。 让计算机理解、生成和处理人类语言的技术。 分词(Tokenization):文本切分成更小的单元(词、子词、字符),如“我爱AI”→[“我”,“爱”,“AI”]。 词性标注(Part-of-Speech Tagging):为每个词标注词性,如名词、动词。 命名实体识别(Named Entity Recognition,NER):识别文本中的专有名词(人名、地名、机构名等)。 句法分析(Parsing):分析句子的语法结构,如依存关系、短语结构。 语义理解(Semantic Understanding):理解文本的含义,包括词义消歧、意图识别等。 情感分析(Sentiment Analysis):判断文本的情感倾向,如正面、负面、中性。 机器翻译(Machine Translation,MT):将一种语言自动翻译成另一种语言,如谷歌翻译。 文本生成(Text Generation):根据输入自动生成连贯的文本,如写诗、新闻稿。 问答系统(Question Answering,QA):自动回答用户提出的问题,可基于文档或知识库。 对话系统(Dialogue System):与用户进行多轮对话,如聊天机器人、任务型助手。 预训练语言模型(Pre-trained Language Model,PLM):在大规模语料上预先训练好的语言模型,下游任务微调即可使用,如BERT、GPT。 BERT(Bidirectional Encoder Representations from Transformers):Google提出的双向Transformer编码器,善于理解上下文,适合分类、阅读理解等任务。 GPT(Generative Pre-trained Transformer):OpenAI提出的自回归语言模型,擅长文本生成,如ChatGPT。 大语言模型(Large Language Model,LLM):参数规模巨大(数十亿至数千亿)的语言模型,如GPT-4、Llama、通义千问。 上下文学习(In-Context Learning):大模型通过提示词中的示例直接学习任务,无需更新参数。 思维链(Chain-of-Thought,CoT):引导模型生成中间推理步骤,提升复杂问题解决能力。 提示工程(Prompt Engineering):设计输入提示词以引导大模型生成期望输出的技术。 微调(Fine-tuning):在预训练模型基础上,用特定任务数据继续训练,使模型适应下游任务。 RLHF(Reinforcement Learning from Human Feedback):基于人类反馈的强化学习,用于使大模型输出更符合人类偏好(如ChatGPT)。 幻觉(Hallucination):大模型生成看似合理但事实上错误或无依据的内容。 让计算机理解和处理图像、视频等视觉信息。 图像分类(Image Classification):将图像分为预定义类别,如“猫”、“狗”。 目标检测(Object Detection):识别图像中多个物体的位置和类别,用边界框标出。 图像分割(Image Segmentation): 人脸识别(Face Recognition):识别或验证图像中的人脸身份。 图像生成(Image Generation):根据输入(如文本、噪声)生成新图像,如GAN、扩散模型。 图像超分辨率(Super-Resolution):从低分辨率图像重建高分辨率图像。 图像风格迁移(Style Transfer):将一幅图像的风格应用到另一幅图像上。 卷积核(Kernel/Filter):CNN中用于提取特征的矩阵,在图像上滑动进行卷积操作。 池化(Pooling):降低特征图尺寸的操作,如最大池化、平均池化。 感受野(Receptive Field):网络中某层神经元对应的输入图像区域大小。 智能体(Agent):做出决策的实体。 环境(Environment):智能体交互的外部世界。 状态(State):环境在某个时刻的描述。 动作(Action):智能体可执行的操作。 奖励(Reward):环境对智能体动作的反馈信号(标量),指导学习。 策略(Policy):从状态到动作的映射,可以是确定性的或随机的。 值函数(Value Function):评估某个状态或状态下采取某个动作的长期期望回报。 Q-learning:一种无模型的强化学习算法,学习动作值函数(Q函数)https://mybj123.com/29925.html。 深度强化学习(Deep Reinforcement Learning):使用深度神经网络近似策略或值函数,如DQN、AlphaGo。 蒙特卡洛树搜索(Monte Carlo Tree Search,MCTS):通过模拟搜索最优决策的算法,AlphaGo中用到。 生成对抗网络(Generative Adversarial Network,GAN):由生成器和判别器组成,两者博弈,生成器力图生成逼真数据,判别器判断真假。 变分自编码器(Variational Autoencoder,VAE):基于自编码器的生成模型,学习数据的潜在分布,可生成新样本。 扩散模型(Diffusion Model):通过逐步向数据添加噪声(前向过程),然后学习逆向去噪过程来生成数据,如Stable Diffusion、DALL·E 2。 自回归模型(Autoregressive Model):逐个生成序列元素,每一步都依赖之前生成的内容,如GPT、PixelCNN。 TensorFlow:Google开发的开源深度学习框架,支持静态计算图。 PyTorch:Facebook开发的开源深度学习框架,动态计算图,研究界广泛使用。 Keras:高级神经网络API,可运行在TensorFlow、Theano等后端上。 JAX:Google开发的数值计算库,支持自动微分和GPU/TPU加速。 Hugging Face Transformers:提供大量预训练模型(BERT、GPT等)的库,简化NLP开发。 LangChain:用于构建基于大语言模型应用的框架,提供链式调用、记忆、工具集成等。 Scikit-learn:Python机器学习库,包含传统ML算法和工具。 Pandas/NumPy:数据处理和数值计算的基础库。 OpenCV:计算机视觉开源库,提供图像处理、视频分析等功能。 CUDA:NVIDIA的并行计算平台,允许利用GPU加速深度学习计算。 图神经网络(Graph Neural Network,GNN):处理图结构数据(如社交网络、分子结构)的神经网络。 迁移学习(Transfer Learning):将一个任务上学到的知识迁移到另一个相关任务,减少训练数据需求。 多模态(Multimodal):涉及多种类型数据(如文本、图像、音频)的AI任务,如文生图、视频理解。 联邦学习(Federated Learning):在保护数据隐私的前提下,分布式训练模型,数据不离开本地。 可解释AI(Explainable AI,XAI):旨在让AI模型的决策过程透明、可理解,增强信任。 对抗样本(Adversarial Example):对输入故意添加微小扰动,导致模型错误分类的样本。 元学习(Meta Learning):学会如何学习,让模型能够快速适应新任务。 零样本学习(Zero-shot Learning):模型能识别训练中从未见过的类别,依靠语义描述。 少样本学习(Few-shot Learning):仅用少量样本就能完成新任务的学习。 知识蒸馏(Knowledge Distillation):将大模型(教师)的知识转移到小模型(学生),压缩模型体积。 模型量化(Quantization):降低模型参数精度(如从32位浮点转为8位整数),减少内存和加速推理。 剪枝(Pruning):移除神经网络中不重要的连接或神经元,压缩模型。 这个列表涵盖了AI领域的主要名词,但AI技术日新月异,新术语将会不断涌现。我们也需要与时俱进,不断学习。01 基础概念
02 机器学习(Machine Learning,ML)
03 深度学习(Deep Learning,DL)
04 自然语言处理(Natural Language Processing,NLP)
05 计算机视觉(Computer Vision,CV)
06 强化学习(Reinforcement Learning)
07 生成模型
08 框架与工具
09 其他重要术语
OpenClaw热潮升级随着AI Agent技术的快速发展以及一批开源自动化工具的出现,AI圈掀起了一股“养龙虾”的热潮。越来越多用户开始在本地部署OpenClaw,让AI自动处理任务、读取信息、调用工具,甚至直接操作系统。从技术角度看,这代表着AI应用形态的一次明显变化。过去的AI更多停留在问答和内容生成阶段,而AI Agent则开始进入自动化执行场景:读取文件、访问网页、调用接口、执行脚本,许多原本需要人工完成的操作,如今都可以交给AI自动处理。然而,随着这类工具迅速走红,一些安全问题也开始被频繁提及,例如凭证泄露、账号被接管、敏感信息外流以及异常Token消耗等。工信部紧急拉响预警,直指OpenClaw部分实例在默认或不当配置下存在极高安全风险。这些问题并不只是某个工具的个别漏洞,而是反映出一个更值得关注的变化:当AI开始深度接入真实系统时,数据安全正在承受新的压力。
AI自动化引发数据泄露风险传统AI工具通常只参与信息交互,例如输入问题、生成答案。即便模型出现错误,影响往往也局限在内容层面。但OpenClaw不同,它不仅能生成内容,还可以执行操作,这意味着AI开始真正参与到系统运行流程之中。当AI具备自动化执行能力时,其带来的数据安全风险也随之增加。▸自动化数据外带风险当AI能够自动执行任务时,它可能按照既定流程读取本地文件、访问网页信息、整理数据并调用外部服务。如果外部输入被恶意利用,或者自动化流程缺乏足够的安全限制,系统就可能在不知不觉中完成一次数据外带——敏感信息被读取、整理并传输到原本不应触达的环境之中。相比传统攻击方式,这类风险更加隐蔽,数据并不是被直接窃取,而是在自动化流程中被“合法调用”并带出系统边界。▸凭证与令牌泄露风险在部署AI Agent时,往往需要配置API Key、访问令牌或第三方服务凭证,以便AI能够调用外部服务或系统接口。一旦这些敏感信息被AI读取、记录或被不当调用,就可能被泄露或滥用,进而影响多个系统的安全。由于AI通常具备较高的调用权限,一旦凭证泄露,其影响范围往往会被进一步放大。▸敏感数据误处理风险当AI参与文件处理、信息整理或任务自动化时,系统可能在无意中访问或处理包含敏感信息的数据。例如本地文档、业务资料或系统配置文件等。一旦这些数据被用于生成结果或被传输至其他服务,就可能导致原本受控的数据被扩散,从而增加信息泄露的可能性。▸插件与多系统连接风险OpenClaw通常支持插件扩展、工具调用以及多系统连接能力,这些能力在提升效率的同时,也在不断扩大系统的信任范围。AI不仅能够调用本地资源,还可能连接浏览器、云服务或第三方平台。当多个系统权限被汇聚到同一自动化流程中时,任何一个环节的疏忽,都可能成为新的安全入口,从而放大潜在的数据安全风险。
安全意识亟待提升 在智能自动化逐渐普及的背景下,企业和个人都需要重新审视对数据的敏感度与责任意识。安全不仅仅是技术问题,更是一种文化、一种习惯。唯有不断强化数据安全意识,才能在高效应用AI的同时,降低潜在风险,让技术成为可信赖的助手而非新的隐患。 作为数据安全领域的先锋企业,全知科技在数据分类分级、敏感信息监测和API安全管理等方面积累了丰富实践经验。公司通过技术与治理相结合的方案,帮助众多金融、医疗和大型企业建立了全生命周期的数据安全管理体系,实现了风险可视化、流程自动化与合规高效化。全知科技的实践表明,只有将技术能力与安全理念深度融合,才能真正应对AI时代带来的新型数据安全挑战。
Netflix介绍了他们内部的一个自动化平台。该平台将近 400 个生产集群的 Amazon RDS for PostgreSQL 数据库迁移到 Amazon Aurora PostgreSQL,降低了操作风险和停机时间。该系统使服务团队能够通过自助工作流启动迁移,并强制执行复制验证、受控切换、变更数据捕获协调和回滚保护措施。 Netflix 通过一个基于 Envoy 构建的平台管理数据访问层路由数据库访问,这可以标准化mutual TLS并从应用程序代码中抽象出数据库端点。由于服务不直接管理凭据或连接字符串,所以迁移必须在该层之下透明地进行。因此,自动化机制完全在基础设施层面上协调复制、验证、切换、CDC 处理及回滚等操作。 Netflix 工程师强调: 我们的目标是使 RDS 到 Aurora 的迁移过程可重复且低干预,同时为事务型工作负载和 CDC 管道提供正确性保证。 首先,工作流借助Amazon Web Services的能力创建一个 Aurora PostgreSQL 集群,作为源 RDS PostgreSQL 实例的物理只读副本。副本从存储快照初始化,并持续重放从源流式传输过来的预写日志记录。在这个阶段,系统验证复制槽健康状况、WAL 生成速率、参数兼容性、扩展一致性以及生产流量下的持续复制延迟,确保副本在切换前能够承受峰值写入吞吐量。 RDS 到 Aurora PostgreSQL 的迁移工作流(图片来源:Netflix博文) 对于使用变更数据捕获的工作负载(包括逻辑复制槽或下游流处理器),自动化机制会在静默前协调槽状态。CDC 消费者将被暂停,以防 WAL 过度保留,同时槽位将被记录,以便提升后可以在 Aurora 上以正确的日志序列重建等效的复制槽。这既能保持下游一致性,又可以避免 WAL 堆积导致复制延迟增加。 Netflix Enablement Applications 团队是该平台的早期采用者之一,他们迁移了支持设备认证和合作伙伴计费工作流的数据库。在复制过程中,工程师发现,由于一个非活动逻辑复制槽保留了 WAL 分段而导致复制延迟增加,使得OldestReplicationSlotLag值升高。移除故障槽位后,复制过程趋于收敛,迁移成功完成,且切换后的指标与迁移前的基准值保持了一致。 简化的 Enablement Applications 概览(图片来源:Netflix博文) 当复制延迟接近零时,系统进入受控静默阶段。修改安全组规则,重启源 RDS 实例以便在基础设施层阻止新建连接。在确认所有在途事务已成功应用并且 Aurora 副本已重放最终的 WAL 记录后,副本被提升为可写的 Aurora 集群,并且数据访问层将把流量路由到新端点。 根据 Netflix 工程师的说法,回滚被视为一个首要关注事项。在提升最终完成并且流量完全转移之前,原始 RDS 实例将保持原样,并作为权威数据源。如果在同步过程中验证检查失败,或者提升后的健康检查检测到异常,则流量可以通过数据访问层重新定向回 RDS 集群。由于应用程序与物理端点解耦,所以只要恢复路由配置就可以恢复之前的状态而无需重新部署。如果需要,CDC 消费者也可以从之前记录的原始集群槽位进行恢复。 原文链接: https://www.infoq.com/news/2026/03/netflix-automates-rds-aurora/

智能体运行的时候会搜索网络,如果在网络上造一些迷惑性的东西影响 AI 判断(比如给自己的产品引流等)
集思广益可以做什么出来盈利。
看到一个 X 帖子,有感而发。
想当初字节做 AI 手机,第二天微信、淘宝就开始封禁。但至今 openclaw 出来腾讯又是另外一种行动。所以才有标题这个点,想看看大家的想法。
我不理解,之前字节跳动的 AI 手机,能点外卖,能发微信,能网购比价,能操作手机上的一切,才是普通人龙虾的最终解吧,为什么啥也操作不了的 OpenClaw 却成了最优解?🤔
next-dbm:审批可控、部署高效,解锁数据构建更新新范式 在企业数字化转型加速的今天,数据作为核心资产,其构建、部署与更新的安全性、规范性直接决定业务效率与数据价值。传统数据管理中,数据更新无审批、流程不透明、操作易失误等问题,常常导致数据错乱、业务中断,给企业带来不可挽回的损失。next-dbm深耕数据管理领域,创新推出数据构建部署更新审批功能,联动Jenkins、Jira、GitLab、GitHub等主流工具,打造“触发-审批-执行”全流程闭环,让数据更新更安全、更高效、更可控。 全流程自动化触发,打破工具壁垒 next-dbm深度适配企业现有研发工具链,无需额外改造,即可实现多平台触发数据构建部署。无论是通过Jenkins执行构建任务、Jira关联需求触发更新,还是从GitLab、GitHub拉取代码触发数据同步,next-dbm都能无缝响应,自动启动数据构建流程。这种跨工具联动能力,彻底打破了数据管理与研发流程的壁垒,让数据更新与业务研发同频同步,大幅减少人工介入成本,提升协作效率。 审批流程可视化,风险前置可控 针对数据更新的安全性需求,next-dbm创新引入审批机制,用户可根据业务需求灵活配置审批规则——当触发数据构建部署后,若开启审批配置,系统将自动通过WebHook推送审批消息至钉钉。管理人员无需切换平台,在钉钉即可收到提醒,点击消息即可自动跳转至登录认证页面,流程简洁高效,无需额外操作成本。 登录认证通过后,系统将自动跳转至专属审批页面,页面清晰呈现本次将要更新的全部内容,包括修改同步的表结构、表数据详情,所有变更一目了然,实现“数据更新可追溯、可核查”。审批人员可直观查看变更内容,判断是否符合业务规范,从源头规避数据更新风险,杜绝误操作导致的业务问题。 灵活审批操作,一键掌控执行结果 next-dbm审批页面支持审批人员填写审批建议,同时提供“同意”“拒绝”两种明确的审批结果选项,操作简单易懂,无需专业技术能力。审批逻辑清晰可控: 核心优势凸显,赋能企业数据管理升级 相较于传统数据管理工具,next-dbm的审批功能凭借“全流程自动化、风险可防控、操作更便捷”的核心优势,成为企业数据管理的优选: 结语:以审批赋能,让数据管理更高效、更安全 数据更新的安全性与高效性,是企业数字化转型的关键支撑。next-dbm数据构建部署更新审批功能,打破工具壁垒、强化风险防控、简化操作流程,让每一次数据更新都有迹可循、有章可依,既保障了数据资产的安全,又提升了业务协作效率。 无论是中小型企业的轻量化数据管理需求,还是大型企业的复杂数据部署场景,next-dbm都能精准适配,助力企业解锁数据管理新范式,让数据成为驱动业务增长的核心动力。现在启用next-dbm,让数据构建部署更新更可控、更高效,为企业数字化转型保驾护航! |(注:文档部分内容可能由 AI 生成)




本文旨在为寻求打通复杂产品研发流程的企业决策者提供一份深度、客观的集成产品开发(IPD)项目管理工具选型指南。文章将聚焦于飞书项目行业专版、Planisware Enterprise、Siemens Polarion ALM及IBM Engineering Lifecycle Management (ELM) 四款主流平台,深入剖析其在支撑IPD端到端流程、赋能跨职能协同及应对不同行业挑战上的核心能力与最佳实践场景,助您找到最适合自身业务的数字化引擎。 飞书项目行业专版深度融合飞书生态,通过“流程可视化 + 评审数字化 + 协同一体化”的组合拳,为中大型科技与制造企业提供了一套高度适配中国业务场景的 IPD 解决方案。它将复杂的 IPD 流程拆解为清晰、可视的节点流,并借助飞书的即时沟通、文档协作与日历能力,打破部门墙,实现从市场需求到产品上市的全程高效协同。 产品特征:以首创的“节点流”引擎为核心,将 IPD 各阶段(如概念、计划、开发、验证、发布)抽象为可视化的泳道和流程节点,并支持低代码自定义。这种设计使得复杂的跨部门、跨阶段依赖关系变得清晰可控,让管理者能轻松洞察全局进展与风险。 飞书项目提供丰富的 API 和 Webhook,支持与企业内部的 ERP、PLM 等系统进行集成,实现数据的双向同步。在代码管理层面,可与 GitHub、GitLab 等主流工具链对接,实现代码提交记录与项目任务的自动关联。其灵活的自定义能力,也使得企业可以根据自身特定的合规要求(如质量管理、安全审计等)配置相应流程与交付物模板。 飞书项目支持公有云和私有化部署,能够满足大型企业对数据安全与自主可控的严格要求。虽然其全球化部署能力相较于一些国际老牌厂商仍在发展中,但对于以中国为核心业务区域的企业来说,其本地化服务与支持能力更具优势。 飞书项目行业专版尤其适合那些已经或计划深度使用飞书作为协同办公平台的中大型科技、高端制造和软硬件混合研发企业。如果你的团队正面临以下挑战,飞书项目将是一个极具吸引力的选择: Planisware Enterprise 是一款源自法国、在全球项目组合管理(PPM)领域享有盛誉的重量级平台。它并非仅仅着眼于单个项目的执行,而是从企业战略高度出发,将 IPD 流程视为实现商业目标的核心投资活动。其设计理念强调“战略-财务-执行”的一致性,尤其适合需要对庞大产品线和多项目组合进行精细化投资决策与资源调度的全球化企业。 Planisware Enterprise 具备出色的开放性,可通过其 API 和标准连接器与企业生态中的其他关键系统(如 ERP-SAP, Oracle、PLM、CRM)进行集成,实现财务、物料、客户等数据的无缝流转。其高度可配置的工作流与权限体系,能够满足大型企业,特别是制药、航空航天、汽车等强监管行业对流程合规、数据审计与验证的严格要求。 Planisware 提供本地部署(On-Premise)和私有云部署选项,充分满足大型企业对数据主权和安全性的高标准。作为一家国际化的软件厂商,其产品和技术支持服务网络遍布全球,能够为跨国企业的全球研发协同提供有力保障。 Planisware Enterprise 是大型、全球化运营、产品线众多且研发投资巨大的成熟企业的理想选择,尤其是在新药研发、汽车、航空航天、工业制造和消费品(CPG)等行业。以下场景的团队会发现 Planisware 的价值尤为突出: Siemens Polarion ALM 是西门子数字工业软件家族的一员,它是一款根植于应用生命周期管理(ALM)领域的强大平台,并与产品生命周期管理(PLM)深度融合。Polarion 的核心价值在于为复杂、高合规性产品的开发(尤其是软硬件深度耦合的嵌入式系统)提供了端到端的追溯能力和严格的流程治理。它确保从需求、设计、编码、测试到发布的每一个环节都有据可查,变更影响清晰可见,是汽车、医疗设备、航空航天等安全关键行业的首选。 产品特征:Polarion 的标志性特征是其专利的 LiveDocs™ 技术,它允许团队像协作编辑 Word 文档一样管理需求规约,同时文档中的每一个段落、每一个条目都可以成为独立追踪和关联的工作项。平台原生支持 Subversion (SVN) 和 Git,将配置管理与开发过程紧密集成,实现了“一切皆可追溯”的设计哲学。 与 PLM 的深度集成:作为西门子生态的一部分,Polarion 与 Teamcenter 等 PLM 工具深度集成,打通了 ALM 与 PLM 之间的壁垒,实现了从机械、电子到软件的真正跨学科协同。 Polarion 提供开放的 API,支持与 Jenkins、Jira、MATLAB/Simulink 等众多第三方工具集成,构建完整的研发生态系统。其灵活的工作流引擎和精细的权限控制,可以根据企业的特定流程和角色职责进行深度定制,满足最严格的内部治理和外部审计要求。 Polarion 支持本地部署和云托管(SaaS)模式,为不同规模和安全需求的企业提供了灵活选择。西门子作为全球工业巨头,其遍布全球的服务网络为跨国企业的部署、培训和技术支持提供了可靠保障。 Siemens Polarion ALM 特别适合那些产品复杂度高、软件密集、且面临严格行业法规和功能安全要求的企业,尤其是在汽车电子、医疗设备、航空航天、国防以及工业自动化领域。以下团队将从 Polarion 获得巨大价值: IBM Engineering Lifecycle Management(ELM)是一个面向复杂产品和系统工程的集成解决方案套件,其前身是大名鼎鼎的 Rational 产品家族。ELM 并非单个工具,而是一个由多个专业应用组成的平台,旨在为航空航天、国防、汽车和电子等行业中那些“系统之系统”(System-of-Systems)级别的超大型项目提供端到端的工程管理能力。它将系统与软件工程的最佳实践深度融入工具链,是应对极致复杂性挑战的工业级选择。 IBM Engineering Systems Design Rhapsody:用于基于模型的设计(MBSE),支持 SysML/UML 建模与仿真。这些组件通过开放的 OSLC(Open Services for Lifecycle Collaboration)标准进行链接,形成一个数据互联、流程贯通的统一工程环境。 AI 赋能工程洞察:集成 Watson AI 能力,提供工程洞察(Engineering Insights),帮助从海量的工程数据中发现潜在风险、异常模式和优化机会。 IBM ELM 建立在 Jazz 平台和 OSLC 开放标准之上,这使其具备了与第三方工具(无论是开源还是商业工具)集成的强大能力,旨在构建一个开放、互联的异构工具链生态。其深厚的行业积累使其能够提供针对特定标准的合规性报告和审计支持,是应对高强度监管环境的可靠伙伴。 IBM Engineering Lifecycle Management 是专为那些开发和管理世界上最复杂系统的组织而设计的,尤其是在航空航天、国防、汽车、轨道交通和大型医疗设备等领域。它最适合以下类型的团队和场景: 选择正确的 IPD 项目管理工具并非易事,它不仅仅是技术决策,更是与企业战略、组织能力和未来发展路径息息相关的管理决策。以下基于不同场景,提供针对性的选型建议与落地路径,旨在帮助您做出更明智的选择。 应用路径: 理由:这两款工具都是为应对极致复杂性和严格合规性而生。 应用路径: 应用路径:一、飞书项目行业专版:协同一体化的 IPD 落地利器
核心定位与产品特征
高光能力


可扩展与集成/合规能力
部署与全球化能力
最适配的团队/场景总结
二、Planisware Enterprise:战略导向的 IPD 组合管理引擎
核心定位与产品特征
高光能力
可扩展与集成/合规能力
部署与全球化能力
最适配的团队/场景总结
三、Siemens Polarion ALM:软硬件协同与合规驱动的ALM/PLM中枢
核心定位与产品特征
高光能力
可扩展与集成/合规能力
部署与全球化能力
最适配的团队/场景总结
四、IBM Engineering Lifecycle Management (ELM)
核心定位与产品特征
高光能力
可扩展与集成/合规能力
最适配的团队/场景总结
五、选型建议与应用路径
场景一:软硬件混合研发 + 追求极致协同效率
典型特征:
选型建议:飞书项目行业专版
场景二:多项目/长周期 + 严审计 + 重资产
典型特征:
选型建议:Siemens Polarion ALM 或 IBM ELM
场景三:成熟 PMO 主导 + 产品线众多 + 战略投资决策驱动
典型特征:
选型建议:Planisware Enterprise
1 月份我就拿到了 Notion 最新功能的 Beta 权限,到现在我已经创建了十几个 Notion 全自动工作流,工作效率以一种前所未有的速度在提高,过去的笔记积累终于也迎来了质变。
我是如此欣喜,因此必须写下这篇文章,向各位分享这份快乐。
这个 Notion 的新功能名叫 Custom Agent,它正是我在上一篇文章末尾所预告的、本年度 Notion 最为重磅的新功能。

Notion 早已不是单纯的笔记软件,你可以把它看作是一间「数字办公室」。
它有前台(目录导航)、有工位(Page)、有档案室(Database)、有标准流程(Template)、有传送带(Automation)、有内部顾问(AI)、有外包团队(第三方工具联动)。作为办公室的头头,你在 Notion 里不只是记笔记,更是在安排信息的流动、组织人的协作,最终促成任务的推进和经验的积累。
然而如果你不编辑,任务就会停滞,你不执行,再强的 AI 都在等你开口,这间功能完备的办公室的员工其实只有你一个人,你是所有信息流动的入口和出口,是所有决策的发起和执行。

你可能已经用过 Notion AI,问它一个问题它能给你答案,让它编辑页面或者数据库,它也能立刻完成。但这些操作有一个共同前提:你得打开 Notion 告诉它需要做什么,然后它才会动。
Custom Agent 打破的就是这个前提,你给它设置一套规则,它就会自己一直跑下去,不需要你盯着,也不需要你开口。这意味着你的产出系数可以从 1 变成 5、甚至是 100,因为每个 Agent 都可以看作是一个自带大脑的虚拟员工。

在我雇佣和培训的十几个虚拟员工里,流程最复杂的一个能在我写完文章后,自动完成从内容优化、SEO 处理、多语言翻译再到跨平台发布的整套自动化流程,一共 11 个复杂步骤,全部由一个 Agent 在一次执行中跑完。
这个案例我会在后半部分具体介绍,但你现在只需要知道一件事:Custom Agent 的上限真的非常非常高。
首先你需要订阅 Notion 的商业版会员,然后点击左上角的新建代理按钮

接下来就会弹出下图所示的设置界面,你需要在这里定义这个虚拟员工的技能和权限:

就像员工入职培训一样,「触发器」是它的上班时间,「指令」是它的工作内容手册,「模型」则是它的脑子。越聪明的脑子处理复杂任务的效果越好,但需要支付的「Token 工资」也就越高。另外工具和访问权限则是给这个员工配备的电脑和门禁卡,配置好之后这个虚拟员工就可以在你划定的范围内自行活动。
值得一提的是,Custom Agent 的活动范围并不局限在 Notion 内部。它可以通过 MCP 和 Notion Worker 连接外部服务、调用第三方 API,具体怎么用我会在后面的案例六和案例七中详细展开。对于没有编程背景的普通用户来说,Notion 的 Custom Agent 是目前我用过的最直观、最易上手、也最容易发挥实际价值的智能代理方案,远比最近大热的 OpenClaw 更值得推荐。
如果有人不同意这个观点,那么你可以认为他或许了解 OpenClaw,但一定不了解现在的 Notion。
接下来我将用七个从简单到复杂的真实场景,帮你建立起对 Custom Agent 能力边界的完整认知。你会看到单个能力本身可能并不惊艳,但当它们开始互相组合,这个工具就开始变得不一样了。
每天早上打开 Notion,你想知道的无非是今天该做什么、哪些事情还悬着、有没有什么需要特别注意的。这些信息散落在不同的数据库页面里里,你需要自己跳转、筛选、汇总,才能拼出一幅完整的图。
所以我创建的第一个 Custom Agent 就是早晨简报,我为它设置了一个定时触发器,每天早上 9 点 Agent 会自动读取我的多个核心数据库,筛选汇总所有我需要关注的信息,然后按照预定格式将整理好的简报写入指定数据库,并向我发送通知。

但早晨简报真正让我觉得有意思的地方,不是它能把信息汇总到一起,而是它会做判断。它会根据截止日期和前后关系排出建议顺序,逾期的任务会被单独标记,排期撞车了也会主动提醒。这些事情我自己翻数据库当然也能发现,但往往要等到出了问题才会意识到,而 Agent 每天早上都会替我检查一遍。

在这个场景里,「触发器」决定什么时候干,「指令」决定干什么。把这两件事组合起来,你就能延伸出各种自动化场景:
当然,单看每天早上的工作量,手动操作也不过 10 分钟,但早晨简报真正节省的不是这 10 分钟,而是每天早上那段最宝贵的注意力。你只需要打开简报看结果,然后把精力留给真正重要的事。

我的 FLO.W 模板的任务数据库有一个字段叫「下一步做什么」,目的是让我在看到这个任务的时候,不需要思考和迟疑,就能立刻知道自己下一步需要做什么。

要想写好这个字段是需要耗费一定的脑力 Token 的,但现在有了 Custom Agent 后,这个字段就可以让 AI 来填写。
首先设置一个「当数据库页面被编辑时」的触发器:

然后给这个 Agent 设置执行规则:读取当前页面的所有内容,包括标题、正文、状态、排期、关联笔记、关联项目、前后置任务等内容,然后进行综合评估,并在「下一步做什么」这个字段里写入 3 条可快速执行的行动建议。

和案例一不同的是,这个 Agent 不按时间表上班,而是在你工作的过程中实时响应,并且不是一边写一边改,而是在你停止页面编辑的三分钟之后自动执行。下图就是这个 Agent 的思考过程和执行结果:

其实这个能力还可以泛化到更多场景,只要你的数据库里有一个字段是「需要人读完内容才能填的」,Agent 就能帮你填。很多数据库字段之所以一直空着,不是因为你不知道它重要,而是因为填写它需要先阅读页面内容再做判断,这个过程复杂麻烦,久而久之你就放弃了,然后这个字段就会变成一个漂亮但长期失效的设计。
现在 Agent 可以把「读完再填」这一步变成自动动作,页面一更新,它就把该补的字段补上,把该整理的结构整理好。你写下会议记录、咨询记录、剪藏全文等原始信息,Agent 就帮你把它加工成可检索、可统计、可触发下一步动作的数据库字段信息。
这样一来,你的 Notion 数据库就能自己维护自己了,你只管往里面丢原始信息,剩下的交给 Agent 处理。

但现在这个流程完全不需要我参与了,只需要利用「邮件触发器」来激活这个自动化邮件处理流程。当我收到新邮件后,Notion Agent 会自动读取邮件全文,提取我预设的关键信息,然后写入对应的数据库。

我第一个跑通的场景是 Stripe 订单自动入库,当我的网站上有模板售出后,Stripe 都会自动给我发一份订单邮件:

这个时候我的 Agent 就会自动读取邮件里的订单信息,然后把用户信息、付款方案、付款金额等信息写入 Notion 里的 Stripe 订单数据库,然后我就可以在 Notion 中实时看到我的 Stripe 的订单动态了。

我觉得再适当做一些补充和优化,完全替代 Readwise Reader 也不是不可能。

你的收件箱里也许没有 Stripe 邮件,但你大概率有各种发票、招聘邮件、学校通知、报销通知或客户反馈,只要信息的来源是固定的、格式是相对稳定的,Agent 就能可靠地完成信息提取和入库。
当邮件能被自动读取、提炼、写入数据库,这些信息就可以被追踪、被统计,甚至触发后续的自动化动作。或者我们再偷懒一点,你完全可以让 Custom Agent 每天早上读取前一天的所有邮件,然后生成一份邮件简报给你。只要设定好你关注的信息类型,哪怕一天收到 100 封邮件也不需要你再亲自阅读了。

案例三的 Agent 是一个尽职的记录员,邮件来了它可以帮你写入和归档,但最终还是需要你本人去阅读和处理后续的流程。但如果 Agent 不仅能读懂这封邮件,还能直接回复呢?那它干的就是智能客服的活了。
正好我希望的这些功能 Notion 都支持,Custom Agent 不仅可以读邮件,还可以回复邮件。

基于这个能力我就可以构建这样一个流程:

以下就是一次真实的智能客服案例,用户来信咨询问我,如果购买了 FLO.W 模板的「基础版」后,能否付费升级为「进阶版」,而 Agent 给出的回答完美符合我的预期,不仅回答了用户问题,还用上了恰当的话术去促单。

如果你也想测试这个 Agent 的邮件问答效果,可以在我的网站右下角点击绿色按钮,就可以和我的 Agent 对话了。这件事在 Custom Agent 出现之前是做不到的,因为用户邮件的格式五花八门,问题也千奇百怪,你没法用 if-else 规则去穷举所有情况。但大语言模型可以。

不过 Agent 的回复质量不仅取决于 AI 模型的能力,更取决于你的 Notion 知识库的质量,如果知识库组织清晰、覆盖了常见问题,Agent 的回复就会准确且有帮助;如果知识库稀疏或混乱,它就会给出模糊甚至错误的答案。
所以要想做好邮件智能客服得有一个前置条件,你需要先花时间维护一份结构化的知识库,这件事其实比搭建 Custom Agent 本身更为困难。

邮件这个入口一旦被 Agent 接管,整个收件箱就变成了一条自动运转的业务管线——识别、分类、响应,全都不用你亲自动手。
例如它可以在回信之前先做一层智能分流,识别这是售前咨询、售后问题、退款请求还是合作邀约;也可以把邮件当作一条「线索」来处理,提取客户信息,然后自动安排日程、给负责人发提醒;甚至还能做风险兜底,当检测到可能触发合规的关键词时,直接升级为人工接管,避免 AI 误判造成事态升级。
另外,邮件只是这个智能客服的入口之一,它的本质是「接收问题 → 触发 Agent → 检索知识库 → 生成回答」,因此如果你在做产品、带课程、或者是在管理一个团队,只要你有「高频、且有标准答案」的问答场景,这个模式都能用。
因为 Custom Agent 除了可以定时触发或被动触发,还支持主动触发,也就是直接打开这个代理,然后和它对话,提交你的问题,它就会按照预设的流程和规则去生成符合知识库的回答。因此某种程度上你也可以把 Custom Agent 当成类似 Claude Skill 一样的东西去使用。

很多创作者都会搭建自己的选题库,我也不例外,刷到一个观点,突然觉得这个可以写,于是随手丢进选题库里,起名叫《聊聊 XXX》,然后就没有然后了,90% 的选题都会被我搁置。
因为所有的选题都存在以下三个问题:
于是选题库会变成一个「灵感墓地」,条目越来越多,真正能写出来的越来越少,积重难返,然后越来越不想打开。

所以我做了一个 Custom Agent 叫选题助手,当我的「选题数据库」有新页面被创建时,这个 Agent 就会被触发,然后自动完成以下两件事:

比如我现在随便起个无厘头的选题叫做《我是怎么浪费时间的》:

然后这个 Agent 就会自动启动,第一件事是检索,它会拿着这个选题,在我的整个 Notion 系统里翻箱倒柜。

一个随手起的无厘头选题,居然在我的系统里找到了五条完整的素材线索,而且每一条都能独立撑起一个段落。
第二件事是搭架子,它会基于检索到的材料,自动生成一份脚本大纲,开场怎么引,主体分几个要点,每个要点用哪条素材支撑,结尾怎么收,全部帮你排好。比如这个选题它就给出了四个递进的要点,从「浪费时间不等于懒惰」到「我们对浪费时间的定义可能本身就有问题」,最后落在具体可执行的改变方法上。

灵感的生成速度永远快于整理和组织的速度,你能在 10 秒钟内产生一个想法,但要把它变成可发布的内容,往往要付出半天、甚至更长的时间,并且绝大部分的时间都花在了「整理素材」这件事上,这种机械、枯燥的工作最让人倦怠和拖延。
而 Agent 接管了检索和搭架子之后,最爽的一点是,你每次新建一个选题,它都会自动去翻你的旧笔记找素材,然后搭好一份大纲等着你。你平时随手记下的东西越多,选题助手能调用的材料就越丰富。
你也许会说,素材检索这事哪个 AI 不能做?但 Notion Custom Agent 是全自动的、无人值守的,你只管写灵感,剩下的全部交给 AI 自己干。
多么美妙的正循环,哈哈!

在处理日常任务或项目的时候,我经常会蹦出一些碎片化的思考,这个时候我就会打开 X 平台,然后在输入框里撰写一条帖子并发出去。
但这时候就难免会遭遇注意力切换的问题,经常一打开 X 就会被上面的信息流吸引,然后就忘了自己上一秒想干什么,或者本来就转瞬即逝的灵感思路就会被破坏。

问题的解法也很简单,既然切换场景会导致注意力丧失,那么我不要切换场景不就好了?所以我创建了一个 X 内容管理数据库,每当我有什么想法要分享,我就在这个数据库里新建页面然后写下要分享的内容即可。

而且写完帖子后我不需要手动复制粘贴到 X,我只需要在看板中把页面从「待办」拖到「进行中」的分组里,也就是把 Status 改成 Ready,那么 Notion Custom Agent 就会帮我把页面里的内容发送到 X 平台上。

这一整套流程具体可以分为这几个步骤:

前三个步骤我们已经很熟悉了,但第四步的 Worker 又是什么,它有什么作用?
Notion Worker 你可以理解为一种自定义代码工具,它让 Agent 拥有了「走出 Notion」的能力。如果说 MCP 更像是标准化的插头,那么 Worker 就是你自己焊的电路板,后者更灵活但也相对更麻烦一些。
没有 Worker 的时候,Custom Agent 只能操作 Notion 生态内部的信息,以及 Notion 官方已经接入的少数第三方服务(比如 Stripe、GitHub 或者 Cursor)。超出这个范围的话,Agent 的手就够不着了。
但有了 Worker 之后,你可以自己写一段代码然后部署到 Notion 的服务器上,让 Agent 通过这段代码去调用外部平台的 API。比如在这个案例里,我用 AI 写了一个叫 postToX 的 Worker,它可以调用 X 平台的官方付费 API,然后把我在 Notion 里写的内容直接发布到我的 X 账号上。

实际跑通之后,整个体验就变成了:想到什么就写进数据库,拖一下状态,帖子就发出去了。从头到尾不需要打开 X,注意力始终留在 Notion 里。也就是说,Notion Worker 让这个虚拟员工学会了「出差」。
它可以带着你的指令走出 Notion 这间办公室,去任何有 API 的地方办事。今天是发推文,明天可以是往 GitHub 推消息、从数据平台拉报表、调用 AI 接口做图片处理,甚至是把 Notion 里的数据同步到你的财务系统里。
只要你能写出(或者让 AI 帮你写出)对应的 Worker,Agent 的能力边界就可以一直往外扩。
上一个案例展示了 Worker 怎么让 Agent 走出 Notion,但那只是一个单步操作:读取内容,发到 X 然后结束,接下来这个案例要做的事情复杂得多。
我的网站是用 Next.js + Vercel 搭建的,文章以 MDX 格式存放在 GitHub 仓库里。以前我得在代码编辑器里(例如 Cursor)对着赤裸的 Markdown 写长文,虽然不是不行,但阅读效果实在太辣眼睛了。

所以我为什么不直接用 Notion 撰写和发布呢?

现在我创建了一个博客发布 Agent,配合一个叫 publishBlogPost 的 Worker,我只需要在 Notion 里写完文章,然后把状态从「撰写中」改为「待发布」,Agent 就会自动完成以下 11 个步骤:
如果你仔细看这 11 步,会发现它其实把前面几个案例里用到的能力全部串了起来:数据库读写(案例一二三)、内容理解和生成(案例四五)、状态触发与调用外部 API(案例六),只不过这一次它们不是单独工作,而是在一条流水线上依次协作,中间没有任何人工介入。

在没有这个 Agent 之前,我写完文章只是完成了相对愉快的那部分,接下来我还得继续检查 SEO 关键词、监督 AI 完成翻译工作、然后命令 AI 把文章推送到 GitHub 再等待 Vercel 的部署,然后把发布链接回填到数据库。
最消耗人的是写完文章后那种创作状态已经结束了,但你还得硬撑着做一个小时的机械劳动。但现在我在 Notion 里写完文章,把状态拖到「待发布」,然后去泡杯咖啡,等我回来的时候,三语文章已经上线了,发布链接已经回填到数据库里,状态也自动变成了「已发布」。
我的工作在「写完」那一刻就结束了,但产出一直延续到了「三语文章上线」。
不是每个人都有博客,但「写完之后还要做一串重复的事才算真正完成」这个痛点是通用的。做课程的人可能是:写完课件 → 生成讲义 → 上传平台 → 更新课程目录;做产品文档的人可能是:写完文档 → 多语言翻译 → 推到文档站 → 通知相关同事;哪怕只是做周报,也可能是:汇总本周数据 → 生成报告 → 发给领导 → 归档到项目文档。
只要你的流程里有这种「后半段」,它就是 Agent 可以替你接管的部分。

回头来看这七个案例,从最简单的定时简报到最复杂的跨平台发布流水线,Custom Agent 的能力边界其实不在于某个单一功能有多强,而在于这些能力可以自由组合。单个触发器、单次数据库读写并不稀奇,但当它们串联起来,你搭出来的就是一套完整的自动化系统。
但光是「能力可以组合」这一点,跟市面上其他自动化工具也没什么本质区别。真正让我兴奋的是,过去那些积累终于能被用起来了。
我在 Notion 里记了八年的笔记,整理了上百个数据库,写了几十篇文章和视频脚本,剪藏了数不清的链接。这些东西过去就是静静躺在那里,偶尔被我翻出来看一眼,大部分时候连我自己都忘了它们的存在。它们是沉没成本,是你曾经花了时间但不确定什么时候能用上的积累。
但 Custom Agent 让这些沉睡的积累突然变成了可以被自动调用的资源。选题助手会翻我的旧笔记找素材,早晨简报会汇总散落在各处的任务数据,智能客服会检索我亲手写的知识库来回复用户。
每一个 Agent 都在消费我过去的积累,而我每一次新的记录又在为所有 Agent 提供更多燃料。这才是我觉得 Notion Custom Agent 真正厉害的地方:它长在你现有的系统里面,你过去积累得越多,它能干的事就越多。
你过去在 Notion 里花的每一分钟,都在变得更值钱。

聊完了几个案例,接下来分享一些我在实践过程中总结出的经验,有些是关于架构设计的,有些是关于心态调整的,但它们的共同点是,如果我早一点知道,可以减少浪费许多的时间和积分。
当你拥有的 Agent 越来越多,一个问题就会开始浮现:每个 Agent 都需要一个触发器,而每次触发都会不同程度地消耗 Credits。
首先,如果你订阅了 Notion AI,那么 Notion 官方推出的 Mail 应用可以用 AI 给你收到的邮件打标签,这一步是不需要消耗 Custom Agent 的 Credits 的。

然后回到 Custom Agent,将邮箱的触发器改为「当标签已应用于邮件」:


这个分流的思路在上一篇文章(Notion Agent 完整解析)就有介绍,在 Custom Agent 里同样适用。场景路由让不该醒的 Agent 别醒,邮件标签在 Agent 启动之前就把垃圾邮件挡掉了,指令拆成子页面按需加载而不是一股脑全塞进去。
所以每次建新 Agent 之前,除了想「它要干嘛」,也值得想想它什么时候不该被叫醒。
在刚用上 Custom Agent 的时候,我的第一直觉是过去沉积的那些笔记和任务有救了。这些内容我自己都快忘了,但总觉得它们有价值,只是缺一个契机去重新激活。
于是我立刻做了两个 Agent,一个叫「随机任务」,每天随机捞一条旧任务,然后给我一份重启建议;另一个叫「随机笔记」,每天随机捞一条旧笔记,问我「这个想法你现在怎么看」,试图帮我重新审视过去的思考。

想法很美好,但跑了一段时间后我发现,这两个 Agent 的推送信息我几乎都不看,或者看完后也没有什么下一步的动作,因为每次都觉得阅读的负担太大。后来我把这两个 Agent 和前文案例五的选题助手放在一起对比,才想明白问题出在哪。
选题助手同样也是在翻找旧数据,不论是从几个月前的剪藏资料库、还是从去年的读书笔记里找,但它之所以让我觉得有用,是因为我刚刚创建了一个新选题,这个选题就是一个天然的目标过滤器,然后 Agent 带着「这个选题需要什么」的问题去检索,找回来的东西自然是相关的、或者我感兴趣的。
而随机任务和随机笔记没有这个过滤器,它们的触发器是定时机制,不是你当下的任何需求,因此没有预设目标的问题检索只会带回一堆与你此刻无关的信息,最终变成噪音。
所以问题不在于数据是新的还是旧的,而在于 Agent 动手的那一刻,有没有一个明确的「当下需求」在驱动它。
这意味着你应该把触发器设计成「当下事件」,例如一封新邮件到了、一个新选题被创建了、一个任务状态变了、一天开始了需要看简报。在这些事件的驱动下,旧数据作为被调用的资源自然会发挥价值。但如果没有事件驱动,单纯让 Agent 去主动推送历史信息,你大概率只会觉得它们很烦。

建一个 Agent 可能一句话十分钟就搞定了,真正费劲的是后面那段漫长的养成期。这个过程很像带一个新员工,入职第一天你并不能指望它什么都做好。
因此,第一版指令千万别追求完美,只写最核心的步骤,让它先跑起来就行,跑完再看看哪里不对,因为你总会漏掉一些自己没想到的边界情况。并且就算它成功跑起来了,我也建议你经常性地复盘和反思,去验证 Agent 的执行结果,去认真评估这个 Agent 存在的必要性,如果觉得它可有可无,那就不要犹豫将它删掉,否则时间一长你就会对一堆 Agent 的推送通知感到麻木,到最后什么是有用的、什么是噪音,你自己都分不清了。
如果有必要的话,还可以给这个 Agent 专门创建一个记忆页面,让它每次执行前先读一遍、执行完再把关键信息写回去,相当于拿 Notion 页面充当它的外部记忆。内容不用写得好看,真实准确就行。这样你才能在一次次的小调整里,慢慢把一个粗糙的 Agent 磨成真正靠谱的虚拟员工。

聊了那么多用法和优点,接下来也该诚实聊聊这个新功能目前还存在的一些不足。
首先是积分制带来的心理压力比我预想的大,因为 Notion 的 Custom Agent 是按积分计费的,并且暂定的价格是 1000 Credits/10$,当前在测试阶段免除积分费用,5 月 4 号后就要开始正式收费了,真的贵到我边用边骂。
当然下图的 5 万积分不是正常情况,排除掉测试用例,我一个月下来的实际开销应该得在 3 万积分左右,但也要 300 美元,这已经能同时订阅 ChatGPT Pro + Claude Max 5X 了,我觉得光这一点就能把你刚才阅读本文的所有热情浇灭。
更让我觉得可惜的是,Notion 目前没有提供 BYOK(Bring Your Own Key)选项,你不能接入自己的 API Key 来降低成本。

好消息是现在还在测试阶段,一切都还有转机。
Notion 显然也知道这样的积分消耗根本无法拓展市场,所以很快就加入了国产模型 MiniMax 2.5,这也是 Notion 第一次有国产模型的加入,虽然智能程度有所下降,但积分消耗至少能降低三分之二,用来执行简单的定时循环任务也足够了。

并且 Notion CEO 表示还会有更多的可选模型加入,值得期待一下。

成本之外,能力边界也是一个绕不开的限制。Worker 确实让 Agent 可以派一个外勤去「出差」,但它出差的方式有点像是被关在一个只有 Wi-Fi 的酒店房间里,只能通过公网 HTTP 请求和外面通信,不能碰你的内网资源,也不能调用本地服务。
而且 Worker 是按需执行的,干完活就走,没办法保持长连接,所以如果你想让 Notion Agent 操作本地文件、调用本地跑着的模型、或者和局域网里的设备打交道,这些需求暂时都还做不到。Worker 更像是一扇刚打开的窗户,你能看到外面的风景,但想自由地走得更远还需要再给它一些时间。
还有个问题是页面权限的稳定性,因为它不是「出了错你能看到」的那种显性问题。我偶尔遇到过几次这样的情况是,Agent 被赋予的页面访问权限莫名其妙地丢了,表面上工作流还好好地挂在那里,实际上它已经因为权限问题停摆了很久,而我根本没收到任何提示,这种「静默失败」比直接报错恐怖得多,虽然遇到的频率并不高,但一旦出现还是挺麻烦的。

以上这些都还是技术层面可以迭代的,最核心的问题在于,Custom Agent 的价值,和你在 Notion 里扎根的深度几乎是一比一绑定的。
前面那七个案例之所以能跑通,之所以让我这么兴奋,是因为我在 Notion 里记录了八年,有上百个数据库、无数条笔记和结构化信息供 Agent 调用。但如果你不是 Notion 用户,或者你的 Notion 里只有零零散散的几页东西,那 Custom Agent 对你来说意义就没有那么大。
它所有的感知、思考和行动都以你的 Notion 工作区为圆心,离开这个圆心它的价值就会迅速下降。相比之下,Claude Code 或者 OpenClaw 不挑场地,你的本地文件系统、任意第三方 API、任何开发环境都是它们的工作台,灵活性和可覆盖的范围确实要宽得多。
所以如果你问我「要不要入坑 Notion Custom Agent」,我的回答是:先问问自己在不在 Notion 里。 如果你已经在这里并且积累够深,它能帮你把过去的积累全部激活;但如果你还没进来,那现阶段可能有比它更通用的选择。
不过话说回来,如果你看到了这篇文章的这个位置,你大概率已经是 Notion 用户了吧。
写到这里我唯一确定的一件事是,Custom Agent 真正带来的变化,发生在你和系统的关系上。
以前很多整理和记录需要你不断推动才会往前走,现在你只要把规则讲清楚,系统就会自己继续运转。你多年积累的笔记、字段、文档,会在你不盯着的时间里被读取、被调用、被转化成下一步的行动与产出。
我也不想把它写成一件轻松的事。积分带来的焦虑、Worker 的限制、权限偶发的静默失效、生态绑定的硬边界,都是真实存在的麻烦。有些问题短期内可能不会消失,但我仍然愿意继续用下去,因为方向足够明确,收益也足够具体。
因此如果你想开始,建议从一个最小的场景入手。做一个早晨简报,或做一个自动补字段的小工具,让它先跑起来。你会很快体验到那种醒来发现事情已经被处理过的感觉。
等你尝到第一口甜头,后面的流程自然会一点点长出来。

最后,文中的 7 个 Agent 案例,全部运行在我所搭建的 FLO.W 思流之上。这是一套专为知识工作者设计的 Notion 效率系统,预设的数据库结构、字段设计和关联关系,让 Agent 可以直接识别和调用,无需从零搭建。
模板介绍:点我
> 关注 少数派公众号,解锁全新阅读体验 📰
> 实用、好用的 正版软件,少数派为你呈现 🚀