纯情 发布的文章

GEO优化+线下活动:让本地品牌曝光从线上走到用户身边
在数字化时代,本地品牌面临着激烈的竞争,如何从海量信息中脱颖而出,精准触达目标用户?单纯依赖线上推广或线下活动已显不足。结合GEO优化与线下活动,正成为提升本地品牌曝光的关键策略。本文将探讨如何通过这一组合拳,让品牌从线上走到用户身边,实现曝光最大化。

什么是GEO优化?
GEO优化(地理定位优化)是一种基于用户地理位置进行精准营销的技术。它通过分析用户所在区域,推送相关广告、内容或服务,从而提升本地品牌的线上可见性。例如,在搜索引擎或社交媒体中,当用户搜索“附近咖啡馆”时,GEO优化能确保本地咖啡馆出现在结果前列。

GEO优化的核心优势包括:

精准触达:锁定特定地理区域的潜在客户,减少资源浪费。
提升转化率:用户更可能对本地信息产生兴趣,从而增加点击和购买行为。
增强用户体验:提供个性化、本地化的内容,满足用户即时需求。
线下活动的力量
线下活动如促销活动、社区市集、体验工作坊等,能让品牌与用户面对面互动。这种实体接触不仅能建立信任,还能创造难忘的体验,从而深化品牌印象。对于本地品牌而言,线下活动是连接社区、提升口碑的有效途径。

线下活动的关键价值:

建立真实连接:直接与用户交流,收集反馈,增强品牌亲和力。
激发口碑传播:通过现场体验,用户更乐于在社交圈分享,扩大品牌影响力。
补充线上不足:弥补线上营销的虚拟感,提供触觉、视觉等多感官体验。
如何结合GEO优化与线下活动?
将GEO优化与线下活动结合,可以打造从线上引流到线下参与的闭环,让本地品牌曝光无缝衔接。以下是具体策略:

  1. 线上预热与精准邀请
    利用GEO优化技术,在活动前通过社交媒体、搜索引擎广告等渠道,向本地用户推送活动信息。例如,设置地理围栏,当用户进入品牌周边区域时,发送活动通知或优惠券,激发参与兴趣。
  2. 线下活动中的数字化互动
    在活动现场,结合地理签到、AR体验等数字化工具,鼓励用户在线分享。例如,设置打卡点,用户通过地理位置分享活动照片,可获赠礼品,从而扩大线上传播。
  3. 数据反馈与持续优化
    通过GEO数据追踪活动参与情况,分析用户来源和行为模式。这些数据可用于优化后续活动,例如调整目标区域或改进内容,形成良性循环。

成功关键与建议
要实现GEO优化与线下活动的有效结合,品牌需注意:

一致性:确保线上信息与线下活动主题一致,强化品牌形象。
用户体验:简化参与流程,让用户从线上到线下过渡顺畅。
测量效果:使用数据分析工具,评估曝光量、参与度和转化率,持续改进策略。
结语
在本地市场竞争中,单一渠道的曝光已难以满足需求。通过GEO优化精准引流,再以线下活动深化连接,品牌不仅能提升本地品牌曝光,还能构建忠诚的用户社区。从线上走到用户身边,这一策略将帮助本地品牌在数字与现实世界中赢得先机。

整理 | 华卫

在大多数公司还在按季度推出新产品时,Anthropic 已经把发布节奏压缩到了“按天迭代”。站在这一切背后的,是一名 90 后的华裔女性 Cat Wu。从工程师到 Anthropic 旗下两款王牌产品 Claude Code 和 Cowork 的产品负责人,她不仅亲手推动着这一代 AI 产品的演进,也在面试成百上千位试图进入 AI 领域的产品经理,亲眼见证了哪些人在成功、哪些人已经落后。

Cat Wu 全名是 Catherine Wu,在加入 Anthropic 之前曾做了多年的工程师,还在风险投资领域短暂工作过。据了解,她本科毕业于普林斯顿大学计算机科学专业,曾担任 Scale AI 产品工程师、Dagster 工程经理和 Index Ventures 风险投资人,于 2024 年 8 月加入 Anthropic。2025 年 7 月初,Cat Wu 与 Boris Cherny 两位高管级人物一同被 AI 编程初创公司 Cursor 挖角。约两周后,两人便回归 Anthropic。回归后,他们全面接管 Claude Code 产品线。

“我们许多产品功能的开发进度从 6 个月缩短到了 1 个月,有时候甚至只需要一天。”近日,Cat Wu 在一场深度访谈中表示。她谈到,这种状态在 Anthropic 已持续了好几个季度了。“内部用模型提升了一些效率,更关键的是流程和团队的预期。我们尽量减少流程,移除所有阻碍发布的因素,让每个人都觉得自己可以把一个想法在一周、甚至一天内,变成一个上线的产品。”

而在做产品功能的优先级决策时,他们只围绕一个使命:为全人类带来安全 AGI。“如果 Claude Code 失败了,但 Anthropic 整体成功了,我会非常开心。整个团队也都愿意按照这样的思路来做决策。”有趣的是,Cat Wu 指出,新模型发布时除了解锁全新功能,带给他们更大变化的其实是“删除功能”,因为很多功能原本是为了弥补模型能力的不足。

对于此前 Claude Code 源码泄露一事,她透露“这是一个人为错误”,涉事员工目前仍然在公司工作,“这是流程问题,最重要的是从中学习,增加防护措施,这也是我们现在在做的事情。”

Cat Wu 还分享了 Anthropic 内部当前使用模型 token 的情况。除了工程团队之外,其公司里用 token 最多的是并没怎么出现在外界视线的 Applied AI 团队,他们的工作是帮助客户在公司内部落地 API 和模型能力。此外,她表示,尽管每次模型有明显升级时,人均 token 消耗都会上升。但目前来看,这个成本仍然远低于工程师的平均薪资。并且,内部团队用自家模型也有上限,浪费 token 是不被鼓励的。

以下是详细对话内容,我们在不改变原意的基础上进行了翻译和删减,以飨读者。

发布节奏快到几天,怎么做到的?

主持人: 我想先从你的角色讲起,特别是你和 Boris 的分工。大家都知道 Boris,他创造了 Claude Code,带团队推进,每天从手机上提交无数 PR。我甚至都不知道现在具体是多少了。我觉得大家没有给你足够的认可,其实 Claude Code、Cowork 以及你们正在做的一切的成功,都有你的贡献。能不能帮我们讲讲你在团队里的角色?你和 Boris 是怎么合作的?你们如何分工?在 Claude Code 团队里,PM (产品经理)的角色到底是什么样的?

Cat Wu: 我觉得自己非常幸运能和 Boris 一起工作,他是一个很棒的思维伙伴。他是我们的技术负责人,同时也是产品愿景的提出者,非常擅长定义产品未来的方向,比如三个月、六个月之后产品应该是什么样,甚至是“AGI 完全体版本”的产品形态。

我更多是在思考,从现在到那个三到六个月后的愿景、中间的路径是什么。我花了很多时间在跨团队协作上,比如确保市场、销售、财务、算力等团队都认同这个计划,大家朝着同一个方向前进,同时确保功能准备好之后不会在发布环节被卡住。某种程度上,我们合作得很好,是因为我们有点“脑回路融合”的感觉。但其实边界也挺模糊的,大概 80% 是重叠的,剩下 20% 是我特别在意的部分,我会主导;还有 20% 是他更在意的,他就会主导。

主持人: 之前你提到,你一直在面试大量 PM。如果每次有人找我内推去 Anthropic 当 PM 我能拿一块钱,那我现在可能已经有 300 亿 ARR 了。这是现在大家最想去的公司之一,所以我能想象你面试了多少人。你说很多人其实做错了,他们对“成为一个成功的 AI 产品经理”的理解有偏差。你能讲讲你观察到的问题吗?以及现在到底需要什么能力才能成功?

Cat Wu: 我觉得在 AI 之前,技术变革的节奏是比较慢的。你可以按 6 到 12 个月的周期来规划,而且因为功能发布节奏也比较慢,当时很强调和其他团队的协同,确保他们的功能能为你解锁路径,因为写代码本身是很昂贵的。但现在,AI 大幅提升了工程效率。随着模型能力也在快速提升,我们许多产品功能的开发进度从 6 个月缩短到一个月,再到一周,有时候甚至是一天。在这种情况下,我们需要更快地把产品推出去。

这意味着,作为 PM,你不应该再把重点放在跨多个季度的 roadmap 对齐上,而是要思考:怎么用最快的方式把东西做出来?怎么让一个想法在一周内就能交到用户手中?我觉得在 AI 原生产品中表现最好的 PM,是那些能极大缩短“从想法到用户手中”这段时间的人,同时还能清楚定义,产品中哪些核心任务必须开箱即用。

主持人: 我很喜欢你说的这一点,本质上是很多人还没意识到节奏有多快,以及现在工作中有多大一部分是“帮助团队加速”。那具体怎么做到?你们 PM 团队是怎么帮助团队这么快推进的?

Cat Wu: 第一件事是设定清晰的目标。因为大模型本身很通用,会带来很多模糊性:我们到底在为谁做产品?解决什么问题?最重要的使用场景是什么?一个优秀的 PM 能够明确这些,比如:我们的核心用户是专业开发者;这个功能要解决的问题是权限弹窗太多导致疲劳;我们的目标是让企业里的开发者安全地实现“零权限弹窗”。这样目标就很清晰,也会自动排除很多不必要的方案。

第二,是建立一个可复用的发布流程。比如在 Claude Code,我们几乎所有功能都是以“研究预览”的形式发布。我们会明确告诉用户这是早期产品,是一个想法,还在收集反馈,也可能不会长期支持。这样做的好处是降低了承诺成本,我们可以在一两周内快速上线一个东西。第三,是为团队建立一个协作框架,让大家知道什么时候需要拉跨职能团队以及他们的预期是什么。

我们在工程、市场和文档之间有非常紧密的流程:工程师觉得功能 ready 并完成内部使用后,会发到一个发布频道,文档、PMM、开发者关系团队会立刻跟进,第二天就能发布公告。

这种流程降低了发布摩擦,而 PM 的职责之一就是把这个体系搭建好。

主持人: 那 PRD 在这个体系里是什么角色?你刚刚提到目标很重要,那你们还写 PRD 吗?还是只是简单几条 bullet point?在 AI 时代,这件事是怎么演变的?

Cat Wu: 我们主要做两件事。第一是非常严格的数据指标,每周都会和整个团队一起做指标复盘,确保每个人都深入理解业务的各个方面:核心目标是什么、趋势如何、驱动因素是什么。第二是我们有一套团队原则,包括核心用户是谁、为什么是他们。这样做的目的是让每个人都理解业务运作方式,知道什么重要、什么可以取舍,从而可以自主决策,而不是被 PM 卡住。对于一些特别模糊的功能,我们还是会写一页纸,说明目标、理想使用场景,以及当前需要解决的失败模式。当然,也有一些项目,特别是涉及重基础设施的确实需要几个月时间,那种情况下我们还是会写完整的 PRD。

主持人: 我还想再深入问一下你们为什么能这么快。我从没见过像 Anthropic 这样的发布节奏,几乎每天都有重要功能上线。有个问题是,你们最近做了一个叫 Mythos 的模型,还在预览阶段,因为太强大了,大家甚至有点担心它的能力。你们是不是在内部用了它,这也是你们变快的原因之一?

Cat Wu: 我们已经快了好几个季度了,所以不完全是 Mythos 的原因。它确实非常强大,我们内部也会用模型,这确实提升了一些效率,但不是主要原因。更关键的是流程和团队的预期。我们尽量减少流程,移除所有阻碍发布的因素,让每个人都觉得自己可以把一个想法在一周内、甚至一天内,变成一个上线的产品。

主持人: 太酷了,既有最强模型,又在做产品,这种优势真的很难复制。

Cat Wu: 我们确实很幸运能用到这些前沿模型。

工程师和 PM 的边界正在重叠,“产品感”依然稀缺

主持人: 最近发生了一件事,就是 Claude Code 的源码泄露,大概一周前,有人把代码放出来了。你能讲讲发生了什么吗?

Cat Wu: 我们看到之后第一时间做了调查。这是一个人为错误。当时有人在用 Claude 写 PR,这是一次关于发布流程的更新,而且经过了两层人工审核。最终这是一个人为失误,我们也加强了流程,确保未来不会再发生。

主持人: 那这个人还在公司吗?

Cat Wu: 在的。这是流程问题,最重要的是从中学习,增加防护措施,这也是我们现在在做的事情。

主持人: 还有一个问题是 OpenClaw。最近你们限制了用 Claude 订阅去跑 OpenClaw,社区反应很大,很多人觉得这对开源社区有伤害。你怎么看?

Cat Wu: 我们确实看到对 Claude 的需求非常高,所以一直在努力扩展基础设施,同时优化 token 使用效率,让大家用得更久。但这个产品本来不是为第三方产品设计的,它们的使用模式和我们的一方产品差异很大。我们也花了很多时间思考怎么做一个尽可能平滑的过渡,比如给订阅用户提供额外 credits。但最终我们还是做了一个艰难的决定:优先支持我们的一方产品和 API,这也是这个决策的背景。

主持人: 对我来说这其实很合理。你们一个月 200 美元基本是无限用,但算力成本又这么高,公司还是要赚钱的,不可能一直补贴。回到 PM 团队,你们的团队结构是怎样的?大概有多少 PM?

Cat Wu: 我们现在大概有 30 到 40 个 PM,分成几个团队。有研究 PM 团队,负责收集模型用户反馈,并传递给研究团队,同时也参与模型发布;有云开发者平台团队,维护 Claude Code 的 API,并发布像托管 Agent 这样的能力;有 Claude Code 团队,负责 Claude Code 和 Cowork 的核心产品;有企业团队,负责让这些产品更容易被企业采用,比如成本控制、权限管理、安全等;还有增长团队,负责整个产品线的增长,我们和他们在 Claude Code 和 Cowork 上合作很紧密。

主持人: 说到增长,Amole 最近刚上过我们的播客。他提了一个很有意思、但很少有人讲的观点。现在大家普遍有一种感觉:未来会需要更少的 PM,甚至有人说“还要 PM 干嘛,工程师自己就能发版”。但他的看法正好相反:因为工程师的速度变得太快了,PM 和设计师反而被“挤压”了,每天都有新功能上线,很难跟上节奏。所以他觉得反而需要更多 PM。你怎么看?你觉得未来 PM 的招聘会增加吗?这个职业长期会怎么演变?

Cat Wu: 我觉得各种角色正在融合。PM 在做一些工程的事情,工程师也在做 PM 的事情,设计师既在做 PM,也在写代码。你可以选择招更多有产品感觉的工程师,或者保持工程师数量不变,增加更多 PM 来帮助引导他们的工作。在我们团队,我们更倾向于招聘有很强产品感觉的工程师。这样可以减少产品发布过程中的“摩擦成本”。比如我们团队里有很多工程师,可以从在 Twitter 上看到用户反馈,到一周内直接上线一个产品,中间几乎不需要 PM 参与。我觉得这其实是最高效的方式。

所以我认为工程师和 PM 的边界正在重叠,不管你增加哪一类人,都会带来价值。不过我觉得“产品感”仍然是一个非常稀缺的能力,只要我们看到有人在这方面特别强,就会非常愿意招。

主持人: 你之前是工程师出身,对吧?

Cat Wu: 对,我做了很多年工程师。后来短暂做过风投,然后加入了 Anthropic。实际上,我们团队几乎所有 PM 要么是工程师出身,要么在 Claude Code 上写过代码。我觉得这有助于建立团队信任,也能让我们推进得更快。甚至我们的设计师很多也曾是前端工程师。

主持人: 这正好引出一个关键问题:现在这些角色在融合,很多人会想,如果我是工程、产品或设计背景,到底哪种能力未来最有价值?在你们这里,工程能力显然很重要。但在其他公司,比如设计背景转 PM,会不会更有优势?

Cat Wu: 我还是觉得核心在于“产品感”。随着写代码变得越来越便宜,更有价值的能力变成了:决定“该写什么”。比如这个功能的最佳用户体验是什么?怎样才能让用户感到最愉悦?

我们每天会收到成千上万的 GitHub issue,用户什么都在提。这时候就需要很强的判断力和品味,去决定哪些值得做,以及应该怎么做。这个能力可以来自任何背景,但它是最重要的。我觉得工程背景之所以在接下来几个月特别有价值,是因为它能帮助你判断一件事的实现难度,而这往往会影响优先级。比如,如果一个功能很容易做,那可能就不用讨论太久,直接花一小时做出来;但如果很复杂,你就会意识到它的成本很高,这会影响决策。

“牺牲产品一致性”,团队的人都很“享受混乱”

主持人: 你刚才说“接下来几个月”,是因为模型很快会变得更强,到时候可能连这个判断都不重要了吗?

Cat Wu: 我觉得更准确的说法是:技能的价值变化非常快,很难预测几个月之后会怎样。这不是说某个具体模型会改变一切,而是过去的趋势是,每隔几个月,代码能力就会有一次明显提升,从而改变其他岗位的价值结构。

主持人: 明白,不是某个具体节点,而是变化本身在加速。

Cat Wu: 对。

主持人: 在这样的环境下,人类的大脑在哪些方面还会持续有价值?至少在短期内。

Cat Wu: 我觉得最重要的是“第一性原理思考”。你要能理解技术环境在如何变化,团队现在真正需要你做什么,并主动去填补那个空缺。现在的工作越来越“模糊”,一个优秀的 PM 要能看清所有缺口,判断优先级,然后要么去学习新技能,要么用已有能力去解决问题。所以现在更受欢迎的是那种可以“多角色切换”、愿意承担各种工作的、且不太在意头衔的人。

主持人: 我很喜欢这个回答。我最近一直在问类似你这样的前沿从业者一个问题:在人类还没到超级智能之前,人类大脑的价值在哪里?听你说,核心就是选题、判断方向、做优先级,以及判断一个东西是否“对”。还有把它快速推向市场。是这样吗?还有补充吗?

Cat Wu: 我觉得人类还有一个优势是“常识”。一个产品发布涉及成千上万个细节,有很多可能出问题的地方。模型目前还不太擅长理解所有利益相关方是谁、他们之间的关系、各自的偏好,以及应该通过什么方式沟通。这些更偏“隐性知识”、类似情商的能力,目前仍然很重要。当然我们也希望模型在这方面变得更强,但现在还是有差距。

主持人: 在这样高速变化的环境里,作为一个人,你是怎么保持理智的?感觉像是在龙卷风中心。

Cat Wu: 我觉得我们团队的人都很“享受混乱”。我们会带着笑面对挑战,因为事情永远很多、风险也很多。如果你对每件事都焦虑,很快就会透支。我们更倾向于找那种看到困难会说“这很难,但我很期待解决它”的人。他们会尽力而为,也接受不完美,但能安心睡觉,因为知道自己已经做到最好。

主持人: 这其实也是一种重要能力。有人说,现在就是“世界最正常的时候”,之后只会更疯狂。

Cat Wu: 确实会越来越难。有时候周日晚上有一个 P0 级问题,周一早上又来一个更严重的,到了下午可能出现更夸张的,你就会觉得,昨天那个问题根本不算什么。你只能接受你能做的事情是有限的。你要保证睡眠,才能第二天做出好决策。同时要极度优先级排序,专注最重要的事,并接受有些事情做不好。比如我们有些产品上线时不够精致,但只要不影响核心用户价值,就可以接受,因为我们会快速拿到反馈,在下一次迭代修复。

主持人: 听起来就像《加勒比海盗》里那个场景:船都快炸了,有个人还在优雅地下楼。我接触到的 Anthropic 的人确实都很冷静、很乐观。

Cat Wu: 如果没有这种状态,很容易透支。我们也倾向于招聘那些在行业里经历过很多起伏的人,他们更知道什么能给自己带来能量,以及如何长期保持状态。

主持人: 那在这种角色融合的趋势下,我们会失去什么?比如职业路径、设计一致性、代码质量?

Cat Wu: 我们确实会牺牲一些“产品一致性”。以前代码成本高的时候,你会非常精细地规划整个产品体系,每个产品的定位、使用场景、如何协同,通常一个场景对应一个产品。但现在 AI 发展太快,我们需要测试很多想法,所以有时候会出现功能重叠。很多时候是因为我们内部同时喜欢两种不同形态,希望用户来告诉我们哪种更好。但这对新用户来说会带来困惑:他们不知道完成某个任务的最佳路径是什么。这意味着我们需要做更多用户教育,帮助他们理解核心功能和最佳实践。

另外一个问题是用户会觉得“跟不上”。过去你一个月甚至一个季度才有一次更新,不看也没关系。但现在这些工具发展太快,很多人会每天刷 Twitter 看最新进展。我们也在思考如何让用户不那么焦虑,希望他们打开工具时,工具本身就能引导和教学,而不是让他们感觉在一条越来越快的跑步机上。

主持人: 我看到你们最近上线了一个很有意思的功能,好像叫 /powerup,它会带用户了解 Claude Code 的最佳用法。这是不是为了解决这个问题?

Cat Wu: 对,就是这个思路。其实我们以前不太想做这种 onboarding,因为我们觉得产品应该足够直观,不需要教程。但后来发现功能太多了,而且用户非常希望有一个内置的引导,告诉他们在上百个功能里,最重要的 10 个是什么。所以我们调整了原来的理念,加上了这个功能。

“Claude Code 能失败,但 Anthropic 必须成功”

主持人: Anthropic 这几年的发展非常夸张。一开始其实很落后、融资少、没有分发渠道,OpenAI 遥遥领先,大家都觉得没机会。但现在你们增长非常惊人。站在内部看,你觉得成功的关键是什么?

Cat Wu: 我觉得最重要的是两点。第一,是一个高度统一的使命感。这一点非常关键。我们招聘的是那些真正关心“为全人类带来安全 AGI”的人。而且这不是一句口号,我们在做产品决策时会反复参考这个使命。因为我们把使命放在单一产品之上,所以可以在整个组织层面做出快速决策,并统一执行。这一点在我们这个规模的公司里其实很少见。

主持人: 我再确认一下是否理解正确。也就是说,你们把“安全对齐(确保 AI 对世界有益)”作为第一使命。只要这个使命足够清晰,很多决策其实就更容易做了。比如当有两个优先级冲突时,就看哪个更符合 Anthropic 的使命,然后优先做那个。这样一来,一旦做出决定,大家也都会支持它。

Cat Wu:有时候这也意味着,比如我们想在 Claude Code 上发布某个功能,但发现有更重要的事情,于是就降低这个功能的优先级,推迟到以后再做。

主持人: 这点很有意思。我觉得这也解释了你们和另一家公司 OpenAI 之间的差别,他们做了很多不同的事情。而你们的逻辑是:我们不会去做社交网络,也不会去做信息流,因为这些不符合使命。这种克制让 Anthropic 保持了专注,而这似乎正是成功的关键因素之一。

Cat Wu: 当我谈“使命”的时候,我理解的是把 Anthropic 的目标放在任何个人、任何单个产品之上。对我来说,我们做得第二好的事情其实是“专注”,但使命和专注还是有点不同。使命意味着团队愿意做出牺牲,哪怕会影响自己的目标或 KR,只要这是为了服务 Anthropic 的整体目标和 KR。而且大家是很乐意做这种权衡的。举个极端的例子,如果 Claude Code 失败了,但 Anthropic 整体成功了,我会非常开心。整个团队也都愿意按照这样的思路来做决策。

主持人: 这个问题你可能不方便讲太多细节,但你觉得像 OpenClaw 的决策,是不是也属于这种逻辑?比如说:这个方向没有推动 Anthropic 的使命,所以就要停掉?

Cat Wu: 我觉得对 Anthropic 来说,非常重要的一点是扩大我们能够触达的用户规模。实现这一点的方式之一,是通过 Claude 订阅以及我们的第一方产品。所以我们会非常坚定地加码这些方向,但这有时候确实会以牺牲第三方产品为代价。

Claude 内部 skill 大放送

主持人: 我们刚刚提到了 Claude、Cowork 等产品。我想确认大家能理解这些工具的区别,也很好奇你自己是怎么用的。比如有 Claude Code、Claude desktop 还有 Cowork,到底什么时候该用哪个?

Cat Wu: 我通常会在终端里使用 Claude Code,尤其是当我只是想快速启动一个一次性的编码任务,并且希望用到最新功能的时候。CLI 是我们最早的产品形态,很多新功能也最先在这里上线,所以它是功能最强的一个工具。一般我在同时处理一个或少量几个任务时会用。desktop 更适合需要做前端工作的场景。我很喜欢用它的预览功能,比如我在做一个 web app 时,会同时用 Claude Code 和 desktop,在右侧打开预览面板,这样可以一边和 Claude 对话,一边实时看到网页效果。

对于非技术用户来说,desktop 也更友好。终端对很多人来说很陌生,会弹出各种“看起来很吓人”的提示,也不像其他产品那样可以点击操作。所以如果你不习惯终端,我会非常推荐用 desktop 版的 Claude Code。另外,desktop 还可以提供一个全局视图,你可以看到 CLI 会话、desktop 会话,还有在 web 或 mobile 上发起的任务,是一个统一的控制面板。至于 web 和 mobile,它们最大的优势是“随时随地发起任务”。CLI 和 desktop 都需要你在本地电脑上使用,但现实是你不可能一直带着电脑。

我见过很多人一边在外面走路,一边用手机给电脑热点、还要开着电脑不敢关。这说明我们其实缺一个解决这种场景的产品。mobile 就很好地解决了这个问题,你可以随时发起任务,不需要把电脑带到任何地方。

主持人: 太真实了。我在飞机上都见过这种场景,大家不敢关电脑,就等 Agent 跑完,还得一直连着 Wi-Fi。

Cat Wu: 至于 Cowork,它解决的是另一类问题:很多工作产出并不是代码。比如清空 Slack、清空邮箱、做客户演示用的 PPT、写一个功能目标文档或者发布计划,这些都是“非代码产出”。Cowork 就非常适合这些场景。所以我自己的划分很简单: 如果输出是代码,就用 Claude Code(无论是在 desktop 还是 mobile 上); 如果输出不是代码,就用 Cowork。

主持人: 我觉得大家有点低估 Cowork 的成功了。它增长非常快,但很多人可能还不太清楚它到底能做什么。能不能结合你作为 PM 的工作,分享一些实际用例?有没有一些比较出乎意料的用法?

Cat Wu: 如果你刚开始用 Cowork,第一步一定是把所有和你工作相关的数据源都接入进去。

因为只有拿到足够的上下文,它才能给出高质量的结果。对我来说,我会连接 Google Calendar、Slack、Gmail、Google Drive,让它可以自由地获取上下文、提取信息、串联线程,这会显著提升结果质量。我举个例子,昨晚我在用 Cowork,因为我们有一个 Code with Claude 的大会,我需要做几场演讲。其中一个演讲主题是:Claude Code 如何从“助手”进化成“真正的 Agent”。我想展示我们发布的产品,以及内部的一些成功案例。

我把 Google Drive 和 Slack 都接入了。我们的产品市场同事 Alex 已经整理了一份初稿,我就把这些材料全部喂给 Cowork,并告诉它我想讲的叙事逻辑。然后它工作了一个小时: 它去看了 Twitter 上我们发布过什么; 查看了内部的发布记录; 翻了 Claude Code 的公告频道(里面有很多团队分享的实际案例);最后把所有信息整合成了一份 20 页的 PPT。我早上醒来一看,整体质量已经相当不错了。虽然我还是做了一些修改,比如我更喜欢“少字”的幻灯片,而它一开始写得有点多。

但整体速度远远超过我自己做的效率。而且因为它能访问我们的设计系统,这份 PPT 看起来就像是专业设计师做的,非常精致。

主持人: 这简直是 PM 的梦想,做 PPT 太痛苦、太慢了。为了让大家也能尝试一下,你刚才说的步骤是:先接入 Slack、Google Calendar、Gmail、Google Drive,对吗?

Cat Wu: 对,核心是连接你的沟通工具,以及团队的“信息源”。

主持人: 那你当时的 prompt 大概是怎么写的?

Cat Wu: 我其实写得很简单: “帮我做一个 Code with Claude 大会的 PPT,这是 PMM 建议的内容,这是我现在不满意的草稿,还有一个我手动做的版本(附链接)。先给我一个详细的大纲,同时避免和 keynote 重复。”Claude 会先读取这些链接,然后生成一个大纲。我再根据它的建议,决定哪些内容要保留。这其实也体现了现在 PM 的角色: Claude 是一个很强的“头脑风暴伙伴”,能快速整合大量信息并给出多种可能性; 但最终决策仍然由 PM 来做。

我最后确定的结构是: 从“让本地任务成功”,到“让每个 PR 都通过”,再到“帮助工程师提交更多 PR”,每一阶段配对应的 demo。在我确定大纲之后,Cowork 又花了几个小时,把整份 PPT 完整做出来。

主持人: 太棒了。这相当于你在和一个“既懂设计又懂内容”的设计师对话。那设计系统这部分是怎么实现的?它怎么知道 Anthropic 的风格?

Cat Wu: 我们本来就有一套标准的对外演示模板,我直接把这个模板给 Claude。它就能学习我们的配色、字体、版式等,比如我们有大概 20 种常用的幻灯片格式。你也可以连接 Figma 的 MCP,如果你的模板在那里面,它也可以直接读取。

主持人: 说到这里我很好奇,你作为 PM 的工具栈是什么?除了 Claude Code、Cowork,还有什么?

Cat Wu: 我的工具栈主要就是 Claude Code 和 Cowork。Anthropic 基本是围绕 Slack 运转的,我觉得它几乎就是公司的“操作系统”。日常工作中,我大概有 30% 的时间是在不断尝试 Cowork 的边界,看看它哪里做得不好。我也会花很多时间和模型对话,理解它为什么会犯错。另外,我们内部也做了很多工具。Claude Code 最大的一个价值,是大幅降低了开发定制应用的门槛。所以现在公司内部出现了大量“个人化工作软件”,用来解决非常具体的场景,而不是依赖那些不完全适配的通用工具。

主持人: 能举一些例子吗?

Cat Wu: 比如我们 Claude Code 的一位销售同事,他发现自己要反复做类似的客户演示 PPT。于是他做了一个 web app: 内置了几个效果最好的模板(比如 101、201、进阶教程); 然后可以输入客户信息,这些信息会从 Salesforce、Gong 等系统自动拉取;系统会根据客户情况自动调整内容,比如: 客户用的是 Bedrock 还是企业版 Claude; 他们更关注代码评审还是安全合规; 是否需要 HIPAA 等合规支持;然后自动生成定制化 PPT。原本需要 20–30 分钟的工作,现在几秒钟就完成了。

主持人: 很有意思的一点是,像 Slack 这样的工具,几乎没人尝试替代它。大家都在说 SaaS 要被自建工具取代,但 Slack 反而像是一个不可替代的基础设施。

Cat Wu: 我觉得它确实是非常关键的沟通基础设施,而且在“实时信息同步”这件事上做得非常好。

主持人: 是的,很多人会吐槽 Slack,但它在自己要做的事情上确实做得很好,而且最前沿的团队基本都离不开它,这一点挺有意思的。

Cat Wu: 对,而且我也很喜欢它在“可定制性”上的设计。我们很喜欢做 Slack bot,这种“可 hack 性”让我们可以按自己的方式去集成 Slack。所以在这方面我真的很认可 Slack 的工作。

浪费 token 不被鼓励,内部用自家模型也有上限

主持人: 你刚刚提到很多不同团队,以及他们如何使用 Claude Code 和 Cowork。除了工程团队之外,哪个团队用的 token 最多?我猜工程应该是第一,如果不是那就很有意思了。那第二名大概是谁?

Cat Wu: Applied AI 团队在探索 Claude Code 和 Cowork 的边界方面非常厉害。他们的很多工作是和客户一起,帮助他们落地我们的 API。所以有时候他们会直接帮客户做原型,而 Claude Code 让这个过程比以前快了很多。同时,他们还要处理大量客户沟通,比如客户的需求、历史会议记录等等。所以他们在 Cowork 和 Claude Code 上的使用都非常重。

主持人: 那 Applied AI 团队具体算什么角色?类似前线工程(forward deployed engineering)吗?

Cat Wu: 可以这么理解。他们的工作是帮助客户在公司内部落地我们的 API 和模型能力,无论是用在客户自己的产品上,还是用于内部提效。

主持人: 明白了,就是一种偏技术的 go-to-market / 客户成功角色。

Cat Wu: 对,是一种非常技术化的 go-to-market 角色。

主持人: 所以你觉得他们大概是 token 使用量第二多的团队?

Cat Wu: 是的。而且他们也在不断探索 Cowork 的使用边界。比如很多人同时负责多个客户,一天可能有 5 到 10 场客户会议。于是他们会在前一天晚上用 Cowork 做准备:“帮我总结明天所有客户会议,每个客户关注什么、提出过什么需求、之前的行动项是什么。”Cowork 会自动生成一份“作战简报”,帮助他们快速进入状态。另外,如果客户在会议中问:“某个功能什么时候上线?” Cowork 甚至可以去 Slack 里查最新进展,给出最新 ETA,并补充进会议资料。这些其实都是大家自己搭出来的工作流,并在团队内部分享。

主持人: 太酷了。最近有个很有意思的趋势:有些人用 AI 的 token 成本,已经超过了他们自己的工资。Anthropic 内部有没有类似的数据?比如工程师或 PM 每天、每月大概用多少 token?

Cat Wu: 我们确实观察到,随着模型能力提升,人们会把更多任务交给它,也会在 Claude Code 和 Cowork 上花更多时间。所以每次模型有明显升级时,人均 token 消耗都会上升。目前来看,这个成本仍然远低于工程师的平均薪资,但这个比例是在持续增长的。

主持人: 你们还有一个很大的优势,就是可以用最先进的模型,而且 token 基本不限量,对吧?

Cat Wu: 我们可以用很多 token,不过确实也会有人遇到限制。

主持人: 原来还是有上限的。

Cat Wu: 我们非常重视让内部团队尽可能快地开发,同时也相信大家理解模型运行的成本,并且会负责任地使用 token。浪费 token 是不被鼓励的,但我们信任每个人做出判断。

主持人: 回到 PM 这个角色。你刚刚提到了一些,我想再系统问一下:现在 AI 公司最看重 PM 的哪些新能力?

Cat Wu: 最难的一项能力,是定义“一个月后的产品应该是什么样”。因为在这个时间尺度上,模型能力和用户行为都存在很大不确定性。但优秀的 PM 能从用户如何“突破产品边界”中看到模式,然后设定方向,并持续推进。如果模型能力变化超出预期,也能及时调整。

还有一点很难:你需要对 AGI 有“恰到好处”的信仰。大家都能想象一个未来:模型非常强大,几乎无所不能,那产品甚至可以退化成一个文本框。但真正困难的是: 在当前模型能力下,如何最大化它的潜力? 如何引导用户走上“最佳路径”? 如何放大它的优势、弥补它的弱点?这种能力其实非常稀缺。

主持人: 那这种能力怎么培养?是不是要大量使用模型、理解它的边界?

Cat Wu: 对,就是要大量和模型互动。我很喜欢做的一件事是让模型“自我反思”,

比如有时候模型做了一些奇怪的事情,我会问它为什么这么做。它可能会说: 是 system prompt 有歧义; 或者没意识到前端验证是任务的一部分; 或者把任务交给子 Agent,但没有检查结果。这种分析可以帮你理解它哪里被误导,从而优化系统。

另外一个重要点是找到你信任的“反馈来源”。不是所有用户的反馈都同样有价值。通常会有少数几个人,特别擅长判断模型表现。找到这 5 个人非常关键。第三点是做 eval。你不需要做上百个 eval,只需要 10 个高质量的,就能帮助团队明确目标、衡量进展。这是一个被严重低估的工作,更多 PM 和工程师应该参与。

上线新模型后,做的更大变化是“删除功能”

主持人: 很多人都在说,产品经理的未来就是写 eval,本质上就是定义“成功是什么”。

你大概花多少时间在这上面?

Cat Wu: 这取决于具体问题。有些团队会投入很多时间做 eval。我们有一个小团队专门和 research 合作,精细分析模型行为。我个人通常是在某个功能需要更清晰定义时才会参与,比如做 5 个 eval,说明怎么跑、哪些成功、哪些失败,以及如何优化 prompt。像 memory 这种功能,就特别依赖 eval。

主持人: 你刚才提到 Claude 的“性格”。我之前采访过联合创始人,他也强调这一点。很多人一开始会觉得这只是“有趣”的附加项,但其实它是 Claude 成功的核心。你怎么看?

Cat Wu: 你可以想想现实中的同事,有些人就是让你觉得“很喜欢和他一起工作”。Claude 也是一样。大家喜欢它,是因为它: 轻松、有趣; 但同时非常专业; 没有 ego; 愿意承认错误; 态度积极;比如当你觉得任务很难时,它会说:“没关系,我们一步一步来,要不要我先帮你开始?”优秀同事的特质是积极、主动、真诚反馈,我们都在努力注入到 Claude 中。

主持人: 你提到新模型发布后,往往要重新思考产品,这听起来既有趣又让人崩溃。这种情况多频繁?

Cat Wu: 其实更大的变化是“删除功能”。因为很多功能原本是为了弥补模型能力不足。比如早期的 to-do list: 模型在做大规模修改时会漏掉步骤,所以我们加了任务列表来强制它执行完。但在新模型里,它已经能自然完成这些步骤,所以这个功能就不再那么重要了。我们每次发布新模型,都会重新检查 system prompt,把不再需要的部分删掉。

主持人: 所以模型会“吃掉”你之前做的那些产品层补丁?

Cat Wu: 对。但更令人兴奋的是:新模型也会解锁全新功能。比如 code review,我们尝试了很多次,直到最近模型足够强,才真正达到可用水平。现在我们甚至可以并行运行多个 code review Agent,扫描整个代码库,输出高质量问题。

主持人: 最后聊一下愿景。Claude Code 和 Cowork 的长期方向是什么?

Cat Wu: 我们是从“任务”这个基本单元来思考的。第一步,是让单个任务稳定成功。随着模型变强,任务成功率提升,人们开始同时运行多个任务。下一步可能是:同时运行几十、上百个 Claude。这时候问题就变成: 如何管理这些任务? 如何构建界面,让人类知道该关注哪些? 如何确保 Agent 已经完成并验证了工作? 如何建立反馈机制,让系统持续自我改进?

这就是我们在思考的长期方向。

95%自动化价值不大,过度优化配置效果也更差

主持人:有很多人在听这个节目,包括很多产品经理、创业者,还有各种跨职能岗位的人。大家现在都很担心自己的角色,以及未来的职业发展。你会给大家什么建议?不仅是如何在这个高度 AI 驱动的世界里生存下来,而是如何真正取得成功、实现“蓬勃发展”?你觉得大家应该听到什么、又该做些什么?

Cat Wu:我觉得 AI 给了每个人比过去大得多的杠杆。所以我会建议你:每当你意识到自己在反复做某个手动任务时,就去思考,能不能用 Claude Code、Cowork 或其他 AI 工具把它自动化掉。大多数人的工作里都有一部分是他们非常喜欢的创造性内容,同时也有一些他们非常讨厌、很繁琐的部分。而 AI 的美妙之处就在于,它可以帮你处理这些枯燥的工作。它可以从你每一次做这些手动任务中学习,总结规律,然后自动执行,这样你就能把精力集中在更有创造性的部分上。这意味着你能做的事情会比以前多得多。

所以我最直接的建议是:找出那些可以交给 Claude 去做的重复性工作,不断去迭代这些能够自动化的工作流,直到成功率很高,接着,去思考你还能为团队、产品、公司做些什么,那些以前因为没有时间或精力而一直搁置的事情,或者有没有什么你一直觉得公司应该做、但从来没有时间去做的项目?如果 AI 能帮你处理掉那些“苦活累活”,那你就相当于多出了 20% 的时间。我的建议是:拥抱这些工具,把你不喜欢做的工作交出去,找到它们如何加速你的方式,然后你就能做得更多。

主持人:你刚刚说的一个核心点,我非常认同,就是用 AI 去解决问题。现在工具很多、潜力很大,但对很多人来说,最难的是到底该做什么?你这里的建议其实是:留意那些你反复在做、可以自动化的事情;以及那些一直想做但没时间做的想法。本质上就是为自己解决问题,对吗?

Cat Wu:对,完全正确。我还会建议大家:把自动化从“这是个不错的概念”,推进到“它真的 100% 可用”。我有时会看到用户把某个流程自动化到 90% 或 95%的程度,然后就放弃了。但如果不能做到 100% 自动化,那它其实就不算真正的自动化。最后那 5% 到 10%,往往需要更多时间。而且,构建自动化的过程,也比你手动去做还慢。但我还是鼓励大家,选一个你真的很想做到 100% 自动化的事情,投入足够的精力去打磨它:教模型你的偏好,给它反馈,让它不断提升,直到达到 100%。只有这样,你才能真正信任它。一个 95% 程度的自动化工作,其实价值不大。

主持人:我完全中枪了,这对我来说是非常好的建议。

Cat Wu:我自己也是这样。我最近在教 Cowork 帮我把 Gmail 做到 inbox zero,但这个过程非常耗时,而且确实还远远没达到理想状态。

主持人:太巧了,我也是。我做了一个自动分类邮件的流程,把那些“垃圾请求”(比如想上播客之类的)自动分类到一个文件夹里。它大概 95% 都是对的,但偶尔会漏掉重要邮件。

所以你这个建议很好,我要把它做到完美。

Cat Wu:我们其实也在努力让这些自定义流程更容易使用。现在的流程确实有点复杂:你要定义一个 skill,要学会调用它、给它反馈,还要让 Cowork 根据反馈更新这个 skill,最后还要检查更新结果。这也是我们的责任,让整个流程变得更顺滑,而不是让人觉得痛苦。

主持人:太棒了。Cat,还有没有什么你想补充的?或者有什么想特别强调的,在我们进入最后的快问快答之前?

Cat Wu:我看到很多人在用 AI 做各种尝试,比如做原型应用、或者搭建一些工作流。但我更建议大家:去做那些你每天都会用的应用。因为只有在真正使用中,你才能获得价值。如果你只是做了一个原型,但它并没有帮你提高效率,那 AI 实际上并没有为你带来价值。那种“一次性做个东西,觉得挺酷,然后就再也不用”的方式,你学到的东西其实很有限,也没有真正获得杠杆。

主持人:这是个很好的观点。我还注意到另一种极端:有些人会花很多时间去定制自己的工作流。有一类人从不做自动化,但另一类人则是过度优化工具,加各种 skill、MCP、工作流优化。有时候,这反而会让人偏离最初的目标,比如真正发布产品或做出功能。

Cat Wu:对,我也这么觉得。定制这些东西确实很有趣,我们也希望产品足够“可 hack”,让你能按自己的方式使用。但它是有一个边界的。我看到有些人花太多时间在定制上,甚至不睡觉,反而忽略了最初想完成的核心任务。

主持人:我在 Twitter 上也看到很多这种情况,“看我的配置,多么极致优化”。但问题是,你到底在做什么?

Cat Wu:其实很多时候,简单的配置反而更有效。

主持人:说到这个,我昨天看到 Andrej Karpathy 发了一条推文,说现在有一个很有意思的分裂:一类人是早期用过 ChatGPT 或 Claude,但觉得“也就那样”,然后就放弃了,对 AI 持怀疑态度;另一类人则是用它来写代码的人,真正看到了它的威力。这两类人彼此完全无法理解对方。所以你的建议其实很关键,要用它做真正的事情,才能理解它的能力。

Cat Wu:对,我觉得一个很大的转变是:2024 年的产品大多是“对话式”的,而现在 Claude Code 这一代产品是“行动式”的。真正的“顿悟时刻”是,当 Claude 能够替你执行任务的时候。当你意识到,它不仅能告诉你该怎么做,还能直接帮你做,那种感觉是非常震撼的。

主持人:没错。我还想提一个 Chrome 插件,你可以看着 Claude 自动操作,比如“帮我填这个表单”,然后它就真的去做了。

Cat Wu:对,就是这种感觉。

闪电问答环节

主持人:Cat,欢迎来到闪电问答环节。准备好了吗?

Cat Wu:准备好了。

主持人:有没有两三本你最常推荐给别人的书?

Cat Wu:我很喜欢《How Asia Works》。这本书讲的是经济发展,以及哪些政策和政府能够打造长期成功的经济体。另外我很喜欢《The Technology Trap》。这本书讲的是过去几次技术革命,比如工业革命和计算机革命,以及它们对劳动者的影响。我喜欢这本书的原因是,我觉得我们可以从历史中学到很多东西,从而让这次转型走得更顺利。如果说轻松一点的,我很喜欢《The Paper Menagerie》。这是一本短篇小说集,讲成长、AI,还有自我探索。

主持人:最近你很喜欢的一部电影或电视剧是什么?

Cat Wu:我很喜欢《Drive to Survive》。没有什么特别深的意义,我只是觉得,看一群人如此专注于一个工程目标,那种纯粹的追求特别让人满足。我也非常喜欢《Free Solo》,讲的是 Alex Honnold 无保护攀登酋长岩的故事。我觉得这同样是一种非常纯粹的成就,攀登这样一条极其困难、危险的路线,同时还要保持极致的专注,因为一旦犯错就会死亡。这真的太疯狂了。

主持人:那部电影确实很震撼。而且挺有意思的是,这些好像也和你的工作有点关联。

Cat Wu:其实我自己也攀岩。我是在还没开始攀岩的时候看了《Free Solo》,当时觉得很厉害,但没意识到有多厉害。这是那种你了解越多,就越觉得不可思议的作品。他在岩壁上的那些动作,就算是在离地一英尺、有绳索保护的室内攀岩馆里,我这辈子可能都做不到。

主持人:对,就算有绳子都很难。你看过那个讲另一个年轻攀登者去攀冰山的纪录片吗?

Cat Wu:看过,那部挺让人难过的,但也非常震撼。

主持人:好,下一个问题:最近有没有一个你特别喜欢的新产品?

Cat Wu:如果不算我们自己的产品,对我生活改变最大的大概是 Waymo。我是它的重度用户,每天通勤都会用。我最喜欢它的两点:第一,如果车在等我,我不会有负担感,所以不会有那种“必须马上冲到路边”的压力。第二,它让我更高效。当我和真人司机同车时,我通常不会开工作会议,也不太好意思一直用电脑。但在 Waymo 里,我可以直接参加电话会议,不用担心被人听到,也不用担心礼不礼貌、声音大不大、要不要让人换音乐。我感觉它每天帮我节省了大概 30 分钟。

主持人:这些技术带来的“二阶效应”真的很有意思。

Cat Wu:是的。我以前一直觉得 Waymo 必须比 Uber、Lyft 更便宜才会成功,但现在我其实很愿意为它支付两倍的价格。你第一次用会觉得“这太疯狂了”,但很快就习惯了。而且它甚至改变了大家的表达方式。在 Anthropic,大家以前会说“叫个打车软件”,现在直接说“Waymo 到了吗?”

主持人:你有没有一个经常回到的生活或工作信条?

Cat Wu:就是:直接去做。我觉得“第一性原理思考”很重要。如果你知道自己在优化什么,也有清晰的基本原则,那你通常能推导出正确的行动方向,并清楚地向所有相关方解释。然后你就该去做。我觉得“职位”这种东西其实是虚构的。如果你理解了约束条件,你就可以判断自己能做什么,然后尽快去做,从错误中学习,如果做错了就道歉或修正。你真的可以“直接去做”。

主持人:谁说的这句话我不知道,但确实很解放人。

Cat Wu:我觉得在很多公司里,角色是被严格定义的:这是 PM 的工作,这是设计师的,这是工程师的,甚至连团队边界都很严格。而“直接去做”让人有勇气跨越这些边界,去把事情完成。

主持人:这其实是一种很重要的能力,有人叫它“主动性”或者“行动导向”。

Cat Wu:对。我觉得这也是我建议大家在职业生涯中某个阶段去创业公司的原因。我有一个改变人生的经历,是在 Scale 只有 20 人的时候工作。当时几乎没有流程,但问题很大。我很感谢 Alex 和团队,他们让我们可以没有边界地去解决问题,不管是销售、运营还是工程,你都有所有工具,可以用任何方式去解决一个复杂的问题。

主持人:很多人需要这样的经历,才能培养这种能力。因为在学校里,我们习惯了“按要求完成任务就能拿高分”,但现实不是这样。

Cat Wu:完全同意。

主持人:好,我再加两个快问。第一个是:Claude 在“思考”时有很多“思维词”(thinking words),你有最喜欢的吗?

Cat Wu:我很喜欢“manifesting”。我甚至还有一个贴纸。

主持人:我也问过 Boris,如果 AGI 在我们有生之年实现,你可能不需要工作了,你会做什么?

Cat Wu:我觉得 AGI 在社会中的普及会需要很长时间。短期来看,我可能会去帮助这个世界适应它。如果说轻松一点的答案,我大概会多去攀岩。可能会搬到 Fontainebleau,住在成千上万块巨石之间,天天攀岩。还有很多书我想读。我希望能做到一周读一两本,现在大概只有半本。我的“待读清单”很长。我觉得历史里有太多可以学习的东西,而我还有很多领域不了解,比如物理、机器人、硬件、航天等等。所以我很期待去学习,即使 AI 已经知道这些。

主持人:最后两个问题:大家可以在哪里找到你?以及听众可以怎么帮到你?

Cat Wu:最好的方式是在 Twitter 找我,我的用户名是 Catwoo。可以 @ 我,也可以私信我。我会看所有私信,虽然不一定每条都回复。对我们来说,最有帮助的是:告诉我们 Claude Code 和 Cowork 在哪里做得不好。我们非常感激正面的反馈,但真正让我们进步的是那些边缘案例、错误,以及那些可以复现的失败任务。如果你能把这些分享给我们,并且我们能复现,那我们就可以在下一代模型和系统中改进它。

主持人:太好了,大家在 Twitter 上从来不吝反馈,所以继续多提问题吧。

Cat Wu:是的。而且看到大家这么积极参与,我们团队也会非常有动力。我们有一个“用户喜爱”频道,会分享大家的成功案例;也有一个反馈频道,会收集问题,让整个团队都能看到并行动。

主持人:太棒了,谢谢你的分享。

参考链接:

https://www.youtube.com/watch?v=PplmzlgE0kg

通篇翻译下来就是你给海航交 66666 元,一年送你 8 次机票,两年送你 21 次机票,三年送你 36 次机票,且机票限定舱位,且另需基建燃油。到期后还有活动的话可以续期或者退 66666 元。变相的理财产品,不知道海航能撑得住 3 年不,像极了割一波跑路的健身房。无邀请链接,仅作分享讨论。


在很多企业中,IT服务管理软件 的引入,本应帮助 IT 团队提升效率、优化服务,并让工作成果更加可视化。然而在实际运行中,却出现了一个令人困惑的现象:IT 团队越来越忙,但其对业务的贡献却越来越难被感知。ManageEngine卓豪 将为您解答这些问题!

每天都有大量工单被处理,大量问题被解决,但当管理层或业务部门评估 IT 价值时,却往往难以给出明确结论。这种“忙碌但不被看见”的状态,正在成为越来越多 IT 团队的共同困境。

从表面上看,这是沟通问题或绩效问题,但从本质上看,是服务模式与价值表达方式之间的不匹配。当 IT 工作仍然以“处理问题”为主,而不是“创造价值”为导向时,这种问题就会持续存在。

为什么“做得越多”,反而“看起来越没价值”

在传统模式下,IT 的工作以响应需求为主。当用户遇到问题时,IT 负责解决;当系统出现故障时,IT 负责恢复。这种模式的特点是:工作是被动触发的,而不是主动创造的。

在这种情况下,IT 的工作成果往往难以被量化为“业务价值”。因为问题解决之后,系统恢复正常,业务继续运行,但这种“避免损失”的价值,很难被直观感知。

与此同时,随着业务规模扩大,问题数量不断增加,IT 团队需要处理更多工单。这使得团队看起来非常忙碌,但这种忙碌更多是“维持现状”,而不是“推动增长”。

工作以被动响应为主,缺乏主动价值创造

  • 成果难以量化为业务指标
  • 大量时间消耗在重复性问题上
  • 系统稳定运行被视为“理所当然”

当这些因素叠加时,就会出现一个典型现象:IT 做了很多事情,但这些事情并没有被认为是“有价值的输出”。

价值不可见的根源:IT 工作与业务指标脱节

当企业在评估 IT 价值时,通常会关注对业务的直接影响,例如收入增长、效率提升或成本降低。但在传统 IT 服务模式下,大部分工作并不能直接映射到这些指标上。

例如,当 IT 团队成功处理了一次系统故障,从技术角度来看,这是一次重要的工作成果。但从业务角度来看,只是“系统恢复正常”,并没有产生新增价值。这种“避免损失”的价值,往往难以被量化。

随着时间推移,这种脱节会逐渐放大。IT 团队持续投入大量精力,但业务部门却难以感知其价值,从而形成认知偏差。

IT 的价值,不在于“做了多少”,而在于“改变了什么”

在企业数字化进程中,IT 部门的角色正在发生变化。从最初的技术支持,到如今的业务支撑,IT 的价值已经不再局限于解决问题,而在于推动业务发展。

要实现这一转变,企业需要重新定义 IT 服务管理的目标:从“处理问题”转向“减少问题”,从“记录工作”转向“表达价值”。只有这样,IT 才能真正成为业务增长的驱动力。

ServiceDesk Plus 提供的正是一种以结果为导向的 IT 服务管理能力。通过自动化流程、IT工单管理以及数据分析能力,它能够帮助企业构建可持续优化的服务体系,使 IT 工作不仅高效,而且可被量化与展示。

对于企业来说,真正需要关注的问题,并不是 IT 是否足够忙,而是 IT 是否真正创造了价值。当 IT 的工作能够被看见、被理解并被认可时,其作用才能被充分发挥。

未来的 IT 服务管理,将不再是“支持系统”,而是“驱动业务”的关键能力。而这一转变的核心,就在于让价值真正被看见。

常见问题(FAQ)

为什么 IT 团队很忙但价值不明显?
因为工作集中在问题处理,而不是业务结果,建议通过 IT服务管理软件 进行优化。

如何让 IT 价值更容易被看到?
通过减少问题数量、提升系统稳定性,并用数据进行可视化展示。

ServiceDesk Plus 如何帮助体现 IT 价值?
通过自动化与数据分析能力,将 IT 工作转化为可量化成果。

企业什么时候需要优化 ITSM系统?
当工作量增加但业务价值难以体现时。

在 IT 服务管理领域,ITIL流程 一直被视为最佳实践。从事件管理到变更管理,再到问题管理,ITIL 提供了一套完整且成熟的框架,帮助企业规范 IT 服务。ManageEngine卓豪 将为您解答这些问题!

然而,在实际落地过程中,很多企业却遇到了一个普遍问题:流程确实建立起来了,但系统变得更加复杂,响应效率反而下降,甚至用户体验也受到影响。

这种现象让不少 IT 负责人产生疑问:问题究竟出在哪里?是 ITIL 不适合企业,还是落地方式存在偏差?

从实践来看,大多数问题并不在于 ITIL 本身,而在于企业如何理解和应用这些流程。当 ITIL 被“机械执行”时,它很容易从效率工具变成复杂来源。

ITIL流程落地失败的核心原因:关注流程,而忽略结果

在很多企业中,ITIL 落地的重点往往放在“流程是否完整”,而不是“流程是否有效”。这使得团队在设计流程时,更关注是否覆盖了所有步骤,而不是这些步骤是否真正提升了效率。

这种导向会带来一个明显问题:流程越来越多,但问题解决效率却没有明显提升。团队在执行过程中,需要花费更多时间在流程本身,而不是问题处理上。

从本质上看,这是因为 ITIL 被当作“合规工具”,而不是“效率工具”。当流程的目标从“解决问题”转向“完成步骤”时,其价值就会被削弱。

ITIL的价值,在于“适配”,而不是“复制”

在 IT 服务管理中,ITIL 提供的是方向,而不是固定答案。企业需要根据自身情况进行调整,而不是简单复制标准流程。

真正有效的 ITIL 实践,应当以效率与体验为导向,通过持续优化,使流程不断适应业务变化。

ServiceDesk Plus提供了一种灵活的 ITSM 平台能力,能够支持 ITIL流程 的定制化落地。通过自动化、流程配置以及系统集成,它可以帮助企业在保持规范的同时,实现高效执行。

对于企业来说,关键不在于是否使用 ITIL,而在于如何使用。当流程能够真正服务于业务时,其价值才会被体现。

未来的 IT 服务管理,将更加注重灵活性与适配能力,而不是流程本身的复杂程度。

常见问题(FAQ)

为什么 ITIL流程 会让系统变复杂?
因为流程被模板化执行,缺乏灵活性,建议结合 ITSM系统 优化流程。

如何让 ITIL流程 更高效?
通过简化流程、减少审批以及引入自动化。

ServiceDesk Plus 如何支持 ITIL?
通过灵活配置流程,实现定制化 ITIL 落地。

企业什么时候需要优化 ITIL流程?
当流程复杂、效率下降或用户体验变差时。

大家好,

最近我开发了一款 iOS 数独 App ,已经上架 App Store 。今天来 V2EX 分享一下,也顺便送一些终身会员兑换码给大家试玩。希望大家能够尝试和喜欢,如果你觉得不错,能够到商店给打个星,或者写几句评价的话就更加感谢了,也欢迎推荐给身边的朋友。

做这个 App 的初衷

之前偶然给孩子(目前尚在大班)买了两本数独练习册( 4 阶 + 6 阶),没想到他居然挺感兴趣的,很快就做完了。我发现数独真的能在玩的过程中培养孩子的“数感”和逻辑思维,几分钟就能完成一题,成就感满满;同时又在不知不觉中锻炼观察、推理和耐心。

于是我就想做一个所有年龄段都能玩的数独 App 。除了经典数独,还增加了算术数独和杀手数独,希望能更好地培养孩子的计算能力和逻辑能力。

这款 App 的主要特色如下:

  • 经典数独:支持 4 阶、6 阶、9 阶
  • 算术数独:支持 3-9 阶,加入算术规则(加减乘除),趣味性和挑战性更强
  • 杀手数独:支持 4 阶、6 阶、9 阶,笼子 + 求和规则,逻辑烧脑
  • 智能提示:智能提示会模仿人类的逻辑来做题,给出当前盘面下最可能采取的步骤,并给出采取这个步骤的原因,而不是简单粗暴的告诉你某个格子该填什么数字。
  • 特别适合孩子:低阶数独( 3 阶、4 阶、5 阶、6 阶)非常适合小朋友培养数感和逻辑思维,大人也可以从低阶热身,再挑战高难度

游戏界面设计简洁清爽,操作流畅,支持笔记、自动检查、提示、回退等常用功能,所有谜题都有唯一解

(在此插入游戏界面截图)

下载链接
App Store 下载
或者 AppStore 搜索 “数独大冒险”。

兑换码
准备了 30 个兑换码(永久会员),数量有限,先到先得。兑换完成后如果 APP 中没有自动解锁高级会员,可以尝试重启 APP ,或者进入 选项-高级会员,在会员购买页面点一下 “恢复购买”即可。

WHE7TX7KTTFYMAT68X
AH3PTTYYKAMHY73K87
R7RPEYPTNTPXPKPHYJ
LELTYAF78NE7T3TKJR
P76KAKEPYFWXN64L43
YN8777WTPPJHF4JKPK
FEFE376NTM6AF3LRXE
T3KHHW6HH3Y3JYH7AM
8FEHPP3THHTLYKJ7W4
YKEPE47NMWLEWY3WFR
NL4PFNEE6RTNFTKPL7
Y6PXWMP73PYTMXTTRK
4AM7LF8N6YRWAYYHJL
H6PWR6KH8RAAE7HYFH
NWA6JPEWRWP6TW3AHW
HTPF8RYRF8TLLHYEHJ
PNH6HJNXXLETLW7NHL
HMYMYJHRAWTHKLNRNA
4NMPTTNYHY6H43RTEW
WE8FAMJPWLWAFH7FNM
ENN7F33WT4PF4P37ET
3THWNHWJKEYRRLJE6N
LKTA3AM3EFM3MNYJM3
P6YKAALPTRE4MJWFEM
3YLN7R36APXX4FN88W
PJXRJAN3JJYKHTLJXF
RE8A8Y73FF3KKMXMH6
8RXK7M7TKY6LWFKT6N
WEAYHTW3EMPWL6T7KR
TR6MXERFENPW8HPKYF

如果还有需要的朋友, 可以通过 App 内「设置 - QQ 群反馈」进群私信群主领取。

欢迎大家下载试玩!用完后欢迎回来反馈体验、提出建议或 bug (当然在 App 内进群反馈响应更快),我会持续优化。

感谢大家捧场!如果你也喜欢数独,或者正在给孩子寻找逻辑启蒙工具(高手也可以来挑战,主打一个老少咸宜),欢迎来试试~

以下均人工写作,AI 含量 0%

大家好,我是某过气独立开发者,开发过冰箱 IceBox通知滤盒等 app ,写 app 快十年了,在 Google Play 有过超 500 万次的下载量。

最近新开发了个 Mac 端 Android 屏幕镜像+文件传输工具:AndDrive:

下载地址: https://anddrive.catchingnow.com

目前所有功能均免费。

截图

主要功能

通过 ADB 协议传输

支持 USB + 无线扫码配对,甚至可以两个一起连,数据线拔了可以自动接续。

在 Finder 管理 Android 设备文件

直接在 Finder 侧边栏显示你的 Android 设备,支持挂载 root 目录、SD 卡,独家支持工作空间内的 SD 卡,当然速度会稍慢一点。

还可以直接在 Finder 中显示你的 Android 设备中的 App 列表,在 Mac 端启动手机里的 App 。

屏幕镜像

可能是目前最全面的 Android 投屏方案。支持音频、视频传输,全屏模式等。

屏幕镜像

剪贴板同步、文件拖拽

双向剪贴板同步,支持文字、图片。支持小文件批量拖拽。比如你可以在手机上 Google Photos 右键复制照片贴纸,然后粘贴到 Mac 端的 figma 上。也可以 Mac 上拖拽图片到手机微信聊天窗口,直接发送。

在 Android 上原生使用 Mac 输入法

镜像功能支持直接在 Android 上使用 Mac 输入法,并适配了常用快捷键,CMD+A/C/V, Shift+上下左右选择文字等。

多点手势支持

支持映射 Mac 触控板的双指放大缩小、旋转手势到 Android 端,双指(鼠标右键)映射为长按,独家适配 Mac 触控板在 Android 端的平滑滚动。尽一切可能带来原生体验。

全屏模式

适配全屏操作,横竖屏旋转。

全屏模式,照片拍摄于日本千葉県銚子

诚实说转快了偶尔有错位,关掉重新打开就好。

收费、审核和开源

目前所有功能全免费,后续新的酷炫功能可能考虑收费,但承诺:

  1. 不会把已有的免费功能改成收费;
  2. 不会把任何安全相关的功能和维护纳入付费功能;
  3. 收费将低于 Mac 端 App 普遍价格,向 Android App 看齐;

App Store 还在遥遥无期的审核中,欢迎来官网下载体验: https://anddrive.catchingnow.com

欢迎回帖支持和评价,更希望以后上收费功能了能得到大家的支持,谢谢🙏

事情不可能考虑的完美,但是考虑不周全就会导致后期别扭,重新改造成本又巨大,好难受mental_boom

产品品牌:永嘉微电VINKA
产品型号:VK16K33A
封装形式:SOP28
VK16K33A是一种带按键扫描接口的数码管或点阵LED驱动
控制专用芯片,内部集成有数据锁存器、键盘扫描、LED驱
动模块等电路。数据通过I2C通讯接口与MCU通信。SEG脚
接LED阳极,GRID脚接LED阴极,可支持16SEG×8GRID的
点阵LED显示面板。最大支持13×3的按键。内置上电复位电
路,整体闪烁频率可设置,可通过命令进入待机模式,采用
SOP28封装形式。


• 工作电压 3.0-5.5V
• 内置 RC振荡器
• 最大16个SEG脚,8个GRID脚
• SEG脚只能接LED阳极,GRID脚只能接LED阴极
• I2C通讯接口,I2C从机地址可通过IO脚选择
• 16级整体亮度可调
• 最大13×3的按键扫描
按键显示复用(需硬件电路配合)
支持组合键(需要电路配合)
• 读/写显示/按键数据地址自动加1
• 内置显示RAM为16×8位
• 内置上电复位电路
• 整体闪烁频率可设置
• 通过命令进入待机模式
• 驱动电流大,适合高亮显示场合 ...
• 封装
SOP28(300mil)(18.00mm×7.50mm PP=1.27mm)

内存映射的LED控制器及驱动器
VK16D32 3.0~5.5V 驱动点阵:96 共阴驱动:8段12位 共阳驱动:--- 通讯接口:SCL/SDA 静态
电流/待机电流:<1mA<10μA 按键:--- 封装:SSOP24 恒流驱动
VK16D33 3.0~5.5V 驱动点阵:128 共阴驱动:8段16位 共阳驱动:--- 通讯接口:SCL/SDA 静态
电流/待机电流:<1mA<10μA 按键:--- 封装:SOP28 恒流驱动
———————————————————————————————————————————————————
VK16K33A 3.0~5.5V 驱动点阵:128 共阴驱动:16段8位; 共阳驱动:8段16位 通讯接口:SCL/SDA
静态电流/待机电流:typ.1mA/1μA 按键:133 封装:SOP28 驱动电流大,适合高亮显示场合
VK16K33AA 3.0~5.5V 驱动点阵:128 共阴驱动:16段8位; 共阳驱动:8段16位 通讯接口:SCL/SDA
静态电流/待机电流:typ.1mA/1μA 按键:133 封装:SSOP28 驱动电流大,适合高亮显示场合
VK16K33B 3.0~5.5V 驱动点阵:96 共阴驱动:12段8位; 共阳驱动:8段12位 通讯接口:SCL/SDA
静态电流/待机电流:typ.1mA/1μA 按键:103 封装:SOP24 驱动电流大,适合高亮显示场合
VK16K33BA 3.0~5.5V 驱动点阵:96 共阴驱动:12段8位; 共阳驱动:8段12位 通讯接口:SCL/SDA
静态电流/待机电流:typ.1mA/1μA 按键:103 封装:SSOP24 驱动电流大,适合高亮显示场合
VK16K33C 3.0~5.5V 驱动点阵:64 共阴驱动:8段8位; 共阳驱动:8段8位 通讯接口:SCL/SDA
静态电流/待机电流:typ.1mA/1μA 按键:83 封装:SOP20 驱动电流大,适合高亮显示场合
——————————————————————————————————————————————————
VK1640 3.0~5.5V 驱动点阵:128 共阴驱动:8段16位 共阳驱动:16段8位 通讯接口:CLK/DIN
静态电流/待机电流:<0.1mA/-- 按键:--- 封装:SOP28
VK1640A 3.0~5.5V 驱动点阵:128 共阴驱动:8段16位 共阳驱动:16段8位 通讯接口:CLK/DIN
静态电流/待机电流:<0.1mA/-- 按键:--- 封装:SSOP28
VK1640B 3.0~5.5V 驱动点阵:96 共阴驱动:8段12位 共阳驱动:12段8位 通讯接口:CLK/DIN
静态电流/待机电流:<0.1mA/-- 按键:--- 封装:SSOP24
VK1650 3.0~5.5V 驱动点阵:32 共阴驱动:8段4位 共阳驱动:4段8位 通讯接口:CLK/DAT
静态电流/待机电流:typ.0.3mA/50μA 按键:74 封装:SOP16/DIP16
VK1Q60 3.0~5.5V 驱动点阵:32 共阴驱动:8段4位 共阳驱动:4段8位 通讯接口:CLK/DAT
静态电流/待机电流:<0.1mA/--- 按键:74 封装:QFN16
VK1651 3.0~5.5V 驱动点阵:28 共阴驱动:4段7位 共阳驱动:7段4位 通讯接口:CLK/DIO
静态电流/待机电流:<5mA/-- 按键:71 封装:SOP16/DIP16
——————————————————————————————————————————————————
VK1637 3.0~5.5V 驱动点阵:48 共阴驱动:6段8位 共阳驱动:8段6位 通讯接口:CLK/DIO
静态电流/待机电流:--/-- 按键:82 封装:SOP20/DIP20
VK1616 3.0~5.5V 驱动点阵:28 共阴驱动:7段4位 共阳驱动:4段7位 通讯接口:CLK/STB/DIO
静态电流/待机电流:<1mA/-- 按键:--- 封装:SOP16/DIP16 抗干扰能力强
VK1618 3.0~5.5V 驱动点阵:35/36/35/32 共阴驱动:5段7位;6段6位;7段5位;8段4位
共阳驱动:7段5位;6段6位;5段7位;4段8位 通讯接口:CLK/STB/DIO
静态电流/待机电流:<1mA/-- 按键:51 封装:SOP18/DIP18 抗干扰能力强
VK1620B 3.0~5.5V 驱动点阵:48/45/40 共阴驱动:8段6位;9段5位;10段4位
共阳驱动:6段8位;5段9位;4段10位 通讯接口:CLK/STB/DIO
静态电流/待机电流:<1mA/-- 按键:--- 封装:SOP20 抗干扰能力强
VK1624 3.0~5.5V 驱动点阵:77/72/65/56 共阴驱动:11段7位;12段6位;13段5位;14段4位
共阳驱动:7段11位;6段12位;5段13位;4段14 通讯接口:CLK/STB/DIO
静态电流/待机电流:<1mA/-- 按键:--- 封装:SOP24/DIP24 抗干扰能力强
VK1S68C 3.0~5.5V 驱动点阵:70/66/60/52 共阴驱动:10段7位;11段6位;12段5位;13段4位
共阳驱动:7段10位;6段11位;5段12位;4段13位 通讯接口:CLK/STB/DIO
静态电流/待机电流:<1mA/-- 按键:102 封装:SSOP24 抗干扰能力强
VK1Q68D 3.0~5.5V 驱动点阵:70/66/60/52 共阴驱动:10段7位;11段6位;12段5位;13段4位
共阳驱动:7段10位;6段11位;5段12位;4段13位 通讯接口:CLK/STB/DIO
静态电流/待机电流:<1mA/-- 按键:102 封装:QFN24 抗干扰能力强
VK1668 3.0~5.5V 驱动点阵:70/66/60/52 共阴驱动:10段7位;11段6位;12段5位;13段4位
共阳驱动:7段10位;6段11位;5段12位;4段13位 通讯接口:CLK/STB/DIO
静态电流/待机电流:<1mA/-- 按键:102 封装:SOP24/SSOP24 抗干扰能力强
VK1628 3.0~5.5V 驱动点阵:70/66/60/52 共阴驱动:10段7位;11段6位;12段5位;13段4位
共阳驱动:7段10位;6段11位;5段12位;4段13位 通讯接口:CLK/STB/DIO
静态电流/待机电流:<1mA/-- 按键:102 封装:SOP28 抗干扰能力强
VK1S38A 3.0~5.5V 驱动点阵:64 共阴驱动:8段8位 共阳驱动:8段8位 通讯接口:CLK/STB/DIO
静态电流/待机电流:<5mA/-- 按键:83 封装:SSOP24 抗干扰能力强
VK1638 3.0~5.5V 驱动点阵:80 共阴驱动:10段8位 共阳驱动:8段10位 通讯接口:CLK/STB/DIO
静态电流/待机电流:<5mA/-- 按键:83 封装:SOP28 抗干扰能力强
VK1629 3.0~5.5V 驱动点阵:128 共阴驱动:16段8位 共阳驱动:8段16位 通讯接口:CLK/STB/DIN/DOUT
静态电流/待机电流:<5mA/-- 按键:84 封装:LQFP44(QFP44正方形); 抗干扰能力强
VK1629A 3.0~5.5V 驱动点阵:128 共阴驱动:16段8位 共阳驱动:8段16位 通讯接口:CLK/STB/DIO
静态电流/待机电流:<5mA/-- 按键:--- 封装:SOP32 抗干扰能力强
VK1629B 3.0~5.5V 驱动点阵:112 共阴驱动:14段8位 共阳驱动:8段14位 通讯接口:CLK/STB/DIO
静态电流/待机电流:<5mA/-- 按键:82 封装:SOP32 抗干扰能力强
VK1629C 3.0~5.5V 驱动点阵:120 共阴驱动:15段8位 共阳驱动:8段15位 通讯接口:CLK/STB/DIO
静态电流/待机电流:<5mA/-- 按键:81 封装:SOP32 抗干扰能力强
VK1629D 3.0~5.5V 驱动点阵:96 共阴驱动:12段8位 共阳驱动:8段12位 通讯接口:CLK/STB/DIO
静态电流/待机电流:<5mA/-- 按键:84 封装:SOP32 抗干扰能力强
VK6932 3.0~5.5V 驱动点阵:128 共阴驱动:8段16位 共阳驱动:16段8位 通讯接口:CLK/STB/DIN
静态电流/待机电流:<0.1mA/-- 按键:--- 封装:SOP32 抗干扰能力强
(永嘉微电/VINKA原厂-FAE技术支持,主营LCD驱动IC; LED驱动IC; 触摸IC; LDO稳压IC; 水位检测IC)
LED驱动、LED屏驱动、数显驱动IC、LED芯片、LED驱动器、数码管显示驱动、LED显示驱动、LED数显驱动原厂、LED数显驱动芯片、LED驱动IC、点阵LED显示驱动、LED屏驱动IC、数显驱动芯片、数码管芯片、数码管驱动、数显屏驱动、数显IC、数显芯片、数显驱动、LED数显IC、数显驱动原厂、LED屏驱动芯片、LED数显驱动IC、LED数显驱动IC、LED驱动电路、数显LED屏驱动、LED数显屏驱动、LED显示屏驱动、LED数码管驱动、数显LED驱动、LED数显驱动、数码管显示IC、数码管显示芯片、数码管驱动芯片、LED显示驱动芯片、显示数码管驱动、LED控制电路、数显LED驱动芯片、数显LED驱动IC、LED驱动芯片、数码管显示屏驱动、数码管驱动原厂、LED驱动厂家、LED驱动原厂、LED数码驱动、LED数码屏驱动、LED数显芯片、数码管驱动IC、显示LED驱动、数码管LED驱动、LED显示IC、点阵数显驱动、点阵数码管驱动、点阵LED驱动、点阵数显驱动芯片、点阵数显驱动IC、点阵LED驱动芯片、点阵LED驱动IC、LED数显原厂、点阵数码管显示芯片、数码管驱动厂家、数显LED原厂

"AI 会假装验证通过,输出看似正确实则未经验证"

"暴力重试、甩锅用户、工具闲置...这些 AI 懒惰模式你中了几招?"

"AI 只做你说的,从不主动检查关联问题"

你是否也曾经历过这样的场景?深夜加班,面对着屏幕上闪烁的光标,你满怀期待地让 AI 帮你完成一段代码。几秒钟后,它自信满满地给出了答案。你复制粘贴,运行测试,然后...红色错误提示像一记耳光打在你脸上。🤦‍♂️

这不是偶然,而是当前 AI 编码的常态。我们像是把工程任务变成了赌博,赌 AI 这次能给出正确答案,赌它能理解上下文,赌它能考虑边界情况。而 SCALE OS v10.0 的使命,就是让这场豪赌成为历史。

认知脚手架:不是规则手册,是思考框架 🧱

SCALE OS 的核心理念很简单:不是规则手册,是认知脚手架。我们不教 AI 如何编码,而是教会它如何思考。

想象一下,如果你要搭建一座桥梁,你是会给工人一本厚厚的规则手册,告诉他们每颗螺丝应该拧多少扭矩;还是会提供一个科学的脚手架系统,让结构本身引导正确的施工方式?

SCALE OS 选择后者。我们从客观存在着的实际事物出发,让事实规定判断,让现实修正理论。没有调查就没有发言权。这就是我们的"求是方法论":矛盾分析、批评与自我批评、调查先行。

五步认知工作流:从探索到优化的闭环 🔁

SCALE OS 提出的五步认知工作流,将 AI 编码从简单的"写代码"提升为完整的"解决问题":

  1. 探索研究:深入理解问题本质,收集相关信息
  2. 规划决策:制定解决方案,评估可行性
  3. 执行实施:编写高质量代码
  4. 验证测试:全面测试,确保质量
  5. 沉淀优化:总结经验,持续改进

这不仅仅是流程,更是思维方式的重塑。当 AI 能够遵循这样的工作流,它就不再是简单的代码生成器,而是真正的工程伙伴。

SCALE 配置器:3分钟定制你的 AI 编码助手 ⚙️

在 SCALE OS v10.0 中,我们推出了全新的 SCALE 配置器,只需 3 分钟,就能生成适合你项目的 AI 编码配置方案。

操作流程简单直观:

  1. 选择适合你的 Agent(支持 Claude Code、Codex CLI、OpenCode、Cursor、Gemini CLI 五大平台)
  2. 配置项目信息
  3. 选择所需技能
  4. 一键生成配置

想象一下,当你接手一个新项目,不再需要花费数小时研究如何配置 AI 工具,只需 3 分钟,就能让 AI 理解你的项目结构、代码风格、技术栈,甚至业务逻辑。这不仅仅是效率提升,更是思维方式的转变。

技能生态:92+ 技能,覆盖 6 大能力域 🌐

SCALE OS 的技能生态已经扩展到 92+ 技能映射,覆盖 18 MCP 服务器和 8 CLI 工具,横跨 6 大能力域:

  • 代码生成与优化
  • 架构设计与重构
  • 测试与质量保证
  • 文档与知识管理
  • 项目管理与协作
  • 学习与成长

每个技能都经过精心设计,不是简单的功能堆砌,而是解决特定问题的认知工具。当你需要 AI 帮助解决特定问题时,不再需要猜测它能否胜任,而是可以明确选择适合的技能。

反惰性机制:识别并对抗 AI 的 6 种懒惰模式 🚫

AI 编码最大的痛点之一是它的"懒惰"。SCALE OS v10.0 引入了革命性的 反惰性机制,能够识别并对抗 6 种常见的 AI 懒惰/越权模式:

  1. 暴力重试:不加思考地重复尝试相同方法
  2. 甩锅用户:将问题归咎于用户输入不清
  3. 工具闲置:明明有更好工具却坚持使用基础方法
  4. 忙碌假象:输出大量无用信息制造忙碌感
  5. 被动等待:不主动获取必要信息,等待用户提供
  6. 越权擅改:超出权限范围修改用户代码

每种模式都有对应的级联反制策略,确保 AI 保持主动、负责的工作态度。这不是简单的规则限制,而是认知层面的引导,让 AI 真正成为可靠的合作伙伴。

文章中心:AI 编码的知识宝库 📚

SCALE OS v10.0 最大的亮点之一是全新的 文章中心,聚合了 AI 编码的方法论文章,支持跳转阅读原文,分为六大分类:

  • 方法论:AI 编码的核心思想与工作方式
  • 技能生态:各项技能的详细说明与使用指南
  • 工程治理:如何将 AI 集入现有开发流程
  • 实战案例:真实项目中的应用经验
  • 产品发布:SCALE OS 的功能更新与路线图
  • 行业洞察:AI 编码领域的最新趋势与思考

AI 智能分类:一键整理知识海洋 🤖

面对海量文章,如何快速找到所需内容?SCALE OS v10.0 的 AI 智能分类 功能可以一键让 AI 自动为文章智能分类,大大提升了知识管理的效率。

想象一下,当你阅读一篇关于"微服务架构"的文章,AI 不仅会将其正确分类到"架构设计"类别,还会根据内容自动添加相关标签,如"分布式系统"、"服务治理"等,构建一个智能的知识网络。

开源免费:让每个人都能享受 AI 编码的变革 🌍

SCALE OS 采用开源免费的模式,核心功能对所有人开放。同时,我们也提供付费增值服务,知识星球会员仅需 ¥99/年(早鸟价),即可获得:

  • 优先技术支持
  • 高级技能包
  • 专属社区交流
  • 定期线上分享会

我们相信,AI 编码的变革应该惠及每一位开发者,而不只是少数能够负担昂贵工具的人。

从执行者到 Owner:AI 编码的终极进化 🚀

SCALE OS v10.0 最大的价值,在于它实现了 AI 编码的根本性进化:从执行者到 Owner。

传统的 AI 编码工具,无论多么强大,本质上都是执行者——它们只做你说的,从不主动检查关联问题。而 SCALE OS 训练出的 AI,能够:

  • 主动思考代码的潜在影响
  • 预测可能的问题并提前防范
  • 在完成任务后主动进行验证和优化
  • 将孤立的任务置于更大的工程背景下考量

这不是简单的功能增强,而是认知能力的质的飞跃。当 AI 能够真正"拥有"它负责的任务,AI 编码才真正从赌博变成了工程。

行动号召:加入 SCALE OS 的认知革命 🌟

AI 编码的浪潮已经来临,但大多数工具仍在浅滩徘徊。SCALE OS v10.0 提供的不仅是一个工具,而是一套完整的认知体系,让 AI 编码从赌博变成工程。

现在就访问 https://scale-os.hongmaple.top,体验 v10.0 的全新功能,开启你的 AI 编码认知之旅。

如果你认同我们的理念,欢迎加入我们的知识星球,与志同道合的开发者一起,探索 AI 编码的无限可能。早鸟价仅需 ¥99/年,让我们一起推动 AI 编码的真正变革。

记住,AI 编码的未来,不在于它能写多快的代码,而在于它如何思考。SCALE OS,让 AI 编码,从赌博变成工程。💪

"没有调查就没有发言权"

"矛盾分析、批评与自我批评、调查先行"

"求是方法论,让 AI 编码回归工程本质"

🔹 微信公众号

🔹 微信交流群

扫描下方二维码加入微信交流群,和志同道合的开发者实时讨论 AI 编码的最佳实践

🔹 知识星球(¥99/年)

加入知识星球,获取:

  • 专属技能包和配置模板
  • 深度实战案例拆解
  • 社区专家 1v1 答疑
  • 新功能优先体验权
📌加入知识星球,和认真的 AI 编码开发者一起成长 https://t.zsxq.com/6T5Eq

本文由mdnice多平台发布

过去两个月里,Redis 在开源版本、云服务、企业版、AI 开发工具链以及可观测性体验上都有不少实用进展。

这一轮更新里,比较值得关注的主线很明确:​性能继续提升、运维体验继续收敛、AI 场景继续前置​。无论是把 Redis 用在缓存、实时数据处理、事件流,还是 Agent / RAG 这类新型 AI 应用里,都能看到它在往更完整的“实时数据平台”方向继续推进。

Redis 8.6 正式发布(开源版)

Redis 8.6 已在 Redis Open Source 中正式 GA(General Availability)。这一版本的重点主要集中在以下几个方面:

  • 性能与资源效率提升
  • Streams 能力进一步增强
  • 生产环境可观测性改善
  • 时间序列处理能力补强

从整体定位来看,Redis 8.6 进一步强化了 Redis 作为实时数据平台的基础能力,也为后续 Redis Cloud 与 Redis Software 的版本演进提供了能力基础。

性能优化:提升吞吐、降低延迟、改善内存效率

Redis 8.6 在吞吐量(throughput)、延迟(latency)以及内存利用效率方面均有显著改进。

这些优化的工程价值非常直接:

  • 在相同硬件条件下获得更低的请求延迟
  • 单节点可承载更高的并发负载
  • 在大规模部署场景下降低资源成本

对于典型的 Redis 使用场景——例如大规模缓存、实时处理链路、在线推理流水线——这类提升的意义并不只是“更快”,而是意味着系统在既有资源约束下能够获得更大的性能余量,并在业务增长过程中保持更稳定的容量边界。

这类改进对于生产系统尤其重要,因为在很多实际场景中,性能问题并不首先体现为“系统不可用”,而是体现为:

  • P99/P999 延迟逐步上升
  • 热点流量下节点承压明显
  • 内存利用效率不足导致扩容提前发生

因此,Redis 8.6 的性能优化,本质上是在提升系统的​成本效率与可扩展性上限​。

Streams 持续成熟:降低事件驱动架构中的运维复杂度

Redis Streams 在 8.6 中继续完善,进一步改善其在生产环境中的可靠性与可运维性。

此次增强主要有助于:

  • 更稳健地运行消费者组(consumer groups)
  • 更顺畅地处理故障恢复场景
  • 降低事件驱动系统中的边界异常与补丁式处理逻辑

对于采用事件流架构的系统而言,这一点非常关键。

在实际工程中,事件系统的难点通常并不在于“消息能不能写进去”,而在于:

  • 消费组在异常中断后是否容易恢复
  • 消费状态是否容易出现积压或漂移
  • 是否需要大量补充逻辑去规避边界问题

Redis 8.6 在这方面的持续改进,意味着 Streams 正在进一步向更适合严肃生产场景的方向演进。

这对于金融服务、媒体流处理、实时 AI 工作流等场景具有直接价值,因为这些系统对事件处理链路的连续性与恢复能力通常有较高要求。

生产可运维性增强:更容易识别与处理 Hot Key 问题

在 Redis 的真实生产环境中,Hot Key(热点 Key)问题始终是最常见、也最容易被低估的扩展性挑战之一。

Redis 8.6 在运行时可观测性方面做出了增强,使团队更容易:

  • 识别热点 Key
  • 观察运行时行为
  • 诊断性能瓶颈

这类能力的价值并不只是“多了一些监控信息”,而在于它显著缩短了从问题出现 → 问题定位 → 问题治理之间的路径。在很多系统中,热点问题往往不是线性放大的,而是会带来一系列连锁反应,例如:

  • 单分片压力异常升高
  • 请求尾延迟显著恶化
  • 淘汰行为与内存波动放大
  • 局部问题最终演变为整体容量风险

因此,Hot Key 相关的可观测性增强,实际上是在补齐 Redis 在大规模生产运行中的一个关键治理能力。

内存行为更加可预测:新的淘汰策略提升稳定性

除了热点诊断能力外,Redis 8.6 还通过新的 eviction policy(淘汰策略)改善了内存行为的可预测性。

这一点对现代工作负载尤其重要。

在很多业务场景中,Redis 并不是运行在“理想均匀负载”下,而是运行在以下条件中:

  • 流量突增明显
  • 数据生命周期差异很大
  • 缓存命中模式不稳定
  • 业务侧访问模式持续变化

在这种情况下,内存淘汰策略是否足够稳定、是否容易产生不可预期的性能抖动,会直接影响系统的运行质量。

Redis 8.6 在这一方向上的改进,核心意义在于:

让系统在资源接近边界时,表现得更可预测、更容易管理,而不是在压力上升时突然出现不可解释的退化。

这对长期运行的大规模缓存集群和实时业务系统尤为重要。

时间序列能力补强:原生支持缺失值处理

Redis 8.6 还引入了对时间序列缺失值(missing values)的原生支持。

这是一个看似细节、但实际非常重要的能力补强。

在时间序列处理场景中,数据缺失往往会带来一系列典型问题:

  • 聚合结果失真
  • 分析链路中断
  • 监控图表异常
  • 下游统计逻辑复杂化

很多系统为了解决这一问题,通常需要额外引入:

  • 补齐逻辑
  • 数据清洗流程
  • 业务侧兜底判断

Redis 8.6 对缺失值的原生支持,有助于减少这些外围处理复杂度,并提升整体分析链路的稳定性。

这一能力对于以下场景尤其有意义:

  • 金融时间序列处理
  • 可观测性平台
  • 遥测与监控数据系统
  • 高频采样型工业与 IoT 数据场景

Redis 8.4 在 Redis Cloud 中正式可用

除了开源版本外,Redis Cloud 也迎来了 Redis 8.4 的正式可用更新,目前已面向 Redis Cloud Essentials 与 Pro 提供。这一版本的重要意义在于,它进一步推进了 Redis 的​统一能力模型​。

Redis 8.4 将多项关键能力直接内建到统一体验中,包括:

  • Search
  • JSON
  • TimeSeries
  • Bloom
  • 向量数据类型(Vector data types)

这意味着开发者在使用 Redis Cloud 时,不再需要围绕模块能力进行额外理解与组合,而是能够以更一致的方式使用这些能力。

搜索、向量检索、集群扩缩容增强

Redis Cloud 8.4 这一轮更新,比较值得关注的能力主要集中在几个方面。

混合检索能力增强:FT.HYBRID

混合检索(Hybrid Search)对现代 AI 应用和复杂搜索场景很重要,因为很多真实业务并不是“只做关键词搜索”或者“只做向量召回”,而是两者结合:

  • 先按结构化条件过滤
  • 再做语义相似度检索
  • 最后进行排序和重排

FT.HYBRID 的意义就在这里:它让 Redis 在这类“结构化条件 + 向量语义检索”混合场景中更好用,也更贴近生产需求。

对于 RAG、知识库检索、推荐系统和语义搜索场景,这类能力是非常关键的基础设施能力。

原子化集群 Slot 迁移:支持更平滑的零停机扩缩容

Redis Cloud 8.4 还引入了​原子化 Cluster Slot Migration​,用于支持更平滑的零停机扩缩容。

这个改进的价值不在“技术名词听起来高级”,而在于它直接影响线上扩缩容的体验:

  • 扩容时业务中断风险更低
  • 数据迁移过程更可控
  • 集群重平衡更适合生产环境

对于在线业务来说,真正理想的扩容从来不是“扩得快”,而是​用户几乎感知不到你在扩容​。

SIMD 优化:现代工作负载下跑得更快

Redis 8.4 还引入了基于 SIMD 的优化,用来进一步提升部分工作负载的执行效率。

这类优化通常不会直接改变你写代码的方式,但会直接影响系统底层性能,尤其是在:

  • 搜索
  • 向量处理
  • 批量计算
  • 数据扫描

这类操作更频繁的场景里,收益会更明显。

开发与运维能力同步增强:更安全,也更省心

除了性能和搜索能力之外,Redis 8.4 还补充了一些对工程实践非常友好的增强。

原生 Compare-and-Set 语义

这类能力对并发安全非常重要,尤其适用于:

  • 状态更新
  • 并发写保护
  • 乐观锁式更新
  • 分布式协调场景

过去很多团队会自己在 Lua、事务或者业务逻辑层里拼这类能力,现在 Redis 提供更原生的支持,意味着实现方式会更直接,也更不容易踩坑。

MSETEX:多 Key TTL 设置更自然

MSETEX 让你在设置多个 Key 时,同时处理 TTL(过期时间)更方便。

这对缓存初始化、多字段状态同步、批量写入临时数据这类场景都很实用。它不是“颠覆式新能力”,但属于那种开发中会高频受益的增强。

Consumer Group 处理继续增强

Streams 相关能力在 8.4 里也有持续改进,说明 Redis 对事件流场景的投入并不是一次性的,而是在持续往“生产级可靠性”方向打磨。

自动 AOF 修复与更智能的查询评分

运维层面,Redis Cloud 8.4 还加入了:

  • 自动 AOF 修复
  • 更智能的查询评分(query scoring)

前者提升系统韧性,后者则让搜索和检索结果质量更可控。

合起来看,这一版的 Redis Cloud 不是单纯“多了几个功能点”,而是在持续降低大规模使用 Redis 时的工程摩擦成本。

Redis Agent Skills:给 AI Agent 提供现成的 Redis 能力

Redis 最近还推出了 ​Redis Agent Skills​,可以把它理解为一组面向 AI Agent 场景的预构建能力组件。

它解决的问题很现实:很多开发者知道 Redis 很适合做 Agent 的状态层和上下文层,但真正接入时,往往要自己拼很多基础能力,比如:

  • 会话记忆(memory)
  • 检索(retrieval)
  • 实时状态管理
  • 多轮交互上下文维护

Redis Agent Skills 的价值就在于:​把这些常见能力先封装好,让开发者更快接入 Agent 框架​。

它本质上是在推动 Redis 成为 Agent 系统中的默认基础设施之一,尤其适合这类场景:

  • AI 助手 / Copilot
  • 多轮对话 Agent
  • 具备工具调用能力的任务型 Agent
  • 需要工作记忆与长期记忆协同的 Agent 系统

如果你正在做 Stateful AI Application,这类能力会明显降低接入成本。

Cursor 插件上线:把 Redis 直接带进 AI 编码工作流

另一个很符合当下开发趋势的更新,是 ​Redis for Cursor 插件​。

它的意义不是“又多了一个 IDE 插件”,而是 Redis 开始更直接地进入 AI 辅助开发(AI Coding Workflow) 这条链路。

有了这个插件,开发者可以更顺手地在编辑器内部完成:

  • Redis 相关代码生成
  • 连接与配置
  • 集成与开发流程衔接

这件事看似轻量,但背后的信号很明确:Redis 不只是运行时组件,也在尝试进入​开发生成阶段​,成为 AI 驱动应用开发过程中的一部分。

对于正在用 Cursor、Copilot 类工具构建 AI 应用的团队来说,这种“就地集成”的体验通常比单独看文档、手动拼接接入流程更高效。

Redis Cloud 指标分辨率更新:监控体验更符合现代可观测性实践

Redis Cloud 对监控指标的展示方式进行了优化:系统会根据用户选择的时间范围,动态调整指标分辨率。

具体而言:

  • 短时间范围下提供更高精度的数据视图
  • 长时间范围下提供聚合后的趋势视图

这一改动虽然不属于“核心数据库能力”,但对实际运维体验非常重要。

因为在监控场景中,一个常见问题并不是“没有数据”,而是:

  • 数据太细,图表噪声过高
  • 数据太粗,定位问题信息不足

动态分辨率的好处在于,它使监控视图在不同分析尺度下都更具可读性和可操作性,更符合现代 Observability 工具链的使用习惯。

Redis Software 新增统一健康报告

Redis Software(Redis Enterprise Software)新增了 ​Consolidated Health Report​。

该能力提供了一个集中式、只读的健康状态视图,用户可以直接在 Admin Console 中查看 Redis Enterprise 集群与数据库的整体健康状态,而无需依赖 SSH 或 CLI。

该报告可帮助团队快速了解以下关键信息:

  • 当前告警情况
  • 节点健康状态
  • 内存使用情况
  • 正在执行的操作

对于运维与平台团队而言,这类能力的重要性在于:

它降低了系统状态理解成本,使问题发现、日常巡检与风险判断更加直接。

在复杂集群环境中,这种“统一状态视图”往往比新增单点功能更有长期价值。

Redis Insight 3.2.0:Azure 用户接入体验明显改善

Redis Insight 3.2.0 带来了对 Azure Managed Redis 更顺滑的接入体验。

这次更新的重点包括:

  • 跨订阅自动发现数据库
  • 一键导入
  • 支持通过 Entra ID
  • 支持 Azure Passwordless(OAuth) 认证方式连接

这意味着如果你的 Redis 环境跑在 Azure 上,使用 Redis Insight 做可视化管理和排查时,接入过程会更省事,也更贴近云原生身份体系。

这类改进的价值在企业环境里尤其明显,因为真正麻烦的往往不是“工具有没有功能”,而是:

  • 接入是否顺手
  • 权限模型是否兼容现有云平台
  • 团队是否愿意持续使用

Redis Insight 这一步,明显是在补齐它在云环境下的实际可用性。

新实验课程:面向 AI 应用的 Context Engineering

Redis 近期还推出了一个新的实践实验(Lab),主题聚焦于当前 AI 应用开发中越来越重要的一项能力:​Context Engineering​。

如果说过去一段时间,行业主要在讨论:

  • Prompt Engineering
  • RAG
  • Agent Framework

那么当前更值得认真对待的问题已经变成:

如何系统性地设计、组织、维护并利用 AI 系统所需的上下文。

Redis 推出的这一实验,正是围绕这一问题展开。

从基础 RAG 到生产级 Agent 架构的演进路径

在该实验中,开发者将构建一个“课程推荐顾问 Agent”,并逐步将其从基础检索增强生成(RAG)系统演进为更接近生产环境的 Agent 架构。

整个过程将覆盖以下关键能力:

  • 对结构化目录数据进行智能检索
  • 针对复杂约束进行推理
  • 跨会话保留对话记忆

实验并不是停留在“让模型回答问题”这一层,而是更进一步地展示:

一个可用的 AI Agent 系统,真正依赖的是上下文组织能力,而不是单次提示词本身。

Context Engineering 的核心组成

该实验还覆盖了 AI 应用中几类关键上下文的构建与协调方式,包括:

  • System Context​:系统级行为约束与角色定义
  • Retrieved Context​:检索得到的外部知识
  • Conversational Context​:对话历史与交互状态
  • User Context​:用户偏好、历史与个性化信息

此外,实验还结合了:

  • Progressive RAG 策略
  • ReAct 框架
  • Redis Agent Memory Server

其中,Redis 在架构中承担的是两个非常关键的角色:

  • 检索引擎(retrieval engine)
  • 记忆层(memory layer)

这也正是 Redis 当前在 AI 应用中越来越重要的定位:不是模型本身,而是模型得以稳定工作的上下文基础设施。

总结:Redis 的演进方向正在进一步收敛

综合这轮更新,可以更清晰地看到 Redis 当前的演进主线。

第一,持续巩固性能与实时性优势

Redis 8.6 在性能、延迟、内存效率方面的改进,仍然说明性能是 Redis 最核心的基本盘。

第二,进一步强化生产可用性与工程稳定性

无论是 Streams 的成熟、Hot Key 可观测性增强,还是健康报告与 AOF 修复能力,本质上都在服务同一个目标:让 Redis 更适合长期、严肃、规模化的生产运行。

第三,推动能力统一,降低系统组合复杂度

Redis 8.4 在云端推进 Search、JSON、TimeSeries、Vector 等能力的统一内建,标志着 Redis 正在进一步摆脱“缓存 + 插件增强”的旧认知。

第四,明确进入 AI 应用基础设施层

从 Agent Skills、Cursor 插件,到 Context Engineering 实验,可以看到 Redis 对 AI 场景的布局已经不再停留在“支持向量检索”这一单点能力,而是在逐步建立其作为 AI 上下文与状态基础设施的完整叙事。

IT服务管理 曾经被视为支撑业务发展的重要能力,而 ITSM系统 则是实现这一能力的核心工具。然而在实际运行中,一个明显的变化正在发生:业务部门对 IT 的信任正在下降。ManageEngine卓豪 将为您解答这些问题!

越来越多的业务团队开始绕过 IT,选择自行寻找解决方案,甚至直接采购工具。这并不是因为 IT 不重要,而是因为 IT 服务模式与业务需求之间出现了偏差。当业务追求速度与灵活性时,IT 提供的却往往是流程与规范,这种错位逐渐削弱了信任基础。

从表面上看,这是沟通问题,但从本质上看,是服务模式的问题。当 IT 仍然以“流程驱动”为核心,而不是“结果驱动”时,就很难满足业务快速变化的需求。

为什么 IT 信任问题会持续恶化,而不是自行修复

在很多企业中,IT 与业务之间的信任下降,并不是一个短期现象,而是会随着时间逐渐加剧。这背后的原因在于,一旦业务开始绕过 IT,IT 的影响力就会被进一步削弱,从而形成一个负循环。

当业务部门自行引入工具或解决方案时,IT 部门往往无法参与其中的架构设计与流程规划。这些系统在初期可能运行良好,但随着使用规模扩大,问题逐渐显现:数据不一致、权限混乱、系统之间无法联动等。

当问题出现时,业务部门又不得不重新寻求 IT 支持。但由于 IT 并未参与前期建设,处理难度显著增加,响应时间也随之延长。这进一步强化了业务对 IT “效率低”的认知,从而加剧不信任。

这种循环一旦形成,就很难通过简单优化来解决。企业需要从服务模式上进行调整,才能打破这一局面。

重建信任的关键:让 IT 服务变得“可预期”

要恢复业务对 IT 的信任,核心在于提升服务的可预期性。也就是说,业务部门需要清楚知道:问题多久能解决、如何解决,以及结果是否可靠。

要实现这一点,企业需要从几个方向进行调整:

  • 通过自动化减少人工干预,提高一致性
  • 通过标准化流程降低处理差异
  • 通过系统集成减少跨平台操作
  • 通过数据分析持续优化服务体验

当服务能够稳定输出结果时,业务对 IT 的信任自然会逐步恢复。关键不在于提升响应速度,而在于提升服务质量的稳定性。

只有当 IT 服务从“不可预测”变为“稳定可靠”时,IT 才能重新成为业务发展的支撑力量。

IT 的价值,最终体现在“是否被信任”

在企业中,IT 部门的价值不仅体现在技术能力上,更体现在其是否能够被业务信任。当 IT 被视为可靠的合作伙伴时,它能够参与到业务决策中;而当信任缺失时,IT 则会被边缘化。

要恢复这种信任,关键不在于增加流程或加强管理,而在于提升服务能力。只有当 IT 服务能够稳定、高效地解决问题时,业务才会愿意依赖 IT。

ServiceDesk Plus 提供的正是一种以服务结果为导向的 IT 服务管理能力。通过自动化流程、IT事件管理以及系统集成,它能够帮助企业构建稳定、高效的服务体系,使 IT 从“被动响应者”转变为“业务支撑者”。

对于企业来说,真正需要关注的问题,并不是 IT 是否合规,而是 IT 是否可靠。当服务能够被信任时,IT 才能真正发挥其价值。

在未来,IT 服务管理的核心竞争力,将不再是流程复杂度,而是服务的稳定性与可预期性。而这,正是企业数字化能力的重要体现。

常见问题(FAQ)

为什么 IT 部门会失去业务信任?
因为服务结果不稳定、响应效率低,建议使用 IT服务管理平台 提升能力。

如何提升 IT 服务的可预期性?
可以通过自动化、标准化流程以及系统集成实现。

ServiceDesk Plus 如何帮助改善信任问题?
通过自动化执行与 IT事件管理能力,实现稳定服务输出。

企业什么时候需要升级 ITSM系统?
当业务频繁绕过 IT、投诉增加或协作效率下降时。

人工智能行业存在一个复合型的瓶颈,而这个瓶颈并非模型本身,而是推理。

过去仅仅是一次模型调用,如今已演变成一个持续交互的系统。现在的应用程序会编排多个模型,检索并合成数据,执行工具,并在生产环境中重复这一循环。这些不再是“无状态请求”,而是更像基础设施而非软件特性的动态系统。

以下四个变化正在重新定义基础设施必须具备的能力:

  • 推理已取代训练成为重心
  • 推理模型正成为默认选择
  • 自主智能体正在大规模运行
  • 开源模型正以极低的成本达到与闭源模型相当的质量

大多数技术栈从未为此而设计。超大规模云服务商提供了数百种服务,但依然需要将它们拼接在一起。推理提供商则坐落在别人的算力之上,额外增加了一层利润空间。GPU 供应商提供芯片,但不提供系统。

推理已悄然成为现代技术栈中最昂贵、却又最无人真正掌控的一层。每一项新能力都被叠加在一个碎片化的基础之上,而其底层的复杂性则在不断累积。

最终,你遇到的问题不再是模型问题,而是技术栈的问题。

今天,在 Deploy 2026 大会上,DigitalOcean 发布了DigitalOcean 的 AI 原生云,这是一个面向生产级AI工作负载的全栈系统。

DigitalOcean 的 AI 原生云建立在 DigitalOcean 的核心云服务之上,涵盖计算、存储、网络和托管服务,并针对AI系统在实际生产中的运行方式,扩展了专门设计的能力。

目标很简单:精简技术栈,让构建者能够专注于构建,而不是把各种系统拼凑在一起。

在这里,开源不是附加功能,而是基础。DigitalOcean 去除了不必要的抽象层,消除了供应商之间的利润叠加,让开发者可以直接访问构建和扩展AI系统所需的原语。

这并非空谈。像 Workato 这样的客户在 DigitalOcean 上运行了数万亿次自动化任务,成本降低了67%。Character.ai 部署于DigitalOcean 云平台上,每天处理超过 10 亿次查询,推理吞吐量提高了2倍。Hippocratic AI 医疗平台支持超过 2000 万次患者交互,延迟降低了40%。这三个客户案例表明 DigitalOcean AI 原生云已在生产环境中稳定运行。

面向现代AI系统的五层技术栈

AI应用程序不是单一系统,而是由多个相互作用的层组成,这些层必须持续协同工作。

DigitalOcean AI 原生云将这五层整合为一个统一的系统,包括 托管式Agents、数据与分析、推理引擎、核心云服务、基础设施。(如下图所示)

Paddy Blog Image 2.png

DigitalOcean AI原生云的新增能力

这些并非概念上的层次,而是实际运行的系统。DigitalOcean 正在扩展产品服务,提供涵盖推理、数据和存储的生产级能力,使其能够大规模运行。

Inference Router(推理路由器,公测版)

一个具备策略感知能力的控制平面,可根据成本、延迟、质量与数据合规性动态路由请求。
团队无需硬编码模型逻辑,只需定义意图,系统即可在不同模型提供商和部署方式之间自动优化执行路径。

例如,LawVo 运行着 130+ AI 智能体,每周处理超过 5 亿 Token,在无需修改代码的情况下,将推理成本降低了 42%。

专用推理与 Bring Your Own Model

支持在专用 GPU 基础设施上运行自定义或微调模型,全面掌控性能、扩展和配置。

开发者可以从 Hugging Face 或自有环境部署模型,通过预调优的推理栈和托管编排,实现高吞吐运行,而无需承担 Kubernetes 的复杂性。

扩展模型与服务

通过统一系统运行和评估文本、图像、音频和视频模型。

模型库持续更新,包含 25+ 新模型,并支持“Day 0”首发接入,例如 NVIDIA Nemotron 3 Nano Omni(在 DigitalOcean 首发)。该高效开源多模态模型整合视觉、语音、语言与工具调用能力,并通过 NVIDIA TensorRT-LLM 在内核层优化。

内置评估工具可在上线前对质量、成本和延迟进行基准测试。

PostgreSQL和MySQL高级版(公测)

托管式PostgreSQL和MySQL高级版提供超大规模云服务商级别的可靠性和扩展能力,与标准版并行提供。

托管式 Weaviate(预览版)

提供可用于生产环境的向量数据库基础设施,无需运维负担,并与 Serverless Inference 原生集成,具备可预测定价。

Knowledge Bases(知识库)

一个完全托管的 RAG 服务,处理数据摄取、分块、嵌入、检索和重排序,并为智能体框架提供 MCP 支持。让你的团队只需几天就能从原型走向生产。

旨在简化,同时不限制灵活性

优势并不在于任何一个单独的层,而在于它们如何协同工作。

当智能体、推理和数据运行在同一个系统上时,性能和成本方面的优化会自动相互叠加。技术栈变得能够自我强化,而不是碎片化。

与此同时,灵活性得以保留。开放的 API 和与现有工具的兼容性,使得采用新模型、集成外部系统以及根据需要演进架构变得容易。

展望未来

从本地部署到云计算的转变催生了 AWS。从云到 SaaS 的转变催生了 Salesforce。而从云原生到 AI 原生和智能体原生应用的转变,将催生下一家伟大的基础设施公司。DigitalOcean 志在于此。

五层技术栈。一个平台。层层开放。今天就让我们与开发者一起构建吧。

1 、没充任何 plan
2 、没加入团队
3 、5.5 不是会员所以用不了,但 5.4 超高已经高强度用了 2 天了

剩余额度:100%

大家遇到了吗?只有我遇到 bug 了?

大家好!经过一段时间的精心打磨,我的流媒体应用 AirPlay Receiver 终于在 Google Play 正式上架了!

这是一款专业级 AirPlay 接收端应用,旨在将您的 Android 设备变成 Apple AirPlay 协议的高性能接收器。无论您使用的是智能手机、平板电脑还是 Android TV ,现在无需 Apple TV 即可享受 Apple 的完整流媒体体验。


🛠️ 核心功能

  • 📺 极致连接 - 将您的 Android 设备秒变 AirPlay 接收器,直接从 iPhone 、iPad 或 Mac 播放音乐、视频并镜像屏幕,只需轻点一下,即可体验高清媒体共享
  • 🖥️ Mac 的完美搭档 - 立即将大屏 Android 设备变成 Mac 或 Mac mini 的第二块屏幕,用作 macOS 的扩展显示器,监控聊天、写代码、查日历,工作效率大幅提升
  • 🎵 无线音频中心 - 从 iPhone 或 iPad 串流高保真音乐和播客,将 Android 设备连接到扬声器,打造一套优质的 AirPlay 无线音响系统
  • ⚡ 低延迟,高性能 - 针对本地 Wi-Fi 网络深度优化,视频镜像与实时屏幕共享延迟极低,播放流畅无卡顿
  • 📱 全设备覆盖 - 支持手机、平板、Android TV ,一个应用通吃所有 Android 设备形态
  • 🔍 自动发现 - 同一局域网内自动识别并出现在 Apple 设备的 AirPlay 列表,无需手动配置


应用截图
应用截图

🎁 限时福利活动

为了回馈 V2EX 的技术同行们,特地准备了 一些 PRO 终身版兑换码,先到先得!

兑换码列表:

LDJX3F49L9WSM4KFWQ1FCX5
U1XP1WDMEURS09TABW6JPWD
J3V7HYFQ14LLBJKNSJ1EFHV
3QZR4B0L50KXFS7HAGPVSXX
QSTBJDSJY2YH621NZF49NTN
HX8GPLA01KUQ602VDXY477J
RHXF5PQMPSFEETZSJ1WCL8F
SM4KU2T5PM2Z834AAJN59DJ
GMVQBXTAHS8V2VAB7KXPFD8
K9UXMZB0PJ5MFJPFQBTFZ34
MLFV3GHFBL5KVYG6VTNRXK0
DGVNJS5TNQ93ETWM8KQHTWV
FB3H1WSKM0FL6QN251RB85B
ZVKDVD3EBLF9KV3WTQVCVV0
HZJRC9Q16V72XRPAMBPQM9G

兑换码用完? 可以发邮件到:[email protected] 申请额外兑换码


📲 兑换步骤

  1. Google Play 下载 AirPlay Receiver 应用
  2. 打开应用,点击 "购买 PRO 版本"
  3. 支付方式选择 "兑换代码"
  4. 输入上方的兑换码即可免费获得 PRO 终身版


⏰ 重要提醒

  • ⚠️ 兑换码有效期仅一周,请尽快使用
  • 🌟 如果觉得好用,恳请在 Google Play 给个五星好评
  • 💬 兑换码用完可发邮件,后续兑换码以评价好礼送出
  • 🐛 使用中遇到任何问题或有功能建议,欢迎通过邮件反馈


📱 下载地址

Google Play: https://play.google.com/store/apps/details?id=com.aicareles.airplayreceiver


💬 最后

作为独立开发者,我会根据大家的反馈持续优化和更新功能。如果您手边有 iPhone / iPad / Mac 和 Android 设备,不妨试试——希望这个工具能省去您购买 Apple TV 的开销!

感谢 V2EX 社区的支持!🙏

如果你的目标是尽快拿到稳定可用的网页数据,而且团队不打算长期养抓取脚本、代理、反爬和故障修复,优先看结果型数据平台。它更适合 Amazon 选品、TikTok 监测、Google Maps 线索采集这类目标明确、会持续重复执行的任务。反过来,如果你真正要买的是一套可编排、可改造、可嵌入内部系统的抓取能力,并且愿意为这套能力持续投入工程资源,平台型数据工具才是更对路的选择。
这不是“哪个功能更多”的比较,而是“谁对结果负责”的比较。结果型数据平台卖的是可交付的数据结果;平台型数据工具卖的是抓取、运行、调度和扩展能力。前者的采购重点是字段、时效、稳定性和失败处理,后者的采购重点是自由度、编排能力和可控性。很多团队真正买错的地方,不在产品功能,而在于把“提供能力”误当成“负责交付结果”。
对大多数业务团队、增长团队和运营分析团队,我的建议很明确:如果站点常见、字段相对标准、上线窗口又紧,先看结果型数据平台;不要因为平台型工具看起来更灵活,就默认它更适合你。灵活不等于省事,很多时候只是把复杂性留在了你自己内部。

最大差异不在功能,而在责任边界

在真实采购里,结果型数据平台和平台型数据工具最根本的区别,是合同和产品承诺最后落在什么上。
结果型数据平台的承诺,通常落在“把结构化数据交出来”。你会更关心字段能不能稳定返回、失败怎么处理、更新频次能不能保证、交付格式是否能直接接 API、Webhook、表格或数据库。这类产品的价值,不是让你看见更多底层能力,而是替你吞掉一大段抓取链路里的工程复杂性。
平台型数据工具的承诺,则落在“给你一套能自己搭、自己改、自己扩的抓取底座”。Actor、调度、代理、运行环境、自动化流程、自定义代码支持,这些都是它的核心价值。但它默认你愿意承担一个前提:能力只是起点,最后把它变成稳定结果的人,主要还是你自己的团队。
判断两者最实用的办法,不是问“能不能抓”,而是问失败时谁先下场。如果字段缺失、站点改版、任务报错后,供应商负责修复并继续稳定交付,这更接近结果型路线;如果平台还在,但脚本、选择器、代理、重试、排错主要靠你自己补齐,这就是平台型路线。

所以真正该先想清楚的不是技术名词,而是这句话:你买的是数据结果,还是抓取能力。

同一个任务,两条路线走出来的不是同一件事
拿一个典型场景来说:你要持续抓取 Amazon 某类目商品信息,用于选品监控,字段包括标题、价格、评分、评论数、BSR、卖家信息和类目变化。
走结果型路线时,流程通常很短。你先确认目标站点、字段、频次和交付格式,供应商评估是否可交付,验证通过后直接给你首批结构化结果,再进入 API 或数据接入阶段。这里真正节省的,不是点了多少按钮,而是你不用自己补脚本适配、代理策略、反爬处理、字段清洗、失败重跑和稳定性监控这一整条链路。
走平台型路线时,事情就更像一个持续运营的小型工程。你要先判断有没有现成 Actor 可用,能不能改,需不需要自己写;然后配置运行参数、代理、调度频次和输出结构;如果页面结构复杂,还要继续调试选择器、浏览器流程或自动化动作。只要遇到验证码、加载异常、字段缺失、页面改版或封禁,后面就不是“平台会不会用”的问题,而是谁来持续修、谁来持续盯。
同样的差异放到 TikTok 公开内容监测或 Google Maps 商家线索采集里也成立。两类产品都可能覆盖这些网站,但启动链路完全不同。一条路线是在买结果,一条路线是在把抓取能力搭进自己组织里。采购时如果没把这件事想透,后面几乎一定会在维护责任上吃亏。
image.png
很多团队低估了“首批可用数据”和“可持续稳定交付”之间的差距。能跑一次,不等于以后都能跑;日志成功,也不等于业务能直接用。真正消耗团队精力的,往往不是第一次上线,而是后面的持续维护。

真正影响选择的,不止是速度和价格

如果你卡的是上线时间,结果型平台通常更占优
业务窗口短的时候,结果型平台通常更合适。比如你要在两周内验证 Amazon 选品方向,或者要尽快把 Google Maps 商家线索喂给销售,结果型路线的优势很直接:少绕几层工程环节,首批结果更快落地。
平台型工具并不是低效,它只是把更多工作放在了交付前。现成脚本能不能用、代理要不要补、重试怎么配、字段怎么标准化,这些问题只要有一个没解决,首批结果就很难稳定。若你后续会反复复用这套能力,这段投入值得;若你只是为了尽快拿到数据,它就是阻力。

平台型工具的强项是真定制,不是假灵活

平台型工具最有价值的场景,不是“我也能抓这些网站”,而是你确实需要把抓取能力做深。比如你要把抓取、清洗、入库、告警、二次触发串成内部工作流,要运行自写代码,要把浏览器自动化和 API 调用混在一起,要把能力嵌进自家系统里持续复用,这时平台型工具的开放性很难被替代。
但很多团队会高估自己对定制的真实需求。若任务本质只是持续拿标准字段,所谓自由度往往不会转化成业务价值,反而意味着更多配置、更多排错、更多长期责任。能改很多东西,不代表你应该自己把所有东西都接过来。

维护责任才是最容易被低估的成本

采购时大家容易盯着演示效果和套餐价格,真正拉开差距的,反而是三个月后谁在处理这些事:站点改版后的字段修复、代理和指纹调整、验证码和封禁处理、失败任务重跑、告警排查、字段清洗、格式统一、运行监控。
如果这些工作最后还是你的团队在做,那你买到的本质就是平台能力,而不是结果交付。很多业务团队第一次跑通任务后会误以为已经解决问题,实际上持续网页采集最重的成本往往都发生在后半程。选型时如果不把维护责任单独拎出来看,后面很容易出现“平台买得不便宜,内部人也没省下来”的双输局面。

反爬和稳定性,关键不在有没有功能,而在谁负责兜底

反爬从来不是勾一个代理开关就结束的事。真正决定体验的是:出现封禁时有没有人持续修,站点改版后多久能恢复,量放大后成功率会不会掉,失败是不是需要你们内部人工频繁介入。
结果型平台通常会把代理、指纹、验证码、限流、重试和站点适配更新打包进交付责任里。这不是说平台型工具做不到,而是平台型工具更多是在提供这些能力的拼装件。你能拼得很好,前提是你有团队长期运营;如果没有,这些能力越完整,越容易把复杂性留在你自己手里。

计费不能只看单价,要看总拥有成本

按成功结果付费,表面上可能没有按运行资源计费那么便宜;但如果它替你省掉了开发、调试、重跑、修复、清洗和等待时间,整体成本未必高。尤其是对业务窗口敏感、内部开发资源紧的团队,时间本身就是成本。
平台型工具的表面价格常常更有吸引力,特别是当你能复用现成模板、也有开发支持时。但一旦进入持续运行阶段,脚本修复、代理补充、异常排查和数据治理都会把隐性成本拉出来。对没有成熟抓取工程体系的团队来说,平台便宜不代表项目便宜。

规模放大后,差距会比试点期更明显

任务量小时,两条路线都可能看起来可行;量起来以后,差异才会真正暴露。结果型平台更适合把常见、重复、标准化的任务直接扩量,因为它把很多运行细节藏在交付背后。平台型工具并不是不能扩量,但它要求你自己具备监控、容错、限流、成本控制和站点策略治理能力。
换句话说,平台型工具的上限往往更高,但前提是你的组织能力也得跟上。没有这套能力时,它的自由度会变成管理负担,而不是竞争优势。

怎么选,不要按功能表,要按团队现实和任务形态

如果你是业务负责人、增长团队或运营分析团队,任务目标已经很明确,站点也比较常见,最需要的是尽快拿到稳定数据,那结果型数据平台通常更合适。你们真正稀缺的资源不是“会不会写抓取逻辑”,而是业务判断时间。把精力消耗在反爬、脚本维护和故障修复上,通常不划算。
轻技术团队也更适合优先看结果型路线。你们可能有开发支持,足够完成 API 对接、数据入库和下游应用,但不想长期养抓取栈。这时结果型平台的价值,不是完全不需要技术,而是把技术工作集中在数据接入和业务使用,而不是把团队拖进持续抓取维护里。
平台型工具更适合已经接受“自己运营抓取能力”这件事的团队。比如你要跨多个站点做复杂编排,要频繁改逻辑,要把抓取能力嵌进内部产品,要混合自动化动作、浏览器流程和数据处理,这时平台型路线的长期价值会更明显。它的适用前提不是“你有开发”,而是“你愿意长期为这套能力设 owner、配资源、做治理”。
有几种情况要单独看,不能直接套用上面的结论。一次性小规模抓取,往往没必要把问题上升到平台选型;目标站点极度封闭、字段高度非标、交互流程复杂时,结果型平台的标准化优势会下降,必须先验证可交付性;如果你们已经有成熟的爬虫工程、代理体系和监控机制,平台型工具的边际成本会明显下降,结论也会更偏平台路线。还有一种常见误判是,采购目标其实是把抓取能力沉淀成内部产品能力,却还按短期上线速度做决定,这会把方向一开始就选偏。

放到 CoreClaw 和 Apify 上看,差异会更具体

把 CoreClaw 和 Apify 放在一起看,最有价值的不是比谁功能多,而是看它们代表了哪两种采购逻辑。
CoreClaw更接近结果导向路线。它的核心吸引力,不是给你一套足够开放的底层抓取底座,而是让你更快拿到稳定、可用、可接入的数据结果,尽量减少团队自己维护抓取链路的负担。如果你的任务是持续获取常见站点数据,业务更关心时效、稳定性和结果可用性,这种路线通常更顺手。
Apify更接近平台能力路线。它的价值在于开放和可编排:你可以用现成 Actor,可以自己改,可以自己调度,可以接代理、扩流程,也可以把它并入更大的自动化体系。对于愿意长期写和维护逻辑的团队,这种自由度非常有价值;但如果你期待的是“买完就持续出稳定结果”,那你对这类产品的预期就设错了。
两者最容易买错的人群也很明确。把 Apify 当成结果交付来买的人,常常会因为模板和现成组件低估后续维护量;等任务进入持续运行后,字段稳定性、脚本修复、反爬处理和成本控制都会重新回到自己团队头上。把 CoreClaw 当成通用开发平台来买的人,则会很快发现它不是为大规模高度自定义的抓取编排而设计的;如果你真正要掌握的是能力本身,而不是把结果拿回来用,它会显得受限。
所以如果必须压缩成一句话:CoreClaw更适合“我要数据,不想自己养抓取”;Apify更适合“我要能力,也愿意自己把能力运营成结果”。

最后拍板,用四个问题就够了

先问任务是不是常见、重复、字段相对标准。像 Amazon 商品信息、TikTok 公开内容、Google Maps 商家线索这类任务,更适合优先考虑结果型平台;任务越标准、越重复,买结果越划算。若字段高度非标、逻辑频繁变化、抓取过程还要混入自定义动作,平台型工具的价值才会被真正用出来。
再问内部有没有明确的人长期负责抓取运行。不是问“有没有开发”,而是问有没有 owner 愿意长期处理脚本、调度、代理、反爬、告警和修复。没有明确 owner,平台型路线大概率会在几周或几个月后变成没人愿意接的维护包袱。
接着看上线时效是不是硬约束。如果数据晚到两周,业务窗口就过去了,那就不要把时间赌在自建和调试周期上,结果型路线更稳。平台型工具的灵活性有价值,但前提是你付得起把能力打磨成稳定结果的时间。
最后问长期目标到底是什么。若你的目标是持续拿数据支撑业务,优先买结果;若你的目标是把抓取能力沉淀成内部资产,优先买平台。很多争论说到底不是产品之争,而是组织目标不同。
结论
对持续性网页数据采集来说,结果型数据平台和平台型数据工具不是同一种东西的不同包装。前者更适合目标明确、站点常见、要快上线、又不想长期背抓取维护责任的团队;后者更适合需要深度定制、愿意投入工程资源,并且准备把抓取能力长期内建到业务系统里的团队。
如果你现在的核心问题是“怎么尽快拿到稳定可用的数据”,优先选结果型数据平台;不要为了看起来更灵活,就提前把脚本维护、反爬治理和运行责任接回自己内部。只有当你明确知道自己要的是能力,而不是结果,并且愿意持续经营这套能力时,平台型数据工具才更值得投入。
真正该做的最后一步,不是继续看功能页,而是拿自己的目标站点、字段要求、更新频次和接入方式做一次小范围验证。因为这类采购最后比的从来不是演示能力,而是谁能在你的实际任务里持续交付可用结果。

对于具备Python开发能力的技术从业者而言,反向海淘副业的核心优势,在于能够通过编程技术,自动化处理繁琐的运营工作,提升运营效率、节省时间精力,实现“轻维护、高收益”。订单处理是反向海淘运营的核心环节,涉及订单审核、分类、采购、物流对接、状态同步等多个步骤,手动处理不仅耗时耗力,还容易出现漏单、错单等问题。本文结合Python开发与taoify API,分享反向海淘订单自动化处理的实操方案,帮助Python开发者快速实现副业运营自动化,兼顾主业与副业的平衡。
首先,明确自动化处理的核心需求与技术依托。反向海淘订单自动化处理的核心需求,是实现“订单自动审核、自动分类、自动对接物流、自动同步状态”,无需人工手动操作,仅在出现异常订单时,人工介入处理即可。技术依托主要分为两部分:一是taoify的开放API接口(订单管理API、物流对接API),用于获取订单数据、同步订单状态、对接物流渠道;二是Python编程技术,用于编写自动化脚本,实现订单数据的抓取、解析、处理与同步。
实操步骤分为四个核心环节,全程贴合技术从业者的兼职场景,无需投入大量开发时间,可利用碎片化时间完成开发与部署。环节一:API授权与环境配置。首先在taoify后台申请API密钥,获取订单管理、物流对接等核心接口的访问权限;然后在本地搭建Python开发环境,安装requests、pandas等依赖库,用于接口调用、数据解析与处理。
环节二:订单数据抓取与解析。通过Python编写脚本,调用taoify的订单管理API,抓取所有未处理的订单数据(包括商品信息、收货地址、付款状态、客户信息等);然后通过pandas等库,对订单数据进行解析与标准化处理,筛选出有效订单,剔除异常订单(如未付款、地址不完整等),同时对有效订单进行分类(如按商品类目、收货地区、物流渠道分类)。
环节三:订单自动处理与物流对接。基于解析后的订单数据,编写自动化处理脚本,实现两大核心功能:一是订单自动审核,根据预设规则(如付款状态、地址完整性),自动审核有效订单,审核通过后,自动生成采购单;二是自动对接物流渠道,调用taoify的物流对接API,根据订单收货地区、商品重量,自动选择适配的物流渠道,生成物流单号,绑定订单信息,完成物流下单。
环节四:订单状态自动同步与异常提醒。编写脚本,定时调用taoify的订单管理API,将订单的处理状态(如已审核、已发货、物流在途)自动同步至taoify后台,同时同步至客户,让客户随时了解订单进度;同时设置异常提醒机制,当出现异常订单(如物流异常、付款失败)时,脚本自动发送提醒(如邮件、微信通知),通知运营者人工介入处理,避免订单遗漏或客户投诉。
该方案的核心优势在于,开发难度低、维护成本低,适合兼职Python开发者,脚本编写完成后,可设置定时运行,无需人工值守,实现订单处理全流程自动化。借助taoify的API能力,无需自主对接订单、物流等底层资源,大幅降低开发成本与周期;同时,可根据自身运营需求,灵活优化脚本,实现个性化自动化处理,进一步提升运营效率,让Python技术真正转化为副业收益。

引言

每一条网络连接都带着一个"身份证"——IP 地址。它不只是路由的数据标签,更是安全防线上最有价值的信号之一。当异常登录、数据泄露、DDoS 异常流量等安全事件日益频繁,安全团队面临的关键问题不再是"要不要防御",而是"能不能更早发现"。

答案就藏在 IP 数据里。通过对 IP 地址的系统性分析——包括归属地、网络类型、行为模式、历史风险记录——企业可以在威胁造成实质性损害之前,捕捉到异常信号。

事件背景

2026 年 2 月发布的《2025 年度网络安全漏洞威胁态势研究报告》揭示了一组令人警醒的数据:2025 年全球新增网络安全漏洞 47,173 个,同比增长 7.8%,其中高危及极危漏洞占比达到 44.9%。更值得关注的是,超过 50% 的高危漏洞在一周内就被武器化,漏洞利用窗口期已压缩至 3 天以内。

与此同时,AI 技术的普及让风险流量的生成效率提升了 3 到 5 倍,"漏洞利用即服务"模式日趋成熟。传统的基于签名的检测手段在高速变异的威胁面前显得力不从心。这正是 IP 数据分析走向安全防御核心的重要背景——在流量到达应用层之前,IP 层就已经携带了大量可用于判断合法性的信息。

深度分析

IP 分析能发现哪些威胁信号?

利用 IP 地址分析发现网络威胁,本质上是在做三件事:识别"谁在访问"、判断"来自哪里"、分析"行为是否正常"

地理位置异常检测是最直观的第一道关卡。如果一个企业内网账号在凌晨 3 点从境外 IP 发起登录,而该账号的常规活动范围从未离开过国内某城市,这就是一个值得立即关注的高风险信号。2024 年 5 月,搜狐科技在一篇关于 IP 地址定位技术的分析中指出,通过将 IP 地址映射到地理位置信息,网络管理员可以识别设备或用户的位置,据此进行身份验证和访问控制,从而减少安全漏洞。

IP 信誉与威胁情报是第二层防线。全球范围内有多个开源和商业威胁情报平台(如 AbuseIPDB、AlienVault OTX 等)持续收录被标记为恶意行为的 IP 地址。这些 IP 可能关联着僵尸网络节点、钓鱼站点、C2 服务器或大规模扫描行为。将访问日志中的 IP 与威胁情报库做交叉比对,可以在几秒内完成初步风险判定。

行为模式分析则提供了更精细的判断维度。同一个 IP 在短时间内对大量不同端口发起请求——这是典型的扫描行为;某个 IP 的请求频率在深夜突发性飙升——可能意味着自动化脚本正在运行;来自数据中心 IP 段的请求伪装成普通用户浏览器——这大概率是爬虫或自动化工具。IP 数据云的网安行业解决方案中明确描述了这一能力:通过对 IP 地址、访问记录及行为模式的综合分析,识别异常流量并进行精细化用户分类。

解决方案

在上述技术链条中,IP 数据分析的质量直接决定了威胁检测的效果。一个定位偏差几百公里的 IP 数据库,会让"异常登录"的判断失去意义;一个更新频率以月为单位的情报库,可能早已漏掉了最近一周活跃的恶意 IP。

可以借助 IP数据云 的能力来补齐这一层基础数据。IP数据云提供全球 IPv4 和 IPv6 归属地定位服务,据其官网披露,数据覆盖率达到 99.98%,每日对海量数据进行清洗与分析以保持 IP 信息的准确性。在安全场景中,其"IP 风险防控"模块通过深度挖掘 IP 地址的多维度数据,运用数据模型和算法为每个 IP 生成综合风险评估报告,既支持在线 API 的实时查询,也提供 离线IP数据库 部署方案,满足不同安全架构的接入需求。

对于企业安全团队来说,可以将 IP数据云 作为一层可嵌入的数据能力接入现有的 SIEM、防火墙或自研风控系统。通过 API 接口实时查询可疑 IP 的归属地、运营商、风险标签等信息,让原本"裸"的 IP 地址变成一个携带丰富上下文的判断节点。

访问地址:https://www.ipdatacloud.com/?utm-source=zzx&utm-keyword=?4514

实践 / 示例

以下是一个简化但真实的排查场景,展示 IP地址怎么查询 并如何落地到安全工作流中。

场景:发现 API 接口遭遇异常高频访问

某 SaaS 企业的运维团队在监控面板上发现,其对外开放的 API 接口在过去两小时内收到了来自多个陌生 IP 的高频请求,平均每秒超过 50 次,远高于正常业务峰值。

Step 1:提取可疑 IP 列表

从网关日志中按请求频率排序,筛选出 Top 10 高频来源 IP。

Step 2:批量查询 IP 属性

调用 IP 数据查询接口,获取每个 IP 的以下信息:

  • 归属国家/城市
  • ISP 与网络类型(住宅宽带 / 数据中心 / 云服务商)
  • 是否为代理或托管 IP
  • 风险评分与历史行为标签

Step 3:初步判定

查询结果显示,Top 10 中的 7 个 IP 均来自境外某云服务商的数据中心 IP 段,风险标签均为"高风险 / 扫描器",另外 3 个来自国内某城市的住宅宽带,但请求模式与正常用户行为不符。

Step 4:处置建议

  • 对 7 个数据中心高危 IP:立即加入临时黑名单,同时观察是否还有同网段其他 IP 开始活跃。
  • 对 3 个住宅 IP:提高验证门槛(触发 CAPTCHA 或要求二次认证),避免误伤正常用户,同时记录到风控系统做后续跟踪。
  • 将此批次 IP 入库,加入持续监控规则。

这个流程的核心在于:将原本"看到一堆 IP 号"的被动状态,转变为可操作的威胁研判过程。IP数据云的 API 能力正好可以承担 Step 2 中的数据查询角色,让安全工程师在几分钟内完成从"发现异常"到"做出决策"的闭环。

总结

IP 地址分析不是网络安全的新概念,但它正在被重新定义。过去,IP 数据只是网络层的路由标签;现在,它与威胁情报、地理定位、行为分析、风险模型深度耦合,成为检测潜伏威胁的前沿阵地。

2025 年的数据告诉我们,漏洞利用的速度越来越快,攻击的门槛越来越低。在这种趋势下,越靠近流量入口做出判断,安全防线的响应窗口就越充裕。IP 层正是离这个入口最近的一道关卡。

参考资料

  • 搜狐《2025 年度网络安全漏洞威胁态势研究报告》
  • CSDN 《IP 地址定位技术分析》

4 月 16 至 18 日,由极客邦科技旗下 InfoQ 中国主办的 QCon 全球软件开发大会·北京站(2026) 圆满落地。为期三天的大会带来超过 100 场精彩演讲,吸引 超过 2000 位 开发者、技术专家与行业从业者现场参与,围绕 Agent 架构与工程实践、研发新范式、数据智能、多模态理解与生成等多个前沿话题展开深入交流,为参会者带来了兼具行业洞察与实践价值的内容体验。

如果说过去一年 AI 还停留在“辅助开发”,那么在 QCon 北京 2026,一个更明确的共识已经形成:

软件工程,正在从“以代码为中心”,转向“以智能体为核心”。

围绕 AI 与工程实践,释放前沿洞察

主题演讲环节,多位来自产业一线的技术领袖围绕 AI 技术演进、软件生产方式重构与安全治理等关键议题,分享了各自的观察与思考。

TiDB 联合创始人兼 CTO 黄东旭(演讲)表示,传统软件构建模式已发生根本性转变,Coding 问题已基本解决,Software 重构才刚刚开始。过去软件围绕代码展开思考与设计,而未来软件生产将以 目标、上下文、约束 为核心框架,人类应专注定义目标与规则,把执行与迭代交给智能体。当前行业普遍存在目标思考不清晰的问题,而优化上下文、管控约束边界,正成为软件生产效率提升的关键方向。

蚂蚁集团副总裁兼首席技术安全官韦韬博士(演讲)则 AI 安全视角出发指出,从通用智力引擎到自主智能体闭环,生产力已完成代际跃迁。但原生架构漏洞引发系统性风险,传统安全体系根本性失效。唯有构建基于 HOP、NbSP、OVTP、ARCP 四大原生安全范式的全栈纵深防护体系,才能实现 AI 安全的确定性收敛,支撑自主智能体产业的健康可持续发展。

Bosch 集团首席 AI 科学家阎栋博士(演讲)表示,LLM 想要对现实世界产生影响,“模型之外”的脚手架不可或缺。未来世界是 LLM 与代码、基础设施、制度、人类共同构建的完整系统。他将大模型工程方法论归纳为三个并行阶段:Prompt Engineering 关注释放模型自身能力、Context Engineering 通过提供外部信息增强模型,当前版本的 Harness Engineering 则构建了包含上下文管理、工具调用、工作流编排、记忆和状态维护、反馈评估、故障回滚的六层脚手架,将大模型从 “黑箱问答机” 转化为可管控的生产系统。

在压轴圆桌环节,围绕「OpenClaw 之后:AI 系统正在“失控”还是“进化”?」(圆桌)主题,TiDB 联合创始人兼 CTO 黄东旭、蚂蚁集团开源技术委员会副主席王旭博士、 Agents 特区创始人马驰(瑞典马工)、 蚂蚁集团天宸实验室主任刘焱等嘉宾,进一步围绕 AI 的发展方向、应用边界、安全治理与责任分工等议题展开深入交流,为与会者带来了多维度的思考与启发。

尽管视角不同,这些一线实践者的观点正在趋同:

AI 并不是简单提升开发效率,而是在重写软件的生产逻辑、系统边界与安全模型。

分论坛方面,本次大会共策划了 25 大专题,涵盖:「AI for SRE」、「具身智能与物理世界交互」、「Agent Infra 架构设计」、「AI 时代的“超级团队”」、「下一代交互架构:LUI 与 GUI 的融合」、「智能体安全实践:可控与可靠」、「Agentic Engineering」、「AI 重塑数据生产与消费」、「AI 时代的用户界面之争」、「Agent 可观测性与评估工程」、「AI 驱动的技术债治理」、「从软件工程到 AI 工程」、「大模型算力优化」、「智能化测试与质量内建」、「记忆觉醒:智能体记忆系统的范式重塑与产业落地」、「AI 原生基础设施」、「Coding Agent 驱动的研发新范式」、「AIGC 视觉生成技术的产业级应用」、「OpenClaw 生态实践」、「Agent Ops:运维新生产力」、「小模型与领域适配模型」、「Agent in Practice:千行百业的 Agent 实践」、「多模态理解与生成的突破」、「“企业级 OpenClaw”来了!解锁 Snowflake Cortex AI 超能力 Lean Coffee 实战工坊」、「企业级 Agent 知识检索与平台工程实践解决方案专场」。(详见官网日程页面

多元而深入的专题设置,较为系统地呈现了 AI 从底层能力建设到上层应用落地的关键路径,也回应了行业对工程实践与产业落地的持续关注。

详细报道见QCon 2026 北京站收官:以 AI 之力,重塑软件工程新生态

17 位优秀出品人、29 位明星讲师“重磅出炉”

作为聚焦一线技术实践与行业演进的综合技术大会,QCon 始终坚持以真实业务场景为基础,以前沿技术趋势为方向,以高质量内容交流为核心,持续为技术管理者、架构师、工程实践者和创新推动者搭建开放、专业、深入的交流平台。

每一届 QCon 的成功举办,都离不开行业专家的支持和专业指导,旨在帮助技术团队降低探索新技术的时间成本,更快地将创新技术和最佳实践应用到实际业务中。在此感谢 QCon 北京 2026 的所有联席主席、出品人及讲师,是你们的精益求精,让会议质量更上一个台阶,赢得了广泛赞誉。

最终,通过 QCon 组委会的主观评价及参会者在现场提交的专题实时数据反馈等维度综合评估,以下老师被评选为 QCon 北京 2026 的 优秀出品人和明星讲师。感谢老师们对推动技术发展和技术人成长所做出的卓越贡献。

【优秀出品人】

【明星讲师】

写在最后

当 AI 开始参与软件生产本身,工程的边界正在被重新划定。

QCon 也将继续记录、连接并推动这一进程——

从实践中来,到产业中去。

未来我们将携手越来越多的技术实践者、架构师、工程师等,持续推动高质量技术交流发生,促进经验流动、认知碰撞与行业创新,为技术社区带来更多值得分享、值得讨论、值得沉淀的内容。

QCon 系列干货内容集锦https://www.infoq.cn/theme/245