2026年2月

微前端架构在分布式前端体系的深度落地过程中,跨应用数据请求的冗余分发已然成为制约前端整体效能提升的核心桎梏,传统碎片化的请求发起模式下,彼此解耦的微应用针对同源基础元数据的重复拉取行为,不仅持续加剧网络传输层的资源损耗与带宽占用,更会间接引发页面渲染时序的紊乱、前端状态的不同步等隐性架构问题,GraphQL批处理与缓存共享的融合落地方案,绝非对现有请求机制的表层修补与局部优化,而是从数据调度逻辑与状态共识构建的底层内核出发,彻底重构微前端体系内数据流转的核心范式。批处理机制的核心价值在于将离散化、碎片化的独立请求,转化为具备语义关联的聚合调度单元,彻底打破应用物理边界对请求链路的人为割裂,缓存共享则致力于搭建跨应用的全局数据共识层,让同源数据在整个微应用集群中实现一次采集、全域复用的理想状态。这一技术思路的本质是把数据请求从单一应用的独立行为,升级为整个架构层面的协同动作,从根源上消解重复请求生成的土壤,让微前端的数据交互回归高效、统一、可控的理想状态,也让前端架构从被动适配业务需求的底层形态,转向主动治理数据流转的高阶形态,在分布式前端体系中建立起数据流转的秩序感与稳定性,让每一次数据交互都能贴合架构的整体设计逻辑,而非无序消耗系统资源。

GraphQL批处理在微前端复杂场景中的落地,核心依托于对请求依赖的拓扑化深度分析与聚合粒度的精细化动态调控,在多微应用并行初始化的典型业务场景中,各类基础配置信息、核心主体元数据、全局权限规则等非业务独占型数据,成为跨应用重复请求的高发区域,批处理机制并非简单将多条独立请求机械合并为单一传输链路,而是先完成请求语义的精准归类与依赖关系的逐层拆解,严格区分实时性要求较高的动态数据与稳定性较强的静态数据,仅对同数据域、同执行优先级、同生命周期的请求执行聚合调度操作,同时完整保留每一条请求的独立响应解析能力,从机制上避免单一请求异常引发整体链路的响应故障。实践过程中通过精准界定请求的共享域标识,让批处理引擎能够精准识别可聚合的请求单元,既最大化保障请求合并带来的效能收益,又不破坏每一个微应用的数据独立性与业务自治性,让批处理成为适配微前端弹性架构的轻量化调度能力,也让请求聚合从机械合并的初级形态升级为语义驱动的智能调度形态,大幅提升数据交互的精准度与稳定性,让每一次网络传输都能实现资源利用的最大化,彻底规避无效请求与重复传输带来的资源内耗,让请求调度逻辑贴合微前端架构的解耦核心诉求。

微前端缓存共享体系的构建,核心是打造分层可控、逻辑清晰的跨应用状态共识体系,而非粗暴的全局数据拷贝与无差别共享,基于微前端基座的中继调度能力,将缓存体系划分为全局公共缓存、跨应用共享缓存、应用私有缓存三个逻辑层级,其中公共缓存专门承载全应用复用的基础元数据,共享缓存适配多应用协同的业务关联数据,私有缓存则全力保障单应用的业务隔离性与数据私密性。缓存共享的核心价值不在于存储本身,而在于跨应用的数据同步与一致性保障,通过语义化的缓存版本标识与轻量化订阅分发机制,实现缓存更新的全域无感同步,同时设计精细化的失效触发规则,结合数据更新事件与应用生命周期节点,主动清理过期缓存数据,避免脏数据在整个微应用集群中扩散。实践中通过基座的缓存代理层,统一管控缓存的读写操作与数据分发流程,让微应用无需感知底层缓存的实现细节,仅通过标准化接口即可获取共享数据,大幅降低跨应用数据协同的适配成本,也让缓存管理从分散失控的初级形态转向集中可控的架构级能力,在多应用共存的复杂环境中持续维持数据状态的统一与可信,为微前端的数据协同提供稳定的底层支撑。

GraphQL批处理与缓存共享的协同运转,构建起请求调度、数据缓存、全域分发的闭环治理体系,二者的耦合逻辑并非简单的功能叠加,而是相互赋能、深度融合的有机整体,批处理引擎为缓存层提供高质量、归一化的标准数据源,彻底避免碎片化请求带来的数据格式差异与字段冲突问题,缓存层则为批处理提供前置的命中校验能力,从源头大幅减少重复请求的触发频次。在多微应用并行加载的实际业务场景中,系统先通过共享缓存层完成同源数据的原子性命中判定,缓存命中时直接向各依赖微应用分发标准化数据,未命中时则由批处理引擎聚合所有待请求单元,生成单一高效的调度链路执行数据拉取操作,响应结果经归一化处理后存入共享缓存,再同步至所有依赖该数据的微应用。这一过程中,缓存命中的原子性判定与批处理的防重触发机制,成为保障协同稳定性的核心节点,让数据请求与缓存复用的衔接实现无间隙、无冗余,也让整个数据流转链路形成自驱式的效能优化闭环,持续降低系统的网络负载与计算消耗,让数据交互的每一个环节都能实现最优效率,彻底解决微前端架构中重复请求的行业痛点。

该技术方案在微前端架构中的规模化落地,需聚焦非功能维度的精细化优化与架构适配,批处理的效能发挥依赖合理的性能阈值动态设定,结合实时网络环境与页面渲染时序要求,动态调整请求聚合的等待窗口与最大聚合粒度,避免过度聚合引发的响应延迟问题,缓存共享则注重内存资源的轻量化管控,通过数据过期策略与懒加载机制,精准控制缓存存储的资源占用规模,同时将批处理拦截与缓存代理逻辑,无缝融入微前端的应用加载与全生命周期流程,不侵入微应用的核心业务代码,保持各应用的技术栈无关性与业务自治能力。实践中通过架构层的统一封装,让数据协同能力成为微前端基座的原生能力,无需各微应用单独适配改造,同时构建数据流转的全链路感知体系,让请求调度、缓存命中、数据分发的全流程可观测、可追溯,为后续优化与迭代提供精准的数据依据,保障方案长期迭代的可扩展性,也让微前端的数据治理能力具备持续演进的底层支撑,完美适配业务规模与架构形态的动态变化,为大型分布式前端体系的稳定运行保驾护航。

从技术实践的长期视角来看,GraphQL批处理与缓存共享的深度融合,并非临时性的性能优化手段,而是微前端数据治理体系的核心基础能力,这一方案解决的不仅是重复请求的表层问题,更构建了跨应用数据协同的标准化技术范式,让微前端架构从应用拼装的初级形态,升级为数据一体化的成熟形态。通过彻底消解数据孤岛与请求冗余,大幅降低系统的网络开销与渲染阻塞风险,全面提升整体用户体验与系统运行稳定性,其核心价值在于用极简的架构逻辑,解决分布式前端的复杂数据问题,回归技术服务于业务的本质。

物联网设备态联拓扑的规模化落地进程中,设备状态图的高效查询与控制指令的低时延调度,已然成为构筑全域物联交互体系的核心命题,传统物联查询接口的刚性范式,始终难以适配异构设备的态数据柔性获取需求,固定字段与固定接口的设计逻辑,无法匹配设备状态图动态变化的拓扑结构,更难以满足多场景下差异化的态数据拾取诉求,GraphQL以态联查询的独特技术特性切入设备状态图交互场景,彻底打破了固定接口与设备态拓扑的适配壁垒,其在设备状态图查询中的优劣势深度博弈,本质是态粒度定制化能力与物联链路客观约束性的动态平衡,而实时订阅机制对设备控制指令低延迟需求的实际适配能力,更是直接决定物联控制层整体交互效能的关键标尺。设备状态图并非单一的态数据简单罗列,而是涵盖设备本体运行态、集群协同联动态、环境感知关联态的三维拓扑化态联结构,GraphQL对这一复杂结构的解构与精准查询能力,从底层重构了物联态数据的交互逻辑,也让传统物联查询从被动适配场景转向主动建模需求,这一技术选型的深层思考,必须扎根物联场景的链路传输特性、终端算力边界、业务交互核心诉求,而非单纯依托技术表层特性做浅层次落地应用。态查询的柔性价值与物联场景的客观约束,共同构成了GraphQL在物联网场景中落地的核心考量维度,也让设备态查询与指令控制的协同交互,拥有了全新的技术探索方向,这种从技术本质到场景深度适配的全维度思考,也是物联网前端交互技术迭代升级的核心逻辑,更是区分技术炫技与工程落地的关键标尺。

GraphQL在物联网设备状态图查询中的核心优势,完全根植于态粒度的定制化拾取与态联拓扑的柔性解析能力,设备状态图本身承载着多维度、多层级的态数据信息,从设备基础运行态、功能模块工作态,到深层集群联动状态、环境关联响应态,不同业务场景对态数据的拾取需求存在极其显著的差异性,传统查询模式需要依托多接口拆分适配不同需求场景,极易产生态数据冗余传输、链路资源无效消耗、终端解析压力过载等一系列问题,GraphQL可依据实际交互需求,精准拾取设备状态图中的目标态字段,完全无需传输冗余无效数据,完美适配物联网终端带宽有限、算力薄弱、续航敏感的客观特性,同时其态联查询能力可深度解析设备状态图的拓扑关联逻辑,实现跨设备、跨集群、跨区域的态数据联动查询,统一异构设备的态查询口径,大幅降低多类型终端接入的适配成本与开发周期。设备状态图的态元数据自描述特性,还能让前端交互层快速感知态数据结构与关联关系,简化设备态可视化的开发流程,让设备状态图的查询从固定范式转向柔性建模,大幅提升物联态数据的传输、解析与渲染全链路效能,也为物联网设备态的精细化管理、全域化监控提供了核心技术支撑,这种按需适配、精准获取的查询特性,让物联网多终端、多场景、多协议的态数据交互拥有了更灵活、更高效的实现路径,也让物联感知层的数据采集效率实现了质的飞跃。

GraphQL应用于物联网设备状态图查询的显性短板,集中体现在复杂态联拓扑的解析开销与场景化适配的多重约束层面,设备状态图的拓扑关联越复杂、层级越丰富,GraphQL的态查询解析单元需要处理的关联逻辑就越繁杂,这一过程会持续消耗服务端与边缘节点的运算资源,在边缘算力受限、供电紧张的物联网场景中,解析开销会直接转化为态查询的响应延迟,进而影响物联交互的实时性与稳定性。定制化的态查询需求需要后端构建精细化的态联解析逻辑,每一次设备状态图的拓扑迭代、态字段新增,都需要同步调整解析规则,大幅提升了设备状态图的维护与迭代成本,不同物联网终端的算力差异、存储差异、适配能力差异,也让轻量级传感设备、低功耗终端难以适配复杂的态查询解析流程,形成柔性查询与终端适配性的核心矛盾。同时跨域态联查询的协同约束,会让设备状态图的跨节点查询面临链路损耗、节点跳转延迟等问题,进一步放大技术特性带来的性能短板,这些劣势并非技术本身的固有缺陷,而是GraphQL的柔性特性与物联网场景客观约束碰撞产生的适配问题,也是落地过程中需要重点攻克、分层优化的核心难点,这种技术特性与场景约束的天然冲突,也是物联网技术选型中必须直面、理性权衡的现实问题,无法通过简单的参数调整实现完全消解。

GraphQL实时订阅机制为物联网设备控制指令的交互提供了全新的技术实现路径,其依托持久化连接构建的态推送体系,彻底摒弃了传统轮询模式的资源浪费与时延损耗,成为适配设备控制指令低延迟需求的核心支撑能力,实时订阅可精准绑定设备状态图与控制指令的关联关系,当控制指令下发或设备态发生变更时,通过增量推送机制仅传输核心指令与变更态数据,大幅缩短数据传输的链路时长与载荷体积。在物联控制场景中,边缘节点可作为订阅中继节点,承接云端与终端的指令中转任务,进一步压缩指令传输的物理路径,降低端到端的响应延迟,订阅会话的轻量化管理机制,可支撑多设备、多集群并发的指令订阅需求,避免会话冗余带来的资源抢占与链路拥堵,同时指令与态数据的双向订阅交互,能让控制指令的下发与设备态的反馈形成完整闭环,保障物联控制的精准性与实时性。这一机制的核心价值,在于将传统的被动查询转为主动推送,让设备控制指令的交互逻辑完全贴合物联场景的低延迟诉求,也让物联控制层的交互效率实现了质的提升,边缘侧的本地化订阅处理,还能进一步降低云端依赖,提升指令响应的稳定性,即便在弱网、断网边缘场景中,也能保障核心控制指令的本地执行与状态同步,让物联控制的可靠性得到全方位保障。

GraphQL实时订阅对设备控制指令低延迟需求的满足能力,存在明确的场景化适配边界,并非能够全场景覆盖物联控制的严苛时延要求,在高密度设备集群的集中控制场景中,大量并发订阅会话会挤占传输带宽与运算资源,导致指令推送的链路拥堵、排队延迟,直接放大整体响应延迟。物联网场景的网络波动性、不稳定性,会直接影响持久化连接的稳定性,连接抖动、中断会直接打破实时订阅的低延迟保障,边缘节点的算力分配若偏向设备状态图的解析处理,会挤占控制指令的调度资源,形成查询与订阅的资源抢占矛盾,进一步加剧时延问题。不同协议物联网设备的指令转换环节,会产生额外的时延损耗,让高要求的低延迟需求难以落地,同时订阅机制的保活逻辑需要持续消耗链路资源与终端算力,在弱网、窄带环境中,保活机制的失效会直接中断指令推送,影响控制指令的实时传递与执行。这些适配边界的存在,要求实时订阅机制必须结合物联场景特性做定制化优化,而非盲目套用通用化的订阅逻辑,这种场景化的适配思考、差异化的策略调整,也是物联网技术落地的核心准则,更是保障控制指令低延迟需求落地的关键前提。

物联网场景中GraphQL的落地应用,需要依托场景特性制定差异化的选型策略与全维度优化方案,平衡设备状态图查询的优劣势,精准适配控制指令的低延迟需求,针对设备状态图查询,可采用分层态联建模的方式,拆解复杂拓扑的关联逻辑,简化解析流程,降低服务端与边缘节点的运算开销,针对轻量级终端、低功耗设备,简化态查询的解析流程,裁剪非核心功能,保障终端的适配性与运行稳定性。

Agent 搭建起来之后怎么让它真正变得越来越好?搭建完成后的优化就很少有人认真说过。

Agent Lightning 号称能把任何 AI Agent 变成"可优化的猛兽",而且几乎不用改代码。那问题来了,市面上 Agent 框架满天飞这个凭什么就不一样呢?

training gap

做过 Agent 部署的人大概都有同感:把 Agent 跑起来其实没那么难,真正难的是让它持续进步。

OpenAI 的 Agent SDK、LangChain 这类编排框架,原型设计和快速部署确实很拿手。几个小时就能让一个能用的 Agent 上线。但到了优化这一步,用真实场景的反馈去训练 Agent、提升它的表现基本就只能靠自己摸索了。

微软的研究人员给这个问题起了个名字叫"training gap"。开发环境里跑得好好的 Agent一碰到真实用户、边缘场景和领域特有的问题性能就打折扣。传统框架能给你的帮助很有限:手动调 prompt,手动改参数,然后顺带祈祷别有问题。

而Agent Lightning 的切入点就在这里,它把 Agent 框架和优化基础设施做了解耦。微软的说法是这套方案"可以无缝地为任何现有 Agent 启用模型训练,无需对 Agent 代码做任何修改。"

Agent Lightning 的工作原理

Agent Lightning 在现有 Agent 代码和微软的 verl 训练基础设施之间插入了一层客户端-服务器架构。可以理解为一个翻译层:把 Agent 的交互记录转化成训练数据,优化完参数再塞回去。

具体流程是:Agent 照常运行,什么都不用改,但每一次交互都会被 Lightning 客户端截获。数据会传到 Lightning 服务器,服务器端跑强化学习、自动 prompt 优化、监督微调这些手段,再把改进后的参数推回到 Agent 里。

特别值得说的是框架的兼容性:LangChain、AutoGen、CrewAI、微软自家的 Agent Framework都能接。团队管它叫"Lightning AI Agent 的终极训练器"。

安装也是直接一个pip命令:

pip install agentlightning


实际应用和用例

最有说服力的场景是 Agent 需要适配私有数据或者特定行业需求的情况。通用预训练模型处理常规任务还行,碰到公司内部流程、行业“黑话”、独特的业务逻辑,就容易出问题。

拿客服 Agent 举例:它得学会你公司特有的工单升级流程、产品的各种坑、跟客户打交道的语气和方式。传统做法是手写 prompt 然后盼着它能泛化到各种情况。换成 Agent Lightning系统能直接从真实客户对话中学习,拿解决率、满意度评分、各项业务指标来自动优化响应策略。

代码生成也是个很适合的场景:Agent 在跟你的代码库、编码规范、开发流程不断交互的过程中,Agent Lightning 能持续微调模型,让它越来越贴合团队的具体要求。

搜索和检索类应用也一样,Agent 需要弄清楚哪些信息源对哪类查询最有价值、怎么按用户偏好排序结果、什么时候该转人工,这些都可以在实际使用中不断优化。

竞争格局

Agent Lightning 进入的赛道已经很拥挤了,但定位上有明确的差异化。别人在卷 Agent 编排和模型服务,而微软选择切入的是一个几乎没人认真做过的方向:优化。

Agent 优化可以说是平台策略的自然延伸,通过解决那些单纯做模型或做编排的玩家解决不了的问题,把开发者留在微软的生态里。

而且Agent Lightning 没有被包装成 Azure 的专属服务而是直接开源,这既展现了微软对自身平台能力的信心,也说明他们对推动这个领域发展有诚意。

总结

AI Agent 行业一直在解决"怎么搭",却没认真回答"搭完之后怎么办"。而Agent Lightning 把开发和优化解耦这个思路填补了从 LangChain 到 AutoGen 这一批框架都没覆盖到的空白。

但是从版本能看得出来,0.1.2 版离生产级还有距离。但方向本身没问题,当 AI Agent 越来越多地承担关键业务,能持续从真实反馈中学习的 Agent 和不能的之间差距只会越拉越大。谁先跑通这条优化闭环,谁就拿到了下一阶段的门票。

https://avoid.overfit.cn/post/eea592726e5940c29d80fadf9908b2e6

by Mandar Karhade

我无论选择用“原图”还是“文件”的方式发送,保存下来的图片,EXIF 信息好像都是经过修改的
“图象拍摄时间”会变成图片发送时间,安卓苹果都能复现

试了下 QQ 就没这问题,还是说微信有我不知道的使用方式?
我这不算小众需求吧,能问候张小龙嘛

本文共 5200 字,阅读预计需要 6 分钟。

编程 IDE 赛道卷成红海,Cursor、Claude Code、Google AI Studio 各有拥趸。但 Copilot 在 2026 年依然稳坐月活第一的位置,它凭什么?

这篇文章,从我个人深度使用的体验出发,拆解 Copilot 的三个核心优势、三个明显劣势、以及六个核心特性的实战用法——帮你判断,它到底适不适合你。

一次 Cursor 账单,让我彻底想明白了

先说一件真事。

前几天,我在 Cursor Max 模式下,开了 Plan 模式,用 Claude Opus 4.6 重构一个项目的页面样式。

一次 Plan 制定,一次 Plan 修改,再加上按照 Plan 执行工作。

三个步骤,花掉了十几刀的 token 费用。

然后我算了一下,这三个步骤如果在 Copilot 里做,就是三次独立的调用。再乘以 Copilot 对 Opus 4.6 设置的系数 3,也就是消耗 9 次 premium request。

而 Copilot 每月 10 美金的订阅套餐里,有 300 次这样的调用额度。

换句话说,Cursor 里花十几刀干的活,Copilot 只扣了 9 次调用——连月度额度的 3% 都不到。

这个差距,让我彻底想明白了一件事:在长期、复杂项目使用的场景下,成本结构比单次能力更重要。

说实在的,我不是说 Cursor 不好。Cursor 在很多方面确实更强,后面会讲到。但作为一个每天都要写代码、调研资料、做内容创作的人,我需要一个成本可控的主力工具,而不是每次点「执行」后都要关注token用量。

三个让我留下来的理由

按次计费:O(1) 复杂度的成本控制

Copilot 最核心的竞争力,就是它的按次计费逻辑。

每月 10 美金的 Pro 套餐,包含 300 次 premium request。即使超额,每次也只收 4 美分。

这意味着什么?

它不会因为你用了最贵的 Claude Opus 4.6,就让你反复盯着 token 用量看。它只是出于成本考虑,让一次调用消耗 3 次 premium request 的额度——但费用不会随 token 用量上涨而上涨。

我喜欢用一个程序员都懂的类比:这就像 O(1) 复杂度的算法。

不管你输入多大,成本是固定的。

相比之下,Cursor 的计费更接近 O(n)——输入越大,token 越多,费用越高。Cursor Pro 每月 20 刀,Pro+ 每月 60 刀,Ultra 每月 200 刀,而且这些套餐背后还是基于用量的逻辑。

在大型项目的重构修改、大量资料调研,或者长上下文的内容创作中,Copilot 的开销可能只有按 token 计费的几十分之一。

对于经常要调用强模型做大型任务的开发者来说,这个差距是实打实的。

新模型第一时间支持 + 无限 Tab 补全

Copilot 对新模型的支持速度一直很快——只要厂商开放了 API,基本第一时间就能用上。

而且 GPT-5 mini 、Gpt-4o等的调用和 Tab 代码补全,在 Pro 套餐里都是无限次数的。

这个"无限"很重要。Tab 补全可能是你写代码时每分钟都在用的功能,随手做点修改,增添个函数,如果这个也限次数,那体验会非常割裂。Copilot 在这一点上没有扣扣搜搜。

当然也有例外。比如 GPT-5.3 Codex并没有支持,但是这个的原因是 OpenAI 延迟开放 API 的老传统,现在三方 IDE 都用不了。

GitHub 生态的原生力量

这一点经常被忽略,但其实很关键。

Copilot 背靠微软和 GitHub,如果你平常接触开源比较多,它的生态整合是相当完整的。GitHub 的 issue、PR、仓库索引,都是原生集成的,不需要任何额外配置。

Copilot 的 coding agent 在上线后的前 5 个月里,开发者用它合并了超过 100 万个 Pull Request。这个数字本身就说明了生态粘性。

另外,Copilot 对 Plan 模式和 Skills 的支持也做得不错。Plan 模式可以让模型先规划再执行,Skills 则是一个可扩展的工具提示词集合——比如 Anthropic 官方出的前端设计 Skill,可以显著提升 Copilot 做前端的效果。这些在后面的特性拆解里会详细讲。

三个不可忽视的缺点

说完优势,聊聊让我不太舒服的地方。

前端样式:Copilot 的"审美盲区"

这是最明显的短板。

Copilot 在前端样式、UI 设计这些方面,和 Cursor、Google AI Studio 的差距比较大。尤其是用 GPT 系列模型的时候,尤其是Codex,出来的页面效果。。。说实在的特别难评。

以下是我在copilot里,用GPT-5.1-Codex-Max,做的火柴人小游戏:

这个页面的设计审美真的有点过分了。。。

后来我接了 Anthropic 官方发的前端设计 Skill 之后,效果能好一些,但如果你真的要用 Copilot 做前端样式类的工作,最好还是切到 Claude Opus 来搞。包括写作,我个人体感更好的也是Claude的模型。

超大型任务:和 Cursor Max 的差距

Copilot 的 Agent 模式在超大型任务上的执行力,和 Cursor 有一点差距。

虽然我个人体感这个差距很小,日常使用几乎感觉不到,但是,Cursor 开启 Max 模式后,是能感觉出来的——同样的任务,同样的模型,Cursor 对复杂项目、复杂任务的精确执行和精确理解做得要好一些。

而且,除了Gpt-5.2 Codex,copilot对其他模型的上下文limit基本都是128K,这也是限制它超长任务执行能力的关键。

甚至 Cursor 还有多 Agent 竞赛的功能,可以让多个 Agent 同时尝试不同方案,然后你选最好的那个。

这个"更强"的代价,也许是几十倍的成本,但在一些场景下是真的有对应的收益的。

所以这事得看你怎么算账:是为了 5% 的精度提升花数倍甚至数十倍的钱,还是用 Copilot 把 90% 的活先干了,剩下多去迭代几轮或者自己上?

自定义规则和记忆:灵活度不够

Cursor 有 rules 这样的系统,能做到项目级的规则配置,还有记忆功能来记住用户的编程偏好——比如你喜欢用什么命名规范、偏好什么代码风格,它都能记住。基本接一个cursor-memory-bank,就能很方便的实现。

Copilot 虽然也有 .github/copilot-instructions.md,但说实话,灵活度和粒度上差不少。

这就好比一个能记住你口味的老厨师,和一个每次都要重新告诉他"少盐少油"的新厨师。做出来的菜可能差不多,但沟通成本差很多。

六个核心特性实战手册

说了这么多宏观的优劣势,我们来看看 Copilot 各个核心特性的具体用法。这部分比较实操,建议收藏。

1. Tab 补全:最成熟,也最容易被低估

Tab 补全是 Copilot 最早出名、也是最成熟的功能。订阅 Pro 之后无限次使用。

你在写代码的时候,它会实时预测你接下来要写的内容,按 Tab 就能接受建议。对于逻辑简单的函数,你甚至可以只写一行注释,然后靠 Tab 补全快速把代码写完。

这个功能有几个小技巧,很多人不知道:

第一,写好注释再写代码。 注释越清晰,补全质量越高。这其实就是在给模型做上下文工程——你的注释就是 prompt。

第二,打开相关文件放在旁边的 Tab 里。 Copilot 会自动把打开的文件当作上下文来参考。所以如果你在写一个调用其他模块的函数,把那个模块文件打开放旁边就行。

第三,Ctrl+右箭头逐词接受。 如果补全的内容只对了一半,不用全盘接受或全盘拒绝,按 Ctrl+右箭头可以一个词一个词地接受。这个技巧能省很多手动修改的时间。

2. Inline Chat:小范围精修利器

在代码里按 Ctrl+I(Mac 上是 Cmd+I),可以直接在当前位置发起一次对话。

适合小范围的修改,比如"给这个函数加上错误处理"、"把这段逻辑重构成异步的"之类的。

它的好处是改完直接有 diff 预览,你可以逐行审查,不满意就撤销。比在聊天窗口里来回复制粘贴高效得多。

很多人常用 Chat 面板做小修改,但其实微调切到 Inline Chat 效率更高也更精准

3. Ask 模式:纯对话,不动代码

Ask 模式就是侧边栏的对话窗口。在这里可以选模型、问问题、讨论方案。

它的特点是"纯对话,不动代码"——不会帮你直接改文件,但你可以引用工作区的文件给它

我的习惯是,把需要的文件直接选中后,鼠标拖到对话框里,省掉复制粘贴。

不过,Copilot 对工作区的文件都有访问权限,显式引用只是提醒模型重点关注。多个项目的话,从左上角把文件夹添加到工作区即可。

4. Agent 模式:核心中的核心

Agent 模式是各个编程 IDE 最核心的功能,也是 Copilot 用得最多的模式。

在 Agent 模式下,Copilot 可以自主地读文件、写文件、跑终端命令、分析报错,然后迭代修复,直到任务完成。

按次计费的爽感就体现在这里:即使迭代了特别多轮,它还是只收一次的费用。

另外一个很实用的细节:Agent 模式里可以控制模型可用的工具

比如你只想让它帮你解决部署问题但不修改任何文件,可以把文件编辑的工具禁用掉。

这在生产环境排查问题的时候特别有用,相当于强制禁止文件修改。

5. Plan 模式:复杂任务专属

Plan 模式是专门用来做复杂任务的。

它会强制模型输出完整的执行计划,并且从执行来看会启动一些子 agent 来做信息收集,防止主 Agent 的上下文过长。

关键是:在你点击「Start Implementation」之前,你可以和模型反复对话来修改计划。

即使你告诉它"现在开始执行任务",只要还在 Plan 模式下,它还是只做计划生成。

所以,「Start Implementation」本质上就是点击后,

1、帮你切换到了 Agent 模式,

2、把「Start Implementation」输入到输入框中

因此如果你读计划读得差不多了,自己手动切到 Agent 模式让它执行,效果是一样的。

我的习惯是:涉及复杂的、大量文件改动的任务,都先让它出 Plan,确认没问题了再放手让它跑。

6. Skills:各IDE的“杀手级”功能

Skills 是近两个月,copilot刚支持的功能。

在设置中打开 userAgentSkills 的开关,把 Skills 文件下载到指定路径下,模型就能读取和使用这些 Skills 了。

比如 Anthropic 官方出的前端设计 Skill,能显著提升 Copilot 生成前端代码的质量。这其实就是一套精心设计的系统提示词,告诉模型在做前端任务时应该遵循哪些设计原则和最佳实践。

写在最后:适合你的,才是最好的

总结一下这一期的内容。

Copilot 的三个核心优势:按次计费成本可控、新模型支持快、GitHub 生态整合强。

三个主要劣势:前端样式效果不好、超大型任务的执行力略逊、自定义规则和记忆能力不够灵活。

六个核心功能的使用方法:Tab 补全、Inline Chat、Chat 面板里的 Ask、Agent 和 Plan 三种模式,以及 Skills。

这些优缺点都很明显,没有哪个工具是完美的。关键是匹配你的场景。

我个人的建议是这样的:

1、如果你经常做大型的后端项目,且频繁调用比较强的模型来做重构、修改之类的工作 → Copilot 的按次计费逻辑会帮你省非常多的钱。这是它最核心的优势。

2、如果你追求极致的执行精度,不太在乎 token 开销 → Cursor 开 Max 模式确实体感更强,甚至可以开启多 Agent 竞赛的功能。但月均开支要做好心理准备。

3、如果你更多是做小的演示 demo 或者 UI 设计 → Google AI Studio 也许更适合你。免费额度够用,从想法到可运行的小项目特别快。

**总之,我的建议是组合着用。**Copilot 当主力省成本,Cursor Max 当精度补刀,Google AI Studio 做快速验证。

这套组合拳打下来,性价比是最高的。

既然看到这了,如果觉得不错,随手点个赞、收藏、转发三连吧~

我是Carl,大厂研发裸辞的AI创业者,只讲能落地的AI干货。

关注我,更多AI趋势与实战,我们下期再见!

image

我做了一个 openclaw_qq 插件,用来把 QQ (基于 OneBot v11 )完整接入 OpenClaw 。
目标不是“能聊就行”,而是能长期稳定跑在群里、可控、可运维。

项目地址: https://github.com/constansino/openclaw_qq

这项目能做什么?

  • 支持 QQ 私聊 / 群聊 / 频道( Guild )消息接入
  • 支持 @触发、关键词触发、回复机器人触发
  • 支持管理员指令(如状态、群管动作)
  • 支持图片消息解析与发送(含 Base64 场景优化)
  • 支持风控友好的分段发送、频率控制、去重
  • 支持 admin-only 、防盗刷、黑名单、拦截提示防抖
  • 默认使用 OpenClaw 会话系统管理上下文( historyLimit=0 )

我们这版做过的关键改进

  • 修复 QQ 会话路由问题,避免和其他通道(如 TG )记录混淆
  • 修复管理员权限判断顺序(先触发判断,再鉴权),降低群聊噪音
  • 修复非管理员提示循环/重复提示问题,新增可配置防抖时长
  • 黑名单支持稳定输入与保存(支持 Web 表单/Raw/CLI 常见写法)
  • 文档补全:管理员、黑名单、防盗刷的 CLI 实战配置
  • NapCat Docker 部署模板和示例更完整
  • 清理敏感配置管理:.env 改为本地文件 + .env.example 模板

适合谁用?

  • 已经在用 OpenClaw ,希望把 QQ 作为主要入口
  • 有群聊运营需求,担心 token 被刷
  • 需要可运维(配置、日志、重启、权限策略)而不是 demo 方案

推荐配置(防盗刷最小集)

openclaw config set channels.qq.admins '"1838552185"' --json
openclaw config set channels.qq.adminOnlyChat true --json
openclaw config set channels.qq.blockedUsers '"3425712164"' --json
openclaw gateway restart

说明:本插件里 admins / blockedUsers 使用字符串列表存储,CLI 建议始终 --json 。

已知说明

  • OpenClaw Web /config 页面在某些情况下会出现整包校验报错(看起来像改 QQ ,实际是其他字段类型问题)
  • 相关英文 issue / PR 已提到 OpenClaw 主仓库并跟进中
  • 实操建议:涉及 QQ 管理名单时,优先走 CLI 改配置更稳

欢迎大家反馈使用场景和问题,我会继续迭代(尤其是跨端体验和可观测性)。

小公司催着年后马上入职,已经争取到 3 月再入职。
大厂有两家正在走流程,但怕有风险,要先入职吗。
就怕先入职进了小公司再走简历花了,以后跳槽背调麻烦。
另外也怕大厂 offer 会凉,之前就有一家面了一个月在最近说 hc 没了。

一、准备工作

  1. 获取安装包:从指定链接下载JDK 22安装包至电脑(链接:https://pan.quark.cn/s/09ba1b00f415

二、安装步骤

  1. 解压安装包:右键点击下载的安装包文件,选择【解压到当前文件夹】(建议解压至非系统盘,如D盘,避免C盘空间不足)。
  2. 进入安装目录:打开解压后的【JDK22】文件夹(可通过资源管理器直接双击进入)。
  3. 启动安装程序:找到【JDK-22.0.2_windows-x64_bin.exe】文件,右键选择【以管理员身份运行】(管理员权限可避免安装路径写入失败等问题)。
  4. 确认安装路径

    • 弹出安装向导后,点击【下一步】;
    • 保持默认安装路径(或自定义路径,建议路径不含中文/空格),再次点击【下一步】。
  5. 等待组件安装:安装过程中会显示“正在更新组件”,耐心等待进度完成(约1-3分钟,无需额外操作)。
  6. 完成安装:组件更新完毕后,点击【关闭】退出安装向导。

三、验证安装成功

  1. 打开命令提示符:按下快捷键 Win + R调出“运行”窗口,输入 cmd并点击【确定】(或按回车)。
  2. 检查JDK版本:在命令提示符窗口中输入 java -version,按下回车键。若显示类似以下信息,说明安装成功:

    java version "22.0.2" 2022-07-19  
    Java(TM) SE Runtime Environment (build 18.0.2+9-61)  
    Java HotSpot(TM) 64-Bit Server VM (build 18.0.2+9-61, mixed mode, sharing)

     title=

注意事项

  • 若需配置环境变量(如JAVA_HOMEPath),可根据实际需求补充设置(JDK 18默认可能已自动配置基础环境,通过java -version能识别即无需额外操作)。
  • 安装路径建议简洁(如 D:\Program Files\Java\jdk-22.0.2),避免后续开发工具引用时出错。

Mac mini M4 Pro ( 12+16 核)( 24+512GB )运行生化危机 4 重制版( Steam 平台没有 macOS 版)。

CrossOver 版本为 26 ,分辨率 1080P 画质选项为平衡 FPS 能到 80

此前 25.1 版本还不能稳定 60FPS

看来这次优化挺大的,对 macOS 的游戏突然有些信心了

 

SuperScan4是 SuperScan 4​ 的单文件扫描工具,主要用来做端口扫描、主机存活检测,网管、搞安全的、测试网络连通性的人常用它快速扫一批 IP,看哪些机器开着、哪些端口开着。

它是绿色单文件,所谓的“安装”其实就是准备好环境、直接运行,下面用大白话一步步说。

一、准备工作

  1. 下载 SuperScan4.exe

    安装包下载:https://pan.quark.cn/s/56173e5006cb

  2. 确认系统版本

    • 支持 Win7/Win10/Win11 等常见 Windows 系统,老版本在 Win10/Win11 可能需要右键“以管理员身份运行”才能正常扫。

二、“安装”步骤(其实就是运行准备)

SuperScan4 是绿色单文件,不用像普通软件那样一步步装,只要保证能打开并正常使用:

  1. 把下载好的 SuperScan4.exe放到一个固定文件夹,比如 D:\Tools\SuperScan,别放桌面容易误删或丢失。
  2. 右键 SuperScan4.exe→ 选“以管理员身份运行”(有些系统不提权会出现权限错误或扫不到结果)。
  3. 如果是 Win10/Win11,会弹出“用户账户控制”提示 → 点  “是”
  4. 第一次打开可能界面比较简单,直接就能用,不需要额外装插件。

三、基本使用方法(简单说两句)

  1. 打开 SuperScan4.exe → 在 “IP 范围” 里填要扫的地址段,比如 192.168.1.1-192.168.1.254
  2. 选端口范围:

    • 默认会扫一些常用端口,也可以自己填,比如 1-1000或单独 80,443,3389
  3. 点  “Start” (开始)按钮 → 等扫描结果出来,会列出存活的主机和开放端口。
  4. 可以导出结果或复制到记事本保存。
  5. 扫的时候别一次性扫太大范围,尤其是外网,容易被认为攻击,还可能被防火墙拦截。

开源项目每次下下来都要改代码去代理。配环境变量 https_proxy ,wsproxy ,clash 全局都没用。
都得改代码才能走代理。 特别是 ws 的 更麻烦,还走走 socks5 协议;

背景

我通过 OpenClaw 接入 HodlAI ,使用的是 hodlai/claude-sonnet-4.5

遇到的问题

在对话进行到一定长度后,请求开始被拦截,返回如下错误:

400 Request blocked: context too large (estimated 50012 tokens, limit 50000
without cache). No cache available: tools: not_cached. Reduce context or send
smaller requests first to warm up cache.

从这条错误信息可以看到,HodlAI 的上游中继层对单次请求的上下文设置了 50000 token 的硬限制。而 Claude Sonnet 4.5 原生支持 200k+ 的上下文窗口,所以这个限制是代理层设置的,不是模型本身的限制。

想请教的几个问题

1. 这个 50k 限制有文档说明吗?

我在 README 、文档、定价页面都没有找到关于 50000 token 上下文限制的说明。如果有的话,能指一下在哪里吗?如果目前没有的话,能否考虑在文档中标注一下?这样用户可以提前在客户端做好配置,避免踩坑。

2. 有缓存时的限制是多少?

错误信息提到 limit 50000 without cache,那有缓存的情况下限制是多少?缓存的触发条件是什么?有没有最佳实践可以分享?

我相信很多人在最近一个月都被一款叫作 OpenClaw 的 AI 工具刷屏了。据社交平台发布和社区早期讨论,这款工具曾经历过多次命名调整,最终定名为 OpenClaw。在更名期间,还发生了社交平台账号被恶意抢注,并通过发行名为 $CLAWD 的 meme 币来「割韭菜」的事情,让 OpenClaw 这款工具的诞生过程更加充满了戏剧性。

对于像我种典型的移动互联网时代用户,遇到问题时的下意识举动就是寻找各种软件来满足自己的需求。在使用了两周多的 OpenClaw 后,我发现自己的习惯悄然发生了变化,一步一步成功地将自己的工作流在 OpenClaw 上重新构建后,OpenClaw 已经成为了我解决数字生活需求的第一选择。

在这篇文章中,我将从 OpenClaw 是什么、怎么装开始说起,并分享一些我自己使用的场景和技巧,希望对有兴趣尝试的人能提供一些帮助。

OpenClaw 是什么?

OpenClaw 并非一个单纯的大语言模型,也不是一个单纯的 Coding CLI,它其实是一个运行在本地的「数字生命中枢」,可以成为我们的个人 AI 助手,也可以胜任公司中的部分工作岗位。它支持通过 Skills / 工具集成扩展能力(含 MCP 场景),通过驻留在 Mac mini 或服务器上的 Gateway 实现跨平台接入与异步调度。无论身处何地,你都能通过各种即时通讯工具与之即时互动。

与此同时,所有在 OpenClaw 中产生的记忆、文件索引和个人习惯都储存在你自己的本地工作区(Memory.md、索引数据库、Skills 脚本等)中,在本地部署场景下,你对数据有更高的可控性,也更容易做权限和备份管理。

OpenClaw 怎么装?

安装 OpenClaw 的容器有很多种选择,目前最热门的是 Mac mini,原因主要有三个:一是支持 7×24 小时不间断运行且功耗低;二是在 Apple 生态中可以方便地调用 Apple Reminders、Apple Notes、Apple Calendar 等相关 Skill;三是硬件配置本身性价比较高,16 + 256GB 的版本在电商平台的售价虽然常有波动,但是截至写作时,不少渠道已接近 3000 元档,而 M4 芯片和 16GB 起步的统一内存也让电脑性能有上佳的表现。

除了 Mac mini,OpenClaw 其实也支持安装到 Windows、Linux 等不同操作系统的设备上。如果你不想把 OpenClaw 安装到本地,各大云服务厂商(比如说腾讯云、阿里云、Cloudflare、Digital Ocean 等)都推出了专属的云服务器镜像,同样支持快速部署 OpenClaw。

OpenClaw 总体上分为了 One-liner、npm、Hackable 和 macOS 客户端四种安装方式,其中 One-liner 可以切换 macOS / Linux 和 Windows 等平台,npm 可以分为 npm 和 pnpm 两种方式,Hackable 也分为 installer 和 pnpm 两种方式,每种分发途径都对应了不同的终端指令,大家根据自己的需求选择安装即可。

安装完成后,OpenClaw 会自动执行 openclaw onboard --install-daemon 指令来进行具体配置,一般情况下选择默认选项即可,而需要你具体配置的主要是四个部分:

第一个部分,选择 AI 服务提供商和具体使用的模型。大部分服务提供商提供了 OAuth 授权认证和直接输入 API 这两种方式,对应了不同的计费方式。

以 Google Gemini 模型为例,如果你选择 OAuth 认证,那么就可以通过 Antigravity 来使用 Google Gemini 3 Pro、Google Gemini 3 Flash、Claude Opus 4.5 和 Claude Sonnet 4.5 等模型,每五个小时刷新一次额度;如果你选择了 Google API,那么就需要到 Google AI Studio 或者 Vertex 创建一个 API Key 来使用,根据 Token / Prompts 的使用量来计费。AI 服务提供商验证通过后,你就可以从服务商提供的模型列表中选择一个你喜欢的模型。

第二个部分,配置与 OpenClaw 进行通信的 Channel。如果你选择了一些海外的即时通讯工具,那么在配置的过程中很容易出现问题,导致 Gateway 启动失败。这个时候,你有三个选择:1. 放任失败,先完成整个配置流程,稍后让 AI 来辅助你修正;2. 直接跳过 Channel 配置,先进入下一步;3. 选择一个国内的即时通讯工具,比如说飞书。

第三个部分,选择并安装 Skills。用方向键移动,用空格键选中或者取消选中,最后按下回车键安装。如果你不想在这一步花费太多时间,完全可以跳过等稍后再安装 Skills。

最后一个部分,Gateway 会启动,并让你选择 TUI、Web UI 等控制界面,自此 OpenClaw 初步配置完毕。如果你是 macOS 用户,你也可以选择安装官网的 Companion App,它是一个运行在菜单栏的辅助工具,可以对 OpenClaw 的配置进行方便的更改,或查看 OpenClaw Gateway 的运行情况,也可以直接与 OpenClaw 对话。

OpenClaw 模型怎么选?

截止成稿时,OpenAI 新推出了 ChatGPT 5.3-Codex,Anthropic 新推出了 Claude Opus 4.6,通常被认为是当前最强梯队的两个模型。

如果你不缺钱,也有稳定的途径订阅官方的付费套餐,那么 ChatGPT Pro 和 Claude Max 自然是最好的选择。如果你没有合适的支付渠道,或者担心被封号,那么也可以通过 OpenRouter 这样的聚合服务商来按照 Token 计价使用这两个最强模型,不过性价比自然就低了许多。

我相信很多人最近趁着 Google的优惠订阅了 Google AI Pro 或者 Ultra 的家庭计划。这种情况下,你有两种选择:一是通过 Google Antigravity 进行 OAuth 授权认证,认证通过后可以使用 Gemini 和 Claude 的模型,每隔一定时间进行额度刷新。不过我自己用下来,发现这种方式很容易出现 rate limit,特别是 Claude 模型,体验不佳;二是直接去 Google AI Studio 申请一个 API,通过 API 来按 Token 计价。最近 Google 又给 Pro / Ultra 订阅用户送了 300 美元的一次性额度和每月 10 美元的额度,应该够你用好一阵子了。

如果你不想花这么多钱在 ChatGPT 或者 Claude 模型上,也搞不定 Google 的付费订阅,那么不妨试一试国产模型。为了测试 OpenClaw,我特意订阅了 MiniMax 和 Kimi 的 Coding Plan,这段时间用下来还是令我有点惊喜,两者最新推出的模型 MiniMax 2.1 和 Kimi K2.5 也都先后被 OpenClaw 的开发者 Peter 本人所推荐。

从我个人的使用体验和 X 上网友们的反馈来看,Kimi K2.5 的工程能力要比 Minimax M2.1 好一点,基本上所有项目都能顺利跑起来。不过,MiniMax M2.1 也有优势,那就是套餐价格更便宜,119 元就能买到顶配套餐,而 Kimi 需要 199 元。响应速度上,我觉得 Minimax M2.1 比 Kimi K2.5 更快一些,适合一些比较轻量级的任务。根据我自己的使用情况,Kimi Code 每月 99 元的 Moderato 套餐不到五天我就用完了,所以要主力使用的话还是需要上 Allegretto 套餐。

综合来看,我认为现阶段性价比最高的付费方案是订阅 ChatGPT Plus 套餐,每个月 20 美元的价格就可以使用 GPT-5.3 Codex 这个 T0 级别模型,目前 OpenAI 还推出了两个月内可以在 Codex App 中享受双倍额度的活动。

在对比多个主力模型后,我认为 GPT-5.3 Codex 给到的综合体验最好,速度和质量相对更均衡,也更适合我做历史项目的代码审计与重构。很多其它的模型虽然可以帮我做出来一些项目,理论上也的确跑得通,但是潜藏了诸多问题在里面,用到后面会逐渐暴露出来。

如果你想使用另一个 T0 级模型 —— Claude Opus 4.6,又搞不定 Claude 订阅或者担心被封号,那么可以通过 Google Antigravity 来使用(目前需要订阅 AI Ultra 套餐,Pro 套餐暂不开放 Claude Opus 4.6 模型),虽然 Claude 模型的额度比较少,但是轻度体验一下或者作为 Subagents 之一承担一些重要但消耗 Token 较少的任务也未尝不可;如果你搞不定这些海外模型服务的订阅或者 Credits 购买,那么直接用 Kimi、MiniMax、Qwen 这些国产模型也是一个不错的选择,至少把 OpenClaw 跑起来轻度体验一下没有什么问题。

如果你非常注重个人隐私,或者自己的设备性能强大,那么使用本地模型也是一个不错的选择。你可以通过 Ollama 服务来安装一些本地 AI 大模型,比如说 DeepSeek V3.2、qwen3-coder-next、gemma3 等,然后在 OpenClaw 中选择调用 Ollama 本地模型,这样能省下一笔不菲的费用。

如果你只是想简单体验一下 OpenClaw,并不想额外花钱订阅 AI 套餐或者购买 Credits,那你也有不少免费的模型可以选择。比如说英伟达就推出了 Kimi K2.5 的试用活动,可以通过这个链接申请 API Key 并直接在 OpenClaw 中使用。OpenRouter 近期也推出了一个名叫 Pony Alpha 的模型,可以在 OpenClaw 中免费使用,不过代价是作为免费测试模型它会上传所有的请求和输出数据,用来训练模型。

OpenClaw 有什么用?

准备的篇幅已经酝酿得足够多,接下来我来展示一些 OpenClaw 的实际使用场景,以解答大部分人心中的疑惑:OpenClaw 有什么用?我会把这些使用场景分为基础型和进阶型两个部分,方便大家根据自己的需求快速阅读。

注:以下能力多数基于我的实际配置与脚本编排实现,不同读者因模型、技能、权限和网络环境不同,效果可能存在差异。另外,出于个人使用场景和隐私安全考虑,最后两个进阶型的使用场景来自于网络分享,请大家酌情参考。

基础型

聊天机器人

没错,和 OpenClaw 的对话与我们熟知的聊天机器人在交互上看起来没有什么区别,就像你在 Gemini、ChatGPT 的网页或者客户端中所做的事情一样,你也可以在 OpenClaw 中提出问题或者发出指令,让大语言模型做出回答或者输出结果。

接入飞书后,你可以在 iPhone、iPad、Android 手机、Mac 电脑、Windows 电脑等不同的平台上与 OpenClaw 对话,所有的聊天记录都可以实现实时的同步和储存。OpenClaw 可以基于你的具体配置将对话信息沉淀为记忆,并在后续的对话中随时调用。

现在,我已经习惯了通过 OpenClaw 来获取信息或者进行研究分析,一方面它可以聚合多个 AI 模型服务,随时切换调用,另一方面像飞书这一类 IM 工具在对话场景下拥有比 AI 应用更好的界面交互体验。比如说,我会在 OpenClaw 上与 Bot 交流自己的投资思考、查询地址邮编、总结文档内容、抓取 X 贴文内容等,感觉一天到晚有说不完的话。

编程小能手

大语言模型在 2025 年的进化已经完全证明了零编程基础的人也可以轻松完成以往遥不可及的编程工作,这就是 2025 年风靡一时的概念 —— Vibe Coding。随着 Claude Code、Codex、Antigravity 等工具的推出,以及 Xcode 也支持了 ChatGPT 和 Claude 模型来进行 AI 编程,像我这样的普通人也获得了亲手打造产品的能力。

想象一下,你自己就是一个产品经理,这些顶级的 AI 模型就是全栈工程师,你只需要不断地把自己的想法描述给工程师,它就会帮你完成所有的编程工作并交付给你。

不过,Claude Code、Codex、Antigravity 这些工具都需要在电脑上操作,除非你通过 Tailscale 或者向日葵等工具远程到电脑上,再操作终端工具进行编程,体验不是很好。OpenClaw 的出现,让远程 AI 编程变得如此简单。我在世界上任何一个地方都可以通过飞书和自然语义来下达指令,飞书这个 Channel 会连接到我电脑上的 Gateway,然后将指令传达给 OpenClaw 服务,并操作终端完成各类编程工作,最后将结果又通过 Channel 返回给我的飞书。

比如最近我将 iPhone 上的主力输入法换成了「仓输入法」,但对默认皮肤不甚满意。我找了一个现成的 hskin 皮肤文件直接丢给 Bot,让它根据我的审美习惯对皮肤代码进行精准调整。调整完成后,我直接在手机上导入生成的皮肤文件即可,整个过程甚至没动过电脑键盘。

定制新闻官

我们现在的信息获取渠道已经被大平台和算法裹挟,失去了对来源的掌控,这个时候 RSS 复兴成了一个热门的话题。借助 OpenClaw,我们可以绕开那些订阅费用昂贵的 RSS 服务,直接打造一款更适合自己的 RSS 阅读服务。

第一步,定制自己的专属 RSS 列表。你可以把自己常看的 RSS 订阅链接直接发给 OpenClaw,也可以让 OpenClaw 直接根据关键词自己去找订阅链接,或者像我一样直接把现成的 OPML 文件甩给它。

第二步,建立 RSS 抓取机制。我让 OpenClaw 帮我创建了一个抓取 RSS 内容的脚本,只保留文本内容并以 Markdown 格式储存,然后只保留最近两天的文章并自动清空历史文件。

第三步,建立文章筛选机制。如果 RSS 订阅源太多或者推送的文章太频繁,我们可以让 OpenClaw 帮我们进行自动筛选,可以根据文章主题、作者、网络热门度等关键信息建立一套专属于自己的筛选机制。

第四步,建立文章推送机制。在筛选完成后,我让 OpenClaw 帮我创建了一个 cron 任务,每天晚上固定的时间把当天的文章在经过筛选后按照固定的模板推送给我,还可以直接让 OpenClaw 在推送中总结每一篇文章的概要,我可以扫一眼确定自己感兴趣的文章,再跳转原文进行精读。

如果你不喜欢看图文的文章,你甚至还可以让 OpenClaw 帮你自动把当天的推送内容制作成播客节目或者视频内容发送给你,相当于你自己开了一个电视台或者自媒体公司,你自己能决定当天的播放内容。

写作小帮手

OpenClaw 的出现,可以说重新整合了我的写作工作流。虽然我已经从去年开始就尝试使用 AI 来帮助我进行资料搜集、事实核对、内容校对润色等工作,但是因为平台切换、模型变更、功能更新等原因让整个流程变得支离破碎。

在 OpenClaw 上,我创建了一个写作专属的群组,来完成我的整个写作流程中 AI 协作的部分。在写作时,我会打开飞书的 Writing Master 群分屏放在左侧,把 iA Writer 的编辑窗口分屏放在右侧。

写作前的准备阶段,我会让 Claw 帮我搜集一下写作主题相关的信息,反复核对内容的可靠性,然后根据内容整理成一个概要,并给每一条信息标注信息来源,方便我手动核对。

在写作的过程中,如果我需要查询一些信息,我也会直接问 Claw,可以马上得到一个满意的回复,同时免去了切换工具或者窗口的麻烦,不会打断我的写作心流。

初稿完成后,我会让 Claw 帮我进行校对和润色。我让 Claw 帮我创建了一个 Skill,可以通过「帮我核对 / 润色文章:XXX」这样的组合直接让它读取我的 iA Writer 本地文件库,找到匹配的文章后开始核对和润色。OpenClaw 会帮我检查错别字、语病,还会帮我指出文章中表述不够严谨的地方,同时给出修改的建议。

进阶型

Notion 外置大脑

我原本订阅了 Notion 的 Business Plan,可以通过内置的 Notion AI 来直接操作整个 Notion Workspace 里的内容。Notion AI 最大的优势是名义上可以无限制地使用 Gemini 3 Pro、Claude Opus 4.6、Claude Sonnet 4.5 和 GPT 5.2 这些最顶级的模型,而且在今年一月份之前升级的用户可以一直以 10 美元/月的价格订阅。缺点就是你只能在 Notion 里使用这些 AI 模型,所以使用场景有限。

后来,我发现 OpenClaw 原生支持 Notion Skill,即使是免费版本的 Notion 也可以通过 Connection 被外部的 AI Agent 控制。所以我取消了 Notion 的订阅,改用 OpenClaw 来操作 Notion 中的内容。我在 OpenClaw 中创建了一个 cron 定时任务,每天帮我从 Notion 的单词数据库中根据记忆算法来挑选五个单词,并通过固定的模板推送给我。我在完成记忆后可以对这五个单词的熟悉程度进行打分,然后 OpenClaw 会把这个分数和复习次数又录入到 Notion 的单词数据库中,循环进行下一次挑选。如果我平日里遇到了一些生词,我也可以直接发送给 OpenClaw,让它帮我添加到 Notion 的单词数据库中,同时自动填写音标、词性、释义、助记词根、助记方式等单元格属性,这样我就可以有源源不断地单词可以记忆学习。

控制浏览器

OpenClaw 可以作为一个 AI Agent 来控制我们电脑上的浏览器,帮助我们自动完成一些 UI 交互上的操作。

开始之前,我们需要通过终端指令 openclaw browser extension install 来安装 Chrome 浏览器的插件。安装好后点击浏览器右上角的插件图标,确保这个插件在当前网页处于启用状态「图标会显示 ON),接下去我们就可以指挥 OpenClaw 在浏览器上干活了。

比如说我在小红书上发现了一个宝藏博主,想把他所有的帖子都抓取下来学习一下。小红书作为一个国内的社交平台,自然是不可能通过 API 来提供这些数据,也不能像 X 一样通过 Skill 来进行查询、发帖、搜索等操作。于是,我就操作 OpenClaw 直接控制浏览器来「手动」抓取这些小红书帖子,虽然速度慢了一点,但是至少不用我自己去频繁地点击鼠标。不过,小红书的反爬机制还是有点烦人,抓取的帖子一多就会强行返回首页。

当然,如果你放心的话你也可以让 OpenClaw 帮你清理邮箱、回复邮件,或者帮你订一张去巴黎的机票。如果你不放心的话,就不要安装这个浏览器插件了。

AI 手机

前段时间豆包手机引起了非常热烈的反响,用户可以在手机上通过语音来控制豆包模型直接操作手机上的应用,比如说点一杯奶茶、刷一会儿短视频、领取红包等。既然 OpenClaw 也有 Agent 的能力,所以网友们动起了心思。

我在 X 上看到了一个帖子,视频里一个外国网友魔改了一台 25 美元的安卓手机,他在手机上通过 Termux 安装了 OpenClaw,然后就可以通过 OpenClaw 来进行控制手电筒、通过摄像头识别物体、读取数据传感器数据等操作。

开发者本人玩法

OpenClaw 的开发者 Peter Steinberger 在一个访谈中也聊了聊他本人的用法,包括了调整床垫温度、播放音乐、调整灯光、查看摄像头画面、查询快递进度等。具体的玩法可以参考视频中的访谈详情,视频来自于傅盛的 X 贴文

OpenClaw 的使用技巧

OpenClaw 是一个诞生不久的开源作品,至今还保持着高强度的更新频率。除了迭代新的功能,OpenClaw 的更新还不停地在修复 bug,而我的言外之意就是 OpenClaw 这个产品其实还不成熟,我们在使用的过程中会遇到各种各样的问题。不管你是不是一个资深的开发者或者具有极强的编程能力,我都建议把 debug 这件事情交给 AI Agent 来干,不用自己动手的事情,何乐而不为呢?

为了让 OpenClaw 更加好用、更加稳定,我在这里分享一些使用技巧方面的思路,具体的操作大家就直接交给 AI Agent 去干就行了。当然,你也可以直接把这个章节的内容复制粘贴给 AI Agent,让它按照这个思路提出相应的解决方案,等你同意后直接执行。

创建群组

当你配置好 OpenClaw 后,你是在和你的 Bot 进行私聊,所有的对话都是在私聊中进行,私聊中的所有对话都会被记忆下来,Bot 在和你对话的时候就会不停地从记忆文件中调用关联的信息进行回复。时间一久后,你的记忆文件就会越来越冗长且杂乱。

为了避免上述情况出现,也为了让我们在不同的使用场景下有更加干净清爽的时间线,我推荐大家创建多个群、频道或者话题,然后把你的 Claw 机器人拉到这个群里,设置不同的名称和头像,然后你就可以在各个群里进行各个专用场景下与 OpenClaw 的对话了。

默认配置下,你在群组里和 Claw 机器人对话时需要输入 @Claw 的字样(比如说我的机器人叫 adawinterbot,所以我在每次发送信息时带上 @adawinterbot 才能让 OpenClaw 服务器接收到你发在群组里的信息,OpenClaw 接收到信息后会在你发送的消息上添加一个 👀 的 emoji。

如果你懒得每次输入时都加上 @Claw 的字样,记得让你的本地 AI Agent 或者 OpenClaw 本身对群组的配置进行修改,支持 @Claw 和直接对话两种输入方式。

另外,你在和 Claw 机器人的私聊中完成的一些配置,比如说模型选择、skill 调用等,也记得让 AI Agent 帮你拓展到各个群聊中。

Token 降本增效

如果你使用的是付费订阅的 AI 套餐或者按照 API 实际使用来计费,那么一定会遇到 rate limit 或者账单快速增长的痛苦。这个时候,我们就要对 OpenClaw 消耗 token 这个件事情来进行「降本增效」了,一方面可以降低我们日常使用 OpenClaw 的 token 消耗速度,另一方面可以通过精简上下文长度来提高输出的效率。

第一个方式,是勤用 /new/compact 指令。前者可以开一个全新会话,上下文基本清空,相当于「重开一局」,适合换话题、避免旧上下文干扰的情况;后者会在当前会话内压缩上下文,保留关键信息但减少 Token 占用,让对话继续且更省资源,适合同一任务聊久了想「瘦身」;如果你想既换新会话又想尽量延续信息,可以在发送 /new 后加上一句 延续上个任务:XXX。我让 OpenClaw 帮我设置了每天凌晨 4 点自动执行 /new  指令的脚本,可以明显降低上下文累积,供大家参考。

第二个方式,是启用 OpenClaw 内置的 QMD。这个服务提供了一个记忆检索中间层的作用,它可以在每轮对话前,先从历史记忆里挑选最相关的片段,再把这些片段注入给模型,帮助 OpenClaw 在记住长期上下文的同时控制 Token 成本。你可以直接让 OpenClaw 帮你启用 QMD,同时根据平衡、节省、性能三个不同的档位来调整每次最多记忆条数、每条记忆截断数量、检索超时时长等参数。

Subagents

不知道大家最近有没有注意到 Claude Opus 4.6 发布时推出的一个全新功能,叫做 Agents Team,它可以创建一个「主代理 + 多个子代理并行」的机制,主代理负责拆分、派发和汇总任务,子代理则拥有相对独立的上下文,可以在接收派发的任务后并发进行前端、后端、测试、审计等操作。

OpenClaw 也原生支持了通过会话 / 编排实现子代理协作的功能,不过和 Claude 这个官方功能比起来可能有点不同。你可以让 Claw 帮你创建一个类似于 Claude Agents Team 的功能,根据你添加的模型来构成一个进阶版的 Subagents 系统。

相较于 Agents Team 的官方内核级子代理互调,OpenClaw 的 Subagents 只能通过自己编排的脚本来实现由 orchestrator 控制各个子代理。至于怎么编排互调的机制,直接告诉 OpenClaw 你的想法,让它来构建即可,如果你没有什么头绪的话,直接让 OpenClaw 按照它的方案来完成。

语音输入和输出

在移动端与 AI 进行交互时,语音已经是不可或缺的一种输入和输出方式。

在输入端,我们可以让 OpenClaw 安装一下 Whisper without API 的 Skill,然后创建一个收到语音自动调用这个 Skill 进行转写的脚本。这样一来,我们在飞书里可以直接发送语音,OpenClaw 在接收到后就会自动完成转写并执行相应的任务。其实一些 IM 工具自带了语音转写的功能,不过 OpenAI 的 Whisper 工具可以支持更多的语言以及多语言混合输入,转写的效果会比 IM 工具自带的语音转写更好。

在输出端,我们可以让 OpenClaw 安装 edge-tts 的 Skill,它可以把所有的文字内容自动录制成音频发送给我们。目前,edge-tts 提供了男声和女声两种选择。你可以让 OpenClaw 设置所有文字回复都自动录制成音频,也可以让它设置成只在特殊场景下录制成音频。

备份恢复

当你修改 OpenClaw 配置的时候,很容易出现问题,一旦出现问题 OpenClaw 就会出现卡死或者 Gateway 掉线等情况。当你在外地出差或回老家过年时,一旦 OpenClaw 无法正常使用,往往很难只靠 IM 工具里的 Command 菜单快速恢复,确实会让人焦虑。

为了解决这种窘境,目前有两种思路。

第一种是通过自动触发的脚本来自行修复。首先,让 OpenClaw 创建一个每天凌晨自动备份的脚本;接着,让 OpenClaw 创建一个心跳监测的脚本,比如说每隔 5 分钟就向 Gateway 发送心跳监测,连续 3 次没有收到回复的话就自动重启 Gateway;最后,再让 OpenClaw 创建一个配置回退的脚本,当检测到 Gateway 多次重启后仍然报错的情况时,为 OpenClaw 自动恢复到上一个可用的备份。

第二种是通过远程 SSH 到本地电脑来进行修复。OpenClaw 官方内建支持了通过 Tailscale 来连接 Gateway,不过我自己不太喜欢这种方式,一是 Tailscale 和其它网络工具存在不兼容问题,二是我自己不具备很强的编程能力,就算远程连接上了 Gateway 也对 bug 束手无策。

因此,我更推荐大家继续采用「以 AI 制 AI」的思路。远程控制电脑有很多方法,最简单粗暴的就是向日葵、Todesk 这种桌面控制软件,不过我认为这有点「大炮打蚊子」的意思,还是远程 SSH 更加轻量化、易操作。

除了官方推荐的 Tailscale,你还可以采用 Cloudflare Tunnel、VPS 反代等方式来连接家里的电脑。我自己采用了 VPS 反代这个方案,通过 GCP 创建一个 VM 实例,让 Mac mini 连接到这个 VM,最后在 iPhone 上使用 Termius 来 SSH 到 Mac mini 上。如果你想要获得更加流畅的 SSH 体验,那么推荐你在 Mac mini 上安装 tmux,这样一来每次在 iPhone 上 SSH 到 Mac mini 时都可以保持连续的会话,不需要从头再来。

所以,当我在外面遇到 OpenClaw 出现崩溃的情况,我就打开 Termius 来 SSH 到 Mac mini 上,然后调用 Codex CLI 来帮助我进行发现问题、提出方案、执行修复的一条龙操作。具体配置方案和步骤,请大家自行询问自家 AI Agent。

总结

如文章开头所说,OpenClaw 的核心创新更多体现在工程整合与可用性层面,而非单一模型能力突破,但是它的确让 AI Agent 这个原来桌面端的概念扩展到了各个平台,我们可以在各种终端设备上都享受到 AI Agent 的能力。同时,OpenClaw 作为一款开源项目也让大家集思广益,创造出了各式各样的趣味玩法和生产力应用,形成了很强的口碑扩散效应。

从谨慎一点的角度来说 OpenClaw 存在一些隐私安全方面的隐患,所以大家在使用的过程中不要把自己的 API Key 暴露到网络上,更不要把涉及自己的财务信息、家庭住址等敏感信息进行上传,在调用浏览器时也要实时监控,切不可掉以轻心。

当然,任何技术的变更或者应用的落地都会伴随着这样的阵痛期,我们不能否认个人 AI 助理的时代进入我们生活的步伐会越来越快。既然不放心 OpenClaw 这样的个人开发者作品,等待 Apple、谷歌这样的大公司下场也许就能给这种形态的 AI Agent 给予更多的隐私保障,让我们在信赖这些大公司的基础上吃下一颗定心丸。

    1. 库的概览与核心价值

    想象一下,在搭建一个 Web 应用时,如果需要同时处理路由、模板、数据库、表单验证、用户认证等数十个复杂功能,就像试图在一天内盖好一栋摩天大楼——不仅容易迷失方向,还可能因为过度设计而拖垮开发效率。Flask正是为解决这个"选择困难症"而生的轻量级框架。

    Flask被称为"微框架"(Microframework),它的核心哲学是"保持简单,按需扩展"。与Django这样自带全套装备的"全栈框架"不同,Flask只提供Web开发最基础的功能:路由分发和模板渲染,其他功能则通过丰富的扩展生态系统来实现。这种设计让开发者能够根据项目需求自主选择工具链,就像搭积木一样灵活组装自己的技术栈。

    Flask的不可替代性体现在三个方面:极低的学习曲线让初学者能快速上手,高度的扩展性支持项目从原型到生产环境的平滑演进,而简洁的代码结构则为团队协作和代码维护提供了良好基础。无论是构建简单的API服务、个人博客,还是复杂的企业级应用,Flask都能提供一个优雅而高效的起点。

    2. 环境搭建与 "Hello, World"

    安装说明

    安装Flask前,强烈建议先创建虚拟环境以隔离项目依赖:

    # 创建虚拟环境
    python3 -m venv venv
    
    # 激活虚拟环境
    # macOS/Linux:
    source venv/bin/activate
    # Windows:
    venv\Scripts\activate
    
    # 安装Flask
    pip install Flask

    Flask会自动安装以下核心依赖:

    • Werkzeug: WSGI工具包,处理HTTP请求和响应
    • Jinja2: 模板引擎,用于生成动态HTML
    • Click: 命令行工具,提供flask命令
    • MarkupSafe: 自动转义HTML,防止XSS攻击
    • ItsDangerous: 数据签名工具,保护session安全

    最简示例

    创建一个app.py文件,写入以下代码:

    from flask import Flask
    
    # 创建Flask应用实例
    app = Flask(__name__)
    
    # 使用装饰器定义路由
    @app.route('/')
    def hello_world():
        return '<p>Hello, World!</p>'
    
    if __name__ == '__main__':
        app.run(debug=True)

    逐行解释

    • from flask import Flask: 导入Flask核心类,这是构建应用的起点
    • app = Flask(__name__): 创建应用实例。__name__参数帮助Flask定位模板和静态文件目录
    • @app.route('/'): 路由装饰器,告诉Flask当用户访问根路径(/)时调用下面的函数
    • def hello_world():: 视图函数,处理请求并返回响应内容
    • return '<p>Hello, World!</p>': 返回HTML字符串,Flask会自动将其转换为HTTP响应
    • if __name__ == '__main__':: 确保只有在直接运行脚本时才启动服务器
    • app.run(debug=True): 启动开发服务器。debug=True开启调试模式,代码修改后自动重载,并提供错误调试页面

    运行结果

    在终端执行:

    flask --app app run
    # 或者
    python app.py

    服务器启动后,访问 http://127.0.0.1:5000/ 即可看到 "Hello, World!" 页面。

    3. 核心概念解析

    Flask的三大核心概念:应用实例、路由系统和请求上下文,它们共同构成了Web应用的骨架。

    应用实例(Application Instance)

    应用实例(app = Flask(__name__))是Flask应用的中心,负责管理路由、配置和扩展。它通过__name__参数确定模块位置,以便正确查找templatesstatic目录。可以将应用实例理解为一个"中央指挥官",协调所有组件协同工作。

    路由系统(Routing)

    路由使用装饰器@app.route()将URL路径映射到视图函数:

    # 基础路由
    @app.route('/about')
    def about():
        return 'About Page'
    
    # 动态路由
    @app.route('/user/<username>')
    def show_user(username):
        return f'User: {username}'
    
    # 类型约束路由
    @app.route('/post/<int:post_id>')
    def show_post(post_id):
        return f'Post ID: {post_id}'
    
    # 多HTTP方法支持
    @app.route('/login', methods=['GET', 'POST'])
    def login():
        if request.method == 'POST':
            return 'Processing login...'
        return 'Login form'

    动态路由中的<username><int:post_id>是URL转换器,前者匹配任意字符串,后者只匹配整数。Flask还支持floatpath(包含斜杠)、uuid等转换器。

    请求上下文(Request Context)

    请求上下文包含两个关键代理对象:requestsession。它们允许在视图函数中访问请求数据和会话信息,无需显式传递参数。

    from flask import request, session
    
    # 获取查询参数: /search?q=keyword
    @app.route('/search')
    def search():
        keyword = request.args.get('q', '')
        return f'Searching for: {keyword}'
    
    # 获取表单数据
    @app.route('/submit', methods=['POST'])
    def submit():
        username = request.form.get('username')
        return f'Username: {username}'
    
    # 获取JSON数据
    @app.route('/api/data', methods=['POST'])
    def api_data():
        data = request.get_json()
        return jsonify(data)
    
    # 使用session存储用户状态
    @app.route('/set_session')
    def set_session():
        session['user_id'] = 123
        return 'Session set'

    概念关系图

    graph TD
        A[Flask应用实例] --> B[路由系统]
        A --> C[配置管理]
        A --> D[扩展注册]
        B --> E[视图函数]
        E --> F[请求上下文]
        F --> G[request对象]
        F --> H[session对象]
        E --> I[响应生成]
        I --> J[字符串/JSON/模板]
        D --> K[数据库扩展]
        D --> L[表单验证扩展]
        D --> M[认证扩展]

    4. 实战演练:构建一个待办事项API

    让我们通过一个完整的迷你项目来掌握Flask的核心功能。我们将构建一个简单的待办事项管理API,支持增删改查(CRUD)操作。

    需求分析

    我们需要创建一个RESTful API,允许用户:

    1. 获取所有待办事项
    2. 创建新待办事项
    3. 更新待办事项状态
    4. 删除待办事项

    数据存储在内存中(列表),适合快速原型开发。

    方案设计

    选择Flask的以下功能:

    • 路由系统:定义API端点
    • request对象:解析JSON请求体
    • jsonify:返回JSON格式响应
    • 动态路由:处理特定ID的待办事项
    • HTTP方法:GET/POST/PUT/DELETE对应CRUD操作

    代码实现

    创建todo_api.py:

    from flask import Flask, request, jsonify
    
    app = Flask(__name__)
    
    # 内存数据库
    todos = [
        {'id': 1, 'title': 'Learn Flask', 'completed': False},
        {'id': 2, 'title': 'Build API', 'completed': False}
    ]
    next_id = 3
    
    # 获取所有待办事项
    @app.route('/api/todos', methods=['GET'])
    def get_todos():
        return jsonify(todos)
    
    # 创建新待办事项
    @app.route('/api/todos', methods=['POST'])
    def create_todo():
        global next_id
        data = request.get_json()
        
        if not data or 'title' not in data:
            return jsonify({'error': 'Title is required'}), 400
        
        todo = {
            'id': next_id,
            'title': data['title'],
            'completed': data.get('completed', False)
        }
        todos.append(todo)
        next_id += 1
        
        return jsonify(todo), 201
    
    # 更新待办事项
    @app.route('/api/todos/<int:todo_id>', methods=['PUT'])
    def update_todo(todo_id):
        todo = next((t for t in todos if t['id'] == todo_id), None)
        
        if not todo:
            return jsonify({'error': 'Todo not found'}), 404
        
        data = request.get_json()
        todo['title'] = data.get('title', todo['title'])
        todo['completed'] = data.get('completed', todo['completed'])
        
        return jsonify(todo)
    
    # 删除待办事项
    @app.route('/api/todos/<int:todo_id>', methods=['DELETE'])
    def delete_todo(todo_id):
        global todos
        todo = next((t for t in todos if t['id'] == todo_id), None)
        
        if not todo:
            return jsonify({'error': 'Todo not found'}), 404
        
        todos = [t for t in todos if t['id'] != todo_id]
        return jsonify({'message': 'Todo deleted'})
    
    if __name__ == '__main__':
        app.run(debug=True)

    运行说明

    1. 启动服务器:

      python todo_api.py
    2. 使用curl或Postman测试API:
    # 获取所有待办事项
    curl http://127.0.0.1:5000/api/todos
    
    # 创建新待办事项
    curl -X POST http://127.0.0.1:5000/api/todos \
      -H "Content-Type: application/json" \
      -d '{"title": "Deploy to production"}'
    
    # 更新待办事项
    curl -X PUT http://127.0.0.1:5000/api/todos/1 \
      -H "Content-Type: application/json" \
      -d '{"completed": true}'
    
    # 删除待办事项
    curl -X DELETE http://127.0.0.1:5000/api/todos/1

    结果展示

    这个API完美展示了Flask的核心能力:

    • 清晰的路由定义(/api/todos, /api/todos/<id>)
    • HTTP方法处理(GET/POST/PUT/DELETE)
    • JSON请求解析(request.get_json())
    • 错误处理和状态码返回(400/404)
    • 动态路由参数(<int:todo_id>)

    5. 最佳实践与常见陷阱

    常见错误及规避方法

    错误1: 直接使用app.run()部署到生产环境

    # ❌ 错误做法
    if __name__ == '__main__':
        app.run(host='0.0.0.0', port=5000)  # 仅适合开发环境

    Flask内置服务器性能有限且不安全,生产环境应使用Gunicorn或uWSGI:

    # ✅ 正确做法: 使用Gunicorn部署
    pip install gunicorn
    gunicorn -w 4 -b 0.0.0.0:5000 app:app

    错误2: 硬编码敏感信息

    # ❌ 错误做法
    app.config['SECRET_KEY'] = 'my-secret-key-123'
    app.config['DATABASE_URI'] = 'postgresql://user:password@localhost/db'

    使用环境变量或配置文件:

    # ✅ 正确做法
    import os
    
    app.config['SECRET_KEY'] = os.environ.get('SECRET_KEY') or 'dev-key'
    app.config['DATABASE_URI'] = os.environ.get('DATABASE_URI')
    
    # 或者使用配置文件
    # config.py
    class Config:
        SECRET_KEY = os.environ.get('SECRET_KEY')
        SQLALCHEMY_DATABASE_URI = os.environ.get('DATABASE_URI')
    
    # app.py
    from config import Config
    app.config.from_object(Config)

    错误3: 忘记设置SECRET_KEY导致session无法使用

    # ❌ 错误做法
    @app.route('/login')
    def login():
        session['user_id'] = 1  # 会报错: RuntimeError: The session is unavailable
        return 'Logged in'
    # ✅ 正确做法
    app = Flask(__name__)
    app.secret_key = 'your-secret-key-here'  # 生产环境应从环境变量读取
    
    @app.route('/login')
    def login():
        session['user_id'] = 1
        return 'Logged in'

    最佳实践建议

    1. 使用虚拟环境隔离依赖

    # 创建并激活虚拟环境
    python3 -m venv venv
    source venv/bin/activate  # Windows: venv\Scripts\activate
    pip install -r requirements.txt

    2. 生成依赖清单

    pip freeze > requirements.txt

    requirements.txt文件示例:

    Flask==3.0.0
    Werkzeug==3.0.1
    Jinja2==3.1.2

    3. 项目结构组织

    对于小型项目,建议采用以下结构:

    myproject/
    ├── app.py              # 主应用文件
    ├── requirements.txt     # 依赖清单
    ├── config.py           # 配置文件
    ├── templates/          # 模板目录
    │   └── index.html
    └── static/             # 静态文件
        ├── css/
        └── js/

    对于大型项目,使用蓝图(Blueprint)模块化:

    myproject/
    ├── app.py
    ├── requirements.txt
    ├── blueprints/
    │   ├── auth.py
    │   ├── api.py
    │   └── main.py
    └── templates/

    4. 启用调试模式注意事项

    开发环境可启用调试模式:

    app.run(debug=True)

    但生产环境必须关闭:

    app.run(debug=False)  # 或不指定,默认为False

    调试模式会暴露敏感信息并允许在浏览器中执行任意Python代码,存在严重安全风险。

    6. 进阶指引

    Flask的简洁性不仅体现在核心功能上,更体现在其强大的扩展能力。当你的项目需要更复杂的功能时,以下扩展值得关注:

    数据库集成

    • Flask-SQLAlchemy: 提供ORM功能,简化数据库操作
    • Flask-Migrate: 数据库迁移工具,管理表结构变更

    表单处理与验证

    • Flask-WTF: 集成WTForms,提供表单验证和CSRF保护

    用户认证与授权

    • Flask-Login: 管理用户会话和认证状态
    • Flask-Security: 提供完整的认证、角色管理和密码加密

    API开发

    • Flask-RESTful: 快速构建RESTful API
    • Flask-Marshmallow: 序列化/反序列化数据

    任务队列与异步处理

    • Celery: 处理耗时任务(如发送邮件、图片处理)
    • Flask-Celery-Helper: 简化Celery与Flask的集成

    学习路径建议

    1. 掌握基础(当前阶段): 理解路由、请求/响应、模板渲染
    2. 扩展技能: 学习3-5个常用扩展,构建功能完整的应用
    3. 深入原理: 研究Flask的上下文机制、信号系统、中间件
    4. 生产部署: 掌握Gunicorn/Nginx部署、Docker容器化
    5. 性能优化: 了解缓存策略、数据库优化、异步处理

    学习资源

    Flask的学习曲线平缓,但要精通它需要实践和耐心。建议从简单项目开始,逐步引入新功能和技术,在实践中深化理解。记住,Flask的力量不在于它提供了什么,而在于它不限制你做什么——这正是"微框架"哲学的精髓所在。

    不知道大家有没有跟我一样的毛病——忍不住反复打开各个平台刷消息,V2EX 看看有没有人回复我,GitHub 看看 issue 有没有更新。一天下来零零碎碎能刷个几十次,其实大部分时候什么都没有,纯浪费时间

    后来我就在想,能不能做一个东西帮我盯着,有变化了再通知我就行

    RSS 是一种方案,但现在很多网站根本不提供 RSS 。我也看了现有的网页监控工具,要么难用,要么贵的一批,遇事不决造轮子!

    而且还有个很现实的问题:很多我想监控的页面是需要登录的。云端方案要么让你手动填 Cookie ,要么模拟登录,2FA 的页面基本没戏

    想来想去,觉得这事儿得在本地做,直接跑在浏览器里。好处很直接:

    • 用的是你自己的 Cookie 和登录态,不用配置任何东西,你已经登录了就能监控
    • 用的是你自己的 IP ,不会被网站的 WAF 拦截
    • 2FA 、SSO 什么的天然支持,因为你本来就是在自己浏览器里操作

    然后我又在想,既然用了 AI ,那配置这一步能不能彻底干掉?不用选择器,不用写规则,就打开一个网页,告诉它"有 xx 相关的公告通知我"、"这个商品降到 xx 以下告诉我"... AI 自己去理解页面内容

    所以我准备做这么一个浏览器插件,叫 Dingding (盯盯)。核心就三步:

    1. 打开你要监控的网页
    2. 用一句话告诉它你关心什么
    3. 有符合你意图的变化时通知你

    目前产品还在开发中,Landing Page 先做了出来收集一下 Waitlist ,加入即送 1 个月免费会员: https://waitlist.dingding.glidea.app


    之前看到有人讨论网页监控/爬虫的法律风险,我觉得这里面有个关键区别——云端爬虫是服务商的服务器去访问目标网站,服务商是行为主体;但浏览器插件不一样,所有的页面访问都是用户自己的浏览器完成的,插件只是把页面内容交给 AI 做一个语义判断,本质上跟你自己 F5 刷新没区别。当然我不是法律专业的,不知道大家怎么看这个问题?

    在AI技术快速渗透各行各业的今天,AI产品早已走出实验室,成为解决实际问题、提升效率的核心载体——从日常使用的AI聊天机器人、图片生成工具,到企业级的智能风控、数据分析系统,背后都离不开专业的需求分析。不同于传统互联网产品,AI产品需求分析既要兼顾“用户价值”,更要适配“技术可行性”,是连接用户需求、业务目标与AI技术的核心桥梁。对于新手而言,无需一开始陷入复杂的算法细节,先掌握核心逻辑与基础步骤,就能快速入门AI产品需求分析。

    一、先搞懂:什么是AI产品需求分析?

    简单来说,AI产品需求分析的核心是:明确“用AI技术解决什么问题”“解决给谁看”“怎么用技术落地”“落地后如何衡量效果” ,最终将模糊的用户痛点、业务诉求,转化为可落地、可衡量、符合AI技术特性的产品需求。

    与传统互联网产品需求分析相比,它有两个核心差异,也是新手最需要注意的点:

    • 传统产品侧重“功能实现”,比如“做一个一键付款功能”,技术路径清晰;AI产品侧重“效果达成”,比如“做一个能识别垃圾类别的AI工具”,核心是让AI的识别准确率、响应速度达到可用标准,技术迭代空间更大。
    • 传统产品需求可“一步到位”,功能上线后基本满足需求;AI产品需求是“迭代演进”的,比如AI聊天机器人的话术流畅度、理解准确率,需要通过数据反馈、模型优化,逐步逼近理想效果,无法一蹴而就。

    一句话总结:AI产品需求分析,是“以问题为核心,以技术为支撑,以效果为目标”的系统性思考过程,而非单纯罗列功能。

    二、入门核心:AI产品需求分析的3个基本原则

    新手入门,无需追求复杂方法,先守住3个基本原则,就能避开80%的坑,确保需求不偏离方向。

    1. 可行性优先:拒绝“技术空想”

    AI产品的核心是“技术落地”,再美好的需求,若当前技术无法实现,就是无效需求。新手最容易犯的错误,就是过度追求“炫酷功能”,比如“做一个能完全替代人类的AI客服”,忽略了当前AI的理解能力、情感表达能力的局限性。

    正确的做法是:先判断需求的技术可行性——比如,当前AI能否实现核心功能(如识别、生成、预测)?需要多少数据支撑?落地成本(人力、算力)是否可控?若暂时无法完全实现,可拆解为“最小可行需求”,比如先实现“AI识别常见垃圾类别(准确率≥80%)”,再逐步扩展类别、提升准确率。

    2. 价值导向:AI是“工具”,不是“噱头”

    所有AI产品的需求,都必须围绕“解决实际问题、创造价值”展开,要么提升效率,要么降低成本,要么优化体验,拒绝为了“AI”而“AI”。

    比如,同样是“AI图片生成工具”,针对普通用户的需求是“简单输入文字,就能生成好看的图片,无需专业设计能力”(优化体验);针对电商商家的需求是“快速生成商品主图,降低设计成本”(降低成本)。明确核心价值,才能让需求更聚焦,避免功能冗余。

    3. 数据驱动:AI的“燃料”的是数据

    AI模型的训练、优化,离不开大量高质量数据——比如AI识别垃圾,需要收集成千上万张不同垃圾的图片,标注清楚类别,才能训练出可用的模型。因此,在需求分析阶段,就要考虑“数据来源”:数据从哪里来?是否合规?数据质量是否达标?

    比如,做一个“AI识别手写文字”的需求,若无法获取足够多、覆盖不同字体、不同书写场景的手写文字数据,即使技术路径可行,最终的识别效果也会很差,需求落地后也无法满足用户需求。

    三、新手实操:AI产品需求分析的5个基础步骤

    掌握原则后,跟着这5个步骤走,就能快速完成一次基础的AI产品需求分析,从“空想”走向“落地”。

    步骤1:明确场景与用户,找准核心痛点

    任何产品需求的起点,都是“谁在什么场景下,遇到了什么问题”,AI产品也不例外。新手要避免“泛泛而谈”,比如不要说“做一个AI工具”,而要具体到场景和用户。

    举例:用户是“中小电商商家”,场景是“每天需要生成10张商品主图,自己不会设计,找设计师成本高、周期长”,核心痛点是“商品主图生成效率低、成本高”。

    这一步的关键是:聚焦“具体场景、具体用户”,拒绝模糊化描述,只有找准痛点,后续的AI需求才能有的放矢。

    步骤2:拆解需求,明确AI的核心作用

    找到痛点后,不要直接想“用AI怎么做”,而是先拆解需求,区分“哪些部分需要AI实现,哪些部分用传统功能实现即可”——AI只负责解决“传统技术无法高效解决”的问题,比如识别、生成、预测等,无需所有功能都依赖AI。

    继续上面的例子,需求拆解为:① 生成商品主图;② 支持自定义商品类别、背景风格;③ 生成后可简单编辑;④ 快速导出。其中,“生成商品主图”是核心,需要AI实现(文生图、图生图);“自定义风格、简单编辑、导出”是辅助功能,用传统产品功能即可实现。

    这一步的关键是:聚焦“AI的核心价值”,不要过度依赖AI,避免增加技术复杂度和落地成本。

    步骤3:明确效果指标,让需求可衡量

    AI产品的需求,必须有“可衡量的效果指标”,否则无法判断需求是否落地、是否满足用户需求。新手最容易忽略这一点,只说“做一个AI识别工具”,却不说“识别准确率要达到多少”“响应速度要多久”。

    常见的AI效果指标有:准确率(比如垃圾识别准确率≥80%)、响应速度(比如AI生成图片≤10秒/张)、召回率(比如智能推荐的召回率≥70%)、用户满意度(比如AI客服的用户满意度≥85%)。

    继续举例,明确效果指标:AI生成商品主图,准确率≥85%(与商品实际外观匹配),响应速度≤8秒/张,支持3种以上背景风格,用户可直接使用的图片占比≥70%。

    这一步的关键是:指标要具体、可量化,避免“大概”“差不多”,这样后续技术开发、测试才有明确的标准。

    步骤4:评估技术可行性与落地成本

    这是AI产品需求分析的核心步骤,也是区别于传统产品的关键。新手可以从3个维度评估,无需深入了解算法细节,只需和技术同学简单沟通即可:

    • 技术路径:当前AI技术能否实现核心需求?比如,商品主图生成,可用成熟的文生图模型(如Stable Diffusion、即梦AI的生成模型),技术路径可行。
    • 数据支撑:是否有足够的高质量数据?比如,商品主图生成,需要收集不同类别的商品图片、背景图片,标注清楚类别、风格,若数据不足,可考虑使用公开数据集、外包标注。
    • 落地成本:人力(算法工程师、数据标注师)、算力(模型训练、推理需要的服务器资源)、时间(开发周期)是否可控?比如,中小团队做商品主图生成工具,可基于成熟模型微调,降低开发成本和周期。

    若评估后发现不可行,可调整需求,比如降低效果指标、拆解为更小的需求,避免盲目推进。

    步骤5:输出需求文档,明确边界与迭代计划

    需求分析完成后,需要将思考的结果整理为需求文档(PRD),传递给技术、测试等团队,明确需求的边界、优先级和迭代计划。新手的需求文档无需过于复杂,核心包含3部分内容:

    • 需求概述:明确场景、用户、核心痛点和需求目标,让团队快速了解需求背景。
    • 核心需求与效果指标:详细说明AI核心功能、效果指标、辅助功能,明确需求的优先级(哪些必须实现,哪些可后续迭代)。
    • 迭代计划:AI产品无法一步到位,需明确迭代节奏,比如V1版本实现核心功能(准确率≥85%),V2版本提升准确率(≥90%)、增加更多风格,V3版本优化编辑功能。

    这一步的关键是:文档清晰、简洁,明确“做什么、不做什么、做到什么程度、分几步做”,避免团队理解偏差。

    四、新手避坑:AI产品需求分析的4个常见误区

    入门阶段,只要避开这4个误区,就能少走很多弯路,让需求更具落地性。

    • 误区1:过度追求技术炫酷,忽视用户需求。比如,盲目追求“多模态生成”“大模型应用”,却没考虑用户是否真的需要,导致产品上线后无人使用。记住:AI是工具,用户需要的是“解决问题”,不是“炫酷技术”。
    • 误区2:忽视数据问题,认为“技术能解决一切”。比如,做AI识别需求,却没考虑数据来源、数据质量,导致模型训练效果差,无法落地。记住:数据是AI的燃料,没有高质量数据,再强的算法也无用。
    • 误区3:需求太模糊,没有可衡量的指标。比如,只说“做一个AI客服,能回答用户问题”,却不说“回答准确率、响应速度”,导致技术开发没有标准,测试无法判断效果。
    • 误区4:期望一步到位,不考虑迭代。比如,要求AI产品上线就达到“完美效果”,忽视了AI模型需要数据反馈、持续优化的特性,导致需求落地周期过长,甚至失败。

    五、入门建议:新手如何快速提升AI产品需求分析能力?

    AI产品需求分析能力,不是一蹴而就的,新手可以从3个方面入手,快速提升,循序渐进。

    • 多体验:多使用各类AI产品(如即梦AI、ChatGPT、Midjourney、剪映AI),思考它们的需求场景、核心功能、效果指标,拆解它们的需求逻辑——比如,使用即梦AI的视频生成功能,思考“它的用户是谁?核心痛点是什么?效果指标如何设计?”。
    • 多实践:从小需求入手,尝试完成一次完整的需求分析,比如“做一个AI识别宠物类别的工具”,按照前面的5个步骤,拆解需求、明确指标、评估可行性、输出需求文档,哪怕是简单的练习,也能快速积累经验。
    • 多沟通:多和技术同学沟通,了解AI技术的基本逻辑、落地难点(比如数据标注、模型微调的成本),避免提出不可行的需求;多和用户沟通,了解真实痛点,避免“自嗨式需求”。

    六、总结

    AI产品需求分析入门,核心不是掌握复杂的算法知识,而是建立“以问题为核心、以技术为支撑、以效果为目标”的思考方式——先找准具体场景和用户痛点,再拆解需求、明确效果指标,评估技术可行性,最后通过迭代逐步落地。

    对于新手而言,不要急于求成,先守住“可行性、价值导向、数据驱动”3个原则,避开常见误区,多体验、多实践、多沟通,就能快速掌握AI产品需求分析的基础逻辑,逐步成长为合格的AI产品需求分析师。

    记住:AI产品的核心是“解决问题”,需求分析的核心是“让技术落地,创造价值”,这也是所有AI产品需求分析的底层逻辑。

    整理 | 华卫

     

    ChatGPT 无广告体验的日子要结束了。

     

    经过数周的预热,刚刚,OpenAI 宣布,将正式开始在其 AI 平台测试广告,ChatGPT 用户可能很快就会在对话中看到广告。这些广告会以标注“赞助”的链接形式出现在 ChatGPT 回答底部,但 OpenAI 表示,广告不会影响 ChatGPT 给出的回答内容,在视觉上也会区分开来。

     

    目前,广告仅对免费版 ChatGPT 用户以及每月 8 美元的低价订阅服务 Go 套餐用户展示,Plus、Pro、商业版、企业版和教育版用户不会看到任何广告。也就是说,想要避开广告的用户至少需要每月支付 20 美元订阅 Plus 套餐。OpenAI 提到,免费版用户要想退出广告,但代价是每日免费对话次数减少;Go 套餐用户无法选择退出广告。

     

    一位接近 OpenAI 的消息人士表示,OpenAI 预计从长远来看,广告收入占比将低于其总收入的一半。目前,该公司还通过其聊天机器人集成的购物功能,从用户购买的商品中抽取分成。另据外媒报道,OpenAI 首席执行官 Sam Altman 告诉员工,ChatGPT“月增长率已恢复到 10%以上”,将于本周部署“更新后的聊天模型”。

     

    ChatGPT 广告规则全曝光

    此次广告功能推出前,Anthropic 在一则广告中暗讽了 ChatGPT 的广告模式。例如在其中一则广告里,一名年轻男子向人工智能求助练出六块腹肌,化身私人教练的 AI 先是为他提供指导,随后却开始推销一款虚构的增高鞋垫。之后,Anthropic 修改了广告标语,改为:“广告自有其时间与场合,但你和 AI 的对话不该是其中之一。”而这很快引发了 Altman 的不满,他称其“明显不诚实”,是在用“欺骗性广告去批评那些并不存在、理论上的欺骗性广告”,与他们实际的广告模式不符。

     

    就在 OpenAI 最新一期的播客里,OpenAI 的广告负责人之一 Asad Awan 详细介绍了其 AI 产品中的广告制定决策。“一方面走‘清高路线’,不做广告,但同时限制使用额度、用能力较弱的模型;另一方面,拥抱广告模式。”

     

    这场对话中,不少外界关注的核心问题都摆到了台面上,且给出了清晰的回答。

    从用户角度看,为什么要做广告?为什么是现在?

    “这回到了我们的使命,让 AGI 惠及全人类。”Awan 解释道,当一款消费级产品有超过 8 亿用户时,如何把最好的产品带给每个人?广告是经过验证的成熟模式,对于一家希望把最好的 AI 带给全人类的公司来说,这是很自然的选择。提供最好的模型、更高的使用限额,让广告对用户和企业都真正有用。

     

    他表示,大家担心广告可能带来负面影响,所以 OpenAI 更看重广告的原则:为平台设立极高的标准,让广告真正有用。其确立了几条核心原则:

    • 第一,模型回答与广告完全独立,无论视觉上还是模型训练、系统逻辑上,确保回答始终可信,整个产品都建立在信任之上。

    • 第二,对话是隐私的。敏感对话绝不会出现广告,对话内容绝不会共享给广告主。我们会在内部匹配合适的广告,但广告主看不到用户对话。

    • 第三,透明与可控。用户能清楚理解数据如何使用,并且可以自主控制。

    • 第四,激励机制以用户价值为中心。我们不追求用户在平台上的停留时长,一个真正有用的广告就足够了。

     

    “简单来说就是,用广告普及 AI,同时严防各种负面问题,从一开始就明确原则,持续测试、改进。”Awan 说道。

    广告的出现频率是怎样的?

    “最高原则是:有没有有用的广告可以展示。”Awan 称,核心原则是:是否有用、有帮助、对用户的操作有补充,能不能展示优质商品,内容质量要高、广告质量要高、相关性要高。“如果没有,我们宁可一条都不展示。实际上在测试阶段,你会看到广告非常少,因为我们态度很保守,也在学习该在什么位置插入。”

     

    据介绍,模型看不到广告,也有防护措施。“狂轰滥炸广告对用户、对商家都没好处。我们不想让广告主乱花钱买曝光,也不想让用户看一堆广告,我们只想展示那条正确的广告。作为顶尖 AI 公司,这正是我们能做好的事。”

    当公司有专门的广告收入部门时,还会把模型和广告之间这堵墙砌死吗?

    “只要目标和激励机制是成为最值得信任的 AI,我们就不会走偏。”

     

    Awan 强调,“我们的核心业务是信任。对 C 端用户,是提供可信的优质回答;对企业客户,信任更是一切,你把最重要的数据交给我们,我们必须守住。如果我们真的想成为你最贴身的智能助手,就必须让你放心分享最重要的信息,并且知道它会被妥善对待。我们的商业模式就是 信任,这和很多只做一次性查询、内容推荐的产品完全不同。对我们而言,信任不是可选项,而是必需品。我们希望被用户记住的,就是‘可信’。

    如何回应拿广告这件事开玩笑的竞争对手?

    “不同公司使命不同。”Awan 表示,OpenAI 的业务场景更多元:企业业务、订阅业务、海量免费用户业务。企业版没有广告,订阅版没有广告,广告是为了支撑免费用户业务。“如果你的使命不是普惠 AI,那不做广告很合理;但我们的使命就是在各类场景里落地,让所有人用上最好的 AI。”

     

    他强调,如果只服务付费用户,当然可以说 “我们不用做广告”。但 OpenAI 的愿景不是抽象的,而是非常实在:AI 如何真正帮助普通人。“如果走精英路线,只有付得起钱的人才能用 AI,那从价值观上我们就不认同。我们的立场非常明确:每个人都应该用上最好的 AI。而且我们不是一家纯广告公司,纯广告公司的激励机制和我们完全不同。”

    十年后的广告会变成什么样?

    据 Awan 透露,下一步会是更真实的对话式广告,能真正了解产品是什么。再往后,AI 可以在后台自动聚合最优折扣、最划算的商品、最合适的版本。一边是用户主动搜索,一边是商家希望被合适的人发现,两边匹配起来。

     

    “未来会更加智能体化。我们先从现有形式开始,把体验做好,让它更相关、可控、可理解、可信。随着主产品和系统进化,广告形态也会一起进化。”Awan 表示。

    第一批投放广告的公司露面了

    ChatGPT 推出广告之际,正值人工智能行业竞争压力不断加剧,且外界对大型 AI 平台的可持续盈利模式抱有更高期待。OpenAI 表示,“ChatGPT 被数亿人用于学习、工作和日常决策。为了确保免费版和 Go 版的快速稳定运行,我们需要投入大量基础设施和持续资金。广告收入有助于资助这些工作,从而通过更高质量的免费和低成本选项,让更多人能够使用人工智能,并使我们能够不断提升所提供的智能和功能。”

     

    同时,该公司称,广告商只会获得汇总的广告浏览量和点击量数据,不会获取用户的 ChatGPT 对话个性化数据或内容。免费版和 Go 版用户都可以对广告反馈、关闭广告个性化设置、关闭基于历史对话的广告推荐,从而限制赞助内容的推送方式并删除广告相关数据。此外,OpenAI 现在并非对所有用户和对话都会投放广告,比如 18 岁以下用户以及涉及健康、心理健康、政治等特定敏感话题的对话场景。即便免费版与 Go 版的成年用户,也未必会立即看到广告,因为该功能仍处于测试阶段。

     

    尽管此举在 ChatGPT 用户和行业观察人士中引发了褒贬不一的反应,但 OpenAI 坚称,投放广告是为了补贴免费及低价服务的使用成本。该公司强调,“此次测试的重点是学习。我们会密切关注反馈,以确保广告在推广之前能够实用且自然地融入 ChatGPT 体验。”早期用户的反馈将有助于改进广告,并可能在未来扩大广告投放范围。OpenAI 表示,将利用此次试点项目的洞察,更好地平衡盈利与用户体验。

     

    当前,已有多家公司也透露了他们将如何投放 ChatGPT 广告。Adobe 表示,将率先投放 Acrobat Studio 和 Firefly 相关广告作为初期试点。已经与 ChatGPT 完成集成的 Target,则会在用户提出诸如“有哪些台面式厨电能让日常做饭更方便?”这类问题时展示广告。

     

    而随着测试的推进,OpenAI 的做法很可能会影响其他人工智能公司对盈利模式的思考,以及广告在对话式 AI 工具中的角色。不过,开发 Claude AI 助手的 Anthropic 已 “承诺” 永远不会加入广告,甚至还在投放了的一系列超级碗广告里宣传这一决定。据报道, OpenAI 的竞争对手谷歌也曾暗示,其 Gemini AI 平台可能会在 2026 年投放广告,不过谷歌 DeepMind 首席执行官 Demis Hassabis 在 1 月底表示,Gemini “没有计划”投放广告。目前,谷歌已在搜索结果旁边的 AI 概览中投放广告。

     

    在未来某一天,或许所有免费的 AI 应用和服务都会出现广告,但至少目前,ChatGPT 是唯一一家率先推出广告的大型应用和服务商。微软 Copilot 之前的版本(当时名为 Bing Chat)也曾出现过广告,但目前的版本似乎已经取消了。

     

    参考链接:

    https://openai.com/index/testing-ads-in-chatgpt/

    https://www.cnbc.com/2026/02/09/sam-altman-touts-chatgpt-growth-as-openai-nears-100-billion-funding.html

    https://www.youtube.com/watch?v=2agJo3Jf_O4

    本文首发于 Aloudata 官方技术博客:《指标平台选型关键:Aloudata CAN 如何保障无宽表下的查询性能》转载请注明出处。

    摘要:本文深入探讨在数据工程中,企业进行指标平台选型时面临的核心挑战——如何在摒弃物理宽表、保障业务灵活性的同时,实现海量数据下的高性能查询。文章系统分析了自研高性能指标平台必须跨越的三大技术难关:统一语义解析、智能物化加速与开放生态适配,并对比了基于 NoETL 语义编织技术的 Aloudata CAN 如何通过声明式策略与自动化引擎,实现百亿级数据秒级响应的成熟方案,为技术决策者提供清晰的 Build vs Buy 评估框架。

    许多企业在指标平台选型时,往往陷入一个根本性的认知误区:认为这仅仅是选择一个“指标字典”或元数据目录,用于记录和查询指标定义。这种认知导致许多自研项目停留在构建一个静态的 CRUD 系统层面。

    然而,一个真正能够支撑企业级数据分析的指标平台,其核心是一个 动态智能计算引擎。它不仅要“记住”指标的定义,更要能“理解”复杂的业务语义,并“自动执行”从 DWD 明细数据层到最终指标结果的复杂计算过程。性能保障,尤其是高并发、复杂查询下的秒级响应能力,是这一引擎的基石,而非附属功能。

    “在高并发、高吞吐量的数据分析场景下,简单的事情往往变得不那么简单。一个业务逻辑简单的指标大盘,一旦面临大促或年终数据汇总等高峰期,就会出现卡顿甚至崩溃的情况。” —— 从传统 Cube 到现代化指标体系:物化视图驱动的指标平台升级之路

    技术难关一:统一语义解析——性能的“第一道坎”

    自研平台面临的第一道坎,是如何将业务人员定义的指标(如“华东区上月高价值用户的日均消费金额”),精准、高效地解析为底层数据引擎可执行的查询计划。这一步直接决定了查询性能的基线。

    • 静态解析的局限:传统模式依赖预建的物理宽表或 Cube。查询路径被固化,一旦业务需求超出预建模型的范围(例如,需要按新的维度组合下钻),要么无法响应,要么需要 DBA 重新开发宽表,周期以周计,完全丧失灵活性。
    • 动态解析的挑战:要摆脱宽表束缚,必须构建强大的 语义引擎 (Semantic Engine)。它需要在逻辑层构建一个“虚拟业务事实网络”,通过声明式策略定义表间关联。当用户组合指标与维度时,引擎必须实时进行语义推导,生成最优的、包含正确关联和聚合逻辑的 SQL。这涉及到复杂的查询优化、谓词下推、公共子表达式识别等数据库核心技术,工程复杂度极高。

    技术难关二:智能物化加速——性能保障的“工程黑洞”

    即使解决了语义解析,面对百亿级明细数据的即席查询,性能依然难以达标。此时,物化加速(预计算)成为必选项。然而,这正是自研与采购成熟方案的核心分水岭,一个深不见底的“工程黑洞”。

    1. 手动模式的困境
      传统做法是 DBA 手动创建和维护物化视图或汇总表。但这带来两个致命问题:
    • 灵活性丧失:为每个可能的查询组合创建物化视图,会导致“物化视图爆炸”,存储成本失控。
    • 运维成本爆炸:需要手动管理刷新策略(全量/增量)、处理数据一致性、监控任务失败。当源表数据发生更新或删除时,增量计算的逻辑复杂性呈指数级上升。

    “影响增量计算性能的因素极为复杂,包括查询算子组合复杂度、源表数据变化模式(Append Only vs Update/Delete)、变化频率等。能应对各种业务场景的多方面因素是一个极具挑战的工程难题。” —— 破解千亿数据处理痛点:快手基于增量计算解决时效、成本

    1. 智能物化加速引擎:从“人治”到“自治”
      真正的性能保障,需要一套 声明式策略驱动的智能物化加速引擎。这正是 Aloudata CAN 的核心壁垒。
    • 声明式策略:用户无需关心具体物理表,只需在界面声明对哪些高频查询的“指标+维度”组合进行加速,以及期望的刷新时效(如 T+1 或准实时)。
    • 自动化执行与运维:系统根据策略自动编排物化任务,智能选择生成明细加速、汇总加速或结果加速表,并负责全生命周期的调度、监控、失败重试和血缘管理。
    • 智能路由与透明加速:查询发生时,语义引擎会自动进行 SQL 改写,将查询智能路由到已存在的最优物化结果上,对用户完全透明。

    权威背书:某全球连锁餐饮巨头(麦当劳中国)基于 Aloudata CAN,在 百亿级数据规模 下,实现了核心业务查询 P90 < 1s 的性能,日均支撑百万级 API 调用,覆盖 30+ 业务场景。

    技术难关三:开放生态适配——性能服务的“最后一公里”

    即使计算引擎性能卓越,若无法被业务系统便捷消费,就会形成新的数据孤岛。自研平台需要设计一套标准、稳定、高性能的服务接口,并确保在所有消费端指标口径绝对一致,这同样是巨大的工程投入。

    • 接口标准化:需要提供标准的 REST API 和 JDBC 接口,以适配企业内部多样的 BI 工具(如 Tableau、Power BI)、AI 应用及自建业务系统。
    • 性能与稳定性:接口层本身不能成为性能瓶颈,需要处理高并发、连接池管理、查询超时与熔断。
    • 生态集成:与主流 BI 工具(如 FineBI、Quick BI)的深度集成,以及提供像 WPS 插件这样的办公场景嵌入能力,都需要长期的研发和合作投入。

    TCO 分析:自研性能保障的“隐形高利贷”

    当企业决定自研以攻克上述“鬼门关”时,必须算清一笔总拥有成本(TCO)的“隐形账”。

    维度自研路径采购 Aloudata CAN
    初期投入高。组建专项团队(架构、研发、测试),至少 6-12 个月起。低。主要为软件许可和实施服务成本。
    三年 TCO极高。持续研发、性能调优、运维人力成本叠加,且存在项目失败风险。可控。固定许可费+运维服务费,无额外研发人力负担。
    性能达成时间长。从零到一构建稳定、高性能的引擎,通常以“年”为单位。短。开箱即用,在客户环境中已验证的架构,可快速达到 SLA。
    团队技能要求极高。需要顶尖的数据库内核研发、查询优化、分布式系统人才。中。侧重业务建模与配置,无需深入引擎底层。
    业务风险高。研发周期长,可能错失市场时机;系统不稳定直接影响业务决策。低。基于成熟产品,风险可控,可快速赋能业务。

    核心结论:自研高性能指标平台是一笔长期的“技术高利贷”,其隐形成本(机会成本、人才成本、时间成本)往往远超采购成熟方案。作为 Gartner 中国数据编织代表厂商,Aloudata CAN 将经过验证的语义编织与智能物化加速能力产品化,让企业能将稀缺的研发资源聚焦于业务创新,而非重复造轮子。

    决策矩阵:何时该自研,何时该采购?

    企业应根据自身情况,参考以下框架决策:

    1、坚定选择自研:

    • 拥有顶尖的数据库内核研发团队,且将“高性能计算引擎”作为核心战略产品。
    • 业务场景极为特殊,市面上没有任何方案能满足其定制化需求。
    • 对技术掌控有绝对要求,且不计较长期投入和成本。

    2、强烈建议采购(如 Aloudata CAN):

    • 核心目标是快速解决业务的数据分析需求,提升决策效率。
    • 数据规模已达亿/十亿级,且对查询性能(秒级响应)有明确要求。
    • 缺乏或难以组建具备数据库内核研发能力的团队。
    • 希望统一企业指标口径,并面向多种 BI 工具和 AI 应用提供一致服务。
    • 关注总体拥有成本(TCO),希望将 IT 投入转化为明确的业务价值。

    常见问题(FAQ)

    Q1: 不建物理宽表,如何保证复杂查询的秒级响应?

    Aloudata CAN 通过 NoETL 语义编织 技术,在逻辑层构建“虚拟业务事实网络”。同时,其 智能物化加速引擎 支持声明式物化策略,自动为高频查询组合生成并维护最优的物化结果(明细加速、汇总加速)。查询时,语义引擎自动进行 SQL 改写和智能路由,透明命中物化结果,从而实现百亿级数据 P90 < 1s 的查询性能。

    Q2: 与传统数据库的物化视图相比,Aloudata CAN 的物化加速有何不同?

    传统数据库物化视图需要 DBA 手动创建、维护和选择刷新策略,是“手动优化”。Aloudata CAN 的物化加速是 声明式、自动化 的。用户只需关注业务逻辑(定义指标),系统根据查询模式自动决策物化什么、如何物化、何时刷新,并负责全生命周期运维,实现了从“人治”到“自治”的跃升,大幅降低使用和维护门槛。

    Q3: 选择指标平台时,除了查询性能,还应重点评估哪些方面?

    除了查询性能,还需重点评估:1) 指标定义与管理能力:是否支持复杂业务逻辑(如指标转标签、自定义周期);2) 口径一致性:是否为企业提供唯一可信指标源;3) 开放性与集成能力:是否提供标准 API/JDBC,支持各类 BI 工具和 AI 应用;4) AI 原生适配:是否具备 NL2MQL2SQL 等能力,根治 AI 问数幻觉;5) 总拥有成本(TCO):包括采购成本、实施效率与长期运维开销。

    Q4: 我们的数据量不大,也需要考虑这种无宽表的指标平台吗?

    即使当前数据量不大,采用无宽表的现代化指标平台(如 Aloudata CAN)也具有战略价值。它能帮助企业在数据增长初期就建立 统一的指标语义层和治理规范,避免未来因口径混乱、宽表泛滥而导致的“先乱后治”高成本重构。同时,其敏捷的配置化开发模式,能极大提升数据响应速度,赋能业务创新,是一种面向未来的“弯道超车”架构选择。

    核心要点

    1. 性能是引擎,不是功能:现代指标平台的核心是一个动态智能计算引擎,性能保障是其基石,选型时需首先评估其在高并发、复杂查询下的能力。
    2. 智能物化加速是分水岭:手动创建和维护物化视图/宽表无法平衡灵活性与性能。真正的解决方案是基于声明式策略的智能物化加速引擎,实现自动化运维与透明路由。
    3. 开放生态是价值出口:平台必须通过标准接口(API/JDBC)无缝集成现有 BI 与 AI 生态,避免成为新的数据孤岛,确保性能价值直达业务。
    4. 自研 TCO 远超想象:自研高性能指标平台涉及长期的研发、调优和运维投入,其总拥有成本(TCO)和机会成本往往被严重低估。
    5. 采购成熟方案是高效路径:对于绝大多数企业,采购像 Aloudata CAN 这样经过大规模实践验证的成熟方案,是快速获得高性能、统一语义层并控制总成本的最优路径。

    作者:鸢玮

    大模型的出现,给许多行业带来了颠覆性的改变,运维这个向来被视为稳定、保守的领域也不例外。虽然“AIOps”这个概念早在 2016 年由 Gartner 提出,但早期的智能运维更多是利用大数据和机器学习对传统运维流程进行效率上的提升。十年后的今天,大模型的强大能力,正推动着 AIOps 从辅助工具,演进为数智化转型中不可或缺的核心基础设施,让运维真正迈入智能化的深水区。

    阿里云云原生应用平台事业部总经理、资深技术专家周琦作为这一变革的深度参与者,对 AIOps 的本质有着深刻洞察。“AIOps 这个词已经被广泛使用,但我更倾向于用 Operation Intelligence 来定义它。”周琦在采访中强调,“它的核心是发现与沉淀运维操作中的智慧,让工程师从重复繁琐的劳动中解放出来,聚焦于更高价值的创造。”

    十年演进,重塑 AIOps 底层逻辑

    在传统的运维时代,更多依赖人工被动处理故障,效率低下;而后进入到自动化运维时代,借助工具实现任务自动化,缩短了故障恢复时间;到了小模型运维时代,通过机器学习实现异常检测与根因分析,运维也初步具备智能化特征;如今进入到大模型时代,运维才真正开始走向真正的智能化。

    回顾 AIOps 过去十年的发展,周琦认为有两个关键转折点重塑了其底层逻辑。第一个转折点是通用大模型的到来。 在此之前,所谓的智能运维更多是通过垂类 AI 模型来解决告警治理、异常检测等单一、点状的问题。这种方式虽然有用,但难以规模化。大模型的通用特性,像是一个巨大的杠杆,将 AIOps 的能力从“点状解决”扩展到“面状全域覆盖”,凭借其强大的泛化能力可以应对千变万化的碎片化运维任务。

    第二个转折点则在于数据整合技术的突破。 过去,运维工作呈现高度碎片化特征,数据和引擎往往由不同供应商提供,形成了天然的数据孤岛。周琦表示,想要建设统一的 AIOps 体系,首先就要跨过这道鸿沟。如今,存储、计算与分析技术的进步,实现了异构数据的关联与串联,将分散在各个系统中的数据整合在一起,为全域智能运维奠定了坚实基础。

    技术的演进也推动了企业对 AIOps 认知的转变。周琦观察到,早期,企业引入 AIOps 的核心诉求只是保障系统的稳定性,关注的焦点集中在故障修复、告警处理等基础功能方面。但现在,企业的需求维度大大拓宽了,安全性、可扩展性、延时、用户体验等这些过去容易被忽略的“隐性成本”,正受到前所未有的关注。这种认知的升级带来需求的延伸,AIOps 不再仅是运维工程师的工具,还需要满足企业管理者对系统成熟度、跨模块依赖关系等深层因素的考量,真正覆盖多角色、多维度的运营需求。真正的 AIOps,不是让人去适应工具,而是让工具主动理解人、服务人、成就人。

    能力跃迁,让系统“能感知、会思考、可行动”

    大模型时代的到来,让 AIOps 具备了前所未有的智能化能力。那么,大模型究竟为运维领域带来了哪些质变?周琦用一个生动的比喻来解释,给 AI 装上“摄像头”。传统运维在很大程度上依赖于工程师的个体经验,一位经验丰富的老师傅心中通常有一张无形的系统拓扑图,知道哪里容易出问题、该如何分析。但这种宝贵的经验附着于个体,难以沉淀、复制和规模化。大模型的出现,结合阿里云构建的实时数据采集与分析引擎,相当于为 AI 赋予了感知能力,使其能够真正能“看懂”系统、“理解”故障、“思考”方案。

    这带来了运维能力的根本性跃迁。机器不再是机械地匹配预设规则、触发阈值告警,而是开始能够“读懂”告警信息背后的语义,“理解”系统当前真实的运行状态,甚至能“归纳”历史故障的复杂模式,并主动生成可供执行的修复建议。为此,阿里云提出 Operation Intelligence 理念,把人的经验变成系统的智慧,把个体的直觉转化为组织的资产,让系统具备“类人决策”能力,周琦将阿里云践行的 Operation Intelligence 理念概括为三个层面的能力进化。

    • 在感知层面,目标是突破传统监控中常见的“数据孤岛”,构建从终端设备到业务流程的全链路感知网络。
    • 在认知层面,关键在于融合大模型的通用理解能力与专用领域算法,将海量、原始的观测数据转化为可解释、可推理的系统关系图谱。
    • 最终,在行动层面,通过模型与算法的协同驱动,实现自动化的处置闭环,推动运维从“人工救火”向“系统自愈”转变,通过高效的人机协同大幅提升整体运营效能。

    当然,大模型并非万能,针对大模型“幻觉”问题,阿里云设计了一套双重保障机制。周琦介绍说,在技术层面,通过强化多源数据的交叉验证,将数据采集、清洗、预处理等基础但繁重的工作交由传统工具完成,让大模型聚焦在最核心的推理环节,从源头减少幻觉产生的可能性。在应用层面,系统支持企业外挂自身的私有知识库,利用行业或企业特有的领域知识来补充和修正通用大模型可能存在的认知盲区,确保建议的准确性与合规性。

    构建智能运维新范式,解放人力聚焦高价值

    理想与现实之间总是存在挑战。周琦坦言,阿里云在自身的大规模实践中深刻体会到两大核心难题。其一是数据层面的挑战,包括异构系统形成的数据孤岛、数据洪流带来的存储与算力压力。其二是认知层面的挑战,不同团队、不同系统之间存在的“语义鸿沟”,以及对系统拓扑、故障根因逻辑链的理解不一致问题。

    为了系统性地解决这些问题,阿里云将内部的实践经验产品化,形成了一套帮助企业在大模型时代构建智能运维新范式,并且在可观测产品中落地。

    这套架构分为三层,底层是以日志服务 SLS 为核心引擎构建的统一可观测数据平台,实现日志、指标、链路、事件等多类型数据的统一接入与存储。该引擎具备 EB 级存储规模和秒级千亿行查询能力,能轻松应对每天数百 PB 数据,在保障数据完整性的同时,综合成本较自建方案降低 50% 以上。更重要的是,它支持全栈、实时、无侵入的数据接入,覆盖从移动端到基础设施的 200 多种组件,让企业无需重构现有系统即可完成数据整合。

    image

    中层通过 UModel 统一模型构建 IT 系统的 “数字孪生”,这是阿里云可观测性产品的核心建模框架。UModel 基于本体论,提供了一套观测实体及实体关系的定义,覆盖从用户体验、应用服务、容器到底层基础设施的每一层表征。UModel 就像给整个 IT 系统建立一套通用语言词典,让应用、容器、网络等不同组件能用同一套语义对话,彻底告别“你说你的指标,我说我的日志”的沟通困境。周琦表示,这套标准化建模彻底消除了语义歧义,让不同部门、不同系统之间的协作更高效,也让运维人员的经验得以沉淀为可复用的组织资产,而非随人员流动流失。

    image

    上层则是以 AI Agent 为智能核心,实现“工具适应人”的新范式。Agent 采用自然语言交互方式,支持全场景上下文感知,用户可在任意界面随时召唤,直接通过自然语言提问,无需掌握复杂的查询指令。AIOps Agent 基于阿里云可观测平台的多源数据采集、存储、分析能力,采用“统一数据平台 + UModel + 传统算法 + 生成式 AI”的混合处理架构,能够自主规划、调用工具、执行分析并反思优化,可以提供从自然语言交互到自动化巡检的全流程运维辅助能力,解决各类开放和未知的运维难题,将运维人员从重复的查询、分析工作中解放出来。

    image

    周琦形象地说, “希望运维未来可以高度自动化,让 AIOps 把那些又脏又累的活儿做了。”这意味着,企业客户无需再投入大量宝贵的人力资源去完成数据采集、清洗、对齐等基础且繁琐的工程工作,阿里云的平台已经将这些“隐形工程”承担下来。

    如今,阿里云 AIOps Agent 已在 6000 多家企业落地,帮助大型企业客户实现故障 MTTR 从小时级降至小于 15 分钟。

    对于企业而言,部署 AIOps 的终极价值远不止于减轻运维团队的负担,而是它能释放出宝贵的研发与创新资源,让技术人才能够专注于业务价值创造。同时,它也能帮助企业系统性地管理那些以往容易被忽视的隐性成本与合规风险,从长远角度优化 IT 投资的整体回报。

    开源引领生态共建,推动“技术平权”愿景

    阿里云深知,“语义基座”的价值在于普及,而开源与生态建设是实现“技术平权”的关键,更能让全行业运维人员共同成长。为此,阿里云在开源布局、标准建设和生态协同上持续发力,推动 AIOps 行业整体进步。

    在开源布局方面,阿里云计划将 UModel 统一语义语言开源至社区,并向 OpenTelemetry 社区贡献了探针、采集器等核心工具。这些工具已被滴滴等公司开发人员广泛采用,大幅降低了行业重复开发成本。其中,无侵入探针的代码已开源在 GitHub 上,经过众多企业实战验证,在安全性和稳定性上备受认可,让中小企业无需自行研发即可获得高质量的数据采集能力。

    在标准建设方面,阿里云正在构建 AIOps 成熟度 Benchmark 榜单,构建了从数据分析到复杂异常检测的分级标准,涵盖基础任务处理、异常发现、根因分析、隐形问题挖掘、自主修复等不同阶段,让企业能够清晰评估自身能力水平,找到明确的进阶路径。周琦表示,希望可以和业界一起共创,攻克智能运维领域的难题,推动 AIOps 标准落地,促进整个可观测性领域的快速发展。

    在生态协同方面,阿里云通过大赛联动高校、企业,将工业界高频问题转化为赛题,促进产学研深度融合。通过大赛的方式,阿里云将标准 Benchmark 和真实场景赛题提供给参赛者,让高校学生、企业开发者都能在实战中提升能力,同时为行业贡献创新方案。

    周琦表示,阿里云通过开放共建的模式,打破技术壁垒,让不同规模、不同行业的企业都可以落地 AIOps,实现“技术平权”,让中小企业也能调用顶级“隐形工程师团队”,让每个运维人员都能借助智能工具发挥更大价值,向“智能运营专家”演进。

    未来趋势:自主 Agent 协同,运维能力重构

    展望未来,周琦从不同时间维度来做出判断。短期来看,低风险任务将实现全自动化闭环,如 IP 封禁、简单扩容等操作可由 AI 自主完成,而重要操作仍保留人机协同决策模式,确保系统安全。同时,多角色 Agent 协同雏形将逐步显现,运维、安全、成本控制等不同领域的 Agent 将共享统一数据视图,提升跨域运营效率。

    中长期来看,AIOps 将与 AI Coding、测试等环节深度打通,最终形成开发、测试到运维的全生命周期智能闭环。周琦解释道,AI Coding 目前在开发态做的非常有效,但从一个演示应用到企业级系统,部署后能稳定运行,还需要很长时间。“我们希望能够将 AI Coding 和 AIOps 串联,实现全局优化。让应用系统不光能跑起来,还能跑得更好、更稳,把运行态的状况实时反馈给 AI Coding。”

    技术的演进必然带来运维人员角色与能力的重构。周琦表示,过去,运维人员是“救火队员”,整天忙于处理各类故障;未来,他们将转变为“系统教练”,而他们的核心能力不再是重复的操作经验,而是架构设计、业务理解、多维度决策等高阶能力。未来的运维人员需要平衡安全、成本、合规、可扩展性等多重诉求,专注于系统长期价值的优化。

    结语

    在阿里云可观测团队的定义中,智能运维是一场深刻的范式转移。它以大模型为驱动,基于统一的数据平台与领域知识模型,实现了从“人适应工具”到“将人类创造力注入系统智能之中”的本质转变,最终构建起数据、认知与行动闭环融合的智能体系。

    纵观这场由 Operation Intelligence 引领的变革,其核心在于将运维智慧从依赖个人的隐性经验,沉淀为可复制、可迭代的组织数字资产,推动工程师从重复劳作中解放,实现价值的创造性升维。

    阿里云始终致力于通过自身实践与生态共建,让任何规模的企业都能获得顶级“隐形工程师”团队的支持,在数智化浪潮中聚焦核心创造,实现个人与企业的共同成长。

    正如周琦所言,“未来的运维竞争,将不再是工具的竞争,而是人的创造力与战略眼光的竞争”。当统一语言打通系统与智能的鸿沟,技术真正服务于人的价值释放,这场变革便不止于运维效率的提升,更将成为企业创新加速、行业持续进步的核心动力。

    远程桌面这种东西,按理说装一个就够用了,现实是我装了一堆。。

    todesk 、向日葵、网易 uu 、parsec ,Windows 自带的 rdp 连接,每种都有各自的优点。。。


    rdp 是因为自己组建了 tailscale 网络,网络带宽够的情况下体验很好,剪贴板、文件复制什么的。

    parsec 是因为 操作起来最流畅,因为它用到什么以实时视频串流为中心的原理,比其他的在操作上体验更好,远程 被操作的系统是 macOS 的情况下体验也很不错。


    但是这些的前提是 网络要通,万一 tailscale 不通了呢? 或者没正确启动呢,就得装个 todesk 之类 来 “远程操作一下启动 tailscale”,排下错之类,并且有时候 tailscale 网络也不是那么的好,效果不如这些商业软件。

    但是 todesk 等远程软件,是有几率自己挂掉的,连不上之类,免费的有限制,又焦虑了,再装一个 uu 远程保底吧。。

    最终就是,为了解决焦虑,至少同时在线 4 种远程桌面客户端。。

    本文为墨天轮社区整理的2026年1月国产数据库大事件和重要产品发布消息。

    IDC报告显示:2025上半年,OceanBase 以2810万美元营收稳居中国分布式事务数据库本地部署市场第一。国家开发银行近2822万采购南大通用Gbase 8a;浙商银行近930万采购GoldenDB。墨天轮发布“2025年度数据库”获奖名单"。2026 阿里云PolarDB开发者大会召开,发布PolarDBAI数据湖库等能力;PingCAP发布平凯数据库全新"一核三态"架构+2.0 内核……

    <font color=4169E1 size=4>1月国产数据库大事记 TOP10</font>

    image.png{{{width="auto" height="auto"}}}

    达梦数据库上线联通超大规模ERP,守稳年终决算大考

    1月2日,基于达梦数据库的联通数科大型国产ERP系统——"联通同舟ERP"成功完成中国联通集团总部及31家省级分公司的年度财务结账工作。此次结账覆盖300余家核算主体,支撑中国联通上万名用户高效作业,日均处置10余万笔凭证、年末数千万+资产集中折旧等高强度任务。随着该项目的成功落地,达梦数据助力中国联通在企业关键系统自主安全道路上取得阶段性重大突破。

    目前,在达梦数据库的支撑下,中国联通全栈国产化"同舟ERP"已经覆盖了中国联通集团和31省分公司100%的业务场景,平稳承接接近20年全量历史数据资产,在年度结账、海量业务处理等关键考验中实现稳定运行。

    能源首例!金仓助力中煤生产运营智控平台裸金属多租户数据库国产化落地

    1月3日消息,近日,中国中煤能源集团有限公司(简称“中煤”)在金仓企业级统一智控平台KEMCC的支撑下,成功上线了生产运营管控体系,涉及智控平台及其支撑的50+生产运营系统,成为能源行业首例裸金属多数据库实例多租户部署的国产化替换项目,拉通中煤的煤炭、电力、化工、销售等业务链条,为“煤与煤电”“煤电与新能源”联营提供数据支撑。

    image.png{{{width="auto" height="auto"}}}

    海量数据、达梦数据、万里数据库获评信创世界 “最佳信创数据库厂商”

    1月5日,“2025 XCWA信创世界年终大奖”正式揭晓,本届评选被誉为信创产业"奥斯卡",吸引上百家企业逾200份申报材料,经30位权威专家评审产生最终名单。在数据库领域海量数据、达梦数据库、万里数据库获评"最佳信创数据库厂商",YMatrix超融合数据库、OceanBase获评"年度最佳信创分布式数据库厂商"。

    万里数据库与山石网科达成战略合作

    1月5日消息,近日,万里数据库与山石网科正式签署战略合作协议。双方将基于各自在数据库与网络安全领域的技术积累与市场优势,围绕数据库安全测试、安全能力共建、解决方案融合、市场协同等多个维度展开深度合作,携手打造更安全、更可靠的信创数据基础设施,助力我国信创产业实现高质量发展。

    Apache Doris 官网 Ask AI 智能问答已上线

    1月6日消息,Apache Doris 官网现已正式推出 Ask AI 功能。您可以直接输入问题,它将基于官方文档快速定位答案,并关联相关的内容片段,为您提供贴合场景的说明。此外,所有回答均附有准确的文档链接,方便您随时查阅与验证,可称之为学习和使用 Doris 的得力助手。

    image.png{{{width="auto" height="auto"}}}

    IDC报告:OceanBase蝉联中国分布式数据库本地部署市场第一

    1月7日消息,近日,全球权威机构 IDC 发布的《IDC中国分布式事务数据库市场追踪,2025H1》报告显示,2025 上半年,OceanBase 以 2810 万美元营收,稳居中国分布式事务数据库本地部署市场第一。这是继 2024 年下半年后,OceanBase 连续两次在该细分市场拔得头筹。同时,在包含公有云的整体市场中,OceanBase 以 4060 万美元营收位列独立厂商第一、整体第四,持续领跑国产数据库阵营。

    image.png

    IDC 统计,2025 上半年,中国分布式事务数据库市场规模达 4.2 亿美元,同比增长 19.6%。其中,本地部署市场增速高达 24.9%,显著高于公有云部署模式,预计 2024-2029 年复合增长率将达 24.2%。分布式数据库正加速向金融、政务等核心系统渗透,在性能、稳定性与综合成本上比肩甚至超越国际产品。IDC 同时认为,当前市场集中度持续提升,前五大厂商已占据 82.5% 的市场份额。

    墨天轮发布“2025年度数据库”获奖名单

    1月7日消息,墨天轮社区发布“2025年度数据库”获奖名单,OceanBase、阿里云PolarDB、达梦数据库荣获"最具影响力数据库奖",其中OceanBase连续蝉联金融行业本地部署市场第一并发布AI原生数据库seekdb,PolarDB以TPC-C测试20.55亿tpmC性能及0.8元/tpmC性价比刷新世界纪录,达梦数据库在国产替代领域持续领跑;GoldenDB、腾讯云TDSQL、华为云GaussDB获"卓越表现数据库奖",展现金融级分布式数据库的成熟商用能力;YashanDB、移动云He3DB获"最具潜力数据库奖",代表国产数据库技术创新新势力。

    image.png{{{width="auto" height="auto"}}}

    国产芯 × 数据库,TimechoDB全球性能夺冠

    1月8日消息,近日,天谋科技基于 Apache IoTDB 开发的时序数据库 TimechoDB 与海光 C86 国产芯片、KeyarchOS 操作系统组合,在国际权威 TPCx-IoT 物联网数据处理性能基准测试中以 2465 万 IoTps 的速率夺冠,创下世界纪录。此次“国产 CPU+数据库”性能登顶,既彰显了国产算力在物联网时序数据处理领域从跟跑到领跑的历史性跨越,也呈现出 C86 与 TimechoDB 实现生态协同的创新成果。

    image.png{{{width="auto" height="auto"}}}

    TPCx-IoT 基准测试是全球公认的物联网数据处理能力权威标准,该测试主要模拟真实场景下大规模设备数据的采集、存储、查询与分析,对于算力性能和上层应用适配性要求严苛,其测试结果也被视为全球科技企业与行业用户的重要选型依据。

    达梦数据入选“2025上市公司高质量发展优秀实践范例”

    1月8日消息,近期,由《大众证券报》主办的2025上市公司高质量发展优秀实践案例评选结果揭晓,武汉达梦数据库股份有限公司获评2025上市公司高质量发展优秀案例实践典范·创新发展优秀案例及投资者关系优秀典范双奖。

    image.png{{{width="auto" height="auto"}}}

    国家开发银行2821.69万采购380个节点Gbase 8a MPP数据库+1年维保

    1月9日,国家开发银行发布《国家开发银行 一表通暨大数据服务平台建设项目(Gbase8a MPP数据库产品采购)结果公告》,由北京宇信科技集团股份有限公司中标,中标价2821.69万元。本项目需采购380个节点的Gbase 8a信创版本MPP数据库。供应商需具备Gbase 8a MPP数据库产品原厂授权资质,提供原厂服务完成各环境安装部署调试并配合提供开发支持,在系统全部上线后提供一年的原厂维保服务。

    金篆数据库GoldenDB助力广发证券科技柜台核心系统上线

    1月9日消息,近日,金篆数据库GoldenDB助力广发证券新一代经纪业务运营平台(以下统称为“NBOP”系统)完成全栈自主可控。NBOP系统是支撑全经纪业务运营的核心平台,服务全经纪业务条线超6000名业务人员的日常操作、超2000万名经纪客户的高频业务需求。新系统支持5000TPS下系统的平滑运行,整体性能较替换前显著提升!

    OceanBase DataPilot 获 Hugging Face DABstep 最高分!

    1月11日消息,OceanBase DataPilot 在被誉为“数据智能时代新基准”的 HuggingFace DABstep 基准测试 Hard 级别中获得全球最高分,并已连续 1 个月大幅领先第二名,位居全球第一。该⼯具旨在评估最先进的语⾔模型和 AI 代理在多步骤推理中的能⼒,特别是在数据分析领域的表现。

    DABstep 全球实时榜单:https://huggingface.co/spaces/adyen/DABstep

    《向量数据库管理系统技术要求》团体标准正式发布

    1月13日,中国电子工业标准化技术协会正式发布T/CESA 1485-2026《向量数据库管理系统技术要求》团体标准,该标准将于2026年2月13日正式实施。该标准填补了向量数据库在向量数据类型、向量检索、向量数据查询和向量存储管理等方面的标准空白,为行业产品研发、评估选型与生态建设提供了关键依据。

    image.png{{{width="auto" height="auto"}}}

    该标准由全国信标委数据库标准工作组(SAC/TC28/WG31)组织,星环信息科技(上海)股份有限公司、清华四川能源互联网研究院等单位参与制定。该标准界定了向量数据库管理系统的技术参考结构,规定了向量数据库管理系统的功能要求、存储管理、接口要求、系统管理和性能要求。适用于向量数据库管理系统的设计、开发、选型与检测。

    YashanDB 2026城市行落地成都,与云和恩墨共推国产数据库一体机创新实践方案

    1月13日,由深圳计算科学研究院、崖山科技主办的“2026 YashanDB数据库城市行”新年首站在成都举办。现场,YashanDB与云和恩墨联合发布了“zData X for YashanDB数据库一体机解决方案”,该全栈信创方案以卓越性能与简化运维,为关键业务提供了高性价比承载选择。此外,YashanDB与海光信息、佰思杰等伙伴的联合解决方案也一同发布,展现了其在多元技术生态中的融合能力。同时,YashanDB为西南地区一批新晋生态伙伴举行了授牌仪式。

    image.png{{{width="auto" height="auto"}}}

    zData X for YashanDB数据库一体机解决方案"基于云和恩墨自研的数据库运行基础平台zData X,深度适配YashanDB V23版本,实现了从服务器、操作系统、数据库到管理平台软件的全栈信创兼容,涵盖海光、鲲鹏等国产芯片,麒麟、统信、openEuler等国产操作系统,构建了自主可控的技术底座。

    image.png{{{width="auto" height="auto"}}}
    全栈信创的zData X for YashanDB一体机方案

    近930万!浙商银行GoldenDB数据库大单揭晓,索远电子脱颖而出

    1月14日消息,浙商银行发布《关于浙商银行2025年GoldenDB数据库软件授权与驻场服务采购的成交结果公告》,第一成交候选人为江苏索远电子科技有限公司,中标金额为9,288,596.40元。采购内容为GoldenDB数据库软件永久授权(除许可数量外,无其他限制,含一年原厂维保服务)。

    连获工信部赛迪认可!OceanBase 再入选“中国高质量软件及服务先锋榜”

    1月14日消息,近日,工信部赛迪顾问发布的《品质革命:2025中国高质量软件及服务系列研究》报告中,OceanBase 荣登“2025 中国高质量软件及服务先锋榜”,成为唯一上榜的国产分布式数据库厂商;同时,中国航信基于OceanBase打造的民航领域首批全栈国产离港系统也作为标杆案例入选报告,标志着OceanBase在金融、民航等关键领域的国产化替代能力获得权威认可。

    image.png{{{width="auto" height="auto"}}}

    赛迪顾问于2025年11月发布的《央国企软件应用市场研究报告》指出,从 2024 年的市场格局来看,央国企数据库市场各厂商不断突破发展,格局逐渐清晰。其中,海扬数据库 OceanBase 在发展能力和市场地位层面位列数据库市场本土厂商第一。

    image.png{{{width="auto" height="auto"}}}

    2 家金融核心搭载 OceanBase 及一体机斩获“鼎信杯”大奖

    1月14日消息,中邮证券和金谷国际信托联合OceanBase申报的两个项目在第四届"鼎信杯"大赛金融赛道中双双斩获"金鼎实践奖":中邮证券通过部署OceanBase数据库一体机(ODM)构建"三域一体"融合集群,实现TB级数据1小时极速切换、10:1数据压缩比及全栈极简运维;金谷信托则基于OceanBase分布式架构打造新一代核心业务平台,实现事务处理效率提升30%、每秒1000+笔高并发处理能力及99.99%核心服务可用性。

    截至目前,OceanBase已服务全部政策性银行、5/6国有大行及超100家千亿级银行,支撑190余个核心系统,连续两年位居金融行业本地部署市场第一。

    第八届金猿奖-2025中国大数据产业「年度国产化优秀代表厂商」榜单/奖项发布

    1月14日,第八届金猿大数据产业发展论坛在上海举行,会上首次公布了“2025中国大数据产业年度国产化优秀代表厂商”榜单,宝兰德、传神语联、东方通、电科金仓、海量数据、极限科技、浪潮KaiwuDB、四维纵横、天谋科技、腾讯云、易捷行云、智臾科技(DolphinDB)、曙光存储等13家企业上榜,涵盖中间件、数据库、云计算、存储、AI大模型等基础软件领域,全面展现了国产软硬件在核心技术突破、全栈自主创新及关键行业替代中的最新成果。

    image.png{{{width="auto" height="auto"}}}

    • DolphinDB荣获2025中国大数据产业年度「AI Infra领先企业」和「国产化优秀代表厂商」两项大奖,这些奖项不仅肯定了 DolphinDB 在 AI 基础设施建设中的技术领先性,也彰显了其在国产化替代与行业落地实践中的独特价值。

    Milvus 2.6云上GA:三层存储降本85% 、速度快ES 4-7 倍

    1月15日消息,Milvus 2.6.x正式在Zilliz Cloud云上GA,通过三层分层存储架构(内存+本地SSD+对象存储)通过智能LRU预测将存储成本降低87%、计算支出减少25%,整体TCO接近S3水平;Index Build Level索引策略实现精度与成本自动平衡;新增地理空间、时区时间戳、INT8向量等数据类型;JSON Shredding与JSON Path索引让元数据过滤提速100倍;BM25全文搜索速度较Elasticsearch快4-7倍且支持关键词+向量混合检索……覆盖AWS、GCP、Azure、阿里云、腾讯云五大平台,成为全托管、生产就绪的AI应用开发平台。

    云和恩墨荣获超聚变2025行业贡献伙伴奖

    1月16日,2026超聚变四川伙伴大会在成都召开,近190家核心生态伙伴齐聚,共探智能体时代产业机遇,并对2025年做出突出贡献的渠道合作伙伴予以表彰。云和恩墨凭借与超聚变的深度协同创新,以及在多行业软硬件一体化方案的落地实践,荣获“2025行业贡献伙伴奖”。

    image.png{{{width="auto" height="auto"}}}

    方案中,超聚变FusionServer系列机架服务器作为“硬件基石”提供算力支撑;云和恩墨zData X多元数据库一体化承载平台则作为“软件大脑”,以全栈管理能力激活硬件潜能、运行数据库工作负载。双方联合打造的一体化解决方案,已在医疗、贸易、金融、能源等多行业核心业务场景落地。例如山东省某医院HIS系统、上海某贸易企业BI系统、贵州某证券公司OA/HR系统及某省电力营销2.0系统等项目。

    正式获批!清华大学联合海量数据、清华工研院共建“数据智能北京市重点实验室”

    1月21日消息,清华大学联合海量数据、清华工研院共建的"数据智能北京市重点实验室"正式获批,由清华大学计算机系李国良教授担任主任。该实验室聚焦AI原生数据库、自主数据科学系统、可信数据空间三大方向,致力于构建安全可信、智能高效的新一代数据基础设施。

    时序数据库 Apache IoTDB 入选国家重点研发计划高新技术成果产业化试点

    1月22日,工业和信息化部正式公布《2025 年度国家重点研发计划高新技术成果产业化试点名单》,分布式时序数据管理系统 Apache IoTDB 作为相关技术成果之一入选。此次入选,反映了该技术成果在基础软件领域的持续研发积累,以及其在工程化与产业化应用方面形成的实践经验。

    image.png{{{width="auto" height="auto"}}}

    国家重点研发计划重点资助事关国计民生的重大社会公益性研究,工业和信息化部最终确定 67 个试点成果与 108 个试点单位,为高新技术从“实验室”走向“产业化”铺就高速路。IoTDB 项目自 2011 年起由清华大学软件学院团队研发,2018 年开源加入 Apache 软件基金会,并于 2020 年毕业成为 Apache 顶级项目。2021年天谋科技成立,围绕 IoTDB 构建企业级国产信创产品与工程化交付体系,推动技术成果实际落地。

    DolphinDB与DSG 达成生态合作,异构数据同步再添新选择

    1月22日消息,浙江智臾科技有限公司(简称:DolphinDB)和迪思杰(北京)数据管理技术有限公司(简称:DSG)近日达成深度合作,依托双方核心技术优势联合推出 Oracle、MySQL 等数据源到 DolphinDB 的专属实时数据同步方案,构建“数据高效流转-高性能分析”一体化能力,为金融、能源、工业制造等关键行业提供数据驱动决策新支撑。

    达梦数据与梦石科技达成战略合作,赋能自主医疗新生态

    1月22日消息,近日,达梦数据与梦石科技近日正式签署战略合作协议,双方将在产品整合、技术研发、市场拓展等领域深度合作,共同探索智慧医疗领域的创新应用场景,打造国产自主创新产业生态新标杆,助力医疗行业数字化、智能化升级。

    虚谷伟业荣获成都市信创密码 “2025 年度优秀合作伙伴”称号

    1月26日消息,虚谷伟业在成都市信创密码适配服务中心2025年度工作总结暨优秀合作伙伴表彰会上,凭借在信创密码产业生态建设中的深度协作与卓越表现,获评“2025年度优秀合作伙伴”,与华为、海光信息、麒麟软件等企业共同上榜,彰显了其在信创数据库领域的核心实力。

    赛迪顾问:达梦数据再获金融集中式国产第一,南大通用GBASE在金融行业云数仓市场占有率第一

    1月28日消息,近日,赛迪顾问发布《中国金融业数据库市场研究报告(2025)》。达梦再获中国金融行业集中式数据库国内厂商第一,并在银行、保险、证券三大子市场竞争象限中分别位列第一。这已是达梦连续2年斩获该领域桂冠。GBASE南大通用是唯一一家分布式与集中式数据库均位居金融业(包含银行业、保险业)领导者象限,同时取得金融业用户渗透率第一、云数仓市场占有率第一的“双第一”成绩。

    image.png{{{width="auto" height="auto"}}}

    截至2025年底,达梦数据已服务超过260家金融机构客户,累计支撑超过2500套金融业务系统稳定运行,其中包括:银行业务系统1700余套,证券业务系统350余套以及保险业务系统450余套。目前,GBase数据库已覆盖金融主管单位、政策性银行、国有大行、股份制银行、城商行、农商行、农信社及保险、证券等各类机构270余家。

    云和恩墨与崖山科技战略携手,多维协同共筑国产数据库创新生态

    1月28日,云和恩墨与崖山科技在北京正式签署战略合作协议,双方将在产品研发、市场开拓、客户服务及生态赋能等多维度展开全面协同,联合打造"Data+AI"融合解决方案,重点突破金融、政务、制造等关键行业核心场景,共筑国产数据库创新生态。

    image.png{{{width="auto" height="auto"}}}

    <font color=4169E1 size=4>1月产品/版本发布</font>

    2026 阿里云PolarDB开发者大会召开,PolarDB发布AI数据湖库等产品能力

    1月20日,2026阿里云PolarDB开发者大会盛大召开,阿里云旗下云原生数据库PolarDB正式发布系列全新产品能力,包括AI数据湖库(Lakebase)、模型算子化以及面向Agent应用开发的托管能力等。与此同时,阿里云PolarDB首次阐释了“AI就绪数据库”的四大核心支柱,包括多模态AI数据湖库、高效融合搜索能力、模型算子化服务以及面向Agent应用开发的后端服务。

    image.png{{{width="auto" height="auto"}}}

    目前,阿里云PolarDB海内外用户规模已超2万,部署规模超300万核,覆盖全球86个可用区。

    2026 平凯数据库新品分享会举办,一核三态,重塑 AI 时代数据底座

    1月22日,平凯星辰举办"一源·三生·共进化"新品分享会,正式发布平凯数据库(TiDB企业版)全新"一核三态"架构——基于同一内核衍生出敏捷模式(存算聚合)、标准模式(3~∞节点存算分离)、聚能模式(存算聚合+亲和调度)三种部署形态,破解数据库选型"水平扩展、业务透明、极致性能"难以兼得的"不可能三角",实现数据分布"可聚可散"的自适应能力。同时发布新一代内核及平凯数据库云服务。

    image.png{{{width="auto" height="auto"}}}

    • 敏捷模式:专为 TB 级以下数据量及创新业务设计。敏捷模式仅需 1-3 个节点即可起步,不仅读写性能大幅优于 MySQL,压缩率更提升 3 倍以上,提供了优于单机主从架构的高可用能力,极大地降低了客户的试错成本与使用门槛。
    • 标准模式:延续经典的存算分离架构,在水平扩展与业务透明性上保持业界标杆水准,完美适配数据量快速增长的成长型与核心业务场景。
    • 聚能模式:专为对延迟极度敏感的场景打造。通过内存直连与亲和性调度等技术创新,将延迟降低至原来的 1/4,吞吐提升 2-3 倍,让客户无需牺牲分布式弹性即可享受单机般的极致性能。

    image.png{{{width="auto" height="auto"}}}

    • PingCAP新一代内核通过存算分离 2.0 架构,实现了对数据库内部模块的深度解耦与抽象。这一技术突破使得在线任务、离线计算与 AI 引擎(如向量、全文索引)之间能够实现“零干扰”的资源隔离。基于该内核的平凯数据库云服务将于 2026 年上半年正式推出。

    image.png{{{width="auto" height="auto"}}}

    相关资料

    点击阅读原文:https://www.modb.pro/db/2019292973163438080


    欲了解更多可浏览墨天轮社区,围绕数据人的学习成长提供一站式的全面服务,打造集新闻资讯、在线问答、活动直播、在线课程、文档阅览、资源下载、知识分享及在线运维为一体的统一平台,持续促进数据领域的知识传播和技术创新。

    关注官方公众号: 墨天轮、 墨天轮平台、墨天轮成长营、数据库国产化 、数据库资讯