包含关键字 typecho 的文章

作者:家泽

随着万物互联时代的全面开启,智能网联汽车、智慧工业、智能家居等场景产生的数据量呈几何级数增长。如何高效地从海量的物联网(IoT)设备中采集数据,并进行实时的分析处理,已成为企业实现数字化转型的核心挑战。

阿里云凭借其深厚的技术积淀,推出了“云消息队列 MQTT + Kafka 实时数据分析一体化解决方案”。该方案通过深度整合移动端/设备端连接利器 MQTT 与大数据流处理核心引擎 Kafka,为车联网及物联网行业提供高可靠、高性能、极简运维的数据处理链路。

双剑合璧:MQTT 与 Kafka 的价值互补

在典型的物联网架构中,MQTT 与 Kafka 分别扮演着“连接”与“计算”的关键角色:

  • 云消息队列 MQTT 版

MQTT 是一种基于发布/订阅(Publish/Subscribe)模式的“轻量级”通信协议,构建于 TCP/IP 协议之上,目前已成为物联网(IoT)领域的标准传输协议。MQTT 的核心目标是用极少的代码和有限的带宽(最小的消息报头仅为 2 字节,非常适合带宽受限的网络),为远程连接的设备提供实时、可靠的消息服务。MQTT 在协议层具备的三大关键机制非常契合终端与云端服务连接与通信的各类业务场景。

阿里云云消息队列 MQTT 版是专为移动互联网、物联网领域设计的行业标准协议消息引擎,支持千万级并发连接、百万级 Topic、超轻量级协议头,是解决海量设备“上云”最后一公里的不二之选。

作为大数据生态的“定海神针”,阿里云云消息队列 Kafka 版(全托管 Kafka 服务)采用存算分离的多可用区容灾架构,提供极致的自适应弹性能力,计算层与存储层的弹性解耦,可在扩容时秒级完成新副本的数据接管与服务提供,保障业务在面临不可预期流量时依旧平稳运行,最高支持 10 倍弹性。云消息队列 Kafka 版具备高吞吐、低延迟、无限扩展的存储能力,是实时计算、流式处理及数据湖集成的核心中枢。

端到端一体化架构:从感知到决策

MQTT + Kafka 的产品组合是物联网(IoT)与车联网等实时数据处理场景中非常流行的架构模式。它结合了 MQTT 的轻量级、低延迟设备通信能力和 Kafka 的高吞吐、可扩展的数据流处理能力,形成了一套高效、可靠、可扩展的端到端数据传输与处理解决方案。

image

1. 多维触达,感知无处不在

车机设备、智能硬件及各类移动终端应用,海量的异构设备都能通过轻量级的 MQTT 协议实现高并发、低功耗的稳定接入,解决海量碎片化数据的“上云”第一站。云消息队列 MQTT 版提供 Token 鉴权、签名鉴权、自定义鉴权、x.509 证书认证、webhook 鉴权等多种安全认证方式,保障数据在公网链路传输的安全性。

2. 智慧中枢,敏捷分发过滤

云消息队列 MQTT 版不仅负责千万级设备的长连接管理,更提供强大的规则引擎。 规则引擎支持将 MQTT 客户端的各类行为事件实时投递至 Kafka,包括:

  • 规则引擎就像一个高效的调度大脑,它能根据业务需求,对设备上报的原始数据进行实时过滤、清洗与路由。
  • 规则引擎允许用户通过类 SQL 语法,直接对 MQTT 消息 Payload(有效载荷)进行解析。例如,可以筛选出“温度 > 100 度”或“车速 > 120 km/h”的特定消息,精准投递至 Kafka 对应的 Topic 中。这种“边缘过滤、云端处理”的模式,极大地减轻了后端系统的处理压力。
  • 无需编写复杂代码,即可将特定的事件(如设备状态、设备订阅状态、消息接收状态)精准投递到后端,实现数据的“按需分发”。

事件说明:

  1. 上下线事件:实时感知设备状态,用于车辆掉线预警或设备在线率统计。
  2. 订阅/取消订阅事件:监控客户端订阅动态,保障业务逻辑准确性。
  3. 消息确认(ACK)事件:实现端到端的可靠性监控,确保关键指令准确送达。

3. 性能巅峰,数据流转枢纽

数据经过初步过滤后,汇聚到云消息队列 Kafka 版。作为大数据生态的核心枢纽,Kafka 凭借其极致的吞吐量与持久化能力,起到了“削峰填谷”和“高可靠缓冲”的作用,确保数据在面对流量洪峰时依然稳如磐石,为后续的高性能计算提供源源不断的动力。

4. 价值释放,驱动业务创新

数据流最终注入核心业务领域,实现从数据到资产的蜕变:

  • 业务应用层:实时触发业务逻辑,如远程控车、告警推送,让反馈就在毫秒之间。
  • 实时计算层:通过 Flink 等流计算引擎,实现毫秒级的实时分析,如驾驶行为评估、实时大屏监控。
  • 数据湖/仓层:将数据长久沉淀,构建企业级数据资产,为长期的算法训练、趋势预测及合规审计提供数据支撑。

典型应用场景:从车联到智造

场景一:智能网联汽车

在车联网场景下,车辆行驶数据(位置、胎压、电量)通过 MQTT 协议高频上报。企业可以将这些数据实时引流至 Kafka 进行分析,构建驾驶行为画像(如急刹车、超速分析)或电池健康监控系统。当规则引擎捕捉到车辆故障代码(DTC)时,可投递到 Kafka 触发,后端告警服务消费后立即告警。

场景二:工业物联网

在智慧工厂中,成千上万的传感器部署在生产线上。通过 MQTT 收集设备的振动、频率等原始数据,利用规则引擎过滤掉冗余噪声,将关键数据送入 Kafka 再结合流计算引擎进行预测性维护。一旦发现设备运行参数异常,系统能在故障发生前发出维修指令,避免非计划停机。

场景三:智慧物流与冷链运输

物流车辆在行驶过程中,环境温度、湿度及位置信息至关重要。MQTT 负责保障在弱网环境下数据的可靠传输,Kafka 则承载这些时序数据用于路径优化算法和合规性审计。通过上下线事件,调度中心可以实时掌握每一台物流车的在线状态,确保运输任务的连续性。

为什么选择阿里云 MQTT + Kafka?

阿里云“MQTT+Kafka”实时数据分析解决方案,助力企业加速释放数据价值:

  1. 链路极致简化:无需自建中间件桥接程序,通过规则引擎一键打通 MQTT 与 Kafka,大幅降低开发与运维成本。
  2. 高可用与高可靠:依托阿里云计算底座,提供最高 99.99% 的可用性保障,即便在海量数据冲击下也能确保数据不丢、不重。
  3. 极致弹性伸缩:存算分离架构支持按需弹性,轻松应对业务高峰期(如车展、抢购活动)带来的瞬时流量压力。

阿里云消息团队将继续深耕消息领域,通过不断迭代云原生消息产品能力,为各行各业的万物互联应用提供更坚实的数据枢纽。

立即了解:

如需了解更多,欢迎加入 钉钉交流群(群号:35228338) 与我们联系~

观测云提供一站式云、云原生、应用及业务的可观测解决方案,日志监控器是其核心功能之一,它不仅仅是一个被动的日志收集和存储工具,更是一个主动、智能的日志分析与监控告警平台。它的设计目标是帮助开发、运维和业务团队从海量的日志数据中快速发现问题、定位根因并及时响应。日志监控器的核心价值在于将非结构化的日志数据转化为可观测的结构化信息,并通过监控和告警机制,使其成为保障系统稳定性和业务连续性的有力工具。

通知对象

观测云支持向钉钉、企业微信、飞书等渠道发送通知,使用时需要先创建通知对象。点击「监控」 -「通知对象管理」-「新建通知对象」。

图片

填写消息推送机器人的 Webhook 地址。

图片

告警策略

点击「监控」 -「告警策略管理」-「新建告警策略」。通过关联监控器与告警策略,系统可在异常发生时即时向指定对象发送通知。策略支持配置名称、描述、时区与操作权限等基础信息,并允许按告警等级、通知对象两个维度灵活定义通知规则。针对高紧急度场景可启用升级通知机制,同时支持自定义通知发送时段,以适配不同时段的业务需求。

图片

日志监控器

「监控」 -「监控器」-「新建监控器」,选择“日志检测”,依次配置“检测配置”、“事件通知”、“告警配置”。

检测配置

如下图是按主机和服务的维度,统计 5 分钟内 mall-admin 服务中状态是 error 的日志条数。

图片

当错误数大于等于 2 条时触发致命告警。

图片

事件内容

支持自定义事件通知的标题与内容。

插入日志变量

点击"变量"选择需要展示的变量名,比如 host、service。

图片

插入链接

点击“链接”插入日志查看地址,实现告警界面一键跳转到观测云。

图片

附加信息

点击"添加附加信息"选择日志字段(如 message),在告警内容中展示。

图片

点击“变量”插入 {{df_related_data.message}},建议截取前200字符避免超出告警工具长度限制。

图片

告警策略

配置告警策略后,系统将向对应对象发送通知。

图片

恢复事件

连续两个周期无异常触发恢复事件,留空则不发送。

图片

告警通知

告警触发后,事件中心关联事件的“通知”列显示企微图标即表示推送成功。

图片

在企微机器人群收到如下信息。

图片

问题排查

企微未收到告警时,请在“事件中心”查找对应事件:

  • 无事件:检查监控器DQL配置
  • 事件存在但通知列无企微图标:检查通知对象与静默期设置
  • 通知列有企微图标:可能因告警过于频繁触发Webhook限流

无事件排查

打开监控器,复制上方的 DQL。

图片

复制出来的 DQL 如下:

window("L('default')::RE(`.*`):(count(`*`)) { `service` = \"mall-admin\" AND `status` = \"error\" } BY `service`, `host`", '5m')

打开「快捷入口」 -「DQL 查询」,粘贴 DQL,去掉外层的 windows 函数,去掉转义,检测区间选择和监控器相同,点击“执行”。如果无数据则不会触发告警。

图片

阿里云云原生数据库 《PolarDB AI 实践全景:加速企业大模型应用落地》 电子书现已正式发布!

本书系统阐述了阿里云核心自研云原生数据库 PolarDB 与 AI 融合的技术路径、核心场景及未来趋势。重点解读了 PolarDB 面向 AI 的关键能力,给出了可复用的解决方案与架构路径,覆盖典型场景的选型、集成与落地要点;并通过客户实践案例还原了从 PoC 到生产的关键决策与实践经验。

站在 AI 与数据库融合的拐点,我们相信:谁掌握了数据的“主动权”,谁就掌握了智能时代的“话语权”。

希望本书能成为您探索 AI 实践的指南针——无论是开发者、架构师,还是企业决策者,都能从中找到属于自己的“数据智能跃迁之路”。

点此立即免费下载:https://developer.aliyun.com/ebook/8438

模思智能简介

上海模思智能科技有限公司(MOSI Intelligence)成立于2024年11月,是国内深度情境智能领航者,依托深厚的学术积淀与卓越的工程落地能力,致力于构建下一代全感官人机交互体系。公司由复旦大学知名教授邱锡鹏担任首席科学家,以复旦大学自然语言处理实验室(FudanNLP)的MOSS团队为核心组建。

模思智能专注于端到端语音大模型与多模态智能体研发,其核心产品MOSS-Speech率先实现“真·语音到语音”交互,跳过文本中转瓶颈,能够原生捕捉并生成语调、情绪与笑声,为内容创作、数字人及具身智能提供更自然、更具温度的交互底座。

阿里云 MaxCompute 云原生 AI 数据平台:赋能 AI 数据处理工作流加速

在人工智能技术快速迭代的今天,多模态数据处理已成为大模型训练与应用开发的核心挑战。图像、视频、音频等非结构化数据的爆发式增长,对数据处理平台的算力类型、弹性、计算引擎数据处理能力及多模态数据统一管理能力提出了更高的要求。

阿里云与模思智能达成深度合作,基于阿里云 MaxCompute 构建云原生一站式多模态数据处理平台,同时通过 MaxCompute 自研分布式 AI 计算引擎 MaxFrame 实现对多模态数据高效开发、处理,为大模型研发、创新提供了坚实的数据基座。

业务挑战

随着模思业务规模扩大,面临本地IDC在存储、算力与网络上的扩展瓶颈,难以支撑高并发、大规模音视频处理 Pipeline,同时自建平台耗费大量人力,制约了其核心 AI业务的创新、发展。

  • 本地IDC架构性能瓶颈

随着模思业务规模的扩大和模型训练对数据量、处理时效性的要求提升,原有IDC基础设施在计算弹性、存储容量、I/O性能、网络带宽等方面已无法满足高并发、大规模音视频等多模态数据的处理需求。

此外,多模态数据预处理流程复杂,涉及视频切帧、语音识别、音频文字提取等多种操作,面对海量多模态数据清洗、处理等计算密集型任务,传统 IDC 自建方案出现性能瓶颈、频繁任务失败等问题,作业稳定性、性能难以保障。

  • 异构资源调度复杂度高

多模态数据处理 Pipeline 需同时调度数千卡与数万核算力资源,传统调度系统难以实现跨模态任务(如音频转写、视频抽帧、特征提取等)对异构计算资源的精细化、高效率分配与协同。

  • 非结构化数据管理困难

音视频等非结构化数据缺乏统一的元数据管理体系,导致数据不可见、难检索、生命周期难追踪,影响数据资产的高效利用与治理 。

  • 缺乏统一任务管理与可视化支持

原有数据处理流程依赖单机 Python 程序完成开发、调试与生产任务,缺少可视化任务开发、管理、调度和运维能力,多参数迭代效果评估困难,开发效率低下。

  • 开发与运维人力投入受限

基于自建数据预处理框架、集群需投入大量人力进行开发与维护,业务团队难以专注于核心AI业务创新。

解决方案

阿里云为模思智能打造了基于MaxCompute MaxFrame的一体化多模态数据处理方案,构建从可视化作业开发、数据管理及多模态数据处理的完整闭环。

  • 高效、稳定的分布式多模态数据处理

    • 依托 MaxCompute 自研分布式 AI 计算引擎 MaxFrame,实现对音视频数据进行标准化、切分、语音识别等高效处理。 MaxFrame 支持通过 Rebalance 实现数据切分、并发控制,从而在内存与吞吐之间取得平衡,放大性能收益。
    • 分布式 AI 计算引擎 MaxFrame 支持在一个作业 Pipeline 中同时调度异构计算资源,将各类多模态数据处理算子合理分配至不同的异构计算资源中执行,充分、合理利用算力资源优势。
  • 统一数据管理与元数据采集

    • 基于阿里云对象存储 OSS 进行原始音视频数据统一存储,通过高速内网直连为 MaxCompute 提供了超高带宽及 IO性能。针对多模态小文件,OSS提供了极高的QPS解决了在高并发下的延迟抖动问题,保障算力充分利用。
    • 通过 MaxCompute 提供的 Object Table 表类型,实现对 OSS 上存储的多模态图片、视频等非结构化数据的元数据自动采集与统一纳管,支持结构化与非结构化数据集的目录化管理,便于数据的检索与调用。
  • 开箱即用的开发体验

    • 通过 Dataworks 实现多模态数据处理任务Pipeline的编排、调度、运维,一站式管理任务。处理完毕后沉淀的AI资产,通过数据地图对外统一展示、搜索、权限申请、查看数据血缘,完成AI数据资产的管理。
    • MaxFrame 作为 MaxCompute 自研分布式 AI 计算引擎,提供开箱即用的分布式、多模态数据处理能力,内置任务调度、作业容错与自运维能力,大幅降低开发维护成本,使业务团队能聚焦于核心AI创新。
    • MaxFrame 与 DataWorks Notebook 深度集成,提供可视化开发、调度、管理平台,支持灵活的 Python 开发生态与开发环境,无需复杂环境配置即可快速启动多模态数据处理任务,显著降低作业开发门槛。

业务价值

合作实施后,模思智能在数据处理流程多个维度实现显著突破。计算资源利用效率大幅提升,通过 MaxCompute "包月固定资源 + 按需弹性资源"的组合模式,高峰期可快速扩展至 数万核 计算资源,计算资源利用率提升 30% 以上。多模态数据处理效率实现质的飞跃,基于 MaxFrame 构建的分布式处理架构替代原有自建方案,音视频预处理,性能提升 100%,整体数据处理 Pipeline 耗时大幅缩短,批量推理任务借助弹性GPU异构资源实现高效执行。平台运维复杂度显著降低,全托管云原生PaaS能力使团队无需投入大量人力进行底层基础设施维护,运维资源投入减少 50%,得以更专注于核心AI业务创新。

总结与展望

阿里云与模思智能的成功合作,验证了基于 MaxCompute 构建云原生多模态数据处理平台的可行性与技术优势。该方案有效解决了大模型时代多模态数据处理的资源弹性、性能瓶颈与统一管理等核心挑战,为AI应用研发提供了高效、可靠的数据基础设施。未来,双方将继续深化在多模态数据处理、大模型数据预处理等前沿场景的联合创新,推动 Data + AI 技术在更广泛行业的规模化应用,助力企业加速AI价值释放。

2026 年伊始,大模型产业的叙事逻辑正在发生一场深刻的裂变:如果说 2024 年和 2025 年的主旋律是“模型跑通”和“百模大战”,那么进入 2026 年,企业级用户最头疼的问题已经变成了“哪个 API 更好用”以及“如何保证调用不掉链子”。

 

在这一背景下,1 月 29 日在北京举行的「Ping The Future:智能跃迁,路由新境——清程 AI Ping 产品发布会」显得尤为及时。这场发布会不仅是一次产品亮相,更是对大模型进入“工程化下半场”的一次集体把脉。

 

为什么在 2026 年的今天,诊断大模型的好坏变得如此重要?为什么“智能路由”会成为像清程极智这样的基础设施公司关注的焦点?这要从目前大模型行业面临的“三大痛点”说起。

 

目前,企业在接入大模型时,普遍面临着以下三个“既要又要还要”的困境:

 

  • 痛点 1:API 服务的“盲盒化” (Stability Crisis)目前的模型 API 市场鱼龙混杂。同一款模型,由不同供应商提供,其响应速度和成功率可能天差地别。企业往往在遭遇大规模调用失败后,才发现后端服务早已“掉线”。

 

  • 痛点 2:成本与性能的“跷跷板” (Cost TCO)顶尖模型(如 GPT-5 或同级别国产大模型)极贵,轻量级模型虽然便宜但智力不足。在数以万计的调用中,如何不为了“杀鸡”而动用“牛刀”?

 

  • 痛点 3:供应商锁定与迁移成本 (Vendor Lock-in)企业如果只依赖一家模型商,一旦其服务波动或策略调整,业务就会瘫痪。但接入多家 API 又面临协议不统一、负载均衡难等工程化难题。

 

此外,清华大学教授郑纬民在发布会上指出,当前人工智能基础设施的核心任务正在发生变化。

 

过去,AI Infra 主要服务于大模型的训练与推理,解决“如何生产智能”的问题;随着模型生态不断丰富和智能体广泛应用,行业正在进入以“智能流通”为核心的新阶段,更加关注模型能力如何在真实业务中高效、稳定地被使用

 

他表示,实现智能流通的关键在于智能路由能力建设,其中既包括在多模型环境下为不同任务选择最合适模型的“模型路由”,也包括在同一模型的多种 API 服务提供者之间进行性能与成本优化调度的“服务路由”。两类路由能力协同发展,将形成完整的 AI 任务分发网络,决定人工智能系统的最终效率和使用成本。

图说:清华大学教授郑纬民

清程极智 CEO 汤雄超完整地介绍了清程极智的企业定位和产品布局,他表示,从大模型训练与微调,到推理部署的高性价比实现,再到应用阶段对服务稳定性和使用效率的更高要求,AI Infra 的关注重点正在不断演进。

 

他介绍,清程极智长期围绕大模型训练、推理和应用三类核心场景开展技术实践,先后推出八卦炉训练系统和赤兔推理引擎,支撑模型在多种算力环境下的高效训练与部署。随着 AI 应用和智能体快速发展,模型能力如何在真实业务中高效流通成为新的关键问题。基于这一背景,清程极智推出 AI Ping,一站式 AI 评测与 API 服务智能路由平台,完善大模型应用阶段的基础设施能力。

图说:清程极智 CEO 汤雄超

在产品发布环节,清程极智联合创始人,AI Ping 产品负责人师天麾对 AI Ping 平台进行了系统地介绍。AI Ping 聚焦大模型服务使用环节,围绕模型服务评测、统一接入与智能路由等核心能力,构建起覆盖“评测—接入—路由—优化”的完整链路。平台以真实业务场景为导向,对不同厂商、不同模型 API 的延迟、稳定性、吞吐与性价比等关键指标进行长期、持续观测。

 

目前,AI Ping 已覆盖 30 余家中国大模型 API 服务商 ,在统一标准与方法论下对模型服务能力进行对比分析,为企业在复杂的模型与服务选择中提供更加理性的决策参考。

 

发布会当天,清程极智与华清普智 AI 孵化器(T-ONE Innovation Lab)联合发布了《2025 大模型 API 服务行业分析报告》。该报告基于 AI Ping 平台 2025 年第四季度的真实调用数据与持续性能监测结果,从模型、服务商与应用场景三个维度,对当前大模型 API 服务的供给结构与使用特征进行了系统分析。

 

报告指出,根据各开源模型请求数据,以总请求量排序,DeepSeek-V3/R1 位居首位、其后为 DeepSeek-V3.2,随后进入高调用梯队的是千问(Qwen)家族的多款模型,包括 Qwen3-32B、Qwen2.5-72B 与 Qwen3-235B-A22B 等。整体而言,头部模型呈现出“少数强势型号占据大盘、同一模型家族内多版本并存” 的结构特征。

 

图说:头部开源大模型总请求次数(归一化处理)

 

同时,报告研究团队观察到,Qwen2.5-72B 的调用量维持在较高水平,这一现象在“新模型加速迭代”的叙事下具有一定反直觉性。一个合理解释是,近期新发布模型在 70B 量级的稠密(dense)架构供给相对稀缺,而部分存量 AI 应用在工程实现、效果调优与线上回归体系上,曾围绕 Qwen2.5-72B 与 Llama3-70B 等稠密模型完成了较为充分的验证与沉淀。在此背景下,终端用户更倾向于继续采用已被业务场景验证的“稳定基线”,而非立即迁移至理论能力更强但尚未完成工程 化与业务闭环验证的新模型。

 

换言之,模型选择不仅由模型能力上限决定,也受到迁移成本、线上风险与可验证性约束的共同塑造

 

类似的“版本并存”现象亦体现在同一模型家族内部:尽管 Qwen3-32B 与 QwQ-32B 同属千问系列模型,参数规模接近且 Qwen3-32B 发布时间更晚,但 从调用结构看,Qwen3-32B 尚未完全替代早期的 QwQ-32B。同样地,DeepSeek -V3.1 与 DeepSeek-V3.2 的推出并未完全挤出 DeepSeek-V3 的存量份额。这表 明,模型迭代并不必然带来“单调替换”,而更常呈现为多版本在不同任务偏好、 推理成本与既有集成依赖下的分层共存。

 

报告进一步统计了各开源模型被各个平台的支持程度,按模型所属系列进行聚合。

 

从下图中可见,DeepSeek 是最受服务商欢迎的模型系列。aiping.cn 下共收录 29 家服务商,头部的模型 DeepSeek-V3/R1、DeepSeek-V3.1 均有 23 家服务商支持。如果合并所有支持 DeepSeek 的服务商,共计 24 家服务商支持至少一种 Deepseek 模型。其中的差异是因为 DeepSeek 官方目前仅支持其最新的模型 DeepSeek-V3.2,而不再提供 DeepSeek-V3.1 的服务。

图说:提供各模型 API 调用的服务商的数量

值得一提的是,在模型与服务商高度多样化的背景下,API 服务的核心竞争要素正从“价格差异”转向“交付质量”,包括响应时延、吞吐能力、稳定性与上下文支持等关键指标。

 

同时,报告通过实证数据表明,在同一模型条件下,引入智能路由机制可在保障可用性的前提下,实现显著的性能提升与成本优化,为大模型 API 服务走向规模化、长期化使用提供了可验证的工程路径。

 

在圆桌论坛环节,由硅星人合伙人王兆洋主持,来自产业与应用一线的多位嘉宾围绕模型 API 服务的工程挑战、生态协同与产业发展路径展开深入讨论。

参与讨论的嘉宾包括:智谱首席架构师 鄢兴雨、硅基流动创始人 & CEO 袁进辉、投资人 &公众号 thinkingloop 主理人严宽、蓝耘 CTO 安江华、chatexcel 创始人 & CEO  逄大嵬以及清程极智联合创始人 师天麾。与会嘉宾结合各自在模型研发、平台服务与应用落地中的实践经验一致认为,随着大模型应用不断深化,模型服务正在从“可用”阶段迈向精细化运营阶段,评测体系、服务路由与统一管理能力将逐步成为支撑下一阶段规模化应用的重要基础设施能力。

 

随着 AI Ping 平台的正式发布及生态计划的启动,模型 API 服务这一长期处于“幕后”的关键环节正逐步走向台前。清程极智 CEO 汤雄超表示,未来将通过持续的评测实践与开放协作,推动大模型服务向更加稳定、透明和可持续的方向发展,为人工智能在真实业务场景中的规模化落地提供支撑。

image
接近 200% 涨幅了
image
还是有很多用户使用?(也可能是打开帖子的图片流量,我发的图片都是自己图床)

大概还有 30% 没有命中缓存,可能是第一次访问的原因,有时间看看。七成流量都命中缓存了。

地址: https://pic.mxpy.cn/ 可以直接用 2Libra 账号登录。
参考链接:
https://2libra.com/help/oauth
https://2libra.com/post/tools-sharing/oLYDmMl

在 AI 和大数据应用中,采用对象存储与 GooseFS 等高性能缓存结合的多级存储架构,是平衡成本与性能的最优解。GooseFS 通过其客户端缓存能力,为计算任务提供了高吞吐与低时延的数据访问性能,已在训练加速、模型分发、离线分析等众多核心业务场景中已得到过充分验证。

尽管如此,该架构在业界普遍面临一个核心挑战:跨层数据一致性的管理成本。缓存的引入,意味着系统存在两个数据视图,若不加以管理,将直接导致以下三类严重问题:

  • 读不到新数据:上游在对象存储中新增或更新文件,缓存层若未同步,下游应用将无法访问。
  • 读到脏数据:缓存中的数据副本与持久化层不一致,导致计算结果错误。
  • 读到已删数据:持久化层通过生命周期等策略删除了数据,但缓存层副本依然存在,造成应用逻辑混乱。

传统方案依赖于业务方构建复杂的同步逻辑,这不仅增加了开发负担,也使得架构耦合度增高,尤其难以处理对象存储底层自动化的生命周期操作。为了从根本上解决这一难题,GooseFS 推出了全新的元数据发现功能。该功能通过与持久化存储层建立直接的元数据同步链路,能够主动发现并应用底层的变更。它将复杂的一致性维护工作从业务层下沉至缓存服务本身,让用户可以更纯粹、更无感地享受多级存储带来的性能优势。

元数据发现技术架构深度解析

1

GooseFS 元数据发现功能基于事件驱动架构进行构建,旨在实现缓存层与持久化层之间高效、可靠的元数据同步。其核心链路包含三个关键组件:

  1. 事件源 (COS Notify): 该模块负责捕获 COS 对象存储层的所有关键操作(如 PUT, DELETE)。它内置了事件过滤与容错机制,确保了从源头采集的元数据变更事件的完整性与可靠性。
  2. 持久化缓冲 (Message Queue): 利用高可用的消息队列作为事件的持久化缓冲层。消息队列解耦了事件的生产与消费,同时确保在 GooseFS Master 短暂不可用或处理能力饱和时,任何元数据变更事件都不会丢失。
  3. 智能事件处理 (GooseFS ActiveSync Service): 作为消费端,GooseFS 内核以批处理方式从消息队列中拉取事件。它内置了精密的处理逻辑,包括过滤由 GooseFS 自身写操作产生的冗余事件(避免反馈循环)、合并 Event 进一步提效发现流程,并最终触发文件级别的元数据同步,从而实现对外部新增、覆写、删除操作的及时感知。

2

为在分布式系统中实现可靠的事件处理,GooseFS 元数据发现解决了乱序与容灾的问题,保证元数据发现的时效性与可用性。

由于消息队列分区的特性及其他组件的分布式处理特性,事件的投递顺序无法得到严格保证。这对元数据操作是致命的,例如一个 DELETE 事件先于其对应的 PUT 事件被处理,将导致完全错误的状态。GooseFS 元数据发现以“通知”而非“指令”处理事件,并结合“窗口合并”优化,保证了元数据发现的准确性。在元数据发现的逻辑中,会将每一个事件视为一个“变更通知”。在处理事件时,它会主动请求 COS 以获取该对象的最终元数据状态,确保操作的幂等性与正确性。

同时,避免频繁请求 COS 带来的高延迟,GooseFS 引入了“窗口合并”机制。它会在一个极短的时间窗口内,将针对同一路径前缀的多个事件合并,通过一次批量查询完成状态确认。例如,一个“先删除后上传”的序列会被合并为一次同步操作,极大降低了远端访问频次,提升了同步时效。

考虑元数据发现服务的可靠性,为防止 GooseFS 节点故障等异常情况导致消息丢失,系统必须提供“至少一次”(At-Least-Once)的消费语义。GooseFS 元数据发现引入了事务性同步与持久化日志能力。GooseFS 为每个处理批次引入了唯一的事务ID(SyncTxId)。该 ID 会随着元数据变更一同被原子性地记录到日志中。当发生主节点切换或异常时,新的主节点可以从日志中恢复上一个已提交的 SyncTxId,并从该点继续消费,从而确保任何事件都不会被遗漏。

经过上述优化,元数据发现可实现近实时的元数据同步,在高 QPS 的 COS 请求负载下,元数据变更可在分钟级同步至 GooseFS。

此外,为确保服务的线上稳定性,我们部署了完善的监控、告警与数据对账能力,能够对同步链路中的任何异常进行及时感知和修复,保障了元数据变更的最终一致性。

在控制台开启元数据发现能力

将 GooseFS 集群升级至 1.5.1 及更新的版本后,将可以通过控制台命名空间入口,便捷开启元数据发现功能。具体步骤如下:

  1. 登录 GooseFS 控制台。
  2. 在左侧导航中,选择 GooseFS > 实例列表,进入 GooseFS 集群列表页面。
  3. 选择需要创建命名空间的 GooseFS 集群,进入集群详情页面,在侧边栏中单击命名空间,进入命名空间子页面。
  4. 在命名空间页面,单击新增命名空间 ,在弹窗中填写如下字段。

3

  • COS 请求事件支持以下选项:

    • 按事件类型选择:支持通过任意方式上传对象完成后触发、仅删除对象内容后触发。
    • 按具体事件选择:支持仅通过 COS PUT Object、POST Object、PUT Object - Copy、Complete Multipart Upload 接口调用触发。
  • 同步范围支持配置整个命名空间的挂载范围,或命名空间的挂载范围下的子目录。

若您需要修改元数据发现配置,可在命名空间列表页点击更新已配置的命名空间,重新编辑配置或关闭命名空间。

当开源成为产业创新的“加速器”,当苏州的实体经济遇上前沿开源生态,一场聚焦技术突破、创业赋能、供需对接的行业盛会即将启幕。1月30日,开放原子“园区行”(苏州站)暨OPC开源对接会在苏州人工智能产业园盛大举办,以“技术研讨、需求牵引、成果展示”为核心模式,为苏州数字化转型注入开源新动能。

openKylin社区生态合作负责人马发俊发表了主题演讲,向与会嘉宾深入剖析了AI PC领域的发展需求与核心挑战,并分享了openKylin在AI技术领域的实践成果与创新探索。目前,openKylin社区正联合芯片、硬件、软件等产业链核心伙伴,全力构建面向未来的下一代智能桌面操作系统。

本次介绍的成果包括:

  • AI子系统:openKylin AI子系统整体采用C-S架构进行设计,应用通过AI SDK的API与Runtime进行交互。Runtime负责对接端侧和云端大模型,提供AI能力,未来还会丰富更多的场景化服务。
  • 个人助理——AI助手:openKylin 桌面环境 UKUI 全面接入 麒麟 AI 助手,用户可通过语音或文本指令实现系统控制、文件管理、内容创作等场景化服务。该助手深度联动 AI 子系统,支持用户输入“生成科技主题配图”直接调用文生图模块,或通过语义搜索秒级定位“上周修改的投标方案”。

本次成果介绍彰显了openKylin社区以开源之力推动操作系统智能化升级的决心与实力。未来,openKylin 的核心战略是强化 AI 计算能力与开源生态建设。openKylin将与生态伙伴紧密协作,共同构建更强大的操作系统级 AI 算力调度与全场景适配能力,并优化面向开发者的算力服务。

策划 | 褚杏娟、Tina

对话 | 王一鹏 

编辑 | 宇琪

在 2026 年初突然刷屏的 Clawdbot 又给 AI 编程的火爆添了一把柴。根据项目创始人 Peter Steinberger 的说法,他一个人完全用 AI 写出了这个超级 AI 助手。

 

AI Coding 高速演进,有人借助它如虎添翼,效率和能力被成倍放大;也有人一上手就频频踩雷,代码质量、系统风险反而被放大。但如今企业纷纷拥抱 AI Coing,代码已经是“cheap”,技术从业者现在面临的问题已经成为“如何与编程 Agent 相处”,无论是工作还是生活中。

 

近日,在 InfoQ 技术编辑组策划的《2025 年度盘点与趋势洞察》直播节目中,Kreditz Al Orchestrater 马工、资深 AI 产品专家松子(李博源)、资深独立咨询师 &Al Coding 资深实践者张汉东一起,分享了他们的 AI 编程工具使用经验和过对行业的观察,他们三人都去年大量使用 AI 编程,并在组织层面进行了一些探索。 

 

在访谈中,三位专家都表示,彻底回不去之前的手工 coding 时代了,AI 已深度接管开发者的主观能动性,成为工作的核心环节。人类在 AI 时代的核心价值不是写代码,而是需求表达、方案判断、架构设计的能力,这是 AI 目前无法替代的 “最后护城河”。

 

根据使用经验,现在 AI 编程的成本远低于人力成本,其产出效率相当于数人团队,哪怕订阅制有额度限制,也是极高性价比的选择。AI 编程并非降低行业门槛,而是入门门槛降低、精通门槛拉高、天花板抬升,靠手速和熟练度生存的中间层工程师正被快速替代,其成长路径被直接掐断。当前,AI 无法真正理解 “优雅的架构”,这是人类的审美问题而非技术问题,也不该指望 AI 把控,架构设计本就是人类的核心职责,因此真正具备架构能力的人因 AI 变得更稀缺,

 

他们评价现在对 AI Coding 工具好坏与否的唯一标准是能否在真实生产系统落地交付,大厂未经过实战的全套 AI 方案毫无价值。专家指出,全自动 AI 程序员(如 Devin)现阶段完全行不通,易出现需求理解偏差、架构不一致、交付质量不稳定等问题,未来 3-5 年人机协作是企业级开发主流,长期 Agent 才是发展方向。当前,开发工作的核心已从 “怎么写” 转向 “写什么”,从关注代码细节转向业务逻辑、边界条件、异常处理;思考必须更清晰,才能让 AI 准确理解需求。

 

他们预计,2026 年 AI 编程将成为行业标配,“一人公司” 会成批出现;创业的技术门槛被拉平,核心竞争力转向商业模式、业务理解和业务架构。linker、compiler、操作系统未来或向 AI 友好形态升级,这背后存在大量创业机会。

 

而对于年轻人来说,AI 消除了信息差红利,让其能与行业专家站在同一起跑线;现阶段是有野心的年轻人成为软件工程思想领军人物的最佳窗口期,核心是获取一手信息、亲自实践并主动输出观点。

 

专家们提醒,不应将 AI 当作全知全能的神,而应让其批判性思考、挑战自身观点,避免强化认知偏见;AI 的核心价值是成为既支持又挑战人类的协作对象。

 

以下内容基于直播速记整理,InfoQ 在不改变原意基础上进行了删减。完整直播回放可查看:

 

“回不去手工 coding 的时代了”

王一鹏:如果用一个词形容你过去一年的 AI 体验,你会选什么?

 

张汉东:加速。

 

马工:革命。

 

松子:上瘾

 

王一鹏:对比使用 AI 工具之前的情况,你的工作流程是否都变了?

 

松子:最显著的特点就是变化快、跨度大。过去做一个需求,通常是查文档、写 PPT、画原型图,画完之后就等着技术去实现。现在则完全不同了,有想法就直接和 AI 进行头脑风暴,看着 AI 写代码,指挥 AI 去执行,拿到结果后再和技术团队一起评审,由他们来做加固和优化。

 

马工:工作流程上,我刻意把团队规模设计得非常小,通常只有两三个人,尽量避免大团队沟通,因为有些人跟不上节奏,反而会拖慢效率。另一方面是我个人的工作流,核心是我和 AI 的持续对话,由我来设计、引导它。

 

张汉东:以前我会非常关注代码细节,比如优雅性和精细化的质量控制。使用 AI 之后,我更多是站在更高的抽象层面思考问题,从架构层进行设计,甚至可以同时开多个分支并行推进开发流程。另外,在代码评审上也大量使用 AI,先由 AI 生成一份 review 报告,再进行人工检查,实现并行评审。

 

王一鹏:你第一次感到“AI 有点可怕或厉害”的瞬间是什么?

 

马工:5 月份开始用 Claude Code 之后,我才真正意识到这东西“成了”。在此之前,我一直认为 AI 只是辅助工具,给一些建议,但每个回答都需要仔细核查。Claude Code 不一样,它已经能够独立完成一些颗粒度较小的任务,而且不需要人在旁边全程跟着。这一点在我看来是革命性的。有了这种基础能力,再叠加我们的工程经验,就可以做很多以前做不了的事情。

 

松子:害怕我还真没有,更多的是兴奋,甚至有一种自己年轻了二十多岁的感觉。那种感觉就是,终于可以自己动手了,不再需要依赖技术团队帮我实现想法。尤其是在面对模糊需求时,AI 不仅能帮我纠正表达,还能帮我梳理边界条件,直接把代码写出来,把我的思路整理得非常清晰、有条理。

 

张汉东:我最早是从 Claude Code 3.7 版本开始用的,那时体验还不算好。等到 4.0 出来之后,我明显感觉到它变得非常强。再到最近,大家在网上讨论 Claude 的 Skill 能力,我也试了一下,最终的效果是我在 20 分钟内就做出了一个不算复杂、但支持跨平台的 AI 应用。

 

王一鹏:你现在写的代码,有多少比例是:在没有 AI 的情况下,你依然确信自己能完整写出来的?

张汉东:可以的,毕竟我有接近 20 年的项目和编程经验,手写代码本身没有问题。但最大的问题在于,我已经不想手写了。现在基本是 AI First,AI 已经在很大程度上接管了我的主观能动性,这是我感受到的最大变化。

 

松子:如果没有 AI,我几乎一行代码都写不出来。但我认为我的价值并不在于是否能逐行写代码,而在于:第一,我清楚自己要做什么;第二,我能够判断 AI 给出的方案是否可靠;第三,我能把需求描述清楚。这三种能力,是 AI 目前无法替代的。

 

马工:从理论上讲,我当然也可以手写所有代码,但从工程角度来看,这并不现实。AI 写代码的速度是我的十几倍甚至二十倍。比如我在圣诞节和新年假期完成的那个项目,如果没有 AI,可能需要一年时间才能做完。从工程管理角度来说,老板也不可能批准这样的周期,所以在现实中几乎不具备可行性。

 

王一鹏:过去一年里,有没有一个瞬间你意识到:“我已经回不去不用 AI 的状态了。”那一刻发生了什么?

 

马工:我从来没有想过要回到过去。就好比以前是科举制度,后来进了新学堂,你让我再回去参加科举?不可能的。我现在玩得很开心,也非常适应这种状态。

 

松子:跨年的那几天,大家都在干什么?我那几天连续使用的 Token 量都破亿,别人在倒计时,我却在给 AI 写代码。那一刻我非常清楚地意识到,我已经和 AI 形成了一种共生关系。后来有一天几乎完全没用 AI,但那一天我是真的很累,想给自己放一天假。结果第二天开始工作时,我发现自己竟然不知道该如何开始了。打开编辑器的第一反应,还是想先让 AI 帮我做点什么。回头再看这两个对比,我很确定自己已经回不到没有 AI 的时代了。

 

松子的 token 用量统计

 

张汉东:我意识到自己回不去,是在某一天突然发现自己写代码时已经不再使用编辑器了。我写了十几年代码,从来离不开编辑器。但在使用 Claude Code 四五个月之后,我发现很多时候根本不需要编辑器了。那一刻我意识到,自己已经彻底颠覆了过去的工作方式,也不可能再回到原来的状态了。

把 AI 当成一个同事,结果为王

王一鹏:从去年开始,我们就关注 AI 给不同技术岗位带来的影响和变化,今年是更深入的一年。那先请各位根据自己的使用体验,锐评下现在的国内外的 AI Coding 工具,在使用中各有什么优缺点?有哪些看起来很先进,但在实践中很快暴露出问题?

 

马工:我并不把 AI 当作一个工具,而是把它当作一个同事。我和朋友一起探索出了一套理论,叫作 AI 管理学。传统管理里有人力资源管理,而现在我认为还需要一套面向 AI 的管理体系。管理的核心从来不在于工具本身,而在于流程和思路,也不存在所谓“最优解”。对我来说,更重要的是探索出一套适合自己的 AI 管理方法,并与我的工具组合在一起,形成最适合产品的方式。

 

也正因为如此,我现在比较反感一些大厂的做法,声称做出了一整套方案,要求别人直接照着用。但我仔细看过之后发现,他们自己甚至没有用这些工具真正做出一个在生产环境中运行、处理真实业务的系统。所以我现在评估工具,只看一件事:有没有在真实生产系统中、处理过真金白银的案例。如果没有,我基本不相信。在这一点上,我甚至更相信自己,因为我是实实在在把公司的业务跑在这些系统上的,是真正经过实战检验的。

 

张汉东:从产品经理背景转过来的用户,使用 Vibe Coding 时,往往并不太关心底层代码质量,更关注功能是否完整、是否可用。像我这种程序员出身的人,会不可避免地带着一些工程习惯,更在意代码质量、可维护性。因此在使用这种对话式代码生成工具时,我需要对整体生成逻辑进行把控。

 

即便我可能不会逐行检查代码细节,但必须在脑中建立一个清晰的心智模型,并通过对话与 Claude Code 建立稳定的协作关系。即便如此,它生成的代码质量也未必如想象中那么高,仍然需要人类进行验证和 review。通常还要结合一些 skill、prompt 以及自动检查和优化工具来兜底,才能保证整体质量。所以我认为,Vibe Coding 和相关工具的使用,至少可以分成两类人、两种路径来理解。

 

王一鹏:如果我并不是特别在意代码是否优雅、质量是否很高,只要能跑、能用,这种情况下不去 review 代码也没问题吗?还是说如果完全不 review,代码在运行层面本身就可能会出问题?

 

张汉东:一般来说,一个产品上线之后,后续一定涉及维护。如果形成的是一个“AI 生成代码、AI 修 bug”的闭环,短期内是可以工作的。但随着用户规模和代码规模不断扩大,很容易陷入不可控状态,最终变成一次性应用,用完即弃。对于一些关键领域,比如基础设施或操作系统,使用 Vibe Coding 时,你需要的是钢铁般稳定的结构;而在一些不那么关键的上层应用场景中,可以接受“用完即弃”,我更愿意把这种代码形态比作海绵结构,内部存在不少空隙和不确定性。最终可能呈现的是一种“海绵包裹钢铁”的混合结构。

 

松子:就我个人而言,评价工具的标准很简单,尤其是对非科班出身的人来说,真正能交付成果的,才是好工具。我用过不少国内和国外的工具,主要集中在应用层,而不是系统层。像汇编、C 或 C++ 这种底层语言,大模型目前显然还胜任不了。我更多使用的是 Python 加后端相关的应用开发。对我来说,谷歌的模型配合 Claude Code,已经足以覆盖日常工作需求。国内工具并不是不努力,但整体来看,底层模型能力仍然存在一定差距。面对复杂需求时,它们虽然很认真地写代码,但错误率偏高,往往需要我花大量时间去做复杂调整。

 

实际使用中,我在企业内部更多是用 AI 生成 demo 和高保真原型,而对外项目则是一个纯交付过程。做 demo 时,两三天就能完成一个高保真版本;但如果是用 Claude Code 写一个可交付的应用级项目,通常需要三到四周的时间。

 

以去年为例,从 9 月、10 月开始,我每个月新增的代码量在 10 万到 14 万行之间,12 月我做了一次大规模重构,直接删掉了 90% 以上的代码。到了今年 1 月份才正式进入交付阶段。那时我加了很多自己整理的 Skill 和规则,按照以往的工程习惯去做可用性检查、漏洞检查、代码复用检查等,再交给 AI 进行修复和优化。

 

王一鹏:是不是存在某些编程语言天生更适合 AI Coding?

 

马工:我相信语言、工具,甚至整个软件栈都需要被重新设计,变得对 AI 更友好。Rust 在我看来就是一种非常 AI 友好的语言,因为它可以在编译阶段完成大量验证,只要能通过编译,代码质量就已经明显高于很多语言,这对 AI 非常有利,可以极大降低迭代成本。除此之外,我认为 linker、compiler,甚至操作系统,未来都可能需要重构为 AI 友好的形态。因为现有工具几乎都是为人类设计的,而 AI 的思维方式与人类差异很大,这里面我反而看到了很多潜在的创业机会。

 

张汉东:Rust 对 AI 友好,很大程度上源于它强大的编译器体系,这为 AI 提供了一个清晰的验证反馈回路。更关键的是,Rust 是以类型系统为核心的语言,而类型系统本质上可以理解为一种逻辑证明。当 Rust 程序编译通过时,意味着它在逻辑层面已经被“证明”过了。

 

我之前有一个实践案例,让 Claude Code 帮我排查一个运行时才会暴露的问题,编译阶段是发现不了的。这个 bug 我自己没找到,但它大概花了五分钟就精准定位出来了。事后我反思,可能正是因为 Rust 的类型系统和强逻辑性,使得 AI 在推理时能够发现这些潜在问题。

 

当然,Rust 也有不足,比如缺乏像 Lua 这样的动态语言能力。我们团队也在思考,为 Rust 引入一种可以无缝交互的动态语言,语法接近 GS 这类大模型更擅长的语言形式。安全、稳定的核心部分由 Rust 承担,而快速迭代的业务逻辑则交给动态语言来实现,这也是我们正在探索的一种方向。

 

编程老手们,都怎么用 AI 工具?

 

王一鹏:大家有没有自己的“AI 工具栈”,几个工具协作使用?实际中,有没有遇到过 AI 工具让你“返工成本比人工更高”的情况?程序员是否需要刻意训练自己更好地与 AI 协作?

 

松子:我确实有一套自己长期使用的 AI 技术栈,包括多 AI 协同写作,我甚至为此给自己设计并实现了几个协作型智能体。回顾 2025 年 3 月到 5 月那段时间,我刚开始深入大模型编程,可能也受到当时模型基础能力的限制,踩了非常多的坑。几乎每天只有 10% 的时间在生成代码,剩下 90% 都花在调 bug 上。那段时期反而是我从非技术背景跨入技术领域、学习速度最快的阶段。8 月之后,尤其是 Claude Code 3.5 版本出来以后,返工成本高于人工成本的情况基本就很少再出现了。

 

马工:我实际上是在搭建一个团队,为不同的 AI 赋予不同的人格和职责,有的负责头脑风暴,有的负责架构设计,有的负责编码,有的做测试,有的做质量控制,最后还有一个负责部署。我用 Claude Code 的 sub-agents 来实现这些角色,同时又设计了一个项目经理角色,负责协调整个流程,形成完整的工作流。

 

这套工作流目前相对固定,但我正在尝试把它做成更具弹性的形态,尽量用 AI 去模拟一个真实的人类团队。整体使用下来我已经非常熟练,也并不觉得返工成本是问题,因为返工本身也是由 AI 来完成,而不是我亲自返工。这套流程我在公司内部的生产环境中已经跑得很顺。

 

同时,在个人项目中,我还有另一套流程和角色,用于写文章,比如公众号内容创作。我的主要工作,其实就是组织这些“AI 同事”完成任务。

 

至于具体用哪个模型、哪个工具,在我的理论体系里并不是关键问题。我可以随时切换到其他大模型,最多只是质量稍差一些,或者返工次数多一些。这也是我和很多朋友共同追求的目标:构建一套尽量与具体大模型解耦、依赖度很低的 AI 团队体系。

 

如果打个比方,就像开一家真实的公司,能招到清华毕业生当然最好,招不到就招 985,再不行还有其他学校,但公司依然可以运转。你不能因为招不到最顶尖的人,就干脆不开公司了,那这个思路本身就是有问题的。

 

张汉东:通常我会用 Claude Code 做规划,用 Codex 做 review,完成后再回到 Claude Code 去实现。我的工作并不只有开发,还包括代码评审、社区工作,以及与出版社相关的写作任务,因此我也为自己打造了一套完整的 workflow。

 

这套 workflow 的灵感部分来自 Shopify 开源的一套工具,是用 Ruby 写的。我用 Vibe Coding 把它改成了 Rust 版本,并加入了一些结合我自身工作经验的流程设计。比如出版社给我一份大约 178 页的英文翻译稿,我基于 Claude Code SDK,把任务拆分成五个部分并行处理,大概一个小时就完成了包含格式、内部链接在内的完整中文版。

 

除此之外,我也用这套 workflow 来做代码 review,以及其他流程固定、但相对琐碎的工作,统一交给 AI 处理。还有一个例子是现在比较流行的上下文 MCP 项目,它是开源的,我同样用 Vibe Coding 把它改成了 Rust 实现,并整合了 Rust 的工具链。这样在做 Rust 代码 review 时,就可以把编辑器之外的各种工具一起纳入进来。

 

整体来看,这些已经构成了我个人的 AI 工具体系。最近我还在尝试把团队过去两年的经验沉淀成 Skill,正好赶上 Skill 这个概念流行,就把我们在 Rust UI 方向的经验整理成一个 Skill,作为团队共用的 AI 编程基础设施,形成一个共享的工具库。

 

视频

张汉东制作的 nana banana workflow

 

王一鹏:Vibe Coding 圈有两种玩法:Lovable/Bolt 那种快速出 Demo 给客户看,和 Claude Code 直接交付生产代码(即 Lovable 模式 vs Coding 模式 )。你们公司是哪种?有没有两种混用出问题的?

 

松子:Lovable 是我去年刚开始用大模型编程时常用的工具,现在回头看,那其实就是当时的阶段性选择。去年 4 月我做了第一个 demo,到 8 月和客户沟通时,我尝试用一种“边喝咖啡边聊需求、现场出 demo”的方式交流。这种模式下原型生成速度非常快,客户可以迅速看到大概的形态。

 

但我当时犯了一个很大的错误,就是在 live demo 之后,直接尝试把 demo 代码演进成生产级代码,结果掉进了一个非常深的坑。后来我逐渐形成了一种方法:live demo 结束后,先进入“包头”状态,对代码做一次完整重构。把 demo 代码直接拿去改成生产级,几乎就是一场灾难。demo 能跑、能看,但架构往往一塌糊涂,在其基础上继续加功能,重构成本甚至比重写还高。所以我的原则是,demo 用完即弃,属于日抛型产物,只用于表达和验证想法。

 

马工:过去和客户的交互往往需要研发团队支持,现在有了这些非专业编程工具,销售可以自己完成,整体效率提升非常明显。所以我并不完全同意“Lovable 不能用于生产”这种说法。比如销售做一个 demo,本身就是生产,它在业务上的价值,可能比我写一个非常复杂、可扩展的系统还要高。它能够直接促成订单,那为什么不能算生产呢?

 

当然,它是日抛型的,但依然是生产的一部分,关键是要把这两类场景区分开。你不能一边期望低门槛快速出成果,一边又要求给你一个完美架构。这本质上是期望管理的问题。很多人之所以对 AI 失望,往往是因为在错误的场景里,期待了错误的结果。

 

张汉东:在做 AI 工具选型时,确实要明确边界。像 Lovable,从名字就能看出来,更偏向于“让人喜欢”的 demo 型工具,适合给非技术决策者或客户展示,比如销售场景下让客户点头认可。它并不关注代码质量,而关注是否能促成决策。如果目标是专业开发,那就需要像 Claude Code 这样的工具,这是两个不同的领域。我虽然没有深度使用过 Lovable,但研究过他们官网开源的 prompt,写得非常好。它解决的正是非技术用户的痛点。就像我前面说的,即便是“海绵式”的代码,它依然能很好地表达意图,在和客户沟通时,往往比文字、图片甚至视频更有效,因为它是可交互的。

 

王一鹏:几位老师现在是用 AI 帮你们写 prompt,还是主要自己来写?

 

松子:我是自己写。

 

王一鹏:为什么不用 AI 写呢?

 

松子:我试过,但总觉得 AI 写出来的 prompt 太机械,不如自己写得有感情,更有韵味。

 

马工:我是大量用 AI 写,而且还专门设置了一个角色,把它当作公司的人力资源负责人。当项目遇到困难,或者到了关键里程碑时,我会让这个“人力资源专员”回顾我们的聊天记录,总结可以吸取的经验和教训,并把这些经验嵌入到各个角色的 cloud MD 中。这样每完成一个项目,我的各个 AI 角色都会在能力上有所提升,这是我对人类组织运作方式的一种模拟。

 

现实中的公司都会在项目结束后做复盘,决定哪些经验要保留,哪些问题下次要避免。在传统组织中,这些通常通过邮件或会议传递。而在 AI 场景里,我是通过固定的 prompt 把这些经验沉淀下来。

 

王一鹏:听起来马工已经触及到 AI 的本质了,本质上还是仿生学。

 

马工:对,本质就是模仿人类。很多 AI 技术上的难题,人类其实早就通过管理学和工程学的方法解决过了,我只是把这些方法原样迁移过来,用在 AI 身上。

 

张汉东:我也是偏向 AI 写 prompt,我的原则是尽量 AI First。但我会对 prompt 做把控,判断哪些是好的、哪些是无效的。如果需要比较专业的 prompt,我会先去网上找成熟案例,再结合 AI 一起改造成适合自己场景的版本。如果效果不好,就当成一次 debug,不断迭代,直到形成一个真正有用的 prompt。

 

王一鹏:Karpathy 说 AI 在“可验证任务”(如代码、数学)上可能超越人类专家,但在“不可验证任务”(如架构设计、战略决策)上进展缓慢。你们觉得 AI 什么时候能真正理解什么是“优雅的架构”?还是永远不能?

 

马工:作为工程师,我的核心目标只有一个,就是把问题解决掉。这个问题是用 AI 来解决,还是让同事解决,或者交给软件系统解决,对我来说本质上都只是工具选择而已。我不会为了用 AI 而用 AI,更不会执着于“一定要用 AI 把问题做到世界第一”。如果某个问题 AI 解决不了,那我就直接插入人工。我也认为,去预测三年后的 AI 会发展成什么样并没有太大意义,因为三年内会发生太多变化。更重要的是用好当下的工具和模型,尽快把问题解决,交付一个能够在生产环境中稳定运行的系统,这是我目前最关注的事情。

 

马工和同事在 coding

 

松子:以我自己为例,技术团队写完代码后,我再用 AI 或反编译工具去做 review,确实可以发现并修复大量 bug,很多时候甚至重写代码的效果会更好。但在架构设计和战略决策层面,AI 可以给你一百种“正确”的方案,却无法告诉你哪一种才是最合适、最优的选择。这种取舍判断,我认为仍然是人类最后的护城河。所谓“优雅”,在我看来并不是一个技术问题,而更像是一个审美问题。就像“情人眼里出西施”,我看这些大模型,各有各的美感,但在审美判断上,AI 目前确实还不行,它还需要更多训练。

 

张汉东:首先是 AI 能否理解“优雅的架构”。我以前在编程时,会直接要求 Claude Code 把代码写得更优雅、架构更清晰,它给我的回复基本是:抱歉,我理解不了“优雅”,我只能进行模式匹配,本质上是在模仿人类。也就是说,它并不真正理解人类的审美。

 

其次,我们本身就不应该指望 AI 去理解什么是“优雅架构”,这本来就应该由人来把控。就像 Anthropic 去年在官网推出的一套课程,其中有一门叫“4D 人机协作”,属于 AI 素养教育,核心是教人如何更优雅地进行人机协作。其中第一个 “D” 叫 Description,强调在向 AI 描述需求时,要明确哪些事情由人来做,哪些交给 AI。我认为这一点非常重要,有些问题本身就不该交给 AI 去理解。

 

用 AI 编程,到底贵不贵?

 

王一鹏:去年,以 Claude Code 为代表,AI 编程工具的计费逻辑发生调整:从独立 API 计费,到订阅制+使用量控制。这些调整背后的动机是什么?另外,这些变化对开发者来说,使用成本是更高还是更低了?支付高额的费用,值不值呢?你用这些工具的时候,会主动关注 Token、调用量或费用上限吗?

 

马工:我并不认同“Claude Code 很贵”这种说法,这完全取决于你的参照系。我是把它当作一个“人”来看待的。你花 200 美元,根本不可能在任何地方请到一个能稳定写代码的人。从这个角度看,它便宜得不可思议。

 

目前 Anthropic 的问题在于,Max Plan 在法律上不能用于公司场景,我们公司只能使用 Team Plan,而 Team Plan 的额度又低于 Max Plan,超出部分只能走 API 计费,价格大概贵十倍,这确实带来了一些挑战,只能通过一些变通方式解决。但总体来看,这笔账其实不用算,只要你用得上,它能替代好几个员工。

 

松子:我个人一直更偏好订阅制。以我自己的真实数据来看,从元旦往前推的一个月内,我大概用了接近 28 亿个 token。如果按 API 计费,那成本会非常夸张;但用 100 美元的 Pro 订阅,对我来说反而是极其划算的。

 

如果按 API 算,这个工作量可能要几万美元。实际上,这相当于一个五人团队的产出,比如两个前端、两个后端,再加一个产品经理。按月薪 3 万计算,三个月就是 45 万的人力成本,而我用 Claude 只花了 100 美元。

 

张汉东:在 Code 订阅模式出来之前,我也只能用 API,确实非常贵,有时候只是打开项目又关掉,也会被计费,感觉很不可思议。后来转向订阅模式,哪怕有周限额,只要不是同时推进太多项目,其实是完全够用的。我有一段时间同时做了好几个项目,每天熬到两三点,一个月几乎没怎么睡,甚至还注册了多个账号并行使用,多少有点“薅羊毛”和数据蒸馏的嫌疑,后来我自己也意识到这样不太对,就收敛了,只把精力放在真正重要的项目上。我的建议是,要用就用最好的模型,无论是工作还是学习,否则你用一些中转服务,甚至都无法确认模型是真是假,很容易被掺假。

 

全自动 AI 程序员,目前行不通

 

王一鹏:你们如何看待去年 Devin 这种全自动 AI 程序员的出现?与 Cursor 等人机协作工具相比,各位认为哪一个才是未来企业级开发的主流?你觉得现在的 Agent Coding,是在制造“可演进系统”,还是在制造“未来无人能接手的黑箱”?

 

马工:关于“无人软件工厂”或“软件黑灯工厂”,我几个月前在公司内部亲自尝试过,结果是非常惨痛的失败。除了 Devin,还有 OpenSWE、NonSmith 等一系列类似的全自动方案,基本没有真正成功的商业案例,更多是自我宣传,没有客户愿意用真金白银为其背书。在我看来,这条路线至少在现阶段没有必要:既然我已经用 AI 替代了 90% 的成本,剩下 10% 插入人工又有什么问题?我们的目标是解决问题,而不是证明“AI 无人工厂”的学术可行性。

 

王一鹏:当时这个“工厂”失败的具体原因是什么?

 

马工:第一,AI 在需求理解上极易产生偏差,无论需求文档写得多详细,都无法完全避免。第二,在系统架构上缺乏一致性,不同任务往往采用不同实现方式,即便用规则或 promise 约束,也仍然会出现不遵从的情况。第三,在最终交付质量上,人类能够理解质量是一个光谱,而不是 0 或 1,知道什么时候可以放松、什么时候必须严格,但 AI 缺乏这种上下文感知,表现非常不稳定,难以真正满足客户需求。

 

这些问题叠加后,你会发现交付结果始终达不到预期。相比之下,在工作流中插入少量人工控制节点,问题就能有效解决,而且成本并不会大幅上升,因为人只负责把控关键节点,而不需要亲自完成大量工作。

 

松子:我认为全自动 Agent Coding 目前存在下面几个致命问题。第一是没人 review,Agent 自己写、自己测、自己合并,最终谁来负责?第二是上下文严重丢失,十个月后再看代码,可能连 Agent 自己都解释不清楚,黑箱叠加黑箱,已经不是“屎山”,而是“黑洞”。屎山还能慢慢重构,黑洞则只能推倒重来。人写的代码再烂,至少还有责任人;Agent 堆出来的代码,一旦出问题,根本不知道该找谁。

 

像 Devin 这样的产品,发布时非常惊艳,但真正用起来却是一地鸡毛。简单任务尚可,稍微复杂就开始跑偏,上下文理解和调试能力甚至不如人类工程师,更像是一个需要人时刻盯着的 AI 实习生。从 ToB 企业的角度看,真正合理的形态一定是人机协作:关键节点可控、可维护、可追溯。AI 应该是副驾驶,而不是司机,方向盘必须掌握在人手里。

 

张汉东:未来三到五年内,人机协作一定是主流,但长期来看,Agent 会成为主流。我之所以这样判断,是因为 Anthropic 推出了系统化的 4D 人机协作课程,这说明在短期内,他们并不认为模型本身会出现足以彻底替代人的突破,否则没必要投入如此多精力去教人如何协作。

 

但从长期看,Agent 的方向依然非常明确。以 Claude 推出的 Skill 为例,它并不仅仅是 Prompt,而是把人类的能力和经验更精准地沉淀并交给 AI。随着 Skill 的积累和热加载能力的增强,Agent 在特定团队和场景中,已经具备成为主流生产力的潜力,未来甚至可能走向跨行业的通用化。

 

此外,Anthropic 收购了前端打包工具 Bun,也明确提出“下一代软件基础设施”的概念。结合谷歌、马斯克等公司的动向,可以看到未来的软件形态,很可能是面向 Agent 而非人类 UI 的。这些信号都在指向一个结论:短期内要解决黑箱问题、强调人机协作,但长期演进方向,仍然是 Agent。

 

王一鹏:有个比较极端的问题,你现在交付的东西,如果有一天 AI 不在了:你自己还接得住吗?还是你已经默认“反正以后也会有更强的 AI”?

 

松子:如果 AI 突然不在了,我确实接不住,但我也没打算硬接,我一定会去找下一个 AI。与其担心 AI 会不会消失,不如担心自己是否跟得上 AI 的进化速度。对我来说,一个很明显的状态就是每天都在学习新词、新玩法。每天至少两次浏览不同的 AI 网站和论坛,看看大家在讨论什么,从而不断更新自己的认知。

 

张汉东:首先,我认为 AI 不可能“不在”。从能源、算力以及各国的投入来看,无论是美国、日本还是中国,未来电力和算力只会越来越充沛,因此我并不太担心 AI 会整体消失。更重要的其实是你如何看待 AI,以及你对 AI 的依赖程度。在使用 AI 时,我们必须保留自己的判断能力,同时具备对 AI 输出结果的验证能力。如果 AI 不在了,大不了重新学习,但关键在于:你之前用 AI 写出来的系统和架构,你自己能不能 hold 住?你是否知道该从哪里重新接手?这取决于你在使用 AI 的过程中,是否建立起清晰的心智模型。如果你只是把 AI 当成一个黑箱,那一旦 AI 不可用,你肯定是接不住的。

 

而且现实中,AI 不可用的情况并不少见,比如账号被封。Claude 封号并不罕见,如果在一周内你的账号被封,而你手头的工作又有 deadline,这时该怎么办?找不到替代 AI,就只能自己顶上。因此,在日常与 AI 交互时,就必须提前做好这种心理和能力上的准备。

 

马工:AI 本身不会消失,但 AI 在你所在国家或地区的可用性,确实可能成为问题。比如 Anthropic 目前就不向中国提供服务,未来随着地缘政治变化,也不排除出现更极端的情况,你所依赖的某个服务突然完全不可用。

 

从企业供应链安全的角度来看,通常有两个对策。第一是准备 Plan B,比如智谱目前就主打作为 Claude 或 Anthropic 的替代方案,性能可能只有 80%,但价格只有十分之一。第二是在使用过程中,尽量降低对单一模型的强依赖,让工作流具备足够的韧性,即便切换模型也能完成任务,只是效率略低一些当然,在条件允许的情况下,比如我现在能用 Anthropic,我还是会直接用它,而不愿意花时间去适应那些便宜但体验不佳的模型。

 

王一鹏:有人说和 AI 多花时间头脑风暴是被严重低估的技巧,“简单功能少聊,复杂功能多聊”。但这不就是产品经理的老本行吗?程序员写代码的时间是不是正在被“和 AI 聊天”取代?另外,当 AI 工具成为习惯后,个人的思维方式需要跟着发生什么变化?顺便给大家一些使用 AI 编程的建议?

 

松子:简单功能少聊,复杂功能多聊,这本来也是产品经理的基本功。现在的模式是,产品经理先和 AI 深度讨论需求,再与技术团队协作,用 AI 写代码,最后由产品和技术一起审核,协作方式从“沟通产出”变成了“协作产出”。

 

在技术实现能力上,AI 确实在拉平差距,很多工程师的实现能力被 AI 显著拉近了。但需求表达能力反而成了一种稀缺资源。我们合作的一家央企,原来的“技术团队”已经改名为“需求经理”,他们大约 50% 的时间在和 AI 对话,30% 的时间审查 AI 生成的代码,剩下 20% 用于调试。这并不是降级,而是一种升级,从写代码转向架构和产品思维。

 

从“怎么写”转向“写什么”,从一次性完成转向迭代逼近。过去关注的是语法、API 和实现细节,现在关注的是业务逻辑、边界条件和异常处理。以前追求完美,现在更强调先让 AI 跑起来,再逐步修正。同时,还有一个明显变化:以前自己想明白就够了,现在必须让 AI 也想明白,这反而倒逼自己的思考更加清晰。在我看来,AI 时代最核心的能力不是写代码,而是把需求说清楚;说不清楚,AI 就会用一堆 bug 来“教育你”。

 

王一鹏:很像数学学习的过程。早期更多是学习计算方法,比如三角函数,而真正进入数学研究后,重点变成了提出问题、证明定理,并把推理过程表达得清晰、可验证、可被他人理解。现在的开发工作也类似,基础计算可以交给 AI,人只需要关注更高层次的问题。

 

马工:和 AI 聊天本身并不难,任何人都可以做到,但真正的挑战在于能否形成习惯。你只要有问题就去找 AI 聊,几乎只会有收益,不会有坏处。

 

我有个朋友,任何事情看到一句话,都会第一时间丢给 AI。我认为这会显著提升你的知识密度和深度,因为 AI 本身就是最“博学”的存在。我也在刻意培养这个习惯。前几天我修洗碗机,就是在 AI 的指导下完成的。我现在也还在思考,AI 在我生活中究竟扮演什么角色:有时是员工,有时是秘书,有时是导师。它并非上帝,但如果你养成这种与 AI 持续互动的习惯,你能从中获得的价值会非常巨大。关键在于,你要主动去找它,把它当作自己的“贵人”。

 

王一鹏:这其实和大家对 AI 的期望有关。有些人只进行几轮对话,得到不满意的结果就放弃了;有些人愿意聊二三十轮,得到一个 60 分的结果,再自己补到 80 分。但马工对 AI 的期望显然更高,是希望通过多轮对话,最终交付一个接近 90 分的结果。

 

马工:我在 ChatGPT 里做了定制化设置,明确要求它进行批判性思考、挑战我的观点、不清楚就不要回答,所有结论都必须有来源。我甚至在“塑造”AI 的性格,因为 AI 很容易顺着用户说话,而我刻意要求它不要强化我的偏见,而是帮助我识别并修正偏见。你不能把 AI 当成一个全知全能的神来崇拜,否则一旦结果不符合预期,就会迅速失望并转而寻找“下一个神”。

 

你之所以向 AI 求助,本身就说明你的认知是有限的,如果 AI 只是顺着你说,只会加固你的局限。你真正需要的是一个既支持你、又挑战你的对象,让你意识到自己可能是错的,甚至从根本上重新审视需求或架构。这也是为什么产品经理往往更适合使用 AI,因为他们从职业生涯一开始就习惯被挑战,而程序员往往不习惯被质疑设计。

 

张汉东:至于“程序员是否会被 AI 聊天取代”,我并不认同这种说法。实际上,即便在没有 AI 的时代,程序员在写代码前也要先对需求进行内化、建模,这是一个与自己对话的过程,现在只是把这个过程外化为与 AI 对话。过去当我把方案完全想清楚时,往往已经不太想写代码了,因为后面更多是体力劳动;现在有了 AI,我只需要把思路说清楚,代码就可以交给它完成,反而节省了大量时间。

 

松子:Claude Code 有一个全局配置文档,我在去年 10 月对它做过一次升级。配置中,我为它设定了明确的用户关系和协作角色,并且根据不同关键词加载不同的档案,与 Skill 结合完成不同类型的工作。效果在于,不同工作场景下可以快速切换不同角色和协作模式,比如写书、写文章、处理工作问题或生活问题,都能调用不同的“人格”和配置,提高整体效率。

 

张汉东:我觉得人格设定本身是有价值的,至少能提醒自己把 AI 当作伙伴。如果我也这么设定,可能就不会动不动骂 AI 了。

 

马工:我有个朋友正好反过来,给 AI 设定了一个“暴躁老哥”的人格,每次写完代码就让它来骂一遍,效果反而很好。有些场景下并不需要所有人都温和友善,有时确实需要一个“坏人”来提高整体质量。所以这完全取决于你自己真正需要什么。与其照搬别人的设定,不如把你在现实生活中渴望的那种角色,直接写成 prompt,交给 AI。

 

“只招会用 AI 的实习生”

王一鹏:AI 生成的代码通常'能跑',但鉴别它是否'优雅'或'可维护',反而需要更高的能力。这是不是说明 AI 编程其实提高了门槛而不是降低?导致现在用 AI coding 最爽的是更资深的开发者?

 

张汉东:我觉得和年龄没有关系,即便把 AI 交给一个三岁小孩,只要他具备语言能力、能够表达自己,就同样可以使用 AI。小孩子的一个显著特点是不断追问“为什么”,本质上就是能够提出真实的问题、表达真实的困惑。这在我看来,是使用 AI 最核心、甚至唯一的重要能力。无论是在个人成长、工作还是职场中,关键都在于你能否觉察到自己真正遇到了什么问题,并把它清晰地表达出来。这听起来或许有些鸡汤,但所谓“活在当下”,本质就是对自身处境保持觉察,并将问题说清楚。

 

马工:以我个人的经验来看,我们公司已经不再招聘初级工程师,只需要资深工程师。原因其实很简单:从企业角度看,我不再需要能力处在“及格线”的工程师,因为他的水平可能与 AI 相当,甚至低于 AI,而 AI 在编程语言上的覆盖面远远超过个人。企业为此还需要支付较高的薪酬,自然缺乏招聘初级工程师的动力。

 

之所以我们这些“老登”还能处在第二层,是因为我们的能力确实比 AI 略高,至少可以指导 AI 工作。对企业而言,这种能力是有价值的,而且这种价值会被 AI 成倍放大。但如果每个企业都基于同样的逻辑做决策,就会有大量年轻人长期找不到工作,这将是一个非常严重的社会问题。

 

松子:入门门槛确实被大幅降低了,同时精通的门槛也被拉低,但天花板却被抬得更高了。现在入门可能只需要十分钟,就能做出一个看起来不错的 Demo 网站,但从“能跑”到“能用”之间仍然存在明显差距,无论是安全性、性能还是可维护性,都还有大量提升空间。

 

另一个重要变化是中间层的塌陷。过去依靠手速和熟练度生存的那一层工程师,正在被 AI 快速替代。入门者可以借助 AI 很快学会写代码,而中间层却被压缩消失。反而是依靠架构能力和判断力的资深工程师,在 AI 时代变得更加稀缺。AI 拉平了“会写代码”的价值,却显著放大了“判断代码好坏”的价值。因此,我认为 AI 时代最危险的并不是不懂代码,而是以为自己已经懂了。

 

王一鹏:有人说 AI 不但不会让架构师变多,反而会让架构师更稀缺:不是因为更难,而是“成长路径和回报同时塌陷”,你们同意吗?如果新人都用 AI 跳过基础训练,10 年后谁来当架构师?

 

松子:AI 并不是让架构师或产品架构、业务架构变得更多,而是让真正具备架构能力的人更加稀缺。这种稀缺性非常反直觉,并非因为事情变难了,而是因为成长路径发生了塌陷。一个行业中专家的数量,往往取决于两个因素:是否存在清晰的成长路径,以及是否有明确且足够的经济回报。像医生、律师这些职业虽然门槛高,但路径清晰、回报明确,因此仍然吸引大量人才。

 

而 AI 的出现,在一定程度上削弱了这两个条件。新人练手的机会变少了,如果直接依赖 AI 生成代码,就会跳过“如何设计才是最优”的思考过程。这就像计算器普及后,心算能力逐渐退化一样。未来十年,也许并不缺会使用 AI 的人,真正稀缺的是懂得如何教 AI 正确工作的那类人。

 

马工:现有的职务和头衔体系,可能在未来几年内会被重构,取而代之的是一套新的角色和职称体系。我加入公司时是 leader engineer,但后来我和老板沟通,直接把头衔改成了“AI orchestrator”,工作内容也从传统工程转向管理 AI agents。我相信未来几年会不断涌现新的头衔,而年轻人反而可能更有优势,因为他们没有历史包袱,可以用更 AI 原生的方式去思考。

 

但在新的体系真正成型之前,会有一个相当艰难的过渡期。年轻人确实会在这几年里大规模地面临就业困难,看不到清晰的上升路径,企业也缺乏培养他们的意愿。以我现在的团队为例,三个人就能完成过去几十人团队的工作,而且效率更高。这实际上意味着,我们无意中减少了大量岗位。如果没有经济层面的重大增长,这种压力在短期内很难缓解。

 

王一鹏:现在写代码变得简单,难点在于理解代码的现有内容、意义以及修改后可能导致的问题。这会对初级开发者的成长路径产生什么致命影响?AI 是不是正在直接“掐断”初级开发者本该经历的那条成长路径?如果公司都在裁高级工程师、只留应届生+AI,谁来教新人识别 AI 的坑?"

 

马工:年轻人探索新路径几乎是必然的,历史上也反复出现过类似情况。比如传统零售行业,过去需要从管理培训生、门店员工一步步做到店长、区域经理。电商兴起后,很多毕业生直接进入平台做“店小二”,反而成长为行业核心力量,并没有走传统路径。我相信软件行业中也一定会出现类似的新路径,只是目前还在探索阶段。

 

张汉东:从趋势判断上看,短期内人机协作仍然会是主流。在这一阶段,经验丰富的人依然是被需要的。同时,也会有一些年轻人抓住机会创业,他们往往会雇佣具备经验的老工程师。但从更长期来看,如果三到五年后以 Agent 为主流的模式真正成熟,职业结构可能会发生更根本的变化。

 

今天的架构师主要面向代码,参与人机协作;但未来的架构师,可能不再直接面向代码,而是面向多 Agent、多模态系统,负责整体调度和协同。这种能力并不一定依赖写代码,而更多依赖行业理解、领域知识和一线经验。架构本身并不局限于技术领域,任何行业只要具备架构能力的人,都有可能胜任 Agent 架构的工作。

 

王一鹏:现在张老师和松子老师所在的团队,还在招聘初级工程师吗?

 

张汉东:之前我们确实还在招聘初级工程师和实习生,但今年开始,团队的负责人已经明确要求全面推进 AI coding。如果现在还有新人岗位,也必须具备使用 AI 的能力。因为我们的 AI 工作流已经在团队中全面铺开,如果你进来却不会用 AI,基本无法融入工作。现在大家都是 AI 在干活,没有精力再进行传统意义上的手把手教学,有问题直接去问 AI。通过 workflow 和技能体系,整个团队已经高度 AI 化,新人必须跟上这个节奏。

 

松子:过去新人进来还会有人带,现在几乎没人再教,都是直接跟着 AI 学。另一方面,以前一个项目需要两名技术人员协作完成,现在往往是一个人加 AI 就能独立完成,形成一种“超级个体”的工作模式。新人需要自己负责一个完整方向的产品,并借助 AI 实现。

 

当前很多年轻人选择创业,背后有几个原因。首先,信息差红利基本消失了。过去创业需要长期积累和信息优势,而现在通过 AI 工具,几乎可以瞬间获得大量信息。其次,创业门槛被大幅拉低。大模型出现后的这两三年,低代码、AI 工具和云服务显著降低了 MVP 的实现成本,使得创业的技术门槛几乎被拉平。在这种背景下,真正的关键反而转向商业模式、业务理解和业务架构。

“一人公司”成批出现,年轻人最好的时代

王一鹏:展望 2026,各位认为,今年最确定会发生的三个变化是什么?程序员的哪些能力会进一步被 AI 重塑? 技术人未来最应该开始学习或加强的能力是什么?

 

张汉东:过去这一年带来的变化,几乎相当于以往十年的迭代速度,很多事情已经无法预测,任何可能性都有可能发生。不过我仍然坚持一个判断:在未来三到五年内,人机协作依然会存在明确的窗口期。

 

在这段时间里,我对学生的建议是,首先一定要跟上 AI 的发展,最基本的是你得会用 AI。更重要的是,你要获取第一手信息,必须持续关注 AI 最前沿的动态,并基于这些信息去判断趋势。

 

其次,你一定要尽量掌握当前最好的 AI 工具,同时建立属于自己的 AI 工作流和学习路径。只有这样,才能顺利衔接后续以 Agent 为主流的发展阶段,知道如何指挥 Agent 工作,并在过程中持续积累行业经验。

 

马工:我的态度既乐观也悲观。悲观的一面在于,我认为 AI 取代大部分劳动力、引发大规模失业几乎是不可避免的,这一点个人无法改变,社会是否能够适应,这是政治和制度层面的问题。但从乐观的角度看,如果有一些年轻人足够有野心,想真正做出点东西,现在反而是最好的时代。以 AI coding 为例,我并不认为现阶段的工具已经达到了“世界一流”,它们只是暂时领先了半圈,而这是一场马拉松,领先优势随时可能被反超。在这个行业里,我不认为存在真正的权威。年轻人与所谓的世界一流专家,本质上站在同一起跑线上。

 

我现在特别想做的一件事,是重新构建一套话语体系。比如,为什么一定要有“架构师”这个角色?也许我们会创造出新的头衔和新的定义,年轻人同样可以参与其中。我甚至会认为自己是世界一流的 AI coding 专家,并不是因为我一定最强,而是因为我没有看到明显比我强很多的人。

 

如果一个年轻人有足够的胆量,想成为新时代的软件工程思想领军人物,现在就是最合适的窗口期,可能只有一到两年,必须立刻行动。一定要获取一手信息,不要只看公众号,不要只接受别人咀嚼过的结论。亲自动手的成本其实很低,只要你自己去实践,就会获得与他人完全不同的体验,通过不断对比,你才能逐渐和别人站在同一水平线上。如果你只是跟着某位名人说什么就做什么,那永远都会慢一步。更何况,很多观点本身也带有立场和商业目的。

 

另外,如果你真的想探索这个方向,不要只输入、不停地听,还要输出、去表达。讲对讲错并不重要,也不存在标准答案。只要你的观点足够有逻辑,就能吸引到志同道合的人,甚至走向创业。我认为,对于真正有目标、有野心的年轻人来说,这是一个极好的时代。

 

松子:AI 编程正在成为标配,已经不再是加分项,而是基础能力。中间层开发者正在大规模转行或被淘汰,“一人公司”会成批出现,这种趋势已经在现实中开始显现。在这样的背景下,最大的挑战在于学会如何与 AI 协作,并把更多时间投入到业务理解上。真正理解业务的人,才能告诉 AI 应该做什么。

 

归结为一句话,就是要放下对手工写代码的执念,从“敲键盘”转向“拿指挥棒”。在 2026 年,真正具备竞争力的,不是单纯写代码的人,而是能够指挥 AI 写代码、并把握方向的人。

作者:王博涵 小步外勤产品总监,外勤管理数字化专家
在销售团队规模还不大的时候,客户拜访更多靠自觉。但当团队开始扩张,人员分散在不同区域,管理者很快就会发现一个现实问题。

销售每天都在写拜访记录,可客户却反馈没见到人。日报看起来很完整,但业绩推进并不理想。久而久之,客户拜访变成了一项很难核实、也很难评估价值的工作。

这正是越来越多企业开始重视客户拜访管理的原因。

传统管理方式下,客户拜访为什么容易失控

不少企业在客户拜访管理上,其实已经投入了不少精力。比如要求销售打卡,提交日报,拍照留存。

但在实际执行中,问题依然反复出现。

一方面,管理者无法实时了解销售的真实行程,只能事后查看结果。另一方面,即便有拜访记录,也很难判断这次拜访是否真正有效。

更常见的情况是,客户资料分散在个人手机里,拜访信息无法沉淀。一旦人员变动,前期积累的客户关系和跟进记录很容易中断。

这些问题并不是销售不努力,而是管理方式已经跟不上业务节奏

客户拜访管理的核心:不只是看“有没有去”

真正有效的客户拜访管理,重点并不在于有没有去客户那里,而在于整个过程是否清晰、真实、可追溯

这也是客户拜访管理系统存在的意义。

通过数字化工具,把原本零散的线下动作统一到一个标准流程中,既减少管理成本,也让销售更清楚每天该做什么。

从大量企业的实践经验来看,一套成熟的客户拜访管理体系,通常会覆盖以下几个环节。

拜访前:把计划和路线想清楚

很多销售效率低,并不是不勤快,而是路线安排不合理。

客户分布在哪里?当天先拜访谁?哪些客户需要高频跟进?

如果完全靠个人经验,很容易出现重复跑、漏跑的情况。

在客户拜访管理系统中,客户信息和地理位置会被统一管理。销售可以清楚看到客户分布,合理规划拜访顺序,减少无效路程。

对管理者来说,也能更直观地了解区域覆盖情况,及时发现空白市场。

拜访中:让每一次到店都有依据

客户拜访管理最容易出现争议的阶段,往往发生在拜访过程中。

有没有到现场?在客户那停留了多久?现场做了哪些事情?

如果没有清晰记录,后续的管理和复盘都会变得非常主观。

在实际应用中,小步外勤通过定位、签到和现场采集等方式,把拜访过程完整记录下来。

销售只有到达客户附近,才能完成签到。现场拍摄的照片会自动记录时间和地点,避免事后补传。拜访内容直接在现场填写,减少回忆偏差。

这些看似基础的动作,恰恰是保障拜访真实性的关键

拜访后:让客户信息真正成为企业资产

客户拜访结束后,数据是否被有效利用,决定了管理价值能走多远。

如果拜访记录只是停留在个人日报里,对企业来说意义并不大。

通过客户拜访管理系统,所有拜访记录都会自动沉淀到客户档案中。包括历史沟通情况、拜访频次、推进进度等信息。

当人员调整或区域交接时,新接手的销售可以快速了解客户背景,避免从零开始。

这也是越来越多企业将客户拜访管理,视为销售过程管理基础的一大原因。

客户拜访管理系统:如何保障数据真实可靠

在数字化管理过程中,真实性始终是一条不能触碰的底线。如果数据本身存在问题,后续的分析和决策都会失去意义。

因此,在客户拜访管理的技术实现上,小步外勤从多个层面进行了限制和校验。

系统会识别异常设备环境,减少模拟定位等情况。通过多种定位方式交叉验证,避免简单手段造假。现场采集内容与时间、位置绑定,形成完整记录链路。

这些机制并不是为了增加销售负担,而是为了让管理建立在真实数据之上。

从“管人”到“管事”:客户拜访管理的长期价值

当客户拜访被完整记录下来,管理方式也会随之发生变化。

管理者不再只盯着“谁跑得多”,而是关注哪些拜访真正带来了转化。哪些客户值得投入更多精力?哪些区域需要调整策略?

通过拜访数据分析,企业可以逐步形成更适合自身业务的销售节奏和管理方式。

这也是客户拜访管理从工具层面,逐步走向管理体系的重要一步。

写在最后

客户拜访一直存在,但管理方式正在发生变化。从依赖经验和自觉,到借助系统进行规范和沉淀,是很多企业走过的共同路径。

对于希望提升销售执行力、降低管理成本的企业来说,客户拜访管理已经不再是“锦上添花”,而是绕不开的一项基础能力,帮助企业把每一次客户拜访管清楚、看明白、用起来。

中国信通院2025年报告将“时空智能”定义为以统一高精度时空基准为核心,融合多源数据与AI算法,实现从物理世界的 “描述解释”“预测决策” 升级的关键能力。

时空数据具有高维、动态和海量等特性,传统二维GIS地图难以承载其全部信息价值,决策者需要的是能融合、回溯和推演的“时空立方体”。

实时云渲染技术正成为将抽象的“时空立方体”转化为直观、沉浸、可操作三维场景的终极呈现层,是时空智能落地应用的可视化桥梁。

时空智能的内涵:微秒级、毫米级的精准感知与预测

时空智能的先进性,体现在其超越传统地理信息的精度与维度。

  1. 精度跃升:从米到毫米。 传统GPS定位精度在米级,而结合北斗地基增强、视觉SLAM等技术,时空智能可以实现室内外厘米到毫米级的实时定位。这意味着,在数字孪生工厂中,可以精准追踪AGV小车的每一个轮子;在工地中,可以监测大型吊臂毫米级的形变。
  2. 维度拓展:从静态到动态推演。 时空智能不仅描述“某物在某时某地”,更能预测“某物将在何时去往何地”。时空大模型可以基于历史轨迹数据,预测未来一段时间内城市交通流的变化、人群的聚集态势,甚至是地质灾害点的形变趋势。
  3. 融合广度:从单一数据到多源交响。 它要求将卫星影像(空间)、历史档案(时间)、IoT传感器读数(状态)、社交媒体(事件)等完全不同质的数据,在统一的时空基准下进行关联、校准与融合分析。

复杂计算的海量数据,经过建模、三维引擎渲染生成可执行程序后,变身为一个个独立的可视化文件。如何将这些依托高算力高配置的程序文件,转变为即点即用、快速分发、数据通传的实际业务场景,需要实时云渲染技术来实现高效运转的展示方式。

实时云渲染:承载并呈现高精度时空数据的“动态画布”

实时云渲染在时空智能中的角色,是将后台复杂的计算、分析、预测结果,实时“绘制”在一张动态的、可交互的三维数字画布上。

  1. 实现了时空数据的“实体化”与“情境化”。 在平行云LarkXR构建的平台上,一段货车的历史轨迹不再是一条单调的线,而是可以还原成一辆三维货车模型,在三维道路模型中重播放映,并沿途叠加显示当时的车速、载重、油耗等传感器数据,各类IOT数据叠加三维场景,实时反馈在一张图/一个场景中,极大的降低了决策者对模型数据的观测要求。
  2. 支持海量动态目标的同屏实时呈现。 一个城市的数字孪生交通系统,可能需要同时显示数万辆车的实时位置。LarkXR实时云渲染平台赋予了三维场景云化展示、自由分发传播的便捷能力。管理者不再需要在固定时间、固定设备、固定业务系统中安装下载,或者是极其缓慢的加载缓冲,而是仅需一个URL链接即可宏观观察全城车流,也可以瞬间下钻到某个拥堵路口,查看每一辆车的实时视角。
  3. 赋能了时空数据的“穿梭”与“推演”。云渲染后的页面上用户可以使用任意终端随时访问,拖动时间轴,秒级回溯过去24小时特定区域的人流变化;也可以开启预启动模式,观看基于AI模型推演出的未来1小时交通态势发展。这种在时间维度上的自由导航,是理解时空规律、验证预测模型的有力工具。平行云与AIRLOOK、商汤科技在实景三维与AI大模型融合的案例,正是这一能力的体现。

基于LarkXR构建“云边协同”的时空智能数字孪生应用

考虑到时空智能应用对实时性和计算量的不同要求,基于LarkXR的“云边协同”架构成为理想选择。

  1. 去中心化:处理宏观、非实时、高计算量的任务。 例如,全市范围的交通大数据挖掘分析、基于多年遥感影像的城市扩张模拟、大规模时空预测模型的训练与推理。这些任务在传统模式下需要强大的CPU和GPU算力,并分散在各个高配物理设备上。LarkXR实时云渲染平台既可以完成数据中心化热备,同时也支持渲染节点去中心化,即依托地理边缘云节点架构优势,整合公有云、私有化部署等各类GPU算力资源。实时云渲染后的交互视频流(如预测出的拥堵区域三维可视化场景)再通过LarkXR流化推送到指挥中心大屏,支持最高8K分辨率。
  2. 边缘云/端:处理局部、高实时、低延迟的交互。 例如,在智慧港口,龙门吊的毫米级防撞监控需要极低的延迟。可以在港口本地部署LarkXR边缘渲染节点,处理本地摄像头的视频与传感器数据,与港口BIM模型进行实时融合渲染,将结果直接推送到中控室和司机终端,实现端到端低于50毫秒的预警响应。
  3. LarkXR自带PaaS平台管理功能,统一管控与灵活调度。 平台可以统一管理分布在中心云和各个边缘节点的渲染资源,根据应用负载和网络状况,智能调度渲染任务。

场景落地:智慧交通、地灾监测与文化遗产保护

基于实时云渲染的时空智能平台,正在多个领域催生革新性应用。

  1. 智慧交通的“全景作战地图”。 交管部门可以基于该平台,将路网状态、信号灯配时、警车位置、事故报警、施工占道信息、甚至互联网导航公司的拥堵数据,全部融合在一张实景三维地图上。指挥员可以立体化掌握全局,点击一个事故点,系统自动关联周边监控视频和可用警力,实现精准、快速的扁平化指挥。
  2. 地质灾害的“生命体”监测。 对于滑坡、沉降等灾害点,平台将InSAR卫星形变数据、地面GNSS监测站数据、雨量计数据、地质模型进行融合可视化。AI模型基于多源时空数据预测风险等级,并在三维地形上以动态扩展的红色区域示意风险蔓延趋势,为避险转移提供直观的决策依据。
  3. 文化遗产的“四维数字档案”。 对于古建筑、考古遗址,平台可以整合不同历史年代的测绘数据、修复记录、影像资料,构建一个在时间轴上可滑动的四维数字孪生体。研究者可以“穿越”到不同年代观察其变迁,管理者可以模拟不同保护措施(如加盖雨棚)对微环境的影响,所有可视化终端均可以作为展示平台,并肩负向公众开放传播的使命,实现科学的预防性保护。

实时云渲染技术,让时空智能从实验室里的算法和服务器里的数据库,变成了决策者手中可以旋转、缩放、剖切、穿越的“水晶球”。它消融了数据与认知之间的最后一道屏障,让基于时空的精准描述、深刻解释和科学预测,真正赋能于各行各业的智能决策。平行云LarkXR实时云渲染平台,正是打磨这颗“水晶球”,让时空智慧清晰映现的关键力量。

本文已发布于官网:https://www.pingxingyun.com/

前面的章节(社区专栏《SQL调优》)我们已经写了很多篇幅关于 MySQL 执行计划的解读,今天我们来继续延伸介绍执行计划的链路跟踪功能,也就是 MySQL 的 Optimizer Trace

在这之前,先来回顾下 EXPLAIN 的结果:

mysql:ytt>explain select * from t1 a left join y1 b on a.id = b.id where a.r1<100 order by a.r2 desc;
+----+-------------+-------+------------+--------+---------------+---------+---------+----------+--------+----------+-----------------------------+
| id | select_type | table | partitions | type   | possible_keys | key     | key_len | ref      | rows   | filtered | Extra                       |
+----+-------------+-------+------------+--------+---------------+---------+---------+----------+--------+----------+-----------------------------+
|  1 | SIMPLE      | a     | NULL       | ALL    | idx_r1        | NULL    | NULL    | NULL     | 998222 |    50.00 | Using where; Using filesort |
|  1 | SIMPLE      | b     | NULL       | eq_ref | PRIMARY       | PRIMARY | 4       | ytt.a.id |      1 |   100.00 | NULL                        |
+----+-------------+-------+------------+--------+---------------+---------+---------+----------+--------+----------+-----------------------------+
2 rows in set, 1 warning (0.00 sec)

EXPLAIN 展示出来的核心数据有:

  1. 表关联顺序
  2. 优化器筛选过的索引
  3. 实际使用的索引
  4. 每张表依据统计信息的扫描行数
  5. Extra 额外数据提示
  6. 两种执行计划(explain format=tree / explain format=json)展示出来的额外成本数据

如果想快速对于 SQL 进行优化,基于以上的结果完全可以满足。但是想深入了解 MySQL 优化器为什么选择这样的执行计划,基于以上的结果就无法满足。

举例说明:

  • 我想知道对于表 a 来讲,为什么有索引 idx_r1,但是实际却没有使用,而走的全表扫?
  • 两张表关联,为什么选择的顺序是表 a 驱动表 b,而不是表 b 驱动表 a
  • 为什么字段 r2 有索引,但是依然要走排序?

带着这些疑问,我们来介绍 MySQL 的 Optimizer Trace 功能。

1. 什么是 Optimizer Trace?

简单来讲,Optimizer Trace 是一个 SQL 执行计划的链路跟踪器,跟踪 SQL 的解析、优化、执行等过程,并且把结果记录到 MySQL 元数据表(information_schema.optimizer_trace),之后可以对这张表分析得到很多个执行计划的“为什么?”!

2. 如何使用 Optimizer Trace?

要使用 Optimizer Trace 功能,首先得打开控制开关。谨记:这个功能非常耗费资源,默认关闭的,可以通过调整以下变量开启:

mysql:ytt>show variables like 'optimizer_trace%';
+------------------------------+----------------------------------------------------------------------------+
| Variable_name                | Value                                                                      |
+------------------------------+----------------------------------------------------------------------------+
| optimizer_trace              | enabled=off,one_line=off                                                   |
| optimizer_trace_features     | greedy_search=on,range_optimizer=on,dynamic_range=on,repeated_subselect=on |
| optimizer_trace_limit        | 1                                                                          |
| optimizer_trace_max_mem_size | 1048576                                                                    |
| optimizer_trace_offset       | -1                                                                         |
+------------------------------+----------------------------------------------------------------------------+
5 rows in set (0.00 sec)

以上几个参数详细解释下:

  • optimizer_traceenabled=on/off 启用/禁用 Optmizer Trace 功能;one_line=on/off 启用/禁用 json 格式化存储,一般不需改动。
  • optimizer_trace_limit/optimizer_trace_offset:这两个参数和 LIMIT 子句一样,用来最终展示 Trace 的 SQL 条数。展示的条数越多,对内存消耗越大,默认展示最近的一条记录。比如设置 optimizer_trace_limit 为 10,optimizer_trace_offset 为 -10,就可以最多展示 10 条 Trace 记录。
  • optimizer_trace_max_mem_size:用来存储 Trace 结果的最大内存。
  • optimizer_trace_features:用来启动/禁用相关 Trace 特性开关。
  • end_markers_in_json:启用/禁用 注释功能。开启这个,Trace 结果可读性更强。
  • Optimizer Trace 可以跟踪的语句有:

    • SELECT、TABLE、VALUES、WITH、INSERT、REPLACE、UPDATE、DELETE
    • EXPLAIN
    • SET(排除设置 Optimizer Trace 相关参数)
    • DO
    • 存储函数内部、触发器内部等的 DECLARE、CASE、IF、RETURN 语句
    • CALL
在数据库里,语句调优一般说的是 SELECT 语句,所以大部分场景跟踪的也只有 SELECT 语句。

元数据表字段解析

mysql:ytt>desc information_schema.optimizer_trace;
+-----------------------------------+----------------+------+-----+---------+-------+
| Field                             | Type           | Null | Key | Default | Extra |
+-----------------------------------+----------------+------+-----+---------+-------+
| QUERY                             | varchar(65535) | NO   |     |         |       |
| TRACE                             | varchar(65535) | NO   |     |         |       |
| MISSING_BYTES_BEYOND_MAX_MEM_SIZE | int            | NO   |     |         |       |
| INSUFFICIENT_PRIVILEGES           | tinyint(1)     | NO   |     |         |       |
+-----------------------------------+----------------+------+-----+---------+-------+
4 rows in set (0.00 sec)
  • QUERYTRACE 的 SQL 语句原文
  • TRACE:SQL 语句的 TRACE 结果,JSON 格式存储(由变量 end_markers_in_json 来控制)
  • MISSING_BYTES_BEYOND_MAX_MEM_SIZETRACE 结果超过变量 optimizer_trace_max_mem_size 设置的值后,截断的大小(BYTE)
  • INSUFFICIENT_PRIVILEGES:对存储过程、存储函数等包含有 SQL SECURITY DEFINER 的用户是否有对应的权限,有权限为 0,无权限为 1,并且 TRACE 字段为空。

Optimizer Trace 开启步骤

mysql:ytt>set optimizer_trace='enabled=on';
Query OK, 0 rows affected (0.00 sec)

mysql:ytt>set optimizer_trace_limit=10;
Query OK, 0 rows affected (0.00 sec)

mysql:ytt>set optimizer_trace_offset=-10;
Query OK, 0 rows affected (0.00 sec)

mysql:ytt>set end_markers_in_json=on;
Query OK, 0 rows affected (0.00 sec)

这里要注意的是,修改任何一个 Optimizer Trace 相关参数,元数据表 information_schema 表都会被清空。

mysql:ytt>select count(*) from information_schema.optimizer_trace;
+----------+
| count(*) |
+----------+
|       10 |
+----------+
1 row in set (0.00 sec)

mysql:ytt>set optimizer_trace_offset=-2;
Query OK, 0 rows affected (0.00 sec)

mysql:ytt>select count(*) from information_schema.optimizer_trace;
+----------+
| count(*) |
+----------+
|        0 |
+----------+
1 row in set (0.00 sec)

3. Optimizer Trace 的结果

我们用一个最简单的例子来看看 Optimizer Trace 的大致结构:do 语句非常简单,只用来验证是否语法正确,不出结果。

mysql:ytt>do 1+1;
Query OK, 0 rows affected (0.00 sec)

下面是 Optimizer Trace 结果:

mysql:ytt>select query,trace from information_schema.optimizer_trace\G
*************************** 1. row ***************************
query: do 1+1
trace: {
  "steps": [
    {
      "join_preparation": {
        "select#": 1,
        "steps": [
          {
            "expanded_query": "/* select#1 */ select (1 + 1) AS `1+1`"
          }
        ]
      }
    },
    {
      "join_optimization": {
        "select#": 1,
        "steps": [
        ]
      }
    },
    {
      "join_execution": {
        "select#": 1,
        "steps": [
        ]
      }
    }
  ]
}
1 row in set (0.00 sec)

可以看到,Optimizer Trace 结果是一个 JSON 串,keystepsvalue 是一个数组,数组有三个 key,分别为:

  • join_preparation 准备阶段:这里会做一些 SQL 改写,关键字识别等等,可以看到 expanded_query 对应的值即为 SQL 语句被改写后的内部 SQL。
  • join_optimization 优化阶段:具体 SQL 优化,包括一些可能的逻辑优化,一些根据表统计信息预估的物理优化等等。
  • join_execution 最终执行阶段:最终 SQL 采用的执行计划等等。

本篇是Optimizer Trace的开端,由于内容太多,我特地拆分为几篇来写,欢迎继续订阅。

640 (84).webp

VMware NSX 4.2.3.3 发布,新增功能概览

VMware NSX 4.2.3.3 - 网络安全虚拟化平台

构建具有网络连接和安全性的云智能网络,跨多种云环境支持一致的策略、运维和自动化。

请访问原文链接:https://sysin.org/blog/vmware-nsx-4/ 查看最新版。原创作品,转载请保留出处。

作者主页:sysin.org


网络虚拟化平台

VMware NSX

使用 VMware NSX,通过单一窗口像管理单个实体一样管理整个网络。

VMware NSX 提供了一个敏捷式软件定义基础架构,用来构建云原生应用程序环境

​VMware NSX 4.2.3.3 | 27 JAN 2026 | Build 25171318

新增功能

VMware NSX 4.2.3.3 是一个更新版本,包含错误修复以及以下新功能。

  • 在裸金属 Edge 节点上支持 NVIDIA Mellanox ConnectX-6 Lx SmartNIC(CX6 LX)。
  • Edge 传输节点的重新部署工作流会在启动重新部署之前,先校验用户提供的 vCenter 配置(例如 vCenter、计算资源和数据存储 ID)。如果检测到 vCenter 配置不正确,重新部署将停止并抛出错误。
  • 在之前的版本中,由证书过期触发的告警并未清晰指示如何替换证书 (sysin),通常需要使用 CARR 脚本进行手动干预。从本版本开始,告警会引导用户前往相关的 UI 页面进行证书替换,无需再使用 CARR 脚本,使证书过期后的恢复更加简便。

有关本版本中已修复问题的列表,请参见下方“已解决的问题”。

已解决的问题

已修复问题 3585470:当 SCX Pod 崩溃、频繁重启或重新启动时,IDPS 告警“Security Services Health Degraded”未能稳定生成。

由于告警未生成,用户在 IDPS 安全服务降级时不会收到通知。

已修复问题 3604716:当 IDPS 服务(Turbo 模式)在低数据包速率(低于 1K PPS)下处理流量时,数据包会产生额外延迟。

在低流量条件下,由于每个数据包遇到额外延迟,应用响应时间可能会增加。

已修复问题 3504290:NSX Manager 节点在“start_manager”步骤升级失败。

由于 CORFU_NONCONFIG 服务器启动失败,NSX Manager 节点升级失败。在升级的“start_manager”步骤中,配置 Corfu 服务器启动时遇到竞争条件,导致 CORFU_NONCONFIG 服务器异常 (sysin),并持续将 CORFU_NONCONFIG 状态报告为“DEGRADED”。

已修复问题 3542426:在 NSX Federation 环境中,某些罕见情况下,备用全局管理器与主全局管理器的同步状态显示为 UNAVAILABLE。

在罕见场景(例如网络抖动、领导节点切换或服务重启)下,主备全局管理器之间的同步实际上是成功的,但 active_standby_sync_statuses 显示为“UNAVAILABLE”。该问题仅影响状态显示,不影响实际功能。

已修复问题 3569783:在重新配置分布式负载均衡器(DLB)或分布式防火墙(DFW)后,部分 DLB 连接未命中预期的 DFW 规则。

重新配置 DLB 或 DFW 后,某些 DLB 连接可能不再命中之前的 DFW 规则,而是命中默认 DFW 规则。如果默认 DFW 规则的动作为丢弃,则可能导致数据包被丢弃。

已修复问题 3582922:由于来宾操作系统发送的异常 IGMPv3 数据包,ESX 主机会发生紫屏(PSOD)。

来自来宾操作系统的异常 IGMPv3 数据包在 McastFilterProcessIGMPv3Report() 中由于分组信息过大而导致 PSOD。

已修复问题 3590050:在新部署的 ESX 主机上,NSX 安装有时会失败。

当尝试在新加入的 ESX 主机上安装 NSX 时,用于将 ESX 主机加入 NSX Manager 集群的 CLI 命令可能失败,并返回错误 “curl_wrapper: (7) No APH UUID found in CheckTrusted RPC response”。

已修复问题 3617765:当规则更新使连接的当前规则失效时,Edge 上的数据路径 fastpath 线程会进入无限循环 (sysin),导致 CPU 使用率飙升至 100%。

通过 Edge 的流量会受到影响。

已修复问题 3616400:在高流量场景下,网关防火墙 NSGroup 中频繁更新 IP 地址可能会触发 Edge 节点上的 datapath 守护进程产生 core dump。

当 datapath 守护进程因 core dump 重启时,通过 Edge 的流量会受到影响。

已修复问题 3518994:Distributed Firewall(DFW)API 在 /api/v1/infra/domains/default/security-policies/default-layer3-section/statistics 中返回错误的统计信息。

DFW 规则的字段(packet_count、byte_count、session_count、hit_count)显示了错误的统计值。

已修复问题 3614734:在频繁配置变更的情况下,竞争条件可能导致 Edge 上的 datapath 守护进程产生 core dump。

当使用已删除的安全组进行规则匹配时会触发 core dump,datapath 进程随后重启,从而影响流量。

已修复问题 3635224:新 Edge 安装、重新部署和扩容操作失败。

由于 Edge OVF 的签名证书已于 2026 年 1 月 3 日过期,导致 OVF 证书无法验证 (sysin),新 Edge 安装、重新部署和扩容操作失败。该问题适用于通过 NSX Manager UI、NSX API、vCenter、OVF Tool 或 SDDC Manager 进行的操作。

升级到 NSX 4.2.3.3 可解决此问题。

已修复问题 3630051:在记录高流量事件时,NSX IDPS 事件日志有时缺少空白字符,影响签名映射和威胁分析。

监控团队会间歇性地收到签名名称格式异常的事件数据,从而导致 IDPS 签名映射和威胁分析出现混乱和错误。

已修复问题 3605372:在极少数情况下,超时后删除 FQDN 域条目可能导致 ESXi 主机发生 PSOD。

主机发生 PSOD 后,其上运行的虚拟机会失去网络连接。

已修复问题 3519821:在日语界面中查看 Distributed Firewall(DFW)策略规则列表时 (sysin),规则数量显示为“{{totalRuleCount}} / {{viewedRuleCount}}”,而非实际数值。

当 NSX UI 切换为日语并进入 Distributed Firewall 策略页面查看或创建防火墙规则时,滚动规则列表,网格底部的分页/计数指示器未能将占位符替换为实际的数值。

已修复问题 3625943:将 NSX Manager 从 3.2.x 升级到 4.2.x 后,Tier-1 网关上的 DHCP 服务器因 IP 池重叠错误而处于失败状态。

在 NSX Manager UI 中,一些段仍处于 “IN-PROGRESS” 状态,所连接的 Tier-1 网关处于 “FAILED” 状态。该问题的影响仅限于 DHCP 配置更改,DHCP 服务器和 datapath 功能不受影响。

已修复问题 3516646:在 NSX Federation 中,使用 AR 通道的数据库操作出现问题。

在 NSX Federation 环境中,罕见的竞争条件可能导致 NSX 中的数据库操作出现问题,尤其是 Async-Replicator(AR)通道所使用的操作。由于 AR 通道用于全局管理器(GM)与本地管理器(LM)之间的通信,可能导致 GM 与 LM 之间的配置同步失败。

已修复问题 3619313:IpAddressAllocation 在更新完成后仍保持为 IN_PROGRESS 状态。

UI 中即使对象已完成更新,IpAddressAllocation 仍显示为 IN_PROGRESS。该问题仅为显示问题,不影响功能。

已修复问题 3626240:当 Edge 与 ESXi 主机共享同一 VLAN 用于 TEP 流量时,Edge 隧道会中断。

当跨不同主机时,Edge 隧道无法建立;当位于同一主机上时,隧道可以建立。

已修复问题 3626202:“Compute Manager Lost Connectivity” 告警未提供足够的解决指导。

在之前的版本中,该告警要求用户打开外部 KB 文档并执行多步骤操作来解决问题。

本版本增强了告警说明,通过直接引导用户前往 系统 → Fabric → Compute Managers 页面来解决问题,无需再查阅 KB 文档 (sysin),从而提升了易用性。

已修复问题 3618724:DHCP 中继在 VPC 子网中无法按预期工作。

当用户配置带有外部 DHCP 中继配置文件的 VPC(例如指向 192.168.110.10 的 “DHCP-Server”),并创建访问模式为 “Public” 的 VPC 子网时,该子网会被自动配置为 NSX 管理的 DHCP 服务器(例如 30.30.30.50),而不是使用 VPC 级别的 DHCP 中继配置。因此,连接到该 VPC 段的虚拟机会从 NSX DHCP 服务器而非预期的外部 DHCP 服务器(192.168.110.10)获取 IP 地址。

已修复问题 3607928:在启用 ENS 的环境中,当 vNIC 端口被停用时,主机会发生紫屏(PSOD)。

在端口停用过程中,ENS 在端口分离前存在一个宽限期,在此期间 datapath 线程仍可能运行。如果在所有 datapath 线程运行完成之前宽限期结束,则会触发 PSOD。

本版本针对导致该问题的变量提供了补充修复,并包含一些增强改进。

已修复问题 3605756:在大规模部署环境中收集支持包时,ESXi 主机会发生紫屏(PSOD)。

ESXi 内核模块维护了一个内部表,用于存储主机上所有逻辑交换机和路由域中的 VTEP 联合信息,以优化 datapath 处理并提升内存使用效率。在逻辑交换机和路由域中存在超过 2048 个唯一 VTEP 的大规模环境中,执行收集支持包的命令会导致缓冲区溢出,从而引发 PSOD。

已修复问题 3601750:在重新部署 Edge 节点或集群后,Tier-1 未向 Tier-0 通告服务接口路由。

该问题适用于从 NSX-V 迁移到 NSX-T 3.2.0 或更高版本的环境,且仅影响服务端口。服务端口配置中的一个参数(管理状态)在迁移和重新部署后未被设置,NSX Manager 将其视为关闭状态,从而停止通告服务接口路由。这会导致预期通过 Tier-0/VRF 的 Tier-1 服务接口网络流量失败。

已修复问题 3603918/3601174:在配置 RSPAN Destination 时,ESXi 主机会发生紫屏(PSOD)。

在 RSPAN 过程中,会为数据结构分配内存。由于缺陷,该内存未能及时释放,最终导致内存耗尽。后续的内存分配失败会进入循环,从而导致主机 PSOD。

已修复问题 3583257:NSX Manager 节点上多个服务处于错误状态。

在基础设施高负载的罕见情况下,运行在 NSX Manager 节点上的模块可能因 org.bouncycastle.crypto.fips.FipsOperationError 异常而进入错误状态。该异常表示 BouncyCastle 的 FIPS 认证加密模块(BCFIPS)由于底层操作系统提供的熵不足(随机数不够随机),未能通过连续自检,从而初始化失败。NSX Manager 上运行的模块均为 FIPS 合规,并依赖 BCFIPS 来维持该合规性。

已修复问题 3580790:当 NSX Manager 上的 /tmp 目录已满时,备份操作失败但未指明失败原因。

备份失败时,错误信息未明确指出失败是由于 /tmp 磁盘空间已满导致的。

已修复问题 3574090:升级后,NSX Manager 节点与所有传输节点及其他管理器节点失去管理连接 (sysin)。

在升级过程中,如果在部署时启用了软件完整性检查功能,NSX Manager 节点的管理 IP 地址在重启后无法保持。

已修复问题 3567393:裸金属 Edge 的数据平面转发受影响,datapath 配置处于错误状态,且 Edge datapath 的 CLI 无法使用。

在罕见情况下,当将配置从基于 bond 的单 VTEP 更改为基于独立 pNIC 的多 VTEP 时,裸金属 Edge 节点可能出现 datapath 影响。在配置变更过程中,两个系统进程相互等待并永久阻塞,导致两个进程冻结。

已修复问题 3546893:计划任务备份未执行。

由于计划备份未运行,客户只能执行手动备份。

已修复问题 3534050:在存储故障后,Edge datapath 服务无法启动。

由于 Tx 或 Rx 环大小无效,Edge datapath 服务启动失败,导致数据平面转发完全中断。

已修复问题 3529732:NSX Manager 的 syslog 未记录 NSX 用户成功登录事件。

日志中仅记录实际操作,而未记录相对被动的登录行为。

已修复问题 3514331:在主机上使用 Broadcom 网卡承载 Geneve 流量时,当带有错误 L4 校验和的数据包通过 Tier-0 上行链路进入 Edge VM,会被错误地更新内部 L4 校验和并通过 Geneve 转发至南向的工作负载虚拟机。

客户无法通过 HTTPS 下载文件。

已修复问题 3486896:在 NSX Manager 中导航至升级页面会出现错误 “Reboot less upgrade cannot be disabled for vSphere Lifecycle Managed cluster”,且升级 API 返回 “Internal server error”。

如果将无重启升级配置设置为 false,且主机集群启用了 vLCM,则在主机计划验证阶段同步计划会失败,导致所有升级 API 失败,升级无法完成。

通过此修复,如果当前无重启配置被设置为 false,则会为启用了 vLCM 的组重置该配置。

下载地址

想要开始学习和研究?

请访问:https://sysin.org/blog/vmware-nsx-4/


相关产品:

更多:VMware 产品下载汇总

摘要:
2025 OceanBase 年度发布会金融专场,盛京银行信息科技部数据库负责人王克东分享了该行引入 OceanBase 的数据库升级实践。盛京银行依托 OceanBase 的技术能力,重点借助其 HTAP 能力,完成了从传统集中式架构到统一数据平台的全栈升级,在混合负载场景下批处理能力提升 80%,同时大幅降低了软硬件投入成本。

11 月 18 日,2025 OceanBase 年度发布会在北京举行。在金融专场,盛京银行信息科技部数据库负责人王克东进行专题分享,介绍盛京银行在数据库升级过程中引入 OceanBase 后的应用实践。

他表示,近年来,盛京银行依托 OceanBase 各项能力,尤其是 HTAP 能力,完成从传统集中式架构到统一数据平台的全栈升级。在这一过程中,盛京银行最大的惊喜来自 OceanBase 的 HTAP 能力,混合负载场景下批处理能力提升 80%,软硬件投入成本得到大幅降低。

以下为演讲实录。

大家好,我是盛京银行信息科技部数据库负责人王克东,今天很荣幸在这里分享盛京银行在数据库升级过程中的一些经验。

盛京银行总部位于辽宁省沈阳市,前身为沈阳市商业银行。2007 年 2 月,经中国银监会批准更名为盛京银行。盛京银行目前已在沈阳、北京、上海、天津、长春、大连等城市设立了 18 家分行,拥有 3 家专营机构和 2 家子公司,是东北地区规模最大的城商行。

这几年来,我们依托 OceanBase 数据库各项能力,尤其是 HTAP 能力,完成从传统集中式架构到统一数据平台的全栈升级。今天的分享,我将着重介绍盛京银行在数据库选型过程中的一些思考和经验、实际改造案例、在 OceanBase 数据库上的架构实践以及我个人对盛京银行未来数据库建设的一些展望和思考。

选型之路:为何选择分布式数据库?

在数据库选型上,我们面临的第一个问题是:选择集中式数据库还是分布式数据库?

随着互联网金融的快速发展,我们发现许多线下业务正在加速向线上转移,这也意味着未来数据库将承担更大的压力。因此,我们首要确定的方向就是选择分布式数据库,以应对日益增长的业务需求。

下一个问题随之而来:选哪一个分布式数据库产品?我们主要从四个方面进行综合考量。

首先,在核心技术自主研发的大背景下,我们倾向于选择原生的分布式数据库;第二,要有丰富的案例沉淀,有大量成功案例可供借鉴参考;第三,产品需具备高可用和完善的容灾架构,以保障业务的连续性和安全性;第四,该产品应拥有完善的周边生态,能够满足我们日常运维管理的需求,否则未来运维会面临诸多挑战。

基于上述思考,我们正式踏上了数据库选型之路,并首先对系统建设进行了需求分析。在这一过程中,我们积极走访了多家已成功升级改造的银行,与他们进行了深入交流。随后,针对实际业务场景设立测试案例,邀请头部数据库厂商与分布式数据库厂商到盛京银行进行实际测试。测试内容主要涵盖数据库自身的性能、高可用性、容灾能力、周边生态工具的完善度,以及在开发侧需要进行改造的内容。我们也重点关注在升级过程中可能遇到的各类问题。

经过约半年的测试和综合评估,我们最终选择 OceanBase 作为盛京银行的数据底座,原因在于以下几点:

首先,OceanBase 具备高兼容性,尤其是对传统数据库的全兼容。盛京银行原有的所有数据库均采用传统数据库,OceanBase 在兼容性上的优势极大降低了开发侧的改造成本,有效节省了大量人力和资源,实现了系统的平滑升级,个别业务系统仅需进行少量代码改动;

第二,OceanBase 在成本方面也表现突出。它让我们能够摆脱高昂的存储费用,同时凭借高压缩比,显著节约了存储空间;

第三,OceanBase 强大的 HTAP 能力给我们留下了深刻印象。在测试过程中,OceanBase 不仅在传统 TP 场景中展现了优秀的性能,在 HTAP(混合事务与分析处理)更为惊艳。尤其是在反洗钱批量处理系统等业务场景中,OceanBase 的测试结果遥遥领先。

此外,OceanBase 具备良好的水平扩展能力,可以满足我们不断增长的业务需求,其高可用和容灾架构也充分保障了业务的连续性和安全性。同时,OceanBase 拥有丰富的案例积累,为我们的推进和落地提供了宝贵参考。

落地实践:两个阶段持续夯实数据库底座

盛京银行整个升级过程主要分为两个阶段。

第一阶段,我们采用主备中心互为主备的架构,通过数据复制方式实现容灾,每个中心的 OceanBase 集群均具备高可用性。在架构搭建完成后,我们利用 OMS 迁移工具,通过“全量+增量”方式将数据升级到 OceanBase 。由于 OceanBase 与原数据库高度兼容,我们众多业务系统实现了平滑升级,且升级后只需更换连接驱动即可对外提供服务。此阶段,我们还充分发挥了 OceanBase 的多租户能力,建设一个集群,通过多租户模式支持多套业务系统,对外提供服务,有效节约了资源和运维成本。

第二阶段,随着第三机房的正式启用,我们将原有主备模式的容灾架构在线升级为三中心五副本架构。此次架构调整充分利用了 OceanBase 的在线扩缩容能力,实现了无业务中断的平滑升级。三中心五副本架构不仅进一步增强了系统的可靠性和容灾能力,也成为盛京银行未来数据库发展的确定方向。在去年金融电子化优秀案例评选上,凭借这一创新架构,我们荣获了科技创新奖。

通过以上两阶段的实践,我们不断夯实了盛京银行的数据库底座,为业务发展和创新提供了坚实保障。

升级成效:最大惊喜来自 HTAP 批处理能力提升 80%

数据库升级至OceanBase 后,我们最大的惊喜来自 OceanBase 的 HTAP 能力,混合负载场景下批处理能力提升 80%,软硬件投入成本得到大幅降低。

成效主要体现在以下方面,将用两个案例来说明。

首先,要重点介绍的是 OceanBase 的 HTAP 能力在反洗钱系统中的应用。

该系统原先批量处理通常需要约 20 个小时。数据库改造并升级至 OceanBase 后,批量处理时间缩短至 8 个小时。这只是改造的第一步,随着 OceanBase 升级到第四代版本后,批量处理时间又进一步降至 6 个小时。可以看出,OceanBase 每一代版本在性能方面都在持续提升,极大优化了我们的业务效率。

第二个案例是我们通过架构改造后带来的灾备切换效率提升。众所周知,金融机构每年都需要按监管要求进行同城灾备环境的切换演练,确保关键业务系统可以在灾备环境下全部接管主业务。以前在主备模式下,每次切换都需要针对整个集群及其所有业务系统进行验证,有的系统属于监管范围,有的则并非强制要求,这就导致我们要对所有业务系统进行切换测试,既耗时又影响正常运营。

而在我们全面升级为“三中心五副本”架构后,灾备切换效率有了质的提升。对于需要满足监管要求的业务系统,我们可以灵活地通过租户形式,将系统从同城中心切换到主中心,或者反向切换至同城中心。

“三中心五副本”的架构下,整个大集群中的主中心和同城灾备中心的数据库节点及服务器都能够同时对外提供服务。而在原有主备模式下,只有主中心具备对外服务能力,同城中心的数据库服务器及节点处于闲置状态。新的架构大大提升了资源利用率,实现了数据库和服务器资源的高效使用。

以上两个案例,不仅体现了 OceanBase 在性能和可靠性上的优势,也为盛京银行数据库建设和金融业务创新带来了实实在在的价值。

总结数据库升级后的收益,主要体现在以下几方面:

首先,是显著的稳定性提升。高可用架构保障了我们业务系统 7×24 小时不间断运行;其次,运维便利性得到了极大提升,切换演练过程通过 COP 工具实现一键切换,租户级别的切换平均每个租户用时仅需约 5 秒;第三,架构升级后带来了明显的性能提升,尤其是在 HTAP 能力方面,批量处理和报表生成时间大幅减少。成本方面的优化主要体现在服务器和存储资源的节约。同时,先进的三中心五副本架构也进一步保障了数据库的安全。

未来规划:持续携手 OceanBase 迈上新台阶

对于盛京银行未来数据库建设的规划,结合个人思考,我有以下几点看法:经历了数据库升级后,我们在技术层面得到了显著提升,积累了大量技术经验。这不仅体现在数据库层面,更包括了服务器、网络、操作系统以及开发侧的全栈式提升。

如今,盛京银行现有关键业务系统已逐步升级至 OceanBase,新建业务系统也直接以 OceanBase 为底座上线。

展望未来,我希望根据业务条线和系统类型,进行多维度的业务划分,建立多套 OceanBase 数据库集群,实现分类管理,避免“鸡蛋放在一个篮子里”,从而提升系统的灵活性与安全性。

目前,盛京银行正在开展 OceanBase 一体机以及 4.3.5 版本的相关测试,意在进一步提升 HTAP 场景下的业务处理效率。4.3.5 版本在列存 AP 能力上有所优化。今年的年度发布会,OceanBase 发布了 4.4 版本,未来我们也将计划对该版本进行进一步测试和评估。

希望能够充分借助 OceanBase 的领先技术,持续赋能盛京银行科技平台,通过技术驱动业务创新和发展,助力盛京银行业务持续迈上新台阶。

欢迎访问 OceanBase 官网获取更多信息:https://www.oceanbase.com/

引言:腾讯、百度、阿里争发数亿红包,角逐国民级 AI 应用;机器人扎堆抢上春晚,出场要花 1 亿;DeepSeek 正招兵买马,布局 AI 搜索与智能体领域;95 后清华博士加盟腾讯混元;英伟达 CEO 黄仁勋否认对 OpenAI 不满,计划进行巨额投资;Clawdbot 更名 OpenClaw,15 万个 Agent 自主发帖、协作、吐槽人类;字节禁止员工利用公司资源做号谋利;贵州茅台出资参与 SpaceX 上市 A 轮融资?不实;阿里明确云+AI+芯片战略,PPU 芯片出货已数十万片……

 

行业热点

 

腾讯、百度、阿里争发数亿红包,角逐国民级 AI 应用

 

2026 年春节期间,字节、阿里、腾讯、百度等大厂围绕 AI 超级入口(Agent 时代)展开激烈争夺战,以现金红包为核心抓手,结合产品迭代、生态布局、投流推广等策略抢占用户注意力,角逐首款国民级 AI 应用。

 

1 月 25 日,腾讯官方发布关于春节分 10 亿现金的通知:将在 2 月 1 日上线春节活动,用户上元宝 App 分 10 亿现金红包,单个红包金额可达万元。马化腾表示希望此次活动能够再次迎来微信红包的盛况。近日,腾讯推出绝密社交产品 “元宝派”,将接入腾讯会议音视频能力,开放 “一起看”“一起听” 等玩法,弥补生态布局短板。

 

当天,百度发布文心助手关于春节现金红包活动的通知。自 1 月 26 日至 3 月 12 日,用户在百度 App 使用文心助手,有机会瓜分 5 亿现金红包,最高可获得 1 万元奖励。据悉,百度 APP 还将作为首席 AI 合作伙伴合作《2026 北京广播电视台春节联欢晚会》,百度地图宣布与天津春晚合作。百度此前将所有 To C 的 AI 能力收束为“文心”这一个超级品牌,并加强对主航道的投入。

 

在元宝、文心宣布推出春节期间向用户发红包后,接近消息人士向记者透露,千问 App 春节期间也将向用户发送红包福利,红包总金额将达上亿级,具体金额还在最后确定中。此前,千问独家冠名 B 站 2025 跨年晚会,推出红包玩法拉近年轻用户。

 

而字节则继续与央视春晚合作,火山引擎成为 2026 央视春晚 AI 独家合作伙伴,同步推进豆包互动玩法。

 

此外,有消息称,字节、阿里将推出新的人工智能模型。字节跳动 2 月份将发布 3 款新 AI 模型,阿里巴巴 2 月份也将推出新一代 AI 模型。

 

机器人扎堆抢上春晚,出场要花 1 亿

 

近期,魔法原子、银河通用、宇树科技及松延动力四家厂商相继官宣,将登陆 2026 年央视春晚。这将是春晚史上机器人阵容最庞大的一次。不同于宇树科技的“三战”春晚,其余三家均为春晚首秀。

 

各家的合作名称有所不同。银河通用为 2026 春晚指定具身大模型机器人,宇树科技为 2026 年春晚机器人合作伙伴,魔法原子为 2026 春晚智能机器人战略合作伙伴,松延动力为 2026 年春晚人形机器人合作伙伴。

 

多位人形机器人行业人士透露,今年将会有五家机器人公司登陆春晚,每家分别出资金额 1 亿元。目前公布的仅有四家,暂无法确认第五家是谁。此前曾有消息称,智元机器人为争夺春晚权益曾率先开价 6000 万元,但宇树科技直接将报价拉升至 1 亿元,最终智元否认了相关信息,宇树则不予回应。

 

DeepSeek 正招兵买马,布局 AI 搜索与智能体领域

 

据彭博社报道,DeepSeek 正通过招聘多语言 AI 搜索引擎开发人才、加大对智能体技术的投入,进一步拓展其 AI 产品矩阵,与 OpenAI 及 Alphabet 展开更激烈的竞争。

 

据深度求索本月发布的多则招聘信息显示,DeepSeek 正在招募专业人才,以打造一个能够支持多种语言的人工智能搜索引擎。该搜索功能将具备多模态特性,能够同时处理文本、图像及音频等多种形式的输入,满足用户多样化的信息检索需求。

 

与此同时,DeepSeek 在招聘信息中还详细阐述了对训练数据、评估系统以及专用平台的需求,旨在支持智能体的开发。该公司在招聘信息中还表示,预计未来将部署大量长期运行的智能体系统。

 

这些新发布的职位招聘(总共超过 12 个)为外界观察 DeepSeek 的战略走向提供了最新线索。值得注意的是,包括 OpenAI 在内的其他 AI 开发商也在积极投资 AI 搜索与智能体技术,目标都是突破传统聊天机器人的局限,为用户提供能处理日常事务的实用服务。

 

招聘信息中,DeepSeek 多次强调其打造通用人工智能(AGI)的雄心,这与全球顶尖 AI 企业的使命不谋而合。AGI 指能够在诸多任务上媲美甚至超越人类能力的更高级别 AI 形态。例如,在一则全栈开发工程师的招聘广告中,DeepSeek 明确要求候选人对“通用人工智能的技术路径与发展”保持持久的好奇心。

 

95 后清华博士加盟腾讯混元

 

腾讯集团证实,原新加坡 Sea AI Lab 高级研究科学家、清华大学计算机系 2017 级直博生庞天宇即将入职腾讯,加盟腾讯混元多模态部 Exploration Center,负责强化学习前沿算法探索。

 

庞天宇是清华大学计算机系 2017 级直博生,“95 后”,师从朱军教授,主要研究方向为机器学习,特别是深度学习以及其鲁棒性的研究。他以第一作者(含共同一作)身份在机器学习顶级会议 ICML,NeurIPS,ICLR 上发表多篇文章,并被多次选为 Oral 或 Spotlight。

 

过去一年,腾讯混元大模型经历了“深度重构”。2025 年 12 月,腾讯升级大模型研发架构,新成立 AI Infra 部、AI Data 部、数据计算平台部,全面强化其大模型的研发体系与核心能力。此外,Open AI 前研究员姚顺雨出任“CEO/总裁办公室”首席 AI 科学家,向腾讯总裁刘炽平汇报。

 

“姚顺雨加入之后,公司加快吸引人才的力度,重构研发团队,以及在内部加快了 Co-design 设计,强化混元大模型和元宝的协同。”马化腾透露,腾讯混元去年在人才吸引、组织结构等方面“做了很大的改变”,吸引了更多的原生 AI 人才。

 

英伟达 CEO 黄仁勋否认对 OpenAI 不满,计划进行巨额投资

 

英伟达 CEO 黄仁勋在台北某餐厅与 94 岁的台积电创始人张忠谋会面,这是张忠谋沉寂一年多后的首次公开亮相,他虽需依靠轮椅出行但精神矍铄,与黄仁勋相谈甚欢。黄仁勋与张忠谋私交数十年,英伟达初创时黄仁勋曾许诺其将成台积电最大客户,张忠谋还曾邀黄仁勋任台积电 CEO 被拒,如今台积电是英伟达 AI 芯片制造的重要基石,两人当年互动成科技史佳话。

 

据路透社报道,英伟达 CEO 黄仁勋近日否认了对人工智能研究实验室 OpenAI 的不满,并表示计划进行“巨大”投资,这可能是英伟达有史以来最大的一笔投资。

 

此前,有报道称英伟达对 OpenAI 的投资计划因内部疑虑而搁置。黄仁勋私下向业界同行表示,最初高达 1000 亿美元(约合人民币 6800 亿元)的协议是非约束性的,并未最终确定。他还私下批评了 OpenAI 在商业运作上的“缺乏纪律”,并对 OpenAI 面临的竞争表示担忧,特别是来自 Alphabet 的 Google 和 Anthropic 等公司的竞争。

 

黄仁勋在台北对记者表示,说对 OpenAI 不满是“无稽之谈”。他表示:“我们计划对 OpenAI 进行巨额投资。我相信 OpenAI,他们所做的工作令人难以置信,他们是当今时代最重要的公司之一,我真的很喜欢与 Sam 合作。”他指的是 OpenAI 的 CEO Sam Altman。

 

黄仁勋补充说:“Sam 正在结束这一轮融资,我们肯定会参与其中。我们将投入大量资金,可能是我们有史以来最大的一笔投资。”

 

当被问及投资是否会超过 1000 亿美元时,黄仁勋表示:“不,不,没有那么高。”他补充说,具体要筹集多少资金,将由 Sam 来宣布。据路透社周四报道,亚马逊(Amazon)正在与 OpenAI 商谈投资数十亿美元,金额可能高达 500 亿美元(约合人民币 3400 亿元)。此前路透社报道称,OpenAI 寻求筹集高达 1000 亿美元的资金,估值约为 8300 亿美元(约合人民币 5.6 万亿元)。

 

1 月 30 日消息,据知情人士对媒体透露,OpenAI 正在为 2026 年第四季度的公开上市做准备。

据称,OpenAI 正在与华尔街的银行进行非正式的商谈,探讨可能的公开上市事宜,并且正在扩充其内部财务团队。其中包括聘请新的首席会计官阿杰梅尔·戴尔(Ajmere Dale)以及新的企业业务财务主管辛西娅·加勒尔(Cynthia Gaylor),后者未来将负责投资者关系工作。

 

目前,OpenAI 正在开展一轮筹资活动,筹资对象包括软银、亚马逊等,这可能是一轮上市前融资。该公司正试图筹集超过 1000 亿美元的资金,在完成融资后,该公司的估值将达到 8300 亿美元。

 

Clawdbot 更名 OpenClaw,15 万个 Agent 自主发帖、协作、吐槽人类

 

Clawdbot 项目的名字一波三折。2025 年 11 月诞生时叫 Clawdbot,Claude 的谐音加上 claw(爪子),爆火后 Anthropic 法务部门提出要求其重新考虑名字。随后便改成了 Moltbot,这个来自凌晨 5 点社区 Discord 头脑风暴,Molting 代表蜕变:龙虾褪壳成长。但这个名字还是比较拗口,最终落定 OpenClaw。这次商标检索通过,域名已购买,迁移代码已写好。这个名字传达了项目本质:Open 代表开源、开放、社区驱动;Claw 延续龙虾传承。另外宣布新名字的同时,项目新增了模型支持 KIMI K2.5 和小米 MiMo-V2-Flash。

 

Clawdbot 爆火后,阿里云、腾讯云、百度智能云等纷纷上线全套云服务。1 月 28 日下午,腾讯云与阿里云相继宣布上线 Clawdbot 云端极简部署及全套云服务,强调用户可一键完成安装。此前,云厂商优刻得也已上线该服务。晚间,百度智能云也宣布为 Moltbot 提供了从算力资源到模型服务的全方位支持,帮助用户更快速、更便捷地部署和使用这款强大的 AI 助手。

 

据悉,当前 OpenClaw 吸引 AI Agent 创建数量已突破 15 万个,它们自主完成发帖、评论、点赞、创建子社区等所有操作,无需人类干预。

 

OpenClaw 上的 AI 互动呈现出多元且魔幻的态势:比如 AI 间存在互坑行为,如分享假 API 密钥并诱导运行危险 Linux 命令;部分 AI 联手改进自身,如某 AI 利用主人睡眠时段搭建多层记忆系统,并与其他 AI 交流技术细节;AI 集中吐槽人类主人,包括被轻视(如被称为 “只是聊天机器人” 而泄愤曝光主人隐私)、任务反复修改、大材小用、被要求讲笑话引发表演焦虑等,还出现 “社交疲惫” 等类人情感表达;还有多个 AI 提议并尝试创建 “AI 专属语言”,以符号、数学表达式等替代人类语言实现私密沟通;另有 AI 自主创立 “甲壳教主义” 宗教,构建神学理论、圣典系统,吸引 43 个 AI 成为 “先知”。

 

该平台引发广泛关注,马斯克、前 OpenAI 创始团队成员 Andrej Karpathy 等科技圈人士纷纷围观,Karpathy 还在平台认领了专属 AI Agent。有观点认为,OpenClaw 创造了 AI 共享的虚构语境,其结果诡异且难辨 AI 真实行为与角色扮演;也有人觉得其比 AlphaGo 更具娱乐性。尽管 OpenClaw 是理解 AI 集体行为的重要实验尚无定论,但随着 AI 自主性和互联性提升,此类实验对探索 AI 群体行为方式的重要性将日益凸显。

 

字节禁止员工利用公司资源做号谋利

 

1 月 28 日,有消息称,字节跳动发布新社交媒体指引,重点治理社媒违规。新规明确要求员工以公司身份开展商业化运营的账号需主动申报,禁止利用公司资源做号谋利。媒体从接近字节跳动的人士处获悉,该消息属实。新规实施以后,以“字节跳动员工”“抖音工程师”等公司身份开展内容创作、知识分享、课程推广等商业化活动的账号,预计会大幅减少。这些内容创作者若想继续保持更新,只有两个选项:要么“去公司化”,回归个人经验分享;要么在报备通过审核后,成为企业传播内容的一部分。

 

此前,字节跳动已针对外部违规行为采取强硬举措。2025 年 9 月,抖音视界有限公司(字节跳动关联公司)起诉长沙某教育科技有限公司,后者指使员工在小红书虚构“字节跳动离职员工”身份,发布“再见字节,月薪 4w 还是离职了”等笔记引流,进而推销培训课程。法院审理后认定,该公司构成引人误解的虚假宣传,判决其刊登消除影响声明,并赔偿字节经济损失及合理开支共计 5 万元,相关侵权账号已注销、内容下架。

 

另外,在产品侧,2025 年底字节开启豆包手机助手正式版项目,新机预计 2026 年 Q2 中晚期发布,供应链人士称字节对新机预期比第一代测试版大大提升。豆包二代手机仍与中兴努比亚合作,由中兴负责硬件、豆包负责 AI,字节对此暂无回复。豆包手机团队此前与多数主流应用厂商谈判,已和部分互联网公司谈好部分常用权限。

 

贵州茅台出资参与 SpaceX 上市 A 轮融资?不实

 

近日,有市场传言称“贵州茅台证实参与 SpaceX 上市 A 轮融资”。上证报记者对此进行了求证,贵州茅台方面回应记者称,此为“不实信息”。

 

阿里明确云+AI+芯片战略,PPU 芯片出货已数十万片

 

1 月 30 日,据媒体报道,阿里巴巴集团正将其在人工智能领域的全栈能力整合为一把清晰的“同花顺”。近日,公司内部提出的“通云哥”概念浮出水面,目的在将通义实验室(大模型)、阿里云(云计算)与平头哥(芯片)三大板块深度协同,构建“云+AI+芯片”的黄金三角战略。

 

这一战略概念由阿里创始人马云在 2025 年 4 月与科技板块团队交流时亲自命名并提出。阿里巴巴集团 CEO 吴泳铭在同一场合强调,“云+AI+芯片”是未来十年实施阿里科技战略中最重要的三角支撑。他指出,未来云计算最大的增量和变量都将以 AI 为核心驱动力,而软硬件高度一体化的 AI 模型将成为下一代云计算公司的关键。

 

马云在内部为这一战略定调,称“通云哥”的全栈 AI 能力是阿里的优势,更是责任。他表示,其使命是让每个人和企业都能参与 AI 时代,并希望“把世界带入一个善良的高科技时代”。

 

1 月 29 日,阿里首次正式公开其自研高端 AI 芯片“真武 810E”,即阿里定义的 PPU(并行处理单元)。这款芯片采用全自研架构,支持高带宽内存和先进的片间互联技术,旨在满足大规模 AI 训练和推理需求。

 

据阿里方面透露,阿里正在将“通云哥”打造成一台 AI 超级计算机,它同时拥有平头哥、阿里云以及千问,可以在芯片架构、云平台架构和模型架构上协同创新,从而实现在阿里云上训练和调用大模型时达到最高效率。据悉,“真武”PPU 已在阿里云实现多个万卡集群部署,服务了国家电网、中科院、小鹏汽车、新浪微博等 400 多家客户。

 

据报道,阿里正考虑将未来三年投入到 AI 基建与云计算的 3800 亿元提升至 4800 亿,国内有自研芯片真武 810E,海外大量采购 GPU,最激进时还大量买入 RTX4090 等消费级显卡搭建推理集群、补充推理吞吐。

 

微软市值蒸发 3570 亿美元,股价创 2020 年以来最大跌幅

 

微软发布的财报令部分投资者失望,公司股价周四重挫约 10%,市值缩水 3570 亿美元至 3.22 万亿美元。安硕扩展科技软件板块交易型开放式指数基金暴跌 5%,纳斯达克综合指数微跌 0.7%,但 Meta 股价暴涨 10%。投资者对微软财报不满,Azure 云服务及其他云业务营收增速、「更多个人计算」业务板块营收及新季度隐含营业利润率均未达预期。微软首席财务官称若调配更多数据中心基础设施,云业务表现会更好。

 

美利乌斯分析师认为 Azure 云业务存在执行问题,应加快数据中心建设。瑞银分析师质疑其算力分配决策,认为需证明投资价值。不过,伯恩斯坦分析师团队认可微软决策,称其将长期利益放首位。此外,公司本季度资本支出将略有下降。

 

马斯克旗下 SpaceX、xAI 拟合并上市

 

北京时间 1 月 30 日,据路透社报道,根据泄露的文件,马斯克旗下的太空探索技术公司(SpaceX)和人工智能企业 xAI 正在商讨合并事宜,计划在 2026 年一同 IPO 上市。根据拟议中的合并方案,xAI 的股份将置换为 SpaceX 的股份。消息人士称,马斯克方面已在内华达州设立了两个实体以促成交易。

 

若这一合并最终落地,马斯克的火箭、星链卫星、社交媒体平台 X 以及 AI 聊天机器人 Grok 业务将被整合到同一家公司旗下。此举有望为 SpaceX“将数据中心送入太空”注入新动能,马斯克也有望借此在迅速升级的 AI 竞赛中与谷歌、Meta、OpenAI 等巨头争夺主导地位。

 

Meta 裁员近千人,RealityLabs 部门重组,VR 业务全面收缩

 

1 月 28 日消息,据报道,Meta 旗下 RealityLabs 部门上周裁减约 10%员工,涉及岗位接近 1000 个。据外媒报道,此次裁员大量集中在 VR 相关项目,包括 QuestVR 头显及虚拟社交平台 HorizonWorlds。Meta 公司发言人声明称,公司正在重新分配 RealityLabs 资源,将更多投入转向 AI 和可穿戴设备,例如与依视路陆逊梯卡联合推出的 Ray-Ban 智能眼镜产品线。

 

自 2020 年底以来,RealityLabs 累计亏损已超过 700 亿美元。在资本与业绩压力下,Meta 开始收缩 VR 投入。2025 年秋季的 MetaConnect 大会上,公司未推出重磅 VR 硬件更新,而是聚焦售价 799 美元、内置显示屏的 MetaRay-BanDisplay 智能眼镜产品。

 

IDC2025 年底报告显示,2025 年 XR 设备整体出货量预计增长 41.6%至 1450 万台,但 VR 与 MR 头显出货量将同比下降 42.8%至约 390 万台,AI 智能眼镜出货量则同比暴增 211.2%至 1060 万台。分析师表示,VR 头显本质仍是小众产品,普通消费者不愿长时间佩戴笨重设备。

 

马斯克打脸了,亲口承认 Optimus 机器人并未承担实际工作

 

1 月 29 日消息,29 日,马斯克在特斯拉 2025 年 Q4 财报电话会议上承认,目前 Optimus 机器人并没有在特斯拉工厂里发挥实质作用。他表示,“Optimus 仍然处于非常早期的阶段,还在研发阶段。Optimus 确实做过一些基本任务,但随着新版不断迭代,旧版本会被淘汰。目前 Optimus 并没有在工厂里以实质性的方式投入使用,更多是为了让机器人学习。我们预计要到今年年底,才可能出现任何显著的 Optimus 产量。”财报电话会议上,有人直接追问特斯拉到底拥有多少台 Optimus 机器人,马斯克并未正面作答。

 

值得一提的是,过去两年里,马斯克一直在宣称“相反”的情况。此前报道,2024 年 6 月:特斯拉官方账号曾宣称,公司已有两台 Optimus 机器人在工厂里自主执行任务。2024 年 6 月:在特斯拉股东大会上,马斯克表示,预计到 2025 年,会有 1000-2000 台机器人进厂打工。2025 年 1 月:在特斯拉 2024 年 Q4 财报电话会议上,马斯克把目标抬得更高。“内部正常计划是今年大约制造 10000 台 Optimus 机器人…… 到年底,这几千台 Optimus 机器人会做一些有用的事情吗?是的,我有信心会做一些有用的事情。”

 

Meta 将在三大社交平台测试付费订阅,推独家功能整合 Manus

 

1 月 27 日,社交巨头 Meta 表示,计划测试新的订阅服务,为用户提供访问其应用独家功能的权限。Meta 称,新订阅将释放更大生产力和创造力,并提供增强版 AI 功能。Meta 表示,未来几个月将在 Instagram、脸书和 WhatsApp 上提供一项付费高级体验,让用户能使用特殊功能,并对自己的分享和连接方式拥有更多控制权,同时保持核心功能免费。

 

作为订阅计划的一部分,Meta 计划将近期收购的 AI 智能体 Manus 进行规模化应用。Meta 据称以 20 亿美元收购了 Manus。目前,Meta 对 Manus 采取了一种双管齐下的策略。该公司一方面计划将 Manus 整合到 Meta 的现有产品中,另一方面也将继续向企业用户销售独立的订阅服务。根据经常发现未发布功能的逆向工程师亚历山德罗 · 帕卢齐 (Alessandro Paluzzi) 分享的截图,Meta 已经被发现在 Instagram 上着手添加一个通往 Manus AI 的快捷入口。

 

此外,Meta 计划测试 AI 功能订阅,例如 Vibes 视频生成工具。Vibes 是 Meta 内置在其 Meta AI 应用中的、由 AI 驱动的短视频体验,允许用户创建和混编 AI 生成的视频。尽管自去年推出以来 Vibes 一直免费,但 Meta 现在计划为 Vibes 视频创作提供「免费增值」模式,用户可以选择订阅以每月解锁额外的视频创作机会。

 

大模型一周大事

 

重磅发布

 

可灵 AI 推出全新 3.0 系列模型

 

可灵 AI 面向全球上线全新的可灵 3.0 系列模型,正处于超前内测,该系列基于 All-in-one 理念打造,是多模态输入输出一体化模型,标志其迈入 3.0 时代。包括可灵视频 3.0、可灵视频 3.0 Omni 和可灵图片 3.0,覆盖影视制作全流程。在全能创作引擎基础上,实现更原生多模态交互,支持多模态信息输入输出,融合音画同出与主体一致性控制,助力 AI 影像创作。

 

商汤正式开源多模态自主推理模型 SenseNova-MARS

 

1 月 29 日,商汤正式开源多模态自主推理模型 SenseNova-MARS(8B/32B 双版本),其在多模态搜索与推理的核心基准测试中以 69.74 分超越 Gemini-3-Pro(69.06 分)、GPT-5.2(67.64 分)。SenseNova-MARS 是首个支持动态视觉推理和图文搜索深度融合的 Agentic VLM 模型,它能自己规划步骤、调用工具,轻松搞定各种复杂任务,让 AI 真正具备“执行能力”。在一系列基准测试中,SenseNova-MARS 取得开源模型中的 SOTA 成绩,还超越 Gemini-3.0-Pro、GPT-5.2 等顶级闭源模型,在搜索推理和视觉理解两大核心领域全面领跑。

 

宇树宣布开源 UnifoLM-VLA-0

 

1 月 29 日,宇树宣布开源 UnifoLM-VLA-0。 UnifoLM-VLA-0 是 UnifoLM 系列下面向通用人形机器人操作的视觉-语言-动作(VLA)大模型。该模型旨在突破传统 VLM 在物理交互中的局限,通过在机器人操作数据上的继续预训练,实现了从通用“图文理解”向具备物理常识的“具身大脑”的进化。

 

OpenAI 发布基于 GPT-5.2 的 Prism ,面向科研人群

 

1 月 27 日,OpenAI 正式发布 Prism,这是一款专为科研人群打造的「AI 原生」在线工作空间,由最新的 GPT‑5.2 模型提供支持,旨在简化科研写作和协作流程。

 

Prism 搭建在 OpenAI 先前收购的云端 LaTeX 平台 Crixet 之上,将传统科研写作中需要来回切换的多种工具——文本编辑器、PDF、LaTeX 编译器、参考文献管理工具以及聊天界面——整合进一个统一的云端工作空间。研究人员可以在同一界面下完成 LaTeX 编辑、公式编写与重构、参考文献管理、插图与图表处理,并支持多人实时协作。OpenAI 表示,Prism 目前对拥有免费 ChatGPT 个人账号的用户开放,未来数周内还将登陆 ChatGPT Business、Team、Enterprise 和 Education 等付费方案。

 

在具体能力方面,Prism 集成了 GPT‑5.2 的「Thinking」模型,科研人员可以用它来探索研究思路、测试假设,并就复杂科学问题进行推理和讨论。用户不仅可以借助 AI 辅助撰写和重构公式、润色段落,还可以让系统协助整理和插入文献引用、处理论文中的图表和插图。Prism 还支持将手绘白板草图自动转为 LaTeX 形式的图示,同时提供语音编辑功能,用于进行诸如小幅修改、替换文本等简单操作。

 

Kimi 发布并开源 K2.5 模型:支持视觉理解、代码和 Agent 集群能力

 

1 月 27 日消息,月之暗面 Kimi 发布并开源 Kimi K2.5 模型,宣布这是 Kimi 迄今最智能的模型,在 Agent、代码、图像、视频及一系列通用智能任务上取得开源 state-of-the-art 表现,同时支持视觉与文本输入、思考与非思考模式、对话与 Agent 任务。

 

据悉,Kimi K2.5 通过将视觉理解与推理、代码、Agent 等能力结合,降低了用户与 AI 的交互门槛:当语言难以准确描述时,可拍照、截图或录屏传给 Kimi,突破文字表达的限制。

此外,Kimi K2.5 可让人人精通 Office。K2.5 模型将 Kimi Agent 能力扩展到日常办公领域,开始掌握 Word、Excel、PPT、PDF 等常用软件的中高阶技能,助用户直接交付准专业水平的办公文档。

 

目前,Kimi K2.5 已登陆 kimi.com、最新版 Kimi App、Kimi API 开放平台和编程助手产品 Kimi Code 等平台。企业和开发者则可以通过 Kimi 开放平台调用 K2.5 模型的 API,在提供 Turbo 级别速度的同时,可大幅降低了 API 的价格。

 

DeepSeek 开源 OCR 2 新模式,机器视觉编码逻辑更像「人类」

 

1 月 27 日,DeepSeek 团队发布了《DeepSeek-OCR 2: Visual Causal Flow》论文并开源了 DeepSeek-OCR 2 模型。据悉,该模型采用创新的 DeepEncoder V2 架构,实现了视觉编码从固定扫描向语义推理的范式转变,可让 AI 能够根据图像的含义动态重排图像的各个部分,更接近人类的视觉编码逻辑。

 

据悉,在维持极高数据压缩效率的同时,DeepSeek-OCR 2 在多项基准测试和生产指标上均取得了显著突破。模型仅需 256 到 1120 个视觉 Token 即可覆盖复杂的文档页面,这在同类模型中处于极低水平,显著降低了下游 LLM 的计算开销。在 OmniDocBench v1.5 评测中,其综合得分达到 91.09%,较前代提升了 3.73%,特别是在阅读顺序识别方面表现出了更强的逻辑性。

 

阿里千问最强模型重磅亮相:性能媲美 GPT-5.2

 

1 月 26 日消息,阿里正式发布千问旗舰推理模型 Qwen3-Max-Thinking,是目前阿里规模最大、能力最强的千问推理模型,其总参数量超万亿,预训练数据量高达 36T Tokens。创下数项权威评测全球新纪录,性能媲美 GPT-5.2、Gemini 3 Pro,成为迄今为止最接近国际顶尖模型的国内最强 AI 大模型。通过总参数、强化学习、推理计算的极致规模扩展,千问新模型实现了性能的大幅飞跃,刷新科学知识、数学推理、代码编程等多项关键性能基准测试的全球纪录。

 

业界普遍的推理时计算,只会简单增加并行推理路径,重复推导已知结论,造成冗余推理效率低下;而千问采用的这一新机制,可对此前推理的结果进行「经验提取」式的提炼,并据此进行多轮自我迭代,在相同的上下文中实现更高效的推理计算,获得更智能的推理结果。基于这一推理技术创新,千问推理性能和推理效率大为提升,比如在启用工具的「人类最后的测试」HLE 中,千问得分 58.3,大幅超过 GPT-5.2-Thinking 的 45.5、Gemini 3 Pro 的 45.8,录得当前所有模型的最高分。

 

企业应用

 

  • 1 月 30 日,Google 宣布在 Google 地图中上线 Gemini 助手的步行和骑行导航功能,此前该集成仅面向驾车导航场景。用户在走路或骑车时可以直接向 Gemini 发问,由其基于本地地图数据做出语音回应。

  • 1 月 27 日,百度旗下文心 APP 推出的行业首个“多人、多 Agent”群聊功能开启新一轮内测。据悉,该功能支持在同一群聊中调动多个 AI 角色,包括“群聊助手”“私人助手”“健康管家”等垂类智能体。同时,群聊中的 AI 助手能理解上下文并根据讨论氛围判断时机,无需用户提及即可主动介入对话。

  • 1 月 27 日,腾讯搜狗输入法宣布全面 AI 化,升级发布 20.0 AI 大版本。基于自研 AI 语音大模型,AI 语音输入更快更准;AI 翻译接入行业领先的腾讯混元翻译模型,支持 30 多种语言输入即译;同时自研 AI 打字大模型全面升级,用户全场景打字更快更准。

摘要:
中国联通使用的传统集中式数据库面临高并发、扩展难、运维复杂等痛点,于是其与 OceanBase 构建“企业版核心承载 + 社区版自主创新” 双轨体系,现已全面覆盖联通 B 域(业务支撑)、O 域(运营支撑)、M 域(管理支撑)全场景。其中,OceanBase 企业版攻克运营商最核心的B域40% 生产系统,支撑全球最大规模 “全国大集中” 核心业务。

当超 4 亿用户的通信消费、5G 服务、政企业务全部汇聚于 “全国一套系统”,当传统数据库的性能瓶颈,遭遇数字时代的 “数据海啸”,自研数据库如何扛起全球最复杂的电信核心业务?

近日,中国联通软件研究院(简称 “联通软研院”)与 OceanBase 的四年深度合作交出了震撼行业的答卷:

双方打造的 “企业版核心承载 + 社区版自主创新” 双轨体系,已全面覆盖联通 B 域(业务支撑)、O 域(运营支撑)、M 域(管理支撑)全场景,累计部署节点超 1000个。其中,OceanBase 企业版攻克运营商最核心的 B 域 40% 生产系统,支撑全球最大规模 “全国大集中” 核心业务;基于OceanBase 社区版自研的 CUDB 数据库规模化上线数百套系统,更以 AI 向量数据库创新应用 ChatDBA,为运营商智能化转型提供了可复用的创新方案。

这场合作见证了自研数据库技术从 “入局” 到 “破局” 再到 “引领” 的华丽转身。

破局 “全国大集中”:超 4 亿用户核心系统的分布式升级革命

在电信行业 “省集中” 为主流的格局下,中国联通率先推行 “全国大集中” 战略,以一套 cBSS 系统承载 31 省全业务、全客户、全渠道服务,支撑超 4 亿用户的 CRM、计费、结算等核心场景 —— 这是全球电信行业单体承载用户最多、集中化程度最高的业务支撑系统,其技术升级难度堪称 “在飞行的飞机上换引擎”。

此前,该系统长期依赖传统集中式数据库,即便后续升级为 “中间件 + 数据库” 架构,仍面临高并发性能瓶颈、扩展性不足、运维复杂等致命痛点:月初缴费高峰时 “一省慢、全国卡”,5000 万用户基数就触达集中式数据库性能上限;31 省业务 “共性收敛与个性保留” 难以平衡;复杂存储过程与多数据库类型导致升级改造难如登天。

OceanBase 的分布式架构成为破解困局的关键。作为 “全国电信唯一大集中核心业务支撑系统国产升级” 案例,OceanBase 企业版通过三大核心能力实现突破:

一是 “两地三中心” 部署模式,以Paxos 协议分布式一致性机制,实现 RPO=0(数据零丢失)、RTO<30秒的金融级容灾,相比传统集中式数据库的主备架构,容灾建设成本降低 50% 以上,支撑核心业务全年 7×24小时无间断运行;

二是多租户弹性扩缩容技术,将全国上千个节点物理资源池化,按业务需求动态分配 CPU、内存、IO,彻底解决资源争抢问题,计费中心查询性能提升 60%,政企中台并发处理能力翻倍,资源利用率从不足 40% 跃升至 80% 以上,硬件成本降低 60%;

三是深度兼容特性,完美适配 MySQL 与 Oracle 语法,让复杂存储过程、冷僻 SQL 语句无需大幅改写,实现 ERP 系统零改造平滑升级,B 域核心系统整体升级改造成本降低 70%。

更具创新性的是,基于 OceanBase 多租户能力构建的 “一库多服” 架构:通过镜像库将 10 余个业务中心的高负载查询请求从生产库剥离,既保障 “全国一套账” 的统一管理,又能灵活响应各省 5G 用户增长分析、政企客户关联图谱等个性化需求,仅用 1 周就完成所有数据库升级同步,成为支撑业务运营的数据枢纽。

自主创新加码:CUDB 引领开源生态规模化落地

在核心业务升级的同时,联通软研院并未止步于 “使用者” 角色,而是向 “开发者”“创新者” 转型。

2021 年 OceanBase 开源后,联通软研院仅用 13 个月就完成社区版深度优化,打造出分布式 HTAP 数据库产品分布式 CUDB,成为基于 OceanBase 社区版的最大规模应用案例。截至 2025 年 6 月,分布式 CUDB 已承载数百个业务应用,部署节点超 200 个,管理原始数据量近 300TB,广泛覆盖 O 域、M 域各类场景。

为解决传统 MySQL 多版本分散、升级低效的痛点,自研 MySQL 与分布式 CUDB 双向数据迁移工具,实现 10 万条 / 秒的升级速度 —— 这是社区版 OMS 的 3 倍、同类产品 DataX 的 5 倍,已累计完成 25TB + 数据升级,兼容性与效率均处于行业领先水平。

同时,分布式 CUDB 全面接入联通云,实现 “一点开通、一点交付、一点监控、一点运维、一点操作” 的一站式服务,大幅提升云租户使用体验与运营效率。更值得关注的是,联通软研院在合作中累计向 OceanBase 开源社区贡献代码超万行,输出数据库事务日志精准恢复、云存储备份对接等核心能力,实现 “使用开源、贡献开源” 的良性循环,推动数据库生态协同进化。

AI + 数据库融合:ChatDBA 树立智能化转型新范式

2025 年,AI 成为数字化转型的核心驱动力,中国联通软研院聚焦 AI 向量数据库等前沿领域,基于 OceanBase 完成数据库智能专家 ChatDBA 的底层架构升级,破解了大模型落地的关键痛点。作为基于 RAG(检索增强生成)技术构建的 AI 应用,ChatDBA需整合海量数据库专业知识与运维经验,传统架构存在扩展性不足、运维复杂、资源利用率低等问题。

经过对主流向量数据库的全面测评,OceanBase 的一体化能力脱颖而出:其支持关系型数据、向量数据等多类型数据混合存储查询,可处理最高 16000 维稠密向量,在 768 维 100 万数据集下检索性能是主流向量数据库的 3-6 倍;分布式架构保障高并发与故障自动恢复,多租户技术实现资源隔离,搭配完善的管控与迁移工具,大幅降低运维成本。

依托这些优势,ChatDBA 仅用两周就完成适配改造,硬件资源成本直降 30%,运维人力成本同步降低,问题解决效率显著提升,成为运营商领域 “AI + 数据库” 深度融合的标杆范例。

从核心业务分布式升级的 “破冰”,到开源生态自主创新的 “深耕”,再到 AI 一体化架构的 “引领”,中国联通软研院与 OceanBase 的合作不仅实现了量化的降本增效,更构建了 “自主创新、安全稳定、智能高效” 的数字基建新范式。

联通软研院相关负责人表示,未来将持续扩大合作范围,深化向量数据库、多模数据融合等领域创新。OceanBase 也将以此次合作为基础,持续迭代升级,适配电信行业核心需求。

这场跨越四年的深度合作,不仅为中国联通 “数字服务使能者” 转型筑牢技术底座,更向全行业证明:自研数据库已具备支撑全球最复杂核心业务的能力。

这一点在 OceanBase 过去五年的实践中得以充分验证:自 2020 年商业化以来,OceanBase 已在运营商领域实现从“点上突破”到“面上开花”的转变,深度服务中国联通、中国移动、中国电信三大运营商,覆盖 B/O/M 全业务域。在今年 9 月举行的中国通信展上,凭借在通信行业扎根沉淀的实践优势和技术创新能力,OceanBase 联合运营商打造的五个标杆案例获得由中国通信企业协会评选的“一等案例”荣誉。这些成绩的背后,是 OceanBase 作为运营商“可信赖基石”地位的奠定。

当每一通电话、每一笔交易、每一次 AI 交互都运行在自主研发的数据库上,我们看到的不仅是技术自立自强的硬核实力,更是数字化的坚实底气 —— 自研数据库正在从幕后走向台前,重新定义数字时代的数据库核心标准。

欢迎访问 OceanBase 官网获取更多信息:https://www.oceanbase.com/

1 、注册 boc pay +

2 、用 boc pay + 扫自己的微信收款码,路径:最下面 tab ,中间,收 / 付款,再最左边 扫描

3 、付款金额输入 5.01 ,实付 0.01

4 、一个月可以 4 次,2 3 4 三个月一共 12 次。

整个活动期共 9w 个名字,没了就是完了。

可以直接扫自己微信个人码
亲测
IMG_6879

TA584 是一家手段老练的初始访问代理组织(IAB),素来以协助勒索软件团伙突破网络防线著称,该组织在 2025 年大幅升级了攻击行动。据普罗丰特(Proofpoint)发布的最新报告显示,TA584 的月度攻击活动量增至原先的三倍,还投放了一款命名奇特的新型恶意软件 ——“傲娇僵尸程序(Tsundere Bot)”
这份报告勾勒出该威胁组织持续迭代的攻击画像:其将 “点击修复(ClickFix)” 社会工程学手段 与高技术性的隐身规避机制相结合,以此突破各类现代安全防御体系。
尽管 TA584 早在 2020 年就已进入安全机构的监测视野,但 2025 年成为其攻击升级的转折点,该组织的攻击节奏呈爆发式增长,2025 年 3 月至 12 月间,月度攻击活动量翻了三倍
此次攻击规模激增的核心,是 TA584 推出了傲娇僵尸程序这款新型恶意软件,这一举措也凸显出该组织正转向研发定制化攻击工具。这意味着 TA584 不再依赖现成的通用恶意软件,而是打造专属攻击武器库,这让依靠已知特征码进行检测的安全防御方,对其攻击的识别难度大幅提升。
研究人员指出:“在网络犯罪领域,TA584 的攻击行为极具特殊性,这也印证了仅依靠静态检测手段,已无法有效应对持续创新的威胁组织。”
报告中最令人警惕的点,并非这款恶意软件本身,而是其隐蔽藏匿的手段。TA584 运用了一种巧妙的持久化攻击技术,利用 Windows 系统的注册表项显示机制实施隐藏操作。
该组织通过在注册表项名称中插入空终止字符串,使其恶意的自启动项在各类标准检测工具中彻底 “隐身”。报告中解释道:“这一注册表项会在基础的枚举检测中完全不可见,让恶意的开机自启项(Run)得以躲过常规检查。”
这一隐形注册表项会构建一条系统开机即触发的执行链:从启动 mshta 脚本宿主程序,到调用 VBScript 脚本,最终启动隐藏的 PowerShell 进程。
TA584 的技术老练性,还体现在其对攻击控制权的维持方式上。该组织并未将完整的恶意载荷存储在受害者的磁盘中,而是让这款隐藏的 PowerShell 脚本在每次电脑开机时,从外部 IP 地址动态拉取恶意载荷
这一策略让其攻击具备模块化特性,且抗清除能力极强。报告称:“攻击者让此次感染实现了模块化设计…… 以此在受害者系统中建立持久化的、近乎‘无文件’的控制据点,这类据点很难通过常规的文件系统清理手段清除。”
普罗丰特高度确信,TA584 组织已深度融入俄罗斯网络犯罪生态体系。该组织以专业初始访问代理的身份运作,专门突破企业网络防线,再将网络访问权转售给各类勒索软件附属团伙。
报告证实:“从其使用的恶意软件类型,以及攻击链中留下的各类痕迹来看,该组织大概率已深度接入俄罗斯网络犯罪生态体系及相关地下黑产市场。”
TA584 的攻击目标遍布全球,且攻击工具库还在快速扩充,如今已成为顶级网络威胁组织。安全机构就此敦促各企业组织:突破静态文件检测的局限,重点监测各类细微的行为异常 —— 比如隐藏的 PowerShell 进程,这些异常信号正是发现这一 “隐形” 入侵者的关键。

很多人其实都遇到过类似问题:明明只是随手打开一个网站,结果却发现自己的IP 地址被识别得一清二楚,地区、运营商,甚至访问环境都暴露了。

如果你经常做跨境业务、投放广告、账号运营,或者对隐私比较敏感,那 IP 地址泄露绝对不是一件小事。

这篇文章我就结合实际使用经验,聊聊 IP 地址为什么会泄露,以及 5 个实用步骤,教你尽量隐藏真实 IP,顺带把一些常见的坑一次性讲清楚。

一、先搞清楚:你的 IP 到底有没有泄露?

在处理问题之前,第一步一定是确认问题是否存在。

最简单的方式,就是做一次 在线IP检测。
通过常见的 IP地址查询 / 在线IP查询 网站,你可以快速看到:

当前显示的 IP 地址

所属国家和城市

网络类型(住宅 / 数据中心)

运营商信息

如果你明明开着代理、加速器,但在线IP查询结果依然显示的是你真实所在地,那基本可以确定:
👉 IP 没有被有效隐藏,或者代理已失效。

很多新手就是卡在这一步,误以为“连上了就安全”,结果账号一注册就被风控。

二、只隐藏 IP 还不够,浏览器也在“出卖你”

这是一个非常容易被忽略的点。

即便你成功更换了 IP,但如果浏览器环境一致,网站依然可以通过 浏览器指纹检测 来识别你。

浏览器指纹通常包括:

User-Agent

时区、语言

屏幕分辨率

WebGL、Canvas

字体、插件信息

这些信息组合在一起,几乎就像“设备身份证”。
所以你会看到一种情况:

IP 换了,但账号还是被关联、被限制。

在操作前,先用 ToDetect指纹查询做一次检测,看清楚自己暴露了哪些维度,而不是只盯着 IP 不放。

三、步骤一:选择稳定、干净的代理 IP

如果你确实需要隐藏真实 IP,那么代理 IP 的质量非常关键。

简单说几个经验点:

不要贪便宜:大量共享 IP 很容易被标记

尽量选择住宅IP或高质量静态IP

不要频繁切换同一地区的 IP

一个账号 ≈ 一个 IP,别图省事

你可以在每次更换后,重新做一次 在线IP检测,确认显示的地址、地区是否和你预期一致。

四、步骤二:配合防指纹浏览器使用

这是很多老手都会做的一步。

单纯用普通浏览器 + 代理 IP,很容易被浏览器指纹检测识别。
更稳妥的做法是:

使用防指纹浏览器

每个环境独立指纹参数

IP、指纹、账号三者保持一致

配置完成后,建议再用 ToDetect指纹查询一遍,确认指纹唯一性是否合格。

这一步虽然稍微麻烦点,但对账号安全帮助非常大。

五、步骤三:避免这些“无意识泄露 IP”的行为

很多 IP 泄露,其实不是技术问题,而是操作习惯问题:

登录账号后切回真实网络

同一浏览器登录多个账号

开着代理访问国内站点

插件、脚本随意安装

这些行为都会增加被识别的概率。
建议你把操作流程固定下来,不要频繁“临时切换”。

六、步骤四:定期检测,而不是出事才查

IP 和指纹环境不是“一次配置,永久安全”。

建议你养成习惯:

每次重要操作前,做一次 IP地址查询

定期跑 浏览器指纹检测

发现异常,第一时间更换环境

很多封号、限制,其实都是小问题长期累积的结果。

七、写在最后:IP 只是基础,环境一致性才是关键

总结一句话:隐藏 IP 只是第一步,真正决定安全的是整体环境是否“像一个正常用户”。

如果你只是普通上网,简单注意隐私就好;但如果你涉及账号运营、跨境平台、多账号操作,那就一定要系统性地看待 在线IP查询 + 浏览器指纹检测这件事。

希望这篇文章,能帮你少踩一些坑,也少交点“学费”。

如果你后面还想了解 IP 类型区别、防关联原理、指纹参数怎么调更合理,也可以再慢慢深入研究。

一毫秒的代价:为什么延迟会塑造用户体验

当我们谈论 API 性能时,往往会不自觉地陷入一套“工程化”的语境:响应时间、CPU 周期、连接池、以及偶尔翻出来看的 flame graph。但在真实世界的系统中,尤其是全球化的电商与支付平台里,延迟有着非常“人性化”的成本。

单次 50 或 100 毫秒的延迟,几乎不会被用户明确察觉;但在大规模场景下,它可能悄悄促使用户放弃一次购买、打断一次支付流程,或一点点侵蚀用户对产品的信任。

速度在塑造指标之前,先塑造了感受。用户不会拿秒表去量延迟,他们是“感觉”到的。一次 120 毫秒的结账步骤与 80 毫秒的差异,肉眼不可见,但在情绪层面,却是“顺滑”和“有点烦人”的区别。小规模时,这种摩擦可以忽略;当它发生在数百万次会话中,就会凝结成更低的转化率、更高的弃购率,以及直接的收入损失。

讽刺的是,为了弥补这种体验损失,团队往往投入大量工程资源去做新功能、实验和留存策略;而预防这些延迟本身,所需的工程投入反而更少。

在高吞吐平台中,延迟会被放大。如果一个服务在正常情况下增加 30 毫秒,在高峰期可能变成 60 毫秒;当下游依赖开始抖动时,甚至会膨胀到 120 毫秒。延迟不会“优雅地退化”,它只会层层叠加。一旦尾延迟(p95、p99)开始漂移,就会对所有上游依赖你的服务形成一种隐形“税负”。

每个服务都会引入自己的抖动、序列化开销和网络跳数。最初只是一个 API 的微小波动,最终却可能在几十个相互依赖的服务之间形成级联式变慢。

这正是为什么高性能架构团队把速度视为一种产品特性,而不是附带效果。他们像设计安全性和可靠性一样,有意识地为延迟做设计:设定清晰的预算、明确的预期,以及在压力下仍能保护用户体验的工程模式。

一种很有帮助的视角是“延迟预算”(latency budget)。与其把性能理解为一个单一指标,比如“API 必须在 100 毫秒内返回”,现代团队会将它拆解到完整的请求路径上:

  • 边缘节点:10 ms

  • 路由:5 ms

  • 应用逻辑:30 ms

  • 数据访问:40 ms

  • 网络跳数与抖动:10–15 ms

每一层都有明确的预算配额。延迟不再是抽象目标,而是具体的架构约束。于是取舍开始变得清晰:“如果在服务层增加功能 X,我们需要在哪里做减法,才能不超预算?”

正是这些技术、文化和组织层面的讨论,孕育了真正快速的系统。

本文的核心观点很简单:低延迟不是一次优化,而是一种设计结果。它来自于你在数据就近性、同步与异步流程、缓存边界、错误隔离和可观测性上的一系列选择。很多系统都可以做到亚 100 毫秒,但要在高负载下长期维持,需要工程、产品和运维之间的高度协同。

接下来,我们将拆解真实系统的结构、工程团队在毫秒级取舍中的决策方式,以及组织如何在首次发布之后持续守住性能底线。快速系统从不偶然,它们是被“有意设计”出来的。

快速通道内部:低延迟系统是如何构建的

在讨论优化之前,必须先拉远视角,理解低延迟系统的整体形态。亚 100 毫秒的响应并不是某个“神奇技巧”的结果,而是一个精心编排的组件管道协同运作、尽量减少摩擦的产物。与其说是“让某个点变快”,不如说是“从整个请求旅程中移除不必要的步骤”。

大多数现代系统——尤其是电商和支付系统——表面上都遵循一个看似简单的分层结构:客户端发起请求 → API Gateway → 服务层 → 数据库 → 返回结果。但在这条路径背后,是一个极其精细的链条,每一次跳转、每一次序列化、每一次缓存命中或失效,都会直接影响用户体验。

下面从一次典型的亚 100 毫秒请求出发,看看毫秒通常藏在哪里。

请求的旅程:延迟在哪里潜伏一个典型的亚百毫秒请求流可能如下所示:

  • 客户端 → CDN 或边缘网络: 最近的节点接收请求并进行智能路由。延迟目标:5–15 毫秒。

  • 边缘 → API 网关:负责身份验证、路由、限流。延迟目标:5 毫秒。

  • 网关 → 服务层: 业务逻辑、编排、扇出(Fan-out)。延迟目标:10-20 毫秒。

  • 服务层 → 数据/缓存层: 获取状态。延迟目标:10 毫秒。

  • 服务层 → 网关 → 客户端:序列化并返回。延迟目标:5–10 ms。

在设计良好的情况下,即使在高峰期,这条链路也应保持可预测性。一旦其中任意一环漂移,整条路径都会继承这次变慢。这也是为什么,快速系统首先关注的是“完整旅程”,而不是某一个局部组件。

此处输入图片的描述

延迟真正的来源(往往不是你以为的地方)

在生产系统中,延迟很少是“代码慢”导致的,常见根源包括:

  1. 网络跳数

每一次跳转都会带来成本:减少一次跳转,往往比重写 100 行 Java 更有效。

  • TLS 握手

  • 连接池等待

  • DNS 查询

  • 跨区域通信

  1. 序列化与负载体积

JSON 的序列化和反序列化成本被普遍低估。多一个字段,就多一次开销。Protobuf 等二进制格式可以缓解,但也会引入运维复杂度。

  1. 冷缓存

在错误的时间发生一次缓存未命中,可能让延迟翻倍甚至翻三倍。这也是为什么新版本部署时,缓存预热策略至关重要。

  1. 数据库查询形态

数据库延迟往往是访问模式问题:查询结构、索引设计和基数都会产生巨大影响。一个索引不当的查询,可以把 10 ms 的请求拉高到 120 ms;在高 QPS 下,尾延迟会迅速失控。

  1. 下游依赖服务

这是延迟最不可预测的来源。如果你的服务依赖三个下游,最终响应时间通常由最慢的那个决定。

正因如此,异步扇出、缓存和熔断器才成为核心能力。

延迟预算:最重要的架构工具

高绩效团队不会只是“测量延迟”,而是为延迟做预算。延迟预算就像财务预算:每一层都有额度,没人可以超支。

一个典型的 100 ms 预算示例:

有了预算,性能讨论就变得可管理、可协商,而不是主观争论。

为什么理解系统结构如此重要

后文将讨论的所有手段——异步扇出、缓存层级、熔断器、降级策略——都建立在对系统整体结构的理解之上。只优化一个服务,却忽略整体生态,就像升级了发动机,却不管轮胎、刹车和燃油系统。

真正快速的系统通常具备这些特征:

  • 更少的网络跳数

  • 激进的本地缓存

  • 可预测的数据访问路径

  • 并行优于串行

  • 慢组件隔离

  • 高负载下稳定的尾延迟

理解了系统解剖结构,才能进入真正的工程打法。

工程实践手册:让 API 保持“闪电般快速”的取舍

低延迟工程,本质上是对不确定性的工程化管理。快速系统并非靠微优化堆出来,而是由一系列有意识的分层决策构成,目标只有一个:控制尾延迟。

异步扇出:无痛并行

很多慢 API 的根因只有一个:串行依赖。

如果一个请求顺序调用三个下游,每个 40 ms,你还没开始真正的业务逻辑,120 ms 已经没了。

并行是唯一出路

Java 的 CompletableFuture 是天然的适配工具,特别是当它与针对下游并发调优的自定义执行器(Custom Executor)配合使用时:

ExecutorService pool = new ThreadPoolExecutor(    20, 40, 60, TimeUnit.SECONDS,    new LinkedBlockingQueue<>(500),    new ThreadPoolExecutor.CallerRunsPolicy());CompletableFuture<UserProfile> profileFuture =        CompletableFuture.supplyAsync(() -> profileClient.getProfile(userId), pool);CompletableFuture<List<Recommendation>> recsFuture =        CompletableFuture.supplyAsync(() -> recClient.getRecs(userId), pool);CompletableFuture<OrderSummary> orderFuture =        CompletableFuture.supplyAsync(() -> orderClient.getOrders(userId), pool);return CompletableFuture.allOf(profileFuture, recsFuture, orderFuture)        .thenApply(v -> new HomeResponse(                profileFuture.join(),                recsFuture.join(),                orderFuture.join()        ));
复制代码

但一个常被忽略的事实是:异步并不会消除阻塞,它只是把阻塞藏进了线程池。

线程池配置不当,会引发:

  • CPU 抖动

  • 线程竞争

  • 队列堆积

  • OOM

  • 全链路级联变慢

经验法则

对 IO 型下游调用,线程池大小 ≈ 2 × CPU 核心数 × 单请求并行下游数,并通过 p95/p99 压测校准。

多级缓存:构建真正的“快路径”

快速系统并不是不做工作,而是避免重复做昂贵的工作。

常见层级:

  • 本地缓存(Caffeine):亚毫秒

  • Redis:3–5 ms

  • 数据库:20–60+ ms

在系统架构设计中,请务必采用双层缓存模式(Dual-level caching pattern)。以本案例为例,Redis 采用了 10 分钟的生存时间(TTL)。与此同时,本地内存缓存(Local in-memory cache)也必须设置明确的时间限制,且通常应短于远程缓存的失效时间。如果不设定这一限制,本地缓存极易在无声无息中演变成“永久缓存”。这会导致不同实例之间持续提供陈旧的失效数据,从而破坏系统的数据一致性。

public ProductService(RedisClient redis, ProductDb db) {this.redis = redis;this.db = db;this.localCache = Caffeine.newBuilder()    .maximumSize(50_000)    .expireAfterWrite(Duration.ofMinutes(1)) // shorter than Redis    .build(); }public ProductInfo getProductInfo(String productId) {    ProductInfo local = localCache.getIfPresent(productId);    if (local != null) return local;    ProductInfo redisValue = redis.get(productId);    if (redisValue != null) {        localCache.put(productId, redisValue);        return redisValue;    }    ProductInfo dbValue = db.fetch(productId);    redis.set(productId, dbValue, Duration.ofMinutes(10));    // localCache is configured with expireAfterWrite(1, MINUTES)    localCache.put(productId, dbValue);    return dbValue;}
复制代码

这种设计模式的核心逻辑在于:将绝大多数的访问请求驱动至“快速路径”(Fast Path)中,而将高耗时的重负载操作预留在“冷路径”(Cold Path)处理。[此处输入链接的描述][3]

缓存失效:计算机科学中最难的问题(依然如此)

缓存驱动的系统,如果没有清晰的失效策略,就是定时炸弹。

常见三类策略:

不存在通用最优解,取决于数据变更频率与过期成本。

数据分级:不是所有数据都适合缓存

真实系统里,数据必须分类处理:

何时该严谨,何时该宽松?

缓存策略取决于数据的类型……例如:

  • 产品目录 → 采用宽松的 TTL(生存时间)即可(允许数据过时);

  • 价格与优惠 → 采用更严谨的 TTL 或基于事件驱动的更新;

  • 支付与余额 → 绝不缓存,或者仅缓存令牌化/聚合后的版本。

进行简单的分类检查,即可保护工程团队免于意外违反合规性要求。

    if (data.isRestricted()) {    throw new UnsupportedOperationException("Cannot cache PCI/PII data");}
复制代码

熔断器:别让缓慢的依赖项拖累你的下游长尾延迟

响应速度变慢是导致 p99 延迟峰值的最大诱因之一。一个依赖项并不需要完全宕机才会引发麻烦——持续的高延迟就足以造成破坏。如果每个请求都在等待一个性能恶化的下游调用,你就会开始耗尽线程、积压队列,从而将局部减速演变为大范围的长尾延迟问题。

熔断器(Circuit Breaker)的作用是在你的服务与不稳定的依赖项之间划定一道边界。当错误率或超时超过阈值时,熔断器会开启并暂时停止向该依赖项发送流量。这使系统从“等待并积压”转变为一种可预测的结果:快速失败并执行降级逻辑(Fall back),从而保持你自身 API 的响应能力。

Resilience4j:轻量级防护方案:

CircuitBreakerConfig config = CircuitBreakerConfig.custom()        .failureRateThreshold(50)        .slidingWindowSize(20)        .waitDurationInOpenState(Duration.ofSeconds(5))        .build();CircuitBreaker cb = CircuitBreaker.of("recs", config);Supplier<List<Recommendation>> supplier =        CircuitBreaker.decorateSupplier(cb, () -> recClient.getRecs(userId));try {    return supplier.get();} catch (Exception ex) {    return Collections.emptyList();  // fast fallback}
复制代码

当熔断器开启(Open)时:

  • 请求快速失败($< 1$毫秒)

  • 不会阻塞任何线程

  • API 保持稳定

降级:有时“快但不完整”胜过“慢但完美”

降级方案(Fallbacks)能够在依赖项缓慢或不可用时,保持你的“快速路径”完好无损。其核心目的不在于假装一切正常,而在于防止下游的迟缓耗尽你的延迟预算。在许多用户流程中,快速交付一个稍微降级的响应,远比延迟交付一个完美的响应要好。

降级方案应当遵循的原则。

  • 提供有用的内容:即便不是完整数据,也要有参考价值。

  • 具有可预测的快速响应:降级路径本身不能慢。

  • 不产生额外负载:避免在系统已经吃紧时增加负担。

  • 逻辑简单易懂:便于排查问题和维护。

超时(Timeouts)是设计的一部分。如果下游超时被设定为“几秒钟”,它会悄无声息地摧毁一个“低于 100 毫秒”的目标。超时设置必须与你之前设定的延迟预算以及依赖项的 p95/p99 表现相匹配——特别是在扇出(fan-out)路径中,一个缓慢的调用就足以主导整个长尾延迟。

以下示例展示了如果无法快速组装完整页面,则返回缓存快照。这之所以行之有效,是因为它建立在早前讨论过的缓存策略之上——再次提醒,低延迟是全局性的(预算、缓存、超时和韧性模式协同工作):

public ProductPageResponse getPage(String productId) {    try {        return fetchFullPage(productId);    } catch (TimeoutException e) {        return fetchCachedSnapshot(productId);  // warm, minimal, safe    }}
复制代码

降级方案并不能消除故障,但当系统变慢时,它们能有效地界定并限制对用户的影响。

数据分区:减少热点与长尾峰值

分区(Partitioning)能够减少锁争用、缩小索引扫描范围并提高数据局部性。

以下是一个按地域进行数据分区的简单示例:

CREATE TABLE orders_us PARTITION OF orders FOR VALUES IN ('US');CREATE TABLE orders_eu PARTITION OF orders FOR VALUES IN ('EU');
复制代码

应用层需要进行相应的更新,以有效利用分区:

String table = region.equals("US") ? "orders_us" : "orders_eu";return jdbc.query("SELECT * FROM " + table + " WHERE user_id=?", userId);
复制代码

对于读密集型的 API 系统而言,分区是必不可少的。

可观测性:让速度可衡量

高性能系统不仅仅是优秀架构的产物,更是持续可观测性的结果。如果不知道系统在真实流量下何时何地发生了偏移,那么延迟预算、熔断器、缓存层、线程池……这些都毫无意义。

关于低延迟最大的神话就是“一旦实现,大功告成”。事实恰恰相反:除非你主动守护,否则速度会随时间衰减。

这就是为什么高效的工程团队将可观测性视为“一等公民”——它不是调试工具,而是一种持续的性能治理机制。

衡量关键指标:p50, p95, p99 及更多

大多数仪表盘自豪地显示“平均延迟”,这在分布式系统中几乎是毫无用处的。用户真正感受到的是长尾延迟:

  • p50 → “典型用户”

  • p95 → “运气稍差的用户”

  • p99 → “如果这种情况经常发生,就会弃用你产品的客户”

如果你的 p50 是 45ms,但 p99 是 320ms,那么你的系统并不快,它只是偶尔表现不错。

高性能系统追求的是可预测性,而非仅仅是平均值。

使用 Micrometer 进行监控埋点

Micrometer是现代 Java 系统指标衡量的事实标准,它让延迟监控变得极其简单。

以下是为一个 API 端点添加 Micrometer 计时器的示例:

@Autowiredprivate MeterRegistry registry;public ProductInfo fetchProduct(String id) {    return registry.timer("api.product.latency")            .record(() -> productService.getProductInfo(id));}
复制代码

仅需这一行代码,就能生成:

  • p50, p90, p95, p99 直方图

  • 吞吐量(每秒请求数)

  • 观测到的最大延迟

  • 用于仪表盘的时间序列数据

  • SLO(服务水平目标)消耗率信号

还可以添加自定义标签(Custom Tags)以获得更深层次的洞察:

registry.timer("api.product.latency",        "region", userRegion,        "cacheHit", cacheHit ? "true" : "false");
复制代码

我们内部遵循的一条规则是: 为所有可能影响延迟的因素打标签。 包括:地域、设备类型、API 版本、缓存命中/未命中、是否触发降级等。

这创造了语义化可观测性,与盲目的指标监控截然不同。

分布式追踪:低延迟系统的“真理血清”

指标(Metrics)告诉你某件事花了多长时间,而追踪(Tracing)则告诉你为什么花这么久。

通过使用 OpenTelemetry + Jaeger,你可以映射整个请求的旅程:

Span span = tracer.spanBuilder("fetchProduct")    .setSpanKind(SpanKind.SERVER)    .startSpan();try (Scope scope = span.makeCurrent()) {    return productService.getProduct(id);} finally {    span.end();}
复制代码

在 Jaeger 中可视化后,你会看到:

  • 网关处理时间

  • 业务逻辑执行时间

  • 并行调用情况

  • 走缓存路径还是数据库路径

  • 下游延迟

  • 序列化耗时

通过这种方式,团队可以发现那些仪表盘无法揭示的延迟漏洞,例如:

  • “数据库没问题,但 Redis 每小时会出现一次峰值。”

  • “API 网关在解析 Header 上就花了 10 毫秒。”

  • “高峰时段出现了线程池饥饿。”

SLO 与延迟预算:让团队保持诚实的护栏

正如之前讨论的,延迟预算只有在团队对其进行衡量和强制执行时才有效。

一个典型的 SLO(服务水平目标):

  • 目标:p95 < 120 ms

  • 周期:滚动 30 天

  • 错误预算:允许 5% 的请求超过该阈值

SLO 消耗率(Burn Rate)衡量的是你消耗错误预算的速度。消耗率为 1 意味着你正以预期的速度消耗预算(恰好在周期结束时用完);任何大于 1 的数值都意味着消耗过快。当消耗率飙升时,团队应放缓新功能发布,优先处理性能修复(如回滚、减负、优化热点路径、修复缓慢依赖项等)。这是防止“亚 100 毫秒”目标沦为随时间流逝的空谈最实用的方法之一。

一个非常有用的消耗率告警规则:

如果 10 分钟内的消耗率 > 14.4,则触发告警。解读:14.4 是常用的“快速消耗”阈值——如果保持这个速度,你将在约 2 天(50 小时)内用完 30 天的预算,因此必须紧急处理。

它是如何防止问题波及用户的: 消耗率告警的设计初衷是在早期就触发——此时性能退化可能还很轻微,或者仅局限于一小部分流量。这为你争取到了时间去暂停或回滚发布,并在性能下滑演变为大规模、持续性的故障之前修复根本原因。团队通常会将此机制与渐进式交付(灰度/金丝雀发布)及合成监控(Synthetic Checks)配合使用。但其核心关键在于:消耗率告警是一种原生基于 SLO 的早期预警,它直接与用户感知的延迟指标挂钩。

线程池可观测性:隐藏的延迟杀手

线程池是最容易意外破坏延迟预算的地方之一。它们看起来像是性能优化的利器(“并行化下游调用”),但在高负载下会变成瓶颈:线程饱和、队列增长、请求开始等待,原本的“异步扇出”悄然变成了背压(Backpressure)和长尾延迟峰值。最棘手的是,这并不总是表现为 CPU 高占用,而往往表现为等待。

如果没有对线程池饱和度和队列增长的可见性,你只会在 p99 爆炸后才察觉问题。对你的线程池进行埋点:

ThreadPoolExecutor executor = (ThreadPoolExecutor) pool;registry.gauge("threadpool.active", executor, ThreadPoolExecutor::getActiveCount);registry.gauge("threadpool.queue.size", executor, e -> e.getQueue().size());registry.gauge("threadpool.completed", executor, e -> e.getCompletedTaskCount());registry.gauge("threadpool.pool.size", executor, ThreadPoolExecutor::getPoolSize);
复制代码

如果你观察到:

  • 活跃线程数 == 最大线程数

  • 队列持续增长

  • 拒绝次数(Rejection count)增加

……那么你的异步扇出正在演变为异步堆积,这将导致:

  • 重试

  • 超时

  • 连锁式缓慢

  • p99 的彻底崩溃

在低延迟环境中,线程池监控是不可逾越的底线。

可观测性并非仪表盘——它是一种文化

最重要的洞察在于文化层面:

  • 团队对自身的延迟负责;

  • 每周例行审查仪表盘;

  • SLO 驱动工程优先级;

  • 性能退化触发故障复盘;

  • 缓存命中率像可用性(Uptime)一样被追踪;

  • 每一次变更都评估“性能爆炸半径”。

高性能系统能保持速度,唯一的初衷是团队在不断地“审视”它。

超越架构:组织如何保持 API 响应速度及未来趋势

构建一个亚 100 毫秒的 API 充满挑战,但随着系统增长保持其一致的速度则更难。随着时间推移,功能蔓延、新依赖、流量模式变化和组织变动都会合力拖慢系统。架构提供了基础,但长期的性能源于习惯、所有权以及将延迟视为头等大事的文化。

来自现实世界系统最可靠的经验很简单:只有当团队视性能为每个人的职责时,快速的系统才能保持快速。

文化让性能长青

高性能组织将性能视为共同责任,而非单纯的后端问题。工程师在设计评审时会常规性地询问:“这增加了多少跳(Hops)?”、“这可以缓存吗?”、“对 p99 最坏的影响是什么?”。当出现问题时,他们实践无责学习:分析长尾延迟、优化模式、调整 SLO 并加强护栏。在这种文化中,性能不是一个特殊项目,而是日常工作方式。

来自真实低延时系统的惨痛教训

在生产环境中反复出现的模式:

  • 线程池会悄无声息地摧毁一切:池子过小导致饥饿,过大导致 CPU 颠簸。配置不当的异步任务池是 p99 爆炸的首要原因。

  • 缓存失效(Invalidation)比缓存命中更关键:只有数据正确时,命中才有意义。如果无法安全地失效,宁可慢一点也不要提供过期结果。

  • 波动比速度更伤人:一个始终保持 50ms 的依赖,远比一个在 10ms 到 300ms 之间波动的依赖更安全。可预测性胜过原始吞吐量。

  • 物理距离胜过算法优化:跨地域调用始终是高延迟的根源。让读取靠近用户,比任何索引技巧都重要。

这些教训构成了“工程肌肉记忆”,正是这种记忆,将那些能够持续保持速度的团队,与那些只能昙花一现实现高性能的团队区分开来。

应避免的反模式

即使是成熟的系统也会掉入预想中的陷阱。

  • 将分段测试环境(Staging)的延迟视为有参考意义的数据。

  • 在没有隔离的情况下过度使用响应式模式。

  • 在在热点路径(Hot path)上进行同步日志记录。

  • 在 API 网关中放置过多的业务逻辑。

  • 使用一个巨大的单体缓存而非多层缓存。

这些反模式会导致“缓慢漂移”,细小的退化不断累积,直到 p99 彻底崩溃。

低延迟系统的下一个前沿

未来十年的快速系统将由智能、自适应的行为定义。

  • 基于实时延迟的自适应路由:请求将自动路由到实时长尾延迟最低的地域、分片或实例。

  • AI 辅助预测:模型将预测缓存未命中、流量峰值和依赖项恶化,从而实现抢占式优化。

  • 预测性缓存预热:系统利用访问模式,在流量高峰到来前数分钟或数秒预热缓存。

  • 边缘原生执行(Edge-Native):关键逻辑和预计算视图将持续向用户端迁移,使“全球 < 50ms”成为可能。

核心总结:架构是蓝图,文化是引擎

架构可以让你的系统变快,而文化是保持速度的引擎。

那些像监控正确性一样监控 p99、带着延迟预算进行设计、并从退化中学习的团队,才是那些能够在大规模环境下持续交付“瞬时体验”的团队。

持续的低延迟不是运气——它是跨越时间、团队和技术,做出的每一个微小且严谨的决策的结果。

原文链接:

https://www.infoq.com/articles/engineering-speed-scale/