包含关键字 typecho 的文章

昨天新开通的账号,今天早上起来一看,已经用了$33.04 。
而且大头竟然是 claude-4.6-opus-high !
这就奇了怪了,昨天开通账号的时候,觉得 4.6-opus 太贵,直接在模型列表中把这个模型关了。所以我无论如何也不可能用到这个模型。

设置里 Agent review 也是关闭的。

最神奇的是:昨天这个时间我还在群里聊天,压根没碰 cursor 。(裂开)

作为现象级的开源 AI Agent 项目,OpenClaw 凭借强大的自主执行能力,正迅速成为能够操作文件、调用系统命令、控制浏览器的“数字员工”。同时,这种能力也带来了一系列的安全风险。例如本地敏感信息外发,执行破坏性高危操作或被远程控制,引发数据泄露、系统损毁、业务中断等严重问题。

针对这些问题,火山引擎重磅推出三层纵深安全防护方案,助力企业构建“安全可控”的数字员工。

  • ·第一层:平台安全,通过访问控制、指令过滤、执行沙箱、技能准入扫描,确保默认安全。
  • ·第二层:AI 助手安全 (AI Assistant Security) ,防范提示词注入、高危操作、敏感信息泄露等导致的风险。
  • ·第三层:供应链安全,提供 Skills 的深度安全检测,避免供应链攻击风险。

平台安全
打造“免疫级”底层环境

火山引擎为通过 ECS 和 Agentkit 部署的 OpenClaw 提供基础安全保障方案,从访问控制、指令过滤、执行环境、安全准入四个维度,构建相应的底层防御能力。

  • ·入口层:默认仅绑定本地端口,减少公网暴露面,强制 token/密码认证及网关鉴权,确保每次访问真实可靠。
  • ·决策层:镜像预置提示词加固策略,自动识别并过滤恶意注入指令,防止 Agent 被“洗脑”或指令篡改。
  • ·执行层:默认在 veFaaS 沙箱中运行,通过容器和网络双隔离机制及非 Root 权限运行,将风险锁定在沙箱内。
  • ·生态层:对镜像和预置 Skills 进行深度扫描检查,持续追踪恶意 Skills 并推动修复。

AI助手安全
打造安全可控的“数字员工”

火山引擎全新发布 AI Assistant Security ,在 OpenClaw 等 AI 助手类智能体的交互环节(如调用大模型、Skills 及工具等),提供针对高危操作、敏感信息泄露、提示词注入等风险的防护和管控。

picture.image

// 三大典型场景,感受安全价值

个人隐私的脱敏和保护:识别身份证号、手机号等敏感信息,严控敏感数据出域,确保个人隐私不被泄露。

高危操作的拦截:在调用工具和技能前,识别如“资金转账、敏感数据外发、文件恶意删除”等高危操作,实现默认阻断或降级为人工确认,避免模糊指令带来不可逆的损失。

提示词攻击的防护:当 AI 数字员工联网访问到恶意网页,其中暗藏的恶意提示词导致 AI 数字员工被远程控制并带来不可控的后果,AI Assistant Security 会提前识别异常并给出安全提示,确保 AI 只执行用户的真实意图。

AI助手安全演示视频

// 快速上手,限时免费试用

目前,火山引擎 AI Assistant Security for OpenClaw 的安全防护方案,面向所有用户开启限时免费试用。

👉 火山引擎客户

  • 已购客户:已购买 OpenClaw ECS 的客户,在云服务器-运维编排-应用更新中点击创建任务,选择安全加固和需要加固的实例,下发任务即可完成防护。

picture.image

  • 新购客户:火山引擎 ECS 标准镜像已自带该防护插件,初始化即拥有安全能力。

picture.image

👉 非火山引擎客户

通过简单的命令自动完成安装。

  1. 1.登入到您部署 OpenClaw 的服务器上执行下方命令,安装插件的命令行工具。
npm i -g @omni-shield/openclaw-cli
  1. 2.安装完成,执行下方命令启动配置流程。
omni-shield-openclaw
  1. 3.安装过程会自动检测环境并生成一个有时效性的登录 URL,通过浏览器访问 URL 跳转登录火山引擎账号,登录完成后,命令行工具自动检测登录状态,自动执行插件的安装和配置流程。
  1. 4.安装完成后,按 Y **重启 OpenClaw 以使配置生效,或执行openclaw gateway restart** 重启正在运行的 OpenClaw 服务,重启后正式生效。

供应链安全
让Skills安全调用

Skills 作为 OpenClaw 的“手”,通过封装特定能力供 OpenClaw 调用以完成复杂任务。然而,随着 Skills 的权限过大及恶意 Skills 的涌现,导致账户凭证外泄、执行木马病毒等安全事件频发。

针对此痛点,火山引擎智能体安全管理平台的扫描功能全面升级,支持对 MCP/Skills 的深度扫描。用户可以自行上传任意 Skills 文件,平台提供预置的扫描规则可对上传的 Skills 进行深度扫描,并输出详细的风险详情,实现了覆盖事前检测、定期巡检、事中拦截的全生命周期安全防护:

  • 风险检测:依托平台预置扫描规则,对 OpenClaw 本地部署的 Skills 进行深度扫描
  • 定期巡检:基于 OpenClaw 的 Cron 机制,支持定期对更新的 Skills 进行自动扫描
  • 动态拦截:当 OpenClaw 的 Skills 被加载时,平台会判断其是否经过扫描。若未经过扫描,平台将即时发起检测,并根据风险评估情况决定是否继续执行

picture.image
(预置扫描规则、上传Skills文件、Skills风险详情)

// 使用教程

目前,火山引擎智能体安全管理平台私有化版本已上线扫描方案,面向所有用户开启限时免费试用。同时,公有云版本将在2月底对外上线,届时欢迎大家体验。

在私有化版本中,对接 OpenClaw 和智能体安全管理平台对 Skills 进行安全扫描,具体操作步骤如下:

  • ·下载智能体安全管理平台的 Skills 扫描安装包; Skills-Security-Scanner
  • ·将上方压缩包解压至 OpenClaw 目录下 ~/.openclaw/workspace/skills/;
  • ·通过 OpenClaw 的对话 Agent 查询 Skills 列表,查看上方 Skills 是否已经被加载;
  • ·通过 OpenClaw 提示词用 Skills-Security-Scanner 对1password(OpenClaw平台自带的Skills)进行扫描;
  • ·通过 OpenClaw 的控制台展现扫描结果,识别潜在威胁。

Skills深度安全扫描演示视频

安全是 AI 真正成为生产力的底线。火山引擎通过三层纵深安全防护方案,助力开发者在享受 AI 效率的同时,无需担心隐私外泄与操作风险。现在,上火山引擎一键安全防护,让你的 AI 助手安全上岗。

发现交通事故的车辆受损情况数据集(1000+张图片已划分、已标注)| AI训练适用于目标检测任务


一、项目背景

随着道路交通量的不断增加,交通事故的发生频率也呈现上升趋势。事故发生后,快速、准确地评估车辆受损情况,对于保险理赔、道路安全分析、交通事故责任判定以及事故风险预警具有重要意义。传统人工评估方法存在效率低、主观性强、覆盖面有限等问题,难以满足现代智能交通系统对数据实时性和精确性的需求。

为此,本数据集专注于交通事故车辆受损情况的识别与分级,面向目标检测与图像分类任务,构建了覆盖多种道路环境与事故类型的高质量图像数据集,可为事故严重程度评估、车辆损伤等级判定及相关智能系统提供可靠的数据支撑。
在这里插入图片描述


数据集下载
链接:https://pan.baidu.com/s/1zYLg1EOwHB-HTBlxQr4w7A?pwd=yhmd
提取码:yhmd

数据集说明
交通事故车辆受损情况数据集

一、数据集简介

交通事故车辆受损情况数据集面向道路交通事故智能分析与车辆损伤等级判定等应用场景构建,适用于目标检测、图像分类及事故严重程度评估等计算机视觉任务。

数据集共包含 1000+ 张真实场景车辆图像,图像来源覆盖多种道路环境与事故形态,能够较好反映车辆在不同事故等级下的受损特征差异。通过对车辆受损程度进行分级标注,可用于训练与评估基于 YOLO 等深度学习模型的事故识别与风险评估能力。

二、数据集配置

数据集共划分 5 个事故等级类别,类别编号与含义如下:

Class ID 类别名称 说明
0 无事故 车辆未发生碰撞或明显损伤
1 轻微事故 轻微剐蹭或小面积损伤,不影响行驶
2 中等事故 明显变形或结构性损伤,影响车辆性能
3 严重事故 车辆主体结构严重破坏,存在较大安全隐患
4 车辆完全报废 车辆严重损毁、翻覆或燃烧,无法修复

覆盖完整事故严重程度梯度

真实道路场景,泛化能力强

结构规范,可直接用于 YOLO
适合教学、科研与工程落地项目

二、数据集概述

本数据集共包含 1000+ 张真实道路交通事故车辆图像,图像来源广泛,涵盖城市道路、高速公路、乡村道路等不同场景,同时覆盖轻微剐蹭到车辆完全报废的全事故等级梯度。每张图像均附带 目标边界框标注与事故等级分类信息,结构规范,可直接用于深度学习模型训练。

📂 数据目录结构

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述


三、数据集类别说明

Class ID类别名称说明
0无事故车辆未发生碰撞或明显损伤
1轻微事故轻微剐蹭或小面积损伤,不影响行驶
2中等事故明显变形或结构性损伤,影响车辆性能
3严重事故车辆主体结构严重破坏,存在较大安全隐患
4车辆完全报废车辆严重损毁、翻覆或燃烧,无法修复

特点说明

  • 覆盖完整事故严重程度梯度,便于多等级分类与检测
  • 图像来自真实道路场景,增强模型泛化能力
  • 标注规范、结构统一,可直接用于YOLO等目标检测模型

随着城市交通网络的不断扩张和机动车保有量的快速增加,道路交通事故的发生频率呈现上升趋势。事故发生后,快速、准确地评估车辆受损情况,对于保险理赔、事故责任判定、道路安全管理以及交通事故预警具有重要意义。传统的人工评估方式不仅效率低、耗时长,而且受主观因素影响较大,难以满足现代智能交通系统对实时性和精确性的需求。近年来,随着计算机视觉和深度学习技术的发展,通过图像识别与目标检测实现事故车辆损伤自动识别和等级评估成为可能,这不仅能够提升事故处理效率,还可以为智能交通系统提供数据驱动的决策支持。针对这一需求,本数据集专注于交通事故车辆受损情况的识别与分级,收集了涵盖多种道路环境和事故类型的1000+真实车辆图像,覆盖从轻微剐蹭到车辆完全报废的全事故等级梯度。每张图像均配有规范的目标边界框标注和事故等级分类信息,可直接应用于YOLO系列、Faster R-CNN、SSD、DETR等目标检测模型训练与评估,也适用于图像分类、事故严重程度分析及风险评估等多种计算机视觉任务。该数据集不仅具有科研价值,可支持事故识别算法研究、模型优化及复杂场景下的鲁棒性分析,也具有工程实用性,为智能交通事故分析系统、车辆损伤等级判定和道路安全管理提供了可靠的数据基础,为推动交通安全智能化管理和事故处理自动化提供了有力支撑。

四、数据标注与训练适配

  • 标注类型:目标边界框 + 分类标签
  • 标注格式:YOLO标准txt文件
  • 可直接训练与评估:

    • YOLO系列(v5/v7/v8/v10)
    • Faster R-CNN、SSD、DETR等目标检测模型
    • 图像分类模型(轻量化事故等级判定)

五、适用场景

🚗 智能交通事故分析

  • 事故车辆受损识别
  • 事故等级评估
  • 自动理赔辅助

🛣 城市道路与高速公路安全管理

  • 事故风险统计
  • 事故多发区域分析
  • 交通事故应急调度

🤖 教学科研与模型验证

  • YOLO目标检测教学实验
  • 多等级分类与小样本学习研究
  • 事故识别模型性能测试

六、数据集优势

  1. 多等级事故覆盖:从无事故到车辆完全报废,便于分级建模。
  2. 真实道路场景:增强模型在实际应用中的泛化能力。
  3. 结构规范:训练、验证、测试集划分合理,可直接用于模型训练。
  4. 科研与工程兼顾:适合教学、实验研究及智能交通系统原型开发。

在这里插入图片描述

七、结语

本数据集针对交通事故车辆受损情况进行了精心收集、整理与标注,旨在为智能交通事故分析、车辆损伤等级判定及相关深度学习研究提供高质量数据支持。无论是科研教学、毕业设计,还是工程应用开发,该数据集均可为模型训练与性能评估提供可靠基础,为提升道路交通事故处理效率与安全管理智能化水平提供有力支撑。

总体来看,本交通事故车辆受损情况数据集是一份高度工程化且科研价值兼具的数据资源,覆盖从无事故到车辆完全报废的完整事故等级梯度,充分反映了车辆在不同事故条件下的受损特征差异。数据集包含 1000+ 张真实道路场景图像,涵盖城市道路、高速公路及乡村道路等多样化环境,同时覆盖轻微剐蹭、结构性损伤、严重破坏等多种事故类型,具有较强的泛化能力。所有图像均经过标准化标注,提供目标边界框和事故等级信息,可直接适配YOLO系列、Faster R-CNN、SSD、DETR等主流目标检测模型,显著降低模型训练与实验准备成本。从科研角度看,该数据集可用于多等级事故识别、多类别目标检测、小样本学习及模型鲁棒性分析,支持算法创新与性能优化;从工程应用角度看,它能够为智能交通事故分析系统、车辆损伤等级判定、自动理赔辅助、道路风险统计及应急调度等提供可靠的数据支撑。整体而言,该数据集不仅适用于教学实验、毕业设计及科研论文研究,也为智能交通与事故管理系统的研发与部署提供了坚实的数据基础,是推进交通安全智能化管理的重要资源,为提升事故处理效率、减少交通风险、保障道路安全提供了切实可行的技术支撑。

大家好我是老卫,又到了老卫拆书的时间了。本期我将2026年鸿蒙生态的几本好书分享给大家。

1. 鸿蒙HarmonyOS应用开发入门

由清华大学出版社出版。


一线架构师教你彻底掌握HarmonyOS应用开发。量范例与项目,阅读本书,读者能够学以致用,掌握开发实际应用程序的技能。本书基础与示例相结合,按照边讲边练的思路组织内容。

该书也获得过计算机类畅销新书奖。

2. 鸿蒙HarmonyOS应用开发从入门到精通(第2版)

由北京大学出版社出版。

华为OpenHarmony首席架构师力荐教材:本书通过68个实战示例+4个大型综合性案例+大量即用型优质代码,手把手教你快速掌握核心技术!

3. 仓颉编程从入门到实践

由北京大学出版社出版。


该书是华为官方自研仓颉语言权威指南!本书系统梳理仓颉编程语言的核心特性与设计哲学,是开发者快速上手、深入理解这一面向全场景未来语言的推荐手册。

4. 鸿蒙之光HarmonyOS 6应用开发入门

由清华大学出版社出版。

从零基础到项目实战,掌握HarmonyOS6新特性,资深华为开发者专家带你飞。该书以HarmonyOS 6版本为核心,从基础知识到实战案例,引领读者逐步探索“纯血鸿蒙”原生开发的奥秘。

5. 鸿蒙架构师修炼之道

由北京大学出版社出版。

如果说之前介绍的那几本都是相对比较基础的鸿蒙的入门教程,那么这本《鸿蒙架构师修炼之道》就是面向高端的架构师培养手册。学习本书,可以掌握专家级架构师的思维方式与工作方法。

更多好书分享见我主页。

城市道路设施及道路安全隐患数据集(13000张图片已划分、已标注)| AI训练适用于目标检测任务

一、项目背景

随着智慧城市与智能交通系统(ITS)的快速发展,城市道路的精细化管理成为基础设施建设中的关键课题。井盖缺失、井盖开启、路面坑洞、无标识减速带等问题,不仅影响道路通行质量,还可能引发交通事故。

在自动驾驶、智能巡检车、无人机道路巡检等应用场景中,对道路设施及安全隐患进行实时目标检测与识别,已成为核心技术模块之一。

然而,当前公开可用的道路隐患类数据集相对较少,且类别单一、标注不规范或缺乏完整的数据划分。因此,本数据集围绕城市道路设施与安全隐患目标检测构建,具备:

  • 多类别
  • 标注规范
  • 数据量充足
  • 已完成标准划分
  • 可直接用于YOLO系列训练

为科研与工程应用提供高质量数据支持。
在这里插入图片描述

数据集下载

链接:https://pan.baidu.com/s/1zYLg1EOwHB-HTBlxQr4w7A?pwd=yhmd
提取码:yhmd

数据集说明
道路设施目标检测数据集介绍

本数据集专注于城市道路设施及道路安全隐患的目标检测任务,涵盖常见的井盖、道路坑洞及减速带等设施类型。数据集共包含 约13,000张高质量图像,按训练、验证和测试集划分如下:

训练集(train/images):用于模型训练

验证集(valid/images):用于模型调参与验证

测试集(test/images):用于模型性能评估

数据集包含 5个类别:

井盖(Manhole)

打开的井盖(Open Manhole)

坑洞(Pothole)

减速带(Speed Bump)

无标识减速带(Unmarked Bump)

所有图像均标注了目标的边界框信息,可直接用于目标检测模型(如YOLO系列、Faster R-CNN等)训练与评估。数据集可用于城市道路设施检测、道路安全巡检、智能交通系统及自动驾驶环境感知等研究与应用,为提升城市道路安全和交通管理智能化提供数据支持。

二、数据集概述

本数据集共包含 约13,000张高质量图像,覆盖多种城市道路场景(白天、阴天、不同角度、不同距离等),具有较强的泛化能力。
在这里插入图片描述

📂 数据目录结构

dataset/
├── train/
│   ├── images/
│   └── labels/
├── valid/
│   ├── images/
│   └── labels/
├── test/
│   ├── images/
│   └── labels/
  • train/images:训练集图像
  • valid/images:验证集图像
  • test/images:测试集图像
  • labels:对应YOLO格式标注文件

(已完成标准划分,可直接用于训练)
在这里插入图片描述
在这里插入图片描述


随着智慧城市建设和智能交通系统的不断推进,城市道路的安全与管理问题日益受到重视。道路设施的完好与安全隐患的及时发现,直接关系到交通顺畅、行车安全以及市民的生活质量。在实际道路环境中,井盖缺失或开启、路面坑洞、减速带未标识等情况仍时有发生,这些问题不仅影响道路通行效率,还可能导致交通事故,造成严重的社会和经济损失。传统的人工巡检方式存在效率低、成本高、覆盖面有限等不足,迫切需要结合人工智能技术,通过计算机视觉手段实现对道路设施与安全隐患的自动识别与检测。针对这一需求,本数据集围绕城市道路设施及安全隐患目标检测任务构建,收集并整理了约13,000张高质量图像,覆盖井盖、开启井盖、坑洞、减速带及无标识减速带五类关键目标,同时提供标准化的边界框标注和训练、验证、测试集划分,可直接用于主流目标检测模型的训练与评估。该数据集不仅具备科研价值,可支持目标检测算法研究、模型优化及复杂环境下的鲁棒性分析,也具有工程实用性,为智慧城市道路巡检系统、自动驾驶环境感知以及智能交通管理提供了可靠的数据支撑与实验基础。通过这一数据集,研究者和开发者能够更高效地探索道路安全隐患检测技术,加速人工智能在交通安全领域的应用落地。

三、数据集类别说明

本数据集共包含 5个目标类别

类别名称英文名称说明
井盖Manhole正常关闭状态井盖
打开的井盖Open Manhole存在安全隐患
坑洞Pothole路面破损
减速带Speed Bump标准减速带
无标识减速带Unmarked Bump无明显警示标识

类别特点

  • 井盖与打开井盖区分明确
  • 坑洞覆盖多种形态(小裂缝、大面积破损)
  • 减速带包含不同角度与远近距离
  • 无标识减速带更具实际工程价值

四、标注说明

  • 标注格式:YOLO格式(txt)
  • 标注类型:目标边界框(Bounding Box)
  • 坐标形式:归一化坐标
  • 一图一标注文件

示例格式:

class_id x_center y_center width height

可直接适配:

  • YOLOv5 / YOLOv7 / YOLOv8 / YOLOv10 等
  • Faster R-CNN
  • SSD
  • DETR
  • 其他目标检测模型

五、数据集优势

1️⃣ 数据量充足

13000张图像,满足中小规模检测任务训练需求。

2️⃣ 类别设计具有工程价值

特别是:

  • Open Manhole(开启井盖)
  • Unmarked Bump(无标识减速带)

属于高风险类别,具有现实部署意义。

3️⃣ 场景多样性

  • 不同光照
  • 不同视角
  • 不同距离
  • 不同路况环境

增强模型泛化能力。

4️⃣ 已完成标准划分

训练 / 验证 / 测试集已分离,可直接实验对比。


六、适用场景

🚗 自动驾驶环境感知

  • 路面异常识别
  • 安全风险预警

🛣 城市道路巡检系统

  • 智能巡检车
  • 无人机巡检
  • 城市基础设施管理

🚦 智能交通系统(ITS)

  • 道路风险统计
  • 城市安全评估

🤖 深度学习目标检测教学与实战

  • YOLO系列训练实验
  • 毕业设计
  • 课程项目
  • 科研论文

七、训练建议

如果使用YOLO系列模型,推荐:

  • 输入尺寸:640 / 800
  • Batch size:根据显存调整
  • 训练轮数:100~300 epochs
  • 数据增强:Mosaic + MixUp
  • 适当增加小目标检测权重(针对坑洞类)

如你正在做YOLO单类别或多类别实验,本数据集可直接扩展训练场景。


八、实验效果预期

在合理训练参数下,常见YOLO系列模型可获得:

  • mAP@0.5 > 0.85(视模型大小与训练策略而定)
  • 对明显井盖与坑洞识别准确率较高
  • 对远距离无标识减速带检测具挑战性(更具研究价值)

在这里插入图片描述

九、结语

城市道路安全隐患检测是智慧城市建设的重要一环。本数据集围绕真实道路场景构建,兼具工程实用性与科研价值。

无论你是:

  • 做自动驾驶感知算法
  • 做道路巡检系统开发
  • 做YOLO系列教学实验
  • 做毕业设计 / 论文研究

本数据集都能为你提供完整、规范、可直接训练的高质量数据支持。

如果需要完整数据集、训练配置文件及部署说明,可进一步交流。

综上所述,本城市道路设施及道路安全隐患目标检测数据集围绕实际工程场景构建,兼顾数据规模、类别实用性与标注规范性,具备较强的训练价值与落地意义。数据集覆盖井盖、开启井盖、坑洞、减速带及无标识减速带五类关键目标,不仅包含常规道路设施,还特别强调高风险安全隐患类别,使其在智慧城市管理、道路巡检系统、智能交通系统以及自动驾驶环境感知等方向具备更高的应用价值。约13,000张图像经过清洗、筛选与标准化标注,并完成训练集、验证集、测试集的合理划分,能够直接适配YOLO系列、Faster R-CNN、SSD等主流目标检测框架,显著降低实验准备成本,提高建模效率。从研究角度看,该数据集能够支持小目标检测优化、多类别不均衡问题研究、复杂光照环境鲁棒性分析等技术探索;从工程角度看,可用于道路风险识别、隐患预警统计及智能巡检系统部署测试。整体而言,该数据集不仅适合教学实验与毕业设计使用,也能够作为实际项目原型开发与算法验证的数据基础,为提升城市道路安全管理智能化水平提供可靠的数据支撑与实验环境。

作者:vivo 互联网前端团队- Fang Liangliang

多地区销量持续增长、业务运营诉求与日俱增,悟空作为一站式h5搭建平台,需要先发完成多地区化能力改造,基于复用、提效的思路,探索多地区系统方案,实现多地区一体化运作。

1分钟看图掌握核心观点👇

动图封面

动图封面

图 1 VS 图 2,您更倾向于哪张图来辅助理解全文呢?欢迎在评论区留言

一、目标

悟空系统多地区化共线改造,用一套代码、一套架构实现多地区部署,后续的增量功能一次开发,全量复用,已有机房实现100%复用,新增机房节约90%开发成本;

开发者开发组件的方式不需要做任何改变,公共npm依赖包无需迁移,开发者低成本完成组件迁移;

本文将深度解析悟空系统多地区共线改造的架构设计,从页面多语言、站点的编译、npm私服、开发者等环节进行解析,让读者能够有所收获。

二、整体方案设计

开发之前,我们进行了整体的梳理,涉及的范围如下图所示:

业务分层图

从用户层、服务层、调度层进行拆解,可以进一步分析出需要实施的要点,如图所示:

整体功能点梳理图

进行整体的分析之后,我们可以从平台侧开始一层层的进行拆解,从用户能直观看到的web层,到用户感知比较弱的编译服务层,再到私服和底层库的处理上,核心主要分为三个模块进行改造:平台改造、编译服务、npm私服\&底层库。

三、模块拆解

3.1 平台改造

这部分介绍平台web侧的改造,主要分为三个方向:中英文改造、平台登录改造、国家码存储改造。

平台中英文国际化改造

背景 :平台本身是用的vue进行开发,所以这里我们采用Vue.js + vue-i18n的国际化解决方案,支持中文(zh)和英文(en)双语切换。

我们来看一段核心代码示例:

// i18n.js 核心配置 
// 语言包配置,方便扩展 
const messages = {   
  zh: { ...zh, ...zhLocale },  // 中文语言包 + Element UI中文   
  en: { ...en, ...enLocale }   // 英文语言包 + Element UI英文 
} 
// 基于域名的地区检测 // 不同地区自动读取对应语言包 
const domainConfigMap = new Map([   
  ['****.vivo.com.cn', { region: '01', local: 'zh' }],     // 01地区 读取zhLocale语言包 
  ['****.vivo.com', { region: '02', local: 'en'}],    // 示例:02地区 读取enLocale语言包
  ['in-****.vivo.com', { region: '03', local: 'en' }]      // 示例:03地区 读取enLocale语言包 
])

使用vue-i18n有以下几点优势

  • **成熟稳定 :**vue-i18n是Vue.js生态中最成熟的国际化库,与Vue 2.x完美兼容
  • **功能完善 :**支持复数形式、日期时间格式化、数字格式化等高级特性
  • **性能优异 :**采用懒加载机制,按需加载语言包,减少初始加载时间
  • **开发友好 :**提供丰富的API和插值语法,支持嵌套翻译和动态参数

平台登录改造

悟空平台会存在多个机房场景,如何使用同一个域名做为入口,简化多地区登录场景链路。

我们设计了一个多地区统一域名入口,进入之后运营可以根据需求切换不同地区,不需要在单独保存各个地区的独立链接,登录链路也会整合到入口域名,整体链路如下图所示:

代码示例如下:

getUucLogin (key, region) => { 
  ... 
  const locationUrl = getLocationUrl(region, env) // 回跳的链接根据地区信息来区分 
  return `${originMap[region][env]}/#/login?orgfrom=${locationUrl}/project${key}` // uuc登录地址融合地区信息和环境信息 
}

通过上述的方案,我们将机房的匹配集成在系统内部进行,减少用户感知,降低用户使用成本,这样可以做到统一域名入口,运营不需要本地记录多个地址,同时平台还提供便捷的地区切换能力,极大的提升跨地区运营的便利程度。

国家码存储方案

用户选择国家之后,悟空需要存储当前地区的地区码、语言码、时区信息,并且对应地区的站点语言和生效时间都要和地区时区匹配,而平台本身除了新开tab需要携带地区信息外还有开发者组件、iframe嵌套需要获取地区信息的场景,针对这些场景,悟空平台采用三层级的国家码存储策略:

① 新开tab时,地区信息通过URL参数携带

// 项目跳转时携带地区参数 
goList(projectId) {   
  const params = { projectId: projectId }   
  const wkCountryInfo = Utils.tools.getCountryInfoParams()  // 获取地区参数   
  const query = {...params, ...wkCountryInfo}  // 合并参数   
  this.$router.push({ path: '/main', query: query }) 
} 
// 例如 getCountryInfoParams 返回格式:{ loc: 'AA', lan: 'th_AA', tz: 'REGION/aa' }

② Vuex Store存储,地区信息在应用状态中持久化存储,开发者可以在组件内通过store读取国家码信息。

// Store中的地区信息存储 
state: {   
  siteConfig: {     
    wkCountryInfo: {       
      loc: 'AA',           // 地区信息       
      lan: 'th_AA',        // 语言码         
      tz: 'REGION/aa'   // 时区     
    }   
  } 
}
// 获取Store中的地区信息 
const storeCountryInfo = store.getters['edit/snapInfo'].wkCountryInfo || store.getters['interactive/snapInfo'].wkCountryInfo

③ LocalStorage缓存,用户地区选择持久化到本地存储,适用于iframe嵌套场景。

如果父子iframe是同源策略可以直接读取LocalStorage,如果非同源策略可以通过postMessage获取地区信息。

// 地区切换时的存储逻辑
changeRegion(value) {
  const item = this.headerRegion.list.find(v => v.countryCode === value)
  const wkCountryInfo = {
    loc: item.countryCode, // 如:'AA', 'BB', 'CC'
    lan: item.languageCode, // 如:'th_AA', 'en_BB', 'zh_CC'
    tz: item.timezone// 如:'REGION/aa', 'REGION/bb'
}
localStorage.setItem('__wk_platform_region_info_', JSON.stringify(wkCountryInfo))
}

三级存储有以下几点优势:

  • **状态一致性 :**三层存储机制确保地区信息在不同场景下的一致性
  • **用户体验 :**地区切换后新开Tab自动继承地区设置
  • **容错机制 :**多级地区码存储策略,避免地区信息丢失
  • **合规保障 :**满足不同地区的数据本地化存储法规

3.2 编译服务改造

介绍完平台web侧的改造内容后,接下来会详细介绍悟空系统编译服务多地区化改造方案。该方案通过统一的配置管理、多机房部署策略、差异化构建流程等技术手段,实现了01地区、02地区、03地区 的全面支持。

整体架构设计

整体架构图

该架构图展示了悟空互动平台多地区改造的整体设计思路:

  • **地区识别:**根据环境变量或请求参数识别目标地区
  • **机房分发:**将请求路由到对应地区的服务器
  • **配置管理:**每个地区使用独立的配置文件
  • **代码分离:**不同地区使用专门的前端代码目录
  • **依赖隔离:**DLL文件和API包按地区分离

核心技术方案

整体方案设计完毕之后,我们接下来一层层解析每个环节的改造。

① 统一环境配置管理

  • 配置入口统一化

通过对context.ts文件进行改造,实现不同机房部署的统一入口处理。

// 示例代码
// server/src/app/extend/context.ts
get env(): Ienv {
  return env[process.env.REGION || 'AA'][(this as any).app.config.env]
}

通过上述代码,我们可以发现环境配置读取从只有一级的环境区分改造为机房信息+环境的二级目录结构,这样修改后服务启动时,代码内部通过env方法可以获取当前机房信息下对应环境的全部配置信息,方便全局调用。

核心特性:

  • 通过 process.env.REGION 环境变量动态选择地区配置
  • 支持 01、02、03 三个地区
  • 结合 app.config.env 实现环境级别的配置分发
  • 分层配置结构

统一配置入口改造完毕之后,接下来我们介绍下入口文件往下一层去查询每个机房各个环境具体配置信息的改造。

配置文件信息按地区和环境进行分层管理改造后,整体目录结构如下所示:

// 目录结构:
server/src/app/util/env/
├── index.ts          # 配置入口
├── 01             # 01地区配置
│   ├── index.ts
│   ├── local.ts
│   ├── test.ts
│   ├── prod.ts
│   └── ...
├── 02             # 02地区配置
│   ├── index.ts
│   ├── test.ts
│   ├── prod.ts
│   └── ...
└── 03        # 03地区配置
    ├── index.ts
    ├── test.ts
    ├── prod.ts
    └── ...

通过上述目录结构可以看出,不同机房的配置信息一目了然,相互独立,方便维护和定位问题,后续新增机房信息时,只需要按照当前规则添加即可,不需要额外关心内部业务逻辑。

整体流程分为以下四个步骤:

  • 应用启动时读取region地区信息
  • 根据region值选择对应地区配置目录(01/02/03)
  • 结合egg_server_env选择具体环境配置文件(local/test/prev/prod)
  • 返回最终配置信息,供各个目录使用

② ZooKeeper服务发现与调度改造

  • 环境隔离策略

由于测试环境和预发环境都部署在01和02机房,通过模拟的方式支持01、02地区,而线上环境才是真正的物理隔离机房,因此在ZooKeeper服务发现中需要特殊处理(01、02为示例地区信息):

核心调度逻辑改造如下:

// server/src/app.js 
const isTestOrPreEnv = process.env.EGG_SERVER_ENV.includes('test') || process.env.EGG_SERVER_ENV.includes('pre');
// 添加机房信息
let group = isTestOrPreEnv ? `${process.env.REGION || 'AA'}-${process.env.EGG_SERVER_ENV}`: process.env.EGG_SERVER_ENV
const serviceClient = new BeehiveService({
  zkhost: ctx.env.zkHost,
  pong: true,
  services: {
    siteService: ctx.service.site,
    dspService: ctx.service.genDsp
  },
  config: c.Config(c.group(group), c.maxTimeout(3 * 60 * 1000))
})

通过上述代码,我们可以发现服务注册和发现都需要按照机房信息+环境信息作改造,这样可以有效避免测试环境和预发环境,站点编译时调度的机房出现异常,线上环境由于物理机房隔离,服务注册和发现可以不做调整。

  • 不同环境的ZooKeeper配置

介绍完环境隔离策略后,接下来我们介绍下不同环境的zk配置信息的改造。

测试环境(模拟多地区):

// 所有地区测试环境都使用同一个ZK集群
zkHost: 'zookeeper-*****.vivo.xyz:2183'
// 但通过group区分:01-test, 02-test, 03-test

预发环境(模拟多地区):

// 所有地区预发环境使用同一个ZK集群
zkHost: 'common-zk-****.vivo.lan:2181'
// 通过group区分:01-prev, 02-prev, 03-prev

生产环境(真实隔离机房):

// 机房1(示例名称)
zkHost: 'common-*****-zk.vivo.lan:2181'
// 机房2(示例名称)
zkHost: 'in-common-*****-zk.vivo.lan:2181'
// 机房3(示例名称)
zkHost: 'app.*****.zk.prd.****.vivo.lan:2181'

通过上述两个地方改造,服务发现分组策略如下所示:

  • **本地开发:**跳过ZooKeeper连接,避免开发环境干扰
  • **测试/预发环境:**使用{region}-{env} 格式进行分组,如01-test、02-prev
  • **生产环境:**直接使用环境名prod_wk,依靠物理机房隔离

③ 多机房构建策略

编译服务在生成站点时,还会对每个站点的主js文件做dll拆包处理,将公共依赖打包成独立的dll基座文件,降低页面的主资源体积,提升加载速度,那么针对多地区改造场景,我们会做哪些处理呢?

  • 差异化DLL构建

针对不同地区我们需要使用不同的API包,实现差异化的DLL构建:

01地区DLL配置:

// webpack.dll.config.js
const vendors = [
  ....
  '@vivo/wk-api',  // 01地区专用API
  'vue-lazyload',
]

module.exports = {
  output: {
    path: path.join(__dirname, './dll'),  // 输出到dll目录
    filename: '[name].[hash].js',
  },
  // ...
}

02、03地区DLL配置:

// webpack.dll.02.config.js //webpack.dll.03.config.js
const vendors = [
  ....
  '@vivo/asia-wk-api',  // 02、03地区专用API
  'vue-lazyload',
]

module.exports = {
  output: {
    path: path.join(__dirname, './dll-02'),  // 输出到dll-02目录或者dll-03
    filename: '[name].[hash].js',
  },
  // ...
}

在基座dll文件构建时,由于多地区的登录、分享、埋点合规等存在较大差异,我们对多地区场景做了单独的底层库封装,dll文件生成需要根据不同地区分别构建并输出到不同目录。

  • 构建脚本配置

修改dll配置文件时,同时也需要在 package.json 中配置不同地区的构建命令(01、02由于保密,均为地区示例信息):

//代码示例
{
  "scripts": {
    // DLL构建
    "dll": "npx webpack --config webpack.dll.config.js",
    "dll:01": "npx webpack --config webpack.dll.01.config.js",
    "dll:02": "npx webpack --config webpack.dll.02.config.js",
    
    // 服务启动
    "start_test_01": "EGG_SERVER_ENV=test REGION=01 yarn dock_start",
    "start_prev_01": "EGG_SERVER_ENV=prev REGION=01 yarn dock_start",
    "start_prod_01": "EGG_SERVER_ENV=prod_wk REGION=01 yarn dock_start",
    "start_test_02": "EGG_SERVER_ENV=test REGION=02 yarn dock_start",
    "start_prev_02": "EGG_SERVER_ENV=prev REGION=02 yarn dock_start",
    "start_prod_02": "EGG_SERVER_ENV=prod_wk REGION=02 yarn dock_start"
  }
}

通过上述指令的改造,我们可以很清晰的看到不同地区的dll构建指令都根据region信息做了区分,方便后续的机房扩充和维护。

④ Webpack多机房配置改造

这里主要介绍webpack打包时如何实现不同地区的dll动态引入,以及将国家码等信息编译到站点内。

  • 动态DLL引用

不同地区的dll文件构建完毕之后,我们需要在 webpack.pkg.config.js 中实现基于地区的动态DLL引用:

// 代码示例
// webpack.pkg.config.js
const dllReferencePlugin = config.plugins.find(plugin => {
  const name = plugin.constructor.name
  if (['DllReferencePlugin'].includes(name)) {
    returntrue
  }
})

if (dllReferencePlugin && dllReferencePlugin.options) {
  dllReferencePlugin.options.context = pageTempPath
  // 动态dll文件引用改造,根据wukong.region:01,02,03 来设置manifest路径
  const DLL_DIR = wukong.region === '02' ? 'dll-02' : 
                  wukong.region === '03' ? 'dll-03' : 'dll'
  dllReferencePlugin.options.manifest = require(`./${DLL_DIR}/manifest.json`)
  ....
}

通过上述示例代码,我们需要将不同机房构建dll文件时生成的manifest.json进行不同动态引入改造,避免站点运行时,相同依赖通过chunkid进行匹配时,出现错乱导致页面异常。

  • 全局配置注入

通过编译服务能够拿到平台web用户在哪个地区编译发布的站点,但是这些信息如何编译到用户可访问的每个站点里呢?

我们通过wk_siteInfo将地区信息注入到前端:

// webpack.pkg.config.js
const site_option = {
  host: ip.address(),
  port: 8080,
  stPath: '****',
  loginPath: '****',
  wk_siteInfo: { 
    siteId,  
    ....
    wkCountryInfo, // 地区信息、时区、语言码信息
    region,  // 地区信息
  },
  ...wukong
}
// 完成地区信息的注入
// index.html
<script>
  // 示例代码 :window.wk_siteInfo = JSON.stringify(htmlWebpackPlugin.options.wk_siteInfo)
</script>

通过修改webpack.config.js,将站点的地区信息、时区、语言码等信息注入到wk_siteInfo,然后通过htmlWebpackPlugin将打包后的地区码信息注入到html中,这样就能实现页面对地区信息读取。

⑤多地区部署流程

构建流程图

该流程图详细展示了多地区构建部署的完整流程:

  1. **地区选择:**根据目标部署地区选择相应的构建分支
  2. **DLL构建:**为不同地区构建专用的DLL文件,使用对应的API包
  3. **Web构建:**使用地区特定的前端代码目录进行构建
  4. **CDN部署:**将构建产物部署到对应地区的CDN服务
  5. **服务启动:**使用正确的环境变量启动对应地区的服务

环境变量配置:

编译服务改造技术亮点

① 统一入口设计

  • 通过context.ts实现配置分发的统一入口
  • 运行时动态选择地区配置,无需重新编译
  • 支持环境变量覆盖,便于容器化部署

② 差异化API包管理

  • 01地区使用@vivo/wk-api
  • 02、03地区使用@vivo/asia-wk-api
  • DLL构建时自动选择对应API包,避免冗余

③ 服务发现机制

  • 测试/预发环境通过group区分地区
  • 生产环境依靠物理机房隔离,统一使用prod_wk分组
  • 自动识别环境类型,动态选择ZooKeeper集群和分组策略
  • 本地开发环境自动跳过服务发现,避免干扰

④ 智能构建策略

  • Webpack配置根据region参数动态调整
  • 自动扩展DLL manifest内容路径
  • dll基座互相独立

⑤ 前端代码隔离

  • 不同地区使用独立的前端代码目录
  • 保持核心业务逻辑复用的同时实现地区定制
  • SDK初始化时自动注入地区信息

通过上述的整套共线方案设计,后续新增国家机房时,新增地区只需配置相应环境文件,无需修改核心代码,配置结构清晰,各地区配置完全隔离,节约90%重复建设成本,提升了系统的灵活性和可扩展性。

通过统一的技术架构和清晰的配置管理,成功实现了"一套代码,多地部署"的目标,为悟空互动平台的多地区化业务发展提供了坚实的技术保障。

3.3 npm私服\&底层库

介绍完编译服务后,接下来介绍私服的代理策略和公共底层库的外销化改造。

npm私服

悟空除了服务业务运营,还有开发者部分,基于目前开发者整体的开发习惯,我们需要做到开发者零感知,实现02地区npm包的部署。

基于此我们有以下三点目标:

  • 开发者在办公网络可以直接开发、发布各机房环境的组件
  • 一套PaaS服务为多个机房提供组件物料的管理和发放
  • 确保物料传输合规

为了实现上述目标,我们做了一套完整的02地区私服方案设计,具体如下图所示:

开发者开发组件上传,维持01机房npm私服开发上传习惯,无需新增02机房源,npm物料仍然托管在01npm私服。

同时在02机房建设代理npm私服,通过ip白名单与悟空通信,私服本身通过verdaccioss服务配置代理:

uplinks:
  zhan-npm:
    url: http://****.vivo.lan:8080
packages:
  '**':
  ...
    # allow all known users to publish packages
    # (anyone can register by default, remember?)
    # if package is not available locally, proxy requests to 'npmjs' registry
    proxy: zhan-npm

通过02机房代理私服的方式,既能减少了悟空开发需要额外多维护02机房源,同时也降低了开发者组件包维护成本,实现本地不需要新增任何npm源,即可实现02机房包的开发上线流程。

底层库外销改造

wk-api是悟空平台封装的底层npm库,为了实现多机房场景下,业务组件多地区场景请求接口域名不变,我们通过fetch统一拦截器+header国家码信息,直接将业务组件的请求转发到不同国家的接口服务。

具体实现代码如下:

// 请求拦截器 - 动态URL路由
axios.interceptors.request.use(config => {
  const { region } = app;
  
  // 根据region动态获取prodUrl
  if (region === '01') {
    config.baseURL = 'https://****.vivo.com.cn';
  } elseif (region === '02'||region === '03') {
    config.baseURL = 'https://****.vivo.com';
  } 
  
  // 请求头注入
if (wkCountryInfo.loc; wkCountryInfo.lan; wkCountryInfo.tz) {
      code = `loc=${wkCountryInfo.loc};lan=${wkCountryInfo.lan};tz=${wkCountryInfo.tz}`;
      loc = wkCountryInfo.loc;
    }
    config.headers = Object.assign(config.headers, {
      'X-I8n-Code': code,
      'X-Wukong-Loc': loc
    }); 
  return config;
});

统一拦截器策略有以下优点:

  • **零侵入性:**业务组件无需关心当前部署环境,统一使用相同的API调用方式
  • **智能路由:**根据 region 参数自动选择对应机房的服务器地址
  • **请求头增强:**自动注入地理位置、来源页面等关键信息,支持后端的精细化处理

四、总结

悟空系统的整体改造从上到下可以分为用户能直观看到的平台改造,然后到用户感知不到的编译服务改造,最后是开发者也无需感知的外销私服部署,从前期梳理到后续一个个模块的拆解,出方案,进行开发落地,最终实现了以下目标:

  • 一种架构、一套代码实现多地区部署
  • 增量功能,无需重复开发,多地区复用
  • 新增地区机房部署,能够节约90%以上的成本,开发者组件外销迁移成本降低90%

引言

从 2025 年初开始,大模型领域进入了新一轮加速发展阶段。随着大模型在企业内部系统和生产环境中的落地,大模型推理逐渐演化为一类重要的基础设施能力。在这一背景下,围绕大模型推理访问、资源管理与安全控制的 AI 网关(AI Gateway) 受到了业界的广泛关注(参见参考资料 [1] [3] [5])。

由于 AI 网关仍处于快速演进阶段,不同厂商和社区对其定位与边界的理解并不完全一致。本文尝试基于当前较为主流的工程实践,对大模型推理场景中的工作机制 以及 AI 网关的角色、作用和分类方式 进行系统性说明。

1. 大模型的推理场景

在说明 AI 网关之前,有必要先明确大模型推理场景的基本工作机制。

016fcc15a0b14d1ff625e8b676006563.png

图1 大模型推理场景的工作机制

站在“智能体(Agent)”的视角,一个典型的大模型推理场景可以抽象为以下几类交互关系(见图1):

  • 用户 → 智能体:用户向智能体发起请求
  • 智能体 → 大语言模型:智能体通过 LLM API 调用大语言模型进行推理
  • 智能体 → 传统服务:智能体调用已有业务系统或工具提供的能力
  • 智能体 → 智能体:智能体之间进行协作或能力委托

在接口层面,OpenAI API [6]的接口语义正在逐步成为事实上的接口参考标准(de facto standard),但在底层推理系统和企业内部场景中,仍然存在大量非 OpenAI 协议的实现方式。与此同时,MCP(Model Context Protocol)[7]等协议更多用于工具能力描述和上下文编排,其底层调用仍然依赖 HTTP、gRPC 或内部 RPC 等通信机制。对于智能体之间的协作,也正在出现 A2A(Agent to Agent)[8]等新型协议尝试。

2. 大模型推理场景中的网关

02eacff54a768d396c7541037ccd0bb8.png

图2 大模型推理场景中的网关

在上述推理场景中,随着调用链条变长、资源成本上升以及安全风险增加,单纯依靠传统 API 网关已难以满足需求。围绕大模型推理,业界逐步形成了三类不同侧重点的“网关型能力”[2](参见图2):

  • AI 网关(AI Gateway):用于对 LLM 资源消费进行统一控制
  • 推理网关(Inference Gateway):用于对 LLM 推理资源进行抽象和调度
  • 智能体网关(Agent Gateway):用于控制智能体对工具或其他智能体的调用

需要说明的是,上述分类主要是从功能和职责视角对大模型推理场景中的网关能力进行拆分。在实际工程实现中,这些能力可能由同一个网关系统统一承载,也可能以插件、子模块或独立组件的形式存在,其具体形态取决于系统规模、组织复杂度以及对稳定性和演进性的要求。

本文后续将重点讨论 推理网关 与 AI 网关。智能体网关由于仍处于快速演进阶段,这里不做展开,感兴趣的读者可参考资料 11。

3. 推理网关(Inference Gateway)

推理网关的定位

推理网关并不直接执行模型推理,其核心职责是:

  • 对 LLM 推理资源进行抽象
  • 在多个推理实例之间进行调度
  • 控制推理请求的访问路径与生命周期

可以将推理网关理解为 连接推理客户端与底层推理实例的重要控制节点

推理网关的工作场景

b1499c4e5ef5cd879ceba10c8bceb1f1.png

图3 推理网关的工作场景

如 图3 所示,在一个 Kubernetes 集群中,通常会部署多种不同规格或不同模型的推理资源(例如 Qwen-72B、DeepSeek-32B 等)。每一种模型资源对应一个推理池(Inference Pool),而一个推理池中则包含多个推理实例。

推理网关的核心工作包括:

  • 根据请求中指定的模型名称,将请求路由到对应的推理池
  • 在目标推理池中,为该请求选择一个合适的推理实例

GPU 推理调度的复杂性

与传统基于 CPU 的服务实例相比,基于 GPU 的推理实例在调度层面存在显著差异:

  • GPU 推理实例的并发处理能力有限,更容易出现过载
  • 推理实例通常维护 KV Cache 等状态,不同实例之间的状态差异会直接影响延迟和吞吐
  • 是否命中缓存,对整体性能和资源消耗有决定性影响

因此,在推理实例选择上,简单的轮询或最小连接策略往往难以取得理想效果,需要结合实例负载、缓存状态、排队情况等多维信息进行调度。

目前,业界已经出现多种实现方案(参见 [4] [9] [10])。其中,Gateway API Inference Extension [4]作为 Kubernetes 社区的官方项目,引入了 EPP(EndPoint Picker)[9]作为独立的调度组件(见 图 3)。EPP 负责感知推理实例状态,并向推理网关返回合适的目标实例。

上述对比主要针对典型 Web 服务负载与大模型推理负载的差异进行说明,实际生产环境中仍需结合具体模型特性和业务请求模式进行设计。

4. AI网关(AI Gateway)

AI 网关的核心职责

AI 网关最重要的职责是 对 LLM 资源消费进行统一控制。

24af84dbfb95feb4248f52f2dc137952.png

图4 传统服务网关的工作场景

在传统服务网关场景中(见 图 4),不同业务通常对应各自独立的服务资源,网关的主要任务是完成路由和基础治理。而在大模型推理场景中,由于推理资源成本高昂,不同业务往往需要共享同一组推理资源池(见 图 5)。

8450a097aa4402359c366f16f8b4bb3c.png

图5 AI网关的工作场景

在这种模式下,AI 网关需要承担以下职责:

  • 对不同调用方的并发数、配额和使用总量进行控制
  • 缓解多业务竞争同一推理资源时带来的服务质量波动
  • 为上层业务提供稳定、可预期的访问体验内容

安全与合规控制

对入向提示词和出向模型结果进行内容安全检测,也是 AI 网关的重要能力之一。

在工程实践中,通常会将内容安全检测系统独立部署(参见 图 5),由 AI 网关通过远程调用的方式进行集成。这种模式具有以下优势:

  • 安全策略变更频繁,可降低对核心转发路径稳定性的影响
  • AI 网关可以对异常或不可用的检测节点进行自动摘除
  • 便于同时集成多个厂商或多种检测能力

在实际落地过程中,往往需要结合同步检测、异步审计以及分级处置策略,在安全性与端到端延迟之间取得平衡。

统一入口与多资源池调度

为LLM的调用提供统一入口,是 AI 网关的另一项关键价值。

在单LLM资源池场景下(见图6),AI 网关与推理网关往往可以合并部署,由同一组件同时完成资源消费控制和实例级调度。

74e07ef4b51638c2a86cdb7a8e0925c2.png

图6 AI网关的工作场景(单LLM资源池)

而在多LLM资源池场景下(见图7),AI网关和推理网关会分离部署。对于LLM的消费者来说,只需要发送请求到AI网关,而不需要关心LLM资源池的具体物理位置。AI网关会基于预置的调度比例、LLM资源池的忙闲状态、访问速度、成本等信息,将请求发往合适的LLM资源池

在该场景下,AI 网关实际上承担了跨推理池、跨模型、甚至跨地域和跨云环境的二级调度角色,用于在成本、性能和可用性之间进行全局权衡。

26af1d582e567a64598b9e6bd3454fcf.png

图7 AI网关的工作场景(多LLM资源池)

5. 总结

本文围绕大模型推理场景,对 AI 网关的产生背景、核心作用以及3种AI网关职责(推理网关、AI网关、智能体网关)之间的关系进行了系统性说明。

总体来看,AI 网关并不是一个单一形态的产品,而是一组围绕大模型推理逐步演进的关键能力集合。在成本控制、安全合规、访问质量和系统演进性等方面,AI 网关都将发挥越来越重要的作用。

随着大模型推理基础设施的持续发展,可以预见,AI 网关将在未来几年内成为企业级 AI 系统架构中的关键组成部分。

参考资料

作者简介

章淼,博士,1994年进入清华大学计算机科学与技术系学习,2004年获得博士学位,2004年至2006年在清华大学留校任教,在清华期间曾参与中国第一代核心路由器的研制工作。2012年起在百度工作超过十年,聚焦云网络基础架构的研发工作,是BFE开源项目的发起人。在百度期间积极推动软件工程能力提升,曾担任百度代码规范委员会主席,2021年10月被授予百度代码规范委员会荣誉主席。2022年出版《代码的艺术:用工程思维驱动软件开发》。2023年4月起担任瑛菲网络CEO,聚焦研发面向云和大模型场景的现代化流量管理平台。

在项目管理数字化普及的2026年,越来越多团队(尤其是初创团队、小微企业及个人工作室)倾向于优先选用免费版项目管理工具,降低协作成本。但免费版究竟能覆盖多少核心需求?不同工具的免费功能边界在哪里?本次实测筛选8款主流项目管理工具,以“中立、客观、实用”为原则,全面拆解各工具免费版的功能范围、适用场景及局限,为不同需求的用户提供选型参考,全程不贬低任何产品,仅基于实测结果呈现真实体验。

一、实测说明与工具选型

1.1 实测原则

  • 中立性:不偏向任何一款产品,仅客观呈现免费版功能、操作体验及边界限制,不添加主观褒贬评价;
  • 实用性:聚焦项目管理核心需求(任务管理、协作沟通、进度追踪、基础统计),忽略无关冗余功能;
  • 全面性:每款工具均完成“注册-功能实操-边界测试”全流程,确保实测结果真实可参考;
  • 合规性:仅围绕工具功能本身展开测评。

1.2 工具选型(8款)

结合2026年市场使用率、用户口碑及功能适配性,筛选以下8款工具,均支持免费版使用,涵盖轻量协作、研发管理、全流程管控等不同类型,满足不同团队需求:

  1. 禅道(研发项目专用型)
  2. ClickUp(全能型多场景适配)
  3. Asana(轻量跨团队协作型)
  4. Jira(敏捷研发追踪型)
  5. Monday.com(可视化工作流型)
  6. Notion(笔记+项目结合型)
  7. Trello(轻量看板型)
  8. Wrike(复杂项目资源管理型)

二、4款项目管理工具免费版实测详情(第二板块:研发与复杂项目型工具)

本板块包含4款工具,主打研发项目管理、复杂项目管控,适配技术团队、中型企业团队,核心聚焦敏捷开发、缺陷追踪、资源管理等专业需求,免费版功能覆盖基础研发流程,部分复杂功能需升级付费版。

1.2 禅道(研发项目专用型)

1.2.1 产品基础介绍

禅道是一款专为国内研发团队设计的项目管理工具,2026年免费版持续优化敏捷开发、缺陷追踪功能,贴合国内研发团队的工作流程,支持瀑布、敏捷混合管理模式,核心优势在于研发流程闭环、功能贴合研发场景,无需复杂适配,适合软件研发、IT团队使用。

1.2.2 免费版核心功能(实测可使用)

  • 研发流程管理:支持需求管理、迭代规划、任务分配、缺陷追踪、测试管理,形成“需求-开发-测试-上线”闭环;
  • 任务与缺陷管理:可创建开发任务、测试任务、缺陷任务,设置优先级、严重程度、负责人、截止日期,支持缺陷关联开发任务,跟踪缺陷修复进度;
  • 敏捷适配:支持敏捷看板、迭代计划、燃尽图(基础版),可查看迭代进度、任务完成情况,适配Scrum敏捷开发模式;
  • 基础管理:支持创建多个项目,可添加团队成员,设置基础权限(管理员、开发、测试、普通成员),支持查看简单的项目统计报表(如任务完成率、缺陷修复率);
  • 本地化适配:支持中文界面、本地部署(免费版支持单机部署),适配国内团队的操作习惯,无需担心语言、部署适配问题。

1.2.3 免费版功能边界(实测限制)

  • 成员与项目限制:免费版最多支持10名成员、3个项目,超过数量无法新增,且不支持多团队管理;
  • 功能限制:无甘特图、无资源负载管理,燃尽图仅支持基础查看,无法自定义统计维度;不支持自动化流程、自定义字段;
  • 测试管理限制:免费版仅支持基础测试任务分配,无测试用例管理、测试报告生成功能,无法批量处理缺陷;
  • 部署限制:免费版仅支持单机部署,不支持集群部署、云端部署,且无专业技术支持,部署维护需依赖自身IT人员。

1.2.4 适用场景总结

适合10人以内的国内研发团队、IT团队,用于软件研发项目的全流程管理,尤其是需要缺陷追踪、迭代规划的团队,免费版的研发闭环功能可满足基础研发需求,本地化部署也更贴合国内团队的合规需求。

2.1 ClickUp(全能型多场景适配)

2.1.1 产品基础介绍

ClickUp是一款多合一全能型项目管理工具,2026年免费版优化了研发模块与复杂项目管理功能,支持敏捷、瀑布等多种管理模式,兼顾轻量协作与专业管控,核心优势在于功能全面、适配性强,既能满足研发团队需求,也能适配通用型项目,适合各类有进阶需求的团队。

2.1.2 免费版核心功能(实测可使用)

  • 任务管理:支持创建无限任务、子任务,设置负责人、截止日期、优先级、任务依赖,可添加自定义字段、标签、附件(单文件不超过100MB);
  • 研发适配:支持敏捷看板、迭代规划,可创建缺陷任务、测试任务,支持任务关联(如缺陷关联开发任务);
  • 视图支持:提供看板、列表、日历、甘特图(基础版)、仪表盘(基础版),可直观查看项目进度、任务分布;
  • 协作与管理:支持无限成员协作(无人数限制),可设置基础权限分级(编辑、查看),支持任务评论、@提醒、实时同步状态;
  • 附加功能:支持时间追踪(基础版)、文档协作、简单自动化规则(如任务状态变更提醒)。

2.1.3 免费版功能边界(实测限制)

  • 功能限制:甘特图仅支持基础查看,无法编辑任务依赖时序;仪表盘仅支持预设模板,无法自定义统计维度;自动化规则仅支持5种,无法创建复杂流程;
  • 存储限制:总存储空间为100MB,附件上传累计超过后无法继续上传,且不支持批量导出数据;
  • 研发功能限制:无缺陷追踪高级功能(如缺陷分级、批量处理),不支持测试计划管理、版本管理;
  • 协作限制:无跨团队空间管理,权限分级仅支持基础类型,无法设置精细化权限(如仅查看某类任务)。

2.1.4 适用场景总结

适合各类团队,尤其是10人以上、有进阶项目管理需求的团队(如研发团队、中型营销团队),免费版无人数限制,功能全面,可满足基础研发流程、复杂任务管控需求,是免费版中性价比极高的全能型工具。

3.3 Jira(敏捷研发追踪型)

3.3.1 产品基础介绍

Jira是全球知名的敏捷研发与事务追踪工具,2026年免费版优化了国内用户体验,主打敏捷开发流程管控、缺陷追踪,核心优势在于自定义能力强、插件生态丰富,贴合跨国、大型技术团队的协作需求,适合有规范研发流程的技术团队使用。

3.3.2 免费版核心功能(实测可使用)

  • 敏捷研发管理:支持Scrum、Kanban等敏捷模式,可创建迭代计划、敏捷看板、燃尽图,跟踪迭代进度、任务完成情况;
  • 事务与缺陷追踪:可创建任务、缺陷、史诗、故事点,设置优先级、严重程度、负责人、截止日期,支持任务依赖、缺陷关联;
  • 基础自定义:支持自定义任务状态、工作流(基础版),可添加自定义字段,适配不同研发团队的流程需求;
  • 协作与管理:支持最多10名成员协作,可设置基础权限分级,支持任务评论、@提醒、操作历史记录,可查看简单的项目统计报表。

3.3.3 免费版功能边界(实测限制)

  • 成员限制:免费版最多支持10名成员,超过人数无法添加,且不支持多项目并行管理(仅支持1个项目);
  • 功能限制:无甘特图、无资源管理功能,工作流自定义仅支持基础版本,无法创建复杂流程;不支持自动化规则、批量操作;
  • 插件限制:免费版不支持安装第三方插件,无法扩展功能(如测试用例管理、版本管理插件);
  • 部署与合规限制:国内免费版仅支持云端部署,数据存储于海外节点,存在跨境存储合规风险;无本地化技术支持,响应速度较慢。

3.3.4 适用场景总结

适合10人以内、有规范敏捷研发流程的技术团队,尤其是需要与国际技术标准对齐的团队,免费版可满足基础的敏捷迭代、缺陷追踪需求,适合小型研发团队试用、落地敏捷流程。

4.4 Wrike(复杂项目资源管理型)

4.4.1 产品基础介绍

Wrike是一款主打复杂项目资源管理的项目管理工具,2026年免费版优化了资源负载管理功能,聚焦多项目并行、资源分配与进度管控,核心优势在于复杂项目适配性强,能有效平衡人力、物力资源,适合市场、中型企业等有复杂项目管理需求的团队。

4.4.2 免费版核心功能(实测可使用)

  • 项目与任务管理:支持创建多项目,可创建任务、子任务,设置负责人、截止日期、任务依赖、优先级,支持添加标签、附件(单文件不超过50MB);
  • 资源管理(基础版):可查看成员资源负载情况(简单展示成员任务量),避免资源分配不均,支持简单的资源调度;
  • 视图支持:提供看板、列表、甘特图(基础版)、日历视图,可直观查看多项目进度、任务依赖关系;
  • 协作与管理:支持最多5名成员协作,可设置基础权限,支持任务评论、@提醒、实时同步任务状态,可查看简单的项目统计报表。

4.4.3 免费版功能边界(实测限制)

  • 成员限制:免费版最多支持5名成员,超过人数无法添加,且不支持多团队管理;
  • 功能限制:甘特图仅支持基础查看,无法编辑任务时序;资源管理仅支持简单负载查看,无资源冲突检测、资源优化建议;
  • 项目限制:最多可创建2个项目,每个项目最多支持50个任务,超过数量无法新增;不支持跨项目关联、多项目汇总统计;
  • 存储与导出限制:总存储空间为5GB,附件上传累计超过后无法继续上传;数据仅可导出为CSV格式,无法导出报表、附件。

4.4.4 适用场景总结

适合5人以内、有简单复杂项目管理需求的团队,如小型市场团队、项目交付团队,需要平衡资源分配、管理多项目并行,免费版可满足基础的资源查看、项目管控需求。

三、4款项目管理工具免费版实测详情(第一板块:轻量协作与通用型工具)

本板块包含4款工具,主打轻量操作、易上手,适配初创团队、小微企业、个人及非研发类团队(如营销、运营、行政团队),核心聚焦任务分配、基础协作与进度可视化,免费版功能足以覆盖基础项目管理需求。

5.1 Asana(轻量跨团队协作型)

5.1.1 产品基础介绍

Asana是一款主打现代工作流协作的轻量项目管理工具,2026年持续优化免费版功能,聚焦跨团队任务对齐与进度同步,无需复杂配置,适合中小型团队快速落地协作流程,核心优势在于界面简洁、协作逻辑清晰,无需专业项目管理经验也能快速上手。

5.1.2 免费版核心功能(实测可使用)

  • 任务管理:支持创建任务、子任务,设置负责人、截止日期、优先级标签,可添加任务描述、附件(单文件不超过100MB);
  • 协作沟通:任务内可添加评论、@成员提醒,支持实时同步任务状态变更,成员可自主更新任务进度(待处理、进行中、已完成);
  • 视图支持:提供看板视图、列表视图、日历视图,可切换查看项目整体进度,日历视图可直观展示各任务截止时间;
  • 基础管理:支持创建最多10个项目,每个项目可设置专属成员,支持简单任务筛选(按负责人、截止日期、优先级)。

5.1.3 免费版功能边界(实测限制)

  • 成员限制:免费版最多支持15名成员协作,超过人数无法添加新成员,且无法升级临时成员权限;
  • 功能限制:无时间线视图、无工作流自动化功能,无法设置任务依赖关系,不支持自定义字段;
  • 存储限制:总存储空间为10GB,附件上传累计超过后无法继续上传,且不支持批量导出附件;
  • 统计限制:无项目进度统计报表,无法查看成员工作量、任务完成率等数据。

5.1.4 适用场景总结

适合15人以内的轻量协作团队,如营销活动排期、内容生产、行政事务管理等,无需复杂流程管控,仅需完成任务分配、进度同步的场景,免费版完全够用。

6.2 Monday.com(可视化工作流型)

6.2.1 产品基础介绍

Monday.com是一款以可视化画板为核心的项目管理工具,2026年免费版优化了视图交互体验,主打“所见即所得”的工作流管理,支持自定义画板布局,适配初创团队、运营型团队的多样化需求,核心优势在于可视化程度高,能快速呈现项目全局状态。

6.2.2 免费版核心功能(实测可使用)

  • 可视化管理:提供画板视图、列表视图、日历视图,支持自定义画板列(如负责人、截止日期、任务状态、进度百分比);
  • 任务管理:可创建任务、设置截止日期、负责人,支持添加标签、附件(单文件不超过50MB),任务状态可自定义(如待启动、进行中、审核中、已完成);
  • 基础协作:任务内支持评论、@成员,支持任务状态变更提醒,可查看任务操作历史记录;
  • 简单自动化:支持2种基础自动化规则(如“任务截止日期临近3天发送提醒”“任务状态变更后通知负责人”)。

6.2.3 免费版功能边界(实测限制)

  • 成员限制:免费版最多支持2名成员协作,仅适合个人或双人小团队使用,多人协作需升级付费版;
  • 项目限制:最多可创建3个项目,每个项目最多支持100个任务,超过数量无法新增;
  • 功能限制:无甘特图、无资源负载管理,自动化规则仅支持2种,无法自定义自动化流程,不支持跨项目关联;
  • 存储限制:总存储空间为5GB,附件上传累计超过后无法继续上传,且不支持数据导出(如任务列表、进度报表)。

6.2.4 适用场景总结

适合个人、双人小团队,如自由职业者、小型工作室,用于简单项目规划、任务追踪,尤其适合喜欢可视化操作、需要自定义工作流的用户,免费版可满足基础使用需求。

7.3 Notion(笔记+项目结合型)

7.3.1 产品基础介绍

Notion是一款集笔记、数据库、项目管理于一体的多功能工具,2026年免费版强化了项目管理模块的适配性,主打“灵活自定义”,无需固定模板,可根据自身需求搭建项目管理体系,核心优势在于兼容性强,既能管理项目,也能沉淀知识库,适合创意类、内容类团队。

7.3.2 免费版核心功能(实测可使用)

  • 自定义项目体系:支持创建数据库模板(任务、项目、成员),可自定义字段(如任务类型、优先级、截止日期、负责人);
  • 任务管理:可创建任务、子任务,设置截止日期、负责人,支持添加标签、评论、附件(单文件不超过25MB);
  • 视图支持:提供列表视图、看板视图、日历视图,可切换查看任务进度,支持简单筛选(按负责人、截止日期);
  • 知识沉淀:支持创建项目文档、笔记,可与任务关联,实现“项目+文档”一体化管理,方便团队沉淀项目资料。

7.3.3 免费版功能边界(实测限制)

  • 成员限制:免费版最多支持5名协作者,超过人数无法添加,且协作者仅拥有基础编辑权限,无法设置分级权限;
  • 功能限制:无原生甘特图、无任务依赖设置,不支持自动化流程,无法统计任务完成率、成员工作量;
  • 存储限制:总存储空间为10GB,附件上传累计超过后无法继续上传,数据仅可导出为PDF、HTML格式,无法导入其他项目管理工具;
  • 协作限制:无实时协作提醒,任务状态变更需手动通知成员,缺乏团队协作的实时性。

7.3.4 适用场景总结

适合5人以内的创意类、内容类团队,如设计团队、文案团队,既需要管理项目任务,也需要沉淀项目资料(如设计方案、文案草稿),免费版的灵活自定义特性可满足个性化需求。

8.4 Trello(轻量看板型)

8.4.1 产品基础介绍

Trello是一款以看板、卡片为核心的轻量级项目管理工具,2026年免费版保持了简洁易用的特点,主打“极简协作”,无需复杂配置,通过卡片拖拽即可完成任务状态更新,核心优势在于上手快、操作简单,适合所有类型的小型团队快速协作。

8.4.2 免费版核心功能(实测可使用)

  • 看板管理:支持创建无限数量的看板、列表、卡片,卡片可拖拽切换状态(如待处理、进行中、已完成),直观呈现任务进度;
  • 任务管理:卡片内可添加任务描述、负责人、截止日期、标签,支持添加附件(单文件不超过10MB)、评论;
  • 基础协作:支持添加团队成员,成员可自主编辑卡片、更新任务状态,支持@成员提醒,可查看卡片操作历史;
  • 简单工具集成:支持与Google Drive、Slack等基础工具集成,方便同步文件、接收通知。

8.4.3 免费版功能边界(实测限制)

  • 成员限制:单个看板最多支持5名成员协作,超过人数无法添加,且无法创建多个团队空间;
  • 功能限制:无甘特图、无时间追踪、无任务依赖设置,不支持自定义字段,缺乏自动化流程;
  • 存储限制:总存储空间为10GB,附件上传累计超过后无法继续上传,不支持批量操作(如批量删除、批量编辑卡片);
  • 管理限制:无项目统计功能,无法查看任务完成率、成员工作量,不支持权限分级管理。

8.4.4 适用场景总结

适合5人以内的小微团队、个人,如初创团队、自由职业者,用于简单的任务追踪、流程管理(如订单跟进、活动流程),操作简单、无需学习成本,免费版完全能满足基础协作需求。

四、实测总结与选型建议

4.1 实测核心结论

本次实测的8款项目管理工具免费版,均能覆盖“任务分配、基础协作、进度追踪”等核心基础需求,不存在“无法使用”的情况,但功能边界差异明显,核心差异集中在「成员数量、存储容量、专业功能(如研发、资源管理)、自动化与自定义能力」四个维度:

  • 轻量协作场景:Trello、Asana免费版最适配,上手快、操作简单,适合15人以内的小微团队、个人;
  • 创意与知识沉淀场景:Notion免费版更合适,可实现“项目+文档”一体化管理,灵活自定义;
  • 全能型场景:ClickUp免费版无人数限制、功能最全面,适配各类团队,性价比最高;
  • 国内研发场景:禅道免费版最贴合,本地化适配、研发流程闭环,适合国内研发团队;
  • 敏捷研发场景:Jira免费版规范,适合有国际对齐需求的小型研发团队;
  • 复杂项目资源场景:Wrike免费版可满足基础资源管理,适合小型复杂项目团队。

4.2 选型核心建议

2026年项目管理工具免费版“够用与否”,核心取决于「团队规模、项目复杂度、核心需求」,无需盲目追求付费版,也无需勉强使用免费版,具体建议如下:

  1. 1-5人小微团队/个人:优先选择Trello、Monday.com、Notion,免费版完全能覆盖基础任务管理、简单协作需求,上手快、无学习成本;
  2. 5-15人轻量协作团队(非研发):优先选择Asana、ClickUp,Asana协作流畅,ClickUp功能全面、无人数限制,可满足进阶协作需求;
  3. 5-10人研发团队:优先选择禅道(国内团队)、Jira(国际对齐需求),免费版可覆盖基础研发流程、缺陷追踪,贴合研发场景;
  4. 10人以上团队/复杂项目需求:免费版仅能满足基础需求,建议试用免费版熟悉功能后,根据核心需求升级付费版,解锁自动化、资源管理、多项目管控等高级功能。

整体而言,2026年主流项目管理工具的免费版,已能满足大多数中小团队、个人的基础项目管理需求,核心功能无明显缺失,仅在高级功能、协作规模上存在限制。选型的核心是“匹配需求”,而非“追求功能全面”,合理利用免费版,可有效降低团队协作成本,待需求升级后再考虑付费,是最具性价比的选择。

3.8_副本.png

人工智能基础设施团队正面临全新的挑战:性能瓶颈早已不再局限于 GPU 算力。如今,更常见的限制因素,往往是数据和模型在存储系统中的传输速度——尤其是在以对象存储为主的云环境中。

无论是加载数十亿参数的推理模型,还是运行需要处理海量中间数据的工作流,存储访问一旦变慢,GPU 算力浪费、训练时间拉长、任务性能不稳定等问题便会立刻显现。

Alluxio AI 3.8 版本推出两项重大新功能,旨在消除现代 AI 工作中最棘手的两大瓶颈:

  1. Alluxio S3 写缓存:大幅降低对象存储写入延迟,提升写入密集型工作负载的性能;
  2. Safetensors 模型加载加速:实现接近本地 NVMe 的模型权重加载吞吐量。

接下来,我们将深入解析这两项新功能。

1.Alluxio S3 写缓存

如今的 AI 与数据分析工作流,早已不只是以读为主。

它们正越来越多地呈现“读写混合”甚至“写密集”的特征,生成大量中间结果、嵌入向量、日志与转换后的数据集。在这样的场景中,写性能与读吞吐同样关键。

遗憾的是,Amazon S3 这类后端对象存储系统,并非为大规模并行场景下的超低延迟写入而设计。写入延迟、请求开销、突发处理限制,往往成为端到端运行时的核心瓶颈。

为什么写入会成为瓶颈

在写入密集型工作负载中,对象存储存在一些难以规避的短板:

  1. 单次请求延迟高(小对象尤其明显);
  2. 突发流量时吞吐量波动大;
  3. 写后即读(read-after-write)场景中,数据一致性延迟明显。

随着越来越多 AI 工作负载依赖快速循环迭代与持续工作流,这些短板正成为拖慢整体效率的关键因素。

Alluxio AI 3.8 新功能

Alluxio AI 3.8 引入的 Alluxio S3 写缓存,新增了用户可配置的写回(write-back)模式,突破了之前仅支持穿透写的限制。

通过这些写回模式,应用可直接写入本地计算节点的 NVMe 存储,而数据持久化到 S3 的过程则可以:

  1. 在后台异步完成;
  2. 或完全跳过(适用于无需持久化的场景)。

这实际上将应用性能与对象存储延迟解耦开来。

显著降低PUT延迟(提升5-8倍)

效果是立竿见影且可量化的。针对小对象写入(10KB PUT):

  1. S3 延迟:30-40 毫秒
  2. Alluxio S3 写缓存延迟:4-6 毫秒

PUT 延迟降低了 5-8 倍!

对于生成数百万小文件(如元数据、特征分片、嵌入输出等)的工作负载,这一优化足以彻底改变工作流的整体性能表现。

大文件写入吞吐量高达 6+ GB/s(单Worker)

写缓存在大对象写入场景下同样表现优异。
针对大对象写入(10MB PUT 操作),Alluxio S3 写缓存可实现:

  1. 单 Worker 吞吐量达到 6+ GB/s;
  2. 延迟低且稳定;
  3. 随 Worker 数量增加,吞吐量接近线性扩展。

这意味着,AI 团队只需横向扩展 Alluxio Worker,即可线性提升写入吞吐量,不再受限于对象存储的写入路径。

带来的实际收益

Alluxio S3 写缓存为现代 AI 与数据分析工作负载带来的核心价值包括:

  1. ETL 与数据转换工作流更高效;
  2. 写入密集型的流式与批处理任务性能大幅提升;
  3. 迭代式 AI 工作流中“写后即读”延迟显著降低;
  4. 突发请求处理工作流更稳定。

图片1.png

Alluxio S3 写缓存让基于对象存储的架构,拥有了接近 NVMe 的写入体验。

了解更多:S3写缓存技术深度解析

如果你想了解该功能背后的技术动因与架构设计,欢迎阅读这篇由 Alluxio 技术副总裁范斌撰写的技术文章

  1. 写入密集型工作负载为何会带来对象存储的写入路径瓶颈;
  2. S3 PUT 延迟为何在大规模场景下会成为主导因素;
  3. Alluxio S3写缓存如何在实践中改变写入及“写后即读”的延迟模型。

2. Safetensors 模型加载加速

大模型加载已成为 AI 工作流中最容易被忽视的隐性成本之一。

之所以容易被忽略,是因为模型加载发生在训练或推理任务“真正开始之前”——但它往往耗时数分钟,并且在集群重启、任务重跑时反复发生。在分布式环境中,模型加载慢,会导致整批 GPU 节点空转等待,迟迟无法投入工作。

为什么 Safetensors 如此重要?

Safetensors 是由 Hugging Face 推出的开源模型格式,专门用于存储机器学习模型权重。它迅速成为众多机构的首选,核心原因是解决了传统基于 pickle 方式加载模型的两大痛点:

  1. 性能:Safetensors 支持快速、零拷贝、延迟加载;
  2. 安全性:杜绝加载时执行任意代码,模型共享更安全。

简言之,Safetensors 既快又安全——这正是大规模 AI 场景所需要的。

Alluxio AI 3.8 新增功能

Alluxio AI 3.8 引入 Safetensors 模型加载加速功能,让基于 Safetensors 格式的大模型在云端也能实现快速、稳定的加载,即使原始模型存放在对象存储中。

借助这一能力,Alluxio AI 可实现接近本地 NVMe 的吞吐量,模型加载速度比 AWS FSx Lustre 等主流云存储方案快 15–20 倍。

基准测试:比 AWS FSx Lustre 快 18 倍

在内部基准测试中,我们使用 DeepSeek-R1-Distill-Llama-70B 模型(约 30GB),对比从云存储环境加载模型的时间:

  1. Alluxio AI:49秒;
  2. AWS FSx Lustre:900秒。

模型加载速度提升了 18 倍,堪称突破性进展。

这一加速效果,对于需要频繁扩缩容的推理集群、经常重启任务的训练流程,或任何需要跨多节点重复加载模型的环境,意义尤为重大。

带来的实际收益

借助 Safetensors 模型加载加速功能,AI 团队可以实现:

  1. 推理部署的“冷启动”速度加快;
  2. 训练任务启动与重启周期大幅加快;
  3. 通过消除模型初始化阶段的空转等待时间,显著提升 GPU 利用率;
  4. 跨云环境性能更可预测、更稳定。

Alluxio AI 3.8 让基于 Safetensors 的模型加载,不仅更快,而且真正具备了大规模云原生能力。

3.总结:Alluxio AI 3.8 消除两大存储瓶颈

Alluxio AI 3.8 的发布,正是为应对现代 AI 基础设施的真实挑战而设计:在海量规模的云端模型与数据工作流中,存储延迟和吞吐量直接导致 GPU 资源浪费与创新速度放缓。

此次版本带来两项突破性新功能:

Alluxio S3 写缓存

  1. 新增可配置写回模式,释放本地 NVMe 性能;
  2. 小对象 PUT 延迟从 30–40 毫秒降至 4–6 毫秒;
  3. 大对象写入单 Worker 吞吐量超 6 GB/s,近线性扩展。

Safetensors 模型加载加速

  1. 实现接近本地 NVMe 吞吐量的 Safetensors 模型加载;
  2. 比主流云存储方案快 15–20 倍;
  3. 基准测试:49 秒 vs 900 秒(比 AWS FSx Lustre 快 18 倍)。

这两项功能共同带来:更快的训练启动、更快的推理部署、更高效的工作流、更高的 GPU 利用率——同时始终保持对象存储作为核心记录系统。

Alluxio AI 3.8,让云端 AI 基础设施更快、更稳、更具扩展性。

作者:孔可青(青瑭)

背景与挑战

背景

随着大模型能力的成熟,智能体(Agent)正从实验性原型快速走向生产级应用。在客服自动化、运维诊断、数据查询、业务流程编排等场景中,Agent 通过调用工具、规划任务、与用户多轮交互,展现出显著的生产力价值。为适配特定业务需求,开发者普遍基于开源大语言模型(LLM),采用监督微调(SFT)、强化微调(RFT)等技术对 Agent 进行定制化优化,在推理成本、响应延迟与任务成功率之间寻求最佳平衡。

然而,模型一旦部署上线,其能力便趋于静态。若无法持续从真实用户交互中学习,Agent 很难适应业务变化、工具演进或用户行为漂移,长期效果将逐渐退化。

核心挑战

当前 Agent 优化面临两大关键瓶颈:

1. 训练-部署环境分离

传统的微调流程高度依赖离线数据集:开发者需先积累大量历史交互日志,再经过人工清洗、标注,并构建静态训练集;同时,为在隔离环境中进行训练,还需额外开发模拟工具链(如 Mock API、虚拟数据库等)来复现线上行为。这一过程不仅周期长、反馈滞后,更关键的是,仿真环境往往难以准确还原生产系统中真实的工具响应、状态流转与边界条件——例如内部 API 的延迟特性、数据库的并发行为或业务系统的上下文依赖。这种“训练-部署”之间的环境差异,容易导致模型在离线评估中表现良好,却在真实场景中出现行为偏差甚至失效。

2. Java 生态支持缺失

现有 RFT 框架(如 Trinity-RFT)主要面向 Python 生态。对于采用 Java 构建 Agent 的企业团队而言,若希望通过模型训练优化 Agent 能力,通常面临两种高成本选择:

  • 将已有的 Java Agent 逻辑重写为 Python;
  • 或自行开发中间层,实现日志采集、数据格式转换、训练接口适配等组件。

无论哪种方式,都迫使 Java 开发者额外承担算法理解与分布式训练工程的复杂性,增加开发负担,降低迭代效率,阻碍了训练能力在 Java 生态中的落地与普及。

解决方案

要实现“Agent 越用越聪明”的自进化目标,必须打通从生产环境到训练系统的全链路数据闭环。理想方案应具备以下特征:

  • 利用线上真实交互数据:Agent 开发者可直接基于生产环境中 Agent 的真实请求调用与工具状态,使用线上的数据进行训练;
  • 低侵入:对现有 Agent 业务逻辑无干扰,集成成本低;
  • 语言栈友好:原生支持 Java 开发者,无需跨语言重构。

基于此,我们提出面向 Java Agent 的端到端在线训练方案,以 AgentScope Java + Trinity-RFT 为核心,构建一条高效、安全、可落地的持续优化路径。

AgentScope Java × Trinity-RFT 在线训练

在线训练(Online Training)是一种在生产环境的实时系统中,利用真实用户交互数据持续优化智能体(Agent)行为的训练范式。与传统离线训练——即先收集历史日志、构建静态数据集,再于隔离环境中进行模型微调——不同,在线训练强调与真实工具链(如 API、数据库、业务系统)和用户行为的深度耦合,实现“边运行、边学习、边优化”的闭环。

其核心流程为:系统从线上真实请求中自动筛选高质量样本,由 Agent 使用待训练模型处理这些请求,并直接调用生产环境中的真实工具完成任务;整个交互过程被完整记录,并结合预设规则或用户反馈生成对应的奖励信号;当积累足够数量的带奖励轨迹后,系统自动触发训练,利用这些真实、高保真的数据对模型进行增量优化,从而真正实现“使用即学习,越用越聪明”的自进化能力。

核心价值

本方案通过在 AgentScope Java 中原生集成在线训练能力,为 Java Agent 开发者提供以下关键价值:

  • 无需模拟生产环境工具链:在线训练直接复用线上已部署的真实工具(如内部 API、数据库、业务系统等),避免为训练单独构建 Mock 工具。这不仅显著降低集成成本,更有效规避因 Mock 工具与线上实际行为不一致所引发的行为偏差风险,确保训练数据的真实性与模型泛化能力。
  • 真实数据驱动的持续优化:Agent 在处理真实用户请求时,自动采集包含完整工具调用序列、系统状态与上下文反馈的交互轨迹,并用于增量训练。无需等待历史日志积累,即可实现快速冷启动与持续迭代。
  • 极简集成,开箱即用:开发者仅需提供训练配置、自定义奖励函数即可开始训练;数据采集、轨迹存储、训练调度、等流程由框架自动完成,大幅降低工程复杂度。
  • 统一训练接口,覆盖主流优化范式:底层深度集成 Trinity-RFT(v0.4+),原生支持监督微调(SFT)、知识蒸馏及 PPO 等强化学习算法,未来将扩展至 GRPO 等先进方法。开发者无需切换训练框架,亦无需深入分布式训练细节,即可使用前沿优化技术。

架构设计

本方案采用解耦式架构,将在线训练流程划分为三个独立组件,支持灵活部署与弹性扩展:

image

  • Agent Runner(用户侧):由开发者自行部署和管理的 Java Agent 应用,负责处理真实用户请求。它通过标准 RESTful API 与 Explorer 通信,无需 GPU 资源,亦不受训练框架约束。
  • Explorer(推理服务):作为在线推理网关,接收来自 Agent Runner 的请求,执行 LLM 推理与工具调用,并记录完整的交互轨迹(包括输入、输出、工具调用序列、状态变更等)。同时提供 OpenAI 兼容接口,支持热加载最新模型 checkpoint。
  • Trainer(训练服务):从共享存储(如 SQLite 或 SQL 数据库)中读取新采集的轨迹数据,执行 SFT 或 RFT 训练,并将更新后的模型 checkpoint 写入共享文件系统,供 Explorer 实时加载。

三者通过轻量级协议协同工作:

  • Agent Runner 与 Explorer 通过 HTTP 通信;
  • Explorer 与 Trainer 共享文件系统(用于模型同步)和数据库(用于轨迹存储);

Agent Runner、Explorer 和 Trainer 可以部署在不同的服务器上。其中 Agent Runner 由用户自行管理,只需要保证网络与 Explorer 互通,无需 GPU 资源。而 Explorer 和 Trainer 需要通过 Trinity-RFT 部署在 GPU 服务器上,且需要保证两者可以访问同一个共享文件系统,以便 Trainer 保存的模型检查点可以被 Explorer 读取。

安全与约束

为保障生产环境稳定性,在线训练当前默认仅支持只读工具调用。若涉及写操作(如创建订单、发送消息),需由开发者通过幂等设计、沙箱机制或人工审核等方式确保重放安全。

此外,当前训练范式原生支持单轮用户-Agnet 交互。对于多轮对话或复杂任务流,需开发者显式建模状态转移或采样策略。

快速开始

Maven 依赖

<dependency>
    <groupId>io.agentscope</groupId>
    <artifactId>agentscope-extensions-training</artifactId>
    <version>${agentscope.version}</version>
</dependency>

定义请求筛选逻辑

请求筛选逻辑用于筛选出需要用于训练的请求。

内置策略

SamplingRateStrategy - 随机采样。所有线上请求按照百分比进行筛选。

TrainingSelectionStrategy strategy = SamplingRateStrategy.of(0.1);  // 10%

ExplicitMarkingStrategy - 用户显式标记重要请求。

TrainingSelectionStrategy strategy = ExplicitMarkingStrategy.create();
// 在你的应用代码中显示标记请求用于训练
TrainingContext.mark("high-quality", "user-feedback");
agent.call(msg).block();  // 这个请求会被用于训练

自定义策略

您可以参考 SamplingRateStrategy(基于固定采样率的随机筛选)或 ExplicitMarkingStrategy(基于显式标记的主动筛选)的实现方式,自行实现 TrainingSelectionStrategy 接口,并在 shouldSelect 方法中嵌入符合您业务场景的请求筛选逻辑。该方法在每次 Agent 处理用户请求前被调用,您可以基于以下维度动态决定是否将本次交互纳入训练数据集:

  • 业务价值:例如,根据您 Agent 的应用场景评估用户的请求价值;
  • 交互质量:例如,过滤掉过短、模糊或明显无效的用户输入;
  • 合规与安全策略:例如,排除包含敏感信息或不符合数据治理要求的对话。

通过自定义筛选策略,您可以在控制训练数据规模的同时,显著提升样本的相关性与训练效率,避免将大量低价值或噪声数据引入训练流程。尤其在在线训练资源有限或强调数据隐私的场景下,精细化的筛选机制是保障训练效果与系统稳定性的关键环节。

定义奖励函数

您可以实现 RewardCalculator 接口,并在 calculate 方法中根据您的业务需求自定义您的奖励计算逻辑。该方法的参数是 Agent,你可以从中获取 Agent 相关的所有信息,例如 Memory、Context 等。通过利用用户输入、Agent 的响应、工具调用序列、工具返回结果等信息,基于实际业务指标(如任务完成度、响应准确性等)动态评估 Agent 行为的质量。

一般而言,奖励值归一化到 0 到 1 之间的浮点数:

  • 接近 1 表示 Agent 行为高度符合预期(例如:正确调用工具、返回准确答案、完成用户目标);
  • 接近 0 表示行为存在偏差或失败(例如:工具调用错误、信息遗漏、逻辑混乱);
  • 中间值可用于表达部分成功或需权衡的场景(例如:响应速度与准确性之间的 trade-off)。

典型实现方式包括:

  • 基于规则的评分(如关键词匹配、JSON Schema 校验、业务状态校验);
  • 调用外部反馈系统(如用户显式评分、A/B 测试指标、运维告警状态);
  • 结合模型打分(如使用 LLM 模型判断回答相关性)。

启动训练后端

安装 Trinity

在安装之前,请确保您的系统满足以下要求,推荐使用源码安装:

  • Python:版本 3.10 至 3.12(含)
  • CUDA:版本 >= 12.8
  • GPU:至少 2 块 GPU(取决于您待训练模型的显寸需求)
git clone https://github.com/agentscope-ai/Trinity-RFT
cd Trinity-RFT
pip install -e ".[dev]"
pip install flash-attn==2.8.1

配置训练配置

编写 Explorer 服务配置
mode: serve  # set to 'serve' for online inference service
project: test  # set your project name
name: test  # set your experiment name
checkpoint_root_dir: CHECKPOINT_ROOT_DIR  # set the root directory for checkpoints, must be an absolute path, and should be on a shared filesystem
model:
  model_path:  /path/to/your/model # set the path to your base model
  max_model_len:  8192
  max_response_tokens: 2048
  temperature: 0.7
algorithm:
  algorithm_type: "ppo"  # current version only supports ppo for online training (group is not supported yet)
cluster:
    node_num: 1
    gpu_per_node: 4  # suppose you have 4 GPUs on the node
explorer:
  rollout_model:
    engine_num: 2
    tensor_parallel_size: 2  # make sure tensor_parallel_size * engine_num <= node_num * gpu_per_node
    enable_openai_api: true
    enable_history: true
    enable_auto_tool_choice: true
    tool_call_parser: hermes
    # reasoning_parser: deepseek_r1  # if using Qwen3 series models, uncomment this line
    dtype: bfloat16
    seed: 42
  service_status_check_interval: 10  # check new checkpoints and update data every 10 seconds
  proxy_port: 8010  # set the port for Explorer service
# trainer:
#   save_interval: 1  # save checkpoint every step
#   ulysses_sequence_parallel_size: 2  # set according to your model and hardware
buffer:
  train_batch_size: 16 
  trainer_input:
    experience_buffer:
      name: exp_buffer  # table name in the database
      storage_type: sql
      # path: your_db_url  # if not provided, use a sqlite database in checkpoint_root_dir/project/name/buffer
synchronizer:
  sync_method: checkpoint
  sync_interval: 1
monitor:
  monitor_type: tensorboard
编写 Trainner 服务配置
mode: train  # set to 'train' for training service
project: test  # set your project name, must be the same as in Explorer
name: test  # set your experiment name, must be the same as in Explorer
checkpoint_root_dir: CHECKPOINT_ROOT_DIR  # set the root directory for checkpoints, must be the same as in Explorer
model:
  model_path: /path/to/your/model # set the path to your base model, must be the same as in Explorer
  max_model_len:  8192  # must be the same as in Explorer
  max_response_tokens: 2048  # must be the same as in Explorer
  temperature: 0.7  # must be the same as in Explorer
algorithm:
  algorithm_type: "ppo"  # current version only supports ppo for online training (group is not supported yet)
cluster:
    node_num: 1
    gpu_per_node: 4  # suppose you have 4 GPUs on the node
buffer:
  train_batch_size: 32        # trainer consumes samples per step
  trainer_input:
    experience_buffer:
      name: exp_buffer  # table name in the database, must be the same as in Explorer
      storage_type: sql
      # path: your_db_url  # if not provided, use a sqlite database in checkpoint_root_dir/project/name/buffer
trainer:
  save_interval: 16  # save checkpoint every step
  ulysses_sequence_parallel_size: 1  # set according to your model and hardware
  save_hf_checkpoint: always
  max_checkpoints_to_keep: 5
  trainer_config:
    trainer:
        balance_batch: false
        max_actor_ckpt_to_keep: 5
        max_critic_ckpt_to_keep: 5
synchronizer:
  sync_method: checkpoint
  sync_interval: 1
    
monitor:
  monitor_type: tensorboard

启动训练后端环境

启动 Explorer 和 Trainer 服务前需要启动 ray 集群。

ray start --head

分别启动 Explorer 与 Trainner 服务。

trinity run --config explorer.yaml
trinity run --config trainer.yaml

启动 Explorer 服务后,会将服务地址打印在日志中,一般端口为 8010。

配置在线训练与启动 Agent

配置选项

TrainingRunner trainingRunner = TrainingRunner.builder()
        .trinityEndpoint(TRINITY_ENDPOINT) //Trinity Explorer服务地址
        .modelName(TRAINING_MODEL_NAME)//对应Trinity配置中model_path
        .selectionStrategy(new CustomStrategy())
        .rewardCalculator(new CustomReward())
        .commitIntervalSeconds(60*5)//训练数据提交时间间隔
        .repeatTime(1)//每一个训练请求被训练次数
        .build();
trainingRunner.start();

参考示例

import io.agentscope.core.training.runner.TrainingRunner;
import io.agentscope.core.training.strategy.SamplingRateStrategy;
// 1. 启动训练 runner(无需 Task ID/Run ID!)
TrainingRunner runner = TrainingRunner.builder()
        .trinityEndpoint("http://trinity-backend:8010")
        .modelName("/path/to/model")  
        .selectionStrategy(SamplingRateStrategy.of(0.1))  // 10% 采样
        .rewardCalculator(new CustomReward())  // 自定义奖励计算逻辑
        .commitIntervalSeconds(300)  // 每 5 分钟 commit 一次
        .build();
runner.start();
// 2. 正常使用你的 Agent - 完全无感知训练!
ReActAgent agent =
                ReActAgent.builder()
                        .name("Assistant")
                        .sysPrompt("You are a helpful AI assistant. Be friendly and concise.")
                        .model(
                                DashScopeChatModel.builder()
                                        .apiKey(apiKey)
                                        .modelName("qwen-plus")
                                        .stream(true)
                                        .formatter(new DashScopeChatFormatter())
                                        .build())
                        .memory(new InMemoryMemory())
                        .toolkit(new Toolkit())
                        .build();
// 用户请求正常处理(使用 GPT-4),自动采样10%请求用于训练
Msg response = agent.call(Msg.userMsg("搜索 Python 教程")).block();
// 3. 训练完成后停止
runner.stop();

训练效果

下面的 Demo 中,通过在线训练的方式,使用 PPO 强化学习算法优化 SQL Agent。

SQL Agent 功能介绍

image

用户向 SQL Agent 发送请求,例如:

DB: department_management

Question: List the creation year, name and budget of each department.

Agent 基于自然语言问题和目标数据库的 schema 生成一条  SELECT 语句,并通过 execute_query 工具在真实数据库中执行,以验证其可执行性与结果正确性。

若 SQL 执行成功且返回结果符合语义预期,则直接返回;否则,Agent 将结合执行错误信息与数据库 schema 进行迭代修正。

整个过程最多重试 N 轮(如 3 轮),当 SQL 验证通过或达到最大重试次数时,Agent 终止循环,返回当前最优 SQL。

为确保安全性,execute_query 工具严格限制仅允许执行 SELECT 语句,禁止任何数据修改操作,从而有效防止对数据库造成意外破坏。

在线训练

训练目标

在该场景下,提升 Qwen2.5-Coder-1.5B-Instruct 的 SQL 生成准确率。

训练配置

奖励函数

奖励函数关注两个方面:

1)SQL Agent 生成的 SQL 语句是否语法正确且可成功执行?

通过代码实际执行 SQL 语句。

2)SQL Agent 生成的 SQL 语句能够满足用户的需求?

LLM 评判:将用户的问题,数据库表的定义、生成的 SQL 语句、SQL 语句的执行结果在 SyStemPrompt 拼装后,传递给 LLM(qwen-max),让 LLM 判定 SQL 语句是否符合用户意图。

image

框架 Runner 配置
trainingRunner = TrainingRunner.builder()
                .trinityEndpoint(TRINITY_ENDPOINT)
                .modelName(TRAINING_MODEL_NAME)
                .selectionStrategy(SamplingRateStrategy.of(1.0))
                .rewardCalculator( new SqlAgentReward())
                .commitIntervalSeconds(60*5) # 每五分钟commit一次
                .build();

由于数据集的数据可以视为筛选后的优质数据集,因为采用采样方式筛选请求时采样频率为 1.0,所有请求都将被用于训练。

训练效果评估

评估指标

任务难度

SQL 难度基于三个维度的得分来判定:

  • Component1(基础组件) - 统计 7 种基础结构:WHERE、GROUP BY、ORDER BY 、LIMIT、JOIN(表数-1)、OR 、LIKE(LIKE的数量);
  • Component2(嵌套查询) - 统计嵌套和集合操作:子查询(WHERE/FROM/HAVING 中的嵌套 SQL)、UNION、INTERSECT、EXCEPT;
  • Others(其他复杂度) - 统计额外的复杂因素:多个聚合函数(>1个)、多列 SELECT、多个 WHERE 条件、多个 GROUP BY 列。
SQL 语句准确度

由于 SQL 语句有多种等效写法,需要根据实际的数据库执行结果是否准确判定 SQL 语句的正确性。

二元判定准确性:生成 SQL 与 Ground Truth SQL 在目标数据库上执行结果是否一致。

评估数据与评估结果

本 Demo 采用 Spider 数据集中的测试集部分进行评估。测试集中共有 1000 条数据,评估脚本会并行发送测试请求,获取 SQL Agent 的真实返回。

训练前 Agent 性能表现

在 FC 上部署 Qwen/Qwen2.5-Coder-1.5B-Instruct 模型,Agent 使用该模型对外提供服务,1000 条测试数据评估指标结果如下:

## Summary
- **Total Samples:** 1000
- **Execution Accuracy:** 47.60%
## Scores by Difficulty
| Difficulty | Count | Exec Accuracy | Percentage |
|------------|-------|---------------|------------|
| easy | 327 | 0.612 | 61.16% |
| medium | 445 | 0.449 | 44.94% |
| hard | 140 | 0.357 | 35.71% |
| extra | 88 | 0.295 | 29.55% |
| all | 1000 | 0.476 | 47.60% |
---
训练后 Agent 性能表现

将训练后的模型通过 NAS 部署至 FC 上,Agent 使用训练后的模型对外提供服务,1000 条测试数据评估指标结果如下:

## Summary
- **Total Samples:** 1000
- **Success Count:** 1000
- **Error Count:** 0
- **Success Rate:** 100.00%
- **Execution Accuracy:** 65.70% (based on 1000 successful evaluations)
## Scores by Difficulty
| Difficulty | Count | Exec Accuracy | Percentage |
|------------|-------|---------------|------------|
| easy | 327 | 0.844 | 84.40% |
| medium | 445 | 0.616 | 61.57% |
| hard | 140 | 0.529 | 52.86% |
| extra | 88 | 0.375 | 37.50% |
| all | 1000 | 0.657 | 65.70% |
---

经过训练后,SQL Agent 在四种不同难度的 SQL 语句下准确率均有提升,easy 难度下准确率提升 23.24%,medium 难度下准确率提升 16.63%,hard 难度下准确率提升 17.15%,extra 难度下准确率提升 7.95%,整体执行准确率提升 18.1%。

欢迎参与社区贡献

Star 一下不迷路!⭐

项目地址:AgentScope Java

https://github.com/agentscope-ai/agentscope-java

AgentScope Java 框架还支持更多玩法,所有的核心能力都有对应的 Example,欢迎大家体验:

  • 实时人类介入
  • PlanNotebook,先规划后执行
  • 结构化输出
  • AI 狼人杀
  • ……

同时社区也在快速演进中,你可以通过提交 Issue 反馈问题,或者直接提交 Pull Request 贡献代码。让我们一起把这个项目做得更好!欢迎加入 AgentScope 钉钉交流群,群号:146730017349。🚀

数字经济纵深发展,数据库作为基础软件的 “核心底座”,其流行度格局的迭代背后,是技术创新的突围与国产替代的深化。2026 年 2 月墨天轮社区的中国数据库流行度排行榜如期揭晓,本期榜单亮点纷呈、格局焕新:其中 再次PolarDB 登顶,金仓、TiDB 亦同步迎来排名攀升,这不仅折射出国内数据库产业的高速发展态势,更彰显了国产数据库在场景落地、生态构建上的全面实力。

一、PolarDB 再领航,金仓 TiDB 齐向上

本月数据库前十格局迎来7家产品排名变动,两大核心趋势愈发凸显:一方面,AI原生已成为头部厂商的核心竞争力,PolarDB、TiDB等通过AI能力内置、多模态数据管理,精准适配AI时代复杂需求;另一方面,国产化替代迈入全场景攻坚阶段,金仓、达梦等在能源、汽车、金融等关键领域规模化落地,充分验证国产数据库的性能与稳定性。其中,PolarDB与TiDB凭借新品发布会的技术突破、产品升级及战略布局实现排名攀升,其核心动作不仅彰显自身实力,更折射出AI时代数据库的发展方向。接下来就和小编一起盘点榜单前十部分产品表现。

image.png{{{width="auto" height="auto"}}}
图1:排行榜前十数据库产品得分情况

本月 PolarDB 登顶中国数据库排行榜,这是其自2025年3月以来再度夺冠,而1月开发者大会上的系列技术发布,正是其实现排名跃升的关键支撑。PolarDB在此次大会上正式发布全新产品能力,包括AI数据湖库(Lakebase)、模型算子化以及面向Agent应用开发的托管能力,并首次阐释了“AI就绪数据库”的四大核心支柱——多模态AI数据湖库、高效融合搜索能力、模型算子化服务及面向Agent应用开发的后端服务,率先跳出“数据库+AI外挂”的浅层协同,定义了“AI就绪数据库”新标准。

image.png{{{width="auto" height="auto"}}}
图2:发布会上,PolarDB 提出 “AI in DB” 技术理念

目前,PolarDB海内外用户规模已超2万,部署规模超300万核,覆盖全球86个可用区;同时,其秉持“云原生→AI就绪→AI原生”的前瞻性战略,搭配AI实训营、全球数据库大赛等生态举措,构建起“技术-应用-人才”的正向循环成功从“数据存储工具”升级为“AI协同核心引擎”,进一步巩固了在云原生数据库领域的绝对领先地位。

本月OceanBase 以710.35分居第二,其领跑地位并非单一优势支撑,而是构建了“技术硬核打底、金融场景深耕、生态反哺增长”的完整闭环。IDC报告显示其以2810万美元营收连续两次拿下分布式事务数据库本地部署第一,包含公有云的整体市场中位列独立厂商第一,4000+商业化客户与连续5年超100%的增速,印证了市场对其技术实力的高度认可。

深耕金融核心场景是其核心壁垒:服务全部政策性银行、5/6国有大行及超100家千亿级银行,支撑190余个核心系统;中邮证券TB级数据1小时极速切换、金谷国际信托事务效率提升30%的“鼎信杯”获奖案例,更是其在高并发、高可靠场景下的实力背书。技术上,作为全球唯一在TPC-C和TPC-H测试中均破世界纪录的国产分布式数据库,OB4.4版本向量搜索性能升级,多模能力获Forrester认证;生态层面,通过教育部A类数据库大赛五年覆盖500余所高校、超1.1万名学生,形成“技术输出-人才培养-产业落地”的正向循环,让其在金融数据库赛道的领先地位持续巩固。

image.png{{{width="auto" height="auto"}}}
图3:IDC报告显示 OceanBase 居中国分布式事务数据库本地部署市场第一

达梦数据库以 679.78 分稳居第三,其核心竞争力深深根植于 “战略引领、生态赋能、创新驱动” 的发展主线。2025 年,达梦将国产数据库人才培养与产教融合作为发展重点,全年培养超 2 万人次,覆盖近 2000 家企事业单位、10 余个行业,为产业发展输送大量专业技术人才;同时深化产教融合布局,合作教材入选 “十四五” 规划教材,参与人才标准建设并拓展 “一带一路” 国际培训。

人才积累的成果持续转化为行业落地的硬核能力,二者形成深度联动的良性循环:赛迪顾问最新报告显示,达梦已连续 2 年位居金融集中式数据库国内厂商第一,在银行、保险、证券各大子市场实现全线领跑。近日达梦更成功完成年度财务结账,覆盖 300 余家核算主体、日均处置 10 余万笔凭证,还能平稳承接近 20 年全量历史数据,在企业关键业务考验中稳定运行,彰显了产品极致的可靠性与稳定性。

金仓数据库以 604.72 分上升 1 位至第四,其在关键行业国产化替代中的全域渗透与标杆引领,各领域落地成果形成合力,彰显产品硬实力。能源领域,完成中煤集团行业首例裸金属多租户国产化部署,支撑 50 + 生产运营系统;电力领域中标国家电网数字化项目,省级调控云等场景市占率超 40%。

依托多领域的扎实落地,金仓进一步拓宽国产化覆盖边界:汽车制造端,为中国一汽部署 2400 + 套数据库,适配 300 + 应用系统并覆盖红旗生产全流程,联合发布国内首部国产化替换迁移技术标准;同时落地中国中车采购合作,构建 “能源 — 电力 — 汽车 — 制造” 全场景布局,充分验证复杂业务场景下的产品成熟度。

金篆信科GoldenDB 以558.37分居第五,作为内核100%自主掌控的分布式数据库,其可用性达99.9999%,历经金融行业多年严苛考验。近期核心落地成果落地:证券领域,助力广发证券完成NBOP平台迁移,重构160亿条数据且业务零中断,核心接口TPS达4600,CPU与内存占用均大幅降低;银行领域,斩获浙商银行近930万元采购大单,自主迁移工具大幅提升迁移效率。依托分布式架构的高并发、大容量、强一致优势,GoldenDB已全面覆盖政策性银行、国有大行、大型券商等金融核心场景

本月TiDB以490.18分实现前十最大涨幅,上升2位至第六,1月平凯数据库发布会核心聚焦“一核三生”部署模式与内核升级,基于统一内核衍生三种适配不同场景的部署模式,兼顾灵活性与性能。

结合此次发布内容,TiDB的产品趋势也清晰显现,且高度契合AI时代数据库发展方向:一方面走“内核统一、部署多元”路线,规避架构碎片化,实现场景全覆盖、简化企业选型;另一方面深化AI与数据库协同,兼顾云原生与私有化部署,在提升性能的同时控制成本,这也是未来数据库的核心竞争方向。从产品趋势来看,TiDB此次发布会释放的信号,精准契合AI时代数据库发展逻辑:内核统一化、“AI与数据库深度协同”、“云原生与私有化协同演进”、“场景全覆盖,简化选型成本”。目前 TiDB 已获得市场广泛认可:全球客户超 4000 家(覆盖 25 个国家),DB-Engines 全球排名跻身前 100(关系型数据库领域第 38 位),国内更落地北京银行信用卡系统、福建广电协维服务等标杆项目,技术升级与市场落地的双向驱动,共同推动其榜单排名实现显著跃升。

本月,GBASE南大通用位列榜单第八位,市场布局持续深化,核心业务成果稳步落地。企业业务端捷报频传,尤其在金融领域实现连续中标与项目落地:1 月拿下国家开发银行 2822 万元项目为当月数据库行业最大中标项目;并相继中标广西北部湾银行、江西农村商业联合银行等金融机构项目,GBase 数据库在银行业一表通领域市场占有率已超 40%。据赛迪顾问《中国金融数据库市场研究报告》显示,GBase 集中式与分布式数据库均跻身金融业(含银行、保险)领导者象限,同时占据金融业用户渗透率第一、云数仓市场占有率第一,充分彰显其作为金融级市场 “全栈数据库领导者厂商” 的强劲实力。此外,南大通用在电信、医疗等行业也顺利完成多项项目交付。同期,GBase 数据库全国第二总部 —— 湖南吉贝思数据技术有限公司正式落户长沙高新区麓谷产业园,不仅进一步完善了企业区域布局,更标志着南大通用在全国战略布局中迈出关键一步。

YashanDB以 428.55 分稳居第十,虽排名未变,但通过重磅方案发布与深度战略合作,持续夯实行业竞争力,彰显国产数据库生态布局的扎实成效。

其核心动作聚焦生态协同与方案落地:一方面联合云和恩墨发布数据库一体机解决方案,基于 zData X 平台适配 YashanDB V23 版本,覆盖全栈信创软硬件,提供全生命周期服务,同时双方从产品研发、市场开拓、客户服务、生态赋能四大维度深化合作,加速关键业务国产化替代。另一方面,1 月 26 日与曙光云正式签署战略合作协议,围绕信创生态、技术创新、行业方案落地深度协作,开启 “数据库 + 云计算” 融合新篇章,进一步拓宽市场覆盖边界。

二、细分赛道亮锋芒,多域竞放皆有光

本月数据库榜单中,多款聚焦不同细分领域的数据库产品表现亮眼,涵盖时序、信创、云原生、向量等多个赛道。它们或凭借全年积淀实现排名稳步提升,或依托核心技术突破彰显竞争力,或通过版本升级实现排名跃升,以下结合各产品榜单排名及近期核心表现,展开详细解读。

image.png{{{width="auto" height="auto"}}}
图4:本月亮点数据库得分情况

作为聚焦时序数据领域的核心数据库产品,TDengine本月表现稳健,以396.82分上升1位至第12名。回顾2025年,产品端TDengine TSDB持续迭代,推出AI原生工业数据管理平台TDengine IDMP并完成10次大版本更新;业务端年营收连续四年翻倍,付费客户超1000家;生态端蝉联墨天轮时序数据库榜首,全球安装量突破97万套。近期,其助力京能集团搭建储能安全管理平台,与沈阳化工研究院达成合作,并拓展欧洲渠道,进一步巩固时序数据库领域核心地位,也为本次排名提升奠定了坚实基础。

除时序数据库领域外,Apache IoTDB 本月亦有稳健表现,位居榜单第19位。虽排名未出现明显波动,但近期两大核心突破亮点突出,既彰显了其自身技术硬实力,也进一步巩固了其在工业物联网时序数据库领域的行业地位。1月,基于其开发的TimechoDB与海光C86芯片、KeyarchOS操作系统组合,在国际权威TPCx-IoT测试中以2465万IoTps速率夺冠,创下“国产CPU+数据库”性能世界纪录;1月22日,其分布式时序数据管理系统入选工信部2025年度国家重点研发计划高新技术成果产业化试点名单,印证其在基础软件领域的研发积累与产业化实力。

虚谷数据库在近期榜单中排名跃升 4 位,同时斩获重磅行业荣誉,以 “技术硬实力 + 生态强协同” 实现双重突破,行业认可度再获权威印证。1 月 26 日,虚谷伟业在成都市信创密码适配服务中心年度表彰会上获评 “2025 年度优秀合作伙伴”,与华为、海光信息、麒麟软件等信创领域头部企业同榜登科,这一荣誉不仅彰显了虚谷在信创数据库赛道的核心技术实力,更印证了其在区域信创生态建设中的深度协同能力与行业标杆价值。

在云原生数据库领域,He3DB本月表现可圈可点,以56.88分位列第23名。作为移动云自研的核心数据库产品,其凭借近期在技术、荣誉、落地三大维度的亮眼表现,稳步提升竞争力,排名也保持稳步发展态势。作为移动云自研云原生数据库,其采用存算分离、冷热分层架构,实现全栈信创兼容;近期斩获墨天轮“2025年度最具潜力数据库”奖,两项成果入选大数据“星河”案例;已在党政、教育领域规模化应用,同时支撑移动云盘等核心业务,服务千万级用户,契合云原生+自主可控发展趋势。

向量数据库领域,Milvus本月成为榜单中的“潜力选手”,排名上升4位至第25名。此次排名的显著攀升,与其中期版本升级的核心成效直接相关,新版本带来的降本增效优势,进一步释放了其产品竞争力。本月Milvus排名上升4位至第25名,核心得益于1月15日Milvus 2.6.x正式在Zilliz Cloud云上GA。该版本通过三层分层存储架构将存储成本降低87%、计算支出减少25%,新增多种数据类型,实现元数据过滤提速100倍、BM25全文搜索速度较Elasticsearch快4-7倍,覆盖五大主流云平台,成为全托管、生产就绪的AI应用开发平台,助力其排名实现显著提升。

三、专家解读

为了帮助大家更好地理解榜单背后的行业动态,【中国数据库流行度排行榜】解读每月特邀国产数据库领域的资深专家进行深度解读。他们将结合榜单数据,分析行业发展趋势,剖析技术演进方向,为从业者和关注者提供专业、前瞻的参考视角。本期我们特别邀请到墨天轮MVP 徐小强 带来深度解读。

image.png{{{width="auto" height="auto"}}}

徐小强:墨天轮 MVP、Oracle ACE、连续多年荣获墨天轮“墨力之星”

墨天轮2月排行榜发布,共计 160 款数据库参与排行,本次排行榜头部Top 10 变化不小,7家厂商排次上下波动,PolarDB 更是击败 OceanBase 来到榜首,金仓、TiDB 名次也在上升,反观GoldenDB 与 TDSQL、GBASE 则各降一名,达梦、高斯、崖山则是纹丝不动。下面则是我个人的一点见解与解读,仅供参考。

1. 头部竞争进入“生态与场景”综合博弈阶段

本月榜单最引人注目的变化是PolarDB重登榜首,终结了OceanBase长期领跑的局面。这并非偶然,而是阿里云在AI原生战略上持续投入的必然结果。回顾2025年3月PolarDB曾短暂登顶,但此后因离线部署场景的规模化应用不足,排名一度波动。而本次凭借1月开发者大会发布的“AI就绪数据库”四大支柱(多模态AI数据湖库、融合搜索、模型算子化、Agent托管能力),PolarDB率先跳出“数据库+AI外挂”的浅层模式,实现了从“云原生”到“AI就绪”的跃迁。

2. AI原生成为分水岭,数据库价值从“工具”转向“引擎”

本月排名攀升的产品(如PolarDB、TiDB、Milvus)均有一个共同点:将AI能力深度内化至数据库内核。PolarDB 发布“AI就绪数据库”,TiDB通过“一核三生”部署模式实现AI与数据库协同,Milvus 2.6.x版本凭借分层存储将向量检索成本降低87%。

事实上,数据库的竞争焦点已从“兼容Oracle”慢慢转向“适配AI时代复杂需求”。PolarDB的Lakebase打破数据孤岛,TiDB统一内核覆盖云原生与私有化场景,均体现了“DB for AI”与“AI for DB”的双向赋能。这一趋势要求厂商必须在多模态数据管理、向量检索、智能运维等方向持续迭代,否则将在淘汰赛中掉队。

3. 细分赛道亮眼,但长期生存需警惕“赛道过窄”风险

尽管 Milvus、TDengine 等在向量、时序等细分领域表现亮眼,但头部厂商正通过内置多模能力(如 OceanBase与金仓等数据库的多模融合能力)挤压独立产品的市场空间,细分赛道虽为中小厂商提供差异化机会,但若无法融入主流生态,恐难逃整合命运,还是希望这些细分领域的玩家加快与行业场景深度绑定,才能有一线生存空间。

展望2026:淘汰赛加剧,生态与人才成决胜关键

随着国产化替代进入核心系统深水区,企业选型更趋理性,倾向于收敛技术栈。与此同时,DBA 需从传统运维向“精通内核、深谙业务、善用 AI”的复合型角色转型。总之,2026年的榜单将进一步呈现“金字塔”结构,下一步,具备全栈能力与行业生态的头部厂商将进一步锁定优势,而中尾部玩家需通过垂直深耕或联合生态寻求差异化生存空间。


相关阅读

原文链接https://www.modb.pro/db/2019721785730752512

欲了解更多可浏览墨天轮社区,围绕数据人的学习成长提供一站式的全面服务,打造集新闻资讯、在线问答、活动直播、在线课程、文档阅览、资源下载、知识分享及在线运维为一体的统一平台,持续促进数据领域的知识传播和技术创新。

关注官方公众号: 墨天轮、 墨天轮平台、墨天轮成长营、数据库国产化 、数据库资讯

我们单位 25 号开始上班 然后我 25 号上班的时候提交了一个调休申请 27 号调休 一整天 理由是带家里小孩去检查 然后早上领导问我 小孩怎么了 我说新生儿额头有个鼓包 去医院看看要不要紧 我本来以为是关心 然后问我 这个需要一整天嘛 我说检查啥的 差不多 然后紧接着就是说 “这样,你先请半天,如果真需要检查,回不来,就再提一个,并附加检查记录,OK ? ”我当时就无语了 我说那要不我年假 年假不用理由吧 领导说 年假更麻烦 我说那压力到底来自于哪里 要不我去问问你的领导 能不能请假 然后我们领导说 那算了 我给你批准吧 我以为这就结束了 然后今天早上 我领导的领导 又发消息问我 你这个就诊需要一整天嘛 我当时就无语了 逐级审批原来是这个意思呢 一个一个来问我?知道的以为我是请假一天 不知道的以为我是请假整个月

当你正为自己的初创公司或团队寻找一款 CRM客户关系管理 系统时,
看到“永久免费”这四个大字,是不是感觉像在沙漠里发现了绿洲,心跳都漏了半拍?
我们都懂,对于创业者来说,“免费”简直是世界上最动听的词汇。
但是,请先冷静一下。你有没有想过,这块看似美味的馅饼,背后会不会连着一个精心设计的陷阱?
市面上许多所谓的“永久免费CRM”,
它们用“免费”作为诱饵,吸引你上钩,等你投入了时间、精力和宝贵的客户数据后,才发现自己早已被套牢!

今天,我总结了免费CRM常见的五个大坑,帮你擦亮眼睛,避开陷阱。并为你提供一个真正可持续的解决思路,以专业、开放、安全的平台,如纷享销客从一开始就为企业打下健康增长的基础,而不是在未来被迫支付更高的“隐性成本”。

第一大坑:功能阉割——“免费”只是试用版的代名词

免费CRM最经典、也最常见的套路,就是功能上的“阉割”。它们慷慨地为你敞开大门,但进去之后你才发现,这只是一个空旷的前厅,所有通往核心功能区的房间都挂着“付费解锁”的牌子。
你所获得的“免费版”,本质上只是一个功能极其有限的试用版,
其主要目的不是为了让你高效工作,而是为了让你感受到“没有高级功能是多么痛苦”,从而心甘情愿地掏钱升级。
这种“功能阉割”策略通常体现在以下3个方面,而这些功能的缺失,会直接影响你的业务效率和增长潜力:

1、自动化工作流:

它能自动完成诸如“新线索进入后自动发送欢迎邮件”、“客户生日时自动发送祝福”等重复性任务。
在免费版中,这项功能通常被完全移除或严格限制。
结果呢?你的团队只能把宝贵的时间浪费在手动录入、复制粘贴和发送提醒上,不仅效率低下,还极易出错。

2、高级报告与数据分析:

你想知道哪个渠道的客户转化率最高?你想分析销售团队的业绩漏斗吗?
抱歉,免费版通常只提供最基础的报表,比如客户总数。
那些能让你洞察商机、优化策略的深度分析功能,一概欠奉。
没有数据指导决策,你的企业就如同一艘在黑夜里盲目航行的船,随时可能触礁。

3、API集成与第三方应用连接:

现代企业运营依赖于多种工具的协同工作,如邮件营销、财务软件、在线客服等。
API集成就是将这些工具与CRM连接起来的桥梁。免费版往往会关闭或限制API接口,导致你的CRM成为一个数据孤岛。客户信息无法同步,工作流程被割裂,团队不得不在不同系统间手动迁移数据,效率大打折扣。  
与其在功能残缺的工具上耗费精力,不如选择像纷享销客这样以“可配置、可定制、可集成”为核心的平台。纷享销客的PaaS平台能力和低代码工具,意味着你无需昂贵开发就能搭建贴合自身业务流程的自动化工作流、报表和连接器,从起点就实现效率最大化,而非处处受限。

第二大坑:用户/联系人数量限制——“免费”的团队长不大

“恭喜!您的团队迎来了第4位成员!”
“太棒了!我们的客户列表终于突破1000人了!”
这些本应是值得庆祝的里程碑,对于使用免费CRM的用户来说,却可能是一场噩梦的开始。
因为第二个大坑,就埋在用户数量和联系人(或客户)数量的限制上。
免费CRM通常会设定一个看似“够用”的上限,比如“最多支持3个用户”或“最多存储1000个联系人”。
在创业初期,这或许不成问题。但随着业务的发展,你的团队需要扩张,客户基础也在不断增长。
很快,你就会触碰到那条看不见的红线。
这时,系统会弹出一个冰冷的提示,摆在你面前的只有两个选择:
• 要么,支付一笔不菲的费用升级到付费版;
• 要么,就此打住,另寻出路。
选择付费升级,意味着你之前的“免费”体验宣告结束,开始进入持续付费的轨道。
而如果你选择“另寻出路”,则会面临一个更头疼的问题——数据迁移。
这绝不是简单的“复制粘贴”。数据迁移是一个极其耗时、耗力且充满风险的过程。
你需要导出所有客户资料、沟通记录、交易历史,再小心翼翼地导入到新的系统中,
同时还要保证数据格式的兼容性和完整性。
这期间,不仅需要投入大量的人力成本,还可能因为操作失误或系统不兼容导致关键数据丢失。
这种潜在的巨大转换成本,正是免费CRM绑架成长型企业的“杀手锏”。
它让你的“免费”起步,最终变成了一个阻碍你成长的沉重枷锁。 
企业的成长不应被工具束缚。纷享销客的核心设计理念之一就是支撑业务规模化。其系统架构和授权模式旨在伴随企业一起成长,你可以根据实际发展,平滑扩展用户数与数据容量,无需因基础限制而被迫中断业务连续性,或承受高风险、高成本的数据迁移。

第三大坑:隐藏的数据所有权与安全风险

如果说功能限制和用户数量限制是摆在明面上的“阳谋”,那么数据所有权和安全风险,则是一个更深层次、更隐蔽的陷阱。
当你注册一个免费CRM服务时,你是否会花时间仔细阅读过那份长达数十页、用词晦涩的服务条款?大多数人都不会,而这恰恰是风险所在。
一些不够规范的免费服务商,可能会在这些条款中埋下伏笔,模糊数据所有权的界限。
它们可能会声称对你上传的数据拥有某种形式的使用权,比如用于“改善服务”、“行业分析”甚至是匿名的商业报告。
这意味着,你辛辛苦苦积累的客户数据——这家公司的核心命脉和最宝贵的资产——可能在不知不觉中被他人利用。
你以为你在使用免费工具,实际上你可能正在用自己的核心资产为服务商的数据库“添砖加瓦”。
更严重的是数据安全问题。提供一个稳定、安全的云服务需要高昂的成本,包括顶级的服务器、数据加密技术、定期的安全审计和专业的运维团队。
你认为一个“免费”的服务商,会有多大的动力和预算来为你的数据提供银行级别的安全保障呢?它们的数据备份策略是否可靠?能否抵御黑客攻击?
一旦发生数据泄露,你的客户信息被曝光,不仅会严重损害公司信誉,甚至可能面临法律诉讼和巨额赔款。
将身家性命般的客户数据,托付给一个无法提供明确数据所有权和坚实安全保障的“免费”工具,无异于一场豪赌,而赌注是你企业的未来。 
数据主权与安全是企业的生命线,不容妥协。纷享销客将数据安全和客户资产归属视为最高准则,遵循严格的数据隐私法规。其提供银行级别的安全防护、多地备份和透明可控的数据管理策略,确保企业对自己的数据掌握完全的控制权,让管理者能安心专注业务发展,而非担忧数据风险。

第四大坑:缺失的技术支持——遇到问题你只能“自救”

想象一下这个场景:明天上午你有一个至关重要的客户演示,需要从CRM中调取一份关键的销售报告。
但就在这时,系统突然崩溃了,或者数据同步出现了诡异的错误。
你心急如焚,拼命寻找帮助,却发现所谓的“技术支持”只有一个冷冰冰的FAQ页面和一个几天才有人回复一次的社区论坛。
这,就是免费CRM用户在遇到问题时最真实的写照。
付费服务和免费服务之间,最悬殊的差距之一就在于客户支持。付费用户通常享有VIP待遇:7x24小时的在线聊天、专属的电话支持热线,
甚至是指定的客户成功经理,他们会手把手地帮你解决问题,确保你的业务顺利运行。
而作为免费用户,你基本上被视为“二等公民”。
当系统出现故障、操作遇到困难,或是需要进行复杂的数据导入导出时,你唯一的求助渠道往往就是公开的知识库和用户社区。
这意味着你必须像个侦探一样,在海量的帖子和文档中寻找可能与你问题相关的线索,然后自己动手尝试解决。这个过程不仅耗费大量宝贵时间,而且常常以失败告终。
当你最需要帮助、业务流程因此中断的时候,却发现求助无门,那种无力感和焦虑感足以让任何一个创业者崩溃。
一个可靠的CRM系统,不仅仅是一个软件,更是一项服务。
而“免费”二字,通常就意味着这项至关重要的服务被完全剥离了。
你省下的只是眼前的软件费用,却可能在未来因为一个无法及时解决的技术问题,付出更惨痛的代价。
专业服务是工具价值的重要组成部分。选择像纷享销客这样的专业CRM,意味着你不仅获得一套软件,更获得一个包括标准技术支持、在线客服、实施辅导在内的服务体系。确保在关键时刻,有专业的团队作为后盾,帮助快速解决问题,保障业务顺畅运行,将不确定性降至最低。

第五大坑:高昂的“升级”成本与厂商锁定效应

许多创业者抱着“先免费用着,等公司发展起来了再付费”的心态,选择了免费CRM。
这听起来很合理,但他们忽略了一个关键的经济学概念:转换成本和厂商锁定效应。
这正是免费CRM供应商最乐于见到的局面。
一旦你的团队深度使用某款CRM超过半年或一年,情况就完全不同了。
你的所有客户数据、销售记录、跟进历史都沉淀在这个系统里;
你的团队成员已经熟悉了它的操作界面和工作流程,甚至你可能已经围绕它建立了一套内部规范。
这时,让你更换到一个全新的CRM平台,成本将是巨大的。
这不仅仅是数据迁移的麻烦,还包括重新培训全体员工的成本、适应新系统导致短期效率下降的成本,以及放弃原有使用习惯的心理成本。
正是看准了你被高昂的“转换成本”牢牢绑住,CRM服务商在你不得不从免费版升级到付费版时,便掌握了绝对的定价权。他们提供的升级方案可能远不如市场上同类付费产品有竞争力,但你别无选择。
因为离开的代价太高,你被“锁定”了。
真正的成本效益,应着眼于长期总拥有成本。纷享销客的开放、连接理念,靠着强大的API和丰富的集成市场,让不同系统之间能轻松对接,既降低了耦合风险,也减少了被单一系统锁定的麻烦。再加上它透明的订阅模式,费用清晰可预期,企业能清晰评估长期投入,做出理性决策。

如何聪明地选择CRM系统,避免“免费”陷阱?

回顾我们揭露的这五个大坑:功能阉割、规模限制、数据风险、支持缺失和厂商锁定,不难得出一个结论:在商业软件领域,尤其是在关乎企业命脉的CRM系统上,“天下没有免费的午餐”。
那些打着“永久免费”旗号的产品,往往将真正的成本隐藏在未来的某个节点,等待着你自投罗网。
那么作为企业管理者,应该如何聪明地选择CRM,真正做到降本增效,而不是掉入陷阱呢?

这里有几条清晰、可行的建议:

1、按发展需求评估:明确当前与未来1-2年所需功能,选择可扩展的平台,避免受限于初期版本。
2、计算长期总成本:不要只看免费标签,综合考量未来升级、集成、支持乃至更换系统所需的全部成本。
3、选择透明可信的供应商: 在关注其服务条款,特别是数据权责与隐私政策,优先考虑口碑良好的服务商。
4、善用付费产品的试用期:多数优质CRM提供14-30天全功能免费试用,可充分测试其功能、易用性与服务响应。

总结

做出明智的决策,是为你的企业选择一个真正能成为增长引擎的CRM伙伴, 与其在试错中浪费宝贵的时间与客户资源,不如从一开始就选择经过市场验证、具备完整能力栈、服务有保障的专业CRM平台。像纷享销客等国产领先厂商的崛起,正为企业提供兼具安全性、灵活性与性价比的本土化解决方案,助力企业在合规前提下实现客户资产沉淀与业绩可持续增长。     

摘要:
近日,北京大学与OceanBase联合提出的长视频多模态检索基准LoVR被WWW录用。LoVR是一个面向真实长视频的多模态检索基准,既支持全视频检索也支持片段级检索,并配套一条可规模化的高质量标注流水。LoVR系统性刻画了长视频检索的真实难点,提供了可扩展的高质量多模态数据构建范式,为未来长程语义建模与多粒度检索方法提供统一评测平台。

研究背景与挑战

随着长视频平台和知识型视频内容的快速增长,视频已经从“短片娱乐载体”演变为“结构化知识与复杂事件的长期记录”。无论是教学课程、会议记录、纪录片,还是操作演示与技术讲解,越来越多关键信息分布在数分钟甚至数小时的连续视频中。用户的真实需求,也从“找一个相关视频”升级为“在长视频中精准定位到相关内容”。

然而,现有多模态检索研究仍主要基于短视频或独立片段构建评测环境。这种设置在语义复杂度、时间跨度以及上下文干扰程度上,都难以模拟真实长视频场景。更关键的是,在长视频内部,不同片段之间往往高度相似,语义边界模糊,模型需要具备更强的时间建模能力与细粒度语义区分能力,才能避免“找对主题、但定位错误”的问题。

与此同时,构建高质量的长视频数据本身极具挑战:自动生成的描述可能缺乏准确性或完整性,纯人工标注又难以规模化;简单均匀切分视频又会导致样本过于简单,难以形成有效压力测试。因此,如何在保证数据规模的同时,系统性提升标注质量与任务难度,成为长视频检索研究中亟待解决的核心问题。

核心理论创新


图 1. 高动态片段筛选策略

高动态片段筛选策略,提高检索区分度

在长视频中,大量片段往往语义相似、节奏平缓,若直接均匀切分并构建检索样本,模型很容易依赖低层视觉特征或表层关键词进行匹配,无法真正学习细粒度语义对齐能力。

为此,如图 1 所示,我们提出高动态片段筛选策略:通过检测视觉变化程度与语义活跃度,从长视频中优先保留内容变化更明显、信息密度更高的片段。

这种设计带来两个重要效果。第一,同一长视频内部的片段更加“容易混淆”,模型必须依赖更精确的跨模态语义对齐才能区分;第二,整体检索难度显著提升,避免了“简单样本”导致的虚高结果。换句话说,LoVR 不是简单扩大规模,而是在数据构建阶段主动增强区分度,使 benchmark 本身具备真实挑战性。

图 2. 高质量视频 caption 合成标注流水线

可扩展高质量标注机制:VLM × 自动质检 × 人类兜底

长视频数据构建的核心矛盾在于:纯人工标注质量高但成本极高,纯自动生成规模大但质量不稳定。如图 2 所示,我们提出一种折中但系统化的解决方案:以视觉语言模型(VLM)为生成核心,引入自动质量评估机制进行多轮筛选与修正,并在关键节点加入人工终审作为质量兜底。

具体而言,流程包括:长视频结构化切分 → 片段级 caption 自动生成 → 自动评估打分与迭代修正 → 汇总生成视频级描述 → 人工抽检与终审确认。自动化机制保证规模与效率,人类审核保证语义准确性与逻辑一致性。这种“自动为主、人类兜底”的范式,使 LoVR 在质量与规模之间取得平衡,也为未来多模态数据构建提供了一种可复制的方法论。

图 3. 长视频的 caption 包含视频细节

统一评测框架:全视频检索 + 片段检索

现有视频检索基准往往只关注“找到相关视频”,却忽视了真实应用中更关键的能力——在长视频中精准定位到正确时间段。LoVR 将这两种能力统一纳入同一评测框架:既支持全视频级检索(Video-level Retrieval),也支持片段级检索(Clip-level Retrieval)。

这一设计使模型必须同时具备“全局语义理解能力”和“局部精确定位能力”。如果模型只能识别视频大致主题,却无法区分相似片段,就会在片段级评测中暴露问题;反之,如果模型只擅长局部匹配,却缺乏全局语义建模,也难以在视频级检索中取得理想结果。双粒度评测机制从结构上推动模型向更完整、更真实的长视频理解能力演进,数据样例如图 3 所示。

图 4. Text-to-Video 和 Text-to-Clip 的抽取效果

图 5. Video-to-Text 和 Clip-to-Text 的抽取效果

关键验证成果

LoVR 的验证并不是只停留在“做了一个数据集”,而是围绕规模覆盖、标注质量、任务难度与基线差距、以及可复现构建成本做了系统化的结果展示。

首先在数据规模与任务覆盖上,LoVR 明确面向“长视频”这一真实形态来设计,包含 467 条长视频,并从中构建出 40,804 个片段级 clips。这使得评测不再局限于“短 clip 的匹配”,而是能够同时检验模型在长上下文视频级检索与同一长视频内部的片段级定位两种能力,形成更接近真实应用的完整闭环。

其次在标注质量验证上,我们采用了明确的人类评测流程:随机抽取 300 个片段与 100 个长视频,组织 25 位参与者对 caption 的质量进行打分(0–5)。最终平均分达到 4.3/5,且 78% 以上样本获得 4 或 5 分。这个结果说明:LoVR 的文本描述不仅“可用”,而且在语义准确性、覆盖度与可读性上达到了较稳定的高质量水准,为后续检索评测提供了可靠的 ground truth。

第三,在挑战性与基线差距方面,我们在 LoVR 上系统评测了多类代表性方法,并发现即便是当前较强的基线模型,在 LoVR 上依然表现有限:如图 4 所示,在 Text-to-Video 全视频检索场景下,最强基线的 R@1 约为 42%;而在更贴近真实“定位片段”的 Text-to-Clip 片段级检索上,R@1 约为 40%。如图 5 所示,Video-to-Text 检索和 Clip-to-Text 也分别只取得了 37% 和 36% 的效果。这意味着:即使模型可以在一定比例上找到相关结果,整体距离“高精度、可依赖”的长视频检索仍有显著差距,LoVR 的设计确实把任务难度推到了真实场景应有的水平。

最后,从工程可复现与成本画像角度,我们也给出了构建 LoVR 的可复现实证:caption 生成与自动评估的总计算量约为 820 GPU hours(在 H800 上完成),并且流程可被复用到其他长视频或多模态数据构建中。换句话说,LoVR 不仅提供了一个 benchmark,也提供了一套“可以规模化复制”的高质量多模态标注范式:用自动化手段确保质量下限,用人工审核兜底确保最终可靠性。

总结与展望

LoVR 的意义不仅在于提出一个新数据集,更在于:

系统性刻画长视频检索的真实难点
提供可扩展的高质量多模态数据构建范式
为未来长程语义建模与多粒度检索方法提供统一评测平台

未来,我们将继续扩展数据规模与场景复杂度,并探索更结构化的长视频语义组织方法,推动长视频检索从“可用”走向“可靠”。

欢迎访问 OceanBase 官网获取更多信息:https://www.oceanbase.com/

在餐饮、零售及生活服务行业数字化转型的当下,一套高效稳定的点单收银系统已成为商家日常运营的“神经中枢”。然而,面对市场上琳琅满目的解决方案,从几百元的SaaS年费到数十万的定制开发,许多商家在选型时最先遇到的困惑往往是:“点单收银系统多少钱?”特别是当我们将目光投向像 OctShop 这样具备高度灵活性的开源或半开源架构系统时,价格构成变得更加多元且值得深究。本文将深入剖析点单收银系统的成本结构,并探讨 OctShop 在这一领域的价值定位。

图片

OctShop大型点单收银系统源码详细介绍: https://pc.opencodetiger.com/Cashier

一、传统模式下的价格迷雾

传统的点单收银系统定价通常分为两类:SaaS租赁模式和买断制模式。SaaS模式(软件即服务)是目前市场的主流,商家按年或按月支付服务费。价格区间通常在每年2000元至10000元不等,具体取决于门店数量、终端设备数以及功能模块(如是否包含会员营销、供应链管理等)。这种模式初期投入低,但长期来看,随着门店扩张,累积成本高昂,且数据存储在云端,商家缺乏完全的控制权。买断制模式则是一次性支付高额费用获取软件授权,价格往往在几万元至几十万元之间。虽然看似拥有了软件所有权,但后续的系统维护、功能升级、服务器部署等隐性成本依然不菲,且闭源系统难以根据商家特殊需求进行二次开发。

二、OctShop模式下的成本重构

OctShop 作为一款支持多商户、全渠道的电商+点单收银系统,其核心理念在于“源码交付”+“自主可控”。当我们将 OctShop 应用于点单收银场景时,其价格逻辑发生了根本性变化:从“购买服务”转向了“投资资产”。1. 源码授权费用OctShop 通常提供商业版源码授权。相较于SaaS的年费,这是一次性投入。虽然具体价格需咨询官方或代理商(通常根据版本功能不同,价格在数千至数万元区间),但这笔费用换来的是系统的永久使用权和全部源代码。这意味着商家不再受制于厂商的续费捆绑,长期运营成本显著降低。2. 部署与硬件成本使用 OctShop 搭建点单收银系统,商家需要自行承担服务器租赁费用(云服务器或本地服务器)以及硬件设备采购(如收银机、扫码枪、小票打印机等)。服务器:根据并发量,初期每月仅需几百元即可满足中小型门店需求。硬件:由于OctShop支持标准安卓或Windows环境,商家可自由选择性价比高的通用硬件,无需购买绑定的昂贵专用设备。3. 二次开发与定制成本这是OctShop最大的价值所在。如果商家有独特的业务流程(如特殊的套餐组合逻辑、对接特定的ERP或财务系统),基于开源源码进行定制开发的成本,远低于向闭源厂商提出需求等待排期的成本。商家可以组建内部团队或外包给熟悉的开发者,按需付费,每一分钱都花在刀刃上。

图片

三、影响最终价格的关键因素

“点单收银系统多少钱”在 OctShop 体系下没有标准答案,因为它是一个动态变量,取决于以下因素:业务规模:单店版与连锁多店版的架构复杂度不同,授权费用会有差异。功能深度:是否需要接入外卖平台、是否需要复杂的分销裂变功能、是否需要对接智能硬件,都会影响实施成本。技术能力:如果商家自身具备技术开发能力,部署和维护成本非常低的;若完全依赖外包,则需预算相应的技术服务费。

四、性价比的深层考量

单纯比较“标价”往往会产生误导。对于追求长期发展的品牌而言,OctShop 的高性价比体现在数据资产化和业务敏捷性上。首先,数据完全私有化,避免了SaaS平台数据泄露或被“杀熟”的风险,这对于积累用户画像、精准营销至关重要。其次,面对市场变化(如突发疫情需要增加无接触配送、新增社区团购业务),基于 OctShop 源码可以快速迭代上线新功能,这种响应速度是传统闭源系统无法比拟的,其带来的商业机会价值远超系统本身的投入。

图片

五、OctShop结语

综上所述,询问“点单收银系统多少钱”,在 OctShop 的语境下,实际上是在询问“构建一套自主可控的数字化运营体系需要多少投资”。对于小微商户,SaaS或许是起步之选;但对于有志于打造自有品牌、实现连锁化经营或拥有特殊业务逻辑的商家,选择 OctShop 这类源码系统,虽然前期需要一定的技术规划投入,但从长远看,它是以更合理的成本换取了无限的扩展空间和核心数据主权。在数字化竞争日益激烈的今天,这笔账,值得每一位经营者细细算清。

开发者朋友们大家好:

这里是「RTE 开发者日报」,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real-Time Engagement) 领域内「有话题的技术」、「有亮点的产品」、「有思考的文章」、「有态度的观点」、「有看点的活动」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。

本期编辑:@瓒an、@鲍勃

01 有话题的技术

1、打破无声壁垒:AI 初创公司 Talksign 发布百毫秒级手语双向翻译模型 Talksign-1

由尼日利亚与英国团队共同创立的人工智能初创公司 Talksign 发布了其首个手语理解基础模型 Talksign-1。据官方披露,该模型能够在 100 毫秒内将美国手语(ASL)快速转化为语音和文本

Talksign 由 Edidiong Ekong 和人工智能工程师 Kazi Mahathir Rahman 于 2025 年 11 月创立,聚焦于打破聋人和听障群体在数字工具与日常服务中面临的沟通壁垒。此次发布的 Talksign-1 模型展现出以下核心技术特征:

  • 双向转化能力: 系统通过标准网络摄像头捕捉用户的面部、手部及身体动作,将手语翻译成语音;同时,它也能将口语或输入的文本反向转化为手语视频序列。
  • 识别精度与平衡: 该模型基于大规模手语数据集 WLASL2000 进行训练。系统在分析约一秒钟的手语动作后做出预测,兼顾了速度与准确性。目前该模型支持 250 个美国手语手势,单手势测试准确率达到 84.7%。
  • 设备端隐私保护: 系统在用户设备的浏览器中进行特征点提取,仅将处理后的数据点发送至服务器进行分析,全程不传输原始视频数据。

在现阶段的局限性方面,该模型目前仅适用于孤立的手势识别,尚不支持连续的句子级翻译或指拼法。开发团队也明确提示,在缺乏人工监督的情况下,该技术不应作为医疗、法律或安全等高风险环境下的唯一判定依据。

根据世界卫生组织的数据,全球有超过 4.3 亿名聋人,其中 7000 万人将手语作为主要沟通方式。在整个研发过程中,Talksign 与聋人教育工作者、母语为 ASL 的使用者以及无障碍倡导者保持了密切合作。未来,公司计划进一步扩充模型的词汇量,攻克连续手语识别技术,并将语言支持范围扩展至英国手语和法国手语。

https://www.talksign.co/blog/introducing-talksign-v1

( @TechCabal)

2、曝 DeepSeek V4 即将发布

据路透社报道,DeepSeek最快将于下周发布新一代 AI 模型,外界普遍推测该版本即为 DeepSeek V4。

而据晚点报道,DeepSeek 在春节前后仅对现有模型进行了小幅升级,而外界关注的下一代旗舰版本 DeepSeek V4 则预计会在 3 月前后发布

CNBC 报道称,市场已进入「严阵以待」状态,部分投资机构担忧 DeepSeek 再次引发类似去年模型发布时的市场剧烈波动。

当时,英伟达股价一度下跌近 17%,瞬间蒸发 6000 亿美元。

( @APPSO)

3、Vercel 开源 Chat SDK 公测版:跨平台 TypeScript 框架支持 JSX UI 渲染与 AI 流式传输

Vercel 宣布开源 Chat SDK 公测版,这是一套统一的 TypeScript 库,旨在解决跨平台聊天智能体(Agent)开发中的 API 碎片化问题。通过该 SDK,开发者只需维护单一逻辑代码库,即可将智能体同步部署至 Slack、Discord、Microsoft Teams、Google Chat 等主流平台。

  • 统一事件驱动架构:提供类型安全的 Handler 接口,可标准处理提及(mentions)、消息、表情回应(reactions)及斜杠命令(slash commands)等跨平台通用操作。
  • 基于 JSX 的声明式 UI 抽象层:允许开发者使用 JSX 编写 Card 和 Modal 组件,SDK 自动将代码转换为各社交平台对应的原生 UI 渲染格式。
  • 原生集成 Vercel AI SDK:post() 函数直接兼容 AI SDK 的 textStream 接口,支持 AI 响应内容在各聊天平台实现毫秒级的实时增量推送(Streaming)。
  • 插拔式分布式状态管理:内置针对 Redis、ioredis 及 In-memory 的存储适配器,用于处理分布式环境下的会话状态与数据持久化。
  • 高度模块化的适配器系统:核心逻辑与平台适配层解耦,目前已支持 GitHub、Linear 及主要即时通讯平台,支持通过 Hono、Next.js 等框架进行部署。

https://vercel.com/changelog/chat-sdk

(@Vercel Blog)

02 有亮点的产品

1、能自己打电话、排队并砍价的 AI:Jointly AI 发布端到端保险经纪平台

2026 年 2 月 19 日,Jointly AI 宣布推出全球首个端到端自主人工智能保险经纪平台 Jointly AI Broker。该平台面向英国个人险经纪人,能代理客户执行操作,利用语音 AI 致电保险公司、导航语音菜单、排队并协商报价,将原本耗时数天的流程缩短至 35 到 45 分钟

其核心工作流由企业级编排层协调,包含五个专属 AI 智能体:

  • 接待智能体:全天候接听电话,通过自然语音对话收集客户需求。
  • 研究智能体:搜索市场,核对金融行为监管局(FCA)注册资质并生成候选名单。
  • 报价智能体:最多可并行四通电话,自主致电保险公司获取真实报价。
  • 分析智能体:依托专有大语言模型,对报价进行标准化处理与评分。
  • 交付智能体:通过电话或邮件向客户提供最佳推荐、备选及预算方案。

该系统架构严格遵循金融监管标准,数据提取设有多重校验,遇低置信度会主动询问而非猜测;并具备掉线重拨及营业外时间延后重试机制。所有操作均实时记录供审计。鉴于保险经纪人通常将 60%的时间耗费于行政任务,该平台能大幅释放人力以专注复杂案件及客户关系。目前产品已向合作伙伴开放抢先体验。

https://www.getjointly.ai/insurance-ai-agents

( @The Desert Sun)

2、从 Genie 3 到 Yoroll,AI 视频原生游戏加速落地

2026 年初,AI 视频原生游戏迎来实质性落地。1 月 29 日,Google 开放 Genie 3 部分能力,实现生成画面实时响应 WASD 操作。2 月 12 日,字节跳动即梦平台发布 Seedance 2.0,凭借复杂运动场景下的高可用率及原生音画同步引发广泛关注。这一视频原生模型制作范式的崛起引发资本市场重估,导致传统引擎巨头 Unity 股价暴跌 60%,Roblox 等公司亦出现约 20% 的下跌。

在此背景下,LinearGame 旗下平台 Yoroll 提前布局,将实时生成内容纳入可控交互框架。针对目前世界模型体验不稳定、缺乏剧情与玩法等痛点,Yoroll 在视频模型之上搭建了完整的游戏系统:

  • 画面与动作生成:通过生成模型实时输出连续的场景与角色行为。
  • 行为判定:系统识别玩家操作并将其转换为明确的事件。
  • 游戏逻辑:以确定性的方式存储分支进度、道具及角色状态。

Yoroll 精准切入互动影游领域,创作者仅需输入设定与关键节点,系统即可自动连接叙事路径并加入 QTE(快速反应事件)。同时,Seedance 2.0 在动作格斗生成上的极高稳定性成为了天然加速器。结合前者的生成能力与后者的交互框架,Yoroll 推出了《Daydream Valkyrie》预告片,成功将武打视频流解析为可交互的底层数据,催生出 AI 动作格斗等全新游戏品类。

这种模式将制作成本降至传统模式的约 1/100,生产力提升数十倍,使 1 至 3 人的小团队即可完成游戏开发。目前 Yoroll 官网已公布超 6 款计划于 2026 年上半年上线的游戏,平台当前正处于创作者邀请码内测阶段。

相关链接:https\://yoroll.ai/

( @Z Potrntials)

3、支持自然语言生成乐器与精准编曲:谷歌推出 AI 音乐创作平台 ProducerAI

2 月 24 日,谷歌宣布生成式 AI 音乐创作平台 ProducerAI 正式加入 Google Labs。该平台作为创作者的得力助手,可将简单的文字提示转化为动态、完整的音乐作品或跨流派的音乐视频。

ProducerAI 结合了 Google DeepMind 的 Gemini、Lyria 3、Veo 和 Nano Banana 等模型。 其核心技术与功能特征包括:

  • 搭载 Lyria 3 预览版模型:该高保真模型具备极强的音乐理解力,提供对节奏、编曲及时间对齐歌词等参数的精细控制。
  • 创新的 Spaces 功能:允许艺术家通过自然语言创建全新的乐器和效果器(涵盖简单的键盘到基于节点的模块化音频修补环境),且这些微型应用支持在用户间共享和重混。
  • 采用 SynthID 技术:平台生成的所有音频均嵌入了这种隐形水印,用于明确标识由谷歌 AI 生成的内容。

该平台的研发深度契合音乐人的实际需求,吸引了从初学者到格莱美获奖说唱歌手 Lecrae 以及 The Chainsmokers 等知名音乐人的加入。The Chainsmokers 成员 Alex Pall 评价指出,平台的创始人兼具技术能力与音乐人直觉,深刻理解如何让 AI 成为创作过程中的加分工具。此外,谷歌此前还通过 Music AI Sandbox 与 Wyclef Jean 等艺术家展开实验性合作,这些行业经验也为最新模型的研发提供了关键支持。

目前,ProducerAI 已在全球范围内通过其官网提供服务,并设有免费与付费两套方案供用户选择。

相关链接:
https://www.producer.ai/

( @Google Blog)

03 有态度的观点

1、OpenClaw 之父:80% 的现有 App 将消失

近日,OpenClaw 之父 Peter Steinberger 接受奥地利国家广播电视台《时代画报》节目专访时提出,「未来几周内,80% 的现有 App 都会消失」。

他认为,当智能体真正能替用户完成从浏览器点击到支付执行的全链路操作时,传统 App 的入口价值将被系统级自动化彻底稀释。

他强调,未来用户不再需要逐个打开应用,而是通过一句话、一个指令,让 Agent 在后台完成所有跨应用的任务流程

他进一步解释称,这一判断的核心逻辑在于:

  • AI Agent 已具备执行真实操作的能力,已从「文本生成」跨入「行动执行」阶段;
  • 用户任务将从 App 中心转向意图中心,当系统能理解并执行复杂任务链,App 的界面与入口将变得多余;
  • 开发者将从构建完整 App 转向构建可被 Agent 调用的能力模块,生态将从「应用」走向「功能」;
  • 用户体验将从手动操作转向自动化流转,AI 将成为操作系统层的默认「代理人」。

Steinberger 认为,这种变化会在短期内引发应用数量的急剧收缩,但背后的公司不会因此消亡,而是会转型为提供 API、能力模块或 Agent 插件的服务商。这不是说某个具体应用会消失,而是使用手机的方式会发生巨大变化。

( @APPSO)

阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么

写在最后:

我们欢迎更多的小伙伴参与 「RTE 开发者日报」 内容的共创,感兴趣的朋友请通过开发者社区或公众号留言联系,记得报暗号「共创」。

对于任何反馈(包括但不限于内容上、形式上)我们不胜感激、并有小惊喜回馈,例如你希望从日报中看到哪些内容;自己推荐的信源、项目、话题、活动等;或者列举几个你喜欢看、平时常看的内容渠道;内容排版或呈现形式上有哪些可以改进的地方等。

作者提示: 个人观点,仅供参考

一、核心战略:从“项目思维”到“系统思维”

工厂信息化的本质不是一次性的技术采购,而是持续的组织能力升级。很多企业陷入“买系统-用不好-再买新系统”的恶性循环,核心原因在于将信息化视为孤立的技术项目,而非系统性的管理变革。
正确的战略框架应包含三个层次:

  1. 业务层:以解决核心痛点为导向,而非追求技术先进性
  2. 组织层:建立跨部门协同机制,打破“IT部门单打独斗”的局面
  3. 技术层:选择可扩展、低成本的技术架构,避免“一次性投入”

    二、分阶段实施路径

    阶段一:基础数字化
    核心目标:解决数据“从无到有”的问题,建立数字化基础能力
    关键动作:
    1.以问题作为开始,单点突破,快速见效
    • 优先解决当前的业务问题,如库存混乱、生产进度失控等
    • 案例:五金加工厂先上WMS系统,3个月内库存准确率从60%提升至95%,找料时间从1小时缩短至5分钟
    图片
    2.私有化部署,灵活调整
    • 选择私有化部署系统,且采用配置方式可以灵活调整的系统,避免系统太过固化,无法灵活调整
    • 案例:模具厂使用云MES系统,仅需在基础模板上进行简单调整,是传统系统开发成本的1/4,且满足自身的特殊要求
    图片
    3.依托伙伴,建立IT实施团队(无须编码)
    • 开展专项数字化培训,培养系统管理人员
    • 依托于快速开发团队的厂家,通过1-2个月的融合式开发,学会系统的配置方法,技能过渡。
    图片

    阶段二:系统贯通,从数据到业务逐步渗透

    核心目标:解决数据“从有到通”的问题,打破信息孤岛
    关键动作:
    1.打通核心业务数据,常见的数据配置可以对接
    • 实现ERP、MES、WMS等系统的数据联动
    • 案例:电子厂打通WMS与ERP接口,库存数据实时同步,采购成本降低15%
    图片
    2.建立统一数据标准,构建配置化的数据加工流程
    • 制定物料编码、工艺参数等数据标准
    • 建立数据治理机制,确保数据质量
    图片
    3.推进管理体系、生产体系数字化
    • 实现采购、生产、质量等业务流程的线上化
    • 建立数字化审批机制,提高管理效率
    • 实现员工协同办公的数字化
    图片

    阶段三:智能优化,人工辅助决策与系统智能决策

    核心目标:实现数据驱动决策,从“被动应对”转向“主动预判”
    关键动作:
    1.引入智能分析工具
    • 应用APS高级排程系统,优化生产计划,用阿尔法go 下围棋的方式,安排工厂内部的生成,找到最优计划
    • 建立设备预测性维护模型,降低非计划停机率
    图片
    2.开展数据价值挖掘
    • 分析生产数据,识别效率瓶颈
    • 建立质量预测模型,提前发现潜在质量问题
    图片
    3.推动业务模式创新
    • 基于数据分析优化产品设计和工艺
    • 探索服务型制造等新商业模式

    三、低成本实施的关键策略

    1.选型策略:适合的才是最好的(低代码,数据分析,工业场景适配)
    • 优先选择私有化,柔性配置化的系统:降低初期投入和维护成本
    • 模块化部署:根据业务需求逐步扩展功能
    • 开放集成:选择支持标准API接口的系统,便于后续扩展
    图片

  4. 实施策略:小步快跑,快速迭代
    • 试点先行:选择核心业务流程进行试点,验证效果后再推广
    • 敏捷实施:采用敏捷开发方法,快速响应用户需求
    • 持续优化:建立系统使用反馈机制,持续优化系统功能
    3.组织策略:建立有话语权的推进组织
    • 成立数字化项目组:由高层领导牵头,跨部门协作
    • 明确责任分工:IT部门负责技术实施,业务部门负责需求梳理和使用推广
    • 建立激励机制:对数字化转型贡献突出的团队和个人进行奖励

    四、工业智能化选型

  5. 选型原则
    • 业务驱动:紧密围绕企业核心业务痛点
    • 技术先进:支持云原生、微服务等现代技术架构
    • 安全可控:符合国家网络安全法律法规,支持国产化适配
    • 生态开放:具备开放的API接口和应用市场,支持第三方开发者
  6. 平台分类与选型建议
    image.png

    五、ROI评估与价值衡量

  7. 核心评估指标
    • 财务指标:投资回报率(ROI)、投资回收期、成本节约率
    • 运营指标:生产效率提升、库存周转率、设备利用率
    • 质量指标:一次合格率、客户投诉率、质量追溯响应时间
  8. 价值计算模型
    • 直接收益:成本节约(人力、物料、能耗等)
    • 间接收益:效率提升、质量改进、客户满意度提高
    • 战略收益:市场竞争力提升、商业模式创新
    六、成功案例分析
    案例:深圳某精密零部件制造商
    • 转型前痛点:生产计划靠人工Excel排程,订单交期延误率达30%;原材料库存积压,资金占用超200万元;质量追溯依赖纸质记录,客诉处理效率低下
    • 转型路径:
  9. 第一阶段(3个月):上线财务和供应链模块,实现采购-入库-付款流程线上化,库存周转天数从48天降至32天
  10. 第二阶段(6个月):启用生产管理模块,通过扫码报工实时跟踪工序进度,订单交期延误率降至8%
  11. 第三阶段(12个月):上线质量模块,建立全流程质量追溯体系,客诉率从4.5%降至1.2%
    • 转型成效:累计节约成本约180万元,数字化投入回报率超300%
    七、总结与建议
    工厂信息化是一个长期的系统工程,需要企业从战略高度进行规划和实施。关键在于:
  12. 明确目标:以解决实际业务痛点为导向,避免盲目追求技术先进性
  13. 分阶段实施:从基础数字化到系统贯通,再到智能优化,逐步推进
  14. 选择合适的技术和平台:根据企业规模和行业特点,选择适合的信息化解决方案
  15. 建立跨部门协同机制:确保IT部门和业务部门紧密配合,共同推进数字化转型
  16. 持续优化:寻找持续陪伴的功能上,技术+人力服务的模式,响应所有需求的变化,锁定投入成本,不断优化系统
    JVS官网:http://bctools.cn

当我们在春晚享受豆包 AI 的丝滑互动时,一场看不见的战役正在幕后打响。主角不是代码或服务器,而是成千上万名来自开发、测试、运维、安全等团队的工程师。

春晚不仅是对技术的极限压测,更是对“人”的协同能力的终极考验。

“科技春晚”背后是对流程能力的终极检验

想象春晚零点前的作战室:一个监控告警需秒级分派给 SRE,一次紧急变更要跨团队快速审批,一条用户反馈必须精准流转至开发者。

在“差一秒就可能雪崩”的高压下,依赖邮件、电话或即时消息等,极易造成信息断层、责任模糊、响应延迟。

组织真正需要的,是一套能将复杂协作标准化、自动化、可追溯的机制——能够把复杂的协作任务转化为清晰的工单,通过流程引擎自动流转,确保每个环节有人负责、状态实时可见、结果可闭环。

这套机制,正是现代 IT服务管理(ITSM)的核心所在。

轻帆云面向大规模协同的智能ITSM平台

春晚的挑战背后是对高效协同的需求,这也是如今数字化企业的日常。随着业务规模扩大、团队分工细化,跨部门协作的复杂度急剧上升——如何打破信息孤岛、统一协作语言、确保关键任务不掉链,已成为企业IT治理的核心课题。

云智慧旗下品牌轻帆云智能IT服务管理平台,正是为应对这一挑战而设计。它将高压力场景下的协同保障能力,沉淀为可复用、可配置的 SaaS 服务,助力企业构建标准化、自动化的IT服务流程。

图片

好用的ITSM产品——轻帆云ITSM不仅关注技术工具,更聚焦“人、流程、技术”的协同机制,让每一次跨团队协作都清晰、可控、可追溯,确保在高压力场景下保障业务稳定运行。

轻帆云ITSM如何支撑高压力协同场景?

面对万人级协作、高并发请求、多团队联动等复杂场景,轻帆云 ITSM通过三大核心能力,助力企业构建高效、可靠的 IT 协同体系:

1、AI 驱动的服务台

在高流量业务高峰期,海量用户咨询与问题反馈瞬时涌入。轻帆云智能IT服务管理平台内置的 AI 能力可自动识别并解答80%以上的常规问题,大幅降低人工服务台负荷,让工程师聚焦于核心故障处置与系统保障。这不仅显著提升响应效率,也有效保障了用户体验。

图片

2、流程自动化引擎

一次关键业务发布,往往涉及开发、测试、运维、安全等多个团队的紧密配合。轻帆云智能工单管理系统提供低代码流程引擎,支持企业将跨部门协作流程标准化、可视化,并实现工单的自动分派与审批流转,确保在高压环境下各环节紧密衔接、高效执行。

图片

3、可度量的价值

IT团队的付出常被视作“幕后成本”。轻帆云ITSM通过精细化的SLA管理与自动化服务报告,将响应时效、解决率、用户满意度等指标量化呈现,让IT贡献清晰可见——从“成本中心”转型为保障业务连续性的“价值中心”。

图片

AI 时代,技术的重要性毋庸置疑,但“人”和“流程”作为生产关系,同样决定了生产力所能达到的高度。轻帆云智能IT服务管理平台愿做您数智化转型之路上的“流程基石”,助力构建高效的协同体系,从容应对每一次“春晚级”的业务挑战。

*轻帆云ITSM涉及数据来源于内部统计

详询热线:400-666-1332