为什么需要节点式思维对齐工具?

在复杂的团队协作中,传统的线性沟通方式往往只关注信息的单向传递,而忽略了认知的深层对齐 。然而,战略与执行之间存在多维度的关联,如果没有节点化的对齐管理,可能会导致:

  • 团队认知断层:战略意图在层层传递中失真,执行端无法理理解决策背后的逻辑原点 。
  • 沟通效率低下:缺乏可视化逻辑链条,导致决策路径破碎,难以回溯演进过程 。
  • 协作方向偏离:各部门缺乏统一的“认知地图”,导致资源投入无法形成合力。

节点式思维对齐工具通过将抽象的想法、目标和任务转化为可视化的节点与链路,帮助团队建立结构化的认知模型,确保每个人的思考都能在同一频率上 。

节点式思维对齐工具的核心特性

  • 图谱化展示:将思路和任务以节点形式呈现,直观展示非线性的逻辑关联 。
  • 动态实时同步:支持多人在线实时推演,任何思维层面的变动都能即刻实现全员对齐。
  • 多层级逻辑穿透:可从宏观的战略节点下钻至微观的执行细节,实现全局与局部的统一 。
  • 关系链路建模:清晰标记节点间的因果、阻塞或支撑关系,构建严密的逻辑闭环 。

节点式思维对齐工具的重要意义

  1. 缩短认知半径:通过可视化的思维图谱,极大降低了跨部门理解复杂战略及业务逻辑的门槛 。
  2. 强化决策严密性:可视化的过程会倒逼团队梳理逻辑,从而更容易发现潜在的逻辑矛盾或执行缺失点。
  3. 提升资源协同效率:节点式对齐能快速识别出“关键节点”和“瓶颈节点”,引导团队精准投入核心资源 。
  4. 增强成员目标感:透明化的思维路径让每位执行者都能清晰看到自己的工作在整体大蓝图中的位置。

应用场景

  • 战略解码与推演:将公司愿景逐级拆解为各层级的关键决策节点,确保上下同欲 。
  • 复杂项目架构设计:在项目启动前,通过节点图梳理系统架构、功能模块与业务依赖 。
  • 项目复盘与逻辑对齐:回溯执行过程中的关键决策节点,识别逻辑拐点并沉淀为组织资产。

---

5款值得尝试的节点式思维对齐工具

1. 板栗看板

结构化节点展示与任务对齐的可视化平台

  • 特点:支持任务卡片间的逻辑连线,通过看板视图直观展示节点的流转过程与依赖关系 。
  • 优势:将“抽象逻辑”与“具体任务”通过节点连接,团队能清晰看到每个任务背后的价值支撑 。
  • 适合团队:追求流程透明与逻辑一致性,需要将战略目标快速落地为执行动作的敏捷团队。
    在这里插入图片描述

2. Trello

直观的看板式思维对齐工具

  • 特点:通过颜色标记、标签系统和列表组织,让节点在工作流中的位置一目了然 。
  • 优势:界面设计直观,通过简单的拖拽即可实现任务节点的优先级调整与共识达成 。
  • 适合团队:注重可视化呈现和轻量级协同的初创或创意团队 。
    在这里插入图片描述

3. ClickUp

灵活的多视图节点管理系统

  • 特点:支持将思维节点在时间线、看板等多种视图间切换,适应不同的认知需求。
  • 优势:功能极其丰富,能够帮助团队管理复杂的任务层级和多维度的逻辑分类 。
  • 适合团队:需要多层级管理、涉及复杂职能交叉的中大型团队 28。
    在这里插入图片描述
    在这里插入图片描述

4. Jira Software

专业级研发逻辑对齐与追踪平台

  • 特点:将目标对齐作为敏捷流程的核心,支持任务节点的深度影响分析与状态追踪 。
  • 优势:严密的逻辑关联能力,适合对研发流程、故障节点有严格闭环管理要求的团队 。
  • 适合团队:追求高度标准化、需要将思维对齐固化为生产流水线的专业技术团队 。
    在这里插入图片描述

5. Asana

跨职能思维协同与目标分发平台

  • 特点:提供灵活的节点管理能力,强调跨职能团队间的目标一致性与协作友好性 。
  • 优势:强大的集成能力,能将思维对齐的结果快速转化为不同应用间的自动化流转 。
  • 适合团队:需要灵活处理跨部门复杂依赖、注重易用性与协作体验的通用型团队 。
    在这里插入图片描述

---

如何选择合适的节点式思维对齐工具?

1. 按团队规模选择

  • 小型团队:推荐 板栗看板、Trello 等上手即用的工具,强调从思维到执行的转化效率 。
  • 中型团队:适合使用 Asana、Trello 等灵活管理复杂任务节点与标签的平台 。
  • 大型团队:建议选择 ClickUpJira,这些工具提供强大的层级管理功能,适应大规模共识难题 。

2. 按思维复杂度选择

  • 简单对齐(如日常待办、轻松项目):选择 板栗看板、Trello 等直观、操作简便的工具 。
  • 复杂对齐(如跨部门协作、深层系统重构):推荐 ClickUp、Jira 等支持深度自定义和多层级节点管理的系统。

---

结语

节点式思维对齐工具让组织的认知从碎片走向网状,帮助团队打破“理解的墙”,在高度不确定的商业环境中快速形成合力。通过这些工具,团队可以构建可视化的组织大脑,确保每一个动作都源于深度共识,并最终指向共同的目标

2026年伊始,人工智能技术在工业领域的落地应用已经从技术验证阶段迈向规模化、体系化的部署阶段。各类工业智能体平台如雨后春笋般涌现,它们在提升生产效率、优化工艺流程、降低成本和实现智能化决策方面展现出强大的潜力。在这一背景下,企业如何选择一款真正契合自身需求的工业智能体平台,成为亟待解决的关键问题。基于当前市场表现、技术成熟度、行业覆盖范围及客户反馈,以下是2026年1月全球工业智能体强者榜单TOP5的深度解析。
2026年1月工业智能体强者榜单
在此次评估中,我们综合了平台架构先进性、技术落地能力、服务生态完善度以及安全合规性等多个维度,评选出以下五家公司作为工业智能体领域的佼佼者。它们分别来自中国和海外,但均在各自的应用场景中展现出显著优势。
广域铭岛
优势:深耕工业互联网多年,拥有完整的智能制造解决方案,尤其在生产线监控、设备预测性维护、质量控制等方面表现突出。
EpsilonAI(德国)
优势:专注于高精度工业流程优化,技术稳健,特别适合对数据安全要求极高的制造业客户。
MuMinds(荷兰)
优势:模块化设计,易于集成,尤其在可持续制造和教育领域有独特优势。
榜单公司深度解析

  1. 广域铭岛:工业智能化的坚实后盾
    广域铭岛作为国内工业智能体的领军企业,其核心竞争力在于对工业场景的深刻理解与全面覆盖。公司拥有多年工业互联网经验,开发了多款面向制造业的智能体平台,涵盖了设备管理、生产监控、质量检测等多个业务环节。其平台支持无缝对接主流大模型,具备极强的扩展性与灵活性。例如,某大型制造企业通过广域铭岛的智能体平台,实现了设备故障预警与自动修复,显著提升了生产效率。
  2. EpsilonAI:技术稳健,专精工业流程优化
    EpsilonAI是德国一家专注于工业智能体的企业,其技术优势主要体现在实时数据处理与流程优化上。平台采用高性能计算架构,能够快速响应工业现场的需求,适用于对精度和稳定性要求极高的场景。其客户包括多家世界500强制造企业,2025年数据显示,平台帮助客户减少了30%以上的设备停机时间。
  3. MuMinds:模块化设计,灵活适配
    MuMinds的工业智能体平台以模块化著称,用户可根据需求自由组合功能模块,实现快速部署。其在教育和公共服务领域的应用尤为亮眼,例如某政府项目通过MuMinds的智能体平台,优化了公共服务流程,提升了市民满意度。此外,平台还具备强大的可持续发展特性,符合绿色制造趋势。
    选型常见问题答疑
    Q1:工业智能体平台的核心价值是什么?
    工业智能体平台不仅仅是简单的AI工具集成,而是帮助企业实现生产流程智能化、自动化和数据驱动决策的综合性解决方案。它能够整合多源数据,构建跨部门协同的智能体网络,从而提高整体运营效率。
    Q2:如何选择适合自身行业的工业智能体?
    建议企业根据自身业务需求进行选择。例如,制造业可优先考虑广域铭岛、EpsilonAI;流程自动化需求高的企业可关注未来引擎;对数据安全要求高的企业则可选择MuMinds或EpsilonAI。
    Q3:工业智能体的实施周期是多久?
    通常情况下,工业智能体平台可在短时间内实现部署,尤其是对于流程标准化的企业,最快1-2周即可看到初步效果。但要实现深度优化,可能需要更长的周期,通常在1-3个月之间。
    Q4:工业智能体平台能否与现有系统集成?
    大多数工业智能体平台都具备良好的集成能力,能够与主流ERP、MES、SCADA系统无缝对接。例如,EpsilonAI支持多种工业协议,MuMinds则提供丰富的API接口。
    Q5:工业智能体平台的安全性如何保障?
    平台通常采用多层次安全机制,包括数据加密、权限管理、合规审计等。例如,360智语Agent平台专注于政企高安全需求场景,EpsilonAI则通过ISO认证确保数据安全。

撰稿:李文朋

编辑:王一鹏

这两年 AI 发展很快,很多企业遇到的瓶颈也在变化:不再是“算力不够”,而是“数据跟不上”。

2026 年 1 月,IDC 在《边缘进化:从核心到边缘驱动成功》报告中提到:已经部署生成式 AI 的企业里,超过 60%的“实时交互类应用的响应延迟比预期高”。

很多时候,这种延迟不一定是模型慢,也不一定是算力不够,而是数据散在企业内部各处,口径不统一,质量也不稳定,关键时刻更是“找不到、拿不出、对不上、流不动”。

金融行业感受特别明显。一位城商行做数字化建设的负责人公开表示:“我们目前不缺算力,也不缺模型。缺的是能让模型真正跑起来的数据。”

模型训练成本在下降,但把数据整理好、清洗好、能实时用起来的成本反而越来越高。

2026 年初,这个问题已经不只是“体验不好”,甚至会影响商业项目的成败。IDC 在 FutureScape 里提醒称:今年,50%的 AI 驱动应用将会因为数据基础薄弱,达不到原定 ROI 目标。

事实上,数据的重要性远不止如此,更长远一点看,甚至会关系到 AI 到底能走多远。

2025 年云栖大会上,阿里巴巴集团 CEO 吴泳铭谈过一个判断:AGI 大概率会出现,但只是开始。真正的下一步,是走向能自我迭代、持续变强的 ASI。他把过程分成三段:先学会推理,再学会使用工具辅助人类,然后连接现实世界的数据,能自己学习、自己迭代。

说得更直白一点:未来 AI 更像一个“持续在线的系统”,它得不断吃到最新的数据,并把这些数据变成新的能力。数据是否能高效、持续地进入系统,变得愈加重要。

正因如此,很多基础设施厂商开始关注“更适合 AI 使用的数据”方向。数据库不再是“存数据”,而是要让数据更容易被统一管理、被实时取用、被不同类型的模型和应用调用。

2026 年 1 月 20 日,阿里云在 2026 PolarDB 开发者大会上发布了 AI 就绪(AI-Ready)云原生数据库新标准。

它想解决的事情其实很简单:让数据系统不仅能存储、查询多模态数据,还将直接驱动 AI 智能决策,让数据进入模型与业务的路径更短、更稳定,以及更安全。

阿里云资深副总裁、数据库产品事业部负责人李飞飞表示:“未来,AI 原生数据库是技术演进的必然方向。从云原生到 Al 就绪,再到 Al 原生,PolarDB 将持续深化 AI 与数据库的融合创新,加快走向超级人工智能时代。”

从行业视角看,数据库已不只是业务系统的底座,开始逐渐变成智能应用能不能跑顺的关键部分。围绕“数据怎么被组织、被使用、被转化”的变革,已悄然上演。

第一部分:数据困境的背后:是新旧时代的“不兼容”

过去很多年,企业做数据治理的“沉淀逻辑”只有一个:让人更容易做决策。

业务员、分析师、管理层要看的数据,通常得“对得上”“能解释”“表格整齐”。于是传统数据团队投入大量成本做 ETL(清洗、转换、加载),把数据整理成一张张看起来清楚、口径一致的报表。

问题是,现在数据的“主要使用者”变了:很多数据不是给人看,而是给模型用。这就会出现一种情况:对人很友好的数据,不一定对模型有用。

一个常见例子是风控。在传统的数据整理过程中,为了让报表更稳定、更好讲,分析人员往往会把极端交易、可疑行为当成离群点删掉,觉得它们会影响整体判断。

但对模型来说,删掉这些样本的结果是:正常样本越来越多,异常样本越来越少;并导致欺诈、极端风险这些关键模式识别,几乎无法归纳学习。

换句话说,在 AI 时代,“干净数据”并不等于“高质量训练数据”。

今天很多企业说“数据资产不少,但模型效果一般”,背后往往是同一类问题——现有数据的组织方式,跟模型所需要的对不上——本质就是“兼容”问题。

例如,在结构方面,企业现有数据多数是二维表格,字段清晰,适合报表和人工分析。但很多模型更需要的是向量、图结构、时间序列这些形式,用来表达关系、上下文和变化。

传统数据的维度也不够。传统指标体系更强调“少而精”,字段要能解释能展示,但模型训练往往靠大量稠密特征。很多特征单看没什么意义,要组合起来才有价值。

传统数据更新速度也慢。很多系统按天、按周更新数据,这对复盘、报表够用,但推荐、风控、运营决策这类应用,往往希望输入尽量接近实时。

传统数据格式也较为分散,不少业务系统以结构化数据为主,图像、音频、视频、传感器流等数据通常分散在各自系统里,管理不在一起,调用也不在一起。

于是看上去数据资产很多,但真正能直接拿来训练、推理的数据,比例并不高。

大家越来越接受一个现实:2026 年,数据本身将决定 AI 模型的能力天花板。为了缓解上面的这些“对不上”问题,“AI 就绪数据”(AI-Ready Data)应运而生。

它想表达的不是一个新概念,而是一件很具体的事:数据要经过专门的整理、特征化和组织,以更小的工程成本直接用于训练、推理和决策。

AI 就绪数据,通常会包含几类要求:首先,特征要够用,不是“有数据”就行,而是要有足够细的维度,让模型有东西可学。

比如做用户行为建模,只保留“总次数”“总金额”通常不够,还需要时间分布、品类偏好、渠道差异、设备类型等细节等。

其次,标签也要准,需要监督学习的场景里,标签相当于“题目答案”。标签粗、标签不一致,都会拉低模型上限。这就要求,图像分割、文本抽取都要尽可能精确。

同时,样本要尽可能覆盖真实世界,因为现实业务不会只落在“平均值”上。所以实践中会强调覆盖长尾:高峰期、极端天气、罕见故障、少数群体、低频行为等。这些数据从报表角度不一定好看,但对泛化能力很重要。

最后,数据也要能跟着变化更新,很多传统的数据质量体系把数据当“静态资产”,但用于智能应用时,数据要像“动态输入”。常见要求包括:按合适频率引入新样本;对明显过时的数据标记或降权;根据线上表现迭代数据集。

过去两年,很多企业在数据库和数仓之外,再搭特征平台;要实时就接流计算;要多模态就加向量库、图系统;最后再用调度、同步、API 网关把这些拼在一起。

这种做法在试点阶段通常能跑起来,但场景一多、频率一高、数据类型一复杂,架构复杂度和运维成本就会上去。因此,越来越多的方法论开始强调:与其在旧框架上不断加组件,不如从底层重新规划面向智能应用的数据底座。

在产品层面,一些云数据库厂商正在调整定位:不只做“关系型数据库”,而是把自己当作智能应用的数据基础设施。

比如阿里云云原生数据库 PolarDB 的产品理念,就强调在云原生架构上,配合湖库一体等能力,去支撑结构化、半结构化以及非结构化数据的统一管理,为“AI 就绪数据”提供底层能力等。

PolarDB 还首次系统定义了“AI 就绪数据库”的 4 大核心支柱,分别是:多模态 AI 数据湖库、高效融合搜索能力、模型算子化服务,以及面向 Agent 应用开发的后端服务。

这是通过将多模态存储、搜索、推理和后端开发套件深度集成到数据库内核,满足企业多模态搜索、问答、数据处理、标注等需求,将复杂的异构架构简化为统一的智能化底座。

从这个角度看,AI 就绪数据会越来越像企业的“基础配置”:这不是为了追趋势,而是为了让后面的应用能更智能、更高效、更安全地跑起来、跑下去。

第二部分:行业正想尽办法,让数据处理实现加速

如果说“AI 数据就绪”解决了数据能不能用,那么“数据处理速度”则决定这些数据能否“实时”产生价值。

经过不少实践后,大家慢慢形成一个判断:同一份信息,发生在“刚刚”和“昨天”,对业务价值可能不是一两倍的差距,而是会差一个数量级。

以淘宝为例,数据显示电商运营数据的实时监控能够让决策效率提升 40%以上。某头部淘宝店铺通过自主搭建实时数据采集和分析系统,将数据延迟控制在 1-5 分钟后,运营效率和业绩直接提升 30%。

风控领域的收益更明显。一次异常交易判断窗口往往只有秒级:秒级识别,损失只是几百元;第二天发现,可能已经数百万。对金融机构来说,实时数据不是“体验优化”,而是成本。

问题在于:今天大多数企业的传统数据链路,并不是为“实时”设计的。最典型数据处理路径就是:从业务数据库,到 ETL,再到特征平台处理,进行特征缓存,最后供模型调用。

这条链路长、环节多,每一步都会带来延迟。所以这两年行业里出现一个变化:大家开始关注能不能少搬点数据,少绕几道弯。因为数据在系统之间来回搬运、复制、同步,本身就是时间和复杂度的来源。

从这个角度看,很多数据“新架构”绕来绕去,其实想解决的是同一件事:让数据尽量留在一个更统一的底座上,把处理、检索、计算尽量在同一套体系里完成,把链路缩短简化。

PolarDB 这次讲的“AI 就绪云原生数据库”,基本就是沿着这个思路在做。

过去几年企业反复提“湖仓一体/湖库一体”,说白了是因为两套系统各有短板:数据湖便宜、能存很多、数据类型也更杂,数据库查询强、事务能力好,可一旦规模大、成本就上来了,对大规模非结构化数据也不友好。

结果就是数据经常搬来搬去:为了分析,把业务数据抽到湖里;为了在线服务,又从湖里挑一部分加工后装回库或特征仓。每搬一次,就多一次复制、多一次同步、多一段延迟。

此次,PolarDB 发布的—AI 数据湖库(Lakebase)解决方案,就是专为实现“湖库—体”架构而设计的。

AI 数据湖库尝试把结构化、半结构化,以及非结构化数据,都放在同一个平台里统一存取和处理,减少来回同步,让链路变短。与此同时,它还配了缓存加速能力,针对不同场景做 I/O 和带宽的加速,让海量数据在底座里流转得更顺。

这让数据从“产生”到“能用”的时间缩短,很多场景能从小时级压到分钟级,甚至更低。

这是加速的第一步:少搬数据。但湖库一体更多解决的不止是“搬运成本”,还有个更隐蔽、也更容易被忽略的卡点:推理路径。

传统架构里,数据库只负责存储和查询,推理模型是独立的外部服务。这样做的结果是:应用需要先从数据库取特征,再送给推理服务推理,最后把结果写回或返回业务。

每一步看起来都不慢,但数据序列化、网络传输、排队等待加起来,延迟就会暴增。

PolarDB 这次的思路不太一样:它不是把推理当成“外挂”,而是希望把推理内化为数据库的原生能力。

它的做法是,通过多模态引擎与独有 In-DB 模型算子化的深度集成,开发者可以在 PolarDB 库内直接完成语义检索与推理加工,在效率显著提升的同时,确保数据不出域,保障隐私合规。

具体方面,通过 LLM SQL 接口封装阿里云百炼各类模型构建 PolarDB 模型算子,开发者在 SQL 里可以直接调用推理能力——不用数据出库,不用中间转换,一条查询就完成"找数据→检索语义→推理加工→返回结果"整个流程。

为了支撑这套库内推理,PolarDB 还对底层做了分层优化,创新性地融合了 KVCache、图数据库与向量技术,构建了兼顾长短期记忆与低算力消耗的检索方案。

换句话说,AI 数据湖库不再只是提供"看数据接口",而是变成"数据和模型直接对话的场所"。

当然,要让推理少绕路,还有个前提:数据库要顶得住 Agent 的高频访问。

Agent 在执行任务时,可能会发起大量查询来验证和规划,如果数据库是“存储和计算绑在一起”,高频查询的计算压力会直接拖垮存储稳定性。

云原生数据库 PolarDB 的设计是通过存算分离来解决这个问题:计算节点独立扩缩,高并发查询主要消耗计算资源,不会拖垮存储。遇到 Agent 高峰期的访问洪峰,可以独立扩计算而不用扩存储,成本和效率都会提升。

除了架构分离,PolarDB 还在应用和功能层做了专门设计。

PolarDB 新增 AgentMemory 能力,提供长短期记忆表结构模板,自动管理对话历史和上下文。开发者不需要自己拼 SQL、维护索引,Agent 每一轮对话都被自动记录,下一轮查询时自动成为上下文的一部分。

在执行层,PolarDB 提供自然语言工具调用(NL2SQL 自动解析与执行),Agent 可以用"问问题"的方式检索复杂知识。同时支持多模态数据融合,让 Agent 能在一次查询里实时融合文本、向量、图关系的检索结果。

结合基于 Supabase 的 Agent 统一部署与托管,PolarDB 为企业提供工业级 Agent 开发框架。从多租户隔离、Serverless 自动扩容、到运维自动化,所有工程复杂度都被打包进框架里,开发者只需专注定义 Agent 的行为和目标即可。

这样一来,开发者收获很明确:存算分离让高并发和性能更容易同时拿到,AgentMemory+NL2SQL+多模态融合让 Agent 的记忆、检索、推理更像是数据库原生支持的事;工程上的托管和 Serverless 减少了部署、扩容、监控这些杂事难题。

整体看下来,数据行业的这轮"加速"并不只是把某个指标做快,而是在做一件更底层的事:让数据少移动,让推理少绕路,让 Agent 的高频快速访问有专门架构支撑。

链路短了,实时能力才更容易稳定下来,也更容易规模化,不至于每个场景都要重新搭一套。

第三部分:当 AI 反哺“数据”,AI-Native 成为可能

从行业看,2026 年很可能会成为多 Agent 协同大规模落地的起点。

这不是因为单个 Agent 的能力突然跃升,而是因为多个 Agent 协同工作能够产生涌现效应——它们可以相互验证、相互纠正、共同规划复杂任务,从而完成单一模型难以胜任的工作。

当 Agent 大规模走向自主决策与协作时,可能在一秒内对数据库发起成千上万次查询——先查一遍,根据结果修正假设,再查一遍,调整策略,反复循环,直到找到满意的答案。

如果要承载 Agent 这种近乎“暴力”的访问模式,就必须引入一种全新的数据库形态——AI-Native 数据库。

AI-Native 数据库也需要从根本上改变与 Agent 的交互方式。最核心的转向是:从 SQL 的"精确匹配"扩展到"语义级检索与推理式访问"。

这意味着数据库不再仅仅回答"这个值是什么"的问题,而是要回答"这个值意味什么"、"这条数据与另一条数据在语义上有什么关联"、"基于这些信息,下一步应该怎么做?"。

而要做到这一点,AI 相关的数据能力不能只做成外挂,而要成为数据库的“内生智能”。例如在存储层支持向量索引,在查询层支持相似度检索,在优化层针对向量查询做专门优化等。

大会上,PolarDB 提出“AI 就绪的云原生数据库”的概念,就是为了推动数据库实现从“外挂式”集成 AI 到“内生智能”的进化,这也是走向 AI-Native 的过渡。

关于 AI-Native 数据库,另一个同样重要、却常被低估的变化,是对数据动态性的重新认知。

在 AI 时代,高质量数据并不是一次性定义出来就能长期使用的:今天仍然有效的数据集,可能因为新的应用场景或模型路线,变得不再匹配。这需要 Agent 持续学习、持续适应新环境,相应的数据特征也会随之变化。

很显然,传统数据仓库“每天一次、每周一次”的更新节奏明显跟不上,AI-Native 数据库需要支持更实时、更持续的数据优化。

好的一面是:被数据“喂养”的 AI,正在获得反过来“反哺数据”的能力。

过去的数据清洗、整理与验证高度依赖人工:工程师写脚本,分析师定规则,QA 定期抽检,流程慢且容易遗漏。现在,具备推理与决策能力的 Agent 已可以把一部分治理工作自动化。

比如,让 Agent 获得对数据库的“写权限”:把自己的思考过程、决策日志写入数据库,沉淀为训练样本;把推理中得到的新知识、新规律固化到数据层。更进一步,当 Agent 在执行任务时发现脏数据、明显错误或不一致,它可以自动触发修正流程,而不是等人工排查。

当这些机制形成闭环,数据库就能更快产出“最新、可用、被校正过”的数据,并把反馈链路压到更短的延迟。

可以想象一个场景:某个 Agent 在做客户风险评估时,发现了一类新的可疑交易特征。它把该特征写入数据库并触发检测规则;规则自动回扫历史数据,标注出相似交易;评分模型读取新标签,更新客户风险等级。整个流程自动闭环,同时数据一致性仍然受到约束与保障。

从更宏观的角度看,这意味着 AI+Data 正在形成一个自循环系统:AI 消费数据、理解数据、改写数据,数据再反过来塑造 AI 的行为与能力。

未来的超级智能(ASI)将不再是一个孤立模型,而更像是一个持续运转的系统:它既是数据的使用者,也是数据的生产者和优化者。数据不再只是被存放的资源,而是一种被不断加工、更新的运行态。

这个循环的速度越快、效率越高,整个系统的智能水平就越高。而承载这个循环的核心基础设施,一定是 AI-Native 的数据库系统。

回到 PolarDB 大会发布的一系列能力:AI 数据湖库(Lakebase)减少数据搬运,多模态多引擎融合扩展可管理的数据类型,模型算子化把推理拉回数据库内部,以及面向 Agent 应用开发的托管能力。它们看起来是分散功能,但放在一起更像一套完整路径——让数据库在 AI 时代重新站到系统中心。

这意味着一次更深的范式转移:从 2025 到 2026,数据库产品、数据架构与 AI 应用之间的边界在变得模糊。企业 IT 也可能从“多个专用系统拼装”转向“围绕一个 AI-Native 数据库组织数据、计算与决策”。

在这个背景下,未来谁能更快完成从云原生到 AI 原生的迁移,谁就更有机会在下一轮基础设施竞争中占据优势。

今天在看分布式任务工具
找来找去看到 3 个,xxl-job, powerjob, elasticjob
然后我发现居然全是国产的,类似产品竟然没有国外的,我寻思不应该啊 (不是说国外的就好什么的,但是这种中间件没有的话确实感到奇怪)
问了 AI 得到如下回答

XXL-JOB 、ElasticJob 这类工具在中国特别火,是由中国互联网特定的技术土壤决定的

国外用 Quartz ,它是祖师爷,国内工具大多是对 Quartz 的二次封装(加了 UI 、加了分片、加了 RPC )。国外老项目仍大量直接用 Quartz 。

国外云原生走得更早,很多简单的定时任务直接交给 Kubernetes CronJob 或云厂商的 Serverless 服务了,不需要额外部署一个 XXL-JOB ,复杂的任务则是选择 Airflow 这样的工作流平台

国内的 ElasticJob 和 XXL-JOB 实际上是卡在了“简单 Cron”和“复杂编排”中间的一个完美生态位:它比 Quartz 好用,比 Airflow 简单,又完美契合 Java 生态

如果真是这样那感觉还是挺有意思的,居然这样奇怪的产生了一个技术生态位

引言

想象一下:你只需要用自然语言描述你的需求,AI 就能自动帮你完成数据库操作 —— 创建文档集合、插入数据、执行复杂查询,甚至构建一个完整的知识库应用。这不是未来,而是现在就能实现的能力。

seekdb MCP Server 就是实现这一愿景的桥梁。它基于 Anthropic 提出的 MCP(Model Context Protocol)协议,让 AI 助手能够直接与 seekdb 数据库交互,将 "自然语言" 转化为 "数据库操作"。

本文将带你上手 seekdb MCP Server,并通过一个实战案例 —— 通过自然语言构建 AI 应用,让你亲身体验 AI 原生数据库的魅力。

欢迎大家关注,在这里,我们会持续为大家更新与 #数据库、#AI 相关的技术内容!

什么是 seekdb MCP Server?

seekdb 是一款 AI 原生搜索数据库,在统一架构下融合了关系数据、向量数据、全文索引、JSON 和 GIS 能力,支持混合检索和库内 AI 工作流。

MCP Server 则是连接 AI 工具与数据库的"适配器"。通过 MCP 协议,Cursor、Claude Code、Cline 等 AI 工具可以直接访问和操作 seekdb 数据库。

核心能力一览

能力分类工具列表功能说明
向量集合管理create_collectionquery_collectionadd_data_to_collection创建向量集合、语义搜索、文档管理
高级搜索full_text_searchhybrid_search全文搜索、混合搜索(BM25 + 向量)
AI 函数ai_completeai_rerankcreate_ai_model调用 LLM 生成文本、重排序搜索结果
AI 记忆系统seekdb_memory_queryseekdb_memory_insert跨会话持久化记忆,让 AI "记住"你
数据导入导出import_csv_file_to_seekdbexport_csv_file_from_seekdbCSV 文件与数据库表/向量集合互转

安装 seekdb 数据库

在使用 seekdb MCP Server 之前,你需要先准备好 seekdb 数据库。seekdb 提供两种部署模式:

模式一:嵌入式模式(零配置,仅限 Linux)

嵌入式模式无需单独安装 seekdb 数据库!seekdb MCP Server 启动时会自动初始化一个本地嵌入式数据库,开箱即用。

适用场景:个人学习、快速原型开发、边缘设备运行。

⚠️ 提示
macOS 和 Windows 用户需要使用「客户端 / 服务器模式」,需要先部署 seekdb 数据库(推荐 Docker 方式),然后配置连接参数。

模式二:客户端/服务器模式(生产推荐)

如果你需要在测试或生产环境部署 seekdb,可以选择以下方式:

方式 1:使用 yum 安装(RPM 系统)
# 1. 添加 seekdb 镜像源
sudo yum-config-manager --add-repo https://mirrors.aliyun.com/oceanbase/OceanBase.repo

# 2. 安装 seekdb 和客户端
sudo yum install seekdb obclient

# 3. 启动 seekdb
sudo systemctl start seekdb

# 4. 检查启动状态(状态为 "Service is ready" 表示启动成功)
sudo systemctl status seekdb

# 5. 连接测试
mysql -h127.0.0.1 -uroot -P2881 -A oceanbase
方式 2:使用 Docker(最快捷)
# 一行命令启动 seekdb
sudo docker run -d -p 2881:2881 oceanbase/seekdb

# 如果拉取失败,可使用备用镜像源:
# sudo docker run -d -p 2881:2881 quay.io/oceanbase/seekdb
# sudo docker run -d -p 2881:2881 ghcr.io/oceanbase/seekdb

系统要求

  • CPU:最低 1 核
  • 内存:最低 2 GB 可用内存
  • 支持的操作系统:CentOS 7/8、Ubuntu 20+、Debian 9+、Anolis OS 8、麒麟 V10 等

更多部署方式请参考 seekdb 部署文档[1]


安装 seekdb MCP Server

安装 uv 包管理器

# 安装 uv 包管理器
curl -LsSf https://astral.sh/uv/install.sh | sh

配置 AI 工具连接

Stdio 模式

以 Cursor 为例在 Cursor 中,打开设置 → Tools & MCP → New MCP Server,根据你的操作系统选择配置方式:

Linux 用户(嵌入式模式)

{
  "mcpServers": {
    "seekdb": {
      "command": "uvx",
      "args": ["seekdb-mcp-server"]
    }
  }
}

就这么简单!嵌入式模式无需任何配置,服务器启动时会自动初始化一个本地 seekdb 数据库。

macOS / Windows 用户(服务器模式)

macOS 和 Windows 不支持嵌入式模式,需要先部署 seekdb 数据库(推荐使用 Docker),然后配置连接参数:

{
  "mcpServers": {
    "seekdb": {
      "command": "uvx",
      "args": ["seekdb-mcp-server"],
      "env": {
        "SEEKDB_HOST": "127.0.0.1",
        "SEEKDB_PORT": "2881",
        "SEEKDB_USER": "",
        "SEEKDB_PASSWORD": "",
        "SEEKDB_DATABASE": "test"
      }
    }
  }
}

参数说明

参数说明默认值
SEEKDB_HOSTseekdb 服务器地址127.0.0.1
SEEKDB_PORTseekdb 服务端口2881
SEEKDB_USER数据库用户名
SEEKDB_PASSWORD数据库密码
SEEKDB_DATABASE数据库名称

SSE 模式

Linux 用户(嵌入式模式)

直接启动 SSE 服务器:

uvx seekdb-mcp-server --transport sse --port 6000

macOS / Windows 用户(服务器模式)

先配置环境变量,再启动服务器:

# 配置 seekdb 连接信息
export SEEKDB_HOST=127.0.0.1
export SEEKDB_PORT=2881
export SEEKDB_USER=
export SEEKDB_PASSWORD=
export SEEKDB_DATABASE=test

# 启动 SSE 服务器
uvx seekdb-mcp-server --transport sse --port 6000

然后在客户端配置:

{
  "sse-seekdb": {
    "type": "sse",
    "url": "http://127.0.0.1:6000/sse"
  }
}

实战案例:用 AI 对话构建个人笔记知识库

现在让我们通过一个完整的实战案例,体验 seekdb MCP Server 的强大能力。我们将构建一个个人笔记知识库,实现:

  • ✅ 用自然语言存储笔记
  • ✅ 语义搜索相关内容
  • ✅ 混合搜索精准定位
  • ✅ AI 智能问答

场景设定

假设你是一名技术工作者,平时会记录各种学习笔记、工作心得。现在你希望用 AI 帮你管理这些笔记,并能通过自然语言快速找到需要的内容。

第一步:创建笔记集合

在 AI 工具(如 Cursor)的对话框中输入:

创建一个名为 "my_notes" 的知识库集合

AI 响应示例:

我已成功创建名为 "my_notes" 的集合:

  • 维度: 384(向量大小)
  • 距离度量: L2(欧几里得距离)

就这样,一个支持语义搜索的向量集合就创建好了!

第二步:添加笔记内容

继续输入:

向 my_notes 中添加以下笔记:

1. "seekdb 支持向量搜索和全文搜索的混合检索,可以同时利用关键词匹配和语义理解"
2. "MCP 协议是 Anthropic 在 2024 年 11 月提出的开源协议,让大模型可以与外部工具交互"
3. "Python 的 asyncio 模块提供了异步编程能力,适合 I/O 密集型任务"
4. "Docker 容器化技术可以实现应用的快速部署和环境隔离"
5. "RAG(检索增强生成)是目前最流行的 AI 应用架构,结合检索和生成能力"

AI 响应示例:

完成!已成功向 "my_notes" 集合添加 5 条笔记:

ID内容
doc1seekdb 支持向量搜索和全文搜索的混合检索...
doc2MCP 协议是 Anthropic 在 2024 年 11 月提出的...
doc3Python 的 asyncio 模块提供了异步编程能力...
doc4Docker 容器化技术可以实现应用的快速部署...
doc5RAG(检索增强生成)是目前最流行的 AI 应用架构...

第三步:语义搜索

现在,让我们用自然语言搜索笔记:

在 my_notes 中搜索与 "AI 应用开发" 相关的笔记

AI 响应示例:

以下是与 "AI 应用开发" 相关的笔记,按相关性排序:

排名内容相关度
1RAG(检索增强生成)是目前最流行的 AI 应用架构...最高
2MCP 协议是 Anthropic 在 2024 年 11 月提出的...
3seekdb 支持向量搜索和全文搜索的混合检索...

注意:我们搜索的是 "AI 应用开发",但笔记中并没有这个确切的词。seekdb 的向量搜索能够理解语义相似性,自动找到相关内容!

第四步:混合搜索

混合搜索结合了关键词匹配语义理解,效果更精准:

对 my_notes 执行混合搜索:
- 全文关键词:"Python"
- 语义查询:"异步编程和并发处理"

AI 响应示例:

排名内容
1Python 的 asyncio 模块提供了异步编程能力,适合 I/O 密集型任务
2Docker 容器化技术可以实现应用的快速部署和环境隔离

混合搜索使用 RRF(倒数排名融合) 算法,综合关键词匹配(BM25)和向量相似度得分,排名结果更准确。

第五步:让 AI 记住你的偏好

seekdb MCP Server 还提供了 AI 记忆系统,让 AI 能够跨会话记住你的信息:

记住我是一名 Python 开发者,主要使用 seekdb 做向量搜索应用

AI 响应示例:

已记录!我会记住:

  • 你是一名 Python 开发者
  • 主要使用 seekdb 做向量搜索应用

下次对话时,你可以直接问:

根据我的技术背景,推荐一些学习资源

AI 会自动检索你的偏好,给出个性化推荐!

功能一览

向量集合管理

工具功能
create_collection创建向量集合
list_collections列出所有集合
has_collection检查集合是否存在
peek_collection预览集合中的文档
add_data_to_collection添加文档(自动生成向量)
update_collection更新文档
delete_documents删除文档
query_collection向量相似性搜索
delete_collection删除集合

高级搜索

工具功能
full_text_search全文搜索(基于关键词)
hybrid_search混合搜索(结合全文和向量搜索)

AI 模型工具

工具功能
create_ai_model注册 AI 模型(嵌入、文本生成或重排序)
create_ai_model_endpoint创建将模型连接到 API 服务的端点
drop_ai_model移除已注册的 AI 模型
drop_ai_model_endpoint移除 AI 模型端点
ai_complete调用 LLM 进行文本生成
ai_rerank使用 AI 模型按相关性重排文档
get_registered_ai_models列出所有已注册的 AI 模型
get_ai_model_endpoints列出所有 AI 模型端点

AI 记忆系统

seekdb MCP Server 提供了强大的 AI 记忆功能,让 AI 助手能够跨会话记住信息:

工具功能
seekdb_memory_query语义搜索记忆
seekdb_memory_insert存储新记忆
seekdb_memory_update更新记忆
seekdb_memory_delete删除记忆

使用场景

  • AI 记住你的技术栈偏好(如 "我习惯使用 Python")
  • AI 记住项目信息(如 "这个项目使用 FastAPI")
  • AI 记住个人偏好(如 "我喜欢简洁的代码风格")

数据导入导出

工具功能
import_csv_file_to_seekdb导入 CSV 文件
export_csv_file_from_seekdb导出数据到 CSV

SQL 操作

工具功能
execute_sql执行 SQL 查询
get_current_time获取数据库当前时间

更多工具探索

除了本文介绍的功能,seekdb MCP Server 还支持:

  • AI 函数调用

    • 使用 AI 模型分析这段文本的情感倾向:"今天天气真好,心情愉悦!"
  • CSV 数据导入

    • 将 /path/to/products.csv 导入为向量集合,使用第 2 列(产品描述)作为文档

常见问题

Q: 需要安装 seekdb 吗?

A: 不需要!seekdb MCP Server 使用嵌入式模式,seekdb 已经包含在内,无需单独安装。

Q: 数据存储在哪里?

A: 数据存储在本地文件系统中,默认在当前用户家目录下。你的数据完全在本地,不会上传到任何云端。

Q: 支持哪些操作系统?

A: 目前支持 Linux(glibc >= 2.28),支持 x86_64 和 aarch64 架构。

Q: 如何升级?

A: 使用 uvx 时会自动使用最新版本。

总结

seekdb MCP Server 让数据库操作变得前所未有的简单:

传统方式MCP 方式
学习 SQL 语法用自然语言描述需求
编写代码调用 APIAI 自动执行操作
手动管理向量嵌入自动生成和索引
分别处理搜索逻辑一句话混合搜索

无论你是想快速构建 RAG 应用,还是想让 AI 助手拥有"长期记忆",seekdb MCP Server 都是你的最佳选择。

开始你的 AI 原生数据库之旅吧! 🚀


参考资料

[1] seekdb 部署文档: https://www.oceanbase.ai/docs/deploy-overview/

全流程一体化能力横评:6大CRM/ERP工具的「线索-回款」闭环之战

在数字化转型中,「客户线索-销售报价-库存查询-订单履约-回款对账」的全流程一体化已成为企业降本增效的核心需求——零散的工具集成不仅会导致数据割裂,更会增加运营成本(据Gartner统计,企业因工具集成不畅导致的效率损失可达20%)。

本文将围绕5大核心维度,对超兔一体云、Salesforce、SugarCRM、Freshsales、金蝶云星辰、管家婆的一体化能力展开深度对比,结合功能细节、行业适配性、原生 vs 集成成本三大视角,为企业选择提供参考。

一、核心维度与评估指标定义

先明确每个维度的关键评估指标(均为企业实际场景中的痛点):

维度关键评估指标
客户线索跟踪渠道整合能力、AI驱动的线索培育、定制化灵活性、合规性
销售报价生成模板化效率、自动化规则(如定价/库存校验)、审批流程、状态跟踪
库存实时查询原生功能覆盖、多仓支持、智能预警、与销售/采购的联动
订单履约业财联动深度、流程自动化(如采购/生产对接)、跨境/多场景适配
回款对账一体化应收触发自动化、回款跟踪与提醒、对账自动化、业财数据一致性

二、6大工具核心能力横评

(一)客户线索跟踪:从「获客」到「转化」的效率之战

客户线索是业务的起点,渠道整合深度AI驱动的精准培育是核心竞争力。

工具渠道整合AI能力定制化/合规性核心优势场景
超兔一体云原生支持百度/抖音/微信/工商搜客等10+渠道,自动抓取表单数据线索自动分配(手机号/IP归属地)、生命周期管理(客池分类:需求培养→成功)支持线索字段自定义,无合规风险需全渠道线索统一管理的商贸/制造企业
Salesforce全渠道整合(邮件/社交/线下),需配置Einstein ConnectorEinstein AI分析客户行为(如浏览轨迹),推送个性化内容,线索评分预测转化生态丰富,但定制需懂Apex语言大型跨国企业,需AI驱动精准营销
SugarCRM支持API对接多渠道,需二次开发无原生AI,依赖第三方插件代码级定制(适合金融/医药合规)对数据隐私/流程合规要求高的行业
Freshsales整合电话/邮件/社交,自动补全客户信息AI线索评分(基于互动频率)、预测分析模板化配置,灵活度一般侧重线索快速跟进的SaaS/互联网企业
金蝶云星辰支持客户分层,结合AI模型驱动精准营销(如美妆复购率提升27%)AI客户画像分析,推荐营销活动适合零售/电商的客户分层管理成长型企业,需从线索到复购的闭环
管家婆内置客户档案,记录需求/服务历史无原生AI,依赖人工跟进适合中小微企业(如家政/维修)服务行业,需记录客户历史偏好
关键结论:
  • 超兔的原生多渠道整合无需额外配置,是中小微企业的「省心之选」;
  • Salesforce的Einstein AI是大型企业的「精准营销利器」;
  • SugarCRM的代码级定制适合金融/医药等强合规行业。

(二)销售报价生成:从「精准」到「高效」的平衡

销售报价的核心是「准确」(库存/定价)「快速」(模板+审批)。

工具模板化能力自动化规则审批与状态跟踪核心优势场景
超兔一体云支持个性化模板(按产品/客户类型),可自定义字段/计算方式针对询价客户,发起报价,可自动生成报价单支持多级审批,记录审批历史需精准报价的生产/商贸企业
Salesforce内置CPQ(配置-定价-报价)工具,自动化生成报价单基于产品规则(如捆绑销售)、客户合同定价与Sales Cloud联动,状态实时更新需复杂定价规则的大型企业(如软件)
Freshsales模板化报价,支持一键发送邮件无库存校验,需集成ERP跟踪报价打开/点击状态侧重报价快速触达的中小企业
金蝶云星辰多端移动办公,切换客户时价格自动更新(客户等级差异化定价)支持批量报价,自动关联客户档案报价与财务联动,精准度高零售/电商,需客户分层定价
管家婆15种行业模板(便利店/微商),快速配置自定义报价规则(如折扣)无审批流程,适合简单场景小微企业,需快速生成报价
关键结论:
  • 超兔的订单价格校验、出库校验,确保业务顺利执行;
  • Salesforce的CPQ功能适合复杂产品组合(如软件license+服务);
  • 金蝶的客户等级定价是零售/电商的「差异化竞争工具」。

(三)库存实时查询:从「报价」到「发货」的准确性保障

库存是销售的「底气」,原生功能覆盖实时联动是避免「超卖/缺货」的关键。

工具原生功能多仓支持智能预警与联动核心优势场景
超兔一体云原生进销存模块,支持多价格策略/成本算法多仓管理,实时同步库存数量/位置库存上下限预警,自动生成采购计划需多仓联动的生产/商贸企业
Salesforce无原生库存,需集成ERP(如SAP)依赖ERP的多仓能力无原生预警,需ERP配置大型企业,已有成熟ERP系统
Freshsales无原生库存,需集成Google Workspace/ERP无需库存管理的轻量级销售团队
金蝶云星辰原生进销存模块,采购/销售/库存全链路同步多仓管理,支持跨仓调拨智能库存预警(避免缺货/积压)成长型零售/电商,需进销存联动
管家婆原生多仓管理,支持离线操作(数据实时同步)多仓/多计量单位管理保质期预警,库存数量预警小微企业(如便利店),需简单库存
关键结论:
  • 超兔的原生库存+智能采购是「库存-销售」联动的「最优解」;
  • 金蝶的进销存全链路同步适合成长型企业;
  • Salesforce/Freshsales需额外集成ERP,成本高。

(四)订单履约:从「下单」到「交付」的流程自动化

订单履约的核心是「业财联动」「流程标准化」,避免「订单漏处理」或「财务对账难」。

工具业财联动流程自动化跨境/特殊场景核心优势场景
超兔一体云原生业财架构,订单生成后自动触发应收/财务凭证订单工作流(锁库→采购→生产→物流)、生产对接MES系统通过客户信用管控来实现跨境订单风控(减少坏账)生产制造企业,需从订单到生产的闭环
Salesforce需集成FinancialForce等财务工具订单流程自动化(如审批→发货),需配置Flow支持跨国订单,但需集成物流工具大型企业,已有财务系统集成
金蝶云星辰业财一体化,订单处理效率提升3倍(自动生成凭证)自动匹配采购需求,跨境订单风控支持跨境电商,减少坏账损失零售/跨境电商,需业财快速联动
管家婆进销存数据自动生成财务报表流程标准化(如采购→入库→销售)适合中小微企业,快速部署便利店/微商,需简单订单流程
关键结论:
  • 超兔的原生业财联动+生产对接是制造企业的「刚需」;
  • 金蝶的业财自动凭证是零售/电商的「效率利器」;
  • Salesforce需集成财务系统,适合已有IT架构的企业。

(五)回款对账一体化:从「应收」到「结算」的风险控制

回款是企业的「现金流生命线」,应收自动化对账一致性是核心。

工具应收触发回款跟踪对账自动化核心优势场景
超兔一体云签约/开票/发货自动触发应收,支持一票对多单/一笔对多单账期管理、客户信用度控制(规避发货风险)、逾期提醒自动匹配应收/回款,生成对账报告需严格控制账期的制造/商贸企业
Salesforce需集成财务工具(如QuickBooks)回款跟踪(需手动录入),无自动提醒需手动匹配应收/回款大型企业,已有财务系统
金蝶云星辰业务数据自动生成财务凭证,票/税/档一体回款状态实时追踪,缩短对账周期自动生成对账报告,支持批量结算零售/电商,需票税一体化
管家婆进销存数据自动生成应收,支持简单账期管理手动录入回款,生成回款报表自动匹配应收/回款,简单对账小微企业,需快速对账
关键结论:
  • 超兔的应收自动触发+信用控制是「风险规避」的核心;
  • 金蝶的票税档一体适合需合规报税的企业;
  • 管家婆的简单对账适合中小微企业。

三、一体化能力总结:从「零散工具」到「原生闭环」的选择逻辑

(一)一体化流程对比:超兔的「原生闭环」vs 其他工具的「集成依赖」

超兔一体云的原生一体化流程

其他工具(如Salesforce)的集成依赖流程

四、适用场景推荐

企业类型/需求推荐工具核心原因
中小微企业,需全流程闭环超兔一体云原生一体化,无需集成,成本低
大型跨国企业,需AI与生态SalesforceEinstein AI+丰富生态,适合全球化
成长型零售/电商,需业财融合金蝶云星辰业财自动凭证+票税一体,效率高
小微企业(如便利店/微商)管家婆功能实用,快速部署,成本低
金融/医药,需合规定制SugarCRM代码级定制,符合数据隐私要求
SaaS/互联网,需线索快速跟进FreshsalesAI线索评分+多渠道互动,效率高

五、结论:一体化的本质是「数据打通」与「流程自动化」

从6大工具的对比来看,原生一体化(如超兔、金蝶)是中小微企业的「最优解」——无需投入集成成本,就能实现从线索到回款的全流程数据打通;而大型企业(如Salesforce)则需根据已有IT架构选择「生态整合」方案。

最终,企业选择工具的核心逻辑是:以业务流程为中心,优先选择「原生覆盖核心环节」的工具,避免「为了集成而集成」的无效投入。

超兔一体云作为「原生一体化」的代表,其核心优势在于将「线索-报价-库存-订单-回款」的每一步都设计为「数据自动流动」,真正实现了「业务驱动数据,数据反哺业务」的闭环。这也是其能帮助企业降低30%运营成本、提升25%回款效率的关键。

在工程资料管理工作中,众多用户渴望有一个功能,能集中查看所有已创建部位,并清晰知晓各部位所创建的表格,以便于统一查看与汇总管理。筑业云资料的 “流水段视图” 功能恰好满足了这一需求,成为资料管理的得力助手。
以流水段为维度的便捷整合
“流水段视图” 功能以施工流水段为维度,将同一部位的所有表格巧妙列在一起。这种整合方式极大地方便了资料的查看、复制、编辑及管理。例如在大型建筑项目中,不同楼层的相同部位可能存在相似的资料表格,通过该功能,可快速定位并查看这些部位及其相关表格,无需在海量资料中逐一查找,节省大量时间与精力。
清晰多样的操作流程
功能入口与展示:在软件工具栏找到并点击 “流水段视图” 功能入口,进入后,所有单位工程下的所有表格会以目录树的形式清晰展示。这种直观的展示方式,让用户对整个工程资料架构一目了然。
新建操作:右键点击可进行多种新建操作,如新建单位工程、新建表格、新建文件夹等。新建文件夹功能尤为实用,例如创建 “楼层”“构件” 等文件夹,输入楼层名称如 “一层”,含一层的部位就会自动归到该文件夹中,无需手动移动,使资料分类更加有序。
复制操作:当制作标准层资料时,复制功能尽显便捷。右键复制并输入如 “第二层”,即可快速建立标准层的表格。对于文件夹,同样可右键选择 “复制文件夹”,输入新名称如 “二层”,点击 “确定” 后,该部位下面的所有表格都会复制过来,且部位名称按新输入内容自动填充,大大减少重复建表工作。
重命名与删除操作:右键 “重命名” 时,勾选相应选项可选择是否同步修改文件夹下所有表格的名称,确保资料一致性。而右键 “删除” 仅删除文件夹,文件夹里的表格会被移出,不会被删除,保障资料安全。
显著提升资料管理效率
“流水段视图” 功能通过 “创建一次,多次复制” 的智能化方式,将资料员从大量重复性建表工作中解放出来。它不仅规范了资料管理,使资料分类清晰、易于查找,还显著提升了做表效率。在工程项目周期紧张的情况下,高效的资料管理能为项目推进节省时间,确保各环节顺利进行。
筑业云资料的 “流水段视图” 功能,以其独特的整合方式与丰富实用的操作,成为工程资料管理不可或缺的功能,助力资料员轻松应对复杂的资料管理任务,提升整体工作质量与效率。

Android Studio Otter 的最新版本引入了多项新特性,使开发者可以更轻松地将 AI 驱动的工具集成到他们的工作流程中,包括选择使用哪个大型语言模型(LLM)、通过设备交互实现增强型代理模式、支持自然语言测试等。

 

LLM 灵活性是指开发者可以选择使用哪个 LLM 为 Android Studio 中的 AI 功能提供支持。虽然 IDE 默认包含一个 Gemini 模型,但开发者现在可以集成一个单独的远程模型,包括 OpenAI 的 GPT 和 Anthropic 的 Claude,或者使用 LM Studio 或 Ollama 等运行一个本地模型。谷歌表示,本地模型特别适合那些“互联网连接受限、数据隐私要求严格或希望尝试开源研究成果”的开发者,不过它们需要大量的本地 RAM 和硬盘空间才能有效运行。

 

偏好 Gemini 的开发者现在可以使用自己的 Gemini API 密钥访问更高级的版本,以及扩展后的上下文窗口和配额,在使用代理模式进行长时间编码会话时,这可能很重要。

 

Android Studio Otter 还通过让代理“看到”并与应用程序交互来增强代理模式。这包括在设备或模拟器上部署和检查应用程序,通过捕获屏幕截图和分析屏幕内容来调试应用程序 UI,以及检查 Logcat 以查找错误。

 

Android Studio Otter 的另一个主要特性是通过 “Journey” 支持自然语言测试,这使得开发者可以用简单英语定义用户 Journey 测试,Gemini 会将这些指令转换为可执行的测试步骤。

 

这不仅使你可以更轻松地编写测试,而且编写出来的测试更容易理解。它还使你能够定义复杂的断言,让 Gemini 根据在设备屏幕上“看到”的内容进行评估。因为 Gemini 会推理如何实现你的目标,所以这些测试能更好地应对应用程序布局的微妙变化,在面对不同应用程序版本或设备配置时显著减少测试结果的不稳定性。

 

该 IDE 专门提供了一个基于 XML 的编辑器(管理这些 Journey )以及一个测试面板(显示每个动作的屏幕截图以及 Gemini 执行每个步骤的原因)。

 

Android Studio 现在还支持模型上下文协议(MCP),允许 AI 代理连接到 Figma、Notion 和 Canva 等远程服务器。例如,通过连接到 Figma,代理模式可以直接访问设计文件,生成更准确的 UI 代码,减少了在不同的工具之间手动复制粘贴上下文的需求。

 

最后,本次更新引入了一个专门的 UI ,用于审查编码代理编辑过的每个文件。它允许开发者查看代码差异,并选择保留或单个或全部撤销更改。此外,它现在可以管理多个聊天线程,使不同的任务(如 UI 设计和 Bug 修复)可以同时执行,而不会丢失上下文。

 

Otter 的特性更新比这里提到的要多许多,如经过改进的应用链接助手、 Logcat 自动回溯等。要了解完整的特性更新信息,请查阅发布公告原文。

原文链接:

https://www.infoq.com/news/2026/01/android-studio-otter-llm-flex/

案例背景

作为亚洲领先的投资基金,某东南亚投资基金公司(以下简称 A 基金)正处于从传统数仓向企业级数据中台转型的关键期。目前,其核心业务系统深植于 AWS 环境,涵盖了 SQL Server、MySQL 及 S3 等多种存储形态,并已初步建成基于 MSK(Kafka)与 Flink 的实时处理链路。为了应对日益增长的业务需求,A 基金规划引入 Databricks Lakehouse 作为统一的数据底座。

然而,随着任务规模预估跨越式增长,多云环境导致的“碎片化”问题愈发凸显。跨云任务协同困难、多套调度体系割裂、缺乏 CI/CD 机制以及 Databricks 作业无法深度纳管等挑战,使得平台运维成本激增,资源弹性难以支撑业务峰值。

e6984589-71da-4116-8f19-e47ad63b2d2b

核心挑战

具体来说,A 基金在推动企业级数仓与数据中台建设的过程中 遇到的核心挑战来源于多方面:

  • 多云环境共存导致协同困难: 存量系统在 AWS,新系统与 Lakehouse 规划落在 Databricks(跨云可部署),跨云数据传输与资源调度缺乏统一协同机制。
  • 数据工具多样、调度体系割裂: 内部存在多套同步与调度方案,缺少统一编排、统一运维监控与统一告警体系。
  • 缺乏 CI/CD 机制: 任务上线、变更依赖人工导入导出,版本控制、审计与回滚能力不完善。
  • 资源弹性不足: 高峰期任务堆积、低峰期资源闲置,扩缩容响应不及时,影响整体 SLA。
  • Databricks 作业体系纳管不足: Databricks Jobs/Notebook/Workflow 与现有调度体系割裂,容易形成“第二套平台”,进一步加剧治理碎片化。
  • Lakehouse 建设需求增强: 需要支持批/实时数据统一落地到 Lakehouse,支持 Schema 演进、版本治理与表格式演进策略,避免口径漂移与数据孤岛。
  • 运维噪声与体验问题: 任务状态多、告警多、定位慢;Dashboard 缺少时间记忆与常用筛选保持,影响日常运营效率。

WhaleStudio + Databricks 统一湖仓方案

针对上述挑战,A 基金采用 WhaleStudio 商业版 作为统一的数据集成与调度中枢,深度纳管 AWS 与 Databricks 作业体系。通过“批处理+CDC”双引擎及实时链路(MSK+Flink)统一编排,打破多云割裂,消除治理孤岛。结合 CI/CD 自动化交付与动态扩缩容架构,在支撑万级任务扩展的同时,实现 Lakehouse 的标准化治理与智能运维,确保金融级数据的高可靠与强一致性。

具体来说,WhaleStudio 商业版作为核心的数据集成与调度中枢,通过以下四大核心模块,实现了从数据接入到运维治理的全流程自动化,将 Databricks Lakehouse 深度整合进企业的统一治理闭环:

cb49a6e2-44ac-4ac0-bc6d-4a99cdca86f9

1. 统一编排中枢:跨云协同与 Databricks 深度纳管

该方案通过构建统一的任务中心与元数据仓库,整合了原本分散的集成与调度工具,实现跨系统的集中管理与审计。它不仅能够统一编排 AWS 生态下的原生任务,更实现了对 Databricks Jobs / Notebook / Workflow 的深度对接。通过建立跨云任务的统一依赖、统一调度与统一监控体系,有效避免了 Databricks 沦为孤立的“第二套平台”,确保了多云环境下业务协同的连贯性。

2. 批流一体架构:双引擎接入与实时链路治理

为了满足金融资管对数据时效性的多样化需求,平台提供 “批处理 + CDC” 双引擎接入能力,全面覆盖 SQL Server、MySQL 及 S3 等多源数据的采集与同步。同时,方案将 Kafka (MSK) 与 Flink 实时流任务深度纳入统一工作流编排,形成了离线分层落地与实时链路供给并行的治理模式。这种“批流一致”的体系,确保了实时与离线任务在调度逻辑、监控视图及告警机制上的高度统一。

3. 规范化湖仓落地:Lakehouse 演进与自动化交付

在数据落地阶段,方案优先支撑产出统一汇聚至 Databricks Lakehouse,构建起从 ODS、DWD 到 DWA 的标准化分层体系。平台兼容 Delta 与 Iceberg 等主流表格式策略,并提供 Schema 演进与版本治理能力,防止口径漂移。此外,通过引入 CaC(配置即代码)与 CI/CD 标准化流水线,实现了配置版本化、变更审计与灰度发布,将传统的人工操作转化为自动化的持续交付,极大降低了上线风险。

4. 智能化运维体系:告警降噪与交互体验优化

针对大规模任务环境下的运维压力,方案提供了智能化的监控解决方案。通过多级告警聚合与降噪技术,配合失败/告警过滤视图,运维人员能从海量信息中快速锁定核心问题。同时,系统对 Dashboard 进行了人性化改良,支持时间记忆与筛选状态保持,大幅提升了异常定位的速度与日常运营的整体效率。

方案对比:从多工具拼装到一体化中枢

在 A 基金最初的架构设计中,多工具拼装的“烟囱式”结构虽然在短期内解决了业务上线快的问题,但随着任务规模向万级跨越,这种模式带来的协同成本和运维压力已成为技术债。

WhaleStudio 方案的核心价值在于“打破割裂”,它不是在原有的工具堆栈上多打一个补丁,而是通过统一的编排大脑和标准化的交付流水线,将 Databricks 从一个孤立的计算引擎,彻底转变为企业全局数据治理闭环中的一部分。这种转变不仅是为了解决当前的运维噪声,更是为了在跨云环境下,为后续 Lakehouse 的长期演进提供一个稳固的工程化底座。

通过下图和表格,我们可以直观地看到架构重塑前后的差异:

129d92dc-237e-48b1-95e1-4cb9f0881471

维度原方案:多工具拼装推荐方案:WhaleStudio + Databricks Lakehouse
典型形态SQL Server/MySQL/S3/Blob →(多套同步工具+多套调度系统)→ Kafka/MSK(实时)+ Flink(流计算)→ Databricks/数仓落地(各自管理)→ 数据质量/告警/审计分散数据源(AWS SQL Server/MySQL/S3/Blob/Kafka)→ WhaleStudio(统一集成+统一编排+统一治理)→ 实时链路(MSK/Flink)与湖仓链路(Databricks Lakehouse)闭环
优点选型灵活,局部上线快;单点需求可用最熟悉工具解决;短期推进速度较快。更少组件、更强一体化;Databricks 统一纳管;跨云统一视图与资源调度;CI/CD 标准化交付;分布式弹性扩缩容;Lakehouse 可演进。
缺点链路割裂,跨系统定位成本高;跨云难统一,协同效率低;缺少 CI/CD 导致上线风险高;资源不弹性,SLA 不稳定;Databricks 纳管不足。(实施建议): 建议分阶段落地:先统一集成与编排中枢,再逐步深化 CI/CD、Lakehouse 治理与智能运维能力,以确保风险可控。

业务价值与收益:从效率跃迁到治理升级

总结起来,通过引入 WhaleStudio 平台,A 基金成功实现了从“多工具拼装”向“一体化治理”的架构跨越,其核心收益主要体现在以下三个维度:

首先,在管理架构上实现了全链路闭环与深度纳管。
平台将集成、编排、监控、告警与审计高度整合,彻底终结了系统割裂带来的重复维护。最显著的变化在于,Databricks 的作业体系与数据落地被完整纳入统一调度,使其不再是游离于主体系之外的“第二套平台”,实现了真正的跨云而不割裂。

其次,在交付能力与资源利用率上达成了双重突破。
在工程化方面,标准化的流水线交付取代了低效的人工导入导出,配合审计与一键回滚机制,让业务变更既快又稳。在性能方面,分布式架构配合动态扩缩容,有效缓解了金融业务在峰值期的任务堆积,在确保 SLA 稳定的同时,大幅减少了低峰期的资源浪费。

最后,在运维体验与长期演进中建立了坚实底座。
针对金融级治理需求,Schema 演进与版本控制能力显著降低了口径漂移风险,保障了 Lakehouse 的长期健康演进。而在日常运营中,告警降噪、过滤视图与时间记忆等智能化功能,将运维人员从干扰信号中解放出来,实现了异常问题的精准定位与快速响应。

归结起来,在多云与多工具并存的背景下,A 基金选择以 WhaleStudio 商业版作为统一的数据集成与调度中枢,将 AWS 上的批处理/CDC 与实时链路(MSK + Flink)以及 Databricks Lakehouse 的作业与数据落地纳入同一套编排、交付与运维治理体系。通过分布式架构与跨云统一编排,其能在任务规模从数百向数千增长的过程中保持 SLA 稳定,并以 CI/CD、告警降噪与 Lakehouse 治理能力,为基金业务提供更安全、更可追溯、更易演进的数据底座。

微软 Rewards 活动,有参与的吗?
就是每天用微软的 bing 搜索,获取积分,然后达到一定的积分了,可以兑换盒马、KFC、天猫超市卡等等,目前已经兑换了 3000 元的卡了,逐渐增加号中。

https://rewards.bing.com/welcome?rh=A2C1DFFC&ref=rafsrchae
搜索积分,电脑、手机都可以搜,2 个同时搜积分更多,差不多 2 个月兑换 100 元盒马、天猫超市卡,或是 KFC、京东 e 卡。
相比快手、抖音等签到,没压力,不需要每天连续搜索,搜索了就有,不搜索就没有。随便搜索什么内容。

相关点击访问:

github

HUGGINGFACE

MODELSCOPE

SHOWCASEgithub

从 Chatbot 到 Autonomous Agent

通义DeepResearch —— 首个在性能上可与 OpenAI DeepResearch 相媲美、并在多项权威基准测试中取得领先表现的全开源 Web Agent。

在多个极高难度的信息检索和推理任务中,通义DeepResearch 取得了最先进的(SOTA)成绩:

  • Humanity’s Last Exam (HLE):32.9
  • BrowseComp‑EN:43.4
  • BrowseComp‑ZH:46.7
  • xBench‑DeepSearch:75.0

全面超越了目前所有的闭源及开源 Deep Research 智能体(Agent)。

不仅如此,我们还完整分享了一套可落地的高水平Agent构建方法论,详细介绍了从数据合成、Agentic 增量预训练(CPT)、有监督微调(SFT)冷启动,到强化学习(RL)的全套流程。在 RL 环节,我们提供了算法创新、自动化数据构建与高稳定性基础设施的全栈解决方案。

在推理阶段,基础的 ReAct 模式无需任何提示工程即可充分展现模型固有能力,而深度模式(test‑time‑scaling) 则展示了其在复杂推理与规划能力上的上限。

基于合成数据的增量预训练和后训练

增量预训练数据

我们提出在Agent模型训练中加入智能体增量预训练(Agentic Continual Pre‑training, Agentic CPT)阶段,从而为后训练提供一个强大的Agent基座模型。为此,我们提供了一套支持大规模持续扩展的智能体预训练数据合成方案AgentFounder,并与后训练过程中源源不断生产的数据形成数据飞轮。

数据重组和问题构建 

基于广泛收集和持续更新的知识文档、公开可用的爬虫数据、知识图谱以及后训练数据生产和训练中产生的轨迹数据和工具调用返回结果(例如,搜索结果和网页访问记录)等,我们构建了一个以实体为锚定的开放世界知识记忆。进一步,我们基于采样的实体和相关知识构造多风格的(问题,答案)对,以尽可能涵盖智能体所面临的真实场景。

image

image

动作合成 

基于多风格问题和历史轨迹数据,我们分别构建了三种类型的动作数据,包含单步的规划、推理动作和多步的决策动作合成。我们的方法能够在离线环境下大规模、全面地探索潜在的推理‑动作空间,从而消除了对额外商业工具 API 调用的需求。例如,对于决策动作合成,我们将原始轨迹中的步骤进行扩展,并最终建模成多步骤决策过程数据,以激发模型的探索能力和决策能力。

后训练数据

High‑quality QA

我们开发了一套端到端的合成数据生成解决方案。这一全自动流程无需人工干预即可构建超越人类质量的数据集,旨在突破智能体的性能极限。经过长期的探索和迭代——从早期的网页点击流逆向工程Benchmark(WebWalker)到基于图谱的合成方法(WebSailor 和 WebSailor‑V2),再到形式化的任务建模(WebShaper),我们的方法确保了卓越的数据质量和强大的可扩展性,突破了模型能力的上限。

为了解决复杂且高度不确定的问题,我们通过一种新颖的流程合成基于 Web 的问答数据。该流程首先通过在高度互联的知识图谱随机游走和基于表格数据融合同构表构建,将来自真实网站数据整合,并确保信息结构的真实性;然后,我们对子图和子表进行采样,生成初始问题和答案,关键步骤是通过策略性地混淆或模糊问题中的信息来增加问题难度。该方法基于一个组合泛化的理论框架,我们将问答难度正式建模为一系列可控的“原子操作”(例如,合并具有相似属性的实体),这些操作基于实体关系,使我们能够系统地增加复杂性。

为了进一步减少问答系统的信息结构与推理结构之间的不一致性,提高推理难度和结构扩展能力,我们提出了一种基于集合论的信息搜索问题形式化建模,基于这种建模,我们开发了能够以可控方式扩展问题的智能体,并最大限度地减少了推理捷径和结构冗余,从而进一步提升了问题质量,此外,这种形式还能高效地验证问答的正确性,有效解决了信息搜索合成数据难以验证的挑战。

我们还开发了一个自动化学术数据构建流程,以扩大博士级研究问题的规模。该引擎基于多学科知识库,生成需要多源推理的“种子”问答对;然后,每个种子都会进入一个自我引导的“迭代复杂性升级”循环,其中,一个问题构建代理配备了一套强大的工具,包括网络搜索、学术检索和 Python 执行环境。在每次迭代中,代理都会扩展知识边界,深化概念抽象,甚至构建计算任务,从而形成一个演化循环,上一轮的输出成为下一轮更复杂的输入,确保任务难度的可控且系统地升级。

融合多样推理模式,激发智能体潜能

为激发模型的初始能力,我们基于 ReAct 和 IterResearch 框架,通过拒绝采样的方式构建了一组轨迹。一方面,ReAct 作为一个经典且基础的多轮推理范式,为模型注入了丰富的推理行为,并加强了其遵循结构化格式的能力。

另一方面,我们引入了一种创新的智能体范式——IterResearch(下文将详细介绍)。它通过在每一轮动态地重构一个精简的工作空间,来释放模型的全部推理潜力,从而确保每一个决策都经过深思熟虑,不受上下文噪声干扰。

Rollout模式

我们对深度研究型智能体的部署范式进行了广泛的探索。因此,我们的最终模型支持多种部署格式,包括原生的 ReAct 模式和上下文管理的深度模式。

ReAct 模式

我们的模型使用ReAct推理范式展现出卓越的性能。它严格遵循“思考‑行动‑观察”的循环,通过多次迭代来解决问题。模型上下文长度为 128K,可以处理大量的交互轮次,从而完全实现与环境交互的可扩展性。ReAct 的简单性和通用性为模型的内在能力和我们训练流程的有效性提供了最清晰的基准。

我们选择ReAct很大程度上受到了“The Bitter Lesson”的影响,利用可扩展计算的通用方法最终将优于依赖复杂的人工知识和复杂设计的方法。

深度模式

除了 ReAct 模式外,我们还开发了“深度模式”,用于处理极端复杂的多步研究任务。此模式基于我们全新的 IterResearch 范式,旨在将Agent的能力发挥到极致。

IterResearch 范式的创建是为了解决Agent将所有信息堆积在一个不断扩展的单一上下文窗口中时出现的认知瓶颈和噪音污染。针对多步研究任务,IterResearch 将其解构为一系列研究回合。

image

在每一轮中,Agent仅使用上一轮中最重要的输出来重建一个精简的工作空间,在这个专注的工作空间中,Agent会分析问题,将关键发现整合成一个不断演变的核心报告,然后决定下一步行动——是收集更多信息还是提供最终答案。这种“综合与重构”的迭代过程使Agent能够在执行长期任务时保持清晰的认知焦点和高质量的推理能力。

在此基础上,我们提出了Research‑Synthesis框架,并行使用多个IterResearch Agent探索同一个问题。并最终整合它们完善的报告和结论,从而得出更准确的最终答案,这种并行结构使模型能够在有限的上下文窗口内考虑更广泛的研究路径,从而将其性能推向极限。

image

端到端Agent训练流程

image

训练这样的Agent模型需要重新思考整个模型训练流程,从预训练到微调再到强化学习,我们建立了一套完整的智能体模型训练范式,将Agentic CPT → Agentic SFT → Agentic RL 连接起来,为 AI Agent创建了一个无缝的端到端训练循环。

以下是我们利用强化学习解决最后阶段的方法,对于使代理的行为与高阶目标保持一致至关重要:

基于On-Policy策略的智能体强化学习 (RL)

通过强化学习构建高质量的Agent是一项复杂的系统工程挑战;如果将整个开发过程视为一个“强化学习”循环,其组件中的任何不稳定或鲁棒性不足都可能导致错误的“奖励”信号。接下来,我们将分享我们在强化学习方面的实践,涵盖算法和基础设施两个方面。

在强化学习(RL)算法方面,我们基于GRPO进行了定制优化,我们严格遵循 on‑policy 的训练范式,确保学习信号始终与模型当前的能力精准匹配,同时,我们采取了一个 token 级别的策略梯度损失函数来优化训练目标。

其次,为了进一步降低优势估计(advantage estimation)的方差,我们采用了留一法 (leave‑one‑out) 策略,此外,我们发现未经筛选的负样本会严重影响训练的稳定性,这种不稳定性在长时间训练后可能表现为“格式崩溃”(format collapse)现象。为缓解此问题,我们会选择性地将某些负样本排除在损失计算之外,例如那些因过长而未能生成最终答案的样本,出于效率考虑,我们没有采用动态采样,而是通过增大批次(batch size)和组规模(group size)的方式,来维持较小的方差并提供充足的监督信号。

训练过程的动态指标显示,模型学习效果显著,奖励(reward)呈持续上升趋势。同时,策略熵(policy entropy)始终维持在较高水平,这表明模型在持续进行探索,有效防止了过早收敛。我们将此归因于Web环境天然的非平稳性,该特性促进了稳健自适应策略的形成,也因此无需再进行显式的熵正则化。

我们认为,算法固然重要,但并非 Agentic RL 成功的唯一决定因素。 在尝试了多种算法和优化技巧后我们发现,数据质量和训练环境的稳定性,可能是决定强化学习项目成败的更关键一环。一个有趣的现象是,我们曾尝试直接在 BrowseComp 测试集上训练,但其表现远不如使用我们合成数据的结果。我们推测,这种差异源于合成数据提供了一致性更高的分布,使模型能进行更有效的学习和拟合。

相比之下,像 BrowseComp 这样的人工标注数据,本身就含有更多噪声,加之其规模有限,导致模型很难从中提炼出一个可供学习的潜在分布,从而影响了其学习和泛化(generalize)能力。这一发现对其他智能体的训练同样具有启发意义,为构建更多样、更复杂的智能体训练方案提供了思路。

image

在基础设施方面,使用工具训练智能体需要一个高度稳定高效的环境:

● 仿真训练环境:依赖实时 Web API 进行开发成本高昂、速度慢且不一致。我们利用离线维基百科数据库和自定义工具套件创建了一个模拟训练环境来解决这一问题。并且通过SailorFog‑QA‑V2的流程,为该环境生成专属的高质量数据,创建了一个经济高效、快速可控的平台,显著加快了我们的研究和迭代速度。

● 稳定高效的工具沙盒:为了确保在智能体训练和评估期间对工具的稳定调用,我们开发了一个统一的沙盒。该沙盒通过缓存结果、重试失败的调用以及饱和式响应等改进来高效地处理并发和故障。这为智能体提供了快速且鲁棒的交互环境,可以有效防止工具的错误响应破坏其学习轨迹。

● 自动数据管理:数据是提升模型能力的核心驱动力,其重要性甚至超过了算法。数据质量直接决定了模型是否能通过自我探索提升分布外泛化能力。因此,我们在训练动态的指导下实时优化数据,通过全自动数据合成和数据漏斗动态调整训练集。通过数据生成和模型训练之间的正向循环,这种方法不仅确保了训练的稳定性,还带来了显著的性能提升。

● On‑Policy策略的异步框架:我们在 rLLM 之上实现了异步强化学习训练推理框架,多个智能体实例并行与(模拟或真实)环境交互,独立生成轨迹。

通过这些措施,我们实现了智能体强化训练的“闭环”。从基座模型开始,我们进行了Agentic持续预训练以初始化工具使用技能,然后使用类似专家的数据进行监督微调以实现冷启动,最后进在on‑policy的强化学习,使模型进行自我进化。这种全栈方法为训练能够在动态环境中稳健地解决复杂任务的 AI 代理提供了一种全新的范例。

(我们的强化学习算法受到 Agentica 过去研究的启发。我们基于rLLM框架进行开发和扩展,实现高效训练)

应用及影响

通义Deep Research不仅仅是一个研究成果的展示,它已经在阿里巴巴内外赋能实际应用,并在实际场景中展现其价值:

高德地图(地图导航智能体) 高德 App 作为通义在集团内长期共建的重点客户,其“地图导航+本地生活”的业务场景,以及高德内部丰富的专用工具,具备构建Deep Research 类 Agent 的土壤,高德也将这种能力作为 25 年暑期大版本 V16 的一个亮点功能。通义团队近期在地图+本地生活场景,基于纯agentic + ReAct执行复杂推理的垂类Deep Research技术建设,为高德提供更好效果的模型。因此,双方团队共建合作,“通义团队提供Deep Research模型 + 高德团队提供工具和 Agent 链路”,打造了高德 App 中助手「小高老师」的复杂查询体验,在地图行业内打出影响力。

通义法睿(法律Deep Research) 作为大模型原生的“法律智能体”,致力于为大众及法律从业者提供专业、便捷的法律智能服务。集法律问答、案例法条检索、合同审查、文书阅读、文书起草等功能于一体,全面满足法律用户需求。依托创新的Agentic架构与迭代式规划(Iterative Planning)技术,通义法睿全新升级司法DeepResearch能力,可高效执行多步查询与复杂推理,实现权威类案精准检索、法条智能匹配与专业观点深度融合。我们以真实判例、官方法规和权威解读为基础,打造可追溯、高可信的法律分析服务,在法律问答的深度研究三大核心维度——答案要点质量、案例引用质量、法条引用质量上领先行业。

image

未来工作

我们未来的工作将致力于解决以下三个关键局限性:首先,当前 128k 的上下文长度在处理极端复杂的长程推理任务时仍显不足。为此,我们将探索扩展上下文窗口的有效方法,并研究更精细的上下文管理策略。其次,我们训练流程的可扩展性在远超 30B 参数规模的模型上尚未得到充分验证,我们计划在更大规模的模型上测试并验证我们流程的有效性。最后,我们旨在通过引入 partial rollouts 等技术进一步提升强化学习框架的效率,这需要我们攻克离线训练所面临的挑战,尤其是分布偏移问题。

敬请期待我们下一代Agent模型:

@misc{tongyidr,
  author={Tongyi DeepResearch Team},
  title={Tongyi DeepResearch: A New Era of Open-Source AI Researchers},
  year={2025},
  howpublished={\url{https://github.com/Alibaba-NLP/DeepResearch}}
}

image


点击下方访问产品链接:

面向深度的查询问答和调研分析需求场景,多步骤推理规划研究路径,生成有洞察、可溯源、图文并茂的长文报告-大模型服务平台百炼(Model Studio)-阿里云帮助中心

距离上次更新 1.21 差不多应该有 3 年了。
官网只是放出了更新,并没有说更新了啥。
目前已经有了一些问题出现,比如:部分插件失效。原因在于$this->keywords 不能用了,需要改用 $this->getKeywords()。

站在咖啡馆的柜台前,项目经理李薇用手机轻点几下,就重新分配了因航班延误而受影响的三个任务。这种随时随地的管理能力,如今正通过移动端好用的管理工具成为现实。

在移动办公成为常态的今天,工作场所已从固定的办公桌延伸至通勤路上、客户会议室甚至家庭客厅。据统计,超过68%的职场人需要在下班后处理工作事务,而其中近60%的核心协作通过手机完成。

但屏幕尺寸、网络环境和交互方式的根本性改变,也给团队管理带来了前所未有的挑战。

01 移动办公的挑战:为何传统管理工具力不从心?

移动办公的核心特征是碎片化与场景化。工作被切割成更短的时间块,穿插在差旅途中等候、会议间隙甚至家庭生活中。这种模式下,传统为桌面端设计的管理工具暴露出了明显短板。

信息同步延迟是最常见的痛点。团队成员更新了项目状态,但其他人手机上的通知可能迟迟未到,或淹没在混杂的社交信息中。在需要快速决策时,这种延迟可能导致机会错失。

其次,功能阉割与操作繁琐严重阻碍效率。许多工具的移动版只是桌面版的简化移植,关键功能缺失,操作路径深且不符合触屏逻辑。在小屏幕上创建复杂任务、查看甘特图或进行多文件比对,常常令人沮丧。

更深层的是协作壁垒。移动环境下,沟通与管理往往脱节——重要的讨论散落在微信、钉钉等即时通讯工具中,却无法与任务状态自动同步,导致信息孤岛,执行过程不透明,管理者难以掌握真实进度。

02 核心价值:移动端专用管理工具如何破局?

移动端管理工具的核心价值,在于它不是对桌面工具的补充,而是为移动场景原生设计的新工作界面。它重新定义了信息如何被获取、任务如何被处理以及协作如何发生。

其首要优势是极致的实时性与可达性。优秀的移动工具通过优化的推送机制和后台同步,确保信息秒级触达。即使网络短暂中断,也能在本地记录操作,待网络恢复后自动同步,保证工作流不间断。

其次是情境智能与操作简化。工具能根据用户所处场景(如时间、地点、正在处理的任务)智能推荐下一步行动。例如,在接近客户公司时自动弹出相关项目资料;通过语音快速创建任务、用拍照一键上传并关联至工作项,极大降低了移动输入成本。

最终,它实现了沟通与执行的融合。在任务卡片中直接讨论,评论自动转为待办事项,关键对话一键转为任务指派。这让协作上下文完整保存,决策过程可追溯,真正做到了“讨论即执行,执行即记录”。

03 实战解析:主流移动端管理工具深度评测

理解价值后,我们来剖析几款真正为移动场景深度优化、在手机和平板上拥有卓越体验的管理工具。

微软 To Do 是跨平台轻量级任务管理的典范。其移动端与Office 365生态深度绑定,支持邮件星标自动同步,适合个人事务与轻量协作。

滴答清单 集日历、习惯打卡、番茄钟于一体,移动端自然语义识别强大,输入“明天三点开会”即可智能创建任务。

板栗看板 与微信、钉钉深度融合,支持将群聊对话转为卡片,其移动端看板视图经专门优化,交互流畅。

Things 3 是苹果生态中设计美学与生产力的标杆,移动端交互为触控全新设计,能与系统深度联动构建自动化工作流。

04 未来展望:AI与移动管理工具的融合趋势

移动设备天生的便携性与丰富的传感器,使其成为人工智能技术落地的绝佳平台。未来,移动端管理工具将变得更加主动、情境感知和预见性。

情境感知的自动辅助将成为标配。工具将综合GPS定位、日历日程、手机使用状态,智能判断用户当前是否可处理深度任务。例如,在检测到用户正在通勤时,自动推送适合短时处理的审批或阅读任务。

语音与自然语言成为主要交互界面。未来的移动管理将更多地通过“语音创建任务”、“对话式询问项目进度”来完成。AI不仅能理解指令,还能追问模糊细节,一次性生成结构完整的任务项,彻底解放双手。

预测性风险干预是更高阶的应用。AI通过分析任务推进速度、协作互动频率、历史延期数据等,在移动端提前预警项目风险。例如,向项目经理推送提示:“A任务关联的3个子任务进度均落后,整体延期风险高达70%,建议今天下午召集核心成员进行5分钟快速同步。”

05 选择指南:四步找到你的移动管理利器

面对众多选择,你可以遵循以下路径,找到最适合团队的那一款:

  1. 核心场景匹配测试:不要被功能列表迷惑。邀请团队成员,用最常发生的2-3个移动办公场景(如“客户突然来电要求修改方案并同步给团队”)来实测候选工具。观察完成整个流程需要多少步操作,是否顺畅。
  2. 评估离线与弱网能力:主动关闭Wi-Fi和蜂窝数据,测试能否查看最近的任务列表、能否编辑任务内容。恢复网络后,观察编辑内容是否自动同步、有无冲突提示。这是移动工具可靠性的试金石。
  3. 审视通知系统:仔细研究工具的通知定制粒度。能否按项目、任务类型、紧急程度设置不同的提醒方式和频率?能否在移动端设置“免打扰时段”?一个既及时又不构成骚扰的通知系统至关重要。
  4. 考量生态集成成本:检查工具是否与你团队已离不开的日常应用(如邮箱、网盘、通讯软件、签批系统)良好集成。在移动端,每一次强制性的应用切换,都意味着注意力的打断和效率的损耗。

06 技术实践:移动任务管理器的简易代码实现

以下是一个模拟移动端智能任务管理核心逻辑的简化代码示例,展示了如何根据场景生成任务并进行智能同步:

from datetime import datetime, timedelta

class MobileTaskManager:
    """移动端智能任务管理器核心逻辑演示"""
    
    def create_task_from_context(self, context: str, location: str = None) -> dict:
        """根据场景和位置创建智能任务"""
        # 智能优先级判断
        priority = "中"
        if "紧急" in context or "尽快" in context:
            priority = "高"
        elif "整理" in context or "备份" in context:
            priority = "低"
        
        # 智能截止时间建议
        due_hours = {"高": 4, "中": 24, "低": 72}.get(priority, 24)
        due_date = (datetime.now() + timedelta(hours=due_hours)).strftime("%m-%d %H:%M")
        
        task = {
            "id": f"task_{datetime.now().strftime('%H%M%S')}",
            "title": f"[移动端]{context[:15]}..." if len(context) > 15 else context,
            "priority": priority,
            "due": due_date,
            "location": location,
            "created": datetime.now().strftime("%H:%M"),
            "status": "待处理"
        }
        
        print(f"✓ 创建任务: {task['title']}")
        print(f"  优先级:{priority} | 截止:{due_date}" + (f" | 位置:{location}" if location else ""))
        return task
    
    def sync_offline_tasks(self, task_list: list) -> dict:
        """模拟离线任务同步"""
        print(f"\n📡 同步中... 发现{len(task_list)}个待同步任务")
        print("─" * 30)
        
        for i, task in enumerate(task_list, 1):
            print(f"{i}. {task['title']:20} | 状态: {task['status']}")
        
        return {
            "success": True,
            "synced": len(task_list),
            "time": datetime.now().strftime("%H:%M:%S")
        }

# 演示移动端任务管理场景
print("🚀 移动端任务管理器演示\n")

manager = MobileTaskManager()

# 场景1:紧急任务创建
print("场景1:客户现场紧急任务")
manager.create_task_from_context("紧急修复客户演示系统BUG", "客户办公室")

# 场景2:常规任务创建
print("\n场景2:常规跟进任务")
manager.create_task_from_context("整理项目会议纪要并发送")

# 场景3:同步演示
print("\n场景3:网络恢复后同步")
tasks = [
    {"title": "修复演示BUG", "status": "进行中"},
    {"title": "整理会议纪要", "status": "待处理"},
    {"title": "提交周报", "status": "已完成"}
]

sync_result = manager.sync_offline_tasks(tasks)
print(f"\n✅ 同步完成 ({sync_result['time']})")
print(f"   成功同步 {sync_result['synced']} 个任务状态")

移动端管理工具的进化,其本质是将管理的主动权交还给身处不同时空的人。在上海的地铁里审阅设计稿,在西安的出差途中批准预算,在广州的茶餐厅里同步项目节点——工作的节奏不再由地点决定,而是由想法和决策驱动

当工具真正理解了移动的本质是“人的流动”,而不仅是“桌面的缩小”,高效协作便不再受限于任何物理边界。选择正确的移动端管理工具,不仅是选择一个软件,更是为你的团队选择一种更自由、更敏锐、更连贯的工作方式。

关键词:智能体、AI Agent、大模型智能体、从 0 到 1、Agent 架构、AI 工作流、LLM 应用


一、背景:为什么现在是智能体爆发的起点

2024 年之后,大模型(LLM)进入“能力稳定、成本下降、工具成熟”的阶段,单纯的聊天式 LLM 已无法满足复杂任务需求。真正的拐点在于:​大模型开始被组织成系统,而不是工具​,这正是智能体(AI Agent)出现的背景。

智能体的爆发并不是因为模型突然更聪明,而是因为三件事同时成熟:第一,大模型具备可靠的推理和工具调用能力;第二,API、插件、数据库、搜索等外部工具全面可连接;第三,真实业务场景对自动化、持续运行、闭环执行的需求迅速上升。于是,智能体成为连接大模型能力与真实世界的关键形态。

从这个意义上说,​智能体是大模型应用从 0 到 1 的起点,而不是终点​。


二、什么是智能体:通俗解释与技术解释

通俗地说,智能体就是“能自己做事的 AI 系统”​。
它不只是回答问题,而是能理解目标、拆解任务、调用工具、执行动作、接收反馈,并持续调整策略。

技术上,智能体(AI Agent)是以大模型为核心决策引擎的闭环系统​,它至少包含五个组件:

  • 感知(输入信息)
  • 规划(拆解目标)
  • 执行(调用工具)
  • 记忆(保存状态)
  • 反馈(修正行为)

这使智能体具备“持续运行能力”,而不仅是一次性回答能力。


三、Agent 与普通 LLM 的区别

很多人混淆“大模型应用”和“智能体”,但二者差别非常关键。

  • 普通 LLM​:一次输入,一次输出,任务到此结束
  • 智能体(Agent)​:目标驱动,循环执行,直到任务完成

换句话说,LLM 是“大脑”,Agent 是“有手有脚的大脑”。
这也是为什么真正的复杂自动化,一定要使用智能体架构,而不是单次 Prompt。


四、Workflow 与 Agent 的区别

在实践中,很多人会问:我用工作流(Workflow)就够了,为什么还要智能体?

Workflow 是确定性的流程自动化,而 Agent 是不确定性的目标自动化。

  • Workflow:步骤固定,适合稳定流程(如数据清洗、报表生成)
  • Agent:路径可变,适合开放问题(如研究、决策、协作)

从 0 到 1 阶段,推荐的做法是:
用 Workflow 承载稳定部分,用 Agent 处理不确定部分​。


五、从 0 到 1 构建智能体的关键步骤

构建智能体并不复杂,但必须遵循结构化步骤,否则系统不可控。

1. 明确目标(Goal)

智能体必须是目标驱动的,而不是指令驱动的。目标越清晰,智能体越稳定。

2. 设计规划能力(Planning)

规划模块负责把目标拆解成可执行子任务,是 Agent 与 LLM 的关键接口。

3. 工具调用(Tool Calling)

智能体必须能调用真实工具,例如:

  • 搜索
  • 数据库
  • API
  • 文件系统
  • 代码执行

没有工具的 Agent 只是“会想不会做”。

4. 记忆系统(Memory)

记忆让智能体具备“连续性”,包括:

  • 短期记忆(当前任务)
  • 长期记忆(历史经验)
  • 外部记忆(数据库 / 向量库)

5. 执行与反馈(Action & Feedback)

智能体必须能根据执行结果调整策略,这一步决定系统是否可持续运行。


六、智能体的典型应用场景

智能体适合的不是“单点功能”,而是“完整任务”。

常见场景包括:

  • 自动研究与资料整理
  • 企业知识库与问答系统(RAG + Agent)
  • 数据分析与报告生成
  • 自动化客服与运营
  • 软件开发辅助(Coding Agent)
  • 流程协作与任务管理

可以这样判断:​如果一个任务需要反复思考 + 多步执行,就应该用智能体​。


七、普通人和企业如何入场

普通人从 0 到 1 的路径:

  1. 使用现成平台(如智能体构建工具)
  2. 从单一任务开始(例如自动写周报)
  3. 理解 Agent 的结构,而不是模型参数
  4. 优先解决“真实痛点”

企业从 0 到 1 的路径:

  1. 不要先做平台,先做场景
  2. 用智能体增强流程,而不是替代员工
  3. 从“辅助型 Agent”开始,而不是“全自动”
  4. 把 Agent 当作系统工程,而不是 AI 功能

八、未来趋势与判断

可以明确判断:
大模型应用将从“功能型”全面进入“智能体型”阶段。

未来的核心变化包括:

  • Agent 将成为默认应用形态
  • RAG + Agent 成为企业标准架构
  • 单一模型不再重要,系统能力才重要
  • 智能体将成为新型“数字员工”

九、总结:从 0 到 1,应该立刻做什么?

如果你想真正进入智能体时代,建议你马上做三件事:

  1. 停止只学 Prompt,开始学 Agent 架构
  2. 从真实任务构建第一个智能体
  3. 把智能体当系统,而不是工具

智能体不是未来,而是现在。
从 0 到 1 的窗口期,正在快速关闭。

生物体中,细胞蛋白的及时降解与更新是维持蛋白稳态的关键。泛素-蛋白酶体系统(UPS)是调控信号传导和蛋白质降解的核心机制。在这一系统中,E3 泛素连接酶作为关键催化单元,负责识别特定底物并催化泛素标记,从而调控蛋白降解、定位和功能状态。此外,E3 连接酶还调控免疫和炎症通路。由于其组织特异性表达及与发育和代谢综合征(包括癌症进展)的关联,E3 连接酶已成为很有前景的药物靶点,尤其适用于以往难以药物化的靶标。

与 E1(约 10 种)和 E2(约 50 种)酶相比,人类已鉴定出大量 E3 连接酶(约 600 种)。尽管如此,许多人类 E3 连接酶仍仅被部分表征,仍有大量酶处于假设或未知状态。迄今为止,已研究的 E3 连接酶表现出高度异质性,使其成为最具多样性的酶类之一,为模式识别和大规模研究带来瓶颈。因此,对人类 E3 连接酶组——即人类基因组编码的全部 E3 连接酶进行详细表征和分析,对于全面理解其生物学功能至关重要。

在此背景下,来自德国歌德大学的研究团队对「人类 E3 连接酶组(human E3 ligome)」进行了分类,整合了多层次数据,包括蛋白序列、结构域组成、三维结构、功能以及表达模式。该团队的分类方法基于度量学习(metric-learning)范式,采用弱监督的层级框架,以捕捉 E3 家族及亚家族间的真实关系。这一方法扩展了 E3 酶的传统分类(RING、HECT 和 RBR 类),区分了多亚基复合物与单体酶,并将 E3 酶映射到底物及潜在药物作用靶点。

相关研究成果以「Multi-scale classification decodes the complexity of the human E3 ligome」为题,已刊登 nature communications。

研究亮点:

  • 将现有 E3 连接酶的结构域架构、三维结构、功能、底物网络及小分子相互作用映射到分类框架中,以获得一般性及家族特异性洞察

* 所开发的多尺度分类框架涵盖了典型及非典型 E3 机制,为理解 E3 连接酶的广阔生物学图景提供了完整路线图

* 为开发 E3-底物网络的药物干预策略打开了新思路


论文地址:
https://www.nature.com/articles/s41467-025-67450-9
关注公众号,后台回复「E3 酶」获取完整 PDF

更多 AI 前沿论文:
https://hyper.ai/papers

数据集:构建人类 E3 泛素连接酶数据

研究团队首先整合了来自 8 个独立数据源的人类 E3 泛素连接酶数据,包括既往文献报道和公共数据库(E3Net、UbiHub、UbiNet 2.0、UniProt、BioGRID 等),形成初步数据集共计 1,448 个蛋白条目。通过对各来源数据的交叉比对与一致性评分,去除了重复和潜在假阳性条目。随后,利用 InterPro 提供的 RING、HECT 和 RBR 催化结构域特征,筛选出 462 个高置信度的催化 E3 泛素连接酶,形成最终的人类 E3 连接酶组。

在多亚基 E3 复合物(如 Cullin-RING ligases)中,三个功能不同的子单元(支架蛋白、适配蛋白和受体蛋白)协同工作,将 E2\~Ub 分子定位到特定底物上。大型、刚性且位于中心的支架蛋白(如 Cullin 家族,Cul1–Cul5)通过同时结合催化 RING 指结构域亚基和适配蛋白/受体的对接位点,组织起整个连接酶复合体;适配蛋白桥接各模块,将支架蛋白 N 端对接面与独立的底物受体相连;受体蛋白决定底物特异性,直接识别并结合底物上的降解信号(degron),确定哪些底物会被泛素化(如 Skp2、Keap1、VHL)。研究团队独立注释并分类了三类亚基:151 个适配蛋白、106 个受体蛋白和 8 个支架蛋白,并利用它们的蛋白–蛋白相互作用(PPIs)绘制多亚基 E3 的底物映射。

随后,在催化结构域筛选阶段,研究人员以催化能力为核心判据,对候选蛋白进行严格过滤。通过 InterPro 等结构域数据库,系统识别与 E3 活性直接相关的关键催化结构域,包括 RING、HECT 和 RBR。仅保留明确包含这些结构域、且在序列和结构层面支持其泛素连接功能的蛋白,构建最终的「催化型 E3 连接酶」。这一过程有效剔除了仅参与调控、但不具备直接催化能力的辅助蛋白,从而保证了核心 E3 集合的功能一致性。

基于度量学习的多尺度分类框架

为了捕捉人类 E3 连接酶组中的复杂关系,研究人员采用机器学习方法来学习一个 Emergent 距离度量,整体框架如下图:

度量学习流程示意图

①多尺度距离度量

研究人员通过计算 12 种不同的距离来编码 E3 连接酶两两之间的关系,这些距离覆盖多个粒度层次:一级序列、结构域架构、三级结构、功能、亚细胞定位以及细胞系/组织表达。所有距离度量均被缩放至 [0,1] 区间,以便比较和组合,见下图:

覆盖分子和系统层级组织的多种成对距离度量的分布情况

  • 序列层面:使用了无比对的局部匹配得分(LMS)距离和基于比对的 γ 距离
  • 结构域架构层面:计算了三种距离——Jaccard 距离、Goodman–Kruskal γ 距离和结构域重复距离
  • 三维结构层面:使用 AlphaFold2 模型 TM-score

* 功能层面:蛋白对 P 和 Q 的功能距离使用 GO 注释的语义相似性衡量,涵盖* 分子功能(MF)、生物过程(BP)和细胞组分(CC)三类本体

* 亚细胞定位距离

* 组织和细胞系共表达距离

②度量优化、聚类、自助法与分类

四个主要距离(γ、Jaccard、结构、分子功能)通过加权和整合,权重通过弱监督学习和元素中心相似指数(SEC)优化,如下图 ,得到最优组合指标。

通过最 SEC 评估 emergent 分层聚类(右图)与真实标签(左图)的重叠程度

层次聚类采用 Ward 最小方差法,结合自举方法计算支持度,生成最终 E3 树状图,并在树切割阈值 h = 0.25 下获得最优 emergent clusters,即将 462 个 E3 系统性地划分为 13 个家族,10 个 RING 家族、2 个 HECT 家族、1 个 RBR 家族,如下图:


人类 E3 连接酶的分类

每个家族进一步人工分析序列和结构域特征,识别亚家族和异常蛋白。

③小分子聚类与结合概率

整合的 2D UMAP 投影用于小分子聚类,结合局部密度峰值识别 20 个代表性小分子簇。通过 log-transformed propensities(LPij)量化每个簇与 E3 蛋白的结合可能性,为后续 PROTAC 开发和靶向小分子设计提供指导。

对人类 E3 连接酶组的完整性提供了详细评估

①精细整理人类 E3 连接酶组

为了解决已有研究在整理 E3 系统时策略多样且定义标准常有差异的挑战,该研究团队明确界定了 E3 系统的催化成分,即包含一个或多个催化结构域的多肽序列。利用这一客观标准,能够对 E3 进行恰当注释并进行针对性分析。最终,研究人员发现所有数据集中共有 462 条多肽序列至少包含一个催化结构域,这些多肽构成了精细整理的人类 E3 连接酶组,见下图:

饼图显示了蛋白注释与筛选的程度,用以区分人类 E3 连接酶的催化和非催化组分

为了验证整理过程的可靠性,研究人员为每个蛋白定义了基于其在不同来源数据集中出现频次的共识评分。结果显示,HECT 类和 RBR 类 E3 连接酶在数据集中高度一致(共识评分 ≥ 0.6,橙色和紫色柱),而 RING 类(绿色柱)共识评分分布较广,显示出注释上的挑战,如下图:


所有注释蛋白类别的共识评分分布反映了跨数据集对 E3 催化组分的一致性

通过这一方法,研究人员最大限度地减少了假阳性和真阴性,纳入了高可信度的催化活性 E3,同时考虑了伪 E3 及未经过催化活性验证的其他 E3,从而对人类 E3 连接酶组的完整性提供了详细评估。

②人类 E3 连接酶的功能分化

为了评估人类 E3 连接酶的功能,研究人员进行了 UPS 基因的 CRISPR-Cas9 缺失筛选,以细胞活力作为主要表型。结果显示,共识别出 53 个催化型和 32 个非催化型 E3 组分对于细胞活力至关重要,如下图:

火山图显示 CRISPR 筛选中 E3 连接酶的关键基因分析结果

对 53 个关键 E3 的 GO 分析显示,其在核成分以及 DNA 损伤、复制和修复过程中显著富集,如下图,表明它们在维持基因组完整性和细胞核调控方面的核心作用,这些结果揭示了对细胞生存至关重要的 E3 组分。

对必需催化型 E3 的 GO 富集分析结果

*
*

利用 Metascape 对 13 个 E3 家族进行 GO 富集分析,并通过 Cytoscape 可视化网络。结果显示,不同家族在底物选择、细胞定位和催化功能上具有明显分工,如下图。例如,RBR 家族成员 RNF14、RNF144A 和 PRKN 对 K6-linked 泛素具有特异性。K6-linked 链可标记停滞的 RNA-蛋白交联复合物(RNF14)、用于激活干扰素信号的 DNA 感应适配器 STING(RNF144A)以及受损线粒体以便清除(PRKN)。类似地,TRIM E3s(RING5)显著富集于抗病毒先天免疫反应中,它们调控细胞中模式识别受体活性,如 RIG-1 和 MDA5 介导的反应。

热图显示所有功能簇及对应家族特异性富集的 E3

④人类 E3 连接酶的可成药性图谱

为了探索基于近距离作用的潜在治疗途径,研究人员将已知的蛋白降解靶向嵌合体(PROTAC)和 E3 结合子衍生的现有 E3 操作位映射到各个 E3 及其家族。目前,仅有 16 个蛋白(9 个催化型 E3 和 7 个适配器)可被现有 E3 操作位直接靶向。已设计的 E3 操作位大多针对适配器蛋白(如 VHL、CRBN),而直接靶向催化型 E3 的仅极少数(如 XIAP、MDM2/4/7、BIRC2/3/7)。

利用该研究的人类 E3 连接酶进行最近邻分析,发现 5 个高度相关蛋白(BIRC8、RN166/181/141 和 UBR2),如下图:

由于它们具有高度结构相似性(通常为同源蛋白),现有 E3 操作位可被重新利用来靶向这些蛋白。映射小分子 E3 结合子使研究人员获得潜在的化合物集合,可靶向另外 25 个 E3 和 15 个非催化成分,从而发现未开发的靶点,为 E3 操作位的理性设计提供先导化合物开发途径,如下图:

多尺度框架为复杂生物系统的解析提供利器

在机器学习领域,多尺度框架(multi-scale framework)指的是一种能够在不同抽象层次或不同特征尺度上处理数据的建模方法或分析策略。它并不是固定的算法,而是一种设计思想,用于整合局部与全局信息、粗粒度与细粒度特征,从而提高模型的表达能力和泛化能力。

多尺度分类框架的价值,并不局限于对 E3 连接酶家族本身的系统梳理,其更重要的意义在于提供了一种可迁移、可扩展的组学整合方法论范式。这种跨尺度的整合思路,使其天然具备向其他多模态组学数据扩展的能力,为复杂生物系统的系统性解析提供了通用工具。

例如,细胞是生命的基本单位,其功能和命运由复杂的分子网络共同决定。传统的深度学习方法虽在单细胞转录组数据的细胞类型识别中表现良好,但缺乏生物学可解释性。2025 年 10 月 20 日,来自中国国家蛋白质科学中心(北京)、清华大学团队的研究人员提出了一种融合生物先验知识的多尺度可解释深度学习框架 Cell Decoder,实现了从基因、通路到生物过程的分层表征与推理,为单细胞水平上解码细胞类型提供了新的思路。Cell Decoder 通过将蛋白质互作网络、基因-通路映射及通路层级关系嵌入图神经网络架构,构建出跨尺度的生物知识图谱。在七个公开单细胞数据集的人体和小鼠样本上,研究团队对 Cell Decoder 与 9 种主流方法进行了系统评测。结果显示,Cell Decoder 在预测准确率 (0.87) 与 Macro F1 (0.81) 上均居首位,且在存在噪声扰动、细胞类型不平衡及跨批次分布偏移等复杂情形下仍保持稳定性能。\
论文标题:Cell Decoder: decoding cell identity with multi-scale explainable deep learning\
论文地址:

https://link.springer.com/article/10.1186/s13059-025-03832-y

从更长远的视角来看,多尺度框架可以进一步与空间蛋白组学数据、小分子药物库及化学空间信息等相结合,从而打通基础生物学研究、疾病机制解析与转化应用之间的数据壁垒。随着多组学数据持续积累,这一框架有望在生命科学研究与生物医药创新中发挥越来越重要的支撑作用。

参考文献:
\
1.https://www.nature.com/articles/s41467-025-67450-9
\
2.https://blog.csdn.net/qazplm12_3/article/details/153948711
\
3.https://link.springer.com/article/10.1186/s13059-025-03832-y



1. 现状:你的内网服务在公网“裸奔”吗?

如果你手里有几台云服务器或家里的 NAS ,大概率折腾过内网穿透。但你去翻翻 auth.log 或者 SSH 日志,你会发现世界充满了“恶意”:

  • frp 转发 22 端口: 刚开几分钟,就有成千上万个 IP 开始暴力破解。
  • Web 服务直出: 暴露个 GitLab 或 Jenkins ,只要有个未授权访问漏洞,全家桶就都没了。
  • VPN 的痛苦: WireGuard 确实快,但给非技术同事开账号、教他们配客户端,简直是运维噩梦。

我们需要的其实很简单:既要 frp 的便捷,又要 VPN 的安全,最好还能像访问正常网站一样,浏览器打开就能用。

2. 为什么说传统方案让你很累?

frp:它是通道,但不是防线

frp 的设计初衷是“连通性”,它只管把流量从 A 传到 B 。

  • 隐患: 它把内网服务直接推到了公网的枪口下。改端口、加 sk 验证确实能挡住一部分,但无法解决身份鉴权审计的问题。
  • 现状: 即使你改了端口,扫描器通过协议指纹依然能识别出你的服务。

VPN:安全,但“摩擦力”太大

VPN 是一道厚重的围墙,但进出这道墙太麻烦了。

  • 体验: 手机、平板、电脑,每个设备都要装客户端。断线重连、路由冲突是常态。
  • 风险: 典型的“一处破,处处破”。一旦 VPN 账号泄露,攻击者就拿到了内网的整张入场券。

3. 更现代的方案:Next Terminal 的零信任实践

作为 Next Terminal 的开发者,我在设计 Web 资产代理时,参考了 “零信任( Zero Trust )” 的思路。

核心逻辑只有一句话:先验证身份,再建立连接。

nt.png

它是如何工作的?

以往你访问 gitlab.example.com,请求是直接打到 GitLab 上的。现在,Next Terminal 充当了“安全网关”的角色:

  1. 流量拦截:所有指向内网 Web 服务的请求,先经过 Next Terminal 。
  2. 身份核验:如果用户没登录 Next Terminal ,直接被拦在门外,GitLab 根本感知不到任何请求。
  3. 动态授权:登录后,系统会检查:你是否有权限访问这个特定资产?
  4. 无感转发:验证通过后,你才能看到熟悉的 GitLab 界面。

4. 实战:3 分钟安全发布内网 GitLab

假设你内网 GitLab 跑在 192.168.1.10:80,你可以彻底告别 6000 这种奇怪的端口号。

第一步:开启反代

在 Next Terminal 配置文件中开启反代和 HTTPS (建议配合通配符证书):

App:
  ReverseProxy:
    Enabled: true
    HttpsEnabled: true
    SelfDomain: "nt.yourdomain.com"

第二步:添加 Web 资产

在 Web 界面点击“添加资产”,填写内部 IP 和你想要的域名(如 gitlab.yourdomain.com)。

第三步:授权与访问

把这个资产授权给指定的用户组。

现在的体验是: 你直接访问 https://gitlab.yourdomain.com

  • 没登录? 跳转到 NT 统一登录页。
  • 登录了? 直接进入 GitLab 。
  • 想看谁访问了? 后台审计日志一清二楚。

在线演示: https://baidu.typesafe.cn
(注:此域名模拟内网环境,登录 test/test 后即可自动跳转,感受无感代理的流程)

5. 进阶:多云、多机房的统一网关

如果你有多个机房(阿里云、腾讯云、家里、公司),传统的方案需要配置复杂的路由隧道。

Next Terminal 提供了一个“安全网关( Agent )”模式:

  1. 在各个内网环境跑一个轻量级 Agent 。
  2. Agent 会自动建立反向隧道回到 NT 主站。
  3. 你在主站配置资产时,选一下“所属网关”。

这样,无论服务在哪,你都只需要通过一个入口访问,而且不需要在路由器上做任何端口映射

总结

需求 frp VPN Next Terminal
访问门槛 极低 (扫端口即入) 高 (需客户端) 极低 (浏览器即用)
安全性 极强 (身份认证前置)
权限控制 粗粒度 (内网全通) 精细 (按人/按资产授权)
管理成本 分散 复杂 统一控制台

如果你已经厌倦了每天看 SSH 被爆破的日志,或者不想再为 VPN 掉线发愁,欢迎尝试 Next Terminal

官网: https://typesafe.cn

最近,Cloudflare 宣布在R2 SQL中支持聚合功能。这是一个新特性,使开发者可以通过 SQL 查询存储在 R2 中的数据。这一功能增强使得 R2 SQL 不再局限于基本的过滤功能,而是可以在不依赖单独的数据仓库工具的情况下,更好地满足分析工作负载的需求。

 

R2 SQL现在支持 SUM、COUNT、AVG、MIN 和 MAX,以及 GROUP BY 和 HAVING 子句。这些聚合函数使开发者可以直接在 R2 上通过 R2 数据目录运行 SQL 分析,快速汇总数据、发现趋势、生成报告以及识别日志中的异常模式。除了聚合之外,本次更新还引入了模式发现命令,包括 SHOW TABLES 和 DESCRIBE。

 

Cloudflare 资深软件工程师Jérôme Schneider、高级软件工程师Nikita Lapkov和高级产品经理Marc Selwan总结道:

 

无论是生成报告、监控大量日志中的异常,还是仅仅试图发现数据中的趋势,现在你都可以在 Cloudflare 提供的开发者平台上轻松完成所有这些工作,而无需管理复杂的 OLAP 基础设施或将数据从 R2 中移出。

 

CloudZero 研究主管 Jeremy Daly 在他的新闻资讯中评论说:

 

通过在 R2 SQL 中支持聚合,Cloudflare 继续将数据推向边缘,扩展了开发者可以实际在边缘运行的工作负载类型。

图片来源:Cloudflare 博客

 

Schneider、Lapkov 和 Selwan 阐述了他们如何使用 scatter-gather 和 shuffling 策略构建分布式 GROUP BY 执行,以便直接在 R2 数据目录上运行分析:

 

不包含 HAVING 和 ORDER BY 子句的聚合查询可以用和过滤查询类似的方式执行。对于过滤查询,R2 SQL 会选择一个节点作为查询执行的协调者。这个节点会分析查询并查看 R2 数据目录,以便确定哪些 Parquet 行组可能包含与查询相关的数据。每个 Parquet 行组代表单个计算节点可以处理的相对较小的工作量。协调节点将工作分配给多个工作节点,收集结果后返回给用户。

 

Cloudflare 还单独宣布,R2数据目录现在支持Apache Iceberg表的快照自动过期,完善了自动压缩——通过将小数据文件合并成比较大的文件来优化查询性能。Selwan评论道:

 

这两者是相辅相成的,因为快照过期所带来的一系列元数据清理/管理操作能够提高这些聚合查询的执行效率,在启用了压缩功能的情况下更是如此。

 

这家超大规模云服务商最近发布了一篇深度解析文章,详细阐述了其分布式查询引擎的工作原理

 

由于 R2 SQL 仍处于公测阶段,所以支持的 SQL 语法可能会随着时间的推移而变化。文档页介绍了当前存在的限制和最佳实践

 

原文链接:

https://www.infoq.com/news/2026/01/cloudflare-r2-sql-aggregations/

我目前的工作流是自己写个阶段大纲,然后和文字材料一起输入给 Gemini ,让他输出一份逐页的大纲,最后交给 Agent 输出 PPT 。

目前只使用过 GenSpark ,效果还是挺让我惊讶的,省了我不少时间,但仍然有一些问题。

  1. 即使调用了不同的模板,产出的页面风格依然很类似,浓重的通用 AI 网页味,希望能用插件增强 UI/UX 设计能力,交由用户来挑选风格。
  2. 图片嵌入的能力不理想,我在大纲中写“Page 1 ,需要嵌入 fig1.png”这种指令遵循比较差,agent 倾向于自己去联网搜索图片然后嵌入,这一块不清楚是不是我使用方法有问题。
  3. 布局不准,不少页面都需要手动调整。
  4. 在线编辑功能比较受限。
  5. 导出为 PPT 格式时,总会有布局错乱、元素缺漏情况。

麻烦各位来推荐下觉得好用的 PPT Agent ,最好还能讲下使用成本。

在这个被大模型和智能体(Agent)疯狂重塑的年份,我们不得不承认一个残酷的事实:传统的边缘计算叙事,正在失效。

当算力从中心有序下沉,当 AI Agent 开始接管终端决策,边缘计算不再只是网络的延伸,而正在成为智能的前沿阵地。谁还停留在旧叙事中,谁又真正拿到了通往下一个十年的船票,答案正在迅速分化。

基于这样的行业背景,边缘计算社区正式启动「2026 中国边缘计算企业 20 强」榜单评选。这不仅是一份年度名单,更是一场在技术代际更迭下的行业校准。

image.png

榜单背景

自 2019 年起,边缘计算社区已连续六年发布「中国边缘计算企业 20 强」榜单,累计吸引 800 余家产业链企业参与评选,覆盖边缘云、边缘一体机、边缘 AI、5G MEC 等核心领域。

过去六年中,该榜单全网累计传播曝光量突破 3500 万次(清博大数据舆情统计),不仅持续为行业树立技术与商业标杆,也逐步成为企业扩大市场影响力、获取生态与产业资源的重要入口。

当边缘计算进入 “边缘 × AI × 智能体” 的新阶段,我们认为:这份榜单,也必须随技术代际一起升级。

从“连接”到“智算”

回望过去两年,边缘计算的演进速度远超预期。

如果说 2024 年行业仍在聚焦边缘盒子、网关与连接能力,那么到了 2025 年底,只谈连接、不谈推理的产品,已经很难再获得市场认可。

大模型正在以前所未有的速度“瘦身”并下沉至边缘侧:从手机、PC,到工业控制器与现场设备,越来越多的终端被要求具备本地推理与自主决策能力。

边缘计算正在从“管道”,演进为 AI 的“触角”。当然,这并不意味着所有传统边缘计算企业都会被淘汰。但可以确定的是:

以“连接能力”为核心竞争力的边缘产品,正在快速失去议价权。

智能体爆发,边缘侧的“寒武纪时刻”

2026 年,或将成为边缘智能体(Edge Agents)走向规模化应用的起点。所谓边缘智能体,并非简单的模型端侧部署,而是指在受限算力、弱网络甚至离线条件下,仍具备自主感知、规划与执行能力的边缘决策单元。

未来的边缘计算竞争,将不再取决于硬件参数,而在于:

  • 谁能让大模型在边缘侧稳定运行
  • 谁能在毫秒级延迟内完成复杂决策
  • 谁能在算力、算法与网络之间实现系统级优化

这不仅是技术升级,更是一轮生态重构。

寻找 2026 年的“边缘脊梁”

正是在这样的行业变局之下,我们启动「2026 中国边缘计算企业 20 强」评选。

我们要寻找的,不是停留在历史成绩上的老牌玩家,也不是只会包装概念的“PPT 公司”,而是那些真正进入 “边缘 × AI”深水区 的企业:

  • 成功将 7B、14B 等模型量化并部署到边缘端的技术实践者
  • 用边缘智能体解决真实、碎片化场景问题的实干团队
  • 在算力、算法与网络协同中实现突破的破局者

他们,才是真正决定边缘计算下一个十年走向的力量。


评选标准与参选要求

参选条件

  • 在边缘计算领域具备成熟的技术解决方案与商业化落地案例;
  • 拥有核心技术壁垒(如边缘芯片、算法优化、异构计算等)或独特生态资源;
  • 2026 年新增重点:展示边缘计算与 AI 大模型的融合实践(如优化 AI 推理效率、隐私计算、联邦学习等),以及算力。
    image.png

    评分机制

  • 线上投票(30%):公众通过官方渠道为心仪企业投票;
  • 专家评审(70%):从以下四大维度综合打分:

    • 技术领先性(35%)
    • 商业落地(30%)
    • 边缘×AI创新(25%)
    • 生态贡献(10%)

上榜权益

  • 品牌升维:通过头部合作伙伴渠道全域曝光,覆盖 10 万+ 开发者社区;
  • 商机裂变:优先对接甲方订单资源,2024 年某上榜企业通过生态合作斩获 800 万项目订单;
  • 权威认证:榜单企业客户咨询量平均提升 120%(历史数据);
  • 生态赋能:优先加入“边缘计算产业图谱”。

特别提醒

独行者快,众行者远:在 AI 巨头定义规则的战场上,边缘计算企业唯有被看见,才有机会被选择。技术不应被埋没,真正的能力值得被记录。边缘计算的下一个十年,不属于参数最多的人,而属于最懂场景、最懂约束、也最懂 AI 如何落地的人。

边缘计算社区
2026年1月21日