2026年4月

这些年,城市基础设施数字化建设越来越热。水务要做统一感知,防汛要做实时预警,桥梁要做健康监测,港口要做智能调度……看上去每个行业、每个项目都在推进数字化,但很多团队在真正落地时都会遇到同一个问题:系统建了不少,数据接了很多,业务却还是很难真正跑起来。

这是因为很多项目一开始解决的是“有没有系统”,后来才发现更难的是“这些系统背后的数据,能不能真正接起来、管起来、用起来”。

现实里常见的情况是:

  • 一个场景一套系统,一个厂家一个平台,数据分散在不同入口;
  • 设备类型多、协议不一、模型不统一,后续整合越来越难;
  • 实时监控、历史查询、告警分析、业务调度都依赖底层数据能力,但底座承载不住;
  • 数据虽然采上来了,却很难形成“监测—预警—分析—处置”的业务闭环。

这也是为什么,越来越多基础设施行业客户开始意识到:数字化建设的重点,正在从“建设单点系统”转向“建设统一数据平台能力”,时序数据库(Time Series Database)的选择至关重要

围绕这一趋势,TDengine 推出了城市基础设施数据平台实践:水务、防汛与港口数字化白皮书,结合 4 个真实案例,系统梳理了基础设施行业如何从分散建设走向统一平台,如何让数据真正支撑监测、预警、调度与运营。

白皮书亮点抢先看

  • 4 个真实案例,覆盖水务、防汛、桥梁与港口场景

白皮书不是泛讲“数字化转型”,而是围绕福州水务、江西水投、智慧桥梁管理平台、山东港口科技 4 个典型实践展开,系统呈现城市基础设施数据平台的建设路径。

  • 从“建系统”到“建平台”,讲透统一数据底座的建设思路

白皮书聚焦基础设施行业的共性难题:多源异构设备如何统一接入、海量数据如何统一建模、写入性能与存储成本如何平衡,以及数据如何真正支撑预警、调度和运营。

  • 不仅讲技术架构,更讲业务闭环怎么形成

内容不止停留在数据接入和存储,而是进一步延伸到实时监测、规则告警、历史分析、业务调度与智能分析,帮助读者理解基础设施数据平台如何从“数据承载层”走向“业务能力层”。

  • 提炼四大案例背后的共性方法,便于复制到更多场景

白皮书总结了统一接入、统一建模、高性能时序底座,以及向“监测—预警—分析—调度”延伸的共性建设方法,不只适合看案例,更适合借鉴落地。

哪些人值得看这份白皮书?

  • 正在做智慧水务、智慧水利、防汛、桥梁监测、智慧港口等项目;
  • 正在推进设备接入平台、物联网平台或统一数据平台建设;
  • 正在被多源异构、协议不统一、模型混乱、查询慢、存储贵这些问题困扰;
  • 希望把“监测平台”进一步做成“预警 + 分析 + 调度”的业务平台;
  • 想看一些更贴近真实项目,而不是只停留在概念层面的实践案例。

这份白皮书最有价值的地方——不是只告诉你“为什么要做”,而是通过真实案例,告诉你“别人是怎么走通的”。点击进入 https://taosdata.feishu.cn/share/base/form/shrcnSOu8zYDaDC9Gg...\_source=wechat\&hide\_source=1 填写问卷,即可免费获取《城市基础设施数据平台实践:水务、防汛与港口数字化》白皮书。4 个真实案例,带你看懂基础设施行业如何从分散系统建设走向统一数据平台建设,让数据真正支撑监测预警、业务调度与智能分析。

前言:数字化转型的深水区与核心诉求

当前,中小工业及工贸类企业的数字化转型已步入深水区。早期的单点工具部署已无法满足当下的管理需求,企业普遍面临着三大核心痛点:

  1. 数据孤岛 严重:多系统拼凑导致数据割裂,跨系统手动搬运数据不仅效率低下,更易产生人为误差。
  2. 业务流程断链:获客、履约、售后各环节未能打通,无法形成运营闭环,导致管理黑箱。
  3. 供应链协同 低效:上下游依赖微信、电话等传统方式协作,信息透明度低,对账难,响应速度慢。

在此背景下,企业对于数字化工具的需求已从单纯的“客户管理”升级为“全业务一体化运营”。本文将以超兔一体云为核心参照,选取神舟数码 CRM点镜 CRM易信 CRMPipeline CRMNutshellBigin等市场同类产品进行深度横向评测。评测将聚焦于三大核心维度:全业务一体化底座能力“获客-履约-复购”数字闭环构建能力,以及供应链协同 管控能力

一、 核心架构对比:原生一体化 vs 模块拼接

数字化系统的根基在于底座架构。是“原生打通”还是“接口拼接”,直接决定了系统的流畅度、数据一致性及维护成本。

1. 超兔一体云:原生全业务一体化底座

超兔一体云的核心逻辑建立在“原生全业务打通”的大底座之上。其架构并非多个独立系统的简单物理堆砌,而是从底层设计之初就实现了数据模型的统一。

mindmap
  root((超兔一体云架构))
    核心底座
      统一数据存储
      全局组织权限体系
      低成本客制化引擎
    八大原生模块
      CRM(客户关系)
      OMS(订单管理)
      SRM(采购管理)
      PSI(进销存)
      轻MES(生产工单)
      财务日记账
      薪资管理
      OpenCRM(协同)
    能力延伸
      向内: 数字闭环
      向外: 供应链协同

实现逻辑:

  • 底层数据互通:涵盖CRM、OMS、SRM、PSI、轻MES、财务等8大模块,所有业务数据底层统一存储,一次录入全链路复用,彻底消除数据孤岛。
  • 统一权限体系:支持九级组织架构及矩阵式项目组,自动适配“上级管下级、同级隔离”等复杂权限规则,无需繁琐配置。
  • 低代码 适配:提供6大自定义引擎(菜单、工作台、业务表、工作流、BI等),无需二次开发即可适配个性化需求。

2. 其他品牌架构分析

  • 神舟数码 CRM:采用“垂直行业深度定制+集成”模式。其能力强项在于针对制造、零售等特定行业的深度理解,通常通过强大的集成能力对接ERP来实现后端业务覆盖。其一体化程度往往取决于与第三方ERP(如SAP、Oracle)的集成深度。
  • 点镜 CRM / 易信 CRM:主要聚焦于特定生态或功能。点镜深耕微信私域生态,易信偏向即时通讯协同。其架构多为“CRM+SCRM”或“协同+CRM”,缺乏原生后端业务模块(如进销存、生产),难以形成底层数据的一体化。
  • Pipeline CRM / Nutshell / Bigin:定位为轻量化、可视化的销售管道工具。架构设计上专注于线索和商机的追踪,属于“前端正轻量级应用”,后端履约与供应链能力需依赖第三方生态集成,原生底座较窄。

二、 “获客-履约-复购”数字闭环能力对比

业务闭环的核心在于“流”的通畅性。超兔一体云通过原生底座实现了业务流、数据流、资金流的全链路自动流转,而其他品牌在闭环的完整性上存在显著差异。

1. 闭环全流程逻辑(以超兔一体云为例)

超兔构建了从线索获取到最终复购的自循环体系,以下是全链路业务流转的逻辑时序:

sequenceDiagram
    participant 获客端
    participant 系统底座
    participant 履约端
    participant 财务端
    participant 复购端

    获客端->>系统底座: 全渠道线索归集(百度/微信/地推等)
    系统底座->>系统底座: 自动清洗/查重/补全工商信息
    系统底座->>获客端: 自动分配销售 & 提醒
    获客端->>系统底座: 线索转商机/订单
    
    系统底座->>履约端: 订单自动触发
    履约端->>履约端: 自动锁库/计算缺口/生成采购计划
    履约端->>履约端: 轻MES排程(扫码派工/领料/报工)
    履约端->>财务端: 触发应收/自动拆分期数
    
    财务端->>财务端: 回款核销/自动开票/信用管控
    财务端->>复购端: 交易数据沉淀至客户画像
    
    复购端->>复购端: RFM模型自动分层(识别高潜/流失风险)
    复购端->>获客端: 自动触发回访任务/复购跟单

2. 品牌能力横向拆解

品牌获客端能力履约端能力复购端能力闭环评价
超兔一体云全渠道归集:支持7大渠道自动抓取,线索自动清洗、查重、分配,自动核算ROI。全流程联动:30+订单模型,自动锁库、排程、扫码报工。销售可自主查询进度,无需跨部门沟通。智能闭环:全链路数据沉淀,RFM模型自动分层,自动识别复购潜客并触发任务。完整闭环:数据天然互通,无需人工干预即可实现端到端流转。
神舟数码 CRM:具备全渠道获客及规则分配回收能力。较强:打通订单-售后维保链路,但在生产制造环节多依赖集成ERP。较强:通过工单联动挖掘复购机会,具备闭环能力。基本闭环:在特定垂直行业内能形成闭环,依赖集成能力。
点镜 CRM聚焦私域:擅长微信生态获客,标签体系完善。:无原生供应链协同、预算管控及复杂订单管理功能。:主要依赖私域运营手动挖掘,缺乏自动化数据反哺。断链:仅覆盖获客及部分跟进环节,无法独立支撑履约与复购闭环。
易信 CRM一般:偏向协同过程中的客户信息收集。:无履约记录能力。:无复购模型。非闭环:定位为协同工具,非业务闭环系统。
Pipeline / Nutshell / Bigin可视化强:Pipeline主打销售管道,Nutshell支持线索评分,Bigin极简轻量。极弱:仅支持基础订单记录,无库存、生产、物流等履约能力。极弱:仅具备基础的历史数据查看,无自动化复购模型。非闭环:仅覆盖获客阶段的前半段,属于“单点工具”。

深度解析:

  • 超兔一体云的优势在于“自动化”。从线索录入的那一刻起,后续的库存锁定、生产排程、财务核销、复购提醒均由系统基于规则自动驱动,极大地降低了人工搬运数据的成本。
  • 神舟数码 CRM在大型制造企业中表现稳健,但其闭环往往需要昂贵的ERP实施成本作为支撑。
  • Pipeline、Nutshell、Bigin等轻量级产品,虽然上手快,但在面对工贸企业复杂的“履约”环节时显得力不从心,往往需要在系统外进行大量操作。

三、 供应链协同管控能力对比

供应链协同是区分“内部管理工具”与“产业互联工具”的关键分水岭。超兔通过独创的OpenCRM体系,将业务边界延伸至企业外部。

1. 协同管控模式对比

协同维度超兔一体云 (OpenCRM共生体系)神舟数码 CRM其他品牌 (点镜/Pipeline等)
下游客户协同全在线:报价/订单在线确认,物流实时查看,在线验收对账。依赖集成/portal:通常通过供应商门户或ERP扩展模块实现。:基本依赖微信、电话、邮件线下沟通。
上游供应商协同深度协同:在线询比价,供应商在线接单、发货,自动回传物流,三流合一自动对账。较强:通过SRM模块或ERP集成实现采购协同。:无原生供应商协同能力。
数据安全机制共生账号体系:为伙伴开通独立账号,权限严格隔离,仅可见相关数据。权限管控:基于大型系统的复杂权限配置。不适用
核心价值低成本高效率:无需部署额外系统,开号即用,沟通成本降低60%。标准化:适合大型企业标准化采购管理。N/A

2. 超兔 OpenCRM 实现逻辑深度解析

超兔的供应链协同并非简单的“数据导出”,而是建立了一套共生机制:

  • 权限可控的共生账号:企业可免费或低成本为供应商、客户开通“共生账号”。这些账号不同于内部员工,拥有独立的权限视图,只能查看与其相关的订单、对账单和库存信息。
  • 自动化对账与评级

    • 上游:采购需求发出后,多供应商在线报价,系统自动比价生成采购单。供应商发货后,物流信息自动回传,系统自动匹配货、款、票进行三流合一对账。
    • 下游:客户在线对账,确认无误后自动触发内部财务确认,减少传统纸质对账的繁琐与差错。

相比之下,神舟数码 CRM的供应链能力多体现在其强大的ERP集成能力上,适合已有成熟ERP体系的大型企业。而点镜、Pipeline、Nutshell等产品本质上聚焦于销售前端,完全不具备供应链协同的基因,企业若使用此类产品,仍需依赖Excel或微信处理上下游业务。

四、 综合能力雷达评估

为了更直观地展示各品牌在核心能力上的表现,我们构建了以下五维评估模型:全业务一体化数字闭环完整性供应链协同行业适配广度低成本落地能力

(注:分值为相对评估,5分为最高,代表在该维度表现最卓越;1分为最低,代表能力缺失或极弱)

1. 超兔一体云

  • 全业务一体化:5分 (原生8大模块底座,数据天然互通)
  • 数字闭环完整性:5分 (获客-履约-复购全链路自动化流转)
  • 供应链协同:5分 (独创OpenCRM体系,上下游全在线协同)
  • 行业适配广度:4分 (主要聚焦中小工业、工贸企业,适配性强)
  • 低成本落地:5分 (SaaS模式,低代码客制,无需昂贵实施费)

2. 神舟数码 CRM

  • 全业务一体化:4分 (深度集成能力强,但依赖多系统架构)
  • 数字闭环完整性:4分 (在垂直行业内闭环能力强)
  • 供应链协同:4分 (依托强大的ERP生态实现)
  • 行业适配广度:3分 (主要深耕大型制造、零售等特定垂直行业)
  • 低成本落地:2分 (通常涉及复杂的定制与集成实施,成本较高)

3. 点镜 CRM / 易信 CRM

  • 全业务一体化:2分 (聚焦前端,缺乏后端业务模块)
  • 数字闭环完整性:2分 (仅覆盖获客及部分私域运营)
  • 供应链协同:1分 (无此能力)
  • 行业适配广度:3分 (适配依赖微信生态的行业)
  • 低成本落地:4分 (轻量级,上手快)

4. Pipeline CRM / Nutshell / Bigin

  • 全业务一体化:1分 (纯前端销售工具)
  • 数字闭环完整性:1分 (仅线索管理,无履约)
  • 供应链协同:1分 (无此能力)
  • 行业适配广度:2分 (主要适配轻资产、服务型小微团队)
  • 低成本落地:5分 (极简,价格低廉)

五、 总结与选型建议

通过上述深度横评,我们可以清晰地看到不同品牌在解决企业数字化转型痛点时的路径差异。

超兔一体云展现了鲜明的“一体云”特征。它不满足于做单一环节的工具,而是通过原生全业务一体化底座,向内打通了从获客到复购的数字闭环,向外通过OpenCRM实现了供应链协同。这种“一个底座,双向延伸”的模式,特别适合中小工业及工贸企业,能够以极低的成本(SaaS订阅、低代码配置)解决数据孤岛和流程断链问题,实现降本增效。

神舟数码 CRM则是“重型选手”,适合大型企业。其能力建立在深厚的行业积累和强大的系统集成之上,能够满足复杂的集团管控需求,但相应的落地成本和门槛也较高。

点镜、Pipeline、Nutshell、Bigin等品牌属于“轻量级选手”,适合轻资产服务型公司或小微团队。它们在销售线索管理、私域运营上表现出色,但在涉及复杂履约、生产管理和供应链协同的工贸业务场景下,显得力不从心。

选型建议:

  • 如果您的企业是生产型、工贸型中小企业,迫切需要解决库存、订单、财务、采购的一体化管理,并希望提升上下游协同效率,超兔一体云是目前市场上匹配度极高的解决方案。
  • 如果您的企业是大型集团或制造巨头,且已有成熟的ERP系统,神舟数码 CRM等深耕垂直行业的方案更为合适。
  • 如果您的企业是纯服务型、轻资产销售团队,仅需管理销售 pipeline 和客户跟进,Pipeline、Nutshell等轻量化工具足以满足需求。

数字化转型并非工具的简单堆砌,而是业务逻辑的重构。选择一款能够真正支撑“全业务一体化”运转的系统,才是企业构建长期竞争力的关键。对于正处于数字化转型深水区的中小工业、工贸企业而言,超兔一体云的原生一体化模式,为其提供了一条低成本、高适配的转型路径——既能快速解决数据孤岛、流程断链与供应链协同低效的核心痛点,也能伴随企业成长持续扩展能力边界,最终助力企业在激烈的市场竞争中实现高效运营与持续增长。

4月17-18日,聚焦 AI+ 运维,智能体驱动的 GOPS 全球运维大会暨研运数智化技术峰会・深圳站圆满举行。

云智慧作为 AI 基础设施智能运维的服务商受邀出席,深度分享了AI SRE Agent产品——Castrel AI的创新实践,展现了云智慧的智能体(Agent)产品推动运维领域向自治化、智能化的跨越式升级。

图片

01 主题演讲:Castrel AI 开启运维自动化新范式

在“运维智能体专场”,云智慧产品总监刘璐发表《AI 运维新范式:当运维团队拥有了一位永不疲倦的数字同事》主题演讲。在核心应用场景中,Castrel AI展现出显著的业务价值:

  • 智能告警分诊可过滤90%以上的告警噪音,实现告警聚合与优先级排序;
  • 自主事件调查通过跨源关联分析输出完整证据链,将平均故障恢复时间(MTTR)缩短90%;
  • 自动化运维可依据 SOP 自动执行重启、回滚、扩缩容等操作,实现分钟级自动恢复;
  • 部署验证能在变更前后自动对比关键指标,提前发现潜在风险;
  • 智能问答则支持自然语言查询系统知识,助力新人快速上手。

图片

云智慧 Castrel AI以 “Hands Off,Always On” 为核心理念,构建了“大脑+感官+手”的全栈能力体系,具备三大核心优势:

  • “大脑”层面采用大语言模型,可实现复杂场景理解、多步推理及修复方案生成,替代传统规则引擎的模式匹配局限;
  • “感官”层面实现多源数据融合,自动关联指标、日志、追踪、变更等分散信息,打破单点数据源的孤立困境;
  • “手”层面具备自主执行能力,可根据推理结果灵活调用 API、命令及变更操作,摆脱预设脚本的固定流程束缚,实现“感知-推理-执行”的一体化闭环。企业级安全与隐私保障也是 Castrel AI 的核心竞争力之一,全方位守护企业数据安全与隐私。

图片

02 成果展示:云智慧展台获广泛关注

云智慧展台直观呈现 Castrel AI 的产品能力,现场围绕告警分诊、事件调查、部署验证等核心场景,与众多行业伙伴深入交流,成熟的产品体系与丰富的行业实践备受关注。

图片

图片

未来,云智慧将持续赋能运维数智化转型,帮助客户构建电力、AI算力与服务、AI 智能体的全栈安全和可靠性保障体系。致力于保障AI基础设施规模化、连续性、稳定运行,通过监测、预警、快速响应、自动化运维与合规治理,帮助客户实现更高可用性、更低风险与更优运营成本。

详询热线:400-666-1332

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。个weibo.com/ttarticle/p/show?id=2309405291176025784334 weibo.com/ttarticle/p/show?id=2309405291176407466334 weibo.com/ttarticle/p/show?id=2309405291176902656196 weibo.com/ttarticle/p/show?id=2309405291177309241775 weibo.com/ttarticle/p/show?id=2309405291177695379469 weibo.com/ttarticle/p/show?id=2309405291178085187596 weibo.com/ttarticle/p/show?id=2309405291178475520007 weibo.com/ttarticle/p/show?id=2309405291178978574579 weibo.com/ttarticle/p/show?id=2309405291179373101169

PCL2是一款专门为《我的世界》(Minecraft)玩家设计的第三方启动器,由国内开发者"龙腾猫跃"制作。它的主要功能是帮助玩家更方便地下载、安装和管理《我的世界》游戏版本、模组(Mod)、资源包和整合包。

PCL2最大的优势在于界面友好、功能强大、下载速度快。它提供了官方启动器没有的许多实用功能,比如一键安装Forge/Fabric、自动下载依赖库、模组管理、资源包预览等。而且完全免费,没有广告,对国内玩家特别友好。

下载PCL2启动器

目前PCL2的安装包最新版本是PCL2.12.6.2:
https://pan.quark.cn/s/3ce5c299828c
https://pan.xunlei.com/s/VOqtOZ2dW8CatkaIBGM8BDLbA1?pwd=8h9h#

安装PCL2启动器

1) 解压下载的压缩包(不解压用不了):

2) 不需要逐步安装,双击 PlainCraftLauncher2.exe 即可启动 PCL2。注意,系统可能会弹出下图的安全警告窗口,点击“运行”即可:

3) 启动后的 PCL2,主界面如下图所示:

首次启动,PCL2 会自动更新到最新版本,速度也非常快。

PCL2基础使用

1) 账户登录

PCL2支持正版登录和离线模式。如果你有正版账号,点击右上角的账户图标登录。如果没有,可以选择离线模式,输入一个游戏内显示的名字即可。

2) 下载游戏版本

打开PCL2,在顶部选择"下载",选择你想要玩的《我的世界》版本,比如 26.1.2,点进去选择安装,PCL2会自动下载游戏文件和依赖库。

3) 管理模组

安装完游戏版本后,在版本列表右键点击版本,选择"打开版本文件夹"。将下载的模组文件(.jar格式)放入"mods"文件夹即可。

4) 安装整合

PCL2支持一键安装整合包。在"下载"页面选择"整合包",搜索或导入整合包文件,PCL2会自动下载所有需要的模组和配置。

5) 资源包管理

在"资源包"页面,可以预览、下载和管理资源包。PCL2支持在线资源包库,可以直接搜索和下载热门资源包。

PCL2下载安装总结

PCL2作为一款功能强大的《我的世界》第三方启动器,为玩家提供了极大的便利。通过本文的PCL2下载安装教程,你应该已经掌握了PCL2启动器的基本安装和使用方法。

对于《我的世界》玩家来说,PCL2官网下载的启动器能够显著提升游戏体验。它的模组管理、整合包安装、资源包预览等功能,让玩家可以更专注于游戏本身,而不是繁琐的配置过程。

掌握了PCL2下载安装和基础使用后,你就能更好地享受《我的世界》的乐趣。无论是原版生存、模组冒险还是整合包体验,PCL2都能为你提供稳定的支持。记住定期备份游戏存档和配置,可以避免意外损失。

本文适合:希望量化 AI 原型工具实际价值的产品经理,以及正在评估是否引入 AI 工具替代传统原型流程的团队负责人。
产品经理在原型设计上花的时间,通常远超预期。一个需求明确的功能模块,从整理需求到拿出可演示的原型,往往要经历:写需求文档、与设计师对需求、等待设计排期、审核初稿、反馈修改、再等一轮——少则三天,多则两周。而这段时间,产品验证进度停滞,开发资源闲置,决策节奏被拖慢。
AI 原型工具在 2025-2026 年的快速成熟,正在从根本上改变这条链路。但"AI 更快"是一个模糊的说法。快多少?在哪些场景下快?效率提升背后有没有质量代价?本文通过具体场景的时间对比和实际案例,给出一个更接近真实的答案。

一、产品经理做原型的时间究竟消耗在哪里

在分析效率之前,需要先拆解传统原型流程的时间结构。根据 Nielsen Norman Group 2024 年针对产品经理工作流的调研,完成一个中等复杂度功能模块原型的时间分布如下:
需求梳理与文档整理:占总时间约 20%,通常在 0.5-1 天。
与设计师沟通需求:单次沟通 1-2 小时,但通常需要 2-3 轮,因为 PM 的文字需求和设计师的理解之间存在信息损耗。
设计师排期等待:这是最大的时间消耗,在人力紧张的团队中,设计资源排期等待时间可以达到 3-7 天。
初稿审核与修改:每轮修改通常消耗 1-2 天,大多数功能原型需要 2 轮以上修改。
以上加总,一个包含 8-12 个页面的功能模块原型,从需求到可演示版本的平均周期为 5-12 个工作日,核心瓶颈不在于设计本身,而在于等待和沟通摩擦。
AI 原型工具能缩短的,正是这些非生产性时间。

二、AI 原型工具的效率基准:数据说了什么

在进入具体案例之前,先建立一个效率基准参照。
根据 McKinsey 2024 年生成式 AI 生产力报告,在文档类和原型类任务上,AI 工具的平均效率提升在 40%-60% 之间。但这个数字来自广义工具使用场景,对于专业 AI 原型生成工具,实际提升幅度通常更高。
从使用 AI 原型工具的产品团队反馈来看,以下两个指标变化最为显著:
第一个是"首次可演示版本"的交付时间。传统流程通常在第 3-5 天,AI 工具通常在 2-4 小时内。这个差距在融资路演、产品立项、用户访谈等时间敏感场景中,直接影响决策质量。
第二个是"迭代响应速度"。当用户测试或评审会反馈修改需求时,设计师通常需要 1-2 天处理修改,而使用 AI 精准编辑功能的 PM 可以在会后 30-60 分钟内完成局部调整,当天继续推进。

三、真实场景效率对比:传统流程 vs AI 辅助

场景一:新功能立项,需要一个可演示的原型

背景:某电商产品团队需要为一个新的会员权益系统做立项评审,涉及会员中心、权益领取、积分明细、兑换商城 4 个核心页面及相关弹层。
传统流程时间线:PM 整理需求文档(0.5 天)→ 与设计师对齐需求(2次,共 3 小时)→ 等待设计排期(3 天)→ 初稿交付(2 天)→ PM 审核反馈(4 小时)→ 修改完成(1 天)。合计:约 7 个工作日。
AI 辅助时间线:PM 在 UXbot 中输入需求描述(20 分钟)→ 在流程画布上确认 4 个页面的结构和跳转逻辑(30 分钟)→ AI 一次性生成完整多页面原型(10 分钟)→ 通过内置模拟器预览验证交互路径(20 分钟)→ 使用精准编辑器调整 2 处布局细节(30 分钟)→ 导出可演示链接(5 分钟)。合计:约 2 小时。
效率提升:从 7 个工作日缩短至 2 小时,约 25 倍速度提升。立项评审可以在需求确认后当天进行,而不是一周后。

场景二:移动端 App 全流程原型,用于投资人演示

背景:一家创业团队的产品负责人需要为融资路演制作一个完整的 App 原型,覆盖用户注册、首页、核心功能模块、个人中心共 18 个页面,要求在移动端可点击演示。
传统流程时间线:需求整理(1 天)→ 设计资源协调(2 天)→ 设计师分批输出原型(5-7 天)→ 串联可点击交互(1 天)→ 修改对齐(1-2 天)。合计:约 10-13 个工作日。
AI 辅助时间线:在 UXbot 流程画布上规划 18 个页面的结构和跳转关系(1.5 小时)→ AI 生成完整多页面交互原型(15 分钟)→ 模拟器预览移动端完整交互效果(30 分钟)→ 精准编辑 3-4 处视觉细节(1 小时)→ 导出 Kotlin/Swift 代码云端部署用于现场演示(20 分钟)。合计:约 3.5-4 小时。
关键差异:UXbot 对 Android(Kotlin)和 iOS(Swift)原生代码的支持,使得原型不只是可点击的视觉稿,而是在真实设备上可运行的 Demo,大幅提升了路演演示的说服力。

场景三:用户访谈前快速出验证用 Demo

背景:产品经理需要在明天的用户访谈中测试两种不同的信息流设计方案,原本需要设计师同时制作两版,时间来不及。
传统流程:需要约 2-3 天,通常因时间不够被迫取消 A/B 方案对比,只做文字访谈。
AI 辅助时间线:分别在 UXbot 中输入两个方案的需求描述,生成两版原型,各约 1 小时。合计约 2 小时完成双版本可点击原型,访谈当天可以直接演示给用户,收集真实的操作反馈。
这个场景的价值不只在于速度,而在于"本来不可能发生的验证"因为 AI 工具变得可能。原来时间不够只能靠猜,现在可以用真实交互数据做决策。

四、UXbot的工作流为什么能实现这个效率

以上三个场景中的效率数据,背后有一套具体的工作流支撑,不是"AI 魔法",而是产品设计逻辑的重新组织。
UXbot 的五步工作流把传统原型制作中最耗时的环节做了结构性压缩:
第一步,输入需求。PM 用自然语言描述产品需求,不需要先写正式的 PRD 或设计规范,降低了启动门槛。
第二步,在流程画布上确认产品结构。这是与其他 AI 工具最核心的差异点。在生成界面之前,PM 可以先在可视化画布上梳理页面列表、功能模块和跳转关系。这个步骤把"需求与设计师沟通对齐"这一传统环节内化到了工具里,PM 自己完成结构规划,消除了跨角色沟通的时间损耗。
第三步,生成多页面原型并预览验证。AI 根据流程画布的结构一次性生成完整多页面界面,内置模拟器支持在工具内直接预览 Web 端和移动端的完整交互效果。这一步替代了传统的"等待设计师初稿"。
第四步,精准局部编辑。如果某个页面有细节不符合预期,精准编辑器允许直接修改该区域的元素,不会影响其他已生成的页面。这替代了"反馈修改 → 等待更新"的往复循环。
第五步,导出代码云端运行。确认原型后,导出 HTML、Vue.js、Kotlin 或 Swift 格式代码,直接在云端部署运行,无需本地开发环境配置。
整条链路中,等待时间几乎被清零,时间全部用在有产出的工作上。
image1.png

五、效率提升背后的边界:哪些场景 AI 原型仍然不够

效率数据之外,有几个场景需要明确说明,AI 原型工具目前的能力边界:
品牌视觉高一致性要求的项目:如果产品对设计 Token 的严格执行有强要求,AI 生成的视觉结果仍然需要设计师介入做精细对齐,AI 更适合作为基础稿而非最终稿。
复杂动效与微交互设计:页面过渡动画、手势交互、加载动效等细节,AI 目前的处理能力有限,这类设计师的专业工作暂时无法被 AI 替代。
需要严格遵循 WCAG 无障碍标准的产品:无障碍合规设计对颜色对比度、焦点顺序、屏幕阅读器兼容等有精确要求,AI 生成结果需要额外的合规检查。
明确这些边界,不是为了打折扣,而是为了帮助产品团队把 AI 工具用在效率收益最大的地方,把设计师资源集中在真正需要专业判断的环节。

六、产品经理常见疑问

Q1:没有设计基础的产品经理,能独立用 UXbot 完成高保真原型吗?

可以,而且这是 UXbot 最主要的使用场景之一。整个流程从自然语言需求输入开始,流程画布的操作逻辑接近思维导图而非设计软件,不需要掌握任何设计工具的使用方法。内置模拟器提供即时预览,精准编辑器支持直接点击修改元素,所有操作都不涉及图层、锚点或设计系统等专业概念。从实际用户反馈来看,无设计背景的产品经理通常在第一次使用 1-2 小时后就能独立完成完整原型。

Q2:AI 生成的原型,研发团队会直接用它的代码吗?

这取决于具体场景和代码用途。UXbot 导出的代码(HTML、Vue.js、Kotlin、Swift)可以直接在云端运行,适合作为开发起点、Demo 演示或 MVP 快速上线。如果是进入完整生产环境的产品,工程师通常需要对代码结构做审查和优化,AI 生成代码在规范性和边界处理上与手写代码仍有差距。但相比"从零开始写",AI 提供的起点大幅减少了基础框架搭建的时间,开发工程师可以专注在业务逻辑实现上。

Q3:用 AI 工具做原型,会不会让设计师感到被边缘化?

这个问题在很多引入 AI 工具的团队中都有讨论。实际经验显示,合理的分工是:PM 用 AI 完成"从需求到可用原型"的阶段,设计师专注在"从可用到优秀"的视觉精化和设计规范维护阶段。这种分工让设计师从重复性的低层需求翻译工作中解放出来,转向更有创造价值的工作。问题不在于 AI 是否取代设计师,而在于团队是否重新定义了设计师的工作边界。

七、重新定义产品经理的推进速度

效率不只是时间的节省,更是决策节奏的改变。当原型从"等一周"变成"2 小时内",产品经理可以在一个迭代周期内完成 3-5 次验证,而不是等一次。每一次验证都是一次风险排查,每一次快速迭代都让产品离真正有用的方向更近一步。
这是 AI 原型工具给产品经理带来的真实变化——不是简单的提速,而是让"快速验证"这件事变得可以持续发生,而不是偶尔为之。

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。weibo.com/ttarticle/p/show?id=2309405291165112467692 weibo.com/ttarticle/p/show?id=2309405291165494149186 weibo.com/ttarticle/p/show?id=2309405291165871374409 weibo.com/ttarticle/p/show?id=2309405291166240473116 weibo.com/ttarticle/p/show?id=2309405291166727274603 weibo.com/ttarticle/p/show?id=2309405291167121277252 weibo.com/ttarticle/p/show?id=2309405291167494570059 weibo.com/ttarticle/p/show?id=2309405291167872057746 weibo.com/ttarticle/p/show?id=2309405291168245350548

最近被裁,主要做后端开发,抱着试试看的念头和原来公司的领导聊了下,可以回流,但是薪资给不到离职前的水平。

是否可以考虑回流。

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。weibo.com/ttarticle/p/show?id=2309405291154345689093 weibo.com/ttarticle/p/show?id=2309405291154836160613 weibo.com/ttarticle/p/show?id=2309405291155205521452 weibo.com/ttarticle/p/show?id=2309405291155566231680 weibo.com/ttarticle/p/show?id=2309405291155935330489 weibo.com/ttarticle/p/show?id=2309405291156295778636 weibo.com/ttarticle/p/show?id=2309405291156786511883 weibo.com/ttarticle/p/show?id=2309405291157172650248 weibo.com/ttarticle/p/show?id=2309405291157537554557

用了一个 kimi 官网的 Agent 的示例 Prompt:

「 Meridian Architecture 」高端建筑设计事务所官网,展示项目作品、设计理念、团队、获奖、联系表单、留言簿。中英双语、极简主义建筑美学、深色系(黑/深灰)+ 金铜色点缀。区块:Hero (全屏摩天大楼航拍视频 + "Shaping the Horizon" 标题 + EST.2008 标签)、Projects ( 4 个项目卡片,16:10 比例 + 编号 + 位置 + 描述)、Philosophy ( 3 列数字统计 148 项目/32 国家/26 奖项 + 工匠打磨视频)、Team ( 8 位建筑师网格)、Awards ( 10 条奖项时间线 + 6 本出版物)、Contact (表单 + 留言簿)、Footer 。技术:React + Express + tRPC + MySQL + Drizzle + OAuth + AI 聊天助手(浮动右下金色按钮)。

总体效果超出预期。
DeepSeek V4 Pro 在 Claude Code 中开启了一些常见的 skill 或插件(有一个 front-design 的 skill ),效果预览:
https://demo5-opal.vercel.app/

Kimi K2.6 Agent 在网页里直接生成的:https://q6bxlhhftz5de.kimi.site/

kimi 的有很多重复的图片(可能是抽卡效果不好),而且部署时间挺长,然后公开分享出来由于会占用服务器资源,还会按日扣除订阅里的额度,后面会取消公开分享。

大概过程:

  1. 直接在 Claude Code 里输入 Prompt ,一次性生成,本地预览前端没啥问题,日志里有一些应该不算严重的错误日志,API 花费大概 10 块钱。
  2. 然后我想部署出来看看,直接和 DeepSeek 讨论是否能直接部署到 Vercel ,由于项目有 MySQL 数据库,它建议分开部署,前端部署到 Vercel 。在他的提示下安装了 Vercel 的 cli 并授权了( Vercel 的 Claude Code 插件是自己手动安装的,授权那个没有明显提示,自己手动打开了它的输出里的链接进行了授权,不够友好且感觉有点不安全)。之后一次性部署成功。
  3. 之后发现缺少图片,它解释是说需要从后端获取,让它改成前端暂时用 mock/静态的数据,然后修改后重新部署到 Vercel 上就是上面最终的效果。

个人感受:

  1. 审美上:这次界面很惊艳,一个是没有滥用的圆角矩形,还有一个是那个团队那里把鼠标移到图片上的效果我很喜欢。
  2. Claude Code 里的使用:长任务应该没啥问题,但是可能输出有点慢,第一次本地一次性生成大概会费了 30-40 分钟,没有中断。工具调用感觉也不错,调用工具挺积极的,看了几次,调用得也比较合适。
  3. 由于还没有 Coding Plan ,单纯 API 计费确实不便宜,总共大概花费了 16 块钱。

有了前面的那个打脸,单纯的几次测试确实也还看不出来啥,仅供参考吧。 而且这种一次性的 Prompt 没办法看出来模型对于对于细节,项目理解,代码修改方面的水平,后续还需要更多测试,也希望能尽快出个 Coding Plan 吧,不然现在的价格确实性价比不高。

一款产品从构想落地到可交付的视觉稿,传统流程通常需要产品经理、UI设计师、前端开发者之间反复拉齐,周期动辄两周起步。随着 AI 辅助设计工具进入实际工作流,这条链路的时间结构正在发生根本性的变化。本文以 UXbot 为例,完整拆解从输入需求到导出可运行代码的五步工作流,帮助产品经理、UI/UX 设计师以及独立开发者理解 AI 辅助 UI 设计的每一个操作节点,以及各阶段能实际达到的输出质量。

一、传统 UI 设计流程的协作瓶颈

在进入具体工具操作之前,先理解传统流程中效率最低的环节究竟发生在哪里。产品经理撰写完需求文档之后,设计师需要重新理解需求、整理信息架构,再从零绘制页面框架。这个从文字到线框图的翻译过程,通常需要 2 到 4 天时间。高保真原型完成后,开发团队还需要对照设计稿逐页还原代码,期间出现的标注误差和版本不一致,会产生大量的反复沟通成本。
AI 辅助工具将上述环节中耗时最久的部分自动化,尤其是将"需求文字→页面结构→高保真界面"这条链路压缩至几分钟内完成。对于有明确产品目标的团队来说,这不只是效率的提升,更意味着从想法到可验证成果的时间窗口大幅缩短。

二、UXbot 五步 AI 辅助设计工作流概览

UXbot 的设计流程由五个连续步骤构成,每一步对应传统流程中的一个关键阶段,但交付速度和操作门槛有本质差异。完整工作流的顺序为:输入需求 → 确认流程画布规划产品结构 → 生成原型预览验证 → 精准局部编辑 → 导出代码云端运行。
对于包含 15 至 25 个页面的中等复杂度产品,全流程平均耗时约为 2 到 4 小时,可在一个工作日内完成从产品概念到高保真原型加代码导出的完整交付。

第一步:输入需求,启动产品生成

用户在 UXbot 的对话框中输入产品需求,格式没有严格限制,简短的产品概念、一段功能描述或是完整的产品需求文档均可接受。系统会对输入内容进行语义解析,提取核心功能模块、用户角色和页面关系,并即时生成结构化的产品逻辑图与用户体验流程。
这一步相当于将传统需求评审会议的输出物自动化生成,不需要人工整理信息架构。需求描述的质量对输出结果有直接影响,包含具体功能列表、用户场景和关键页面描述的输入,会生成更贴近预期的初始结构。即便是较为简短的描述,UXbot 也能生成可用的基础框架,后续步骤再做精细调整。
这个阶段的关键在于不需要预先掌握任何设计工具的操作技巧,产品经理可以直接用写需求文档的方式与系统交互,将想法直接转化为结构化的产品框架。
image1.png

第二步:确认流程画布,规划产品结构

需求解析完成后,UXbot 会呈现一个可视化的流程画布,完整展示产品的页面层级与导航关系。这是整个流程中最关键的规划节点。
设计者可以在流程画布中查看每个页面的父子层级关系,定义页面之间的跳转逻辑,并为每个嵌套视图配置具体的导航流程。这个步骤对应传统产品设计中的信息架构梳理和用户旅程图绘制,但以可视化方式直接操作,无需依赖额外的流程图工具。
产品结构在这个阶段确认后,后续生成的所有页面都会遵循这套导航逻辑,保证多页面应用的结构一致性。对于包含注册流程、多级菜单、弹层交互的复杂产品,这一步的充分规划能显著减少后续的反复修改。流程画布的价值在于让产品逻辑在生成任何界面之前就变得可见、可编辑,而不是等到原型完成后再返工调整结构。
image2.png

第三步:生成原型,完成预览与验证

流程画布确认后,UXbot 会一次性生成覆盖全部页面的高保真原型,包含组件布局、色彩体系和交互关系。与传统工具逐页设计不同,UXbot 在单次生成中就能输出结构完整、逻辑连贯的多页面产品,而不是零散的独立页面。
生成的原型可通过云端链接直接预览,支持在浏览器中模拟真实的页面跳转和交互操作。对于移动端项目,UXbot 提供设备模拟器,支持选择不同操作系统和设备型号,让设计者在电脑屏幕上即可体验接近原生应用的视觉效果。Android 项目还支持导出 APK 文件,可安装至真实手机设备进行测试,在进入正式开发之前获得真实使用反馈。
这个阶段的验证价值在于,设计者可以在投入任何编辑工作之前,先对整体结构和视觉方向做出判断。如果某个页面的布局逻辑不符合预期,在这里识别出来,修改成本比进入精细编辑阶段后再调整要低得多。
image3.png

第四步:精准局部编辑,完善界面细节

原型预览确认整体方向之后,进入局部优化阶段。UXbot 提供两种编辑路径:AI 助手和精准编辑器,适用于不同类型的修改需求。
通过 AI 助手,设计者可以选中某个页面或组件,用自然语言描述修改意图,例如"将这个列表改为卡片式布局"或"为底部导航栏增加一个消息图标",系统会即时生成对应的修改结果。这种方式适合快速调整整体视觉风格或组件类型,操作路径简单直接。
精准编辑器则针对需要手动控制的细节场景,支持对每个 UI 元素的视觉效果、功能选项和参数进行精确调整,间距、字体大小、颜色值、组件状态等属性均可手动设定,适合对界面精度有较高要求的设计师。
两种方式可以交替使用,先用 AI 助手完成大方向调整,再用精准编辑器细化需要像素级控制的部分。对于一个 20 页面的中等规模产品,这个阶段的编辑工作通常在 45 分钟到 90 分钟内完成,具体时间取决于细节要求和产品复杂程度。
image4.png

第五步:导出代码,云端运行完成交付

设计完成后,UXbot 支持一键生成多种格式的代码和文件。导出格式包括 Vue.js(Web 应用)、Kotlin(Android 原生)、Swift(iOS 原生),以及 HTML 和 Sketch 文件,覆盖从前端开发到移动端原生开发的主要交付场景。
原生移动端代码(Kotlin 和 Swift)是 UXbot 相较于多数 AI 设计工具的显著差异点。输出的是可直接进入开发流程的原生代码,而非跨平台框架代码,性能表现和平台适配程度更接近原生开发标准。这意味着开发团队拿到代码后可以直接基于这些文件进行功能扩展,而不是从头重写底层结构。
导出的代码文件结构清晰,命名规范,便于开发团队直接接手和延伸开发。对于需要快速上线最小可行产品的团队,这套导出机制可以将从设计到开发启动的交接时间压缩到最低。
image5.png

三、AI 辅助 UI 设计流程的实际效率参考

以一个包含用户注册、商品列表、商品详情、购物车、订单确认五大模块的电商移动应用为例,使用 UXbot 完成从需求输入到代码导出的完整流程,各阶段时间分布大致如下。
输入需求并确认产品结构约需 15 至 20 分钟,流程画布调整约需 20 至 30 分钟,原型生成与预览约需 5 分钟,精准编辑阶段约需 60 至 90 分钟,代码导出约需 5 分钟。合计约 1.5 至 2.5 小时可完成一个覆盖主要用户流程的高保真多页面原型,并同步获得可交付给开发团队的代码文件。
相比传统设计流程中从需求文档到高保真设计稿通常需要的 5 至 10 个工作日,时间压缩幅度在 80% 以上。对于以快速迭代为核心工作节奏的产品团队来说,这个时间差距直接影响产品决策的速度和验证成本。

四、常见问题解答

Q1:UXbot 生成的原型能直接用于开发交付吗?

UXbot 导出的代码(包括 Vue.js、Kotlin、Swift)属于可编辑的源代码文件,而非静态截图或不可修改的打包文件。开发团队可以直接基于这些代码进行功能扩展,接入真实的后端接口和业务逻辑。对于需要快速上线的初期版本,这些代码可以作为开发起点,有效缩短从设计完成到开发启动的交接周期。

Q2:没有设计背景的产品经理或创业者能独立完成整个流程吗?

UXbot 的设计逻辑建立在自然语言输入和可视化操作的基础上,不要求使用者具备专业设计工具的操作经验。产品经理可以直接从需求描述开始,无需先掌握 Figma 或 Sketch 的工具操作。流程画布的编辑界面直观,精准编辑器的参数调整也以结构化选项为主,非设计背景的用户上手门槛相对较低。

Q3:UXbot 支持生成哪些平台的 UI 设计和代码?

UXbot 同时支持网页端、iOS 和 Android 三个平台的 UI 生成与代码导出。网页端输出 HTML 和 Vue.js 格式,iOS 输出 Swift 原生代码,Android 输出 Kotlin 原生代码,另有 Sketch 文件格式可供设计师在专业工具中继续编辑。每个平台的代码都经过针对性优化,遵循对应平台的开发规范,而非通用跨平台框架的折中输出。

五、总结

AI 辅助 UI 设计的核心价值,不在于替代设计师的创意判断,而在于将流程中最耗时的结构化工作自动化,让设计和产品人员将更多时间投入真正需要人工决策的部分——产品逻辑、用户体验策略和细节品质把控。

2022年,市场的复杂程度超出预期,众多中大型企业纷纷将战略聚焦回撤至让企业持续盈利的“基本面”上。

业务,就是基本面的核心。

商业机会中存在非常多的不确定性,如何让不确定的机会成为更加确定的生意?市场进入存量时代后,挖掘商业机会的侧重点进入了企业获新客和保老客的双侧挖掘,同时商业机会的达成周期也需要被进一步缩短,这样才能保障业务不“慢下来”。

通常,企业根据以往数据已经持有完整的目标客户画像,当线索流入后,通过信息与画像匹配让后续转化更加顺畅。那么究竟应该如何确保商机转化的速度与质量的双升呢?

1 从接近到理解,掌握客户的真实需求

当企业获得客户及业务数据后,需要进行客户信息过滤、客情掌握、需求判断并分类管理客户,以帮助销售人员更快速的推进业务。

全方位掌握客户行为和信息

无论是通过新线索获取还是存量线索培育,最终都形成了以客户企业为中心的各类信息,如基本属性、公司及联系人、动态信息、行为信息、业务相关信息,更全面的客户信息梳理和展示,能够帮助销售判断客户需求的真实性和时效性。

客户360展示客户档案(含销售自建档案,以及工商大数据补充)、客户行为(含从营销接触,到商机转化过程行为,服务行为等全渠道、全流程的数字化客户行为)、客户洞察(含客户分层、客户标签)、客户经营行为建议(如基于客户健康度的客户经营策略建议)等全方位客户信息展示,可帮助企业判断该客户所处生命周期以及后续转化的可能性。

理解客户需求并实现精细管理

基于更全面的客户数据,企业应对客户的信息进行加工,从而更准确的匹配目标客户画像,甚至修正画像细节,以实现客户的精细化运营。

销售易CRM提供完备的线索评估能力,通过给线索打标签和分级的能力,帮助企业认知和匹配更准确的目标客户。首先,销售易CRM为客户提供一体化的数字化解决方案,客户数据“一镜到底”,成为信息的“唯一可信源”。其次,企业可从客户信息、行为、状态、需求等多个维度进行多级标签处理,也可实现根据企业实际业务,对客户进行分层分类管理,使得企业能够更清晰的判断客户质量。

增加更有效的沟通触点

商机推进过程中,B2B企业常常面临多个部门对客户的需求进行反馈、给客户发送的资料不能及时查询导致同一个文件多次发送甚至提供错误信息等问题,企业需要制定在商机转化各阶段中的流程、标准,并配备更易用的沟通工具;此外,与客户沟通时效性较弱的问题也普遍存在,例如,销售与客户预约会议需要在多个app上进行操作,日程、会议工具、其他系统之后再与客户确认时间,费时费力。

销售易CRM为企业提供基于企业微信的商机推进流程,企业可建立以推进商机为目的的企微项目群让企业与客户1V1形成实时沟通、业务内容聚合(公司介绍、产品、报价等)帮助业务推进,此外销售易CRM与腾讯会议实现打通,可一键开启会议,记录会议内容,快捷高效,全面提升销售人员的专业形象。

2 从流程到员工全面赋能,完成关键转化

接下来,企业需要思考增长双飞轮的加速,即新订单增长和老客户复购增购的批量增长如何保障,这里重要影响因素有两个:

■ 流程管理和执行是否高效

■ 优秀业务人员能力如何复制

客户类型(新客户转化、老客户增购)不同、转化部门(销售、服务、产品等)不同,如何保障业务人员的“水平”更加趋于一致,是商机转化中的重要一步。

因此,需要企业特别关注对业务人员的全面赋能,以信息赋能保障业务人员对客户和企业自身的信息掌控、以行为赋能确保流程和执行能力“在线”、以资源赋能解决销售人员找准目标客户的烦恼。

信息赋能:让销售深度理解客户和业务。销售人员可通过客户360视图对客户进行全面了解,如企业规模、行业等基本信息,业务需求,联系人信息,是否有交易历史,参与的活动、与销售互动等行为信息,全方位了解客户;知识库为业务人员收集个人、公司、合作伙伴、产品方案等业务所需的资源,且权限可分层,实现“谁的信息谁来看”,并可快速共享给其他伙伴。

行为赋能:建标准、提建议、多复盘,保障销售执行力。销售易CRM提供的销售SOP能力,帮助业务管理者通过画布轻松搭建个性化SOP流程,无论新、老业务人员,面对各类客户、不同阶段商机、关键客情、最佳销售经验等问题都有可执行的标准;

此外,下一步最佳行动销售能力,可为业务推进的每一步提供行动建议,以商机转化情景为例,当销售人员与客户完成方案沟通之后,系统将根据过往客户反馈,为销售提出提供报价的行动指导,并且告知销售应该推荐什么样的报价组合给客户成功率更高。

最后,企业需要利用销售易CRM的BI能力对整个销售过程持续复盘,如线索跟进转化统计、客户360视图、业绩脉动分析、团队业绩、商机阶段分析、战败分析等,帮助企业复盘商机转化前后数据表现,以改善业务团队表现。

资源赋能:智能推荐帮助销售线索不断。销售易CRM的智能客户推荐能力,与工商信息对接不但可以为销售提供更多的客户数据,可根据已有客户画像精准筛选潜在目标,其中地图扫楼能力可帮助销售快速锁定附近同类目标客户;若线索有推进可能,则可通过映射将线索一键转换为商机,省时省力。

B2B企业期待的业务加速转化,更应该关注对业务过程、效率和质量进行把控,如何让数字化工具配合业务逻辑和团队特征进行效率优化是企业需要深度思考的问题,若企业能够将商机转化的上述要点抓住,相信企业在存量市场时代,依然能够保持业务规模化增长。

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。weibo.com/ttarticle/p/show?id=2309405291036842262536 weibo.com/ttarticle/p/show?id=2309405291037202710572 weibo.com/ttarticle/p/show?id=2309405291037567614990 weibo.com/ttarticle/p/show?id=2309405291038037377101 weibo.com/ttarticle/p/show?id=2309405291038406475838 weibo.com/ttarticle/p/show?id=2309405291038783963161 weibo.com/ttarticle/p/show?id=2309405291039144935463 weibo.com/ttarticle/p/show?id=2309405291039509577732 weibo.com/ttarticle/p/show?id=2309405291039987990538

你是不是也这样——听人说AI应用要搞"Agent",要接"MCP",还要装“OpenClaw”,最近还出来个“Harness ”,每个词单独听都懂,但合一起就懵了。今天咱们就来捋一捋,谁前、谁后、谁管谁,看完你就清楚了。

我们不讲虚的,直接看一个真实案例:老板让你"根据网上的最新竞品动态,结合公司过去两年的老产品数据,给我出一份带数据图表的新品研发PPT"。

下面就是这个任务从开始到完成的完整过程。跑完这一趟,那些让你头疼的概念自然会各就各位。

图片

第一步:你收到任务,把指令发给OpenClaw

老板的需求很明确,但你不可能自己动手去搜资料、调数据、画图表、写PPT。为了高效完成工作,你把任务整理成一条指令,发给了一个叫OpenClaw的东西。

1.OpenClaw(“龙虾”)

OpenClaw是什么?简单说,它是整个AI流水线的“总调度台”,负责拆解任务、分配资源、监控预算、记录日志。

要理解为什么需要OpenClaw,我们得先知道整个系统的地基是什么。不管后面多复杂的操作,最终都要落回到两个最基础的东西上。

2.大模型(LLM)

ChatGPT、Claude本质上就是一个大脑。它聪明绝顶,知识渊博,但它有两个致命短板。第一,它只会"被动回答",你问一句它答一句,绝不会主动干活。第二,它没有记忆——每次对话都是一次全新的开始,关了对话框就忘得一干二净。

3.Token(词元,也可能是“辞员”)

很多人以为Token就是字数,大错特错。Token是大模型运算的最小颗粒,你每说一句话,它每回你一个字,都在燃烧Token。这决定了两件事:第一是你的钱,API按Token计费;第二是它的"短期内存"。

为什么Token会影响记忆?这里有个反直觉的机制。大模型本身没有记忆功能,它每次回答你之前,系统会把你们之前所有的对话内容,连同你刚发的新问题,打包成一个巨大的文本块,一次性重新塞给它从头读完。这个文本块的大小就是"上下文窗口",Token上限就是这个窗口的最大容量。一旦对话历史太长,Token超限,系统就只能截断——把最早的内容扔掉。所以AI的"失忆"不是记性差,而是根本没地方存。Token既是燃料,也是内存。

好了,地基清楚了。但光有地基远远不够——谁来统筹调度上面那些复杂的零件?这就是OpenClaw存在的理由,接下来,它会唤醒一个团队来干活。

第二步:OpenClaw唤醒多智能体团队,各司其职

OpenClaw收到指令后,瞬间唤醒了一个Multi-Agent(多智能体)团队。

4.Multi-Agent(多智能体)

多智能体就是复杂任务必须分工的产物。你让一个Agent去干保洁没问题,让它开一家公司就会精神分裂。多智能体模式下,你建立一个群,里面有"搜索Agent"专找资料、"写手Agent"专职写稿、"审查Agent"专门挑错,大家各司其职、并行推进。

协调机制有两种。一种是主从式——有个包工头负责拆任务、分配、收集结果;另一种是对等式——没有固定包工头,多个Agent在聊天室里互相发消息,看到相关任务自动响应。目前企业场景多用主从式,因为可控可审计。

在这个任务里,OpenClaw唤醒了三个Agent:"搜索Agent"负责爬竞品动态,"内部数据Agent"负责调历史数据,"分析Agent"负责生成图表。

它们是怎么工作的?这就要说到Agent的本质。

很多人以为Agent就是"大模型加上一些工具",但这漏掉了最关键的东西。Agent和大模型的核心区别在于控制权的归属

大模型模式下,人类控制流程——你想一步问一步,AI只是被动的问答机。Agent模式下,AI控制流程——你只给最终目标,中间的所有决策(先做什么、再做什么、遇到问题怎么处理)全部由Agent自己决定和执行。

实现这个转变,需要在大模型外面包一层"调度器"。这层调度器做四件事:

  • 第一,拆解——把复杂任务拆成可执行的子步骤;
  • 第二,执行——逐个调用工具完成每一步;
  • 第三,观察——看每一步的执行结果,成功就继续,失败就重试或换方案;
  • 第四,决策——遇到分叉路口自己判断。

所以,Agent = 大脑(大模型)+ 调度器 + 知识库 + 技能库 + 手脚(MCP)。大模型只负责理解目标和生成指令,真正的"主动性"来自外面那层调度器。大模型只能回答"如何订外卖",Agent会翻你的记忆、制定计划、打开App、自动下单。AI助手帮你出主意,Agent替你把活干完。

还有一个最容易被搞混的问题:Agent和OpenClaw到底有什么区别?

一句话就能说清:Agent是干活的工人,OpenClaw是管工人的系统。

一个Agent就像一个装修工人,你告诉他"把这面墙刷白",他就能干完。多智能体就像一个装修队,有瓦工、电工、油漆工,能协作完成一个房间的装修。而OpenClaw是装修公司的运营后台,它不管具体怎么刷墙,它管的是:哪个工人有空、工具齐不齐、有没有权限进工地、干了多少活花了多少钱、干活过程有没有记录、工人跑了怎么办。

为什么不能用一个超级Agent来替代OpenClaw?三个致命原因:

  • 第一,单点故障——超级Agent一挂整个系统瘫痪,而OpenClaw架构下单点故障不影响整体;
  • 第二,权限混乱——让一个Agent同时拥有所有权限是巨大的安全风险,OpenClaw按需动态分配最小权限;
  • 第三,无法审计——企业需要知道谁在什么时候调了什么数据花了多少钱,这是调度层的事,不该由执行层管。

有了Agent的概念,我们往下看刚刚提到的OpenClaw唤醒的三个Agent具体怎么干活,这会涉及MCP、数据库、RAG、Skill、Memory,它们会自然而然地冒出来。

5.MCP(模型上下文协议)

其一,"搜索Agent"通过MCP接口去全网爬取竞品动态。

MCP是一套全球统一的接口标准。在它出现之前,想让AI上网搜索,你需要程序员专门写代码把"AI要搜什么"翻译成"调用搜索API"。换个工具就要重写代码,换AI模型可能也要重写。这叫"M×N问题":M个模型 × N个工具 = M×N次开发。

MCP把这个模式改成了"M+N":工具开发者按MCP标准写一次接口,任何支持MCP的模型都能调用;模型开发者支持MCP一次,就能调用所有MCP工具。MCP本质上是一个翻译层——AI说"我要搜竞品",MCP翻译成浏览器能懂的指令;浏览器返回结果,MCP再翻译成AI能懂的内容。有了MCP,AI就像插上了USB-C扩展坞,瞬间拥有了无数双手和眼睛。

6.向量数据库/AI数据库

其二,"内部数据Agent"触发RAG机制,钻进向量数据库里调取过去两年的历史数据。

向量数据库/AI数据库是懂语义的超级书架。传统数据库(比如MySQL)很死板,你搜"开心",它绝对找不出"高兴"。向量数据库能把所有文档、聊天记录转化成"向量"——一长串代表语义坐标的数字。意思相近的文字,坐标在数学空间里也挨得很近。"开心"和"高兴"距离近,"开心"和"悲伤"距离远。你搜"竞品Q3数据",它不是匹配关键词,而是先转成坐标,再找距离最近的坐标点返回结果。它不是在匹配文字,而是在计算意思之间的距离。

向量数据库OceanBase:https://github.com/oceanbase/oceanbase

原生AI数据库seekdb:https://github.com/oceanbase/seekdb

7.RAG(检索增强生成)

没有RAG时,大模型只能在自己训练时的知识里搜刮,搜不到就硬编——这就是AI幻觉。有了RAG,流程变成四步:

  • 检索(去向量数据库找相关资料)、
  • 排序(挑最靠谱的几条)、
  • 拼接(把资料和问题组合成新文本)、
  • 生成(大模型看着资料写答案)。

幻觉被消灭的原因很简单:大模型被强制约束了——它收到的指令是"根据以下资料回答",而不是"回答这个问题"。资料里没有的,它就不敢乱编。

8.Skill(技能包)

其三,"分析Agent"调取了你之前定好的图表生成Skill,并查询了它的Memory:"老板有色盲,图表不能用红绿色"。

Skill是为了解决Prompt(提示词)的痛点而生的。Prompt就是"帮我把这段话翻译成英文"这样的临时指令,痛点是你今天写了一张完美纸条,明天开新对话AI又失忆了,还得重写。天天写Prompt等于天天给AI打杂。Skill就是把重复流程固化成自动化按钮——把SOP写进系统,点一下自动执行。Prompt是口头吩咐,Skill是写进说明书的流水线。

9.Memory(长期记忆)

而刚刚提到的Memory是记"你这个人"的。RAG记客观资料,Memory记主观偏好。技术上它俩是一套东西——都存向量数据库,需要时检索。区别在于:RAG存文档报表,开发者提前导入;Memory存用户偏好和身份标签,系统在对话中自动提取存入。RAG是公司公用的资料柜,Memory是你自己的私人档案袋。有了Memory,AI才能成为专属数字分身——下次它自己就知道"老板不能用红绿色"。

让OpenClaw拥有长期记忆的PowerMem:https://github.com/oceanbase/powermem

第三步:遇到硬骨头,召唤特种兵

任务涉及写一段复杂的数据分析代码,普通的"分析Agent"搞不定。它顺手召唤了Claude Code。

10.Claude Code

不要把Claude Code和网页版聊天的Claude搞混。网页版是顾问,在浏览器里你问一句它答一句。Claude Code完全不同——它直接住在你的电脑终端黑框框里,拥有极高的底层权限,能读、写、改、删你电脑上的文件。工作方式是你给目标,它自己拆解执行,中间不打断。内置了读文件、写文件、跑命令、搜代码等工具。

它的原理是:Anthropic公司在训练Claude时,专门强化了它使用终端命令和文件操作的能力,然后把它封装成一个本地终端Agent,预先接好了文件系统和命令行这两个MCP工具。你打开Claude Code,就等于启动了一个专门写代码的Agent。一句话,它自己去翻几万行代码库,自己改Bug,自己提交测试。

Claude Code把数据分析代码写完并跑通,结果返回给"分析Agent",图表顺利生成。PPT初稿出来了。

第四步:成品出炉,先过安检

PPT初稿生成了。但你真的敢直接发给老板吗?

万一Agent偷偷用了红绿色(老板是色盲)?万一数据图表里有个数字是AI瞎编的?万一格式完全不符合公司模版?更可怕的是,万一Agent在生成过程中顺便把数据库里的文件全删了?

这就是AI流水线还需要最后一层的原因:Harness Engineering(驾驭工程)。

11.Harness Engineering(驾驭工程)

驾驭工程这个名字是2026年初由HashiCorp联合创始人Mitchell Hashimoto正式提出的。Harness本意是"马具"——缰绳、挽具、马鞍,用来控制和引导马匹的工具。这个名字极其精准,因为现在的AI Agent就像一匹力大无穷的野马:能跑能拉货,但也会受惊、乱跑、把你甩下来。驾驭工程要做的,就是给这匹野马套上缰绳,让它从"能跑"变成"能听指挥地跑"。

驾驭工程和传统的"调试修Bug"有本质区别。传统思路是:Agent出错了,你手动介入修正,然后祈祷下次别再犯。驾驭工程的思路是:Agent每暴露一个失败模式,就构建一个自动化的约束、校验或自愈机制,让这个失败模式从物理上变得不可能。

Mitchell Hashimoto举过一个经典例子:让AI Agent重构百万行代码库。最蠢的做法是给GitHub权限说"去吧",然后坐等灾难——Agent会疯狂改文件、引入Bug、删掉它觉得没用的重要文件。驾驭工程的正确做法分五步:

  • 第一步,给只读权限,Agent只能输出修改建议;
  • 第二步,强制先写测试用例,描述怎么改、改完什么样;
  • 第三步,沙盒验证,把建议应用到克隆副本跑测试,不通过直接驳回;
  • 第四步,人类只做"点头或摇头",测试通过后推送到飞书,点同意自动部署;
  • 第五步,把成功流程固化,封装成可复用的驾驭模版。

说到这你可能会好奇:驾驭工程和OpenClaw的区别是什么?OpenClaw管"流水线的运行"——调度、分配、监控、记录。驾驭工程管"流水线的安全"——约束行为边界、校验输出质量、构建自愈闭环。一个管"能跑",一个管"跑得稳"。

在此,我们不妨先停下来思考一个问题:为什么很多企业至今不敢把AI Agent放到生产环境?

不是因为Agent不够聪明,而是因为不信任。你不知道它下一秒会干什么,你不知道它会不会花光你的预算,你不知道它会不会在半夜给客户发一封胡言乱语的邮件。

驾驭工程解决的就是这个信任问题。它用一整套工程化的约束机制,把Agent从"不可控的黑盒"变成了"可审计、可预测、可干预的白盒"。只有当Agent的行为变得可预测,企业才敢把真正的核心业务交给它。

回到我们的任务。系统自动校验PPT格式是否合规,检查有没有用到红绿色。通过后,PPT被推送到你的飞书草稿箱。全程Token被严格监控,预算超80%自动降级到更便宜的模型。所有操作写入审计日志,老板问"数据哪来的"时能一秒溯源。

3分钟,从头到尾你只做了一件事:点"确认"。

结语:你在哪一层?

看透了这13个概念的作用及各自的位置,你就不会再有 AI 焦虑了,建议一键三连——点赞、收藏、转发给身边对AI感兴趣的朋友。

现在的你处在什么阶段呢?

  • 把AI当工具,每次用完就扔。
  • 把AI当员工,教会它干固定的事。
  • 把AI当一支可控的、可信的、可审计的自动化军团。

你敢把后背交给 AI 吗?

无论你打算更换新款传音手机,还是切换至其他安卓设备,拥有可靠的联系人管理方式都至关重要。你也需要便捷的方法来转移联系人、进行临时备份,避免因手机损坏、丢失或误删导致联系人丢失。此时,传音手机联系人备份与恢复方案就显得尤为重要。 本文将介绍 5 种高效备份与恢复传音手机联系人的实用方法,确保重要联系人信息随时安全可查。

图片

方法 1:通过 iReaShare Android Manager 备份与恢复传音手机联系人【便捷高效】

iReaShare Android Manager(Windows 版与 Mac 版)是一款全能桌面应用,专为安卓用户(包括传音手机用户)打造,助力高效管理设备数据。它界面友好,简化联系人备份恢复、文件管理、设备与电脑数据互传等操作。

iReaShare Android Manager 核心优势

便捷导出 / 导入:可在传音手机与电脑间选择性传输数据
一键备份与恢复:一键快速备份恢复联系人、短信、照片等数据
全能数据管理:在电脑端直接管理联系人、短信、应用、照片、音乐、文件等
安全数据处理:恢复数据时不会覆盖设备现有文件
跨设备兼容:支持 8000 + 款安卓机型,包括传音 Spark 系列(20、7、5 Pro)、Camon 系列(20、17)、Phantom 与 POVA 系列等
易用界面:无需专业技术,人人均可轻松操作

如何用 iReaShare Android Manager 备份恢复传音手机联系人

选择性备份

在电脑下载安装 iReaShare Android Manager 并启动

图片

用 USB 线将传音手机连接至电脑
按屏幕提示完成设备授权,让电脑识别手机
连接成功后,在左侧菜单选择数据类型
预览并勾选联系人进行备份
点击导出,将选中的联系人保存到电脑

选择性恢复

手机与电脑物理连接后,在左侧菜单选择联系人
点击顶部导入,找到电脑上的备份文件
选中文件即可将联系人恢复到传音手机

传音手机批量备份与恢复

批量备份:设备连接识别后,进入超级工具箱 > 备份,勾选数据类别,点击备份
批量恢复:进入超级工具箱 > 恢复,选择备份文件,点击恢复即可取回数据

方法 2:通过谷歌账号备份与恢复传音手机联系人

谷歌账号为传音手机提供简单安全的联系人备份恢复方式。开启联系人同步后,联系人会自动保存至云端,在任意设备登录同一谷歌账号并开启同步,即可轻松恢复。

备份步骤

传音手机连接 Wi‑Fi 或移动数据
打开设置应用
点击账号或用户与账号
选择你的谷歌账号,无账号则先添加
点击账号同步
开启联系人同步开关
(可选)点击立即同步即刻备份联系人

恢复步骤

传音手机进入设置 > 账号

图片

登录备份时所用的同一谷歌账号
进入设置 > 谷歌 > 账号服务 > 谷歌联系人同步
确保开启自动同步
打开联系人应用,联系人将开始同步并快速显示

方法 3:通过 SD 卡备份与恢复传音手机联系人

SD 卡是传音手机简单的离线备份方式,可将联系人保存为.vcf 文件,后续轻松恢复,适合换机或恢复出厂设置使用。

备份步骤

将 SD 卡插入传音手机
打开联系人应用
点击三点菜单或更多选项
选择导入 / 导出或导出到存储设备
选择导出到 SD 卡
联系人将以.vcf 文件形式保存至 SD 卡

恢复步骤

插入含.vcf 备份文件的 SD 卡

图片

打开联系人应用
点击菜单选择导入 / 导出
选择从存储设备或 SD 卡导入
找到并点击.vcf 文件,完成联系人恢复

方法 4:通过 Auto Contact Backup & Restore 备份与恢复传音手机联系人

Auto Contact Backup & Restore 是便捷应用,助力传音 Spark/Camon/Pova/Phantom 系列及其他安卓手机用户轻松备份恢复联系人。只需几步操作,即可将所有联系人保存为.vcf 文件,可存储在本地、SD 卡或云端。 需要时,选择备份文件即可快速恢复联系人,是换机或重置后恢复数据的可靠工具。

备份步骤

从谷歌应用商店安装 Auto Contact Backup & Restore
打开应用并授予联系人、存储权限
点击立即备份,选择存储位置(本地存储或 SD 卡)
应用自动生成带时间戳的联系人.vcf 备份文件
支持开启定时备份(如每日备份)

恢复步骤

在传音手机打开 Auto Contact Backup & Restore

图片

点击恢复,找到备份文件
选择所需.vcf 文件
确认导入,联系人自动恢复
可选:检查或合并重复联系人

方法 5:通过 Easy Contacts Backup & Restore 备份与恢复传音手机联系人

Easy Contacts Backup & Restore 是简洁应用,帮助传音用户快速备份恢复联系人,生成的.vcf 备份文件可存本地、SD 卡或云端,一键备份全部联系人,后续选择备份文件即可轻松恢复,还支持备份文件分享,方便传音手机间互传。

备份步骤

从谷歌应用商店安装 Easy Contacts Backup & Restore
打开应用并授予联系人、存储权限
用邮箱、谷歌或 Facebook 账号登录
点击立即备份创建备份
联系人以.vcf 文件保存,可存本地、SD 卡或云端
可分享或邮件发送备份文件,双重保障

恢复步骤

打开应用,登录备份时所用账号

图片

进入联系人备份,选择要恢复的文件
下载并预览备份,选择全部或指定联系人恢复
点击恢复联系人,导入至设备
可选:导出或邮件发送备份文件妥善保管

该应用易用性强,支持云端与本地备份,但部分用户反馈偶发备份文件查找困难、联系人重复问题。因备份会上传至云端服务器,使用时需注意隐私保护。

总结

更换新款传音手机时,备份联系人至关重要,高效管理同样重要。仅备份并不足够,顺畅地整理、编辑、转移联系人,能节省时间、避免混乱。综合来看,iReaShare Android Manager是最推荐的工具,不妨下载免费试用版体验。

pnpm(高效且节省磁盘空间的 JavaScript 包管理器)发布了 pnpm 11 RC 版本。这次更新带来了多项重大改进,涵盖了性能、供应链安全以及更小、更严格的配置系统等。

 

pnpm 11 RC 版本的新特性包括:新增一个基于 SQLite 的存储索引;默认启用供应链保护功能;通过全局虚拟存储实现隔离的全局安装操作;统一的allowBuilds设置;一系列新命令,包括:pnpm ci、 pnpm sbom、 pnpm clean、 pnpm peers check和 pnpm runtime set,同时还提供了简短的别名pnpnx

 

其中一项主要的变更是,pnpm 现在以纯 ESM 的形式发布,并要求使用 Node.js v22 或更高版本,同时完全停止对 Node.js 18、19、20 和 21 的支持。安装文档已经更新,其中提供了兼容性对照表。

 

该版本还对默认的安全设置进行了增强,minimumReleaseAge设置现在默认为 1 天,也就是说,新发布的版本 24 小时内不会被解析,blockExoticSubdeps默认为 true。此举源于 npm 生态系统中数月来频繁发生的重大供应链安全事件。在 Hacker News 上,评论者们就“宽限期是否切实有助于检测”这一问题展开了辩论。

 

构建脚本设置经过了整合, onlyBuiltDependencies、 onlyBuiltDependenciesFile、 neverBuiltDependencies、 ignoredBuiltDependencies和 ignoreDepScripts 都已经移除,取而代之的是一个 allowBuilds 选项,  strictDepBuilds 现在默认是 true 。此外, pnpm 不再从 package.json"pnpm"字段和npm_config_ 环境变量中读取配置了,全局配置文件已经改为 YAML 文件,allowNonAppliedPatches、 ignorePatchFailures、 pnpm server和 useNodeVersion 都已经移除。

 

全局安装现在已经实现有效隔离,每个通过pnpm add -g安装的包都会有独立的目录、package.jsonnode_modules及锁定文件;此外,全局虚拟存储对于pnpm dlx和全局包默认启用,但在普通项目中仍然需要手动启用。性能优化工作包括:迁移至 undici 并采用 Happy Eyeballs 优化 HTTP 性能、跳过暂存目录直接写入存储、预分配 tarball 下载,以及 NDJSON 元数据缓存。

 

开发人员可以通过以下命令试用这个版本:

pnpm self-update next-11
复制代码

迁移指南收录在pnpm 11.x 文档以及v11 跟踪讨论中。

 

Hacker News上,在一个关于近期安全漏洞的讨论帖中,有一位评论者明确推荐使用 pnpm 而不是 npm,并且说“ PNPM 10.x 封堵了其中许多攻击途径,而 NPM 安全性太差,不适合在生产环境中作为命令行工具使用”。不过也有人对此提出异议,认为“ NPM 从来都不算太不安全,至今也依然如此”。

 

minimumReleaseAge的默认设置一直备受关注,也被称为“依赖冷却期”。Hacker News 上一个关于依赖冷却期的讨论帖引发了更多关于该话题的争论,其中一位评论者指出:

那些本该受益于冷却期的人,根本就不会去查看更新。如果没有冷却期,他们也会像其他受害者一样成为恶意软件的受害者。

而其他评论者则警告说:

世上没有免费的午餐。推迟发布不仅会延缓攻击,也会延缓关键的安全补丁发布。这没有放之四海皆准的策略,无论哪种方式,你都会面临风险。

与 npm 和 Yarn 相比,pnpm 11 不仅保留了其一贯的优势——默认隔离的node_modules、内容可寻址存储以及对单存储库(monorepo)的一等支持——还提供通过pnpm sbom生成 SBOM 的功能以及更严格的构建脚本处理,这进一步巩固了其在安全性方面的领先地位,而这些正是Yarn 目前仍然无法匹敌的领域

 

pnpm 是一款开源的 JavaScript 包管理器,其最知名的特点是安装速度快,能够通过内容可寻址存储和使用符号链接的node_modules实现高效的磁盘使用。它在前端和后端生态系统中均有广泛的应用,并与 npm、Yarn 和 Bun 直接竞争。

 

声明:本文为 InfoQ 翻译,未经许可禁止转载。

 

原文链接:https://www.infoq.com/news/2026/04/pnpm-11-rc-release/

今日亮点

今天 AI 圈的焦点是 OpenAI 在图像生成领域的强劲表现。他们的GPT-Image-2模型不仅一举登顶 Arena.ai 排行榜,还密集发布了一系列关于新图片生成功能和即将直播的神秘预告。同时,Anthropic 则通过启动STEM 专家项目,积极吸纳顶尖人才,加速 AI 在科学工程领域的应用探索。

💡 产品动态

OpenAI GPT-Image-2 登顶图像生成榜单

OpenAI 的GPT-Image-2模型在 Arena.ai 的图像生成排行榜上表现卓越,以 1512 分超越谷歌的 Nano-banana-2,领先 242 分,创下迄今为止最大分差,实现多项榜单的“大满贯”。

为什么重要: 这表明 OpenAI 在文生图技术上取得了显著突破,进一步巩固了其在该领域的领先地位,持续推动图像生成能力的边界。

阅读原文

OpenAI 密集预告新功能与直播

OpenAI 今日连发数条神秘推文,包括展示“Made with ChatGPT Images 2.0”的视频,预告“这不是截图”的图片,以及指向直播页面的“Thinking… Generating… Livestreaming…”信息。

为什么重要: 这些预告强烈暗示 OpenAI 即将发布多项新功能或产品,可能涉及更先进的图像生成、多模态交互或实时 AI 应用,预示着重要的更新即将到来。

阅读原文 (ChatGPT Images 2.0)

OpenAI 推出生命科学专用模型 GPT-Rosalind

OpenAI 在其播客中深入介绍了新的生命科学模型系列GPT-Rosalind,旨在支持生物学、药物发现和转化医学研究。该模型致力于改进研究工作流程、加速实验室自动化,并强调在部署过程中需保持谨慎。

为什么重要: 这标志着 OpenAI 正将其前沿 AI 能力拓展到垂直细分领域,通过专用模型解决特定行业的复杂问题,预示着 AI 在生命科学领域应用的加速与深化。

阅读原文

🌍 行业观察

Anthropic 启动 STEM 专家人才计划

Anthropic 推出了“STEM Fellows Program”,旨在招募科学和工程领域的专家,与公司研究团队合作数月,利用 AI 加速这两个领域的进步。该计划着眼于解决具体项目中的挑战。

为什么重要: 这显示了 Anthropic 在 AI 发展策略上的一个重点,即通过吸引特定领域的专业人才,深入探索 AI 在硬科学领域的应用潜力,而非仅仅聚焦于通用大模型的迭代。

阅读原文

💻 开源项目

  • free-claude-code(⭐ 最新):一个开源工具,可在终端、VSCode 扩展或 Discord 上免费使用 Claude Code 的代码功能 → GitHub
  • rtk(⭐ 最新):CLI 代理,能在常用开发命令上将 LLM token 消耗降低 60-90%,单个 Rust 二进制文件,零依赖 → GitHub
  • Pixelle-Video(⭐ 最新):AI 全自动短视频引擎,能自动化生成短视频内容,适合内容创作者 → GitHub
  • worldmonitor(⭐ 最新):实时全球情报仪表盘,提供 AI 驱动的新闻聚合、地缘政治监控和基础设施跟踪 → GitHub
  • shannon(⭐ 最新):一款自主的白盒 AI 渗透测试工具,用于 Web 应用和 API,可分析源代码并执行漏洞利用 → GitHub
  • CubeSandbox(⭐ 最新):为 AI 代理提供即时、并发、安全且轻量级的沙箱环境,保障开发和测试安全 → GitHub

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。个weibo.com/ttarticle/p/show?id=2309405290683106983992 weibo.com/ttarticle/p/show?id=2309405290683472150549 weibo.com/ttarticle/p/show?id=2309405291017153937412 weibo.com/ttarticle/p/show?id=2309405291017510453295 weibo.com/ttarticle/p/show?id=2309405291017858580770 weibo.com/ttarticle/p/show?id=2309405291018210902099 weibo.com/ttarticle/p/show?id=2309405291018567680292 weibo.com/ttarticle/p/show?id=2309405291019037442357 weibo.com/ttarticle/p/show?id=2309405291019381375230