在大模型时代,向量检索成了AI应用的基础设施。RAG、智能推荐、以图搜图……几乎每个AI落地场景都绑定着一个核心需求:高效的向量相似性搜索。

于是,一批专用向量数据库迅速崛起。但当你真正把它们接入生产系统时,往往会遇到一个尴尬的现实:你的业务数据在MySQL里,向量数据在另一个系统里,中间隔着一条复杂的数据同步链路,还有两套运维体系、两份账单、两种查询语言。

有没有可能,一个数据库就够了?

PolarDB MySQL版给出的答案是PolarVector,将向量检索能力直接集成到数据库内核中。不是插件,不是外挂,而是原生能力。

01 不是向量数据库,但比向量数据库更实用

先说清楚一个定位:PolarDB不是、也不打算成为一个专用向量数据库。它是一个云原生数据库,向量检索是它的能力之一,而非全部。

但恰恰是这个"之一",在实际生产中可能比"专用"更有价值。原因很直接:

第一,省去数据同步的痛苦。 传统方案下,业务数据存在MySQL,非结构化数据的向量表征要导入专用向量库,两边要维护一条实时或准实时的同步链路。数据延迟、一致性问题、同步链路故障,每一项都是生产环境的定时炸弹。PolarVector让你在同一张表里同时存储业务字段和向量列,一条SQL搞定混合查询,数据天然一致。

第二,事务能力是刚需。 专用向量数据库大多不支持ACID事务。但在电商、金融、医疗等场景中,你需要保证"写入商品特征向量"和"更新商品状态"这两个操作要么同时成功,要么同时回滚。PolarDB原生支持完整的事务语义,这不是锦上添花,而是生产级应用的底线。

第三,学习成本几乎为零。 如果你的团队熟悉MySQL,那就已经会用PolarVector了。向量列的定义是VECTOR(768),查询是标准SQL加一个DISTANCE()函数,建索引是修改列注释,没有新的API、新的SDK、新的查询语言需要学习。

第四,一套系统承担所有。 一个数据库实例同时处理OLTP事务、向量检索、甚至全文搜索,意味着更少的组件、更低的运维成本、更简单的架构。对于大多数中小规模AI应用来说,这可能是性价比最高的方案。

02 核心能力:该有的一样不少

PolarVector虽然长在关系型数据库里,但向量检索该有的能力一样不缺。
图片

向量数据类型:通过VECTOR(N)类型定义向量列,支持1到16383维,单精度浮点存储。对于主流的Embedding模型(OpenAI的1536维、BGE的768维、CLIP的512维),都能轻松覆盖。

主流索引算法:支持HNSW和IVF两大类索引。HNSW基于分层图结构,召回率高、延迟低,适合对性能要求严苛的在线场景;IVF基于聚类倒排,内存占用更小,适合数据规模大但预算有限的场景。

三种距离度量。 支持余弦相似度(COSINE)、欧氏距离(EUCLIDEAN)和内积(INNER_PRODUCT),覆盖绝大多数相似性计算需求。

智能过滤策略。 这是一个容易被忽视但极其实用的特性。做向量检索时,往往需要同时满足标量条件(比如"只在价格100元以下的商品中搜索相似图片")。PolarVector的优化器会根据过滤条件的选择率,自动在预过滤(Pre-filter)、后过滤(Post-filter)和内联过滤(Inline-filter)之间选择最优策略,无需手动干预。

03 双协议架构:灵活适配不同场景

PolarVector提供两种接入协议,这是一个非常务实的设计选择。

MySQL协议方面,直接用标准SQL进行向量操作。向量检索跑在列存索引(IMCI)只读节点上,与主节点的事务负载物理隔离,互不干扰。数据写入主节点后对只读节点自动可见,无需额外同步。这种方式特别适合已有MySQL业务、需要快速补充向量能力的场景。

一个典型的查询长这样:

SET imci_enable_vector_search = ON;
SELECT product_id, product_name,       
DISTANCE(feature_vec, STRING_TO_VECTOR('[0.1, 0.2, ...]'), 'COSINE') AS dist
FROM products
WHERE price < 100O
RDER BY dist ASC
LIMIT 10;

就是这么直白——标准SQL,标准MySQL客户端,零学习成本。

OpenSearch协议方面,通过RESTful API(兼容Elasticsearch/OpenSearch语法)进行交互,跑在独立的PolarSearch节点上。它的核心优势是混合检索能力——可以在一次查询中组合向量搜索、全文检索和标量过滤。如果你的应用需要"语义相似 + 关键词匹配 + 属性筛选"这种复合查询,OpenSearch协议是更合适的选择。

两种协议不是二选一的关系,而是可以在同一个集群中共存,各取所需。

04 性能:不是凑合能用,是真的能打

图片
谈向量数据库绕不开性能。PolarVector的核心指标如下:

延迟表现:P95(95%请求)低于5毫秒,P99(99%请求)低于10毫秒。这个水平足以支撑大多数在线业务对实时性的要求。

吞吐能力:单节点超过10,000 QPS,集群支持动态扩展至数百节点。从初创公司的小规模应用到大型企业的高并发场景,都有对应的扩展路径。

召回率:超过99%,意味着检索结果的质量非常可靠。在RAG场景中,高召回率直接影响大模型回答的准确性。

资源效率:向量数据压缩率超过50%,分层缓存技术支撑TB级图索引的高效访问,CPU并行利用率超过80%。对于成本敏感的团队来说,这些优化意味着同样的硬件能处理更多的数据。

05 三个典型应用场景

图片

场景一:RAG知识问答系统
这是当前最热门的AI应用模式。将企业知识库文档切片、Embedding后存入PolarDB,用户提问时先做向量检索召回相关片段,再交给大模型生成答案。PolarDB甚至内置了模型算子功能,可以直接在数据库内调用大模型进行推理,真正做到"数据不出库"的一站式RAG方案。简单场景用MySQL协议即可快速搭建,如果需要结合关键词全文检索来提升召回效果,切换到OpenSearch协议。

场景二:个性化推荐系统
将用户行为和物品特征编码为向量,通过相似性检索快速召回候选集。PolarVector的标量过滤能力在这里非常关键,你可以在向量检索的同时加上"品类=女装"、"库存>0"这样的业务条件,一步到位地完成"猜你喜欢"的召回阶段。对于海量物品库,IVF索引配合OpenSearch协议在成本和性能之间取得了不错的平衡。

场景三:多模态检索
以图搜图、以文搜图、视频片段检索——这些场景的共同点是需要将不同模态的数据统一为向量表示,然后做跨模态相似性搜索。PolarDB的事务能力在这里体现出独特价值:图片特征向量和商品业务数据(价格、库存、上下架状态)可以在同一个事务中更新,确保强一致性。

06 写在最后

选向量数据库,不一定要选"专用"的。

如果你的核心业务数据已经在MySQL生态中,如果你需要事务保障,如果你不想维护一条额外的数据同步链路,如果你的团队更擅长SQL而非各种新API,那么PolarDB PolarVector可能是更务实的选择。

它不会在每一个向量检索的极端benchmark上都胜过专用向量数据库,但它能在真实的生产环境中,用更简单的架构、更低的总成本、更可靠的数据一致性,帮你把AI应用稳稳地跑起来。

有时候,最好的工具不是最专的那个,而是最合适的那个。

  1. 概述总结

洗客莱沐浴系统是一款专为洗浴、温泉及酒店行业量身打造的一体化线上营销与运营平台。该系统基于微擎框架开发,旨在为企业搭建一个功能全面的线上销售及营销应用平台1。其核心价值在于整合了门店展示、在线销售、会员管理、营销推广与数据决策等多项服务,帮助传统沐浴行业商家实现数字化转型,提升运营效率与客户体验。

系统采用微擎系统交付模式,源码加密,提供官方正品与软著认证保障。商家可以根据需求选择不同的服务周期,首次购买通常赠送一年的服务套餐,确保在此期间可以免费更新至最新版本。

  1. 功能介绍
    洗客莱沐浴系统提供了一套覆盖前、后端运营的完整功能矩阵,主要可分为以下几个核心模块:

线上销售与预订平台
系统支持搭建线上门店,实现团购销售、客房预订等功能,帮助商家拓展线上客源,将服务预售化、电商化。

全渠道营销与推广
内置丰富的营销工具,包括促销活动、互动游戏、活动推广、优惠券、积分与能量体系等。这些工具能有效刺激消费、提升客户粘性。特别值得一提的是,系统与微信公众号生态深度结合,具备强大的“吸粉”能力,例如在其“自助入住登记”插件中,客户在登记过程中即可关注商家公众号,帮助商家快速积累私域流量,为后续精准营销奠定基础。

会员管理与忠诚度计划
系统提供完整的会员卡、积分商城功能。通过积分奖励、等级权益等方式,构建客户忠诚度体系,促进老客户复购,实现精细化客户运营。
数据化运营与决策支持
后台提供全面的数据统计功能]。商家可以掌握销售、客流、会员行为等多维度数据,从而辅助经营决策,实现从经验驱动到数据驱动的转变。

高效合规的现场管理(通过插件扩展)
系统拥有强大的插件生态。其核心插件之一——“洗客莱自助入住登记系统”,专门解决沐浴行业入住登记痛点。该插件支持一键入住、全面信息收集,并严格执行公安部“四实登记”(实名、实数、实情、实时)制度,要求一人一证、人证相符,内置合规提示,有效帮助商家规避因漏登、虚假登记引发的经营风险。同时,该插件还提供位置管理、数据查询、自助二维码等功能,极大提升了前台运营效率。

  1. 适用场景与行业价值
    适用场景:
    本系统主要适用于所有需要进行线上化转型和精细化运营的洗浴中心、温泉会所、汗蒸馆及特色酒店。尤其适合客流量大、会员众多、希望提升营销效果和管理效率的商家。无论是希望开展线上团购促销,还是需要严格管理入住登记合规性,该系统都能提供对应的解决方案。

行业价值:
开辟线上增长新渠道
将传统的到店服务转化为可在线预售的商品,打破地域和时间限制,吸引新客户,增加营收来源。

降本增效,优化体验
通过在线预订、自助入住登记(插件)等功能,简化流程,减少客户等待时间和前台工作压力,提升整体运营效率与客户满意度。

构建私域流量池,赋能精准营销
借助微信生态的吸粉能力和会员系统,将一次性顾客转化为可长期触达的私域用户,实现低成本、高转化的复购营销。

保障合规,规避风险
通过专业的入住登记插件,确保商家符合公安部门的监管要求,从根本上杜绝因登记疏漏导致的停业整顿风险,保障企业稳定经营。

数据驱动科学决策
改变“凭感觉”经营的传统模式,通过后台数据报表清晰了解经营状况,为产品调整、促销策略制定提供科学依据。

  1. 问答环节
    问:系统包含“自助入住登记”功能吗?是否需要额外购买?
    答:自助入住登记功能是作为“洗客莱沐浴系统”的一个插件模块存在的。根据信息显示,该插件标注为“免费”,但请注意,其必须依托洗客莱主程序才能使用,无法单独运行。因此,商家需要先购买主系统,然后即可添加使用该登记插件。

问:系统的“自助入住登记”插件如何保障登记信息符合公安要求?
答:该插件设计严格遵循公安部“四实登记”制度,强制要求记录客户的真实姓名、联系电话、证件号码等关键信息,并支持拍照存档,确保“一人一证、一人一像、人证相符”。系统后台还会内置违规操作提示,明确商家责任,从流程上规范登记行为,助力合规经营。

问:系统对服务器环境有什么要求?
答:作为微擎应用,系统对运行环境有通用要求。其插件模块支持PHP5.3至PHP8.0之间的多个版本,能够适配大多数常见的服务器配置,降低了商家的部署门槛。

问:使用该系统能为商家带来哪些营销上的好处?
答:核心营销好处在于私域流量积累和会员精准营销。系统通过微信公众号、优惠券、积分活动、团购等功能,不仅能吸引新客户,更能将到店顾客沉淀为公众号粉丝或系统会员。商家后续可以通过公众号消息、会员专属优惠等方式,低成本、高频次地触达客户,推广新服务或促销活动,显著提升客户复购率与品牌忠诚度。


  1. 用户消息

本文适合:在日常工作中频繁等待设计排期或开发资源的产品经理,尤其是负责新功能验证、产品迭代推进或跨部门协作的 PM。
产品经理的效率瓶颈,很少来自"想不清楚",更多来自"推不动"。一个功能从需求确认到完成可演示的原型,往往需要排设计队、等联调、对评审,少则三天,多则两周。在竞争节奏加快的 2026 年,这种等待成本正在成为产品推进速度的核心制约。
根据 McKinsey 2024 年生产力调研,使用生成式 AI 工具的知识工作者,在文档整理、原型验证和沟通材料制作等任务上的效率平均提升超过 40%。对产品经理来说,这不是抽象数字,而是"能否在周三立项、周四就拿出原型"的具体差距。
以下 5 款工具,覆盖产品经理独立完成日常工作最核心的四个场景:原型与交互流程、需求文档撰写、演示材料制作、快速功能验证。每款工具在无设计师或开发工程师支持的情况下,均可独立完成核心任务。

一、 5 款 AI 工具

1. UXbot

对大多数产品经理来说,做原型的最大痛点不是"不懂设计",而是在等待中失去时机。等设计师出高保真少则三天,等开发搭 Demo 少则一周,而 AI 工具可以让这件事缩短到几小时内完成。
UXbot 是目前市场上极少数能从需求描述出发、直接输出多页面可交互原型和可交付前端代码的全链路工具。它的工作流围绕五个核心步骤展开:首先输入需求描述,接着进入流程画布确认产品页面结构和用户旅程,然后 AI 一次性生成完整多页面界面,通过内置模拟器预览验证交互效果,再通过精准局部编辑器调整有问题的区域,最后导出代码直接云端运行。
这套流程中,流程画布是最值得关注的差异点。它让产品经理在 AI 生成界面之前,先用可视化方式规划页面跳转逻辑和功能覆盖范围,解决了"生成了一堆单页面但业务流程不完整"的常见问题。
UXbot 生成的多页面界面不是静态截图,而是支持真实页面跳转和操作路径的可交互原型,内置实时模拟器可以在工具内直接预览 Web 端与移动端(Android/iOS)的完整交互效果。产品经理可以在确认原型后,一键导出 HTML、Vue.js、Kotlin(Android)或 Swift(iOS)格式的前端代码,部署到云端直接访问,无需本地配置开发环境。
UXbot 目前是市场上唯一支持原生移动端代码生成的同类工具,也是唯一在生成前提供可视化流程画布的产品,这两个能力直接对应产品经理在移动 App 产品场景下的核心需求。
image1.png

2. Figma AI

Figma 已经从传统协作设计工具升级为 AI 增强的产品设计平台,2025 年推出的 AI 功能模块让产品经理可以在没有设计师介入的情况下,独立完成基础界面设计和视觉方向验证。
Figma AI 支持通过自然语言描述生成基础 UI 组件、自动填充内容和调整布局,同时内置完整的原型连接功能,可以将静态界面串联为可演示的交互流程。对于需要向设计团队或研发团队传达视觉意图的产品经理,Figma 是目前协作生态最成熟的平台,设计资产共享和标注交付的链路已高度标准化。
它最适合的场景是:PM 自己用 AI 功能快速搭出视觉基础稿,再转交设计师做精细打磨,而不是从零白纸开始沟通,大幅压缩了设计师与 PM 之间的需求对齐成本。
image2.png

3. Miro AI

产品经理在需求阶段面临的另一个依赖是:用户旅程图和功能结构图通常需要设计师或 UX 研究员来绘制,而这类图往往又是立项和评审不可缺少的材料。Miro 的 AI 功能正在改变这一现状。
Miro AI 支持通过文字描述自动生成思维导图、用户旅程地图、服务蓝图和线框图。产品经理输入一段业务场景描述,AI 可以在几分钟内生成结构化的流程图,再通过拖拽交互做调整,最终导出为可共享的在线白板,供团队异步协作完善。
Miro 的实时协作能力使它在多方参与的评审场景中极具优势,产品经理可以在会议中直接用白板与利益相关方共同修改,而不是在会后等待修改稿。
image3.png

4. Lovable

当产品经理需要验证一个新功能是否值得进入正式开发,最有说服力的方式不是文档描述,而是一个可以点击操作的 Demo。Lovable 是一款面向非技术用户的 AI 全栈应用生成工具,通过自然语言描述可以直接生成具备基础功能逻辑的 Web 应用,并自动部署到云端,生成可直接访问的链接。
产品经理可以用 Lovable 生成功能验证用的 Demo,在用户访谈或投资人路演中演示真实的操作流程,而不是解释线框图上的箭头含义。这种"可运行原型"在获取用户反馈和推动内部决策上,效率远高于静态文档。
Lovable 适合验证阶段的快速搭建,对进入生产环境的产品,仍需开发工程师对代码进行质量审查和功能完善,它更适合作为"推动决策"的工具,而不是"最终交付"的工具。
image4.png

5. Gamma(G Design)

产品经理每周用在制作演示文稿上的时间,往往超过实际分析和判断的时间。Gamma 是一款 AI 驱动的演示文稿工具,输入主题或大纲描述,可以自动生成带有完整信息结构和视觉排版的幻灯片,内置图表组件和多种主题模板,支持直接导出为链接或 PDF。
与 PowerPoint 和 Keynote 相比,Gamma 的核心优势在于:生成速度快(通常在 2 分钟内),格式规范不需要手动调整,且生成结果原生支持在浏览器中打开,协作方可以直接在链接上评论,无需下载文件。对于需要频繁向上汇报或跨部门对齐的产品经理,这一优势可以将演示材料制作时间从半天缩短到 30 分钟以内。
image5.png

二、5款工具核心能力横向对比

工具核心能力适用场景是否可导出代码
UXbot多页面原型生成 + 流程画布 + 原生代码导出App 原型、功能演示、移动端验证是(HTML/Vue/Kotlin/Swift)
Figma AIAI 辅助 UI 设计 + 协作交付视觉方向确认、设计师协作部分支持(CSS/HTML)
Miro AIAI 流程图 + 用户旅程地图需求梳理、评审协作
LovableAI 全栈 Web 应用生成功能验证 Demo、用户测试是(全栈代码)
GammaAI 演示文稿生成汇报材料、立项评审

三、产品经理使用 AI 工具的常见问题

Q1:产品经理用 AI 工具生成的原型,设计团队会认可吗?

这取决于用途和传达目标。在功能逻辑对齐和用户流程验证阶段,AI 生成的可交互原型已经足够。UXbot 生成的多页面原型支持真实的页面跳转,内置模拟器可以演示完整操作路径,这类原型在立项评审和用户访谈场景下与设计师出具的高保真原型效果相当。如果目标是传递精确的视觉规范或设计组件标准,则仍需设计师在 AI 原型基础上做视觉完善,AI 工具生成的初稿可以有效降低设计师从零开始的工作量。

Q2:非技术背景的产品经理使用这些工具需要多长时间上手?

以上 5 款工具均以低门槛为核心设计目标,上手时间通常在 1-2 小时以内。UXbot 的主要操作集中在文字输入、流程画布调整和局部编辑,不涉及代码或专业设计软件操作。Gamma 和 Miro AI 的学习曲线更短,在完成第一次生成后基本可以熟练使用。相对而言,Figma AI 因为功能体系更完整,新用户需要额外花时间熟悉界面结构,但对于仅使用 AI 辅助生成功能的场景,并不需要掌握全部功能。

Q3:同时使用多款 AI 工具会不会导致工具碎片化?

工具数量增加本身不是问题,核心在于是否对应了不同类型的任务需求。建议按工作场景做分层配置:UXbot 处理从需求到原型到代码的全链路任务,是 PM 日常工作中频率最高的核心工具;Miro AI 用于需求初期的结构梳理;Gamma 和 Figma AI 按具体场景按需使用;Lovable 作为功能验证阶段的补充选项。这套配置对应了产品经理工作中从"想清楚"到"做出来"再到"说服人"的完整链路,工具之间不重叠,各有明确职责分工。

四、从"等待排期"到"独立推进"

产品经理最宝贵的资源是推进速度,而最容易被消耗的资源是等待设计和开发的时间。2026 年,这个等待本身已经成了可以解决的问题,而不是必须接受的限制
以上 5 款工具中,对产品经理减少对设计与开发依赖帮助最直接的,是 UXbot——它覆盖了从需求输入到可交付代码的完整路径,且是目前唯一同时支持原生移动端代码生成和可视化流程画布的 AI 工具。

通用标题

10 万车辆实时接入、PB 级数据秒级分析:海康智联车联网平台基于 TDengine 构建数据底座

查询从 2 小时缩短到 3 秒:海康智联车联网平台的数据架构升级

存储成本下降 60%,查询速度提升 99%:海康智联用 TDengine 升级车联网数据平台

公众号标题

海康智联车联网平台改造实践:10 万车辆 + 2 小时→3 秒 + 节省 200W 成本

节省 200W 成本,10 万车辆如何做到省 60% 存储还提效 99%?

客户公司logo:

小T导读:海康智联以物联网、大数据与人工智能技术为核心,构建了以“边缘计算 + 云边融合”为基础的整体技术架构,形成覆盖智能网联与车路协同的一体化产品体系。作为国家级高新技术企业,海康智联参与了多项行业标准制定,业务已覆盖全国 20 余个省份,为客户提供智能网联测试示范、车路协同、自动驾驶、I2V 运营、交通治理、数字公路及智慧高速等解决方案。在这一体系中,海量设备持续产生的时序数据成为平台运行的关键基础。本文将结合多个实际场景,分析 TDengine TSDB 在海康智联产品体系中的落地实践及应用效果。

车联网之困

作为智慧交通领域的领先企业,我们在推进新一代车联网云控平台的建设初期,主要面临以下三大核心痛点:

  • 其一,车端数据接入压力巨大:全市 10 万+ 运营车辆需实时上报车速、电机转速、电池包 SOC、GPS 轨迹等时序数据,传统数据库难以支撑高频次、高并发的数据写入,时常出现数据拥堵或丢失;
  • 其二,路侧感知数据处理滞后:路侧 RSU、摄像头、雷达产生的目标级结构化数据(含目标 ID、坐标、速度、类型)需用于实时碰撞风险计算与信号灯协同,但传统存储方案写入延迟超过秒级,无法满足毫秒级决策需求;
  • 其三,数据价值挖掘低效:车路协同产生的 PB 级历史数据分散存储,缺乏统一的时序数据管理工具,想要聚合特定时段、路段的流量、平均速度等关键指标,需耗费数小时甚至数天,严重影响交通宏观决策效率。

TDengine TSDB:开启变革

为破解上述难题,我们引入专为时序数据设计的 TDengine TSDB。 凭借“超级表 + 子表”的独特数据建模方式,TDengine TSDB 能够很好地适配车联网场景中“设备数量多、数据并发高、采集频率高”的数据特征。同时,TDengine TSDB 原生支持 MQTT、Kafka 等物联网数据接入方式,可实现设备数据的直连写入,大幅降低系统接入复杂度。此外,其内置丰富的时序数据聚合函数,可将历史数据查询时间从小时级缩短至秒级,为车联网系统的实时管控与历史分析提供了坚实的技术支撑。

亮点一:车端实时数据接入飞跃,10 万+ 车辆毫秒级在线管控

我们基于 TDengine TSDB 设计了 “一车一子表” 的数据模型:以 “车辆信息超级表(vehicle\_info\_st)” 统一定义车速(speed)、电机转速(motor\_speed)、电池包 SOC(battery\_soc)、GPS 经度(gps\_lng)、GPS 纬度(gps\_lat)等字段,每辆车对应一张独立子表(子表名以车辆 VIN 码命名,如 vin\_123456789)。车辆通过 T-Box 以 MQTT 协议实时上报数据, TDengine TSDB 实现毫秒级入库,稳定支撑 10 万+ 车辆同时在线,确保每辆车的动态数据无延迟、无丢失。

TDengine TSDB SQL 语句(车辆实时数据查询与监控):

 --   1. 创建车辆信息超级表(定义时序数据结构)
CREATE   STABLE vehicle_info_st (
    ts TIMESTAMP,  -- 数据采集时间戳
    speed FLOAT,   -- 车速(单位:km/h)
    motor_speed INT,  -- 电机转速(单位:rpm)
    battery_soc INT,  -- 电池包SOC(单位:%)
    gps_lng DOUBLE,   -- GPS经度
    gps_lat DOUBLE    -- GPS纬度
)   TAGS (
    vin STRING,    -- 车辆唯一标识(子表标签)
    vehicle_type STRING  -- 车辆类型(如公交车、出租车、私家车)
);
--   2. 查询某辆车(VIN:vin_123456789)最近10分钟的实时数据(用于大屏实时监控)
SELECT   ts, speed, battery_soc, gps_lng, gps_lat 
FROM   vin_123456789 
WHERE   ts >= NOW() - 10m 
ORDER   BY ts DESC;
--   3. 统计全市各类型车辆的平均车速(用于交通状态分析)
SELECT   vehicle_type, AVG(speed) AS avg_speed 
FROM   vehicle_info_st 
WHERE   ts >= NOW() - 5m 
GROUP   BY vehicle_type;

亮点二:路侧感知数据接入升级,毫秒级支撑碰撞风险与信号灯协同

针对路侧感知数据,我们采用 TDengine TSDB的“一路口一张子表” 建模方案:创建 “路侧目标信息超级表(road\_side\_target\_st)”,定义目标 ID(target\_id)、目标坐标(target\_x/target\_y)、目标速度(target\_speed)、目标类型(target\_type,如机动车、非机动车、行人)等字段,每个路口的路侧设备(RSU + 摄像头 + 雷达)对应一张子表(子表名以路口编号命名,如 crossing\_001)。

路侧设备通过 MQTT、Kafka 协议将结构化数据实时推送至区域云,由 TDengine TSDB 进行毫秒级写入与统一存储。数据随后实时同步至碰撞风险计算模块和信号灯控制系统。当系统检测到车辆与行人距离小于安全阈值时,可在 500 毫秒内触发预警,并动态调整信号灯配时,从而提升路口通行安全。

TDengine TSDB SQL 语句(路侧目标数据查询与风险预警) :

--   1. 创建路侧目标信息超级表
CREATE   STABLE road_side_target_st (
    ts TIMESTAMP,  -- 数据采集时间戳
    target_id INT,  -- 目标唯一标识
    target_x DOUBLE,  -- 目标x坐标(单位:m,基于路口坐标系)
    target_y DOUBLE,  -- 目标y坐标(单位:m,基于路口坐标系)
    target_speed FLOAT,  -- 目标速度(单位:m/s)
    target_type STRING  -- 目标类型(motor_vehicle/non_motor_vehicle/pedestrian)
)   TAGS (
    crossing_id STRING,  -- 路口编号(子表标签)
    device_id STRING     -- 路侧设备ID
);
--   2. 查询某路口(crossing_001)最近30秒内的所有目标数据(用于碰撞风险计算)
SELECT   ts, target_id, target_x, target_y, target_speed, target_type 
FROM   crossing_001 
WHERE   ts >= NOW() - 30s 
ORDER   BY ts DESC;
--   3. 统计某路口早晚高峰(7:00-9:00、17:00-19:00)的各类目标流量(用于信号灯配时优化)
SELECT   target_type, COUNT(DISTINCT target_id) AS target_count 
FROM   road_side_target_st 
WHERE   crossing_id = 'crossing_001' 
  AND (ts BETWEEN '2024-01-01 07:00:00' AND   '2024-01-01 09:00:00' 
       OR ts BETWEEN '2024-01-01 17:00:00'   AND '2024-01-01 19:00:00') 
GROUP   BY target_type;

亮点三:云控平台与历史分析革新,PB 级数据支撑宏观决策

在 “边缘云→区域云→中心云” 三级云控架构中,TDengine TSDB 承担 “实时数据湖 + 历史仓库” 双重角色:边缘云实时采集车端、路侧数据并写入 TDengine TSDB,区域云基于 TDengine TSDB 进行实时计算(如路段流量统计),中心云则存储全量 PB 级历史数据。

借助 TDengine TSDB 超级表的高效聚合能力,系统能够快速查询任意时间范围(如近一周、近一个月)以及任意路段(如西湖大道、钱江新城隧道)的交通关键指标,包括车流量、平均速度以及基于车速和车辆类型计算的碳排强度。实际应用中,相关数据查询响应时间已从传统方案的 2 小时缩短至 3 秒以内,为交通宏观决策、高精地图更新以及城市级交通仿真提供了精准的数据支撑。

TDengine TSDB SQL 语句(交通宏观数据聚合与分析) :

--   1. 聚合某路段(如西湖大道,通过GPS范围界定)近1周的日均车流量与平均车速
SELECT   DATE(ts) AS stat_date, 
       COUNT(DISTINCT vin) AS   daily_flow,  -- 日均车流量(按车辆VIN去重)
       AVG(speed) AS avg_daily_speed       -- 日均平均车速
FROM   vehicle_info_st 
WHERE   gps_lng BETWEEN 120.123 AND 120.145  --   西湖大道路段经度范围
  AND gps_lat BETWEEN 30.234 AND 30.256   -- 西湖大道路段纬度范围
  AND ts >= NOW() - 7d 
GROUP   BY stat_date 
ORDER   BY stat_date;
--   2. 计算全市近1个月各区域的碳排强度(基于车辆类型与车速的自定义公式)
SELECT   vehicle_type, 
       AVG(CASE WHEN speed <= 20 THEN   0.8  -- 低速行驶碳排系数
                WHEN speed <= 60 THEN   0.5  -- 中速行驶碳排系数
                ELSE 0.6 END) AS   carbon_intensity  -- 高速行驶碳排系数
FROM   vehicle_info_st 
WHERE   ts >= NOW() - 30d 
GROUP   BY vehicle_type;
--   3. 查询某区域(如钱江新城)近24小时的交通流量变化趋势(用于实时仿真)
SELECT   DATE_TRUNC('hour', ts) AS stat_hour,    -- 按小时聚合
       COUNT(*) AS hourly_flow 
FROM   vehicle_info_st 
WHERE   gps_lng BETWEEN 120.167 AND 120.189 
  AND gps_lat BETWEEN 30.268 AND 30.290 
  AND ts >= NOW() - 24h 
GROUP   BY stat_hour 
ORDER   BY stat_hour;

业务改进与提升

  1. 成本效益双丰收

相比传统数据库方案, TDengine TSDB 通过 “超级表 + 子表” 的轻量化建模,将存储成本降低 60%(PB 级数据存储无需额外扩容硬件);同时,其原生支持数据压缩与分布式计算,减少了 50% 的服务器部署数量,每年为我们节省硬件采购与运维成本超 200 万元。此外,数据查询效率提升 99%(从 2 小时缩短至 3 秒),大幅减少计算资源占用,进一步降低 IT 运营成本。

  • 决策精准效率高

依托 TDengine TSDB 的实时数据处理能力,我们的车辆管控业务实现了从 “事后追溯” 到 “实时预警” 的转变(如 10 万 + 车辆异常状态可在 1 秒内触发警报);在宏观决策层面,基于 TDengine TSDB 的快速数据聚合,交通信号灯配时优化周期从 1 个月缩短至 1 周

未来展望:持续进化

下一步,我们将继续深化 TDengine TSDB 的应用场景:一方面,拓展 “车-路-云-人” 全要素数据接入,将共享单车、行人过马路数据纳入 TDengine TSDB 中进行管理,构建更全面的交通数据体系;另一方面,基于 TDengine TSDB 的时序数据挖掘能力,开发 “交通拥堵预测模型”,实现提前 15 分钟预测路段拥堵情况并推送至市民导航 APP,进一步提升城市交通智能化水平。

关于海康智联

浙江海康智联科技有限公司为中电海康集团旗下企业,秉承中国电子科技集团有限公司新一代信息基础设施战略,用科技筑基交通强国伟业,致力成为国内领先的智能网联与车路协同产品和技术服务商。在《交通强国建设纲要》的指引下,海康智联持续以“客户为中心”进行技术与产品的研发和创新,打造数字化、网联化、智能化、协同化的数智道路,构建泛在的、先进的交通信息基础设施。

作者:海康智联 徐翔

出门在外,也能让电脑替你干活

你有没有遇到过这种情况——人已经出门了,突然想起电脑上还有个文件没处理;或者在会议室里,临时需要一份汇总表,却没办法坐回工位?

Claw 就是为这种场景而生的。

它让你的微信、QQ、钉钉等日常聊天软件,变成一个可以远程指挥电脑的"遥控器"。发一条消息,电脑就开始干活;几秒后,结果直接回到你手机上。全程不需要你盯着屏幕,也不需要远程桌面。

一、 什么是 Claw?

让远程办公像点外卖一样自然,Claw 就是你随时待命的 “AI 管家” :

  • 🗣️ 极简指令: 像聊天一样发送大白话(自然语言)或简短口令。
  • 自动执行: 电脑端的 HyperClaw 收到指令后,即使是在后台或沙盒中,也会立刻默默替你把活干完,丝毫不影响电脑的正常使用。
  • 📩 结果秒回: 任务完成后,文件、报告或状态会直接发回你的手机聊天框,真正的“事事有回音”。

二、 随时随地,搞定工作

  • 🏃 通勤路上“打个提前量” :在早高峰的地铁上安排好任务队列,人还没到工位,电脑已经把你要的数据全跑完了。
  • 出门在外“秒回需求” :在外喝咖啡或见客户时突然需要转换文件格式?掏出手机发个指令,HyperClaw 帮你批处理搞定。
  • 🗣️ 开会期间“神辅助” :会议进行中,发一句指令,让电脑迅速提炼资料、生成要点并回传到你手机,助你掌控全场。
  • 🏖️ 临时救急“不扫兴” :假期遇到突发检索、汇总或推送需求,无需到处找电脑,用手机下发指令,结果直接推送到手。

三、 零门槛,你常用的软件都能连

手机端完全不需要安装任何新 App! Claw 完美兼容国内主流办公与社交平台,即连即用:

  • ✅ 微信 / 企业微信(强烈推荐:最简单、最直观!)
  • ✅ 钉钉 / 飞书
  • ✅ QQ / 元宝派

四、 简单三步,唤醒你的“遥控器”

1.打开设置: 在电脑端运行 HyperClaw,进入「Claw 设置」。

2.选择平台: 挑选你最常用的工具(比如微信)。

3.轻松绑定: 跟着向导扫码或配置,一两分钟即可完成连接。(注:部分企业级软件如飞书/钉钉,需按提示简单创建一下内部应用)

五、 企业级安全,用得放心

把电脑交给手机控制,安全吗?当然!我们为你提供了银行级的安全保障:

  • 身份认不准不执行:支持指令白名单和权限控制。敏感高危操作,必须经过你的“二次确认”才会执行。
  • 操作全记录:谁在什么时候发了什么指令,系统都有详细的日志追踪和回执编号,随时可查。
  • 数据全程加密:传输过程完全加密,并支持敏感信息脱敏,符合企业安全与合规标准。

六、 你可能还想了解(FAQ)

Q1:电脑必须保持开机吗?

A:是的。电脑需要处于开机联网状态,并运行 HyperClaw 客户端,随时待命。

Q2:和传统的“远程桌面”有什么区别?

A:传统远程桌面需要你用手机屏幕艰难地控制电脑鼠标,费时费力又费流量。Claw 则是“你下指令,它自己干活并交结果”,不需要你接管屏幕,效率成倍提升!

Q3:我不会写代码,指令怎么发?

A:直接说人话就行!建议使用【动作 + 目标 + 结果】的句式,比如:“把桌面上的素材文件夹打包,导出为 ZIP 发给我”。

Q4:万一网络不好,指令发丢了怎么办?

A:别担心。如果网络不稳定,指令会进入“排队等候”状态,网络一恢复就会自动补发执行。重要任务还可以开启短信或邮件提醒。

Q5:我可以定制自己的专属任务吗?

A:完全可以。你可以为自己的高频工作定制专属模板,绑定特定的触发词,甚至串联各种复杂的自动化脚本,打造你的专属工作流。

Q6:任务失败了怎么查原因?

A:HyperClaw 客户端内能直接可视化查看执行记录,确认各个环节的执行反馈,就能快速知道是因为权限不够、网络超时还是文件找不到啦。

在套路云百炼平台训练模型,结果不能导出,只能在套路云上面部署,训练花了 16,部署模型最便宜一个小时 20 块。😅

image

训练花钱、部署再花钱,不能导出,直接绑定上去,上了贼船了属于是。

球阀与蝶阀是工业管道中最常见的两类四分之一回转阀门。两者均可通过90°旋转快速启闭,但在结构原理、密封性能、调节特性及经济性上各有侧重。本文从工程实战角度出发,结合米勒阀门产品实例,帮助工程师快速选型。

一、技术原理:同属回转,构造迥异

球阀源自旋塞阀,启闭件为带贯通流道的球体。球体旋转90°实现通断。按固定方式分为浮动球阀(中小口径)和固定球阀(高压、大口径)。米勒KB50G系列气动固定球阀采用上下双支撑轴设计,扭矩小、寿命长。

蝶阀启闭件为圆盘状蝶板。蝶板旋转90°完成开关。密封结构从同心中线软密封演进至三偏心金属硬密封。米勒EF70D系列电动三偏心硬密封蝶阀实现蝶板全程零摩擦,采用不锈钢+石墨多层金属叠片,耐温达420℃以上,压力覆盖Class150~1500。

二、密封性:球阀传统占优,高性能蝶阀已大幅接近

球阀在API 598标准下可做到零泄漏,尤其适用于剧毒、LNG、真空等高危场合。米勒KB50G采用预紧力自适应密封,泄漏等级达ANSI Ⅵ级。

传统蝶阀密封能力稍弱,但三偏心硬密封蝶阀已跨越这一差距。米勒EF70D同样可达到ANSI Ⅵ级泄漏等级,在高温高压工况中可替代球阀。选型原则:高危零泄漏优先球阀;常规水、暖通、污水等场景,蝶阀足够胜任。

经验:固定球阀在高压大口径下双向密封能力无可替代,勿因成本牺牲结构合理性。

三、流阻与调节:球阀流阻低,蝶阀调节优

流阻:全通径球阀流阻系数仅约0.05~0.1,适合长输能耗敏感管线。蝶阀全开时蝶板仍在流道中,流阻系数约0.2~0.3。

调节性能:蝶阀具有等百分比流量特性,调节平滑、可重复性好,适合频繁节流。球阀适用于快速切断,调节须用V型球阀,但线性范围仍不及蝶阀。

经验:频繁调节选蝶阀;长输节能选球阀;含颗粒介质可考虑V型调节球阀。

四、经济性与维护:大口径分水岭

行业内一般以DN300为大口径界限。DN300以上,蝶阀采购成本仅为固定球阀的1/3~1/5,且安装快捷、重量轻。例如DN600热水管道,蝶阀比球阀成本降低45%,工期缩短30%。高压场合(如PN25、300℃),球阀故障率低,全生命周期成本更优;运行超10年后,球阀总成本反而比蝶阀低25%。蝶阀维护简便,可在线更换密封件;球阀需整体拆解,维护成本高。

超大口径(DN800以上) 球阀无成熟产品,应果断选用硬密封偏心蝶阀。米勒EF70D通径覆盖NPS 2"~120",与球阀系列(DN15~DN1000)形成完美互补。

经验:低压大管径选蝶阀;高压小口径选球阀,关注全生命周期成本。

五、材料与工况应对:不止于类型选择

密封材料决定阀门极限。PTFE适用于中低温无颗粒介质;高温高压或含硬颗粒工况须用金属硬密封或硬质合金。米勒阀门提供PTFE、金属硬密封、硬质合金,阀体材质覆盖碳钢、304/316不锈钢以及Inconel、Monel、Hastelloy、Ti等耐腐蚀合金。

特殊场合:制药/食品用卫生级球阀(无死角、易排空);含硬颗粒介质优先耐磨硬密封蝶阀;保温管道需核实热传导与热冲击数据。

六、实用选型速查表

性能维度蝶阀球阀选型建议
常用通径DN25~DN3000DN15~DN1000DN300以上压差不大优选蝶阀
温度范围-50~420℃(三偏心)-196~800℃极高温选球阀
压力范围PN16~PN250PN16~PN420高压差选球阀
泄漏等级中线/三偏心可达ANSI Ⅵ可达ANSI Ⅵ零泄漏均可实现
流阻系数约0.2~0.3约0.05~0.1长输管线优选球阀
调节性能良好一般(快速启闭)节流调节选蝶阀
采购成本低(大口径1/3~1/5)低压大管径选蝶阀
全寿命成本中低压占优高压占优分析10年以上运行成本
表中数值仅供参考,具体选型以阀门品牌正式技术规格书为准。

七、结语

球阀与蝶阀无绝对优劣,选型需紧扣三个核心变量:口径、压力、介质特性。随着石墨烯增强密封、超疏水涂层等新技术的应用,两种阀门的性能边界日益模糊。但工程师的底层逻辑不变:全面掌握工况参数,跟踪产品实测数据,理性预留安全裕度。

希望本文能为工程师提供清晰、实用的选型指导。如需进一步技术细节,请查阅米勒阀门等制造商正式规格书。

这些年,城市基础设施数字化建设越来越热。水务要做统一感知,防汛要做实时预警,桥梁要做健康监测,港口要做智能调度……看上去每个行业、每个项目都在推进数字化,但很多团队在真正落地时都会遇到同一个问题:系统建了不少,数据接了很多,业务却还是很难真正跑起来。

这是因为很多项目一开始解决的是“有没有系统”,后来才发现更难的是“这些系统背后的数据,能不能真正接起来、管起来、用起来”。

现实里常见的情况是:

  • 一个场景一套系统,一个厂家一个平台,数据分散在不同入口;
  • 设备类型多、协议不一、模型不统一,后续整合越来越难;
  • 实时监控、历史查询、告警分析、业务调度都依赖底层数据能力,但底座承载不住;
  • 数据虽然采上来了,却很难形成“监测—预警—分析—处置”的业务闭环。

这也是为什么,越来越多基础设施行业客户开始意识到:数字化建设的重点,正在从“建设单点系统”转向“建设统一数据平台能力”,时序数据库(Time Series Database)的选择至关重要

围绕这一趋势,TDengine 推出了城市基础设施数据平台实践:水务、防汛与港口数字化白皮书,结合 4 个真实案例,系统梳理了基础设施行业如何从分散建设走向统一平台,如何让数据真正支撑监测、预警、调度与运营。

白皮书亮点抢先看

  • 4 个真实案例,覆盖水务、防汛、桥梁与港口场景

白皮书不是泛讲“数字化转型”,而是围绕福州水务、江西水投、智慧桥梁管理平台、山东港口科技 4 个典型实践展开,系统呈现城市基础设施数据平台的建设路径。

  • 从“建系统”到“建平台”,讲透统一数据底座的建设思路

白皮书聚焦基础设施行业的共性难题:多源异构设备如何统一接入、海量数据如何统一建模、写入性能与存储成本如何平衡,以及数据如何真正支撑预警、调度和运营。

  • 不仅讲技术架构,更讲业务闭环怎么形成

内容不止停留在数据接入和存储,而是进一步延伸到实时监测、规则告警、历史分析、业务调度与智能分析,帮助读者理解基础设施数据平台如何从“数据承载层”走向“业务能力层”。

  • 提炼四大案例背后的共性方法,便于复制到更多场景

白皮书总结了统一接入、统一建模、高性能时序底座,以及向“监测—预警—分析—调度”延伸的共性建设方法,不只适合看案例,更适合借鉴落地。

哪些人值得看这份白皮书?

  • 正在做智慧水务、智慧水利、防汛、桥梁监测、智慧港口等项目;
  • 正在推进设备接入平台、物联网平台或统一数据平台建设;
  • 正在被多源异构、协议不统一、模型混乱、查询慢、存储贵这些问题困扰;
  • 希望把“监测平台”进一步做成“预警 + 分析 + 调度”的业务平台;
  • 想看一些更贴近真实项目,而不是只停留在概念层面的实践案例。

这份白皮书最有价值的地方——不是只告诉你“为什么要做”,而是通过真实案例,告诉你“别人是怎么走通的”。点击进入 https://taosdata.feishu.cn/share/base/form/shrcnSOu8zYDaDC9Gg...\_source=wechat\&hide\_source=1 填写问卷,即可免费获取《城市基础设施数据平台实践:水务、防汛与港口数字化》白皮书。4 个真实案例,带你看懂基础设施行业如何从分散系统建设走向统一数据平台建设,让数据真正支撑监测预警、业务调度与智能分析。

前言:数字化转型的深水区与核心诉求

当前,中小工业及工贸类企业的数字化转型已步入深水区。早期的单点工具部署已无法满足当下的管理需求,企业普遍面临着三大核心痛点:

  1. 数据孤岛 严重:多系统拼凑导致数据割裂,跨系统手动搬运数据不仅效率低下,更易产生人为误差。
  2. 业务流程断链:获客、履约、售后各环节未能打通,无法形成运营闭环,导致管理黑箱。
  3. 供应链协同 低效:上下游依赖微信、电话等传统方式协作,信息透明度低,对账难,响应速度慢。

在此背景下,企业对于数字化工具的需求已从单纯的“客户管理”升级为“全业务一体化运营”。本文将以超兔一体云为核心参照,选取神舟数码 CRM点镜 CRM易信 CRMPipeline CRMNutshellBigin等市场同类产品进行深度横向评测。评测将聚焦于三大核心维度:全业务一体化底座能力“获客-履约-复购”数字闭环构建能力,以及供应链协同 管控能力

一、 核心架构对比:原生一体化 vs 模块拼接

数字化系统的根基在于底座架构。是“原生打通”还是“接口拼接”,直接决定了系统的流畅度、数据一致性及维护成本。

1. 超兔一体云:原生全业务一体化底座

超兔一体云的核心逻辑建立在“原生全业务打通”的大底座之上。其架构并非多个独立系统的简单物理堆砌,而是从底层设计之初就实现了数据模型的统一。

mindmap
  root((超兔一体云架构))
    核心底座
      统一数据存储
      全局组织权限体系
      低成本客制化引擎
    八大原生模块
      CRM(客户关系)
      OMS(订单管理)
      SRM(采购管理)
      PSI(进销存)
      轻MES(生产工单)
      财务日记账
      薪资管理
      OpenCRM(协同)
    能力延伸
      向内: 数字闭环
      向外: 供应链协同

实现逻辑:

  • 底层数据互通:涵盖CRM、OMS、SRM、PSI、轻MES、财务等8大模块,所有业务数据底层统一存储,一次录入全链路复用,彻底消除数据孤岛。
  • 统一权限体系:支持九级组织架构及矩阵式项目组,自动适配“上级管下级、同级隔离”等复杂权限规则,无需繁琐配置。
  • 低代码 适配:提供6大自定义引擎(菜单、工作台、业务表、工作流、BI等),无需二次开发即可适配个性化需求。

2. 其他品牌架构分析

  • 神舟数码 CRM:采用“垂直行业深度定制+集成”模式。其能力强项在于针对制造、零售等特定行业的深度理解,通常通过强大的集成能力对接ERP来实现后端业务覆盖。其一体化程度往往取决于与第三方ERP(如SAP、Oracle)的集成深度。
  • 点镜 CRM / 易信 CRM:主要聚焦于特定生态或功能。点镜深耕微信私域生态,易信偏向即时通讯协同。其架构多为“CRM+SCRM”或“协同+CRM”,缺乏原生后端业务模块(如进销存、生产),难以形成底层数据的一体化。
  • Pipeline CRM / Nutshell / Bigin:定位为轻量化、可视化的销售管道工具。架构设计上专注于线索和商机的追踪,属于“前端正轻量级应用”,后端履约与供应链能力需依赖第三方生态集成,原生底座较窄。

二、 “获客-履约-复购”数字闭环能力对比

业务闭环的核心在于“流”的通畅性。超兔一体云通过原生底座实现了业务流、数据流、资金流的全链路自动流转,而其他品牌在闭环的完整性上存在显著差异。

1. 闭环全流程逻辑(以超兔一体云为例)

超兔构建了从线索获取到最终复购的自循环体系,以下是全链路业务流转的逻辑时序:

sequenceDiagram
    participant 获客端
    participant 系统底座
    participant 履约端
    participant 财务端
    participant 复购端

    获客端->>系统底座: 全渠道线索归集(百度/微信/地推等)
    系统底座->>系统底座: 自动清洗/查重/补全工商信息
    系统底座->>获客端: 自动分配销售 & 提醒
    获客端->>系统底座: 线索转商机/订单
    
    系统底座->>履约端: 订单自动触发
    履约端->>履约端: 自动锁库/计算缺口/生成采购计划
    履约端->>履约端: 轻MES排程(扫码派工/领料/报工)
    履约端->>财务端: 触发应收/自动拆分期数
    
    财务端->>财务端: 回款核销/自动开票/信用管控
    财务端->>复购端: 交易数据沉淀至客户画像
    
    复购端->>复购端: RFM模型自动分层(识别高潜/流失风险)
    复购端->>获客端: 自动触发回访任务/复购跟单

2. 品牌能力横向拆解

品牌获客端能力履约端能力复购端能力闭环评价
超兔一体云全渠道归集:支持7大渠道自动抓取,线索自动清洗、查重、分配,自动核算ROI。全流程联动:30+订单模型,自动锁库、排程、扫码报工。销售可自主查询进度,无需跨部门沟通。智能闭环:全链路数据沉淀,RFM模型自动分层,自动识别复购潜客并触发任务。完整闭环:数据天然互通,无需人工干预即可实现端到端流转。
神舟数码 CRM:具备全渠道获客及规则分配回收能力。较强:打通订单-售后维保链路,但在生产制造环节多依赖集成ERP。较强:通过工单联动挖掘复购机会,具备闭环能力。基本闭环:在特定垂直行业内能形成闭环,依赖集成能力。
点镜 CRM聚焦私域:擅长微信生态获客,标签体系完善。:无原生供应链协同、预算管控及复杂订单管理功能。:主要依赖私域运营手动挖掘,缺乏自动化数据反哺。断链:仅覆盖获客及部分跟进环节,无法独立支撑履约与复购闭环。
易信 CRM一般:偏向协同过程中的客户信息收集。:无履约记录能力。:无复购模型。非闭环:定位为协同工具,非业务闭环系统。
Pipeline / Nutshell / Bigin可视化强:Pipeline主打销售管道,Nutshell支持线索评分,Bigin极简轻量。极弱:仅支持基础订单记录,无库存、生产、物流等履约能力。极弱:仅具备基础的历史数据查看,无自动化复购模型。非闭环:仅覆盖获客阶段的前半段,属于“单点工具”。

深度解析:

  • 超兔一体云的优势在于“自动化”。从线索录入的那一刻起,后续的库存锁定、生产排程、财务核销、复购提醒均由系统基于规则自动驱动,极大地降低了人工搬运数据的成本。
  • 神舟数码 CRM在大型制造企业中表现稳健,但其闭环往往需要昂贵的ERP实施成本作为支撑。
  • Pipeline、Nutshell、Bigin等轻量级产品,虽然上手快,但在面对工贸企业复杂的“履约”环节时显得力不从心,往往需要在系统外进行大量操作。

三、 供应链协同管控能力对比

供应链协同是区分“内部管理工具”与“产业互联工具”的关键分水岭。超兔通过独创的OpenCRM体系,将业务边界延伸至企业外部。

1. 协同管控模式对比

协同维度超兔一体云 (OpenCRM共生体系)神舟数码 CRM其他品牌 (点镜/Pipeline等)
下游客户协同全在线:报价/订单在线确认,物流实时查看,在线验收对账。依赖集成/portal:通常通过供应商门户或ERP扩展模块实现。:基本依赖微信、电话、邮件线下沟通。
上游供应商协同深度协同:在线询比价,供应商在线接单、发货,自动回传物流,三流合一自动对账。较强:通过SRM模块或ERP集成实现采购协同。:无原生供应商协同能力。
数据安全机制共生账号体系:为伙伴开通独立账号,权限严格隔离,仅可见相关数据。权限管控:基于大型系统的复杂权限配置。不适用
核心价值低成本高效率:无需部署额外系统,开号即用,沟通成本降低60%。标准化:适合大型企业标准化采购管理。N/A

2. 超兔 OpenCRM 实现逻辑深度解析

超兔的供应链协同并非简单的“数据导出”,而是建立了一套共生机制:

  • 权限可控的共生账号:企业可免费或低成本为供应商、客户开通“共生账号”。这些账号不同于内部员工,拥有独立的权限视图,只能查看与其相关的订单、对账单和库存信息。
  • 自动化对账与评级

    • 上游:采购需求发出后,多供应商在线报价,系统自动比价生成采购单。供应商发货后,物流信息自动回传,系统自动匹配货、款、票进行三流合一对账。
    • 下游:客户在线对账,确认无误后自动触发内部财务确认,减少传统纸质对账的繁琐与差错。

相比之下,神舟数码 CRM的供应链能力多体现在其强大的ERP集成能力上,适合已有成熟ERP体系的大型企业。而点镜、Pipeline、Nutshell等产品本质上聚焦于销售前端,完全不具备供应链协同的基因,企业若使用此类产品,仍需依赖Excel或微信处理上下游业务。

四、 综合能力雷达评估

为了更直观地展示各品牌在核心能力上的表现,我们构建了以下五维评估模型:全业务一体化数字闭环完整性供应链协同行业适配广度低成本落地能力

(注:分值为相对评估,5分为最高,代表在该维度表现最卓越;1分为最低,代表能力缺失或极弱)

1. 超兔一体云

  • 全业务一体化:5分 (原生8大模块底座,数据天然互通)
  • 数字闭环完整性:5分 (获客-履约-复购全链路自动化流转)
  • 供应链协同:5分 (独创OpenCRM体系,上下游全在线协同)
  • 行业适配广度:4分 (主要聚焦中小工业、工贸企业,适配性强)
  • 低成本落地:5分 (SaaS模式,低代码客制,无需昂贵实施费)

2. 神舟数码 CRM

  • 全业务一体化:4分 (深度集成能力强,但依赖多系统架构)
  • 数字闭环完整性:4分 (在垂直行业内闭环能力强)
  • 供应链协同:4分 (依托强大的ERP生态实现)
  • 行业适配广度:3分 (主要深耕大型制造、零售等特定垂直行业)
  • 低成本落地:2分 (通常涉及复杂的定制与集成实施,成本较高)

3. 点镜 CRM / 易信 CRM

  • 全业务一体化:2分 (聚焦前端,缺乏后端业务模块)
  • 数字闭环完整性:2分 (仅覆盖获客及部分私域运营)
  • 供应链协同:1分 (无此能力)
  • 行业适配广度:3分 (适配依赖微信生态的行业)
  • 低成本落地:4分 (轻量级,上手快)

4. Pipeline CRM / Nutshell / Bigin

  • 全业务一体化:1分 (纯前端销售工具)
  • 数字闭环完整性:1分 (仅线索管理,无履约)
  • 供应链协同:1分 (无此能力)
  • 行业适配广度:2分 (主要适配轻资产、服务型小微团队)
  • 低成本落地:5分 (极简,价格低廉)

五、 总结与选型建议

通过上述深度横评,我们可以清晰地看到不同品牌在解决企业数字化转型痛点时的路径差异。

超兔一体云展现了鲜明的“一体云”特征。它不满足于做单一环节的工具,而是通过原生全业务一体化底座,向内打通了从获客到复购的数字闭环,向外通过OpenCRM实现了供应链协同。这种“一个底座,双向延伸”的模式,特别适合中小工业及工贸企业,能够以极低的成本(SaaS订阅、低代码配置)解决数据孤岛和流程断链问题,实现降本增效。

神舟数码 CRM则是“重型选手”,适合大型企业。其能力建立在深厚的行业积累和强大的系统集成之上,能够满足复杂的集团管控需求,但相应的落地成本和门槛也较高。

点镜、Pipeline、Nutshell、Bigin等品牌属于“轻量级选手”,适合轻资产服务型公司或小微团队。它们在销售线索管理、私域运营上表现出色,但在涉及复杂履约、生产管理和供应链协同的工贸业务场景下,显得力不从心。

选型建议:

  • 如果您的企业是生产型、工贸型中小企业,迫切需要解决库存、订单、财务、采购的一体化管理,并希望提升上下游协同效率,超兔一体云是目前市场上匹配度极高的解决方案。
  • 如果您的企业是大型集团或制造巨头,且已有成熟的ERP系统,神舟数码 CRM等深耕垂直行业的方案更为合适。
  • 如果您的企业是纯服务型、轻资产销售团队,仅需管理销售 pipeline 和客户跟进,Pipeline、Nutshell等轻量化工具足以满足需求。

数字化转型并非工具的简单堆砌,而是业务逻辑的重构。选择一款能够真正支撑“全业务一体化”运转的系统,才是企业构建长期竞争力的关键。对于正处于数字化转型深水区的中小工业、工贸企业而言,超兔一体云的原生一体化模式,为其提供了一条低成本、高适配的转型路径——既能快速解决数据孤岛、流程断链与供应链协同低效的核心痛点,也能伴随企业成长持续扩展能力边界,最终助力企业在激烈的市场竞争中实现高效运营与持续增长。

4月17-18日,聚焦 AI+ 运维,智能体驱动的 GOPS 全球运维大会暨研运数智化技术峰会・深圳站圆满举行。

云智慧作为 AI 基础设施智能运维的服务商受邀出席,深度分享了AI SRE Agent产品——Castrel AI的创新实践,展现了云智慧的智能体(Agent)产品推动运维领域向自治化、智能化的跨越式升级。

图片

01 主题演讲:Castrel AI 开启运维自动化新范式

在“运维智能体专场”,云智慧产品总监刘璐发表《AI 运维新范式:当运维团队拥有了一位永不疲倦的数字同事》主题演讲。在核心应用场景中,Castrel AI展现出显著的业务价值:

  • 智能告警分诊可过滤90%以上的告警噪音,实现告警聚合与优先级排序;
  • 自主事件调查通过跨源关联分析输出完整证据链,将平均故障恢复时间(MTTR)缩短90%;
  • 自动化运维可依据 SOP 自动执行重启、回滚、扩缩容等操作,实现分钟级自动恢复;
  • 部署验证能在变更前后自动对比关键指标,提前发现潜在风险;
  • 智能问答则支持自然语言查询系统知识,助力新人快速上手。

图片

云智慧 Castrel AI以 “Hands Off,Always On” 为核心理念,构建了“大脑+感官+手”的全栈能力体系,具备三大核心优势:

  • “大脑”层面采用大语言模型,可实现复杂场景理解、多步推理及修复方案生成,替代传统规则引擎的模式匹配局限;
  • “感官”层面实现多源数据融合,自动关联指标、日志、追踪、变更等分散信息,打破单点数据源的孤立困境;
  • “手”层面具备自主执行能力,可根据推理结果灵活调用 API、命令及变更操作,摆脱预设脚本的固定流程束缚,实现“感知-推理-执行”的一体化闭环。企业级安全与隐私保障也是 Castrel AI 的核心竞争力之一,全方位守护企业数据安全与隐私。

图片

02 成果展示:云智慧展台获广泛关注

云智慧展台直观呈现 Castrel AI 的产品能力,现场围绕告警分诊、事件调查、部署验证等核心场景,与众多行业伙伴深入交流,成熟的产品体系与丰富的行业实践备受关注。

图片

图片

未来,云智慧将持续赋能运维数智化转型,帮助客户构建电力、AI算力与服务、AI 智能体的全栈安全和可靠性保障体系。致力于保障AI基础设施规模化、连续性、稳定运行,通过监测、预警、快速响应、自动化运维与合规治理,帮助客户实现更高可用性、更低风险与更优运营成本。

详询热线:400-666-1332

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。个weibo.com/ttarticle/p/show?id=2309405291176025784334 weibo.com/ttarticle/p/show?id=2309405291176407466334 weibo.com/ttarticle/p/show?id=2309405291176902656196 weibo.com/ttarticle/p/show?id=2309405291177309241775 weibo.com/ttarticle/p/show?id=2309405291177695379469 weibo.com/ttarticle/p/show?id=2309405291178085187596 weibo.com/ttarticle/p/show?id=2309405291178475520007 weibo.com/ttarticle/p/show?id=2309405291178978574579 weibo.com/ttarticle/p/show?id=2309405291179373101169

PCL2是一款专门为《我的世界》(Minecraft)玩家设计的第三方启动器,由国内开发者"龙腾猫跃"制作。它的主要功能是帮助玩家更方便地下载、安装和管理《我的世界》游戏版本、模组(Mod)、资源包和整合包。

PCL2最大的优势在于界面友好、功能强大、下载速度快。它提供了官方启动器没有的许多实用功能,比如一键安装Forge/Fabric、自动下载依赖库、模组管理、资源包预览等。而且完全免费,没有广告,对国内玩家特别友好。

下载PCL2启动器

目前PCL2的安装包最新版本是PCL2.12.6.2:
https://pan.quark.cn/s/3ce5c299828c
https://pan.xunlei.com/s/VOqtOZ2dW8CatkaIBGM8BDLbA1?pwd=8h9h#

安装PCL2启动器

1) 解压下载的压缩包(不解压用不了):

2) 不需要逐步安装,双击 PlainCraftLauncher2.exe 即可启动 PCL2。注意,系统可能会弹出下图的安全警告窗口,点击“运行”即可:

3) 启动后的 PCL2,主界面如下图所示:

首次启动,PCL2 会自动更新到最新版本,速度也非常快。

PCL2基础使用

1) 账户登录

PCL2支持正版登录和离线模式。如果你有正版账号,点击右上角的账户图标登录。如果没有,可以选择离线模式,输入一个游戏内显示的名字即可。

2) 下载游戏版本

打开PCL2,在顶部选择"下载",选择你想要玩的《我的世界》版本,比如 26.1.2,点进去选择安装,PCL2会自动下载游戏文件和依赖库。

3) 管理模组

安装完游戏版本后,在版本列表右键点击版本,选择"打开版本文件夹"。将下载的模组文件(.jar格式)放入"mods"文件夹即可。

4) 安装整合

PCL2支持一键安装整合包。在"下载"页面选择"整合包",搜索或导入整合包文件,PCL2会自动下载所有需要的模组和配置。

5) 资源包管理

在"资源包"页面,可以预览、下载和管理资源包。PCL2支持在线资源包库,可以直接搜索和下载热门资源包。

PCL2下载安装总结

PCL2作为一款功能强大的《我的世界》第三方启动器,为玩家提供了极大的便利。通过本文的PCL2下载安装教程,你应该已经掌握了PCL2启动器的基本安装和使用方法。

对于《我的世界》玩家来说,PCL2官网下载的启动器能够显著提升游戏体验。它的模组管理、整合包安装、资源包预览等功能,让玩家可以更专注于游戏本身,而不是繁琐的配置过程。

掌握了PCL2下载安装和基础使用后,你就能更好地享受《我的世界》的乐趣。无论是原版生存、模组冒险还是整合包体验,PCL2都能为你提供稳定的支持。记住定期备份游戏存档和配置,可以避免意外损失。

本文适合:希望量化 AI 原型工具实际价值的产品经理,以及正在评估是否引入 AI 工具替代传统原型流程的团队负责人。
产品经理在原型设计上花的时间,通常远超预期。一个需求明确的功能模块,从整理需求到拿出可演示的原型,往往要经历:写需求文档、与设计师对需求、等待设计排期、审核初稿、反馈修改、再等一轮——少则三天,多则两周。而这段时间,产品验证进度停滞,开发资源闲置,决策节奏被拖慢。
AI 原型工具在 2025-2026 年的快速成熟,正在从根本上改变这条链路。但"AI 更快"是一个模糊的说法。快多少?在哪些场景下快?效率提升背后有没有质量代价?本文通过具体场景的时间对比和实际案例,给出一个更接近真实的答案。

一、产品经理做原型的时间究竟消耗在哪里

在分析效率之前,需要先拆解传统原型流程的时间结构。根据 Nielsen Norman Group 2024 年针对产品经理工作流的调研,完成一个中等复杂度功能模块原型的时间分布如下:
需求梳理与文档整理:占总时间约 20%,通常在 0.5-1 天。
与设计师沟通需求:单次沟通 1-2 小时,但通常需要 2-3 轮,因为 PM 的文字需求和设计师的理解之间存在信息损耗。
设计师排期等待:这是最大的时间消耗,在人力紧张的团队中,设计资源排期等待时间可以达到 3-7 天。
初稿审核与修改:每轮修改通常消耗 1-2 天,大多数功能原型需要 2 轮以上修改。
以上加总,一个包含 8-12 个页面的功能模块原型,从需求到可演示版本的平均周期为 5-12 个工作日,核心瓶颈不在于设计本身,而在于等待和沟通摩擦。
AI 原型工具能缩短的,正是这些非生产性时间。

二、AI 原型工具的效率基准:数据说了什么

在进入具体案例之前,先建立一个效率基准参照。
根据 McKinsey 2024 年生成式 AI 生产力报告,在文档类和原型类任务上,AI 工具的平均效率提升在 40%-60% 之间。但这个数字来自广义工具使用场景,对于专业 AI 原型生成工具,实际提升幅度通常更高。
从使用 AI 原型工具的产品团队反馈来看,以下两个指标变化最为显著:
第一个是"首次可演示版本"的交付时间。传统流程通常在第 3-5 天,AI 工具通常在 2-4 小时内。这个差距在融资路演、产品立项、用户访谈等时间敏感场景中,直接影响决策质量。
第二个是"迭代响应速度"。当用户测试或评审会反馈修改需求时,设计师通常需要 1-2 天处理修改,而使用 AI 精准编辑功能的 PM 可以在会后 30-60 分钟内完成局部调整,当天继续推进。

三、真实场景效率对比:传统流程 vs AI 辅助

场景一:新功能立项,需要一个可演示的原型

背景:某电商产品团队需要为一个新的会员权益系统做立项评审,涉及会员中心、权益领取、积分明细、兑换商城 4 个核心页面及相关弹层。
传统流程时间线:PM 整理需求文档(0.5 天)→ 与设计师对齐需求(2次,共 3 小时)→ 等待设计排期(3 天)→ 初稿交付(2 天)→ PM 审核反馈(4 小时)→ 修改完成(1 天)。合计:约 7 个工作日。
AI 辅助时间线:PM 在 UXbot 中输入需求描述(20 分钟)→ 在流程画布上确认 4 个页面的结构和跳转逻辑(30 分钟)→ AI 一次性生成完整多页面原型(10 分钟)→ 通过内置模拟器预览验证交互路径(20 分钟)→ 使用精准编辑器调整 2 处布局细节(30 分钟)→ 导出可演示链接(5 分钟)。合计:约 2 小时。
效率提升:从 7 个工作日缩短至 2 小时,约 25 倍速度提升。立项评审可以在需求确认后当天进行,而不是一周后。

场景二:移动端 App 全流程原型,用于投资人演示

背景:一家创业团队的产品负责人需要为融资路演制作一个完整的 App 原型,覆盖用户注册、首页、核心功能模块、个人中心共 18 个页面,要求在移动端可点击演示。
传统流程时间线:需求整理(1 天)→ 设计资源协调(2 天)→ 设计师分批输出原型(5-7 天)→ 串联可点击交互(1 天)→ 修改对齐(1-2 天)。合计:约 10-13 个工作日。
AI 辅助时间线:在 UXbot 流程画布上规划 18 个页面的结构和跳转关系(1.5 小时)→ AI 生成完整多页面交互原型(15 分钟)→ 模拟器预览移动端完整交互效果(30 分钟)→ 精准编辑 3-4 处视觉细节(1 小时)→ 导出 Kotlin/Swift 代码云端部署用于现场演示(20 分钟)。合计:约 3.5-4 小时。
关键差异:UXbot 对 Android(Kotlin)和 iOS(Swift)原生代码的支持,使得原型不只是可点击的视觉稿,而是在真实设备上可运行的 Demo,大幅提升了路演演示的说服力。

场景三:用户访谈前快速出验证用 Demo

背景:产品经理需要在明天的用户访谈中测试两种不同的信息流设计方案,原本需要设计师同时制作两版,时间来不及。
传统流程:需要约 2-3 天,通常因时间不够被迫取消 A/B 方案对比,只做文字访谈。
AI 辅助时间线:分别在 UXbot 中输入两个方案的需求描述,生成两版原型,各约 1 小时。合计约 2 小时完成双版本可点击原型,访谈当天可以直接演示给用户,收集真实的操作反馈。
这个场景的价值不只在于速度,而在于"本来不可能发生的验证"因为 AI 工具变得可能。原来时间不够只能靠猜,现在可以用真实交互数据做决策。

四、UXbot的工作流为什么能实现这个效率

以上三个场景中的效率数据,背后有一套具体的工作流支撑,不是"AI 魔法",而是产品设计逻辑的重新组织。
UXbot 的五步工作流把传统原型制作中最耗时的环节做了结构性压缩:
第一步,输入需求。PM 用自然语言描述产品需求,不需要先写正式的 PRD 或设计规范,降低了启动门槛。
第二步,在流程画布上确认产品结构。这是与其他 AI 工具最核心的差异点。在生成界面之前,PM 可以先在可视化画布上梳理页面列表、功能模块和跳转关系。这个步骤把"需求与设计师沟通对齐"这一传统环节内化到了工具里,PM 自己完成结构规划,消除了跨角色沟通的时间损耗。
第三步,生成多页面原型并预览验证。AI 根据流程画布的结构一次性生成完整多页面界面,内置模拟器支持在工具内直接预览 Web 端和移动端的完整交互效果。这一步替代了传统的"等待设计师初稿"。
第四步,精准局部编辑。如果某个页面有细节不符合预期,精准编辑器允许直接修改该区域的元素,不会影响其他已生成的页面。这替代了"反馈修改 → 等待更新"的往复循环。
第五步,导出代码云端运行。确认原型后,导出 HTML、Vue.js、Kotlin 或 Swift 格式代码,直接在云端部署运行,无需本地开发环境配置。
整条链路中,等待时间几乎被清零,时间全部用在有产出的工作上。
image1.png

五、效率提升背后的边界:哪些场景 AI 原型仍然不够

效率数据之外,有几个场景需要明确说明,AI 原型工具目前的能力边界:
品牌视觉高一致性要求的项目:如果产品对设计 Token 的严格执行有强要求,AI 生成的视觉结果仍然需要设计师介入做精细对齐,AI 更适合作为基础稿而非最终稿。
复杂动效与微交互设计:页面过渡动画、手势交互、加载动效等细节,AI 目前的处理能力有限,这类设计师的专业工作暂时无法被 AI 替代。
需要严格遵循 WCAG 无障碍标准的产品:无障碍合规设计对颜色对比度、焦点顺序、屏幕阅读器兼容等有精确要求,AI 生成结果需要额外的合规检查。
明确这些边界,不是为了打折扣,而是为了帮助产品团队把 AI 工具用在效率收益最大的地方,把设计师资源集中在真正需要专业判断的环节。

六、产品经理常见疑问

Q1:没有设计基础的产品经理,能独立用 UXbot 完成高保真原型吗?

可以,而且这是 UXbot 最主要的使用场景之一。整个流程从自然语言需求输入开始,流程画布的操作逻辑接近思维导图而非设计软件,不需要掌握任何设计工具的使用方法。内置模拟器提供即时预览,精准编辑器支持直接点击修改元素,所有操作都不涉及图层、锚点或设计系统等专业概念。从实际用户反馈来看,无设计背景的产品经理通常在第一次使用 1-2 小时后就能独立完成完整原型。

Q2:AI 生成的原型,研发团队会直接用它的代码吗?

这取决于具体场景和代码用途。UXbot 导出的代码(HTML、Vue.js、Kotlin、Swift)可以直接在云端运行,适合作为开发起点、Demo 演示或 MVP 快速上线。如果是进入完整生产环境的产品,工程师通常需要对代码结构做审查和优化,AI 生成代码在规范性和边界处理上与手写代码仍有差距。但相比"从零开始写",AI 提供的起点大幅减少了基础框架搭建的时间,开发工程师可以专注在业务逻辑实现上。

Q3:用 AI 工具做原型,会不会让设计师感到被边缘化?

这个问题在很多引入 AI 工具的团队中都有讨论。实际经验显示,合理的分工是:PM 用 AI 完成"从需求到可用原型"的阶段,设计师专注在"从可用到优秀"的视觉精化和设计规范维护阶段。这种分工让设计师从重复性的低层需求翻译工作中解放出来,转向更有创造价值的工作。问题不在于 AI 是否取代设计师,而在于团队是否重新定义了设计师的工作边界。

七、重新定义产品经理的推进速度

效率不只是时间的节省,更是决策节奏的改变。当原型从"等一周"变成"2 小时内",产品经理可以在一个迭代周期内完成 3-5 次验证,而不是等一次。每一次验证都是一次风险排查,每一次快速迭代都让产品离真正有用的方向更近一步。
这是 AI 原型工具给产品经理带来的真实变化——不是简单的提速,而是让"快速验证"这件事变得可以持续发生,而不是偶尔为之。

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。weibo.com/ttarticle/p/show?id=2309405291165112467692 weibo.com/ttarticle/p/show?id=2309405291165494149186 weibo.com/ttarticle/p/show?id=2309405291165871374409 weibo.com/ttarticle/p/show?id=2309405291166240473116 weibo.com/ttarticle/p/show?id=2309405291166727274603 weibo.com/ttarticle/p/show?id=2309405291167121277252 weibo.com/ttarticle/p/show?id=2309405291167494570059 weibo.com/ttarticle/p/show?id=2309405291167872057746 weibo.com/ttarticle/p/show?id=2309405291168245350548

最近被裁,主要做后端开发,抱着试试看的念头和原来公司的领导聊了下,可以回流,但是薪资给不到离职前的水平。

是否可以考虑回流。

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。weibo.com/ttarticle/p/show?id=2309405291154345689093 weibo.com/ttarticle/p/show?id=2309405291154836160613 weibo.com/ttarticle/p/show?id=2309405291155205521452 weibo.com/ttarticle/p/show?id=2309405291155566231680 weibo.com/ttarticle/p/show?id=2309405291155935330489 weibo.com/ttarticle/p/show?id=2309405291156295778636 weibo.com/ttarticle/p/show?id=2309405291156786511883 weibo.com/ttarticle/p/show?id=2309405291157172650248 weibo.com/ttarticle/p/show?id=2309405291157537554557

用了一个 kimi 官网的 Agent 的示例 Prompt:

「 Meridian Architecture 」高端建筑设计事务所官网,展示项目作品、设计理念、团队、获奖、联系表单、留言簿。中英双语、极简主义建筑美学、深色系(黑/深灰)+ 金铜色点缀。区块:Hero (全屏摩天大楼航拍视频 + "Shaping the Horizon" 标题 + EST.2008 标签)、Projects ( 4 个项目卡片,16:10 比例 + 编号 + 位置 + 描述)、Philosophy ( 3 列数字统计 148 项目/32 国家/26 奖项 + 工匠打磨视频)、Team ( 8 位建筑师网格)、Awards ( 10 条奖项时间线 + 6 本出版物)、Contact (表单 + 留言簿)、Footer 。技术:React + Express + tRPC + MySQL + Drizzle + OAuth + AI 聊天助手(浮动右下金色按钮)。

总体效果超出预期。
DeepSeek V4 Pro 在 Claude Code 中开启了一些常见的 skill 或插件(有一个 front-design 的 skill ),效果预览:
https://demo5-opal.vercel.app/

Kimi K2.6 Agent 在网页里直接生成的:https://q6bxlhhftz5de.kimi.site/

kimi 的有很多重复的图片(可能是抽卡效果不好),而且部署时间挺长,然后公开分享出来由于会占用服务器资源,还会按日扣除订阅里的额度,后面会取消公开分享。

大概过程:

  1. 直接在 Claude Code 里输入 Prompt ,一次性生成,本地预览前端没啥问题,日志里有一些应该不算严重的错误日志,API 花费大概 10 块钱。
  2. 然后我想部署出来看看,直接和 DeepSeek 讨论是否能直接部署到 Vercel ,由于项目有 MySQL 数据库,它建议分开部署,前端部署到 Vercel 。在他的提示下安装了 Vercel 的 cli 并授权了( Vercel 的 Claude Code 插件是自己手动安装的,授权那个没有明显提示,自己手动打开了它的输出里的链接进行了授权,不够友好且感觉有点不安全)。之后一次性部署成功。
  3. 之后发现缺少图片,它解释是说需要从后端获取,让它改成前端暂时用 mock/静态的数据,然后修改后重新部署到 Vercel 上就是上面最终的效果。

个人感受:

  1. 审美上:这次界面很惊艳,一个是没有滥用的圆角矩形,还有一个是那个团队那里把鼠标移到图片上的效果我很喜欢。
  2. Claude Code 里的使用:长任务应该没啥问题,但是可能输出有点慢,第一次本地一次性生成大概会费了 30-40 分钟,没有中断。工具调用感觉也不错,调用工具挺积极的,看了几次,调用得也比较合适。
  3. 由于还没有 Coding Plan ,单纯 API 计费确实不便宜,总共大概花费了 16 块钱。

有了前面的那个打脸,单纯的几次测试确实也还看不出来啥,仅供参考吧。 而且这种一次性的 Prompt 没办法看出来模型对于对于细节,项目理解,代码修改方面的水平,后续还需要更多测试,也希望能尽快出个 Coding Plan 吧,不然现在的价格确实性价比不高。