包含关键字 typecho 的文章

4月16日至18日,QCon全球软件开发大会·2026北京站在北京成功举办。本届大会汇聚了来自阿里、腾讯、百度、华为、蚂蚁、字节跳动、小米等一线科技企业的技术专家,带来多项AI 技术真实落地案例,系统性分享前沿洞察与实战干货。

在本次会议上,生成式UI(Generative UI) 成为“下一代交互架构:LUI与GUI的融合”专题中非常受关注的技术方向之一。来自OpenTiny团队的高级开发工程师林瑞虹,带来了一场题为《生成式UI:AI交互新模式探索》的硬核分享,与现场技术同行共同探讨了生成式UI的技术原理、落地扩展、度量体系以及标准化方向。

本次分享带你一文读懂——生成式UI究竟是什么?它能解决什么问题?我们离“界面隐形、意图直达”还有多远?

看点回顾:

林瑞虹老师的分享从一个关键问题开始:为什么纯文本对话越来越难以承载复杂任务?通过与传统文本交互的逐一对比,她揭示了生成式UI在信息降维、操作效率和体验个性化上的独特价值。

01 痛点:纯文本对话,到底卡在哪?

传统的AI文本对话,大多还是“你问我答、长文本刷屏”。用户需要从大段文字中自己“挖矿”——提取关键数字、理解操作步骤、再手动输入指令……

这种体验在复杂任务面前,问题暴露无遗:

  • 信息密度低: 一份销售数据,AI输出几百字描述,远不如一张柱状图来得直观
  • 交互断裂: 看完 → 理解 → 手动输入 → 发送,多轮操作效率极低
  • 工具调用门槛高: 用户需要自己理解参数格式、组织输入,AI成了“高高在上的顾问”

生成式UI的答案很简单:让AI直接“画”出界面。
2.PNG

02 生成式UI:从“对话”到“界面即交互”

生成式UI的核心机制是:在对话过程中,动态生成并实时渲染表单、按钮、图表、卡片等可视化组件。用户直接操作界面,操作结果即时回传模型,实现交互与对话的无缝融合。

分享中用三个关键词概括它的价值:

  • 信息降维: 复杂数据 → 柱状图/饼图,一眼看懂趋势
  • 直观高效: 点击代替输入,多轮选择变成一键确认
  • 千人千面: 告别“预制”界面,根据偏好实时调整配色、布局、文案

OpenTiny开源的 GenUI SDK 正是这一理念的落地实践。它支持Vue/Angular双框架渲染,开箱即用,目前已开放体验:

GitHub:https://github.com/opentiny/genui-sdk
官网:https://opentiny.design/genui-sdk

1.PNG

那么,生成式UI究竟是如何实现的?又该如何真正落地到业务中?带着这些问题,瑞虹老师将分享引向更深一层——围绕GenUI SDK,详解生成式UI的原理机制与场景扩展能力。

03 原理揭秘:结构化输出 + 流式渲染 + 缓冲保护区

要让AI稳定地“画”出界面,背后有三项关键机制:

1️⃣ 结构化输出
大模型不再输出纯文本,而是输出JSON格式的UI声明(类似低代码协议)。前端拿到这份声明,就知道该画什么组件、放在哪、有什么交互。

2️⃣ 流式增量渲染
大模型的输出是“流式”的。GenUI采用diff-patch机制,接收到部分信息就立即渲染,不用等全部生成完。用户感知到的就是内容一点点“长”出来,体验流畅,内存占用也更低。

3️⃣ 缓冲保护区
大模型偶尔会输出不完整或错误的片段。缓冲区会拦截这些“脏数据”,等下一轮稳定更新再推送,避免界面闪烁或崩溃。

6.PNG

04 场景落地:不止是卡片,更是完整应用

生成式UI要想真正赋能业务,必须具备三大扩展能力:

🧩 物料可定制扩展
企业可以将自己的品牌组件库(比如华为云的拓扑图组件、内部系统的搜索框)接入系统。AI生成UI时会优先使用这些定制物料,确保视觉统一、业务适配。

🔄 交互上下文扩展
跳出“对话框内”的限制。卡片点击可以触发页面其他模块的功能,甚至可以没有对话框——纯界面操作也能驱动AI下一步动作。实现方式是通过通用Action上下文工具,在系统提示词中告诉模型有哪些Action可用。

📱 生成式MiniApp
最令人兴奋的方向之一:通过多轮对话,让AI生成完整的小程序。从需求收集 → 规格文档 → 代码生成 → 局部修改,全流程AI驱动。支持多页嵌套、路由、API调用,甚至可以将已有小程序作为模版实时内嵌。

现场还分享了操作协议的优化经验:相比标准的RFC 6902 JSON Patch(依赖数组下标,大模型容易写错),采用带ID的变体协议,通过唯一标识定位元素,大幅提升生成正确率。

10.PNG

技术原理再先进,终究要回到真实业务中接受检验。OpenTiny团队在产品演进过程中收到了部分用户反馈,瑞虹老师在大会上也不回避这些问题,坦诚地指出了当前生成式UI在实际落地中的几大局限。

05 挑战与度量:如何让生成式UI“可用”又“好用”?

当前的问题:

  • 大模型输出不稳定,有时候会“画歪”
  • 长内容生成速度慢,用户等不及
  • 系统提示词费Token,成本高
  • 换一个模型,输出格式可能就变了

为此,OpenTiny团队借鉴大模型成熟的TTFT/TPOT指标体系,提出了生成式UI的两类度量指标:

⏱️ 性能指标

  • 首屏反馈时间:用户提交到看到第一个有效UI的时间。替代传统“三秒原则”,决定第一印象
  • 渐进式渲染效率:后续组件逐步呈现的节奏,衡量流畅度

优化策略:优先输出骨架屏、简化组件配置、压缩系统提示词、总结历史对话……

📊 信息表达能力指标

  • UI可用度:生成的界面是否真的能完成任务(完整性、功能性、信息充分性)。兜底方案: Zod校验 + 二次确认
  • Token效率:单位Token传递了多少有用信息。优化方案: 渐进式披露、使用快速排版组件、避免大模型复述长数据

场景局限性及解法

场景问题解法
长数据列表逐行输出太慢内置数据推送 / 编程式API调用
超复杂界面一次生成失败任务拆分 + 多轮迭代 + 片段引用
重复生成浪费Token预生成常见UI,叠加微调
在梳理完生成式UI的局限性与度量体系之后,一个更深层的问题浮出水面:当各家框架纷纷涌现,技术路径各成一派,我们该如何统一语言、协同演进?瑞虹老师顺势将话题引向了生成式UI领域的标准化之争。

06 标准化之争:只支持原生HTML,还是允许业务组件?

目前业界有多个生成式UI框架(a2ui、cosui、agui、GenUI SDK……),它们技术流派不同:

  • 源码生成型(如灵光闪应用):直接输出HTML/Vue/React,灵活但难约束
  • 声明式UI(如GenUI SDK、a2ui):输出JSON协议,可控性强
  • 数据驱动型(如agui):界面预定义,只更新数据,安全但灵活性低

23.PNG

而标准化讨论中,一个核心争议点是:协议是否只支持原生HTML元素(或一个固定子集)?

26.PNG

林瑞虹老师用“业务高级搜索框”为例——它包含多条件筛选、动态加载、联动交互,如果只能用原生HTML,AI几乎不可能一次生成正确。支持自定义业务组件扩展,是生成式UI走向真实业务的必由之路。

27.PNG

在标准化之争的讨论之后,瑞虹老师的分享也进入了尾声。从痛点剖析到原理拆解,从场景落地到度量优化,再到协议的求同存异——生成式UI的技术图景已逐渐清晰。

07 总结与展望

生成式UI正在重新定义人机交互的边界。它让AI从“会说话”进化到“会画界面、会操作、会协作”。

虽然仍有内容正确性、生成速度、成本等挑战,但通过结构化输出、流式渲染、缓冲保护、物料定制、合理的度量与兜底策略,生成式UI已经具备了走向生产环境的潜力

OpenTiny GenUI SDK将持续深耕这一方向,并保持开源开放。未来,我们期待生成式UI让界面真正“隐形”——用户只关心意图,界面自动适配,服务零距离直达。

关于 OpenTiny NEXT

OpenTiny NEXT 是一套企业智能前端开发解决方案,以生成式 UI 和 WebMCP 两大核心技术为基础,对现有传统的 TinyVue 组件库、TinyEngine 低代码引擎等产品进行智能化升级,构建出面向 Agent 应用的前端 NEXT-SDKs、AI Extension、TinyRobot智能助手、GenUI等新产品,实现AI理解用户意图自主完成任务,加速企业应用的智能化改造。

欢迎加入 OpenTiny 开源社区。添加微信小助手:opentiny-official 一起参与交流前端技术~\
OpenTiny 官网:https://opentiny.design\
GenUI SDK 代码仓库:https://github.com/opentiny/genui-sdk  (欢迎star ⭐)

如果你也想要共建,可以进入代码仓库,找到 good first issue标签,一起参与开源贡献\~如果你有任何问题,欢迎在评论区留言交流!

最近在骑驴找马,在 boss 和猎聘上都看了下,但是今天被领导找去谈话了(部门的技术总监,非小领导)问我是不是有走的想法,我肯定说没有了,就说只是上去看看,我问领导怎么知道的,他说是 hr 反馈的,我记得都给屏蔽了公司,怎么还能刷到我活跃?难道真是有钱可以为所欲为?看来隐私设置只要充钱就能突破啊mental_boom

站点地址: http://oxapi.v2ex.info/

这有一个本地的 proxy 文件, 可以使用 node 启动, 放在个人中心的配置里:

https://github.com/HelloWorldImJoe/OxApiDocument/blob/master/local-proxy.js

启动命令: node ./local-proxy.js

image


兄弟们给我提提意见, 我看看还有没有做下去的必要 🤡


附一个测试的 markdown 文件, 直接创建项目新建 md 文件就可以了:

https://github.com/HelloWorldImJoe/OxApiDocument/blob/master/Demo_API.md?plain=1


ps: 本来想用 @cnskis 大佬的文件床, 结果上传失败了 😂

文件床帖子地址: https://2libra.com/post/personal-works/J3Id-_n

目前市场上最新的桌面端企业级GPU 为NVIDIA Blackwell 架构的NVIDIA RTX PROTM GPU 系列(上一代为NVIDIA Ada Lovelace 架构,再上一代为广泛熟知的NVIDIA Ampere 架构)。NVIDIA Blackwell 架构在AI和图形加速方面的性能提升非常多,零售行业属于AI和图形任务都很高频的行业,NVIDIA RTX PRO的性价比在此行业的应用优势相对明显。

NVIDIA RTX PRO系列显卡型号

图片

赞奇科技与零售客户合作,将NVIDIA RTX PRO系列产品使用到零售的场景任务中,并根据任务划分,提供了相应的产品选型建议。

图片

商品图像生成类 AI

电商美工、商品视觉设计师、内容运营等岗位需要高频地调整商品图、广告图等,本地化部署可以保障企业数据安全,极大降低Token成本。

图片

NVIDIA RTX PRO 2000(16GB)作为生成式AI任务的入门级显卡,对于应对日常的文生图、图生图任务来说,性价比极高!而且本身无需供电线,可以适配紧凑型工作站,使用上也非常友好!

图片
NVIDIA RTX PRO 2000 Blackwelll 

零售LLM应用

大语言模型可以高效地帮助客服应对焦灼的客户服务问题,也可以帮文案人员快速输出营销文案。门店/客服部门搭建一台NVIDIA RTXTM工作站,部署好本地助手,可以在工作中逐步进行模型微调,“培养”出更“好用”的助理,还可以保护数据不外泄。

图片

桌面端工作站可以支持最多4张显卡并行,以应对多个任务并行或者模型推理/微调任务较重的时候。NVIDIA RTX PRO 5000 为NVIDIA RTX PRO 系列中的顶级显卡之一,因其性能强劲,兼容多项任务,成为大中型模型推理任务的首选。

图片
NVIDIA RTX PRO 5000 Blackwell

计算机视觉类

零售行业数字化转型中,正在用计算机视觉模型来辅助人工巡检,提升效率,主要是用于商品识别、客流统计、货架分析等。NVIDIA RTX PRO 2000、NVIDIA RTX PRO 4000 SFF、NVIDIA RTX PRO 4000 显卡均能作为主要图形处理器来帮助门店用Yolo等模型进行实时检测。模型训练则推荐采用NVIDIA RTX PRO 4500、NVIDIA RTX PRO 5000 这类更高算力的GPU来处理。

3D高精度渲染类

门店数字看板、AR/VR 内容创作与预览、虚拟门店、数字孪生仿真等涉及到较大规模的3D高精度渲染,对算力要求高,此类场景下推荐使用显存大于24GB的NVIDIA RTX PRO 4500(32GB)、NVIDIA RTX PRO 5000(48/72GB)进行处理。

显卡选型免费测试

由于使用场景的不同,GPU要求也会有所变化。赞奇科技特别为零售行业用户提供了「购卡提前测」活动,用户可以在购置显卡之前免费远程测试目标显卡,方便选择更适配的GPU。

扫描下方二维码申请测试

图片

企业在选择即时通讯软件时,真正要解决的,早已不只是沟通问题。

从近年的行业数据和落地情况来看,即时通讯软件正在影响企业的协同效率、数据安全和组织管理方式。

本文将结合2026年相关数据,盘点15家主流即时通讯软件,并梳理一套更清晰的选型框架,帮助企业更快找到适合自己的产品。

建议先收藏,再细看。

一、数据告诉你,即时通讯软件为什么越来越重要?

2026年,企业对即时通讯软件的需求,早就不只是“发消息”。从市场预测来看,这类产品正在持续向企业协作和统一沟通底座演进。根据Fortune Business Insights发布的数据,全球团队协作软件市场2026年预计达到316.2亿美元,2034年将增长至682.0亿美元,年复合增长率为10.1%

再看国内市场。艾瑞咨询在《2024年中国协同办公平台行业研究报告》中预计,中国协同办公平台市场到2026 年将达到163亿元

这一增长背后,反映的是企业对协同效率、数据安全、组织管理和系统整合能力的持续重视。即时通讯软件也因此从基础沟通工具,逐步变成数字办公中的重要基础设施。市场上的产品虽然很多,但定位和适配方向并不相同。企业如果不先分清产品类型,选型时就很容易失去判断标准。

二、2026年即时通讯软件市场格局与适配方向

1、当前主流即时通讯软件的主要分类

2、不同类型的企业,更适合什么类型的软件

三、21家主流即时通讯软件速查清单(2026版)

四、代表产品深度解析

1、Microsoft Teams

推荐指数:90

产品定位:
国际通用协同型代表产品,适合微软生态下的企业沟通与协作。

突出能力:
与Microsoft 365深度联动,聊天、会议、文件协作和日程管理可以放在同一套体系中完成。

更适合的企业:
已经在使用Microsoft 365,或跨区域、跨团队协作需求较强的企业。

选型时要注意:
它的优势建立在微软生态之上。如果企业本身并不依赖这套办公体系,产品价值会被削弱。

2、企业微信

推荐指数:95

产品定位:
国内平台协同型代表产品,兼顾内部沟通与外部连接。

突出能力:
内部协同和微信生态连接能力较强,适合把员工、客户和上下游放到同一条沟通链路中。

更适合的企业:
重视客户连接、渠道协同和外部联系效率的企业。

选型时要注意:
如果企业更关注纯内部安全沟通、私有化部署和数据完全自控,就不能只看它的连接优势。

3、喧喧

推荐指数:96

产品定位:
国产私有化企业IM代表产品,主打私有化、信创、安全等,是国内开源项目管理软件禅道旗下产品,强调自主可控和复杂环境适配。

突出能力:

  • 支持私有化部署,数据可留存在企业内部,便于统一管理和持续维护。
  • 在信创适配方面表现更突出,能够较好兼容国产操作系统和国产芯片环境。
  • 同时支持多端使用,适合在局域网、内网及较复杂的网络环境中稳定开展日常沟通与协同。
  • 集成能力较强,可以与内部各种系统对接。

更适合的企业:

  • 大型企业、中小企业都适配;
  • 政企单位、制造业、研发型企业,以及对数据自主可控有明确要求的组织。

4、有度

推荐指数:85

产品定位:
国内私有化企业IM代表产品,偏重安全沟通与本地部署能力。

突出能力:
私有化部署路径成熟,适合内网、局域网和混合网络环境,部署思路更贴近高安全办公场景。

更适合的企业:
对本地部署、数据留存和通信安全要求较高的企业。

选型时要注意:
如果企业希望的是开放生态特别强、外部协同范围更广的一体化平台,就要结合自身需求再判断。

5、蓝信

推荐指数:86

产品定位:
政企与大组织安全型代表产品,侧重大型组织统一沟通与管理。

突出能力:
更强调组织层级、权限边界和统一管理,适合复杂组织架构下的安全沟通场景。

更适合的企业:
党政军、央国企、大型集团企业,以及多层级组织结构明显的单位。

选型时要注意:
这类产品更适合重管理、重边界的大型组织。建议已经在使用其配套OA系统的单位选择,整体适配度会更高。

五、即时通讯软件选型的3条忠告

1、企业选择即时通讯软件时,真正要看什么

这一部分对应你参考文章里的“选型忠告”和“评估框架”,也是全文最关键的部分。

第一步:先明确需求优先级

  • 企业当前最核心的问题是什么
  • 是沟通效率、组织管理、数据安全,还是系统集成
  • 哪些能力是“必须有”,哪些只是“加分项”

第二步:看部署方式是否匹配

  • 公有云、私有化、混合部署分别适合什么场景
  • 是否支持内网、局域网、隔离网、复杂网络环境
  • 企业能不能掌握系统部署和数据主导权

第三步:看数据安全与权限机制

  • 聊天记录和文件是否可控
  • 是否支持组织隔离、权限分层、管理员分权
  • 是否支持日志审计、离职账号回收、终端管控

第四步:看兼容能力和终端适配

  • Windows、Mac、Linux 是否都能稳定运行
  • 是否适配国产操作系统和国产芯片
  • 多端同步和复杂环境下的使用体验是否稳定

第五步:看开放集成能力

  • 能否对接 OA、ERP、CRM、门户、单点登录
  • API 是否完善
  • 能否成为统一沟通与协同入口

第六步:看服务和长期成本

  • 实施团队是否成熟
  • 上线周期是否可控
  • 售后、升级、培训和二次扩展是否有保障
  • 不要只比采购价格,更要看总体拥有成本

2、评估即时通讯软件时,更值得重点问清4件事

第一,部署方式是否匹配:公有云、私有化、混合部署适合的企业并不一样。部署方式如果选错,后面的功能再完整,落地也会受影响。

第二,系统能不能纳入企业管理:企业要看的,不只是能不能聊天,还包括通讯录分级、群组管理、权限控制、离职账号和数据回收这些基础管理能力。

第三,能不能在真实环境里稳定使用:很多产品演示效果不错,但企业实际环境往往更复杂。多终端、多系统、复杂网络并存,稳定性比“是否支持”更重要。

第四,不要只看采购价格:采购费用只是开始,后续还有部署、集成、迁移和运维成本。真正要比较的,是整体投入是否可控。

3、最后一点建议

企业在选择即时通讯软件时,表面上看是在比较不同产品,实际上更重要的,是判断哪一种路线更适合自己的组织结构、办公环境和管理要求。

有些企业更看重开放协作,有些企业更重视一体化办公,也有些企业首先关注私有部署和系统可控。需求不同,选型标准自然也不会一样。

真正值得重视的,不只是软件当下是否可用,更在于它与企业现有环境的匹配程度、对未来组织发展的承载能力,以及在效率、安全和管理之间取得的平衡。

把这些问题理顺之后,再去比较具体产品,选型的方向才会更清晰。

[拉票] 我用 TRAE SOLO 做了个 macOS App 「到站请下车」(求支持)

最近参加 TRAE SOLO - Code with SOLO 活动,用 SOLO 从拆解任务到实现与验证,做了一个 macOS App:到站请下车

这次我主要想验证一套更稳的开发/重构节奏:小步改动、可回滚、先跑通 happy path ,再补 1 个边界;失败可观测但不泄露敏感信息

亮点(简版)

  • 先写清:Goals / Non-Goals / 验收方式,再动手
  • 模块化推进:改一点就能编译/能跑,再继续
  • 失败可观测:补充必要诊断信息(阶段/错误类型/统计),避免记录隐私路径

求支持(投票链接)

如果你觉得这个方向有意思,麻烦帮我去参赛帖 点个赞/投票 支持一下,感谢!


截图(帖子 1 )

到站请下车 - 1

到站请下车 - 2

到站请下车 - 3

到站请下车 - 4

到站请下车 - 5

到站请下车 - 6

到站请下车 - 7

到站请下车 - 8

到站请下车 - 9

到站请下车 - 10


截图(帖子 2 )

到站请下车 - 11

到站请下车 - 12

到站请下车 - 13

到站请下车 - 14

到站请下车 - 15

到站请下车 - 16

到了2026年,团队选择文档协作工具,已经不只是看能不能多人同时编辑,同时也要看知识沉淀、权限治理、项目联动和AI检索效率。本文把ONES、Tower、Notion、Confluence、飞书文档、腾讯文档、Google Docs、Microsoft SharePoint、石墨文档、语雀放在一起,从团队的真实工作场景出发,讨论它们各自更适合什么团队,又各自会带来怎样的协作收益与管理代价。

10款主流文档协作工具深度测评

ONES:适合文档协同和项目管理联动的团队

定位与核心功能:ONES适合研发、产品、测试、交付等文档需要进入项目推进链路的团队。其Wiki支持富文本、Markdown、代码块、模板、注释评论、附件预览、页面树、全局搜索、版本回滚,并可关联需求、任务和报表。

文档管理能力:ONES Wiki它的强项不只是能写文档,而是把知识组织、协作留痕、权限治理和项目联动放进同一套体系里。页面树、模板、搜索、版本管理和角色权限是基础,更关键的是文档可与项目资料、任务背景和进度信息持续关联;而ONES AI还把文档撰写、知识问答和项目数据洞察纳入同一套产品叙事里,这让文档更像可被持续调用的项目资产,而不是一次性记录。

适用场景:适合需求说明、评审结论、测试参考、项目复盘、团队规范等内容需要长期沉淀,并持续服务项目执行的场景。官方也明确将团队问题管理、知识积累、公司政策与指南、产品规格说明等列为Wiki的典型使用方式。

优势亮点:相比只强调共编体验的文档协作工具,ONES更强调文档与执行链路的连接,更适合希望把知识沉淀真正转化为协作效率的团队。对项目经理来说,这种价值往往不在写得多漂亮,而在于信息不容易在任务流转中断掉。

总结:ONES不单单只解决了文档协同的问题,还给出了一套完整的团队知识管理解决方案:信息如何沉淀、如何复用、又如何真正接入项目推进。

ONES Wiki 知识库管理解决方案

Tower:适合希望快速落地与知识沉淀的团队

定位与核心功能:Tower更适合中小团队或跨职能团队快速建立协作秩序。官方将其定位为帮助团队安排工作任务、管理项目进度、沉淀团队知识的协作平台,并提供列表、日历、看板、甘特图等多种视图。

文档管理能力:Tower的文档能力不强调复杂知识治理,而强调项目资料与协作现场保持连接。团队可建立团队知识库、个人知识库和自定义知识库,项目中的文档与文件也可统一添加进知识库管理;结合与WPS文档的联动,它更像是在项目协作里嵌入一层轻量但实用的文档管理能力。

适用场景:适合项目推进节奏快、成员角色多,但又不希望文档脱离任务现场的团队,例如产品设计、市场协作、销售流程管理和中小规模研发协同。

优势亮点:Tower的优势是轻、快、顺手,团队上手快,同时又能把文档、任务、日程、进展和知识库放在同一协作语境里。

总结:Tower在不增加太多学习负担的前提下,把文档沉淀和项目协作连接了起来,尤其适合作为团队从先用起来走向逐步规范化的过渡型工具。
Tower 产品图

Notion:适合重灵活性、重自定义工作台的团队

定位与核心功能:Notion更适合希望把文档、知识库、项目和AI放进同一工作空间的团队。官方把它定义为AI工作空间,核心能力包括文档、知识库、项目、企业搜索、自定义代理和AI速记。

文档管理能力:Notion的强项在于结构的自由度和工作空间的一体化。文档、知识库和项目并不是分开的模块,而是可以在同一套页面与数据库逻辑里组织起来;AI能力又让内容检索、问答和信息汇总更自然。它很适合那些希望把文档协作工具逐步搭成团队工作台的组织。

适用场景:适合成长型团队、跨职能协作团队,以及希望自己设计信息结构、同时重视知识库与项目协同的组织。

优势亮点:Notion最突出的优势,是灵活性和扩展性。它不是简单提供一个在线文档,而是允许团队把文档、知识、项目和AI组织进同一个工作空间。

总结:Notion让文档不再只是记录内容,而是与知识、项目、AI搜索和日常协作共同构成一个统一工作空间。
Notion 产品图

Confluence:适合长期知识沉淀与规范治理的团队

定位与核心功能:Confluence更适合把知识沉淀当成长期工程来经营的团队。Atlassian官方将其定位为用于创建和分享知识的工作区,并强调AI起草、总结、查找答案,以及与Jira、Loom、Rovo的整合。

文档管理能力:Confluence的文档管理能力,在于知识能否长期有序地被管理。官方页面强调实时文档、白板、数据库、页面和模板等内容类型,同时支持空间化组织与AI搜索。对团队来说,这意味着制度文档、产品说明、技术资料和项目知识可以被持续整理、复用和追踪。

适用场景:适合PMO、研发效能团队、技术团队,以及需要长期维护团队知识库、流程规范和跨团队文档体系的组织。

优势亮点:它的优势是治理逻辑成熟、知识协作结构稳定,并且AI已开始深度参与起草、总结和搜索,适合组织级知识管理。

总结:Confluence值得推荐,是因为它对知识如何长期沉淀、如何跨团队复用、如何被规范治理这件事回答得更完整。
Confluence 产品图

飞书文档:适合高频共创和跨部门协作的团队

定位与核心功能:飞书文档更适合沟通和创作频繁切换的团队。核心能力覆盖在线文档、表格、思维笔记,以及丰富内容插入、多端同步和模板支持。

文档管理能力:飞书文档的强项在于把文档做成协作容器。它支持插入表格、文件等丰富内容,可将数据表转为看板,还提供划线评论、多端同步和多场景模板。对团队来说,这很适合会议纪要、项目方案、头脑风暴和轻量任务协同:信息在讨论中就能逐步成形。

适用场景:适合跨部门共创、会议记录、项目规划、OKR梳理、团队任务管理和运营协同等场景。

优势亮点:它最大的优势,是低门槛高协同性,文档、表格和思路整理之间切换自然,团队很容易先把协作跑起来。

总结:飞书文档非常贴近高频协作现场,尤其适合作为跨部门团队的日常共创入口,把沟通、记录和推进尽量放在同一个空间里。
飞书文档产品图

腾讯文档:适合大范围共享、资料收集和轻量知识协作的团队

定位与核心功能:腾讯文档更适合强调广泛协作、快速共享和低门槛使用的团队。它支持文档、表格、幻灯片、PDF、收集表、智能文档、智能表格、白板、思维导图和流程图等多种形态,并支持多人同时编辑和云端实时保存。

文档管理能力:腾讯文档的重点在形态丰富和协作触达广。它支持访问权限、浏览记录、修订记录、操作记录,并在企业版中提供组织架构协作、文档回收站、离职文档交接和企业资产安全管控;AI文档助手还覆盖多种文档生成与跨品类信息处理。对很多团队来说,这意味着它既适合做日常资料共享,也能承担一定程度的知识协作与内容管理。

适用场景:适合跨部门信息汇总、数据收集、轻量知识库建设、内部培训资料共享和大范围文档协作。

优势亮点:它的优势是形态全、上手快、分发成本低,尤其适合需要让更多成员快速参与协作的场景。

总结:腾讯文档很好地代表了一类先解决协作覆盖面,再逐步补齐管理深度的工具路径。
腾讯文档产品图

Google Docs:适合国际化团队与实时共编优先场景

定位与核心功能:Google Docs更适合跨地域协作、外部协作较多、并把实时共编体验放在优先级前面的团队。Google Workspace官方页面将其定义为在线文档与PDF编辑器,并强调Geminiin Docs。

文档管理能力:Google Docs的核心优势,是把实时协作和AI辅助写作结合得非常自然。Gemini可帮助生成结构化文档、插入图片和表格、优化内容并提供摘要;同时,权限控制、评论、任务分配和修订历史也让跨团队协作更顺畅。它更擅长把多人协作写文档这件事做到足够轻、足够快。

适用场景:适合国际化项目协作、内容共创、方案评审、外部合作和实时反馈频繁的团队。

优势亮点:它的优势在于实时共编体验成熟、AI辅助顺滑,几乎没有太重的学习负担。

总结:Google Docs代表着在线文档协作工具最经典的一条路线:把多人协作写文档这件事做到足够自然。
Google Docs 产品图

Microsoft SharePoint:适合重治理、重内容资产和重组织规模的团队

定位与核心功能:SharePoint更适合大型组织或对治理要求较高的团队。微软官方将其定义为协作与文档管理平台,用于安全地存储、组织、共享和访问信息,并与Microsoft365、Teams、Copilot深度集成。

文档管理能力:SharePoint的文档管理能力,不只是文件放哪里,而是把内容管理、站点、流程自动化和AI支持治理放在一个组织级平台里。它支持内联网门户、工作流和安全权限体系,对需要长期管理组织内容资产的企业来说,这类能力比单纯的在线共编更重要。

适用场景:适合总部型组织、重权限重合规团队、部门门户建设、企业知识中心和组织级内容治理场景。

优势亮点:它的优势是治理深度强、生态集成深,能把文档、站点、流程和AI统一到企业级管理框架里。

总结:SharePoint更完整地回答了大型组织在文档协作之外更关心的问题:安全、治理、流程和长期内容资产管理。
Microsoft SharePoint 产品图

石墨文档:适合兼顾协作与Office习惯的团队

定位与核心功能:石墨文档更适合希望在线协作,同时又不愿放弃传统Office使用习惯的团队。官方页面显示,它支持云端多人在线协作,并强调传统文档对Word/WPS本地文件格式的高度兼容。

文档管理能力:石墨文档的特点,是把云端协作能力和正式文档处理需求结合起来。其传统文档适用于合同、标书等复杂排版场景,同时支持多人多端协同创作、历史版本回溯对比和修订模式辅助审阅;团队空间还支持多种格式文件上传下载与在线预览。这意味着它不仅适合日常协作,也更适合那些既要在线共创、又要保留正式文档格式和审阅流程的工作内容。

适用场景:适合中文办公团队、正式文件较多的业务场景,以及需要在线协作与复杂排版并存的团队。

优势亮点:它的优势是中文办公适配度高,兼顾协同效率和正式文档使用习惯,过渡成本相对较低。

总结:石墨文档代表了一类很现实的选型方向:团队既想获得在线协作效率,又不想牺牲传统办公文档的格式兼容和审阅体验。
石墨文档 产品图

语雀:适合沉淀知识资产的团队

定位与核心功能:语雀更适合重视知识沉淀、内容中心化和团队文档体系建设的团队。官方页面将其定位为在线文档与知识库工具,支持主流Office文件兼容、多人协同和团队知识库。

文档管理能力:语雀的文档管理能力,核心在于结构化知识库而不只是临时文档协作。官方页面强调企业文档中心化管理、团队知识库和企业资产沉淀;空间页也明确其可用于企业知识管理、知识沉淀、文档协作和接口文档等场景。对很多团队来说,这意味着方法论、规范、FAQ、培训资料和长期经验更容易被组织成真正可复用的知识资产。

适用场景:适合团队知识库建设、流程规范沉淀、接口文档管理、培训资料维护和经验复盘等场景。

优势亮点:它的优势是知识库感强、结构清晰,适合把内容真正经营成长期资产,而不是停留在零散文档层面。

总结:语雀很好地回应了很多团队在文档协作之外更深一层的需求:内容写下来之后,能不能持续被整理、被找到、被复用,最终变成组织真正的知识财富。
语雀 产品图

如果你的团队目前最痛的点,是文档和执行链路断开,那么ONES、Tower这类强调项目联动的文档协作工具会更对路;如果你们当下最需要的是先让大家用起来,那么飞书文档、腾讯文档、GoogleDocs、石墨文档这样的产品通常会更容易快速铺开;而当组织进入重权限、重合规、重组织治理阶段时,SharePoint这类平台的价值就会越来越明显。不同工具并不是在争一个绝对最好,而是在回答不同阶段、不同协作模式下的问题。

结尾

这些年做项目,我越来越相信一件事:工具不会自动带来秩序,但它会放大团队原本的协作方式。

一个本来就重视同步、版本、归档和复盘的团队,换上一款更合适的文档协作工具,往往会越跑越顺;而一个习惯把背景信息留在聊天里、把责任停在评论区、把经验寄托给以后再整理的团队,即使用上再强的平台,也只是把混乱换了一个容器。

FAQ常见问题

FAQ1:文档协作工具和知识库工具有什么区别?

文档协作工具更强调多人一起写、一起改、一起沟通的过程体验;知识库工具更强调内容如何被组织、搜索、复用和长期治理。很多主流产品正在同时覆盖这两类能力,但侧重点仍然不同。比如GoogleDocs、飞书文档、腾讯文档更强在高频共创;Confluence、语雀、ONES、Notion则更强调知识组织、长期沉淀或与工作流的结合。

FAQ2:团队选文档协作工具时,最容易忽略什么?

最容易忽略的,往往不是功能,而是工具要服务什么样的协作方式。很多团队只看编辑器顺不顺手,却忽略了权限、版本、目录、模板和项目联动能力。真正长期影响效率的,通常不是能不能写,而是写完之后能不能找得到、接得住、继续用。这一点从ONES、Confluence、SharePoint等工具都把权限治理和知识组织放在核心位置,也能看出来。

FAQ3:研发团队更适合哪类文档协作工具?

如果研发团队的核心诉求是文档直接服务需求、任务、测试和复盘,更适合优先看ONES这类与项目流程深度结合的平台;如果团队更看重长期知识库治理,也可以评估Confluence;如果团队目前更偏轻量协作与快速落地,Tower也是更容易上手的选择。

FAQ4:中小团队选文档协作工具,应该先追求轻量还是完整?

大多数中小团队在早期更应该先追求愿意用、用得起来,再逐步补齐规范和治理。所以飞书文档、腾讯文档、GoogleDocs、Tower、石墨文档这类门槛相对更低的工具,通常更容易先把协作跑起来。等团队规模和知识资产复杂度上来,再决定是否进一步升级到更重治理的平台。

FAQ5:2026年文档协作工具最值得关注的趋势是什么?

最值得关注的有三点:第一,AI正在从帮你写走向帮你找、帮你答、帮你复用;第二,文档正在从存放信息变成承载工作的界面;第三,权限、版本和知识秩序正在从高级能力变成基础底线。ONES、Notion、Confluence、GoogleDocs、SharePoint等官方页面都已经把AI、知识与协作的结合放到更核心的位置。

一、方案背景与核心价值

方便面生产具有“高速连续、配方敏感、食品安全要求极高”的特点。万界星空科技2026年AI+MES解决方案,旨在打破传统“车间靠吼”的粗放管理模式,将生产流程从“经验驱动”升级为“数据驱动”。
二、MES系统方案的核心价值在于:
1、标准化生产: 固化最佳工艺参数(如和面时间、油炸温度),确保产品口味与质量的一致性。
2、全程可追溯: 实现从面粉原料到成品箱的“一物一码”全链条追溯,满足国家食品安全监管要求。
3、降本增效: 通过精细化物料与能源管控,预计可降低综合运营成本15%-25%,提升设备综合效率(OEE)15%以上。
4、快速合规: 内置数字化申报功能,一键生成合规报表,降低企业合规成本与风险。
针对方便面生产行业的智能化管理MES系统解决方案,重点在于利用AI算法、物联网(IoT)和全流程追溯技术,解决方便面生产中“配方保密难、工艺控制严、食品安全要求高”的痛点。

三、方便面MES解决方案的核心功能模块详解:
1、数字化配方与工艺管理
方便面生产对配方(面粉、水、添加剂比例)和工艺参数(和面时间、油炸温度)极其敏感。
分级权限配方库: 核心配方(如面筋度配比、调味粉比例)在系统中加密存储,仅授权人员可见,支持版本控制,防止商业机密泄露。
投料防错与精准称重: 生产工单下达后,系统自动生成投料清单。通过连接电子秤和扫码枪,系统自动核对原料种类与重量。若误差超过设定阈值(如±1%),系统自动锁定投料口,防止投错料导致批量报废。
工艺路线标准化: 针对不同产线(如油炸面、非油炸面),预设标准工艺路线(和面→熟化→压延→切条→蒸煮/油炸→冷却→包装),并将参数直接下发至设备PLC,减少人工干预。
2、智能化生产执行与过程管控
实现从订单到成品的透明化管理,确保生产高效运行。
智能排产与工单管理: 系统接收ERP订单后,结合车间设备产能、物料库存情况,自动生成最优生产计划。支持“小单快反”,当出现紧急插单时,可动态调整排程,最小化对生产节奏的影响。
3、关键控制点(CCP)实时监控:

和面环节: 实时采集搅拌速度、时间、水温。AI模型可根据面粉批次的水分含量,自动计算建议加水量,确保面团质量一致。
熟化/油炸环节: 实时监控温湿度数据。若油炸温度异常波动,系统自动报警并推送至管理人员手机,防止面饼焦糊或含油率超标。

生产进度可视化: 通过车间电子看板,实时展示各产线的产量、设备状态(运行、停机、故障)和订单达成率,实现“透明工厂”。
4、全流程质量追溯与合规(一物一码)
一物一码追溯体系: 为每箱/每袋方便面赋予唯一二维码(身份证)。

正向追溯: 输入成品批次号,可查询其使用的所有原料批次、供应商、生产日期、机台及操作人员。
反向追溯: 若发现某批次面粉黄曲霉毒素超标,系统可在30秒内定位到受影响的成品及发货流向(经销商/门店),实现精准召回。

电子批记录: 自动归集生产过程中的操作记录、工艺参数、质检数据,替代纸质记录,满足食品安全审计和GB/T标准合规要求。
AI视觉质检: 在包装环节部署AI视觉检测,对面饼完整性、调料包有无、包装密封性进行毫秒级全检,自动剔除不良品,替代传统人工抽检。
5、设备管理与能源管控
设备OEE分析: 实时监控压面机、油炸线等关键设备的运行状态,计算设备综合效率(OEE),分析停机原因(如待料、故障),提升设备利用率。
预测性维护: 利用IoT传感器采集设备振动、温度等数据,AI模型预测潜在故障(如轴承磨损),提前生成维护工单,避免非计划停机。
能耗精细化管理: 针对高能耗的油炸和烘干环节,实时监控水、电、气消耗。系统分析能耗与生产负荷的关联,优化工艺参数以降低能耗(如自动调节风机转速),预计可降低能耗5%-15%。
6、仓储物流与供应链协同
MES与WMS联动: 生产完工后自动生成入库单,WMS分配库位(如冷藏区),并通过AGV或扫码完成入库。同时,MES根据生产计划向WMS发起领料请求,确保原料“先进先出”。
冷链运输监控: 针对非油炸或鲜湿面产品,MES记录生产温控数据,并与TMS(运输管理系统)打通,实时监控运输车厢温湿度,确保产品从车间到餐桌的全程品质。
四、技术架构与实施优势
企业可根据自身需求灵活配置功能模块,无需大量定制开发,降低实施成本。
多协议集成: 支持OPC UA、MQTT等工业协议,轻松对接PLC、SCADA、ERP、WMS等异构系统,打破数据孤岛。
低成本、快上线: 采用模块化订阅制,无需大额初期投入。标准流程模板+轻量配置,最快2-4周即可完成核心功能部署。
移动化操作: 支持PAD、手机端操作,车间主任可随时随地查看生产数据、审批工单,实现“指尖上的工厂管理”。

在2026年这个智能制造全面深化的时代,方便面行业的竞争已不再局限于口味与渠道的较量,更在于供应链的响应速度与生产管理的精细化程度。
数字化转型不是终点,而是企业迈向工业4.0的起点,MES系统以数据驱动决策,以智能赋能制造,助力您的企业在激烈的市场竞争中实现降本增效,让每一包方便面都成为品质与科技的完美结晶,共同开启食品工业智能制造的新篇章。

2026 年,智能体将在企业级应用中取得哪些实质性突破?点击下载《2026 年 AI 与数据发展预测》白皮书,获悉专家一手前瞻,抢先拥抱新的工作方式!

为什么“与数据对话”只是入门基础——以及为什么赢家将构建上下文,而不仅仅是模型?

对于我们这些在数据领域深耕数十年的人来说,近期业界对“上下文层”日益增长的兴趣,既令人欣慰,也引人深思。这些并非新概念,而是计算机科学的基本原则。语义层之所以重新浮出水面,是因为大多数企业都发现了一个同样令人不安的现实:模型听起来很聪明,但仍然会生成那些“确信的错误答案”。

这种失败模式,与其说是模型推理能力的问题——因为模型实际上已经变得非常聪明,且仍在持续进步——不如说,瓶颈在于能否获取正确的上下文。

在受控演示中,智能体可能表现出色。但在企业内部,它被迫在混乱的环境中运作:业务概念支离破碎、规则隐含不显、历史记录缺失,并且“真相”在不同系统之间往往存在争议。

分析人员的实际工作是多步骤、跨领域且涉及办公室政治的。业务负责人所提出的“为什么”和“是什么”,远不止是 SQL 查询:

  • “找出变化所在,解释变化原因,并建议应对措施。”

  • “比较两种定义,调和冲突,并生成一份能够提交董事会的汇报性叙述。”

  • “调查异常情况,并将其与导致该异常的业务事件关联起来。”

正是在这里,企业的现实问题开始浮现:

  • 语义孤岛:“客户”一词在不同系统中含义迥异;

  • 因果缺失:数据仓库捕获的是状态,而非导致该状态成立的决策过程与相关讨论;

  • 隐性规则:财年日历、资格标准、审批策略以及禁用指标,通常零散分布,仅存于口口相传的经验之中;

  • 真相冲突:财务系统和 CRM 系统的数据可能都被视为“可信”,但彼此之间仍然存在分歧。

因此,核心问题已经从“模型能否生成 SQL?”转变为:“智能体能否在你企业的语义、策略和历史约束范围内运作——并且能够证明其确实如此?”

定义:可信智能体的最小词汇表

首先,确立如下若干核心概念:

  • 分析语义模型:一种面向分析的接口,用于定义度量、维度及实体,并将其映射至物理数据层,使用户无需了解底层架构或掌握 SQL 即可操作数据;

  • 关系与身份层(在企业环境中常被称为“本体”):对跨领域概念、关系及规则的机器可读表征。它涵盖身份解析、同义词处理与约束机制,以确保跨域集成的安全性与显式化。其表现形式可为 OWL/RDF、经过治理的连接图谱,或与受管控数据产品的概念绑定;

  • 业务规程:经版本控制的运营操作手册,明确定义工作的执行方式,包括路由流转、审批流程、异常处置及策略实施规则;

  • 证据与溯源:针对答案的追溯链路,包含所用数据来源、施加的转换逻辑、数据源的沿袭关系,以及为何采纳或拒绝竞争性来源的说明;

  • 策略与权限:可由机器强制执行的规则集,用于界定用户(或代表用户行事的智能体)在检索、计算及披露数据方面的授权范围。 

语义与智能体上下文:旧理念迎来新紧迫性

语义模型与本体论并非新概念。数十年来,企业一直在通过商业智能语义层、主数据管理、数据目录和知识图谱等手段,追求数据含义的一致性。本体论在生命科学与医疗保健等领域也已相当成熟——在这些领域中,复杂的生物医学概念与标准化的临床术语天然构成了图状的知识结构。与此同时,业界对语义层和本体论的关注度正显著上升。

Chart of Google Trends for Semantic Layer and Ontology showing a large spike in late 2025.

图 1:谷歌趋势显示“语义视图”与“本体论”的搜索热度呈上升趋势

这一趋势的出现并非偶然。语义模型和本体论在以下几个方面对大语言模型驱动的智能体构成了重要补充:

  • 大语言模型能够理解意图并处理歧义,但通常缺乏企业级上下文。语义模型与本体论则以可复用的形式编码了该上下文;

  • 大语言模型的输出具有概率性;而语义产物则是基于事实且可验证的;

  • 语义产物的构建历来成本高昂且容易与实际需求脱节;自然语言界面与智能体工具的引入,使得生成、管理并保持语义产物时效性变得更加可行。

 

同时需要强调的是,本体论本身并非最终目标。真正的目标是构建高质量的数据智能体。自然语言作为实用的前端入口,改变了系统必须提供的底层支撑能力。仅将问题转化为 SQL 查询已远远不够。智能体需要一层包含语义、身份标识、约束条件、策略规则与数据血缘的上下文层。

这便是当前的关键转折点:

  • 大语言模型使得从“文本到数据”的转化变得切实可行;

  • 智能体上下文则为智能体分析提供了可信赖的基础。

通过标准化指标与定义,语义分析模型最擅长在特定领域内交付可信的分析结果。当智能体同时具备显式的关系空间、身份解析能力、可连接性及约束条件(无论这些是以形式化本体论、精选的连接图谱,还是从概念到分析对象的绑定方式实现)时,跨领域工作才能真正可靠地开展。

当前的实际重点应在于:借鉴本体论和语义层中有价值的部分,但围绕智能体在企业真实环境中良好运作所需的条件进行优化。

面向可信数据智能体的实用架构

迈向多步骤可靠智能体分析,需要基于受管控的语义、明确的关系以及可审计的决策进行推理。对于企业级智能体,必须协同以下各层才能构建有效上下文。

Diagram showing Agent Context Layers: Semantic models, relationship and identity, operational playbooks, policy & entitlements, provenance explainability, event & decision memory

 图 2:为企业级智能体创建上下文所需的层次结构

分析层

分析层提供与物理数据映射的指标、维度和实体。指标定义(包括筛选条件、连接逻辑与计算公式)统一存放,可在不同智能体体验中复用。语义视图作为分析层的精选且受管控的接口,同时保障分析操作的安全性。

自然语言问题(例如“收入”或“NRR”)需映射到具体的指标定义,包括正确的筛选条件(如“仅包含已关闭并赢单”)、默认时间窗口及允许的粒度。

示例问题:

“过去两个季度的 NRR 是多少?按企业客户与商业客户拆分。”

 

语义视图的应用:

  • 指标:NRR(定义包含客户群组与续约逻辑);

  • 维度:季度、客户细分;

  • 默认筛选条件:排除内部/测试账户;

  • 时间逻辑:最近两个财务季度。

结果输出:

  • 按季度与客户细分呈现的 NRR;

  • 指标定义参考(NRR vX);

  • 所用查询参数(时间窗口、客户细分映射关系)。

关系与身份层(本体):概念与绑定

该层定义了规范化实体(例如客户、账户、工单)及其之间的类型化关系,同时提供与数据世界之间的绑定(ID、语义对象、表)。该层还涵盖同义词/别名处理以及跨系统的身份映射。对于跨领域问题,通常需要将同一真实世界实体在不同系统中的不同标识符进行关联(例如 CRM 中的账户 ID 与支持系统中的组织 ID)。本层提供上述映射能力以及连接各领域所需的关系结构。

在一项内部实验中,我们构建了一个需要多个语义视图才能回答的查询集,并从最终答案准确率、总延迟和工具调用次数三个维度进行性能评估。实验发现,与遵循最佳实践的基线相比,仅需向智能体补充一份纯文本的“数据本体”(包含连接键、表粒度及基数/扇出提示),即可实现以下提升:最终答案准确率提高 20%,平均工具调用次数减少约 39%,端到端延迟降低约 20%。

以下是查询集示例:

问题:

“显示我负责的客户名录中未关闭的升级工单,以及每项面临风险的年度经常性收入。”

 

关系/身份使用情况:

  • 规范化实体:客户

  • CRM 映射:客户↔ CRM.AccountId

  • 支持系统映射:客户↔ Support.OrgId

关系:

客户拥有支持工单

客户拥有合同(含年度经常性收入)

 

执行计划:

1) 在 CRM 中查找负责区域内的账户

2) 映射 CRM.AccountId →客户

3) 映射客户→ Support.OrgId →未关闭的升级工单

4) 映射客户→合同/年度经常性收入(财务语义对象)

5) 在客户粒度上关联结果

操作手册(指令集):流程与路由

这是一套受管控的指令集合,描述了智能体处理特定意图时应遵循的方式,具体包括:路由至权威数据源、必要的澄清步骤以及必需的检查项(例如,“定价必须使用认证表格”或“禁止披露赢单率”)。

某些问题需要一致的程序化处理。手册为不同用户与渠道(如智能体、商业智能助手、嵌入式应用)提供了标准化的执行路径:

问题示例:

“针对欧洲、中东及非洲(EMEA)地区的客户,产品 X 的价格是多少?”

 

手册编号:定价查询

操作步骤:

1) 确认上下文:客户细分、合同类型、生效日期。

2) 路由至权威的定价语义对象(已认证)。

3) 应用适用于欧洲、中东及非洲(EMEA)地区的区域/货币规则。

4) 返回结果:价格+生效日期+所使用的数据源。

溯源与可解释性:使用了什么以及如何使用

此层提供关于答案如何生成的可审查记录:包括所选用的语义对象、应用的过滤条件、执行的关联操作,以及确立的时间戳/数据新鲜度。对于冲突情况,可包含选定哪个数据源及其采用的规则。

用户常会提出诸如“这是怎么算出来的?”或“为什么这份数据与另一份报告不同?”的追问。溯源机制为回答此类问题提供了一致性依据:

问题示例:

“第四季度的流失率是多少?为什么与上周的报告不同?”

 

溯源返回:

  • 指标:Churn_Rate(定义版本 v2.4);

  • 过滤条件:排除非自愿流失;

  • 时间窗口:FYQ4(财年日历);

  • 数据源:计费事件表(截至时间戳)、客户状态快照。

与上周差异对比:

  • 定义由 v2.3 变更为 v2.4;

  • 对计费事件表执行了回填操作。

事件与决策记忆:状态与原理

该层存储与业务实体关联的事件轨迹及决策产物,具体包括:审批记录、事件时间线、变更事件,以及相关的工单或沟通线程。此记忆层可集成至多种应用场景,例如:分析场景:构建正确的关联查询逻辑;业务概念定义:记录指标计算口径的变更;数据对账场景:在信息冲突时,判断应采信哪一方的数据依据。该层为“为何”类核心问题提供证据支撑。许多工作流所需的解释必须根植于操作历史记录,而非仅依赖当前状态快照。

问题示例:

“为何批准了 Acme 公司 20%的折扣?由谁批准?”

 

检索到的证据:

  • 审批工作流记录(请求内容、审批人、时间戳);

  • 审批人填写的备注或理由字段;

  • 关联的交易支持工单记录;

  • 相关政策阈值参考依据(如适用)。

 

回答内容应包含:

  •  审批人及对应时间戳;

  •  已记录的审批理由;

  •  支撑性产物的链接或唯一标识符。

为何这不属于提示工程范畴

人们易产生一种错觉,认为仅凭精巧的提示词设计即可替代智能体工程方法论。然而,在大规模实际应用中,纯依赖提示词的系统往往会迅速失效:其运作机制不透明、难以审计,且行为会随时间发生漂移。

采用智能体工程方法论则可提供持久且可治理的产物,具体体现在:

  • 变更控制:支持可审计、带版本管理的发布上线流程;

  • 可审计性:提供可解释的路由决策逻辑、关联查询规则及定义说明;

  • 互操作性:以统一的语义基础层同时赋能商业智能工具与智能体运行;

  • 治理能力:规则不再是建议性指导,而是转化为可强制执行的约束条件;

  • 可复用性:支持业务概念经一次建模后,在不同上下文中被多次复用,避免重复定义。

智能体上下文的创建与维护:AI 如何改变其经济性

随着像 Cortex Code 这类强大智能体的兴起,构建与维护智能体上下文的任务已变得更加可行。大多数商业语义层难以成功落地的原因很简单:构建成本高昂、信息更新滞后,且其演进速度难以跟上业务发展的步伐。借助 AI 智能体,相关工作流程可被大幅简化——智能体能够阅读文档、知识图谱、本体、聊天记录及其他记录系统,从而创建上下文并保持其时效性。

以下是一个高度简化的 AI 智能体工作流程:

1. 从智能体与精选语义层入手(利用现有仪表板和查询历史记录)。

2. 从现有来源中逐层添加智能体上下文,包括:现有表的元数据、历史查询与使用模式、文档、运维手册、现有本体以及代码流水线。完成此步骤后,应已构建出一个功能较为强大的智能体。

3. 从真实使用模式中学习。

4. 提出改进建议,如同义词、映射关系及缺失的关联等。

5. 将人工审批纳入闭环流程。

6. 在持续扩大覆盖范围的同时,不断降低成本。

预测与结语

以下是我们对该领域未来演进方向的一些展望:

  • 随着模型本身逐渐商品化,胜出的架构会将“智能体上下文”而非模型本身,视为产品的核心;

  • 最成功的智能体会聚焦于需要解决的业务问题,而非将目光锁定在诸如本体这类单一产物上;

  • 语义模型将继续作为受治理指标与可信领域分析的锚点。当智能体成为这一上下文的主要消费者时,保持这些语义层及时更新、对齐且机器可读的压力会不断增加,从而推动它们从静态的文档产物转变为动态的、被积极维护的资产;

  • 由 Cortex Code 这类 AI 智能体驱动的智能体上下文层的生成与持续演进,将获得更多投入;

  • 随着采用规模扩大,我们预计会出现促进跨平台互操作性的标准,让大语言模型(LLM)能够更轻松地解读这些上下文层,并在不同工具与生态中保持一致地执行操作。诸如 开放语义交换协议(OSI) 等举措,正是为了实现此类互操作性。

 

总体而言,我们相信元数据与数据目录建设将重获关注。这些语义层将越来越多地由人类与智能体协同维护。

最新进展

如果您是数据团队高管,正在构建需要复杂上下文处理与跨领域编排的智能体,我们诚邀您了解我们的最新进展:

语义视图: 了解如何构建跨领域编排的基础

Snowflake Intelligence:了解我们如何将业务保障规则整合到统一智能层中

原文地址:https://www.snowflake.com/en/blog/agent-context-layer-trustworthy-data-agents/

点击链接立即报名注册:Ascent - Snowflake Platform Training - China更多 Snowflake 精彩活动请关注专区

 

1 概述 永嘉微电 Vinka Microelectronics VK1622S-1是一个点阵式存储映射的LCD驱动器,可支持最大 256点(32EGx8COM)的LCD屏。单片机可通过3/4线串行接 口配置显示参数和发送显示数据,也可通过指令进入省电模 式Z105+164

2 特点 VK1622S-1 32×8 LCD显示驱动芯片 Rev.1.3 16-July-2024 1/32
• 工作电压 2.4-5.2V
• 内置32 kHz RC振荡器(上电默认)
• 可外接32kHz时钟源(OSCI)
• 偏置电压(BIAS)固定为1/4
• COM周期(DUTY)固定为1/8
• 内置显示RAM为32x8位
• 蜂鸣器频率可配置为2kHz、4kHz
• 省电模式(通过关显示和关振荡器进入)
• 时基和看门狗共用1个时钟源,可配置8种频率
• 时基或看门狗溢出信号输出脚为/IRQ脚 (开漏)
• 3/4线串行接口
• 软件配置LCD显示参数
• 写命令和读写数据2种命令格式
• 读写显示数据地址自动加1
• VLCD脚提供LCD驱动电压(≤VDD)
• 封装 LQFP44(10.0mm×10.0mm PP=0.8mm) LQFP52(14.0mm×14.0mm PP=1.0mm) LQFP64(7.0mm×7.0mm PP=0.4mm) QFP64(20.0mm×14.0mm PP=1.0mm) DICE COG

RAM映射LCD控制器和驱动器系列:
VK1024B  2.4V~5.2V   6seg4com  63   6*2    偏置电压1/2 1/3   S0P16 省电模式
VK1056B  2.4V~5.2V   14seg4com 143  14*2   偏置电压1/2 1/3   SOP24 省电模式
VK1056C  2.4V~5.2V   14seg4com 143  14*2   偏置电压1/2 1/3   SSOP24 省电模式
VK1072B  2.4V~5.2V   18seg4com 183  18*2   偏置电压1/2 1/3   SOP28 省电模式
VK1072C  2.4V~5.2V   18seg4com  183  18*2  偏置电压1/2 1/3   SOP28 省电模式
VK1072D  2.4V~5.2V   18seg4com  183  18*2   偏置电压1/2 1/3   SSOP28 省电模式
VK1088B  2.4V~5.2V   22seg4com  223  222   偏置电压1/2 1/3 QFN32(44mm PP=0.4mm)超小体积
VK1128C 2.4V~5.2V  32seg4com 323 322 偏置电压1/2 1/3 QFN48 (55mm PP=0.35mm)超小体积
VK0192M  2.4V~5.2V   24seg*8com          偏置电压1/4     LQFP44 省电模式
VK0256   2.4V~5.2V   32seg*8com          偏置电压1/4     QFP64 省电模式
VK0256B  2.4V~5.2V   32seg*8com          偏置电压1/4     LQFP64 省电模式
VK0256C  2.4V~5.2V   32seg*8com          偏置电压1/4     LQFP52 省电模式
VK0384   2.4V~5.2V 48seg*8com          偏置电压1/4     LQFP64 省电模式
VK1621 2.4V~5.2V   32seg4com 323 32*2  偏置电压1/2 1/3  LQFP44(QFP44正方形)/LQFP48/SSOP48/SDIP28;DICE/DIE裸片(绑定COB);COG(绑定玻璃) 省电模式
VK1622  2.4V~5.2V   32seg*8com          偏置电压1/4 LQFP44/LQFP48/LQFP52/LQFP64/QFP64;DICE/DIE裸片(绑定COB);COG(绑定玻璃) 省电模式
VK1623   2.4V~5.2V   48seg*8com          偏置电压1/4     LQFP100/QFP100;DICE/DIE
裸片(绑定COB);COG(绑定玻璃) 省电模式
VK1625   2.4V~5.2V   64seg*8com          偏置电压1/4    LQFP100/QFP100;DICE/DIE
裸片(绑定COB);COG(绑定玻璃) 省电模式
VK1626   2.4V~5.2V   48seg*16com          偏置电压1/5    LQFP100/QFP100;DICE/DIE裸片(绑定COB) 省电模式
超低功耗LCD液晶控制器及驱动系列:
VKL060   2.5~5.5V 15seg*4com  偏置电压1/2 1/3  I2C通讯接口 SSOP24 超低功耗/抗干扰
VKL076   2.5~5.5V 19seg*4com  偏置电压1/2 1/3  I2C通讯接口 SSOP28 超低功耗/抗干扰
VKL128   2.5~5.5V 32seg*4com  偏置电压1/2 1/3  I2C通讯接口 LQFP44 超低功耗/抗干扰
VKL144A  2.5~5.5V 36seg*4com  偏置电压1/2 1/3  I2C通讯接口 TSSOP48超低功耗/抗干扰
VKL144B  2.5~5.5V 36seg4com  偏置电压1/2 1/3  I2C通讯接口 QFN48(66超小体积) 超低功耗/抗干扰
——————————————————————————————————————————————————
静态显示LCD液晶控制器及驱动系列:
VKS118  2.4~5.2V 118seg*1com  偏置电压 --     4线通讯接口 LQFP128 可视角大,对比度好,不闪烁
VKS232  2.4~5.2V 116seg*2com  偏置电压1/1 1/2 4线通讯接口 LQFP128 可视角大,对比度好,不闪烁
(永嘉微电/VINKA原厂-FAE技术支持,主营LCD驱动IC; LED驱动IC; 触摸IC; LDO稳压IC; 水位检测IC)
LCD驱动、液晶显示IC、LCD显示、液晶显示、显示LCD、段码液晶屏驱动、LCD液晶显示、段码屏LCD驱动、LCD显示驱动芯片、LCD显示驱动IC、液晶驱动原厂、LCD屏驱动、液晶屏驱动、驱动LCD、驱动液晶、LCD驱动控制器、液晶显示驱动原厂、段码LCD驱动、液晶段码屏驱动、液晶显示驱动芯片、点阵式液晶显示驱动、点阵式液晶显示IC、液晶驱动IC、液晶驱动芯片、LCD芯片、液晶芯片、液晶驱动控制器、液晶IC、段码驱动显示IC、笔段式液晶驱动、LCD液晶显示驱动、液晶LCD显示驱动、段码屏驱动厂家、段码驱动IC、段码驱动芯片、段码屏显IC、

现代湖仓架构的愿景是构建一个统一的数据层,使 Snowflake、Spark、Trino 和 Flink 等各类计算引擎都能够借助 Apache Iceberg 等开放标准实现无缝互操作。

 

尽管数据存储和元数据格式标准化方面已经取得了显著的进展,但仍然存在严重的互操作障碍:不同数据库引擎之间没有一种通用的语言。由于各厂商支持的功能存在差异,所以支持一种通用的 SQL 方言是一件很有挑战性的事,但我们要指出的是,即便在标识符(数据库、模式、表、表列等)这种最基础的方面,也存在不一致之处。

 

每种引擎在处理和规范化标识符时都有自己的历史规则,从而形成了一种“巴别塔”效应:各个工具之间无法在数据库对象命名上达成共识,妨碍了组织构建受控、统一且现代化的 AI/Data 系统的目标。随着组织从孤立的数据湖向湖仓架构转型,这一问题变得越来越明显,这些微妙的标识符问题已经在数据管道的可靠性和一致性方面引发问题。

湖仓中 SQL 方言的互操作鸿沟

为了理解这个问题,让我们通过一个场景来分析下:一名数据工程师使用以下命令在 Spark 中创建了一个表:

SQL CREATE TABLE my_lakehouse.MyTable (id INT, value STRING); SELECT * from my_lakehouse.mytable; — 成功返回结果
复制代码

默认情况下,Spark 会在 Apache Iceberg 目录中以与提供时完全一致的大小写形式将表名持久化:MyTable。随后,有一位业务分析师试图从 Flink 或 Trino 中查询该表:

SQL -- 尽管该查询在 Spark 上能执行成功,但在 Flink 和 Trino 上却会因不同原因而失败SELECT * FROM my_lakehouse.mytable;
复制代码

 

Flink 会完全保留标识符的原始输入形式,因此,当分析师输入 mytable 时,Flink 会将 mytable 发送至目录,而目录中存储的表名为 MyTable。如果目录执行查找时区分大小写,那么就无法找到这个表。即使表解析出来了(例如通过不区分大小写的目录),列级访问仍然会严格区分大小写:对于查询 “SELECT Id FROM MyTable”,如果该列在 Iceberg 元数据中是按 id 存储的,那么查询依然会失败。Flink 将返回错误:“在任何表中均未找到列 ‘Id’;您是否想查询 ‘id’?

 

由于 SQL 方言的差异,Trino 会带来另一种挑战。 Trino 会将标识符转换为小写,因此对 MyTable 或 mytable 的查询都是查找 mytable(小写)。如果 Spark 将该表持久化为 MyTable 或 MYTABLE,那么 Trino 区分大小写的目录查找将无法找到匹配项。

 

Trino没有对带分隔符的标识符提供一等支持,因此,即使用户尝试指定大小写规则,针对非小写元数据条目的解析依然会失败。实际上,这会导致 Trino 引擎无法发现创建时表名使用了大写或大小写字母组合的表。

图 1. 展示主流数据库引擎中标识符问题的多引擎湖仓架构

 

在实践中,数据架构师通常借助DBTSQLMesh等中间工具,将 SQL 代码编译为适用于不同查询引擎的格式,从而避免工作负载与单个查询引擎的紧耦合。虽然转译有助于减少为每个引擎重写工作负载带来的麻烦,但它无法防止架构师锁定那些在不同引擎间不兼容的标识符设计方案。

为什么现在是问题了?

在数据库领域,这一挑战并不是什么新鲜事,因为在历史上,数据库迁移就曾遇到过类似的 SQL 方言不一致问题。然而,在传统的孤岛式环境中,工作流受限于单一的引擎规则,人们往往觉得一次性的迁移困难很平常。而在现代湖仓架构中,多个引擎会同时处理同一组数据,这种痛点会始终存在。当 Spark 将 Table1 和 table1 视为不同的对象,而 Trino 却将其视为相同的对象时,自动化管道和跨引擎工作流就可能会失败,并导致严重的数据损坏或契约违背。

 

解决这种 SQL 方言互操作性问题,主要责任在于制定湖仓战略的组织,而非由单一目录或数据库平台来解决。本文将深入探讨不同目录和数据库之间的技术细节及行为差异,希望能帮助架构师设计出更具韧性的湖仓战略。

技术概览

标识符名称解析涉及到一套规则,其中规定了标识符中可以包含哪些字符,以及如何将标识符规范化为规范化的大小写形式(CNF),从而方便进行比较,并存储在元数据和存储系统中。在湖仓架构中,由不同供应商独立开发的多个组件需要相互协作,才能产生一种“有效”的标识符行为,这可能会打破现有工作负载的假设。

 

下图展示了湖仓架构中标识符解析与持久化的整体流程,并列出了涉及的各个组件:

图 2. 标识符解析的高级流程图

 

因此,有必要对不同供应商的数据库引擎和目录进行调研,以了解其“实际”的行为及常见的陷阱。

行为调查:目录和引擎

本节将介绍不同数据库引擎和目录所采用的各种约定。我们将首先分析最常用的数据库引擎的行为,随后分析最常用的目录。

数据库引擎层差异

数据库引擎在与目录层交互时采用不同的逻辑。

数据库引擎层差异对比

目录层差异

目录是实体名称的权威来源,但其具体实现方式各不相同。

  • Apache Polaris 遵循 Apache Iceberg 规范。它接受通过 REST 接口提供的字符串,并在查找时进行区分大小写的匹配。

  • Databricks Unity Catalog 会将标识符标准化为小写。当 Spark 用户(他们可能期望区分大小写)与 Unity Catalog 中已经标准化为小写的对象进行交互时,这种标准化可能会导致不同的结果。

  • AWS Glue Data Catalog 会自动将大写实体名称转换为小写。

 

这三层(用户意图、数据库引擎和目录)之间的语义差异会导致隐蔽的故障和下游风险,进而可能导致日后需要耗费大量的成本进行重写。

场景演示

虽然从技术规范上看,每种引擎的解析逻辑在标识符处理方式上存在着明显的差异,但要真正理解这些选择所带来的实际影响,最好通过其运营后果来分析。以下两个场景非常具有代表性,因为它们并非基于单个客户案例,而是综合了多个真实案例。公司名称和具体细节均为虚构,但故障模式、错误信息和解决方案都是生产环境中实际遇到的。

 

对于为何一个组织选择了保留大小写的目录,而另一个则选择了规范化为小写的目录,我们做了分析,这两种选择均未提供放之四海而皆准的解决方案,而是各自以一种故障模式换取了另一种故障模式。

场景 A:NovaPay 使用保留大小写的目录(Polaris)

NovaPay 是一家金融科技公司,每天在 15 个国家处理超过 200 万笔交易。其数据架构包含 Apache Polaris(REST 目录)、用于 ETL 的 Spark、用于即席分析的 Trino、用于商业智能报告和机器学习的 Snowflake,以及用于实时欺诈检测的 Flink。他们选择了 Polaris 默认保留大小写的行为,以便在 400 多个表中保持驼峰式命名规范。

 

开始的时候, Spark 管道运行得非常顺畅,因为 Polaris 会完全按照输入的方式存储标识符。

CREATE TABLE payments.dailyTransactions (    transactionId STRING,    merchantName STRING,    paymentAmount DECIMAL(10,2),    processingDate DATE); -- 通过 spark 创建的表
复制代码

当分析团队开始使用 Trino 时,问题随之而来:

SELECT * FROM payments.dailytransactions;-- Trino 会将其转换为小写 “dailytransactions”,Polaris 显示 “dailyTransactions” → 404
复制代码

该模式与已经记录的行为相符:其中,包含大写字母的表在浏览时会被转换为小写,而且,根据用户反馈,“来自 Iceberg REST 目录的区分大小写的标识符无法在 Trino 查询中引用,因为它们在传递给 REST 目录时已经全部被转换为小写”。实际上,这四百多个表对分析团队而言是不可见的。通过目录关联数据库(CLD)实现的 Snowflake 集成可以提供帮助,因为 CLD 会采用不区分大小写的解析方式将表名规范化为小写,从而使表可以被发现。然而,Flink 欺诈检测团队遇到了列级故障: Iceberg 元数据将 transactionId 存储为大写形式,而 Flink 采用区分大小写的解析方式,因此导致 SELECT transactionid 语句执行失败。为了解决这个问题,NovaPay 进行了一次迁移,将所有表重命名为 snake_case(即所有字母均为小写,单词间以下划线分隔的命名规范),并添加了 CI 代码检查规则,未来任何不使用小写的标识符都将被拒绝。

场景 B:小写规范化目录 (AWS Glue)

MediStream 是一家医疗健康分析初创公司,负责处理来自五十多家医院系统的患者记录,其数据架构如下:AWS Glue(目录)、基于 EMR 的 Spark 用于 ETL、基于 Trino 的 Athena 用于分析师查询,以及基于 Kinesis 的 Flink 用于实时警报。

 

这家初创公司之所以选择 AWS Glue,是因为他们是一家原生 AWS 环境的公司,并且期望 AWS Glue 目录的小写规范化功能能够帮助他们避免任何跨引擎的大小写问题。

 

团队立刻就遇到了瓶颈,因为 Glue 拒绝了他们采用 PascalCase 格式的表名:

# PySpark ETL jobspark.sql("""    CREATE TABLE glue_catalog.clinical.PatientVitals (        PatientId STRING,        HeartRate INT,        BloodPressure STRING,        RecordedAt TIMESTAMP    )""")Error: `ValidationException: 不能使用 PatientVitals 作为 Glue 表名,因为表名必须由 1 至 255 个字符组成,且仅包含小写字母、数字和下划线`
复制代码

这个问题与用户报告的另一个问题类似,即 Spark 无法跳过 Glue 的表名验证。团队花了两周时间,将八十多个表和 ETL 脚本重写为 snake_case。基础设施即代码(IaC)又增加了一个摩擦点: Glue 会将 Terraform 发送的大小写混合的名称默默转换为小写,因此, Terraform 会检测到持续不断的漂移。

 

即使是对表名进行标准化处理之后,列级问题依然存在。Glue 可以控制表名,但列名存储在 Iceberg 元数据中,因此,最初由 Spark 创建的 PatientId 列仍然保留着大小写混合的格式。基于 Trino 的 Athena 会在内部自动转为小写,从而透明地处理这个问题,但 Flink 要求严格区分大小写,这就导致同一张表在某个引擎上运行正常,而在另一个引擎上却会失败。为解决这些问题,MediStream 重建了早期的表,使用了小写的列名,将 Terraform 配置为小写,并在任何 CREATE TABLE 操作之前添加了一个验证步骤,拒绝不使用小写的列名。

如何选择你的数据库引擎组合?

作为实践者,以下决策框架可帮助你构建一个数据湖仓,并最大限度地减少与大小写敏感相关的问题。最具影响力的决策是选择一组能在数据湖仓中协同工作的引擎。你可以参考以下兼容性矩阵:

✅ = 兼容而且不需要做额外的工作

⚠️ = 兼容,但需要强制采用小写命名标准

⚠️⚠️ = 部分基础功能可用,但只靠小写命名规范不能完全解决问题(列级问题依然存在)

 

Spark 和 Snowflake(CLD)具有广泛的兼容性,因为二者在解析时均不区分大小写,表可以在它们之间无缝迁移。DuckDB 也采用不区分大小写的解析方式,因此同样兼容。Trino 严格的小写规范化机制会与保留大小写的引擎(例如 Spark、Flink 和 DuckDB)产生冲突,除非所有标识符原本就是小写。Flink 的要求最为严格,因为其区分大小写的解析机制会使得任何列大小写不匹配便引发错误,因此,它是对命名规范要求最严格的引擎。

强制执行命名规范

为避免数据技术栈中出现可发现性及其他与大小写相关的问题,必须制定并严格执行一套适用于湖仓架构中所有工具的命名规范。最有效的策略之一是将所有标识符默认限定为小写并使用下划线,这种做法在各类引擎和目录中均被广泛接受。如果偏离这个默认设置,就需要谨慎地匹配引擎并调整其配置,确保它们在所有场景中都能正常地运行。

 

采用小写命名规范可以避免大多数问题,但湖仓架构中的每一层都提供了配置选项,可进一步减少与大小写相关的问题。在多引擎环境中,默认设置并不总是最优的选项。

湖仓技术栈的配置选项

跨引擎验证

强制执行命名规范可以避免大多数问题,但要确保真正的跨引擎可移植性,唯一的方法是进行端到端测试。设置一个轻量级的持续集成任务,通过主引擎创建一张表,并验证该表能否被栈中其他所有引擎发现和查询,这有助于发现任何集成问题。这些跨引擎问题——例如目录规范化中的意外情况、Iceberg 元数据中列级大小写不匹配以及解析差异——只有在验证过程包含跨多个引擎的交互时才会显现出来。

小结

现代湖仓架构承诺,任何引擎都可以连接和访问单一数据副本,这一愿景依然是数据架构的指导方向,但前文讨论的案例证明,仅靠共享存储和统一目录并不足以提供无缝的数据访问体验。这一问题的根源在于两种标识符解析方法之间存在着根本性的理念分歧:即保留大小写的保真度与规范化大小写的统一性。虽然某些引擎遵循高保真理念,即保留并解析对象的确切大小写形式,因为它们的设计初衷是维护元数据的丰富性。但对于严格遵循规范化理念的其他引擎而言,这种灵活性会导致部分数据无法被发现。为了确保符合 SQL 标准,这些引擎会强制将标识符转换为规范化的大小写形式,从而丧失了发现不合逻辑对象的能力。

 

这种冲突迫使架构师不得不做出艰难的权衡:他们要么接受“影子表”的风险,要么实施僵化的、仅限小写的约束,去除传统系统的命名约定。组织必须停止将标识符命名视为引擎偏好的问题,而应将其视为一项关键的数据契约。

 

无论引擎或目录采用何种机制,制定一套严格的、全组织通用的命名规范,都可以最大限度地减少各团队的摩擦。归根结底,要解决“巴别塔”问题,就需要转变思维方式:真正的互操作性不仅在于共享磁盘上相同的数据,更在于确保所有接触这些数据的引擎都遵循共同的语言规范。

 

声明:本文为 InfoQ 翻译,未经许可禁止转载。

 

原文链接:https://www.infoq.com/articles/lakehouse-sql-identifier-rules/

在上一篇中,我们探讨了 OSE 如何通过语法层面的“减法”解决了 AI 时代的逻辑臃肿。然而,一门语言的成功从来不仅仅取决于语法本身,更取决于其背后的生态系统。
长期以来,编程世界被划分为一个个互不兼容的“孤岛”。OSE 配合 Codigger 体系的出现,正是为了打破这种工具链的割裂,实现从单打独斗到全球协作的范式转移。
一、 传统语言的“围墙花园”
在传统开发范式下,学习一门新语言(如 Swift 或 Kotlin)往往意味着需要接纳一套沉重的 IDE 和全新的工具链。这种“全家桶”式的捆绑带来了明显的生态痛点:
环境配置的复杂性:开发者常耗费数小时甚至数天在配置路径、安装依赖和调试环境上。
语言间的“生殖隔离”:不同语言编写的模块往往难以无缝交互,跨平台调用往往伴随着巨大的性能损耗和兼容性风险。
这种“围墙花园”模式虽然在特定生态内维持了秩序,却在宏观上限制了开发者跨界创新的自由。
image.png
二、 借壳生长:Rainbow 转译器的平滑迁移
与传统编译器(如 GCC 或 LLVM)追求直接生成底层二进制指令的逻辑不同,OSE 采取了一种更务实的“借壳生长”策略。

  1. Rainbow 转译器的逻辑
    Rainbow 并不试图颠覆现有的所有开发工具,而是充当一座“彩虹桥”。它将 OSE 的逻辑转译为 Vim8 脚本 等成熟的编辑器语言。
  2. 为什么是 Vim?
    选择在 Vim 等老牌、稳定的开发者工具上构建生态,具有深远的战略洞察:
    零成本迁移:全球数以百万计的极客已经习惯了 Vim 的操作逻辑。Rainbow 让开发者无需离开熟悉的编辑环境,就能享受 OSE 带来的现代编程特性。
    极致轻量:避开了臃肿的现代化 IDE 负担,OSE 的生态能够以极轻量的方式迅速植入到任何已有的工作流中。
    这种“转译而非重构”的逻辑,让 OSE 绕过了新语言早期最难熬的工具链建设期,直接站在了成熟生态的肩膀上。
    image.png
    三、 协作 2.0:从代码托管到技术共识
    开源 1.0 时代是以 GitHub 为核心的纯代码协作,由于缺乏原生 AI 支持,知识的传递依赖于手动编写的文档和 Stack Overflow 等社区的问答。
    在 Codigger 体系下,OSE 的协作模式发生了质变:
    自动化知识沉淀:利用 Feather 辅助层,系统能够自动根据代码逻辑生成结构化文档和测试用例。这意味着代码库不再是死板的字符堆砌,而是自带解释权的活性资产。
    分布式操作系统赋能:Codigger 本身的分布式特性,使得开发者可以在全球范围内共享算力和逻辑节点。
    建立全球技术共识:以日本技术社区(如 Qiita 或 Zenn)为例,开发者们正通过 OSE 的确定性语法建立起一种全新的沟通标准。因为代码意图极其明确,跨国界的协作不再受限于语言和文档的翻译偏差。
    image.png
    四、 多语言奇点(Polyglot Singularity)
    OSE 最终的角色并非仅仅是 Codigger 的官方开发语言,它更像是联结不同平台、语言与 AI 的 Rainbow Bridge。
    当我们站在“多语言奇点”这一时刻回望,会发现编程语言的门槛正在消失。当复杂的语法、繁琐的环境配置和割裂的工具链都像“羽毛(Feather)”一样变得轻盈时,人类的创造力将不再受制于技术琐事。

作为长期扎根财经技术领域、专注分享实操干货的博主,经常在思否看到不少量化交易者和开发团队提问:逐笔成交监控该怎么落地?为什么用常规数据监控,总抓不到市场的核心波动?
前阵子,我接手了一个逐笔成交实时监控的相关开发任务,从需求拆解到落地调试,踩了不少开发者常遇的坑,也慢慢理顺了整套实操逻辑。今天就以第一人称,把这份实测经验分享给大家,全程贴合思否的技术交流氛围,无冗余、全干货,兼顾专业性和可操作性,帮各位同行少走弯路。

先跟大家聊核心需求:不管是量化交易策略优化,还是团队做实时风险管控,逐笔成交监控的核心诉求都是“精准、实时”——要能捕捉到每一笔成交的细节,掌握市场的瞬时变化。但很多开发者都会陷入一个误区,误用数据类型,导致监控效果大打折扣。
我们日常接触的行情相关数据,主要分为两类,两者的差异直接决定了监控的精准度。一类是大家常用的K线数据,它是对一段周期内的成交情况进行汇总统计,适合观察长期趋势,但延迟较高,无法反映市场的瞬时波动;另一类就是tick数据,它相当于市场的“实时成交明细”,每一条数据都对应一笔真实的成交,能清晰呈现成交时间、价格、数量等核心信息,这也是实现逐笔监控的关键所在。
这就引出了很多开发者的核心痛点:明明想做实时监控,却因为选错数据类型、接入方式不当,导致延迟过高、数据缺失,最终影响策略判断或风险管控效果。而解决这个痛点的关键,就在于选对接入方式、吃透数据结构,做好异常处理。

接下来,我结合自己的实操经验,一步步拆解逐笔成交监控的落地流程,从接入思路到数据处理,再到异常应对,每一步都讲得明明白白,新手也能快速上手。
首先是接入方式的选择,这是保证实时性的核心。逐笔成交监控对实时性要求极高,延迟一旦超标,监控就失去了实际意义。我一开始尝试用HTTP接口接入,虽然操作简单、上手快速,但每次请求都需要完成完整的请求-响应流程,延迟无法避免,根本无法满足实时监控的需求。
经过多次测试调试,我最终选择了WebSocket接口,它能维持持久连接,无需重复建立连接,服务器可实时推送数据,大幅降低延迟,完美适配逐笔监控的场景。这里跟大家提一句,我这次实操中用到了AllTick API,它提供的WebSocket接口较为完善,能便捷订阅指定标的的逐笔成交数据,省去了不少底层开发的工作量,适合各类开发者快速落地。

具体的接入流程并不复杂,梳理下来主要有四个步骤,大家可以直接参考:第一步,建立WebSocket连接;第二步,向服务器发送订阅请求,明确需要监控的标的;第三步,接收服务器推送的tick数据,并在客户端完成处理和存储;第四步,实现异常断线时的重连和补数据逻辑,确保监控不中断。
接入tick数据后,不要急于推进后续开发,先吃透数据结构,这是避免后续出现逻辑漏洞的关键。经过实操总结,每一条tick数据都包含四个核心字段,我整理成了清晰的表格,方便大家快速理解和查阅:

字段名含义
时间戳该笔成交发生的具体时间
价格该笔成交的实际价格
数量该笔成交的数量
成交类型分为买入、卖出、中性三种类型

这四个字段组合起来,就能完整还原每一笔成交的全貌,构建出实时的市场快照。对我们开发者来说,重点要关注价格和数量的连续变化,以及成交类型的切换,这些直接关系到后续策略触发的精准度和风险告警的有效性,也是很多新手容易忽略的细节。
结合我的实操经历,分享两个实用的数据处理小技巧,亲测能有效避坑,提升开发效率:一是对价格和数量进行基础过滤,剔除极端价格、异常数量等无效数据,防止干扰核心业务逻辑;二是采用队列或流式处理库,对实时推送的tick数据进行顺序处理,避免因并发问题导致的数据顺序混乱。

我在实操中采用Python的asyncio实现WebSocket数据接收,将数据处理和存储都放在协程中运行,经过多次调试,整体延迟可以控制在几十毫秒以内,完全满足逐笔成交监控的实时性需求,大家可以参考这个配置方案。
除了数据接入和处理,异常处理也是逐笔成交监控中不可或缺的环节,很多开发者就是因为忽略了这一点,导致项目上线后出现监控中断、数据缺失等问题,影响最终效果。结合我的实操经验,分享三个实用的异常处理方法,大家可以直接应用到开发中:
第一,设置断线立即重连机制,一旦WebSocket连接断开,立即触发重连逻辑,重连成功后自动重新订阅目标标的的tick数据,确保监控不中断;第二,针对短时间内丢失的数据,通过历史补全接口进行补齐,保证数据的连续性——我在测试时就遇到过行情活跃度骤增,因缺少补数据逻辑,导致统计出现明显缺口,差点影响后续判断;第三,添加完善的日志和告警机制,一旦出现异常,能快速定位问题、及时排查,尤其适合团队开发场景,提升协作效率。
聊完技术实操,再跟大家说说tick数据逐笔监控的实际应用场景,毕竟技术最终要落地到实际需求中。我在完成相关开发后,做了一个简单的测试,通过接入tick数据,订阅了几只热门标的的逐笔成交,每收到一条数据,就实时标记价格和数量的变化,并将异常波动可视化呈现。
测试效果很理想,无需等待几分钟的K线聚合,就能直观看到市场的瞬时波动,就像观察市场的“心跳”,每一笔成交都像脉搏一样跳动。这种监控方式,对于量化交易者、风控人员和行情分析从业者来说,实用性极强:

对于量化交易者,能第一时间捕捉买卖力量的变化,优化策略的触发时机,避免错过核心机会;对于风控人员,能实时监控异常价格波动,及时发出告警,降低潜在风险;对于行情分析从业者,能获得最真实、最细腻的市场反馈,避免被汇总后的K线数据“掩盖”关键信号。
最后,给各位思否的同行分享一个实操小技巧,尤其适合刚接触tick数据监控的新手:初期不要贪多,先订阅几只自己最关注的标的,将数据处理逻辑放在异步队列中运行,这样即便行情突然活跃,系统也能稳定运行,不会出现卡顿;同时,用简单的颜色或符号标记异常波动,调试起来更直观,能快速捕捉核心信号。
结合这次的实操经历,也跟大家分享一点个人体会:玩转tick数据,从来不是靠死读接口文档,而是要亲手实操,慢慢理解每一条数据背后的逻辑。WebSocket接入、异步处理这些技术,初期可能会觉得繁琐、绕弯,但只要多调试、多总结,理顺流程后,实时性和稳定性自然就上来了。
其实,实现tick数据逐笔成交监控的关键,不在于追求极致的性能,而在于精准把握数据特点、做好数据处理和异常应对逻辑。耐心调试的过程中,你会发现很多隐藏的细节——比如价格波动的规律、数量的变化趋势,这些细节,正是tick数据的核心价值所在。
希望这篇实测分享,能给思否里正在做相关开发、量化交易的同行们提供一些参考。如果大家在实操过程中遇到其他问题,或者有更好的经验技巧,欢迎在评论区交流讨论,咱们一起避坑、一起进步,把开发工作做得更高效、更稳定。

4月11日-12日,由清华大学计算机系主办、清华大学学生算法协会承办的2026年清华大学学生程序设计竞赛暨高校邀请赛(THUPC)决赛在校内自强科技楼圆满举行。本届赛事初赛共吸引1066支队伍报名,经严格选拔,最终98支队伍、287名选手晋级决赛,在ICPC赛制下展开巅峰角逐。非凸科技作为赛事的主要支持方之一,与现场近300名选手共同见证了这场算法对决。
image.png
闭幕式上,非凸科技分享了AI在投资领域的实践与思考,鼓励同学们不只做代码的实现者,更要做问题的定义者与边界的突破者。 人才是技术创新的第一引擎,欢迎各位同学加入非凸,让你的思考在数智金融的浪潮中被世界看见。
image.png
决赛现场,选手们以三人团队形式协同作战,在封闭环境中连续攻克多道高难度算法题目。在这样高强度比拼下最终 “THU1” 队摘得桂冠,“zxx 家长群二”队与“柚子超玩会”队分获亚、季军。非凸科技为获奖队伍颁发奖牌与证书,并向所有参赛选手致以诚挚祝贺。
image.png
赛事有终点,但对技术的探索永无止境。非凸科技珍视与高校学子的每一次连接,我们将持续深耕校企联合,以技术为纽带,为优秀的青年开发者提供更具挑战的实战土壤,为计算机事业发展注入更多活力。

特斯拉前 AI 总监、OpenAI 创始成员 Andrej Karpathy 在去年随口提出 Vibe Coding 的时候,或许也没想到,它会变成一场运动,并从 240 亿个词汇中脱颖而出,成为 2025 年柯林斯词典年度词汇。

Vibe Coding 之所以出圈,在于它击中了一个时代情绪:在 AI 技术的持续迭代升级下,编程可以不再是工程师的专属能力。“人人皆可编程” 第一次从口号变得可感知。

但问题也很快开始浮现:Vibe Coding 虽然降低了编程门槛,但本质上,加速的还是“程序员写代码”,整个流程仍然假设用户知道什么是 IDE、什么是依赖管理、什么是部署。

而这,挡住了绝大多数人。

根据行业数据,2025 年全球程序员数量预计在 3000 万左右,与 80 亿的全球总人口数相比,还不到 1%。这意味着,即使 Vibe Coding 做到极致,它的受众天花板也就是这几千万人。这个世界上每天都有太多转瞬即逝的想法,还停留在脑海里、对话里、Demo 里。

这也是为什么,蚂蚁灵光这一次的更新,显得格外关键。作为一款全模态 AI 助手,灵光自去年 11 月一经发布,就以“30 秒生成应用、生成即部署”的差异化能力火速出圈。

4 月 20 日,灵光对闪应用进行升级:深度集成了手机端的原生能力,包括相机、陀螺仪、LBS、麦克风、震动等,同时推出“灵光圈”,用户无需任何门槛,就能在移动端完成应用的生成、迭代、使用、分发全流程闭环。

灵光想做的,不是继续优化某个技术点,而是打通一条完整链路:让每一个念头,都有机会成为一个被使用、被分享、被不断改写的应用。

99% 的人,需要的是 Wish Coding

Vibe Coding 真正解决的问题,是让已经会写代码的人写得更快。它的起点是一个 IDE 窗口,用户与 AI 围绕代码协作;它的终点是一段可运行的代码。

但对于一个编程零基础的用户来说,问题从来都不是代码。一个想法要变成真正可用的应用,需要经过生成、适配、部署、分发、使用、反馈、迭代一整条链路。Vibe Coding 加速的只是“生成代码”这一个环节;而对普通用户来说,链路上的每一个环都是卡点。

要覆盖这 99% 的人群,不是在 Vibe Coding 的方向上走得更远,而是需要一条完全不同的路径。灵光给它的命名是 Wish Coding。

Wish Coding 即意图编程,用说话直接生成可运行的软件应用。用户不需要 IDE 和代码界面,也不需要了解构建和部署的概念,只需要说清楚自己想要什么,就能得到一个可运行的完整应用。

实际上,早在上世纪 90 年代,微软前首席架构师、Word 和 Excel 的缔造者 Charles Simonyi 就曾提出“Intentional Programming”。Simonyi 认为,软件开发应更多关注开发者的意图,而非聚焦于代码书写的细节。在当时,这一设想受限于技术条件,还只能停留在理念层面;如今,大模型的能力,让 Wish Coding 所代表的意图编程成为可能。

灵光正在做的,本质上是用 AI 充当 Simonyi 设想中那个“从意图到实现的自动化层”,只不过面向的不再是专业开发者,而是每一个能用自然语言表达需求的人。

在灵光 APP 中,用户只需要输入一个自然语言指令,就能生成一个可运行、可交互、可分享的完整应用。灵光将其命名为闪应用,或许也代表着,每个人的灵光一闪,都能化作一个应用。更重要的是,这个应用不是停留在 Demo 层面,而是能在手机端侧运行,调用摄像头、LBS、陀螺仪、麦克风、本地存储、系统通知等硬件能力。

比如,笔者每天的时间都很碎片化,想让灵光做一个碎片化专注计时器,支持自定义专注时长、休息倒计时、专注总时长排行榜,界面极简,并且能根据天气情况匹配不同白噪音音效。

把这些“愿望”一股脑儿发给灵光,几十秒就得到了一个应用,直接就能体验起来。整个过程,全部都是在灵光 APP 里完成。

第一版不够好,不知道怎么优化?灵光会提供修改建议,供用户参考。就这款计时器来说,现在的样式确实太过极简,灵光建议专注时显示专注成就徽章,采纳后,很快迭代好了一版:

与一款成熟应用对比而言,现在的计时器还欠缺很多功能,但关键的变化在于,卡点从有没有技术能力实现,转移到了用户的想象力——你能提出来,灵光就能做、就能改,直到你满意为止。这或许才是 99% 的人,真正需要的。

每一个灵光一闪,都有机会被再创造

闪应用实现的,是把一个人的灵光一闪,变成真正的应用。灵光圈实现的,是让每个人的灵光一闪,都能在更大的舞台上被看见、被使用、被分享、被不断改写。这也是此次升级中,灵光带来的最大的惊喜。

根据官方解释,灵光圈的定位是围绕闪应用构建的分发与协作社区,任何人手搓的闪应用都可以一键分享到灵光圈,让其他人浏览、使用、点赞和评论。特别之处在于,灵光圈支持二次创作。任何人看到一个闪应用,都可以在原版的基础上,用自然语言描述自己想要的修改,并生成一个全新的版本。

这种机制有些类似开源协作中的“Fork 代码”。在传统的软件协作中,开发者可以在  GitHub 上对他人的代码进行 Fork、修改、再发布,从而形成持续演进的协作网络。

灵光把这个动作再往前推了一步:大家 Fork 的不是代码,而是意图。任何人在灵光圈看到的闪应用,都能根据自己的喜好进行修改。你不需要看懂原作者写了什么,只需要说:“把这个配色改掉”“把里面的菜单换成低脂版本”“再加一个倒计时功能”,AI 就能基于原作继续生成。

这也是灵光圈最有意思的地方:它把应用的演化门槛压到了足够低。低到使用者和创作者之间的边界开始变模糊,任何一个使用者都可能顺手改出自己的版本,再把它变成别人的起点。

过去,软件应用的生长路径更加具有确定性:从需求分析、系统设计、编码实现再到测试发布,整个流程封闭、高度依赖中心化团队,版本迭代也按照既定路线、线性演进。

但在灵光圈中,闪应用的生长方式是完全开放的,任何人都可以基于已有版本进行修改和再创作,不同用户的需求可以在多个分支上并行演进。一个应用不再只有一个“官方版本”,而是衍生出多个面向不同场景的变体,每一个分支都有可能继续被扩展、被传播。这未必会立刻催生出什么超级应用,但它确实提供了一种更开放的,也是前所未有的应用生长机制。

数据显示,截至目前,灵光用户已成功创建超 3000 万个闪应用。从互动游戏、情绪减压到语言打卡、待办清单等,灵光闪应用覆盖了普通人生活的方方面面。

灵光产品负责人表示:“灵光闪应用功能正在催生‘一人应用’的兴起——不依赖团队协作,不需要漫长开发周期,一个人、一句话、30 秒,就能让想法变成可交互的工具。灵光圈的上线,希望帮助普通人也能零门槛调用自己的 Coding Agent。”

Coding Agent 正在从开发者走向普通人

把时间线拉回两年前,Coding Agent 还更多停留在“辅助编程工具”的角色——以 GitHub Copilot 为代表,它们擅长的是在既有代码语境中补全、提示与优化,本质上仍然服务于“写代码的人”。

但在 2026 年,行业叙事明显变了。Coding Agent 开始越来越多地直接交付结果。

灵光的特别之处在于,它把 Coding Agent 做成了面向普通人的消费级产品。当然,这条路远没有完全走通。复杂场景里的意图理解是否足够准确,多人协作和权限体系是否成熟,社区生态能否持续运转,这些都还是现实问题。

但有一点是确定的。这条路一旦走通,它所触达的将不只是 3000 万开发者。届时,更多人能够以表达为起点,参与到数字世界的构建之中。

最新NVIDIA RTX™ 桌面端企业级显卡为NVIDIA RTX PRO™ GPU 系列,当下已从NVIDIA Ampere、NVIDIA Ada Lovelace 架构升级至NVIDIA Blackwell 架构,AI和图形处理性能都有质的提升。

NVIDIA RTX PRO系列显卡型号

交通-1.JPG

计算机视觉相关任务

在交通流监测、车辆行人识别等场景中,经常会使用到类似YOLO 等目标检测模型的训练和实时推理,对于这类任务,NVIDIA Blackwell 架构在推理性能上优势明显,尤其高负载实时应用、处理高计算量任务时优势尤为突出,可为实时应用提供更低延迟。根据实际检测需求,显卡型号通常以NVIDIA RTX PRO 4000 和NVIDIA RTX PRO 5000 为主。以NVIDIA RTX PRO 5000为例,该型号除了提供卓越的性能,更以高可靠性、长生命周期、技术支持等特点打动客户的需求。
交通-2.png
NVIDIA RTX PRO 5000 Blackwell (图片来源于NVIDIA)

大模型推理相关任务

在交通系统规划设计、交通服务、智驾系统应用等方面,大模型推理任务越来越重。NVIDIA RTX PRO 系列作为桌面端企业级显卡,可以稳定运行在任意复杂环境,对于模型实验/验证等任务,可以摆脱对数据中心资源的依赖,性价比也非常高。型号首推NVIDIA RTX PRO 5000,单卡NVIDIA RTX PRO 5000 (48GB)已经可以应对相对较小规模的模型推理,中等规模的模型推理则可以采用双卡、四卡NVIDIA RTX PRO 5000的方案来运行。

设计与仿真类任务

从车辆、道路基础设施设计、系统仿真,到数字孪生可视化,NVIDIA RTX PRO 系列专业级显卡可以支持从小模型、小场景到超大场景的3D设计和仿真任务,并且相对于消费级显卡来说,专业显卡的企业级驱动程序可靠性更强、产品稳定性优势很大。

对于型号的选择,可大致参考如下的范围:
交通-3.JPG

中等规模的场景是日常任务中最常见的。NVIDIA RTX PRO 4000 是特别值得关注的一款卡,目前是NVIDIA RTX PRO 系列中性能最强的一款单插槽显卡!工作站适配度非常高。平时应对中小型规模的建模和渲染游刃有余,甚至在大型复杂场景中的仿真表现也很好。
交通-4.png
NVIDIA RTX PRO 4000 Blackwell (图片来源于NVIDIA)

赞奇科技曾在工作站中搭载一张NVIDIA RTX PRO 4000运行UG NX,将3个智能装配生产线的复杂模型组合到一起,零部件数量总共约2万个,模型文件总大小1.5G,包含了大量高精度曲面、关联特征与运动信息。三合一模型在12秒内载入完成,编辑、旋转、缩放、渲染、仿真流畅全程无卡顿,工程图在29秒内即生成,效率和稳定性上都很不错。
IMG_2017.PNG

购前体验

赞奇科技目前免费开放给用户开展NVIDIA RTX PRO 系列产品测试。

您可以提供想要测试的场景,扫描下方二维码申请远程测试,或获取更详尽的显卡应用资料!
二维码.jpg
*与NVIDIA产品相关的图片或视频(完整或部分)的版权均归NVIDIA Corporation所有。

2026年4月20日至24日,德国汉诺威工业博览会在汉诺威展览中心举行。在浙江省商务厅组织下,NineData将作为浙江展团参展企业之一,亮相2026浙江服务贸易(汉诺威)数字生态展,向来自全球的客户、合作伙伴及行业观众展示企业级智能数据管理平台的核心能力。

德国汉诺威工业博览会作为全球最具影响力的工业技术贸易展之一,依托这一国际化平台举办的“2026浙江服务贸易(汉诺威)数字生态展”,有助于进一步推动浙江数字技术企业加强国际交流合作,提升品牌国际影响力,拓展面向欧洲及全球市场的发展空间。

NineData作为浙江展团代表企业之一,将展示面向AI时代的智能数据管理产品与行业解决方案,向全球客户、合作伙伴及产业用户展示浙江企业在数据库DevOps、数据复制与对比、AI数据管理、智能运维领域的一站式数据管理能力。

NineData将在现场展示什么?

在全球工业体系加速迈向智能化、柔性化和数据驱动的背景下,企业正面临多云、混合云、异构数据库并存,以及跨区域业务协同、工业数据互联、研发治理标准化等多重挑战。NineData此次参展,将围绕企业级数据管理全生命周期的核心需求,重点展示三大能力方向。

企业级数据库DevOps

NineData提供覆盖SQL开发、规范审核、审批执行、权限控制、审计留痕、变更发布与性能优化的一体化数据库研发治理能力,帮助企业从传统分散式数据库管理模式,升级到更规范、更安全、更高效的协同管理体系。对于正在推进工业数字化转型的制造企业而言,这意味着数据库开发效率与生产环境稳定性能够实现更好平衡。

数据复制与对比

面向工业企业常见的多系统、多环境、多数据库架构,NineData支持多类型主流关系型数据库、NoSQL、分析型数据库及云数据库之间的数据迁移、实时同步、结构复制、数据对比与一致性校验,可广泛应用于跨云数据流转、系统升级迁移、国产化替代、容灾备份、实时数仓构建等场景,帮助企业建立更稳定、更可控的数据流动能力。

AI原生数据管理

依托AI Agent与ChatDBA等能力,NineData正在推动数据库管理从“工具辅助”走向“智能协同”。通过自然语言生成SQL、智能SQL优化、故障自动诊断、运维问题排查与任务调度等功能,平台帮助企业进一步降低数据库管理门槛,提高研发与运维效率,为工业AI在真实业务场景中的落地提供更加坚实的数据底座。

诚邀莅临

4月20日至24日,德国汉诺威展览中心,NineData在16号馆D16展位期待与您相见。

诚邀您莅临NineData展位,面对面交流产品能力、行业实践与合作机会,共同探索工业数字化与全球化发展背景下的数据管理新可能。

2026浙江服务贸易(汉诺威)数字生态展,NineData与您现场相见。

关于NineData\
NineData是玖章算术(浙江)科技有限公司旗下智能数据管理平台,专注于云计算与数据管理基础技术创新,依托云原生架构与AI能力,打造覆盖数据库DevOps、数据复制、数据对比、智能运维等核心场景的一体化数据管理平台,帮助企业在多云、混合云及复杂异构环境下实现更高效、更安全、更智能的数据管理。

NineData面向企业数据库开发、迁移、同步、治理与运维全流程,提供从研发协同到生产保障的完整能力支撑,助力企业提升数据流转效率、强化数据安全与合规治理,加快数字化升级与全球化业务落地。产品已广泛应用于金融、制造、能源、电力、互联网、医疗健康、跨境出海等多个行业场景。

写代码、做表格、搞分析……大模型把这些活儿干完之后,终于腾出手来对付设计了。这个曾经最依赖专业工具和手艺的领域,终究没能逃掉被重做的命运。

 

周末,Anthropic 宣布推出一款新产品——Claude Design,试图把“设计”这件事从专业软件中解放出来,变成一种可以通过对话完成的协作过程。

 

这项功能目前由其刚刚发布的最新模型 Claude Opus 4.7 提供支持,并以研究预览的形式向 Claude Pro、Max、Team 和 Enterprise 用户逐步开放。

说几句话就能完成设计的时代来了

Anthropic 对 Claude Design 的定位很明确:不是一个简单的设计生成器,做“一键生成”工具没什么意思,它要能“陪伴”设计师一起改设计方案,当一个干活“搭子”。

 

在传统设计流程中,即便是经验丰富的设计师,也会因为时间与资源限制,往往只能在有限的几个方向上反复打磨。对于很多不懂设计的创始人或 PM 来说,想把脑子里的点子变成好看的图,简直就像隔着一堵墙,根本摸不着门道。

 

Claude Design 试图同时解决这两类问题。

用户只需要用自然语言描述需求,Claude 就可以生成一个初始设计版本。之后的迭代过程,不再依赖复杂的软件操作,直接能通过对话、内联评论、直接编辑甚至“自定义滑块”等方式完成。

 

这种交互模式,本质上把设计过程拆解成连续的语义调整,与传统工具依赖像素级操作的方式大不相同。

更关键的一点在于一致性。系统在获得权限后,可以自动调用团队的设计系统,将统一的字体、颜色和组件应用到每一个输出中,减少风格不统一的问题。

从官方披露的使用场景来看,Claude Design 的目标并不是替代某一个具体软件,而是横向覆盖多个设计相关工作流:

  • 原型设计:将静态稿快速转换为可交互的原型,用于用户测试与反馈收集,无需额外代码流程

  • 产品线框图:产品经理可以直接生成流程草图,并进一步交给开发或设计团队完善

  • 设计探索:设计师可以在短时间内生成多个方向进行对比

  • 演示文稿:从提纲生成完整、符合品牌规范的 PPT,并支持导出为 PPTX 或发送至 Canva

  • 营销素材:包括落地页、社交媒体视觉、活动素材等初版生成

  • 复杂原型:支持语音、视频、3D、着色器甚至内置 AI 的代码驱动设计

  

这意味着,Claude Design 正在尝试覆盖从“想法生成”到“视觉表达”再到“交付开发”的完整链路。 

新工具被网友们“玩疯了”

 

在 x 上,一位从事了 20 多年设计工作的设计师大赞这款工具极具颠覆性。他写道:

 

“太爱你们这次做的东西了!!!今天刚测试完。做了 29 年的设计,本以为灵感已经枯竭,结果你们让我找回了久违的快乐!VIBE CODING DESIGN(氛围感编码设计)绝对是未来的方向。这可能是目前为止最牛、最具颠覆性的发布!”

 

还有用户幽默地贴了张图,暗示设计师们的工作将岌岌可危。

 

还有用户表示,试过 Claude Design 后发现它真绝了。该用户让 Claude Code、Codex、Gemini 等系统都存在于同一个无限画布上。无需切换上下文。

在这些 AI 系统中,该用户表示:“Claude Design 完全 get 到了我的应用的精髓,把它呈现出了应有的高级感——这一版简直是脱胎换骨,跟旧版根本不是一个量级的东西。”

前阵子大家还在争论“Vibe Coding(氛围编程)到底有没有护城河”,当时很多人就不看好 Lovable 这类工具。这次拿它跟 Claude Design 一对比,一些用户认为更是坐实了这个观点:

“像 Lovable 这种应用,恐怕真的没什么前途。”

 

技术上是如何实现的?

Claude Design 不是单纯的“AI 画图”,它的核心是“懂业务”。Claude Design 本质上是一套吃透了企业上下文的定制系统,

 

从技术实现路径来看,在初始阶段,Claude 会读取团队的代码库和设计文件,自动构建一套设计系统。此后所有项目都会默认继承这一系统,从而保证输出的一致性。同时,这套系统是可演化的,团队可以持续优化,并维护多个设计体系。

输入方式也被大幅扩展。用户可以通过文字向其输入指令,还可以上传文档(如 DOCX、PPTX、XLSX)、导入图像,甚至让 Claude 直接访问代码库。此外,系统还支持通过网页捕获工具,从现有网站抓取元素,来提高原型的真实度。

在编辑层面,Claude Design 提供了更细粒度的控制能力:用户可以对具体元素添加注释、直接修改文本,或通过参数化控件调整布局、间距与颜色,并将这些修改批量应用到整个设计中。

Claude Design 的另一重点是“协作”。

设计稿可以在组织内部共享,支持不同级别的权限控制:从私有文档,到通过链接查看,再到开放编辑权限。团队成员可以在同一设计中与 Claude 进行群组对话,这使得设计讨论从传统的评审会议,转向实时、上下文连续的协作过程。

在交付环节,Claude Design 提供了多种导出方式,包括内部链接、文件夹存储,以及导出为 Canva、PDF、PPTX 或独立 HTML 文件。

更进一步,当设计完成后,系统可以自动打包为一个“移交包”,并通过一条指令传递给开发工具 Claude Code,实现从设计到实现的衔接。

Figma 或 Canva 等工具危矣?

从产品形态来看,Claude Design 不是在复制 Figma 或 Canva 这样的传统设计工具,它想尝试用大模型重构设计的交互范式,但在很大程度上和以上两家所做的工作是重合的,有一些变化值得关注:

  1. 从工具操作转向语义表达:用户通过描述意图,而不是操作界面来完成设计

  2. 从单点工具转向系统能力:设计系统、代码库与内容生成被统一到一个模型中

  3. 从角色分工转向能力融合:非设计人员也可以参与视觉创作,设计师则更多承担方向与审美判断

目前,这一功能仍处于研究预览阶段。Anthropic 表示,未来几周将进一步加强与外部工具的集成能力,使其能够接入团队已有的工作流。

 

如果说过去一年生成式 AI 已经重塑了“写代码”和“写内容”的方式,那么 Claude Design 的出现,正在把“设计”也拉入同一套范式之中。而这种变化,对 Figma、Canva 等传统设计工具的冲击,已经开始在市场和舆论层面显现出来。

 

从资本市场的短期反应来看,这种冲击显得颇为直接。Claude Design 发布当日,Figma 股价下跌约 4.26%,而 Adobe、Wix 和 GoDaddy 等相关公司也同步出现下行。

 

此外,Anthropic 首席产品官在发布前三天从 Figma 董事会辞职,也被部分市场解读为行业格局变化的一个信号。不过,也有观点认为,这类波动未必完全由 Claude Design 引发,在整体 SaaS 行业承压的背景下,单日 4% 左右的跌幅仍属于正常区间。

相比市场的短期情绪,行业内部的判断则更为分化。一方面,像 Figma 这样的工具依然牢牢占据 UI/UX 设计市场约 80%~90% 的份额,经过多年演进形成了完整且成熟的工作流体系,深受专业设计师依赖。从这个角度看,传统设计工具在短期内并不会被替代,其在复杂设计、协作精度以及系统化能力上的优势依然明显。

 

但另一方面,Claude Design 所代表的范式转变,正在动摇设计行业最核心的一道壁垒——门槛。过去,视觉表达需要依赖专业软件与训练,而现在,用户只需用自然语言描述需求,就可以获得一个可用的设计初稿。这也引出了一个令传统工具难以回避的问题:当客户可以直接用文字与模型沟通时,是否还需要完整的设计工具链来完成同样的工作?

 

从用户侧反馈来看,这种替代关系目前仍然有限。

 

在 Reddit 等社区讨论中,不少具备专业设计经验的用户认为,Claude Design 生成的结果存在明显的同质化问题,整体质量更接近“现代剪贴画”——能够显著提升基础设计的下限,但距离高质量、差异化的专业设计仍有差距。因此,它更像是一个补充工具,而非替代方案。

 

同时,也有用户指出,这类产品并非首次出现。一个月前,Google 就已推出类似产品 Stitch,说明“用 AI 生成设计”本身并不是全新的概念。从这个角度看,Claude Design 更像是在现有方向上的一次能力强化,而非彻底颠覆。

 

目前相对明确的共识是,这类工具的真正价值,主要体现在三类场景:非设计背景用户的表达需求、创业者的快速验证,以及产品早期的原型构建。它的核心作用是降低创作门槛、加速想法可视化,而不是取代完整的设计流程。

 

即便是在这些优势场景下,Claude Design 仍面临现实限制。有用户反馈,生成一个完整设计可能会消耗 Claude Pro 订阅中约一半的使用额度,这意味着在当前阶段,其成本结构尚不足以支撑高频或重度使用。

 

现在就断言 Claude Design 会对 Figma 等传统设计工具造成巨大冲击,仍然为时尚早。

 

 

参考链接:

https://www.anthropic.com/news/claude-design-anthropic-labs

https://techcrunch.com/2026/04/16/anthropic-cpo-leaves-figmas-board-after-reports-he-will-offer-a-competing-product/

https://x.com/robinebers/status/2045163860588724563

 

为什么企业软件越来越多,IT却越来越“失控”?

在数字化转型加速的背景下,企业采购软件的速度远超以往。尤其是在SaaS模式普及之后,业务部门可以绕开IT,直接通过在线订阅完成采购。这种灵活性虽然提升了业务响应速度,但也带来了新的问题——IT部门逐渐失去对整体系统的掌控。ManageEngine卓豪 将为您解答这些问题!

例如,市场部门可能采购营销自动化工具,销售团队引入CRM系统,HR部门使用独立的招聘平台。这些系统各自运行,看似解决了局部问题,但从整体来看,却形成了分散的应用生态。

当IT无法掌握这些系统的数量、用途与数据流向时,企业就进入了“影子IT”状态。

影子IT带来的风险,并不只是“多花钱”

很多企业最初关注影子IT,是因为重复采购导致成本增加。但实际上,其影响远不止于此。更严重的问题在于数据安全、合规风险与运维复杂度。

例如,未经审批的软件可能存在安全隐患,数据存储在不受控的环境中;多个系统之间缺乏集成,导致数据孤岛;当系统出现问题时,IT团队无法快速介入处理。这些问题都会对企业运营产生长期影响。

因此,影子IT并不是简单的“管理问题”,而是企业治理能力的体现。

为什么企业很难彻底禁止影子IT?

从现实角度来看,完全禁止影子IT几乎是不可能的。原因在于业务需求变化迅速,而IT部门的响应能力往往有限。当业务部门无法及时获得支持时,自行采购工具就成为“必然选择”。

此外,传统IT管理模式通常强调控制与审批,这在一定程度上降低了灵活性,使业务部门更倾向于绕过流程。这种矛盾,使影子IT成为企业普遍存在的问题。

因此,解决影子IT的关键,不在于“禁止”,而在于“引导与管理”。

ServiceDesk Plus 如何帮助企业“看见”影子IT?

通过ServiceDesk Plus,企业可以构建统一的软件与资产管理体系,将分散的应用纳入可视化管理范围。例如,通过资产发现与集成功能,识别已使用的软件与服务,并建立统一台账。

同时,通过服务目录与审批流程,企业可以为业务部门提供标准化的软件申请路径,从而在满足需求的同时保持可控性。

从“堵”到“疏”:企业该如何正确治理影子IT?

在影子IT治理中,很多企业第一反应是加强控制,例如限制采购权限、增加审批流程或直接禁止使用未授权软件。但实践证明,这种“堵”的方式往往效果有限,甚至会引发更严重的绕过行为。原因很简单:业务需求不会消失,只会寻找新的出口。

更有效的方式,是通过“疏导”来实现管理。也就是说,在保障合规与安全的前提下,为业务部门提供更高效、更透明的服务渠道。例如,通过统一的服务门户,让业务部门可以快速申请所需软件,并获得清晰的审批与交付流程。

这种方式不仅可以满足业务需求,还能将原本分散的行为纳入统一管理,从而实现可控与灵活的平衡。

常见问题(FAQ)

  1. 什么是影子IT?
    指未经IT部门管理或批准而使用的软件与系统。
  2. 是否需要完全禁止影子IT?
    不现实,应通过规范与引导进行管理。
  3. 如何快速识别影子IT?
    可以通过资产发现与数据分析工具实现。
  4. 如何进一步了解软件资产管理?
    可以参考ITSM解决方案获取更多信息。

2026年4月,众智FlagOS技术栈的统一多芯片AI算子库迎来全新发展里程碑:算子总量正式突破500个,完成“1+6”多个领域覆盖,包括AI算子库FlagGems,FlagBLAS,FlagDNN,FlagFFT,FlagSparse,FlagTensor和FlagAudio。实现从大模型训练推理到科学计算全场景的能力延伸,成为全球规模领先、覆盖场景最全面的Triton开源算子库。

作为AI模型与底层硬件之间的核心“翻译官”,算子库是决定AI算力释放效率、开发门槛与跨硬件适配能力的关键基础设施。长期以来,算子开发始终面临手写编码门槛高、调优周期长、跨芯片适配需重复开发等行业痛点,而英伟达CUDA生态凭借十余年的技术与开发者积累,形成了难以逾越的生态壁垒。此次FlagOS技术栈的里程碑式突破,为全球多元异构算力时代的AI基础设施建设,提供了全新的开源解决方案。

500 算子、7 大领域,FlagOS 实现从“大模型专用”到“科学计算全域”能力跃迁

自项目启动以来,FlagOS始终以“打破硬件壁垒、普惠算子开发”为核心目标,完成了从大模型专用算子库到全场景通用算子库的跨越式发展。

此次里程碑升级中,FlagGems大模型算子库的算子总量超过400个,成为全球最大的Triton单一算子库。此外,在原有大模型核心算子能力基础上,FlagOS团队完成了FlagDNN(深度神经网络)、FlagBLAS(基础线性代数)、FlagFFT(快速傅里叶变换)、FlagSparse(稀疏矩阵)、FlagTensor(张量运算)及FlagAudio(语音处理)六大领域的覆盖。

截至目前,FlagGems 大模型算子库中,Triton算子性能哪怕在英伟达硬件上跟CUDA算子相比,中位数也已经达到0.998,意味着一半的算子数量达到或超过CUDA在英伟达上的性能;硬件适配层面,已完成对英伟达、华为、摩尔线程、海光、天数等28种主流AI芯片的适配支持,在40个主流AI模型上的推理任务算子覆盖度达到90%~100%,为开发者提供了“一次编写、多芯片运行、处处高性能”的极致开发体验。

行业最快增速!22 个月突破 500 算子,众智生态活力全面凸显

更值得关注的是,FlagOS创下了同类型算子库的最快规模化增长纪录。从2024年6月FlagGems项目首次开源,到2026年4月突破500个算子规模。

图片
众智FlagOS社区吸引开发者持续贡献FlagGems项目

这一增速的背后,是FlagOS活跃的开源生态与技术创新的双向赋能。一方面,FlagOS依托Triton、及Triton-TLE开源语言,大幅降低了算子开发的技术门槛,智源研究院、中科院计算所、中科加禾、清程极致、中科院软件所、硅基流动、先进编译实验室等十多家机构、十多家AI芯片厂商、及全球数百开发者共同贡献,形成了“共建共享”的良性开源生态;另一方面, KernelGen 算子自动生成技术,实现了算子需求理解、代码生成、正确性验证到性能评测的全流程自动化,将单个算子的开发周期从周级压缩到分钟级,为算子库的规模化扩容提供了核心技术支撑。

KernelGen 2.0 算子自动生成平台(视频):https://live.csdn.net/v/522643

从PyTorch生态官方认证,到全球AI基础设施的核心底座

2025年6月,在2025北京智源大会PyTorch Day China论坛上,PyTorch基金会执行董事Matt White正式宣布,FlagGems项目通过官方审批,正式加入PyTorch基金会生态项目体系,成为唯一支持多种AI芯片架构的入选算子库项目,PyTorch基金会官方同步完成了全球官宣。

图片

2025北京智源大会 · PyTorch Day China 论坛,PyTorch 基金会执行董事 Matt White 发言

图片

加入PyTorch生态以来,FlagGems完成了与PyTorch框架的深度融合,通过ATen后端无感注册的设计,让开发者无需修改一行模型代码,即可无缝切换到FlagGems算子库,享受跨芯片高性能算力加速,彻底解决了PyTorch模型在多元硬件上的部署难题。截至目前,FlagGems已成为全球最大的单一Triton算子库,其开源生态已覆盖芯片厂商、AI模型企业、科研院所、个人开发者等全产业链主体,成为推动全球AI基础设施开源化、普惠化的核心力量。

打破CUDA生态壁垒,重构AI时代的算力底层规则

长期以来,AI产业始终面临“硬件性能快速迭代,而软件生态严重滞后”的发展困境。国产AI芯片的理论算力持续追赶国际顶尖水平,但因算子生态的缺失,实际应用中算力释放效率不足10%,大量硬件因适配难题沦为“算力废铁”。

FlagOS的持续突破,正是对这一行业痛点的核心破局。通过Triton开源语言的中立性、跨芯片适配的通用性,以及自动生成技术的高效性,FlagOS彻底打破了“芯片-算子-框架”的深度绑定模式,让不同架构的AI芯片都能通过统一的算子库释放极致算力,让中小开发者无需掌握底层硬件架构知识,即可快速完成高性能算子开发与模型适配。

500个算子的里程碑,既是FlagOS技术栈发展的全新起点,也是中国开源AI生态走向全球引领的重要一步。未来,FlagOS技术社区将持续拓展算子覆盖场景、优化算子性能、完善跨芯片适配能力,持续深化与PyTorch等全球主流开源框架的生态融合,吸引更多开发者与机构参与开源共建,打造全球领先的中立、开放、高性能的AI算子基础设施,让每一颗AI芯片的算力都能被充分释放,推动全球AI产业从“单芯片垄断”走向“多元算力普惠”的全新发展阶段。

更多了解,请点击链接

GitHub地址:https://github.com/flagos-ai/FlagGems

关于众智FlagOS社区

为解决不同 AI 芯片大规模落地应用,北京智源研究院联合众多科研机构、芯片企业、系统厂商、算法和软件相关单位等国内外机构共同发起并创立了众智 FlagOS 社区。成员单位包括北京智源研究院、中科院计算所、中科加禾、安谋科技、北京大学、北京师范大学、百度飞桨、硅基流动、寒武纪、海光信息、华为、基流科技、摩尔线程、沐曦科技、澎峰科技、清微智能、天数智芯、先进编译实验室、移动研究院、中国矿业大学(北京)等多家在 FlagOS 软件栈研发中做出卓越贡献的单位。

FlagOS 是一款专为异构 AI 芯片打造的开源、统一系统软件栈,支持 AI 模型一次开发即可无缝移植至各类硬件平台,大幅降低迁移与适配成本。它包括大型算子库、统一AI编译器、并行训推框架、统一通信库等核心开源项目,致力于构建「模型-系统-芯片」三层贯通的开放技术生态,通过“一次开发跨芯迁移”释放硬件计算潜力,打破不同芯片软件栈之间生态隔离。

官网:https://flagos.io

GitHub 项目地址:https://github.com/flagos-ai

GitCode 项目地址:https://gitcode.com/flagos-ai

SkillHub:https://skillhub.flagos.io