一、方案背景与核心价值

方便面生产具有“高速连续、配方敏感、食品安全要求极高”的特点。万界星空科技2026年AI+MES解决方案,旨在打破传统“车间靠吼”的粗放管理模式,将生产流程从“经验驱动”升级为“数据驱动”。
二、MES系统方案的核心价值在于:
1、标准化生产: 固化最佳工艺参数(如和面时间、油炸温度),确保产品口味与质量的一致性。
2、全程可追溯: 实现从面粉原料到成品箱的“一物一码”全链条追溯,满足国家食品安全监管要求。
3、降本增效: 通过精细化物料与能源管控,预计可降低综合运营成本15%-25%,提升设备综合效率(OEE)15%以上。
4、快速合规: 内置数字化申报功能,一键生成合规报表,降低企业合规成本与风险。
针对方便面生产行业的智能化管理MES系统解决方案,重点在于利用AI算法、物联网(IoT)和全流程追溯技术,解决方便面生产中“配方保密难、工艺控制严、食品安全要求高”的痛点。

三、方便面MES解决方案的核心功能模块详解:
1、数字化配方与工艺管理
方便面生产对配方(面粉、水、添加剂比例)和工艺参数(和面时间、油炸温度)极其敏感。
分级权限配方库: 核心配方(如面筋度配比、调味粉比例)在系统中加密存储,仅授权人员可见,支持版本控制,防止商业机密泄露。
投料防错与精准称重: 生产工单下达后,系统自动生成投料清单。通过连接电子秤和扫码枪,系统自动核对原料种类与重量。若误差超过设定阈值(如±1%),系统自动锁定投料口,防止投错料导致批量报废。
工艺路线标准化: 针对不同产线(如油炸面、非油炸面),预设标准工艺路线(和面→熟化→压延→切条→蒸煮/油炸→冷却→包装),并将参数直接下发至设备PLC,减少人工干预。
2、智能化生产执行与过程管控
实现从订单到成品的透明化管理,确保生产高效运行。
智能排产与工单管理: 系统接收ERP订单后,结合车间设备产能、物料库存情况,自动生成最优生产计划。支持“小单快反”,当出现紧急插单时,可动态调整排程,最小化对生产节奏的影响。
3、关键控制点(CCP)实时监控:

和面环节: 实时采集搅拌速度、时间、水温。AI模型可根据面粉批次的水分含量,自动计算建议加水量,确保面团质量一致。
熟化/油炸环节: 实时监控温湿度数据。若油炸温度异常波动,系统自动报警并推送至管理人员手机,防止面饼焦糊或含油率超标。

生产进度可视化: 通过车间电子看板,实时展示各产线的产量、设备状态(运行、停机、故障)和订单达成率,实现“透明工厂”。
4、全流程质量追溯与合规(一物一码)
一物一码追溯体系: 为每箱/每袋方便面赋予唯一二维码(身份证)。

正向追溯: 输入成品批次号,可查询其使用的所有原料批次、供应商、生产日期、机台及操作人员。
反向追溯: 若发现某批次面粉黄曲霉毒素超标,系统可在30秒内定位到受影响的成品及发货流向(经销商/门店),实现精准召回。

电子批记录: 自动归集生产过程中的操作记录、工艺参数、质检数据,替代纸质记录,满足食品安全审计和GB/T标准合规要求。
AI视觉质检: 在包装环节部署AI视觉检测,对面饼完整性、调料包有无、包装密封性进行毫秒级全检,自动剔除不良品,替代传统人工抽检。
5、设备管理与能源管控
设备OEE分析: 实时监控压面机、油炸线等关键设备的运行状态,计算设备综合效率(OEE),分析停机原因(如待料、故障),提升设备利用率。
预测性维护: 利用IoT传感器采集设备振动、温度等数据,AI模型预测潜在故障(如轴承磨损),提前生成维护工单,避免非计划停机。
能耗精细化管理: 针对高能耗的油炸和烘干环节,实时监控水、电、气消耗。系统分析能耗与生产负荷的关联,优化工艺参数以降低能耗(如自动调节风机转速),预计可降低能耗5%-15%。
6、仓储物流与供应链协同
MES与WMS联动: 生产完工后自动生成入库单,WMS分配库位(如冷藏区),并通过AGV或扫码完成入库。同时,MES根据生产计划向WMS发起领料请求,确保原料“先进先出”。
冷链运输监控: 针对非油炸或鲜湿面产品,MES记录生产温控数据,并与TMS(运输管理系统)打通,实时监控运输车厢温湿度,确保产品从车间到餐桌的全程品质。
四、技术架构与实施优势
企业可根据自身需求灵活配置功能模块,无需大量定制开发,降低实施成本。
多协议集成: 支持OPC UA、MQTT等工业协议,轻松对接PLC、SCADA、ERP、WMS等异构系统,打破数据孤岛。
低成本、快上线: 采用模块化订阅制,无需大额初期投入。标准流程模板+轻量配置,最快2-4周即可完成核心功能部署。
移动化操作: 支持PAD、手机端操作,车间主任可随时随地查看生产数据、审批工单,实现“指尖上的工厂管理”。

在2026年这个智能制造全面深化的时代,方便面行业的竞争已不再局限于口味与渠道的较量,更在于供应链的响应速度与生产管理的精细化程度。
数字化转型不是终点,而是企业迈向工业4.0的起点,MES系统以数据驱动决策,以智能赋能制造,助力您的企业在激烈的市场竞争中实现降本增效,让每一包方便面都成为品质与科技的完美结晶,共同开启食品工业智能制造的新篇章。

2026 年,智能体将在企业级应用中取得哪些实质性突破?点击下载《2026 年 AI 与数据发展预测》白皮书,获悉专家一手前瞻,抢先拥抱新的工作方式!

为什么“与数据对话”只是入门基础——以及为什么赢家将构建上下文,而不仅仅是模型?

对于我们这些在数据领域深耕数十年的人来说,近期业界对“上下文层”日益增长的兴趣,既令人欣慰,也引人深思。这些并非新概念,而是计算机科学的基本原则。语义层之所以重新浮出水面,是因为大多数企业都发现了一个同样令人不安的现实:模型听起来很聪明,但仍然会生成那些“确信的错误答案”。

这种失败模式,与其说是模型推理能力的问题——因为模型实际上已经变得非常聪明,且仍在持续进步——不如说,瓶颈在于能否获取正确的上下文。

在受控演示中,智能体可能表现出色。但在企业内部,它被迫在混乱的环境中运作:业务概念支离破碎、规则隐含不显、历史记录缺失,并且“真相”在不同系统之间往往存在争议。

分析人员的实际工作是多步骤、跨领域且涉及办公室政治的。业务负责人所提出的“为什么”和“是什么”,远不止是 SQL 查询:

  • “找出变化所在,解释变化原因,并建议应对措施。”

  • “比较两种定义,调和冲突,并生成一份能够提交董事会的汇报性叙述。”

  • “调查异常情况,并将其与导致该异常的业务事件关联起来。”

正是在这里,企业的现实问题开始浮现:

  • 语义孤岛:“客户”一词在不同系统中含义迥异;

  • 因果缺失:数据仓库捕获的是状态,而非导致该状态成立的决策过程与相关讨论;

  • 隐性规则:财年日历、资格标准、审批策略以及禁用指标,通常零散分布,仅存于口口相传的经验之中;

  • 真相冲突:财务系统和 CRM 系统的数据可能都被视为“可信”,但彼此之间仍然存在分歧。

因此,核心问题已经从“模型能否生成 SQL?”转变为:“智能体能否在你企业的语义、策略和历史约束范围内运作——并且能够证明其确实如此?”

定义:可信智能体的最小词汇表

首先,确立如下若干核心概念:

  • 分析语义模型:一种面向分析的接口,用于定义度量、维度及实体,并将其映射至物理数据层,使用户无需了解底层架构或掌握 SQL 即可操作数据;

  • 关系与身份层(在企业环境中常被称为“本体”):对跨领域概念、关系及规则的机器可读表征。它涵盖身份解析、同义词处理与约束机制,以确保跨域集成的安全性与显式化。其表现形式可为 OWL/RDF、经过治理的连接图谱,或与受管控数据产品的概念绑定;

  • 业务规程:经版本控制的运营操作手册,明确定义工作的执行方式,包括路由流转、审批流程、异常处置及策略实施规则;

  • 证据与溯源:针对答案的追溯链路,包含所用数据来源、施加的转换逻辑、数据源的沿袭关系,以及为何采纳或拒绝竞争性来源的说明;

  • 策略与权限:可由机器强制执行的规则集,用于界定用户(或代表用户行事的智能体)在检索、计算及披露数据方面的授权范围。 

语义与智能体上下文:旧理念迎来新紧迫性

语义模型与本体论并非新概念。数十年来,企业一直在通过商业智能语义层、主数据管理、数据目录和知识图谱等手段,追求数据含义的一致性。本体论在生命科学与医疗保健等领域也已相当成熟——在这些领域中,复杂的生物医学概念与标准化的临床术语天然构成了图状的知识结构。与此同时,业界对语义层和本体论的关注度正显著上升。

Chart of Google Trends for Semantic Layer and Ontology showing a large spike in late 2025.

图 1:谷歌趋势显示“语义视图”与“本体论”的搜索热度呈上升趋势

这一趋势的出现并非偶然。语义模型和本体论在以下几个方面对大语言模型驱动的智能体构成了重要补充:

  • 大语言模型能够理解意图并处理歧义,但通常缺乏企业级上下文。语义模型与本体论则以可复用的形式编码了该上下文;

  • 大语言模型的输出具有概率性;而语义产物则是基于事实且可验证的;

  • 语义产物的构建历来成本高昂且容易与实际需求脱节;自然语言界面与智能体工具的引入,使得生成、管理并保持语义产物时效性变得更加可行。

 

同时需要强调的是,本体论本身并非最终目标。真正的目标是构建高质量的数据智能体。自然语言作为实用的前端入口,改变了系统必须提供的底层支撑能力。仅将问题转化为 SQL 查询已远远不够。智能体需要一层包含语义、身份标识、约束条件、策略规则与数据血缘的上下文层。

这便是当前的关键转折点:

  • 大语言模型使得从“文本到数据”的转化变得切实可行;

  • 智能体上下文则为智能体分析提供了可信赖的基础。

通过标准化指标与定义,语义分析模型最擅长在特定领域内交付可信的分析结果。当智能体同时具备显式的关系空间、身份解析能力、可连接性及约束条件(无论这些是以形式化本体论、精选的连接图谱,还是从概念到分析对象的绑定方式实现)时,跨领域工作才能真正可靠地开展。

当前的实际重点应在于:借鉴本体论和语义层中有价值的部分,但围绕智能体在企业真实环境中良好运作所需的条件进行优化。

面向可信数据智能体的实用架构

迈向多步骤可靠智能体分析,需要基于受管控的语义、明确的关系以及可审计的决策进行推理。对于企业级智能体,必须协同以下各层才能构建有效上下文。

Diagram showing Agent Context Layers: Semantic models, relationship and identity, operational playbooks, policy & entitlements, provenance explainability, event & decision memory

 图 2:为企业级智能体创建上下文所需的层次结构

分析层

分析层提供与物理数据映射的指标、维度和实体。指标定义(包括筛选条件、连接逻辑与计算公式)统一存放,可在不同智能体体验中复用。语义视图作为分析层的精选且受管控的接口,同时保障分析操作的安全性。

自然语言问题(例如“收入”或“NRR”)需映射到具体的指标定义,包括正确的筛选条件(如“仅包含已关闭并赢单”)、默认时间窗口及允许的粒度。

示例问题:

“过去两个季度的 NRR 是多少?按企业客户与商业客户拆分。”

 

语义视图的应用:

  • 指标:NRR(定义包含客户群组与续约逻辑);

  • 维度:季度、客户细分;

  • 默认筛选条件:排除内部/测试账户;

  • 时间逻辑:最近两个财务季度。

结果输出:

  • 按季度与客户细分呈现的 NRR;

  • 指标定义参考(NRR vX);

  • 所用查询参数(时间窗口、客户细分映射关系)。

关系与身份层(本体):概念与绑定

该层定义了规范化实体(例如客户、账户、工单)及其之间的类型化关系,同时提供与数据世界之间的绑定(ID、语义对象、表)。该层还涵盖同义词/别名处理以及跨系统的身份映射。对于跨领域问题,通常需要将同一真实世界实体在不同系统中的不同标识符进行关联(例如 CRM 中的账户 ID 与支持系统中的组织 ID)。本层提供上述映射能力以及连接各领域所需的关系结构。

在一项内部实验中,我们构建了一个需要多个语义视图才能回答的查询集,并从最终答案准确率、总延迟和工具调用次数三个维度进行性能评估。实验发现,与遵循最佳实践的基线相比,仅需向智能体补充一份纯文本的“数据本体”(包含连接键、表粒度及基数/扇出提示),即可实现以下提升:最终答案准确率提高 20%,平均工具调用次数减少约 39%,端到端延迟降低约 20%。

以下是查询集示例:

问题:

“显示我负责的客户名录中未关闭的升级工单,以及每项面临风险的年度经常性收入。”

 

关系/身份使用情况:

  • 规范化实体:客户

  • CRM 映射:客户↔ CRM.AccountId

  • 支持系统映射:客户↔ Support.OrgId

关系:

客户拥有支持工单

客户拥有合同(含年度经常性收入)

 

执行计划:

1) 在 CRM 中查找负责区域内的账户

2) 映射 CRM.AccountId →客户

3) 映射客户→ Support.OrgId →未关闭的升级工单

4) 映射客户→合同/年度经常性收入(财务语义对象)

5) 在客户粒度上关联结果

操作手册(指令集):流程与路由

这是一套受管控的指令集合,描述了智能体处理特定意图时应遵循的方式,具体包括:路由至权威数据源、必要的澄清步骤以及必需的检查项(例如,“定价必须使用认证表格”或“禁止披露赢单率”)。

某些问题需要一致的程序化处理。手册为不同用户与渠道(如智能体、商业智能助手、嵌入式应用)提供了标准化的执行路径:

问题示例:

“针对欧洲、中东及非洲(EMEA)地区的客户,产品 X 的价格是多少?”

 

手册编号:定价查询

操作步骤:

1) 确认上下文:客户细分、合同类型、生效日期。

2) 路由至权威的定价语义对象(已认证)。

3) 应用适用于欧洲、中东及非洲(EMEA)地区的区域/货币规则。

4) 返回结果:价格+生效日期+所使用的数据源。

溯源与可解释性:使用了什么以及如何使用

此层提供关于答案如何生成的可审查记录:包括所选用的语义对象、应用的过滤条件、执行的关联操作,以及确立的时间戳/数据新鲜度。对于冲突情况,可包含选定哪个数据源及其采用的规则。

用户常会提出诸如“这是怎么算出来的?”或“为什么这份数据与另一份报告不同?”的追问。溯源机制为回答此类问题提供了一致性依据:

问题示例:

“第四季度的流失率是多少?为什么与上周的报告不同?”

 

溯源返回:

  • 指标:Churn_Rate(定义版本 v2.4);

  • 过滤条件:排除非自愿流失;

  • 时间窗口:FYQ4(财年日历);

  • 数据源:计费事件表(截至时间戳)、客户状态快照。

与上周差异对比:

  • 定义由 v2.3 变更为 v2.4;

  • 对计费事件表执行了回填操作。

事件与决策记忆:状态与原理

该层存储与业务实体关联的事件轨迹及决策产物,具体包括:审批记录、事件时间线、变更事件,以及相关的工单或沟通线程。此记忆层可集成至多种应用场景,例如:分析场景:构建正确的关联查询逻辑;业务概念定义:记录指标计算口径的变更;数据对账场景:在信息冲突时,判断应采信哪一方的数据依据。该层为“为何”类核心问题提供证据支撑。许多工作流所需的解释必须根植于操作历史记录,而非仅依赖当前状态快照。

问题示例:

“为何批准了 Acme 公司 20%的折扣?由谁批准?”

 

检索到的证据:

  • 审批工作流记录(请求内容、审批人、时间戳);

  • 审批人填写的备注或理由字段;

  • 关联的交易支持工单记录;

  • 相关政策阈值参考依据(如适用)。

 

回答内容应包含:

  •  审批人及对应时间戳;

  •  已记录的审批理由;

  •  支撑性产物的链接或唯一标识符。

为何这不属于提示工程范畴

人们易产生一种错觉,认为仅凭精巧的提示词设计即可替代智能体工程方法论。然而,在大规模实际应用中,纯依赖提示词的系统往往会迅速失效:其运作机制不透明、难以审计,且行为会随时间发生漂移。

采用智能体工程方法论则可提供持久且可治理的产物,具体体现在:

  • 变更控制:支持可审计、带版本管理的发布上线流程;

  • 可审计性:提供可解释的路由决策逻辑、关联查询规则及定义说明;

  • 互操作性:以统一的语义基础层同时赋能商业智能工具与智能体运行;

  • 治理能力:规则不再是建议性指导,而是转化为可强制执行的约束条件;

  • 可复用性:支持业务概念经一次建模后,在不同上下文中被多次复用,避免重复定义。

智能体上下文的创建与维护:AI 如何改变其经济性

随着像 Cortex Code 这类强大智能体的兴起,构建与维护智能体上下文的任务已变得更加可行。大多数商业语义层难以成功落地的原因很简单:构建成本高昂、信息更新滞后,且其演进速度难以跟上业务发展的步伐。借助 AI 智能体,相关工作流程可被大幅简化——智能体能够阅读文档、知识图谱、本体、聊天记录及其他记录系统,从而创建上下文并保持其时效性。

以下是一个高度简化的 AI 智能体工作流程:

1. 从智能体与精选语义层入手(利用现有仪表板和查询历史记录)。

2. 从现有来源中逐层添加智能体上下文,包括:现有表的元数据、历史查询与使用模式、文档、运维手册、现有本体以及代码流水线。完成此步骤后,应已构建出一个功能较为强大的智能体。

3. 从真实使用模式中学习。

4. 提出改进建议,如同义词、映射关系及缺失的关联等。

5. 将人工审批纳入闭环流程。

6. 在持续扩大覆盖范围的同时,不断降低成本。

预测与结语

以下是我们对该领域未来演进方向的一些展望:

  • 随着模型本身逐渐商品化,胜出的架构会将“智能体上下文”而非模型本身,视为产品的核心;

  • 最成功的智能体会聚焦于需要解决的业务问题,而非将目光锁定在诸如本体这类单一产物上;

  • 语义模型将继续作为受治理指标与可信领域分析的锚点。当智能体成为这一上下文的主要消费者时,保持这些语义层及时更新、对齐且机器可读的压力会不断增加,从而推动它们从静态的文档产物转变为动态的、被积极维护的资产;

  • 由 Cortex Code 这类 AI 智能体驱动的智能体上下文层的生成与持续演进,将获得更多投入;

  • 随着采用规模扩大,我们预计会出现促进跨平台互操作性的标准,让大语言模型(LLM)能够更轻松地解读这些上下文层,并在不同工具与生态中保持一致地执行操作。诸如 开放语义交换协议(OSI) 等举措,正是为了实现此类互操作性。

 

总体而言,我们相信元数据与数据目录建设将重获关注。这些语义层将越来越多地由人类与智能体协同维护。

最新进展

如果您是数据团队高管,正在构建需要复杂上下文处理与跨领域编排的智能体,我们诚邀您了解我们的最新进展:

语义视图: 了解如何构建跨领域编排的基础

Snowflake Intelligence:了解我们如何将业务保障规则整合到统一智能层中

原文地址:https://www.snowflake.com/en/blog/agent-context-layer-trustworthy-data-agents/

点击链接立即报名注册:Ascent - Snowflake Platform Training - China更多 Snowflake 精彩活动请关注专区

 

1 概述 永嘉微电 Vinka Microelectronics VK1622S-1是一个点阵式存储映射的LCD驱动器,可支持最大 256点(32EGx8COM)的LCD屏。单片机可通过3/4线串行接 口配置显示参数和发送显示数据,也可通过指令进入省电模 式Z105+164

2 特点 VK1622S-1 32×8 LCD显示驱动芯片 Rev.1.3 16-July-2024 1/32
• 工作电压 2.4-5.2V
• 内置32 kHz RC振荡器(上电默认)
• 可外接32kHz时钟源(OSCI)
• 偏置电压(BIAS)固定为1/4
• COM周期(DUTY)固定为1/8
• 内置显示RAM为32x8位
• 蜂鸣器频率可配置为2kHz、4kHz
• 省电模式(通过关显示和关振荡器进入)
• 时基和看门狗共用1个时钟源,可配置8种频率
• 时基或看门狗溢出信号输出脚为/IRQ脚 (开漏)
• 3/4线串行接口
• 软件配置LCD显示参数
• 写命令和读写数据2种命令格式
• 读写显示数据地址自动加1
• VLCD脚提供LCD驱动电压(≤VDD)
• 封装 LQFP44(10.0mm×10.0mm PP=0.8mm) LQFP52(14.0mm×14.0mm PP=1.0mm) LQFP64(7.0mm×7.0mm PP=0.4mm) QFP64(20.0mm×14.0mm PP=1.0mm) DICE COG

RAM映射LCD控制器和驱动器系列:
VK1024B  2.4V~5.2V   6seg4com  63   6*2    偏置电压1/2 1/3   S0P16 省电模式
VK1056B  2.4V~5.2V   14seg4com 143  14*2   偏置电压1/2 1/3   SOP24 省电模式
VK1056C  2.4V~5.2V   14seg4com 143  14*2   偏置电压1/2 1/3   SSOP24 省电模式
VK1072B  2.4V~5.2V   18seg4com 183  18*2   偏置电压1/2 1/3   SOP28 省电模式
VK1072C  2.4V~5.2V   18seg4com  183  18*2  偏置电压1/2 1/3   SOP28 省电模式
VK1072D  2.4V~5.2V   18seg4com  183  18*2   偏置电压1/2 1/3   SSOP28 省电模式
VK1088B  2.4V~5.2V   22seg4com  223  222   偏置电压1/2 1/3 QFN32(44mm PP=0.4mm)超小体积
VK1128C 2.4V~5.2V  32seg4com 323 322 偏置电压1/2 1/3 QFN48 (55mm PP=0.35mm)超小体积
VK0192M  2.4V~5.2V   24seg*8com          偏置电压1/4     LQFP44 省电模式
VK0256   2.4V~5.2V   32seg*8com          偏置电压1/4     QFP64 省电模式
VK0256B  2.4V~5.2V   32seg*8com          偏置电压1/4     LQFP64 省电模式
VK0256C  2.4V~5.2V   32seg*8com          偏置电压1/4     LQFP52 省电模式
VK0384   2.4V~5.2V 48seg*8com          偏置电压1/4     LQFP64 省电模式
VK1621 2.4V~5.2V   32seg4com 323 32*2  偏置电压1/2 1/3  LQFP44(QFP44正方形)/LQFP48/SSOP48/SDIP28;DICE/DIE裸片(绑定COB);COG(绑定玻璃) 省电模式
VK1622  2.4V~5.2V   32seg*8com          偏置电压1/4 LQFP44/LQFP48/LQFP52/LQFP64/QFP64;DICE/DIE裸片(绑定COB);COG(绑定玻璃) 省电模式
VK1623   2.4V~5.2V   48seg*8com          偏置电压1/4     LQFP100/QFP100;DICE/DIE
裸片(绑定COB);COG(绑定玻璃) 省电模式
VK1625   2.4V~5.2V   64seg*8com          偏置电压1/4    LQFP100/QFP100;DICE/DIE
裸片(绑定COB);COG(绑定玻璃) 省电模式
VK1626   2.4V~5.2V   48seg*16com          偏置电压1/5    LQFP100/QFP100;DICE/DIE裸片(绑定COB) 省电模式
超低功耗LCD液晶控制器及驱动系列:
VKL060   2.5~5.5V 15seg*4com  偏置电压1/2 1/3  I2C通讯接口 SSOP24 超低功耗/抗干扰
VKL076   2.5~5.5V 19seg*4com  偏置电压1/2 1/3  I2C通讯接口 SSOP28 超低功耗/抗干扰
VKL128   2.5~5.5V 32seg*4com  偏置电压1/2 1/3  I2C通讯接口 LQFP44 超低功耗/抗干扰
VKL144A  2.5~5.5V 36seg*4com  偏置电压1/2 1/3  I2C通讯接口 TSSOP48超低功耗/抗干扰
VKL144B  2.5~5.5V 36seg4com  偏置电压1/2 1/3  I2C通讯接口 QFN48(66超小体积) 超低功耗/抗干扰
——————————————————————————————————————————————————
静态显示LCD液晶控制器及驱动系列:
VKS118  2.4~5.2V 118seg*1com  偏置电压 --     4线通讯接口 LQFP128 可视角大,对比度好,不闪烁
VKS232  2.4~5.2V 116seg*2com  偏置电压1/1 1/2 4线通讯接口 LQFP128 可视角大,对比度好,不闪烁
(永嘉微电/VINKA原厂-FAE技术支持,主营LCD驱动IC; LED驱动IC; 触摸IC; LDO稳压IC; 水位检测IC)
LCD驱动、液晶显示IC、LCD显示、液晶显示、显示LCD、段码液晶屏驱动、LCD液晶显示、段码屏LCD驱动、LCD显示驱动芯片、LCD显示驱动IC、液晶驱动原厂、LCD屏驱动、液晶屏驱动、驱动LCD、驱动液晶、LCD驱动控制器、液晶显示驱动原厂、段码LCD驱动、液晶段码屏驱动、液晶显示驱动芯片、点阵式液晶显示驱动、点阵式液晶显示IC、液晶驱动IC、液晶驱动芯片、LCD芯片、液晶芯片、液晶驱动控制器、液晶IC、段码驱动显示IC、笔段式液晶驱动、LCD液晶显示驱动、液晶LCD显示驱动、段码屏驱动厂家、段码驱动IC、段码驱动芯片、段码屏显IC、

现代湖仓架构的愿景是构建一个统一的数据层,使 Snowflake、Spark、Trino 和 Flink 等各类计算引擎都能够借助 Apache Iceberg 等开放标准实现无缝互操作。

 

尽管数据存储和元数据格式标准化方面已经取得了显著的进展,但仍然存在严重的互操作障碍:不同数据库引擎之间没有一种通用的语言。由于各厂商支持的功能存在差异,所以支持一种通用的 SQL 方言是一件很有挑战性的事,但我们要指出的是,即便在标识符(数据库、模式、表、表列等)这种最基础的方面,也存在不一致之处。

 

每种引擎在处理和规范化标识符时都有自己的历史规则,从而形成了一种“巴别塔”效应:各个工具之间无法在数据库对象命名上达成共识,妨碍了组织构建受控、统一且现代化的 AI/Data 系统的目标。随着组织从孤立的数据湖向湖仓架构转型,这一问题变得越来越明显,这些微妙的标识符问题已经在数据管道的可靠性和一致性方面引发问题。

湖仓中 SQL 方言的互操作鸿沟

为了理解这个问题,让我们通过一个场景来分析下:一名数据工程师使用以下命令在 Spark 中创建了一个表:

SQL CREATE TABLE my_lakehouse.MyTable (id INT, value STRING); SELECT * from my_lakehouse.mytable; — 成功返回结果
复制代码

默认情况下,Spark 会在 Apache Iceberg 目录中以与提供时完全一致的大小写形式将表名持久化:MyTable。随后,有一位业务分析师试图从 Flink 或 Trino 中查询该表:

SQL -- 尽管该查询在 Spark 上能执行成功,但在 Flink 和 Trino 上却会因不同原因而失败SELECT * FROM my_lakehouse.mytable;
复制代码

 

Flink 会完全保留标识符的原始输入形式,因此,当分析师输入 mytable 时,Flink 会将 mytable 发送至目录,而目录中存储的表名为 MyTable。如果目录执行查找时区分大小写,那么就无法找到这个表。即使表解析出来了(例如通过不区分大小写的目录),列级访问仍然会严格区分大小写:对于查询 “SELECT Id FROM MyTable”,如果该列在 Iceberg 元数据中是按 id 存储的,那么查询依然会失败。Flink 将返回错误:“在任何表中均未找到列 ‘Id’;您是否想查询 ‘id’?

 

由于 SQL 方言的差异,Trino 会带来另一种挑战。 Trino 会将标识符转换为小写,因此对 MyTable 或 mytable 的查询都是查找 mytable(小写)。如果 Spark 将该表持久化为 MyTable 或 MYTABLE,那么 Trino 区分大小写的目录查找将无法找到匹配项。

 

Trino没有对带分隔符的标识符提供一等支持,因此,即使用户尝试指定大小写规则,针对非小写元数据条目的解析依然会失败。实际上,这会导致 Trino 引擎无法发现创建时表名使用了大写或大小写字母组合的表。

图 1. 展示主流数据库引擎中标识符问题的多引擎湖仓架构

 

在实践中,数据架构师通常借助DBTSQLMesh等中间工具,将 SQL 代码编译为适用于不同查询引擎的格式,从而避免工作负载与单个查询引擎的紧耦合。虽然转译有助于减少为每个引擎重写工作负载带来的麻烦,但它无法防止架构师锁定那些在不同引擎间不兼容的标识符设计方案。

为什么现在是问题了?

在数据库领域,这一挑战并不是什么新鲜事,因为在历史上,数据库迁移就曾遇到过类似的 SQL 方言不一致问题。然而,在传统的孤岛式环境中,工作流受限于单一的引擎规则,人们往往觉得一次性的迁移困难很平常。而在现代湖仓架构中,多个引擎会同时处理同一组数据,这种痛点会始终存在。当 Spark 将 Table1 和 table1 视为不同的对象,而 Trino 却将其视为相同的对象时,自动化管道和跨引擎工作流就可能会失败,并导致严重的数据损坏或契约违背。

 

解决这种 SQL 方言互操作性问题,主要责任在于制定湖仓战略的组织,而非由单一目录或数据库平台来解决。本文将深入探讨不同目录和数据库之间的技术细节及行为差异,希望能帮助架构师设计出更具韧性的湖仓战略。

技术概览

标识符名称解析涉及到一套规则,其中规定了标识符中可以包含哪些字符,以及如何将标识符规范化为规范化的大小写形式(CNF),从而方便进行比较,并存储在元数据和存储系统中。在湖仓架构中,由不同供应商独立开发的多个组件需要相互协作,才能产生一种“有效”的标识符行为,这可能会打破现有工作负载的假设。

 

下图展示了湖仓架构中标识符解析与持久化的整体流程,并列出了涉及的各个组件:

图 2. 标识符解析的高级流程图

 

因此,有必要对不同供应商的数据库引擎和目录进行调研,以了解其“实际”的行为及常见的陷阱。

行为调查:目录和引擎

本节将介绍不同数据库引擎和目录所采用的各种约定。我们将首先分析最常用的数据库引擎的行为,随后分析最常用的目录。

数据库引擎层差异

数据库引擎在与目录层交互时采用不同的逻辑。

数据库引擎层差异对比

目录层差异

目录是实体名称的权威来源,但其具体实现方式各不相同。

  • Apache Polaris 遵循 Apache Iceberg 规范。它接受通过 REST 接口提供的字符串,并在查找时进行区分大小写的匹配。

  • Databricks Unity Catalog 会将标识符标准化为小写。当 Spark 用户(他们可能期望区分大小写)与 Unity Catalog 中已经标准化为小写的对象进行交互时,这种标准化可能会导致不同的结果。

  • AWS Glue Data Catalog 会自动将大写实体名称转换为小写。

 

这三层(用户意图、数据库引擎和目录)之间的语义差异会导致隐蔽的故障和下游风险,进而可能导致日后需要耗费大量的成本进行重写。

场景演示

虽然从技术规范上看,每种引擎的解析逻辑在标识符处理方式上存在着明显的差异,但要真正理解这些选择所带来的实际影响,最好通过其运营后果来分析。以下两个场景非常具有代表性,因为它们并非基于单个客户案例,而是综合了多个真实案例。公司名称和具体细节均为虚构,但故障模式、错误信息和解决方案都是生产环境中实际遇到的。

 

对于为何一个组织选择了保留大小写的目录,而另一个则选择了规范化为小写的目录,我们做了分析,这两种选择均未提供放之四海而皆准的解决方案,而是各自以一种故障模式换取了另一种故障模式。

场景 A:NovaPay 使用保留大小写的目录(Polaris)

NovaPay 是一家金融科技公司,每天在 15 个国家处理超过 200 万笔交易。其数据架构包含 Apache Polaris(REST 目录)、用于 ETL 的 Spark、用于即席分析的 Trino、用于商业智能报告和机器学习的 Snowflake,以及用于实时欺诈检测的 Flink。他们选择了 Polaris 默认保留大小写的行为,以便在 400 多个表中保持驼峰式命名规范。

 

开始的时候, Spark 管道运行得非常顺畅,因为 Polaris 会完全按照输入的方式存储标识符。

CREATE TABLE payments.dailyTransactions (    transactionId STRING,    merchantName STRING,    paymentAmount DECIMAL(10,2),    processingDate DATE); -- 通过 spark 创建的表
复制代码

当分析团队开始使用 Trino 时,问题随之而来:

SELECT * FROM payments.dailytransactions;-- Trino 会将其转换为小写 “dailytransactions”,Polaris 显示 “dailyTransactions” → 404
复制代码

该模式与已经记录的行为相符:其中,包含大写字母的表在浏览时会被转换为小写,而且,根据用户反馈,“来自 Iceberg REST 目录的区分大小写的标识符无法在 Trino 查询中引用,因为它们在传递给 REST 目录时已经全部被转换为小写”。实际上,这四百多个表对分析团队而言是不可见的。通过目录关联数据库(CLD)实现的 Snowflake 集成可以提供帮助,因为 CLD 会采用不区分大小写的解析方式将表名规范化为小写,从而使表可以被发现。然而,Flink 欺诈检测团队遇到了列级故障: Iceberg 元数据将 transactionId 存储为大写形式,而 Flink 采用区分大小写的解析方式,因此导致 SELECT transactionid 语句执行失败。为了解决这个问题,NovaPay 进行了一次迁移,将所有表重命名为 snake_case(即所有字母均为小写,单词间以下划线分隔的命名规范),并添加了 CI 代码检查规则,未来任何不使用小写的标识符都将被拒绝。

场景 B:小写规范化目录 (AWS Glue)

MediStream 是一家医疗健康分析初创公司,负责处理来自五十多家医院系统的患者记录,其数据架构如下:AWS Glue(目录)、基于 EMR 的 Spark 用于 ETL、基于 Trino 的 Athena 用于分析师查询,以及基于 Kinesis 的 Flink 用于实时警报。

 

这家初创公司之所以选择 AWS Glue,是因为他们是一家原生 AWS 环境的公司,并且期望 AWS Glue 目录的小写规范化功能能够帮助他们避免任何跨引擎的大小写问题。

 

团队立刻就遇到了瓶颈,因为 Glue 拒绝了他们采用 PascalCase 格式的表名:

# PySpark ETL jobspark.sql("""    CREATE TABLE glue_catalog.clinical.PatientVitals (        PatientId STRING,        HeartRate INT,        BloodPressure STRING,        RecordedAt TIMESTAMP    )""")Error: `ValidationException: 不能使用 PatientVitals 作为 Glue 表名,因为表名必须由 1 至 255 个字符组成,且仅包含小写字母、数字和下划线`
复制代码

这个问题与用户报告的另一个问题类似,即 Spark 无法跳过 Glue 的表名验证。团队花了两周时间,将八十多个表和 ETL 脚本重写为 snake_case。基础设施即代码(IaC)又增加了一个摩擦点: Glue 会将 Terraform 发送的大小写混合的名称默默转换为小写,因此, Terraform 会检测到持续不断的漂移。

 

即使是对表名进行标准化处理之后,列级问题依然存在。Glue 可以控制表名,但列名存储在 Iceberg 元数据中,因此,最初由 Spark 创建的 PatientId 列仍然保留着大小写混合的格式。基于 Trino 的 Athena 会在内部自动转为小写,从而透明地处理这个问题,但 Flink 要求严格区分大小写,这就导致同一张表在某个引擎上运行正常,而在另一个引擎上却会失败。为解决这些问题,MediStream 重建了早期的表,使用了小写的列名,将 Terraform 配置为小写,并在任何 CREATE TABLE 操作之前添加了一个验证步骤,拒绝不使用小写的列名。

如何选择你的数据库引擎组合?

作为实践者,以下决策框架可帮助你构建一个数据湖仓,并最大限度地减少与大小写敏感相关的问题。最具影响力的决策是选择一组能在数据湖仓中协同工作的引擎。你可以参考以下兼容性矩阵:

✅ = 兼容而且不需要做额外的工作

⚠️ = 兼容,但需要强制采用小写命名标准

⚠️⚠️ = 部分基础功能可用,但只靠小写命名规范不能完全解决问题(列级问题依然存在)

 

Spark 和 Snowflake(CLD)具有广泛的兼容性,因为二者在解析时均不区分大小写,表可以在它们之间无缝迁移。DuckDB 也采用不区分大小写的解析方式,因此同样兼容。Trino 严格的小写规范化机制会与保留大小写的引擎(例如 Spark、Flink 和 DuckDB)产生冲突,除非所有标识符原本就是小写。Flink 的要求最为严格,因为其区分大小写的解析机制会使得任何列大小写不匹配便引发错误,因此,它是对命名规范要求最严格的引擎。

强制执行命名规范

为避免数据技术栈中出现可发现性及其他与大小写相关的问题,必须制定并严格执行一套适用于湖仓架构中所有工具的命名规范。最有效的策略之一是将所有标识符默认限定为小写并使用下划线,这种做法在各类引擎和目录中均被广泛接受。如果偏离这个默认设置,就需要谨慎地匹配引擎并调整其配置,确保它们在所有场景中都能正常地运行。

 

采用小写命名规范可以避免大多数问题,但湖仓架构中的每一层都提供了配置选项,可进一步减少与大小写相关的问题。在多引擎环境中,默认设置并不总是最优的选项。

湖仓技术栈的配置选项

跨引擎验证

强制执行命名规范可以避免大多数问题,但要确保真正的跨引擎可移植性,唯一的方法是进行端到端测试。设置一个轻量级的持续集成任务,通过主引擎创建一张表,并验证该表能否被栈中其他所有引擎发现和查询,这有助于发现任何集成问题。这些跨引擎问题——例如目录规范化中的意外情况、Iceberg 元数据中列级大小写不匹配以及解析差异——只有在验证过程包含跨多个引擎的交互时才会显现出来。

小结

现代湖仓架构承诺,任何引擎都可以连接和访问单一数据副本,这一愿景依然是数据架构的指导方向,但前文讨论的案例证明,仅靠共享存储和统一目录并不足以提供无缝的数据访问体验。这一问题的根源在于两种标识符解析方法之间存在着根本性的理念分歧:即保留大小写的保真度与规范化大小写的统一性。虽然某些引擎遵循高保真理念,即保留并解析对象的确切大小写形式,因为它们的设计初衷是维护元数据的丰富性。但对于严格遵循规范化理念的其他引擎而言,这种灵活性会导致部分数据无法被发现。为了确保符合 SQL 标准,这些引擎会强制将标识符转换为规范化的大小写形式,从而丧失了发现不合逻辑对象的能力。

 

这种冲突迫使架构师不得不做出艰难的权衡:他们要么接受“影子表”的风险,要么实施僵化的、仅限小写的约束,去除传统系统的命名约定。组织必须停止将标识符命名视为引擎偏好的问题,而应将其视为一项关键的数据契约。

 

无论引擎或目录采用何种机制,制定一套严格的、全组织通用的命名规范,都可以最大限度地减少各团队的摩擦。归根结底,要解决“巴别塔”问题,就需要转变思维方式:真正的互操作性不仅在于共享磁盘上相同的数据,更在于确保所有接触这些数据的引擎都遵循共同的语言规范。

 

声明:本文为 InfoQ 翻译,未经许可禁止转载。

 

原文链接:https://www.infoq.com/articles/lakehouse-sql-identifier-rules/

家里人磕马路牙子

已经叫了特斯拉道路救援,备胎服务

看轮胎有个口子,大概 4-5cm 长,2cm 宽

轮胎应该废了,轮毂磕了一点

有的说只换一条坏胎就行了,有的说磨痕不一样,得换两条

车子目前 1 万 7km (丐版) 🥹

对了,如果换轮胎,推荐京东还是途虎 我也不是很懂

2026年AI大模型训练、推理算力需求爆发,传统风冷机柜算力密度不足、能耗过高的痛点日益凸显,高密机柜+液冷技术,重构AI服务器托管新标准成为行业共识,为高负载算力场景提供全新解决方案。

一、2026高密机柜+液冷技术重构AI服务器托管新标准是什么

新标准是针对AI服务器高功率、高散热需求推出的托管规范,核心是通过高密机柜提升单位空间算力承载量,搭配冷板/浸没式液冷技术解决散热难题。

该标准由国内多家头部IDC企业、AI厂商联合制定,2026年起正式成为算力托管领域的主流参考规范,相比传统风冷托管标准算力密度提升3-5倍,PUE值降至1.1以下。

二、高密机柜+液冷技术重构的AI服务器托管新标准有哪些硬性指标

算力密度指标:单机柜支持功率不低于30kW,可承载8-16台AI训练服务器,单位空间算力密度较传统标准提升400%以上

散热能效指标:液冷系统散热效率不低于95%,数据中心全年PUE值稳定控制在1.08-1.15区间,远低于传统风冷1.4以上的平均水平

运维安全指标:液冷管路漏液监测响应时间小于10ms,配套7*24小时智能运维体系,故障响应时长不超过15分钟

带宽支撑指标:单机柜默认支持100G以上带宽接入,可按需扩容至800G,满足大模型集群分布式训练的低时延数据传输需求

三、企业AI大模型集群部署怎么满足高密机柜液冷服务器托管新标准

企业首先要根据自身大模型训练、推理的算力规模,测算所需机柜功率、服务器数量及带宽需求,优先选择已落地新标准的专业IDC服务商完成部署。

国内头部IDC服务商极云科技已完成全国12个核心节点的液冷高密机柜改造,可提供符合新标准的服务器托管、机柜租用、带宽接入服务,适配百P级大模型集群部署需求,咨询可拨打电话获取定制方案。

其次要提前完成服务器硬件适配,优先选择标配冷板液冷接口的AI服务器,避免后续改造产生额外成本,同时和IDC服务商同步运维需求,制定专属运维保障方案。

对于中小规模AI企业,也可选择共享式液冷高密机柜,按需申请算力资源,降低初期投入成本。

对AI企业而言,新标准可降低30%以上的托管成本,算力交付周期缩短50%,同时更低的PUE值可减少碳排放,满足双碳政策要求。

目前极云科技已为20余家头部AI企业提供符合新标准的集群托管服务,平均算力运维稳定性达99.995%,帮助企业大模型训练效率提升20%以上。

2026年高密机柜+液冷技术,重构AI服务器托管新标准已经进入规模化落地阶段,是AI算力基础设施升级的核心方向,企业选择符合新标准的托管服务商,可有效提升算力运行效率,降低整体运营成本。

在上一篇中,我们探讨了 OSE 如何通过语法层面的“减法”解决了 AI 时代的逻辑臃肿。然而,一门语言的成功从来不仅仅取决于语法本身,更取决于其背后的生态系统。
长期以来,编程世界被划分为一个个互不兼容的“孤岛”。OSE 配合 Codigger 体系的出现,正是为了打破这种工具链的割裂,实现从单打独斗到全球协作的范式转移。
一、 传统语言的“围墙花园”
在传统开发范式下,学习一门新语言(如 Swift 或 Kotlin)往往意味着需要接纳一套沉重的 IDE 和全新的工具链。这种“全家桶”式的捆绑带来了明显的生态痛点:
环境配置的复杂性:开发者常耗费数小时甚至数天在配置路径、安装依赖和调试环境上。
语言间的“生殖隔离”:不同语言编写的模块往往难以无缝交互,跨平台调用往往伴随着巨大的性能损耗和兼容性风险。
这种“围墙花园”模式虽然在特定生态内维持了秩序,却在宏观上限制了开发者跨界创新的自由。
image.png
二、 借壳生长:Rainbow 转译器的平滑迁移
与传统编译器(如 GCC 或 LLVM)追求直接生成底层二进制指令的逻辑不同,OSE 采取了一种更务实的“借壳生长”策略。

  1. Rainbow 转译器的逻辑
    Rainbow 并不试图颠覆现有的所有开发工具,而是充当一座“彩虹桥”。它将 OSE 的逻辑转译为 Vim8 脚本 等成熟的编辑器语言。
  2. 为什么是 Vim?
    选择在 Vim 等老牌、稳定的开发者工具上构建生态,具有深远的战略洞察:
    零成本迁移:全球数以百万计的极客已经习惯了 Vim 的操作逻辑。Rainbow 让开发者无需离开熟悉的编辑环境,就能享受 OSE 带来的现代编程特性。
    极致轻量:避开了臃肿的现代化 IDE 负担,OSE 的生态能够以极轻量的方式迅速植入到任何已有的工作流中。
    这种“转译而非重构”的逻辑,让 OSE 绕过了新语言早期最难熬的工具链建设期,直接站在了成熟生态的肩膀上。
    image.png
    三、 协作 2.0:从代码托管到技术共识
    开源 1.0 时代是以 GitHub 为核心的纯代码协作,由于缺乏原生 AI 支持,知识的传递依赖于手动编写的文档和 Stack Overflow 等社区的问答。
    在 Codigger 体系下,OSE 的协作模式发生了质变:
    自动化知识沉淀:利用 Feather 辅助层,系统能够自动根据代码逻辑生成结构化文档和测试用例。这意味着代码库不再是死板的字符堆砌,而是自带解释权的活性资产。
    分布式操作系统赋能:Codigger 本身的分布式特性,使得开发者可以在全球范围内共享算力和逻辑节点。
    建立全球技术共识:以日本技术社区(如 Qiita 或 Zenn)为例,开发者们正通过 OSE 的确定性语法建立起一种全新的沟通标准。因为代码意图极其明确,跨国界的协作不再受限于语言和文档的翻译偏差。
    image.png
    四、 多语言奇点(Polyglot Singularity)
    OSE 最终的角色并非仅仅是 Codigger 的官方开发语言,它更像是联结不同平台、语言与 AI 的 Rainbow Bridge。
    当我们站在“多语言奇点”这一时刻回望,会发现编程语言的门槛正在消失。当复杂的语法、繁琐的环境配置和割裂的工具链都像“羽毛(Feather)”一样变得轻盈时,人类的创造力将不再受制于技术琐事。

作为长期扎根财经技术领域、专注分享实操干货的博主,经常在思否看到不少量化交易者和开发团队提问:逐笔成交监控该怎么落地?为什么用常规数据监控,总抓不到市场的核心波动?
前阵子,我接手了一个逐笔成交实时监控的相关开发任务,从需求拆解到落地调试,踩了不少开发者常遇的坑,也慢慢理顺了整套实操逻辑。今天就以第一人称,把这份实测经验分享给大家,全程贴合思否的技术交流氛围,无冗余、全干货,兼顾专业性和可操作性,帮各位同行少走弯路。

先跟大家聊核心需求:不管是量化交易策略优化,还是团队做实时风险管控,逐笔成交监控的核心诉求都是“精准、实时”——要能捕捉到每一笔成交的细节,掌握市场的瞬时变化。但很多开发者都会陷入一个误区,误用数据类型,导致监控效果大打折扣。
我们日常接触的行情相关数据,主要分为两类,两者的差异直接决定了监控的精准度。一类是大家常用的K线数据,它是对一段周期内的成交情况进行汇总统计,适合观察长期趋势,但延迟较高,无法反映市场的瞬时波动;另一类就是tick数据,它相当于市场的“实时成交明细”,每一条数据都对应一笔真实的成交,能清晰呈现成交时间、价格、数量等核心信息,这也是实现逐笔监控的关键所在。
这就引出了很多开发者的核心痛点:明明想做实时监控,却因为选错数据类型、接入方式不当,导致延迟过高、数据缺失,最终影响策略判断或风险管控效果。而解决这个痛点的关键,就在于选对接入方式、吃透数据结构,做好异常处理。

接下来,我结合自己的实操经验,一步步拆解逐笔成交监控的落地流程,从接入思路到数据处理,再到异常应对,每一步都讲得明明白白,新手也能快速上手。
首先是接入方式的选择,这是保证实时性的核心。逐笔成交监控对实时性要求极高,延迟一旦超标,监控就失去了实际意义。我一开始尝试用HTTP接口接入,虽然操作简单、上手快速,但每次请求都需要完成完整的请求-响应流程,延迟无法避免,根本无法满足实时监控的需求。
经过多次测试调试,我最终选择了WebSocket接口,它能维持持久连接,无需重复建立连接,服务器可实时推送数据,大幅降低延迟,完美适配逐笔监控的场景。这里跟大家提一句,我这次实操中用到了AllTick API,它提供的WebSocket接口较为完善,能便捷订阅指定标的的逐笔成交数据,省去了不少底层开发的工作量,适合各类开发者快速落地。

具体的接入流程并不复杂,梳理下来主要有四个步骤,大家可以直接参考:第一步,建立WebSocket连接;第二步,向服务器发送订阅请求,明确需要监控的标的;第三步,接收服务器推送的tick数据,并在客户端完成处理和存储;第四步,实现异常断线时的重连和补数据逻辑,确保监控不中断。
接入tick数据后,不要急于推进后续开发,先吃透数据结构,这是避免后续出现逻辑漏洞的关键。经过实操总结,每一条tick数据都包含四个核心字段,我整理成了清晰的表格,方便大家快速理解和查阅:

字段名含义
时间戳该笔成交发生的具体时间
价格该笔成交的实际价格
数量该笔成交的数量
成交类型分为买入、卖出、中性三种类型

这四个字段组合起来,就能完整还原每一笔成交的全貌,构建出实时的市场快照。对我们开发者来说,重点要关注价格和数量的连续变化,以及成交类型的切换,这些直接关系到后续策略触发的精准度和风险告警的有效性,也是很多新手容易忽略的细节。
结合我的实操经历,分享两个实用的数据处理小技巧,亲测能有效避坑,提升开发效率:一是对价格和数量进行基础过滤,剔除极端价格、异常数量等无效数据,防止干扰核心业务逻辑;二是采用队列或流式处理库,对实时推送的tick数据进行顺序处理,避免因并发问题导致的数据顺序混乱。

我在实操中采用Python的asyncio实现WebSocket数据接收,将数据处理和存储都放在协程中运行,经过多次调试,整体延迟可以控制在几十毫秒以内,完全满足逐笔成交监控的实时性需求,大家可以参考这个配置方案。
除了数据接入和处理,异常处理也是逐笔成交监控中不可或缺的环节,很多开发者就是因为忽略了这一点,导致项目上线后出现监控中断、数据缺失等问题,影响最终效果。结合我的实操经验,分享三个实用的异常处理方法,大家可以直接应用到开发中:
第一,设置断线立即重连机制,一旦WebSocket连接断开,立即触发重连逻辑,重连成功后自动重新订阅目标标的的tick数据,确保监控不中断;第二,针对短时间内丢失的数据,通过历史补全接口进行补齐,保证数据的连续性——我在测试时就遇到过行情活跃度骤增,因缺少补数据逻辑,导致统计出现明显缺口,差点影响后续判断;第三,添加完善的日志和告警机制,一旦出现异常,能快速定位问题、及时排查,尤其适合团队开发场景,提升协作效率。
聊完技术实操,再跟大家说说tick数据逐笔监控的实际应用场景,毕竟技术最终要落地到实际需求中。我在完成相关开发后,做了一个简单的测试,通过接入tick数据,订阅了几只热门标的的逐笔成交,每收到一条数据,就实时标记价格和数量的变化,并将异常波动可视化呈现。
测试效果很理想,无需等待几分钟的K线聚合,就能直观看到市场的瞬时波动,就像观察市场的“心跳”,每一笔成交都像脉搏一样跳动。这种监控方式,对于量化交易者、风控人员和行情分析从业者来说,实用性极强:

对于量化交易者,能第一时间捕捉买卖力量的变化,优化策略的触发时机,避免错过核心机会;对于风控人员,能实时监控异常价格波动,及时发出告警,降低潜在风险;对于行情分析从业者,能获得最真实、最细腻的市场反馈,避免被汇总后的K线数据“掩盖”关键信号。
最后,给各位思否的同行分享一个实操小技巧,尤其适合刚接触tick数据监控的新手:初期不要贪多,先订阅几只自己最关注的标的,将数据处理逻辑放在异步队列中运行,这样即便行情突然活跃,系统也能稳定运行,不会出现卡顿;同时,用简单的颜色或符号标记异常波动,调试起来更直观,能快速捕捉核心信号。
结合这次的实操经历,也跟大家分享一点个人体会:玩转tick数据,从来不是靠死读接口文档,而是要亲手实操,慢慢理解每一条数据背后的逻辑。WebSocket接入、异步处理这些技术,初期可能会觉得繁琐、绕弯,但只要多调试、多总结,理顺流程后,实时性和稳定性自然就上来了。
其实,实现tick数据逐笔成交监控的关键,不在于追求极致的性能,而在于精准把握数据特点、做好数据处理和异常应对逻辑。耐心调试的过程中,你会发现很多隐藏的细节——比如价格波动的规律、数量的变化趋势,这些细节,正是tick数据的核心价值所在。
希望这篇实测分享,能给思否里正在做相关开发、量化交易的同行们提供一些参考。如果大家在实操过程中遇到其他问题,或者有更好的经验技巧,欢迎在评论区交流讨论,咱们一起避坑、一起进步,把开发工作做得更高效、更稳定。

2026.4.21
生活随笔日记 15 被鸽子了

最近在按照豆包教程提高自己的性生活时长,因为长时间没有性生活,看片打飞机,几分钟就结束了战斗,很久之前去过医院看医生,测过敏感值,医生给我开了些药,要我去医院旁边的小药店去买我就感觉不是很靠谱,然后只买了一点,忘记药名了应该是些保健品类的补品药物吧,吃了感觉也没什么变化。后面也按照视频教程练过一段时间,但都没有实战对象,也没有在坚持练习了。所以最近在问豆包这些相关的提高时长练习的方法,感觉比较科学,加上自己的理解在这里练习,我感觉还是有一些进步,虽然还没有实战。

听说那种性能力强的男人,能做到控制自如,想射就射,想控制就控制,先定个目标 20 分钟以上好吧


4 月 20 日周一
是的,昨天被鸽子了。
7 点多给她发消息没回我。
8 点多回我说要明天了,宝宝。
我问她有什么事情,又气不过,发语音吊了她一下。
11 点多说跟朋友有事吃饭什么的,跟我道歉。

这其实也很正常,有部分人本来就不会把约定当回事情,也有可能是故意逗下你。只是当时有点不爽,过了就好了。

4月11日-12日,由清华大学计算机系主办、清华大学学生算法协会承办的2026年清华大学学生程序设计竞赛暨高校邀请赛(THUPC)决赛在校内自强科技楼圆满举行。本届赛事初赛共吸引1066支队伍报名,经严格选拔,最终98支队伍、287名选手晋级决赛,在ICPC赛制下展开巅峰角逐。非凸科技作为赛事的主要支持方之一,与现场近300名选手共同见证了这场算法对决。
image.png
闭幕式上,非凸科技分享了AI在投资领域的实践与思考,鼓励同学们不只做代码的实现者,更要做问题的定义者与边界的突破者。 人才是技术创新的第一引擎,欢迎各位同学加入非凸,让你的思考在数智金融的浪潮中被世界看见。
image.png
决赛现场,选手们以三人团队形式协同作战,在封闭环境中连续攻克多道高难度算法题目。在这样高强度比拼下最终 “THU1” 队摘得桂冠,“zxx 家长群二”队与“柚子超玩会”队分获亚、季军。非凸科技为获奖队伍颁发奖牌与证书,并向所有参赛选手致以诚挚祝贺。
image.png
赛事有终点,但对技术的探索永无止境。非凸科技珍视与高校学子的每一次连接,我们将持续深耕校企联合,以技术为纽带,为优秀的青年开发者提供更具挑战的实战土壤,为计算机事业发展注入更多活力。

特斯拉前 AI 总监、OpenAI 创始成员 Andrej Karpathy 在去年随口提出 Vibe Coding 的时候,或许也没想到,它会变成一场运动,并从 240 亿个词汇中脱颖而出,成为 2025 年柯林斯词典年度词汇。

Vibe Coding 之所以出圈,在于它击中了一个时代情绪:在 AI 技术的持续迭代升级下,编程可以不再是工程师的专属能力。“人人皆可编程” 第一次从口号变得可感知。

但问题也很快开始浮现:Vibe Coding 虽然降低了编程门槛,但本质上,加速的还是“程序员写代码”,整个流程仍然假设用户知道什么是 IDE、什么是依赖管理、什么是部署。

而这,挡住了绝大多数人。

根据行业数据,2025 年全球程序员数量预计在 3000 万左右,与 80 亿的全球总人口数相比,还不到 1%。这意味着,即使 Vibe Coding 做到极致,它的受众天花板也就是这几千万人。这个世界上每天都有太多转瞬即逝的想法,还停留在脑海里、对话里、Demo 里。

这也是为什么,蚂蚁灵光这一次的更新,显得格外关键。作为一款全模态 AI 助手,灵光自去年 11 月一经发布,就以“30 秒生成应用、生成即部署”的差异化能力火速出圈。

4 月 20 日,灵光对闪应用进行升级:深度集成了手机端的原生能力,包括相机、陀螺仪、LBS、麦克风、震动等,同时推出“灵光圈”,用户无需任何门槛,就能在移动端完成应用的生成、迭代、使用、分发全流程闭环。

灵光想做的,不是继续优化某个技术点,而是打通一条完整链路:让每一个念头,都有机会成为一个被使用、被分享、被不断改写的应用。

99% 的人,需要的是 Wish Coding

Vibe Coding 真正解决的问题,是让已经会写代码的人写得更快。它的起点是一个 IDE 窗口,用户与 AI 围绕代码协作;它的终点是一段可运行的代码。

但对于一个编程零基础的用户来说,问题从来都不是代码。一个想法要变成真正可用的应用,需要经过生成、适配、部署、分发、使用、反馈、迭代一整条链路。Vibe Coding 加速的只是“生成代码”这一个环节;而对普通用户来说,链路上的每一个环都是卡点。

要覆盖这 99% 的人群,不是在 Vibe Coding 的方向上走得更远,而是需要一条完全不同的路径。灵光给它的命名是 Wish Coding。

Wish Coding 即意图编程,用说话直接生成可运行的软件应用。用户不需要 IDE 和代码界面,也不需要了解构建和部署的概念,只需要说清楚自己想要什么,就能得到一个可运行的完整应用。

实际上,早在上世纪 90 年代,微软前首席架构师、Word 和 Excel 的缔造者 Charles Simonyi 就曾提出“Intentional Programming”。Simonyi 认为,软件开发应更多关注开发者的意图,而非聚焦于代码书写的细节。在当时,这一设想受限于技术条件,还只能停留在理念层面;如今,大模型的能力,让 Wish Coding 所代表的意图编程成为可能。

灵光正在做的,本质上是用 AI 充当 Simonyi 设想中那个“从意图到实现的自动化层”,只不过面向的不再是专业开发者,而是每一个能用自然语言表达需求的人。

在灵光 APP 中,用户只需要输入一个自然语言指令,就能生成一个可运行、可交互、可分享的完整应用。灵光将其命名为闪应用,或许也代表着,每个人的灵光一闪,都能化作一个应用。更重要的是,这个应用不是停留在 Demo 层面,而是能在手机端侧运行,调用摄像头、LBS、陀螺仪、麦克风、本地存储、系统通知等硬件能力。

比如,笔者每天的时间都很碎片化,想让灵光做一个碎片化专注计时器,支持自定义专注时长、休息倒计时、专注总时长排行榜,界面极简,并且能根据天气情况匹配不同白噪音音效。

把这些“愿望”一股脑儿发给灵光,几十秒就得到了一个应用,直接就能体验起来。整个过程,全部都是在灵光 APP 里完成。

第一版不够好,不知道怎么优化?灵光会提供修改建议,供用户参考。就这款计时器来说,现在的样式确实太过极简,灵光建议专注时显示专注成就徽章,采纳后,很快迭代好了一版:

与一款成熟应用对比而言,现在的计时器还欠缺很多功能,但关键的变化在于,卡点从有没有技术能力实现,转移到了用户的想象力——你能提出来,灵光就能做、就能改,直到你满意为止。这或许才是 99% 的人,真正需要的。

每一个灵光一闪,都有机会被再创造

闪应用实现的,是把一个人的灵光一闪,变成真正的应用。灵光圈实现的,是让每个人的灵光一闪,都能在更大的舞台上被看见、被使用、被分享、被不断改写。这也是此次升级中,灵光带来的最大的惊喜。

根据官方解释,灵光圈的定位是围绕闪应用构建的分发与协作社区,任何人手搓的闪应用都可以一键分享到灵光圈,让其他人浏览、使用、点赞和评论。特别之处在于,灵光圈支持二次创作。任何人看到一个闪应用,都可以在原版的基础上,用自然语言描述自己想要的修改,并生成一个全新的版本。

这种机制有些类似开源协作中的“Fork 代码”。在传统的软件协作中,开发者可以在  GitHub 上对他人的代码进行 Fork、修改、再发布,从而形成持续演进的协作网络。

灵光把这个动作再往前推了一步:大家 Fork 的不是代码,而是意图。任何人在灵光圈看到的闪应用,都能根据自己的喜好进行修改。你不需要看懂原作者写了什么,只需要说:“把这个配色改掉”“把里面的菜单换成低脂版本”“再加一个倒计时功能”,AI 就能基于原作继续生成。

这也是灵光圈最有意思的地方:它把应用的演化门槛压到了足够低。低到使用者和创作者之间的边界开始变模糊,任何一个使用者都可能顺手改出自己的版本,再把它变成别人的起点。

过去,软件应用的生长路径更加具有确定性:从需求分析、系统设计、编码实现再到测试发布,整个流程封闭、高度依赖中心化团队,版本迭代也按照既定路线、线性演进。

但在灵光圈中,闪应用的生长方式是完全开放的,任何人都可以基于已有版本进行修改和再创作,不同用户的需求可以在多个分支上并行演进。一个应用不再只有一个“官方版本”,而是衍生出多个面向不同场景的变体,每一个分支都有可能继续被扩展、被传播。这未必会立刻催生出什么超级应用,但它确实提供了一种更开放的,也是前所未有的应用生长机制。

数据显示,截至目前,灵光用户已成功创建超 3000 万个闪应用。从互动游戏、情绪减压到语言打卡、待办清单等,灵光闪应用覆盖了普通人生活的方方面面。

灵光产品负责人表示:“灵光闪应用功能正在催生‘一人应用’的兴起——不依赖团队协作,不需要漫长开发周期,一个人、一句话、30 秒,就能让想法变成可交互的工具。灵光圈的上线,希望帮助普通人也能零门槛调用自己的 Coding Agent。”

Coding Agent 正在从开发者走向普通人

把时间线拉回两年前,Coding Agent 还更多停留在“辅助编程工具”的角色——以 GitHub Copilot 为代表,它们擅长的是在既有代码语境中补全、提示与优化,本质上仍然服务于“写代码的人”。

但在 2026 年,行业叙事明显变了。Coding Agent 开始越来越多地直接交付结果。

灵光的特别之处在于,它把 Coding Agent 做成了面向普通人的消费级产品。当然,这条路远没有完全走通。复杂场景里的意图理解是否足够准确,多人协作和权限体系是否成熟,社区生态能否持续运转,这些都还是现实问题。

但有一点是确定的。这条路一旦走通,它所触达的将不只是 3000 万开发者。届时,更多人能够以表达为起点,参与到数字世界的构建之中。

平时午休在车里睡觉,每次都能被特斯拉的倒车声音吵醒,声音穿透力又强又难听,简直像一把电钻往脑子里钻。那些特斯拉车主是很享受这个声音吗?每次停个车都要来回倒几遍!

最新NVIDIA RTX™ 桌面端企业级显卡为NVIDIA RTX PRO™ GPU 系列,当下已从NVIDIA Ampere、NVIDIA Ada Lovelace 架构升级至NVIDIA Blackwell 架构,AI和图形处理性能都有质的提升。

NVIDIA RTX PRO系列显卡型号

交通-1.JPG

计算机视觉相关任务

在交通流监测、车辆行人识别等场景中,经常会使用到类似YOLO 等目标检测模型的训练和实时推理,对于这类任务,NVIDIA Blackwell 架构在推理性能上优势明显,尤其高负载实时应用、处理高计算量任务时优势尤为突出,可为实时应用提供更低延迟。根据实际检测需求,显卡型号通常以NVIDIA RTX PRO 4000 和NVIDIA RTX PRO 5000 为主。以NVIDIA RTX PRO 5000为例,该型号除了提供卓越的性能,更以高可靠性、长生命周期、技术支持等特点打动客户的需求。
交通-2.png
NVIDIA RTX PRO 5000 Blackwell (图片来源于NVIDIA)

大模型推理相关任务

在交通系统规划设计、交通服务、智驾系统应用等方面,大模型推理任务越来越重。NVIDIA RTX PRO 系列作为桌面端企业级显卡,可以稳定运行在任意复杂环境,对于模型实验/验证等任务,可以摆脱对数据中心资源的依赖,性价比也非常高。型号首推NVIDIA RTX PRO 5000,单卡NVIDIA RTX PRO 5000 (48GB)已经可以应对相对较小规模的模型推理,中等规模的模型推理则可以采用双卡、四卡NVIDIA RTX PRO 5000的方案来运行。

设计与仿真类任务

从车辆、道路基础设施设计、系统仿真,到数字孪生可视化,NVIDIA RTX PRO 系列专业级显卡可以支持从小模型、小场景到超大场景的3D设计和仿真任务,并且相对于消费级显卡来说,专业显卡的企业级驱动程序可靠性更强、产品稳定性优势很大。

对于型号的选择,可大致参考如下的范围:
交通-3.JPG

中等规模的场景是日常任务中最常见的。NVIDIA RTX PRO 4000 是特别值得关注的一款卡,目前是NVIDIA RTX PRO 系列中性能最强的一款单插槽显卡!工作站适配度非常高。平时应对中小型规模的建模和渲染游刃有余,甚至在大型复杂场景中的仿真表现也很好。
交通-4.png
NVIDIA RTX PRO 4000 Blackwell (图片来源于NVIDIA)

赞奇科技曾在工作站中搭载一张NVIDIA RTX PRO 4000运行UG NX,将3个智能装配生产线的复杂模型组合到一起,零部件数量总共约2万个,模型文件总大小1.5G,包含了大量高精度曲面、关联特征与运动信息。三合一模型在12秒内载入完成,编辑、旋转、缩放、渲染、仿真流畅全程无卡顿,工程图在29秒内即生成,效率和稳定性上都很不错。
IMG_2017.PNG

购前体验

赞奇科技目前免费开放给用户开展NVIDIA RTX PRO 系列产品测试。

您可以提供想要测试的场景,扫描下方二维码申请远程测试,或获取更详尽的显卡应用资料!
二维码.jpg
*与NVIDIA产品相关的图片或视频(完整或部分)的版权均归NVIDIA Corporation所有。

2026年4月20日至24日,德国汉诺威工业博览会在汉诺威展览中心举行。在浙江省商务厅组织下,NineData将作为浙江展团参展企业之一,亮相2026浙江服务贸易(汉诺威)数字生态展,向来自全球的客户、合作伙伴及行业观众展示企业级智能数据管理平台的核心能力。

德国汉诺威工业博览会作为全球最具影响力的工业技术贸易展之一,依托这一国际化平台举办的“2026浙江服务贸易(汉诺威)数字生态展”,有助于进一步推动浙江数字技术企业加强国际交流合作,提升品牌国际影响力,拓展面向欧洲及全球市场的发展空间。

NineData作为浙江展团代表企业之一,将展示面向AI时代的智能数据管理产品与行业解决方案,向全球客户、合作伙伴及产业用户展示浙江企业在数据库DevOps、数据复制与对比、AI数据管理、智能运维领域的一站式数据管理能力。

NineData将在现场展示什么?

在全球工业体系加速迈向智能化、柔性化和数据驱动的背景下,企业正面临多云、混合云、异构数据库并存,以及跨区域业务协同、工业数据互联、研发治理标准化等多重挑战。NineData此次参展,将围绕企业级数据管理全生命周期的核心需求,重点展示三大能力方向。

企业级数据库DevOps

NineData提供覆盖SQL开发、规范审核、审批执行、权限控制、审计留痕、变更发布与性能优化的一体化数据库研发治理能力,帮助企业从传统分散式数据库管理模式,升级到更规范、更安全、更高效的协同管理体系。对于正在推进工业数字化转型的制造企业而言,这意味着数据库开发效率与生产环境稳定性能够实现更好平衡。

数据复制与对比

面向工业企业常见的多系统、多环境、多数据库架构,NineData支持多类型主流关系型数据库、NoSQL、分析型数据库及云数据库之间的数据迁移、实时同步、结构复制、数据对比与一致性校验,可广泛应用于跨云数据流转、系统升级迁移、国产化替代、容灾备份、实时数仓构建等场景,帮助企业建立更稳定、更可控的数据流动能力。

AI原生数据管理

依托AI Agent与ChatDBA等能力,NineData正在推动数据库管理从“工具辅助”走向“智能协同”。通过自然语言生成SQL、智能SQL优化、故障自动诊断、运维问题排查与任务调度等功能,平台帮助企业进一步降低数据库管理门槛,提高研发与运维效率,为工业AI在真实业务场景中的落地提供更加坚实的数据底座。

诚邀莅临

4月20日至24日,德国汉诺威展览中心,NineData在16号馆D16展位期待与您相见。

诚邀您莅临NineData展位,面对面交流产品能力、行业实践与合作机会,共同探索工业数字化与全球化发展背景下的数据管理新可能。

2026浙江服务贸易(汉诺威)数字生态展,NineData与您现场相见。

关于NineData\
NineData是玖章算术(浙江)科技有限公司旗下智能数据管理平台,专注于云计算与数据管理基础技术创新,依托云原生架构与AI能力,打造覆盖数据库DevOps、数据复制、数据对比、智能运维等核心场景的一体化数据管理平台,帮助企业在多云、混合云及复杂异构环境下实现更高效、更安全、更智能的数据管理。

NineData面向企业数据库开发、迁移、同步、治理与运维全流程,提供从研发协同到生产保障的完整能力支撑,助力企业提升数据流转效率、强化数据安全与合规治理,加快数字化升级与全球化业务落地。产品已广泛应用于金融、制造、能源、电力、互联网、医疗健康、跨境出海等多个行业场景。

写代码、做表格、搞分析……大模型把这些活儿干完之后,终于腾出手来对付设计了。这个曾经最依赖专业工具和手艺的领域,终究没能逃掉被重做的命运。

 

周末,Anthropic 宣布推出一款新产品——Claude Design,试图把“设计”这件事从专业软件中解放出来,变成一种可以通过对话完成的协作过程。

 

这项功能目前由其刚刚发布的最新模型 Claude Opus 4.7 提供支持,并以研究预览的形式向 Claude Pro、Max、Team 和 Enterprise 用户逐步开放。

说几句话就能完成设计的时代来了

Anthropic 对 Claude Design 的定位很明确:不是一个简单的设计生成器,做“一键生成”工具没什么意思,它要能“陪伴”设计师一起改设计方案,当一个干活“搭子”。

 

在传统设计流程中,即便是经验丰富的设计师,也会因为时间与资源限制,往往只能在有限的几个方向上反复打磨。对于很多不懂设计的创始人或 PM 来说,想把脑子里的点子变成好看的图,简直就像隔着一堵墙,根本摸不着门道。

 

Claude Design 试图同时解决这两类问题。

用户只需要用自然语言描述需求,Claude 就可以生成一个初始设计版本。之后的迭代过程,不再依赖复杂的软件操作,直接能通过对话、内联评论、直接编辑甚至“自定义滑块”等方式完成。

 

这种交互模式,本质上把设计过程拆解成连续的语义调整,与传统工具依赖像素级操作的方式大不相同。

更关键的一点在于一致性。系统在获得权限后,可以自动调用团队的设计系统,将统一的字体、颜色和组件应用到每一个输出中,减少风格不统一的问题。

从官方披露的使用场景来看,Claude Design 的目标并不是替代某一个具体软件,而是横向覆盖多个设计相关工作流:

  • 原型设计:将静态稿快速转换为可交互的原型,用于用户测试与反馈收集,无需额外代码流程

  • 产品线框图:产品经理可以直接生成流程草图,并进一步交给开发或设计团队完善

  • 设计探索:设计师可以在短时间内生成多个方向进行对比

  • 演示文稿:从提纲生成完整、符合品牌规范的 PPT,并支持导出为 PPTX 或发送至 Canva

  • 营销素材:包括落地页、社交媒体视觉、活动素材等初版生成

  • 复杂原型:支持语音、视频、3D、着色器甚至内置 AI 的代码驱动设计

  

这意味着,Claude Design 正在尝试覆盖从“想法生成”到“视觉表达”再到“交付开发”的完整链路。 

新工具被网友们“玩疯了”

 

在 x 上,一位从事了 20 多年设计工作的设计师大赞这款工具极具颠覆性。他写道:

 

“太爱你们这次做的东西了!!!今天刚测试完。做了 29 年的设计,本以为灵感已经枯竭,结果你们让我找回了久违的快乐!VIBE CODING DESIGN(氛围感编码设计)绝对是未来的方向。这可能是目前为止最牛、最具颠覆性的发布!”

 

还有用户幽默地贴了张图,暗示设计师们的工作将岌岌可危。

 

还有用户表示,试过 Claude Design 后发现它真绝了。该用户让 Claude Code、Codex、Gemini 等系统都存在于同一个无限画布上。无需切换上下文。

在这些 AI 系统中,该用户表示:“Claude Design 完全 get 到了我的应用的精髓,把它呈现出了应有的高级感——这一版简直是脱胎换骨,跟旧版根本不是一个量级的东西。”

前阵子大家还在争论“Vibe Coding(氛围编程)到底有没有护城河”,当时很多人就不看好 Lovable 这类工具。这次拿它跟 Claude Design 一对比,一些用户认为更是坐实了这个观点:

“像 Lovable 这种应用,恐怕真的没什么前途。”

 

技术上是如何实现的?

Claude Design 不是单纯的“AI 画图”,它的核心是“懂业务”。Claude Design 本质上是一套吃透了企业上下文的定制系统,

 

从技术实现路径来看,在初始阶段,Claude 会读取团队的代码库和设计文件,自动构建一套设计系统。此后所有项目都会默认继承这一系统,从而保证输出的一致性。同时,这套系统是可演化的,团队可以持续优化,并维护多个设计体系。

输入方式也被大幅扩展。用户可以通过文字向其输入指令,还可以上传文档(如 DOCX、PPTX、XLSX)、导入图像,甚至让 Claude 直接访问代码库。此外,系统还支持通过网页捕获工具,从现有网站抓取元素,来提高原型的真实度。

在编辑层面,Claude Design 提供了更细粒度的控制能力:用户可以对具体元素添加注释、直接修改文本,或通过参数化控件调整布局、间距与颜色,并将这些修改批量应用到整个设计中。

Claude Design 的另一重点是“协作”。

设计稿可以在组织内部共享,支持不同级别的权限控制:从私有文档,到通过链接查看,再到开放编辑权限。团队成员可以在同一设计中与 Claude 进行群组对话,这使得设计讨论从传统的评审会议,转向实时、上下文连续的协作过程。

在交付环节,Claude Design 提供了多种导出方式,包括内部链接、文件夹存储,以及导出为 Canva、PDF、PPTX 或独立 HTML 文件。

更进一步,当设计完成后,系统可以自动打包为一个“移交包”,并通过一条指令传递给开发工具 Claude Code,实现从设计到实现的衔接。

Figma 或 Canva 等工具危矣?

从产品形态来看,Claude Design 不是在复制 Figma 或 Canva 这样的传统设计工具,它想尝试用大模型重构设计的交互范式,但在很大程度上和以上两家所做的工作是重合的,有一些变化值得关注:

  1. 从工具操作转向语义表达:用户通过描述意图,而不是操作界面来完成设计

  2. 从单点工具转向系统能力:设计系统、代码库与内容生成被统一到一个模型中

  3. 从角色分工转向能力融合:非设计人员也可以参与视觉创作,设计师则更多承担方向与审美判断

目前,这一功能仍处于研究预览阶段。Anthropic 表示,未来几周将进一步加强与外部工具的集成能力,使其能够接入团队已有的工作流。

 

如果说过去一年生成式 AI 已经重塑了“写代码”和“写内容”的方式,那么 Claude Design 的出现,正在把“设计”也拉入同一套范式之中。而这种变化,对 Figma、Canva 等传统设计工具的冲击,已经开始在市场和舆论层面显现出来。

 

从资本市场的短期反应来看,这种冲击显得颇为直接。Claude Design 发布当日,Figma 股价下跌约 4.26%,而 Adobe、Wix 和 GoDaddy 等相关公司也同步出现下行。

 

此外,Anthropic 首席产品官在发布前三天从 Figma 董事会辞职,也被部分市场解读为行业格局变化的一个信号。不过,也有观点认为,这类波动未必完全由 Claude Design 引发,在整体 SaaS 行业承压的背景下,单日 4% 左右的跌幅仍属于正常区间。

相比市场的短期情绪,行业内部的判断则更为分化。一方面,像 Figma 这样的工具依然牢牢占据 UI/UX 设计市场约 80%~90% 的份额,经过多年演进形成了完整且成熟的工作流体系,深受专业设计师依赖。从这个角度看,传统设计工具在短期内并不会被替代,其在复杂设计、协作精度以及系统化能力上的优势依然明显。

 

但另一方面,Claude Design 所代表的范式转变,正在动摇设计行业最核心的一道壁垒——门槛。过去,视觉表达需要依赖专业软件与训练,而现在,用户只需用自然语言描述需求,就可以获得一个可用的设计初稿。这也引出了一个令传统工具难以回避的问题:当客户可以直接用文字与模型沟通时,是否还需要完整的设计工具链来完成同样的工作?

 

从用户侧反馈来看,这种替代关系目前仍然有限。

 

在 Reddit 等社区讨论中,不少具备专业设计经验的用户认为,Claude Design 生成的结果存在明显的同质化问题,整体质量更接近“现代剪贴画”——能够显著提升基础设计的下限,但距离高质量、差异化的专业设计仍有差距。因此,它更像是一个补充工具,而非替代方案。

 

同时,也有用户指出,这类产品并非首次出现。一个月前,Google 就已推出类似产品 Stitch,说明“用 AI 生成设计”本身并不是全新的概念。从这个角度看,Claude Design 更像是在现有方向上的一次能力强化,而非彻底颠覆。

 

目前相对明确的共识是,这类工具的真正价值,主要体现在三类场景:非设计背景用户的表达需求、创业者的快速验证,以及产品早期的原型构建。它的核心作用是降低创作门槛、加速想法可视化,而不是取代完整的设计流程。

 

即便是在这些优势场景下,Claude Design 仍面临现实限制。有用户反馈,生成一个完整设计可能会消耗 Claude Pro 订阅中约一半的使用额度,这意味着在当前阶段,其成本结构尚不足以支撑高频或重度使用。

 

现在就断言 Claude Design 会对 Figma 等传统设计工具造成巨大冲击,仍然为时尚早。

 

 

参考链接:

https://www.anthropic.com/news/claude-design-anthropic-labs

https://techcrunch.com/2026/04/16/anthropic-cpo-leaves-figmas-board-after-reports-he-will-offer-a-competing-product/

https://x.com/robinebers/status/2045163860588724563