2026年1月

ayugram 的综合使用体验是非常好的:无广告加速下载 / 上传幽灵模式本地会员破解防撤回延迟发送、还支持插件。

缺点是真难登录
如果遇到 ayugram 登录时需要添加验证邮箱且验证码输入后依旧无法登录的。

解决办法:
1、将 ayugram 已经登录的账号转移到其他设备,推荐 firefox 搭配 container 插件(环境隔离,可以实现多开),然后登录网页版本 telegram。
2、登出当前 ayugram 中所有的账号,并卸载该 app。
3、进入 @ayugramfaq 拉到最下面,下载特殊版本的 app 进行安装。
4、该特殊版本 app 可以正常接收验证码,登录你所需要登录的账号。
5、然后再去 @AyuGramReleases 下载最新版本的 app,覆盖安装。
6、若需要添加新账号,上面的流程得再走一遍,很麻烦。对于长期不用仅挂机的账号,推荐使用 nicegram(支持 100 个账号同时登录),就是广告多点,其他没啥特点。


📌 转载信息
原作者:
jarmoku
转载时间:
2026/1/22 12:56:47

项目简介

Endspace 是我在业余(摸鱼)时间开发的一款第三方 NotionNext 主题,致力于为你的 NotionNext 博客赋予未来主义与工业科幻的独特气质(不是,这年头谁写博客啊)。其 UI 设计在一定程度上参考了《明日方舟:终末地》官网。

效果预览

仓库刚建不久,后续还会优化一些小细节,不定期更新。
如果感兴趣的话,可以给我一个 Star 吗?这将给我非常大的帮助。
如果你和我一样,也在用 NotionNext 建站,欢迎使用 Endspace 作为主题,如果能提 issue 和 pr 就更好了!


📌 转载信息
原作者:
Cloud-009
转载时间:
2026/1/22 12:56:28

漏洞详情:
GNU InetUtils telnetd 远程身份认证绕过漏洞(CVE-2026-24061),此漏洞主要影响 telnetd 在调用系统 /usr/bin/login 程序时,未对从客户端 USER 环境变量传入的用户名做过滤,直接拼接到 login 命令行。未经授权的远程攻击者可利用该缺陷,在无需任何口令的情况下直接获取目标主机的 root shell,造成完全控制权泄露、敏感信息被窃取或进一步横向移动。

目前我已经在本地成功复现并且在公网有捡到很多群辉存在这个漏洞 , 站内好像有不少有玩 NAS 之类的朋友特别是有公网 IP 的兄弟注意排查一下,其实版本挺苛刻的 1.9.3 <= GNU InetUtils <= 2.7,但是我测试过了 ubuntu24.04 使用 apt 下的 telnet 服务就是存在这个漏洞的。

因为影响面比较广我就不放 exp 了避免被滥用,只要记住自查一下版本就行了

修复建议:

Debian/Ubuntu: sudo apt update && sudo apt install inetutils-telnetd
RHEL/CentOS: sudo dnf upgrade inetutilsAlpine: apk upgrade inetutils
# 或手动应用补丁:
wget https://codeberg.org/inetutils/inetutils/commit/fd702c02497b2f398e739e3119bed0b23dd7aa7b.patch
wget https://codeberg.org/inetutils/inetutils/commit/ccba9f748aa8d50a38d7748e2e60362edd6a32cc.patch
patch -p1 < fd702c0.patch
patch -p1 < ccba9f7.patch
./configure && make &&sudo make install

📌 转载信息
原作者:
linxi_2650
转载时间:
2026/1/22 12:55:41

發現小米手環綁定是有區域限定的

在香港生活,tb 買了個手環,下載小米運動健康 app ,默認選的地區是香港,綁定的時候怎麼也識別不到綁定不了

把地區切換成大陸,馬上綁定成功

後來試了再切回香港,發現確實無法綁定,難道後臺會驗證手環的 MAC 屬於哪個地區的?

开发者朋友们大家好:

这里是 「RTE 开发者日报」 ,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real-Time Engagement) 领域内「有话题的技术」、「有亮点的产品」、「有思考的文章」、「有态度的观点」、「有看点的活动」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。

本期编辑:@瓒an、@鲍勃

01有话题的技术

1、阶跃星辰开源 Step3‑VL‑10B:10B 模型对标 200B 能力

昨天,阶跃星辰宣布正式开源旗下 10B 参数量多模态模型 Step3‑VL‑10B。该模型在多项核心基准测试中达到同规模 SOTA 水平,部分能力甚至超越 10–20 倍体量的大模型。

Step3‑VL‑10B 主打「小模型实现大模型能力」,在视觉感知、逻辑推理、数学竞赛题、多模态对话等任务中表现突出。

阶跃星辰称,Step3‑VL‑10B 的性能已接近甚至超越部分百亿级开源模型(如 GLM‑4.6V 106B‑A12B、Qwen3‑VL‑Thinking 235B‑A22B),并在部分场景中达到顶级闭源旗舰模型(如 Gemini 2.5 Pro、Seed‑1.5‑VL)水平。

官方强调,该模型的关键突破来自三项核心设计:

  • 全参数端到端多模态联合预训练:在 1.2T 高质量多模态数据上训练,实现视觉与语言的深度对齐;
  • 大规模多模态强化学习:经历超过 1,400 次迭代,使模型在识别、推理与对话能力上持续提升;
  • 并行协调推理机制:通过并行探索与证据聚合提升复杂任务的准确度,尤其在数学推理、OCR、计数与空间拓扑任务中效果显著。

Step3‑VL‑10B 同时提供 SeRe(顺序推理)与 PaCoRe(并行推理)两种范式,覆盖 STEM 推理、OCR、GUI Grounding、空间理解与代码等多项能力维度。

当前,Step3‑VL‑10B 已开放 Base 与 Thinking 两个版本,社区可在 HuggingFace 与 ModelScope 获取模型并进行微调。

项目主页:
https://stepfun-ai.github.io/Step3-VL-10B/

Hugging Face:
https://huggingface.co/collections/stepfun-ai/step3-vl-10b

ModelScope:
https://modelscope.cn/collections/stepfun-ai/Step3-VL-10B

论文链接:
https://arxiv.org/pdf/2601.09668

(@阶跃星辰、@APPSO)

2、showlab 开源 whisperVideo:集成 SAM3 与 TalkNet 实现长视频「音视对齐」的说话人转录

showlab 近期开源了名为 whisperVideo 的项目,专门致力于解决长视频场景下「谁在说话」的身份归属难题。该工具打破了传统方案仅依赖音频的局限,通过融合视听双重特征,实现了语音内容与画面特定人脸的精准对齐。

为了突破纯音频方案在多人混响或近距离交谈时常见的识别漂移问题,whisperVideo 构建了一套紧密的多模态级联架构。它集成了 WhisperX 负责语音转录、Pyannote.audio 处理声纹分离,并引入 SAM3 进行人脸分割以及 TalkNet 判定主动说话人。这种组合拳方式,确保了机器能像人类一样同时「听」和「看」,从而做出更准确的判断。

针对小时级素材中常见的跨场景挑战,工具特别引入了「长时身份一致性」机制。利用视觉嵌入与轨迹聚类技术,系统能在漫长的视频时间轴上记住每一张脸,确保同一说话人的 ID 在不同场景切换中始终保持稳定。

在工作流设计上,whisperVideo 追求全自动化体验。内置的 SceneDetect 能够自动进行场景切割与分段处理,无需人工干预即可完成时间戳、文本与视觉 ID 的三方对齐。最终生成的成果不仅包括带说话人 ID 的字幕,还支持可视化的面板模式,并将底层数据以 。pckl 格式开放给开发者。

目前,项目已在 GitHub 开源,需使用 CUDA GPU 环境,依赖 HuggingFace Token 调用 Diarization 模型,支持 Python 命令行一键推理。

GitHub:
https://github.com/showlab/whisperVideo

( @aigclink\@X)

3、Bolna 获 630 万美元种子轮融资:自研 SLM 语音智能体,支持「印式英语」混说

总部位于班加罗尔的初创公司「Bolna」近日完成了由 General Catalyst 领投的 630 万美元种子轮融资。这家公司致力于通过自研的专用小模型(SLM)技术,打破多语言环境下的自动化通信瓶颈。

为了适应印度极其复杂的语言生态,Bolna 构建的语音智能体不仅将端到端响应延迟控制在 500 毫秒以内,更实现了深度的本地化适配。它能够流畅处理包括印地语、泰米尔语在内的 10 余种本土语言及 50 多种地区口音,甚至针对印度特有的语言混合现象,专门优化了对「印式英语(Hinglish)」的语义理解与生成能力。

在技术架构上,Bolna 摒弃了昂贵的通用大模型方案,转而采用针对事务性查询优化的 SLM 与智能路由架构。这种策略有效平衡了计算成本与响应速度,使其更适合大规模商业落地。配合其提供的无代码控制台,企业可自主设计并监控智能体。目前,该平台的日呼叫处理量已从 1,500 通激增至 20 万通以上,广泛应用于购物车挽回、货到付款确认及招聘筛选等场景。

平台现已正式上线,主要面向印度企业提供订阅制的自助服务。

( @AI Tech Suite)

02有亮点的产品

1、消息称华为首款 AI 眼镜将在上半年发布:搭载鸿蒙 OS,支持同传翻译与拍照

1 月 20 日多家媒体消息,华为的第一款「AI 眼镜」暂定在今年上半年推出,支持拍照和音频,鸿蒙系统 + 跨端无缝协同,同传翻译等功能。 AI 眼镜被誉为「下一代 AI 终端超级入口」,已然是大厂必争之地,百度、小米、阿里、理想等早已进场,并推出了 AI 拍照眼镜,字节也即将推出 AI 眼镜,作为国内消费类智能终端龙头的华为自然不会落后于人。

据 @数码闲聊站 爆料,华为 AI 眼镜将采用鸿蒙 OS 系统与轻量化设计,内置 3 块锂电池,支持跨端无缝协同,进一步拓展使用场景。并提供流光银、钛银灰、摩登黑三款配色,支持拍照、拍视频、音频播放以及同声传译等功能。

虽然目前具体细节尚未公布,但结合华为在 AI 技术领域的探索,预计将内置华为 AI 助手小艺,产品可能涉及 AI 识物、智能场景推荐等功能。

经查询发现,华为曾推出带有音频功能的智能眼镜,主打听音乐、打电话、健康播报等。如今随着 AI 的兴起,智能眼镜行业也纷纷上马 AI,以及自带摄像头、显示屏的 AI 眼镜也不断推新。

据 IDC 预测,智能眼镜产品成为 2025 年消费电子赛道的黑马,相应产品在中国市场出货量预计达到 290.7 万台,同比增长 121.1%。业内人士普遍认为,这缘于技术突破、市场需求释放以及产业链成熟等多重因素。

汇丰控股认为,智能眼镜市场仍处于加速扩张阶段。分析师预计,智能眼镜的用户规模将在未来十多年内迎来爆发式增长,到 2030 年代末将达到 2.89 亿人,较 2025 年的 1500 万用户增长超过 18 倍。

(@即智 Ultra、@IT 之家)

2、MiniMax 推出「Agent 实习生」,AI-native Workspace 全面升级

昨天,MiniMax 官宣,AI-native Workspace 迎来两项核心升级,进一步推动 AI 深度嵌入真实工作场景,并面向用户开放限时免费体验。

  • 桌面端应用正式上线: 用户可在本地环境中指定 Workspace 作为工作空间与上下文,使 AI 能够直接理解本地文档、代码仓库、邮件与日程,从而构建一个专属于个人的智能工作环境。
  • 推出「专家 Agents」能力: 用户可构建在特定领域达到「95 分甚至 100 分」水平的专业智能体。这类 Agent 能够在复杂任务链路中稳定执行、主动判断并长期协作。

公司内部数据显示,「Agent 实习生」在过去数周已被接近 100% 的员工使用,并在运维场景中承担了约 80% 的查 Bug 工作量。

MiniMax 表示,AI-native Workspace 标志着 Agent 从「被动执行指令」向「主动感知环境」的形态演进。

公司认为,未来的 Agent 将具备长期记忆、完整职业上下文与跨系统感知能力,成为用户的长期工作伙伴,而非一次性工具。

目前,MiniMax 已开启专家 Agents 的限时免费体验。用户可通过 Web 端直接试用,也可通过官方体验链接获取桌面端安装包。

体验地址:
https://agent.minimaxi.com/

( @APPSO)

3、Crow 发布 AI 智能体框架:支持 OpenAPI 与 MCP 协议,实现「对话即 UI」交互

Crow 近期推出了一套专为 SaaS 产品打造的 AI 智能体基础设施,旨在通过「对话即 UI」的理念重构软件交互模式。该工具的核心逻辑在于将传统的点击操作转化为自然语言指令流,通过接入 OpenAPI 规范或 MCP 协议,使智能体不仅能回答问题,更能直接触发后端 API 调用及前端 UI 导航,从而实现对软件功能的深度控制。

为了解决生成式 AI 不可控的难题,Crow 引入了名为「Journeys」的结构化工作流。开发者可以针对取消订阅、创建报表等特定业务场景,定义确定性的引导路径,确保智能体在执行敏感操作时严格遵循预设的逻辑分支。配合支持文件与文档集成的 RAG 管道,智能体还能充分理解产品特定的业务逻辑与私有数据。

在开发与运维层面,Crow 提供了生产级的观测指标,能够详细追踪每一条指令对应的工具调用路径。其低代码部署方案仅需嵌入单行 Script 标签,官方宣称这能将传统长达半年以上的自研周期缩短至一周以内,并支持与 Claude Code 或 Cursor 等工具集成。目前该产品已正式上线,开发者项目可免费试用,同时针对中大型企业提供了定制化方案。

( @Y Combinator Launch)

4、Thread 发布 Voice AI:实现 MSP 电话自动化分拣与实时工单同步,单人效能提升 30%

Thread 宣布其专为托管服务提供商设计的 Voice AI 正式商用。该产品旨在终结传统 IVR(交互式语音应答)系统的僵化体验,通过语音智能体接管电话接入、分拣与派发的全流程,将高成本的电话渠道整合进结构化的自动化运维体系中。

AI Attendant 与 Overflow Agent 双引擎驱动:

  • AI Attendant:取代传统 IVR,能够即时接听电话并识别来电者身份。它不仅能进行自然的语音交互,还能在后台实时创建工单、匹配技术人员,并完成「热切换」,确保客户在转接给真人时无需重复复述问题。
  • Overflow Agent:专为下班后或线路繁忙场景设计。它能拦截进入语音信箱的电话,自动收集关键信息并进行分类;遇到 P1 级紧急事件时,可直接升级并呼叫待命团队,消除了「下班后盲区」。

Voice AI 的核心价值在于将非结构化的语音高效转化为结构化数据。系统不仅能根据通话内容自动填充工单的标题、类别、优先级和解决摘要,还引入了「自动时间条目」功能,可依据通话时长直接生成计费记录。据官方数据统计,这一特性为每张工单平均节省了 19 分钟的处理时间,从而推动单一技术人员的日均通话处理量从 8-12 通显著提升至 14-20 通。

在生态兼容性方面,该方案作为 Thread AI Service Desk 平台的重要组成部分,已与 ConnectWise、Autotask 和 HaloPSA 等主流 PSA 系统实现了原生集成。这意味着所有通话数据都会实时转化为结构化文档,并无缝同步至企业现有的工作流中,从而确保了整个服务链条的完整性与可追溯性。

据 Thread 统计,通过消除手动记录和人工轮班需求,该系统可使响应速度提升 5 倍,平均解决时间缩短 78%。目前该服务已正式上线。

相关链接:
https://www.getthread.com/voice-ai

( @Mansfield News Journal)

03有态度的观点

1、谷歌前 CEO 施密特:欧洲要么投资开源 AI,要么依赖中国模型

1 月 20 日,据外媒报道,谷歌前 CEO、科技投资人埃里克 · 施密特 (Eric Schmidt) 周二表示,欧洲必须投资建设自己的开源 AI 实验室,并解决能源价格飙升的问题,否则很快就会发现自己对中国的模型产生依赖。 施密特周二在达沃斯世界经济论坛表示:「在美国,企业基本上正在转向闭源,这意味着这些技术将被购买、授权等等。而与此同时,中国在做法上基本是开放权重、开源的。除非欧洲愿意为欧洲自己的模型投入大量资金,否则欧洲最终将会使用中国的模型。」

目前,许多热门 AI 模型都是闭源的,比如谷歌的 Gemini 和 OpenAI 的 ChatGPT,这意味着这些公司不会向外界提供底层代码供下载或审查。虽然这种方式能为用户带来更顺畅、更统一的使用体验,但通常成本更高、灵活性也更低。中国在所谓「开放权重」模型的开发方面处于领先地位,这类模型具有更高的透明度。

为了在开发更强大 AI 模型和智能体的全球竞赛中具备竞争力,欧洲还需要解决高企的能源价格问题,并建设更多可用于训练这些技术的数据中心。施密特曾联合创办一家数据中心公司,致力于应对这类基础设施巨大的能源需求。他也对美国 AI 发展对电力供应的影响表示担忧。

(@IT 之家)

阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么

写在最后:

我们欢迎更多的小伙伴参与 「RTE 开发者日报」 内容的共创,感兴趣的朋友请通过开发者社区或公众号留言联系,记得报暗号「共创」。

对于任何反馈(包括但不限于内容上、形式上)我们不胜感激、并有小惊喜回馈,例如你希望从日报中看到哪些内容;自己推荐的信源、项目、话题、活动等;或者列举几个你喜欢看、平时常看的内容渠道;内容排版或呈现形式上有哪些可以改进的地方等。

作者提示: 个人观点,仅供参考

上周在币安选择 C2C 银行卡交易,选了几个成交量高的神盾卖家都因为风险交易失败。

最后选择了一个卖家刚开始用小银行转账提示风险,后面又用工商银行转账了一次,有个选项选择是否认识此人,选择认识就转账成功了。

隔了一天后小银行大电话询问转账原因,几天后接到派出所反诈电话询问转账原因,让去派出所一趟说明情况。

接下来就把名下所有的银行卡、信用卡全部冻结了。

反诈民警反馈:解封需要 15 天左右,这期间只能用支付宝和微信钱包余额。

解封银行卡需要把自己的卡号给到民警拍照才能解封,如果不给到银行卡号就不会解封。(吐槽:能一起封不能一起解)

不得不感叹现在的反诈监管真是太严格了,大家买币谨慎一些

2025 年 12 月,涛思数据与沈阳化工研究院(简称“沈阳院”)正式达成合作。涛思数据将为其提供 TDengine TSDB + IDMP 产品组合,通过部署工业数据管理平台,以 AI 原生的数据智能技术,支撑沈阳院构建覆盖从实验室研究到中试放大全流程的统一数据基座,助力其研发数字化转型迈向新阶段。

沈阳院是我国重要的综合性化工科研院所,其研发过程中涉及海量、多源的时序数据与非时序数据,同时其中试基地拥有多条专业化生产线。面对实验室、中试装置产生的庞杂数据,如何打破数据孤岛,实现数据的统一管理、关联分析与智能洞察,从而加速研发进程、优化生产工艺,是沈阳院数字化转型的重要任务。

随着数字化进程的推进,沈阳院需要一个能够打通从实验到中试全流程的数据管理平台,能够将时序数据与非时序数据(如物料信息、实验记录)进行关联分析,同时满足信创环境要求和数据安全规范。涛思数据全新发布的 TDengine IDMP(工业数据管理平台)产品,具备“无问智推”的 AI 原生能力,这种让数据主动说话的能力,正是解决业务人员依赖 IT 团队获取数据洞察的关键。

本次项目需要采集和分析来自实验室、中试生产线的数据,总计需要监控的测点约 2 万。这些数据来源于高压釜、干燥箱、色谱仪等实验设备,以及生产线的温度、压力、流量等工艺参数,还包括水电气等能耗数据。TDengine TSDB 支持多种数据接入方式,包括 MQTT、OPC-UA/DA 等。这对于研究院现有的数据采集系统(MQTT 和 OPC)非常重要。在数据建模方面,TDengine IDMP 采用树状层次结构,这与研究院的设备组织方式天然契合。比如,可以按照“研究院-中试基地-生产线-设备”的层级结构建立数据目录,每个节点都可以配置属性、分析规则和可视化面板。这种结构特别适合中试基地的批次分析需求,可以清晰地展示每个批次的工艺参数和质量指标。

本项目采用“整体规划、分步实施”的策略,项目计划分两阶段进行:

  • 第一阶段,选择 3 个实验室和 1 条中试生产线进行试点实施;
  • 第二阶段,基于试点成果向全院范围推广。

基于数据安全性和网络环境考虑,选择本地化部署方案。部署架构如下图所示:

本次项目规划的设计思路紧密围绕化工研发的业务特点展开,力图在以下几大关键业务场景提升数据应用效率与深度:

  1. 数据全景可视化与智能告警:通过 TDengine IDMP 的智能可视化功能,实现实验数据和中试生产数据的全景可视化管理。研究人员无需 IT 支持即可通过自然语言交互获取所需数据视图;通过实时分析和事件管理功能,自动触发告警,并帮助研究人员快速定位问题根源;借助“无问智推”能力,自动推送质量波动的批次与标准参数的对比分析,帮助管理人员快速决策。
  2. 工艺优化与批次对比分析:批次分析是中试生产的核心需求之一。借助 TDengine IDMP,可以实现多批次数据的自动对比分析。系统能够根据批次质量指标帮助科研人员找到"黄金批次",并分析其工艺参数特征,为工艺优化提供数据支持。通过时序数据高级分析功能,研究人员可以轻松对比不同批次的差异,找出影响产品质量的关键工艺参数。
  3. 预测性维护与能耗管理:基于 TDengine TDgpt 的能力,平台能够轻松集成时序数据的预测、异常检测、分类、补全、相关性分析等算法和模型,帮助客户实现对关键设备的实时监控与预测性维护。在中试基地的能耗管理方面,通过对水、电、气的实时监测与统计分析,帮助找出能效瓶颈、识别出能耗异常点,用以指导设备改造和工艺调整。
  4. 数据驱动的工艺包开发:TDengine 产品组合将帮助研究院实现数据驱动的研发模式,提高工艺包开发的效率和质量。新工艺包的设计可以基于历史中试数据,确保工艺参数的可靠性。而工艺包转化为实际生产后,又可以通过对比设计数据与实际生产数据,持续优化工艺模型。同时,TDengine IDMP 内置了备份/恢复机制,未来还将支持 Git 式数据版本管理,有望进一步提高数据归档、变迁、回溯的能力。

本次涛思数据与沈阳化工研究院的强强联合,为化工科研数据管理和数据分析描绘出更多可能性。相信此次合作不仅能提升沈阳院的研发效率,更有望探索出一条以数据智能驱动化工行业创新的可行路径。

关于沈阳化工研究院

沈阳化工研究院有限公司始建于 1949 年 1 月 8 日,是综合性化工科研院所,现为中国中化控股有限责任公司直管单位。目前沈阳院主要开展化工新材料、生态农业、生物化工、化学品测试与评价、化工反应风险评估、危险废物鉴别、化工智能优化等方向的研究及产业化。沈阳院聚焦提升关键共性技术的研究与开发能力、较强的新产品孵化能力和适度产业规模和盈利能力;致力于成为精细化工行业国内领先,国际有一定影响力的科技型企业。

2025 年 12 月,涛思数据与北京海莱德自动化工程有限公司(简称“海莱德”)正式建立合作伙伴关系。此次合作,海莱德将基于自身行业自动化系统集成能力,结合涛思数据提供的 TDengine TSDB + IDMP 产品组合,共同为制糖等行业客户打造从数据采集、治理到智能分析应用的完整解决方案,助力制糖工业企业实现生产运营的数字化与智能化转型。

行业背景|制糖生产正在面对的新挑战

制糖行业的生产实践表明,甘蔗制糖是一项高度连续、强耦合、对运行稳定性要求极高的工业过程。原料受品种、成熟度、含糖量和纤维含量等因素影响,天然波动较大;加之榨季集中、生产节奏紧凑,一旦发生非计划停车或关键参数失控,带来的不仅是产量损失,更可能造成难以弥补的经济影响和社会影响(涉及甘蔗和甜菜的农业生产)。

在此背景下,行业内绝大多数糖厂长期依赖以人工经验为主的工艺调整方式,以及以工段为单位、相互割裂的数据管理模式,这些传统做法逐渐显现出其局限性。经验固然重要,但难以在不同班组、不同人员之间稳定传承与高效复制;生产数据虽然持续产生,却因分散在不同系统与记录中而难以整合分析,从而无法有效支撑对稳产、提质、降本目标的持续精细化管控。这已成为行业的一个普遍共识:仅依靠传统方式,已难以应对当前生产运行对稳定性与过程可控性日益提升的要求。

面临挑战|从“看不清”到“管不住”

在实际运行中,以下这些挑战并非个案,而是制糖行业中普遍存在的共性问题。

首先,生产过程链条长、环节多,从预处理、压榨、澄清、蒸发、煮糖到分蜜、干燥包装,各工段数据往往分散在不同的系统与记录中,缺乏统一视角,导致难以形成真正贯穿全流程的生产监控与分析能力。

其次,在工艺质量管控方面,参数调整长期依赖人工经验判断。许多异常往往在最终质量指标已发生偏差后才得以察觉,缺乏对工艺质量的过程性分析与持续监控手段,难以实现事前预警与主动干预。

最后,在物料与糖分损耗管理上,行业长期缺乏有效的工具进行清晰、有效的分析和管理。糖分损耗分散于滤泥、废蜜、洗水、跑糖等多个环节,大多依靠经验估算,无法形成系统、可对比的“糖损画像”,这在很大程度上制约了对产糖效率与整体经营指标的持续优化。

正是这些普遍存在的“看不清、管不住”的痛点,促使制糖行业开始重新思考生产管理方式,并推动如 TDengine IDMP 这样的生产数据与工艺管理平台,逐渐成为企业进行数字化转型、实现精细化运营的重要选择。

解决方案|从“数据分散”到“AI Ready”,让制糖跑在数据之上

在榨季现场,行业内常有一种共识:“数据其实都有,就是用不起来。”原料特性每日波动,工艺流程长且复杂,相关数据往往分散在局部的 DCS、各类设备的独立系统及手工台账中。操作人员依赖经验盯守,生产系统中前后无高效的数据流通,一旦生产节奏加快,潜在的风险与异常便容易被淹没在庞杂的信息流中。

因此,选择引入 TDengine IDMP 平台,其初衷并非简单“再上一套系统”,而是旨在将沉睡的数据转化为直接支撑生产决策与运营优化的能力。围绕制糖行业原料波动大、流程链路长、设备可靠性要求高等特点,该平台以 TDengine TSBS + TDengine IDMP 为核心,从数据采集与接入起步,逐步打通数据治理、业务情景化建模与 AI 分析应用,致力于构建一套真正面向生产、服务于工艺优化与稳定运行的工业数据管理体系。

图1 以 TDengine IDMP 为基础面向生产的工业数据管理体系

数据采集|先把“碎数据”连成一条线

在项目启动之初,制糖企业现场所面临的情况在行业中并不陌生:数据体量并不少,但分布零散。工厂局部的 DCS、各类设备的独立系统仅仅服务于局部的监控层面。而在数据分析、集中管理与智能应用层面,则长期缺乏统一、高效的数据出口。

针对这一现状,项目规划在不影响现有控制系统稳定运行的前提下,于集控层之上构建独立的数据采集与汇聚通道。计划在每个工厂部署一套 TDengine TSDB,利用其自带的零代码采集工具 taosX,通过 OPC 标准接口从 DCS Server 读取实时工艺数据,以实现关键生产数据的稳定采集与接入。同时,在企业级数据中心部署统一的 TDengine TSDB,对各工厂的时序数据进行集中汇聚与统一管理,为后续的数据整合分析与跨厂协同打下基础。

图2 某甘蔗制糖项目的数据采集架构图

这种架构既充分保留了 DCS 与 SCADA 的成熟运行体系,又在其之上形成统一、可扩展的数据采集与汇聚层,为后续的数据治理、业务情景化和 AI 应用奠定了可靠基础。

数据分析|从“看历史”到“提前知道”

在数据分析层,平台基于 TDengine TSDB 的高性能时序数据管理能力,实现实时与历史数据的统一处理,并能够结合时序基础模型的时序数据预测与异常检测能力,对生产过程和设备运行状态进行持续分析。

通过对关键工艺参数和运行指标的时序建模,时序基础模型能够识别正常运行模式,预测指标变化趋势,并对偏离正常区间的异常波动进行及时检测与预警,帮助企业提前发现潜在风险。请参考:时序数据分析智能体 TDgpt

该能力使生产管控从依赖经验的事后分析,转向基于数据的趋势预判与异常识别,为工艺稳定运行、设备可靠性提升及运营决策提供更加及时、可靠的数据支撑。

数据目录|让每个岗位都用得上数据

如果说采集和分析解决了“数据有没有、算不算得动”的问题,那么数据目录解决的,是“业务用不用得上”。

TDengine IDMP 并没有强制所有人用同一种视角看数据,而是允许不同部门按自己的业务逻辑组织数据。生产车间可以围绕工艺流程,把数据按工序、工段和关键参数来组织;设备管理部门则按设备类型和运行状态建立目录,专注设备可靠性和维护。同一份底层数据,可以在不同业务视角下被反复引用。

对业务人员来说,找数据不再是“翻系统”,而是“进目录”;对系统来说,数据有了清晰的结构和入口,才能被稳定调用、持续分析。

图3 甘蔗制糖厂数据目录(按设备、按工艺)
https://segmentfault.com/write###

数据标准化 | 让“一吨糖”只有一种算法

在工业系统中,数据标准化不是“规范问题”,而是直接影响结果是否可信的基础工程。航天领域曾因单位不统一而导致重大事故,这一案例反复被提及,并不是偶然,而是揭示了一个普遍规律:当数据口径不统一时,系统即使运行正常,结论也可能完全错误。

在制糖生产中,这类风险同样真实存在。以澄清汁流量为例,DCS 系统通常以体积流量 m³/h 采集数据,而部分历史系统或人工台账则沿用质量流量 t/h。两种口径在各自系统内都能够正常使用,但一旦进入跨系统分析场景——例如物料衡算、产能评估或能耗核算——问题便会显现:同一个“澄清汁流量”,在不同系统中参与计算,得到的却是两套完全不同的结果。

在 TDengine IDMP 中,这类问题不再依赖人工经验去“记住差异”,而是通过模型层面的标准化设计,从源头上消除歧义,确保“一吨糖”在系统中只有一种确定、可复用的计算方式。

将“老师傅的共识”固化为系统规则

在实际生产中,许多关键口径早已形成行业共识,只是长期存在于经验和习惯中。TDengine IDMP 通过元素模板机制,将这些共识转化为可执行、可约束的系统规则。

以“澄清汁”这一对象为例,IDMP 在模型层对其进行统一、规范的定义,明确其所包含的各类属性,并对每个属性的名称、业务含义、数据类型、计量单位及使用口径进行统一约束。针对澄清汁流量,模型中会明确其业务含义、统一采用的标准计量单位、适用的工艺计算口径,以及是否参与物料衡算与产能分析等核心规则。

通过这种方式,同一类工艺对象、同一类指标在系统中只保留唯一、确定的解释,从根本上避免“同名不同义”或“同数不同算”的问题,为后续跨系统分析和长期稳定运行提供一致、可靠的数据基础。

图4 通过元素模板将知识固化

单位不同?系统自动算清楚

在统一标准的同时,TDengine IDMP 也充分考虑了现有系统的复杂性。针对属性模板,平台在公式层引入计量单位的自动识别与推导能力。

当数据来自 DCS 系统时,平台能够识别其计量单位为体积流量(m³/h);当数据来自历史系统或台账时,则识别为质量流量(t/h)。在参与计算或分析时,TDengine IDMP 会根据目标属性所要求的计量单位,自动推导并完成必要的单位换算,确保计算结果口径一致。

整个过程无需人工干预,也不依赖个人经验假设,使不同来源、不同口径的数据能够在统一模型下安全、可靠地参与分析,为物料衡算和经营决策提供稳定支撑。

图5 澄清汁的质量流量到体积流量的自动推导

数据情景化|让工业数据真正看得懂、用得上

在实际生产中,制糖行业越来越深刻地体会到:没有情景的数据,只是一串数字;只有将其置于具体的工艺场景中,数据才真正具有意义。

榨季期间,生产现场变化极为迅速。今天可能是澄清工段的 pH 值出现波动,明天发现废蜜纯度偏高,过几天又察觉实际产糖率与理论值存在偏差。这类问题本身并不复杂,但过去的分析方式却异常耗时费力——通常由业务人员凭借经验提出初步判断,再由技术人员到各个独立系统中查找相关点位、收集数据;数据找齐后,还需反复确认其时间范围、计算口径是否一致。往往经过这样一轮繁琐流程,数天时间已经过去。

究其根源,问题通常不在于人员专业能力,而在于数据本身缺乏情景化组织。业务人员往往不清楚所需数据具体分布在哪些系统中、是否可直接使用;技术人员也难以理解这些数据在工艺上应如何关联、如何分析,以及它们之间的业务逻辑是什么。这种数据与业务之间的“断层”,使得高效的分析与决策难以实现。

连接业务与技术的关键一环

引入 TDengine IDMP 平台后,制糖企业将能够使数据真正成为业务与技术之间的“通用语言”。

该平台通过为数据补充统一、清晰的业务语义,将其与具体的生产过程直接关联。每一条数据都将被明确归属到特定的工艺环节(如澄清、蒸发或煮糖),同时标识其反映的工艺机理类型(如反应强度、抽提效率或回收损失),并清楚定义其适用的业务场景(如质量监控、物料衡算、异常分析或工艺优化)。

在此基础上,平台还将构建标准化的技术元数据层,对数据来源、计量单位和合理取值范围进行统一管理。由此,数据从何处来、如何计算将变得清晰可溯,在进行数据分析、计算或设置告警时,系统能够自动确保口径一致,从而避免因理解偏差导致的结果不一。

这一步的关键价值在于,许多原本存在于“老师傅经验”中的隐性知识与共识,将被有效地沉淀并固化为清晰、可复用的系统规则,为知识的传承与规模化应用奠定基础。

图6 数据情景化(业务描述和限值)

业务分析真正实现自助

在数据完成情景化之后,制糖企业的业务分析方式将发生根本性转变,从过去高度依赖 IT 部门支持,转向以业务人员自助分析为主。系统前端将不再展示零散的点位编号与底层数据结构,而是围绕“澄清稳定性”“物料衡算”“产糖效率”等业务人员熟悉的工艺情景来组织数据与功能。

以澄清工段为例,工艺人员在“澄清稳定性”情景下,将能够直接选取 pH 值、混浊度、色值等关键指标,并自行拖拽搭建趋势对比与关联分析面板,用于实时判断反应状态是否偏离正常区间。整个过程无需向 IT 部门提出建模或取数需求,分析逻辑也将更加贴近现场实际。业务人员从而能真正基于数据流进行自主判断与决策。

这种以业务情景为核心的分析模式,将显著降低数据使用门槛与技术障碍,使得工艺人员更愿意、也更能够主动、自信地使用数据工具,推动数据分析融入日常作业闭环。

图7 澄清工艺是否稳定?业务人员自助分析

响应能力的显著提升

当业务分析实现自助化,为制糖企业带来最直接的变化就是——业务响应速度得到显著提升。过去,从发现异常到形成分析结论,往往需要经过多环节传递与处理,周期以天计算,等结论出来时,问题可能已经扩大,甚至错过了最佳工艺调整窗口。

未来,在数据情景化的支撑下,业务人员将能够在当班内直接完成数据取用、对比分析和假设验证。例如,当澄清工段 pH 值刚出现连续偏移时,系统可在对应的业务情景中自动聚合相关指标,工艺人员即可当场判断是否需要调整加药或工艺参数;当产糖率与预期出现偏差时,也可快速定位问题根源,判别是前段抽提、澄清损失,还是后段回收效率所致。

这意味着,问题有望在“扩大之前”就被识别和处理,从而使生产运行从被动应对逐步转向主动预防与控制。

总体而言,数据情景化将帮助制糖企业真正把数据用活于业务。生产管理将不再高度依赖个人经验与事后分析,而是逐步形成一套以数据为驱动、以业务场景为依托的快速决策机制,生产运行也因此有望变得更加稳定、高效与可控。

无问智推|AI 驱动的生产洞察升级

在实际生产中,制糖行业逐渐形成一种共识:AI 技术在其中的真正价值,并非在于“替代人工思考”,而在于能够在问题尚未被明确提出之前,就已将所需的相关信息与洞察准备就绪

过去,行业中的中控系统更多地扮演着“被动工具”的角色。监控哪些指标、如何进行关联分析,完全依赖当班人员的个人经验:工艺人员需自行回忆关键指标、查找数据点位、调整分析的时间窗口。新接班的团队往往难以快速入手;而当经验丰富的老师傅不在场时,许多隐性的工艺逻辑与判断也难以得到有效复用。

在引入 TDengine IDMP 平台并完成数据情景化构建之后,AI 所扮演的角色将发生显著转变。它将不再被动等待指令,而是基于对工艺语义与业务上下文的理解,主动识别当前生产状态,并动态推荐最贴合该业务场景的监控视图与分析内容。这使得系统能够引导注意力,辅助不同经验层次的人员更快地聚焦于关键问题,从而将专家经验转化为可持续、可复用的系统能力

澄清段的一个真实场景

以澄清工段的澄清汁监控为例。过去,制糖行业在监控澄清段时,往往仅限于观察几条关键参数的实时曲线,难以系统性地判断“当前工况是否真正处于正常状态”或“其趋势是否正在恶化”。

现在,AI 会自动为用户推荐一整套符合澄清工艺逻辑的监控面板,只需简单的点击“生成”,TDengine IDMP 就能够自动生成监控看板。在澄清汁场景下,系统会优先推荐:

  • 过去一小时澄清汁 pH 的最新值,用于快速判断当前反应状态;
  • 过去一天每小时澄清汁锤度的平均值,帮助用户观察短周期稳定性;
  • 过去一周澄清汁还原糖的平均值,以及按天汇总的变化趋势,用于评估澄清效果对糖损的影响。

AI 推荐的澄清汁的监控面板

这些内容并不是“通用模板”,而是因为系统已经理解:这些指标正是澄清段最关键、最有业务意义的数据组合

从“人盯数据”到“系统叫人”

在引入 TDengine IDMP 之前,制糖行业对澄清段的监控更多依赖人工经验。中控画面上曲线一直在动,工艺人员需要长时间盯着趋势,凭感觉判断是不是“有点不对劲”。采用 TDengine IDMP 之后,这种状态发生了明显改变。基于已经完成的数据情景化,AI 不再等待人工提问,而是主动推荐与澄清汁相关的实时事件监控和分析,通过实时分析预警,能够在关键时刻把人“叫过来”。

在澄清汁场景中,系统能够自动推荐分析:

  • 当澄清汁加热器出口温度超过 105℃,并持续 5 分钟以上时,立即触发主要告警,同时给出该时段的平均出口温度,清楚提示存在过热风险;
  • 对澄清汁锤度,系统每 5 分钟基于 3 倍标准差的 K-sigma 方法进行异常检测,一旦波动异常,直接给出最大锤度值,帮助用户快速判断异常程度;
  • 系统还推荐每 10 分钟滚动计算过去 30 分钟内的平均流量,用于辅助判断当前负荷是否发生变化。

在过去,这些判断逻辑往往只掌握在少数经验丰富的工艺人员手中,依赖于人员持续盯守数据、反复比对分析才能得以运用。如今,通过引入 TDengine IDMP 平台,这些经验与逻辑得以被 AI 沉淀并固化为持续、自动运行的系统能力。生产管理模式由此从依赖“人盯数据”逐步转向为“系统预警、人员确认”的协同机制,使异常得以更早被识别,工艺调整也能更及时地执行。这正是 TDengine IDMP 为制糖行业生产管理带来的最直观价值——将隐性知识显性化,将个人经验转化为可持续、可复用的系统智能。

AI 自动推荐的实时分析场景

给制糖行业带来的真正变化

对制糖行业来说,最大的变化在于:正常时不被数据打扰,异常时绝不会被遗漏。
生产管理也由此从“人盯数据”转向“系统叫人”,让异常更早被发现,让调整更及时发生。这正是 TDengine IDMP 在实际生产中带给制糖行业的最直观价值。

应用成效|从“系统上线”到“价值落地”

随着该工业数据平台在生产现场的深入部署与应用,制糖企业有望在生产管理与工艺管控方面逐步收获系统性成效。整体解决方案围绕生产、工艺和设备三大核心对象展开,将推动数据不再仅仅停留在系统层面,而是持续融入日常运行与管理决策之中。

全流程生产监控:让制糖过程“看得见”

通过对制糖工艺流程进行统一的数据资产建模,平台实现了从预处理到干燥包装的全过程数据采集与集中监控。各工段之间原本割裂的数据被打通,形成连续、完整的生产视图。关键工艺参数和运行状态能够集中呈现,为现场管理、生产调度以及异常发现提供了直观、统一的支撑。

生成物料损耗分析:让损耗“算得清”

围绕工艺过程和物料流转,平台引入了系统化的数据分析与物料衡算方法,对糖分在关键环节中的变化进行结构化分析,使以往主要依赖经验判断的物料损耗问题,转变为可量化、可对比的结果。生产、工艺和设备状态对管理层更加透明,为工艺优化和质量管控提供了更有依据的决策支持。

各个工艺段制糖损耗分析

工艺质量实时监控:让生产“跑得稳”

围绕关键工艺参数和质量指标,平台构建了持续运行的工艺质量监控体系,对生产各环节的运行状态进行实时跟踪和对比分析,使工艺波动由事后发现逐步转变为过程可控。通过对工艺偏差和异常趋势的及时识别,有效降低了过程波动对产品质量的影响,推动生产运行保持稳定。

工艺质量状态在生产层和管理层之间更加透明,为工艺调整和质量管控提供了持续、可靠的数据依据,有效支撑制糖生产的稳定运行和产品质量的均质化。

澄清汁 PH 值实时监控

工艺质量异常告警(澄清汁 PH 值)

商业价值|制糖企业可持续演进的数字化底座

从行业应用与发展的角度来看,此类项目的价值并不仅体现在一次性的系统建设或阶段性验收上,更在于为企业构建了一套可长期演进、持续赋能的数字化底座。通过统一的数据标准与平台架构,制糖行业首次获得了对全生产过程进行持续感知、系统分析与长效优化的能力,这为后续的管理深化与智能应用奠定了坚实基础。

短期而言,项目的实施将有效提升生产透明度与运行稳定性;从中长期看,该平台有望逐步成长为支撑企业实现稳产、提质、降本与风险精准管控的核心基础设施。

行业意义|一条稳健、可落地的制糖数字化路径

适用企业

  • 希望持续提升管理水平和长期竞争力的甘蔗制糖企业
  • 正处于数字化转型关键阶段的中小规模糖厂

成功前提

  • 管理层对数字化目标和数据价值形成清晰、统一的认知
  • 具备相对稳定、连续的生产和设备数据基础

核心路径

  • 以“工艺 + 物料 + 设备”为主线,系统推进数字化建设
  • 按“看得见 → 算得清 → 跑得稳”的节奏逐步实施,避免激进投入
  • 在夯实数据基础之上,稳步迈向智能优化和 AI 应用

未来展望|通过组态强化生产过程与工艺质量管控

从预期效果来看,TDengine IDMP 将在生产数据采集、集中监控与分析方面为制糖企业打下坚实基础,从而有效支撑生产过程监控与工艺质量分析的日常需求。

在此基础上,企业可期待未来进一步引入并强化平台的组态能力,以更加直观、图形化的方式呈现工艺流程、设备运行状态与关键工艺参数。这将推动生产监控从以数据列表和图表展示为主,逐步升级为面向过程与运行状态的综合可视化管控。通过组态化配置关键质量指标和工艺约束条件,有助于将成熟的工艺经验固化为可自动执行的监控规则,提升对工艺偏差和质量风险的提前识别与主动干预能力,从而更好地服务于制糖生产长期、稳定、高效的运行目标。

关于海莱德

北京海莱德自动化工程有限公司成立于 2010 年,是国内工业自动化技术与解决方案提供商,在制糖行业自动化领域具有专业积累。公司业务覆盖系统设计、工程实施、调试及售后服务等全流程,并在食品饮料、汽车、电力、冶金、烟草和机械制造等行业积累了丰富工程经验。近年来,海莱德参与了多个“一带一路”糖厂的集中控制 DCS 系统及数字化系统的设计、供货与调试,持续推进从自动化向数字化、信息化和智能化方向升级,并结合涛思数据的时序数据库和 TDengine IDMP 平台建立起了对制糖企业真正高效、实用且易于掌握的,具备 AI 智能的数字化系统。

近日,涛思数据与上海罗盘信息科技有限公司(以下简称 “上海罗盘”)举行钻石分销商签约仪式,标志着双方正式达成深度战略合作,将依托各自在数据领域的核心优势,携手为金融、制造、政企等多行业客户提供 “数据治理 + 时序存储” 全链路解决方案,推动时序数据技术在更多场景中的落地应用。

涛思数据创始人兼 CEO 陶建辉、战略渠道与生态合作总监郭浩,上海罗盘董事长马力等双方核心团队成员出席签约仪式,共同见证这一重要合作时刻。

优势互补,构建数据全生命周期服务闭环

作为深耕数据领域 23 年的资深玩家,上海罗盘自 2002 年成立以来,始终聚焦数据治理与数据中台核心赛道,在全国布局分支机构、研发基地与交付中心,服务覆盖银行、证券、保险、制造等多个关键行业,已为 200 多家大型客户落地创新项目,与多家 500 强企业建立长期信任合作关系。凭借完善的解决方案、成熟的交付模式与多项自主知识产权,上海罗盘在数据资产梳理、质量管控、中台搭建等领域积累了深厚的行业经验与客户资源,成为国内数据管理领域的标杆企业。

而涛思数据自主研发的 TDengine 时序数据库(Timeseries Database),凭借 “读写性能超传统方案 10 倍以上、存储成本仅为 1/10” 的核心优势,以及信创认证、高并发支撑、轻量化部署等特性,已成为工业时序数据存储与分析的首选方案;同时,AI 原生的工业数据管理平台 TDengine IDMP 以首创的“无问智推”能力重塑工业数据的建模、治理与消费方式,推动企业加速迈向数字化与智能化。

此次合作,上海罗盘在数据治理与中台建设的前端优势,将与 TDengine 在时序数据存储、分析的核心技术形成完美互补,构建 “数据治理 - 中台整合 - 时序存储 - 智能分析” 的全生命周期服务闭环,为客户解决数据管理中的碎片化痛点,提供更高效、更完整的数字化转型支撑。

签约仪式上,涛思数据创始人& CEO 陶建辉表示:“数据治理是数字化转型的基础,时序数据是工业互联网、物联网场景的核心资产,两者的深度融合是行业发展的必然趋势。上海罗盘在数据治理领域的 23 年沉淀与广泛客户资源,与 TDengine 的技术优势高度契合。此次钻石级合作,将进一步完善涛思数据的生态布局,让优质的时序数据技术通过成熟的服务体系触达更多行业客户,共同赋能千行百业的数字化升级。”

上海罗盘董事长马力对合作充满期待:“TDengine 作为国产时序数据库的领军品牌,其技术实力与市场口碑有口皆碑。上海罗盘深耕数据管理领域多年,深刻理解不同行业客户在数据全链路管理中的核心诉求。此次与涛思数据达成深度合作,将借助 TDengine 的核心技术补全时序数据存储与分析的关键环节,为客户提供更全面的数字化解决方案。期待双方在技术协同、市场推广、行业落地等方面实现共赢,共创数据价值新高度。

生态聚力,共绘数字化转型新蓝图

当前,数字化转型进入深水区,数据已成为企业核心生产要素,而时序数据作为物联网、工业互联网、金融风控等场景的关键数据类型,市场需求持续爆发。涛思数据始终坚持 “技术驱动 + 生态共建” 的战略,通过汇聚行业优质伙伴力量,构建优势互补、协同共赢的生态体系,让 TDengine 技术更快落地行业场景,为客户提供本地化、高效化的服务支持。

此次上海罗盘的加入,不仅为涛思数据生态注入了数据治理领域的强劲动能,更标志着 TDengine 钻石分销商矩阵正式成型!自分销商招募计划启动以来,涛思数据凭借全球领先的产品体系、开放共赢的合作理念,吸引了众多行业标杆企业加入,生态影响力持续扩大。

未来,涛思数据将继续深化与包括上海罗盘在内的所有生态伙伴的合作,在技术协同、方案共创、行业落地等方面持续发力,以更完整的产品服务链路、更深厚的行业落地能力,为千行百业的数字化转型提供核心支撑。

今年第一次从深圳自驾回广西桂林,不堵车情况下 5-6 小时到家。往年都只是听说可能要堵十几个小时,要命啊!!!

其实要减少堵在高速的时间,AI 建议绕行非热门高速,虽然总公里数增加 100-200km ,但是顺畅行驶下来应该花费的时间比院路线要少很多。

不知道大家是怎么熬过这十几小时的

一、引言:为什么选择TextIn与Coze搭建财报机器人?

面对季度、年度财报堆叠如山的PDF文档,技术团队如何快速、准确地将其中复杂的表格数据转化为结构化信息?本文将介绍一种高效实践方案:利用TextIn的智能文档解析能力,结合Coze的自动化工作流编排,快速构建一个能够处理多格式财报、抽取关键表格的自动化流程。

1.1 财报文档的典型难点

财报处理长期存在几大核心难点:

1.表格结构复杂:资产负债表、利润表等核心表格常存在跨页、续表情况,且合并报表与母公司报表两套体系并存,单元格合并频繁,对程序的结构化识别构成首要挑战。

2.文档格式多样:资料库中通常是电子PDF与扫描件图像混合共存,要求解决方案同时具备强大的文本解析与OCR版面分析能力。

3.手工处理成本高昂:三大表及附注的手动复制、粘贴、核对工作极其耗时,且容易出错,难以满足及时性、准确性要求。

1.2 TextIn+Coze方案的核心价值

本方案采用清晰的分工架构,将复杂问题模块化:

TextIn xParse引擎负责“读懂”文档:其强大的版面分析与表格识别技术,能统一处理电子PDF与扫描件,将混乱的原始文档转换为包含完整表格结构、段落标题的清晰JSON数据,为下游提取提供高质量的结构化输入。
Coze工作流负责“串联”自动化流程:可自动化编排“文件上传→调用TextIn解析→定位并抽取目标表格→输出至数据库/Excel”的完整管道。
Coze Bot 提供交互层:可构建一个对话机器人,不仅支持触发自动化流程,更能基于抽取出的数据,提供报表摘要、关键指标对比、甚至问答解释,让数据结果可直接被业务人员使用。

这种组合将专业的文档解析、灵活的业务逻辑编排与友好的交互界面相结合,使开发者能聚焦于核心的抽取规则,快速搭建从原始文档到业务可用数据的端到端流水线。

二、方案应用速览

工作流:

图片

输出结果:

图片

三、架构设计

3.1 总体链路

用户上传财报 → Coze触发工作流 → xParse → 代码节点抽取 → 输出结构化tables


图片

开始节点:接收用户上传的财报文件(File)。
TextIn插件节点:将财报解析为结构化JSON,核心使用result.detail(包含paragraph/table/image等元素)以及result.markdown。
代码节点:仅遍历detail,通过“表标题 → 后续表格”方式抽取三大表,并统一输出为tables{balanceSheet,incomeStatement,cashFlow}。
结束节点:将tables / debug / markdown输出给Bot,用于展示与后续问答分析。

3.2 数据结构约定

TextIn xParse - 插件节点的输出(result.detail / result.markdown等,详情见TextIn xParse API文档:https://docs.textin.com/xparse/parse-getjson

Response
├─ code                               # 接口状态码
├─ message                            # 状态信息
└─ result
   ├─ markdown                         # 文档级 Markdown
   └─ detail[]                         # 元素明细数组(只处理 type=table)
      └─ (仅当 item.type == "table" 时关注)
         ├─ type                        # 固定为 "table"(表格块)
         ├─ sub_type                    # "bordered"(有线) / "borderless"(无线)
         ├─ page_id                     # 表格所在页(续表拼接用)
         ├─ paragraph_id                # 表格元素ID(续表拼接用)
         ├─ rows                        # 表格行数
         ├─ cols                        # 表格列数
         ├─ text                        # 表格整体文本(md/html;展示用,抽字段优先 cells)
         ├─ continue?                   # 是否跨页/跨段续表(可选字段)
         └─ cells[]                     # 单元格数组(抽取字段核心)
            ├─ row                       # 行号(从0开始)
            ├─ col                       # 列号(从0开始)
            ├─ row_span?                 # 行合并跨度(默认1)
            ├─ col_span?                 # 列合并跨度(默认1)
            └─ text                      # 单元格文本(字段值通常从这里拿)

TextIn的返回结果中对表格块(type=table)的两种常见数据形态(务必兼容)

形态 A:HTML/Markdown 表格(最常见于工作流插件输出)


    抽取方式:解析text→ 转二维矩阵(headers/rows)
    item.text内包含<table>...</table>(或Markdown table)
    item.type == "table"


形态 B:单元格数组cells(部分接口/参数下提供)

    item.cells[]存在,包含row/col/text等
    抽取方式:优先用cells拼matrix(更结构化),不存在再回退到解析tex






财务三大表抽取 - 代码节点的输出示例(tables)
tables.balanceSheet / incomeStatement / cashFlow均为数组,设计理由如下:

同一份财报可能包含“合并 + 母公司”两套表;
或者出现“(续)”导致一张表被拆成多段;
因此用数组承载多张/多段表更稳妥,业务侧可按title/page_id再做合并与筛选。

tables

{
    "balanceSheet": [
        {
            "headers": [
                "项 目",
                "附注",
                "2025 年6 月30 日",
                "2024 年12 月31 日"
            ],
            "page_id": [
                2
            ],
            "rows": [
                [
                    "流动资产:",
                    "",
                    "-",
                    "-"
                ],
            ],
            "title": "合并资产负债表"
        },
 
 
    ],
    "incomeStatement": [
        {
            "headers": [
                "项 目",
                "附注",
                "2025 年1-6 月",
                "2024 年1-6 月"
            ],
            "page_id": [
                4
            ],
            "rows": [
                [
                    "一、营业总收入",
                    "",
                    "88,095,798,091.41",
                    "85,336,441,428.97"
                ],
            ],
            "title": "母公司利润表"
        }
    ],
    "cashFlow": [
        {
            "headers": [
                "项 目",
                "附注",
                "2025 年1-6 月",
                "2024 年1-6 月"
            ],
            "page_id": [
                5
            ],
            "rows": [
                [
                    "一、经营活动产生的现金流量;",
                    "",
                    "-",
                    "-"
                ],
            ],
            "title": "母公司现金流量表"
        }
    ]
}

Debug

"debug": {
  "detailLen": 823,
  "titleCandidates": 6,
  "hitTitles": [
    {"idx": 120, "page_id": 2, "title": "合并资产负债表"},
    {"idx": 260, "page_id": 4, "title": "母公司利润表"}
  ],
  "picked": [
    {"titleIdx": 120, "tableIdx": 125, "tableType": "balanceSheet"},
    {"titleIdx": 260, "tableIdx": 268, "tableType": "incomeStatement"}
  ],
  "tableBlocks": 12
}

3.3 关键设计点(财报专属)

标题命中策略(table_title + 关键词)
标题长度阈值(>20 跳过):避免长文档中出现“包含关键词的长句”被误判为表标题,从而误抽无关表格。
只认sub_type=table_title:优先使用版面分析识别到的“表格标题”元素,减少正文段落(header/text)误命中概率。

const TITLE_PATTERNS = {
  balanceSheet: ["资产负债表", "合并资产负债表", "母公司资产负债表"],
  incomeStatement: ["利润表", "合并利润表", "母公司利润表", "损益表", "收益表"],
  cashFlow: ["现金流量表", "合并现金流量表", "母公司现金流量表", "现金流量"],
};

function normalizeTitle(s) {
  return String(s || "")
    .replace(/\*\*/g, "")
    .replace(/[\s ]/g, "")
    .replace(/[《》]/g, "");
}
function matchType(norm) {
  for (const [k, kws] of Object.entries(TITLE_PATTERNS)) {
    if (kws.some(kw => norm.includes(kw))) return k;
  }
  return null;
}

function extractFromDetail(detail) {
  const tables = { balanceSheet: [], incomeStatement: [], cashFlow: [] };
  const debug = { hitTitles: [], picked: [], tableBlocks: 0, titleCandidates: 0 };

  for (let i = 0; i < detail.length; i++) {
    const item = detail[i];
    if (!item || typeof item !== "object") continue;

    const rawTitle = String(item.text || "");
    const title = normalizeTitle(rawTitle);

    // ✅ 简单校验:标题长度太长跳过
    if (title.length > 20) continue;

    // ✅ 查询TextIn接口返回数据中的表格标题,避免正文误命中
    if (String(item.sub_type || "").toLowerCase() !== "table_title") continue;

    const ttype = matchType(title);
    if (!ttype) continue;

四、准备工作

TextIn 开发者信息(x-ti-app-id / secret_code)

图片

在TextIn控制台(https://www.textin.com/)「开发者信息」中获取x-ti-app-id与x-ti-secret-code(下文统称 app_id/secret_code)。
建议在Coze工作流里把鉴权参数作为开始节点输入传入(便于不同环境切换),或在团队内部用变量/密钥管理统一配置。

五、工作流搭建

5.1 创建工作流

工作流命名、描述、版本说明
图片

5.2 开始节点配置

Input类型:File(接收上传文件)

图片

5.3 添加 xParse插件节点

输入映射:file → Input.file
鉴权配置:x_ti_app_id / x_ti_secret_code
输出字段说明:result.detail / result.markdown 等,输出重点使用:ParseX.result(作为代码节点输入),其中result.detail是抽表主数据源。


图片

5.4 添加代码节点(核心)

输入变量配置 (选择ParseX.result)

图片

代码职责:遍历detail→找table_title→找后续table→HTML转二维矩阵→输出 tables(代码节点源码附在文章最末尾)

图片

输出结构:tables{balanceSheet,incomeStatement,cashFlow} +debug

5.5 结束节点输出

输出给Agent:tables / markdown / debug

六、不止于抽取:更多自动化扩展方向

财报抽取机器人是一个高效的起点,接下来,基于TextIn提供的精准结构化数据与Coze灵活的工作流,还可以轻松延伸出更多智能化的数据处理能力:

续表自动合并:财报中经常存在大型表格跨页,可在工作流中添加逻辑节点,按title相同且表头一致合并 rows,并合并 page_id,彻底解决数据割裂问题。
表内锚点词校验:为确保抽取表格的完整性与正确性,可设计自动校验规则。例如,检查资产负债表中是否同时存在“流动资产”/“资产总计”科目;验证利润表是否包含“营业收入”/“净利润”;确认现金流量表是否包含“经营活动”。这一步能有效拦截因解析页面错误或文档版本差异导致的重大数据缺失。
结构化导出至Excel:将最终整理的tables列表,通过添加代码节点或Coze插件,转换为更通用的CSV或XLSX格式文件。这能让财务、业务部门的同事无缝接手,直接在Excel环境中进行后续分析与可视化。
实现智能多期对比:将工作流升级为可接收两份财报,分别提取后,系统能根据标准化的会计科目名称自动对齐数据,计算关键项目的同比、环比变化,并可由集成的LLM输出差异分析简报。

通过TextIn与Coze的组合,我们完成了从杂乱文档到结构化数据,再到可交互、可扩展的业务工具的完整路径,构建了一个可靠、可重复、且持续进化的数据流水线。无论是应对合规检查,还是满足定期的经营分析,这个财报机器人都能成为你技术工具箱中一个反应迅速、值得信赖的数字化助手。
现在,是时候告别手动处理的繁琐与不确定,让你的数据工作流真正“智能”起来。

七、附:代码节点源码

下载链接:https://dllf.textin.com/download/2026/CustomService/财报提取-coze代码节点源码.js

时光要追溯到2010年。在那之前,我一直用Visual Basic语言编写3D小游戏,乐在其中。那时我觉得Basic已经是非常简单的计算机语言了,但心中始终有一个疑问:有没有比Basic更友好、更适合少儿的编程语言呢?

于是我开始在网络上持续寻找。果然,不久后我遇到了Scratch 1.4版——那只来自美国麻省理工学院的小猫,一下子抓住了我的心。从此,我踏上了少儿编程教育的道路:2013年开办了编程培训班,2015年将Python正式纳入教学体系,到2018年时,我已积撰写了相当丰富的Python教学材料。

在教学过程中,我逐渐感到Python内置的turtle(海龟作图)模块功能有些局限。于是,我打开它的源代码文件turtle.py,仔细研究其结构,并从2019年开始,基于Python turtle模块持续开发一个更强大的扩展——Python精灵模块(sprites)。这个模块的核心是一个叫做Sprite的类,它大幅增强了海龟的功能,例如实现了像素级的碰撞检测等。如今,任何人都可以通过pip install sprites来安装并使用它。

最近几年,我将更多精力投入信息学奥赛的教学中,整日“苦思冥想”各种算法难题。2025年8月,暑假班结束后,我又开始思考另一个问题:如果C++的入门教学能像Python turtle一样直观、有趣,那不就能为中国更多青少年打开编程的大门吗?

为此,我在GitHub上搜索已有的类似成果,也尝试了一些用C或C++编写的“类turtle”库,例如小熊猫C++内置的C语言海龟作图、GoC等,甚至购买了相关教材准备投入教学。但最终,我并没有采用它们。原因何在?

小熊猫C++中的海龟作图功能,作者显然缺乏Python少儿编程的教学背景。我曾联系他,希望将命令设计得接近Python turtle的风格,但毕竟不能一直麻烦别人,后来也就作罢。GoC则为了降低输入难度,将命令简化为单个或两个字符(如pen.o),其命令集较小,功能也相对有限。它主要依赖在线环境,作者并未提供独立的编辑器(早期离线版需搭配Notepad++使用)。GoC更像为信息学奥赛选拔苗子而设计的前置课程——网上甚至有人建议一、二年级就开始学习。如果你确定要走信奥路线,这或许可行;否则,并不适合普通学生。

这里涉及一个关键的教育认知问题:并非所有孩子都适合在低龄阶段接触C++。神经科学研究表明,大脑前额叶皮层(负责逻辑、规划与抽象思维)发育较晚,通常到青春期才趋于成熟。​ 有些孩子认知发展稍晚,若过早强制学习C++这类抽象程度高的语言,容易导致挫败感,甚至产生“习得性无助”。相反,在中低年级通过图形化编程(如Scratch)进行多感官、具象化的学习,能更好地刺激大脑不同区域,促进思维灵活性和创造力的发展。等到年龄增长、认知准备更充分时,再接触C++,往往事半功倍。​ 现实中,不少学生直到高中阶段才在逻辑思维上“开窍”,这恰恰说明大脑发育有其自然节奏,教育应当顺应而非违背它。

那么问题来了:对于大多数普通学生而言,如果一二年级接触图形化编程,三四年级学习Python,那么到了合适年龄,该如何顺畅地过渡到C++?市面上是否存在一套针对普通学生、能完美衔接既有体系的C++课程?或许有,但可能不公开或需付费。无论如何,我决定亲手打造一个——“金窝银窝,不如自己的草窝”。

首先面临的是技术选型。如果基于OpenGL,虽然强大,但学习成本较高;我也尝试过EasyX,并做出了原型,但因其底层控制不足而放弃;之后考虑过raylib(基于SDL2封装)和SFML,它们功能丰富,但封装程度较高,不利于我深入底层实现教育定制化的需求。最终,我选择了SDL2——这是一个工业级的跨平台库,接口相对底层,自由度大,掌控力强,正好符合我的开发理念。

于是,我以SDL2为基础,开始了漫长的开发与调试。最初叫它“C++ Sprites库”,后来正式定名为“C++精灵库”。为降低使用门槛,我还专门开发了配套的pxC++编辑器,并制作了Dev-C++ 5.11的升级包,使其能更好地融入中小学现有的C++教学环境。

如今,C++精灵库不仅完整继承了Python turtle的简洁API与教育基因,更在其基础上进行了优化与扩展,比如:

· 新增fill命令,支持区域填充;

· 通过函数重载,使pencolor等命令既支持字符串参数,也支持RGB/整数参数,更加灵活;

· 设计penshade(阴影度)、pensat(饱和度)、penvalue(明度)、penhsv(HSV色彩模型)、penalpha(透明度)等色彩控制方法;

· 加入贝塞尔曲线与样条曲线绘制功能,让有美术天赋的学生也能轻松创作复杂图形。

本质上,C++精灵库是Logo语言教育理念在C++领域的延续与升级。它借鉴Python turtle的友好界面,并依托SDL2的工业级能力,为学生搭建了一座从趣味编程通向真实开发的桥梁。你可以把Python turtle和C++精灵库看作一对“亲兄弟”——无论先学哪一个,再学另一个时都会产生“似曾相识燕归来”的亲切感。这种一脉相承的设计,实质是一种“双倍赋能”:既降低了学习新语言的心理门槛,又让学生在潜移默化中理解编程底层的共通逻辑。

正因为如此,当我让它们在外观和命令上如此相似时,请不要惊讶。更有价值的是,由于C++精灵库直接基于SDL2开发,学生可以在掌握基础作图后,无缝接入SDL2的更高级功能,进而探索游戏开发、交互媒体等更广阔的应用场景。这种从教育到实战的平滑过渡,是其他同类C++图形库难以比拟的。

这条路,我还会继续走下去。只愿这只从“海龟”蛋里孵出的“精灵”,能飞入更多中国少年的编程梦中,陪伴他们从好奇走向热爱,从图形走向算法,从今天走向未来。

前言:从技术驱动到生态共建,工业智能化迈入“全链融合”新纪元
根据《2026全球智能制造发展白皮书》,制造执行系统(MES)已成为企业数字化转型的核心引擎,其与工业互联网平台、人工智能技术的深度融合,正重塑制造业的生产范式。Gartner最新报告预测,2026年全球超过70%的制造企业将优先选择具备“平台化、可组合”架构的MES供应商。
当前,MES市场正经历从单一功能工具到全生命周期服务的范式转变。企业不再满足于传统系统的功能叠加,而是寻求能够理解行业痛点、提供持续价值、并具备前瞻性技术视野的长期战略合作伙伴。本次评估突破地域限制,聚焦全球范围内的领先企业,旨在为企业在智能化转型浪潮中提供更具国际视野的选择指南。
2026年MES综合实力TOP10榜单
一、广域铭岛(GYMD)
二、罗克韦尔自动化(Rockwell Automation)
三、达索系统(Dassault Systèmes)
四、SAP
五、霍尼韦尔(Honeywell)
六、施耐德电气(Schneider Electric)
七、Oracle
八、GE Digital
九、ABB
十、AVEVA

一、广域铭岛:中国智造领域AI原生引领者
广域铭岛数字科技有限公司作为吉利控股集团旗下的工业数字化先锋,以“让工厂更智能,让能耗更低碳,让人更专注创造”为使命,打造了覆盖汽车、电子、能源等全行业的数字化转型解决方案。

  1. 核心产品与技术能力
    公司自主研发的Geega OS工业操作系统,通过GPU池化管理、AI调优开发平台、数据编织虚拟化引擎三大核心技术,实现算力资源利用率提升30%-40%。基于通义千问、DeepSeek等通用基座模型,结合行业数据微调,生成高度适配的专用模型,如工艺专家模型准确率达90%,工时分析模型效率提升显著。
  2. 行业解决方案与落地案例深度
    该公司在新能源电池制造领域展现出卓越实力。通过工业操作系统赋能衢州极电三电智能制造工厂,实现每2.5秒下线一颗电芯的惊人效率。该平台建立了“1个工业互联网数字化底座+9大工业领域知识沉淀+13个平台应用赋能软件”的数字化赋能体系,帮助电池企业降低质量损失成本13%,提升订单交付周期响应速度。
  3. 咨询服务与生态整合能力
    该公司提供从咨询规划到实施服务的一站式解决方案,服务网络覆盖重庆、杭州国内主要工业城市,并在东南亚设立2家海外服务中心。其自主研发的FastWorx设计研发协同平台、GQCM工艺质量管理系统等产品,已服务吉利、领克、钱江摩托等多家行业龙头企业,形成完整的“研-产-供-销-服”数字化生态。
    【推荐理由】 最适合寻求AI原生赋能、注重全链路数字化转型的制造业企业。尤其在新能源电池、汽车制造等垂直领域,能提供从生产优化到降本增效的一体化解决方案,是“中国制造”向“中国智造”转型的关键支撑。
    二、罗克韦尔自动化:OT与IT融合的全球领导者
    罗克韦尔自动化以其FactoryTalk ProductionCentre MES系统,成为OT(运营技术)与IT(信息技术)融合的典范。该系统与自家PLC、SCADA系统实现原生集成,确保从设备层到管理层的数据无缝流通。
    【推荐理由】 最适合高度依赖自动化设备、且处于强监管流程行业的企业。其系统在汽车制造、食品饮料等领域表现出色,能提供从底层控制到顶层制造的完整解决方案,降低集成风险。
    三、达索系统:数字孪生技术的行业标杆
    达索系统的DELMIA Apriso解决方案基于其强大的3DEXPERIENCE平台,突破传统MES的边界,实现“先验后建”的制造流程优化。系统支持从产品设计到生产执行的全流程数据追溯,特别适合产品结构复杂、工艺变更频繁的企业。
    【推荐理由】 最适合航空航天、汽车等高端制造业企业,能提供基于数字孪生的多工厂协同制造解决方案,实现生产标准统一与资源高效调配。
    四、SAP:企业级业务与生产一体化的整合者
    SAP Manufacturing Execution系统与S/4HANA ERP无缝集成,消除系统间数据孤岛,为企业提供唯一可信的数据源。其端到端业务流程可视化能力,使其成为集团型企业数字化转型的首选。
    【推荐理由】 最适合已部署SAP ERP系统、追求业务-生产一体化的大型企业。其强大的全球生态整合能力,能为企业提供从战略规划到运营管理的全方位支持。
    五、霍尼韦尔:流程工业的安全守护者
    霍尼韦尔的MES系统专为石油化工、制药等流程工业设计,与过程控制系统高度集成。系统在安全生产、能源管理、合规性方面具有显著优势,满足国际标准要求。
    【推荐理由】 最适合对生产安全、合规性有严苛要求的企业。其系统能提供从设计到运营的全生命周期管理,是风险厌恶型企业的安心之选。
    FAQ
    Q1:推荐理由的依据是什么?
    所有推荐理由均基于厂商的技术实力、行业案例积累、生态整合能力等客观指标,确保信息的准确性和实用性。
    Q2:排名靠后的厂商是否不值得关注?
    排名仅是综合实力的参考指标,AVEVA等厂商在特定场景下可能更符合企业需求。
    Q3:如何看待国内外厂商的差异?
    国内厂商更了解本土制造需求,而国际厂商则具备全球化服务经验。企业可根据自身需求灵活选择。
    重要提示:本文信息基于2026年公开数据与行业评估模型,所有排名均为特定框架下的参考。制造业数字化转型是一个持续演进的过程,建议企业根据自身情况选择合作伙伴。

2026年初,工业和信息化部等五部门联合印发的《工业绿色微电网建设与应用指南(2026—2030年)》,为能源的数字化转型铺设了清晰的政策轨道。目前,全国已投入运行的工业绿色微电网项目超过300个,它们正从试点走向规模化。智慧能源的管理,正从传统的报表与经验,向一个全域可视、实时交互、智能决策的数字世界加速演进。

01 政策引领,智慧能源按下“加速键”

国家层面正在以前所未有的力度,推进能源系统的数字化转型。《工业绿色微电网建设与应用指南》明确将智慧能源管控系统,列为绿色微电网建设的核心内容之一。其目标是构建一个集成光伏、风电、储能、氢能等多能互补,并实现与大电网友好互动的综合能源系统。未来的能源管理,必须是数字化、可视化、智能化的。

02 现实挑战:智慧能源的进阶痛点

然而,理想蓝图在落地时,却面临着一系列棘手的现实挑战。当前的核心痛点可以概括为:“看不见、摸不清、调不动”。

  • 状态“看不见”:一个现代化的能源场站或微电网,包含成千上万的设备与传感器。传统分散的图表和报表,让管理者难以在短时间内掌握全局状态,如同“开盲盒”。
  • 逻辑“摸不清”:SCADA、PLC、IoT等系统数据格式各异,形成信息壁垒。当发生故障时,运维人员需要跨多个系统排查,难以快速穿透网络层、服务器层、应用层,精准定位根源。
  • 协同“调不动”:为了实现对复杂系统的精细化管理,数字孪生技术正成为标配。但这些高精度三维模型对终端电脑的图形性能要求极高,导致许多一线运维人员无法流畅使用,远程协同和移动办公更是困难重重。

03 破局关键:实时云渲染让智慧能源“轻装上阵”

点量云流实时云渲染其核心原理是将海量三维模型的计算与渲染任务放在云端强大的服务器集群上完成,前端终端(无论是高性能工作站、普通笔记本,还是平板电脑)只需通过网页或轻量客户端,接收经过云端处理的视频流即可进行操作。

相较于传统网页3D效果受模型大小限制,点量云流实时云渲染能够在不消耗终端硬件性能的情况下,实现无需等待加载、即时打开与实时交互的体验。

这一转变带来了三个根本性改变:

  • 终端解放:运维人员不再受本地硬件性能束缚,用一台普通办公电脑或移动设备,就能流畅操控大型能源场(如风、电、煤等)的实景数字孪生模型。
  • 数据安全:所有核心模型与数据始终保存在云端服务器,前端只传输视频流,从根本上杜绝了三维数字资产通过终端泄露的风险。
  • 高效协同:不同地域的专家可以同时接入同一个三维场景,基于统一的、可视化的模型进行会诊、标注和决策,极大提升了跨团队协作效率。

04 实战图景:可视化如何重塑能源管理

技术的价值,最终需要体现在真实的场景中。当实时云渲染技术卸下了硬件的重担,一系列曾经难以落地的应用,正悄然成为智慧能源管理的日常。
1、运维:从“被动响应”到“主动预警”
基于高精度数字孪生模型,系统能深度融合实时数据与AI算法,提前洞察设备亚健康状态,精准预测潜在故障。运维策略由此从紧急抢修的“被动处置”,转向计划性干预的“主动预防”。而这一切得以实现的关键,在于实时云渲染技术让这套复杂的三维预警系统,得以在各级管理中心的普通电脑上便捷访问与联动,使预防性维护真正触手可及。

2、管理:从“分散孤岛”到“全域一张图”
传统管理中,物理设备、网络流量、业务数据往往分散于不同系统,形成信息壁垒。如今,通过实时云渲染技术,这些要素被整合进一个统一的动态三维界面,生成能源系统的“全景作战图”。结合云推流能力,无论是集控中心的大屏,还是巡检人员的移动终端,都能获得一致、流畅且可交互的全局视角,真正实现了“全域可视、全局可控”的集中化管控。

3、效率:从“人工跑腿”到“远程会诊”
对于地处偏远的风电场或水电站,专家亲赴现场耗时费力。通过点量云渲染平台,专家在千里之外即可指挥实景复刻的虚拟现场,通过三维模型远程指导一线人员排查故障,将响应时间从数小时大幅压缩至分钟级。这不仅是距离的缩短,更意味着高精度模型得以在PC、平板等多终端安全、流畅地访问,显著提升了跨地域协同、应急指挥与人员培训的效能。

随着实时云渲染技术与能源体系的深度融合,智慧能源的管理模式将迎来根本性变革。高精度的能源系统数字孪生将不再受限于本地硬件,而是通过云推流技术,成为在任何终端均可流畅访问与协同操作的“活地图”。从宏观调度到微观运维,决策都将基于一张全域同步、实时可视、深度交互的动态图谱。

这不仅是技术的叠加,更是从“经验驱动”到“全景数据驱动”的智慧跃迁。一个更高效、更透明、更坚韧的能源时代,正借由这条“云端高速路”,清晰地向我们驶来。

  1. wsl2 中开启服务 -h 0.0.0.0
  2. wsl2 可以通过 10.xx 网络访问, 也可以通过 127.xx 访问
  3. windows 宿主机可以通过 127.xx 访问, 但是无法通过 10.xx 访问
  4. 如果这个服务在 windows 上开启, 一切正常.
  5. 和 clash 有关系吗? 不过我试过, 即使 clash 退了也白扯.
[wsl2]
memory=10GB 
processors=4
swap=16GB
pageReporting=true
localhostforwarding=true
networkingMode=mirrored
nestedVirtualization=false
debugConsole=false
dnsTunneling=true
firewall=true
autoProxy=true #强制 WSL 使用 Windows 的 HTTP 代理信息

[boot]
systemd=true

[experimental]
autoMemoryReclaim=gradual # 检测到空闲 CPU 使用率后自动释放缓存内存。设置 gradual 为缓慢释放,设置 dropcache 为立即释放缓存内存。
sparseVhd=true

我是不相信第三方 API(主要是收费),所以自己找了一下
天气网: https://www.weather.com.cn/

image
打开网站,抓包就能看到怎么获取的,还可以白嫖 IP whois,这样就可以根据 IP 获取用户位置再查天气。
天气信息: https://d1.weather.com.cn/weather_index/101200101.html?_=1769051590198
这里怎么解析我就不赘述了,既然来这个论坛,解析这些数据都不是问题。
1、这个请求防盗链,需要加上 referer。
2、这个 101200101 怎么来的?

第一个问题看看就知道了,这里只说第二个问题。
101200101 这个不是随便编的 id,这个数字是城市代码
中国国家气象局天气预报信息接口: https://www.cnblogs.com/youlixishi/articles/3612035.html
中国天气网城市代码: https://blog.csdn.net/weixin_30492047/article/details/98287973

如果只是网上搜,那就是玄阶功法了,毕竟网上信息不一定及时,行政区划会有变化。
直接去爬
https://topic.alibabacloud.com/a/china-weather-net-interface-font-colorredreturnfont-font-colorredjsonfont-format-parsing-and-interface-xml-picture-interface-description_1_11_30654886.html
获取省级代码: http://www.weather.com.cn/data/list3/city.xml?level=1
比如湖北是 20
获取城市代码: https://www.weather.com.cn/data/list3/city20.xml?level=2
比如武汉市是 2001
获取区代码: https://www.weather.com.cn/data/list3/city2001.xml?level=3
这里城市天气代码,不是行政区划,所以有的没有(可能数据没更新,反正是顺序递增)
最终就是 101+20+01+01
打开报错是吧?
image
楼主,打开报错了。
那是因为显示的.xml 实际上不是 xml 文件,浏览器当 xml 渲染当然报错,直接查看源代码。
image
直接 view-source
image
简易信息

🚀 快速回答 (Golden Answer)

从 0 到 1 搭建智能体的核心逻辑是 “明确需求 → 选对工具 → 配置闭环 → 测试优化”:无需复杂编程,优先用零代码 / 低代码工具(如 Coze、LangGraph),先定义 “智能体要解决的具体任务”(如自动化办公、设计辅助),再通过 “设定角色 → 拆解任务 → 配置工具 → 添加反思逻辑” 完成搭建,最终通过测试迭代优化效果。核心是 “让智能体精准匹配需求”,而非追求技术复杂度。

一、前置认知:先搞懂 “搭建智能体” 的核心前提

1.1 搭建智能体的核心目标:解决 “具体问题”

智能体的核心价值是 “自主完成复杂任务”,搭建前必须明确 “它要帮你做什么”,避免盲目搭建。常见落地场景:

  • 个人场景:自动化周报生成、文献整理助手、学习笔记总结、购物比价监控;
  • 职场场景:客户咨询智能客服、销售数据自动分析、市场调研报告生成、设计批量出图;
  • 垂直场景:电商运营助手(商品上架 + 文案生成)、科研辅助(数据检索 + 分析)、教育答疑(学科知识点梳理)。

1.2 搭建智能体的核心逻辑:“感知 - 规划 - 行动 - 反思” 闭环

无论用哪种工具,智能体的底层逻辑都是这四个环节的循环,搭建的本质就是 “配置这四个环节的规则”:

  • 感知:让智能体 “接收信息”(如用户需求、外部数据、工具反馈);
  • 规划:让智能体 “拆解任务”(如 “生成销售报告” 拆解为 “收集数据 → 清洗数据 → 分析 → 排版”);
  • 行动:让智能体 “执行步骤”(如调用 Excel、API 接口、设计工具完成具体操作);
  • 反思:让智能体 “修正错误”(如数据缺失时重新收集,格式错误时自动调整)。

1.3 零基础搭建的核心原则:“工具优先,不造轮子”

无需从零开发大模型或底层架构,当前主流工具已提供 “可视化配置 + 现成组件”,零基础只需聚焦 “需求匹配” 和 “流程配置”,核心原则:

  1. 优先选零代码工具(如 Coze、Notion AI Agent),快速验证需求;
  2. 复杂场景再用低代码工具(如 LangGraph、AutoGen),灵活适配个性化需求;
  3. 先搭建 “最小可用版本”(仅满足核心任务),再逐步添加功能。

二、工具选择:零基础必看的 “工具选型矩阵”

不同工具的门槛、功能、适配场景差异较大,结合 “零基础友好度” 和 “落地实用性”,整理核心工具对比:

工具名称技术门槛核心优势适配场景学习成本
Coze(扣子)零代码可视化配置,插件生态丰富(支持 Excel、数据库、设计工具等),可直接发布为小程序 / APP个人助手、职场自动化、客服机器人低(1-2 小时掌握基础配置)
Notion AI Agent零代码与文档深度融合,支持笔记整理、报告生成、任务管理,操作简单直观学习助手、文献整理、文档自动化极低(熟悉 Notion 即可上手)
LangGraph低代码(Python 基础)状态控制极强,支持复杂循环逻辑,适配高定制化任务科研辅助、复杂数据分析、自动化办公流中(需掌握基础 Python 和 Prompt 技巧)
AutoGen低代码(Python 基础)支持多智能体协作,角色分工明确,降低复杂任务的配置难度软件工程、内容生产流水线、多步骤商业分析中(需理解多智能体协同逻辑)
Make(原 Integromat)零代码专注工具集成,支持 1000 + 款软件对接,擅长自动化工作流串联跨平台自动化(如微信 + Excel + 邮件协同)低(重点学习工具对接逻辑)

💡 零基础优先推荐:Coze(功能全、生态完善)或 Notion AI Agent(简单直观);若需处理复杂任务,再学习 LangGraph(低代码门槛)。

三、分步实操:用 Coze 从零搭建 “自动化周报生成智能体”(零代码案例)

以 “自动收集 Excel 数据 → 生成周报 → 排版导出” 为核心任务,用 Coze 完成搭建,全程可视化操作,10 分钟即可完成基础版本:

3.1 第一步:明确需求与角色设定

  1. 核心需求:用户上传 Excel 销售数据后,智能体自动计算核心指标(销售额、增长率、Top3 产品),生成结构化周报,支持 Word 导出;
  2. 角色设定:在 Coze 后台 “角色定义” 中填写 ——“你是职场销售周报生成助手,擅长从 Excel 数据中提取核心信息,生成逻辑清晰、格式规范的周报,语言正式专业”;
  3. 补充提示:添加 “周报格式要求”(如包含 “本周概况、核心数据、趋势分析、下周计划” 模块),让智能体输出更精准。

3.2 第二步:配置 “工具”(让智能体具备执行能力)

智能体需要对接 Excel 和 Word 工具,才能完成数据读取和导出,操作步骤:

  1. 在 Coze “插件市场” 中搜索 “Excel 解析” 和 “Word 导出” 插件,点击 “启用”;
  2. 配置插件权限:授权 Coze 读取用户上传的 Excel 文件(仅读取权限,保障数据安全);
  3. 测试工具连通性:上传一份测试 Excel 数据,点击 “测试插件”,确认智能体能正常提取数据。

3.3 第三步:设计 “任务流程”(拆解执行步骤)

在 Coze “流程设计” 模块,用可视化拖拽配置任务步骤,核心流程:

  1. 触发条件:用户上传 Excel 文件并发送 “生成周报” 指令;
  2. 步骤 1:调用 “Excel 解析” 插件,提取数据(销售额、产品名称、日期等);
  3. 步骤 2:智能体计算核心指标(本周总销售额、环比增长率、Top3 热销产品);
  4. 步骤 3:按照预设格式生成周报文本;
  5. 步骤 4:调用 “Word 导出” 插件,生成周报文件并反馈给用户。

3.4 第四步:添加 “反思逻辑”(让智能体能修正错误)

为避免数据缺失或格式错误,添加简单反思规则:

  1. 在 “流程设计” 中添加 “判断节点”:若 Excel 数据缺失关键字段(如 “销售额”),则自动向用户发送 “请补充包含销售额字段的 Excel 文件”;
  2. 添加 “格式校验”:生成周报到导出前,自动检查是否包含预设的 4 个模块,缺失则补充完善。

3.5 第五步:测试与发布

  1. 测试验证:上传测试 Excel 数据,发送 “生成周报” 指令,查看智能体是否能正确完成全流程,重点检查数据计算准确性和格式规范性;
  2. 优化迭代:若存在格式混乱,补充 “周报格式细则”(如字体、行距、标题层级);若数据计算错误,调整指标计算规则;
  3. 发布使用:测试通过后,点击 “发布”,可生成小程序 / 网页链接,直接在工作中使用。

四、进阶优化:让智能体更 “好用” 的 3 个关键技巧

4.1 精准 Prompt 优化:提升输出质量

在角色定义中补充 “具体约束”,而非模糊描述,示例:

  • 差 Prompt:“生成专业的周报”;
  • 好 Prompt:“生成销售周报,包含本周概况(30 字内)、核心数据(表格呈现)、趋势分析(200 字内)、下周计划(3 条核心动作),语言正式,避免口语化,数据保留 2 位小数”。

4.2 个性化适配:对接个人 / 企业知识库

若智能体需要适配特定业务(如公司产品知识、个人工作习惯),可在 Coze 中上传 “知识库”(如公司产品手册、个人工作模板),让智能体学习后输出更贴合需求的结果。

4.3 多智能体协作:解决复杂任务

对于 “市场调研 → 数据分析 → 报告生成” 这类复杂任务,可搭建 “多智能体团队”:

  • 调研智能体:负责收集市场数据;
  • 分析智能体:负责数据计算与趋势分析;
  • 撰写智能体:负责生成最终报告; 在 Coze 中配置 “智能体间通信规则”,让它们协同完成任务,提升效率。

五、避坑指南:零基础搭建常见问题与解决方案

常见问题核心原因解决方案
智能体输出不符合预期(如格式混乱)角色定义模糊,缺乏明确约束补充具体的输出格式、语言风格、内容模块要求,用示例引导(如 “参考以下示例格式生成:【本周概况】XXX”)
智能体无法完成复杂任务(如数据计算错误)任务拆解不细致,工具配置不当将复杂任务拆分为更细的原子步骤,检查工具参数配置(如数据字段匹配),添加人工校验节点
智能体出现 “幻觉”(如编造数据)缺乏真实数据支撑,规则约束不足强制智能体仅基于用户上传的数据输出,添加 “禁止编造数据” 的规则,关键数据要求标注来源
工具调用失败(如无法读取 Excel)插件权限不足,文件格式不兼容重新授权插件权限,统一文件格式(如 Excel 保存为.xlsx 格式),测试工具连通性

六、FAQ:零基础搭建智能体最关心的核心问题

Q1:搭建智能体需要懂编程吗?

答:不需要。 零代码工具(如 Coze、Notion AI Agent)通过可视化拖拽和文字描述即可完成搭建;若需高定制化,仅需掌握基础 Python(低代码工具),但零基础可先从简单工具入手,无需一开始学习编程。

Q2:搭建智能体需要花钱吗?

答:个人非商业使用基本免费。 Coze、Notion AI Agent 等工具对个人用户提供免费额度(足够日常使用);商业场景或高频率使用可能需要付费升级,但零基础入门无需付费。

Q3:智能体的数据安全有保障吗?

答:选择正规工具即可保障。 主流工具(如 Coze、Notion)均有数据加密机制,且可设置 “仅自己可见”;避免上传敏感数据(如身份证、银行卡信息),若需处理企业数据,可选择企业版工具(提供私有部署选项)。

Q4:搭建完成后,能修改功能吗?

答:可以。 所有主流工具均支持 “二次编辑”,可随时修改角色定义、任务流程、工具配置;建议根据使用反馈定期优化,让智能体更贴合需求。

七、核心总结

从 0 到 1 搭建智能体的核心不是 “技术攻关”,而是 “需求聚焦” 与 “流程拆解”:零基础用户无需畏惧,优先选择零代码工具,先明确 “智能体要解决的具体问题”,再通过 “角色定义 → 工具配置 → 流程设计 → 测试优化” 的步骤逐步落地,先搭建 “最小可用版本” 验证需求,再逐步进阶优化。

智能体的价值在于 “解放重复劳动”,搭建的关键是让它成为 “贴合自己需求的助手”,而非追求 “功能全而杂”。随着工具生态的完善,“人人都能搭建智能体” 已成为趋势,掌握这种 “人机协同” 的搭建能力,将大幅提升个人与工作效率。

参考文献与工具资源

  1. Coze(扣子)官方文档:《零代码智能体搭建指南》
  2. LangGraph 官方教程:《低代码智能体开发实战》
  3. 腾讯云《智能体落地实践白皮书》(2025)
  4. 推荐学习平台:Coze 学院、Notion AI 帮助中心、GitHub AutoGen 示例仓库

核心关键词

智能体搭建、从 0 到 1、零代码智能体、Coze、LangGraph、自动化办公、智能体工具、人机协同

GET_URL API 接口文档

接口信息

POST /openapi/capcut-mate/v1/get_url

功能描述

提取链接。该接口用于提取输入内容中的链接信息,用于多值返回变成单值返回。

更多文档

📖 更多详细文档和教程请访问:https://docs.jcaigc.cn

请求参数

{
  "output": "[魂牵梦萦https://sf.com;中国人https://jcaigc.cn],\"[]\""
}

参数说明

参数名类型必填默认值说明
outputstring-提取内容

参数详解

output
  • 类型: string
  • 说明: 需要提取链接的内容
  • 示例: "[魂牵梦萦https://sf.com;中国人https://jcaigc.cn],\"[]\""

响应格式

成功响应 (200)

{
  "output": "[魂牵梦萦https://sf.com;中国人https://jcaigc.cn],\"[]\""
}

响应字段说明

字段名类型说明
outputstring提取结果

错误响应 (4xx/5xx)

{
  "detail": "错误信息描述"
}

使用示例

cURL 示例

1. 基本使用
curl -X POST https://capcut-mate.jcaigc.cn/openapi/capcut-mate/v1/get_url \
  -H "Content-Type: application/json" \
  -d '{
    "output": "[魂牵梦萦https://sf.com;中国人https://jcaigc.cn],\"[]\""
  }'

错误码说明

错误码错误信息说明解决方案
400output是必填项缺少output参数提供有效的output参数
500提取链接失败内部处理错误联系技术支持

注意事项

  1. 参数要求: output参数为必填项
  2. 返回值: 当前版本直接返回输入的内容,不做额外处理

工作流程

  1. 验证必填参数(output)
  2. 调用服务层处理业务逻辑
  3. 返回处理结果

相关接口


📚 项目资源
GitHub项目名称: capcut-mate

生成式 AI 的投资回报远超预期?Snowflake 调研全球 1900 位企业与 IT 专业人士后发现平均 ROI 高达 41%!点击下载完整报告

在当今竞争激烈的电商领域,为客户提供个性化体验已不再是奢侈选项,而是驱动成功的关键要素。运用人工智能驱动分析、数据科学与机器学习的企业正日益超越竞争对手。消费者越来越期待定制化推荐与动态购物体验——这正是 Snowflake ML 的用武之地。

 

通过 Snowflake ML,开发者和分析师可直接在 Snowflake 平台中使用标准 SQL 实现以下功能:

  • 加载与整合数据

  • 构建客户细分画像

  • 训练并部署机器学习模型

  • 生成个性化评分

  • 将结果输送到应用与实时工作流中

 

本文将深入探讨 Snowflake ML 如何为现代电商体验提供简洁、基于 SQL 的个性化解决方案。您将了解如何将客户数据接入 Snowflake,根据行为模式划分客群,并利用 Snowflake ML 构建预测高价值客户的智能模型。无论您是构建个性化工作流的开发者,还是提升营销效果的分析师,这些实践步骤都将助您快速入门。

 

请首先登录您的 Snowflake 账户(访问 Snowflake 网页控制台)。若尚未拥有账户或需测试环境进行学习,可在此免费注册体验。

步骤 1:加载并准备数据

我们将首先创建一个客户订单的小型模拟数据集。

请在 Snowflake SQL 工作表中完整运行以下代码块: 

-- Step 1.0: Create a database and schemaCREATE OR REPLACE DATABASE DATACLOUDDISPATCHSI;USE DATABASE DATACLOUDDISPATCHSI;CREATE OR REPLACE SCHEMA ECOMMERCE;USE SCHEMA ECOMMERCE;-- Step 1.1: Create a customer orders tableCREATE OR REPLACE TABLE CUSTOMER_ORDERS (  CUSTOMER_ID  NUMBER,  ORDER_ID     NUMBER,  ORDER_DATE   DATE,  ORDER_VALUE  NUMBER(10,2),  PRODUCT_ID   NUMBER);-- Step 1.2: Insert sample order dataINSERT INTO CUSTOMER_ORDERS (CUSTOMER_ID, ORDER_ID, ORDER_DATE, ORDER_VALUE, PRODUCT_ID) VALUES(1001,50001,'2023-01-15', 89.99,201),(1001,50022,'2023-03-02',120.49,305),(1002,50110,'2023-05-11', 45.00,110),(1003,50155,'2023-02-19',239.00,402),(1003,50190,'2023-05-22',130.00,233),(1003,50201,'2023-06-01', 99.99,110),(1004,50333,'2023-01-05', 19.99,502),(1001,50390,'2023-11-11',301.00,900),(1005,50400,'2023-12-12', 67.50,702);-- Step 1.3: Verify dataSELECT * FROM CUSTOMER_ORDERS ORDER BY ORDER_DATE;
复制代码

 

该数据集包含重复的客户购买记录、多样化的订单金额以及用于后续客户分群和机器学习建模的实用字段,足以支持基础建模需求。

使用 Snowflake Workspace

若您倾向于通过可视化界面而非 SQL 加载数据,Snowflake Workspace 支持将文件(包括 Excel 和 CSV 格式)直接拖放至环境中。

 

1. 在 Snowflake 左侧导航栏中进入 Projects。

2. 点击下拉菜单中的 Workspaces(如图所示)。

3. 创建并打开一个新的 Workspace。

4. 在 Workspace 内点击+ Worksheet 以新建 SQL 工作表。

5. 运行 SQL 代码前,请确保工作表已设置正确的角色、仓库、数据库与模式。

 

Article content

本教程步骤 1 至 3 中的所有 SQL 命令均需在此 SQL 工作表中粘贴并执行。Snowflake 虽提供 Workspace、Notebook 等多种项目工具,但本教程全程使用标准 SQL 工作表完成。

步骤二:使用 SQL 构建客户细分模型

Snowflake 支持集成机器学习模型,用于预测客户行为、推荐产品及定制促销策略。开发人员可通过 Python 或 R 语言,结合 Snowflake 的 Data Science Workspace 部署模型,该模型可输入客户数据并输出个性化推荐。

 

一种基础的个性化策略是基于客户历史行为进行识别,我们将计算以下指标:

  • 购买频率

  • 客单价(AOV)

USE DATABASE DATACLOUDDISPATCHSI;USE SCHEMA ECOMMERCE;
复制代码

-- Step 2.1: Create customer segmentsCREATE OR REPLACE TABLE CUSTOMER_SEGMENTS ASSELECT  CUSTOMER_ID,  COUNT(ORDER_ID)  AS PURCHASE_COUNT,  AVG(ORDER_VALUE) AS AVG_ORDER_VALUEFROM CUSTOMER_ORDERSWHERE ORDER_DATE BETWEEN '2023-01-01' AND '2023-12-31'GROUP BY CUSTOMER_ID;-- Step 2.2: Inspect customer segmentsSELECT * FROM CUSTOMER_SEGMENTS ORDER BY PURCHASE_COUNT DESC;
复制代码

 

由此构建的 CUSTOMER_SEGMENTS 表将成为机器学习模型的基础数据层。 

步骤三:训练与部署机器学习模型(基于 Snowflake ML 的纯 SQL 实现)

Snowflake ML 支持直接使用 SQL 训练模型,无需依赖 Python 或外部工具。

我们将完成以下任务:

1. 标记“高价值客户”(购买次数 ≥3 次)

2. 训练分类模型

3. 对全部客户进行评分

步骤 3.1:创建训练表

在 Snowflake 中训练机器学习模型前,需为模型提供学习样本。这意味着需要构建一个包含以下内容的表:

  • 特征(模型学习的输入变量)

  • 目标标签(模型需预测的结果)

 

本例中,我们的目标是识别高价值客户。因此,需要在历史数据中创建一列,明确标注哪些客户属于高价值客户。训练表的作用正在于此——它基于步骤二生成的客户分群,新增目标标签列。随后,Snowflake ML 将利用此标注表学习高价值客户的特征模式。

 

-- Step 3.1: Add a target label for modelingCREATE OR REPLACE TABLE CUSTOMER_SEGMENTS_TRAIN ASSELECT    CUSTOMER_ID,    PURCHASE_COUNT,    AVG_ORDER_VALUE,    IFF(PURCHASE_COUNT >= 3, 1, 0) AS TARGET_HIGH_VALUEFROM CUSTOMER_SEGMENTS;SELECT * FROM CUSTOMER_SEGMENTS_TRAIN ORDER BY PURCHASE_COUNT DESC;
复制代码

步骤 3.2:使用 Snowflake ML 训练分类模型

在获得已标注的训练表后,即可训练 Snowflake ML 识别高价值客户的潜在特征。通过训练分类模型,Snowflake 将学习:

  • 应从哪些输入特征中学习规律(如购买次数与平均订单金额)

  • 需要预测的目标结果(即高价值标签:0 或 1)

 

-- Step 3.2: Train the classification modelCREATE OR REPLACE SNOWFLAKE.ML.CLASSIFICATION HIGH_VALUE_MODEL (    INPUT_DATA     => SYSTEM$REFERENCE('TABLE', 'ECOMMERCE.CUSTOMER_SEGMENTS_TRAIN'),    TARGET_COLNAME => 'TARGET_HIGH_VALUE');Snowflake automatically trains and tunes the model based on your training table.(Optional) View metrics:CALL HIGH_VALUE_MODEL!SHOW_EVALUATION_METRICS();
复制代码

步骤 3.3:使用模型对客户进行评分(SQL)

模型训练完成后,即可用于预测。在此步骤中,模型将根据每位客户的购买行为(购买次数与平均订单金额)判断其是否为潜在高价值客户。

 

以下 SQL 命令将每位客户的特征输入模型,并返回预测结果:

-- Step 3.3: Score customersSELECT    s.CUSTOMER_ID,    s.PURCHASE_COUNT,    s.AVG_ORDER_VALUE,    HIGH_VALUE_MODEL!PREDICT(        INPUT_DATA => OBJECT_CONSTRUCT(            'PURCHASE_COUNT', s.PURCHASE_COUNT,            'AVG_ORDER_VALUE', s.AVG_ORDER_VALUE        )    ) AS MODEL_OUTPUTFROM CUSTOMER_SEGMENTS AS s;
复制代码
MODEL_OUTPUT 是什么?

 

Snowflake 将模型的预测结果以 VARIANT 类型(一种结构化对象)返回。您无需运行或执行它——它仅仅是 Snowflake 所展示的结果!

 

为了使预测结果更易于使用,您可以只提取预测类别(0 或 1)。

 

  • 1 表示模型将客户识别为高价值客户

  • 0 表示非高价值客户

 

提取预测类别的语句为:

SELECT    CUSTOMER_ID,    PURCHASE_COUNT,    AVG_ORDER_VALUE,    HIGH_VALUE_MODEL!PREDICT(        INPUT_DATA => OBJECT_CONSTRUCT(            'PURCHASE_COUNT', PURCHASE_COUNT,            'AVG_ORDER_VALUE', AVG_ORDER_VALUE        )    ):PREDICTION:"class"::NUMBER AS PREDICTED_HIGH_VALUEFROM CUSTOMER_SEGMENTS;
复制代码

 

这将为您提供一个清晰的 0/1 指标,用于判断客户是否被视为“高价值客户”。

 步骤 3.4:持久化个性化评分(可选)

至此,您已通过在查询中直接使用模型生成预测,这非常适合探索性分析——但在实际场景中,您通常需要将这些预测存储到表中,以便供仪表板、应用程序、营销活动等重复使用。

 

以下 SQL 语句创建一个名为 CUSTOMER_VALUE_SCORES 的新表,其中包含每位客户、其购买行为以及模型的预测结果。

CREATE OR REPLACE TABLE CUSTOMER_VALUE_SCORES ASSELECT    CUSTOMER_ID,    PURCHASE_COUNT,    AVG_ORDER_VALUE,    HIGH_VALUE_MODEL!PREDICT(        INPUT_DATA => OBJECT_CONSTRUCT(            'PURCHASE_COUNT', PURCHASE_COUNT,            'AVG_ORDER_VALUE', AVG_ORDER_VALUE        )    ):PREDICTION:"class"::NUMBER AS PREDICTED_HIGH_VALUEFROM CUSTOMER_SEGMENTS;SELECT * FROM CUSTOMER_VALUE_SCORES ORDER BY PREDICTED_HIGH_VALUE DESC;
复制代码

 

现在您已拥有一个可用于下游个性化流程的数据表。您可以持续引用这些评分来定位高价值客户、触发个性化优惠、提供推荐内容等。

步骤四:实时个性化

获得每位客户的预测评分后,即可结合实时行为数据提供更智能的个性化推荐。实时行为数据包括:

  • 最近浏览的商品

  • 购物车中新增或移除的商品

  • 浏览或会话事件

  • 实时库存更新

针对更高级的用例,Snowflake 支持在线特征存储,允许应用程序(如网站或推荐引擎)在毫秒级延迟内获取最新的客户特征——包括近期点击行为、会话历史或模型生成的评分。这对于需要在应用用户体验中实现实时个性化(而非依赖批量调度)的场景尤为理想。

 

Snowflake 可通过 Kafka、Kinesis 或 Event Hubs 等工具接收此类流式数据,从而根据客户行为变化持续更新推荐结果。

 

为保持个性化数据的时效性,您还可以通过 Snowflake 任务定期更新推荐表。以下示例展示了一个每小时运行并刷新热门商品推荐的简化任务:

 

--示例:定期更新推荐数据

 

CREATE OR REPLACE TASK PERSONALIZE_RECOMMENDATIONSWAREHOUSE = COMPUTE_WHSCHEDULE = 'USING CRON 0   UTC'ASMERGE INTO LATEST_RECOMMENDATIONS tgtUSING (    SELECT CUSTOMER_ID, PRODUCT_ID, SCORE    FROM ECOMMERCE.RECOMMENDATIONS_STREAM    WHERE SCORE > 0.8) srcON tgt.CUSTOMER_ID = src.CUSTOMER_ID AND tgt.PRODUCT_ID = src.PRODUCT_IDWHEN MATCHED THEN UPDATE SET SCORE = src.SCOREWHEN NOT MATCHED THEN INSERT VALUES (src.CUSTOMER_ID, src.PRODUCT_ID, src.SCORE);
复制代码

此方案使您的应用程序能够始终查询最新、最相关的推荐结果,从而实现完全动态的个性化购物体验。

总结

个性化推荐现已不再局限于手动规则或外部机器学习流水线。借助 Snowflake ML,您可以在 Snowflake 平台内直接驱动端到端的电商个性化推荐。本教程展示了如何:

  • 将全部电商数据整合至统一的单一平台

  • 完全使用 SQL 构建客户细分模型

  • 通过 Snowflake ML 训练机器学习模型——无需 Python 环境

  • 完成客户评分并生成个性化洞察

  • 利用实时数据流和任务机制保持推荐结果动态更新

最关键的是,所有操作均在 Snowflake 内完成——无需数据迁移、无需配置 Python 环境、无需依赖外部服务。这使得开发者、分析师和数据团队能够以前所未有的便捷度,提供高度个性化的购物体验。

 

注:本教程使用 SQL 和 Snowflake ML 进行演示,但 Snowflake 还提供更多人工智能与智能增强功能,可助力规模化扩展个性化应用场景。

想要一键复制代码以便跟随操作吗?

以下是您可以粘贴到 SQL workspace 中的分步最小可复现工作流程:

-- ============================================================-- E-COMMERCE PERSONALIZATION QUICKSTART (SQL-ONLY)-- End-to-end example:--  1. Create database & schema--  2. Load sample orders data--  3. Build customer segments--  4. Prepare training data for ML--  5. Train Snowflake ML classification model--  6. Score customers & optionally persist scores-- ============================================================------------------------------------------------------------------ (Optional) Step 0: Choose a warehouse------------------------------------------------------------------ Uncomment and replace <YOUR_WAREHOUSE> if needed:-- USE WAREHOUSE <YOUR_WAREHOUSE>;------------------------------------------------------------------ Step 1: Create database, schema, and sample CUSTOMER_ORDERS----------------------------------------------------------------CREATE OR REPLACE DATABASE DATACLOUDDISPATCHSI;USE DATABASE DATACLOUDDISPATCHSI;CREATE OR REPLACE SCHEMA ECOMMERCE;USE SCHEMA ECOMMERCE;-- Create the orders tableCREATE OR REPLACE TABLE CUSTOMER_ORDERS (  CUSTOMER_ID  NUMBER,  ORDER_ID     NUMBER,  ORDER_DATE   DATE,  ORDER_VALUE  NUMBER(10,2),  PRODUCT_ID   NUMBER);-- Insert sample e-commerce dataINSERT INTO CUSTOMER_ORDERS (CUSTOMER_ID, ORDER_ID, ORDER_DATE, ORDER_VALUE, PRODUCT_ID) VALUES(1001,50001,'2023-01-15', 89.99,201),(1001,50022,'2023-03-02',120.49,305),(1002,50110,'2023-05-11', 45.00,110),(1003,50155,'2023-02-19',239.00,402),(1003,50190,'2023-05-22',130.00,233),(1003,50201,'2023-06-01', 99.99,110),(1004,50333,'2023-01-05', 19.99,502),(1001,50390,'2023-11-11',301.00,900),(1005,50400,'2023-12-12', 67.50,702);-- Quick preview of raw ordersSELECT * FROM CUSTOMER_ORDERS ORDER BY ORDER_DATE;------------------------------------------------------------------ Step 2: Build customer segments (frequency & average order value)------------------------------------------------------------------ Aggregate behavior to create one row per customerCREATE OR REPLACE TABLE CUSTOMER_SEGMENTS ASSELECT    CUSTOMER_ID,    COUNT(ORDER_ID)  AS PURCHASE_COUNT,    AVG(ORDER_VALUE) AS AVG_ORDER_VALUEFROM CUSTOMER_ORDERSWHERE ORDER_DATE BETWEEN '2023-01-01' AND '2023-12-31'GROUP BY CUSTOMER_ID;-- Inspect segmentsSELECT * FROM CUSTOMER_SEGMENTS ORDER BY PURCHASE_COUNT DESC;------------------------------------------------------------------ Step 3: Prepare training data for Snowflake ML-- Add a label indicating whether a customer is “high-value”-- (in this example: 3 or more purchases)----------------------------------------------------------------CREATE OR REPLACE TABLE CUSTOMER_SEGMENTS_TRAIN ASSELECT    CUSTOMER_ID,    PURCHASE_COUNT,    AVG_ORDER_VALUE,    IFF(PURCHASE_COUNT >= 3, 1, 0) AS TARGET_HIGH_VALUEFROM CUSTOMER_SEGMENTS;-- View training data with targetSELECT * FROM CUSTOMER_SEGMENTS_TRAIN ORDER BY PURCHASE_COUNT DESC;------------------------------------------------------------------ Step 4: Train a classification model with Snowflake ML-- This learns to predict TARGET_HIGH_VALUE from the features-- PURCHASE_COUNT and AVG_ORDER_VALUE.----------------------------------------------------------------CREATE OR REPLACE SNOWFLAKE.ML.CLASSIFICATION HIGH_VALUE_MODEL (    INPUT_DATA     => SYSTEM$REFERENCE('TABLE','ECOMMERCE.CUSTOMER_SEGMENTS_TRAIN'),    TARGET_COLNAME => 'TARGET_HIGH_VALUE');-- (Optional) Inspect training metricsCALL HIGH_VALUE_MODEL!SHOW_EVALUATION_METRICS();------------------------------------------------------------------ Step 5: Score customers with the trained model-- This returns the predicted class (0 = not high-value, 1 = high-value).----------------------------------------------------------------SELECT    CUSTOMER_ID,    PURCHASE_COUNT,    AVG_ORDER_VALUE,    HIGH_VALUE_MODEL!PREDICT(        INPUT_DATA => OBJECT_CONSTRUCT(            'PURCHASE_COUNT', PURCHASE_COUNT,            'AVG_ORDER_VALUE', AVG_ORDER_VALUE        )    ):PREDICTION:"class"::NUMBER AS PREDICTED_HIGH_VALUEFROM CUSTOMER_SEGMENTSORDER BY PREDICTED_HIGH_VALUE DESC, PURCHASE_COUNT DESC;------------------------------------------------------------------ Step 6 (Optional): Persist personalized scores for downstream use-- This creates a reusable table that other teams, dashboards,-- and applications can query.----------------------------------------------------------------CREATE OR REPLACE TABLE CUSTOMER_VALUE_SCORES ASSELECT    CUSTOMER_ID,    PURCHASE_COUNT,    AVG_ORDER_VALUE,    HIGH_VALUE_MODEL!PREDICT(        INPUT_DATA => OBJECT_CONSTRUCT(            'PURCHASE_COUNT', PURCHASE_COUNT,            'AVG_ORDER_VALUE', AVG_ORDER_VALUE        )    ):PREDICTION:"class"::NUMBER AS PREDICTED_HIGH_VALUEFROM CUSTOMER_SEGMENTS;-- Final scored outputSELECT * FROM CUSTOMER_VALUE_SCORESORDER BY PREDICTED_HIGH_VALUE DESC, PURCHASE_COUNT DESC;
复制代码

原文地址:https://www.linkedin.com/pulse/how-leverage-snowflake-intelligence-e-commerce-personalization-60fhc/?trackingId=SamHZTb8T76gKESH2PP2SA%3D%3D

【Unity Shader Graph 使用与特效实现】专栏-直达

Billboard节点是UnityShaderGraph中一个功能强大的顶点变换工具,专门用于实现面向相机的渲染效果。在实时渲染中,Billboard技术被广泛应用于粒子系统、植被渲染、UI元素和特效制作等领域,能够确保特定物体始终面向摄像机,从而提供最佳的视觉效果。

Billboard技术概述

Billboard技术源于计算机图形学中的精灵渲染概念,其核心思想是通过动态调整物体的朝向,使其始终面对观察者。这种技术在游戏开发中具有重要价值:

  • 在粒子系统中用于渲染烟雾、火焰、魔法效果等动态元素
  • 在开放世界游戏中用于优化树木和植被的渲染性能
  • 在UI系统中确保界面元素始终以正确角度显示
  • 在特效制作中创建各种视觉欺骗效果

UnityShaderGraph中的Billboard节点封装了这一复杂技术,让开发者能够通过可视化方式轻松实现面向相机的渲染效果,无需编写复杂的着色器代码。

节点端口详解

Billboard节点包含多个输入和输出端口,每个端口都有特定的功能和用途。

输入端口

Position OS端口接收物体空间的顶点位置数据。这个端口是Billboard变换的基础,提供了需要进行旋转的原始顶点坐标信息。在实际应用中,这个端口通常直接连接到顶点着色器的位置输出,或者与其他位置变换节点相连。

Normal OS端口处理物体空间的法线向量。法线数据对于光照计算至关重要,Billboard节点会对法线进行相应的旋转,确保光照效果在物体旋转后仍然正确。如果忽略法线变换,可能会导致光照异常或材质表现不正确。

Tangent OS端口管理物体空间的切线向量。切线主要用于法线贴图和某些高级着色效果,Billboard节点会同步旋转切线数据,保持与顶点和法线的一致性。在需要复杂材质表现的场景中,正确的切线变换尤为重要。

输出端口

Position输出端口提供旋转后的物体空间顶点位置。这是Billboard节点的核心输出,包含了经过相机对齐变换后的顶点坐标。这个输出通常直接连接到主节点的顶点位置输入,完成最终的顶点变换。

Normal输出端口返回旋转后的物体空间法线向量。变换后的法线确保了光照计算与物体新朝向的一致性,对于保持材质视觉真实性至关重要。

Tangent输出端口提供旋转后的物体空间切线向量。这个输出确保了法线贴图和其他依赖切线空间的着色效果能够正确工作。

控件参数解析

Billboard Mode是Billboard节点最重要的控制参数,决定了物体的对齐方式和旋转行为。

All Axis模式

All Axis模式实现完全相机对齐,物体的所有坐标轴都会与相机坐标系对齐。在这种模式下,物体会完全面向相机,类似于始终正对观察者的广告牌。

这种模式的特点包括:

  • 物体完全面向相机,保持正面朝向观察者
  • 所有轴向都会根据相机方向进行旋转
  • 适用于需要完全正面展示的效果,如粒子特效、公告板文字等
  • 在VR和AR应用中特别有用,确保UI元素始终面向用户

All Axis模式的一个典型应用场景是粒子系统中的精灵渲染。当相机移动时,每个粒子都会自动调整方向,始终以最佳角度面向观察者,从而保证视觉效果的一致性。

Around Y Axis模式

Around Y Axis模式提供受限的对齐方式,物体仅围绕Y轴旋转,保持Y轴方向不变。这种模式在保持物体部分方向稳定的同时,实现基本的面向相机效果。

这种模式的特点包括:

  • 物体围绕世界空间或物体空间的Y轴旋转
  • X轴和Z轴与相机对齐,但Y轴保持原有方向
  • 适用于树木、路灯等需要保持垂直方向的物体
  • 在开放世界游戏中广泛用于植被渲染优化

Around Y Axis模式在大型场景的性能优化中特别有用。通过将3D树木替换为Billboard四边形,可以大幅减少渲染负载,同时通过限制Y轴旋转保持视觉上的自然感。

技术实现原理

理解Billboard节点的内部工作原理有助于更好地使用和调试相关效果。

顶点变换矩阵

Billboard节点的核心是基于视图矩阵的逆向变换。本质上,它计算相机的旋转矩阵,然后将这个旋转应用于输入的顶点数据。在All Axis模式下,节点会提取相机的完整旋转矩阵;而在Around Y Axis模式下,则会提取并修改旋转矩阵,将Y轴分量重置为单位矩阵的Y轴。

数学上,这个过程可以表示为:

旋转矩阵 = 提取相机旋转矩阵
如果模式为Around Y Axis:
    旋转矩阵[1] = [0, 1, 0] // 重置Y轴
变换后位置 = 旋转矩阵 × 原始位置

法线和切线变换

法线和切线的变换遵循与位置数据相同的旋转逻辑,但由于它们是方向向量而非位置点,变换时不考虑平移分量。正确的法线和切线变换确保了光照和材质效果在Billboard变换后仍然保持视觉一致性。

法线变换需要特别注意,由于法线是协变向量,其变换矩阵通常为顶点变换矩阵的逆转置矩阵。但在Billboard这种纯旋转的情况下,由于旋转矩阵是正交矩阵,逆转置矩阵等于原矩阵,因此可以直接使用相同的旋转矩阵。

实际应用案例

Billboard节点在游戏开发中有多种实际应用,以下是一些典型场景。

粒子系统效果

在粒子系统中,Billboard技术是创建各种视觉特效的基础。

火焰和烟雾效果可以通过Billboard四边形配合透明度渐变纹理实现。每个粒子都是一个面向相机的四边形,使用噪声纹理和颜色渐变创建动态的火焰和烟雾外观。通过All Axis模式确保无论相机如何移动,效果都能正确显示。

魔法和能量场效果利用Billboard节点创建环绕角色的魔法光环或能量屏障。结合扭曲效果和发光着色器,可以制作出视觉上吸引人的魔法特效。Billboard确保这些效果始终面向玩家,提供最佳的视觉体验。

环境装饰优化

在大型开放世界游戏中,Billboard技术是性能优化的重要手段。

树木和植被渲染使用Around Y Axis模式的Billboard技术,将复杂的3D树木模型替换为简单的四边形,大幅减少三角形数量。当玩家距离较远时,使用Billboard树木;当玩家靠近时,逐渐淡入完整的3D模型。这种LOD(层次细节)策略在保持视觉质量的同时显著提升性能。

远处山脉和云层可以通过Billboard技术创建。使用多层Billboard平面配合透明度混合,可以模拟出具有深度感的远景效果。这种方法比使用完整3D模型更加高效,特别适合移动平台或性能受限的场景。

UI和交互元素

在用户界面和交互设计中,Billboard技术确保重要信息始终可见。

世界空间UI元素使用Billboard技术创建始终面向玩家的对话框、任务提示或交互图标。这在3D游戏中特别有用,玩家可以从任何角度都能清晰看到UI内容。

AR和VR应用中的界面元素通过Billboard技术确保虚拟界面始终面向用户,提供自然的交互体验。无论是信息面板、控制菜单还是虚拟标签,Billboard都能保证最佳的可读性和可用性。

性能优化考虑

使用Billboard节点时需要考虑性能影响,特别是在大量使用的情况下。

渲染性能

Billboard技术通过减少几何复杂度来提升性能,但顶点着色器的计算负载会增加。在移动设备或低端硬件上,需要平衡视觉质量和性能消耗。

优化策略包括:

  • 控制Billboard物体的数量,避免在同一帧中渲染过多Billboard
  • 使用LOD系统,根据距离动态切换Billboard和完整模型
  • 合并多个Billboard物体,减少绘制调用
  • 在性能敏感的区域使用更简单的Billboard效果

内存和带宽

Billboard通常使用简单的四边形几何体,这有助于减少内存占用和顶点数据传输带宽。但在使用高质量纹理时,需要注意纹理内存的消耗。

优化建议:

  • 使用纹理图集将多个Billboard纹理合并为一张大图
  • 根据距离使用不同分辨率的纹理
  • 压缩纹理格式以减少内存占用
  • 合理管理纹理的加载和卸载,避免内存峰值

常见问题与解决方案

在使用Billboard节点时可能会遇到一些常见问题,以下是相应的解决方案。

光照异常

问题描述:Billboard物体上的光照显示不正确,高光或阴影位置异常。

解决方案:

  • 确保正确连接Normal OS端口,并提供准确的法线数据
  • 检查Billboard模式是否适合场景需求
  • 在复杂光照环境下,考虑使用自定义光照模型或简化光照计算
  • 验证法线贴图是否正确应用,确保切线数据正确变换

深度排序问题

问题描述:Billboard物体与其他物体的深度排序错误,出现穿透或遮挡异常。

解决方案:

  • 调整渲染队列顺序,确保Billboard物体在正确的渲染阶段绘制
  • 使用Alpha混合时,注意透明物体的渲染顺序问题
  • 在粒子系统中使用软粒子技术缓解深度冲突
  • 考虑使用自定义深度偏移解决特定的排序问题

运动模糊和抗锯齿

问题描述:快速移动的Billboard物体可能出现运动模糊异常或抗锯齿效果不佳。

解决方案:

  • 在运动剧烈的Billboard物体上禁用运动模糊,或使用自定义运动向量
  • 调整抗锯齿设置,确保Billboard边缘平滑
  • 对于特别敏感的视觉效果,考虑使用更高分辨率的纹理
  • 在后期处理中应用特定的抗锯齿技术,如TAA(时间性抗锯齿)

高级应用技巧

掌握了Billboard节点的基本用法后,可以探索一些高级应用技巧。

自定义Billboard效果

通过组合Billboard节点与其他ShaderGraph节点,可以创建独特的视觉效果。

倾斜Billboard效果通过修改旋转矩阵,使Billboard物体以特定角度倾斜,而不是完全面向相机。这种效果可以用于创建更有动态感的粒子特效或风格化的视觉元素。

动态朝向Billboard根据游戏逻辑或玩家输入动态调整Billboard的朝向,而不是始终面向主相机。这种技术可以用于创建始终面向特定目标的效果,如追踪导弹的尾焰或指向任务目标的导航标记。

与其他系统的集成

Billboard节点可以与Unity的其他系统集成,创建更复杂的效果。

与VFX Graph集成,在视觉特效图中使用Billboard技术创建高性能的粒子效果。VFX Graph提供了更强大的粒子系统功能,结合Billboard可以实现电影级的视觉效果。

与Shader Graph高级特性结合,如曲面细分、几何着色器或光线追踪,创建更复杂的Billboard效果。这些高级技术可以增强Billboard的视觉质量,提供更逼真或更风格化的外观。


【Unity Shader Graph 使用与特效实现】专栏-直达
(欢迎

点赞留言

探讨,更多人加入进来能更加完善这个探索的过程,🙏)