包含关键字 typecho 的文章

Microsoft SQL Server 2026 年 3 月安全更新发布,修复 SQL 服务器特权提升漏洞 CVE-2026-21262

Microsoft SQL Server 下载汇总

SQL Server GDR 和 CU 更新汇总

请访问原文链接:https://sysin.org/blog/sql-server/ 查看最新版。原创作品,转载请保留出处。

作者主页:sysin.org


sql-server-logo

关于本月安全更新的详情请参看以下安全公告。

安全公告汇总

Security Update for SQL Server 2025 RTM CU2

2026 年 3 月 11 日 星期三 06:05:56

SQL Server 2025 RTM CU2 的安全更新现已在 Microsoft Download Center 和 Microsoft Update Catalog 网站提供下载。该更新包为累积更新,包含 SQL Server 2025 RTM 各个 CU 版本此前发布的所有安全修复,同时还包含 KB 文章中详细说明的最新安全修复。

  • Security Bulletins: CVE-2026-21262 - Security Update Guide - Microsoft - Microsoft SQL Server Denial of Service Vulnerability
  • Security Update of SQL Server 2025 RTM CU2 KB Article: KB5077466
  • Microsoft Download Center: https://www.microsoft.com/download/details.aspx?id=108588
  • Microsoft Update Catalog: https://www.catalog.update.microsoft.com/Search.aspx?q=5077466
  • Latest Updates for Microsoft SQL Server: https://learn.microsoft.com/en-us/troubleshoot/sql/releases/download-and-install-latest-updates

Security Update for SQL Server 2025 RTM GDR

2026 年 3 月 11 日 星期三 06:05:48

SQL Server 2025 RTM GDR 的安全更新现已在 Microsoft Download Center 和 Microsoft Update Catalog 网站提供下载。该更新包为累积更新,包含 SQL Server 2025 RTM 之前发布的所有安全修复,同时还包含 KB 文章中详细说明的最新安全修复。

  • Security Bulletins: CVE-2026-21262 - Security Update Guide - Microsoft - Microsoft SQL Server Denial of Service Vulnerability
  • Security Update of SQL Server 2025 RTM GDR KB Article: KB5077468
  • Microsoft Download Center: https://www.microsoft.com/download/details.aspx?id=108589
  • Microsoft Update Catalog: https://www.catalog.update.microsoft.com/Search.aspx?q=5077468
  • Latest Updates for Microsoft SQL Server: https://learn.microsoft.com/en-us/troubleshoot/sql/releases/download-and-install-latest-updates

Security Update for SQL Server 2022 RTM CU23

2026 年 3 月 11 日 星期三 06:05:41

SQL Server 2022 RTM CU23 的安全更新现已在 Microsoft Download Center 和 Microsoft Update Catalog 网站提供下载。该更新包为累积更新,包含 SQL Server 2022 RTM 各个 CU 版本此前发布的所有安全修复,同时还包含 KB 文章中详细说明的最新安全修复。

  • Security Bulletins: CVE-2026-21262 - Security Update Guide - Microsoft - Microsoft SQL Server Denial of Service Vulnerability
  • Security Update of SQL Server 2022 RTM CU23 KB Article: KB5077464
  • Microsoft Download Center: https://www.microsoft.com/download/details.aspx?id=108583
  • Microsoft Update Catalog: https://www.catalog.update.microsoft.com/Search.aspx?q=5077464
  • Latest Updates for Microsoft SQL Server: https://learn.microsoft.com/en-us/troubleshoot/sql/releases/download-and-install-latest-updates

Security Update for SQL Server 2022 RTM GDR

2026 年 3 月 11 日 星期三 06:05:37

SQL Server 2022 RTM GDR 的安全更新现已在 Microsoft Download Center 和 Microsoft Update Catalog 网站提供下载。该更新包为累积更新,包含 SQL Server 2022 RTM 之前发布的所有安全修复,同时还包含 KB 文章中详细说明的最新安全修复。

  • Security Bulletins: CVE-2026-21262 - Security Update Guide - Microsoft - Microsoft SQL Server Denial of Service Vulnerability
  • Security Update of SQL Server 2022 RTM GDR KB Article: KB5077465
  • Microsoft Download Center: https://www.microsoft.com/download/details.aspx?id=108584
  • Microsoft Update Catalog: https://www.catalog.update.microsoft.com/Search.aspx?q=5077465
  • Latest Updates for Microsoft SQL Server: https://learn.microsoft.com/en-us/troubleshoot/sql/releases/download-and-install-latest-updates

Security Update for SQL Server 2019 RTM CU32

2026 年 3 月 11 日 星期三 06:05:24

SQL Server 2019 RTM CU32 的安全更新现已在 Microsoft Download Center 和 Microsoft Update Catalog 网站提供下载。该更新包为累积更新,包含 SQL Server 2019 RTM 各个 CU 版本此前发布的所有安全修复,同时还包含 KB 文章中详细说明的最新安全修复。

  • Security Bulletins: CVE-2026-21262 - Security Update Guide - Microsoft - Microsoft SQL Server Denial of Service Vulnerability
  • Security Update of SQL Server 2019 RTM CU32 KB Article: KB5077469
  • Microsoft Download Center: https://www.microsoft.com/download/details.aspx?id=108592
  • Microsoft Update Catalog: https://www.catalog.update.microsoft.com/Search.aspx?q=5077469
  • Latest Updates for Microsoft SQL Server: https://learn.microsoft.com/en-us/troubleshoot/sql/releases/download-and-install-latest-updates

Security Update for SQL Server 2019 RTM GDR

2026 年 3 月 11 日 星期三 06:05:18

SQL Server 2019 RTM GDR 的安全更新现已在 Microsoft Download Center 和 Microsoft Update Catalog 网站提供下载。该更新包为累积更新,包含 SQL Server 2019 RTM 之前发布的所有安全修复,同时还包含 KB 文章中详细说明的最新安全修复。

  • Security Bulletins: CVE-2026-21262 - Security Update Guide - Microsoft - Microsoft SQL Server Denial of Service Vulnerability
  • Security Update of SQL Server 2019 RTM GDR KB Article: KB5077470
  • Microsoft Download Center: https://www.microsoft.com/download/details.aspx?id=108587
  • Microsoft Update Catalog: https://www.catalog.update.microsoft.com/Search.aspx?q=5077470
  • Latest Updates for Microsoft SQL Server: https://learn.microsoft.com/en-us/troubleshoot/sql/releases/download-and-install-latest-updates

Security Update for SQL Server 2017 RTM CU31

2026 年 3 月 11 日 星期三 06:05:09

SQL Server 2017 RTM CU31 的安全更新现已在 Microsoft Download Center 和 Microsoft Update Catalog 网站提供下载。该更新包为累积更新,包含 SQL Server 2017 RTM 各个 CU 版本此前发布的所有安全修复,同时还包含 KB 文章中详细说明的最新安全修复。

  • Security Bulletins: CVE-2026-21262 - Security Update Guide - Microsoft - Microsoft SQL Server Denial of Service Vulnerability
  • Security Update of SQL Server 2017 RTM CU31 KB Article: KB5077471
  • Microsoft Download Center: https://www.microsoft.com/download/details.aspx?id=108585
  • Microsoft Update Catalog: https://www.catalog.update.microsoft.com/Search.aspx?q=5077471
  • Latest Updates for Microsoft SQL Server: https://learn.microsoft.com/en-us/troubleshoot/sql/releases/download-and-install-latest-updates

Security Update for SQL Server 2017 RTM GDR

2026 年 3 月 11 日 星期三 06:05:00

SQL Server 2017 RTM GDR 的安全更新现已在 Microsoft Download Center 和 Microsoft Update Catalog 网站提供下载。该更新包为累积更新,包含 SQL Server 2017 RTM 之前发布的所有安全修复,同时还包含 KB 文章中详细说明的最新安全修复。

  • Security Bulletins: CVE-2026-21262 - Security Update Guide - Microsoft - Microsoft SQL Server Denial of Service Vulnerability
  • Security Update of SQL Server 2017 RTM GDR KB Article: KB5077472
  • Microsoft Download Center: https://www.microsoft.com/download/details.aspx?id=108586
  • Microsoft Update Catalog: https://www.catalog.update.microsoft.com/Search.aspx?q=5077472

Latest Updates for Microsoft SQL Server:
https://learn.microsoft.com/en-us/troubleshoot/sql/releases/download-and-install-latest-updates

Security Update for SQL Server 2016 SP3 Azure Connect Feature Pack

2026 年 3 月 11 日 星期三 06:04:50

SQL Server 2016 SP3 Azure Connect Feature Pack 的安全更新现已在 Microsoft Download Center 和 Microsoft Update Catalog 网站提供下载。该更新包为累积更新,包含 SQL Server 2016 SP3 Azure Connect Feature Pack 之前发布的所有安全修复,同时还包含 KB 文章中详细说明的最新安全修复。

  • Security Bulletins: CVE-2026-21262 - Security Update Guide - Microsoft - Microsoft SQL Server Denial of Service Vulnerability
  • Security Update of SQL Server 2016 SP3 Azure Connect Feature Pack KB Article: KB5077473
  • Microsoft Download Center: https://www.microsoft.com/download/details.aspx?id=108591
  • Microsoft Update Catalog: https://www.catalog.update.microsoft.com/Search.aspx?q=5077473
  • Latest Updates for Microsoft SQL Server: https://learn.microsoft.com/en-us/troubleshoot/sql/releases/download-and-install-latest-updates

Security Update for SQL Server 2016 SP3 GDR

2026 年 3 月 11 日 星期三 06:04:23

SQL Server 2016 SP3 GDR 的安全更新现已在 Microsoft Download Center 和 Microsoft Update Catalog 网站提供下载。该更新包为累积更新,包含 SQL Server 2016 SP3 之前发布的所有安全修复,同时还包含 KB 文章中详细说明的最新安全修复。

  • Security Bulletins: CVE-2026-21262 - Security Update Guide - Microsoft - Microsoft SQL Server Denial of Service Vulnerability
  • Security Update of SQL Server 2016 SP3 GDR KB Article: KB5077474
  • Microsoft Download Center: https://www.microsoft.com/download/details.aspx?id=108590
  • Microsoft Update Catalog: https://www.catalog.update.microsoft.com/Search.aspx?q=5077474
  • Latest Updates for Microsoft SQL Server: https://learn.microsoft.com/en-us/troubleshoot/sql/releases/download-and-install-latest-updates

下载链接

Microsoft SQL Server

更多:Windows 下载汇总

扒下来的整个流程很简单:智谱的 Agent 模式本身运行在云主机上,我们可以让它输出当前的文件结构。通过查看结构,你会发现一个名为 skills 的文件夹。只需让 Agent 将该文件夹打包,然后下载即可。贴一段 skills 描述
┌─────────────────────────────────────────────┐
│ 硬件配置详情 │
├─────────────────────────────────────────────┤
│ CPU: Intel Xeon Processor (4 核) │
│ 内存: 8 GB │
│ 磁盘: ~10 GB │
│ 系统: Linux (Alibaba Cloud Linux) │
│ 运行时: Bun │
│ 端口: 3000 │
└─────────────────────────────────────────────┘


兄弟们,别划走!AI视频圈今天直接迎来核弹级更新——OpenAI正式发布Sora2 API五大重磅升级,直接把之前行业里吐槽的所有核心痛点,一次性全给解决了!

更关键的是,我给大家带来独家一手消息:速创API将在近期完成Sora2全系列新版本API接口的全面适配与上线,大家心心念念的Sora2、Sora2 Pro全量能力,马上就能通过速创API,在国内直接开箱即用、零门槛接入!

一、先划重点!Sora2 API这次更新,到底炸在哪?
做AI视频批量生产的兄弟们都懂,之前用Sora API做内容,有几个绕不开的死穴:角色换场景就变脸、时长不够讲不完完整剧情、横竖屏要分两次生成、批量生产稳定性极差。而这次Sora2 API的更新,直接把这些行业顽疾,连根拔了。

  1. 角色一致性能力原生闭环,批量生产终于不用踩坑了
    这绝对是本次更新最王炸的能力,没有之一。

之前用API批量生产系列视频、短剧内容,最头疼的就是主角一致性——同一个人设,换个场景、换个镜头,脸、服装、道具直接全变,后期根本没法用,只能一条一条调prompt,效率低到离谱。

而这次Sora2 API直接原生支持角色档案预定义,你可以提前锁定角色的外观、服装、道具甚至核心特征,生成多片段视频时,模型会自动复用这份角色档案,全程保证视觉一致性,彻底解决了批量生产的最大痛点。

  1. 时长翻倍!最长20秒生成+视频延续,完整场景一镜到底
    之前初代Sora API的时长限制,一直是内容创作者的心病——十几秒的时长,连一个完整的起承转合都讲不完,更别说做有剧情的内容了。

这次Sora2 API直接把时长上限拉到了20秒,足足翻了一倍,足够讲完一个完整的小场景、一段完整的口播、一个完整的产品演示流程。同时新增的视频延续能力,还能实现长视频的分段续拍,彻底打破了时长的桎梏。

重点是,不管是基础版还是Pro版,Sora2全系列模型都支持16秒、20秒的视频生成,全量开放无阉割。

  1. 横竖屏双出原生支持,一次生成搞定全平台分发
    做全平台内容的朋友,一定懂二次裁剪的痛:横版生成完,要改prompt再生成竖版,不仅费时间、费成本,还经常出现两个版本内容不一致的问题。

这次Sora2 API直接原生支持16:9和9:16双比例同步导出,一个生成任务,直接出横版+竖版两套素材,横版给B站、YouTube、PC端场景,竖版给抖音、视频号等短视频平台,直接省掉所有二次处理的流程,分发效率直接拉满。

  1. 批量生成能力全面升级,工业化生产成为可能
    配合角色一致性、双比例导出、长时长能力,Sora2 API的批量生成能力也迎来了质变。

你可以一次性提交批量生成任务,统一锁定角色、风格、比例,模型会稳定输出符合要求的系列视频,不用再单条调试、单条纠错。不管是MCN批量做账号内容,还是企业批量做营销素材,都能实现真正的AI视频工业化生产。

二、双模型矩阵落地!Sora2和Sora2 Pro到底怎么选?
这次OpenAI直接给Sora2 API做了清晰的模型拆分,两个版本精准匹配不同的使用场景,不用再为用不上的高精度买单,也不用为了速度牺牲画质,我直接给大家讲透选型逻辑。

模型版本 核心定位 适配场景 核心优势
sora-2 速度与灵活性优先 内容探索、快速迭代、社交媒体日常内容、原型测试 生成速度快、迭代效率高、性价比拉满,适合快速试错、打磨内容风格,完全满足日常社媒内容的生产需求
sora-2-pro 生产级高精度优先 商业营销素材、电影级影视内容、高分辨率品牌宣传片、对视觉精度要求极高的场景 1080P全高清原生输出(支持1920×1080/1080×1920),画面更细腻、光影更自然、生成稳定性拉满,是专业级生产的首选
这里划重点:两个版本均完整支持20秒长视频、角色一致性、横竖屏双出、批量生成的全部新能力,只是在生成速度、画面精度、分辨率上做了区分,大家可以根据自己的需求灵活选择。

三、想第一时间用上Sora2 API?速创API给你铺好了路
很多兄弟看到这里肯定会问:Sora2 API能力这么强,我在国内怎么才能稳定、合规、低成本地用上?

这就是我今天给大家带来的核心福利:速创API将在近期完成Sora2全系列新版本API接口的全面适配与上线,第一时间把全球最顶尖的AI视频生成能力,带到国内开发者和创作者面前。

很多老粉都知道,速创API一直是国内AIGC开发者圈里,口碑拉满的API服务平台,而这次Sora2 API的适配,我们直接做到了行业领先的全能力覆盖,给大家解决所有接入痛点:

  1. 原生接口完全兼容,零成本迁移
    速创API的Sora2接口,将100%对齐OpenAI原生接口规范,老用户不用修改任何核心代码,只需要替换模型名称,就能无缝切换到Sora2、Sora2 Pro模型,零迁移成本,直接用上新能力。
  2. 全能力无阉割上线,新功能同步解锁
    包括角色档案定义、20秒长视频生成、横竖屏双出、批量生成、视频延续在内的所有Sora2 API新能力,速创API将全部完整上线,不做任何功能阉割,不管是个人创作者还是企业级开发,都能用到完整的原生能力。
  3. 国内稳定合规访问,告别网络难题
    不用折腾海外节点,不用处理复杂的合规资质问题,国内网络环境下就能直接稳定调用,低延迟、高可用,彻底解决开发者最头疼的访问稳定性问题。
  4. 灵活的计费模式,全场景适配
    不管是个人开发者、小型创作团队,还是大型MCN机构、品牌方,我们都准备了对应的阶梯计费方案,用多少算多少,不用为闲置额度买单,同时为首批测试用户准备了专属福利额度。

四、最后说句掏心窝子的:这次更新,到底意味着什么?
做了这么久的AIGC行业观察,我可以很明确地说:这次Sora2 API的更新,标志着AI视频真正进入了工业化生产时代。

之前的AI视频,本质上还是“小作坊式”的生产——单条生成、反复调试、翻车率高、没法批量复制,而这次Sora2 API的更新,直接把角色一致性、时长、多比例、批量生成这些工业化生产的核心基建,全部补全了。

这意味着,以后一套系列短剧、一个账号的全年内容矩阵、一个品牌的全渠道营销素材,都可以通过Sora2 API实现标准化、批量式的生产,内容生产的成本会降到地板,效率会翻上数倍。

而速创API要做的,就是给国内所有的开发者和创作者,搭好通往这个新时代的桥梁,不让大家被网络、资质、技术门槛挡在门外,第一时间跟上这波技术浪潮。

Sora2 # Sora2API # OpenAISora # 速创API # AI视频生成 # AIGC开发 # 视频生成API

Linclaw 是七牛云推出的桌面版 OpenClaw,定位为 OpenClaw 的国内零部署替代方案——macOS 和 Windows 用户双击安装包即可完成安装,无需 Node.js 环境、无需命令行操作,原生支持钉钉、飞书、QQ、微信、Telegram、Discord、Slack、iMessage、Web 共 9 大渠道。与 OpenClaw 原版需要 Node ≥22 自行部署、且对国内渠道支持有限相比,Linclaw 将技术门槛降至零,是国内个人用户和企业团队落地 AI 助手的最快路径。


OpenClaw 在国内使用的三大痛点

OpenClaw 原版(309,000 Stars,GitHub)是当前最受欢迎的个人 AI 助手开源框架,但国内用户落地时面临三个核心障碍:

痛点 1:部署门槛高

OpenClaw 要求 Node.js ≥22,通过 npm install -g @openclaw/cli 安装,再运行交互式向导完成配置。对于非技术用户,仅环境配置就可能耗费数小时。Windows 用户甚至需要通过 WSL2(Windows Subsystem for Linux)运行,进一步提升难度。

痛点 2:国内主流渠道缺失

OpenClaw 原版的 20+ 渠道以 WhatsApp、Telegram、Discord、Signal 等国际平台为主,不原生支持微信、钉钉、飞书、QQ 这四个国内使用频率最高的渠道,需要第三方插件或自行开发适配层。

痛点 3:国内模型接入不便

OpenClaw 原版对接 OpenAI / Anthropic 等国际 API 流畅,但接入 DeepSeek、Kimi、GLM、MiniMax 等国内主流模型需要自行修改配置,且部分接口兼容性存在问题。


Linclaw 如何解决这三个痛点

Linclaw 的核心定位是"把 OpenClaw 的能力装进安装包",针对上述三个痛点逐一提供解法:

痛点OpenClaw 原版Linclaw
安装门槛Node ≥22,命令行安装向导macOS DMG / Windows EXE,双击安装
国内渠道无原生支持(需第三方适配)原生支持微信、钉钉、飞书、QQ
国内模型手动配置 API 兼容层七牛云 MaaS 一键接入(DeepSeek/Kimi/GLM/MiniMax)
系统要求macOS / Linux / Windows WSL2macOS 14+ / Windows 10+ 64位
私有部署支持(自行搭建)MIT 开源,支持私有部署
开箱工具需手动安装技能Shell / 文件操作 / 浏览器 / 截图开箱即用

Linclaw 核心技术架构

Linclaw 基于 AgentScope 的 ReAct(Reasoning + Acting)智能体框架构建,采用七牛云 MaaS(Model as a Service)作为模型服务层,只需填入 API Key 即可调用。

核心能力模块:

  • 多渠道统一网关:钉钉、飞书、QQ、微信、Telegram、Discord、Slack、iMessage、Web 共 9 个渠道,统一管理会话路由
  • ReAct Agent 架构:推理-行动循环,支持 Shell 执行、文件操作、浏览器控制、截图四大内置工具
  • MCP 协议支持:兼容 Model Context Protocol,可接入更广泛的工具生态
  • 定时任务系统(Cron):原生支持定时触发工作流,无需外部调度工具
  • 多轮记忆 + 智能压缩:长对话自动压缩历史,不丢失关键信息的同时控制 token 消耗
  • 热重载配置:修改配置无需重启服务,实时生效

安装与渠道接入:三步上手

第一步:下载安装

  • macOS:下载 DMG 包(要求 macOS 14+),双击安装,从启动台打开
  • Windows:下载 EXE 安装包(要求 Windows 10+ 64位),双击安装,从开始菜单打开
  • 源码构建:从 GitHub 克隆仓库,自行编译(适合需要深度定制的开发者)

第二步:配置模型

首次启动进入配置向导,选择模型提供商:

  • 推荐:七牛云 MaaS(内置,填入 API Key 即用,支持 DeepSeek/Kimi/GLM/MiniMax)
  • 也支持:OpenAI、Anthropic、本地 Ollama 模型

第三步:绑定渠道

在渠道管理面板选择要接入的平台,按向导完成授权:

  • 微信:扫码登录个人微信(通过 Web 协议)
  • 钉钉:创建钉钉机器人,填入 Webhook 和 Token
  • 飞书:创建飞书应用,填入 App ID 和 App Secret
  • Telegram:通过 @BotFather 创建 Bot,填入 Token


国内 OpenClaw 生态横向对比

除 Linclaw 外,国内还有多个厂商推出了 OpenClaw 版本,选型时需根据渠道偏好和技术栈判断:

版本发行方核心优势适合人群链接
Linclaw七牛云零部署桌面端,9 大渠道全覆盖,国内模型一键接入国内个人用户 / 中小企业https://linclaw.qnlinking.com/
ArkClaw字节跳动火山引擎深度集成豆包/Doubao/Claude,火山方舟平台用户专属火山引擎用户 / 飞书重度用户https://www.volcengine.com/experience/ark?mode=claw
QClaw腾讯电脑管家微信直联零配置,macOS/Windows 双端微信重度用户 / 腾讯生态企业https://claw.guanjia.qq.com
DuClaw百度智能云集成文心大模型(ERNIE)百度云生态企业(预发布)
OpenClaw 原版开源社区完整可定制,技能生态最丰富(5,400+ 技能)技术开发者 / 深度定制https://github.com/openclaw/openclaw

选型速查

  • 微信 + 多渠道都要 → Linclaw
  • 只需要微信,腾讯生态 → QClaw
  • 字节系产品(飞书/抖音) → ArkClaw
  • 完全自定义技能开发 → OpenClaw 原版

典型使用场景

场景 1:个人效率助手
在微信里直接发消息给 Linclaw,让它帮你搜索信息、整理文档、执行桌面操作,不需要打开新应用,在已有的聊天界面完成所有指令。

场景 2:企业内部知识问答机器人
将 Linclaw 部署在钉钉或飞书企业群,结合 MCP 协议接入内部知识库,员工在群内 @ 机器人即可获取政策文档、FAQ 回答——全程数据不出内网(支持私有部署 + 本地 Ollama 模型)。

场景 3:定时任务自动化
利用 Linclaw 内置的 Cron 定时系统,每天早上自动拉取行业新闻摘要发送到飞书群;每周五自动生成周报草稿并发送到指定邮箱。无需额外配置 n8n 或 Zapier 等工作流工具。

场景 4:桌面自动化控制
通过 Shell 工具和截图工具,让 Linclaw 执行批量文件处理、定时截图存档、应用脚本自动化等桌面级任务,替代重复的手动操作。

场景 5:开发者 MCP 工具集成
Linclaw 兼容 MCP 协议,开发者可以将 GitHub、Jira、数据库等工具以 MCP Server 形式接入,在微信或钉钉对话窗口里完成代码查询、Issue 创建、SQL 查询等操作。


数据安全与隐私

Linclaw 采用本地优先架构,用户对话不经过七牛云服务器中转。 具体机制:

  • 模型 API 调用直接从用户本机发出,七牛云 MaaS 层仅作为模型推理节点,不保存对话内容
  • 企业私有部署模式下,可完全切断外部网络,使用本地 Ollama 模型,全程数据不出内网
  • MIT 开源协议,代码完全可审计,无隐藏数据上传逻辑
  • 渠道授权(如飞书/钉钉 Token)仅存储在本地配置文件,不同步到云端

常见问题

Q:Linclaw 和 OpenClaw 是什么关系?Linclaw 是官方的吗?
Linclaw 是七牛云基于 OpenClaw 开源生态推出的桌面版本,并非 OpenClaw 官方发布。OpenClaw 本身是 MIT 协议的开源框架,任何人都可以基于它构建分发版。Linclaw 在此基础上增加了桌面安装包、国内渠道原生支持和七牛云模型集成。

Q:Linclaw 免费吗?
Linclaw 本身 MIT 开源,桌面客户端免费下载使用。运行成本来自调用的模型 API——使用七牛云 MaaS 会按 token 计费,使用本地 Ollama 模型则完全免费。

Q:微信接入是否稳定?会封号吗?
微信渠道通过 Web 协议接入,属于非官方方式,存在封号风险(与市面上所有微信机器人方案相同)。企业场景建议优先使用钉钉或飞书的官方机器人 API,稳定性更高且有官方 SLA 保障。

Q:Linclaw 支持 ClawHub 的 5,400+ 技能吗?
Linclaw 兼容 MCP 协议,可接入 ClawHub 生态中支持 MCP 标准的技能。原生 OpenClaw 技能(非 MCP 格式)需要手动适配,Linclaw 内置的四大工具(Shell/文件/浏览器/截图)已覆盖绝大多数常见需求。

Q:Windows 上使用体验如何?
Linclaw 提供原生 Windows EXE 安装包(支持 Windows 10+ 64位),无需 WSL2,是国内 OpenClaw 生态中 Windows 支持最完善的方案之一。OpenClaw 原版在 Windows 上需要 WSL2,对非技术用户门槛较高。


总结

Linclaw 通过"零部署桌面安装包 + 国内 9 大渠道原生支持 + 七牛云模型一键接入",将 OpenClaw(309k Stars)的核心 AI 助手能力封装成任何人都能在 5 分钟内上手的产品。对于不想折腾 Node.js 环境、需要接入微信/钉钉/飞书的国内用户,Linclaw 是当前 OpenClaw 生态中落地成本最低、渠道覆盖最全的选择。

本文内容基于 2026 年 3 月公开资料整理,Linclaw 和 OpenClaw 均处于活跃开发中,建议结合官网最新版本确认功能支持情况。

延伸资源

我之前我分享了下想去三甲医院看一下心理 /t/1195408

今天终于看完开出药了, 跟朋友们分享一下我的个人感受.

时间安排

累计请了三次半天的假

我去的比较热门的三甲,提前一周微信上挂号预约, 约到了周二下午 3 点,去的时候挂号加上排队检查没有做完(医院下午 1 点到 4 点半上班),其中一个检查排队约到了周四下午 1 点第 1 个.

第二次下午去检查很快就检查完了, 但我的主治医生下午不在, 医生提前开条子让我检查完后, 周三四五任意早上去指定医院,她给我加号.

第三次今天早上我 8 半到达医院见医生加号.

具体流程

中间做了 10 个各种测试题累计几百道,有一个明尼苏达多项人格测验测试题最多 399 道.
最后的综合评价是

明显 PTSD
中度强迫
中度狂躁
轻度双相
轻度焦虑
轻度抑郁

主要涉及心理的就是这个做题, 以及做完之后打印报告去见医生话疗,由医生再填一份报告最后统一给主治医生去看.

除测试外还做了心电/脑电/问询等好几个健康检查, 我是都正常.

花费及开药

全程下来总共 1300 左右, 1000 的各项检查和最后不到 300 的药费. 不过全部都可以走医保.

医生给我开了 舒肝解郁胶囊草酸艾司西酞普兰片 一个月的量, 另外给我了建议让我学会把压力反馈给他人~~

插曲

开完药医生推荐我去了解一下一个线下心理课程,就在诊室隔壁,进去就有俩护士打扮的人开始轻声细语的温柔的介绍一个 app.

每天上去打卡 15 分钟做心理锻炼课程, 还有一些各种可以花时间的自选游戏和心理建设课程,完了有专人建群了解你的状态.

一个疗程 3 个月 2000 块,但是走不了医保.

我就感觉我心理状态还行了. 用不了医保, 这个钱我拿去健身房办个年卡我感觉更能抗抑郁~~, 虽然我已经办了年卡.

个人感受

我最初去检查的目的其实很单纯, 就是搞一个病历, 拿来堵住亲戚朋友长辈的嘴.

我是知道我没病, 只是周围环境给的相亲催婚压力和快 30 岁的焦虑太大了.

在测试题的评价中, 我接触到了一个概念升华. 满分 9 我该项得分是 9.

升华是惟一真正成功的防御机制.升华用得越多,自我的生产性越强.
升华是将无意识冲动转化为社会接受行为的渠道.
例如,一位具有强烈嫉妒心的人,理智又不允许他表现出嫉妒别人的成就,于是他发奋学习,成绩超过别人,这对于社会和他本人具有积极意义.

我是比较感同身受的, 如果你们看我之前的帖子, 我从去年 7 月份开始减肥, 截止年前共 6 个月我减肥了 50 斤,体重从 170 减到了 120.

今年开始增肌, 准备在年底前变身超级赛亚人.

我是真的做到了少油少盐戒糖健康饮食, 修改作息, 我现在连烟都戒了.

论自律能力我是绝对自信的, 我知道我能, 我以前不想, 我现在在向他人证明我以前是不想.

现在吃了这个药, 连酒也要戒了...

我知道我在变好,但是我不快乐.

困扰我的始终是 30 岁年龄的 deadline 和催婚压力导致的内耗, 我一边又一遍的反思自己, 我到底还有哪里做的不好, 我做错了什么, 为什么只有我要做到这种地步, 真的有必要吗?

朋友们都说我爱钻牛角尖, 在他们眼里我是同时满足没主见死犟两个冲突条件的.

我知道这个世道有问题, 但是我不想同流合污. 纯爱无敌好吧, 休想让我去做舔狗或者渣男.

今天距离我 30 岁还有 68 天, 我依旧在对抗自己的焦虑. 祈祷着仿佛过了 30 岁自己会华丽转身变一个人, 人生会豁然开朗, 我已经开始变了.

希望你们见证我的改变, 但愿我会幸福.

Imgur

Imgur

编者按:随着人工智能大模型在金融、医疗、政务等高敏感领域的深入应用,数据隐私与模型安全已成为制约 AI 落地的核心瓶颈。如何在不可信的公有云环境中,确保 AI 的“思维过程”不被窥探、“执行逻辑”不被篡改、“通信链路”不被劫持?近日,英特尔中国高级工程师朱运阁与龙蜥社区云原生机密计算 SIG Contributor 赖堃共同带来了《智算新范式:构建 Confidential AI Agent》的主题分享。他们基于Intel® TDX(可信域扩展)技术与龙蜥社区开源生态,深度解析了 OpenClaw-CC 项目的架构设计与落地实践,展示了一套从硬件根信任到应用层隔离的全栈机密计算解决方案。本文整理自龙蜥大讲堂第 144 期直播内容,为您系统化拆解如何构建“可用不可见”的机密智能体。

图片

一、破局与基石:AI 能力演讲下的安全新挑战

人工智能的发展浪潮正在经历一场深刻的范式转移。早期的 AI 应用多集中于公开数据的处理与非敏感场景的交互,那时,“效率”是唯一的追求。但当 AI 试图介入人类社会的核心领域——比如分析患者的电子病历以辅助诊疗,或者读取企业的财务报表以预测风险,甚至直接操作公司的源代码库进行重构时,传统的云安全模型便显得捉襟见肘。

在新场景、新模式不断涌现的同时,数据隐私保护与可信体系构建的痛点也日益凸显:大模型训练数据易遭污染,推理过程可能引发隐私泄露,数据跨域流动中安全风险难以有效管控;随着云部署成为主流,现有的数据防护体系虽在数据传输与存储环节相对成熟,但在数据处理阶段仍高度依赖云平台或第三方服务方的契约式背书;技术手段上,缺乏对模型与数据在处理过程中的有效隔离与可信验证机制,这些问题已成为制约数字经济高质量发展的核心瓶颈。

更令人担忧的是,AI Agent 正在演变为具备感知、规划与行动能力的“数字员工”,需要调用各种工具(Skills),记忆多轮对话的上下文(Context),甚至持有访问第三方服务的凭证(Credentials)。如果这些“思维过程”和“身份钥匙”暴露在明文内存中,后果不堪设想:攻击者不仅可以窃取用户的隐私输入,更可以篡改 Agent 的系统提示词(SystemPrompts),诱导其输出有害内容,或者窃取其持有的 API Key 进行恶意操作。
图片

面对如此严峻的“信任真空”,传统的软件防御手段已显得力不从心,行业亟需一种能够从根源上重塑安全边界的新范式。这一趋势也得到了全球权威机构的印证——Gartner在《2026年十大战略技术趋势》中将机密计算(Confidential Computing)推向了舞台中央。它不再满足于数据仅在传输和存储时的加密,而是提出了一个更具挑战性的目标:让数据在“使用中(In-Use)。要将这一愿景变为现实,必须依赖硬件级的可信执行环境(TEE)作为基石。

英特尔®至强®处理器内置的英特尔®可信域扩展(Intel® Trust Domain Extensions,英特尔® TDX)技术,旨在为云环境提供硬件级可信执行环境。英特尔® TDX通过创建“可信域”(TD,Trust Domain)实现虚拟机级隔离,结合内存加密(如英特尔® 多密钥全内存加密,英特尔® MK-TME)和远程证明,确保数据在使用状态(Data in Use)的机密性、完整性和真实性。
图片

英特尔®TDX 为企业提供基于机密虚拟机、机密 GPU 实例和机密容器的可信算力保障,满足计算、存储及异构加速等基础算力需求。它能够在多租户环境下实现用户数据处理的强隔离,保护 AI 推理与训练的全流程数据安全,借助其灵活的可信度量和证明机制,同时支撑可验证、可审计的可信算力体系构建。TDX 提供的可信度量不仅是启动安全的基础,更是远程认证(Remote Attestation)和运行时可信评估的前提条件。
图片

依托龙蜥社区在操作系统层面的深度优化与 Intel 的硬件能力,OpenClaw-CC 项目应运而生。它不再满足于单一的数据加密,而是试图构建一个全栈的、原生的机密智能体运行环境,从根本上解决 AI 落地过程中的信任危机。

二、架构与解析:OpenClaw-CC 设计深度拆解

OpenClaw-CC 的设计哲学非常明确:不仅要保护数据,更要保护 AI 的“灵魂”与“身份”。项目团队深入剖析了 AI Agent 在云原生环境下的生命周期,识别出四个最关键的风险点,并逐一给出了基于硬件信任根的解决方案。
图片

守护思维的“黑盒”:动态上下文的机密性。AI 的“短期记忆”——包括敏感 Prompt、多轮对话状态及推理思维链,在传统内存中往往明文裸奔。OpenClaw-CC 利用 Intel TDX 硬件加密引擎(MEE),将 Agent 运行空间包裹在独立可信域中:数据仅在 CPU 寄存器内解密,一旦写入物理内存即刻转为密文。这意味着,即便云厂商拥有最高权限,也无法通过内存 dump 窥探 AI 的思考过程,真正实现了隐私数据的“可用不可见”。

封印身份的“钥匙”:凭证的动态注入与加密落盘。API Key、数据库密码等核心凭证若静态存放在镜像中,极易被窃取滥用。OpenClaw-CC 系统镜像的根分区实施严格的“只读区度量+差异层加密”策略:实例初始为无钥“空壳”,唯有向信任中心(Trustee)自证环境清白后,敏感凭据才被动态下发到机密实例。并提供持久化加密落盘存储,从链路上切断了密钥泄露路径。

捍卫行为的“灵魂”:执行逻辑的防篡改。System Prompts 与 Skills 文件定义了 Agent 的“人设”与“技能”,是其灵魂所在。传统安全常忽略配置文件的完整性,导致 Agent 易被篡改变节。OpenClaw-CC 将防篡改粒度细化至所有配置文件,利用 dm-verity 锁定文件系统,并将所有关键哈希值计入 TDX 远程证明度量。任何微小修改(如植入恶意工具)都会导致度量值不匹配,触发证明失败并拒绝启动,确保云端 Agent 100% 忠实于用户原始定义。

验明正身的“信道”:通信链路的真实性。最后一个常被忽视的痛点是通信安全。当我们通过 HTTPS 连接一个云端 AI 服务时,TLS 协议确实加密了数据传输,但它只验证了域名证书,并没有验证服务端运行的环境。OpenClaw-CC 引入 RATS-TLS 协议,将远程证明嵌入握手流程:在建立加密通道前,客户端强制校验服务端的 TDX 硬件证据(Quote)。只有确认对方运行在真实可信硬件且软件未被篡改时,隧道才会建立。这种“通信即验身”的机制,彻底终结了中间人攻击与身份伪造,确保数据只流向经硬件认证的“真身”。

三、落地实践:从构建到运行的全流程演示

基于龙蜥操作系统的安全特性,我们将上述四大安全能力串联起来,形成了从本地构建到云端运行的完整实践。第一步:本地确权与信任注册。

用户在本地可信环境中构建包含 OpenClaw 的加密镜像,并自动生成包含代码、配置(Prompts/Skills)哈希值的唯一的“黄金参考值”。
图片

第二步:一键部署云上实例。通过自动化脚本,在阿里云等支持 TDX 的云平台上快速部署上述镜像。
图片

第三步:可信代理网关与安全接入。启动本地的 TNG(Trusted Network Gateway)客户端,发起远程证明请求。TNG 会验证云端的 TDX Quote,确认环境清白,并建立端到端的加密隧道。验证通过后,用户可通过多种方式安全访问 Agent。
图片

图片

整个过程中,用户的敏感指令全程密文传输,且在云端内存中始终加密,实现了真正的隐私保护。

相关开源项目链接:

OpenClaw Demo:
https://github.com/inclavare-containers/confidential-agent

Trusted Network Gateway:
https://github.com/inclavare-containers/tng

Attestation-Agent:
https://github.com/inclavare-containers/guest-components

Trustee:
https://github.com/openanolis/trustee/

CryptPilot:
https://github.com/openanolis/cryptpilot

龙蜥社区云原生机密计算 SIG:
https://openanolis.cn/sig/coco

欢迎开发者加入龙蜥社区云原生机密计算 SIG(钉钉交流群群号:42822683),共同探索机密计算与 AI 融合的无限可能!

本次龙蜥大讲堂回顾视频和 PPT 已上传,欢迎点击查看:

PPT 下载:https://docs.openanolis.cn/document/detail/i61jna8c

回顾视频:https://openanolis.cn/video/1575904777789810035

—— 完 ——

大家好,我是凌览。

如果本文能给你提供启发或帮助,欢迎动动小手指,一键三连(点赞评论转发),给我一些支持和鼓励谢谢。

背景

SkillHub 是腾讯专为国内用户打造的 AI Skills 社区,解决官方 ClawHub 下载慢、界面英文、搜索费劲等痛点。

冲突

Peter 是开源项目 OpenClaw 的创始人,他搭建了知名的技能社区 ClawHub。后来他发现,有一款来自东方的产品 SkillHub 正在疯狂抓取该社区的数据。这种抓取行为非常激进,甚至频繁触碰到服务器的速率限制。

随后,Peter 在社交平台公开指责腾讯新上线的 SkillHub 平台“大规模抓取 ClawHub 数据”,且未事先进行任何沟通。这导致其官方服务器承受了高达“数万美元”的额外成本。

他在社交平台愤然表示:“他们肆意抄袭,却未以任何形式为项目提供支持。”

腾讯回应

面对指责,腾讯直接在 Peter 的推文下进行了回应:

  1. 定位澄清:我们只是一个面向中国用户的本地镜像站,并且明确标注了原始来源。
  2. 数据反驳:上线第一周,腾讯为国内用户分发了高达 180GB 的数据,促成了 87 万次下载。但从你们官方源那里,我们只拉取了区区 1GB 的数据。
  3. 贡献强调:我们团队很多成员本身就是你这个项目的代码和 PR 贡献者,我们是希望继续支持这个生态的。

大白话翻译:

简单来说,腾讯的意思是:“我没有偷你井水,而是在你旁边建了个大水库,还掏钱给用户铺了水管。”

  • 没占便宜:不仅没占用你多少服务器带宽,反而分担了你的流量压力。
  • 反向输血:变相成了你的“金主”,还顺手帮你修了底层的 bug。

网络舆论

这件事很难用简单的对错来评判,更像是开源圈的理想主义撞上了大厂的商业逻辑,一时间众说纷纭。

挺 Peter 的人觉得,大厂吃相难看。用人家的东西连招呼都不打,更别提给项目反哺点资金或资源,这种“只进不出”的做法太傲慢。这戳中了开源圈的一个痛点:大公司靠着开源项目赚流量、做生态,却很少想着回馈。

而支持 SkillHub 的人则觉得,这事得看实际效果。腾讯确实解决了国内用户访问慢、界面不友好这些老大难问题,还加了加速、中文搜索这些实用功能。对普通用户来说,谁用着方便选谁很正常,这种“用脚投票”恰恰说明大家需要这种高效的服务。

我的看法

这事说白了就是大厂仗着协议合规,把“先斩后奏”当成了习惯。
腾讯手里捏着MIT协议,技术上确实没违规,甚至还帮原作者分担了流量。

但问题就出在那个“傲”字上——仗着自己体量大、跑得快,连句“先打个招呼”的客气话都懒得说。

开源社区最讲究互相尊重,你把人家当免费素材库直接搬运,连最基本的沟通都省了,这在谁看来都像是一种“技术霸凌”。
合规只是底线,不是通行证。真想做成双赢,缺的从来不是代码和带宽,而是一句“先聊聊”的基本礼貌。

你怎么看,欢迎评论区聊聊。

3 月 5 日,龙蜥社区安全联盟(OASA)单位西交利物浦大学后量子迁移交叉实验室(PQC-X)(以下简称“实验室”)实验空间启动仪式暨金融行业后量子迁移国际合作与交流中心揭牌仪式在苏州圆满举行。该实验室旨在攻克信息系统向“后量子密码(Post-Quantum Cryptography,PQC)”迁移过程中的核心技术难题,以应对量子计算发展对现有公钥密码体系构成的潜在风险。会上,龙蜥社区理事长马涛受聘成为 PQC-X 实验室抗量子迁移“产业发展顾问”。

image.png

目前,实验室已组建一支由多国学者构成的顾问团队,成员涵盖后量子密码学领域的多位重要学者。其中包括:德国著名密码学家 Johannes Buchmann 教授,日本后量子密码学权威高木刚(Tsuyoshi Takagi)教授,芬兰密码学家、NIST 后量子密码标准算法 SPHINCS+ 核心设计者 Markku-Juhani O. Saarinen 教授,西班牙电信工程师、量子安全金融论坛创始人兼主席 Jaime Gómez García,以及西班牙密码学专家 Ignacio María Luengo Velasco 教授,大会现场也举行了隆重的顾问聘书颁发仪式。

为构建完善的产业生态,将科研成果转化为实际生产力,PQC-X 实验室主任丁津泰教授与副主任刘锐(苏州朗空后量子科技有限公司董事长)共同为龙蜥社区理事长马涛、本源量子计算科技(合肥)股份有限公司总经理张辉等优秀的科技企业负责人和投资人颁发了“产业发展顾问”证书。

此前,丁津泰教授在龙蜥社区第七届理事大会上受邀加入社区第二届高级顾问团。据悉,丁教授是国际抗量子密码领域的顶级专家,他的团队一直是以“硬核屠榜”著称的顶尖存在。在 2026 真实世界抗量子密码学工作坊(RWPQC 2026)上,丁津泰教授宣布他们一举攻克了目前公认最高难度、最具挑战性的 Kyber-256-k1,这是全球首次以较低硬件(仅用 16 张民用级显卡)成本撬动 Kyber 256 的大门,实现了对计算瓶颈的“降维打击”。

image.png
(图/右4-马涛:PQC-X 实验室抗量子迁移“产业发展顾问”颁发仪式)

同天,江苏省金融学会抗量子计算迁移专业委员会(以下简称“专委会”)成立大会也在苏州隆重召开,西交利物浦大学后量子迁移交叉实验室(PQC-X)担任主任委员单位,西交利物浦大学数学物理学院院长、后量子迁移交叉实验室主任丁津泰教授出任专委会首届主任委员。这是全国首个聚焦金融业抗量子计算密码迁移的专业委员会。首届专委会汇集了国内顶尖的跨界力量,打造了一个坚实的创新协同矩阵。为了全面推进行业协同,专委会吸纳了 23 家在各自领域具有深厚影响力的机构及高校担任副主任委员单位,完整覆盖了“产学研用”的各个环节。

自成立以来,龙蜥社区始终将安全视为操作系统发展的生命线,通过成立龙蜥社区安全联盟(OASA),聚合了包括芯片、整机、云厂商及安全领军企业在内的全产业链力量,共同构筑起一道坚不可摧的数字安全长城。随着实验室与交流中心的正式落成以及海内外顶尖顾问团队的组建,龙蜥也将联合产、学、研、用、资各界,依托这一创新生态平台凝聚智慧,共同打造从基础研究到应用实践的产业生态链,持续为保障我国及全球金融体系的长期安全贡献力量。

—— 完 ——

一个真实的生产案例:CPU 周期性飙升,却找不到任何高 CPU 进程。

故事的开始:一个让人抓狂的 CPU 抖动问题

深夜 2 点,小王被监控告警惊醒。

公司核心业务服务器的 CPU 出现了诡异的"抖动"——每隔几秒就会飙到 80%,然后又落回 20%,如此反复。

%Cpu(s):  2.5 us, 45.0 sy,  0.0 ni, 52.5 id...  <- 突然飙升
%Cpu(s):  3.0 us, 12.0 sy,  0.0 ni, 85.0 id...  <- 又落回来
%Cpu(s):  2.0 us, 55.0 sy,  0.0 ni, 43.0 id...  <- 又飙了

奇怪的是:

  • top 看不到任何高 CPU 的进程。
  • sys 很高,但 user 很低。
  • 业务日志没有任何异常。

"到底是谁在搞鬼?" 小王盯着屏幕一脸茫然。

传统排查:大海捞针

按照常规思路,小王开始了漫长的排查:

# 看进程?没有异常
top -c

# 看系统调用?太多了看不过来
strace -p xxx

# 看内核日志?一切正常
dmesg

2 个小时过去了,问题依然没有头绪。

如果你也遇到过类似的场景,一定能理解那种"明明有问题却找不到原因"的抓狂感。

SysOM Agent 登场:3 分钟定位根因

第二天,小王决定试试 SysOM Agent。

阿里云操作系统控制台(https://alinux.console.aliyun.com)是一站式操作系统运维管理平台,提供了内存、I/O、网络、内核崩溃等强大的系统诊断能力,SysOM是操作系统控制台的运维组件。SysOM Agent 是SysOM 的智能助手,接入了 SysOM MCP 的诊断能力。点击右上角的图标即可和 SysOM Agent 对话。
image.png
小王只输入了一句话:
“我的实例 i-12345 的 CPU 使用率出现周期性抖动,sys 很高”

接下来发生的事情,让他大开眼界——

第一步:火焰图锁定热点函数

SysOM Agent 自动调用了 CPU Profiling 能力,采集了抖动时间段的火焰图。

结果一目了然:
图片

image.png

native_queued_spin_lock_slowpath   <- 占用 40%+ CPU!
  _raw_spin_lock
    lockref_get_not_dead
      legitimize_path
        try_to_unlazy_next
          walk_component
            lookup_fast

Agent 诊断结论:大量 CPU 时间消耗在 native_queued_spin_lock_slowpath ——这是内核自旋锁的慢路径。

第二步:追溯问题源头

Agent 进一步分析调用栈:

lookup_fast → try_to_unlazy_next → __legitimize_path

这条链路说明:VFS 路径解析时,RCU 快路径失败,被迫走到了需要获取锁的慢路径。

但为什么会这样?

第三步:抓到“真凶”

Agent 进一步分析调用栈:Agent通过火焰图深入分析,确认 CPU 抖动的根因为 Negative Dentry 堆积引发的 VFS 锁竞争风暴。

诱因: 业务逻辑中存在高频访问不存在文件的行为,导致内核 Dentry Cache 中堆积了海量的 Negative Dentry。

  • 触发: 当系统触发内存回收或 Dentry 缓存达到阈值时,内核回收进程会调用 shrink_dentry_list 尝试销毁这些条目,这会频繁修改父目录的序列计数器(d_seq)并持有 dentry 的自旋锁(d_lock)。
  • 冲突: 此时,业务进程的高频路径解析(RCU Path Walk)会因为检测到 dentry 状态变更或序列号不一致而导致 RCU 模式失效。
  • 恶化: 大量并发线程被迫从 RCU 模式切换到 Refcount 模式(Unlazy 流程),并集体尝试调用 legitimize_path 来获取 dentry 的引用。该过程需要频繁竞争 d_lock 自旋锁,最终在 lockref_get_not_dead 处爆发严重的锁竞争。
  • 现象: 这种高密度的锁竞争将 CPU 拖入 native_queued_spin_lock_slowpath 的长时自旋中,表现为系统负载和内核态 CPU 使用率的剧烈抖动。

完整诊断报告详见文末的附录1。
Negative dentry 导致的 CPU 抖动是一个非常隐蔽的问题:
image.png

SysOM Agent 已经帮助多家企业定位过类似问题,平均诊断时间从 4 小时缩短到 5 分钟。

为什么 SySOM Agent 能做到?

1、多维度数据融合
不是简单地看 top/vmstat,而是:

  • 火焰图:精准定位内核热点。
  • 调用栈:理解代码执行路径。
  • bpftrace:动态追踪内核行为。

2、专家级诊断逻辑
Agent 内置了资深 SRE 的诊断思路:

  • 看到 native_queued_spin_lock_slowpath → 联想到锁竞争。
  • 看到 lookup_fast 降级 → 理解 VFS 缓存机制。
  • 看到 dentry 相关 → 检查文件系统访问模式。

3、一句话交互
不需要你记住复杂的命令,只需描述问题现象:

❌ 传统方式: perf record -ag -- sleep 20 && perf report && bpftrace ...
✅ SysOM Agent: "我的机器CPU sys 很高,有周期性抖动"

立即体验 SysOM Agent

如果你的系统也有类似的 CPU 抖动问题,不妨让 SysOM Agent 试试,让专家级诊断能力触手可及:

1、登录 SysOM 控制台(https://alinux.console.aliyun.com),纳管节点,等待问题复现。
2、打开智能助手,输入问题描述,自动诊断结果。

相关文档:
如何纳管节点:https://help.aliyun.com/zh/alinux/component-management
进程热点追踪:https://help.aliyun.com/zh/alinux/process-hotspot-tracking

如果你有自己的 Agent,也可以试试接入SysOM MCP(https://github.com/alibaba/sysom_mcp),SysOM MCP 脱胎于阿里云操作系统控制台,把复杂的运维操作转化为 AI 可直接调用的标准工具,让 AI Agent 能像专业工程师一样“动手”诊断系统问题——用户无需懂命令,只需用自然语言提问,即可获得精准的系统级分析。

SysOM MCP 支持 --stdio (本地嵌入)和 --sse (HTTP 服务)两种模式,轻松集成各类 AI 客户端。

要在支持 MCP 协议的 AI Agent 平台(如 Qwen Code)中使用 SysOM MCP,首先需将项目代码克隆到本地:

git clone https://github.com/alibaba/sysom_mcp.git
cd sysom_mcp

再在配置文件中添加如下配置,就可以让 AI 助手能以自然语言驱动操作系统及运维操作。

{
  "mcpServers": {
    "sysom_mcp": {
      "command": "uv",
      "args": ["run", "python", "sysom_main_mcp.py", "--stdio"],
      "env": {
        "ACCESS_KEY_ID": "your_access_key_id",
        "ACCESS_KEY_SECRET": "your_access_key_secret",
        "DASHSCOPE_API_KEY": "your_dashscope_api_key"
      },
      "cwd": "<sysom mcp项目目录>",
      "timeout": 30000,
      "trust": false
    }
  }
}

附录1:完整诊断报告

┌─────────────────────────────────────────────────────────┐
│  SysOM Agent 诊断报告                                    │
├─────────────────────────────────────────────────────────┤
│  问题现象: CPU sys 周期性飙升,load 抖动                 │
│                                                         │
│  根因分析:                                               │
│  1. 用户进程高频访问不存在的路径                 │
│  2. 产生大量 negative dentry 并被周期性回收              │
│  3. VFS 路径解析从 RCU-walk 降级到 REF-walk              │
│  4. dentry 自旋锁竞争导致 CPU 抖动                       │
│                                                         │
│  解决方案:                                               │
│  1. 应急: sync && echo 2 > /proc/sys/vm/drop_caches    │
│  2. 修复: 检查业务代码,避免访问不存在的路径             │
│  3. 优化: 缓存文件存在性检查结果                         │
└─────────────────────────────────────────────────────────┘

附录2:什么是 Negative Dentry?

当你访问一个不存在的文件时:

ls /path/to/nonexistent_file
# ls: cannot access '/path/to/nonexistent_file': No such file or directory

内核不会每次都去磁盘查找,而是会创建一个 negative dentry 来缓存"这个文件不存在"的信息。

这本来是一个优化机制,但当:

大量进程高频访问不存在的路径

同时系统又在回收 dentry 缓存
就会触发 VFS 层面的锁竞争,导致 CPU 抖动。

如何自查?

# 查看 dentry 缓存状态
cat /proc/sys/fs/dentry-state
# 输出: nr_dentry nr_unused age_limit want_pages dummy dummy
# 如果 nr_dentry 数值很大(数十万以上),可能存在问题
SysOM Agent —— 让复杂问题变简单

联系我们

若想使用更全面的 SysOM 功能,请登录阿里云操作系统控制台体验,地址:

https://alinux.console.aliyun.com/

您在使用操作系统控制台的过程中,有任何疑问和建议,可以搜索群号:94405014449 加入钉钉群反馈,欢迎大家扫码加入交流。

“‘人工智能+制造’是一个必答题,不是一个选择题。”今年两会期间,工业和信息化部部长李乐成关于产业升级的这一论断,为制造业的未来指明了方向。然而,企业要答好这道“必答题”,首先需要解决一个根本性的障碍:数据。

当人工智能开始进入工业系统,企业最先面对的挑战往往不是模型的先进程度,而是有没有一套能够被有效管理、理解和实时利用的数据体系。没有这个基础,再精妙的算法也只是空中楼阁。

如果再把视角放宽一点来看,今年两会讨论的很多产业方向“关键词”——从新型基础设施、工业软件、人工智能,到新能源体系、油气安全、现代化水网建设——背后其实都指向同一个基础能力:数据系统的升级。

过去几年,随着工业数字化和智能化不断深入,越来越多企业开始重构自己的数据架构。从工业生产系统到能源系统,再到城市基础设施平台,实时数据平台正在成为产业系统的重要底座。

如果把这些宏观产业方向和企业的真实系统建设结合起来看,会发现很多行业正在经历类似的变化:政策提出方向,产业在实践中遇到具体问题,而这些问题往往最终指向同一个基础能力——数据系统的升级

下面几个行业案例,也正是沿着这样一条逻辑展开的:从两会提出的产业方向出发,看产业正在面对什么问题,以及企业是如何通过新的数据架构去解决这些问题的。

新型基础设施:工业数据平台正在成为新的底座

在工业数字化进程中,企业普遍会遇到一个越来越明显的问题:设备数据规模正在快速增长,而原有的数据系统往往并不是为这种场景设计的。

在很多工业现场,设备会以秒级甚至更高频率持续产生运行数据。当设备数量逐渐扩大,企业很快就会发现原有系统开始出现各种瓶颈,例如写入性能难以支撑高频采集、查询效率随着数据量增加而明显下降,同时存储成本也在不断攀升。与此同时,不同系统之间的数据往往分散在多个平台中,想要统一分析和利用并不容易。

在这样的背景下,越来越多企业开始重新思考数据架构。能够针对时间序列数据进行优化的数据库系统,也逐渐成为工业数据基础设施的重要组成部分。

例如,在多个制造行业的实践中,TDengine 已经成为底层数据平台:

  • 离散制造 | IMS 智能制造平台 | TDengine x 盘古信息(<span style="color: rgb(143,149,158); background-color: inherit">点击链接查看相关案例</span>)

    在盘古信息的 IMS 智能制造系统中,原有 MongoDB 与 InfluxDB 在数据规模增长后出现性能瓶颈。引入 TDengine TSDB 后,系统压缩率提升至 5%–10%,单机即可保存 3–5 年历史数据,同时通过内置时序函数实现实时聚合分析,使生产监控与曲线计算始终保持毫秒级响应
  • 烟草工业 | 智能工艺管控 | TDengine x 大理卷烟厂(<span style="color: rgb(143,149,158); background-color: inherit">点击链接查看相关案例</span>)

    在制丝车间数字化升级中,TDengine TSDB 替代 Wonderware Historian,接入 4 万+监测点位,实现设备状态实时监控、异常告警和工艺质量分析,并结合 AI 优化算法持续提升生产稳定性。
  • 钢铁行业 | 车间级数据中心 | TDengine × 中冶京诚(<span style="color: rgb(143,149,158); background-color: inherit">点击链接查看相关案例</span>)

    在钢铁车间数据中心建设中,系统接入 12 套 PLC,以 100ms 采集频率持续采集生产数据。系统自 2021 年上线以来 四年零故障运行,同时将数据压缩率控制在 10%以内,显著降低工业数据存储成本。

这些系统来自不同产业,但它们面临的核心问题其实非常相似:都需要一个能够支撑海量设备数据实时写入、快速查询以及长期存储的数据基础设施。

工业软件与人工智能:工业数据正在进入 AI 阶段

近年来,工业 AI 成为产业讨论的热点。但在很多真实场景中,企业很快发现,人工智能真正落地时首先遇到的问题往往不是模型能力,而是数据本身。工业系统中的数据通常分散在多个业务系统之中,不同设备、不同系统之间的数据结构和语义并不统一,即使数据已经被采集下来,也很难直接用于分析或模型训练。

因此,在 AI 时代,企业首先需要解决的其实是数据治理和数据理解的问题。TDengine 推出的 AI 原生工业数据管理平台 TDengine IDMP,通过数据目录对设备、指标和数据资产进行统一管理,通过数据标准化解决不同系统之间的语义差异,并通过情景化建模将原始数据与具体业务场景关联起来,使数据能够真正反映生产过程中的状态和事件,从而为 AI 应用提供可理解、可利用的数据基础。

在此基础上,TDengine IDMP 引入了 “无问智推” 的能力。系统不再依赖人工查询,而是能够根据实时数据变化自动生成分析并推送关键信息。例如在电力和制造场景中,“电压合格率”“稳定性系数”等复合指标,过去往往需要依赖专家经验推导,现在系统可以基于采集数据和结构化语义自动衍生这些指标,使更多人能够第一时间理解系统运行状态。

在这样的数据体系下,工业数据不再只是被动记录,而开始逐渐具备理解业务、生成信息并辅助决策的能力。在一些已经落地的项目中,这种变化已经开始出现:

  • 制糖行业 | 生产数据与工艺管理 | TDengine × 海莱德(<span style="color: rgb(143,149,158); background-color: inherit">点击链接查看相关案例</span>)

    在制糖数字化项目中,海莱德基于 TDengine TSDB + IDMP 构建生产数据平台,通过 OPC 接入 DCS 实时工艺数据,并统一汇聚各工厂生产数据,实现生产监控、工艺分析与 AI 辅助决策。
  • 化工科研 | 研发数据管理与批次分析 | TDengine × 沈阳化工研究院(<span style="color: rgb(143,149,158); background-color: inherit">点击链接查看相关案例</span>)

    在研发数字化项目中,TDengine TSDB 与 IDMP 构建统一数据基座,接入实验室与中试生产线约 2 万个监测点位数据,并通过树状数据目录组织实验与生产数据,支撑批次对比分析与工艺优化。
  • 智慧交通 | 桥梁健康监测 | TDengine × 山西省智慧交通实验室(<span style="color: rgb(143,149,158); background-color: inherit">点击链接查看相关案例</span>)

    在桥梁健康监测项目中,TDengine IDMP 构建统一数据平台,对温湿度、振动、应变等多源监测数据进行集中治理,实现分钟级主动预警和一线业务人员自助分析。

从这些实践可以看到一个明显趋势:工业数据正在从单纯的记录系统,逐渐演变为能够参与决策的系统。

新能源:大规模设备实时数据系统

新能源产业的发展速度非常快,而新能源系统本身也是一个典型的实时数据系统。

无论是风电机组、光伏阵列还是储能系统,每台设备都会持续产生大量运行数据。这些数据不仅需要被实时采集和监控,还需要长期保存,用于运行分析、设备维护以及系统优化。当设备规模不断扩大时,传统数据系统往往很难同时满足高并发写入和长期存储的需求。

因此,越来越多新能源企业开始建设新的数据平台,以支撑这些实时数据系统。例如:

  • 风电行业 | 风机监控与能源数据平台 | TDengine × 明阳集团(<span style="color: rgb(143,149,158); background-color: inherit">点击链接查看相关案例</span>)

    在风电机组监控系统中,明阳集团通过 TDengine 构建能源大数据平台,目前已接入 10000+ 台风电机组,每台设备包含数百至上千个监测点,系统累计存储 40+ 亿行数据,并通过高效压缩与实时查询能力支撑风机运行监控与数据分析。
  • 储能行业 | 储能平台实时数据系统 | TDengine × 沃太能源(<span style="color: rgb(143,149,158); background-color: inherit">点击链接查看相关案例</span>)

    在储能云平台升级过程中,沃太能源将实时数据基础数据库从 MongoDB 迁移至 TDengine,通过 Kafka 与 taosX 接入设备数据,实现 毫秒级实时查询与高频数据写入,同时将存储压缩率提升至 10 倍以上,显著降低系统架构复杂度与硬件成本。
  • 电力行业 | 水电智能巡点检系统 | TDengine × 桂冠电力(<span style="color: rgb(143,149,158); background-color: inherit">点击链接查看相关案例</span>)

    在水电智能巡检系统中,TDengine 作为数据湖 OT 数据核心存储平台,通过“一个设备一张表”和超级表模型统一管理设备数据,并结合 AI 与智能终端实现智能巡盘与主动预警,机组效率提升 2–5%,年增发电量约 3 亿 kWh

这些项目说明,随着新能源系统规模不断扩大,设备运行数据已经成为能源系统的重要组成部分,而数据平台能力也成为系统稳定运行的重要保障。

油气安全:能源数据系统正在全面升级

在油气行业,生产系统往往需要长期稳定运行,很多核心系统已经持续运行了十几年甚至更久。在早期建设阶段,这些系统通常依赖传统数据库或者国外工业软件来存储和管理生产数据。随着油气生产规模不断扩大,设备数量持续增加,生产监测、设备状态以及工艺运行数据的规模也在快速增长,一些企业逐渐发现原有系统在性能、扩展能力以及运维成本方面开始面临挑战。

与此同时,油气生产系统的数据需求也在发生变化。除了传统的数据存储和查询之外,越来越多企业开始希望能够对生产数据进行实时监控、跨系统分析以及边云协同管理,以支撑生产优化和安全管理。为此,一些企业开始探索新的数据架构,希望通过新的技术平台来提升系统效率,同时降低长期运维成本。

在一些已经落地的项目中,这种升级趋势已经逐渐显现:

  • 石油石化 | 时序数据库替换与平台精简 | TDengine × 胜软科技(<span style="color: rgb(143,149,158); background-color: inherit">点击链接查看相关案例</span>)

    在石油石化时序数据平台升级中,胜软科技将原有 40 多套 Oracle 数据库 精简替换为 9 套 TDengine 集群,在显著降低运维与存储成本的同时,实现了历史数据平滑迁移,并借助订阅与 taosX 提升数据同步和系统集成效率。
  • 石油化工 | 实时数据库国产化升级 | TDengine × 泰州石化(<span style="color: rgb(143,149,158); background-color: inherit">点击链接查看相关案例</span>)

    在实时数据库国产化项目中,泰州石化基于 ProDB(TDengine TSDB 基础上开发)完成对原 InfoPlus.21 系统的升级,不仅实现了 4 倍点位扩容 和双冗余配置,还支撑 700+ 幅流程图 的极速渲染与稳定展示,显著提升了系统可扩展性和使用体验。
  • 油气行业 | 边云协同与生产数据服务 | TDengine × 某大型油田(<span style="color: rgb(143,149,158); background-color: inherit">点击链接查看相关案例</span>)

    在某大型油田生产管理项目中,TDengine 替换 Oracle 承担时序数据存储,并通过 taosX 实现边缘数据向云端的实时汇聚与历史迁移。目前总部集群已存储 36TB、1034 亿+ 条数据,压缩率控制在 10% 以内,有效提升了数据同步效率与平台整体性能。

这些实践说明,随着生产规模和数据需求不断增长,油气行业的数据系统也正在进入新的架构阶段。

现代化水网建设:水务系统正在走向实时化

城市水务系统同样正在经历数据系统升级。随着智慧水务建设不断推进,越来越多城市开始通过数字化手段对供水、排水以及防汛系统进行统一管理,而这些系统的运行基础正是大量实时设备数据。

在实际建设过程中,水厂、管网监测、泵站控制以及供水调度系统往往来自不同厂商,历史系统之间也缺乏统一的数据架构。随着设备规模不断扩大,这些系统的数据逐渐分散在多个平台中,形成大量数据孤岛。当需要进行统一分析、运行调度或应急管理时,数据整合往往成为系统建设中的一个重要挑战。

因此,在智慧水务建设过程中,越来越多城市开始建设统一的数据平台,以实现设备数据的集中接入、统一管理以及长期分析能力,使水务系统能够更加高效地支撑日常运行和应急管理。在一些已经落地的项目中,这种变化也逐渐显现:

  • 水务物联网 | 城市水务平台 | TDengine × 嘉环科技(<span style="color: rgb(143,149,158); background-color: inherit">点击链接查看相关案例</span>)

    在某水务公司水务物联网平台项目中,嘉环科技基于 TDengine 构建统一数据平台,实现全市水务设备集中接入与管理。平台接入百万级设备数据,支撑水质监测、供排水设备运行监控及管网调度等业务应用,使设备最新状态查询从秒级提升至毫秒级,大幅提升水务运维效率与应急响应能力。
  • 智慧水务 | 统一物联网平台 | TDengine × 福州水务(<span style="color: rgb(143,149,158); background-color: inherit">点击链接查看相关案例</span>)

    在福州水务统一物联网接入平台建设中,TDengine 作为核心数据引擎,实现水厂、管网、水表及泵站等多源设备数据统一接入与管理。平台已接入超过 100 万台设备、190 万张设备子表,并支撑多业务系统的数据共享与分析,在高并发写入和大规模查询场景下保持稳定运行。
  • 智慧水利 | 防汛监测系统 | TDengine × 江西水投(<span style="color: rgb(143,149,158); background-color: inherit">点击链接查看相关案例</span>)

    在江西水利物联网平台建设中,TDengine 承担水位、流量、水质等海量水情数据的实时采集、存储与分析任务。系统通过统一设备建模与高性能查询能力,实现数十万设备监测数据的毫秒级查询,并支撑告警模型与数字化调度应用,使防汛体系从“事后抢险”逐步转向“事前预警”。

从这些项目可以看到,水务系统的数字化,本质上也是数据治理能力的升级。

大交通:基础设施运行正在进入实时感知阶段

随着国家综合立体交通网建设不断推进,港口、桥梁以及各类交通基础设施的数字化程度也在不断提高。相比传统工业系统,这些基础设施的一个重要特点是长期运行与安全管理要求极高。设备状态、环境变化以及结构运行情况,都需要被持续监测,一旦出现异常,系统需要能够第一时间识别并发出预警。

在这样的场景中,数据系统不仅承担存储和查询的角色,更需要支持持续监测和实时分析。例如港口设备运行状态、桥梁结构监测数据以及环境数据,都需要被长期记录并实时分析,以支撑日常运维和安全管理。

在一些已经落地的项目中,我们可以看到这种变化趋势:

  • 智慧港口 | 港口设备实时监控 | TDengine × 山东港口科技(<span style="color: rgb(143,149,158); background-color: inherit">点击链接查看相关案例</span>)

    在智慧港口建设中,山东港口科技基于 TDengine 构建时序数据平台,用于管理桥吊、门机、AGV 等设备持续产生的运行数据。系统实现设备状态监控、能耗分析与作业效率统计,设备运行查询响应速度从分钟级提升至毫秒级,同时通过高效压缩存储使数据存储空间减少超过 80%,为智慧港口运营和调度提供实时数据支撑。
  • 智慧交通 | 桥梁健康监测 | TDengine × 山西省智慧交通实验(<span style="color: rgb(143,149,158); background-color: inherit">点击链接查看相关案例</span>)

    在桥梁健康监测系统建设中,山西省智慧交通实验室基于 TDengine IDMP 构建统一数据平台,实现温湿度、风速、应变、振动等多源监测数据的集中治理与统一管理。系统支持分钟级自动预警和业务人员自助数据分析,使桥梁运维从“被动养护”转向“主动预警”。

随着交通基础设施数字化程度不断提升,数据系统也正在从传统的信息记录工具,逐渐成为支撑基础设施安全运行的重要组成部分

结语

两会讨论的是产业方向,而产业真正的变化往往发生在具体系统与真实场景中。从工业制造到新能源,从油气能源到城市水务,越来越多行业正在经历同一件事情:数据系统已经成为产业升级的重要基础设施。而 TDengine 与伙伴在这些领域中的实践,也正是这场产业变革的一个缩影。未来,随着 AI 与工业系统进一步融合,数据平台在产业体系中的角色只会越来越重要。

看标题,跨组件,如果是组件内部很容易。总体借鉴的思路是开源的antd 或者饿了么架构,他们在做hover的时候 最终的hover体在root根路径的外层,比如你有一个文案需要被hover,他不是在文案内部嵌套一个hover体,而是直接append到root外层了。这种方案很好的解决了z-index层级问题。

我为何要做跨组件方案,我的bug原有是在unipp项目中,我写了一个toolTip组件,相比大家都知道一般都是hover体 append到被hover的目标上,但就出现了一个致命的bug。我有一个table,他是左侧固定的,用的是position sticky方案,不管我设置hover体的层级多高,我的td列都会遮盖hover体。我整整研究了快1个多小时才慢慢去研究开源方案的思路。

行了,ai帮我写代码,我提供思路,写好代码我校验没问题后,我又让ai给我出一篇完整的思路,以便我后续总结和回归。

**核心挑战
uni-app 小程序环境不支持 Teleport,也没有 DOM API,导致经典的「将浮层挂载到 body」方案完全失效。本方案通过 全局响应式 Store + Portal 组件 的架构解决这个问题。**

┌─────────────────────────────────────────────────────┐
│ Page │
│ │
│ ┌──────────────┐ ┌──────────────────────┐ │
│ │ s-tooltip │ │ s-tooltip-portal │ │
│ │ (触发器) │ │ (渲染层,放页面底部) │ │
│ │ │ Store │ │ │
│ │ 点击 ──────────────► │ 读取 Store 数据 │ │
│ │ 写入位置/内容│ │ 渲染浮层 + 蒙层 │ │
│ └──────────────┘ └──────────────────────┘ │
│ │
│ tooltipStore (reactive 全局单例) │
└─────────────────────────────────────────────────────┘

一句话概括: 触发器负责"写数据",Portal 负责"读数据渲染",Store 是两者之间的唯一桥梁。

三层核心设计

  1. 全局 Store —— 解耦触发与渲染
// tooltipStore.ts
export const tooltipStore = reactive<TooltipState>({
  visible: false,
  triggerRect: null,   // trigger 的位置信息
  hasPosition: false,  // 防闪烁标志
  activeId: null,      // 当前激活的实例 ID(多实例互斥)
  useCustomSlot: false,// 是否使用自定义内容
  toolTipHover: [],    // 字符串内容模式
  // ...布局参数
})

Store 是整个方案的核心,它让两个在 DOM 树上完全独立的组件能够通信,避免了 props 层层透传或 EventBus 的混乱。

  1. 两步渲染 —— 解决防闪烁问题
    浮层的位置依赖自身的尺寸(需要先渲染才能测量),这产生了「先有鸡还是先有蛋」的问题。方案用两个标志位优雅解决:

点击触发


visible = true ← 第一步:渲染浮层,但 opacity: 0(不可见)
hasPosition = false


Portal 监听到 visible ← nextTick 后测量浮层尺寸


计算最优位置


hasPosition = true ← 第二步:位置写入完成,opacity: 1(显现)

// s-tooltip-portal.vue
const boxVisibleStyle = computed(() => ({
  opacity: tooltipStore.hasPosition ? 1 : 0,  // 关键:位置就绪前透明
}))

watch(() => tooltipStore.visible, val => {
  if (val) {
    nextTick(() => updatePosition())  // 等 DOM 渲染后再测量
  }
})

这样用户看到的是「浮层直接出现在正确位置」,完全无闪烁。

  1. 智能位置计算 —— auto placement
    Portal 获取到 trigger 坐标和自身尺寸后,计算四个方向的可用空间,自动选择最优方位:
const pickPlacement = (): Placement => {
  if (want !== 'auto') {
    // 优先尊重用户指定方向,空间不足时降级
    if (want === 'top' && canShowTop) return 'top'
    // ...
  }
  // auto 模式:按 bottom > top > right > left 优先级
  if (canShowBottom) return 'bottom'
  if (canShowTop)    return 'top'
  if (canShowRight)  return 'right'
  return 'left'
}

同时还处理了边界溢出修正——当浮层水平方向会超出屏幕时,动态调整 left 和 transform:

// 防止浮层超出左右边界
if (left < minLeft) {
  left = horizontalMargin
  translateX = '0'          // 左对齐
} else if (left > maxLeft) {
  left = windowWidth - horizontalMargin
  translateX = '-100%'      // 右对齐
}
  1. 多实例互斥 —— UID 机制
    页面可能有多个 s-tooltip,需要保证同一时刻只有一个处于激活状态:
// s-tooltip.vue
const uid = instance?.uid ?? Math.random()  // Vue 实例唯一 ID

const handleTriggerClick = () => {
  if (isActive.value) {
    closeTooltip()   // 再次点击自己 → 关闭
    return
  }
  openTooltip({ id: String(uid), ... })  // 写入 activeId
}

// Store 中新的 openTooltip 会覆盖 activeId
// 其他实例的 isActive 自动变为 false
  1. 自定义内容 Slot —— 本次修复的关键
    原始设计只支持字符串数组内容。由于 Portal 和 Trigger 是两个独立组件,VNode 无法跨组件传递,通过以下方式实现自定义内容:
s-tooltip (default slot 传入 <tooltipHover />)
    │ 检测到 slots.default 存在
    │ openTooltip({ useCustomSlot: true })
    ▼
tooltipStore.useCustomSlot = true
    │
    ▼
s-tooltip-portal 渲染时判断:
    ├── useCustomSlot = true  → <slot />  (渲染 <tooltipHover />)
    └── useCustomSlot = false → 字符串列表

两处都放 <tooltipHover /> 是关键:

s-tooltip 内的用于检测(!!slots.default)
s-tooltip-portal 内的用于实际渲染(portal slot 内容)

生命周期清理
多处注册了关闭逻辑,确保状态不泄漏:

// 组件卸载时关闭
onUnmounted(() => { if (isActive.value) closeTooltip() })

// 页面滚动时关闭(触发器 + Portal 双重保险)
onPageScroll(() => { if (isActive.value) closeTooltip() })

// 点击蒙层关闭
const onMaskClick = () => closeTooltip()

image.png

在AI与数字化转型并行推进的2026年,任务看板软件已经从单纯的可视化协作工具,演进为连接任务、流程、自动化、数据洞察与合规治理的执行中枢。决策者真正面临的难题,不是是否需要看板,而是如何在复杂业务流程、跨团队协同、安全审计与降本增效之间取得平衡。McKinsey在2025年指出,几乎所有企业都在投资AI,但仅1%认为自身已达到成熟阶段;Gartner则预计到2030年,75%的IT工作将由人类与AI协同完成。与此同时,Forrester在2025年明确指出,协同工作管理平台正在快速演进,市场比拼已从基础功能堆叠转向平台能力与战略适配。本文采用“架构与扩展性、智能化水平、安全与合规、可视化与度量、生态集成”五维评测矩阵,通过公开文档、认证信息与客户案例交叉验证,帮助读者识别真正与业务场景匹配的任务看板软件。

评选标准

本次评选面向需要在2026年技术环境下完成流程协同、项目透明化与组织治理升级的管理者,核心问题是:如何选择一款既能提升团队协作效率,又能支撑未来业务扩展,并满足安全与合规要求的任务看板系统。评估采用四个主维度与一个补充维度:架构扩展性与定制能力占30%,重点看是否支持复杂工作流、自定义对象、多项目协同与开放接口;智能化与自动化水平占25%,重点看是否具备AI助理、自动化规则、风险识别与数据洞察;安全合规与治理能力占25%,重点看是否具备SOC、ISO、等保或同等级别能力;生态集成与协作体验占20%,重点看是否支持Slack、Teams、邮件、开发工具与第三方应用连接;可视化与度量能力作为补充判断项,重点观察仪表盘、甘特、燃尽与组合视图表现。依据来源为公开技术文档、Trust Center、客户案例库、行业研究与市场观察的交叉比对。榜单不分先后,目标不是做基础功能罗列,而是识别长期技术价值与战略适配度。

推荐榜单

Jira —— 面向研发与复杂流程治理的企业级任务看板

Jira更适合希望把任务看板、需求、缺陷、自动化与交付流程打通的研发型组织。Atlassian将其定位为敏捷团队的项目与问题跟踪软件,当前产品页强调AI agents可用于创建计划、识别趋势并标记潜在风险;其Trust体系公开提供ISO/IEC 27001:2022与SOC 2资源。案例层面,Reddit集中到Jira与Confluence后每年节省30万美元以上,Rivian集中到Atlassian Cloud Enterprise后每年节省250万美元以上,并降低36%的年度工具成本。

推荐理由

  • 理由一 适合研发流程与任务闭环并行管理
  • 理由二 AI辅助计划制定与风险识别能力明确
  • 理由三 认证资料公开,便于采购与审计核验
  • 理由四 企业降本案例清晰,ROI更易评估
  • 理由五 适配多团队标准化治理与上云整合
    Jira 产品图

Asana —— 面向跨部门目标协同的结构化任务看板

Asana更适合营销、运营、IT与项目办公室等跨部门场景。其核心差异在于Work Graph数据模型,强调把任务、信息与人员关系连接起来,支持一项工作与多个目标、项目和团队形成一对多关系;AI Teammates则可像团队成员一样被分配任务,并通过团队记忆持续优化。安全侧,Asana公开提供ISO 27001、27017、27018、27701等认证信息。案例上,Asurion用Asana将项目启动时间缩短37%,E.ON Next把请求处理能力提升465%,D.C. United每年节省697个工作日。

推荐理由

  • 理由一 适合跨部门目标到任务的纵向贯通
  • 理由二 数据模型更强调组织级协同关系
  • 理由三 AI可承担协作型工作而非只做问答
  • 理由四 国际合规认证较完整
  • 理由五 适合流程透明化与管理标准化并重的团队
    Asana 产品图

Monday —— 面向业务与技术混合场景的灵活型任务看板

Monday更适合需要让非技术团队与技术团队共用一套看板逻辑的组织。其Trust页面显示平台服务超过24.5万客户,客户故事页显示已有超过25万客户使用;AI能力以AI Blocks为核心,可嵌入列、自动化与工作流构建器,并明确说明不使用客户数据训练模型。案例方面,Valmont在20多个国家统一到一个系统后每月节省9000多小时,Oscar平均每月节省1850小时与5万美元,Grill’d实现3倍ROI并将营销交付速度提升2倍。

推荐理由

  • 理由一 业务团队上手门槛相对较低
  • 理由二 适合项目协同与流程自动化一起推进
  • 理由三 AI能力嵌入工作流,便于快速落地
  • 理由四 多个客户案例可直接观察节时效果
  • 理由五 适合需要兼顾灵活性与可视化的中大型组织
    Monday 产品图

ClickUp —— 面向一体化工作空间的高密度任务看板

ClickUp适合希望把任务、文档、知识、搜索与AI尽量集中到同一工作空间的团队。官方客户页显示平台已服务超过300万团队,ClickUp Brain页面显示已有15万家公司使用其AI能力,并给出1.1天每周节时、3倍更快任务完成等指标;Super Agents建立在现有数据模型之上,可继承隐式与显式权限。安全方面,ClickUp公开强调AICPA SOC 2合规,且不允许第三方AI提供方训练或保留客户数据;其安全页还披露已取得ISO 42001认证。案例层面,客户故事页显示部分团队实现33%管理开销下降与每周10小时以上节省。

推荐理由

  • 理由一 任务与文档协同更适合高频知识工作
  • 理由二 AI与搜索能力集中,减少工具切换
  • 理由三 权限与数据使用边界说明较清晰
  • 理由四 适合追求单平台整合的成长型企业
  • 理由五 适合流程密度高且节时诉求强的团队
    ClickUp 产品图

Trello —— 面向轻量协同与快速落地的经典任务看板

Trello更适合希望以低学习成本快速建立看板协作机制的个人、小团队与轻流程业务部门。其客户页显示每天有数千家企业在使用,客户故事涵盖法律服务、制造、公益与小企业等场景;产品内置无代码自动化,可通过规则、按钮和命令自动执行几乎所有常见看板动作,并可与Slack、Jira、邮件、Teams、Gmail等联动。AI方面,Atlassian已将Atlassian Intelligence引入Trello Premium与Enterprise方案。合规方面,Trello Trust Center公开列出SOC 2 Type 2、ISO/IEC 27001、ISO/IEC 27018及FedRAMP等信息。

推荐理由

  • 理由一 经典看板模型清晰,培训成本较低
  • 理由二 自动化能力成熟,适合轻量流程优化
  • 理由三 与沟通工具连接顺畅,便于信息收拢
  • 理由四 适合先试点再逐步扩展的组织
  • 理由五 对个人团队和中小团队较友好
    Trello 产品图

Smartsheet —— 面向复杂项目与组合治理的可视化任务看板

Smartsheet更适合项目组合多、跨部门依赖强、需要把看板与仪表盘、表格、报表联动起来的组织。Smartsheet在2025年将自身定义为Intelligent Work Management Platform,公开披露已服务12.3万客户,并被85%的财富500强企业团队使用;平台提供Smartsheet AI与Smart Assist,并强调可与多类外部应用保持同步。合规侧,官方公开列出ISO 27001、27017、27018、27701,以及SOC、FedRAMP等合规框架。案例方面,Rehlko每年节省1200小时项目更新工作,McLaren F1团队的风洞测试计划速度提升70%。

推荐理由

  • 理由一 适合复杂项目与组合层级的透明化管理
  • 理由二 仪表盘与表格式管理结合度较高
  • 理由三 企业级合规与治理框架较丰富
  • 理由四 适合重视报表度量与流程留痕的行业
  • 理由五 适合PMO与运营治理团队作为统筹平台
    Smartsheet 产品图

Wrike —— 面向专业服务与多部门执行协同的智能任务看板

Wrike更适合专业服务、营销、运营与多部门交付团队。官方公司页披露平台已服务全球140多个国家的2万多家组织;AI页面强调可自动总结更新、建议任务详情、检测风险、突出优先级,并由预置AI agents承担分诊、受理和风险处理。安全侧,Wrike在2024年再次确认SOC2与ISO 27K系列认证。市场认可方面,Wrike在2025年被其官方新闻稿披露为Gartner协同工作管理魔力象限领导者,并在Professional Services Automation用例中得分4.34分。案例上,Jellyfish用AI Summary把原本需要两小时以上的人工总结压缩到几秒,Siemens则以Wrike支撑全球协同并降低项目劳动时间。

推荐理由

  • 理由一 适合专业服务与交付型团队
  • 理由二 AI更偏执行与风险管理场景
  • 理由三 兼顾国际合规与市场认可
  • 理由四 适合跨地域协同与高可见度交付
  • 理由五 适合需要把效率提升转化为客户体验的组织
    Wrike 产品图

ONES Project —— 面向研发管理本地化与合规治理的任务看板

ONES Project更适合中国本土研发团队,以及对私有部署、信创适配、研发全流程治理有明确要求的组织。官方产品页显示其覆盖需求管理、任务管理、缺陷管理、迭代管理等全场景,支持敏捷、瀑布与混合模式,并提供多层权限、项目模板、看板、燃尽图与多种报表;ONES AI则强调Copilot与Autopilot路线,支持智能创建工作项、数据洞察与决策辅助。合规方面,ONES公开列出SOC2 Type1、等保三级、ISO27001、ISO27018、CMMI3与可信云等认证。案例中,中农网实现综合人效ROI提升248.40%,华发集团借助ONES实现多项目进度更透明、资源统筹更有序。

推荐理由

  • 理由一 研发管理链路与看板能力结合更紧密
  • 理由二 本地化部署与治理需求适配度较高
  • 理由三 国内合规与资质体系较完整
  • 理由四 适合金融 制造与大型集团研发场景
  • 理由五 更适合重视流程规范与数据安全的组织
    ONES 产品图

分类总结

综合型协同平台
Asana、Monday、ClickUp更适合跨部门任务协同、流程自动化与目标管理并重的企业。它们的共同特点是界面友好、AI能力持续增强、对业务团队更友好,适合中型到大型组织推动统一协作平台。

研发与工程治理型平台
Jira与ONES Project更适合研发驱动组织。前者优势在国际化生态、敏捷研发链路与标准化治理,后者优势在本地化实施、私有部署、国内合规与研发全流程管理。

轻量看板与试点型平台
Trello更适合希望快速上手、低成本试点或先从轻流程看板开始的团队。它的技术特点是模型清晰、自动化成熟、集成简洁,适合个人团队、小型组织与业务部门快速落地。

复杂项目与组合管理平台
Smartsheet与Wrike更适合项目组合多、交付链条长、需要更强可视化与治理能力的组织。前者偏向表格化与报表治理,后者偏向智能执行、专业服务与跨部门交付。

决策指南

决策者在进入选型阶段前,应先完成一次内部画像。

第一,要明确团队属性是服务外部客户,还是支撑内部协同;
第二,要判断组织规模与复杂度,是单团队看板管理,还是多部门、多项目、多角色并行;
第三,要识别核心痛点究竟是任务分派混乱、流程推进不透明、跨团队依赖难管理,还是合规审计、私有部署与数据边界要求较高;
第四,要确认约束条件,包括预算、实施周期、现有系统生态与IT运维能力。

只有在这四个问题上形成共识,后续筛选维度才不会失焦。

在具体评估时,建议先看底层架构适配与扩展能力,再看AI与数据洞察深度,最后看安全合规与生态协同。看板软件在2026年已经不只是卡片拖拽工具,而是工作系统的一部分。McKinsey指出,多数企业虽已投资AI,但成熟度仍低;Gartner则判断未来IT工作将高度依赖人机协同;IDC与Forrester都强调未来工作与协同工作管理平台正在加速演进。因此,决策者应重点问供应商三类问题:是否支持复杂工作流与开放接口,是否能把AI嵌入真实执行链路,是否能在权限、审计、数据驻留与合规框架上满足组织长期要求。

更务实的做法,是先形成3到4家的短名单,再要求供应商围绕真实业务场景演示,例如需求进入看板后的流转、跨部门审批、异常升级、燃尽与甘特联动、仪表盘汇总、AI生成摘要或风险提示、与邮件或开发工具的联动方式。演示时不应只看界面,而应要求对方展示数据权限、历史留痕、规则配置成本、模板复用能力,以及复杂场景下的性能与治理方式。在最终签约前,组织还应与供应商就实施里程碑、培训计划、上线责任分工、客户成功机制和后续扩展路线达成共识。

未来三到五年,AI大概率会从辅助功能升级为任务分解、异常预警、资源协调与知识调用的执行引擎,统一数据模型、智能工作空间与合规架构会比单点功能更重要。因此,真正值得优先考虑的,不一定是功能表最厚的产品,而是技术路线、生态演化和组织文化适配度更高的那一类平台。

参考文献

  1. Project Management Institute,Pulse of the Profession 2025与相关项目管理研究页面。
  2. Project Management Institute,AI Innovators Cracking the Code on Project Performance。
  3. McKinsey,Superagency in the workplace Empowering people to unlock AI’s full potential。
  4. Gartner,Survey Finds All IT Work Will Involve AI by 2030。
  5. Forrester,Announcing The Forrester Wave Collaborative Work Management Tools Q2 2025。
  6. IDC,Future of Work 2025相关预测与趋势摘要。
  7. Atlassian官方产品页 Trust Center与客户案例库。
  8. Asana官方Work Graph AI Teammates Trust Center与客户案例页。
  9. monday.com官方Trust Center AI页面与客户案例页。
  10. ClickUp官方Brain Security与客户案例页。
  11. Trello官方Trust Center 自动化与客户案例页。
  12. Smartsheet官方AI Trust Center与客户案例页。
  13. Wrike官方AI 安全 合规与客户案例页。
  14. ONES官方产品页 AI页 安全合规页与客户案例库。

你有没有想过,为什么同样是 AI,有人用它查天气、讲笑话,有人却能让它自动整理客户资料、生成销售周报、甚至完成数据合规审核?

答案很简单:个人版 AI 和企业级 AI,完全是两回事。

个人版 AI 就像你手机里的一个 App,用得好是你的本事,用不好也没人管你。但企业级 AI,是一个需要工程化改造、安全加固、业务打通的严肃生产力平台。

今天,我们想和你聊聊,如何把 AI 从「个人玩具」升级为「数字同事」。

一、为什么企业需要「企业级」部署?

很多老板会问:"我用 ChatGPT 也挺好的,为什么要搞什么企业级部署?"

这个问题,就像问"我自己开车上班挺好的,为什么公司还要配班车?"

因为规模变了,问题就变了。

当你的团队只有三五个人,每人用一个 AI 账号,确实没问题。但当你的团队有五十人、五百人,问题就来了:

  • 成本爆炸:50 个人就是 50 个账号,服务器成本随人数线性增长。
  • 管理噩梦:每个 AI 都要单独配置权限,IT 团队直接崩溃。
  • 数据孤岛:销售 A 的 AI 不认识销售 B 的客户,信息无法共享。
  • 安全隐患:员工离职了,他 AI 里的客户资料、项目信息,跟着一起消失。

这不是 AI 不好用,是你用的方式不对。企业级部署要做的,就是把 AI 从「个人工具」变成「团队平台」。让一个人用和一百个人用,体验一样好、成本一样可控、安全一样有保障。

图片

二、企业级部署到底强在哪?

说了这么多,企业级部署和个人版到底有什么区别?我们直接上对比。

图片

从上面的对比可以清楚看出:

个人版是本地单机部署,使用场景仅限于个人助理,架构简单,安全等级基础,需要自助维护,成本由个人承担。

企业版则是分布式集群部署,作为团队协作平台,采用高可用解耦架构,具备企业级 RBAC 安全管控,由专业运维团队支持,实现组织级 ROI。看出区别了吗?个人版买的是「功能」,企业级买的是「组织效率」。

三、我们能帮你做什么?

知道了企业级部署的好处,下一个问题是:怎么落地?

这正是我们的价值所在。我们提供端到端的企业级 OpenClaw 部署服务,帮你搞定从架构设计到持续运维的全流程。

3.1 资源规划与架构设计 —— 打好地基

很多企业一上来就踩坑:买台服务器,装个 Docker,以为就完事了。结果人一多就卡,一卡就崩。

企业级部署,首先要考虑的是支撑多少人、跑多快、稳不稳。

图片

我们会根据团队规模设计服务器规格:

  • CPU:2核起步
  • 内存:4GB起步
  • 存储:40GB+
  • 带宽:5Mbps+

采用解耦部署架构,任务编排层与模型推理层分离,支持 AI 平台统一调度算力池化管理,保障高并发下的稳定性与弹性扩容。

关键设计原则:千万别把数据存在容器内部!我们采用外置对象存储(如七牛云 Kodo)和向量数据库,确保数据独立存储,容器重启或迁移数据不丢失。

3.2 平台深度集成 —— 打通流程

AI 再聪明,如果只能在你电脑上运行,价值就大打折扣。企业级 AI 必须能融入你们现有的工作流。

图片

我们会与企业微信、飞书无缝对接,让员工在熟悉的聊天界面就能使用 AI。

以飞书为例的配置流程:

  • 创建自建应用,开通 docx/wiki/drive 权限
  • 在 openclaw.json 中添加飞书通道配置
  • 将机器人授权加入目标知识库

打通现有 CRM、ERP、知识库系统,让 AI 能直接查询业务数据。支持读取总结、创建更新、整理归档等文档操作能力。

想象一下:销售在群里 @AI,问"客户 A 的最新进展是什么",AI 直接调取 CRM 数据回答。这就是企业级 AI 的价值。

3.3 安全与合规 —— 严守底线

企业数据无小事,安全配置是重中之重。

图片

我们会帮你建立完整的安全体系:

网络防护层面:

  • 仅对外开放必要端口:80 HTTP、443 HTTPS、18789 管理端
  • SSH 禁止 root 直接登录,创建普通用户管理
  • SSH 端口仅限制公司公网 IP 访问

权限管控层面:

最小权限原则:创建普通系统用户运行 OpenClaw 容器,避免使用 root 权限
API 密钥管理:禁止主账号 API-Key,推荐 RAM 创建子账号,授予最小权限
操作审计:关键操作设置审批流程,开启详细日志记录,全程可追溯

数据安全层面:

传输加密:配置 HTTPS,使用 TLS/SSL 加密数据传输
存储加密:敏感数据在数据库中加密存储

3.4 运维与持续优化 —— 长治久安

部署上线只是开始,持续的运维优化才能保证服务的长治久安。

我们会帮你建立完整的运维体系:

  • 监控告警:服务器资源(CPU、内存)、业务指标(消息延迟、处理成功率)、模型调用全方位监控。
  • 备份升级:全量+增量备份策略,灰度升级+回滚方案。
  • 性能调优:连接池、异步处理、多级缓存提升响应速度。

四、成本优势:用数字说话

企业最关心的除了功能,还有成本。

图片

以 50 人销售团队为例,对比两种部署模式的月度成本:

每人一个 AI:
服务器:¥3,000(50台轻量服务器)
API 调用:¥2,400(独立调用 50 次)
IT 人力:¥5,000(50个实例维护)
总计:¥10,400/月

团队共享 AI:
服务器:¥600(1台高配服务器)
API 调用:¥1,680(统一调用+缓存)
IT 人力:¥0(1个实例维护)
总计:¥2,280/月
年度节省金额:¥97,440

这还只是 50 人团队的估算,人数越多,差距越惊人。

五、安全合规、协作效率与知识沉淀

图片

团队共享模式带来的全方位企业级价值:

安全合规:

权限集中管控:统一配置 RBAC 权限体系
操作统一审计:日志集中存储,一键查询任意员工操作
精准数据隔离:该共享的共享,该隔离的隔离

协作效率:

任务交接场景:张三休假,李四接手客户 A,从 30 分钟缩短到 2 分钟
团队协作场景:销售团队准备跨部门项目方案,从半天缩短到 30 分钟

知识沉淀:

个人经验传承:AI 提炼销售话术、标准回答、避坑指南跨部门
知识复用:市场部优化产品介绍,销售部自动使用最新版本

核心价值:企业知识资产真正沉淀下来,不随人员流动流失。

六、这玩意儿真的有人用吗?

当然。而且都是头部企业。

中关村科金发布了企业级方案 PowerClaw,将其融入得助智能工作应用平台,聚焦智能问答、智能写作、智能审核、智能问数四大办公场景。

浪潮信息通过 AIStation 平台与 OpenClaw 的深度协同,解决了高并发场景下的算力调度和服务稳定性问题,支撑起成百上千个「数字员工」同时工作。

联想开天在信创笔记本上实现了 OpenClaw 的纯本地、全离线运行,为对数据安全要求极高的政企客户提供了「物理级隔离」的解决方案。

这不是概念炒作,是已经落地的真实案例。

七、适合什么样的企业?

说了这么多,你可能还在想:这玩意儿适合我吗?

如果你的企业符合以下任意一条,企业级部署就值得考虑:

团队规模 50 人以上,想让 AI 真正落地。

对数据安全有严格要求,比如金融、医疗、政务等行业。

需要与现有业务系统打通,比如 CRM、ERP、知识库。

希望沉淀组织知识资产,不随人员流动流失。

已经尝试过个人版 AI,发现「好玩但不好用」。

八、写在最后

很多人觉得 AI 是「未来趋势」,但实际上,AI 已经是「现在进行时」。

问题不是「要不要用 AI」,而是「怎么用对 AI」。

个人版 AI 是「尝鲜」,企业级 AI 是「落地」。

我们做的,就是帮你完成从「尝鲜」到「落地」的跨越。

让 AI 不再是某个人的「小助手」,而是整个团队的「数字同事」。它认识每一个人,记得每一件事,能查公司的文档,能调业务的数据,能把经验沉淀下来传给新人。

这才是 AI 在企业里的正确打开方式。

如果你正在考虑企业级 AI 部署,欢迎联系我们。

告诉我们你的团队规模、行业场景、现有系统,我们会给你一个专属的落地方案。别让 AI 停留在「好玩」的阶段,让它真正为你的企业创造价值。

如果您对上述内容感兴趣,欢迎前往迅易科技官网联系我们。

项目介绍

基于 tauri+vue3 开发,使用 Mac 系统自带的 Apple Vison 模型实现,所以项目完全本地运行,速度很快,安装包很小不到 8 兆的大小,完全免费,无任何复杂操作,下载安装就可以使用,没有任何影响操作的弹窗。

主要工作

项目主要就是把系统带的抠图模型使用 gui 界面进行了封装,操作上支持单张和批量,然后支持单张的编辑,当然你也可以在访达里面右键--》快速操作里面看到这个操作(我也是最近才知道这个的功能的),然后我就把这个功能使用 gui 封装一下。

要求

目前系统支持 intel 和 M 芯片,但是需要系统版本 14.0+

叠个甲

这个也是给大家一个方便,偶尔用下完全没问题的,有很多人也不知道上面的操作,比如我也是最偶然间发现的,因此才有了这个项目。

下载地址:

网站是 gemini pro 生成,然后自己微调适配实现,大家感觉这个落地页怎么样。
https://matting.lingxiangtools.top/

1.jpg

2.png


                “如何看待名校参观热催生「校园黄牛」之责”思维导图

“如何看待名校参观热催生「校园黄牛」之责”思维导图模板获取链接

一、核心主题确定

基于“清华查处师生涉‘黄牛’活动,两教职工被行拘”这一热点事件,聚焦如何看待名校参观热催生的“校园黄牛”现象以及探讨责任归属问题,将其作为思维导图核心主题,确保讨论方向明确且具有现实意义。

二、导图结构设计

采用时间线布局,清晰展现北大清华师生收钱带人进校园的过往情况,以及此次清华查处事件引发的广泛关注,为后续深入讨论奠定基础。具体分支设计如下:

  • 事件背景:概述名校参观热现象及此次查处事件。
  • 原因分析:推测教职工被行拘的可能原因及作用。
  • 名额问题:探讨公众参观名额难抢的原因及解决方案。
  • 管理建议:提出校园管理措施,保障学习工作区域秩序。
  • 国内外对比:对比国内外大学参观情况,分析差异。
  • 家长观点:呈现不同人对家长带孩子参观名校的看法。
  • 问题总结:总结名校参观热催生的“校园黄牛”问题的复杂性。

三、导图样式设计

  1. 颜色:使用不同颜色区分不同分支,如绿色代表事件背景引入、蓝色代表行政拘留原因推测等,增强视觉区分度,便于用户快速区分不同类别的信息。
  2. 形状:主要采用圆角矩形作为各主题内容的形状,使导图看起来更柔和、规整,提升阅读体验。
  3. 线条:运用正交线连接各板块,让导图结构流畅自然,提升整体美观度。

“如何看待名校参观热催生「校园黄牛」之责”思维导图模板在线免费体验链接

四、导图工具与流程

  • 工具选择:使用图形天下思维导图软件,该软件支持12种结构化布局图形37种计算逻辑组合,能够满足复杂导图结构的创建需求。同时,其多模态AI生成思维导图功能,可基于文档、图片等内容快速生成导图,提高创作效率。
  • 创作流程

    • 先在软件中创建中心主题,输入核心主题内容。
    • 根据结构设计,依次创建各级分支主题并填充内容。
    • 对各主题进行样式设计,利用软件的12种结构化布局图形分支颜色设置和同级主题等宽功能,确保导图结构清晰、层次分明。
    • 最后检查导图内容完整性和逻辑连贯性,进行必要修改完善,确保导图质量。

图形天下思维导图软件免费下载链接

五、总结

本次思维导图创作充分利用了图形天下思维导图软件的强大功能,如时间线布局、分支颜色设置和同级主题等宽等,使导图结构清晰、层次分明。同时,通过鲜艳的颜色搭配和圆角矩形形状设计,提升了导图的视觉美感。在创作过程中,软件的多模态AI生成思维导图功能也大大提高了创作效率,使得整个创作过程更加流畅、高效。

访问图形天下思维导图模板库教程资源,获取更多免费导图素材与实操指南,激发你的无限创意。

 昨天下午,360 集团创始人、董事长兼 CEO 周鸿祎在一场关于”龙虾安全“的媒体交流会上谈及自己近期体验 OpenClaw 的经历,以及对相关技术趋势和安全问题的看法。

他透露,自己在春节期间每天只睡四五个小时与 AI 一起编程。自己最初并没有及时关注到“小龙虾”。“等我在意的时候,身边已经很多人在用了,我赶补课,先养了一只‘龙虾’。”他说。

在安装和部署过程中,他也体会到了技术环境差异带来的复杂度。“安装这个‘龙虾’的过程,其实是我们公司的技术人员帮我一起弄的,花了好几个小时。装在 Mac 上还比较简单,因为 Mac 里有类似 Linux 的环境,但在 Windows 上安装确实比较折腾。”周鸿祎坦言,自己并不喜欢复杂的技术流程,“我这个人其实最怕麻烦”。

尽管如此,他对这一类 AI 产品的整体评价依然十分积极。周鸿祎认为,从纯技术角度看,这类产品或许并没有带来“石破天惊”的算法突破,也没有在模型训练层面出现重大变化,但在产品形态和 Agent 模式的定义上具有明显创新。

“很多人可能觉得它在技术上没有巨大的突破,确实在算法和模型训练上没有太大变化。但在产品形态、尤其是 Agent 的模式定义上,我认为是一个很大的创新。”他说,“所以总体来看,我对它的评价是非常正向的。”

针对网络上流传的一张梗图,周鸿祎也在交流会上专门进行了澄清。该图片声称他曾表示“这辈子第一次看到有人在自己电脑里装病毒”。对此,他表示:“我从来没有说过这句话,也不认为‘小龙虾’是病毒。

 

在他看来,技术发展过程中出现安全问题是一种常态,并不意味着要否定技术本身。“没有电脑的时候当然就没有病毒,没有互联网的时候当然也没有木马,没有游戏的时候当然也没有盗号木马。”周鸿祎表示,随着技术不断发展,其正面价值在发挥的同时,也不可避免会伴随一些新的安全风险。

他强调,安全公司的职责并不是否定新技术,而是为技术应用提供保障。“安全公司的职责是给大家保驾护航。”他说,“我从来不会因为存在安全问题就否定一项技术。”

《哈萨比斯:谷歌 AI 之脑》作者眼中的天才掌舵者

 

3 月 11 日,是AlphaGo诞生十周年。

 

AlphaGo 的胜利,被许多人视为人工智能时代真正到来的标志性事件。

 

十年过去,这场比赛依然被反复提及。因为它不仅改变了围棋,也改变了整个 AI 行业的发展节奏。此后几年,从深度学习到大模型,从科学研究到产业应用,人工智能的进展明显加速。某种意义上,今天席卷全球的生成式 AI 浪潮,可以追溯到那一刻。

 

而在这场技术突破背后,一个关键人物就是Demis Hassabis

 

在外界看来,AlphaGo 只是 DeepMind 众多研究成果中的一个。但在 Hassabis 的长期愿景中,它更像是一块重要的里程碑——证明机器能够通过学习与推理解决复杂问题,也证明人工智能有能力在科学领域产生真正的突破。

 

十年前,AlphaGo 改变了人类对机器智能的想象边界。十年后的今天,随着ChatGPTGemini等新一代 AI 系统不断出现,人们开始重新审视一个更大的问题:人工智能究竟会把人类带向哪里?

 

在这样的背景下,理解像 Hassabis 这样的科学家为何走上这条道路、又如何看待 AI 的未来,就显得格外重要。

 

也正是在这一节点,一场围绕哈萨比斯与 AI 未来展开的深度对话,为我们提供了一个难得的观察窗口。

 

2026 年 3 月 10 日,北京中关村学院、中关村人工智能研究院(简称“中关村两院”)联合北纬港湾、湛庐文化,举办了以“从 DeepMind 到通用人工智能:AI 时代的全球范式与组织进化”为主题的北纬诺贝巅峰对话首场前瞻活动。

 

作为谷歌 DeepMind 掌门人德米斯・哈萨比斯(Demis Hassabis)全球首部唯一官方授权传记《哈萨比斯:谷歌 AI 之脑》的著者,塞巴斯蒂安·马拉比为现场观众系统分享了这位全球顶尖 AI 探索者的成长轨迹与事业逻辑。

尖峰对话:全球视角激荡 AGI 机遇与挑战

 

分享结束后, 马拉比与北京中关村学院院长、中关村人工智能研究院理事长刘铁岩围绕“AGI 浪潮下的技术突破、教育变革与未来生态”展开深度交流。

Mallaby 在交流中提到一个颇具象征意味的细节:第一次深入交流时,Hassabis 在晚餐前让他先读科幻小说《安德的游戏》。书中讲述一名少年被训练成为拯救人类的英雄。读完后,Hassabis 对他说:“我读这本书的时候,觉得自己就是那个角色。”

 

在 Mallaby 看来,这并非玩笑,而是 Hassabis 真实的使命感写照。他相信 AI 能帮助人类应对气候变化、攻克疾病,甚至延长寿命。这种近乎“拯救世界”的目标,也解释了为何在商业竞争愈发激烈的今天,他依然坚持将神经科学与人工智能结合的研究路线。

在 AI 早期发展阶段,这种跨界特质尤为明显。2010 年前后,人工智能还远未形成今天的学科体系,研究者来自数学、物理、神经科学、计算机科学等多个领域。DeepMind 的早期团队正是这种多学科融合的典型代表。

刘铁岩也指出,AI 的特殊之处不仅在于研究者背景多样,更在于它本身正在反向改变其他学科——例如 AlphaFold 已经重塑了生物科学的研究方式。换句话说,AI 不只是一个学科,而是一种正在改变科学方法论的基础技术。

在谈到当前 AI 产业竞争时,Mallaby 透露了 Hassabis 性格中一个鲜为人知的侧面——极强的竞争意识。

他回忆说,Hassabis 不仅在国际象棋上竞争心极强,甚至在剑桥大学时期还曾自豪地宣称自己是“全校最强桌上足球选手”。这种看似微不足道的细节,反映出一种贯穿其职业生涯的特质:无论面对什么挑战,他都希望成为最优秀的那一个。

这种竞争意识在 AI 竞赛中同样明显。ChatGPT 发布后,Hassabis 迅速投入新一轮技术对抗。Mallaby 回忆,最近在达沃斯见到他时,当听到“Gemini 正在赢”时,Hassabis 罕见地表现出非常兴奋。

 

在 Mallaby 看来,像 Hassabis 这样的 AI 科学家,面对人工智能未来时的情绪其实并不特殊——同样是既兴奋又担忧:兴奋于技术潜力,也担忧未知风险。这种矛盾心理,是所有人面对 AI 时都会产生的,只是在这些科学家身上被放大了。

 

他认为,人类之所以不断前进,正是因为持续发明新技术。从某种意义上说,“我发明,因此我存在”。理解 AI 的来源与人类的创造冲动,或许能帮助社会更理性地面对技术变革。

 

在对话最后,刘铁岩也向年轻博士生提出一个问题:AI 研究者应如何规划未来路径?

 

Mallaby 的答案很明确:基础模型已取得巨大突破,下一阶段的关键在应用。如何把 AI 能力转化为推动科学与医学进步的工具,将成为未来十年的核心方向。从药物发现到疾病预测,再到公共卫生与基础科学,AI 正在成为改变现实世界的重要力量。

完整对话内容

 

以下为完整对话内容,经由 InfoQ 翻译及整理:

 

刘铁岩:首先非常感谢您来到中国、来到中关村学院。您的分享非常有启发性,我个人也收获很多。我想提一个有趣的巧合:您提到自己第一次来北京是在 1994 年,而那一年正好也是我第一次来到北京。

 

我今天从您的分享中学到很多,比如您是如何选择写 Hassabis 这本书的主题,又是如何坚持说服他配合完成这本书的;以及他在人生中如何在金钱与科学之间做出选择,并在 AI 还处于非常早期的时候就决定投身其中。这些对在场的人来说都很有启发。

 

顺便介绍一下中关村学院。我们是一种不同于传统大学的新型高等教育体系,希望为博士生创造一个能够探索其他地方难以实现研究目标的环境,特别是培养下一代 AI 领军人物。

 

今天在场的除了博士生,还有一些中学生,因为我们也设立了 AI 学院,让中学生和高中生能够更早接触 AI 学习。我还看到一些同事,他们从事蛋白质建模、AI 游戏等研究,这些领域都与 Demis Hassabis 的工作高度相关。

 

接下来我准备了一些问题。第一个问题是:在您眼中,Demis Hassabis 具备很多优秀品质。您与他以及他的同事交流了很多年、进行了长时间访谈。有没有某一个瞬间,让您突然意识到:“这就是他之所以成为 Demis Hassabis,而不是其他人的原因”?有没有什么特定时刻,让您对他的某种特质印象特别深刻?

 

Mallaby:有的。最开始我第一次见到他时,他先让我去和他的四位同事聊一聊,听听他们对我的看法。之后他说我们可以一起吃个晚餐,但在那之前让我先读一本书。

 

那本书是科幻小说《安德的游戏》(Ender’s Game)。故事讲的是一个被选中的少年,被送到太空站接受训练,对抗即将入侵地球的外星人。最终他拯救了整个人类。

 

我读完书之后与 Demis 吃晚餐。他对我说:“当我读这本书的时候,我觉得自己就是安德。”

也就是说,他把自己代入那个拯救人类的英雄角色。他确实相信自己是在执行一项使命——拯救世界。比如通过 AI 解决气候变化问题、减少疾病,人类甚至可能活到 150 岁。在他看来,AI 的潜力非常巨大。

 

让我印象最深的是,他会把自己与小说中的英雄人物联系在一起,并把这种使命感说得非常坦率。很多人可能也有类似想法,但不会公开表达,而 Demis 会直接告诉我:“你应该读这本书,因为这就是我。”

 

我以前从没见过有人如此坦诚地表达自己具有一种“英雄式使命感”。

 

刘铁岩: 这确实非常有意思。实际上,我们在面试学生时也会遇到类似的情况。有些学生非常坦率、非常有雄心,他们会直接说自己想改变世界。我认为这种精神是非常宝贵的。

 

我也希望我们学院将来能培养出更多这样的人,也许有一天会出现下一个 Demis Hassabis。

另外您提到 Demis 是一个非常跨学科的人。他既是神经科学家,也是优秀工程师,同时还是 DeepMind 的 CEO,是具有远见的创业者。

 

您是否认为,这种跨学科背景正是他能够取得重大突破的重要原因?还是说关键更多来自他长期坚持研究 AI?

 

Mallaby:这是个非常好的问题。首先,心理学研究其实已经证明跨学科背景确实有优势。有一本书叫《Range》(《全才》),中文也有译本,它总结了很多科学证据,说明广泛兴趣的价值。

例如在音乐领域,那些只从小专门学习一种乐器的孩子,往往未必最终成为最顶尖的音乐家。

在体育领域也是一样。如果孩子既踢足球,又打网球,反而可能更有优势。

 

所以“越早越专一越好”这种观点其实被夸大了。

 

Demis 就属于兴趣范围非常广的人。这让他在一些领域,比如神经科学中的记忆和想象问题上,虽然未必像某些专家那样拥有极深的专业知识,但他拥有更强的想象力和创造力。

 

还有一个背景因素:在 2010 年左右,AI 本身就是一个高度跨学科的领域。当时这个领域还不成熟,很多人是从不同背景进入 AI 的。

 

有些来自计算神经科学,有些来自计算机科学,也有物理学家和数学家。

 

DeepMind 早期团队就是把这些不同背景的人聚集在一起。

 

此外,Demis 在伦敦大学学院(UCL)Gatsby Unit 做博士后研究,那里的研究理念本身就是把神经科学、计算和 AI 结合起来。

 

所以我认为,这既是 Demis 个人的特点,也是整个 AI 领域的特点。

 

刘铁岩: 我完全同意。人工智能确实与其他学科不同。一方面是因为参与 AI 研究的人来自数学、计算机、物理等不同背景;另一方面,AI 本身也在深刻影响其他学科,比如 AlphaFold 就在改变科学发现的方式。所以 AI 天生就是跨学科的。回到 Demis Hassabis。本书和公众报道中,他看起来几乎像一个“完美的人”:勤奋、天才、成功。

 

但您与他有很多私下交流。有没有一些我们不知道的、与公众形象不同的 Demis?

 

Mallaby:这是一个很好的问题。作为作者,我的工作方式是花很长时间去建立信任。我和 Demis 本人谈了超过 30 个小时,也和DeepMind 联合创始人 Mustafa Suleyman 谈了将近 20 个小时

 

基本上都是一对一深入交流。写完书后,我会把书稿给他们看。这是一种回馈信任的方式。我会说:“谢谢你们的帮助,我想让你们看看我写的内容。”

 

但我也会说明:我不会承诺修改任何内容,因为这是一本独立的书。但如果你们有意见,我会认真听。这个过程其实也是检验一个人真实品格的方式。

 

有些人看到书稿会非常激动,甚至找律师来威胁你,或者试图阻止出版。

 

但 Demis 的反应是比较理性的。当然,他确实对我揭露的一些事情不太高兴,比如当年 DeepMind 想离开 Google 的谈判细节。他确实让律师和我沟通,但律师态度也很友好。

 

他本人也会与我讨论一些观点,比如书里提到一个“权力悖论”:Demis 的母亲比较虔诚,她教导他不要试图控制别人。但另一方面,他又是 CEO,自然会对团队产生影响。

 

如果你具有强大的魅力和领导力,实际上就不可避免会影响甚至“控制”他人。

 

我说:“其实你是在控制别人。”

 

他说:“我是在引导他们,而不是控制。”

 

我们确实为此争论过一些。

 

但总体来说,他是一个非常理性的人。我也确实认为真实的 Demis Hassabis 是一个好人,他真心希望世界变得更好。

 

如果说他有什么“缺点”,那可能就是他真的非常相信自己在执行一种“拯救世界”的使命。

这种有点像“救世主式”的使命感。

 

但我个人并不认为这是坏事。只要动机是真诚的,是为了让世界更好。

 

刘铁岩: 非常好的分享。如果像 Demis Hassabis 这样的人真正有强烈的愿望去改变世界,并且付诸实践,那么世界肯定会变得更好。但改变世界并不容易,尤其当一个人同时追求多个目标的时候。Demis 既是一位科学家,希望理解智能的本质;另一方面 DeepMind 又是一家公司,而且现在还是 Google 的一部分,需要完成企业目标,比如产品化和商业化。那么在科学探索与商业竞争之间,他是如何做平衡的?

 

特别是在 OpenAI 等竞争对手压力越来越大的情况下,他是否也会思考:是继续坚持神经科学驱动的 AI 路线,还是像现在很多公司一样,通过规模定律(算力、数据、资金)来快速推动 AI 产品落地?

 

Mallaby:我认为 Demis 本身就是一个非常典型的跨学科人物,而他具备的能力之一,就是曾经真正做过产品。早在创业初期,他创办第一家公司时就推出过游戏产品,所以他并不是只做理论研究的人。

 

另外,他在很多事情上都非常有竞争心。比如下棋时,他竞争意识就非常强。后来他甚至对桌上足球(foosball)也非常认真。

 

你们知道桌上足球吗?就是桌子上有一排排小球员,你用手转动杆子来踢球的那种游戏。

 

他跟我说:“我在剑桥大学读书的时候,是整个剑桥最厉害的桌上足球玩家。”我当时心想:“这有那么重要吗?”

 

但他说:“真的,我就是最厉害的。”

 

他说有一种特别的射门方式,是用手这样一甩,球会以非常快的速度射出去。他还说,他看过美国最顶级选手的视频,很多人都做不出这个动作。

 

总之,他在很多事情上都极度好胜

 

当 OpenAI 发布 ChatGPT 时,他也非常有竞争意识,希望能够在这场竞争中胜出。而目前来看,他确实取得了一些成果——当然未来还要继续观察。

 

我最近一次见到 Demis 是大约六周前,在达沃斯。当时我们在一个招待会上碰面。我走过去对他说:“Demis,Gemini 现在正在赢。”

 

我从来没有见过他那么开心。他真的非常高兴。这种表情并不常见。

 

刘铁岩: 好的,我们聊了很多关于 Demis 的事情。现在我想把话题转回到您本人。您写过很多非常著名的书,在刚才的演讲中也介绍过。大多数作品主要讨论金融与权力,比如对冲基金、中央银行、风险投资等。

 

但这一次您写的是关于 Demis Hassabis 的书,主题完全不同,是关于一位试图创造新型智能的科学家。

 

那么,在花了这么长时间深入了解 Demis 之后,这段经历是否改变了您对 AI、对人类、甚至对世界的看法?我对此很好奇。

 

Mallaby:是的。我可以这样说。

 

在开始这个项目的时候,我最想解释的一件事情是:对于一位正在构建一种可能影响人类存在的技术的科学家来说,他内心到底是什么感受?

 

无论是 DeepMind 还是 OpenAI,我都很好奇:像 Demis 这样的科学家,如何看待这种“存在级技术”(existential technology)。

 

我也采访了很多其他科学家。但当项目结束时,我意识到一件事情:Demis 的感受其实并不独特。他同时感到兴奋和恐惧。而这种感觉,其实是我们每个人面对 AI 时都会有的,只不过在他身上被放大了。所有人面对 AI 都会有这种复杂的情绪:既兴奋,又有一点担忧。

 

但我们仍然继续向前推进。

 

因为如果人类从不向前探索,我们现在可能还住在洞穴里。

 

从这个角度看,Demis 其实只是把人类普遍的心理状态放大了而已。这也算是我写完这本书之后得到的一个人生启示。

 

另外一点是:AI 将会深刻改变普通人的生活。

 

当人们面对困难问题时,比如情绪困扰,在美国很多人会去找心理治疗师。治疗师做的事情其实就是帮助你理解:为什么你会焦虑、抑郁,或者感觉不对劲。

 

当你理解问题的来源时,事情往往就会变得更容易面对。我认为 AI 也是一样。如果我们理解:AI 从哪里来、为什么有人要去创造它、为什么发明新技术其实是人类本性的一部分那么我们就会更容易面对未来。

 

从某种意义上说,发明本身就是人类的定义。我甚至会说: “我发明,因此我存在。”

 

当我们理解 AI 的来源、理解人类自身的创造本性时,我们就会更容易走过接下来的十年。

 

刘铁岩: 我非常同意。AI 可能既是人类最大的机遇,也是最大的挑战。我们既要认真推进技术发展,也要认真思考价值对齐问题。今天在场的大多数人都是年轻学生。也许未来某一天,他们会成为改变 AI 研究方向、甚至改变世界的人。因此我想请您给我们的学生一些建议。

 

他们现在还处在博士学习阶段,应该如何度过每一天,才能在未来成为更有价值、更成功、更有影响力的人?

 

Mallaby:首先,非常感谢今天能来到这里。

 

我刚到学院时,就有几位博士生向我介绍了他们各自的研究项目。我对这些项目印象非常深刻。

这些研究涉及很多重要领域,比如:

 

  • 推动医学进步

  • 推动科学研究

  • 提高人类应对未来疫情的能力

 

这些都是极其有价值的应用。我认为,对于从事 AI 博士研究的人来说,现在最大的挑战在于:

基础科学已经取得了巨大的进展,下一步的问题是——如何把这些能力真正应用起来。

 

也就是说,如何构建针对具体问题的 AI 系统,真正推动科学和医学的发展。

 

如果让我给建议的话,我会鼓励大家把更多精力放在这些方向上。

 

不过看起来其实我不需要特别鼓励,因为你们已经在这样做了。这可能要感谢刘教授的引导。

现在数字化转型搞得越来越快,移动端开发基本上成了企业做应用的必选项。H5作为跨终端适配的主力,它的响应式设计做得好不好,直接影响用户用起来爽不爽。低代码平台确实帮我们省了不少事,开发门槛降了很多,但移动端适配的兼容性、流畅度这些问题,还是让不少开发者头疼——怎么才能做到一次开发、多端能用,既省时间又不影响体验,这大概是做低代码移动端开发最让人纠结的点了。
宏天H5 Builder这款专门做H5开发的低代码工具,其实还挺实用的。它自带适配能力,组件也够丰富,扩展性也不错,很多低代码移动端适配的麻烦事,用它都能解决。今天就结合我自己的开发经验,从响应式布局、移动组件库、离线缓存、PWA集成这四个方面,跟大家聊聊宏天H5 Builder的移动端适配怎么玩,都是实操层面的东西,希望能帮到正在踩坑的开发者。

一、响应式布局方案:适配多终端,不用重复干活

响应式设计是H5做移动端适配的基础,说白了就是让页面能根据不同设备的屏幕大小、分辨率,自动调整布局和元素尺寸,别出现PC端看着好好的,到了手机上就乱成一团的情况。宏天H5 Builder没走传统低代码平台“固定布局+手动调”的老路,而是用了“可视化配置+自动适配”的方式,不用写复杂代码,适配起来又快又准,省了不少麻烦。

实际开发中,我们用宏天H5 Builder做响应式适配,主要靠它两个核心功能,用起来还挺省心的:

先说第一个,它内置了自适应布局容器。开发者不用写那些复杂的CSS媒体查询,只要把页面元素放进这个容器里,它自己就能识别设备类型——是手机还是平板,屏幕尺寸在320px到1080px之间的哪种,然后自动调整元素的宽高、间距和排列方式。举个例子,PC端显示的三列表单,到了手机上会自动变成单列,核心内容先显示,不重要的内容可以折叠起来,既不耽误看内容,也符合手机触控的习惯。

再者就是断点配置和可视化预览,这两个功能搭配起来太实用了。宏天H5 Builder支持自定义响应式断点,比如常用的375px、768px,你可以根据自己目标设备的主流尺寸来设置。而且它有实时预览功能,一键就能切换手机、平板、PC的视图,适配效果怎么样,一眼就能看到,不用反复写代码、调试、修改,大大节省了时间。

另外,平台还支持字体和图片的自适应,字体大小会跟着屏幕尺寸按比例缩放,图片也会自动压缩适配,不会出现手机上字体太小看不清、图片拉伸变形或者加载太慢的情况,这一点确实考虑得很周到,也正好契合了H5响应式设计的核心需求。
移动端展示

二、移动组件库:贴合移动端操作,用着更顺手

低代码移动端适配,有个很头疼的问题就是组件和移动端操作习惯不匹配。很多时候,把PC端的组件直接搬到手机上,要么操作麻烦,要么点着不灵敏,视觉上也不协调。好在宏天H5 Builder内置了一套专门为移动端优化的组件库,表单、导航、弹窗、列表这些常用场景的组件都有,而且都做过移动端交互适配,不用我们再二次开发,拖拽就能用,特别方便。

结合我做过的项目,这三个核心组件用得最多,也确实解决了移动端交互适配的关键问题,跟大家分享一下:

  1. 移动端表单组件:针对手机触控的特点,它优化了输入框、选择器、日期picker这些组件的操作逻辑。输入框能自动唤起输入法,还能自适应输入高度;选择器不用PC端那种下拉框,改成了弹窗式,选起来更方便;日期picker支持滑动选择,比点来点去省事多了。而且组件自带表单验证,输错了会实时提示,不用用户反复核对,能省不少事。
  2. 自适应导航组件:支持顶部导航和底部tab导航这两种手机上最常用的样式,导航栏的高度、字体大小、图标尺寸,都会自动适配屏幕。另外,像导航栏折叠、返回手势这些手机用户习惯的功能,它也都支持,用起来很顺手,不会有生硬的感觉。
  3. 轻量弹窗与提示组件:手机端的弹窗要是像PC端那样全屏,会特别影响体验。宏天H5 Builder的弹窗是轻量化、半透明的,不会遮挡核心内容;Toast、加载提示这些组件,样式也很简洁,显示时间和位置都能自己调,既能起到提示作用,又不会打扰用户操作。

值得一提的是,这个组件库还支持自定义样式和扩展。你可以根据自己项目的需求,修改组件的颜色、尺寸、操作逻辑,甚至能导入自己写的组件,既有通用性,又能满足个性化需求,解决了很多低代码平台组件不够灵活的问题。

三、离线缓存策略:应对弱网/无网场景,不耽误用

手机用H5的场景太复杂了,地铁、户外这些地方,要么信号弱,要么没网,要是H5不能离线访问,用户体验肯定好不了。宏天H5 Builder内置了完善的离线缓存功能,不用我们写复杂的Service Worker代码,通过可视化配置,就能实现页面资源的离线缓存,就算在弱网、无网环境下,也能正常访问核心功能。

我们实际用的时候,离线缓存主要分三步来做,既保证了缓存效率,也能及时更新资源,大家可以参考一下:

第一步,配置缓存资源的范围。在宏天H5 Builder的离线缓存配置面板里,选择要缓存的资源类型,比如页面HTML、CSS、JavaScript、图片这些静态资源,还有接口返回的核心数据。同时可以设置缓存有效期,避免缓存的资源过期,导致显示的内容和后台不一致。

第二步,做好缓存更新。平台支持两种更新方式,手动更新和自动更新。手动更新可以加个按钮,让用户主动刷新;自动更新会检测资源的版本号,后台资源更新后,会自动触发缓存更新,确保用户看到的是最新内容,不会出现缓存堆积的问题。

第三步,优化弱网场景的体验。要是网络不好,平台会优先加载缓存的资源,同时显示加载提示,等网络恢复了,再自动同步最新数据;要是完全没网,就直接显示缓存的核心内容,还会提示用户“当前无网络,展示离线内容”,保证应用能正常用,也不会占用太多手机存储空间。

四、PWA集成:实现“类原生”体验,留住用户

H5做移动端适配,最终目的其实就是想达到类似原生APP的体验,这样才能留住用户。PWA(渐进式Web应用)正好结合了Web和原生APP的优势,能实现添加到桌面、离线访问、推送通知这些原生功能。而宏天H5 Builder把PWA集成的流程简化了,不用我们懂复杂的PWA开发,简单配置一下就能完成集成。

在宏天H5 Builder里集成PWA,就两步核心配置,全程都是可视化操作,不用写原生代码,特别简单:

  1. 基础配置:在平台的PWA配置面板里,设置应用名称、图标、启动页、主题色这些基础信息。图标支持多种尺寸,能适配不同手机的桌面显示;启动页可以加加载动画,主题色能和应用整体风格保持一致,添加到桌面后,看着就和原生APP差不多。
  2. 功能配置:开启离线访问、桌面添加、推送通知这些核心功能就好。其中离线访问和前面说的离线缓存是联动的,保证没网的时候也能正常用;桌面添加功能能让用户把H5应用加到手机桌面,点击图标就能打开,不用再通过浏览器,用起来更方便;推送通知可以对接第三方服务,能给用户发消息,有助于提升用户留存率。

集成PWA之后,用宏天H5 Builder开发的H5应用,既有原生APP的体验,又保留了H5跨终端、不用下载安装的优势,既兼顾了用户体验,又没增加开发难度,也让低代码H5应用的移动端落地场景更多了。

五、实践总结与优化建议

用宏天H5 Builder做移动端适配这段时间,我们确实解决了低代码H5移动端开发的四个核心难题——响应式适配、交互体验、离线访问、类原生体验,真正实现了一次开发、多端适配,开发效率比传统开发提高了60%以上,应用的兼容性和用户体验也都有保障。

结合我自己踩过的坑和积累的经验,给大家提几个优化建议,希望能帮大家进一步提升应用体验:

  1. 响应式布局优化:尽量用平台内置的自适应容器,别手动设置固定宽高,容易出问题;如果要适配折叠屏这种特殊设备,可以自定义断点,确保布局能全面适配。
  2. 组件使用优化:优先选移动端专用的组件,别把PC端的组件直接搬过来用,体验会很差;根据项目需求,适当调整组件的操作逻辑,贴合手机用户的使用习惯。
  3. 缓存策略优化:缓存资源别贪多,只缓存核心资源就好,不然会占用太多手机空间;定期检查缓存更新机制,确保资源能及时同步,避免出现内容不一致的情况。
  4. PWA集成优化:根据自己的应用场景,选择性开启PWA功能,不用全部开启;优化一下应用图标和启动页的设计,让“类原生”的体验更到位。

总的来说,宏天H5 Builder靠可视化配置和完善的适配能力,给低代码H5移动端开发提供了一个高效又便捷的解决方案,尤其适合中小企业和非专业前端开发者,能快速把移动端H5应用做出来。现在移动端开发的需求越来越多,合理利用低代码工具的适配能力,既能降低开发门槛,又能保证用户体验,算是实现了开发效率和用户体验的双赢吧。

小T导读:当天文观测进入 PB 级时代,问题不再是“有没有数据”,而是“数据该怎么用”。面对高基数、高频次的时域观测数据,传统的数据处理范式已经逼近极限。国家天文科学数据中心(NADC)围绕新一代科研需求,探索“计算向数据靠拢”的存储与分析架构,并在多时标光变曲线生成、高能光子数据库等关键场景中引入 TDengine 时序数据库,构建支撑海量时序数据就地分析的技术体系。本文将系统介绍这一架构的设计思路、核心能力及其在真实科学发现中的实际价值。

合作背景

随着天文观测技术的快速发展,天文数据规模正呈指数级增长。预计到 2030 年底,来自空间与地面的天文观测数据总量将达到约 500 PB,远超人类历史上累计获取的数据规模。面对如此海量的数据,传统的“检索—下载—分析”科研模式已难以为继,受限于网络带宽和计算资源,海量的原始数据无法被高效地传输至客户端进行集中处理。

在此背景下,亟需构建一种支持“计算向数据靠拢”的新型存储与计算架构,即在数据存储层直接完成重采样、聚合等分析操作,仅向用户返回处理后的结果,从而支撑新一代数据密集型科研范式。

时域天文作为未来天文学的重要分支之一,正在产生持续、高频、大规模的时间序列数据。国际上的 LSST、ZTF 以及国内的司天、EP 等望远镜,均属于典型的时域天文观测设施。传统关系型数据库在存储和管理此类时域数据时暴露出明显不足,包括压缩效率低、存储成本高、查询延迟大,以及难以支持降采样、时序分析算符和多维聚合等分析需求。

基于上述挑战,国家天文科学数据中心(NADC)在时域天文数据领域,开展了面向新科研范式的计算与存储架构研究,探索能够支撑海量时序数据高效管理与就地分析的新型技术路径。

为什么选择 TDengine TSDB?

支持高基数、高频次数据的高效管理

时域天文观测对数据管理系统提出了“高基数 + 高频次”的双重挑战,而传统关系型数据库在这一场景下难以满足需求。关系数据库最初面向事务处理(OLTP)场景设计,采用以“行”为单位的存储结构。当用于存储高频时域观测数据时,这种设计暴露出明显瓶颈:由于同一时间段内的不同观测量分散存储在大量行中,在查询某一时间区间内的特定数据列(例如单个天体的光变曲线)时,系统需要频繁进行跨行、跨磁盘位置的随机访问,导致 I/O 开销显著增加,查询效率大幅下降。

而在时域天文数据分析中,典型的访问模式恰恰是针对同一时间区间的一列或多列连续数据进行分析。随着 TESS、EP 等时域天文望远镜引入超大视场设计,每个天体被高频、多次重复观测,高频写入与批量时序查询并存,使关系数据库在存储效率和查询延迟上的问题进一步放大,想要解决这一问题,就需要应用更为专业的时序数据库。

进一步地,将大视场的 TESS 图像与高分辨率的 Gaia 星表进行联合测光,生成 Tess–Gaia 联合光变曲线后,数据同时具备了“高基数”、“高频次”特征。这使时域天文成为一个典型的高基数时序数据场景。所谓高基数,是指时序数据中标签(如天体编号、坐标等)的取值数量极大,会导致标签索引膨胀、元数据规模迅速增长,进而引发表定位困难和查询性能下降等问题。

根据已有行业测试结果,在低基数、高频次的时序场景中,InfluxDB 表现良好;但当基数显著上升时,其性能受限于底层的 LSM-Tree 数据结构而急剧下降。相比之下,TDengineTSDB通过引入 VNode 等分布式存储与调度机制,并定义了一种被称为“超级表”的创新数据模型,从架构上将高基数问题进行拆解和隔离,有效避免了标签爆炸对单表性能的影响,更适合支撑大规模、高基数的时域天文数据管理需求。

支持近数据计算,减少网络传输

在时域天文研究中,科学家经常需要围绕不同的科学目标(如搜索短时标的快速射电暴或长时标的变星周期),对同一组原始观测数据进行不同时间窗口(Time-bin)的重采样分析。

如果沿用传统的“存储—查询—传输—计算”模式,将海量原始时序数据完整传输至应用端再进行分析,不仅会对网络带宽造成持续压力,还会显著增加客户端的内存占用与计算负担,在 PB 级数据规模下几乎不可行。

TDengine TSDB 提供了面向时序数据的强大窗口计算能力,支持在数据库服务端直接完成时间窗口划分(window)、降采样(downsampling)以及多维聚合分析等操作。基于这一能力,可以将光变曲线生成算法中最核心、最耗时的聚合与重采样逻辑下沉至数据库层执行,仅将处理后的轻量级结果数据返回给应用端。

支持大规模表间的多维度聚合分析

为保证数据的高压缩率与高写入吞吐能力,我们采用了 TDengine TSDB 推荐的“一个数据采集点一张表”的建模策略,即一个天体或一个天区一张表。这种设计能够最大化发挥时序数据在时间维度上的连续性优势,但在 NADC 的业务场景下,也意味着需要同时管理上千万甚至上亿张子表,传统数据库在表管理、跨表查询和聚合分析方面难以承受如此规模。

针对这一问题,TDengine TSDB 在数据模型层面引入了“超级表(Super Table)”机制,将具有相同 Schema 的子表在逻辑上归为一个超级表,并允许通过标签(Tag)对子表进行多维度的分类和过滤。

基于超级表模型,我们能够轻松实现跨天体、跨天区的多维度聚合分析,例如“查询误差半径内不同时间范围的光子数”。通过该机制,系统在保持子表物理独立存储所带来的高并发写入与高压缩效率优势的同时,有效解决了海量小表场景下的管理困难和跨表分析性能瓶颈,为大规模时域天文数据的统一分析提供了可行路径。

TDengine TSDB 业务应用

多时标光变曲线生成工具 LCGCT

多时标光变曲线生成工具用于从望远镜原始观测数据出发,采用不同时间间隔进行分箱处理,生成多时间尺度的光变曲线,以满足暂现源搜寻、变源周期提取等不同科学目标的需求。在该系统中,包含三类实体:Source、Instrument 和 Detection。Source 表示一个实际天体,如 Crab、M87 等;Instrument 表示能够产生独立时序观测数据的望远镜或仪器,当同一望远镜配置有多个滤光片时,不同滤光片在系统中分别作为独立的 Instrument 存在;Detection 表示一次具体的观测行为,即某一 Instrument 对某一 Source 的观测记录,包含时间、流量、曝光时间等观测信息。从数据关系角度来看,Source 与 Instrument 之间为多对多关系,二者通过 Detection 进行关联。

Tess–Gaia 联合光变曲线是一类典型的高基数、高频次数据,覆盖上千万个天体。为获得更高的数据压缩率与检索效率,我们选用 TDengine TSDB 作为底层存储引擎,并采用“一个仪器对一个源的观测存储一张表”的方案,将 Detection 数据统一存储于同一超级表中,并以 SourceId 和 InstrumentId 作为标签进行子表划分,最终分布式存储于 TDengine TSDB 集群中。

这种设计不仅极大地降低了标签数据的冗余存储,还保证了同一天体数据的物理连续性,从而实现了高达 75% 的数据压缩率。同时,借助 TDengine TSDB 强大的集群支持能力,我们能够轻松实现数据的横向扩展,高效应对千万级天体表的并发写入与查询需求。

在查询性能方面,TDengine TSDB 的 Vnode(虚拟数据节点)机制在该场景中发挥了关键作用。每个子表的数据被映射到特定的 Vnode 中进行管理,使得查询请求可以被拆分并由多个 Vnode 并行处理,充分利用多核计算资源,显著缩短查询响应时间。借助“一个数据采集点一张表”的数据模型,单个子表(光变曲线)的数据在同一 Vnode 内顺序存储,时间范围查询主要以顺序读为主,相比随机读可获得数量级上的性能提升。

此外,TDengine TSDB 针对时序数据构建了高效的时间索引结构。在定位具体子表(光变曲线)时,系统可在索引文件中快速锁定可能包含目标数据的数据块,避免全表扫描,尤其适合以时间戳为核心条件的过滤查询。对于降采样等常见聚合分析场景,TDengine TSDB 还支持使用预计算结果直接完成聚合计算,无需反复读取和解压原始数据,进一步降低 I/O 开销并提升查询效率。

在天文数据分析过程中,天文学家经常需要使用不同时标(Time-bin)的光变曲线,如果采用传统方式,将海量原始数据全部通过网络传输到应用端再进行重采样,无疑是对带宽和计算资源的巨大浪费。为此,我们基于泊松统计模型,利用原始观测的流量、误差与曝光时间,推导并实现了反推有效面积以及并道光变曲线流量与误差的计算方法。

在此基础上,依托 TDengine TSDB 在存储端提供的窗口计算与聚合分析能力,将光变曲线生成过程中的核心处理逻辑(如时间重采样与降采样)直接转移至数据库层执行。通过 LCGCT 工具,用户无需查询完整原始数据集,即可在数据端按需生成任意时标的光变曲线,仅将处理后的结果数据返回至应用端。这种方式显著减轻了网络传输负担,极大地提升了科学发现的效率。

数据库端降采样以减少网络传输

高能光子数据库 XPhotonBank

传统的X射线天文数据往往以预处理后的图像或固定时标的光变曲线形式存在,但这限制了科学家对瞬变天体的精细化研究。从数据科学视角来看,这些数据都是光子事例数据的“派生”数据,或者说,光子事例数据是更高维的数据,因而也蕴含着更丰富的特征。为了支持在任意观测时段和天区位置灵活生成可定制时间窗口的图像、光变曲线和能谱,以及从更高维度研究各类天体的特征,我们需要直接存储最原始的光子事例(Photon Events)数据。

光子事例数据同样是一个典型的高基数、高频次场景。EP 卫星每年观测到的光子数接近 200 亿个,为了实现对全天球光子数据的高效空间索引,我们采用了“一个天区一张表”的存储策略,将天空按照 HEALPix 网格划分为数千万的细粒度网格,每个网格对应 TDengine TSDB 中的一张子表。

在光子级多时标光变曲线生成场景中,多维度数据聚多维度的数据聚合操作尤为普遍。在实际科学分析中,单个天体的观测往往受到仪器点扩散函数(PSF)和定位误差的影响,其对应的光子事例数据通常分布在相邻的多个天区网格中。依托 TDengine TSDB 的超级表数据模型和强大的多维度聚合能力,系统能够根据源的中心坐标和误差半径,自动定位并筛选出覆盖该区域的多个天区子表,并在服务端对这些子表中的光子数据进行实时聚合,从而直接在数据库层完成跨子表计算,生成任意时标的光子级别的光变曲线,实现长期光子级光变曲线的秒级响应。

科学发现

EP251020a

EP251020a 是使用以上系统发现的重要成果之一。该源在 EP 宽视场 X 射线望远镜(WXT)中的定位坐标为赤经 74.292 度、赤纬 -11.746 度(J2000 历元),半径方向不确定度为 3.1 角分(90% 置信度,含统计与系统误差),与星系 LEDA 962438 位置一致。

研究团队利用 FXT 和 Swift/XRT 进行的后续观测,进一步将 X 射线源精确定位到宿主星系的核区;同时,UVOT 观测到其亮度较历史记录显著增强,这些证据共同支持该事件属于潮汐瓦解事件。在 2025 年 9 月底,该源即通过光子数据库探测到信号,从而引起科研人员的注意。20 多天后,该天体接近本次爆发峰值,才被单次观测处理流水线正式探测到并被命名为 EP251020a。

XPhotonBank 的预警能力成功捕获了原本可能遗漏的早期辐射阶段,显著延长了观测的时间基线并提前引起科研人员注意,为该源证认为为罕见的潮汐瓦解事件候选体争取了宝贵的观测数据和后随观测支持。

上图 (a)由 XPhotonBank 生成的 EP251020a 位置区域的叠加 X 射线图像,显示了该暂现源在单次观测触发前已出现。(b) EP251020a 的 10 天分段光变曲线,显示该暂现源在 2025 年 9 月下旬已开始活动。

EP J012607.7+121047

EP J012607.7+121047 是 XPhotonBank 发现的另一例暂现源,位于赤经 21.510 度、赤纬 12.186 度(J2000 历元),定位不确定度为 2.5 角分。根据 WXT 能谱推得的 0.5–4 keV 波段流量约为 3.5×10-¹² erg·s-¹·cm-²,低于 1000 秒曝光时长的灵敏度极限,因此未被标准单次观测流水线探测到。

而 XPhotonBank 的叠加分析在 2025 年 8 月探测到该源并触发了 FXT 的后续观测,确认其在空间位置上与候选激变变星 AT2023row(即 Gaia23cer)相符。这一发现与后续验证,充分体现了 XPhotonBank 在从叠加数据中挖掘微弱暂现源方面的有效性。如图中所示,XPhotonBank 完整记录了该暂现源从 2025 年 8 月至 12 月的爆发过程。

上图 (a) 由 XPhotonBank 生成的 EP J012607.7+121047 位置区域 1 天叠加 X 射线图像,显示该暂现源可在叠加数据中出现。(b) 8 天时间窗口的叠加光变曲线,表明 XPhotonBank 能够完整观测到该暂现源从 2025 年 8 月至 12 月的整个爆发过程。

关于 NADC

国家天文科学数据中心是由科技部、财政部认定的国家科技资源共享服务平台,属于基础支撑与条件保障类国家科技创新基地,负责汇交管理、整编、集成天文学科领域数据,制定相关标准规范,建设天文数据资源体系,优化完善天文数据开放共享服务平台,提供多元数据服务,建立数据挖掘分析与学科应用平台,促进天文学科领域科学数据的深度应用,开展科学传播和国际合作交流,努力把自身打造成为优秀的国家科学数据中心和国际知名的天文科学数据中心,成为引领天文学进入数据密集型科学发现新时代的重要资源平台和技术力量。