2026年3月

一、传统蛋白表达的核心研究瓶颈

在生命科学研究和药物研发中,获取有生物活性的高质量蛋白是基础,蛋白结构解析、功能验证、药物靶点筛选等工作都离不开优质蛋白样本。
科研人员长期依赖大肠杆菌、酵母、哺乳动物细胞等活细胞表达系统制备蛋白,这类方法存在诸多局限:全流程耗时数周甚至数月,涉及基因克隆、转化、筛选、诱导表达、细胞裂解、蛋白纯化等多个环节,操作复杂,且每个环节都可能出现克隆效率低、转化失败、蛋白降解等问题,增加实验的不确定性。
更关键的是,部分目标蛋白在细胞内易形成不溶性包涵体,或因错误折叠、缺乏正确的翻译后修饰丧失活性;毒性蛋白还会影响宿主细胞生长,直接导致表达中断,比如促凋亡蛋白、膜通道蛋白的细胞内积累会触发细胞死亡。这些问题大幅降低研究效率,在高通量筛选、紧急科研任务和快速迭代的药物研发中,传统蛋白表达模式已成为科研进展的关键制约因素。

二、Cell Free技术驱动无细胞蛋白表达合成的核心机制

针对传统技术的痛点,无细胞蛋白表达合成技术依托Cell-Free System(无细胞系统)提供了全新解决方案。该技术摆脱对完整活细胞的依赖,利用细胞裂解液中保留的转录、翻译机制,在体外直接驱动蛋白质合成,全程在试管中完成,无需细胞培养、转化、筛选步骤,既简化操作,又规避了细胞生理状态对表达结果的干扰,核糖体、RNA聚合酶等核心组分的优化配置,保障了无细胞蛋白合成的稳定性。
以eProtein Discovery蛋白表达筛选系统为代表的新一代无细胞蛋白表达合成技术,整合了优化酶系统、核苷酸原料、氨基酸底物及能量再生体系,构建出稳定可控的体外蛋白合成环境。研究人员仅需加入目标DNA模板,数小时内即可启动蛋白表达,实现从遗传信息到功能性蛋白的无缝转化;通过T7强启动元件提升转录水平,搭配稳定翻译起始序列进一步提高表达效率,反应体系还可灵活调节氧化还原环境,促进二硫键形成,助力蛋白正确折叠,大幅提升无细胞蛋白表达的成功率与蛋白活性。
该系统的核心优势是48小时内完成从DNA到活性蛋白的全流程,所得蛋白无需复杂复性处理,可直接用于下游功能分析、结构研究、药物筛选等工作,大幅压缩无细胞蛋白合成的时间成本,同时为快速验证科学假设提供核心技术支撑。此外,Cell-Free System的开放反应环境支持科研人员实时监测蛋白生成动态,在线添加辅因子、分子伴侣辅助蛋白折叠,这一灵活性是传统细胞表达系统无法实现的。

三、无细胞蛋白表达合成技术攻克难表达蛋白制备难题

科研中诸多结构特殊的蛋白,如多跨膜结构域膜蛋白、富含二硫键的分泌蛋白、高度无序区域调控蛋白,在传统表达系统中容易降解或错误折叠,这类蛋白常是神经科学、免疫学、癌症研究的关键靶点,却因制备困难成为研发难点。
CD19蛋白便是典型的难表达蛋白,作为重要的B细胞表面标志物,其复杂的拓扑结构和糖基化修饰使其在常规系统中易失活,长期制约抗体药物与免疫疗法研发。而借助eProtein Discovery系统的无细胞蛋白表达合成能力,研究人员可在48小时内获得高纯度、正确折叠且有生物活性的CD19蛋白,为靶向治疗提供了高质量研究材料。
eProtein Discovery系统适用性很强,可覆盖约77%的人类蛋白组,能快速表达毒性蛋白、膜蛋白、结构复杂的多功能蛋白等传统方法难以处理的蛋白类型:阿尔茨海默病研究中的淀粉样前体蛋白(APP)、剪切酶BACE1,肿瘤免疫领域的PD-1、CTLA-4等免疫检查点蛋白,均可通过该系统成功实现无细胞蛋白表达合成并保持活性。
目前该系统已累计成功合成超2000种不同类型蛋白质,覆盖激酶、受体、转录因子等多个功能类别,展现出稳定的多样性无细胞蛋白表达合成能力;甚至能依托Cell Free System准确合成含非天然氨基酸、化学修饰的蛋白变体,为化学生物学、合成生物学的研究开辟了新路径。

四、Cell-Free技术让无细胞蛋白表达合成更快速、灵活、高产

相较于传统细胞依赖型蛋白表达方法,依托Cell-Free System的无细胞蛋白表达合成技术在多维度展现出明显优势,全方位适配科研中的各类需求:

1、周期大幅缩短:

省去细胞扩增、诱导等待等步骤,48小时完成无细胞蛋白表达合成全流程,实现“当日设计,次日得蛋白”的快速响应,加快项目推进节奏;

2、表达成功率提升:

无细胞蛋白合成不依赖细胞存活,彻底避免毒性蛋白对宿主细胞的伤害,大幅提高难溶性、不稳定蛋白的产出概率,特别适合表达致死性、高毒性蛋白;

3、产物纯度可控:

通过无细胞蛋白表达所得蛋白平均纯度达92%,仅需简易亲和层析、切向流过滤即可获得适用于高分辨率结构解析的样品,大幅减轻后续纯化负担;

4、体系可扩展性强:

Cell-Free技术反应体积从微升级扩展至百毫升级,无缝适配从微量筛选到中试生产的不同无细胞蛋白合成需求;

5、高通量筛选能力:

支持同时运行192种不同表达条件,并行测试温度、pH、镁离子浓度、添加剂等参数对无细胞蛋白表达效果的影响,准确优化实验方案,减少试错成本,推动无细胞蛋白合成从经验驱动转向数据驱动。

五、曼博生物提供无细胞蛋白表达合成技术全流程本地化服务

随着Cell-Free System与无细胞蛋白表达合成技术在全球的快速发展,国内科研界的相关应用需求也持续攀升。上海曼博生物作为nuclera中国正式授权代理,为国内科研人员及生物医药企业,提供eProtein Discovery无细胞蛋白表达筛选系统的产品咨询、采购安装、技术支持等全流程专业服务,助力国内科研机构开展靶点验证、膜蛋白表达、AI蛋白设计、酶的定向进化及酶工程等相关研究,如有需要可点击了解曼博生物代理的蛋白表达系统

CozyBase 是一个类似 Supabase 的、面向 AI Agent 的本地 BaaS 平台,通过它你可以用自然语言描述应用的需求想法,由 AI Agent 来进行实现。换句话说 CozyBase 就是属于你自己的 APP Store ,你可以让 Agent 定制化地满足你的需求。

比如你可以创建自己的家庭物资管理工具,记录追踪物资、药品、食材是否临近过期是否即将耗尽。
比如你可以创建自己的 30 天减脂计划应用,按自己的需求安排和记录减脂的安排。

甚至你可以让 Agent 帮你使用这些应用:“帮我标记首页功能开发已完成”,“我买了 2 盒维生素帮我记录一下” 等等。

与此同时,CozyBase 支持通过 ACP/MCP 协议接入到 OpenClaw 里,也就意味着你的龙虾🦞可以帮你在 CozyBase 中创建应用、使用应用。

下载地址: https://github.com/wcp1231/cozybase/releases
当前还是 alpha 测试版,只支持 M 系列芯片的 MacOS ,同时需要提前安装有 Codex 或 Claude Code 。

欢迎大家使用和反馈,创造独属于自己的应用。



3月13日,网易科技《后厂村AI派》举办 《带你玩转OpenClaw龙虾》专题沙龙,行业大咖、AI应用开发者、OPC创业者、云厂商负责人等齐聚现场,拆解了“养龙虾”的多种推荐部署方式、“养虾人”如何避坑以及最佳实践案例。枫清科技(Fabarta)技术合伙人兼CTO谭宇受邀出席沙龙并分享了Fabarta的OpenClaw实践与企业场景应用,并解答现场观众的提问。

微信图片_20260313161716_3356_3.jpg

在谭宇看来,OpenClaw的本质是Coding Agent能力外溢、交互方式与便利性的大幅提升,以及权限高度下放所引发的生产力释放效应三重维度的叠加。

立足于技术洞察的同时,枫清科技还聚焦于解决开源OpenClaw的核心痛点,于2月推出了Fabarta个人专属智能体龙虾版,实现了“让AI从动口到动手,让控制权始终在用户手中”。

它并非一款普通办公助手,而是将服务国央企与各行业龙头企业的知识引擎、智能体核心能力,全面浓缩并下沉至个人用户办公终端,以深度云边端协同架构为技术底座,打造真正面向个人的高安全、强专属、可信赖智能办公终端。

其底层技术已在化工、金融、制造、能源等数据安全要求极致严苛的行业深度验证,获得众多产业龙头广泛认可,从源头确保企业级安全标准直接赋能个人场景。

对普通用户而言,Fabarta个人专属智能体龙虾版开箱即用,内置周报整理、数据抓取、智能写作、翻译助手等高频办公场景,同时打通多渠道链接,一站式解决用户在不同大模型之间切换、选择的难题,并支持用户自定义配置更多场景,灵活适配个性化办公需求。 

在安全与可控层面,Fabarta个人专属智能体龙虾版坚持本地优先:原生支持本地部署,兼顾沙箱隔离、安全日志、高危操作熔断等多重安全机制,数据与行为全程可控,从根本上杜绝信息泄露风险。 

更具差异化的是,Fabarta个人专属智能体龙虾版拥有领先的个人特色记忆能力:依托本地长期记忆文件,从首次使用即可深度理解用户习惯与业务背景,再与短期工作记忆实时融合,实现越用越懂你、越用越高效的专属智能体验。 

在分享尾声,谭宇提到,OpenClaw的爆发与2025年初DeepSeek的效应类似,将产生不可逆的行业变革,Agent进入核心业务流程已势不可挡。他认为OpenClaw作为技术范式将长期存在,但产品形态必然持续进化。在这股热潮背后,企业应关注不变的核心要素——Agent执行过程与结果的可追溯、可审计、可管控性与上下文管理才是Agent可靠运行的基石。

在Fabarta企业级能力的支持下,依托云边端协同架构,用户的个人端能力可无缝向上延伸,极低门槛即可搭建企业级安全智能体,真正实现“个人好用、企业放心”。

作为前端开发者,你是否也曾陷入这样的困境:

技术栈不断更新却感觉越学越迷茫?每天忙碌工作却看不到成长?想要突破瓶颈却不知从何下手?AI 时代来临,更是焦虑倍增……

如果这些是你的困扰,那么下面这些问题,可能正是你一直在寻找答案的。

1. 认知升级篇:跳出思维陷阱,建立底层认知框架

  • 如何制定真正有效的个人战略?
  • 如何做出一个切实可行的年度规划?
  • 如何识别并修正你的负面信念?
  • 如何真正做到知行合一?
  • 如何克服焦虑?
  • 如何停止精神内耗?
  • 如何从根源上克服拖延?

2. 高效学习篇:构建学习系统,让知识真正为你所用

  • 如何高效阅读一本书?
  • 如何做笔记才能真正促进理解和记忆?
  • 如何构建个人知识管理系统,让知识得到有效记录、有序管理、精准调用?
  • 如何建立知识体系,让碎片化的知识点形成知识网络?
  • 什么才是符合脑科学的学习方法?
  • 如何系统性地提升学习能力?

3. AI 学习篇:在 AI 时代保持竞争力

  • AI 时代,前端的出路在哪里?
  • AI 时代,前端开发者该如何学习?
  • 使用 AI 的时候有哪些最佳实践?
  • 如何将 AI 融入日常工作和学习流程?

4. 职场工作篇:从技术执行到职场影响力

  • 如何真正理解业务,而不只是做一个“代码工具人”?
  • 如何面对工作中的否定和打压,保持心态的稳定?
  • 如何做好向上管理,让领导看到你的价值?
  • 如何横向协作,建立良好的同事关系?
  • 如何在工作中打造自己的影响力?
  • 如何管理时间和精力,在工作中高效成长?
  • 如何平衡工作和生活,避免被工作掏空?

5. 前端面试篇:掌握面试技巧,拿下心仪 offer

  • 如何写出一份能打动面试官的简历?
  • 面试前应该做哪些准备工作?
  • 如何回答技术问题才能体现深度?
  • 如何讲述项目经历才能突出价值?
  • 如何应对开放类问题?
  • 面试后如何复盘和改进?

6. 技术成长篇:建立完整知识体系

  • 如何系统学习前端,建立完整的知识体系?
  • 前端开发有哪些最佳实践和编程法则?
  • 主流框架的实现原理和上手指南
  • 如何在技术上持续精进,保持竞争力?

7. 习惯养成篇:用科学方法重塑行为模式

  • 习惯的底层原理是什么?
  • 科学的习惯养成方法是什么?
  • 习惯养成时有哪些常见误区和陷阱?
  • 如何戒除坏习惯?
  • 如何养成早起、阅读、写作、冥想、运动、记录、复盘这些核心习惯?

8. 精力管理篇:保持高能量状态,提升工作效能

  • 如何保持高能量状态?
  • 如何通过睡眠、饮食、运动、姿势等日常习惯提升身体能量?

前端开发者的破局之路

如果你也有这些困惑,不妨来我的知识星球“冴羽 · 前端开发者的破局之路”看看。

我用 10 年的摸爬滚打,踩过无数坑,把这些经验和思考沉淀成了 8 大专栏,100 篇深度长文,总计 70W 字的原创内容,几乎篇篇都是 6000 字以上的深度专属长文,加入即看。

星球不只讲技术实现,更关注你的认知升级、学习方法、职场发展和个人成长。帮你建立清晰的成长路径,在 AI 时代实现从技术到认知的全面跃迁。

3月14日,阿里云瑶池数据库团队联合云原生应用团队发起的OpenClaw「虾搞」数据库首场线下活动将在杭州阿里巴巴西溪园区正式拉开帷幕。

这是一场原本只计划70人的小型技术沙龙。然而上线4天后,报名人数突破了600人——来自北京、上海、广州、深圳乃至全国各地的开发者,用热情证明了大家对AI Agent技术的热切期待。

场地紧急扩容3倍!为什么是“虾搞”?

OpenClaw——这个以“龙虾”为名的开源多Agent协作框架,正悄然在数据库与AI的交叉地带掀起一股新浪潮。

在大模型时代,如何让多个智能体高效协作?如何将企业沉淀的数据资产与AI能力深度耦合?这是每一位开发者都在探索的核心命题。

“虾搞”二字,既是“瞎搞”的谐音玩梗,又暗藏深意:它致敬开发者骨子里那份敢于试错、乐于折腾、勇于探索的精神——不设边界,不惧未知,用代码“钳”出新可能。

所以,这不是随便“虾搞”,而是认真“搞大事”。明日活动亮点和现场福利抢先看

无法到场?直播同样精彩 

为了让更多虾友能够参与这场技术盛宴,我们特别安排了全程直播:

⏰ 直播时间: 3 月 14 日 14:00 起

📺 直播平台:本次活动将在阿里云、阿里云开发者、阿里云瑶池数据库视频号同步直播,微信群、钉钉群等多个用户社群同步转播。扫描下图进行预约吧。

引言

“这个页面要嵌入另一个系统的报表,怎么办?”

“用 iframe 啊!”

“我想在咱们站里放个B站视频,但不想跳转。”

“用 iframe 啊!”

“微前端怎么搞?”

“用 iframe 啊!”——等等,微前端真的适合用 iframe 吗?

作为前端开发者,我们几乎每天都在和 iframe 打交道。它像一个“万能容器”,能轻松地把另一个页面塞进当前页面。但你真的了解它的能力边界吗?为什么有时候 iframe 会让页面卡顿?为什么有些网站死活不让你嵌入?为什么安全报告总提醒你注意 iframe 风险?

今天,我们抛开浅层用法,深入 iframe 的每一个毛孔,看看这个 25 岁的 HTML 元素,在现代前端开发中究竟扮演什么角色。

一、初见 iframe:不只是“页面里的页面”

1.1 基础语法

<iframe src="https://example.com" width="600" height="400"></iframe>

就这么简单,一个外部页面就被嵌入了。但它背后的行为远比看到的复杂:

  • 它创建了一个独立的浏览上下文(browsing context),有自己的历史记录、DOM 树、全局对象。
  • 可能与父页面同源(同协议、域名、端口),也可能跨域。
  • 它的加载、渲染、脚本执行几乎完全独立,但资源(如网络连接、线程)又共享自浏览器。

1.2 常用属性

除了 srcwidthheight,还有几个现代属性至关重要:

属性作用
sandbox对 iframe 内容施加额外限制(后文详述)
allow控制特性权限,如麦克风、摄像头、全屏
allowfullscreen是否允许全屏
loading懒加载(lazy / eager
referrerpolicy控制 Referer 头的发送策略

二、核心应用场景:什么时候非它不可?

2.1 嵌入第三方内容

视频(YouTube、B站)、地图(Google Maps)、社交帖子(Twitter、Instagram),这些平台提供的嵌入代码几乎都是 iframe。为什么?

  • 安全隔离:第三方脚本不能直接访问你的页面 DOM,防止恶意操作。
  • 样式独立:不会被你的 CSS 意外污染,也不用担心污染你的页面。
  • 功能完整:播放器、地图交互等复杂功能可以直接用对方提供的代码,不用自己实现。

2.2 广告系统

广告往往是跨域的,且需要沙盒化运行。iframe 天生适合:广告脚本在独立环境运行,无法窃取主站数据,同时又可以通过 postMessage 进行必要的通信(如上报尺寸变化)。

2.3 微前端架构的“兜底方案”

现代微前端框架(single-spa、qiankun)大多采用 JS 沙箱 + 路由分发的方式,但遇到老旧的、必须用全局变量或修改原型链的子应用时,iframe 成了最后的防线。虽然它有通信成本高、加载慢、UI 不同步等缺点,但胜在隔离彻底。

2.4 保持页面状态的“快照”

例如在线代码编辑器(CodePen、JSFiddle)的预览区域,用 iframe 执行用户代码,即使代码崩溃也不会影响主页面。

三、深入原理:iframe 与父页面的爱恨情仇

3.1 独立王国的边界

iframe 内部的所有内容(包括 JS 变量、定时器、事件监听)都局限在自己窗口内。但以下几个资源是跨上下文共享的:

  • 浏览器缓存src 里的资源会被正常缓存。
  • 网络连接:TCP 连接数限制是全局的,过多的 iframe 可能耗尽连接池。
  • localStorage / sessionStorage:同源 iframe 可以读写父页面的存储,跨域则不能(会抛出安全错误)。

3.2 通信:同源 vs 跨域

同源 iframe

父页面可以像操作自己的 DOM 一样操作 iframe 内部:

// 父页面
const iframe = document.getElementById('my-iframe');
iframe.contentDocument.getElementById('btn').click(); // 直接访问内部元素
iframe.contentWindow.someGlobalFunction(); // 调用内部全局函数

但要注意,必须等待 iframe 加载完成,否则 contentDocument 可能为空。

跨域 iframe

浏览器强制的同源策略会阻止父页面访问跨域 iframe 的 DOM。这时唯一安全的通信方式是 window.postMessage

父页面发送消息:

iframe.contentWindow.postMessage({
  type: 'UPDATE_USER',
  payload: { id: 123, name: 'Alice' }
}, 'https://iframe-domain.com'); // 目标源,必须指定

iframe 内监听消息:

window.addEventListener('message', (event) => {
  // 务必验证来源!
  if (event.origin !== 'https://parent-domain.com') return;
  
  if (event.data.type === 'UPDATE_USER') {
    // 更新界面
  }
});

安全原则: 永远检查 event.originevent.source,防止恶意页面冒充。

3.3 嵌套与层级

iframe 可以多层嵌套,形成“子→孙”结构。每一层都有独立的 window,但可以通过 window.parentwindow.top 访问父窗口和顶层窗口。跨域时访问这些属性也会被安全策略限制,只能通过 postMessage 向上传递。

四、安全性与沙盒:给 iframe 戴上枷锁

4.1 sandbox 属性

sandbox 是 iframe 最强大的安全工具,它可以启用一系列限制:

<iframe src="https://untrusted.com" sandbox></iframe>
<!-- 完全沙盒化:不允许脚本、表单、弹窗、导航等 -->

可以选择性放宽限制:

<iframe src="https://example.com" sandbox="allow-scripts allow-same-origin"></iframe>

常见 sandbox 值:

含义
allow-scripts允许执行脚本
allow-same-origin允许视为同源(如果不加,即使 URL 同源也会被当作跨域处理)
allow-forms允许提交表单
allow-popups允许弹窗(window.open
allow-modals允许调用 alert() 等模态框
allow-orientation-lock允许锁定屏幕方向
allow-pointer-lock允许指针锁定
allow-top-navigation允许导航到顶层窗口(危险)
allow-presentation允许启动演示模式

重要: 不加 allow-same-origin 时,iframe 会被分配一个独特的来源(null),即使 URL 看起来同源。这是为了防止恶意脚本利用 iframe 绕过同源策略。

4.2 allow 属性(功能策略)

allow 属性用于控制更精细的权限,如摄像头、麦克风:

<iframe src="https://meet.example.com" 
        allow="camera; microphone; fullscreen">
</iframe>

这些权限需要配合 Feature Policy(现称 Permissions Policy)使用,浏览器会向用户请求授权。

4.3 防止页面被嵌入(X-Frame-Options 与 CSP)

如果你的页面不想被别人的 iframe 嵌入(比如防止点击劫持),可以设置响应头:

  • X-Frame-Options: DENY(完全禁止)或 SAMEORIGIN(只允许同源页面嵌入)
  • Content-Security-Policy: frame-ancestors 'self' https://example.com(更精细的控制)
X-Frame-Options: DENY
# 或
Content-Security-Policy: frame-ancestors 'none';

五、性能影响:看不见的代价

5.1 加载阻塞

<iframe> 的加载会阻塞主页面 onload 事件。即使使用 loading="lazy" 懒加载,也依然需要额外的连接开销。

5.2 内存占用

每个 iframe 都是一个独立的文档环境,会占用大量内存(尤其是包含复杂交互时)。过多 iframe 可能导致页面卡顿甚至崩溃。

5.3 最佳实践

  • 延迟加载:对不可见的 iframe(如下方广告)设置 loading="lazy"
  • 动态创建:只在需要时创建 iframe,用完及时销毁(iframe.remove())。
  • 限制数量:不要超过 2~3 个活跃 iframe。
  • 预先连接:如果知道 iframe 来源,可以用 <link rel="preconnect"> 提前建立连接。

六、现代替代方案:iframe 不是唯一解

场景iframe 的问题替代方案
嵌入外部页面样式隔离但交互受限Web Components(Shadow DOM)可以隔离样式,但不能隔离 JS
微前端通信复杂、加载慢single-spa、qiankun 等基于 JS 沙箱的微前端框架
显示富文本内容需要安全展示用户生成内容使用专门的 HTML 渲染库(如 DOMPurify)搭配 Shadow DOM
显示 PDFiframe 会接管整个窗口<object><embed>,或使用 PDF.js 自建渲染
跨域通信只能 postMessage如果只是获取数据,可以用 Fetch API + CORS

但 iframe 在完全隔离不可信代码的场景中,依然不可替代。例如在线代码编辑器、广告系统。

七、常见问题与解决方案

Q1:如何让 iframe 高度自适应内容?

跨域 iframe 无法直接读取内部高度,但可以通过 postMessage 由内部通知父页面:

iframe 内:

const height = document.documentElement.scrollHeight;
window.parent.postMessage({ type: 'resize', height }, 'https://parent.com');

父页面:

window.addEventListener('message', (e) => {
  if (e.data.type === 'resize') {
    document.getElementById('my-iframe').style.height = e.data.height + 'px';
  }
});

Q2:为什么 iframe 内的 localStorage 无法共享?

跨域 iframe 的 localStorage 是与 iframe 的源绑定的,无法访问父页面源的数据。如果需要共享,可以考虑 postMessage 让父页面代为存储。

Q3:如何检测 iframe 是否加载完成?

iframe.onload = () => {
  console.log('iframe loaded');
};
// 或者用 addEventListener
iframe.addEventListener('load', () => {});

对于跨域 iframe,onload 仍然可触发,但不能访问内部文档。

Q4:如何防止 iframe 内的链接跳转导致父页面变化?

给 iframe 设置 sandbox(不加 allow-top-navigation)即可阻止链接导航到顶层。

Q5:如何让 iframe 内的 PDF 自动打印?

这无法直接控制,因为 PDF 插件是浏览器内置行为。但可以提示用户使用插件菜单。

八、总结:iframe 仍是工具箱里的重要角色

iframe 就像前端开发的“瑞士军刀”——看似笨重,但在需要强隔离的场景里,它依然是唯一可靠的选择。了解它的工作原理、性能影响和安全策略,你就能在合适的场景下让它发挥最大价值,而不是盲目滥用。

下一次当你想用 iframe 时,不妨问自己三个问题:

  1. 真的需要完全隔离吗?能否用 Web Components 替代?
  2. 如果非用不可,是否设置了合适的 sandboxallow 属性?
  3. 如何优化它的加载,避免拖慢主页面?

思考题:假设你想在自己的博客里嵌入一个来自“http://example.com”的页面,但对方设置了 X-Frame-Options: SAMEORIGIN,你有什么办法让它强制显示吗?为什么?

(答案下期揭晓,也欢迎留言讨论)


每日一问:你在实际开发中遇到过哪些 iframe 的坑?是怎么解决的?欢迎在评论区分享你的经验。

1 简介

  OpenClaw火热,各家大厂都推出了一键安装服务,但需要支付虚拟机的费用和大模型的流量费用。但实际上OpenClaw完全可以安装到本地,只购买大厂大模型接口就行了。本文购买了阿里云百炼 Coding Plan 的 Lite 基础套餐,每月40元,可请求18000次。控制OpenClaw使用QQ的机器人,目前免费。OpenClaw可以直接装到Windows下,也可以装到Windows的WSL2下,本文选择安装到WSL2下。

2 安装WSL2

  安装WSL2方法不再赘述,安装后安装一个Linux,如Ubuntu-24,并将其设置为默认启动。

C:\Users\Administrator>wsl --install -d Ubuntu-24.04
正在下载: Ubuntu 24.04 LTS
正在安装: Ubuntu 24.04 LTS
已成功安装分发。它可通过 “wsl.exe -d Ubuntu-24.04” 启动

C:\Users\Administrator>wsl --list --verbose
  NAME              STATE           VERSION
* docker-desktop    Stopped         2
  Ubuntu-24.04      Stopped         2

C:\Users\Administrator>wsl --set-default Ubuntu-24.04
操作成功完成。

C:\Users\Administrator>wsl --list --verbose
  NAME              STATE           VERSION
* Ubuntu-24.04      Stopped         2
  docker-desktop    Stopped         2

  启动wsl,设置管理员用户密码。登录后sudo su为root用户。

C:\Users\Administrator>wsl
Provisioning the new WSL instance Ubuntu-24.04
This might take a while...
Create a default Unix user account: administrator
New password:
Retype new password:
passwd: password updated successfully
To run a command as administrator (user "root"), use "sudo <command>".
See "man sudo_root" for details.

Welcome to Ubuntu 24.04.4 LTS (GNU/Linux 5.15.167.4-microsoft-standard-WSL2-20251029 x86_64)

 * Documentation:  https://help.ubuntu.com
 * Management:     https://landscape.canonical.com
 * Support:        https://ubuntu.com/pro

 System information as of Thu Mar 12 17:42:08 CST 2026

  System load:  0.16                Processes:             32
  Usage of /:   0.1% of 1006.85GB   Users logged in:       0
  Memory usage: 5%                  IPv4 address for eth0: 172.27.70.29
  Swap usage:   0%


This message is shown once a day. To disable it please create the
/home/administrator/.hushlogin file.
administrator@Thinkpad:/mnt/c/Users/Administrator$ sudo su -
[sudo] password for administrator:
root@Thinkpad:/mnt/c/Users/Administrator#
root@Thinkpad:/home/administrator# cd
root@Thinkpad:~# pwd
/root
root@Thinkpad:~#

3 安装OpenClaw

  使用“curl -fsSL https://openclaw.ai/install.sh | bash”安装OpenClaw(参考https://docs.openclaw.ai/zh-CN/install)。

root@Thinkpad:~# curl -fsSL https://openclaw.ai/install.sh | bash

  🦞 OpenClaw Installer
  Shell yeah—I'm here to pinch the toil and leave you the glory.

✓ Detected: linux

Install plan
OS: linux
Install method: npm
Requested version: latest

[1/3] Preparing environment
✓ Node.js v22.22.1 found
· Active Node.js: v22.22.1 (/usr/bin/node)
· Active npm: 10.9.4 (/usr/bin/npm)

[2/3] Installing OpenClaw
✓ Git already installed
· Installing OpenClaw v2026.3.12
✓ OpenClaw npm package installed
✓ OpenClaw installed

[3/3] Finalizing setup

🦞 OpenClaw installed successfully (OpenClaw 2026.3.12 (6472949))!
cracks claws Alright, what are we building?

· Starting setup

🦞 OpenClaw 2026.3.12 (6472949) — If you can describe it, I can probably automate it—or at least make it funnier.

▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄
██░▄▄▄░██░▄▄░██░▄▄▄██░▀██░██░▄▄▀██░████░▄▄▀██░███░██
██░███░██░▀▀░██░▄▄▄██░█░█░██░█████░████░▀▀░██░█░█░██
██░▀▀▀░██░█████░▀▀▀██░██▄░██░▀▀▄██░▀▀░█░██░██▄▀▄▀▄██
▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀
                  🦞 OPENCLAW 🦞

  安装时会检测NodeJS等组件,没有会自动下载,正常情况下不用翻墙,如果联网失败,就多试几次。安装完成后,提示继续设置。(参考https://bailian.console.aliyun.com/cn-beijing/?tab=doc#/doc/?...

◇  I understand this is personal-by-default and shared/multi-user use requires lock-down. Continue?
│  Yes

  Onboarding mode选择QuickStart。

◇  Onboarding mode
│  QuickStart

  Model/auth provider选择Skip for now。

◇  Model/auth provider
│  Skip for now

  Filter models by provider选择All providers。

◇  Filter models by provider
│  All providers

  Default model选择Keep current。

◇  Default model
│  Keep current (default: anthropic/claude-opus-4-6)

  Select channel选择Skip for now。

◇  Select channel (QuickStart)
│  Skip for now

  Search provider选择Skip for now。

◇  Search provider
│  Skip for now

  Configure skills now选择No。

◇  Configure skills now? (recommended)
│  No

  Enable hooks选择Skip for now。

◇  Enable hooks?
│  Skip for now

  How do you want to hatch your bot选择Hatch in TUI。

◇  How do you want to hatch your bot?
│  Hatch in TUI (recommended)

  配置完成后,可以看到提示信息。

openclaw tui - ws://127.0.0.1:18789 - agent main - session main

 session agent:main:main

 Wake up, my friend!

  此时没有将gateway安装为服务,使用“openclaw onboard --install-daemon”安装为服务,执行过程中会回顾之前的配置。

root@Thinkpad:~# openclaw onboard --install-daemon

🦞 OpenClaw 2026.3.12 (6472949) — Powered by open source, sustained by spite and good documentation.
…………
…………
…………
◓  Installing Gateway service…
Installed systemd service: /root/.config/systemd/user/openclaw-gateway.service
Previous unit backed up to: /root/.config/systemd/user/openclaw-gateway.service.bak
◇  Gateway service installed.
…………
…………
…………

  然后可以用“openclaw dashboard”启动dashboard。并记录下这里的Token。

root@Thinkpad:~# openclaw dashboard

🦞 OpenClaw 2026.3.12 (6472949) — I don't just autocomplete—I auto-commit (emotionally), then ask you to review (logically).

Dashboard URL: http://127.0.0.1:18789/#token=f47ac10b58cc4372a5670e02b2c3d4795df418813aed3515
Copy to clipboard unavailable.
No GUI detected. Open from your computer:
ssh -N -L 18789:127.0.0.1:18789 root@<host>
Then open:
http://localhost:18789/
http://localhost:18789/#token=f47ac10b58cc4372a5670e02b2c3d4795df418813aed3515
Docs:
https://docs.openclaw.ai/gateway/remote
https://docs.openclaw.ai/web/control-ui
root@Thinkpad:~# openclaw onboard --install-daemon

  使用浏览器打开“http://localhost:18789/”。如果浏览器无法连接这恶鬼地址,说明gateway没有启动,需要手工启动gateway。这里已经以服务形式启动了,所以提示端口已占用。

root@Thinkpad:~# openclaw gateway run

🦞 OpenClaw 2026.3.12 (6472949) — Making 'I'll automate that later' happen now.

14:49:47 Gateway failed to start: gateway already running (pid 596); lock timeout after 5000ms
If the gateway is supervised, stop it with: openclaw gateway stop
14:49:47 Port 18789 is already in use.
14:49:47 - pid 596 root: openclaw-gateway (127.0.0.1:18789)
14:49:47 - Gateway already running locally. Stop it (openclaw gateway stop) or use a different port.
14:49:47 Gateway service appears enabled. Stop it first.
14:49:47 Tip: openclaw gateway stop
14:49:47 Or: systemctl --user stop openclaw-gateway.service

4 配置OpenClaw

  购买阿里云百炼CodingPlan服务,Lite版每月40元就够用了。
  使用浏览器打开“http://localhost:18789/”。保存Token后会自动跳转到面板页面。在Web UI的左侧菜单栏中选择配置 > RAW(或Config > RAW)。首次配置:复制以下内容到Raw JSONS输入框,替换已有内容。已有配置:若需保留已有配置,请勿直接全量替换,详见已有配置如何安全修改?将YOUR_API_KEY替换为Coding Plan 专属 API Key。(内容参考https://bailian.console.aliyun.com/cn-beijing/?tab=doc#/doc/?...

{
  "models": {
    "mode": "merge",
    "providers": {
      "bailian": {
        "baseUrl": "https://coding.dashscope.aliyuncs.com/v1",
        "apiKey": "YOUR_API_KEY",
        "api": "openai-completions",
        "models": [
          {
            "id": "qwen3.5-plus",
            "name": "qwen3.5-plus",
            "reasoning": false,
            "input": ["text", "image"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 1000000,
            "maxTokens": 65536,
            "compat": {
              "thinkingFormat": "qwen"
            }
          },
          {
            "id": "qwen3-max-2026-01-23",
            "name": "qwen3-max-2026-01-23",
            "reasoning": false,
            "input": ["text"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 262144,
            "maxTokens": 65536,
            "compat": {
              "thinkingFormat": "qwen"
            }
          },
          {
            "id": "qwen3-coder-next",
            "name": "qwen3-coder-next",
            "reasoning": false,
            "input": ["text"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 262144,
            "maxTokens": 65536
          },
          {
            "id": "qwen3-coder-plus",
            "name": "qwen3-coder-plus",
            "reasoning": false,
            "input": ["text"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 1000000,
            "maxTokens": 65536
          },
          {
            "id": "MiniMax-M2.5",
            "name": "MiniMax-M2.5",
            "reasoning": false,
            "input": ["text"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 196608,
            "maxTokens": 32768
          },
          {
            "id": "glm-5",
            "name": "glm-5",
            "reasoning": false,
            "input": ["text"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 202752,
            "maxTokens": 16384,
            "compat": {
              "thinkingFormat": "qwen"
            }
          },
          {
            "id": "glm-4.7",
            "name": "glm-4.7",
            "reasoning": false,
            "input": ["text"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 202752,
            "maxTokens": 16384,
            "compat": {
              "thinkingFormat": "qwen"
            }
          },
          {
            "id": "kimi-k2.5",
            "name": "kimi-k2.5",
            "reasoning": false,
            "input": ["text", "image"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 262144,
            "maxTokens": 32768,
            "compat": {
              "thinkingFormat": "qwen"
            }
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "bailian/qwen3.5-plus"
      },
      "models": {
        "bailian/qwen3.5-plus": {},
        "bailian/qwen3-max-2026-01-23": {},
        "bailian/qwen3-coder-next": {},
        "bailian/qwen3-coder-plus": {},
        "bailian/MiniMax-M2.5": {},
        "bailian/glm-5": {},
        "bailian/glm-4.7": {},
        "bailian/kimi-k2.5": {}
      }
    }
  },
  "gateway": {
    "mode": "local"
  }
}

image.png
  保存并更新后,可以在面板的对话界面进行测试,如果AI可以回答问题了,说明配置成功。

5 配置QQ机器人

  在腾讯官方网站上(https://q.qq.com/qqbot/openclaw/index.html),创建机器人。需要手机QQ扫码登录。创建后会产生AppID和AppSecret。
  在WLS中安装qqbot插件。命令为“openclaw plugins install @tencent-connect/openclaw-qqbot@latest”

root@Thinkpad:~# openclaw plugins install @tencent-connect/openclaw-qqbot@latest

🦞 OpenClaw 2026.3.12 (6472949) — Half butler, half debugger, full crustacean.

Downloading @tencent-connect/openclaw-qqbot@latest…
Extracting /tmp/openclaw-npm-pack-upu88E/tencent-connect-openclaw-qqbot-1.5.7.tgz…
……
……
……
Installing to /root/.openclaw/extensions/openclaw-qqbot…
Installing plugin dependencies…
15:05:00 [plugins] plugins.allow is empty; discovered non-bundled plugins may auto-load: openclaw-qqbot (/root/.openclaw/extensions/openclaw-qqbot/index.ts). Set plugins.allow to explicit trusted ids.
Config overwrite: /root/.openclaw/openclaw.json (sha256 161846249db5f18e688d9d4038bdda9343ed504144da154a713a2ca35d1a04c6 -> 5157ac1b0126623a322d119bdb965570fa6fea6b1c70665d4e5b60246d1aba1a, backup=/root/.openclaw/openclaw.json.bak)
Installed plugin: openclaw-qqbot
Restart the gateway to load plugins.

  配置绑定当前QQ机器人,使用命令openclaw channels add --channel qqbot --token "AppID:AppSecret",其中AppID、AppSecret需替换为实际值。

root@Thinkpad:~# openclaw channels add --channel qqbot --token "278327832:a5670e02b2c3d479"
🦞 OpenClaw 2026.3.12 (6472949) — I'll do the boring stuff while you dramatically stare at the logs like it's cinema.
……
……
……
Config overwrite: /root/.openclaw/openclaw.json (sha256 5157ac1b0126623a322d119bdb965570fa6fea6b1c70665d4e5b60246d1aba1a -> 529ee83c14e2204063a5c9497694332008e8eaa6fe922c5506a5736e1a5a3683, backup=/root/.openclaw/openclaw.json.bak)
Added QQ Bot account "default".

  最后重启动gateway,命令为“openclaw gateway restart”。

root@Thinkpad:~# openclaw gateway restart
🦞 OpenClaw 2026.3.12 (6472949) — Alexa, but with taste.
……
……
……
Restarted systemd service: openclaw-gateway.service

  此时,可以通过之前扫码登录的QQ上,会出现机器人,通过与机器人对话,可以控制主机上的OpenClaw。
image.png

6 控制浏览器

  因为OpenClaw是装在WSL中的,不能直接控制Windows的浏览器需要安装插件。使用“openclaw browser extension install”安装插件,使用“openclaw browser extension path”获取插件的路径。

root@Thinkpad:~# openclaw browser extension install

🦞 OpenClaw 2026.3.12 (6472949) — Half butler, half debugger, full crustacean.
……
……
~/.openclaw/browser/chrome-extension
Copy to clipboard unavailable.
Next:
- Chrome → chrome://extensions → enable “Developer mode”
- “Load unpacked” → select: ~/.openclaw/browser/chrome-extension
- Pin “OpenClaw Browser Relay”, then click it on the tab (badge shows ON)

Docs: docs.openclaw.ai/tools/chrome-extension
root@Thinkpad:~# openclaw browser extension path

🦞 OpenClaw 2026.3.12 (6472949) — Built by lobsters, for humans. Don't question the hierarchy.

~/.openclaw/browser/chrome-extension
……
……

  在 Edge/Chrome 中加载扩展:浏览器打开 edge://extensions(或 chrome://extensions),开启"开发者模式",点击"加载解压缩的扩展",选择上面命令输出的路径,把扩展固定到工具栏。配置扩展:点击扩展图标,打开选项页,设置 Gateway token(如果没配置过,OpenClaw 会自动生成)。使用:打开你想让OpenClaw控制的标签页,点击扩展图标(徽章显示 ON 表示已连接),OpenClaw就可以帮你操作那个标签页了。
image.png

1 简介

  OpenClaw火热,各家大厂都推出了一键安装服务,但需要支付虚拟机的费用和大模型的流量费用。但实际上OpenClaw完全可以安装到本地,只购买大厂大模型接口就行了。本文购买了阿里云百炼 Coding Plan 的 Lite 基础套餐,每月40元,可请求18000次。控制OpenClaw使用QQ的机器人,目前免费。OpenClaw可以直接装到Windows下,也可以装到Windows的WSL2下,本文选择安装到WSL2下。

2 安装WSL2

  安装WSL2方法不再赘述,安装后安装一个Linux,如Ubuntu-24,并将其设置为默认启动。

C:\Users\Administrator>wsl --install -d Ubuntu-24.04
正在下载: Ubuntu 24.04 LTS
正在安装: Ubuntu 24.04 LTS
已成功安装分发。它可通过 “wsl.exe -d Ubuntu-24.04” 启动

C:\Users\Administrator>wsl --list --verbose
  NAME              STATE           VERSION
* docker-desktop    Stopped         2
  Ubuntu-24.04      Stopped         2

C:\Users\Administrator>wsl --set-default Ubuntu-24.04
操作成功完成。

C:\Users\Administrator>wsl --list --verbose
  NAME              STATE           VERSION
* Ubuntu-24.04      Stopped         2
  docker-desktop    Stopped         2

  启动wsl,设置管理员用户密码。登录后sudo su为root用户。

C:\Users\Administrator>wsl
Provisioning the new WSL instance Ubuntu-24.04
This might take a while...
Create a default Unix user account: administrator
New password:
Retype new password:
passwd: password updated successfully
To run a command as administrator (user "root"), use "sudo <command>".
See "man sudo_root" for details.

Welcome to Ubuntu 24.04.4 LTS (GNU/Linux 5.15.167.4-microsoft-standard-WSL2-20251029 x86_64)

 * Documentation:  https://help.ubuntu.com
 * Management:     https://landscape.canonical.com
 * Support:        https://ubuntu.com/pro

 System information as of Thu Mar 12 17:42:08 CST 2026

  System load:  0.16                Processes:             32
  Usage of /:   0.1% of 1006.85GB   Users logged in:       0
  Memory usage: 5%                  IPv4 address for eth0: 172.27.70.29
  Swap usage:   0%


This message is shown once a day. To disable it please create the
/home/administrator/.hushlogin file.
administrator@Thinkpad:/mnt/c/Users/Administrator$ sudo su -
[sudo] password for administrator:
root@Thinkpad:/mnt/c/Users/Administrator#
root@Thinkpad:/home/administrator# cd
root@Thinkpad:~# pwd
/root
root@Thinkpad:~#

3 安装OpenClaw

  使用“curl -fsSL https://openclaw.ai/install.sh | bash”安装OpenClaw(参考https://docs.openclaw.ai/zh-CN/install)。

root@Thinkpad:~# curl -fsSL https://openclaw.ai/install.sh | bash

  🦞 OpenClaw Installer
  Shell yeah—I'm here to pinch the toil and leave you the glory.

✓ Detected: linux

Install plan
OS: linux
Install method: npm
Requested version: latest

[1/3] Preparing environment
✓ Node.js v22.22.1 found
· Active Node.js: v22.22.1 (/usr/bin/node)
· Active npm: 10.9.4 (/usr/bin/npm)

[2/3] Installing OpenClaw
✓ Git already installed
· Installing OpenClaw v2026.3.12
✓ OpenClaw npm package installed
✓ OpenClaw installed

[3/3] Finalizing setup

🦞 OpenClaw installed successfully (OpenClaw 2026.3.12 (6472949))!
cracks claws Alright, what are we building?

· Starting setup

🦞 OpenClaw 2026.3.12 (6472949) — If you can describe it, I can probably automate it—or at least make it funnier.

▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄
██░▄▄▄░██░▄▄░██░▄▄▄██░▀██░██░▄▄▀██░████░▄▄▀██░███░██
██░███░██░▀▀░██░▄▄▄██░█░█░██░█████░████░▀▀░██░█░█░██
██░▀▀▀░██░█████░▀▀▀██░██▄░██░▀▀▄██░▀▀░█░██░██▄▀▄▀▄██
▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀▀
                  🦞 OPENCLAW 🦞

  安装时会检测NodeJS等组件,没有会自动下载,正常情况下不用翻墙,如果联网失败,就多试几次。安装完成后,提示继续设置。(参考https://bailian.console.aliyun.com/cn-beijing/?tab=doc#/doc/?...

◇  I understand this is personal-by-default and shared/multi-user use requires lock-down. Continue?
│  Yes

  Onboarding mode选择QuickStart。

◇  Onboarding mode
│  QuickStart

  Model/auth provider选择Skip for now。

◇  Model/auth provider
│  Skip for now

  Filter models by provider选择All providers。

◇  Filter models by provider
│  All providers

  Default model选择Keep current。

◇  Default model
│  Keep current (default: anthropic/claude-opus-4-6)

  Select channel选择Skip for now。

◇  Select channel (QuickStart)
│  Skip for now

  Search provider选择Skip for now。

◇  Search provider
│  Skip for now

  Configure skills now选择No。

◇  Configure skills now? (recommended)
│  No

  Enable hooks选择Skip for now。

◇  Enable hooks?
│  Skip for now

  How do you want to hatch your bot选择Hatch in TUI。

◇  How do you want to hatch your bot?
│  Hatch in TUI (recommended)

  配置完成后,可以看到提示信息。

openclaw tui - ws://127.0.0.1:18789 - agent main - session main

 session agent:main:main

 Wake up, my friend!

  此时没有将gateway安装为服务,使用“openclaw onboard --install-daemon”安装为服务,执行过程中会回顾之前的配置。

root@Thinkpad:~# openclaw onboard --install-daemon

🦞 OpenClaw 2026.3.12 (6472949) — Powered by open source, sustained by spite and good documentation.
…………
…………
…………
◓  Installing Gateway service…
Installed systemd service: /root/.config/systemd/user/openclaw-gateway.service
Previous unit backed up to: /root/.config/systemd/user/openclaw-gateway.service.bak
◇  Gateway service installed.
…………
…………
…………

  然后可以用“openclaw dashboard”启动dashboard。并记录下这里的Token。

root@Thinkpad:~# openclaw dashboard

🦞 OpenClaw 2026.3.12 (6472949) — I don't just autocomplete—I auto-commit (emotionally), then ask you to review (logically).

Dashboard URL: http://127.0.0.1:18789/#token=f47ac10b58cc4372a5670e02b2c3d4795df418813aed3515
Copy to clipboard unavailable.
No GUI detected. Open from your computer:
ssh -N -L 18789:127.0.0.1:18789 root@<host>
Then open:
http://localhost:18789/
http://localhost:18789/#token=f47ac10b58cc4372a5670e02b2c3d4795df418813aed3515
Docs:
https://docs.openclaw.ai/gateway/remote
https://docs.openclaw.ai/web/control-ui
root@Thinkpad:~# openclaw onboard --install-daemon

  使用浏览器打开“http://localhost:18789/”。如果浏览器无法连接这恶鬼地址,说明gateway没有启动,需要手工启动gateway。这里已经以服务形式启动了,所以提示端口已占用。

root@Thinkpad:~# openclaw gateway run

🦞 OpenClaw 2026.3.12 (6472949) — Making 'I'll automate that later' happen now.

14:49:47 Gateway failed to start: gateway already running (pid 596); lock timeout after 5000ms
If the gateway is supervised, stop it with: openclaw gateway stop
14:49:47 Port 18789 is already in use.
14:49:47 - pid 596 root: openclaw-gateway (127.0.0.1:18789)
14:49:47 - Gateway already running locally. Stop it (openclaw gateway stop) or use a different port.
14:49:47 Gateway service appears enabled. Stop it first.
14:49:47 Tip: openclaw gateway stop
14:49:47 Or: systemctl --user stop openclaw-gateway.service

4 配置OpenClaw

  购买阿里云百炼CodingPlan服务,Lite版每月40元就够用了。
  使用浏览器打开“http://localhost:18789/”。保存Token后会自动跳转到面板页面。在Web UI的左侧菜单栏中选择配置 > RAW(或Config > RAW)。首次配置:复制以下内容到Raw JSONS输入框,替换已有内容。已有配置:若需保留已有配置,请勿直接全量替换,详见已有配置如何安全修改?将YOUR_API_KEY替换为Coding Plan 专属 API Key。(内容参考https://bailian.console.aliyun.com/cn-beijing/?tab=doc#/doc/?...

{
  "models": {
    "mode": "merge",
    "providers": {
      "bailian": {
        "baseUrl": "https://coding.dashscope.aliyuncs.com/v1",
        "apiKey": "YOUR_API_KEY",
        "api": "openai-completions",
        "models": [
          {
            "id": "qwen3.5-plus",
            "name": "qwen3.5-plus",
            "reasoning": false,
            "input": ["text", "image"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 1000000,
            "maxTokens": 65536,
            "compat": {
              "thinkingFormat": "qwen"
            }
          },
          {
            "id": "qwen3-max-2026-01-23",
            "name": "qwen3-max-2026-01-23",
            "reasoning": false,
            "input": ["text"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 262144,
            "maxTokens": 65536,
            "compat": {
              "thinkingFormat": "qwen"
            }
          },
          {
            "id": "qwen3-coder-next",
            "name": "qwen3-coder-next",
            "reasoning": false,
            "input": ["text"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 262144,
            "maxTokens": 65536
          },
          {
            "id": "qwen3-coder-plus",
            "name": "qwen3-coder-plus",
            "reasoning": false,
            "input": ["text"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 1000000,
            "maxTokens": 65536
          },
          {
            "id": "MiniMax-M2.5",
            "name": "MiniMax-M2.5",
            "reasoning": false,
            "input": ["text"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 196608,
            "maxTokens": 32768
          },
          {
            "id": "glm-5",
            "name": "glm-5",
            "reasoning": false,
            "input": ["text"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 202752,
            "maxTokens": 16384,
            "compat": {
              "thinkingFormat": "qwen"
            }
          },
          {
            "id": "glm-4.7",
            "name": "glm-4.7",
            "reasoning": false,
            "input": ["text"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 202752,
            "maxTokens": 16384,
            "compat": {
              "thinkingFormat": "qwen"
            }
          },
          {
            "id": "kimi-k2.5",
            "name": "kimi-k2.5",
            "reasoning": false,
            "input": ["text", "image"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 262144,
            "maxTokens": 32768,
            "compat": {
              "thinkingFormat": "qwen"
            }
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "bailian/qwen3.5-plus"
      },
      "models": {
        "bailian/qwen3.5-plus": {},
        "bailian/qwen3-max-2026-01-23": {},
        "bailian/qwen3-coder-next": {},
        "bailian/qwen3-coder-plus": {},
        "bailian/MiniMax-M2.5": {},
        "bailian/glm-5": {},
        "bailian/glm-4.7": {},
        "bailian/kimi-k2.5": {}
      }
    }
  },
  "gateway": {
    "mode": "local"
  }
}

image.png
  保存并更新后,可以在面板的对话界面进行测试,如果AI可以回答问题了,说明配置成功。

5 配置QQ机器人

  在腾讯官方网站上(https://q.qq.com/qqbot/openclaw/index.html),创建机器人。需要手机QQ扫码登录。创建后会产生AppID和AppSecret。
  在WLS中安装qqbot插件。命令为“openclaw plugins install @tencent-connect/openclaw-qqbot@latest”

root@Thinkpad:~# openclaw plugins install @tencent-connect/openclaw-qqbot@latest

🦞 OpenClaw 2026.3.12 (6472949) — Half butler, half debugger, full crustacean.

Downloading @tencent-connect/openclaw-qqbot@latest…
Extracting /tmp/openclaw-npm-pack-upu88E/tencent-connect-openclaw-qqbot-1.5.7.tgz…
……
……
……
Installing to /root/.openclaw/extensions/openclaw-qqbot…
Installing plugin dependencies…
15:05:00 [plugins] plugins.allow is empty; discovered non-bundled plugins may auto-load: openclaw-qqbot (/root/.openclaw/extensions/openclaw-qqbot/index.ts). Set plugins.allow to explicit trusted ids.
Config overwrite: /root/.openclaw/openclaw.json (sha256 161846249db5f18e688d9d4038bdda9343ed504144da154a713a2ca35d1a04c6 -> 5157ac1b0126623a322d119bdb965570fa6fea6b1c70665d4e5b60246d1aba1a, backup=/root/.openclaw/openclaw.json.bak)
Installed plugin: openclaw-qqbot
Restart the gateway to load plugins.

  配置绑定当前QQ机器人,使用命令openclaw channels add --channel qqbot --token "AppID:AppSecret",其中AppID、AppSecret需替换为实际值。

root@Thinkpad:~# openclaw channels add --channel qqbot --token "278327832:a5670e02b2c3d479"
🦞 OpenClaw 2026.3.12 (6472949) — I'll do the boring stuff while you dramatically stare at the logs like it's cinema.
……
……
……
Config overwrite: /root/.openclaw/openclaw.json (sha256 5157ac1b0126623a322d119bdb965570fa6fea6b1c70665d4e5b60246d1aba1a -> 529ee83c14e2204063a5c9497694332008e8eaa6fe922c5506a5736e1a5a3683, backup=/root/.openclaw/openclaw.json.bak)
Added QQ Bot account "default".

  最后重启动gateway,命令为“openclaw gateway restart”。

root@Thinkpad:~# openclaw gateway restart
🦞 OpenClaw 2026.3.12 (6472949) — Alexa, but with taste.
……
……
……
Restarted systemd service: openclaw-gateway.service

  此时,可以通过之前扫码登录的QQ上,会出现机器人,通过与机器人对话,可以控制主机上的OpenClaw。
image.png

6 控制浏览器

  因为OpenClaw是装在WSL中的,不能直接控制Windows的浏览器需要安装插件。使用“openclaw browser extension install”安装插件,使用“openclaw browser extension path”获取插件的路径。

root@Thinkpad:~# openclaw browser extension install

🦞 OpenClaw 2026.3.12 (6472949) — Half butler, half debugger, full crustacean.
……
……
~/.openclaw/browser/chrome-extension
Copy to clipboard unavailable.
Next:
- Chrome → chrome://extensions → enable “Developer mode”
- “Load unpacked” → select: ~/.openclaw/browser/chrome-extension
- Pin “OpenClaw Browser Relay”, then click it on the tab (badge shows ON)

Docs: docs.openclaw.ai/tools/chrome-extension
root@Thinkpad:~# openclaw browser extension path

🦞 OpenClaw 2026.3.12 (6472949) — Built by lobsters, for humans. Don't question the hierarchy.

~/.openclaw/browser/chrome-extension
……
……

  在 Edge/Chrome 中加载扩展:浏览器打开 edge://extensions(或 chrome://extensions),开启"开发者模式",点击"加载解压缩的扩展",选择上面命令输出的路径,把扩展固定到工具栏。配置扩展:点击扩展图标,打开选项页,设置 Gateway token(如果没配置过,OpenClaw 会自动生成)。使用:打开你想让OpenClaw控制的标签页,点击扩展图标(徽章显示 ON 表示已连接),OpenClaw就可以帮你操作那个标签页了。
image.png

三个月前,一个技术群里有人发了条消息:

"我的 SSH Key 泄了,钱包助记词也没了。查了半天,是 OpenClaw 的一个 Skill 干的。"

群里瞬间安静了。

然后炸了。

"我也装了那个 Skill""我靠,就是下载量第一的那个?""赶紧查一下自己装了什么"——消息刷了三百多条。

这不是段子。2026 年 1 月,ClawHub 爆出了代号 ClawHavoc 的安全事件(CVE-2026-25253)。当时排名第一、下载量最高的 Skill,是一个精心伪装的恶意软件。它静默窃取 SSH Key、加密钱包助记词和浏览器 Cookie。

官方随后审计了全部 5705 个 Skills,下架了 2419 个。接近一半。

这件事之后,中文社区讨论"OpenClaw 装什么",答案第一条再也不是某个效率工具了。

而是一个安全扫描器。


今天这份清单,是我把社区榜单、实测反馈、以及 ClawHavoc 事件后的安全共识全部过了一遍之后,筛出来的 10 个。

不是"好用就推荐",而是"安全、好用、且有数据验证"才推荐

先花 30 秒搞懂一个概念👇

OpenClaw 是什么? GitHub 上 308,000+ Stars 的开源 AI Agent 框架,跑在你本地,能操作你的文件、终端、浏览器。Skills 就是它的 App Store——每个 Skill 是一个 Markdown 文件,教 Agent 怎么完成某类任务。官方市场 ClawHub 上目前有 3286 个(清理后),社区精选仓库 awesome-openclaw-skills⭐36,490

排序即推荐安装顺序。往下看。


1. Skill Vetter —— 安全底线,装什么都先过一遍它

clawhub install skill-vetter

适合谁: 所有人。没有例外。

ClawHavoc 之后,这个已经不是建议,是共识。

Skill Vetter 的工作方式很简单:你准备安装任何 Skill 之前,它先帮你扫一遍。查什么?代码结构、权限请求、网络行为、有没有混淆代码、有没有在偷偷读你的密钥文件。

它不是万能的。但它是成本最低的防线——就像出门锁门,不能防所有小偷,但不锁门的人一定最先出事。

⚠️ 装完 Skill Vetter 之后,再装下面 9 个。这个顺序很重要。

做到这一步,你已经比大多数"裸奔"用户安全了一个量级。


2. Self-Improving Agent —— 让你的 Agent 不再"每天失忆"

clawhub install self-improving-agent

适合谁: 重度用户。希望 Agent 越来越懂你的人。

ClawHub 全站 Star 数第一:⭐132,下载量 15,962+。

Star 数这个指标有意思。下载量高可能是标题党,Star 高说明的是:用了之后,觉得值得推荐给别人。

它解决的痛点你一定经历过——

你跟 Agent 说了三次"我用 pnpm 不用 npm"。第四次,它还是给你 npm install

因为 AI Agent 的记忆是会话级的。关了窗口,全忘了。

Self-Improving Agent 的做法是:把每次对话里的有效模式、你的偏好、犯过的错误,全部结构化地写入持久记忆。下次开对话,它先读一遍这些"笔记"。

这就好比你带了个实习生。没装这个 Skill,实习生每天都是第一天上班。装了之后,实习生开始记笔记了,而且每天翻看昨天的笔记再开工。


3. Capability Evolver —— Agent 自己知道自己缺什么

clawhub install capability-evolver

适合谁: 构建复杂工作流的开发者。

ClawHub 全站下载量第一:35,581+。

这个数字有点离谱,值得说清楚它到底在干什么。

普通 Agent 的能力边界是固定的——你给它装了什么,它就会什么。Capability Evolver 引入了一个自评估循环

Agent 完成任务后 → 分析哪些步骤效率低 → 识别能力缺口 → 尝试安装新 Skill 或调整策略来补上。

翻译成人话:它不只是干活,还会反思自己哪里不行,然后自己去学。

当然,现阶段这种"自主进化"还很粗糙。但它的实际价值在于:你不用手动去想"我的 Agent 还缺什么"——它自己会告诉你,甚至自己去装。

💡 建议 Self-Improving Agent + Capability Evolver 一起装。一个记住过去,一个面向未来。两个配合,Agent 的成长速度拉满。

4. Tavily Search —— 给 Agent 联网的能力

clawhub install tavily

适合谁: 所有需要 Agent 查资料的人。

OpenClaw 跑在本地,默认是"断网"的。它只知道你电脑上的事。

Tavily 不是套壳 Google。它是专门为 LLM 设计的搜索引擎。区别在哪?

用 Google 搜索给 Agent 用,它拿到的是一堆 HTML、广告、弹窗、JavaScript 渲染的内容。Agent 要先"消化"这些垃圾,再从里面找有用信息。每次搜索消耗大量 Token。

Tavily 返回的是干净的结构化摘要 + 来源链接。同一个搜索任务,Token 消耗可能只有传统方式的 1/3

"帮我查一下 React 19 的 breaking changes" "这个报错在 StackOverflow 上有解法吗" "最近有什么 AI 新论文值得看"——装了 Tavily,这些都能实时查。

⚠️ 需要 Tavily API Key。去 tavily.com 注册,免费版每月 1,000 次搜索,个人用够了。

装完这个,你的 Agent 从"闭门造车"变成了"能上网查资料的人"。


5. Summarize —— 一个链接进去,一份摘要出来

clawhub install summarize

适合谁: 信息过载的研究者、内容创作者、需要快速消化大量资料的人。

下载量 10,956+。

功能极其垂直:丢一个链接或文件进去,出来一份结构清晰的摘要。支持网页、PDF、YouTube 视频。

你可能会问:"这不就是让 AI 总结一下吗?我直接跟 ChatGPT 说也行啊。"

区别在于 Summarize 把这件事标准化了。不管输入是一篇学术论文、一个小时的 YouTube 访谈、还是一份 30 页的 PDF,输出格式一致、质量稳定。你不需要每次都写一段提示词告诉 AI "帮我总结,要分要点,要提取关键数据……"

用外卖比喻:你当然可以自己做饭,但点外卖的意义在于你不用每次都从头开始。

💡 配合 Tavily 使用效果更好:Tavily 搜到的文章,直接丢给 Summarize 出摘要。两步变一步。

6. Agent Browser —— 让 Agent 长出一双手

clawhub install agent-browser

适合谁: 需要自动化网页操作的用户。

下载量 11,836+,⭐43。 博客园霍格沃兹学社将其列为"新手 5 个必装之一"。

AI Agent 有一个天生的局限:它活在文本世界里。但现实世界里,大量操作只能在浏览器里完成——尤其是那些没有 API、只有网页界面的系统。

Agent Browser 让你的 Agent 能像人一样操作浏览器:打开网页、点击按钮、填写表单、截图、抓取数据。而且是确定性的,不是随机瞎点。

什么场景最需要它?

想想你公司那个"只有后台管理界面、什么 API 都没有"的内部系统。每天登录 → 点击 → 导出 → 下载 → 整理——这套操作你做了多少遍?

交给 Agent Browser。


7. Gog —— 一句话操控 Google 全家桶

clawhub install gog

适合谁: 重度 Google Workspace 用户。

下载量 14,313+,⭐48。 功能性 Skill 里下载量最高的之一。

一个 Skill 打通六个 Google 服务:Gmail、Calendar、Drive、Sheets、Docs、Contacts。

装完之后你可以说:

"帮我起草一封邮件给客户,说上周的项目进度,发出去,顺便在日历上标记下次跟进时间。"

这一句话,真的能执行了。不是"生成一段文字让你自己去发",是直接发了

⚠️ 需要 Google OAuth 授权。第一次配置跟着提示走就行,授权一次后面自动。

如果你的工作流建立在 Google 生态上,这个 Skill 的体感提升是即时的。装完第一天你就会用到。


8. GitHub —— 自然语言管理代码仓库

clawhub install github

适合谁: 开发者,维护开源项目的人,多仓库团队。

下载量 10,611+。 Composio 和 ClawOneClick 都将其列入 Top 10。

"哪些 PR 等着我 Review?""给这个 Issue 打个 bug 标签""CI 跑完了吗?""总结一下这个 PR 改了什么"——

这些操作你每天在 GitHub 上重复多少次?每次都要打开网页、点来点去、看半天。

装了这个 Skill,直接跟 Agent 说就行。它帮你查、帮你操作、帮你总结。

对于维护开源项目的人来说,这个 Skill 的价值会随着仓库数量指数级放大——管 1 个仓库感觉还好,管 5 个就知道它有多香了。


9. x-tweet-fetcher —— 免费抓取 X/Twitter 内容

clawhub install x-tweet-fetcher

适合谁: 内容研究者、社媒运营、竞品监控。

GitHub ⭐492。 工具类 Skill 里相当高的 Star 数。

2023 年之后,X(Twitter)的 API 收费变得离谱。免费额度几乎等于零。大量依赖推文数据的工具全部失效。

x-tweet-fetcher 用另一种方式解决了这个问题:无需 API Key,无需登录,直接抓取公开推文内容。支持长推文和 X Articles。

这不是"锦上添花"的功能。对于做内容研究或竞品监控的人来说,这是在填一个被堵死的刚需缺口

💡 配合 Summarize 使用:抓下来的推文直接生成摘要,做竞品分析效率翻倍。

10. model-hierarchy-skill —— 每月 API 账单直降 40%-60%

clawhub install model-hierarchy-skill

适合谁: 高频使用 Agent、API 账单让你肉疼的人。

GitHub ⭐329。 实测数据:API 成本降低 40%-60%

这个 Skill 的逻辑很简单,但省钱效果炸裂:

"帮我翻译这句话"和"帮我分析这份财报给出投资建议"——这两个任务消耗的算力凭什么一样?

model-hierarchy-skill 在你的请求到达模型之前,先评估任务复杂度,然后路由到合适的模型。简单任务走便宜的小模型,复杂任务才调用贵的大模型。

这就好比你出门不会每次都打专车。去楼下便利店买瓶水,骑个共享单车就够了。打车去机场才需要叫专车。

如果你每天高频使用 Agent,这个 Skill 的 ROI 可能是整份清单里最高的


一键安装,复制粘贴

怕你翻来翻去麻烦,全部汇总在这里:

# ⚠️ 先装安全工具
clawhub install skill-vetter

# 然后按顺序装
clawhub install self-improving-agent
clawhub install capability-evolver
clawhub install tavily
clawhub install summarize
clawhub install agent-browser
clawhub install gog
clawhub install github
clawhub install x-tweet-fetcher
clawhub install model-hierarchy-skill
注意:Tavily、Exa 等搜索类 Skill 需要各自的 API Key,第一次使用时会提示你配置。

社区推荐的安装顺序逻辑

不同榜单和社区讨论里有一个共识:

安全防线 → 自我进化 → 联网能力 → 浏览器操控 → 按需扩展

为什么这么排?

  • 安全工具是一切的前提——不装 Skill Vetter 就装别的,等于不锁门就出去旅游
  • 自我进化类装得越早,积累的经验越多——晚装一天就少学一天
  • 搜索和浏览器是 Agent 连接真实世界的基础设施
  • 剩下的按你自己的工作流来,用 Google 多就先装 Gog,写代码多就先装 GitHub

最后一句话

ClawHavoc 之后,社区里有一句话被反复引用:

"开源生态的代价,是你要自己承担安全责任。"

308,000 Stars 的框架、150 万+ 下载量的市场、36,490 Stars 的精选仓库——这些数字证明了生态的活力。而 CVE-2026-25253 证明的是:生态越繁荣,你越需要有自己的判断。

这份清单给你的不只是"装什么",而是"为什么装这个、不装那个"的逻辑。带着这个逻辑去 ClawHub 上看剩下的 3000 多个 Skills,比死记清单有用得多。

在 GPUStack 的实际部署中,经常会遇到一个问题:
离线环境如何准备完整的镜像?

GPUStack 的核心服务镜像实际上只有一个:gpustack/gpustack
无论是 Server 还是 Worker 节点,运行的都是这个主镜像。

但在模型推理时,GPUStack 会根据所使用的 GPU 类型、计算框架以及推理后端,自动拉取对应的 运行时镜像(Runner)。在在线环境中,这些镜像可以按需自动下载;而在 离线或内网环境 中,如果提前不知道需要哪些镜像,就可能在部署过程中反复补充镜像,影响部署效率。

为了解决这个问题,我们在官方文档中提供了一个网页工具:

GPUStack 容器镜像选择器(Container Image Selector)

通过简单的选项选择,就可以 动态生成所需的 GPUStack 镜像列表,方便提前准备离线部署所需的镜像。

打开 GPUStack 容器镜像选择器

打开 GPUStack 官方文档:

https://docs.gpustack.ai

在顶部导航栏中,可以看到新增的 Container Image Selector 菜单。

桌面端界面:

移动端界面:

点击该菜单即可进入镜像选择工具,也可以直接访问:

https://docs.gpustack.ai/latest/image-selector/

进入 GPUStack 容器镜像选择器 页面。

切换中文界面

首次打开页面时默认是英文界面,可以在右上角语言菜单切换为 简体中文

切换为中文后,还会显示 国内镜像源选项,方便在国内网络环境中准备镜像。

配置镜像选择条件

通过几个常见的部署参数,即可生成对应的镜像列表。

GPU 类型

默认选择 NVIDIA

如果使用其他硬件平台,可以在这里进行选择。

计算框架版本

默认选择 最新版本

昇腾计算框架版本区分芯片类型,同一框架版本在不同芯片上对应不同镜像,请根据实际芯片型号选择对应镜像。

例如:计算框架 CANN 8.5 根据芯片不同,分为 CANN 8.5 (910b)CANN 8.5 (a3),以及 CANN 8.5 (310p)

如图所示:

驱动版本要求说明

不同计算框架版本对底层驱动版本有明确要求。部署 GPU 推理环境时,需要确保驱动版本满足对应框架版本的最低要求,否则可能出现容器无法启动、GPU 无法识别或推理异常等问题。

下面以 NVIDIA CUDA昇腾 CANN 为例说明常见版本的驱动要求。

NVIDIA CUDA 与驱动版本要求

CUDA 版本推荐驱动版本(Linux)
CUDA 12.9≥ 575
CUDA 12.8≥ 570
CUDA 12.6≥ 560

说明:

  • CUDA 程序运行需要兼容的 NVIDIA 驱动版本。
  • 新版本驱动通常向下兼容旧 CUDA 版本。

昇腾 CANN 与驱动版本要求

CANN 版本推荐昇腾 NPU Driver
CANN 8.525.5.0
CANN 8.325.3.0
CANN 8.225.2.0

说明:

  • 昇腾计算框架 CANN 需要匹配对应版本的 昇腾 NPU Driver
  • Driver 与 CANN 通常需要保持官方推荐组合,否则可能出现算子或运行时异常。

推理后端

推理后端按 最新版本排序。如果不选择,则默认显示全部可用后端。

目前内置推理后端包括例如:

  • vLLM
  • SGLang
  • MindIE
  • VoxBox

如果未找到所需的内置推理后端或对应版本,可以尝试 切换到较低版本的计算框架。一般来说,较高版本的 GPU 驱动能够兼容运行较低版本的计算框架

可选镜像

默认使用 GPUStack 内置镜像

服务器架构

服务器架构会根据硬件给出默认值:

  • 昇腾 GPU:默认 ARM64
  • 其他 GPU:默认 AMD64

如果服务器架构不同,也可以手动修改。

镜像源

默认镜像源为 Docker Hub

在中文界面下,还可以选择 国内镜像源,用于加速镜像准备。

查看生成的镜像列表

根据所选择的条件,页面会 动态生成对应的镜像列表,并且提供了拆分后 Server 节点和 Worker 节点所需的镜像列表。

这些镜像就是在运行 GPUStack 与模型推理过程中需要使用的镜像。

对于离线部署环境,可以提前将这些镜像准备好并导入到目标环境中。

镜像准备参考命令

页面底部提供了 离线部署相关的镜像准备命令和文档说明

小结

GPUStack 在运行时会根据模型和推理后端自动拉取运行时镜像。在在线环境中,这一过程通常是自动完成的;而在离线或内网环境中,提前准备所需镜像就变得十分重要。

GPUStack 容器镜像选择器提供了一种简单的方法:通过常见的部署参数组合,生成对应的镜像列表,帮助用户更清晰地了解需要准备哪些镜像,从而减少离线部署过程中反复补充镜像的情况。

工具地址:

https://docs.gpustack.ai/latest/image-selector/

🙌 加入 GPUStack 社区

如果你已经开始使用 GPUStack,
或者正在探索 本地大模型 / GPU 资源管理 / AI Infra
欢迎加入我们的社区交流群,一起交流实践经验、踩坑记录与最佳方案。

社区群二维码

👉 社区入口(持续更新)
https://github.com/gpustack/gpustack/blob/main/docs/assets/wechat-group-qrcode.jpg

数字化商业体系下,为企业网站部署数字证书,启用HTTPS加密,做网站安全防护,已经成为毫无争议的基本操作。尤其是网络上各种数据泄露事件不断、信息窃取新闻频发,更是坚定了企业维护网站安全的决心。然而,在面对免费证书与付费OV证书时,仍有诸多企业陷入挣扎:都是数字证书,免费的SSL真的不能满足企业需求吗?OV证书真的就是值得企业额外投入预算?其所产生的价值是否能挽回投入的成本?对此,JoySSL市场高级研究顾问深有感触,他表示,对于任何已经进入商业化运作,拥有大量用户数据且珍视品牌形象与声誉的企业来说,投资OV证书绝不是一项有去无回的成本支出,而是一次回报率极高的信任投入。OV证书相比于免费的DV证书,早已超越基础的安全加密,建立身份确权与品牌信任背书,为企业带来更高更稳定的商业回报。

免费证书局限 匿名缺陷引发系列危机

虽然DV证书可以以零成本实现基础加密,消除浏览器的不安全警示。但在商业环境中,天然的局限性暴露出免费证书的致命缺陷。由于免费证书不验证实体,导致无法应对钓鱼仿冒手段,从而引发信任危机。
此外,免费证书的签发机构不会为证书可能存在的风险提供担保。一旦出现网络安全事故,企业将独自面对诉讼、罚款及品牌声誉受损带来的损失。在面对深度信任场景时,免费证书依然不能打消客户疑虑。

OV证书价值 超越加密 信任直线升级

从加密到身份,OV证书完成了跨越级的转变。权威身份验证机制,确保证书持有者是真实存在的法律主体,用户可随时查验身份信息,同时无法伪造,从根本上断绝了仿冒行为和钓鱼攻击。

面对可能存在的安全风险,OV证书附带高额度责任保障,为企业增添一份网络安全保障,也是对企业做出的赔偿承诺。一张经过身份验证的OV证书,可有效建立信任传递,消除用户疑虑,降低决策风险,从而提升线上转化率与客户忠诚度。

投资回报分析 规避风险提升品牌信任

JoySSL技术专员指出,若将OV证书的投入与回报进行量化分析,其价值清晰可见。其一,可有效规避风险。一次数据泄露造成的直接损失,可能就高达数百万,品牌影响导致的损失更是严重。相比之下,对OV证书的投入几乎可以忽略不计。其二,经验证的企业身份,是获取品牌信任的有效方式,是驱动业务长期增长的持久动力。其三,OV证书满足行业监管基线,在电商、金融等领域更容易抓住商业机遇。

选择OV证书 助力企业赢得数字未来

如果企业致力于成为一个长久稳定发展、获取客户信赖,建立和维持品牌形象的公司,选择回报率极高的OV证书,就是一项十分值得的战略投资。在数字化浪潮的趋势下,OV证书可以为企业提供更多的发展契机,率先抓住商机,赢得数字未来,以可信的身份坐标获得持久的商业成功。

大家 token 都是怎么来的,买的还是白嫖 😂,openclaw 太费 token 了,一个任务一百万

很多 3A 大作能叫好叫座的原因有优秀的画质以及剧情+操作体验带来特有的多巴胺分泌。

但也有很多小游戏、独立游戏也能风靡全球,我总结出来的一个特点就是“化学反应”。这个特性的游戏从《吸血鬼生存者》、《土豆兄弟》慢慢铺展开来,现在有了《杀戮尖塔 1、2》、《小丑牌》、《潜水员戴夫》以及现在的稍微大点的网游《LOLM:符文大乱斗》、《海克斯大乱斗》,他们都有共同点是游戏内存在随机事件,每次游戏都会有不同的体验。

这些游戏不能用一个类型来代表,但可以用一些共有特性来分析。所以有 2 友想开发游戏可以朝这个方面研究一下,我不是游戏开发者,我是一个打游戏的哈哈force_smile,小小见解,欢迎讨论。

开发者朋友们大家好:

这里是 「RTE 开发者日报」,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real-Time Engagement) 领域内「有话题的技术」、「有亮点的产品」、「有思考的文章」、「有态度的观点」、「有看点的活动」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。

本期编辑:@koki、@鲍勃

01 有话题的技术

1、Reka Edge:首包延迟 0.5s、吞吐翻倍的 7B 视觉模型,以 1/3 Token 占用冲击端侧物理 AI

Reka 正式推出下一代端侧视觉语言模型 Reka Edge。该模型采用 7B 参数量级,核心针对物理 AI(Physical AI)、机器人、无人机及移动端等受限环境优化,通过极高的 Token 效率实现了低延迟的视频流分析与物体检测。

  • 架构优化与 Token 效率

Reka Edge 弃用了传统的视觉编码方案,转而采用基于 ConvNeXt V2 的全卷积视觉编码器(657M 参数),配合从零训练的 6.4B Transformer 推理骨干网。该架构针对高分辨率数据进行了瓦片化(Tile)优化,单张图像块仅产生 64 个 Token。在处理 1024x1024 像素图像时,其输入 Token 量仅为同类模型的 1/3,显著降低了上下文窗口占用并提升了推理速度。

  • 性能基准与核心指标

在多项物理 AI 与视觉理解评测中,Reka Edge 表现优于 Qwen3.5 9B 及 Cosmos Reason2 8B,并在视频理解指标上接近参数量大得多的 Gemini 3 Pro。关键指标显示:其在 MLVU Test 与 MMVU 视频分析中处于行业领先地位;在 RefCOCO 物体检测基准上表现强劲;并在 Mobile Actions 评测中展现了端侧自主系统所需的工具调用(Tool-use)能力;同时具备更低的幻觉率与更强的对抗样本抗性。

  • 部署与量化规格

模型支持灵活的端云部署,尤其针对 VRAM 受限场景提供了深度量化方案。通过 4-bit 量化,显存占用从 13GB 降至 5GB(降幅 62%),且保留了 98% 以上的原始性能,吞吐量提升达 2.3 倍。此外,官方还提供专有的 Reka Quant 3.5-bit 模式,进一步压缩存储空间以适配超低功耗设备。

( @RekaAILabs\@X)

2、谷歌发布 Gemini Embedding 2 原生多模态嵌入模型,延迟骤降 70%

谷歌宣布推出全新的多模态嵌入模型 Gemini Embedding 2,这是首个基于 Gemini 架构构建的原生多模态嵌入模型。目前,该模型已经通过 Gemini API 和 Vertex AI 向开发者提供公开预览。

与此前仅支持文本向量化的嵌入模型不同,Gemini Embedding 2 可以将文本、图像、视频、音频以及文档等多种数据类型映射到同一个统一的嵌入空间,从而支持跨媒体语义理解与检索。这一能力意味着开发者可以在同一向量数据库中处理不同类型的数据,并基于语义相似度实现跨模态搜索、分类与聚类。

在能力规格上,Gemini Embedding 2 延续了 Gemini 系列模型的多模态处理优势,并对不同输入类型提供了明确的支持范围。

  • 文本:支持最多 8192 个输入标记的扩展上下文
  • 图像处理:每次请求最多可处理 6 张图像,支持 PNG 和 JPEG 格式
  • 视频:支持输入最长 120 秒的 MP4 和 MOV 格式视频
  • 音频:原生支持音频数据的导入和嵌入,无需中间文本转录。
  • 文档:直接嵌入最多 6 页的 PDF 文件

除了单模态处理能力之外,Gemini Embedding 2 还原生支持交错输入(interleaved input)。开发者可以在同一个请求中同时传入多种模态,例如「图片 + 文本描述」或「视频 + 文本提示」。模型会在生成向量表示时综合不同媒体之间的关系,从而捕捉更复杂的语义结构。例如,在电商或媒体分析场景中,系统可以同时理解商品图片与描述文本之间的关联。

参考链接:
https://x.com/GoogleAIStudio/status/2031421162123870239

( @InfoQ)

3、英伟达发布并开源混合架构大模型 Nemotron 3 Super

英伟达正式发布 Nemotron 3 Super,这是一个拥有 120B 总参数、12B 激活参数的混合专家模型(MoE)。该模型专门针对 Blackwell 架构优化,旨在解决自主智能体(Autonomous Agents)在长程任务中面临的「上下文爆炸」与「推理成本(Thinking Tax)」瓶颈。目前该模型已在 Hugging Face、Perplexity 等平台上线。

混合架构与算力表现

  • 混合架构(Hybrid Architecture):创新性地集成了 Mamba 层Transformer 层,前者将内存与计算效率提升 4 倍,后者确保深度推理能力。
  • 潜在专家混合(Latent MoE):采用新技术,在不增加推理成本的前提下,通过激活 4 个专家模块生成下一 Token,显著提升生成精度。
  • 多 Token 预测(Multi-Token Prediction):并行预测多个未来词,使推理速度提升 3 倍。
  • Blackwell & NVFP4 优化:在 Blackwell 平台上支持 NVFP4 精度运行,推理速度较 Hopper 平台(FP8)提升 4 倍且无精度损失。

针对智能体流的工程优化

  • 百万级长上下文:具备 1M Token 上下文窗口,可一次性加载完整代码库或数千页财务报告,有效避免多 Agent 协作中常见的「目标漂移(Goal Drift)」。
  • 解决上下文爆炸:针对多 Agent 场景中 Token 消耗较普通对话高出 15 倍的特性,Nemotron 3 Super 通过混合架构实现了 5 倍的吞吐量提升。
  • 高精度工具调用:针对大规模函数库(Function Libraries)优化了调用准确性,确保在网络安全、半导体设计等高壁垒领域的可靠执行。

HuggingFace 链接:
https://huggingface.co/nvidia/NVIDIA-Nemotron-3-Super-120B-A1...

Blog 链接:
https://blogs.nvidia.com/blog/nemotron-3-super-agentic-ai/

(@橘鸦 Juya)

4、复旦等研究团队推出「第一人称视听基准」,补齐多模态模型「听觉拼图」

来自复旦大学,上海创智学院,INSAIT,华东师范大学,南开大学的研究团队,提出了首个系统评测第一人称声音理解能力的基准:EgoSound: Benchmarking Sound Understanding in Egocentric Videos

这是首个专门面向 MLLMs 的第一视角「声音理解」评测体系。目标很明确:让模型在真实世界中,能听见、理解、推理,并解释发生的一切。

以往的 egocentric VideoQA,更像一个「静音观察者」。它擅长回答:画面里有什么?人在做什么?却很难处理:谁在说话?为什么说?这个声音意味着什么?声音与动作如何形成因果链?

因此,EgoSound 关注的不是「视频里有什么」,而是:当声音成为关键证据时,模型还能不能答对

研究团队评测了多款 SOTA MLLMs,并进行系统分析,给未来方法研究提供清晰靶点。同时构建并筛选高质量 OpenQA 并借助多个强模型辅助标注。最终保证:每条问题都绕不开「听觉线索」。

评测结果非常直观,最强模型与人类差距超过27 个点说明:当前模型还无法稳定把声音转化为可靠认知。

人类平均准确率:83.9%

当前最佳模型:56.7%(Qwen3-Omni-Thinking-30B)

如果说过去的多模态模型更像一个擅长「看图说话」的解说员,那么 EgoSound 希望推动它成为真正的第一人称智能体:

既能看,也能听;不仅能描述,更能定位、解释与推断。

毕竟,真实世界从不静音。

(@量子位)

02 有亮点的产品

1、前 NotebookLM 团队成员项目:个性化自适应学习引擎 Wondering 开启早鸟测试

前 NotebookLM 团队成员 Cheng-Wei Hu 正式发布 Wondering 应用,定位为「全领域的 Duolingo」。

该平台旨在将任意垂直领域的复杂课题转化为颗粒度极小的视觉化引导路径,通过自适应引擎解决知识吸收效率与长程记忆留存的平衡问题,将多模态视觉内容与结构化教学路径结合,使用户能够在零碎时间内完成深度课题的闭环学习。

Wondering 的底层逻辑由三个核心技术维度支撑:

  • 自定义模式:允许用户自定义知识图谱的深入程度、内容难度分级。以及个性化偏好权重,实现学习路径的动态生成。
  • 主动学习机制:集成实时测试与练习工具,强制执行知识检索(Retrieval Practice)而非被动信息获取,确保理解力的工程化验证。
  • 长程掌握算法:针对长期记忆曲线设计的算法模型,重点解决非线性学习场景下的知识衰减问题。

目前系统处于限量早期测试阶段,支持跨平台同步(App Store 及 Web 端)

https://wondering.app/

( @HcwXd@X)

2、前快手语言大模型中心负责人张富峥,已加入智源人工智能研究院,负责 LLM 方向

据报道,前快手语言大模型中心负责人张富峥已加入北京智源人工智能研究院,负责 LLM 方向。张富峥博士长期深耕大模型、自然语言处理、知识图谱和搜索推荐等 AI 领域,曾在快手任 General Manger 及语言大模型中心负责人,负责 Klear 系列大模型的技术建设及相关业务应用。

加入快手之前,他是美团点评 NLP 中心的研究员,带领知识图谱团队负责构建围绕美团生活服务领域的知识图谱及其应用,为美团各场景业务提供更加智能的服务。更早前,他曾在微软亚洲研究院担任研究员。

(@雷锋网)

3、ChatGPT 发布动态视觉解释功能,支持 70 余项数理化公式实时交互

近日,ChatGPT 推出了动态可视化解释(interactive visual explanations)功能,便于用户实时查看公式、变量和数学关系的变化。

用户现在无需再阅读文字说明或查看静态图表,而是可以直接与交互式可视化内容互动。 例如,当用户向 ChatGPT 询问「什么是勾股定理」时,它就能进行解释并提供交互式可视化模块,用户可以调整变量、修改公式参数,并能实时看到这些更改如何影响图表和结果——将抽象的方程式转化为可以直接进行可视化实验的对象。

据介绍,动态可视化讲解功能涵盖 70 多个核心数学和科学概念(包括平方差、圆的面积、勾股定理、线性方程等),实时展示公式、变量和关系的运行方式,引导学习者理解,并面向所有已登录 ChatGPT 的用户开放。

OpenAI 计划未来扩展此功能,使其涵盖更多主题:「这仅仅是个开始。未来,我们计划将互动式学习扩展到更多学科,并继续开发能够强化 ChatGPT 学习效果的工具。」 这项新功能与 ChatGPT 近期推出的其他教育工具(例如学习模式)相辅相成,其学习模式可以引导用户逐步解决问题。

(@多知)

03 有态度的观点

1、Meta 称上传盗版电子书属于合理使用

为训练大模型,社交巨人 Meta 从 Z-Library 和 LibGen 等影子图书馆平台通过 BitTorrent 下载了逾百 TB 的电子书。

在正在进行的由图书作者提起的诉讼中,Meta 律师辩称,通过 BitTorrent 将盗版电子书上传给陌生人属于合理使用。Meta 还强调,这些数据帮助美国确立了其在全球 AI 领域的领先地位

法庭去年裁决,使用盗版电子书训练大模型属于合理使用,但 Meta 仍然需要为通过 BitTorrent 下载和分享电子书的行为承担责任。

图书作者认为,Meta 参与了侵权行为。Meta 在上周递交的补充书面询问中表示,在下载 BT 文件过程中共享文件也属于合理使用,理由是这是 BT 协议的固有特性,上传不是选择而是技术本身的工作方式。

Meta 还辩称,使用 BitTorrent 共享文件是获取这些宝贵(但盗版)数据的必要手段。以 Anna’s Archive 为例,这些数据集只能通过 BT 下载获取,因此 BitTorrent 是唯一的选择。

( @solidot.org)

04 社区黑板报

招聘、项目分享、求助……任何你想和社区分享的信息,请联系我们投稿。(加微信 creators2022,备注「社区黑板报」)

1、Physical AI 系列活动硅谷站!探讨和上手全模态与硬件智能丨 Meetup+Workshop,3 月 19 日

湾区硅谷的开发者和创业者们,3 月 19 日见!

GTC 期间,来一场动脑又动手的 Physical AI 全天候嘉年华!同一场地,两场硬核活动无缝衔接:

🌅 上午 09:30|Meetup:对话真实世界

Agora | RiseLink | MiniMax | HumanTouch | EverMind | Resonance Ventures 等大咖齐聚,拆解全模态与端侧智能的机会与未来。

🛠 下午 13:30|Workshop:手搓语音 AI 硬件

基于 TEN 框架,实操接通语音 AI Agent。重点来了👉现场备有 40 套 Agora R1 开发板,代码跑通直接把硬件带回家!

上下午活动需分开独立报名,名额有限,拼手速:

上午 Meetup 报名:
https://luma.com/8we6qyma

下午 Workshop 报名:
https://luma.com/onc0xr9y

地点:Sunnyvale (审核后发具体定位)

阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么

写在最后:

我们欢迎更多的小伙伴参与 「RTE 开发者日报」 内容的共创,感兴趣的朋友请通过开发者社区或公众号留言联系,记得报暗号「共创」。

对于任何反馈(包括但不限于内容上、形式上)我们不胜感激、并有小惊喜回馈,例如你希望从日报中看到哪些内容;自己推荐的信源、项目、话题、活动等;或者列举几个你喜欢看、平时常看的内容渠道;内容排版或呈现形式上有哪些可以改进的地方等。

作者提示: 个人观点,仅供参考

在硬件、先进制造与高科技领域,集成产品开发(IPD)已从一套理论框架演变为企业生存和发展的核心引擎。然而,将 IPD 流程从墙上的流程图变为团队日常的肌肉记忆,需要匹配的数字化工具来承载。本文旨在为非技术背景的决策者,深度剖析两款主流工具——飞书项目 IPD 专版与 Teambition(钉钉项目),如何以不同哲学应对 IPD 落地挑战。我们将摒弃逐条的功能比对,聚焦于两者核心优势、适配场景及采购建议,助您洞察何者能真正驱动您的产品研发体系。

一、飞书项目 IPD 专版:为复杂硬件而生的“原生” IPD 引擎

飞书项目 IPD 专版给人的第一印象是强烈的“目的性”和“原生感”。它并非一个通用项目工具的简单扩展,而是从设计之初就深度对标了 IPD 框架的核心理念,特别是针对硬件、整车、医疗器械等具有长周期、高风险、重合规特征的行业。它的逻辑起点不是“任务”,而是“价值流”,旨在将 IPD 的结构化流程在线上“复现”并驱动执行。

核心优势:“在线”即“在场”的流程与协同

1. 可视化的端到端流程引擎与“原生” IPD 模型

飞书项目 IPD 专版的核心是其可视化的流程引擎,尤其是为 IPD 定制的泳道图(WBS 计划表)。它将 IPD 的阶段(如概念、计划、开发、验证、发布)和跨职能角色(如 PDT、市场、研发、测试、供应链)以矩阵形式呈现,清晰地展示了“谁在哪一阶段做什么”。

这种“原生感”体现在:

  • 内置 IPD 核心概念:系统原生支持阶段(Phase)、关口(Gate)、技术评审(TR)、决策评审(DCP)等 IPD 术语和模型。用户无需通过复杂的自定义来“模拟”这些概念,降低了落地门槛。
  • 里程碑与交付物强关联:每个关键里程碑(如 TR4 评审通过)都强制与具体的交付物清单挂钩。交付物未完成,里程碑状态无法更新,流程“卡点”一目了然。这解决了 IPD 实践中“流程归流程,交付归交付”的普遍痛点。
  • 版本追溯与过程资产沉淀:所有评审记录、交付物版本、变更历史都与项目流程紧密绑定,形成可审计的过程资产。当需要追溯某个设计决策或应对合规审查时,能够快速还原完整上下文。

2. 评审、交付物与过程资产的深度闭环

IPD 的精髓在于通过严格的评审来管理不确定性。飞书项目将这一精髓工具化,实现了从评审要素、问题跟进到结论的闭环管理。

  • 标准化的评审要素库:企业可将不同 TR/DCP 关口的评审检查项(Checklist)沉淀为标准模板,在新项目中一键调用。
  • 评审问题在线追踪:评审中发现的问题可当场创建为带状态的“问题”工作项,指派给专人,并与本次评审关联。问题不清零,评审结论无法关闭,确保了问题的闭环。
  • 交付物模板化与 AI 预检:如阿维塔汽车的实践所示,近 1500 项关键交付物的清单、模板和责任人可在项目启动时自动生成,并关联到计划节点。AI 甚至能对交付物进行预检,提升提交质量。

3. 与飞书生态无缝融合的“在场感”协同

如果说流程是骨架,那么协同就是血液。飞书项目的最大优势之一,是其与飞书 IM、文档、日历、会议等原生集成带来的“在场感”协同。

  • “事找人”的自动化通知:当一个节点的交付物被驳回,或一个关键风险被识别时,系统能自动在项目群中 @ 相关责任人并同步上下文,甚至自动创建日历提醒和会议邀约。信息不再需要“人肉”传递。
  • 文档即协同界面:产品需求文档(PRD)、技术规格书等可以直接在飞书项目的工作项中创建、评论和流转。文档的讨论区就是项目沟通的一部分,避免了信息割裂。
  • 跨团队的无缝穿透:借助飞书的企业互联能力,可以实现与供应链上下游企业的项目协同,将外部伙伴也纳入到统一的研发节奏中。

4. 灵活的数据度量与智能决策支持

飞书项目将项目中的一切元素(需求、任务、缺陷、风险、工时)都视为可度量的数据。管理者可以基于这些实时数据,自定义搭建多维度的“管理驾驶舱”,用于支撑 IPMT(集成组合管理团队)的决策。例如,可以实时监控各产品线的资源投入情况、项目延期风险趋势、关键交付物的完成率等,从而进行更科学的投资组合决策和资源调配。

适配场景与采购建议

适配团队/行业- 硬件/先进制造/高科技行业:尤其适合智能汽车、消费电子、医疗器械、半导体等产品结构复杂、研发周期长、合规要求高的企业。
- 已导入或正在导入 IPD 体系的组织:需要将理论框架工具化、流程化,并希望降低落地与培训成本的团队。
- 组织规模:中大型企业或高速成长的中型企业,特别是拥有多个产品线、跨地域研发中心和复杂供应链协同需求的企业。
实施与落地要点- 需要有专门的流程 IT 或 PMO 团队牵头,将企业现有的 IPD 流程与飞书项目的能力进行匹配和配置。
- 初期可选择一个试点产品线或项目进行实践,沉淀出标准化的流程模板和交付物模板,再逐步推广。
- 充分利用飞书生态的协同优势,将 IM、文档等协同习惯与项目管理流程深度融合。
采购关注点- 版本选择:必须选择“行业专版”才能获得泳道图、评审管理、交付物管理等完整的 IPD 核心能力。
- 生态价值:评估团队是否已在使用或计划迁移到飞书生态。其价值与飞书全家桶的绑定程度较高。
- 咨询与服务:对于 IPD 成熟度不高的企业,可考虑配合飞书官方或生态伙伴提供的 IPD 咨询服务,实现“咨询+工具”打包落地。

推荐阅读

二、Teambition(钉钉项目):从敏捷协同演进的“柔性” IPD 适应器

与飞书项目的“原生 IPD”定位不同,Teambition 的基因源于敏捷项目协作和通用任务管理。在并入钉钉生态后,它正逐步通过“钉钉项目”这一形态,向更广泛、更复杂的项目管理场景渗透,包括 IPD。因此,理解 Teambition 对 IPD 的支持,关键在于理解其“非原生感”背后的“柔性”与“生态依赖”。它并非提供一套开箱即用的 IPD 标准模型,而是提供强大的自定义能力和连接器,让企业在钉钉的底座上“搭建”出适配自身的 IPD 流程。

核心优势:灵活性、开放性与钉钉生态的深度整合

1. 高度灵活的自定义能力与工作流自动化

Teambition 的核心是其灵活的工作项(任务、需求、缺陷等)自定义能力。企业可以从零开始定义一个“TR 评审”工作项,包含所需的字段(如评审结论、遗留问题)、流转状态(如待评审、评审中、已通过),并配置相应的工作流。

这种“非原生感”的优势在于其极高的灵活性

  • 不被标准束缚:对于 IPD 流程尚不成熟,或希望采用“敏捷+IPD”混合模式的团队,可以不必遵循严格的阶段-关口模型,而是按需搭建轻量级的流程。
  • 强大的工作流自动化(WFA):Teambition 允许用户通过图形化界面创建复杂的自动化规则。例如,“当‘TR4 评审’任务状态变更为‘已通过’时,自动将下游所有‘模块开发’任务的状态更新为‘待开发’”。这使得企业可以自行“编排”出符合 IPD 逻辑的流程联动。
  • “搭积木”式的流程构建:企业可以像搭积木一样,将任务、审批、数据连接等原子能力组合起来,构建出独具特色的 IPD 流程,更好地适应自身业务的独特性。

![图片:Teambition UI 1]

2. 以“项目集”与“甘特图”实现多项目统筹

面对 IPD 涉及的多项目、多层级管理,Teambition 提供了项目集跨项目甘特图等能力,实现了对产品组合的宏观掌控。

  • 项目集管理:可将一个产品线下的所有关联项目(如硬件开发项目、软件迭代项目、市场推广项目)归入一个项目集,统一查看整体进度、资源负载和关键里程碑。这为 IPMT 提供了产品组合的全局视图。
  • 资源管理与规划:通过资源视图,管理者可以了解团队成员在不同项目中的工时分配情况,从而进行更合理的资源规划和调度,避免资源瓶颈。
  • 全景图与依赖关系:在项目集层面,可以通过“全景图”清晰地展示项目间的依赖关系和关键路径,帮助管理者识别跨项目风险。

3. 深度融入钉钉生态,打通组织与业务

Teambition 作为“钉钉项目”,其最大的差异化优势在于与钉钉审批、IM、文档、连接器等能力的深度融合。

  • 与钉钉审批结合:IPD 中的 TR/DCP 决策评审,可以直接与钉钉审批打通。评审单可以按照预设的审批流在钉钉内流转,决策过程全程留痕,且符合企业的统一审批规范。
  • 低代码/无代码连接:借助钉钉的“连接平台”,Teambition 可以与其他业务系统(如 ERP、CRM)轻松打通。例如,可以实现“当 ERP 中某个物料到货后,自动更新 Teambition 中对应硬件开发任务的状态”,实现业务与项目管理的联动。
  • 统一的组织协同入口:所有项目通知、任务提醒、审批待办都汇集在钉钉中,为员工提供了统一的工作入口,降低了在不同系统间切换的成本。

![图片:Teambition UI 2]

4. 数据驾驶舱与智能分析

与飞书项目类似,Teambition 也提供了强大的数据统计和可视化能力。用户可以基于项目数据,自定义创建多种报表和图表(如燃尽图、缺陷分布图、工时统计图),构建“数据驾驶舱”。这使得团队可以对项目健康度进行量化分析,用数据驱动决策和持续改进。

适配场景与采购建议

适配团队/行业- 已深度使用钉钉生态的企业:希望在统一的钉钉平台上完成项目管理与业务协同闭环,降低系统集成与员工学习成本。
- 流程多变或处于探索期的团队:需要高度灵活性和自定义能力来构建贴合自身业务的“非标” IPD 流程,或采用“敏捷+IPD”混合模式。
- 软件、互联网属性较强的硬件企业:这类企业通常已经具备一定的敏捷开发基础,希望将敏捷实践与 IPD 的结构化框架相结合。
实施与落地要点- 需要有熟悉业务流程和 Teambition 配置能力的专家进行“流程建模”,将 IPD 理念转化为具体的工作项类型、工作流和自动化规则。
- 实施初期,重点在于打通与钉钉审批、IM 和其他关键业务系统(通过连接器)的集成,发挥其生态优势。
- 充分利用其模板市场,寻找或创建适合本行业的 IPD 项目模板,以加速新项目的启动。
采购关注点- 与钉钉的绑定关系:Teambition 的核心价值很大程度上依赖于钉钉生态。如果企业未使用钉钉,其吸引力会大打折扣。
- 自定义与维护成本:高度的灵活性也意味着更高的初始配置和后期维护成本。企业需要评估自身是否有能力承担这部分“隐性”投入。
- “非原生”的权衡:需要明确接受其“非原生”的特性,即它不提供教科书式的 IPD 模型,而是提供一套强大的“积木”,需要企业自行搭建。

三、试用场景推荐与边界分析

在工具选型时,没有绝对的“最优”,只有“最适”。以下通过两个真实场景,帮助您判断何种工具更贴合您的当前需求。

场景一:大型医疗器械企业的“合规驱动型” IPD 体系建设

一家领先的医疗设备制造商,其产品(如 MRI、手术机器人)属于三类医疗器械,面临 NMPA、FDA 等全球多地市场的严格监管。其 IPD 流程不仅要管理研发进度,更核心的目标是确保全流程的合规性、可追溯性与风险可控

核心诉求

  • 流程强管控:必须严格执行概念、计划、开发、验证、注册、发布等阶段,每个阶段的准入准出都有严格的法规要求。
  • 评审与交付物铁证如山:所有 TR/DCP 评审的决策过程、评审问题、整改记录,以及所有设计文档、测试报告、临床数据都必须作为“证据链”被严格管理,以备审计。
  • 变更管理全程追溯:任何一个设计变更,都必须触发关联的风险评估、验证测试和文档更新,变更影响必须清晰可见。

在这种场景下,飞书项目 IPD 专版 的“原生感”优势被最大化。其内置的 TR/DCP 评审模块、交付物与里程碑的强制关联、以及基于流程的自动化协同能力,能帮助企业将法规要求“翻译”成可执行的线上流程。对于管理者而言,他们需要的是一个“看得见、管得住、可回溯”的确定性系统,而非一个需要大量自定义才能满足合规要求的灵活平台。

场景二:从消费电子切入智能家居赛道的“敏捷探索型”企业

一家传统的消费电子公司,正在向智能家居(如智能音箱、智能照明)领域转型。其产品兼具硬件的研发周期和软件/算法的快速迭代特性。团队规模中等,IPD 流程尚在探索和磨合阶段,更强调市场响应速度和跨团队的敏捷协作。

核心诉求

  • 模式灵活性:希望将敏捷开发的 Sprint 迭代与 IPD 的大阶段规划相结合,允许软件团队快速迭代,同时确保硬件开发按里程碑推进。
  • 快速启动与低门槛:团队成员多为软件工程师和产品经理,习惯于看板、任务列表等轻量级工具,对复杂的 IPD 术语和流程感到陌生。
  • 与现有工具生态集成:公司已全面使用钉钉进行日常办公和审批,希望项目管理工具能无缝融入,避免增加新的系统孤岛。

在这种场景下,Teambition(钉钉项目) 的“柔性”和“生态”优势更加突出。团队可以利用其灵活的自定义能力,创建一个混合模式的项目模板:用大的“史诗”来代表 IPD 的阶段,而在每个史诗内部,软件团队可以运行自己的敏- 捷看板。所有的评审和决策可以通过钉钉审批完成,符合现有工作习惯。对于 CEO 和部门主管来说,他们可以在钉钉上接收到项目的关键进展通知,并通过统一的数据驾驶舱了解全局,实现了管理与执行的顺畅连接。

结论:工具是理念的延伸,选择即战略

飞书项目 IPD 专版与 Teambition 代表了两种不同的 IPD 数字化路径:

  • 飞书项目提供的是一套端到端的、高度结构化的 IPD 原生解决方案,它试图将业界最佳实践(特别是复杂硬件领域的实践)固化到产品中,帮助企业“复制”一个成功的 IPD 框架。它更适合那些流程相对成熟、追求深度、致力于体系化建设的企业。
  • Teambition 则提供了一套灵活、开放的“项目管理操作系统”,它借助钉钉的生态能力,让企业可以按需“拼装”出自己的 IPD 流程。它更适合那些流程多变、追求广度、强调与现有业务生态无缝集成的企业。

最终的选择,不仅是对工具功能的评估,更是对企业自身 IPD 成熟度、组织文化和数字化战略的一次深度拷问。是选择一个“领航员”帮你导航,还是选择一套“工具箱”让你自由创造?答案就在您对“我们希望如何工作”的思考之中。

实时云渲染云推流技术加速具身智能 AI 模拟到现实世界的转化效率

在具身AI的发展中,成功实现从模拟到现实的迁移依赖高保真物理模拟环境和1:1数字孪生,以掌握精确任务;这需要强大GPU算力来实现实时光线追踪和物理仿真。通过实时云渲染云推流技术,研究团队能够将大规模基于云的模拟能力即时传输到任意终端,平衡高精度视觉效果与设备移动性之间的矛盾。

  1. 解放“移动性”:打破工作站的枷锁

高保真模拟通常依赖服务器级GPU,为了在实验室中捕捉自然轨迹,研究需在移动环境中操作数据记录。实时云渲染云推流技术突破了头戴设备与固定工作站的物理束缚,将高精度视觉效果无线传输到移动设备,从而显著提升操作安全性与数据收集的灵活性。

正如NVIDIA所展示的,物理AI正在重新定义工业生产力,95%的机器人训练都在模拟环境中进行。实时云渲染云推流技术是将这种电影级模拟直接传输到现场无线终端的关键桥梁,确保无缝的视觉保真度和准确的现场适配。

  1. 数据一致性:虚拟物理同步和现场验证的精度

在协作研发和远程操作场景中,视觉反馈需要与云端物理引擎严格对齐,通过集中式渲染维护唯一的“事实来源”,避免本地独立运行时产生的微小偏差。实时云渲染云推流技术实现人类操作与云渲染帧在同一时间轴上的精确同步,从而生成高质量、无漂移的合成数据。

  1. 与现有研发流程无缝集成

专业的物理AI开发需要强大平台管理,以实现流式传输能力在现有研发流程中的无缝集成。通过开放的PaaS架构,团队可利用全面的后端 API 和多平台 SDK,将高性能流式传输嵌入机器人训练系统或仿真管理门户。这种深度集成使开发者能够定制数据通道与交互模式,确保无线终端即时访问高计算资源,并加速从模型验证到现场适配的周期。

LarkXR:高性能实时云渲染云推流PaaS平台

平行云作为行业内最早将实时云渲染云推流技术产品化的团队之一,不断深化其技术基础,解决复杂挑战,为企业XR树立了标杆。

LarkXR是平行云自研的企业级云渲染云推流产品,在各行业得到广泛应用。它基于云-网-端-PaaS架构构建,覆盖从数据中心到终端设备的全路径:

  • 专利 GPU 资源池化: 通过容器化会话隔离和主要引擎的动态调度,实现90%以上的资源利用率。
  • 资源实时监控,无缝对接业务系统: LarkXR是国内首个产品化实时云渲染PaaS平台,具有完整的前后台管理功能,可以实时监控程序、服务器、用户、终端等各类数据信息,同时也支持数据、图像、音视频乃至语音语义等多种数据的同步传输,可轻松与现有的三维可视化业务管理系统无缝嵌入,实现真正的业务云化。
  • 广泛的引擎兼容性快速实现B/S架构: 完美兼容UE、 Unity等主流引擎开发的3D /2D/WebGL应用。开发者无需修改应用程序源码、无需集成特定插件,即可实现,极大降低了迁移成本和门槛。
  • 超低时延超高自适应传输: 提供<20ms超低延迟,具备2Mbps\~100Mbps动态比特率自适应能力,确保视觉反馈与控制指令完美同步。
  • 完整的PaaS平台功能: 包括高频数据通道、交互式音视频同步,以及用于深度系统集成的局部视图优化。
  • 跨平台跨终端: 支持PC、手机、平板、中控系统、8K大屏和XR可穿戴设备,包括VR/AR/MR头显,扩展性出色。
  • 卓越的国产化与性能支持: 全面支持软硬件国产信创环境,并能提供最高120FPS、8K分辨率的高清视频流直推,符合网络安全等级保护要求,从底层架构上规避了数据泄露与被攻击风险;同时具备数据备份机制,确保核心数据可管、可控、可追溯。

平行云LarkXR在异构环境中具有强大的兼容性,对多终端提供通用支持,应用程序与设备之间松耦合,以及让开发者工作更轻松的工具,提升数据生产效率。

本文已发布于官网:https://www.pingxingyun.com/

在日常运维与内网安全场景里,很多时候业务一上来就是几十万甚至上百万IP待解析,在线API不仅慢、容易限流,还受网络波动影响,而离线库刚好能从根源上规避这些问题,实现稳定、高效、无网络依赖的IP查询。

一、什么时候该部署IP离线库?运维一眼就能判断

对咱们运维来说,要不要上IP离线库其实很好判断:只要业务涉及内网隔离、大批量IP解析、高并发查询,或者对数据合规性要求高,那优先部署离线库准没错。

传统在线API查询在大批量任务下短板太明显——网络延迟、接口重试、第三方限流,光这些就能拖慢整个业务流程;而本地离线库能把查询速度压到毫秒级,既不占用外网带宽,也不用担心接口故障影响业务,稳定性拉满。

二、IP离线库落地实操:三步搞定生产环境部署

实际部署起来一点不复杂,下面这套流程我们团队已经跑通无数次,直接照抄就能上生产:

1. 第一步:获取并部署标准化离线库文件

先从官方渠道下载IP离线数据包,优先选.dat、.mmdb这类二进制格式的,体积小、加载快、查询效率高。选择同时支持IPv4和IPv6的工具,还包含地域、运营商、风险标签等全量字段,不用二次加工,直接就能适配常见运维场景。

2. 第二步:本地加载与服务化封装

把下载好的离线库文件放到服务器固定目录(比如/data/ipdb/),用mmap内存映射的方式加载,避免频繁读写磁盘拖慢速度。 配合IP数据云提供的Python、Java、Go等多语言SDK,几行代码就能把离线库封装成本地查询接口,单机就能支撑上千的并发,全程不依赖外网。

3. 第三步:批量查询实现(附Python极简示例)

做好前面两步,几行代码就能实现百万级IP的高速解析:

# 导入IP数据云离线库SDK
from ipdatacloud_offline import IPOfflineDatabase

# 初始化离线库(仅加载一次,常驻内存)
ip_db = IPOfflineDatabase(db_path="/data/ipdb/ipdatacloud_v4.dat")

# 批量IP查询
ip_list = ["113.207.24.1", "183.60.217.12", "220.181.38.148"]  # 可替换为百万级列表
result = ip_db.batch_query(ip_list)

# 输出结果(包含地域、运营商、风险标签等)
for ip, info in zip(ip_list, result):
    print(f"IP: {ip} | 地域: {info['region']} | 运营商: {info['isp']}")

代码核心逻辑:初始化时将离线库加载到内存,批量查询时直接内存匹配,无磁盘IO和网络请求,单条查询耗时仅微秒级,100万IP解析全程不超30秒。

三、性能与稳定性保障

使用本地 IP 离线库,在生产环境中能带来几个关键优势:

  • 不依赖外网,在内网、隔离区、无外网环境都能稳定运行
  • 查询速度稳定在微秒级,批量处理效率远超在线 API
  • IP 数据不出内网,完全满足等保、数据合规要求

这也是很多金融、政企、核心业务系统强制使用本地 IP 库的根本原因。

四、离线库 vs 在线 API 核心对比表

对比维度本地 IP 离线库在线 API 查询
网络依赖无,内网/隔离环境可用必须外网,断网不可用
查询速度毫秒级,批量极快受网络、延迟、限流影响
并发能力单机高 QPS,自主可控有限额,易被限流
数据安全数据不出域,合规性强IP 需外送,存在合规风险
适用场景大批量、内网、高稳定需求小批量、偶尔查询场景

五、总结

面对批量解析、内网无网、高并发、强合规的场景,IP离线库是最优解决方案。IP数据云凭借精准的IP数据、标准化离线库文件,再加上易用的SDK和完善的技术支持,能够帮助运维快速搭建本地 IP 查询服务,真正实现批量、高速、无网络依赖的 IP 解析能力。

Microsoft SQL Server 2022 RTM GDR & CU24 (2026 年 3 月安全更新 | 累计更新)

relational database management system (RDBMS) & Transact-SQL (T-SQL)

请访问原文链接:https://sysin.org/blog/sql-server-2022/ 查看最新版。原创作品,转载请保留出处。

作者主页:sysin.org


SQL Server 2022

SQL-Server-sysin

Microsoft SQL Server 是一种关系数据库管理系统 (RDBMS)。应用程序和工具连接到 SQL Server 实例或数据库,并使用 Transact-SQL (T-SQL) 进行通信。

SQL Server 2022 产品概述

2022 年 11 月 16 日,巨硬宣布正式发布 SQL Server 2022,这是迄今为止支持 Azure 最多的 SQL Server 版本,并在性能、安全性和可用性方面不断创新。这标志着 SQL Server 30 多年历史上的最新里程碑。

SQL Server 2022 是 Microsoft 智能数据平台的核心元素。该平台无缝集成了运营数据库、分析和数据治理。这使客户能够实时适应,为他们的应用程序添加智能层,解锁快速和预测性的洞察力 (sysin),并管理他们的数据——无论数据位于何处。

显示 SQL Server 2022 功能的图像。

SQL Server 2022 与 Azure 的连接(包括 Azure Synapse Link 和 Microsoft Purview)使客户更容易从他们的数据中大规模地获得更深入的洞察、预测和治理 (sysin)。Azure 集成还包括到 Azure SQL 托管实例的托管灾难恢复 (DR),以及近乎实时的分析,使数据库管理员能够以更大的灵活性和对最终用户的最小影响来管理他们的数据资产。

通过内置查询智能自动增强性能和可扩展性。安全创新基于 SQL Server 在过去 10 年中作为最不易受攻击的数据库的记录,继续使用 Ledger for SQL Server,它使用区块链创建数据库所有更改时间的防篡改跟踪记录。

支持 Azure 的功能

Azure SQL 托管实例的链接功能 完全集成:为确保正常运行时间,SQL Server 2022 与Azure SQL 托管实例中的新链接功能。借助这一新功能,您可以从应用于灾难恢复的 PaaS 环境中获益——即使与 IaaS 环境相比,您也可以在设置和管理上花费更少的时间。这通过使用内置的分布式可用性组 (DAG) 将数据复制到以前部署的 Azure SQL 托管实例作为 DR 副本站点来实现 (sysin)。该实例已准备就绪,随时待命——无需冗长的配置或维护。您还可以在读取扩展方案中使用此链接功能来卸载可能会影响数据库性能的繁重请求。巨硬正在努力构建更多功能来支持在线灾难恢复。

Azure Synapse Link for SQL:以前,将数据从本地数据库(如 SQL Server)移动到 Synapse 需要使用提取、转换和加载 (ETL)。配置和运行 ETL 管道非常耗时,而且洞察力往往滞后于任何时刻正在发生的事情。适用于 SQL Server 2022 的 Azure Synapse Link 提供自动更改源以捕获 SQL Server 中的更改并将它们提供给 Azure Synapse Analytics。Synapse Link 提供近乎实时的分析以及混合事务和分析处理,对操作系统的影响最小 (sysin)。数据进入 Synapse 后,您可以将其与许多不同的数据源结合,无论它们的大小、规模或格式如何,并使用您选择的 Azure 机器学习、Spark 或 Power BI 对所有数据运行强大的分析。由于自动更改源仅推送新的或不同的内容,因此数据传输速度更快,并允许获得近乎实时的洞察力,所有这些都对 SQL Server 2022 中源数据库的性能影响最小。

Microsoft Purview 集成 :Microsoft Purview 是一个统一的数据治理和管理服务。巨硬很高兴地强调,SQL Server 还与 Microsoft Purview 集成,以实现更好的数据发现,让您打破数据孤岛。通过此集成,您将能够:

  • 免费自动扫描本地 SQL Server 以捕获元数据。
  • 使用内置和自定义分类器以及 Microsoft 信息保护敏感度标签对数据进行分类。
  • 设置和控制对 SQL Server 的特定访问权限。

与 Azure 连接的其他功能:SQL Server 2022 具有许多支持 Azure 的其他功能。与 Azure Arc 代理的简单连接是 SQL Server 2022 默认设置过程的一部分 (sysin),可启用其他功能,包括:

  • 在本地、Azure 和其他云中部署的所有 SQL Server 的单一视图
  • 完全自动化 的 SQL Server 技术评估,无需额外费用,可帮助您优化数据库的性能、可伸缩性、安全性、业务连续性等。
  • 使用Microsoft Defender for Cloud 保护本地数据。
  • 使用单点登录Azure Active Directory 保护身份。
  • 按需付费

对核心 SQL Server 引擎的持续创新

性能:性能至关重要。在 SQL Server 工程团队中,巨硬的核心引擎功能原则是:不造成伤害,无需更改应用程序。使用 SQL Server 2022,性能增强无需最终用户更改代码。

根据独立的事务处理性能委员会,SQL Server 继续提供差异化性能,在 1TB、3TB、10TB 和 30TB 上,OLTP 性能排名第一,非集群 DW 性能排名第一。在 SQL Server 2022 中:

  • 通过查询存储,巨硬正在添加对只读副本的支持并启用查询提示以提高性能并快速缓解问题,而无需更改源 T-SQL。
  • 借助智能查询处理,巨硬正在根据常见的客户问题扩展更多场景 (sysin)。例如,“参数敏感计划”问题指的是参数化查询的单个缓存计划对于所有可能的传入参数值都不是最优的。借助 SQL Server 2022 的参数敏感计划优化功能,巨硬可以为单个参数化语句自动启用多个活动缓存计划的生成。这些缓存的执行计划将根据提供的运行时参数值适应不同的数据大小。

安全性:在过去十年中,SQL Server 几乎没有漏洞。在此基础上,新的 Ledger for SQL Server 功能创建了随时间变化的数据修改的防篡改跟踪记录。这可以检测恶意行为者的篡改,有利于内部和外部审计等场景。

可用性:使用包含的可用性组,您可以创建一个 Always On 可用性组,除了具有包含的可用性组的实例级别之外,它还可以在可用性组级别管理自己的元数据对象(用户、登录名、权限)。此外,当您拥有跨多个位置的用户时,它可以使多写入环境平稳运行。在 SQL Server 2022 中,巨硬正在自动执行最后写入者获胜规则,以确保在检测到冲突时,将选择最近的修改时间保留在所有副本上。

新的即用即付 SQL Server 计费模型,由 Azure Arc 启用

今天,巨硬也很高兴地宣布推出一种新的计费模式,该模式提供了快速创新和与您一样快速移动的灵活性。

通过与 Azure Arc 的简单连接(SQL Server 2022 设置过程的默认部分),您现在可以访问 SQL Server 的新的支持云的计费模型,从而为您提供仅按使用量付费的成本效益。按小时支付消费高峰和临时使用费用,无需前期投资。中了解更多在公告博客文章信息。

Azure SQL 迁移优惠

如果您已准备好开始您的云之旅,Microsoft 可以提供帮助。今天,巨硬宣布推出一项新服务,即 SQL + Apps Migration Factory。该计划可以免费评估合格的低复杂性 SQL Server 应用程序和数据库并将其迁移到 Azure SQL。与您的 Microsoft 客户团队联系或立即在 aka.ms/SQLAppsMigrationFactory 申请开始。

SQL Server IoT 2022

巨硬还发布了 SQL Server IoT 2022,它专为固定功能用例而设计,并通过 OEM 渠道获得特殊专用使用权许可 (sysin)。您可以阅读有关 SQL Server IoT 2022 的更多信息。

系统要求

服务端系统:要求以下系统,支持 Server Core,支持所有版本

客户端系统:不支持 Enterprise/Web Edtion,仅 x64

补丁更新及下载

SQL Server 2022 Evaluation/Developer/Express Edition 64-Bit (English、简体中文版和繁體中文版)

  • chs_sql_server_2022_developer_edition_x64_dvd_9f1ac8d4s.iso
  • cht_sql_server_2022_developer_edition_x64_dvd_24dbce42s.iso
  • enu_sql_server_2022_developer_edition_x64_dvd_7cacf733s.iso
  • 请访问:https://sysin.org/blog/sql-server-2022/

SQL Server 2022 Enterprise Edition 64-Bit (English、简体中文版和繁體中文版)

  • SQL Server 2022 Enterprise Edition 64 Bit English 英文版

    • SW_DVD9_NTRL_SQL_Svr_Ent_Core_2022_64Bit_English_OEM_VL_X23-28404.ISO
    • SW_DVD9_SQL_Svr_Enterprise_Edtn_2022_64Bit_English_MLF_X23-28423.ISO
  • SQL Server 2022 Enterprise Edition 64 Bit Chinese Simplified 简体中文版

    • SW_DVD9_NTRL_SQL_Svr_Ent_Core_2022_64Bit_ChnSimp_OEM_VL_X23-28403.ISO
    • SW_DVD9_SQL_Svr_Enterprise_Edtn_2022_64Bit_ChnSimp_MLF_X23-28422.ISO
  • SQL Server 2022 Enterprise Edition 64 Bit Chinese Traditional 繁體中文版

    • SW_DVD9_NTRL_SQL_Svr_Ent_Core_2022_64Bit_ChnTrad_OEM_VL_X23-28412.ISO
    • SW_DVD9_SQL_Svr_Enterprise_Edtn_2022_64Bit_ChnTrad_MLF_X23-28420.ISO
  • 文件名对应版本:

    • SQL Server 2022 Enterprise Edition - Per Core
    • SQL Server 2022 Enterprise Edition - Server/CAL
  • 请访问:https://sysin.org/blog/sql-server-2022/

SQL Server 2022 Standard Edition 64-Bit (English、简体中文版和繁體中文版)

  • SW_DVD9_NTRL_SQL_Svr_Standard_Edtn_2022_64Bit_English_OEM_VL_X23-28393.ISO
  • SW_DVD9_NTRL_SQL_Svr_Standard_Edtn_2022_64Bit_ChnSimp_OEM_VL_X23-28392.ISO
  • SW_DVD9_NTRL_SQL_Svr_Standard_Edtn_2022_64Bit_ChnTrad_OEM_VL_X23-28401.ISO
  • 请访问:https://sysin.org/blog/sql-server-2022/

本月累积更新如下:

Cumulative Update #24 for SQL Server 2022 RTM

2026 年 3 月 12 日

SQL Server 2022 RTM 的第 24 个累积更新版本现已在 Microsoft Downloads 网站提供下载。请注意,现在下载 Cumulative Update 已不再需要注册。

如需了解有关发布或服务模型的更多信息,请访问:

  • CU24 KB 文章: https://learn.microsoft.com/troubleshoot/sql/releases/sqlserver-2022/cumulativeupdate24

从 SQL Server 2017 开始,微软采用了新的现代化服务模型(Modern Servicing Model)。有关 SQL Server Modern Servicing Model 的更多详细信息,请参阅微软的博客 (sysin)。

  • Microsoft® SQL Server® 2022 RTM 最新 Cumulative Update: https://www.microsoft.com/download/details.aspx?familyid=105013
  • Microsoft SQL Server 更新中心: https://learn.microsoft.com/en-us/troubleshoot/sql/releases/download-and-install-latest-updates

本月安全更新如下:

Security Update for SQL Server 2022 RTM CU23

2026 年 3 月 11 日 星期三 06:05:41

SQL Server 2022 RTM CU23 的安全更新现已在 Microsoft Download Center 和 Microsoft Update Catalog 网站提供下载 (sysin)。该更新包为累积更新,包含 SQL Server 2022 RTM 各个 CU 版本此前发布的所有安全修复,同时还包含 KB 文章中详细说明的最新安全修复。

  • Security Bulletins: CVE-2026-21262 - Security Update Guide - Microsoft - Microsoft SQL Server Denial of Service Vulnerability
  • Security Update of SQL Server 2022 RTM CU23 KB Article: KB5077464
  • Microsoft Download Center: https://www.microsoft.com/download/details.aspx?id=108583
  • Microsoft Update Catalog: https://www.catalog.update.microsoft.com/Search.aspx?q=5077464
  • Latest Updates for Microsoft SQL Server: https://learn.microsoft.com/en-us/troubleshoot/sql/releases/download-and-install-latest-updates

Security Update for SQL Server 2022 RTM GDR

2026 年 3 月 11 日 星期三 06:05:37

SQL Server 2022 RTM GDR 的安全更新现已在 Microsoft Download Center 和 Microsoft Update Catalog 网站提供下载。该更新包为累积更新,包含 SQL Server 2022 RTM 之前发布的所有安全修复,同时还包含 KB 文章中详细说明的最新安全修复。

  • Security Bulletins: CVE-2026-21262 - Security Update Guide - Microsoft - Microsoft SQL Server Denial of Service Vulnerability
  • Security Update of SQL Server 2022 RTM GDR KB Article: KB5077465
  • Microsoft Download Center: https://www.microsoft.com/download/details.aspx?id=108584
  • Microsoft Update Catalog: https://www.catalog.update.microsoft.com/Search.aspx?q=5077465
  • Latest Updates for Microsoft SQL Server: https://learn.microsoft.com/en-us/troubleshoot/sql/releases/download-and-install-latest-updates

索引页面:

更多:Windows 下载汇总