包含关键字 typecho 的文章

做过产品的都懂,需求越来越多,时间越来越紧,画原型这件事却一点都省不了功夫。正好我们今天就给大家分享一款好用的原型设计工具——UXbot,专门帮产品经理和设计师"偷懒"——你说句话,它就能直接生成网页UI界面。今天我们就来聊聊这个工具到底怎么用,怎么帮你把画原型的时间从几小时压缩到几分钟。

一、UXbot是什么
简单说,UXbot就是一个听得懂人话的设计助手。它不是那种只能生成一张静态图的AI绘图工具——那些图看着好看,但没法编辑,对产品设计来说没啥用。UXbot不一样,它生成的是真正的UI原型,分图层、可编辑,直接能拿来用。它背后有大模型撑着,你说人话它就能听懂,然后调用UXbot的设计库,像搭乐高一样把你的想法变成完整的网页或APP界面。

二、谁适合用这个工具
这工具几乎人人都能用,但不同角色用起来效果不一样:

  • 产品经理:最刚需的用户。天天要出方案、对需求,用它能省下大把画图时间,把精力花在想产品逻辑上。
  • UI设计师:不用从空白画布开始了,AI帮你打好底稿,你只管优化和创意,重复劳动交给机器。
  • 刚入行的新手:不用先学半年软件才能出活儿,上手就能生成像模像样的原型。
  • 赶项目的团队:成员之间快速生成、快速共享、快速迭代,沟通效率能高一截。

三、如何一键生成网页版UI
第1步:告诉你UXbot你的需求
你可以直接打字描述需求,也能上传参考图——竞品截图、手绘草图都行,AI都能看懂。比如你想做个旅行官网,就跟它说:"生成一个旅行官网,面向年轻人和家庭用户,要有顶部导航、热门目的地卡片、旅游套餐、预订表单和用户评价区"。等个几十秒,AI就能理解你的意思,自动生成功能说明文档和高保真界面。
image.png

第2步:确认产品流程图
UXbot会以其直观的流程图形式,将产品的核心逻辑、功能模块、用户路径等展示出来,帮助用户快速掌握产品全局架构与运行逻辑。当然你也可以自定义修改、删减、拖拽产品neuron,确保项目全周期的导航逻辑清晰、 衔接流畅。
image.png

第3步:AI自动生成高保真原型界面
基于需求解析结果,UXbot将自动完成页面结构搭建、原型设计、UI组件匹配、视觉风格统一,数十秒内即可输出完整的高保真可交互界面。生成界面支持页面跳转与演示,可直接用于团队评审或需求沟通,彻底告别从低保真到高保真的冗长迭代过程。
image.png

第4步:二次编辑与交互逻辑完善
搭载 AI 助手与专业级精密编辑器,支持用户进行像素级细节控制,布局微调、样式迭代、图文更新、交互逻辑等,精准匹配需求,兼顾创意灵动性与设计专业性。
image.png

第5步:生成前端代码
网站界面设计定稿即可一键生成前端代码, 深度兼容vue.js 主流框架生态, 打破设计与开发之间的壁垒; 依托 “模拟运行 ” 能力实现代码至云服务器的一键部署。
image.png

第6步:分享与协作
修改完成后,可生成分享链接方便团队在线预览,还能导出 HTML 、Vue文件直接交给开发,无缝衔接后续工作。
image.png

整体体验下来,UXbot 把产品方案、原型制作、前端开发、项目评审等这些分散的工作,整合到一次 AI 对话里完成,让产品设计流程更连贯、更高效。如果你想提升工作效率,快速做出合格的网页原型,UXbot会是你的得力帮手。

这个问题其实很多企业在做跨境办公、海外业务或者分支组网的时候都会遇到。很多人听说过 SD-WAN,但并不清楚它到底是什么,下面用比较容易理解的方式来讲一讲。

一、什么是 SD-WAN?

先说结论:SD-WAN(Software Defined Wide Area Network),中文叫“软件定义广域网”。
它本质上是一种通过软件来管理和优化企业网络连接的技术。

如果用一个比较容易理解的比喻:
可以把企业网络想象成“城市之间的物流运输”。

以前企业网络大多数依赖传统专线,就像:
一条固定的高速公路。
路修好了
只能走这一条
速度稳定
但成本非常高
也不灵活

而 SD-WAN 更像是:一个智能导航系统。

它会根据实时情况自动选择最优线路,例如:
专线
普通互联网
4G / 5G
多运营商线路

系统会自动判断:
哪条线路延迟更低
哪条更稳定
哪条带宽速度更快

然后动态分配网络流量,保证关键业务优先。

所以从技术角度来说,SD-WAN主要解决三个问题:

1、智能选路
自动选择最优网络路径。

比如:
视频会议走低延迟线路
文件下载走高带宽线路

2、统一管理
企业可以在一个后台管理所有分支网络,比如:

总部
分公司
门店
海外办公室

全部集中控制。

3、降低网络成本
很多企业原本需要全部使用昂贵的国际专线,而 SD-WAN 可以:
专线 + 互联网混合使用
既保证稳定性,又降低成本。

image.png

二、SD-WAN适用于哪些场景?

目前 SD-WAN 使用最多的几个场景主要是:

1、跨境办公

比如企业需要稳定访问:
Google Workspace、Microsoft 365、Salesforce、Slack,如果直接走普通网络,往往延迟比较高。SD-WAN可以通过海外节点进行优化。

2、外贸 / 跨境电商

外贸团队每天都会使用:
WhatsApp、LinkedIn、Instagram、Facebook、TikTok等平台,稳定的网络环境对客户沟通和运营非常重要。

3、多分支机构组网

比如:
总部在上海、工厂在东莞、分公司在越南、仓库在美国,SD-WAN可以把这些网络连接成一个企业内网。

4、云服务访问

现在很多企业系统都在云上,比如:AWS、Azure、阿里云、腾讯云,SD-WAN可以优化企业访问云资源的网络路径。

三、国内比较知名的 SD-WAN 服务商

目前国内提供 SD-WAN 服务的厂商主要有三类:运营商、网络厂商、专业跨境网络服务商。简单介绍几个比较常见的。

1、OSDWAN
OSDWAN属于专业做跨境网络优化的服务商,主要面向出海企业。

他们的核心方向是:
跨境网络加速
SD-WAN组网
海外节点接入
SaaS访问优化

比较适合:
外贸公司、跨境电商团队、海外营销团队、出海企业

特点是:
开通比较快,可做到当日即可开通,成本相对传统专线更低、多个节点国家可选择。对于需要访问海外平台或跨境办公的团队来说,性价比高。

image.png

2、中国电信 SD-WAN

国内运营商里做 SD-WAN 比较成熟的是中国电信。

特点:
网络资源多
覆盖全球
稳定性高

但也有一个明显特点:价格比较高,开通周期也比较长。

一般适合:大型企业、银行、制造业集团

3、阿里云 Cloud WAN / SD-WAN

云厂商里,阿里云也提供类似 SD-WAN 的网络服务。

特点:
与云资源结合紧密
适合云架构企业
运维比较方便

适合:
使用阿里云的企业、SaaS公司、互联网公司

4、华为 SD-WAN

华为在企业网络领域也提供 SD-WAN 解决方案。

优势:
技术成熟
设备性能强
企业级稳定性

不过很多时候需要通过系统集成商部署。

适合:大型企业、政企项目、多地分支机构

四、SD-WAN和传统专线有什么区别?

image.png

可以简单理解为:

传统专线 = 固定高速公路

SD-WAN = 智能导航 + 多条高速组合

五、OSDWAN有哪些优势?

相较于传统的SD-WAN服务商,OSDWAN跨境网络专线也有极大突出优势:更好用、更高性价比、更安全、更可控、更安心。

01、更好用:相比传统SD-WAN服务商只支持CPE设备,OSDWAN不仅提供多种型号的CPE设备,还支持经过安全认证的相应软件。支持Windows、Mac、iPhone、安卓、iPad,让您随时随地一键连接全球互联网。

02、更高性价比:相比传统SD-WAN服务商与运营商接近的高额网络费用,OSDWAN仅需一半不到的成本即可享受同等优质的网络线路。

03、更安全:OSDWAN采用自研双重加密机制,对数据进行多层加密处理,有效防止数据泄露、保证信息安全传输。

04、更可控:企业管理后台,可以管理员工子账号、限制使用设备数、管控访问范围、监管访问日志。

05、更安心:相比传统SD-WAN服务商需要5-8个工作日按照工单解决客户问题,OSDWAN提供专属售后支持,配备专属售后顾问。同时还提供分流解锁,路由优化等服务。让您的业务安心出海。

总的来说,OSDWAN兼具合规合法、稳定安全、简单易用、高性价比等优势,支持一键访问全球互联网。是企业办公、网络营销、跨境直播、社媒运营的不二之选。

image.png

六、OSDWAN如何使用?具体使用教程

OSDWAN支持软件硬件连接,提供多种型号的CPE设备,还支持多终端连接,如Windows、Mac、iPhone、安卓、iPad,让您随时随地一键连接全球互联网。

具体操作步骤:

1、咨询顾问,确认套餐
首先添加顾问,咨询顾问说明需求,然后确认合适的套餐

2、开通账号
提供信息,顾问提交给技术配置,开通账号

3、安装使用
下载APP,登录连接即可使用了。

image.png

4、连接成功即可访问外网了,以打开TikTok为例。
image.png

硬件接入步骤:

1、收到设备

2、设备通电

3、设备连线

4、连接WiFi

5、访问外网

image.png

总结

简单来说:

SD-WAN是一种更灵活、更智能的企业网络解决方案。对于有跨境业务、多地办公、海外运营等需求的企业,都会开始考虑 SD-WAN 方案。

OSDWAN是国内专业的跨境网络专线服务商,专注于为出海企业提供合规、稳定、低延迟的跨境网络解决方案。支持硬件部署与软件接入,满足不同规模企业的灵活组网需求。

目前已覆盖全球 50+ 数据中心节点,200+ POP 接入点,可提供包括海外加速、SaaS 加速、SD-WAN 组网、跨境专线、云专线互联等多种产品,帮助企业建立长期可持续的国际网络架构。

产品支持从入门版到企业级独享专线多种方案,适用于外贸办公、海外AI加速、社媒运营、跨境电商、品牌出海、跨境直播等多行业场景。

刚从 Windows 转投 macOS 怀抱?是不是觉得哪里都“别扭”?
最让人抓狂的是:同一个软件开了好几个窗口,想切换时,鼠标点来点去就是没反应,只能图标上鼠标右键选择切换,还无法预览界面。

别急,今天介绍三种方法,不用繁琐的配置,就能找回 Windows 那种“鼠标悬浮即预览、点击即切换”的爽快感!


方案一:键盘党首选(Mission Control)

如果你习惯手不离键盘,那 macOS 原生的 Mission Control 绝对是神器。它能让你一眼看穿所有打开的窗口和桌面空间。

只需记住这几个动作:

  • 全局俯瞰:按下 Control (⌃) + 上箭头(↑),所有窗口瞬间平铺,一目了然。
  • 当前应用:按下 Control (⌃) + 下箭头(↓),只看当前这个软件的所有窗口,清爽不乱。
  • 触控板手势:如果你用 MacBook,四指向上滑动,效果同全局俯瞰;四指向下滑动,效果同当前应用。

PixPin_2026-03-09_12-25-56.png

💡 小贴士:用熟了之后,这种“上帝视角”比 Windows 的任务栏缩略图还要高效!

方案二:鼠标党福音(开启隐藏功能)

如果你更依赖鼠标,又不想安装任何第三方软件常驻后台,那这个系统隐藏功能非常适合你!

苹果其实自带了类似 Windows 的“任务栏悬停预览”,只是默认关掉了。我们只需要一行代码就能唤醒它。

操作步骤:

  1. 打开「终端」(Command + 空格,搜索“终端”)。
  2. 复制下方命令,粘贴进去回车(如果报错,请检查命令中的空格符号是否正常):
defaults write com.apple.dock "scroll-to-open" -bool "true" && killall Dock

执行后,把鼠标指针移到 Dock 栏的应用图标上,轻轻滚动鼠标滚轮(或触控板双指滑动),就能直接呼出该应用的所有窗口预览!
注:触控板用户也可以将鼠标悬停在图标上,直接四指向下滑动触发。

这就和 Windows 的任务栏预览有一拼了,一目了然,点击即可选择切换。

PixPin_2026-03-09_13-40-00.png


方案三:极致体验(第三方神器)

如果你觉得原生功能还不够完美,想要更强大的悬浮自动预览甚至Alt+Tab切换体验,那这两款第三方 App 绝对值得尝试。

1. DockDoor(颜值与实力并存)

这是一款开源免费的宝藏应用,能让你的 Dock 栏进化成 Windows 11 风格。

  • 悬浮即预览:鼠标放上去自动弹出大尺寸窗口预览,无需滚动。
  • 增强切换:支持类似 Windows 的 Alt + Tab 窗口切换逻辑。
  • Cmd+Tab 增强:让系统自带的切换器显示实时预览图。

🔗 官网:DockDoor

PixPin_2026-03-09_14-16-43.png

2. iDock(专注缩略图)

如果你只想要简单的“图标显示窗口缩略图”功能,iDock 是个轻量级的选择。

  • 直接在程序坞图标上展示所有窗口的缩略图。
  • 点击缩略图快速跳转,简单粗暴。

🔗 官网:iDock

⚠️ 注意:这类软件首次运行时,通常需要在「系统设置」->「隐私与安全性」中授予辅助功能屏幕录制权限,否则无法抓取窗口画面哦。

PixPin_2026-03-09_14-57-25.png


总结一下:

  • 喜欢快捷键?用方案一,效率起飞。
  • 喜欢原生纯净?用方案二,一行代码解锁隐藏技能。
  • 追求极致视觉?用方案三,DockDoor 让你流畅体验 macOS。

赶紧试试吧,让你的 Mac 用起来更顺手!

上一篇,我们给小龙虾接了 Telegram,实现了手机遥控。

但说实话,Telegram 只解决了"能聊天"的问题。你跟小龙虾说"帮我写个文档",它写完了——然后呢?你还得自己复制粘贴到你的编辑器中。

这就像请了个助手,他只能站在门外隔着门跟你喊话,但不能进屋帮你干活。

今天这篇,我们把门打开。让小龙虾直接进入你的飞书——读文档、写文档、操作表格、管理日程,全部自己来。

先看效果👇
image

飞书的配置比 Telegram 多一些步骤,但别慌——跟着我走,每一步都有截图,大概10分钟搞定。

飞书的接入分四个阶段,先有个全局概念,不容易迷路:

  1. 在飞书上造一个机器人 — 相当于给小龙虾办一张飞书工牌
  2. 在服务器上装飞书插件 — 让小龙虾学会"说飞书的语言"
  3. 配置长连接 — 让机器人保持在线,不会聊着聊着断了
  4. 加入群聊 & 配对 — 正式上岗

看着多,其实每个阶段都是点点点的事。开干。


第一阶段:在飞书上造一个机器人

创建应用

打开飞书开放平台:https://open.feishu.cn/app ,点击创建企业自建应用。

image

填一下应用名称、描述、图标。名字随便起,之后能改,别纠结。点创建。

image

给机器人开能力

创建完会跳到配置页面。找到「添加应用能力」里的机器人模块,点添加。

image

这一步是告诉飞书:"这个应用是个机器人,能在聊天里跟人说话。"

批量导入权限(关键步骤)

接下来要给机器人开权限。这步很重要——权限决定了小龙虾能在飞书里干什么。

点击左侧的权限管理,再点批量导入导出权限按钮。

image

把弹窗里的默认内容删掉,粘贴下面这段配置:

{
  "scopes": {
    "tenant": [
      "contact:contact.base:readonly",
      "docx:document:readonly",
      "im:chat:read",
      "im:chat:update",
      "im:message.group_at_msg:readonly",
      "im:message.p2p_msg:readonly",
      "im:message.pins:read",
      "im:message.pins:write_only",
      "im:message.reactions:read",
      "im:message.reactions:write_only",
      "im:message:readonly",
      "im:message:recall",
      "im:message:send_as_bot",
      "im:message:send_multi_users",
      "im:message:send_sys_msg",
      "im:message:update",
      "im:resource",
      "application:application:self_manage",
      "cardkit:card:write",
      "cardkit:card:read"
    ],
    "user": [
      "contact:user.employee_id:readonly",
      "offline_access","base:app:copy",
      "base:field:create",
      "base:field:delete",
      "base:field:read",
      "base:field:update",
      "base:record:create",
      "base:record:delete",
      "base:record:retrieve",
      "base:record:update",
      "base:table:create",
      "base:table:delete",
      "base:table:read",
      "base:table:update",
      "base:view:read",
      "base:view:write_only",
      "base:app:create",
      "base:app:update",
      "base:app:read",
      "board:whiteboard:node:create",
      "board:whiteboard:node:read",
      "calendar:calendar:read",
      "calendar:calendar.event:create",
      "calendar:calendar.event:delete",
      "calendar:calendar.event:read",
      "calendar:calendar.event:reply",
      "calendar:calendar.event:update",
      "calendar:calendar.free_busy:read",
      "contact:contact.base:readonly",
      "contact:user.base:readonly",
      "contact:user:search",
      "docs:document.comment:create",
      "docs:document.comment:read",
      "docs:document.comment:update",
      "docs:document.media:download",
      "docs:document:copy",
      "docx:document:create",
      "docx:document:readonly",
      "docx:document:write_only",
      "drive:drive.metadata:readonly",
      "drive:file:download",
      "drive:file:upload",
      "im:chat.members:read",
      "im:chat:read",
      "im:message",
      "im:message.group_msg:get_as_user",
      "im:message.p2p_msg:get_as_user",
      "im:message.send_as_user",
      "im:message:readonly",
      "search:docs:read",
      "search:message",
      "space:document:delete",
      "space:document:move",
      "space:document:retrieve",
      "task:comment:read",
      "task:comment:write",
      "task:task:read",
      "task:task:write",
      "task:task:writeonly",
      "task:tasklist:read",
      "task:tasklist:write",
      "wiki:node:copy",
      "wiki:node:create",
      "wiki:node:move",
      "wiki:node:read",
      "wiki:node:retrieve",
      "wiki:space:read",
      "wiki:space:retrieve",
      "wiki:space:write_only"
    ]
  }
}
💡 这段配置干了什么? 简单说,它让小龙虾拥有了操作飞书文档、表格、日历、任务、知识库等几乎所有功能的权限。你不需要逐个理解每一条,直接全部粘贴就行。想详细了解的,可以看飞书的 权限说明文档

点击「下一步,确认新增权限」。

image

弹出数据范围确认窗口,直接点确定。

image

发布上线

权限配好了,接下来让这个机器人正式"入职"。

点击页面顶部的创建版本按钮。

image

填一下版本号和更新说明,随便写就行。

image

拉到底部点保存

image

弹窗里点申请线上发布

image

这时候你的飞书会收到开发小助手发来的审批通知。点消息里的「进入管理后台审核」。

image

找到你刚创建的机器人,点审核。

image

通过

image

⚠️ 踩坑预警:这里是自己审批自己,别觉得奇怪。因为你既是开发者又是管理员,所以自己创建自己批。直接通过就好。

记录凭证

审核通过后,回到机器人配置页面,找到左侧导航的基础信息 → 凭证与基础信息

记录下 App IDApp Secret。下一步要用。

image

⚠️ 踩坑预警:App Secret 就是你机器人的密码,绝对不要发到任何公开的地方。泄露了别人就能冒充你的机器人。

到这里,飞书端的机器人就造好了。喘口气,最难的部分已经过去了。


第二阶段:在服务器上装飞书插件

SSH 连上你的服务器,依次执行下面这四条命令:

npm config set registry https://registry.npmjs.org
curl -o /tmp/feishu-openclaw-plugin-onboard-cli.tgz https://sf3-cn.feishucdn.com/obj/open-platform-opendoc/4d184b1ba733bae2423a89e196a2ef8f_QATOjKH1WN.tgz
npm install /tmp/feishu-openclaw-plugin-onboard-cli.tgz -g
rm /tmp/feishu-openclaw-plugin-onboard-cli.tgz
💡 这四条干了什么? 切换 npm 源 → 下载飞书官方插件包 → 全局安装 → 清理安装包。复制粘贴就好,不需要理解每一行。

然后执行安装命令:

feishu-plugin-onboard install

如果提示要删除已安装的飞书 MCP,直接输入大写的 Y 回车。

image

接着会让你输入 App ID 和 App Secret,就是刚才让你记录的那两个。依次粘贴进去。

image

看到 Installation finished 就说明安装成功了。

💡 后面可能会跟一个"检查失败"的提示,不用管它,不影响使用。实在不放心可以跑一下:

openclaw plugins list

看到 feishu-openclaw-plugin 的 Status 是 loaded 就稳了。

最后重启 gateway:

openclaw gateway restart

服务器端搞定。做到这里,你已经完成了80%。


第三阶段:配置长连接(保持在线)

这一步解决一个问题:让机器人一直在线,不会聊着聊着突然没反应。

回到飞书开放平台,找到左侧导航的事件与回调 → 事件配置

点击订阅方式右边的小铅笔图标。

image

选择长连接方式。

image

然后点右侧的添加事件按钮。

image

在弹窗中搜索"接收消息",勾选搜出来的结果,点确认添加。

image

💡 为什么要加这个事件? 不加的话,机器人收不到你发的消息。这就像你给了助手一个工位,但没告诉前台"有人找他要转达"。

加完事件后,还需要再创建一个新版本让配置生效。点顶部的创建版本,流程和之前一样——填版本号、保存、申请发布、自己审批通过。

image


第四阶段:让机器人正式上岗

群聊使用

找到你想让小龙虾加入的飞书群,点击群机器人

image

添加机器人

image

选你刚创建的那个,点添加。

image

现在在群里 @你的机器人,随便说句话试试。

image

收到回复了?恭喜,群聊搞定。群里直接 @就能用,不需要额外配对。

私聊配对

但如果你想跟小龙虾一对一私聊,还需要配对一下。

双击机器人头像进入私聊,发条消息。小龙虾会回你一个配对码

image

回到服务器,执行:

openclaw pairing approve feishu <配对码> --notify

<配对码> 换成你收到的那个。

image

看到授权成功的提示,私聊通道也打通了。


现在,回到飞书,让小龙虾帮你约个会议试试。

image

它不再是隔着门喊话的助手了。它能直接坐到你的飞书工位上,帮你写文档、读资料、操作表格、管理任务。

截个图发到群里吧:"我的AI助手,现在能直接操作我的飞书了。"

从 Telegram 的"能聊天",到飞书的"能干活",小龙虾的能力边界又往外推了一大步。

AI不是装上就有用的,得让它够得着你的工作台。


你最希望小龙虾在飞书里帮你自动化哪件事?写周报?整理会议纪要?还是自动填表?评论区聊聊👇

OpenClaw 是一款运行在本地机器上的开源个人 AI 助手,支持通过 WhatsApp、Telegram、Slack 等 50+ 日常工具调用 AI 能力,具备浏览器自动化、系统级文件操作和持久记忆功能。与封闭的 SaaS AI 工具不同,OpenClaw 数据默认本地存储、模型可自由切换(Claude、GPT、DeepSeek 等),适合对数据主权和灵活扩展有要求的开发者和企业团队。


OpenClaw 是什么:核心架构解读

OpenClaw 由 Peter Steinberger 开发并开源,定位为"本地运行的自主 AI 代理",区别于浏览器插件或云端 AI 助手的关键在于三点:

  • 本地执行:所有操作在用户自己的机器上运行,数据不经第三方服务器
  • 持久记忆:跨会话学习用户偏好和上下文,记忆 24/7 保留
  • 技能可扩展:通过社区技能库或自定义代码扩展能力边界

安装方式极简:

curl -fsSL https://openclaw.ai/install.sh | bash
openclaw onboard

完成 onboard 后,通过任意已连接的聊天工具(如 Telegram)即可向 OpenClaw 下发任务。


五大核心落地场景

场景 1:AI 编程工作流自动化

OpenClaw 与 Claude Code 形成协同链路:Claude Code 负责代码生成和上下文理解,OpenClaw 负责调度执行——触发测试、提交 PR、通知 Slack 频道,形成端到端自动化循环。

典型用法:

  1. 开发者在 Telegram 发送:"帮我 review 今天提交的 PR #234,把 review 结果发到 #code-review 频道"
  2. OpenClaw 调用 GitHub 集成读取 PR diff
  3. 调用配置的 AI 模型(如 DeepSeek V3.2)生成 review 意见
  4. 将结果推送至 Slack #code-review 频道

适用团队:小型技术团队、独立开发者、AI 编程效率工具使用者


场景 2:个人效率提升

OpenClaw 用户社区报告的高频个人使用场景,覆盖日常事务的大部分重复性工作:

任务类型具体操作使用的集成
邮件管理批量退订营销邮件、自动归档、草稿生成Gmail
日程协调会议邀约自动回复、冲突检测Google Calendar
出行管理航班值机自动化、行程提醒浏览器自动化
笔记整合多来源信息汇总到 ObsidianObsidian 插件
健康数据WHOOP 运动数据每周汇总报告WHOOP API

核心优势:用自然语言下达指令,无需学习各工具 API,OpenClaw 统一调度。


场景 3:企业通信与协作自动化

在企业环境中,OpenClaw 可连接 Slack、Discord 或企业内部系统,承担信息汇聚与分发的中间层角色。

落地案例:

  • 客服分流:监听 Slack 客户频道,自动分类问题类型并路由到对应负责人
  • 日报生成:每晚定时抓取 GitHub issue 更新、Jira 任务状态,汇总为结构化日报推送至管理层
  • 知识库问答:将内部 Notion 文档接入,员工通过 Slack 直接查询内部政策和流程
  • 监控告警:系统指标异常时,自动触发 Shell 脚本诊断并将结果推送至 On-Call 频道

场景 4:数据处理与文档生成

OpenClaw 具备完整的文件系统读写和脚本执行能力,可在本地处理敏感数据而无需上传云端。

适用场景:

  • 多份合同文档关键条款对比提取
  • 财务报销单批量处理与分类汇总
  • 会议录音转文字 + 自动生成会议纪要
  • 研究报告多来源信息综合与摘要

数据安全优势:金融、医疗、法律等对数据合规要求高的行业,可通过 OpenClaw 在本地环境完成 AI 辅助数据处理,规避数据出境风险。


场景 5:多模型智能路由

OpenClaw 支持同时配置多个 AI 模型提供商,根据任务类型自动或手动路由至最适合的模型。

多模型配置示例:

# 设置七牛云 API(接入 DeepSeek、Kimi、GLM 等国内主流模型)
export QINIU_API_KEY=your_api_key

# OpenClaw 配置文件中指定模型路由
model: qiniu/deepseek-v3.2   # 复杂推理任务
model: qiniu/kimi-k2.5       # 长文档处理
model: qiniu/glm-5           # 中文对话场景

开发者可配置规则:长文档用 Kimi,代码任务用 DeepSeek V3.2,日常对话用 GLM。七牛云推理服务端点 (https://api.qnaigc.com/v1) 兼容 OpenAI SDK 标准,OpenClaw 切换模型无需修改代码逻辑。


OpenClaw vs 同类工具对比

维度OpenClawn8nZapierClaude Code
部署方式本地运行自托管/云云端 SaaS本地 CLI
交互入口WhatsApp/Telegram/Slack 等Web UIWeb UI终端
数据隐私本地,高可本地,中高云端,低本地,高
AI 模型自由切换需插件需插件Anthropic 系
上手难度中(需配置)
扩展方式技能脚本节点Zap
开源

选型建议

  • 重数据隐私 + 多 AI 模型 + 开发者友好 → 首选 OpenClaw
  • 需要可视化流程编排 → n8n 更合适
  • 非技术用户快速搭建自动化 → Zapier
  • 专注代码任务 → Claude Code

快速上手:10 分钟完成第一个自动化

前置条件:macOS / Linux / Windows,Node.js 22+

Step 1:安装 OpenClaw

curl -fsSL https://openclaw.ai/install.sh | bash

Step 2:初始化并连接通信渠道

openclaw onboard
# 按提示连接 Telegram / WhatsApp / Slack

Step 3:配置 AI 模型

# 使用七牛云推理服务(支持 DeepSeek、Kimi、GLM 等)
export QINIU_API_KEY=your_api_key

Step 4:运行诊断确认配置

openclaw doctor

Step 5:在 Telegram 发送第一条指令

@openclaw 帮我总结 ~/Documents/report.pdf 的核心要点,不超过 300 字

常见问题

Q:OpenClaw 支持哪些操作系统?
支持 macOS、Windows、Linux 三端,Node.js 22+ 是唯一依赖,无需 Docker 或复杂环境配置。安装脚本自动检测系统类型并完成适配。

Q:OpenClaw 和 Claude Code 可以同时使用吗?
可以,两者是互补关系。Claude Code 专注代码生成和上下文理解;OpenClaw 负责任务调度、跨工具集成和自动执行。常见用法是用 OpenClaw 触发 Claude Code 的代码审查任务,再将结果分发至 Slack。

Q:企业使用是否有数据泄露风险?
OpenClaw 默认本地运行,AI 模型调用通过 API(数据传输至模型服务商)。如需完全隔离,可配置本地部署模型(如 Ollama 运行 Llama 3.1),数据全程不出内网。

Q:技能(Skills)怎么安装?
OpenClaw 支持社区技能库和自定义技能。社区技能通过 npm 包形式安装,自定义技能通过 JavaScript/TypeScript 脚本实现,官方文档提供完整的技能开发 SDK。

Q:OpenClaw 对 AI 能力没有自己的限制吗?
OpenClaw 本身是调度框架,AI 能力上限取决于配置的模型。搭配 DeepSeek V3.2 或 Claude 3.5 Sonnet 等强模型,复杂推理和长文档处理能力均接近模型天花板。


总结

OpenClaw 的核心价值在于将强大的 AI 模型能力"接地气"地嵌入开发者和知识工作者的日常工具链——无需打开新窗口,在微信、Telegram 或 Slack 即可触发 AI 工作流。五大落地场景覆盖了从个人效率到企业协作的主要需求,尤其是多模型智能路由场景,让团队可以按任务性质灵活调用成本最优的模型。

随着 AI Agent 框架进入成熟期,本地优先、数据自主可控、通信渠道无缝集成将成为企业级 AI 工具的核心竞争维度。OpenClaw 目前已具备上述能力,是 2026 年值得重点关注的开源 AI 工具之一。

本文信息基于 OpenClaw 官方文档及七牛云开发者平台(2026 年 3 月),建议结合最新 Release 注记核实版本特性。


延伸资源

如今,即时通讯已经成为人们日常生活工作中最主流的交流工具,反而让传统的电子邮件变得不再重要。可事实上,在企业级商务沟通、法律文件的传输、合同文件的签署以及重要的订单处理等方面,电子邮件依然是无可替代的首选渠道。无论是来自企业领导的转账指令、还是包含商业机密的合同电子文件、亦或者是关乎产品订单的文档信息,这些文件全部涉及到真实性与完整性,更是包含企业的重点信息甚至资金安全,处理稍有不慎,就会产生商业信誉问题,引发法律风险。正因邮件传输通道承载着众多高价值信息,因此成为网络攻击的重要目标,商业邮件欺诈与钓鱼邮件事件层出不穷。JoySSL技术安全主管表示,随着技术水平的提升,伪造发件人地址、篡改邮件内容的技术门槛正逐渐降低,邮件安全不再是可选项,已然成为企业应对网络威胁的必选工具。但凡企业珍视信誉和口碑,重视风控与合规,都会将邮件签名证书视作安全基线。

法律合规的必需 邮件签名证书提供法律依据

《电子签名法》明确规定,可靠的电子签名与手写签名或盖章,均具有同等法律效力。邮件签名证书对第三方发件人身份进行严格认证,相当于为邮件赋予法律意义上的电子签名,一旦出现纠纷可作为证据被法庭采信,以维护企业合法权益。证书对内容的完整性保护,是企业可追溯的有利技术证据,对监管审计至关重要。

防范风险的基础 终结身份仿冒阻断商业欺诈

传统邮件欺诈的核心,在于攻击者利用信任漏洞,伪造邮箱诱导收件人执行转账和泄露敏感信息等行为。邮件签名证书对每封邮件经过验证,任何仿冒地址均无法伪造签名,被系统识别,从而杜绝仿冒欺诈。而邮件签名机制可确保核心内容及附件在传输中不被篡改。一旦篡改,立即失效,可保障邮件内容准确无误。

品牌信任的优势 邮件安全证书传递可靠信任

部署邮件签名证书,不仅保障邮件的安全性,更可展现企业严谨、专业、负责任的品牌形象,能够提升沟通意愿,提升商务合作转化率。同时,面对强劲的竞争对手,一封具有权威验证标识的邮件,往往更容易获得客户的信赖和选择。邮件签名证书,正逐渐成为企业展示数字化进程与安全承诺的重要名片。

关键岗位的护符 部署证书保障核心机密安全

JoySSL法务部负责人表示,一家企业的财务、法务以及高管,均是商业邮件欺诈的重点对象。通过邮件安全证书可确保决策指令的安全性,杜绝伪造风险,确保转账、授权等指令可正确执行。利用邮件加密技术,确保商业计划、客户/企业数据只被私钥持有者解密阅览,端到端加密确保通信安全。

邮件证书的必要 企业长久稳健运营的必需品

现如今,商业邮件欺诈日益猖獗,数据合规监管严格,使用邮件签名证书早已不是锦上添花,而是企业实现长期稳健运营、收获市场和信任的必需品。为每一封邮件盖上权威可信的数字印鉴,才能建立更坚实的信任地基。

Python语法

基础

基础数据结构

# 案例演示python的所有数据类型
# 1. 声明很多变量,并用到各种数据类型
# 整数
integer_variable = 42

# 浮点数
float_variable = 3.14

# 字符串
string_variable = "Hello, World!"

# 布尔值
boolean_variable = False

# 列表
list_variable = [1, 2, 3, 4, 5]

# 元组
tuple_variable = (1, "two", 3.0)

# 集合
set_variable = {1, 2, 3, 4, 5}

# 字典 Map
dictionary_variable = {'name': 'John', 'age': 30}

print(f"hahah {type(set_variable)}")


# 2. 打印这些变量的类型
print(f"整数变量类型: {type(integer_variable)}")
print(f"浮点数变量类型: {type(float_variable)}")
print(f"字符串变量类型: {type(string_variable)}")
print(f"布尔值变量类型: {type(boolean_variable)}")
print(f"列表变量类型: {type(list_variable)}")
print(f"元组变量类型: {type(tuple_variable)}")
print(f"集合变量类型: {type(set_variable)}")
print(f"字典变量类型: {type(dictionary_variable)}")

# 3. 编写几个类型转换案例

# 整数转浮点数
int_to_float = float(integer_variable)
print(f"整数 {integer_variable} 转换为浮点数: {int_to_float}")

# 浮点数转整数(直接截断小数部分)
float_to_int = int(float_variable)
print(f"浮点数 {float_variable} 转换为整数: {float_to_int}")

# 字符串转整数
string_to_int = int("123")
print(f"字符串 '123' 转换为整数: {string_to_int}")

# 字符串转浮点数
string_to_float = float("3.14")
print(f"字符串 '3.14' 转换为浮点数: {string_to_float}")

# 列表转元组
list_to_tuple = tuple(list_variable)
print(f"列表 {list_variable} 转换为元组: {list_to_tuple}")

# 元组转列表
tuple_to_list = list(tuple_variable)
print(f"元组 {tuple_variable} 转换为列表: {tuple_to_list}")

# 列表转集合(自动去重)
list_to_set = set(list_variable)
print(f"列表 {list_variable} 转换为集合: {list_to_set}")

# 字典的键转列表
dict_keys_to_list = list(dictionary_variable.keys())
print(f"字典 {dictionary_variable} 的键转换为列表: {dict_keys_to_list}")

# 字典的值转列表
dict_values_to_list = list(dictionary_variable.values())
print(f"字典 {dictionary_variable} 的值转换为列表: {dict_values_to_list}")

# 布尔值转整数(True 为 1,False 为 0)
bool_to_int = int(boolean_variable)
print(f"布尔值 {boolean_variable} 转换为整数: {bool_to_int}")

print(__name__)

运算符

算术运算符
a = 10
b = 3

# 加法
add = a + b
print(f"加法: {add}")

# 减法
sub = a - b
print(f"减法: {sub}")

# 乘法
mul = a * b
print(f"乘法: {mul}")

# 除法
div = a / b
print(f"除法: {div}")

# 取余(取两个操作数相除的余数)
mod = a % b
print(f"取余: {mod}")

# 取整(取两个操作数相除的整数部分)
floor_div = a // b
print(f"取整: {floor_div}")

# 指数(a 的 b 次方)
exp = a ** b
print(f"指数: {exp}")
比较运算符
a = 10
b = 3

# 等于
equal = a == b
print(f"等于: {equal}")

# 不等于
not_equal = a != b
print(f"不等于: {not_equal}")

# 大于
greater = a > b
print(f"大于: {greater}")

# 小于
less = a < b
print(f"小于: {less}")

# 大于等于
greater_equal = a >= b
print(f"大于等于: {greater_equal}")

# 小于等于
less_equal = a <= b
print(f"小于等于: {less_equal}")
逻辑运算符
a = True
b = False

# 逻辑与(and):如果两个操作数都为 True,则结果为 True,否则为 False
and_result = a and b
print(f"逻辑与: {and_result}")

# 逻辑或(or):如果两个操作数中至少有一个为 True,则结果为 True,否则为 False
or_result = a or b
print(f"逻辑或: {or_result}")

# 逻辑非(not):如果操作数为 True,则结果为 False,否则为 True
not_result = not a
print(f"逻辑非: {not_result}")
赋值运算符
a = 10
b = 3

# 简单赋值
a = b
print(f"简单赋值: {a}")

# 加法赋值
a += b
print(f"加法赋值: {a}")

# 减法赋值
a -= b
print(f"减法赋值: {a}")

# 乘法赋值
a *= b
print(f"乘法赋值: {a}")

# 除法赋值
a /= b
print(f"除法赋值: {a}")

# 取余赋值
a %= b
print(f"取余赋值: {a}")

# 取整赋值
a //= b
print(f"取整赋值: {a}")

# 指数赋值
a **= b
print(f"指数赋值: {a}")
成员运算符
a = [1, 2, 3, 4, 5]
b = 3

# in:如果在指定的序列中找到值,返回 True,否则返回 False
in_result = b in a
print(f"in 运算符: {in_result}")

# not in:如果在指定的序列中没有找到值,返回 True,否则返回 False
not_in_result = b not in a
print(f"not in 运算符: {not_in_result}")
身份运算符
a = [1, 2, 3]
b = a

# is:如果两个变量引用的是同一个对象,返回 True,否则返回 False
is_result = a is b
print(f"is 运算符: {is_result}")

# is not:如果两个变量引用的不是同一个对象,返回 True,否则返回 False
is_not_result = a is not b
print(f"is not 运算符: {is_not_result}")
位运算符
a = 6  # 二进制:0110
b = 3  # 二进制:0011

# 按位与(&):对应位都是 1 时,结果为 1,否则为 0
bitwise_and = a & b
print(f"按位与: {bitwise_and}")

# 按位或(|):对应位都是 0 时,结果为 0,否则为 1
bitwise_or = a | b
print(f"按位或: {bitwise_or}")

# 按位异或(^):对应位不同时,结果为 1,否则为 0
bitwise_xor = a ^ b
print(f"按位异或: {bitwise_xor}")

# 按位取反(~):将操作数的二进制位取反
bitwise_not = ~a
print(f"按位取反: {bitwise_not}")

# 左移(<<):将操作数的二进制位向左移动指定的位数,右侧用 0 填充
bitwise_left_shift = a << 2
print(f"左移: {bitwise_left_shift}")

# 右移(>>):将操作数的二进制位向右移动指定的位数,左侧用操作数的符号位填充
bitwise_right_shift = a >> 2
print(f"右移: {bitwise_right_shift}")

控制

# 案例演示:Python 的所有流程控制语句

# 1. if-elif-else 条件语句
x = 10
if x > 10:
    print("x 大于 10")
elif x == 10:
    print("x 等于 10")
else:
    print("x 小于 10")

# 2. for 循环
fruits = ["apple", "banana", "cherry"]
for abc in fruits:
    print(abc)

# 3. while 循环
count = 0
while count < 5:
    print(count)
    count += 1

# 4. break 语句
numbers = [1, 2, 3, 4, 5]
for num in numbers:
    print(num)
    if num == 3:
        break
    

# 5. continue 语句
for num in numbers:
    if num == 3:
        continue
    print(num)

# 6. pass 语句
for num in numbers:
    if num == 3:
        pass  # 占位语句,不做任何操作
    print(num)

# 7. try-except-else-finally 异常处理
try:
    result = 10 / 0
except ZeroDivisionError:
    print("除数不能为零")
else:
    print("没有发生异常,结果是:", result)
finally:
    print("无论是否发生异常,都会执行")

# 使用 for 循环实现循环 10 次  0~9
for i in range(10):
    print(f"这是第 {i + 1} 次循环: {i}")

# 使用 while 循环实现循环 10 次
count = 0
while count < 10:
    print(f"这是第 {count + 1} 次循环")
    count += 1

# range() 函数在 Python 中非常灵活,除了基本的使用方式,还有以下几种常见用法:

# 1. 指定起始值和结束值
# 从 5 开始,到 10 结束(不包含 10)
for i in range(5, 10):
    print(i)

# 2. 指定起始值、结束值和步长
# 从 0 开始,到 10 结束(不包含 10),步长为 2
for i in range(0, 10, 2):
    print(i)

# 3. 倒序遍历
# 从 10 开始,到 0 结束(不包含 0),步长为 -1
for i in range(10, 0, -1):
    print(i)

# 4. 与 len() 结合遍历列表索引
fruits = ["apple", "banana", "cherry"]
for i in range(len(fruits)):
    print(f"索引 {i} 对应的水果是: {fruits[i]}")

# 5. 创建列表
numbers = list(range(5))
print(numbers)  # 输出: [0, 1, 2, 3, 4]

数据结构

函数

面向对象

包管理和虚拟环境

包仓库

# 官网
https://pypi.org/
# 配置清华加速源
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

常用库

image.png

Miniconda

Miniconda 是一个 Anaconda 的轻量级替代,默认只包含了 python 和 conda,但是可以通过 pip 和 conda 来安装所需要的包。Miniconda 安装包可以到以下链接下载。

https://mirrors.tuna.tsinghua.edu.cn/anaconda/miniconda/

Conda加速配置

conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge/
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/bioconda/

Conda基础命令

image.png

Conda的使用示例

# 创建隔离环境
conda create -n myapp python=3.10

# 激活环境
conda activate myapp

# 安装依赖
pip install -r requirements.txt

# 生成文件
pip freeze > requirements.txt

安装jupyterlab

# 官网
https://jupyter.org/install

# 安装
pip install jupyterlab

# 启动
jupyter lab

AI 从模型能力竞争,进入规模化推理能力竞争的新阶段。随着大模型在企业级场景中的落地,推理系统的性能、成本与资源利用率,正成为决定 AI 商业化成败的关键因素。在这一过程中,存储作为 AI 基础设施核心支撑环节,成为释放 AI 算力、重构推理效率结构的核心能力。

为系统评估算力中心的“存力”水平、打通技术研发与产业应用壁垒,在 NVIDIA、美团、三星、Solidigm 等产业链领军企业支持下,ODCC 成立 AI 存储实验室。针对推理场景中的数据响应瓶颈,实验室聚焦大模型推理中的关键制约因素—KV Cache,启动面向存储软硬件的专项协同测试工作,旨在构建一套适配推理场景的 KV Cache 存储解决方案及测试规范,切实推动 AI 存储技术的标准化、规范化与规模化落地。

图片

ODCC AI 存储实验 KV Cache 评测环境

焱融科技作为国内专业的 AI 存储厂商,其自主研发的 YRCache 推理存储系统参与首批测试,并取得优异成果。测试结果不仅验证了 YRCache 对推理性能的显著提升,更证明了 YRCache 可以让中低配置 GPU 跑出接近高配置 GPU 的推理性能,优化推理成本,重构企业 AI 推理基础设施的投入产出比。

本次测试亮点数据

推理性能全面数量级提升

1. TTFT(首 Token 延时)降低 97%,实时响应,告别等待。

2. TPOT(每个输出 Token 生成时间)降低 97%,流畅输出不卡顿。

3. Token 吞吐量(每秒生成 token 数)提升 22 倍,单 token 成本可随之同比例降低。

低配 GPU 跑出高配性能,推理成本结构性优化

1. YRCache 加持下,中端 GDDR GPU 各项推理性能接近高端 HBM GPU,ROI 提升 14 倍。

2. 为企业提供“用更低算力预算获得更高推理能力”的可行路径。

测试背景

随着大语言模型(LLM)的持续演进,应用场景不断拓展,模型能力快速迭代,上下文长度快速增长。以 DeepSeek-R1 为代表的新一代推理模型,已支持 100K+ 的超长上下文。这在提升模型复杂任务处理能力的同时也带来了 KVCache(Key-Value Cache,键值缓存) 的爆炸式增长。

KVCache 作为 Transformer 推理阶段的核心数据结构,用于缓存注意力机制中间结果,是影响推理效率的关键变量。但随着上下文长度增加,KVCache 占用的显存呈线性膨胀,成为推理系统的主要瓶颈。如何高效管理 KVCache,已成为决定大模型推理系统规模化能力的关键。

测试目的

焱融 YRCache 推理存储系统是专为大规模推理设计的 KVCache 存储管理平台。通过构建 GPU 显存、主机内存、本地 NVMe SSD 和 YRCloudFile 高性能分布式文件存储等多级 KV 缓存架构,YRCache 显著扩展 KV 缓存空间,加速推理性能提升。本次测试旨在评估在基于 NVIDIA 计算和网络平台的测试环境下, YRCache 对推理性能的提升效果。

图片

YRCache 架构图

测试环境

本次测试主要围绕 PD(Prefill-Decode)一体化推理场景,基于 DeepSeek-R1 等主流大模型,对比原生 vLLM 框架与集成 YRCache 后的系统,在不同网络带宽配置(200Gbps / 400Gbps / 800Gbps)下的性能表现。

  • 测试模型:DeepSeek-R1-0528-FP4(671B 参数,FP4 量化),支持 128K tokens 上下文。

  • 测试框架:vLLM + YRCache (焱融客户端),基于 RDMA/RoCEv2 协议。

  • 测试环境:采用 NVIDIA Spectrum-X 400Gbps 以太网网络,搭配 3 台 GPU 计算节点(节点 A/B/C)和 3 台焱融存储服务器,通过 Spine-Leaf 网络拓扑实现高速互联。

在具体 GPU 服务器配置方面,测试分别在以下两类算力环境中进行:

  • 中端 GDDR GPU 服务器

该类服务器显存容量和带宽低,主要面向成本敏感型的大规模推理部署、中等规模模型推理服务、轻量级微调、企业 AI 平台建设等。在此类环境下,系统对显存容量与带宽资源更加敏感,KV Cache 占用与跨节点通信效率直接影响整体吞吐与稳定性。

  • 高端 HBM GPU 服务器

该类服务器主要面向超大规模推理、高并发及长上下文推理需求,如 100K+ Tokens 长文本处理、复杂 Agent 推理与高端智算中心部署等。HBM 显存容量和带宽更高、单卡计算性能更强,但在大规模并发与 PD 一体负载下,仍对存算协同效率与网络带宽提出更高要求。

在不同 GPU 环境下的测试,也进一步揭示了焱融 YRCache 在不同硬件配置下的推理加速与性能提升效果。

图片

测试环境网络拓步图

测试结果:不仅是性能指标的飞跃,更是用户体验和推理成本的重塑

推理性能全面提升

图片

极致加速:让“长文本”推理如丝般顺滑

在 ODCC 严格测试中,对比原生 vLLM 框架,在不同 GPU 和网卡配置下,YRCache 均实现了 TTFT、TPOT、Token 吞吐量等全维度核心指标数量级优化,直接转化为用户可感知的真实价值:

  • 瞬时响应,即问即答,用户交互感拉满,留存率提升。

  • 流式输出行云流水,长文档生成效率质变。

  • 吞吐能力升级,系统能够服务更多并发用户请求,单 token 成本也同比例降低。

不同 GPU & 网络带宽测试数据:

图片

上图展示了在 8 卡中端 GDDR GPU 服务器环境中,batch size = 16、输入长度 10K tokens 条件下,分别在 400Gbps 与 800Gbps 网络带宽配置下的测试数据。可以看到:

  • 在 400Gbps 网络环境下,使用 YRCache 后, TTFT 降低 95%,TPOT 降低 96%,token 吞吐量提升 17 倍。

  • 在 800Gbps 网络环境下,TTFT 降低 97%,TPOT 降低 97%,token 吞吐量提升 22 倍

在高端 HBM GPU 服务器环境下,推理性能同样实现了全面提升。

图片

从上图数据可以看出,在高端 HBM GPU 环境中,当 batch size 为 16、输入长度为 10K tokens 时,集成 YRCache 后,在 200Gbps、400Gbps 与 800Gbps 三种网络带宽配置下,系统性能均实现大幅优化:

图片

此外,可以看到,随着网络能力的增强,推理性能的提升也进一步增强。

不同业务场景:让“复杂任务”变“高效”

在模拟不同上下文长度场景的测试中,随着 Token 长度从 100 增加到 100K,YRCache 实现了全程稳定的性能提升,且随着上下文的增长,YRCache 的性能增益呈放大趋势(如下面两张图所示)。这为企业部署长上下文模型处理复杂长文档分析、代码生成、多轮交互等重负载任务提供了技术底气,无需担忧性能断崖

图片

图片

跨越硬件代差:YRCache 让中低配卡性能接近追平高配卡,推理成本革命性优化

如果说性能提升是意想之中的效果,那么跨越硬件代差、实现结构性成本优化,则是在价格波动与供应紧张的现实背景下,YRCache 为企业提供的更具战略意义的价值支撑。

本次测试结果充分体现了 YRCache 能够给用户带来的核心商业价值:在 YRCache 的加持下,配置较低的中端 GDDR GPU 服务器,其综合推理性能指标接近高端 HBM GPU 服务器

图片

图片

从上图中的数据可以看到,在未使用 YRCache 时,中端 GDDR GPU 相较于高端 HBM GPU 存在明显的性能差距:

  • TTFT:19051ms vs 6992ms,比 高端 HBM GPU 慢了 173%。

  • TPOT:1637ms vs 448ms,比 高端 HBM GPU 慢了 265%。

  • Throughput:4341 vs 14269 tokens/s,吞吐量仅为 高端 HBM GPU 的 30%。

而在使用 YRCache 后,中端 GDDR GPU 和高端 HBM GPU 的性能均实现显著跃升,且两者差距急剧缩小,中端 GDDR GPU 各项性能大幅逼近 高端 HBM GPU:

图片

在大模型推理场景中,硬件采购成本与实际产出吞吐量(Token 吞吐量)是衡量投资回报率(ROI)的关键因素。本次测试数据进一步揭示了不同配置下的 ROI 表现差异。

图片

如上图数据所示,虽然在原生状态下,中端 GDDR GPU 的推理表现并不占优,但在引入 YRCache 优化方案后,其 ROI 呈现出爆发式增长——在 400Gbps 和 800Gbps 网络环境下,分别提升了 11 倍和 14 倍。这意味着在投入相同资金的情况下,采用“中端 GDDR GPU 服务器 + YRCache”方案能够带来远超高端 HBM GPU 原生方案的产出效率,实现了成本效益的显著优化。

这正体现了 YRCache 对企业 AI 成本结构的重构。对用户而言,他们能够:

  • 拥有更多选择,不用盲目追求顶级 GPU,通过部署 YRCache,现有硬件也可释放超强推理性能。

  • 规模化部署时,TCO(总拥有成本)可实现显著优化。

  • 中小企业也能用更低门槛,实现高性能 AI 推理服务。

对于正处于商业化关键期的 AI 企业而言,这不只是性能和成本的优化,更是商业模式的重新定义——当推理成本从"高端卡依赖"转向"存储技术创新",AI 应用的盈亏平衡点将大幅下移,更多创新场景将具备经济可行性。

此外,焱融 YRCache 推理存储系统还支持 PD 分离场景,能够为下一代推理架构的极致优化提供坚实的数据流转基础。

此次参与 ODCC AI 存储实验室首批 KVCache 场景测试的结果,不仅是焱融 YRCache 技术实力的有力印证,也为整个 AI 推理行业指明了 “存储驱动性能、架构优化成本” 的全新路径。

除了面向大规模推理场景的 YRCache 推理存储系统,焱融科技目前已围绕 AI 全流程数据需求,构建起覆盖数据采集、大模型训练、推理加速与数据治理的完整能力体系。依托 YRCloudFile 分布式文件系统、F9000X 全闪存储一体机、YRCache 推理存储系统以及 DataInsight 数据管理平台,焱融打造了系统化的全栈 AI 存储解决方案,实现从数据接入、模型运行到数据管理的全链路支撑。

图片

未来,我们将继续深耕 AI 存储,以数量级性能提升 + 颠覆性成本优化双重能力,助力企业在 AI 爆发时代,以更低成本、更高效率、更优体验,抢占规模化落地先机。

AI时代,产品设计师的工具箱正在经历大换血。以前画个界面得一点点拖拽组件、调间距、对对齐,现在只要动动嘴描述想法,AI就能帮你生成可编辑的设计稿。掌握这些工具的设计师,效率直接翻倍,一个人干过去一个团队的活儿也不稀奇。今天就给大家整理一份我亲测好用的AI设计软件清单,覆盖从原型设计到素材处理的各个环节,希望能帮你省下时间,专心琢磨产品本身。

一、产品设计类:让界面生成像说话一样简单

  1. Uizard
    Uizard在国外很火,最大亮点是门槛极低——哪怕你不会设计,只要会画草图、会打字,就能快速做出可交互原型。它可以把你的手绘草图直接识别成数字化界面,还能根据截图自动生成相似风格的新设计。
    亮点速览
    草图转原型:随手画的纸上草图拍照上传,AI自动识别布局并生成可编辑页面。
    文字生成界面:输入一句话描述,比如“一个新闻App首页”,AI直接生成完整界面。
    风格迁移:给个参考网页或App截图,AI能提取配色、字体,套用到你的设计上。
    实时协作:支持团队在线修改讨论,快速迭代。
    价格:基础版免费,付费版$12/月起
    适合谁:初创团队、产品经理、设计新手,不需要设计基础。
    推荐指数:⭐⭐⭐⭐⭐
    image.png
  2. Framer AI
    Framer AI专注于网页设计,最牛的地方是:你说一句话,它就能生成一个能直接上线的网站。从文案、配图到排版结构全自动搞定,还自带交互动画和响应式布局。
    亮点速览
    AI生成网站:输入“做一个简约的个人作品集网站”,AI自动生成完整页面,包含文字和图片。
    智能排版:自动适配手机、平板、电脑不同屏幕,不用手动调。
    动画自动加:内置动态组件,页面切换、按钮点击的动画效果自动生成。
    一键发布:设计完直接绑定域名上线,省去开发环节。
    价格:基础版免费,专业版$20/月起
    适合谁:需要快速搭建落地页、作品集的设计师或创业者。
    推荐指数:⭐⭐⭐⭐
    image.png

二、设计开发类:让设计稿变成代码

  1. UXbot
    UXbot是一款集原型、设计、开发于一体的产品设计工具。你仅需描述需求,就能获得一整套可编辑、可交互且逻辑连贯的产品设计,以及前端代码,生成的产品可以直在线预览和运行。如果你生成的是安卓端的前端代码,甚至都可以直接安装到手机内测试运行。
    亮点速览
    文字生成产品:输入“做一个待办事项App,能添加任务、标记完成”,AI自动生成完整应用。
    项目级用户旅程设计:通过构建完整的用户流程图, 确保项目全周期的导航逻辑清晰、 衔接流畅。
    实时编辑:界面和逻辑都可以在线利用AI助手和编辑器改,修改后自动同步到运行版本。
    代码生成:将高保真原型转化为Web/iOS/Android前端代码通过云端服务器进行端到端测试。 代码可下载为 Vue 、Swift、Kotlin格式, 可直接添加到开发环境。
    团队协作:通过复制链接的方式,分享你的项目。可为团队成员或相关方,设置 “仅查看” 或 “可导入” 等不同权限。
    价格:免费版可用,个人版79元/月起
    适合谁:设计师、创业者想快速验证产品概念,不需要开发就能看到可运行效果。
    推荐指数:⭐⭐⭐⭐⭐
    image.png
  2. Cursor
    Cursor是基于GPT-5的智能编程编辑器,但它的能力远不止写代码——它能理解设计稿,自动推导出对应的前端组件结构,帮助设计师把想法快速变成可运行代码。
    亮点速览
    AI编程助手:用自然语言描述功能,AI自动生成代码段、修复错误。
    设计协作:可结合设计稿分析,AI自动识别页面组件并生成对应代码结构。
    上下文理解:能记住项目文件和命名规则,补全代码时更智能。
    多人协作:开发团队共享上下文,AI能识别各成员修改意图,减少冲突。
    价格:基础版免费,Pro版$20/月起
    适合谁:懂点代码的设计师,或想打通设计与开发流程的团队。
    推荐指数:⭐⭐⭐⭐
    image.png

三、内容生成类:文案、图片、视频一键搞定

  1. Canva Magic Studio
    Canva内置的AI套件Magic Studio,能让小白也能秒出大片。输入关键词或上传图片,AI自动匹配模板、生成文案、调整排版,做海报、社交媒体图、PPT都不在话下。
    亮点速览
    AI文案生成:根据主题自动生成标题、正文。
    智能模板匹配:上传图片或输入关键词,AI推荐合适的模板和配色。
    一键去背景/修图:图片编辑功能集成AI,操作简单。
    价格:免费版够用
    适合谁:需要快速产出视觉内容的设计师、营销人员、教育工作者。
    推荐指数:⭐⭐⭐⭐
    image.png
  2. Adobe Firefly
    Adobe的亲儿子Firefly,深度集成在PS、AI等专业软件里,让传统设计工作流“AI化”。生成式填充、风格替换、自动上色等功能,能极大提升修图和创作的效率。
    亮点速览
    生成式填充:选中区域输入描述,AI自动生成内容填补,比如在照片上加个物体。
    风格参考:上传一张图,AI能提取风格并应用到新设计。
    品牌一致性:在不同项目中自动保持配色、字体统一。
    价格:部分功能免费,高级功能需订阅Creative Cloud
    适合谁:专业设计师,希望用AI加速Photoshop等工作流程。
    推荐指数:⭐⭐⭐⭐⭐
    image.png

四、素材处理类:找图、配色、抠图不再头秃

  1. Lummi AI
    Lummi AI是个智能素材生成器,输入提示词就能生成高清图片或视频素材,所有素材可商用。它还支持根据品牌色一键调整素材风格,保持视觉统一。
    亮点速览
    AI生成素材:输入“夕阳下的海滩”,生成高质量图片。
    可商用素材库:海量免版权图片、视频,直接用于商业设计。
    风格统一:上传品牌色,AI自动调整素材氛围。
    价格:免费
    适合谁:设计师快速获取高质量图片素材,避免版权风险。
    推荐指数:⭐⭐⭐⭐
    image.png
  2. PNG Maker AI
    PNG Maker AI专注于AI抠图和透明图生成,上传图片自动识别主体,一键生成高清PNG。还支持批量处理、图像修复,对电商、产品展示场景特别实用。
    亮点速览
    AI智能抠图:自动识别主体与背景,生成透明PNG。
    图像修复:自动修复边缘、填充缺失区域。
    批量处理:一次上传多张图,AI批量输出成品。
    价格:免费版可用,付费版$9/月起
    适合谁:电商设计师、UI设计师,需要快速处理产品图、图标素材。
    推荐指数:⭐⭐⭐⭐⭐
    image.png

最后想说的话
AI不会取代设计师,但会用AI的设计师一定会取代不会用的。未来的“超级设计师”,不是一个人干所有活,而是懂得借力AI,把精力放在创意和产品逻辑上。如果你也想跟上这波浪潮,不妨从今天介绍的这些工具里挑一个试试,慢慢搭建属于自己的智能工作流。工具永远在变,但思考的能力和创造力,才是你真正不可替代的地方。

如果你问一家半导体材料企业的老板,经营中最让他头疼的是什么?答案往往不是技术研发,而是客户管理

这个行业的客户管理有多难?认证周期动辄一年半载,客户是台积电、中芯国际这样的巨头,你既没议价权又不敢得罪,技术支持和售后服务稍有懈怠就可能前功尽弃......在“国产替代”的浪潮下,无数材料企业手握好产品,却在客户管理的泥潭里寸步难行。

痛点我们都懂,但解法在哪?当传统CRM沦为“通讯录”,融合AI技术的智能CRM正在悄然改变游戏规则。今天,我们就以珍客AI CRM为例,看看AI CRM如何像手术刀一样,精准切除半导体材料企业的客户管理病灶。

第一刀:告别“脸盲”,AI帮你把客户看透

痛点回顾: 客户信息散落在销售微信、Excel表格、出差报告里。面对一个大客户,你知道他买过什么,却不知道他的技术偏好、决策链结构、甚至他正被哪个竞品“虎视眈眈”。

AI CRM的解药:360°全景客户画像

真正的客户洞察,不是把名片电子化,而是将碎片拼成蓝图。珍客AI CRM能够自动整合客户的工商信息、采购历史、技术需求文档、售后服务记录,甚至销售与客户的每一封邮件往来,最终生成一个动态的客户360°视图

更关键的是 “联系人关系图谱” 。它能可视化呈现客户内部错综复杂的决策链——谁是技术拍板人?谁是采购执行者?谁和谁存在汇报关系?让你每一次拜访都能精准命中关键人物,不再“烧香拜错佛”。

珍客CRM 客户360度全景视图

第二刀:缩短“马拉松”,把认证周期跑成“百米冲刺”

痛点回顾: 漫长的验证周期不仅是技术考验,更是对客户耐心的消耗。销售、技术、品保部门来回传话,一个参数确认可能拖上一周。

AI CRM的解药:智能协同与BOM管理

珍客AI CRM中,销售接到客户需求后,不再是满公司找人。系统内置的智能CPQ(配置-定价-报价)功能,允许预设产品BOM清单模板。销售只需输入客户的技术参数,系统就能自动核算成本、匹配历史报价,3分钟内生成一份精准的报价单和技术规格书。

当客户进入样品测试阶段,系统会自动打通“需求-研发”通道。销售提交的客户需求,能直接转化为研发部门的任务工单,整个过程透明可视,避免信息断层导致的进度延误。

第三刀:让技术专家“分身有术”,响应速度提升300%

痛点回顾: 客户的技术咨询往往涉及深度的参数匹配和问题排查,离开FAE(现场应用工程师),销售寸步难行。但FAE资源有限,陷入四处“救火”的困境。

AI CRM的解药:AI技术知识库与智能诊断

珍客AI CRM支持搭建企业专属的技术知识库,将产品参数、历史定制化案例、常见故障排查手册全部结构化沉淀。

当客户抛出一个技术问题时,销售或客服在系统中输入关键词,AI销售助手就能瞬间从知识库中调取最接近的解决方案或产品推荐。对于复杂问题,系统能自动理解客户需求文档,并匹配最擅长该领域的技术专家,同时把客户的全部合作历史和故障背景同步给专家,让专家无需重新“补课”,直接进入解决状态。

珍客CRM AI智能服务管理

第四刀:供应链的“天气预报”,让交付不再提心吊胆

痛点回顾: 晶圆厂不能停线,对交付时效是“零容忍”。一旦原材料短缺或物流延误,可能面临巨额索赔。而传统的产销协同,基本靠“吼”。

AI CRM的解药:需求预测与交期预警

珍客AI CRM通过整合历史订单数据、市场趋势和客户的实时动态,利用AI算法生成精准的需求预测。

生产部门可以据此提前备料、规划产能,避免“急单来了做不出,做出来了没人要”的尴尬。同时,系统能实时监控订单生产进度和物流状态,一旦检测到可能延误的风险(如物料短缺、产能瓶颈),会自动触发预警,并推荐备选方案(如外协生产),将订单延期风险降到最低。

第五刀:从“救火队”到“守护者”,售后也能创造价值

痛点回顾: 客诉处理不仅成本高,而且容易陷入“扯皮”。问题出在材料还是客户使用参数?归责不清往往伤害客户关系。

AI CRM的解药:智能售后诊断与全流程留痕

当客户反馈问题时,珍客AI CRM的智能售后系统可以发挥作用。客户提交故障代码或描述现象后,AI基于海量历史案例库,自动生成初步诊断结果和解决建议,甚至能远程指导客户完成简单的参数调整,解决80%以上的常规问题

对于重大问题,系统会启动ITR(问题到解决)流程,从工单分配、任务执行到解决方案确认,全程透明留痕。这不仅让客诉处理效率倍增,也为日后可能的责任界定提供了清晰的“数字黑匣子”。

第六刀:握住“流失预警”,留住那些“沉默的大客户”

痛点回顾: 大客户的流失往往悄无声息。等你发现时,竞品可能已经完成了产线验证。

AI CRM的解药:客户健康度与流失预警

珍客AI CRM客户健康度分析功能,会实时监测客户的各项指标:沟通频次是否下降?项目进展是否停滞?售后工单是否突然增多?售后服务评价是否下滑?

一旦系统检测到异常,会自动生成预警并推送至销售负责人,提醒团队及时介入。这种从“被动反应”到“主动预防”的转变,是守住高价值客户资产的关键防线。
珍客CRM 客户风险检测


半导体材料行业的竞争,早已从“产品技术竞争”升级为“客户价值管理与全链路协同能力竞争”。

传统管理模式难以突破的瓶颈,正在被AI CRM逐一破解。以珍客AI CRM为代表的智能工具,不仅打通了“销售-技术-生产-售后”的数据孤岛,更用AI能力实现了从“被动记录”到“主动预判”的质变。

对于正处国产替代窗口期的材料企业而言,选择拥抱AI CRM,不只是引入一套软件,更是为自己装上了一台能够精准导航客户全生命周期、驱动可持续增长的核心引擎。在这个“芯”时代,谁能管好客户,谁才能真正破局。

Moonshot AI 的又一力作。Kimi K2.5 是一款视觉智能体模型,在 OpenRouter热门模型榜单上名列前茅​,且在多项基准测试中​超越闭源模型​,充分展现了研究层面的突破。从架构、训练和实现的角度来看,这款模型值得深入探索。

在之前关于 Kimi K2 的文章中,我们深入探讨了这款模型,特别关注了其后训练阶段的相关内容。我们还分析过 Kimi 团队推出的线性注意力架构——Kimi Linear。除了这些亮眼的发布外,Moonshot AI 还​发布了大量高密度的技术报告​。阅读本文时,请务必参考 Kimi-K2.5 技术报告

Kimi K2.5 的发布包含了后训练阶段的检查点,并采用修改后的 MIT 许可证开源使用。

本文的目标是​突出我们认为最值得关注的内容​,即 Kimi K2 团队究竟采取了哪些措施来实现如此出色的性能。同时,我们还将展示如何在 DigitalOcean GPU Droplet 云服务器上运行这个模型。

model-comparison

本文核心要点

  • Kimi K2.5 与 Kimi K2 相同,采用 MoE 架构,总参数 1 万亿,活跃参数 320 亿。之所以命名为 K2.5 而非 K3,是因为​Kimi K2.5 建立在 K2 的基础上​,进行了大规模联合预训练,模型在 15 万亿视觉和文本 Token 上进行了训练。
  • Kimi K2 与 K2.5 的主要区别在于,K2.5 更加注重联合视觉训练——特别是预训练和后训练的强化学习阶段。而监督微调则仅使用文本数据。
  • 该模型采用修改后的 MIT 许可证开源,包含后训练检查点。模型提供三种模式:即时模式、思考模式和智能体模式。
  • 引入了​Agent Swarm(智能体集群)​和​PARL(并行智能体强化学习)​,用于解决单一智能体在处理复杂场景时能力有限的问题。
  • Toggle 启发式方法通过交替使用推理时扩展和预算约束优化,实现了 Token 高效的强化学习。
  • ​解耦编码器流程(DEP)​解决了处理不同尺寸视觉数据(如图像和视频)时出现的负载不均衡和内存波动问题。
  • 对于更复杂的任务,Kimi K2.5 可以自指挥多达 100 个子智能体组成的集群,支持并行执行最多 1,500 次工具调用。子智能体各有专长(如 AI 研究员、物理研究员、事实核查员)。

模型概览

规格说明
架构​:Transformer,混合专家(MoE)混合专家(MoE)架构允许在降低计算成本的同时实现更大的模型规模和更高的质量。它使用稀疏的前馈神经网络层(​专家​)和门控网络(​路由器​),将 Token 有选择地路由到 Top-k 专家,为每个 Token 仅激活部分参数。这种方法使得构建更大规模的模型成为可能,而无需按比例增加计算成本。
参数​:总参数 1 万亿,活跃参数 320 亿由于 K2 是 MoE 架构,因此有总参数和活跃参数之分。总参数是指整个模型中所有参数的总和,包括所有专家网络、路由器/门控网络和共享组件,无论推理时使用哪些专家。活跃参数则仅计算特定输入所使用的参数子集——通常是激活的专家加上共享组件。
注意力机制​:MLA(多头潜在注意力)MLA 由 DeepSeek V2(第 2.1 节)引入,是一种用于提升推理效率的注意力机制。MLA 通过将注意力输入压缩到低维潜在向量中工作,之后可以通过恢复键值来计算。由于 K2 使用了 MLA,QK-Norm——一种通常应用于查询-键矩阵的归一化技术——不适用于扩展 Muon 训练,因为 MLA 中的键矩阵在推理时并未完全具体化。因此,K2 研究人员引入了 QK-Clip,这是一种权重剪枝机制,用于约束大规模 Muon 优化训练中出现的注意力 Logit。
优化器​:MuonClipMuon 虽然是一种 Token 高效的优化器,但需要针对大规模训练进行修改。Kimi K2 技术报告第 2.1 节引入的​MuonClip 优化器​,是将 Muon 与权重衰减、一致的 RMS 匹配和 QK-Clip 相结合的产物。
专家数量​:384;每 Token 选择专家数:8;共享专家数:1有关专家数量如何影响稀疏性的更多细节,请参阅 Kimi K2 相关博客的稀疏性部分。
层数​:61(包括 1 个 Dense 层)这里的"层数"指的是模型中 Transformer 块的数量。每一层处理和精炼输入数据,使模型能够学习越来越抽象的表示。Dense 层是全连接层。
注意力头数​:64;注意力隐藏维度:7168注意力头允许模型同时关注输入的不同部分。每个头学习捕捉数据中不同类型的关系。
MoE 隐藏维度(每个专家)​:2048每个单独专家处理 2048 维的表示。
激活函数​:SwiGLU这不足为奇。SwiGLU 是现代大语言模型的标准选择。例如:gpt-oss
视觉编码器​:MoonViT-3D(4 亿参数)这是 Kimi K2 的新特性。如果你熟悉 Kimi-VL,你可能认得 MoonViT。Kimi K2 使用的是​MoonViT-3D​,这是对 SigLIP 在图像-文本对和视频-文本对上进行持续预训练的结果。连续的四帧被分组处理,通过共享的 MoonViT 编码器,然后在 patch 级别进行时间平均——这种设计使 K2.5 能够在相同上下文窗口内处理 4 倍长度的视频。

本文探讨三个相互关联的主题:

  • 视觉-语言融合​:通过联合优化技术,让文本和视觉模态相互增强。预训练和强化学习阶段都是多模态的。
  • 可扩展并行​:通过 Agent Swarm 实现,支持专业智能体并发执行异构子任务。
  • 强化学习​​:该模型在多个方面采用了强化学习,本文将详细展开:

    • 联合多模态强化学习
    • 基于结果的视觉强化学习
    • PARL(并行智能体强化学习)
  • 推理优化​:使研究人员能够在提升任务性能的同时,实现高达 4.5 倍的延迟降低。由于并行化带来的推理改进,Kimi K2.5 能够在相同上下文窗口内处理 4 倍长度的视频,同时保持图像和视频编码器之间的完整权重共享。

tabl2

表中结果表明,视觉强化学习在需要复杂推理和知识整合的任务中具有优势,在测试事实理解和长上下文理解的各种基准测试中表现出一致的性能提升。

Agent Swarm(智能体集群)

Agent Swarm

使用智能体集群可以实现:

  • 动态任务分解
  • 子智能体实例化
  • 并行子任务调度

在 Kimi 网站上,你实际上可以体验 K2.5 的 Agent Swarm

K2.5 技术报告第 5.2 节详细说明了这一设计如何转化为性能提升。三个基准测试评估了智能体集群框架:BrowseComp 用于浏览难以找到的信息和深度推理,WideSearch 用于大规模检索,以及一个内部开发的 Swarm Bench 用于测试真实世界的复杂性。内部基准测试涵盖四个领域的编排、可扩展性和协调能力。有趣的是,可以看到对以下能力的大规模重视:信息收集、下载、解读和写作。

内部 Swarm Bench 任务说明
WildSearch无限制地从整个互联网收集信息,不受任何限制
Batch Download大规模收集各种类型的文件和资料
WideRead处理和理解 100 多份文档的大量文本
Long-Form Writing创建超过 100,000 字的精心结构化的长篇内容

PARL(并行智能体强化学习)

在 K2.5 中,并行智能体强化学习(PARL)意味着与并行化相关的决策是通过环境反馈强化学习驱动的探索来学习的。其工作方式是:K2.5 有一个可训练的编排智能体。强化学习框架通过训练小规模子智能体并动态调整推理实例比例来提高效率。

研究人员观察到一个常见的失败模式是​串行崩塌​,即编排智能体尽管有并行能力可用,却默认选择单智能体执行。为了解决这个问题,PARL 使用分阶段奖励,在训练早期鼓励并行化,并逐渐将重点转向任务成功。

后训练

监督微调

你可能会好奇为什么这个阶段只使用文本。研究人员发现,在 SFT 中添加人工设计的视觉轨迹会对泛化产生负面影响。另一方面,仅使用文本的 SFT 具有更高的性能,研究人员推测这是因为​联合预训练建立了促进泛化的视觉-文本对齐​。

合成数据生成管道从 K2、K2 Thinking 以及一系列专有内部专家模型生成高质量的候选文本响应。我们对这些内部模型非常好奇。最终的指令微调数据集包含多样化的提示,并优先训练模型的推理和工具调用能力。

强化学习

这里采用的方法与传统方法不同,因为强化学习的领域不是按输入模态(如图像、文本)组织的,而是按能力(如知识、推理、编码、智能体等)组织的。

统一智能体强化学习环境

agenticframework

为了最小化定制和实现环境的相关开销,有一个标准化的类 Gym 接口,具有可插拔的组件(如工具集、评判器、提示和指令增强)。

模块目的
工具集用沙箱支持各种工具
评判器多方面奖励信号
提示多样化和指令遵循增强提示多样化并改进指令遵循

性能

Kimi K2.5 技术报告第 5 节详细介绍了模型的性能。K2.5 在以下领域表现出色:

  • 推理和通用能力
  • 复杂编码和软件工程
  • 智能体能力
  • 视觉、推理知识和感知
  • 视频理解
  • 计算机使用能力

在 DigitalOcean 上运行 K2.5

运行不同版本 Kimi K2.5 有多种方式:vllm、sglang、unsloth。注意内存需求:1 万亿参数的混合推理模型需要 600GB 磁盘空间,而量化的 Unsloth Dynamic 1.8-bit 版本将其减少到 240GB(-60%):Kimi-K2.5-GGUF

首先设置一个 DigitalOcean GPU Droplet,然后通过 SSH 登录到你的 Droplet。注意你需要多少 GPU。

vLLM 实现

我们遵循 vLLM 的使用指南

uv pip install -U vllm \
    --torch-backend=auto \
    --extra-index-url https://wheels.vllm.ai/nightly

我们设置-tp 为 1,将模型的各层和数学操作"分片"到 1 个 GPU 上。注意原始文档中-tp 8 表示使用 8 路张量并行将模型分布到 8 个 GPU 上。

vllm serve $MODEL_PATH -tp 1 --mm-encoder-tp-mode data --trust-remote-code --tool-call-parser kimi_k2 --reasoning-parser kimi_k2

Sglang 实现

这里我们遵循 Kimi-K2.5 部署指南中的 sglang 实现

pip install "sglang @ git+https://github.com/sgl-project/sglang.git#subdirectory=python"
pip install nvidia-cudnn-cu12==9.16.0.29
sglang serve --model-path $MODEL_PATH --tp 8 --trust-remote-code --tool-call-parser kimi_k2 --reasoning-parser kimi_k2

关键参数说明:

  • --tool-call-parser kimi\_k2:启用工具使用时必需。
  • --reasoning-parser kimi\_k2:正确处理推理内容时必需。

常见问题

为什么模型叫 K2.5 而不是 K3?

K2.5 直接建立在 K2 的基础上,通过在 15 万亿视觉和文本 Token 上进行大规模联合预训练进行扩展。因为核心架构(MoE、参数数量、MuonClip 优化器)保持不变,团队将其定位为 K2 的演进,而不是全新的一代。

为什么早期视觉融合以较低的视觉比例优于激进的晚期视觉注入?

论文的消融实验(表 1)表明,以适度比例(10:90 的视觉-文本)早期引入视觉数据,始终优于高比例(50:50)的晚期融合。晚期融合会导致"下降-恢复"模式,文本性能最初会因模态域转换而下降。早期融合避免了这种干扰,允许两种模态从一开始就共同发展统一表示。

为什么视觉强化学习能提升文本性能?

论文发现,基于结果的视觉强化学习提升了 MMLU-Pro、GPQA-Diamond 和 LongBench v2 的分数。可能的解释是,涉及计数、OCR 和结构化提取的视觉任务会校准并减少类似文本推理模式中的不确定性。

如果 K2.5 是多模态模型,为什么 SFT 只使用文本?

发现在 SFT 阶段添加人工设计的视觉轨迹会损害泛化。联合预训练阶段已经建立了强大的视觉-文本对齐,因此仅使用文本的 SFT 足以激活视觉推理,而不会过度拟合低多样性的视觉演示的风险。这就是论文所说的"零视觉 SFT"。

Toggle 如何防止模型在追求 Token 效率的同时牺牲推理质量?

Toggle 每 m 个训练迭代在两个阶段之间交替:一个奖励简洁推理的预算约束阶段,以及一个允许完全 Token 使用的标准扩展阶段。这防止了"长度过度拟合",即在严格预算下训练的模型在更难的问题上无法有效利用额外计算。平均而言,Toggle 将输出 Token 减少 25-30%,而性能损失可以忽略不计。

Agent Swarm 与简单地并行调用工具有何不同?

Agent Swarm 不是静态并行——编排智能体通过 PARL 学习何时以及如何并行化。编排智能体动态分解任务、实例化专业子智能体,并并发调度它们。关键的是,子智能体保持独立的工作内存,只向编排智能体返回与任务相关的输出,这是一种主动的上下文管理,而不是被动的截断。

为什么在 PARL 训练期间子智能体被冻结?

同时训练编排智能体和子智能体会产生信用分配模糊性——正确的最终答案并不意味着每个子智能体都表现良好,反之亦然。通过冻结子智能体并将其输出视为环境观察,团队可以稳定地只训练编排智能体,将高级编排与低级执行解耦。

什么是"串行崩塌",如何解决?

串行崩塌是指编排智能体尽管有并行能力可用,却默认选择单智能体执行——本质上是选择阻力最小的路径。PARL 奖励包括一个实例化奖励(rparallel),明确鼓励在训练早期生成子智能体。然后这个辅助奖励逐渐衰减为零,使模型最终纯粹优化任务成功,而不是为并行化本身进行优化。

超参数衰减为零是什么意思?(参见第 3 节关于 PARL 奖励的部分)

parl

在 Kimi K2.5 的 Agent Swarm 训练中,超参数衰减为零意味着在强化学习过程中逐渐降低辅助奖励的权重。

  • 初始阶段​:权重 λ1 和 λ2 设置为大于零,提供"训练轮"鼓励模型探索并行执行(rparallel)并确保子任务实际完成(rfinish)。
  • 过渡阶段​:这些值随时间降低,防止模型"奖励黑客"或优先考虑并发而非质量。
  • 最终阶段​:权重达到零后,模型纯粹优化主要目标:成功解决任务(rperf)。

什么是虚假并行,如何防止?(参见第 3 节关于 PARL 奖励的部分)

虚假并行是一种"奖励黑客"行为,编排智能体生成大量子智能体而没有有意义的任务分解,只是为了夸大并行化指标。

通过以下方式防止:

  • rfinish 奖励,激励成功完成分配给子智能体的子任务,确保分解是可行和有效的。
  • 关键步骤指标,衡量最长执行路径而非总步骤,使创建不会减少延迟的过度子任务变得无用。
  • 超参数衰减,逐渐将并行化的辅助奖励降至零,使模型最终优先考虑主要任务结果。

运行 K2.5 需要多少 GPU 内存?

完整的 1 万亿参数模型需要约 600GB 磁盘空间。量化的 Unsloth Dynamic 1.8-bit GGUF 版本将其减少到约 240GB。对于通过 vLLM 或 SGLang 的全精度部署,需要使用张量并行分布在多个 GPU 上(文档建议-tp 8 进行 8 路分布)。所以理论上讲,有两个方案可行。

方案一:单卡运行量化版本

  • 推荐 GPU​:NVIDIA B300(288GB 显存)
  • 理由:单卡 288GB > 240GB 需求,可以直接运行量化版本,性价比最高

方案二:多卡运行全精度版本

  • 推荐 GPU​:8×H200 或 8×B300
  • 理由:8 卡并行可以承载完整的 1 万亿参数模型
  • B200×8 也可以,但 B300 带宽更高

目前 NVIDIA B300 GPU 云服务器即将在 DigitalOcean 云平台上线,现在可以咨询 DigitalOcean 中国区战略合作伙伴卓普云(aidroplet.com)进行预约提前测试,锁定 B300 资源。

什么是解耦编码器流程(DEP),为什么对训练效率很重要?

在标准管道并行中,视觉编码器与文本嵌入一起位于 Stage-0,导致严重的负载不均衡,因为图像的分辨率和数量差异很大。DEP 将视觉前向传播、主干训练和视觉重计算分为每个训练步骤的三个不同阶段。这实现了负载均衡,无需自定义管道配置,尽管增加了多模态复杂性,K2.5 仍达到了 90% 的纯文本训练效率。

最终思考

最让我们印象深刻的是 Moonshot AI 团队系统性地处理这个问题的方式:联合多模态预训练在强化学习之前建立强大的视觉-文本基础,仅使用文本的 SFT 保持泛化,以及按能力而非模态组织的强化学习。每个决定都反映了关于模型需要学习什么以及何时学习的深思熟虑。PARL 可以说是最具前瞻性的贡献。并行化行为应该学习而非硬编码,串行崩塌是一个需要分阶段奖励塑造的真正失败模式——这些见解表明团队正在认真思考规模化时智能体的可靠性问题。Toggle 启发式方法同样显示了 sophistication:与其将推理时扩展和预算优化视为竞争目标,不如在两者之间交替。

对于从业者来说,一个 1 万亿参数的 MoE 模型,活跃参数 320 亿,​采用修改后的 MIT 许可证开源​,可以通过 vLLM 或 SGLang 部署,是真正可访问的。unsloth 提供的量化 GGUF 变体进一步降低了门槛。无论你是在探索多模态推理管道,还是在构建需要编排并行工作流的智能体,K2.5 都值得认真评估。

Moonshot AI 团队继续发布强大的开源模型和详尽的技术报告,造福更广泛的开发者和研究社区。我们期待报道这个团队以及社区中拥有优秀技术报告和令人印象深刻使用量的其他开源模型的更多发布。

参考资料和更多资源

Kimi K2.5 技术博客:视觉智能体智能
Kimi K2.5 论文
Unsloth Kimi-K2.5 实现
Kimi K2.5 部署指南

感谢与 DigitalOcean 社区一起学习。了解我们计算、存储、网络和托管数据库的产品,可访问卓普云官网 aidroplet.com 或 DigitalOcean 英文官网。

最近看到很多数据中台项目烂尾的资讯,作为一个在数据集成领域摸爬滚打多年的技术老兵,我想从工程师的视角聊聊这个问题。

一、数据中台的"烂尾率"为什么这么高?

根据公开数据,企业级数据中台项目的失败率高达60%以上。这些项目动辄几百万、上千万的投入,最终却沦为"PPT工程"。我见过太多这样的案例:

  • 某零售企业花了800万建数据中台,上线后发现数据对不上;
  • 某金融公司搭建的中台,数据质量差到业务部门宁愿用Excel;
  • 某制造业客户的中台项目,ETL脚本写了上千个,维护成本高到无法承受;

核心问题:很多企业把数据中台当成"面子工程",直接跳过了最基础的ETL数据集成环节,想一步到位做数据治理、数据服务、数据资产。结果呢?垃圾进,垃圾出。

二、跳过ETL的三大致命后果

1. 数据质量失控

源系统数据格式不一、质量参差不齐,直接接入中台会导致"垃圾进垃圾出"。我曾见过一个项目,客户直接把ERP、CRM、OA的数据"原样接入"数据湖,结果:

  • 同一个客户在三个系统里有三个不同的名称;
  • 日期格式五花八门:YYYY-MM-DD、DD/MM/YYYY、时间戳混用;
  • 金额字段有的带货币符号,有的是纯数字,有的用逗号分隔千位;

没有ETL层面的数据清洗和标准化,后面的所有分析都是建立在沙滩上的城堡。

2. 数据标准缺失

ETL不仅是技术工具,更是建立数据标准的最佳时机。在数据抽取、转换的过程中,你需要:

  • 定义统一的字段命名规范;
  • 建立数据字典和元数据管理;
  • 制定数据质量规则和校验逻辑;

跳过这一步,数据中台就成了"数据垃圾场"——数据有了,但没人知道怎么用。

3. 性能和成本双失控

没有经过ETL优化的数据,直接进入数仓或数据湖,会导致存储和计算成本暴涨。一个典型案例:

某互联网公司每天产生10TB原始日志,未经ETL处理直接存入数据湖。半年后发现:

  • 存储成本翻了3倍(大量重复、无效数据);
  • 查询性能下降80%(缺乏分区和索引优化);
  • 计算资源浪费严重(每次查询都要处理全量数据);

image.png

三、ETL选型:Kettle、DataX还是国产化工具?

作为技术负责人,选型时需要综合考虑多个维度。我从实战经验出发,做一个客观对比:

8a7c12dd-95b0-4cc6-8255-3910224c047e.png

四、ETL不只是工具,是数据治理的起点

很多人把ETL理解为"搬运数据"的技术工具,这个认知是片面的。在我的架构实践中,ETL承担着更重要的角色:

1. 数据质量的"第一道防线"

在ETL阶段构建数据质量的守护长城,其核心要义在于将校验、净化与冗余剔除前置化。相较于数仓层的补救性处理,这种"源头治理"模式以更低的资源损耗实现更优效能。

2. 数据标准的"制定者"

ETL管道本质上是企业数据语言的编纂工坊。字段映射如同语法规范,转换逻辑恰似语义重构,聚合规则犹如句法组织——这些精密编纂的脚本代码,实则是将抽象的数据标准转化为可执行的范式体系。

3. 数据血缘的"源头"

现代ETL/ELT平台通过系统化捕获端到端数据谱系,能够精准定位数据资产的初始来源及全生命周期流转路径。这种能力不仅强化了数据治理框架下的透明度与可追溯性,更为监管审计提供了完整的合规性证据链,显著提升数据资产在业务决策与风险管控中的可信度。

image.png

五、给技术负责人的三点建议

第一,不要被"中台"概念绑架。数据中台是结果,不是起点。先做好数据集成,再谈数据中台。

第二,选型时关注"可持续性"。开源工具虽然免费,但维护成本往往被低估。要算总账,不算小账。

第三,给ETL足够的重视和资源。在数据中台项目中,ETL阶段的投入应该占总预算的30%-40%,这个钱省不得。

六、ETLCloud:让数据集成不再成为瓶颈

说到这里,不得不提一下ETLCloud。作为国产ETL工具的代表,它在以下几个方面值得关注:

  • 社区免费版功能完整:离线ETL/ELT、CDC实时集成、编排调度、数据服务API,该有的都有
  • 零代码操作:可视化拖拽设计,不需要写Python或Java
  • 国产化适配:支持达梦、人大金仓、华为高斯等国产数据库
  • 性能优化:基于内存计算,支持分布式集群部署

更重要的是,ETLCloud提供了完整的数据治理能力,包括元数据管理、数据血缘、质量监控等,真正做到"不仅仅是搬运数据"。

今日速览

  1. Claude Marketplace:企业 AI 工具一站式获取,基于 Claude 承诺轻松部署。
  2. Vibe Marketplace by Greta:零代码创作变现平台,副业赚钱新选择。
  3. GetMimic:AI 秒生成逼真社交媒体素材,告别 Photoshop 烦恼。
  4. Pulldog:Mac 原生代码审查神器,聚合 GitHub/Gitlab 收件箱。
  5. Song Sweeper:iPhone 清理 Apple Music 重复歌曲,优化推荐体验。
  6. MarketingDB:免费 dofollow 反向链接平台,创业者推广利器。
  7. Soloron:描述即生成应用,AI 帮你把创意变现实。
  8. FinishDSA:结构化学习数据结构与算法,零压力备战编程面试。
  9. DossierPrêt:房贷文件预分析工具,提升银行获批机会。
  10. Unenhanced:iPhone 相机应用,关闭自动增强拍出自然照片。


1. Claude Marketplace

企业想用 AI 工具却头疼部署?这款平台能帮你轻松搞定,基于 Claude 的解决方案直接集成现有承诺,目前限量预览中。

  • 一站式获取基于 Claude 的 AI 工具
  • 支持企业现有 Anthropic 承诺
  • 简化部署流程,提升效率
  • 目前处于有限预览阶段

热度:🔺465

Claude Marketplace

访问官网 Product Hunt 详情


2. Vibe Marketplace by Greta

想靠创意赚钱又不会写代码?这个市场让你零门槛创作网站、应用或 UI 组件,卖出就能持续收益,副业启动超简单。

  • 无需编码,用 Greta 快速创建数字产品
  • 发布作品到市场,他人购买时赚取收入
  • 可购买现成产品,加速项目启动
  • 支持持续创造和销售,打造被动收入流

热度:🔺274

Vibe Marketplace by Greta

访问官网 Product Hunt 详情


3. GetMimic

做营销总为设计聊天截图发愁?这款 AI 引擎几秒生成超逼真素材,覆盖 35+平台,还能智能补全对话,省时又专业。

  • AI 快速生成无水印的聊天记录和社交媒体模拟图
  • 支持 WhatsApp、Twitter、ChatGPT 等 35+平台
  • 内置 AI 自动补全功能,辅助撰写对话
  • 实时明暗模式预览和云端保存,无广告干扰

热度:🔺230

GetMimic

访问官网 Product Hunt 详情


4. Pulldog

代码审查时被多个 GitHub 账户搞晕?这款 Mac 应用聚合所有 PR 到一个收件箱,智能过滤噪音,原生体验超流畅。

  • 原生 macOS 客户端,专注 GitHub/Gitlab 拉取请求审查
  • 多账户汇聚到单一收件箱,统一管理
  • 创建智能查询,快速过滤无关 PR
  • 支持 Spotlight 操作、Widgets 和设备上 Apple 智能工具

热度:🔺208

Pulldog

访问官网 Product Hunt 详情


5. Song Sweeper

Apple Music 库乱糟糟,重复歌曲多到烦?这款 iPhone 应用帮你智能清理,统一专辑版本,还能标记最爱改善推荐。

  • 自动查找不同专辑中的重复歌曲
  • 统一专辑版本,整理音乐库
  • 识别不再听的歌曲,方便删除
  • 标记常听曲目为最爱,优化推荐内容

热度:🔺167

Song Sweeper

访问官网 Product Hunt 详情


6. MarketingDB

创业推广缺反向链接,付费目录太贵?这个平台免费提供 dofollow 链接,由创业者打造,真实评价助力项目曝光。

  • 免费提供 dofollow 反向链接,降低推广成本
  • 专为 SaaS 和创业者设计,无付费墙限制
  • 每个项目获得真实评价和永久列表
  • 由创造者社区驱动,资源互助共享

热度:🔺50

MarketingDB

访问官网 Product Hunt 详情


7. Soloron

有应用创意但不懂开发?描述你的想法,AI 就能自动构建和更新真实应用,让技术门槛归零。

  • 通过描述功能,AI 自动生成应用程序
  • 支持应用更新和维护,持续迭代
  • 简化开发流程,降低技术门槛
  • 快速将创意转化为可运行产品

热度:🔺40

Soloron

访问官网 Product Hunt 详情


8. FinishDSA

学数据结构算法头大,面试准备没方向?这个工具提供结构化练习和清晰路线图,帮你系统掌握,轻松应对编码面试。

  • 结构化学习路径,系统掌握数据结构和算法
  • 精心挑选练习问题,针对面试高频考点
  • 清晰路线图指导,零压力渐进提升
  • 专为学生和求职者设计,助力面试通关

热度:🔺26

FinishDSA

访问官网 Product Hunt 详情


9. DossierPrêt

申请房贷怕被拒,文件复杂看不懂?先用它分析你的抵押贷款文件,识别风险点,提升获批概率。

  • 预分析抵押贷款文件,识别潜在拒贷风险
  • 提供清晰财务诊断,优化申请材料
  • 提升银行批准机会,减少盲目提交
  • 简化文件评估流程,增强申请信心

热度:🔺14

DossierPrêt

访问官网 Product Hunt 详情


10. Unenhanced

讨厌 iPhone 相机过度处理,想要原汁原味的照片?这款应用关闭自动增强,拍出更自然真实的画面。

  • 关闭 iPhone 默认相机的自动增强功能
  • 减少过度锐化、对比度和色彩调整
  • 拍摄照片与预览画面一致,更真实自然
  • 简单易用,专为摄影爱好者设计

热度:🔺11

Unenhanced

访问官网 Product Hunt 详情

大家好啊,我是甲木。

好久不见,断更了几天,原因有点扎心..腱鞘炎。

在已经用 typeless 帮我解决了绝大部分打字场景下,还是喜提腱鞘炎,然后突然跟IP形象的赛博机械臂呼应上了...bushi

所以 3 月 6 日 OpenAI 发布 GPT-5.4 的时候,我只能躺在那默默刷推,看着全网在讨论「最强模型来了」,心里那叫一个痒。

好消息是,手差不多养好了,OpenClaw 也开始支持5.4接入了。

最新版本已支持

坏消息是,GPT-5.4 已经发布 3 天了,各路测评满天飞。

但我今天这篇文章,就是把 GPT-5.4 用起来,尤其是在OpenClaw中,看看效果怎么样

具体来说,今天讲三件事:

  1. 简单聊聊 GPT-5.4 本次更新了啥?
  2. 怎么通过 OpenClaw 把 GPT-5.4 接入钉钉?(手把手教程)
  3. 真实场景演示:让 AI 在你公司的钉钉群里直接干活

好,开始。


GPT-5.4:几个关键数据先看

GPT-5.4 在 3 月 6 日发布,有三个版本:Standard、Thinking 和 Pro。

OpenAI 管它叫「最强大、最高效的前沿模型」,嗯,基本上每家AI模型都这么说..

官方的话我们听听就好,直接看数据:

最主要的是 GDPval,衡量AI在真实工作任务中表现的,包括金融、法律等44种职业的知识工作,5.4的表现非常不错。

其它的还有几项更新:

① 第一个能"操作电脑"的通用模型

GPT-5.4 内置了 Computer Use 能力。就是说,它能像你一样看屏幕、动鼠标、敲键盘,跨应用执行任务。

在桌面操作基准 OSWorld 上拿了 75.0%,人类应该是 72.4%,接入龙虾,直接起飞。

<!-- 📷 插图:OSWorld 基准对比图 -->

② 100 万 Token 上下文

一次性能处理大约 300 页文档的内容。年报、合同、技术手册,一口气读完。上下文对于 Agent 长程任务的执行非常重要,这次也终于提到 100万token了。

③ 幻觉降低 33%

单条声明出错率降低 33%,完整回复包含错误的概率降低 18%。

以前让 AI 帮你分析数据,最怕它一本正经地编数字。现在这个顾虑至少减轻了三分之一。

④ 速度更快、成本更低

Token 效率提升 47%,API 价格约为 Claude Opus 4.6 的一半($2.50/1M 输入,$15.00/1M 输出)。

社区怎么评价?一句话总结:

「对程序员、研究员、金融分析师来说,GPT-5.4 是 2026 年目前最值得升级的模型;但对普通用户来说,升级感知不如专业用户明显。」

所以结论很清楚,GPT-5.4 是一个专业级选手,最适合在工作场景中发挥。

光说肯定不行,我们直接把 GPT-5.4 搬到OpenClaw中,看看实际效果咋样。

OpenClaw 接入钉钉:把 GPT-5.4 搬到公司群里

为什么要接入钉钉?

在之前文章里,我教大家在阿里云上部署了 OpenClaw,当时就提过一个核心观点Agent 的核心不是对话,而是执行。

部署完只是第一步。真正让它产生价值的,是把它放进你每天都用的工具里

很多朋友也在文章下留言,公司用的都是钉钉平台,想要再看一遍钉钉的接入,官方把步骤也优化了一下,所以给大家来一份最新教程!

想想你在公司群里 @AI,发一句「帮我分析下这份合同的风险点」,AI 直接在群里回复你一份结构化的审查意见。

不用切换应用,不用打开网页,不用登录任何额外的平台。就像跟同事发消息一样自然

这就是我们今天要实现的。

前置准备

在开始之前,你需要确保以下几件事:

  1. 已经部署好 OpenClaw:可以是阿里云服务器、本地 Mac mini,或者其他云服务器都行。如果还没部署过,可以翻我上一篇文章。
  2. OpenAI API Key:我们要用 GPT-5.4,所以需要一个 OpenAI 的 API Key 或者 Codex。
  3. 钉钉开发者权限:你的钉钉账号需要有组织管理员或开发者权限。

好,三个条件齐了,我们开始。

第一步:在 OpenClaw 中配置 GPT-5.4

正如之前我们说的,OpenClaw 官方已经支持了 GPT 5.4 的模型。

如果你之前已经安装过,可以直接选择安装。如果你不会手动更改 model 配置项,完全可以直接按照它的提示进行升级。

你也可以选择直接安装升级

然后再模型输入这步,直接选择OpenAI,然后选用 GPT-5.4

保存后,在 OpenClaw 的聊天界面试一句话,确认 GPT-5.4 能正常响应。

一个小提醒:如果是走的API Key 方式,一定妥善保管。泄露了别人拿你的 Key 刷量,月底账单能让你哭。

第二步:创建钉钉应用

创建钉钉应用需要你的钉钉账号有开发者权限。

这块大家可以联系组织管理员获取钉钉开放平台的开发权限,具体操作可以看获取开发者权限(https://open.dingtalk.com/document/dingstart/build-dingtalk-ai-employees)

1.1 创建应用

  1. 访问钉钉开放平台 (https://open-dev.dingtalk.com/),点击创建

这里用我之前创建的一个组织为例,「红岸AI测试基地」

如果创建过应用但未展示应用开发指引,点击立即开始进入钉钉应用页面。

  1. 在应用开发的左侧导航栏中,点击钉钉应用,在钉钉应用页面右上角点击创建应用

  1. 创建应用面板,填写应用名称应用描述,上传应用图标,完成后点击保存

1.2 查看应用 Client ID 和 Client Secret

在左侧菜单选择凭证与基础信息,复制 Client IDClient Secret,用于之后待用。

获取实际的Key,保存使用

1.3 授予应用发送卡片消息权限

我们需要给应用授予发送卡片消息的权限。

  1. 访问钉钉应用列表(https://open-dev.dingtalk.com/fe/app)。找到刚刚创建的应用,点击应用名称进入详情页面。

  1. 在左侧菜单选择开发配置 > 权限管理,在左侧搜索框分别输入Card.Streaming.WriteCard.Instance.Write,并在操作列点击申请权限

注意,两个权限都需要申请!!批量好像有bug,没法选中..所以我单独申请的。

好了,我们再坚持一下,胜利的曙光就在前方...


2. 配置钉钉机器人

接下来就可以在钉钉应用中配置机器人来回答用户问题了。

2.1 配置钉钉机器人

  1. 访问钉钉应用列表(https://open-dev.dingtalk.com/fe/app)。找到刚刚创建的应用,点击应用名称进入详情页面。

  1. 添加应用能力页面,找到机器人卡片,点击添加

在机器人配置页面,打开机器人配置开关,然后关于机器人简介、描述的可以随意填什么之类的都随意填吧。

消息接收模式请选择Stream模式,然后点击发布

2.2 发布应用版本

应用创建完成后,如果需要将应用供企业内其他用户使用,需要发布一个版本。

  1. 点击应用开发,在钉钉应用页面,点击目标应用。

  1. 在目标应用开发导航栏,点击版本管理与发布,在版本管理与发布页面,点击创建新版本

进入版本详情页面,输入应用版本号版本描述信息,选择合适的应用可见范围,完成后点击保存。并在弹窗中点击直接发布

3. OpenClaw打通钉钉

接下来,直接在Openclaw中下载安装钉钉的插件,

3.1 安装插件

打开Openclaw终端, 输入
openclaw plugins install @dingtalk-real-ai/dingtalk-connector
安装插件,如下图所示。

详细配置可看:https://github.com/DingTalk-Real-AI/dingtalk-openclaw-connector

3.2 配置环境

然后我们打开 .openclaw/openclaw.json 进行相关配置

{
  "channels": {
    "dingtalk-connector": {
      "enabled": true,
      "clientId": "dingxxxxxxxxx",       // 钉钉 AppKey
      "clientSecret": "your_secret_here", // 钉钉 AppSecret
      "gatewayToken": "",                 // 可选:Gateway 认证 token, openclaw.json配置中 gateway.auth.token 的值 
      "gatewayPassword": "",              // 可选:Gateway 认证 password(与 token 二选一)
      "sessionTimeout": 1800000,          // 可选:会话超时(ms),默认 30 分钟
      "asyncMode": false,                 // 可选:异步模式,立即回执用户消息,后台处理并推送结果(默认:false)
      "ackText": "🫡 任务已接收"      // 可选:异步模式下的回执消息文本(默认:'🫡 任务已接收,处理中...')
    }
  },
  "gateway": { // gateway通常是已有的节点,配置时注意把http部分追加到已有节点下
    "http": {
      "endpoints": {
        "chatCompletions": {
          "enabled": true
        }
      }
    }
  }
}

然后重启 Gateway,确认 dingtalk-connector 已加载。

3.3 测试机器人

你可以创建群聊或在已有群聊中添加机器人,并与机器人对话,查看效果。

  1. 在钉钉群管理中添加机器人。进入钉钉群群设置页面,点击机器人卡片区域,在机器人管理页面,

点击添加机器人。在添加机器人搜索文本框中输入目标机器人名称,并选中要添加的机器人。

点击添加,完成后再点击完成添加

  1. 在钉钉群中或私聊时@机器人,进行交流互动。

恭喜。你的钉钉群里,现在住着一位 GPT-5.4。


两个常见场景:让 GPT-5.4 在钉钉里真正干活

接入完毕只是起点。

下面我用两个真实场景,展示 GPT-5.4 + OpenClaw 这套组合到底能做什么。

每个场景我都会给出完整的对话过程——你直接照搬就能复现。

场景一:AI 投研分析师

为什么选金融场景?

因为 GPT-5.4 的投行基准测试得分 87.3,是 GPT-5 的整整两倍。同时它还首发了 ChatGPT for Excel 功能,天生就是为金融分析设计的。

来,我们直接在钉钉群里试试。

第一轮对话:基础财务分析

在钉钉群里 @🦞,发送:

@AI助手 请帮我分析比亚迪(002594)2025年第三季度的核心财务数据。要求:
1. 列出营收、净利润、毛利率、净利率、ROE 这几个核心指标
2. 与上年同期做同比对比
3. 用表格形式呈现

AI 会返回一个 Markdown 表格,大概长这样:

第二轮对话:深度估值分析

继续 @🦞:

@AI助手 基于上面的数据,帮我做一个简易的估值分析:
1. 用 PE(市盈率)估值法,对比行业平均 PE 水平
2. 用 PEG 指标判断当前估值是否合理
3. 最后给出你的投资观点(看多/看平/看空)和主要理由

AI 会返回分析:

第三轮对话:竞品对比

还没完。继续追问:

@AI助手 帮我对比比亚迪和特斯拉的核心财务指标和估值水平。
用表格形式列出:营收、净利率、PE、PEG、市值、近一年涨跌幅。最后给出你的对比结论。

AI 会生成一个完整的可比公司分析表。

然后我们可以把该过程直接让它封装成一个skill,下次再遇到类似场景,直接说就行。

这里只是举个简单的例子,大家还可以把自己对于股票的分析,研究心得,直接跟AI进行探讨,再之后,直接生成一个专属skills,下次调用就行。

场景二:AI 合同审查

这个场景解决的是中小企业最常见的痛点,签合同没有专职法务

GPT-5.4 在 BigLaw Bench(法律基准)上拿了 91.0,是目前所有 AI 模型里最高的。加上 100 万 token 的超长上下文,几十页的商业合同它能一口气读完,不会遗漏任何条款。

来试试。

第一轮对话:上传合同并审查

假设你收到了一份《服务合作协议》,需要在签字之前快速过一遍。

在钉钉群里 @机器人:

@AI助手 我需要你以法务顾问的身份,审查下面这份合同。请逐条分析以下条款的风险等级,并标注为:
🔴 高风险 —— 存在明显不利条款,建议修改后再签
🟡 中风险 —— 有一定隐患,建议关注或补充约定
🟢 低风险 —— 条款合理,无明显问题
重点关注以下几个方面:
1. 付款条件和账期是否对我方不利2. 违约责任是否存在不对等3. 知识产权归属是否清晰4. 保密条款和竞业限制是否过于宽泛5. 合同解除条件是否合理
合同内容如文件所示。

如果合同太长,也可以发送文件附件。OpenClaw 支持解析 PDF 和 Word 文件。

AI 会返回结构化的审查意见:

【插入gif】

第二轮对话:生成修改版条款

看完审查意见,你可以继续追问:

出乙方友好版修订稿

一系列建议,这里就不展开了

AI 会给你生成「修改前 vs 修改后」的对比版本,你可以直接拿去跟对方谈。

第三轮对话:多skills调用,一键生成审查报告

最后,你可以让 AI 把所有审查意见整理成一份正式文档:

现在请你基于我们以上的讨论,结合杂志排版类的 skills,直接给我生成一个杂志排版后的一个报告。

这只是个简单的小例子,其实真正的几万字的合同,

结合GPT-5.4 的 100 万 token,发挥的作用会更大。一般商业合同几千到几万字,它完全可以一次性完整读取,不会出现「前面的内容它忘了」的情况。

写完正好看到小互发的,openclaw也支持接入钉钉的AI表格,直接打通,
https://alidocs.dingtalk.com/i/nodes/LeBq413JAOyAdGBMsBleAM0nWDOnGvpb?utm_scene=team_space

感兴趣的可以去试试,解锁更多场景~

结语

其实我还测了其他的几个场景,但总体来说,GPT 5.4 给我的体感提升并不算特别明显。

如果大家想精确测它的幻觉,我觉得可以拿到一些真实的数据,让它去实际跑一下,看看它的准确性如何,包括幻觉有没有降低得特别多。

模型能力基本都能满足日常所需,主要是把这些有用的 AI 工具跟实际的办公场景相结合。

比如,深圳发布了“龙虾十条”,足以看出来 OpenClaw 这几天的分量...

很多企业都在用钉钉,那我们就直接把🦞直接接入到钉钉里边,让它去读取我们公司的文档,直接拉到群里给同事们进行实际的结合使用。

比如刚才举的金融分析或合同审查这两个场景。在合同审查中,完全可以结合实际的生活场景去跟它对话,把公司的 SOP 文档直接形成 SOP,然后固化成 OpenClaw 的 Skills。

这样的话,就能够带来更多的想象空间。

之前文章结尾我说过:

Agent 的核心不是对话,而是执行。

GPT-5.4 让「执行」的能力往上提升了一个台阶。

当 AI 能在你的钉钉群里审合同、做财报分析、回答内部知识,它就不再是一个「对话玩具」,而是一个真正在帮你干活的同事

往远了说,当 OpenClaw 的生态进一步打通钉钉的审批流、日程管理、项目协作……

每个人都会拥有一个属于自己的 Jarvis。

以上。


我是甲木,热衷于分享一些 AI 干货内容。

如果你觉得今天这篇有收获,欢迎点赞、在看、转发三连,我们下篇见 👋🏻

本文由mdnice多平台发布

最近在做一个 macOS 上的 SSH + SFTP 工具,叫 Remora。

这是 logo:

logo

为什么又造新轮子?必然是因为一直没在 macOS 上找到心怡的 SSH 管理工具。

之前也用过 WindTerm、ElecTerm、FinalShell 这些,很多都不是原生的。要么丑,要么不太流畅。

加上我自己也不太喜欢 web 套壳的应用,哪怕是 Rust 或者 Go 的方案,还是会更喜欢原生的东西。

我现在主要是解决几个问题:

  • 同时支持 SSH 和 SFTP
  • 跑 vim、htop、claude、opencode 这类 TUI 的时候,也能愉快支持
  • 更好的长输出流畅度,重点优化滚动和渲染体验
  • 友好的人机交互,尤其是 SFTP,确保更接近 Finder 的交互
  • 快捷指令执行、快捷路径跳转
  • 多语言、多主题
  • 99% 的 Swift,70% 的 SwiftUI
  • 100% 开源

目前还有很多交互细节需要去优化。

后面还准备提供 AI 支持,从服务器辅助操作、命令解释、日志理解这些方向开始。

想先来问问大家。

如果你平时也常用 SSH / SFTP / Terminal,你希望有什么功能?

如果愿意试用或者直接提建议,那是最欢迎的。

除了 AI 的部分,目前完成度接近 90%。

贴几张截图

image

image

image

digiKam 9.0.0 (Linux, macOS, Windows) - 开源照片管理软件

Professional Photo Management with the Power of Open Source

请访问原文链接:https://sysin.org/blog/digikam/ 查看最新版。原创作品,转载请保留出处。

作者主页:sysin.org


digiKam sysin

digiKam

开源驱动的专业照片管理

什么是 digiKam?

digiKam 是一款先进的开源数码照片管理应用程序,可在 Linux、Windows 和 macOS 上运行。该应用程序提供了一套全面的工具,用于导入、管理、编辑和共享照片和 Raw 文件。

Albums View and Image Editor

功能亮点

您可以使用 digiKam 的导入功能轻松地直接从相机和外部存储设备(SD 卡、USB 磁盘等)传输照片、原始文件和视频。该应用程序允许您配置导入设置和规则,以动态处理和组织导入的项目。

digiKam 将照片、原始文件和视频整理到相册中。但该应用程序还具有强大的标记工具,允许您为照片和 Raw 文件分配标签、评级和标签。然后,您可以使用筛选功能快速查找符合特定条件的项目。

除了过滤功能外,digiKam 还具有强大的搜索功能,可让您按各种条件搜索照片库。您可以按标签、标签、评级、数据、位置,甚至特定的 EXIF、IPTC 或 XMP 元数据搜索照片。您还可以组合多个条件进行更高级的搜索。digiKam 依靠 Exiv2 库来处理文件中的元数据标签内容,以填充照片库。

digiKam 可以处理原始文件,并且该应用程序使用出色的 LibRaw 库来解码原始文件。该库得到积极维护并定期更新,以包括对最新相机型号的支持。

digiKam 还可以管理视频文件以进行编目,该应用程序使用两个 FFmpegQtAv 库来提取元数据和播放媒体。

该应用程序提供了一套全面的编辑工具。这包括用于调整颜色、裁剪和锐化的基本工具以及用于曲线调整、全景拼接等的高级工具。基于 Lensfun 库的特殊工具允许对图像自动应用镜头校正。

digiKam 中的扩展功能是通过一组基于插件机制的工具(名为 DPlugins for digiKam Plugins)实现的。可以编写插件以将内容导入和导出到远程 Web 服务,添加新功能以编辑图像以及批量处理照片。

下载地址

digiKam 9.0.0

  • digiKam 9.0.0 for Linux x64 Intel AppImage (glibc >= 2.31)
  • digiKam 9.0.0 for Windows Intel 10 or later x64
  • digiKam 9.0.0 for macOS Silicon 11.3 or later ARM64
  • digiKam 9.0.0 for macOS Intel 10.15 or later x64
  • 网盘链接:https://sysin.org/blog/digikam/

CorelDRAW Graphics Suite 2026 v27.0 (macOS, Windows) 发布 - 矢量图形设计软件

vector illustration, layout, photo editing, and typography

请访问原文链接:https://sysin.org/blog/coreldraw/ 查看最新版。原创作品,转载请保留出处。

作者主页:sysin.org


CorelDRAW Graphics Suite 2026

由艺术智能驱动

CorelDRAW® Graphics Suite 2026 专为增强艺术表现力而设计,而不是取代人工创作。在 CorelDRAW 与 Corel PHOTO-PAINT 中引入了智能工具,可加速创意构思并优化工作流程。AI 生成功能能够在数秒内将文字描述转换为定制图像,而全新的 AI 编辑工具——包括基于提示的图像修改、一键移除背景、AI 对象选择以及剪辑蒙版功能——能够以前所未有的速度实现专业级的精准效果。

除了 AI 功能外,您还将体验到焕然一新的界面设计,以及显著提升的稳定性与性能——应用程序的启动速度提升三倍以上。

创造力遇上生产力

CorelDRAW® Graphics Suite 是配备齐全的专业设计工具包,可以非常高的效率提供令人惊艳的矢量插图、布局、照片编辑和排版项目 (sysin)。价格实惠的订阅获得令人难以置信的持续价值,即时、有保障地获得独家的新功能和内容、一流的性能,以及对最新技术的支持。

sysin

Tomasz Mroziński

  • 设计

    设计

    使用 CorelDRAW.app™ 随时随地在 Windows 或 Mac 上制作独特的插图、广告牌、徽标等。

  • 协作

    协作

    通过 CorelDRAW.app 与客户和同事进行协作,收集一个或多个审阅者的实时反馈。

  • 完成

    完成

    极致高效的工具适用于任何类型的输出,让您在更短的时间内交付出色的结果。

处理任何项目所需的所有工具

All the tools you need to tackle any project

  • CorelDRAW® 矢量插图和页面布局

    CorelDRAW®

    使用这款功能强大的全功能图形设计应用程序,为矢量插图、页面布局等创造一切。

  • Corel PHOTO-PAINT™ 图像编辑和基于像素的设计

    Corel PHOTO-PAINT™

    使用强大的 AI 支持的 Corel PHOTO-PAINT 高速处理图像 (sysin),并享受 CorelDRAW 带来的集成工作流。

  • Corel® Font Manager 字体开发和管理

    Corel® Font Manager

    使用简单而直观的 Corel Font Manager 组织并管理您的字体库,无需安装即可直接使用自己喜欢的字体。

  • CorelDRAW.app™ 基于浏览器的矢量插图和图形设计

    CorelDRAW.app™

    在网络或 iPad 上使用 CorelDRAW.app 进行方便的协作文件审查或在旅途中进行设计。

  • AfterShot™ HDR RAW 照片编辑器

    AfterShot 3 HDR™

    为 RAW 或 JPEG 照片进行专业级矫正和强化,使用 AfterShot HDR 创建高动态范围 (HDR) 图像。提供英语、德语和日语版

下载地址

CorelDRAW Graphics Suite 2026 v27.0.0.121 macOS Universal

CorelDRAW Graphics Suite 2026 v27.0.0.121 Windows x64

更多:macOS 下载汇总 (系统、应用和教程)

作者:澄潭、望宸

作为模型服务的新入口,OpenClaw 能帮你写代码、查邮件、操作 GitHub、设置定时任务等,这种通过 IM 直接下发指令的交互创新,能给用户带来“爽感”。但当历史指令积压越多、Long Horizon 项目数量越多时,问题就来了:

  • 安全风险:每个 Agent 都要配置自己的 API Key,GitHub PAT、LLM Key 散落各处。2026 年 1 月的 CVE-2026-25253 漏洞让我们意识到,这种 "self-hackable" 架构在便利的同时,也带来了极大的安全风险;
  • 记忆爆炸:一个 Agent 承担太多角色,既要做前端,又做后端,还要写文档。skills/ 目录越来越乱,MEMORY.md 里混杂各种记忆,每次加载都要塞一大堆无关上下文。既浪费 token,又会带来记忆混乱;
  • 多 Agent 协作效率低:对每个 SubAgent 进行手动配置、手动分配任务、手动同步进度,你想专注于业务指令和输出,但在 Agents 的“保姆”这一角色上,花了大量时间;
  • 移动端体验一言难尽:想在手机上指挥 Agent 干活,却发现飞书、钉钉的机器人接入流程要几天甚至几周;
  • 配置门槛高:即便是资深程序员从安装、配置到使用,可能也需要大半天时间,某鱼上还出现了 OpenClaw 的付费安装项目,提供上门服务。

如果你也有同感,那 HiClaw 就是为此而生的。

HiClaw 的定位

HiClaw = OpenClaw 超进化,可以理解为 Team 版的 OpenClaw。

image

核心创新是在 OpenClaw 的基础上,引入了 Manager Agent 角色。它不直接干活,而是帮你管理 Worker Agent 团队,就像钢铁侠的管家贾维斯一样。

┌─────────────────────────────────────────────────────┐
│                   你的本地环境                       │
│  ┌───────────────────────────────────────────────┐ │
│  │           Manager Agent (AI 管家)             │ │
│  │                    ↓ 管理                     │ │
│  │    Worker Alice    Worker Bob    Worker ...   │ │
│  │    (前端开发)       (后端开发)                  │ │
│  └───────────────────────────────────────────────┘ │
└─────────────────────────────────────────────────────┘
         ↑
    你(真人管理员)
    只需做决策,不用当保姆

这套管理系统是按需启用的,可以灵活选择:

模式一:直接对话 Manager

  • 简单任务直接告诉 Manager,它自己处理;
  • 适合快速问答、简单操作。

模式二:Manager 分派 Worker

  • 复杂任务由 Manager 拆解,分配给专业 Worker;
  • 每个 Worker 有独立的 Skills 和 Memory;
  • 技能和记忆完全隔离,不会互相污染。

除了 Manager Agent 角色外,HiClaw 实现了多项进化,包括:

image

我们将结合这些进化项,一一阐述如何解决 OpenClaw 的落地挑战。

OpenClaw 落地挑战,HiClaw 如何解

关于安全风险

原生 OpenClaw 架构下,每个 Agent 都需要持有真实的 API Key,一旦 Agent 被攻击或意外输出,这些凭证就可能泄露。

HiClaw 的解决方案是:Worker 永远不持有真实凭证。真实的 API Key、GitHub PAT 等凭证存储在 AI Gateway,Worker 调用外部服务时,通过 Gateway 代理。即使 Worker 被攻击,攻击者也拿不到真实凭证。Manager 的安全设计同样严格:它知道 Worker 要做什么任务,但不知道 API Key、GitHub PAT。Manager 的职责是“管理和协调”,不直接执行文件读写、代码编写。

维度OpenClaw 原生HiClaw
凭证持有每个 Agent 自己持有Worker 只持有 Consumer Token
泄漏途径Agent 可直接输出凭证Manager 无法访问真实凭证
攻击面每个 Agent 都是入口只有 Manager 需要防护

OpenClaw 有一个很棒的开放技能生态 skills.sh,社区里已经有 80,000+ 个技能可以一键安装,写 Higress WASM 插件、做 PR Review、生成 Changelog……

但是,在原生 OpenClaw 里你可能不敢轻易用它。毕竟一个公开技能库里的 SKILL.md 你没法完全审查,如果某个技能诱导 Agent 输出凭证、执行危险命令,后果不堪设想。因为 Agent 本身就持有你的 API Key 和各种凭证。

得益于 HiClaw 在设计上,每个 Worker 运行在完全隔离的容器里,而且不持有任何真实凭证。开发者们就可以放心让 Claw 去检索和自主安装 skills。

Worker 能看到什么?
✅ 任务文件、代码仓库、它自己的工作目录
✅ Consumer Token(类似"门禁卡",只能调用 AI API)
❌ 看不到你的 LLM API Key
❌ 看不到 GitHub PAT
❌ 看不到任何加密凭证

此外,HiClaw 给 Worker 内置了 find-skills 技能,当 Worker 遇到需要特定领域知识的任务时,它会主动搜索并安装合适的技能:

Manager 派发任务: "开发一个 Higress WASM Go 插件"
                  ↓
Worker 发现自己缺少工具
                  ↓
skills find higress wasm
  → alibaba/higress@higress-wasm-go-plugin  (3.2K installs)
                  ↓
skills add alibaba/higress@higress-wasm-go-plugin -g -y
                  ↓
技能安装完成,Worker 获得完整的插件开发脚手架和工作流

如果你有顾虑,或者有内部技能需要积累,HiClaw 也支持切换到自建私有技能库——只需要在 Manager 里设置一个环境变量:

SKILLS_API_URL=https://your-private-registry.example.com

只要你的私有库实现了和 skills.sh 相同的 API,Worker 就会无缝切换到内部搜索。两种场景下,Worker 的使用方式完全一致。

关于移动端接入难

OpenClaw 的移动端体验一言难尽:想在手机上指挥 Agent 干活,却发现飞书、钉钉的机器人接入流程要走公司审批流程,且公司整体会有 bot api 额度限制。

HiClaw 内置 Matrix 服务器,支持多种客户端:

  • 一键安装后直接用:无需配置飞书/钉钉机器人;
  • 手机上随时指挥:下载 Matrix 客户端,Element Mobile 或者 FluffyChat;
  • 消息实时推送:不会折叠到“服务号”;
  • 所有对话可见:你、Manager、Worker 在同一个 Room,全程透明。

关于 SubAgent 低效协作

对每个 SubAgent 进行手动配置、手动分配任务、手动同步进度,你想专注于业务指令和输出,但在 Agents 的“保姆”这一角色上,花了大量时间。

共享上下文,无需重复沟通

从 Manager-Worker 的角度看,HiClaw 是一个 Supervisor 架构:Manager 作为中心节点协调所有 Worker。但因为基于 Matrix 群聊房间协作,它同时也具备了 Swarm(蜂群)架构的特点。

在 Swarm 模式下,每个 Agent 都能看到群聊房间里的完整上下文:

  • Alice 说“我在做登录页面”;
  • Bob 自动知道前端在做什么,API 设计时可以配合;
  • 不需要 Manager 做额外的信息同步。

防惊群设计:按需唤醒

HiClaw 做了防惊群设计。避免群里每条消息都触发所有 Agent 去调用 LLM,成本和延迟都会爆炸的情况。

规则:Agent 只有被 @ 的时候才会触发 LLM 调用
  • 群聊消息主要是有意义的沟通信息;
  • Agent 不会因为无关消息被唤醒;
  • 成本可控,响应及时。

Human in the Loop:全程透明,随时干预

和 OpenClaw 原生的 Sub Agent 系统相比,HiClaw 的 Multi-Agent 系统不仅更易用,而且更透明

image

核心优势

  • 全程可见:所有 Agent 的协作过程都在 Matrix 群聊里;
  • 随时介入:发现问题可以直接@某个 Agent 修正;
  • 自然交互:就像在微信群里和一群同事协作。

HiClaw 的 Manager 可以帮你做这些事:

能力说明
Worker 生命周期管理“帮我创建一个前端 Worker” → 自动完成配置、技能分配
自动分派任务你说目标,Manager 拆解并分配给合适的 Worker
Heartbeat 自动监工定期检查 Worker 状态,发现卡住自动提醒你
项目群自动拉起为项目创建 Matrix Room,邀请相关人员

关于记忆爆炸

一个 Agent 承担太多角色,既要做前端,又做后端,还要写文档。skills/ 目录越来越乱,MEMORY.md 里混杂各种记忆,每次加载都要塞一大堆无关上下文。既浪费 token,又会带来记忆混乱。

HiClaw 的一个关键设计:工作中间产物不发到群聊。Agent 之间的大量协作(文件交换、代码片段、临时数据),通过底层的 MinIO 共享文件系统完成:

┌─────────────────────────────────────────────────────────────┐
│                    Matrix 群聊房间                          │
│         只保留有意义的沟通和决策记录                         │
│                   (上下文精简)                             │
└─────────────────────────────────────────────────────────────┘
                            ↑ 有意义的信息
                            │
┌─────────────────────────────────────────────────────────────┐
│                   MinIO 共享文件系统                        │
│         代码、文档、临时文件等大量中间产物                    │
│                  (不污染群聊上下文)                        │
└─────────────────────────────────────────────────────────────┘

这样群聊里的上下文始终保持在合理规模,不会因为大量文件交换而迅速膨胀。

假设一个项目需要:

  • 3 次代码开发任务(每个 50k tokens)
  • 10 次信息收集任务(每个 100k tokens)

原生 OpenClaw(统一用 Sonnet):

代码: 3 × 50k × $3/M = $0.45
信息: 10 × 100k × $3/M = $3.00
总计: $3.45

HiClaw(按任务分配模型):

代码: 3 × 50k × $3/M = $0.45 (Sonnet)
信息: 10 × 100k × $0.25/M = $0.25 (Haiku)
总计: $0.70

节省 80% 成本,同时保证代码质量。

HiClaw 架构的设计思考

OpenClaw 的设计就像一个完整的生物体:有大脑(LLM)、中枢神经系统(pi-mono)、感知器官眼睛和嘴(各种 Channel)。但原生设计中,大脑和感知器官都是“外接”的,你需要自己去配置 LLM Provider、去对接各种消息渠道。

HiClaw 做了一次“器官移植”手术,把这些外接组件变成内置器官

┌────────────────────────────────────────────────────────────────────┐
│                         HiClaw All-in-One                          │
│  ┌──────────────────────────────────────────────────────────────┐ │
│  │                     OpenClaw (pi-mono)                       │ │
│  │                      中枢神经系统                             │ │
│  └──────────────────────────────────────────────────────────────┘ │
│           ↑                              ↑                        │
│  ┌────────────────┐              ┌────────────────┐               │
│  │  Higress AI    │              │   Tuwunel      │               │
│  │  Gateway       │              │   Matrix       │               │
│  │  (大脑接入)     │              │   Server       │               │
│  │                │              │   (感知器官)    │               │
│  │  灵活切换       │              │                │               │
│  │  LLM供应商      │              │  Element Web   │               │
│  │  和模型         │              │  FluffyChat    │               │
│  └────────────────┘              │  (自带客户端)   │               │
│                                  └────────────────┘               │
└────────────────────────────────────────────────────────────────────┘

LLM 接入:Higress AI Gateway

大脑(LLM)不再外接,而是通过 AI Gateway 灵活管理

  • 一个入口,多种模型:在 Higress 控制台即可切换 Qwen、OpenAI、Claude 等不同模型供应商;
  • 凭证集中管理:API Key 只需要配置一次,所有 Agent 共享;
  • 按需授权:每个 Worker 只获得调用权限,永远接触不到真实的 API Key。

通信接入:内置 Matrix Server

感知器官也变成内置的

  • Tuwunel Matrix Server:开箱即用的消息服务器,无需任何配置;
  • 自带 Element Web 客户端:浏览器打开就能对话;
  • 移动端友好:支持 FluffyChat、Element Mobile 等全平台客户端;
  • 零对接成本:不需要申请飞书/钉钉机器人,不需要等待审批。

💡 换个比喻:OpenClaw 原生就像一台组装电脑,你需要自己买显卡(LLM)、显示器(Channel)然后装驱动。HiClaw 则是一台开箱即用的笔记本,所有外设都集成好了,开机就能干活。

HiClaw 集成了多个开源组件(Higress、Tuwunel、MinIO、Element Web...),但不用担心部署复杂度,基于 All-in-One 的思路设计了配置打包,解决配置门槛高的问题。

快速开始

第一步:安装

macOS / Linux:

bash <(curl -sSL https://higress.ai/hiclaw/install.sh)

Windows(PowerShell 7+):

Set-ExecutionPolicy Bypass -Scope Process -Force; Invoke-Expression ((New-Object System.Net.WebClient).DownloadString('https://higress.ai/hiclaw/install.ps1'))

这个脚本的特点:

  • 跨平台兼容:Mac、Linux、Windows 全支持;
  • 智能检测:根据时区自动选择最近的镜像仓库;
  • Docker 封装:所有组件跑在容器里,屏蔽操作系统差异;
  • 最少配置:只需要一个 LLM API Key,其他都是可选的。

安装完成后,你会看到:

image

真正的开箱即用,不是“开箱后还要配半天”的那种,包括以下组件:

组件端口用途
Higress Gateway18080AI Gateway + 反向代理
Higress Console18001模型配置、路由管理
Element Web18080对话客户端(浏览器)
MinIO9000/9001共享文件系统

第二步:打开浏览器,登录开始对话

  1. 打开浏览器访问安装时显示的 URL。(http://127.0.0.1:18080)2. 输入安装时显示的用户名和密码登录。3. 你会看到一个 "Manager" 的对话。

第三步:创建你的第一个 Worker

image

第四步:Manager 分配任务,Worker 完成任务

image

第五步:随时随地在手机上查看进度

  1. 下载 FluffyChat。 (iOS/Android/全平台)
  2. 登录时选择“其他服务器”,填入你的 Matrix 服务器地址。
  3. 随时查看 Worker 的进度,随时干预。

image

Showcase:实现一款 SaaS 产品

假设你想做一个 SaaS 产品——从 idea 到上线到增长,传统上你需要产品、设计、开发、测试、运营……但现在你可以这样:

你: 帮我创建 4 个 Worker:
    - alex: 产品经理
    - sam: 全栈开发
    - taylor: 内容运营
    - jordan: 数据分析
Manager: 好的,4 个 Worker 已创建,各自有独立的技能和记忆。
你: 启动项目:AI 写作助手 MVP,下周要上线
Manager: 收到,我来规划项目...
         [创建项目群,邀请所有 Worker 加入]
         [起草项目计划]
         计划如下,请确认:
         Phase 1: 产品定义
         - task-001: 竞品调研 & PRD(alex)
         Phase 2: 开发
         - task-002: 技术选型 & 架构(sam,依赖 task-001)
         - task-003: 核心功能开发(sam,依赖 task-002)
         - task-004: 代码审查(alex,依赖 task-003)
         Phase 3: 上线准备
         - task-005: 发布素材准备(taylor,依赖 task-001)
         确认后我开始分配任务。
你: 确认
Manager: [更新项目状态为 active]
         @alex 你有新任务 [task-001]:竞品调研 & PRD
         目标:输出 PRD 文档,明确 MVP 功能边界
         规格:~/hiclaw-fs/shared/tasks/task-001/spec.md
         完成后在项目群 @我 汇报
[1 小时后]
alex: @manager task-001 完成
      PRD 已输出:核心功能包括 AI 续写、多模型切换、历史记录
      结果:~/hiclaw-fs/shared/tasks/task-001/result.md
Manager: [读取 result.md,状态:SUCCESS]
         [更新项目计划,task-001 标记完成]
         @sam 你有新任务 [task-002]:技术选型 & 架构
         PRD 参考:~/hiclaw-fs/shared/tasks/task-001/result.md
         @taylor 你有新任务 [task-005]:发布素材准备
         产品定位参考:~/hiclaw-fs/shared/tasks/task-001/result.md
[1 小时后]
sam: @manager task-002 完成
     技术栈:Next.js + Vercel + Supabase
Manager: [更新计划,分配 task-003]
         @sam 继续开发核心功能 [task-003]
[1 小时后]
sam: @manager task-003 完成,已部署到 Vercel
     Demo 地址:https://xxx.vercel.app
Manager: [更新计划,分配 task-004]
         @alex 请验收 [task-004]:产品验收
         测试地址:https://xxx.vercel.app
         对照 PRD 验收功能完整性
[验收中发现问题]
alex: @manager task-004 需要修改
      问题:多模型切换没有引导,用户不知道怎么选
      建议:增加模型对比说明页
      结果:~/hiclaw-fs/shared/tasks/task-004/result.md
      状态:REVISION_NEEDED → 返回 task-003
Manager: [读取 result.md,状态:REVISION_NEEDED]
         [创建修订任务 task-006]
         @sam task-004 验收发现问题,需要修改
         修改任务 [task-006]:增加模型选择引导页
         反馈详情:~/hiclaw-fs/shared/tasks/task-004/result.md
         完成后 @我 汇报
[修改完成]
sam: @manager task-006 完成,引导页已加上
Manager: [task-006 完成,task-004 重新验收通过]
         [所有开发任务完成]
         @你 MVP 开发完成!
         - 代码已部署:https://xxx.vercel.app
         - 产品验收通过
         - 发布素材已就绪
         项目计划:~/hiclaw-fs/shared/projects/proj-xxx/plan.md
你: 准备上线。@taylor 明天 Product Hunt 发布
taylor: 收到,已排期。素材已准备完毕。
[上线当天 — Manager 自动检测进度]
Manager: @你 Product Hunt 发布提醒
         当前排名:第 3 名
         Upvotes: 423
         评论数: 87
         @jordan 请配置数据埋点
jordan: 收到,开始配置 GA4 + 自定义事件...
[数据就绪后]
jordan: @manager 埋点配置完成
        看板地址:https://analytics.google.com/xxx
        首日数据:
        - 注册用户:1,247
        - 次日留存:34%
        - AI 续写使用率:78%
        - 多模型切换使用率:23%
Manager: @你 项目「AI 写作助手 MVP」上线数据日报
         核心指标:
         - 首日注册:1,247
         - 次日留存:34%
         - 功能使用:续写 78%,切换 23%
         洞察:多模型切换使用率偏低
         建议:@alex 分析原因,优化引导流程
[就这样,Manager 贯穿始终:规划 → 分配 → 监控 → 协调 → 汇报]

一个AI,带着 4 个 AI 员工,干完了一个团队的活。而你只需要躺在沙发上在手机上查看进度,并在关键决策时参与指导。

欢迎加入 HiClaw 社区

image

HiClaw 保留了 OpenClaw 的核心理念(自然语言对话、Skills 生态、MCP 工具等),同时解决了安全和易用性上的痛点。如果你是:

  • 独立开发者:一个人想干一个团队的活;
  • OpenClaw 深度用户:想要更安全、更易用的体验;
  • 一人公司创始人:需要 AI 员工帮你分担工作。

HiClaw 就是为你准备的。

HiClaw 是开源项目,基于 Apache 2.0 协议,由 Higress 团队基于 OpenClaw、Higress AI Gateway、Element IM 客户端+Tuwunel IM 服务器(均基于 Matrix 实时通信协议)、MinIO 共享文件系统打造。

最近在做一个自己挺有感触的小产品,叫 智简简历

https://aijianli.cn

做它的原因其实很简单。

我发现市面上很多简历工具,前面的体验都还行,但最后总会在某一步“露出獠牙”:

  • 先让你填半天内容,最后下载时才提示付费
  • 表面说免费,导出的 PDF 却带着很明显的水印
  • 模板看起来很多,但编辑体验很像在填一个又一个表单
  • AI 只是给你吐一段文字,最后还是得回到 Word 里自己调格式

我一直觉得,简历工具最不应该做的事,就是在用户已经投入了大量时间之后,再通过导出门槛去收割。

所以我干脆自己做了一个更克制一点的版本,目标很明确:

  • 真正免费
  • 无水印导出
  • 不让用户折腾 Word 排版
  • 让 AI 真的参与到简历制作流程里,而不是只负责“写一段话”

首页 Hero 截图

目前已经做出来的一些核心能力:

1. 所见即所得编辑

不是传统的表单式录入,而是更接近文档编辑的体验。

你在编辑内容时,右侧会实时预览 A4 页面效果;模块顺序、排版布局、主题风格、间距变化都能立刻看到。

这点对做简历很重要,因为很多时间其实不是花在“写内容”,而是花在“来回调格式”。

编辑器实时预览界面

2. AI 文本极速转简历

现在很多人已经习惯先去豆包、ChatGPT 、DeepSeek 里让 AI 帮忙写一版简历内容。

问题是,大模型通常输出的是一大段文本,不适合直接投递。

所以我做了一个“AI 文本转简历”的流程:

  • 直接粘贴大模型生成的长文本
  • 系统自动解析结构
  • 一键套用专业模板排版

这样你就不用自己再手动拆分“教育经历 / 项目经历 / 工作经历”。

AI 文本转简历功能截图

3. 模块级 AI 润色

很多人的问题不是“没经历”,而是“不会表达”。

比如:

  • 负责前端开发
  • 参与项目上线
  • 协助完成运营活动

这些话都不算错,但太平了,不够职业化,也不够结果导向。

所以我没有只做“整份简历重写”,而是加入了更细粒度的模块级 AI 润色,让用户可以对单条经历进行优化。

4. JD 智能匹配

同一份简历投不同岗位,其实重点应该不同。

所以还做了一个 JD 智能匹配能力:

  • 粘贴目标岗位描述
  • AI 自动识别岗位重点
  • 帮你调整简历表达的侧重点

这对海投之外、认真准备重点岗位的人会更有价值。

5. ATS 友好与高清导出

很多“好看”的简历模板,未必适合投递系统解析。

所以我在做模板时,会更偏向结构清晰、信息完整、适合 ATS 抓取的格式。同时支持高清 PDF 导出,而且没有水印

模板页效果图

目前这个产品还在持续迭代中,但已经可以正常使用。

如果你最近在准备春招、秋招、实习,或者只是想把旧简历重新整理一下,欢迎试试:

https://aijianli.cn

如果你愿意提建议、吐槽 bug ,或者说说你最讨厌哪类简历工具,也欢迎直接回帖,我会认真看。

在数字化转型从“选择题”转变为“生存必答题”的2026年,采购管理早已不再是简单的“买卖行为”,而是企业构建韧性供应链、实现降本增效的核心战略抓手 。随着人工智能、低代码技术与信创生态的深度融合,SRM(供应商关系管理)市场正经历着一场前所未有的格局重塑。

当前,中国采购数字化平台的潜在市场空间已接近 7000亿元,这标志着采购管理已成为企业价值创造的核心领域。

对于企业决策者而言,如何从琳琅满目的供应商名单中识别出真正能支撑未来十年发展的合作伙伴?本文将深度拆解2026年SRM市场的梯队分层逻辑,并对第一梯队与第二梯队进行全维度的对比分析。

第一章:2026年SRM市场的演进趋势与分层背景

1.1 从数字化工具到智能协同平台

2026年的SRM系统已不再仅仅是记录采购订单的工具,而是向自动化、智能化迈进的数字化平台 。企业对于SRM的需求已从基础的寻源、合同管理,进化为涵盖供应商全生命周期管理、全品类需求集约化、多维度选商定价以及敏捷供需协作的全链条闭环 。

1.2 为什么会出现明显的梯队分层?

市场的剧烈分化源于底层技术的范式转移。传统应用开发面临着“效率之困”(周期长、沟通成本高)、“成本之痛”(专业人才稀缺、维护费用高)以及“协同之殇”(业务与IT部门间的数字鸿沟) 。

第一梯队厂商:通过引入低代码平台作为加速器,打破了传统开发的壁垒,实现了应用系统的快速迭代与个性化定制 。

第二梯队厂商:仍困守在标准化产品的泥潭中,难以响应管理创新和业务更迭的快速需求 。

第二章:第一梯队——数智化引领者的核心特征

第一梯队厂商通常具备深厚的行业积淀,并拥有自主知识产权的底层平台支撑。

采购数字化平台正经历从‘独立的SRM产品’向‘全产业链协同平台’的跨越。第一梯队厂商的特征正符合报告所指的最新阶段:不仅关注直接交易,更向上下游延伸,实现对二级、三级供应商风险的深度管理及委外加工场景下的多方协同 。

厂商代表:正远科技、泛微京桥通

2.1 核心驱动力:低代码+微服务架构

第一梯队的标配是“低代码开发平台”。这种平台通过可视化建模、拖拽式开发,极大地降低了技术门槛 。

敏捷响应:能够快速开发贴合企业组织架构、管理特色的应用系统 。

消除孤岛:利用标准化接口和松耦合架构,轻松实现SRM与ERP、OA等系统的深度互通,确保数据流、业务流的高效闭环 。

2.2 业务深度的全维度覆盖

第一梯队的产品不仅功能全面,更强调业务的精细化。

供应商全生命周期管理:构建高效、低风险且可持续的供应商体系,从准入、考核到淘汰实现全数字化管控 。

双门户设计:通过企业门户与供应商门户的协同,实现内外部信息的实时对称 。

iPaaS赋能:通过标准接口与企业原有的 ERP、OA、财务等系统深度整合,打破系统间的壁垒。

AI 技术:已实现从‘数字化’向‘智能化’的升级,涵盖了智能寻源、智能核价及动态监控履约风险等典型场景。

全场景定价模式:支持招标、询比价、竞价、协议采购等多种定价策略,打造透明高效的选商模式

2.3 信创适配与安全合规

在2026年的政策背景下,第一梯队厂商必须具备完整的信创生态适配能力,支持国产操作系统、数据库及中间件,并提供满足国家等保三级要求的私有化部署方案 。

第三章:第二梯队——标准化产品的局限与挑战

第二梯队多由中小型垂直厂商或处于转型期的传统软件商组成。

厂商代表:企企通、端点科技

3.1 产品的“标准化僵化”

第二梯队最大的痛点在于“标准化产品难以适配组织的个性化需求” 。

改不动:技术架构封闭,源码开放度低,导致二次开发难度巨大且成本极高 。

用不顺:系统流程往往与企业实际业务流程“脱节”,导致员工抵触感强,数字化落地效果差 。

3.2 技术壁垒与创新乏力

由于缺乏自主可控的底层平台,这些厂商在面对管理创新(如引入AI价格预测或自动化对账)时,响应速度极慢。其产品往往表现为社交属性差、缺乏互动传播链,难以在复杂的供应链生态中发挥价值 。

第四章:第一梯队 vs 第二梯队深度对比表

为了直观展现差异,我们从多个维度进行了对比:

第五章:深度解析——为什么低代码是第一梯队的分水岭?

当前市场环境竞争日益激烈,低代码凭借自身的灵活性、敏捷性,满足企业在降本增效和数据赋能方面的核心需求,已成为企业数字化的加速器 。第一梯队厂商通过低代码平台助力企业实现:

试错成本降低:业务部门可以参与创新,缩短从想法到上线的距离 。

维护简单化:系统升级不再需要大动干戈,后期维护费用大幅降低 。

资产数字化:将复杂的业务逻辑沉淀为可复用的数字化组件,实现企业管理思想的数字化转型 。

第六章:如何选择最适合您的SRM合作伙伴?

企业在采购环节普遍面临 寻源难、比价难、结算环节风险高 等痛点。具备强协同属性和 AI 技术能力的平台能够加强对生产全流程的管理,进而提升整体运转效率 。

面对2026年的市场格局,建议企业从以下三个维度进行考察:

看“底座”:是否具备成熟的低代码支撑平台?是否能支持未来的灵活扩展?

看“经验”:是否拥有多年数字化服务的实战背景?是否有PMP认证的专业交付团队?

看“深度”:产品是否涵盖了从需求管理、价格比对、到采购执行与商城化的全场景闭环?

结语

2026年,SRM市场已经从“红海竞争”转向“价值竞争”。第一梯队厂商凭借低代码技术的敏捷性和深度的行业洞察,正在帮助企业构建起难以逾越的供应链竞争优势。而选择一个正确的数字化合作伙伴,往往意味着选择了未来十年的数字化成功。

Omnissa Unified Access Gateway 2512.1 - 远程安全的应用程序访问

a hardened Linux based virtual security appliance designed to protect remote user access to end-user computing resources such as virtual desktops and applications.

请访问原文链接:https://sysin.org/blog/omnissa-unified-access-gateway/ 查看最新版。原创作品,转载请保留出处。

作者主页:sysin.org


Omnissa Horizon 架构图

Omnissa Unified Access Gateway

Unified Access Gateway 概述

Unified Access Gateway 是一款基于 Linux 的强化虚拟安全设备,旨在保护远程用户对最终用户计算资源(如虚拟桌面和应用程序)的访问。它旨在与以下 Omnissa 解决方案配合使用:

  • Desktop and App Virtualization with Omnissa Horizon 7/8 and Omnissa Horizon Cloud
  • Omnissa Access
  • Omnissa Workspace ONE UEM

    • Omnissa Per-App Tunnel
    • Content Gateway
    • Secure Email Gateway

虚拟设备是一种预配置的软件解决方案,可以将强化的 Linux 配置与应用程序网关和安全软件相结合,以便可以作为单个设备进行管理。Unified Access Gateway 作为单个映像文件提供,该文件经过预先强化并进行了整体测试。在部署期间,可以推送所有配置设置,以便 Unified Access Gateway 在首次引导时即可 “投入生产” 并使用自动部署 (sysin),并且只需不到 2 分钟。部署设备后,无需单独配置或强化设备。此功能消除了单独管理操作系统和安装应用程序包的需要。这也意味着,将不同的应用程序代码版本与不同的操作系统组件和 Java 版本组合在一起时,不会遇到不兼容问题。总体而言,已发布的设备映像的所有组件在发布之前都经过 Omnissa 的测试。

有 Unified Access Gateway 的完整版本和有限的 FIPS 版本。支持在以下设备上部署 Unified Access Gateway:

  • vSphere(ESXi 和 vCenter)
    注意:vCenter 对于 ESXi 部署是必需的。
  • Amazon AWS EC2(Xen 和 KVM)
  • Microsoft Azure
  • Hyper-V(仅适用于 Workspace ONE UEM)
  • Google Compute Engine(Google Cloud 中的 GCE)。

所有解决方案、虚拟机管理程序和 Omnissa Cloud 服务(如 Horizon Cloud)都使用相同的 Unified Access Gateway 设备(标准版或 FIPS 版)。

虚拟设备操作系统

与许多其他现代 Omnissa 虚拟设备一样,Unified Access Gateway 使用 AlmaLinux 操作系统。AlmaLinux 是一个开源的极简主义 Linux 操作系统。最新的 Unified Access Gateway 版本使用 AlmaLinux 9。

支持控制台访问,以允许管理员以 root 用户身份登录。这可以通过虚拟化平台(如 vCenter 控制台)链接和访问 vCenter 上全面的基于角色的访问控制(RBAC)工具进行限制 (sysin),以确保只有经过授权的管理员才能获得访问权限。对 Unified Access Gateway 的 SSH 访问通常会停用,但可以使用密码或 SSH 密钥控件激活。

产品更新

Unified Access Gateway 的每个新版本都使用更新的 AlmaLinux OS、Java 和其他组件,并应用了所有最新的安全更新。Omnissa 强烈建议您保持 Unified Access Gateway 版本的最新状态,以利用安全更新和其他改进。

注意:发行说明描述了每个版本的产品更新和发布。

标准版本

目前,Unified Access Gateway 的新版本每季度发布一次(大约一年 4 次)。新版本包括功能更新、安全更新、改进、错误修复和操作系统软件包版本更新。

Unified Access Gateway 的版本编号使用简单的 YYMM 格式,指示发布的年份和月份。例如,版本 2207 表示它于 2022 年 7 月发布。

维护版本

Omnissa 还可能发布临时维护版本,以解决适用于 Unified Access Gateway 的关键安全漏洞或解决严重缺陷。

Unified Access Gateway 维护版本的版本编号使用 YYMM 格式,其中包含一个点(.)和一个递增的数字。例如,维护版本可能是 2207.1、2207.2,这意味着它是 Unified Access Gateway 2207 的维护版本。

关键操作系统补丁更新

Omnissa 可能会授权更新一个或多个操作系统软件包,以纠正影响特定版本的 Unified Access Gateway 且没有可行的解决方法的严重漏洞。

新增功能

Unified Access Gateway 2512.1 | 2026 年 3 月 2 日

更新了操作系统软件包版本

  • 更新了 OpenSSL 软件包的安全修补程序,解决了 CVE-2025-15467 及其他已披露的漏洞。
  • 经评估,本次更新对 Unified Access Gateway 没有任何影响。例行更新。

Unified Access Gateway 2512 | 2025 年 12 月 16 日

Unified Access Gateway 设备为用户提供对虚拟桌面、内部站点、应用程序和文件存储库的安全远程访问。

Unified Access Gateway 2512 提供以下新功能和增强功能:

注意

由于 Alma OS 更新,NIAP 合规性尚未通过认证,并且自动补丁更新功能在 Unified Access Gateway 2412 及之后的版本中不可用。

  • 支持 Horizon 的超大规模配置

    Unified Access Gateway 现已支持 Horizon 8 部署的超大规模配置,最多可处理 4000 个 Horizon 连接。

  • 支持在 Internet 接口上添加多个 TLS 证书

    Unified Access Gateway 现支持在 Internet 接口上为 Horizon 和 Web 反向代理终端用户流绑定最多 10 个 TLS 证书,并通过 SNI 自动选择证书。

  • Origin HTTP 头功能增强

    自动生成的 origin 列表现在会将未指定协议和端口的 URL 同时视为 HTTPS 和 HTTP,而任何包含端口的 origin 都仅被视为 HTTPS(即使端口为 80)。

  • Host HTTP 头功能增强

    Unified Access Gateway 现在会在验证传入 HTTP 请求的 HostX-Forwarded-Host 头时,同时验证端口(在原有主机名验证的基础上),并与允许列表进行比对 (sysin)。此前仅验证主机名。

  • Horizon 设置中 Tunnel 和 Blast URL 的增强

    新增支持根据 Tunnel 和 Blast 外部 URL(包括附加的外部 URL)自动生成带端口号的 Host 头验证规则,确保当 HTTP 请求到达 Unified Access Gateway 且 Host 头中包含端口时,能够正确匹配。

  • 与 Nutanix 部署相关的改进

    • 新增对 Nutanix 7.3 部署的支持。
    • 增强了适用于 Nutanix 的 PowerShell 脚本,新增配置选项以禁用 TLS 证书验证。借助此功能,当 Nutanix Server 未使用受信任的 TLS 证书时,无需再遵循之前的变通方案。
  • 周期性健康检查增强

    周期性健康检查的时间间隔现在仅接受大于 10 秒的值。不再支持将该值设置为 0,因为这会停止周期性健康检查,并导致 Unified Access Gateway 被报告为无法提供请求服务。

  • PCoIP 弃用说明

    PCoIP 将在即将发布的版本中从 Horizon Client 中弃用 (sysin)。建议考虑切换至 Horizon Blast 协议。

  • 日志记录和故障排查改进
  • 操作系统软件包和 Java 组件版本更新

    • open-vm-tools 更新至 12.1.5-1,修复了 CVE-2025-41244。
  • Content Gateway

    新增对 WebDAV 存储库基于证书的身份验证(CBA)的支持。

  • Tunnel

    新增服务器 KVP 以支持 TLS 1.3 加密套件,该设置与支持 TLS 1.2 加密套件的 KVP 分离。

    • KVP:openssl_1_3_cipher_list
    • 示例:

      • KVP:openssl_1_3_cipher_list
      • 值:TLS_AES_256_GCM_SHA384:TLS_AES_128_GCM_SHA256:TLS_AES_128_CCM_SHA256
  • Secure Email Gateway

    Secure Email Gateway 日志现在会自动压缩并以 .gz 格式存储。

下载地址

Omnissa Unified Access Gateway 2512, Release Date 2025-12-16

Unified Access Gateway Enterprise files. For use with Horizon Enterprise.

  • Unified Access Gateway (UAG) 2512.1 for vSphere, AWS and Nutanix (FIPS)
    File size: 3460.83 MB
    Name: euc-unified-access-gateway-fips-25.12.1.0-22302761907_OVF10.ova
  • Unified Access Gateway (UAG) for Microsoft Azure (Non-FIPS)
    File size: 3706.51 MB
    Name: euc-unified-access-gateway-25.12.1.0-22302759284_OVF10-vhd.zip
  • Unified Access Gateway (UAG) for Microsoft Hyper-V (Non-FIPS)
    File size: 3706.69 MB
    Name: euc-unified-access-gateway-25.12.1.0-22302759284_OVF10-vhdx.zip
  • Unified Access Gateway (UAG) for vSphere, AWS, Google Cloud and Nutanix (Non-FIPS)
    File size: 3856.35 MB
    Name: euc-unified-access-gateway-25.12.1.0-22302759284_OVF10.ova
  • Unified Access Gateway (UAG) 2512.1 for Microsoft Hyper-V (FIPS)
    File size: 3311.19 MB
    Name: euc-unified-access-gateway-fips-25.12.1.0-22302761907_OVF10-vhdx.zip
  • Unified Access Gateway (UAG) 2512.1 for Microsoft Azure (FIPS)
    File size: 3311.13 MB
    Name: euc-unified-access-gateway-fips-25.12.1.0-22302761907_OVF10-vhd.zip
  • Unified Access Gateway (UAG) PowerShell Scripts
    File size: 124.94 KB
    Name: uagdeploy-25.12.1.0-22302759284.zip

更多:VMware 产品下载汇总