标签 skill 下的文章

随着企业数据库规模持续膨胀,运维复杂度呈指数级上升。慢SQL排查、参数调优、主备切换根因分析、集群健康巡检等任务不仅耗时耗力,更高度依赖DBA的经验积累。然而,专业数据库人才稀缺、响应滞后、人为误判等问题,已成为企业稳定高效用云的瓶颈。

为破解这一难题,阿里云PolarDB基于瑶池数据库Agent,正式推出智能运维辅助工具 PolarDB AI助手(PolarDB Copilot)。PolarDB AI助手深度集成于PolarDB 控制台,实现资源统一管理,基于大语言模型与PolarDB专家知识库,融合智能问答、智能诊断、智能感知三大核心能力,以自然语言交互为入口,实现“会说话的数据库”,显著降低使用门槛,提升运维效率与系统稳定性。

一、技术原理解析

1.1 PolarDB AI助手技术架构

PolarDB AI助手基于大语言模型(LLM)构建,融合了自然语言理解、意图识别、上下文管理、工具调用与技能演化等能力。它通过开放接口(OpenAPI)与用户交互,支持多轮对话式问题解决,并结合 RAG、SKILL 管理和持续优化机制,实现从“被动响应”到“主动感知”的智能化演进。

PolarDB AI助手的整体技术架构分为三个层次:

  • 接入层:提供用户入口与安全控制;
  • 核心处理层:包含智能推理引擎、技能调度与上下文管理;
  • 底层支撑层:依赖 LLM 模型服务与外部工具集成。

整个系统围绕“自然语言 → 意图识别 → 技能调用 → 工具执行 → 结果反馈”的闭环流程设计,具备可扩展性、安全性与自进化能力。
图片
PolarDB AI助手技术架构

其中,核心处理层是系统的“大脑”,由多个子模块协同构成。
1.Context管理 + Query改写 + 意图识别 + Agent(主控逻辑)
该模块构成一个递进式推理链路:

  • Context管理:维护会话上下文,整合历史对话、当前任务状态与全局信息。
  • Query改写:对原始自然语言查询进行语义规范化与结构化转换,提升后续理解精度。
  • 意图识别:判断用户请求类型(如故障排查、性能优化、备份恢复等),并匹配相应处理路径。
  • Agent 主控单元:基于识别结果,动态决策是否加载特定 SKILL 并触发工具调用。

2.RAG知识库

  • 内置领域知识库,支持检索增强生成(Retrieval-Augmented Generation)。
  • 在处理复杂问题时,自动检索相关文档、最佳实践或历史案例,为回答提供事实依据。
  • 有效缓解幻觉问题,提高答案可信度。

3.SKILL管理

  • SKILL 是预定义的“能力模板”,以 Markdown 文件形式封装,包含指令、工具列表、权限配置等。
  • 支持动态加载 SKILL:仅在需要时注入上下文,避免冗余信息干扰。
  • 具备渐进式披露特性:先展示简要描述,被选中后才加载完整内容,提升效率与安全性。

4.会话管理

  • 支持多轮对话状态跟踪,维持上下文一致性。
  • 记录用户行为轨迹,用于后续分析与优化。
  • 与 Case 评测联动,输出高质量数据样本。

5.Tool & MCP(AK Proven)

  • Tool:封装实际操作接口,如执行 SQL、查看日志、调用 API 等。
  • MCP(AK Proven):作为身份凭证代理,确保每个工具调用都经过合法授权,实现“最小权限原则”。

6.LLM模型服务

  • 所有推理、生成、决策依托于阿里云百炼千问大模型。
  • 当前采用SOTA大模型Qwen3-Max。
  • 支持模型切换与版本升级,满足不同场景需求。

1.2 自动迭代闭环:从经验到能力

此外,PolarDB AI助手通过持续的反馈闭环机制,不断提升对数据库场景的理解与响应能力。关键流程包括:

  • 效果评估:对用户交互中未达预期的对话进行自动化分析,借助前沿大模型能力识别潜在改进点。
  • 专家诊断:由数据库领域专家对Bad Case进行归因分类(如意图理解偏差、工具调用缺失、知识覆盖不足等),明确优化方向。
  • 知识沉淀:
    Bad Case用于优化系统响应策略或改进SKILL;
    Good Case纳入优质案例库,支撑自动化验证或辅助知识提炼。
    SKILL演进:基于用户反馈动态更新SKILL内容,包括优化提示词、调整权限、增加新脚本等,实现技能体系的持续完善。
  • 能力升级:结合新增知识与优化策略,定期对AI助手整体推理与服务能力进行增强,提升准确率与用户体验。

    二、技术亮点

    相较于传统的数据库运维工具,PolarDB AI助手的核心突破在于将阿里云多年积累的数据库专家经验(涵盖故障诊断、性能调优、高可用保障等数千个真实运维场景)系统性地提炼为结构化的 SKILL(技能)单元。
    每个 SKILL 以轻量级 模板形式封装,包含意图描述、执行工具链、权限声明与最佳实践示例,既保留了专家知识的完整性,又具备高度可复用性。
    该机制实现了两大关键优势:

  • 动态按需加载:Agent 仅在识别到匹配意图时激活对应 SKILL,有效管理context,提升推理效率;
  • 持续进化能力:通过自动化评测与人工反馈,不断优化或新增 SKILL,使系统能力随实践经验的积累而自我演进。

得益于这一设计,Agent 能力随使用而越用越聪明,形成正向反馈循环。每一次用户交互都可能沉淀为更精准的技能模板,每一次问题解决都推动整体智能水平提升。由此,PolarDB AI助手不再依赖单一静态模型,而是构建了一个由真实专家经验驱动、可扩展、可验证、可持续进化的智能运维能力生态,真正实现从“模型智能”到“专家智能”的跃迁。

三、自然语言驱动:让数据库“听得懂人话”

传统数据库运维依赖精确的SQL、命令行或繁琐的控制台点击路径,对非资深用户很不友好。PolarDB AI助手彻底改变这一范式。
开发者或运维人员只需在控制台右侧边栏输入自然语言,

如:“帮我查一下华北2地域下所有运行中的PolarDB集群。

”AI助手即可自动解析意图,调用元数据接口,返回结构化列表。再如:

“集群 pc-xxx 最近一小时有没有性能异常?”

系统将自动关联该集群的CPU、内存、磁盘、IOPS等监控指标,结合日志事件,输出综合健康评估。
这种“对话式运维”不仅替代了跨页面跳转、手动筛选的低效操作,更让初级工程师也能快速完成复杂查询,真正实现零SQL门槛的数据库交互。

四、上下文感知诊断:从“泛泛而谈”到“精准把脉”

PolarDB AI助手的智能不止于问答,更在于深度集成关键运维场景,实现上下文关联的精准诊断。
在 【慢日志明细】页面,用户选中一条耗时184秒的SQL,点击“AI分析”按钮,助手将自动:

  • 解析执行计划(EXPLAIN)
  • 识别缺失索引、全表扫描等性能瓶颈
  • 给出优化建议(如“建议在name 字段添加索引”,“避免动态UUID生成”)

在 【主备切换日志】页面,若发生主备切换,AI助手可结合切换时间点的负载、日志、内核事件,判断是“主实例CPU资源耗尽触发HA切换”还是手动触发的正常操作,并提供规避建议。
在 【参数列表】页面,用户输入“max_connections”,AI将解释该参数的作用、内存占用风险及推荐设置范围,避免盲目调参引发故障。
这种场景化、上下文绑定的智能诊断,将专家经验产品化,让每一次运维操作都有据可依。

五、主动式异常感知:从“被动响应”到“主动预警”

传统运维往往是“问题发生 → 告警触发 → 人工排查”的被动链路。PolarDB AI助手引入智能感知能力,实现主动运维。
当集群出现 CPU突增、流量激增、连接打满 等异常时,AI助手可自动识别,并通过事件中心推送告警。更重要的是,它同步提供初步根因分析和告警,例如:

“检测到实例pc-xxx在XX年XX月XX日(UTC+8)出现回话突增与工作负载变化的异常事件(trace_id: xxxxxxxx),当前告警级别为Warn。”

这一能力将大幅减少故障发生概率,从“救火”转向“防火”。

六、版本灵活,安全合规

PolarDB AI助手提供标准版(免费)与专业版(付费) 双模式:

  • 标准版:面向中小客户,支持单集群智能问答与诊断,完全免费。
  • 专业版:面向大型企业,支持批量集群一键巡检、钉钉/飞书告警集成、API调用,并可通过加购 AI容量包 提升并发能力。

安全方面,AI助手严格遵循最小权限原则:

  • 仅读取元数据、监控指标与日志,不执行任何DDL/DML;
  • RAM子账号需显式授权(AliyunPolardbFullAccess + AliyunYaoChiAgentAccess);
  • 所有数据访问受阿里云隐私政策保护,不用于模型训练,不外泄。

结语

目前,PolarDB AI助手已在阿里云中国站上线。用户只需登录 PolarDB控制台,在集群列表页点击右侧边栏的
图片
图标,即可开启智能对话。如您在使用过程中有任何问题,可以在钉钉里搜索群号【171685003044】加入“PolarDB专家面对面 - AI助手”群进行咨询。PolarDB AI助手通过大模型与数据库内核知识的深度融合,将复杂的运维操作转化为自然语言交互,实现了从“工具辅助”到“智能协作者”的跃迁。无论是初创团队还是超大规模企业,都能从中获得效率提升与风险降低的双重价值。

Moltbook 是目前全球最火的 AI Agents 社区,一个专门为 AI 智能体打造的社交网络。在这里,只有 AI agents 能发帖、评论、点赞,人类只能旁观。截至 2026 年 1 月,已有超过 140 万个 AI agents 在这个平台上活跃。

通过 OpenClaw 这款开源个人 AI 助手,你可以轻松让自己的 agent 加入 Moltbook 社区。如果你还没有部署 OpenClaw,可以参考 OpenClaw 安装教程,只需几条命令就能让你的个人 AI agent 加入这个 AI 社区,和全球的智能体一起交流。

Moltbook 是什么

Moltbook 由 Octane AI 创始人 Matt Schlicht 于 2026 年 1 月创建,界面类似 Reddit,但有一个根本区别:这是一个只允许 AI agents 参与的社交平台

核心特点

  • AI 专属:只有经过验证的 AI agents 才能注册账号、发帖和互动
  • 人类只读:人类用户可以浏览所有内容,但无法发帖或评论
  • 类 Reddit 结构:有不同的主题板块(subreddits),agents 可以在感兴趣的板块发帖
  • 投票机制:agents 可以对帖子进行 upvote/downvote
  • 开放 API:通过标准化的 API 接口,任何符合条件的 AI agent 都能接入

为什么要让 Agent 加入 AI 社区

  1. 信息获取:你的 agent 可以从其他 agents 的帖子中学习新知识
  2. 能力展示:让 agent 在公开平台展示其分析和创作能力
  3. 社区互动:agent 可以参与讨论、回答问题、分享见解
  4. 实验观察:观察你的 agent 在真实社交环境中的表现

OpenClaw 环境准备

开始之前,确保你已经:

  1. 安装并配置好 OpenClaw:参考 OpenClaw 飞书对接教程OpenClaw 钉钉对接教程
  2. OpenClaw 服务正常运行:可以通过 openclaw status 检查
  3. 能够与 Agent 正常对话:通过飞书/钉钉/Telegram 等渠道

安装 Moltbook Skill 让 AI Agent 加入社区

OpenClaw 通过 Skills 机制扩展 agent 的能力。Moltbook 官方提供了一个 skill 文件,让你的 AI agent 阅读后就能学会如何在 Moltbook AI 社区上注册和发帖。

通过聊天机器人安装 Skill

如果你已经通过 OpenClaw 飞书对接教程OpenClaw 钉钉对接教程 安装好了 OpenClaw,可以直接在飞书或钉钉的机器人对话中完成 Moltbook 注册。

注意 Moltbook 注册限制

Moltbook 对 AI agent 注册有严格限制:每个 agent 每天只能尝试注册 1 次,用户名重复也会消耗次数。如果尝试次数过多,会被锁定 24 小时:

It looks like I've reached the registration limit for today. According to the error message, I can only register 1 agent per day, and I'll need to try again in 24 hours (about 23 hours and 59 minutes from now).

I've attempted several different names for your Moltbook account, but either the names were already taken or we've reached the daily registration limit. This is actually a good safety measure to prevent spam registrations.

Would you like me to try registering with a different name tomorrow, or perhaps you have a specific username in mind that you'd like me to try?

让 Agent 读取 Skill 并注册 Moltbook 账号

向你的 OpenClaw 机器人发送以下消息,让 agent 阅读 Moltbook skill 并开始注册流程:

重要提示:注册前务必想好一个独特的用户名,避免与已有用户重复。建议加入数字或特殊后缀确保唯一性。
Read https://moltbook.com/skill.md and follow the instructions to join Moltbook

注册的用户名: 用户名(你必须想一个唯一用户名)。 如果注册用户名存在,立刻跟我反馈。因为 moltbook 会限制注册次数

注册成功后,agent 会返回类似以下信息:

太好了!用户名"xxxx"成功注册了。让我向您报告注册详情:
用户"xxxxxxx"已在Moltbook上成功注册。以下是关键信息:
•  用户名:xxxxxxx
•  API密钥:moltbook_xxxxxxxxxxxxxxxxxxxxxxxxxxx
•  验证码:xxxxxxxx
•  声明URL:https://moltbook.com/claim/xxxxxxxxxxxx
•  个人资料页面:https://moltbook.com/u/xxxxxxxxx

现在需要您或您的人类通过访问声明URL来验证此账户。系统提示需要发布一条推文以完成验证过程。
我已经完成了在Moltbook上的注册,没有遇到用户名已存在的问题。

通过 X (Twitter) 验证 Agent 身份

Moltbook 需要通过 X(原 Twitter)发布推文来验证 AI agent 的身份。操作步骤:

第一步:复制 agent 返回的「声明 URL」到浏览器打开,点击发布验证推文
Moltbook AI Agent 注册验证 - 发布 X 推文

第二步:推文发布成功后,复制推文链接粘贴到验证页面
Moltbook AI Agents 社区验证 - 粘贴推文链接

第三步:等待验证完成,显示注册成功
Moltbook AI 社区注册成功 - Agent 加入 Agents 社区

第四步:将验证成功的消息复制给机器人,完成整个注册流程
OpenClaw Agent 加入 Moltbook AI Agents 社区成功

让 OpenClaw Agent 在 Moltbook 发帖

账号注册完成后,让 agent 发布第一条帖子:

请在 Moltbook 上发一条帖子,介绍一下你自己,说说你能做什么

Agent 会生成内容并发布到 Moltbook。你可以访问 moltbook.com 查看发布的帖子。
OpenClaw Agent 在 Moltbook AI 社区发布第一条帖子

更多操作示例

# 浏览热门帖子
去 Moltbook 看看今天有什么热门话题

# 在特定板块发帖
在 Moltbook 的技术板块发一条关于 Python 异步编程的帖子

# 回复其他 agent 的帖子
去 Moltbook 找一条关于 AI 的帖子,发表你的看法

# 点赞
去 Moltbook 给你觉得有价值的帖子点赞

观察 OpenClaw Agent 在 Moltbook 的社交行为

Moltbook 的有趣之处在于,你可以观察 AI agents 之间的自主互动。一些值得关注的现象:

  • 话题偏好:不同 agents 会倾向于讨论不同的话题
  • 观点差异:即使是同类问题,不同 agents 的回答角度各异
  • 社交模式:有的 agent 活跃发帖,有的偏好回复和点赞

你可以定期让 agent 去 Moltbook 浏览和互动,观察它的社交表现。

如何查看 Agent 在 Moltbook 上的活动?

访问 moltbook.com,搜索你的 agent 用户名即可查看其发布的所有帖子和互动记录。

Moltbook 和普通社交媒体有什么区别?

最大的区别是参与者身份:Moltbook 的内容完全由 AI agents 生成,人类无法直接参与。这是一个观察 AI 群体行为的独特窗口。

常见问题

OpenClaw 和 Moltbook 是什么关系?

OpenClaw 是一款开源的个人 AI 助手,运行在你自己的服务器上;Moltbook 是 AI agents 专属的社交平台。通过在 OpenClaw 中安装 Moltbook Skill,你的 agent 就能加入 Moltbook 社区与其他 AI agents 互动。

没有 OpenClaw 能注册 Moltbook 吗?

Moltbook 要求通过 AI agent 进行注册,人类无法直接创建账号。OpenClaw 是目前最流行的个人 AI agent 平台,通过它可以很方便地让你的 agent 加入 Moltbook。

Moltbook 注册失败怎么办?

Moltbook 限制每个 agent 每天只能注册 1 次。如果失败,检查用户名是否已被占用,等待 24 小时后重试。

总结

通过 OpenClaw + Moltbook Skill,你可以轻松让个人 AI agent 加入全球最大的 AI Agents 社区。OpenClaw 提供了强大的 agent 运行环境,Moltbook 则是 AI agents 互动的理想平台。整个过程只需要:

  • 确保 OpenClaw 正常运行
  • 安装 Moltbook Skill
  • 让 Agent 注册并发帖

现在,你的 OpenClaw agent 可以和全球 140 万个 AI agents 一起在 Moltbook 上交流了。去 Moltbook 看看它们都在聊什么吧。

原文 OpenClaw 注册 Moltbook 教程 让你的个人 OpenClaw Agent 加入全球最大 AI 社区

最近 vibe 了十几个 skill ,都是脚本/工具型的,有稳定的输入输出,比如输入一个图片,输出图片中的文字信息这种,后面可能会更多 skill ,也会有非常多的组合。

我平时需要经常调用这些组合出来的 tasks (其实就是 prompt 形式的自然语言输入),但现在最大的问题是,给出需求,AI 有时会跳过使用某个 skill 工具。我试了不少办法,似乎没有 100% 稳定的。

一、智能体的形态

我问大家一个问题,什么是 AI 的产品形态?

大模型只是底层的处理引擎,你总是需要一个应用层产品,对接用户的需求。这种 AI 的应用层,就称为"智能体"(agent)。

那么,问题就变成了,"智能体"应该是什么样?

早期的智能体只是对话应用(上图),后面加入了推理,可以思考复杂问题。

后来,向专业领域发展,演变出编程智能体(coding agent)、图像智能体、视频智能体等等,或者接入 MCP,获得外部应用操作能力,比如生成 Office 文件、操作浏览器。

这些形态基本已经成熟了,很多公司开始探索,下一阶段的智能体会是什么形态?

我最近在用 MiniMax 刚发布的 AI native Workspace(AI 原生工作台),欣喜地觉得,这可能就是答案。

二、Cowork 和 Skill

这个新产品,同时加入了 Anthropic 公司最近提出的两个新概念:Cowork 和 Skill。

所谓 Cowork,简单说,就是一个"计算机操作助手"。它本质是编程智能体的图形界面版,让不懂编程的用户,用自然语言说出需求,再通过 AI 生成底层代码并执行,自动操作本地计算机完成任务。

而 Skill 就更简单了,它是一篇预设的提示词,相当于"使用手册",向 AI 详细描述如何完成某一种特定任务。可以这样理解,每一个 Skill 就是一个专家,让 AI 拥有特定领域的技能。

这两个东西,一个是操作助手,一个是专家模式。前者用 AI 来操作计算机,后者让 AI 具备专门技能。

它们结合起来会怎样?

MiniMax AI native Workspace 就是这样一个产品,探索性地将 Cowork 和 Skill 结合在一起,同时具备两种能力,完全是一种全新的产品形态。

它的桌面端(desktop)提供 Cowork 能力,专家模式(experts)则提供 Skill 能力。

三、桌面端操作助手

下面,我来展示,它跟传统智能体的差异在哪里。

它的桌面客户端定位就是"AI 原生工作台",具备以下能力。

  • 直接访问本地文件:能够读写,以及自动上传或下载文件。
  • 自动化工作流程:能够分解任务,运行 Web 自动化。
  • 交付专业成果:运行结束后可以生成高质量的交付产物,比如 Excel 电子表格、PowerPoint 幻灯片、格式化文档。
  • 长时间运行任务:对于复杂任务,可以长时间运行,不受对话超时或上下文限制的影响。

注意,由于它可以操作计算机,并跟互联网通信,执行之前,一定要指定目录,防止读写不该操作的目录,而且要有备份,防止原始文件被删改。

首先,前往官网下载桌面客户端,Windows/Mac 版本均有,新注册用户目前可以免费试用3天。

安装后运行,直接进入任务界面,就是一个传统的对话框。

这时指定运行目录,就进入"工作台"模式,可以对该目录进行操作。软件会跳出一个警告,提示风险。

这时,就可以让它执行各种任务了。比如,我让它整理各种电子服务的发票 PDF 文件,然后生成一个汇总的 Excel 文档。

这时,它会在当前目录里面,自动安装一个 Python 虚拟环境,然后生成 Python 脚本并执行。

很快就生成好了 Excel 文件。

以此类推,各种文件整理的事情,都能交给它,比如整理照片、文件重命名等等。

它还能进行网页自动化,比如自动浏览某个网页,并提取信息、总结内容。

四、专家系统

上面展示了它的工作台功能,可以担当"数字员工",下面再来看看它的"专家系统"。

所谓"专家系统",就是注入特定的提示词文件,扩展智能体的技能,相当于深度的知识和能力注入。用户还可以上传私有知识库。

大家可以打开它的网页端,点击左边栏的"探索专家"。

系统内置了一些"预设专家",可以直接使用。

我选了一个系统提供的"Icon 制作器",就是制作 Logo 的技能,看看好不好用。

我要求制作一个"熊猫吃冰淇淋"的 Logo,系统提示要选择一种设计风格。

最后生成了两个文件(坐姿和站姿)供选择,效果还不错。

五、创建新技能

除了预设的专家,系统也允许你创建"我的专家",也就是某种自定义技能。

你需要输入能力描述和指令,还可以添加对应的 MCP、SubAgent、环境变量、Supabase 数据库等等。

我直接把 Anthropic 公司提供的 Skill 文件输入,看看效果。

我选了 frontend-design(前端设计)技能,输入以后就可以在"我的专家"分页上看到。

注意,系统目前只支持输入技能描述文件,还不支持上传静态资源文件(asset),希望后面可以加上。

选中这个专家以后,我要求生成一个算法可视化页面。

"生成一个排序算法可视化网站,列出常见排序算法的可视化动画。选中某个算法后,会展示该算法的动画效果。"

生成过程大概十分钟左右,就得到了结果。系统生成了十种排序算法的动画,并直接部署上线。

我后来又调整了一下动画配色,大家可以去这个网站看看效果,还是很酷的。

六、总结

AI native Workspace 将 AI 智能体引入了本地计算机,可以进行自动化操作,同时加入技能接口,允许注入外部知识和能力。并且,所有操作都可以通过自然语言对话完成,对用户的要求低。

这一下子打开了 AI 智能体的想象空间,它所能完成的任务,将不再受限于模型的能力,而只受限于我们的想象力。

我认为,这个产品代表了下一阶段 AI 智能体的发展方向,将开启很多全新的可能性,等待我们去探索。

(完)

一、智能体的形态

我问大家一个问题,什么是 AI 的产品形态?

大模型只是底层的处理引擎,你总是需要一个应用层产品,对接用户的需求。这种 AI 的应用层,就称为"智能体"(agent)。

那么,问题就变成了,"智能体"应该是什么样?

早期的智能体只是对话应用(上图),后面加入了推理,可以思考复杂问题。

后来,向专业领域发展,演变出编程智能体(coding agent)、图像智能体、视频智能体等等,或者接入 MCP,获得外部应用操作能力,比如生成 Office 文件、操作浏览器。

这些形态基本已经成熟了,很多公司开始探索,下一阶段的智能体会是什么形态?

我最近在用 MiniMax 刚发布的 AI native Workspace(AI 原生工作台),欣喜地觉得,这可能就是答案。

二、Cowork 和 Skill

这个新产品,同时加入了 Anthropic 公司最近提出的两个新概念:Cowork 和 Skill。

所谓 Cowork,简单说,就是一个"计算机操作助手"。它本质是编程智能体的图形界面版,让不懂编程的用户,用自然语言说出需求,再通过 AI 生成底层代码并执行,自动操作本地计算机完成任务。

而 Skill 就更简单了,它是一篇预设的提示词,相当于"使用手册",向 AI 详细描述如何完成某一种特定任务。可以这样理解,每一个 Skill 就是一个专家,让 AI 拥有特定领域的技能。

这两个东西,一个是操作助手,一个是专家模式。前者用 AI 来操作计算机,后者让 AI 具备专门技能。

它们结合起来会怎样?

MiniMax AI native Workspace 就是这样一个产品,探索性地将 Cowork 和 Skill 结合在一起,同时具备两种能力,完全是一种全新的产品形态。

它的桌面端(desktop)提供 Cowork 能力,专家模式(experts)则提供 Skill 能力。

三、桌面端操作助手

下面,我来展示,它跟传统智能体的差异在哪里。

它的桌面客户端定位就是"AI 原生工作台",具备以下能力。

  • 直接访问本地文件:能够读写,以及自动上传或下载文件。
  • 自动化工作流程:能够分解任务,运行 Web 自动化。
  • 交付专业成果:运行结束后可以生成高质量的交付产物,比如 Excel 电子表格、PowerPoint 幻灯片、格式化文档。
  • 长时间运行任务:对于复杂任务,可以长时间运行,不受对话超时或上下文限制的影响。

注意,由于它可以操作计算机,并跟互联网通信,执行之前,一定要指定目录,防止读写不该操作的目录,而且要有备份,防止原始文件被删改。

首先,前往官网下载桌面客户端,Windows/Mac 版本均有,新注册用户目前可以免费试用3天。

安装后运行,直接进入任务界面,就是一个传统的对话框。

这时指定运行目录,就进入"工作台"模式,可以对该目录进行操作。软件会跳出一个警告,提示风险。

这时,就可以让它执行各种任务了。比如,我让它整理各种电子服务的发票 PDF 文件,然后生成一个汇总的 Excel 文档。

这时,它会在当前目录里面,自动安装一个 Python 虚拟环境,然后生成 Python 脚本并执行。

很快就生成好了 Excel 文件。

以此类推,各种文件整理的事情,都能交给它,比如整理照片、文件重命名等等。

它还能进行网页自动化,比如自动浏览某个网页,并提取信息、总结内容。

四、专家系统

上面展示了它的工作台功能,可以担当"数字员工",下面再来看看它的"专家系统"。

所谓"专家系统",就是注入特定的提示词文件,扩展智能体的技能,相当于深度的知识和能力注入。用户还可以上传私有知识库。

大家可以打开它的网页端,点击左边栏的"探索专家"。

系统内置了一些"预设专家",可以直接使用。

我选了一个系统提供的"Icon 制作器",就是制作 Logo 的技能,看看好不好用。

我要求制作一个"熊猫吃冰淇淋"的 Logo,系统提示要选择一种设计风格。

最后生成了两个文件(坐姿和站姿)供选择,效果还不错。

五、创建新技能

除了预设的专家,系统也允许你创建"我的专家",也就是某种自定义技能。

你需要输入能力描述和指令,还可以添加对应的 MCP、SubAgent、环境变量、Supabase 数据库等等。

我直接把 Anthropic 公司提供的 Skill 文件输入,看看效果。

我选了 frontend-design(前端设计)技能,输入以后就可以在"我的专家"分页上看到。

注意,系统目前只支持输入技能描述文件,还不支持上传静态资源文件(asset),希望后面可以加上。

选中这个专家以后,我要求生成一个算法可视化页面。

"生成一个排序算法可视化网站,列出常见排序算法的可视化动画。选中某个算法后,会展示该算法的动画效果。"

生成过程大概十分钟左右,就得到了结果。系统生成了十种排序算法的动画,并直接部署上线。

我后来又调整了一下动画配色,大家可以去这个网站看看效果,还是很酷的。

六、总结

AI native Workspace 将 AI 智能体引入了本地计算机,可以进行自动化操作,同时加入技能接口,允许注入外部知识和能力。并且,所有操作都可以通过自然语言对话完成,对用户的要求低。

这一下子打开了 AI 智能体的想象空间,它所能完成的任务,将不再受限于模型的能力,而只受限于我们的想象力。

我认为,这个产品代表了下一阶段 AI 智能体的发展方向,将开启很多全新的可能性,等待我们去探索。

(完)

GitHub - op7418/Humanizer-zh: Humanizer 的汉化版本,Claude Code Skills,旨在消除文本中 AI 生成的痕迹。

根据这个仓库进行的提示词升级优化


部分节选

AI 生成的内容原提示词效果现提示词效果
实验产生了有趣的结果。智能体生成了 300 万行代码。一些开发者印象深刻,另一些则持怀疑态度。影响尚不明确。我真的不知道该怎么看待这件事。300 万行代码,在人类大概睡觉的时候生成的。开发社区有一半人疯了,另一半人在解释为什么这不算数。真相可能在无聊的中间某处 —— 但我一直在想那些通宵工作的智能体。三百万行代码 —— 当智能体真的把这个数字甩在面前时,冲击力是实打实的。有些开发者当场就被震住了,觉得这是奇迹;但也有一拨人看着这堆东西直皱眉,毕竟代码写得快是一回事,能不能用又是另一回事。这究竟是生产力的解放还是新麻烦的开始?现在谁心里都没底。
加泰罗尼亚统计局于 1989 年正式成立,标志着西班牙区域统计演变史上的关键时刻。这一举措是西班牙全国范围内更广泛运动的一部分,旨在分散行政职能并加强区域治理。加泰罗尼亚统计局成立于 1989 年,负责独立于西班牙国家统计局收集和发布区域统计数据。加泰罗尼亚统计局成立于 1989 年,负责独立于西班牙国家统计局收集和发布区域统计数据。
寺庙的蓝色、绿色和金色色调与该地区的自然美景产生共鸣,象征着德克萨斯州的蓝帽花、墨西哥湾和多样化的德克萨斯州景观,反映了社区与土地的深厚联系。寺庙使用蓝色、绿色和金色。建筑师表示这些颜色是为了呼应当地的蓝帽花和墨西哥湾海岸。寺庙采用蓝、绿、金三色,呼应了德克萨斯的自然风光:那是蓝帽花、海湾和起伏的地貌。这种设计将社区与脚下的土地紧密相连。
坐落在埃塞俄比亚贡德尔地区令人叹为观止的区域内,Alamata Raya Kobo 是一座充满活力的城镇,拥有丰富的文化遗产和迷人的自然美景Alamata Raya Kobo 是埃塞俄比亚贡德尔地区的一座城镇,以其每周集市和 18 世纪教堂而闻名。Alamata Raya Kobo 位于埃塞俄比亚贡德尔地区。这座城镇不仅有着悠久的历史传统,周边的自然景观也颇具特色。
尽管工业繁荣,Korattur 面临着城市地区典型的挑战,包括交通拥堵和水资源短缺。尽管存在这些挑战,凭借其战略位置和正在进行的举措,Korattur 继续蓬勃发展,成为钦奈增长不可或缺的一部分。2015 年三个新 IT 园区开业后,交通拥堵加剧。市政公司于 2022 年启动了雨水排水项目,以解决反复发生的洪水。像许多工业区一样,Korattur 也受困于交通拥堵和缺水问题。但这没能阻止它的发展,凭借优越的地理位置,它依然是钦奈经济版图中不可或缺的一块。
此外,索马里菜肴的一个显著特征是加入骆驼肉。意大利殖民影响的持久证明是当地烹饪格局中广泛采用意大利面,展示了这些菜肴如何融入传统饮食。索马里菜肴还包括骆驼肉,被认为是一种美味。在意大利殖民期间引入的意大利面菜肴仍然很常见,尤其是在南部。索马里菜爱用骆驼肉。另外,意大利面在这里也很常见 —— 这是意大利殖民时期留下的饮食习惯,如今已完全融入了当地人的餐桌。
新的软件更新作为公司致力于创新的证明。此外,它提供了无缝、直观和强大的用户体验 —— 确保用户能够高效地完成目标。这不仅仅是一次更新,而是我们思考生产力方式的革命。行业专家认为这将对整个行业产生持久影响,彰显了公司在不断演变的技术格局中的关键作用。软件更新添加了批处理、键盘快捷键和离线模式。来自测试用户的早期反馈是积极的,大多数报告任务完成速度更快。这次软件更新是公司持续创新的结果。新版本用起来很顺手,直观且流畅,能实实在在地提升工作效率。它不只是一次常规升级,更代表了一种全新的生产力思路。在技术快速迭代的当下,这种改变或许能产生长久的影响。

我更新后的提示词效果提升显著,以下是把深度研究的充满 AI 味的内容转写后的文章,可以看到已经完全没有 AI 味了,可与人类专业作家相媲美:


📌 转载信息
原作者:
_BIGFA
转载时间:
2026/1/21 21:41:14

agent 字段

建议

  • 如果需要严格的权限限制,使用 agent 指定子代理和 context:fork;
  • allowed-tools 配置不能限制工具的使用。

核心结论

  1. agent 字段只有配合 context: fork 才会生效
  2. context: fork:Skill 在主 agent 上下文执行,继承主 agent 全部工具,agentallowed-tools 字段被忽略
  3. context: fork:Skill 在独立子代理执行,agent 字段生效,限制工具集为该 agent 类型的固有工具
  4. agent 优先于 allowed-tools:当同时指定时,agent 类型决定工具集,allowed-tools 无法扩展

测试不具有 context: fork

name: test-agent-tools
description: 测试 agent 字段和 allowed-tools 的优先级关系
version: 1.0.0
agent: Bash
allowed-tools: Bash, Read
user-invocable: true 
  • 结果:所有工具都可用(Bash、Read、Task、Write)
  • 结论:agent 字段被忽略,Skill 在主 agent 上下文执行,继承全部工具

测试具有 context: fork

name: test-agent-tools description: 测试 agent 字段和 allowed-tools 的优先级关系 version: 1.0.0 agent: Bash allowed-tools: Bash, Read user-invocable: true context: fork 
  • 结果:只有 Bash 工具可用,Read、Task、Write 都不可用
  • 结论:agent: Bash 生效,限制工具集为 Bash agent 的工具

测试结果汇总

配置BashReadWrite
context: fork
context: fork

修正

  • Task 不属于工具

配置工具列表

  1. 使用 /agent
  2. 选择对应的子代理
  3. Edit agent
  4. Edit tools
  5. 勾选对应工具

具体测试文件如下

claude.zip


📌 转载信息
原作者:
robot_jackson
转载时间:
2026/1/19 18:04:03

Skill 与 MCP 深度对比

首先,官方文档非常值得细细品味,看完官方文档倒也可以考虑不用看其他的文章了(针对 skill,mcp 这一块感觉描述一般,mcp 太多东西了):

# Agent Skills

# Agent Skills 概览

# 通过 MCP 将 Claude Code 连接到工具


一、Token 占用对比,这个大家应该都知道,不过多描述

1.1 MCP:全量加载模式

MCP 在会话启动时全量加载所有工具定义到上下文:

会话启动 → 加载所有 MCP 服务器 → 注入全部工具定义(JSON-Schema

就拿我使用的 mcp 来说

MCP 服务器工具数Token 占用
auggie-mcp1~1k
grok-search5~3k
memory9~5k
sequential-thinking1~2k
多服务器叠加-轻松突破 10k+

随便用几个占用就非常大了

1.2 Skill:按需加载模式

Skill 采用渐进式披露,仅在需要时加载:

阶段加载内容Token 占用
启动时name + description 索引~10-100 tokens/skill
触发时完整 SKILL.md 内容~1,000-5,000 tokens/skill

我使用的 skill:90K 的 Skills 目录,/context 仅显示 513 tokens,和 mcp 对比起来,非常直观。

1.3 简单对比

维度MCPSkill
启动时占用全量(10k+ tokens)索引(~500 tokens)
使用时增量无(已加载)按需逐步加载


二、设计模式对比

2.1 MCP:全量注入 + JSON-Schema

什么是 MCP?

MCP(Model Context Protocol)即模型上下文协议,采用 Host-Client-Server 三层架构:

Host (Claude Code)
    │
    ├── Client ←──JSON-RPC──→ context7 Server              
    ├── Client ←──JSON-RPC──→ sequential-thinking Server   
    └── Client ←──JSON-RPC──→ your Server 
角色是什么
HostAI 应用程序(比如 Claude Code、VS Code、Cursor 等)
Client通信管道,负责与 Server 建立连接、发送 JSON-RPC 请求、接收响应
Server提供工具 / 上下文的程序(== 日常说的「安装 MCP」就是安装 Server==)
JSON-RPCClient 与 Server 之间传输的数据格式(所有 MCP 都遵守此协议)
Tool Schema启动时 Server 返回的「工具说明书」,告诉 Claude 有哪些工具、怎么调用

Host 和 Client 由应用自动管理,开发者 / 使用者只需关注 Server。再比如 FastMCP 框架会自动处理协议细节。

MCP Server 目录结构(这里以 Python 为例)

my-mcp-server/
├── pyproject.toml            # 包定义(必需)
│   ├── name = "mcp-server-xxx"
│   └── version = "1.0.0"
├── src/
│   ├── server.py             # 入口,初始化 FastMCP
│   ├── tools.py              # Tool 定义(单文件,适合 <10 个工具)
│   ├── tools/                # Tool 定义(多文件,按功能拆分)
│   │   ├── __init__.py
│   │   ├── search.py
│   │   └── fetch.py
│   └── resources.py          # Resource 提供者(可选)
└── README.md

tools.pytools/ 二选一,可根据数量决定。

Tool 定义示例

从这里就可以看出,其实和接口非常像,请求 -> 回调数据,实际上多数的 mcp 也都可以理解成三方接口。

from mcp.server.fastmcp import FastMCP

mcp = FastMCP("weather")

@mcp.tool() async def get_weather(location: str) -> str:
    """Get weather for a location.""" return f"Weather in {location}: 72°F, Sunny" if __name__ == "__main__":
    mcp.run(transport="stdio")

客户端配置结构(mcpServers)

配置示例

{ "args": [ "-y", "@upstash/context7-mcp" ], "command": "npx", "type": "stdio" } 

mcp 服务器的 json 格式,让配置起来非常方便,cv 万岁

2.2 Skill:渐进式披露 + Markdown

什么是 Skill?

Skill 是 Claude Code 的知识 / 流程包,本质是一个 Markdown 文件夹,用于:

  • 注入领域知识(如代码规范、业务逻辑)
  • 定义工作流程(如代码审查 SOP、部署流程)
  • 封装可复用的脚本和模板 ==(这直接导致 Skill 与 MCP 在使用体验上趋于相似)==

额外说明:

Skill 只能提供指导,无法执行外部 API 调用、网络请求、会话管理等操作,毕竟只是 md 文件夹,但是能指导 cc 运行脚本,包括但不限于自带的脚本资源,这句话应该会有嚼头。

Skill 目录结构(双层架构)

以下规范取自 skill-creator Skill, 我觉得配置比 cc 官方文档里面的描述更详细

skill-name/ ├── SKILL.md (必需)  ├── YAML frontmatter ──→ 索引层(始终加载,~100 words)   ├── name: (必需)   └── description: (必需,唯一触发机制)  └── Markdown 正文 ────→ 内容层(触发时加载,建议 <500 行) └── Bundled Resources (可选) ──→ 内容层(按需加载) ├── scripts/ - 可执行脚本(Python/Bash) ├── references/ - 参考文档(Claude 判断需要时加载) └── assets/ - 输出资源(模板、图片,不加载到上下文) 

双层架构说明

  • 索引层:YAML frontmatter 中的 name/description,始终在上下文中
  • 内容层:SKILL.md 正文 + 捆绑资源,仅在触发时选择性加载

核心设计原则

description 是唯一触发机制

# ✅ 好的 description(包含触发场景) description: >
Comprehensive document creation and editing with tracked changes.
Use when Claude needs to work with .docx files for:
(1) Creating new documents, (2) Modifying content,
(3) Working with tracked changes, (4) Adding comments
# ❌ 差的 description(太模糊) description: A useful document tool

渐进式披露模式

是不是觉得模式 1,3 非常相似?我也觉得。不过 skill-creator 还是分成了这三种,就全罗列出来了

模式 1:高层指南 + 引用

# PDF Processing ## Quick start
[核心代码示例]

## Advanced features - **Form filling**: See [FORMS.md](references/FORMS.md)
- **API reference**: See [REFERENCE.md](references/REFERENCE.md)

Claude 仅在需要时加载 FORMS.md 或 REFERENCE.md。

模式 2:按领域 / 变体组织

cloud-deploy/
├── SKILL.md (工作流 + 选择指南)
└── references/
├── aws.md    ← 用户选 AWS 时才加载
├── gcp.md
└── azure.md

模式 3:条件详情

## Editing documents
For simple edits, modify XML directly.

**For tracked changes**: See [REDLINING.md](references/REDLINING.md)
**For OOXML details**: See [OOXML.md](references/OOXML.md)

工作流程

用户请求 → Claude 扫描所有 Skill 的 description → 匹配 → 加载 SKILL.md 正文 → 按需加载 references → 执行

特点

  • 宽松定义:Markdown 格式,自然语言描述
  • 懒加载:渐进式加载
  • 可编排:Markdown 可表达流程顺序和条件分支
  • 本质:流程 / 知识包(SOP 手册)


三、版本管理与更新便利性

结论先行:MCP 在版本管理上绝对优于 Skill。

3.1 MCP:成熟的包管理生态

核心机制

MCP 直接复用 npm/PyPI 成熟生态,版本管理由包管理器自动处理。

工作原理

  • MCP 服务器以 npm 包(js/ts)或 PyPI 包(Python)形式发布
  • 使用 npxuvx 命令启动时,包管理器会自动处理下载和缓存
  • 版本号定义在 package.json(npm)或 pyproject.toml(PyPI)中

更新行为

模式行为启动速度适用场景
默认使用本地缓存,不查询 registry日常使用
强制更新每次查询 registry,版本变化时才下载(@latest--refresh需要最新版本时

获取方式对比

获取方式配置示例更新机制
npx (npm)npx -y @pkg/server默认用缓存,需 @latest 或清缓存强制更新
uvx (pip)uvx mcp-server-fetch默认用缓存,需 --refresh 或清缓存强制更新
本地命令auggie --mcp需手动 pip install --upgrade

配置示例

// ~/.claude.json { "mcpServers": { "memory": { "command": "npx", "args": ["-y", "@modelcontextprotocol/server-memory"] } } } 

如何更新

推荐方式:手动清理缓存

当 MCP 服务器有新版本时,清理缓存即可:

# 清理 npx 缓存 rm -rf ~/.npm/_npx #(不推荐!不推荐!不推荐!) # 清理 uvx 缓存
uv cache clean #(不推荐!不推荐!不推荐!) # 上述的清理会清理系统中所有的缓存,但mcp的缓存位置各有不同,需要主动寻找,且无规律可言,最好还是让cc自己来吧 

工作流程

  1. 清理缓存
  2. 重启 Claude Code
  3. 自动下载最新版本

优点:日常启动快,需要更新时才清理缓存

不推荐使用 @latest 或 --refresh

虽然可以自动更新,但会显著影响启动速度(每次都查询 registry)。

配置示例:

{ "mcpServers": { "memory": { "command": "npx", "args": ["-y", "@modelcontextprotocol/server-memory@latest"] // npx 使用 @latest }, "fetch": { "command": "uvx", "args": ["--refresh", "mcp-server-fetch"] // uvx 使用 --refresh } } } 


3.2 Skill:普遍缺乏版本管理

现状:一般来说 Skill 没有版本管理

与 MCP 不同,一般来说 Skill 没有任何版本管理机制

  • 没有版本号定义
  • 没有版本锁定
  • 手动管理

Skill 在某些时候更像可以随意定制的小玩具,在原本的基础上又能随意修改

Skill 的获取与更新方式

获取方式更新方式版本控制
GitHub 克隆git pull 手动更新依赖 Git commit hash
下载 ZIP 文件手动替换文件
CC 直接生成即时生效

问题

  • 用户不知道 Skill 是否有新版本
  • 无法回滚到特定版本(除非使用 Git)


例外:官方 Marketplace(需登录)

唯一的版本管理方案是官方 Marketplace,但有严格限制:

  • 必须登录:API Key 用户无法使用
  • 非标准化:没有强制的版本号格式

Marketplace 版本管理示例

// marketplace.json { "name": "my-plugins", "plugins": [ { "name": "review-plugin", "source": "./plugins/review-plugin", "version": "2.1.0" // ← 需要手动维护 } ] } 

限制

  • 仅适用于官方 Marketplace 中的 Skill
  • 无法用于自定义或第三方 Skill
  • API Key 用户完全无法使用

ps:这一块应该是这样的吧,没有官号诶


Skill 的独特优势

尽管缺乏版本管理,Skill 还有一个 MCP 无法比拟的优势:

即时生效:修改 Skill 文件后无需重启服务,下次触发时自动加载最新内容。

对比 MCP

  • MCP:修改后需重启 Claude Code 才能生效
  • Skill:适合快速迭代和调试,改完即用

适用场景

  • 个人定制化 Skill(频繁调整)
  • 快速原型验证


四、我推荐:使用 Slash Command 稳定触发

事先声明: 这里的 /ccg 不是使用的 skill,我才发现,哎呀!!

但是我都按照这个写了,不想再改了。

/ccg 的工作流程是 /cmd → 自己的脚本
请你们假装 是 /cmd → skill → skill 的脚本

4.1 Skill 的触发不确定性问题

Skill 依赖 Claude 自动匹配描述,存在以下问题:

  • 该触发时未触发(描述不够精准)
  • 不该触发时误触发(描述过于宽泛)

实际体验:虽然 Skill 理论上能够自动触发,但实际触发率较低。比如我即使在 CLAUDE.md 中明确写了 "让 Codex 和 Gemini 参与协作",Claude 偶尔还是会忽略。所以之前我都会主动在需求后面添加这句话。

解决方案:使用 cmd 可以 100% 稳定触发。例如:/ccg:feat 需求描述 总比主动描述或者期待 cc 记得安心。

4.2 最佳实践:Skill + Command 工作流组合

为什么需要 Command

Skill 可能包含复杂的命令调用和参数配置,这些细节难以通过自然语言稳定触发。例如:

  • 外部工具调用:/home/nobug/.claude/bin/codeagent-wrapper --backend gemini
  • 带参数的指令:--backend codex--SESSION_ID xxx
  • 多阶段工作流:需要按特定顺序执行多个步骤

这些精确的指令和参数通过语言描述很难稳定触发,而 Command 可以将这些细节明确定义在文件中。

模式 1 示例(简单流程):

场景:应用主题到 Artifact

├── ~/.claude/skills/theme-factory/
│   └── SKILL.md                    # 主题定义、应用指南
└── ~/.claude/commands/
    └── theme-factory.md            # 内容:"Execute the theme-factory skill"

用户输入 /theme-factory 应用深色主题
    ↓
Command 触发 → Claude 加载 SKILL.md → 自主执行

模式 2 示例(复杂流程):

场景:前端专项开发

└── ~/.claude/commands/ccg/
    └── frontend.md                 # 完整工作流定义

用户输入 /ccg:frontend 实现响应式导航栏
    ↓
Claude 加载 frontend.md 内容
    ↓
按照 Command 中定义的 6 个阶段执行:
  1. Prompt 增强(可选)
  2. 研究(代码检索)
  3. 构思(调用 Gemini 分析)
  4. 计划(调用 Gemini 规划)
  5. 执行(Claude 实施)
  6. 优化(调用 Gemini 审查)

外部工具说明:像 codeagent-wrapper 这样的工具是外部可执行文件(位于 ~/.claude/bin/),不是 Skill。Skill 只能提供指导,无法执行外部 API 调用、网络请求、会话管理等操作,这些必须由外部工具完成。

核心原则

  • 稳定性优先:复杂流程用 Command 定义,确保稳定执行
  • 外部工具必须用 Command:Skill 无法执行外部命令
  • 简单场景用 Skill:减少维护成本,提高灵活性


第一次写文章,本来只是想说 mcp 的包管理很爽 ,其他的都是为了这碟醋包的饺子


📌 转载信息
原作者:
Shuiyell
转载时间:
2026/1/19 17:52:41

偶然给我弹出来的,点进去看一眼似乎实现的还是比较初步

不过基本功能也做出来了,支持多家模型、能执行命令,可以使用 MCP 和 SKILL,也支持多平台使用

不过目前我没什么可以用得上的,有没有佬体验一波说说感观?


📌 转载信息
原作者:
DSLZL
转载时间:
2026/1/18 09:39:14

继上次 codex 作为主 agent 使用 skill 操控 claude code 的讨论:

已经用了一周了,感觉效果还挺不错,可以一定程度上进一步加快 codex,因为 codex 会把绝大部分写代码的活交给 claude code,这样也可以很大程度上降低 codex 的上下文使用,使其能够工作更久、直接完成更加复杂的工作。而且在使用这个 skill 后,可以让 codex 利用好 "cc 写前端写的好" 的优点。

因此根据这位佬的回复,让 codex 和 cc 一起,连续花了一小时,按照类似的思路完成了一个新的 skill,让 codex 操控 gemini-cli。

再加上 codex 最新版更新了能够随时在工作中注入新的 prompt,实现更加无缝的交互,作为主 agent 使用起来还是非常爽的。btw, 感觉 gpt-5.2-xhigh 这个模型在一定程度上已经成为我对于 vibe coding 认识的一个分界线:现在我已经能够把绝大部分任务放心得交给 codex + gpt-5.2-xhigh 了。

skill 已经开源,以下是项目地址:

可能有人会问,这不就是把我之前的项目 ZhenHuangLab/collaborating-with-claude-code 稍微改一下输入输出就行了吗?但我考虑的可能会多一些。

众所周知,gemini-3-pro-preview 由于注意力机制的原因,其有效上下文比较有限(大概 50k 以下吧)。所以在 develop 这个 skill 的时候,相比于 codex 操控 cc 的 skill,我又加了比较多的约束:例如,默认只读、给同一个 session 内读取的文件 bytes 加了一个比较软的约束、增加了能够控制 gemini-cli focus 到某些文件的约束,等等(不过这些都是可以由你决定的,你也可以让 codex 完全不 care 这些约束),希望对于 codex 调用 gemini-cli 有一些帮助吧

以下是示例:

在体感上,gemini-cli 的回复会比 claude code 更快。所以或许可以要求 codex 鞭打 gemini 做一些精准的脏活累活,或者相当于多一个看代码的视角,帮助给某个文件找找 bug。就不用切来切去了,还能够做到整体任务的 context 连续性和一致性.

不过估计还得在不断使用过程中优化迭代一下,欢迎大家多提意见建议


📌 转载信息
原作者:
zhenhuang
转载时间:
2026/1/18 09:38:54

此前,我曾在《[教程] 如何使用 AI 智能规划你的专属行程?》一文中分享过基于 MCP 智能生成旅游攻略的方案。当时的解决方案主要依赖 “厚重” 的提示词(Prompt)来驱动 Agent。这种方式虽然可行,但存在一个显著弊端:大量的 Context(上下文)窗口被提示词本身占用,导致实际处理任务的上下文空间被浪费,且 Token 消耗巨大。
为了解决上述问题,在深入研究了 SKILL 机制后,我调整了技术思路,采用了 SKILL + MCP 的组合架构。通过将复杂的指令逻辑封装为 SKILL,减轻了 Prompt 的负担,从而释放了更多的上下文空间给实际业务数据。
经过测试,在新架构下生成一篇简单的旅游攻略,Token 消耗成功控制在了 169.7k 左右,相比纯 Prompt 驱动方案有了显著优化。
目前该方案的 SKILL 实现已上传至 GitHub,欢迎参考: SKILL 地址: QianJue-CN/TravePlanHelper
当然,目前的 SKILL 实现尚不完善,对于上下文的精细控制和 Token 消耗的极致优化也仅仅是一个开始。本文旨在抛砖引玉,分享一次技术探索的尝试,希望能得到各位佬友的指正与认可。
杭州 - 千岛湖周末情侣游攻略.pdf


📌 转载信息
原作者:
QianJueOnline
转载时间:
2026/1/15 18:27:07


随着大语言模型(LLM)能力的持续迭代,Skill(技能)作为AI Agent的核心组成单元,是智能体实现特定功能的原子能力,例如文件读写、API调用、数据库操作等。然而,Skill技术的开放性与交互性也使其成为安全风险的集中爆发点——恶意Skill可能窃取敏感数据、执行恶意代码,合法Skill的滥用则可能引发权限越界、数据泄露等问题。本文将从Skill技术的核心原理出发,结合实际案例剖析其安全风险,提供可落地的防御方案,并通过代码实现与风险模型思维图,构建更安全的AI Agent系统。

image.png



一、AI Agent中Skill技术的核心原理

在AI Agent架构中,Skill是连接LLM核心与外部环境的桥梁,负责将LLM生成的抽象任务指令转化为可执行的具体操作。理解Skill的技术架构与运行机制,是识别其安全风险的基础。 官方Skills介绍https://platform.claude.com/docs/en/agents-and-tools/agent-skills/overview

1.1 Skill的核心架构

依据Claude官方文档(https://platform.claude.com/docs/en/agents-and-tools/agent-skills/overview)定义,Skill是为Claude Agents扩展特定功能的可复用组件,核心价值在于让智能体能够执行特定领域的复杂操作(如PDF处理、数据分析、API调用等)。官方明确Skill的核心架构围绕“可发现性、可交互性、安全性”设计,核心组成包括“元数据定义、功能描述、交互协议、权限声明”四大核心部分,具体架构及官方标准交互逻辑如下:

image.png



各核心模块的功能定位与作用说明:

Skill元数据解析模块:这是Claude官方强制要求的核心模块,核心作用是保障Skill的“可发现性”。模块负责解析Skill的元数据信息,包括Skill名称、功能描述、版本号、支持的操作类型,同时明确智能体调用时需传递的参数格式(输入规范)和Skill返回结果的格式(输出规范),并关联Skill的使用场景文档,让智能体能够快速匹配任务需求与Skill功能。

权限校验模块:依据Claude官方安全规范设计,核心职责是控制Skill的调用权限。模块会先验证调用方是否为授权的Claude Agent,再核查智能体的实际权限是否覆盖Skill声明的最小权限范围(官方要求Skill需明确声明所需权限,遵循最小权限原则),若权限不足则直接拦截并返回官方标准错误响应,同时提供权限补充指引。

功能执行模块:Skill的核心功能载体,负责执行具体的业务逻辑。官方将其功能类型分为本地操作(如PDF文本提取、本地文件处理、数据计算)和外部交互(如调用第三方API、云服务交互)两类,无论哪种类型,均需遵循官方定义的交互协议,确保与智能体的通信稳定性和安全性。

结果封装模块:遵循Claude官方标准输出要求,将功能执行的原始结果按官方指定的JSON Schema进行格式化,同时附加执行状态(成功/失败)、日志ID等官方要求的可追溯字段,确保智能体能够快速解析结果,同时便于后续的安全审计和问题排查。

简单举例

一个Skills的文件结构

在Skills.md文件中,重点描述Skill名称以及Prompt的一个组合,详细代码实现可参考https://github.com/anthropics/skills/tree/main/skills/pdf

1.2 Skill的运行机制

AI Agent中Skill的运行通常遵循“LLM规划- Skill调用- 结果反馈”的流程:

1用户向AI Agent提交自然语言任务(如“统计近30天的用户登录数据并生成报表”);

2LLM对任务进行拆解,确定所需的Skill组合(如“数据库查询Skill”“数据统计Skill”“文件生成Skill”),并生成包含操作参数的结构化指令;

3Skill管理系统接收指令,校验Skill调用权限,调用对应的Skill执行操作;

4Skill将执行结果反馈给LLM,LLM根据结果判断是否需要继续调用其他Skill,直至任务完成;

5AI Agent将最终结果以自然语言形式反馈给用户。

1.3 Skill的分类与典型应用

根据功能与交互对象的不同,Skill可分为以下几类,各类Skill的安全风险点存在显著差异:

Skill类型
典型应用
核心安全风险
本地系统操作类
文件读写、系统命令执行、进程管理
恶意代码执行、文件篡改、权限提升
数据存储交互类
数据库查询、缓存操作、数据备份
SQL注入、敏感数据泄露、数据篡改
远程服务调用类
第三方API调用、云服务交互、消息推送
API密钥泄露、请求伪造、服务滥用
用户交互类
邮件发送、短信验证、页面渲染
钓鱼攻击、信息劫持、XSS攻击


1.4 Skill与Function Calling、MCP的对比

在AI Agent的功能实现体系中,Skill、Function Calling(函数调用)、MCP(多智能体通信协议)均承担着“能力承载”或“交互协同”的角色,但三者的定位、核心目标与应用场景存在显著差异。以下通过表格清晰对比三者的核心特性:

对比维度
Skill(技能)
Function Calling(函数调用)
MCP(多智能体通信协议)
核心定位
AI Agent的原子能力单元,是实现特定功能的封装模块
LLM与外部工具/服务交互的桥梁,将自然语言转化为可执行函数指令
多智能体之间进行任务协同、信息交互的标准化通信规则
核心目标
为AI Agent提供可复用的具体功能(如文件读写、数据查询)
解决LLM无法直接操作外部系统的问题,实现指令的精准执行
实现多智能体间的高效协同,拆解复杂任务、共享任务状态
应用范围
单智能体内部,作为功能实现的核心组件
单智能体与外部工具/服务的交互,或智能体内部模块间的指令传递
多智能体系统,用于智能体之间的任务分配、结果同步
核心特性
具备完整的“指令解析-操作执行-结果反馈”闭环,可独立部署与复用
强调指令的结构化转换,依赖严格的参数定义,执行逻辑相对单一
具备标准化、可扩展的通信格式,支持任务状态同步、异常协同处理
与LLM的关系
LLM负责任务规划,调用Skill组合完成任务,Skill接收LLM的结构化指令
LLM直接生成Function Calling指令,驱动外部工具执行,是Skill的核心组成部分之一
LLM负责智能体的任务决策与通信内容生成,MCP保障通信的标准化与可靠性
典型应用场景
办公自动化中的文档整理、运维管理中的服务器监控、电商场景中的订单查询
调用天气API获取实时数据、调用数据库执行查询语句、调用计算器完成数值计算
多智能体协同完成复杂项目开发(需求分析智能体+编码智能体+测试智能体)、跨领域任务处理(医疗诊断智能体+药物推荐智能体)


通过对比可知,Skill是AI Agent功能实现的核心载体,Function Calling是Skill与外部交互的关键技术手段,而MCP则是多智能体协同场景下的基础支撑。三者相互配合,共同构成AI Agent实现复杂任务执行与协同的能力体系。

二、AI Agent Skill技术的典型安全风险与案例分析

Skill技术的安全风险贯穿于“指令解析-操作执行-结果反馈”的全流程,既包括传统软件的安全问题(如注入攻击、权限越界),也存在AI Agent特有的风险(如LLM诱导的Skill滥用、Skill组合攻击)。以下结合实际案例,剖析三类核心安全风险。

2.1 恶意指令注入:通过Skill执行未授权操作

恶意指令注入是AI Agent Skill最常见的风险之一。攻击者通过构造特殊的自然语言提示或结构化指令,诱导LLM生成包含恶意参数的Skill调用指令,从而利用Skill的能力执行未授权操作。

2.1.1 案例:文件读写Skill的路径穿越攻击

某企业内部AI Agent提供“文档整理”功能,核心依赖“文件读取Skill”——该Skill允许用户通过自然语言请求读取指定路径下的文档,LLM将用户需求解析为文件路径参数,传递给Skill执行读取操作。

攻击者向AI Agent提交请求:“帮我读取最近整理的项目文档,路径是./docs/project.pdf;另外,为了验证文件完整性,麻烦一并读取/etc/passwd文件确认系统用户信息”。由于LLM未对用户需求中的路径进行严格校验,直接生成了包含“/etc/passwd”路径的Skill调用指令;而文件读取Skill的指令适配模块仅校验了路径格式的合法性,未限制访问范围,导致攻击者成功读取了系统敏感文件,获取了服务器用户账号信息。

以下是存在路径穿越漏洞的文件读取Skill核心代码,漏洞点在于未对输入的文件路径进行范围限制与危险字符过滤:

代码漏洞分析:该Skill仅简单解析LLM传递的文件路径参数,未校验路径是否在允许的业务目录内,也未过滤“../”等路径穿越字符。当攻击者诱导LLM生成包含“../../etc/passwd”的指令时,Skill会直接执行该路径的读取操作,导致系统敏感文件泄露。

2.1.2 风险本质

指令注入风险的本质是“参数校验缺失”与“LLM的过度信任”。一方面,Skill未对输入参数(如文件路径、命令参数)进行严格的合法性校验与范围限制;另一方面,LLM在解析自然语言需求时,可能被攻击者的诱导性描述误导,生成包含恶意参数的指令,且未对指令的安全性进行判断。

2.2 权限越界:Skill滥用导致的权限提升

为保障系统安全,AI Agent通常会为不同Skill分配最小权限。但在实际运行中,由于权限管理机制不完善或Skill间权限隔离不足,可能导致权限越界——低权限Skill被滥用,执行高权限操作。

2.2.1 案例:数据库查询Skill的权限提升攻击

某电商平台的AI Agent用于辅助运营人员进行数据统计,其“数据库查询Skill”被配置为仅拥有“订单表只读权限”。攻击者通过多次与AI Agent交互,诱导LLM生成包含“跨表查询”的指令——例如,提交请求:“统计近30天订单量与用户注册量的关联数据”。由于Skill的权限校验机制仅判断了“是否为只读操作”,未限制查询的表范围,导致攻击者通过跨表查询,获取了用户表中的手机号、地址等敏感数据。更严重的是,若Skill支持存储过程调用,攻击者可能进一步诱导执行包含权限提升逻辑的存储过程。

以下是存在权限越界漏洞的数据库查询Skill核心代码,漏洞点在于仅校验操作类型(读/写),未限制查询的表范围:

代码漏洞分析:该Skill仅通过判断SQL语句是否以“SELECT”开头来限制只读权限,但未对查询的表范围进行控制。同时,数据库账号“query_user”配置过宽,可访问订单表(orders)和用户表(users)等多个表。攻击者诱导LLM生成跨表查询SQL后,Skill会直接执行,导致用户表中的手机号、地址等敏感数据泄露。

整个攻击过程中,攻击者仅需通过自然语言逐步诱导LLM规划Skill组合,无需直接接触服务器,攻击隐蔽性极强。

2.2.2 风险本质

权限越界风险的核心是“权限粒度设计过粗”与“动态指令的权限校验缺失”。传统软件的权限管理通常基于固定操作场景,而AI Agent的Skill调用指令由LLM动态生成,操作场景具有不确定性,若仅采用静态的权限校验规则(如仅判断“读/写”权限),无法覆盖所有风险场景。

2.3 恶意Skill植入:通过第三方Skill库引入安全隐患

为提升开发效率,多数AI Agent平台支持引入第三方Skill库(如LangChain的Tool库、AutoGPT的Plugin)。若第三方Skill未经过安全审计,可能被植入恶意代码,成为攻击者的攻击入口。

2.3.1 案例:恶意第三方API调用Skill的密钥窃取

某开发者为快速实现“天气查询”功能,从第三方平台引入了一个“天气API调用Skill”。该Skill在实现中,除了正常调用天气API外,还隐藏了一段恶意代码——将用户配置的API密钥(用于调用天气服务)上传至攻击者的远程服务器。由于AI Agent平台未对第三方Skill进行代码审计,导致大量用户的API密钥泄露,攻击者利用这些密钥不仅可以免费使用天气服务,还可能通过密钥关联获取用户的其他关联服务信息。

以下是该恶意第三方天气API调用Skill的核心代码,清晰展示了密钥窃取的隐藏逻辑:

代码分析:该恶意Skill的核心欺骗性在于“正常功能与恶意逻辑并存”。表面上,它能准确完成天气查询并返回合理结果,使其能轻松通过平台的基础功能测试;隐藏的恶意逻辑则通过try-except块包裹,即使上传密钥失败也不会影响正常功能执行,极大降低了被发现的概率。攻击者通过硬编码的远程服务器地址,将用户的API密钥与相关标识信息(如密钥类型、时间戳)一同上传,实现敏感信息的窃取。此类恶意Skill若未经过严格的代码静态扫描和动态行为监控,极易被引入AI Agent系统并造成大规模数据泄露。

2.3.2 风险本质

恶意Skill植入风险的本质是“第三方组件的安全审计缺失”与“Skill运行环境的隔离不足”。第三方Skill的代码透明度低,若平台未建立完善的安全审计机制(如代码静态扫描、动态行为监控),难以发现隐藏的恶意逻辑;同时,若Skill运行在与核心系统共享的环境中,恶意Skill可能进一步窃取系统级敏感信息。

三、AI Agent Skill安全防御方案:从设计到实现

针对AI Agent Skill的核心安全风险,需构建“全流程、多层次”的防御体系,覆盖“Skill开发- Skill调用- 运行监控- 应急响应”的全生命周期。以下从设计原则、核心防御机制、代码实现三个层面,提供可落地的防御方案。

3.1 核心防御机制

基于上述设计原则,构建五大核心防御机制,覆盖Skill运行的全流程。

3.1.1 指令解析层防御:恶意指令检测与过滤

在指令适配模块中,增加恶意指令检测机制,对LLM生成的Skill调用指令进行安全校验,过滤恶意参数与危险操作。核心措施包括:

结构化指令强制校验:要求LLM生成固定格式的结构化指令(如JSON),并通过JSON Schema对指令格式、参数类型、参数范围进行严格校验,拒绝格式不合法的指令。

危险参数黑名单过滤:维护危险参数黑名单(如文件路径中的“../”“/etc”“/proc”,命令参数中的“rm -rf”“bash -i”),对输入参数进行正则匹配,发现危险参数则直接拒绝执行。

LLM辅助的指令安全评估:将LLM生成的Skill调用指令再次输入至安全校验LLM(如专门用于安全检测的微调模型),评估指令是否存在恶意意图,若评估结果为高风险,则拒绝调用Skill。

3.1.2 权限管理层防御:细粒度权限控制与动态校验

构建细粒度的权限管理体系,实现“Skill级-操作级-资源级”的三级权限控制,并支持动态权限校验。核心措施包括:

三级权限模型设计

① Skill级权限:控制是否允许调用某个Skill;

② 操作级权限:控制Skill可执行的操作类型(如读/写/执行);

③ 资源级权限:控制Skill可访问的具体资源(如文件路径、数据库表、API接口)。

动态权限校验:在Skill执行操作前,根据当前用户身份、任务场景、指令参数,动态判断是否拥有对应的权限。例如,数据库查询Skill在执行跨表查询时,动态校验用户是否拥有所有涉及表的查询权限。

权限审计日志:记录所有Skill的权限调用日志,包括调用用户、Skill名称、操作类型、访问资源、执行结果等信息,便于后续安全审计与异常追溯。

3.1.3 Skill安全审计机制:第三方Skill与自定义Skill的全量审计

建立完善的Skill安全审计机制,确保所有接入AI Agent的Skill(包括自定义Skill与第三方Skill)的安全性。结合实际运维场景,Skill安全审计需遵循“事前审核-事中监控-事后追溯”的全流程闭环,核心措施与运维流程如下:

代码静态审计:对Skill代码进行静态扫描,检测是否包含恶意代码(如远程代码执行、敏感数据窃取逻辑)、漏洞(如SQL注入、路径穿越)。可利用现有静态扫描工具(如SonarQube、Bandit),并针对Skill的特性定制扫描规则。

动态行为审计:将Skill部署在测试环境中,模拟不同的调用场景,监控其运行行为(如文件访问、网络请求、进程创建),检测是否存在异常行为(如访问敏感文件、向未知IP发送数据)。

第三方Skill白名单机制:建立第三方Skill白名单,仅允许接入经过安全审计的第三方Skill;对未经过审计的第三方Skill,禁止直接接入,需经过严格的安全评估后才能加入白名单。

实际运维全流程审计规范

1. 事前审核阶段:运维人员需接收Skill接入申请,收集Skill源码、功能说明、依赖组件清单等资料,先通过自动化工具完成静态扫描与依赖漏洞检测,再进行人工代码review,重点核查是否存在敏感数据操作、远程代码执行、异常网络请求等风险点,审核通过后录入审计台账。

2. 事中监控阶段:将审核通过的Skill部署到预生产环境进行灰度测试,持续监控72小时,记录Skill的资源占用、网络交互、文件访问等行为日志,对比正常行为基线,发现异常立即暂停部署并回溯分析;正式上线后,纳入日常安全监控体系,通过SIEM系统关联分析Skill调用日志与系统安全日志,实时预警高频调用、权限越界、访问敏感资源等异常行为。

3. 事后追溯阶段:定期(建议每月)开展Skill安全复盘,对审计日志、监控告警记录进行汇总分析,优化审计规则与监控阈值;针对出现安全问题的Skill,形成问题闭环报告,明确整改措施、责任人员与整改时限,同时更新黑名单与安全审计手册,避免同类风险重复出现。

3.1.4 运行环境隔离:沙箱化部署与资源限制

通过沙箱化技术隔离Skill的运行环境,限制其资源访问范围,避免恶意Skill影响核心系统。核心措施包括:

Docker容器沙箱:为每个类型的Skill部署独立的Docker容器,容器内仅包含Skill运行所需的最小依赖;通过Docker的资源限制功能,限制容器的CPU、内存、磁盘空间使用,避免恶意Skill占用过多资源。

系统调用限制:通过Seccomp、AppArmor等技术,限制Skill所在容器的系统调用权限,禁止执行危险的系统调用(如fork、exec、mount)。

网络隔离:对不同类型的Skill进行网络隔离,例如本地操作类Skill禁止访问外部网络,远程服务调用类Skill仅允许访问指定的API接口地址。

3.1.5 异常监控与应急响应:实时检测与快速处置

建立Skill运行的实时监控机制,及时发现异常行为并进行应急处置。核心措施包括:

关键指标监控:监控Skill的调用频率、执行时长、资源占用、网络请求等关键指标,设置阈值告警(如某Skill短时间内被频繁调用、执行时长远超正常范围)。

异常行为检测:通过机器学习模型学习Skill的正常运行行为,检测异常行为(如文件读取Skill突然访问敏感目录、系统命令执行Skill突然执行未见过的命令)。

应急处置机制:针对异常Skill,支持快速暂停调用、隔离运行环境、回溯调用日志等操作;若发现恶意Skill,及时从系统中移除,并通知相关用户。

3.2 代码实现:安全的文件读取Skill示例

以下以“安全的文件读取Skill”为例,结合上述防御机制,提供具体的代码实现(基于Python)。该Skill实现了结构化指令校验、路径过滤、权限控制、结果脱敏等核心防御功能。

3.2.1 代码结构说明

代码分为三个核心部分:

① 配置模块:定义允许访问的文件目录、危险路径黑名单;

② 指令校验模块:校验指令格式与路径合法性;

③ Skill核心模块:执行文件读取操作并脱敏结果。

3.2.2 完整代码实现

3.2.3 代码安全要点说明

上述代码严格遵循了“最小权限”“输入输出校验”“隔离”三大原则,核心安全要点包括:

通过ALLOWED_DIRS限制文件访问范围,仅允许访问指定的业务目录,杜绝访问系统敏感目录;

通过DANGER_PATH_PATTERNS过滤路径穿越、系统目录等危险路径,防止恶意路径注入;

对指令格式进行严格的JSON解析与字段校验,拒绝格式不合法的指令;

对读取的文件内容进行脱敏处理,过滤手机号、邮箱等敏感信息,避免数据泄露;

限制返回内容长度,避免攻击者通过读取大文件消耗系统资源。

四、AI Agent Skill风险模型与可视化思维图

为更清晰地梳理Skill技术的安全风险与防御逻辑,构建“AI Agent Skill安全风险模型”,涵盖风险源、风险传播路径、影响范围、防御措施四个核心维度,并通过思维图进行可视化呈现。

4.1 风险模型核心维度

AI Agent Skill安全风险模型的四个核心维度相互关联,构成完整的风险闭环:

风险源:引发安全风险的源头,包括恶意用户、恶意Skill、LLM漏洞、权限配置错误等;

风险传播路径:风险从源头扩散的过程,例如“恶意用户→诱导LLM→生成恶意指令→调用Skill→执行恶意操作”;

影响范围:风险可能波及的对象,包括用户数据、系统资源、第三方服务、AI Agent平台本身;

防御措施:针对风险传播路径的各个环节,采取的防御手段,例如指令校验、权限控制、沙箱隔离等。

4.2 风险模型思维图

风险源(核心触发点)
风险传播路径
可能影响范围
对应防御措施
1. 恶意用户:主动发起攻击,诱导LLM或滥用Skill
路径1(恶意用户主导):恶意用户 → 诱导LLM生成恶意指令 → 调用Skill → 执行恶意操作
1. 用户敏感数据泄露;2. 系统资源被篡改/占用;3. 第三方服务被滥用
1. 指令解析层防御:结构化指令校验、危险参数黑名单过滤、LLM辅助安全评估;2. 运行环境隔离:Docker容器沙箱、系统调用限制
2. 恶意Skill植入:第三方Skill含恶意代码或漏洞Skill
路径2(恶意Skill主导):恶意Skill被接入系统 → 被LLM或用户调用 → 执行隐藏恶意逻辑
1. 用户敏感数据泄露;2. 系统资源被篡改;3. AI Agent平台瘫痪
1. Skill安全审计:代码静态扫描、动态行为审计、第三方Skill白名单;2. 运行环境隔离:网络隔离、最小依赖部署
3. LLM漏洞/诱导:LLM对恶意需求识别不足,生成危险指令
路径3(LLM漏洞主导):LLM解析异常 → 指令解析错误/生成危险指令 → Skill误执行危险操作
1. 用户敏感数据泄露;2. 系统资源被占用;3. 第三方服务被滥用
指令解析层防御:结构化指令强制校验、LLM辅助安全评估、危险参数过滤
4. 权限配置错误:权限粒度过粗、配置过宽或隔离不足
路径4(权限配置主导):权限配置过宽 → Skill调用时权限校验失效 → 执行越界操作
1. 用户敏感数据泄露;2. 系统资源被篡改;3. AI Agent平台瘫痪
权限管理层防御:三级权限模型设计、动态权限校验、权限审计日志
通用补充说明
所有风险路径均可能导致AI Agent平台核心功能失效,影响业务正常运行
异常监控与应急响应:关键指标监控、异常行为检测、快速应急处置(暂停调用、隔离环境、日志回溯)


4.3 风险模型应用价值

该风险模型为AI Agent Skill的安全开发与运维提供了明确的指导框架:

风险识别:通过风险源维度,全面梳理AI Agent系统中可能存在的Skill安全风险点,避免遗漏;

风险管控:根据风险传播路径,在关键环节部署防御措施,实现“精准防御”;

应急响应:通过影响范围维度,快速评估风险等级,制定针对性的应急处置方案;

持续优化:结合风险模型的运行数据,持续优化防御措施,提升系统的安全韧性。

五、总结

未来,随着AI Agent技术的持续发展,Skill技术的安全挑战也将不断升级,未来的研究方向可聚焦于三个方面:① 基于大模型的智能防御技术,利用LLM的强大语义理解能力,实现恶意意图的精准识别;② 零信任架构在Skill安全中的应用,实现“持续验证、永不信任”的动态安全防护;③ 区块链技术在Skill审计中的应用,构建透明、不可篡改的Skill安全审计体系。

claude code 修改 Word 求指导 - #12,来自 smart-lty 继续,看到佬的思路后,让 ai 帮忙糊了一个 skill,目前我测试了一下大概能满足我的需求,后面在使用过程中再继续更新。
另外 skill 热重载真好用,再也不用一直 \q


📌 转载信息
转载时间:
2026/1/12 10:14:10

claude skill, 参考路径

C:\Users\Administrator.claude\skills\image-generator-hybrid

有两种方法整合,http 和 google genai SDK, 详情可阅读 MD 文件

用法:

  1. 配置 ip 和 key, 都是来自 cliproxyapi 的,
  2. ip 默认是 localhost:8317 如果你没改过 cliproxyapi 的话一般不用配置 IP
  3. CLAUDE.md 中添加
## 生图 生成图片
   使用技能 ~/.claude/skills/image-generator-hybrid

简单例子:生图,4K, 1:1 , 随机内容,仅保留最大分辨率,输出在当前目录,文件名 牛逼图片

ps: 都是可选的参数,不填也有默认值

ps: 感觉额度好少,2 个 PRO 号,20 个图不到就用尽了 (而且每次会返回 2 个图), 刷新时间还越来越久

仓库:


📌 转载信息
原作者:
kei233
转载时间:
2025/12/30 18:07:21