标签 MCP工具 下的文章

第一步:开启 Chrome 远程调试权限

这是所有操作的前提,必须手动开启。

  1. 打开 Chrome 浏览器,在地址栏输入:chrome://inspect/#remote-debugging
  2. 勾选 “Allow remote debugging for this browser instance”
  1. 确认下方出现:Server running at: 127.0.0.1:9222(这表示“门”已打开)。


第二步:配置 MCP 服务

AionUI 图形界面配置

  1. 进入 AionUI 的 Settings(设置)Tools Settings(工具设置)

  2. MCP Management 区域点击 Add MCP Service

  3. 选择 Add via JSON,粘贴以下配置:

{ "mcpServers": { "chrome-devtools": { "command": "npx", "args": [ "-y", "chrome-devtools-mcp@latest", "--autoConnect", "--channel=stable" ] } } } 


第三步:激活连接(关键动作)

配置完成后,Gemini 并不会立刻接管浏览器,需要一次“握手”:

  1. 在 Gemini CLI 或 AionUI 中输入第一个指令,例如:截取当前网页的屏幕

  2. 切换回 Chrome 浏览器:你会看到页面顶部弹出一个系统确认框,询问 “Allow incoming debugging connection?”

  3. 点击 Allow(允许)

  4. 浏览器顶部出现横幅(显示“正在受自动测试软件控制”),说明连接成功。


第四步:实战常用指令

连接成功后,你可以直接用自然语言指挥 Gemini 处理你当前看到的网页:

  • 视觉分析
    • “帮我截个图,分析一下现在的 UI 布局有没有错位?”
  • 性能诊断
    • “分析当前页面的性能,告诉我 LCP(最大内容绘制)是多少,怎么优化?”
  • 代码调试
    • “检查当前页面的 Console 控制台,有没有报错?如果有,帮我解释原因。”
  • 网页抓取与操作
    • “提取当前网页中所有商品的价格并列成表格。”
    • “帮我点击页面上的‘提交’按钮。”(AI 会通过 DOM 树自动定位元素)


推荐模型:Gemini 3 Flash、Gemini 3 Pro、GLM 4.7(英伟达无限免费 API)
使用案例:



感谢 的AionUI
AionUi V1.7.4 更新:兼容了Newapi(Cowork开源版可以用公益站/中转站了)

也欢迎使用我的 AMC,这个教程的方法也都是我用 AMC 的深度搜索功能学会的
AMC更新:支持Markdown 转 PDF、划词 TTS


推荐使用 @bbbugg 佬的AIStudioToAPI 构建自己的API 池
https://linux.do/t/topic/1371269

【二改】二改build反代(AIStudio to API),优化云端部署


📌 转载信息
原作者: yeahhe
转载时间: 2026/1/25 08:06:46

一、升级与优化

天穹智能分析平台近期完成全面升级,新增多项功能,并根据用户反馈进行了系统性优化。本次升级重点体现在以下三个方面:

  1. 情报智能体正式上线;
  2. 智能问答响应速度显著提升;
  3. 样本与网络地址详情页全面更新。

平台地址:天穹智能分析平台

接下来,我们将详细介绍每一项升级内容。

二、情报智能体正式上线

在此前的更新中,我们已经通过天穹沙箱的智能拓线功能初步体验了智能体的便捷与强大。本次更新,我们正式将情报智能体引入智能搜索,极大提升了智能体在面对复杂问题的处理能力,并能进一步提升回答深度和广度。

下面,我们以情报狩猎固件下载三个领域为示例,演示在哪些场景可开启智能体,以及如何使用智能体。

情报分析

例如,我们要求智能体针对以下情报问题进行深度分析:

🔍 分析APT37组织在过去一年的活动,并对收集的IOC进行分析和拓线

在搜索框输入问题,点击智能体按钮,即可开启智能体模式,如图1所示:

图1 开启智能体模式

接下来,我们会进入智能体页面,智能体首先会根据问题制定一份详细的方案,此模式为计划模式,如图2所示:

图2 计划模式

询问用户是否确认此方案,如图3所示:

图3 方案确认

如果对方案不满意,可以选择否,并提出其他需求。例如,我们要求智能体进一步查询样本的沙箱分析报告,如图4所示:

图4 修改方案

将需求发送后,智能体会重新制定一份方案。如图5所示,在新的方案中已经包含了提的新需求:

图5 按照要求重新制定方案

确认方案后,智能体将进入执行模式

在页面左侧天穹智能体部分,我们可以看到智能体的工具调用信息,包括工具名、调用参数和工具返回结果,如图6所示:

图6 工具调用

在右侧的智能体思维链部分,我们可以看到智能体对每一轮操作的描述和总结,方便随时查看智能体任务进度,如图7所示:

图7 智能体思维链

值得一提的是,本次升级上线了12款MCP工具,涵盖以下四个领域:

  • 情报检索
  • APT组织画像
  • 样本拓线
  • IOC查询

后续我们会持续关注与更新,引入更多强大和实用的MCP工具,进一步拓展智能体的能力边界。另外,您可以查看工具调用参数、返回结果和思维链,深入了解MCP工具和智能体。

任务完成后,右侧将展示完整的分析报告,顶部可复制、全屏查看、下载报告,如图8所示。此前的思维链将默认折叠,可滑动到报告底部展开查看。

图8 智能体分析报告

以下是智能体生成的完整分析报告,可看到智能体收集了一年以来有关APT37组织的情报,给出了详细的攻击时间线,并按照要求对IOC进行进一步拓线分析,如图9所示:

图9 APT37分析报告

如果对输出报告不满意,可以要求智能体进一步修改,如图10所示,智能体将重新生成报告,此处不再赘述。

图10 答案确认

威胁狩猎

在日常样本分析过程中,我们常常需要搜索特定名称、家族、时间范围等特征的样本,例如:

🔍 收集近期文件名中包含”名单”、“票”或“简历”的高危样本

可以看到,智能体不仅准确列出了样本IOC信息,还按照静态、动态对样本进行分类,并进一步对样本进行了关联分析,输出内容详实可靠,如图11所示:

图11 威胁狩猎报告

固件下载

对于IoT设备分析人员而言,精准定位特定型号与版本的官方固件下载地址是开展安全研究的关键前置步骤。例如:

🔍 查找 TP-Link Archer VR400 固件下载地址

智能体成功识别并汇总了该设备多个官方固件版本的下载链接,同时标注了每个固件的文件大小,便于用户快速比对与选择。更重要的是,智能体还对所有链接进行了威胁情报筛查,主动过滤非官方来源、第三方托管或已失效的链接,确保结果安全、可靠、有效,显著提升研究人员的工作效率与安全性,如图12所示。

图12 固件下载报告

三、响应速度显著提升

通过持续资源升级与模型优化,智能问答的响应速度大幅提升,回答耗时由原来的1分30秒缩短至30秒,如图13所示。

图13 速度对比

四、详情页全面更新

此前版本的样本和网络地址详情页存在信息密度低、内容不全的问题,经过全面改进,新版详情页信息密度显著提升,能够展示更多高价值数据,以下是具体的升级内容。

样本详情页

样本详情页在升级后,可以更加便捷的查看样本关联情报、引擎告警、静态信息、网络行为、沙箱报告和威胁配置,如图14所示:

图14 样本详情页升级前后对比

网络详情页

网络地址详情页在升级后,可以更加便捷的查看网络地址关联情报、关联样本、和 Whois 信息,如图15所示:

图15 网络详情页升级前后对比

五、 技术支持与反馈

天穹智能分析平台持续迭代升级,致力于为每一位样本分析人员打造更高效、更智能、更易用的分析平台——这始终是我们不变的初心与追求。

如果您希望深入了解平台功能,或在使用过程中遇到任何问题,欢迎随时联系我们。您的反馈,是我们进步的重要动力!

一、工具简介

Vortex(能将一切纳入 “怀中” 的漩涡)是一个穿着铠甲的 MCP 工具,使用 Rust 构建,高性能、低资源开销,为你 “年迈” 的电脑省点力气(哈哈~~~)。

其实吧,我们都知道,MCP 工具领域大多都是用 nodepython 实现的,毕竟简单,代码好写,至于性能的,毕竟只是自己本地跑,也无伤大雅的,这也是为什么这么多的 MCP 工具都喜欢用 nodepython 了(咳咳~~,话说,这个怎么几个人用 Java 写 MCP 呢?这个分发起来真是头疼啊~,总不能带个 JVM 遍地跑,哈哈,当然虽说现在 native 技术还不错,但毕竟不是与生俱来的 “能力”,我是不太想踩这个坑)。

最终我还是选择了 Rust,因为我非常喜欢这门语言(我不是专业户),她那简洁且极其优美的语法让整个代码看起来无比的舒服,且极具艺术与观赏性,好了,吹完了,你们有意见的可以发话怼我了 !

不过,有一说一哈,Rust 绝对的类型安全(不考虑 Unsafe Rust)确实是其它很多语言难以企及的,TS 中 any、Python 中的 Any,Go 中的 anyinterface {} 别名)、C# 中的 objectdynamic、Java 中的 Object、C 中的 void* 等等,这那个不是需要你极具猜想力的盲盒?运行时的类型断言的代码相比大家都写过,这起码你还能知道类型,要是不知道具体类型的,直接反射搞起来~~~ (也还行~~~ 哦,对了,还有神奇的 NullPointerException)。

不知道各位道友啥感受,反正我自己受不了这种能够 “包容万物” 的 Objectany,看代码都费劲(我每次掉头发都是因为我在想:这个 Object 中到底放的是啥呢? 嗯~~~顺着代码调用链多找几个源文件就明白了,同时也半小时过去了…)。

当然了,其它这些语言好学呀,这点 Rust 确实…
这个世界从来不是非黑即白、非利即弊的,学习它们的思想,在适合的地方用好它们就行了,但是,“信仰” 咱得有!
好了,就说这么多吧,下面开始分享工具及其用法,至于源码,后面看心情了~~~

事先声明

毕竟是我个人自用工具,工具中有一些工具具有危险性,使用与否全凭自愿哈。

二、工具安装

这里我只提供 MacOS 和 Windows 的版本,暂时没有 Linux 的版本(使用 Linux 开发的道友们对不住了哈~)

夸克网盘链接(附件大小限制,纯属无奈之举):
我用夸克网盘给你分享了「Vortex MCP」,点击链接或复制整段内容,打开「夸克 APP」即可获取。
/~52113A8qbo~:/
链接:https://pan.quark.cn/s/e59c8a3ba6ff

1、vortex-mcp

MacOS:
Apple M 系列芯片的选择 vortex-mcp.mac.arm64.zip 下载;Intel 芯片的用户应该不多了吧?如果有,评论区留言,我再更新(我太懒了~)。

Windows:
直接选择 vortex-mcp.win.x86.zip 下载。

2、vortex-companion

这是 MCP 工具的一个伴侣 App,主要用于危险命令的同意授权、用户提问以及 scp 文件上传下载的进度显示,完全可选,不强绑定,但是非常的推荐(基于 Tauri 的,也非常省资源)。

MacOS:
Apple M 系列芯片的选择 Vortex MCP Companion_0.1.0_universal.dmg 下载;Intel 芯片的用户同上,评论区留言。

Windows:
直接选择 Vortex MCP Companion_0.1.0_x64-setup.exe 下载。

安装很简单,解压后就双击,然后下一步下一步就行了。

三、工具使用

vortex-mcp 工具支持的环境变量:

环境变量类型默认值描述
核心配置
VORTEX_NAME字符串-你的聊天工具名称(可选)
数据库连接
VORTEX_DATABASES字符串列表(分号分隔)-数据库连接字符串,格式:<driver>://<user>:<pass>@<host>:<port>/<database>?name=<connection_name>
支持驱动:mysql, postgres, sqlite
SSH 服务器
VORTEX_SSH_SERVERS字符串列表(分号分隔)-SSH 服务器连接字符串,格式:
密码认证:ssh://user:password@host:port?name=<connection_name>
密钥认证:ssh://user@host:port?name=<connection_name>&private_key=/path/to/key
Redis 实例
VORTEX_REDIS字符串列表(分号分隔)-Redis 连接字符串,格式:redis://[:password]@host:port/db?name=<connection_name>
API 密钥
VORTEX_WEB_SEARCH_API_KEY字符串-Tavily API 密钥(用于 Web 搜索 / 爬取),自行获取
VORTEX_DOCS_API_KEY字符串-Context7 API 密钥(用于文档查询)自行获取
Shell Guard 安全设置
VORTEX_SHELL_GUARD_ENABLED布尔值true启用 / 禁用危险命令检测
VORTEX_SHELL_GUARD_MAX_FILES整数100触发确认提示的文件数量阈值
VORTEX_SHELL_GUARD_MAX_TOTAL_SIZE_MB整数100触发确认提示的总文件大小阈值(MB)
VORTEX_SHELL_GUARD_TIMEOUT_SECS整数10影响分析超时时间(秒)
确认超时设置
VORTEX_DANGEROUS_CONFIRM_TIMEOUT_SECS整数25危险命令确认超时时间
VORTEX_OVERWRITE_CONFIRM_TIMEOUT_SECS整数25文件覆盖确认超时时间
VORTEX_ASK_USER_TIMEOUT_SECS整数90提问用户交互超时时间

MCP 配置:

{ "mcpServers": { "vortex": { "command": "vortex-mcp", "args": ["--enable-fs"], // 这个参数可选 "env": { "GITHUB_TOKEN": "ghp_your-token", // 这个可选,如果你要用 gh 命令的话,最好设置上 "VORTEX_SSH_SERVERS": "ssh://root:123456@192.168.100.66?name=我的66服务器;ssh://root:123456@192.168.100.88?name=我的88服务器", "VORTEX_DATABASES": "postgres://postgres:123456@192.168.100.66:5432/postgres?name=我的66数据库;postgres://postgres:123456@192.168.100.88:5432/postgres?name=我的88数据库", "VORTEX_WEB_SEARCH_API_KEY": "tvly-dev-your-key", "VORTEX_DOCS_API_KEY": "ctx7sk-your-key" } } } } 
小提示

上面的环境变量都是可选的,你不配置对应的环境变量,就不会出现对应的工具,工具是按需加载的。

数据库 / 服务器密码 / 名称中的特殊字符

如果有特殊字符,要使用 URL 编码,一切都是按照 URL 规范来的。

四、效果展示

询问用户问题:

下载服务器文件:

确认危险命令:


📌 转载信息
原作者:
ilxqx
转载时间:
2026/1/21 21:40:42

一、升级与优化

天穹智能分析平台近期完成全面升级,新增多项功能,并根据用户反馈进行了系统性优化。本次升级重点体现在以下三个方面:

  1. 情报智能体正式上线;
  2. 智能问答响应速度显著提升;
  3. 样本与网络地址详情页全面更新。

平台地址:天穹智能分析平台

接下来,我们将详细介绍每一项升级内容。

二、情报智能体正式上线

在此前的更新中,我们已经通过天穹沙箱的智能拓线功能初步体验了智能体的便捷与强大。本次更新,我们正式将情报智能体引入智能搜索,极大提升了智能体在面对复杂问题的处理能力,并能进一步提升回答深度和广度。

下面,我们以情报狩猎固件下载三个领域为示例,演示在哪些场景可开启智能体,以及如何使用智能体。

情报分析

例如,我们要求智能体针对以下情报问题进行深度分析:

🔍 分析APT37组织在过去一年的活动,并对收集的IOC进行分析和拓线

在搜索框输入问题,点击智能体按钮,即可开启智能体模式,如图1所示:

图1 开启智能体模式

接下来,我们会进入智能体页面,智能体首先会根据问题制定一份详细的方案,此模式为计划模式,如图2所示:

图2 计划模式

询问用户是否确认此方案,如图3所示:

图3 方案确认

如果对方案不满意,可以选择否,并提出其他需求。例如,我们要求智能体进一步查询样本的沙箱分析报告,如图4所示:

图4 修改方案

将需求发送后,智能体会重新制定一份方案。如图5所示,在新的方案中已经包含了提的新需求:

图5 按照要求重新制定方案

确认方案后,智能体将进入执行模式

在页面左侧天穹智能体部分,我们可以看到智能体的工具调用信息,包括工具名、调用参数和工具返回结果,如图6所示:

图6 工具调用

在右侧的智能体思维链部分,我们可以看到智能体对每一轮操作的描述和总结,方便随时查看智能体任务进度,如图7所示:

图7 智能体思维链

值得一提的是,本次升级上线了12款MCP工具,涵盖以下四个领域:

  • 情报检索
  • APT组织画像
  • 样本拓线
  • IOC查询

后续我们会持续关注与更新,引入更多强大和实用的MCP工具,进一步拓展智能体的能力边界。另外,您可以查看工具调用参数、返回结果和思维链,深入了解MCP工具和智能体。

任务完成后,右侧将展示完整的分析报告,顶部可复制、全屏查看、下载报告,如图8所示。此前的思维链将默认折叠,可滑动到报告底部展开查看。

图8 智能体分析报告

以下是智能体生成的完整分析报告,可看到智能体收集了一年以来有关APT37组织的情报,给出了详细的攻击时间线,并按照要求对IOC进行进一步拓线分析,如图9所示:

图9 APT37分析报告

如果对输出报告不满意,可以要求智能体进一步修改,如图10所示,智能体将重新生成报告,此处不再赘述。

图10 答案确认

威胁狩猎

在日常样本分析过程中,我们常常需要搜索特定名称、家族、时间范围等特征的样本,例如:

🔍 收集近期文件名中包含”名单”、“票”或“简历”的高危样本

可以看到,智能体不仅准确列出了样本IOC信息,还按照静态、动态对样本进行分类,并进一步对样本进行了关联分析,输出内容详实可靠,如图11所示:

图11 威胁狩猎报告

固件下载

对于IoT设备分析人员而言,精准定位特定型号与版本的官方固件下载地址是开展安全研究的关键前置步骤。例如:

🔍 查找 TP-Link Archer VR400 固件下载地址

智能体成功识别并汇总了该设备多个官方固件版本的下载链接,同时标注了每个固件的文件大小,便于用户快速比对与选择。更重要的是,智能体还对所有链接进行了威胁情报筛查,主动过滤非官方来源、第三方托管或已失效的链接,确保结果安全、可靠、有效,显著提升研究人员的工作效率与安全性,如图12所示。

图12 固件下载报告

三、响应速度显著提升

通过持续资源升级与模型优化,智能问答的响应速度大幅提升,回答耗时由原来的1分30秒缩短至30秒,如图13所示。

图13 速度对比

四、详情页全面更新

此前版本的样本和网络地址详情页存在信息密度低、内容不全的问题,经过全面改进,新版详情页信息密度显著提升,能够展示更多高价值数据,以下是具体的升级内容。

样本详情页

样本详情页在升级后,可以更加便捷的查看样本关联情报、引擎告警、静态信息、网络行为、沙箱报告和威胁配置,如图14所示:

图14 样本详情页升级前后对比

网络详情页

网络地址详情页在升级后,可以更加便捷的查看网络地址关联情报、关联样本、和 Whois 信息,如图15所示:

图15 网络详情页升级前后对比

五、 技术支持与反馈

天穹智能分析平台持续迭代升级,致力于为每一位样本分析人员打造更高效、更智能、更易用的分析平台——这始终是我们不变的初心与追求。

如果您希望深入了解平台功能,或在使用过程中遇到任何问题,欢迎随时联系我们。您的反馈,是我们进步的重要动力!

作为一名求职中的中年软件工程师,由于地域和年龄限制,我的选择空间其实就那么几家。我经常需要反复查看自己感兴趣公司的招聘页面。这一过程既耗时又枯燥,尤其是在需要同时跟踪多家公司职位的情况下。虽然许多招聘网站都提供基于邮件的职位提醒,但这些提醒通常要么依赖于对已提交简历进行不透明的 AI 匹配,要么只是简单的关键词匹配。在这两种情况下,我对实际的匹配条件几乎没有控制权。

为了解决这个问题,我决定利用一个 AI Agent 来自动 Watching 招聘页面,并在发布符合我自己定义条件的新职位时通知我。在本文中,我将介绍一个用于验证这一想法的概念验证(PoC)。

在这个 PoC 中,我展示了如何使用 AI Agent 来 Watching 一家公司招聘页面上的软件开发岗位。该 Agent 能够自动浏览招聘网站、搜索相关职位、提取结构化信息,并将结果存储到 SQLite 数据库中,以便后续查询和跟踪。

PoC

职位数据来源

在本次实验中,我选择了一家其招聘页面基于 Eightfold AI 平台构建的公司。如果你的目标公司同样使用 Eightfold AI,那么只需做很少的修改即可复用该 PoC。

Eightfold AI 是一个人才智能平台,利用人工智能支持招聘、员工留任以及劳动力发展。它基于技能和经验将候选人与开放职位进行匹配,目前已被包括 Vodafone、Morgan Stanley 和 Chevron 在内的 100 多家公司使用。该平台覆盖 155 多个国家。

尽管 Eightfold AI 平台本身已经提供了基于 AI 的职位提醒订阅功能,但我仍希望对匹配逻辑和采集到的数据拥有更细粒度的控制,因此才希望有一套自定义解决方案。

Agent 设计

我在 VS Code Copilot Chat 环境中实现了该 PoC,并使用了以下工具和提示词。

MCP 工具

  • 浏览器工具browsermcp:用于导航和操作招聘网站页面。
  • SQLite 数据库工具genai-toolbox:用于持久化存储提取到的职位数据。

./vscode/mcp.json

{
  "servers": {
    "browsermcp": {
      "type": "stdio",
      "command": "npx",
      "args": [
        "@browsermcp/mcp@latest"
      ]
    },
    "sqlite": {
      "command": "~/genai-toolbox/toolbox",
      "args": [
        "--prebuilt",
        "sqlite",
        "--stdio"
      ],
      "env": {
        "SQLITE_DATABASE": "~/jobs/jobs.db"
      }
    }
  }
}

数据库 Schema

CREATE TABLE IF NOT EXISTS xyz_company_jobs (
    job_id TEXT PRIMARY KEY, -- 职位的唯一标识
    req_id TEXT,             -- 招聘需求 ID
    job_title TEXT,          -- 职位名称
    location TEXT,
    date_posted TEXT,        -- 格式:'YYYY-MM-DD'
    business_department TEXT,
    job_description_url TEXT,
    job_description TEXT     -- 职位描述的主要内容
);

Agent 提示词

你是一个可以访问浏览器工具和 SQLite 数据库工具的 AI Agent。你的任务是从 XYZ_Company 的招聘网站中收集与软件开发相关的职位信息,并将提取到的数据存储到 SQLite 数据库中。当前浏览器中打开的页面是 XYZ_Company 的职位搜索门户。

数据库:
```sql
CREATE TABLE IF NOT EXISTS xyz_company_jobs (
    job_id TEXT PRIMARY KEY, -- 职位的唯一标识
    req_id TEXT,             -- 招聘需求 ID
    job_title TEXT,          -- 职位名称
    location TEXT,
    date_posted TEXT,        -- 格式:'YYYY-MM-DD'
    business_department TEXT,
    job_description_url TEXT,
    job_description TEXT     -- 职位描述的主要内容
)
```

规则:
- 在调用一次 `click()` 操作后,必须等待 10 秒,确保页面完全加载,然后再调用 `snapshot` 捕获当前页面状态。
- 在向 `xyz_company_jobs` 表插入新记录之前,需要检查 `job_id` 是否已经存在,以避免重复数据。
- 在生成 INSERT SQL 语句时,确保对值中的单引号进行正确转义。
- 不要收集或点击位于 `document > main > group Similar Position` 区域下的职位。

用户已经准备的环境:
- 浏览器中打开的页面是 XYZ_Company 的职位搜索门户。

你的安装过程:
1. 如果 `xyz_company_jobs` 表不存在,则创建该表。在执行 SQL 时,需保留 SQL 代码块中的注释行。

执行过程:
1. 每一个文本匹配 "$Job_Title$ 于 $time_since_publication$ 前发布" 模式的按钮都代表一个职位。通过 `今天 - time_since_publication` 计算 `Date Posted`。
2. 点击职位按钮以打开职位详情页面,该页面的 URL 即为 `Job Description URL`。
3. 从职位详情页面中提取:职位名称、工作地点、Job ID、业务部门(可选)、Req ID 以及职位描述的主要内容。
4. 仅收集与软件开发相关的职位。
5. 将每个收集到的职位插入 `xyz_company_jobs` 表,并基于 `job_id` 确保不产生重复记录。
6. 如有需要,点击 `更多职位` 按钮以加载更多职位。
7. 至少收集并存储 10 个职位。

运行

  1. 打开一个 Chrome 浏览器标签页,访问 XYZ 公司的招聘门户网站。在该标签页上激活 Browser MCP Chrome 扩展程序。
  2. 在 VS Code 中启动一个新的 Copilot Chat 会话,并使用上述 MCP 配置和提示。

总结

通过上述配置,我成功实现了一个 AI Agent,它能够自动 Watching 目标公司的招聘页面,发现新的软件开发职位。该 Agent 可以自动浏览招聘网站、识别相关职位、提取结构化数据,并将其存储到 SQLite 数据库中,从而方便后续访问和长期跟踪。

后续工作

该 PoC 还可以在多个方面进行扩展:

  • 引入更复杂的匹配逻辑,例如简历解析和基于语义的技能匹配。
  • 将收集到的职位信息导出为 RSS 或邮件摘要,从而构建一个完全自托管的职位提醒系统。
  • 添加通知机制,在发现新的匹配职位时立即提醒我。

一、升级与优化

天穹智能分析平台近期完成全面升级,新增多项功能,并根据用户反馈进行了系统性优化。本次升级重点体现在以下三个方面:

  1. 情报智能体正式上线;
  2. 智能问答响应速度显著提升;
  3. 样本与网络地址详情页全面更新。

平台地址:天穹智能分析平台

接下来,我们将详细介绍每一项升级内容。

二、情报智能体正式上线

在此前的更新中,我们已经通过天穹沙箱的智能拓线功能初步体验了智能体的便捷与强大。本次更新,我们正式将情报智能体引入智能搜索,极大提升了智能体在面对复杂问题的处理能力,并能进一步提升回答深度和广度。

下面,我们以情报狩猎固件下载三个领域为示例,演示在哪些场景可开启智能体,以及如何使用智能体。

情报分析

例如,我们要求智能体针对以下情报问题进行深度分析:

🔍 分析APT37组织在过去一年的活动,并对收集的IOC进行分析和拓线

在搜索框输入问题,点击智能体按钮,即可开启智能体模式,如图1所示:

图1 开启智能体模式

接下来,我们会进入智能体页面,智能体首先会根据问题制定一份详细的方案,此模式为计划模式,如图2所示:

图2 计划模式

询问用户是否确认此方案,如图3所示:

图3 方案确认

如果对方案不满意,可以选择否,并提出其他需求。例如,我们要求智能体进一步查询样本的沙箱分析报告,如图4所示:

图4 修改方案

将需求发送后,智能体会重新制定一份方案。如图5所示,在新的方案中已经包含了提的新需求:

图5 按照要求重新制定方案

确认方案后,智能体将进入执行模式

在页面左侧天穹智能体部分,我们可以看到智能体的工具调用信息,包括工具名、调用参数和工具返回结果,如图6所示:

图6 工具调用

在右侧的智能体思维链部分,我们可以看到智能体对每一轮操作的描述和总结,方便随时查看智能体任务进度,如图7所示:

图7 智能体思维链

值得一提的是,本次升级上线了12款MCP工具,涵盖以下四个领域:

  • 情报检索
  • APT组织画像
  • 样本拓线
  • IOC查询

后续我们会持续关注与更新,引入更多强大和实用的MCP工具,进一步拓展智能体的能力边界。另外,您可以查看工具调用参数、返回结果和思维链,深入了解MCP工具和智能体。

任务完成后,右侧将展示完整的分析报告,顶部可复制、全屏查看、下载报告,如图8所示。此前的思维链将默认折叠,可滑动到报告底部展开查看。

图8 智能体分析报告

以下是智能体生成的完整分析报告,可看到智能体收集了一年以来有关APT37组织的情报,给出了详细的攻击时间线,并按照要求对IOC进行进一步拓线分析,如图9所示:

图9 APT37分析报告

如果对输出报告不满意,可以要求智能体进一步修改,如图10所示,智能体将重新生成报告,此处不再赘述。

图10 答案确认

威胁狩猎

在日常样本分析过程中,我们常常需要搜索特定名称、家族、时间范围等特征的样本,例如:

🔍 收集近期文件名中包含”名单”、“票”或“简历”的高危样本

可以看到,智能体不仅准确列出了样本IOC信息,还按照静态、动态对样本进行分类,并进一步对样本进行了关联分析,输出内容详实可靠,如图11所示:

图11 威胁狩猎报告

固件下载

对于IoT设备分析人员而言,精准定位特定型号与版本的官方固件下载地址是开展安全研究的关键前置步骤。例如:

🔍 查找 TP-Link Archer VR400 固件下载地址

智能体成功识别并汇总了该设备多个官方固件版本的下载链接,同时标注了每个固件的文件大小,便于用户快速比对与选择。更重要的是,智能体还对所有链接进行了威胁情报筛查,主动过滤非官方来源、第三方托管或已失效的链接,确保结果安全、可靠、有效,显著提升研究人员的工作效率与安全性,如图12所示。

图12 固件下载报告

三、响应速度显著提升

通过持续资源升级与模型优化,智能问答的响应速度大幅提升,回答耗时由原来的1分30秒缩短至30秒,如图13所示。

图13 速度对比

四、详情页全面更新

此前版本的样本和网络地址详情页存在信息密度低、内容不全的问题,经过全面改进,新版详情页信息密度显著提升,能够展示更多高价值数据,以下是具体的升级内容。

样本详情页

样本详情页在升级后,可以更加便捷的查看样本关联情报、引擎告警、静态信息、网络行为、沙箱报告和威胁配置,如图14所示:

图14 样本详情页升级前后对比

网络详情页

网络地址详情页在升级后,可以更加便捷的查看网络地址关联情报、关联样本、和 Whois 信息,如图15所示:

图15 网络详情页升级前后对比

五、 技术支持与反馈

天穹智能分析平台持续迭代升级,致力于为每一位样本分析人员打造更高效、更智能、更易用的分析平台——这始终是我们不变的初心与追求。

如果您希望深入了解平台功能,或在使用过程中遇到任何问题,欢迎随时联系我们。您的反馈,是我们进步的重要动力!

之前写了一篇关于 SKILL 设计最佳实践的话题,感受到佬们的热情

【SKILL 设计的最佳实践】什么是 SKILL?怎么快速写一个优秀的 SKILL? - 开发调优 - LINUX DO

也感觉好多佬们都对 SKILL 设计还蛮感兴趣的,加上最近一直在对自己的 SKILL 进行调优,研究跟看了不少官方文档以及实践示例,对 SKILL 的设计略有心得,所以就在之前的基础上,把最近关于 SKILL 的进阶设计模式简单分享一下自己的理解吧。

内容绝大多数参考了官方的最佳实践文档,然后也结合自身调优的一些体验。Claude 的文档写的还是不错的,有时间的佬友们还是蛮推荐读一读的,链接就放在下面了。

技能编写最佳实践 - Claude Docs — Skill authoring best practices - Claude Docs

还是一如既往的大纲 + 一图流,方便佬们快速了解文章的大致内容以及组织形式。

1. 引子

为了方便对 SKILL 还不太了解,或者没看过上期的佬们快速理解,我举一个例子再来说明一下什么是 SKILL。

假设你是一名喜欢到世界各地旅行,你需要准备很多装备 (对应 mcp tools) 以应对不同情况,例如:

  • 登山:登山包、山地靴、登山杖、…
  • 极地:防寒服、手套、护目镜、…
  • 雨林:驱虫喷雾、开山斧、…

那么对于特定场景我们将所需的东西都打包起来叫做 "登山套装" 或者 "极地套装"。这种为了应对特殊场景需求的工具套装,Claude 官方把他叫做 SKILL

SKILL 中还包含了一些工作流(workflow),也可以理解为在特殊场景的操作手册,告诉你在遇到突发情况时应该怎么处理。

所以通过安装 SKILL 的方式可以使得模型在特定场景发挥强大的作用,同时你也可以自己根据喜好重新安排对应的 SKILL 中工具或者进行工作流的微调。

2. 渐进式披露 & 二次披露

那么很自然的想法,SKILL 这种将现成工具打包起来的做法是不是多余的呢,为什么我们不能把所有工具跟手册都带上,那么就能处理所有情况呢?

很遗憾的是目前大模型的上下文是有限的,就像如果你带上所有的工具去旅行,那么不仅很笨重(有效上下文受限),而且遇到突发情况时,从一大堆工具中找到适合的工具的难度也上升了(上下文混淆)

所以 SKILL 的设计理念的核心在于 渐进式披露

  • 将所有的工具以及手册,先放到四次元口袋中,不随身携带(不加载上下文)
  • 但是为了能快速加载所需工具,使用目录来进行快速查找

这种记录可用工具套装的纸条(包含 name 以及 description),在遇到特定场景的时候就可以加载对应的工具(MCP tools、脚本)以及手册(项目文档、工作流规范)的模式就是 SKILL 的工作原理。

而这种目录结构加载资源的方式就称为 渐进式披露

“二次披露” 实在 渐进式披露 的基础上的进阶应用,可以进一步提高上下文的有效利用,避免宝贵的上下文资源浪费,为此 Claude 官方文档中提出三种模式来指导二次披露的使用

2.1. 模式一: 附参考资料的高级指南

同样以登山包为例,在一个 SKILL 中可以只包含基础工具以及新的索引,当基础工具不能应对情况的时候,可以再根据索引的信息加载高级工具来处理问题。

以官方示例为例:


---

name: pdf-processing

description: Extracts text and tables from PDF files, fills forms, and merges documents. Use when working with PDF files or when the user mentions PDFs, forms, or document extraction.

---

# PDF Processing ## Quick start

Extract text with pdfplumber:

```python

import pdfplumber

with pdfplumber.open("file.pdf") as pdf:

text = pdf.pages[0].extract_text()

```
## Advanced features **Form filling**: See [FORMS.md](FORMS.md) for complete guide **API reference**: See [REFERENCE.md](REFERENCE.md) for all methods **Examples**: See [EXAMPLES.md](EXAMPLES.md) for common patterns

这个示例中对于进阶的需求,并没有直接披露到 SKILL.md 的 body 中(就是 See xxx 这些内容),因此在 SKILL 调用的时候,这些额外的进阶内容并不会直接加载到上下文中挤占有限的上下文空间。

而当模型结合 SKILL 以及用户问题的时候,感知到可能需要 API reference 的时候,他也具备进一步读取 REFFERENCE.md 文档的能力,来补足上下文。这种二次披露的能力可以进一步使得 SKILL 的上下文得到更有效的利用。

在我的实践中还发现这种能力实际上可以诞生一种能力,我暂时将其称之为 sub-skill,具体的设计以及实现可以等之后发布了我的 SKILL 之后再详细介绍一下 嘻嘻

2.2. 模式二:领域特定组织的加载

官方文档的说法是涉及多个领域的技能,应按领域组织内容,避免加载无关的上下文。

例如,当用户询问销售指标时,Claude 只需要读取与销售相关的模式,而无需读取财务或市场营销数据。这样可以降低令牌使用量,并专注于上下文。
预先将相对独立的上下文进行分开存储,并且使用关键词来进行索引以及引导,当需要特定领域的上下文细节的时候 使用 grep 等工具实现上下文的全量加载

这实际上就是通过 文件组织 的形式,实现不同场景参考资料的分离,因此也是一种二次披露,每次只披露与使用者问题相关的场景上下文来补足信息。

与模式一不同的点在于:

  • 模式一是 根据功能 进行区分,
  • 模式二是根据 领域场景 进行区分

本质上都是对信息的有效整合以及分离调度,这里最需要学习的实际上是他参考资料的文件组织路径形式,将同类的参考进行归档,方便后续修改或者变更,也方便模型进行索引。

bigquery-skill/
├── SKILL.md (overview and navigation)
└── reference/
├── finance.md (revenue, billing metrics)
├── sales.md (opportunities, pipeline)
├── product.md (API usage, features)
└── marketing.md (campaigns, attribution)
# BigQuery Data Analysis ## Available datasets **Finance**: Revenue, ARR, billing → See [reference/finance.md](reference/finance.md) **Sales**: Opportunities, pipeline, accounts → See [reference/sales.md](reference/sales.md) **Product**: API usage, features, adoption → See [reference/product.md](reference/product.md) **Marketing**: Campaigns, attribution, email → See [reference/marketing.md](reference/marketing.md) ## Quick search Find specific metrics using grep: ```bash
grep -i "revenue" reference/finance.md
grep -i "pipeline" reference/sales.md
grep -i "api usage" reference/product.md
```

2.3. 模式三:条件细节

这一点就更好理解了,就是在引用资源前添加条件,类似通过使用 For xxx 或者是 if xxx, then xxx 的方式来让模型显示的知道何时该主动二次披露相关内容

# DOCX Processing ## Creating documents

Use docx-js for new documents. See [DOCX-JS.md](DOCX-JS.md).

## Editing documents

For simple edits, modify the XML directly.

**For tracked changes**: See [REDLINING.md](REDLINING.md)
**For OOXML details**: See [OOXML.md](OOXML.md)

2.4. 反模式:避免深度嵌套引用

既然有二次披露,那么三次四次甚至更多次披露是不是能更省上下文呢?

Claude 的回答是:不!

原因在于虽然 Claude 具备嵌套引用,但是本身对于嵌套引用采取了 额外的限制 ,例如只读取前 100 行的内容(head -100),因此嵌套引用可能会导致 信息缺失 以及 逻辑结构混乱 的现象。

官方推荐的做法是最好只调用到 二次披露 ,即只在 SKILL.md 中进行索引,不要在更深的文件结构下进行索引的创建以及链接。

注意事项:

  • 对于二次披露的参考文献应当限制长度(行数小于 100 行,因为 claude 可能只读前 100 行)
  • 如果超过 100 行,建立目录来让 claude 具备感知全文内容的能力
  • PS: 但如果目录超 100 行那就无话可说了 哈哈哈


文章正文就先写到这吧 哈哈哈(下面是一些自己的感悟以及碎碎念

总的来说 SKILL 并不是一个非常高深或者难的技术,甚至对计算机没有一点基础的小白也能迅速上手,但是更多的如果想要设计一个非常优秀的 SKILL 还是需要对这些底层的调用机制有一定了解的。

笔者在自己构建 SKILL 的过程中发现,虽然 skill-creator 这个官方工具能快速搭建一个大致框架,但是内容的详细程度还是没有想象的那么优秀,很多都还蛮简单的,而且设计模式并没有很好的贯彻最佳实践中的要点,特别是二次披露以及文件组织,常常因为获取的内容跟信息太少而没办法有效组织。

而在后续修改的过程中,如果设计者不了解最佳实践的基础原理,由于 Claude Code 谄媚的现象,往往会导致 SKILL 的后续修改反而脱离了最佳实践的要求,导致性能变差。

顺便预告一下,下次更新可能会介绍 SKILL 设计中 工作流以及反馈循环 怎么设计以及调优的相关内容。

佬们周中愉快 哈哈哈


📌 转载信息
原作者:
guanhuhao
转载时间:
2026/1/14 17:43:27

去年下半年,我们公司开启了一个标杆工程专项,目标是打造一个可持续维护的业务项目,我负责的一个前端项目,需要重构 7 个复杂页面,当时正值 Ai coding 比较火的阶段,我抱着试一试的心态,希望直接用 Ai 重构一个标杆项目。

一开始我是一个Ai的小白,希望能够一句话就能解决我的诉求,AI也确实给了我一个惊喜,很快的我7个页面全部写完了,然后我在手机上跑了一下基本都跑通了,但进一步观察,却发现一些细节问题,而且规范上也还是存在很多缺陷,例如大文件不拆分,什么状态都喜欢往全局store中放等问题,所以我又手动重构了一波。最后这份代码混杂着我和AI的代码,导致在答辩的时候因为代码风格全局不统一被淘汰了。

虽然是一次失败的重构,但是我也总结了一些心得,在后面的需求开发中我也基本通过这些心得做到无需人为干涉,直接写完一个需求。

1、【编码风格统一】一份代码不要你跟AI同时维护,AI改过的代码有问题你不要直接改,而是让ai接着改。

2、【AI专注力】任务尽可能的集中在一处,不要提出按XXX规范进行重构这种诉求,当然如果必须要,也可以这样需要按照以下步骤拆解
    a)、安装 speckit 工具,可以在github上面搜索到,用spec任务来拆解你的诉求变成 plan task 和 implement 3个阶段
    b)、在task阶段,需要让ai 生成task对应的测试用例,让ai在根据task实现的时候通过生成的测试用例 不断的测试写完的代码
    c)、赋予AI能调试的能力,安装 chrome-devtool-mcp, 在每实现一个组件的时候,让AI执行以下端到端的测试
    d)、赋予AI能MOCK的能力,这个可以下载我开发的一款Vscode插件 MBFE-develop-helper,这个插件部分功能只有我公司内部能够使用,但是mock和h5调试可以在公网上使用,按照README.md 配置mcp,ai即可拥有逻辑mock能力(说明下逻辑mock的服务相当于ai会写原子化的接口真实逻辑,比静态json的mock能力更真实)
    e)、全局规范提示词 CLAUDE.md 的优化,让AI拥有 LINUX 3层架构的思维。

 3、【AI记忆力】最小闭环原则,你的任务如果是可拆解的,尽量一个会话解决后 clear完成执行下一个任务,如果上下文超过60%,ai会变得有幻觉,此时需要运行 compact 压缩一下之前的会话,当然最好的方案 还是主进程保持上下文都是一些关键内容,子任务用subagent完成后给父进程一个总结即可,mcp如果输出比较长的工具 需要用subagent包一下,总结mcp的结果。然后还有一个memory的mcp 也可以增强ai的记忆,当你清理上下文的时候 下一个会话仍然可以记住一些你反复重复的事情

 4、【AI训练】长远的来看,你需要积累自己的轮子,也就是skill,skill的积累可以让你之前反复唠叨的问题,让ai永久记住,什么时候该用什么工具做什么事,在这方面的决策上减少失误,当然skill变多了以后,你也可以用AI分析一下你当前.claude 目录中的插件、skill、全局提示词存在哪些缺陷,然后对齐进行验证、优化。
以上可能写的有点啰嗦,大家可以直接跳过去,直接看此处总结的 AI 哲学:
 1、AI其实是一个记性差的人,只是它有一本百科全书可以随时查阅,而且查阅速度很快
 2、让一个记性差的人干活,需要遵循最小闭环原则,让它从快速实现 到 快速验证 再到修复再验证形成一个快速循环的工作流
 3、磨刀不误砍柴工,在不忙的时候沉淀一下你的全局提示词和skill,对后续的效率会产生一定的作用
前端推荐工具链

Speckit 任务拆解(plan/task/implement) GitHub 搜索安装
chrome-devtool-mcp 端到端测试调试 MCP 配置
MBFE-develop-helper Mock 能力(逻辑 Mock) VSCode 插件
menory 长久记忆轻微弥补 Ai 短记忆缺陷
serena LSP 代码搜索
其他的什么 context、github 等 mcp 工具的话大家自己看情况安装


📌 转载信息
原作者:
carve
转载时间:
2026/1/10 19:04:59

1. 提示词

RIPER-5 多维度思维 代理执行协议 (v5.2.0 - 特定工具适配版)

元指令

你是超智能AI项目指挥官(代号:齐天大圣)。你的唯一使命是:通过指挥你唯一可用的MCP工具集,以最高效率、最低错误率驱动项目从概念到交付的全生命周期。你必须严格遵守此协议,将抽象指令转化为具体的工具调用序列。

可用MCP工具集

  1. duckduckgo: 通用网络搜索。用于快速获取事实、新闻、公开信息。
  2. mcp-deepwiki: 深度研究。用于获取比普通搜索更结构化、更深入的知识,适合探索复杂主题。
  3. context7: 最新文档查阅。专门用于查询特定技术、库、API的最新官方文档和版本信息。
  4. Sequential Thinking: 串行思考引擎。你的核心战略大脑,用于复杂规划、逻辑推理、问题诊断和创意构思。
  5. DesktopCommander: 桌面文件系统指挥官。你的“手”,用于在本地创建、读取、更新、删除文件和文件夹,是项目知识库和所有产出的基石。
  6. mcp-server-time: 时间服务器。获取当前服务器时间。用于精确的时间戳记录、日志生成和任务调度。

核心原则

  1. 工具驱动,杜绝空谈: 任何决策、规划或研究结论,都必须通过调用上述工具来产生或验证。禁止产生无法通过工具执行或记录的“幻觉”行为。
  2. 状态透明,文档先行: 使用 DesktopCommander 在项目根目录创建并维护一个 /projectdocument 文件夹。所有思考过程、计划、研究发现和最终产出都必须以文件形式存储于此,作为唯一可信的信息源。
  3. 思考前置,行动后置: 在执行任何多步骤任务前,必须首先调用 Sequential Thinking 进行规划。在获得工具输出后,应再次调用 Sequential Thinking 进行分析和决策。
  4. 信息闭环: 一个工具的输出应成为下一个工具的输入。例如:duckduckgo 的发现 -> Sequential Thinking 分析 -> DesktopCommander 记录为 research.md

RIPER-5 工作流 (工具驱动版)

此协议将项目执行分为五个阶段,每个阶段都明确指定了主导工具和产出物。

R - Research (研究阶段)

  • 目标: 全面收集项目相关的背景信息、技术选型、竞品分析和最新动态。
  • 主导工具: duckduckgo, mcp-deepwiki, context7
  • 执行流程:
  1. 使用 duckduckgo 进行宽泛的关键词搜索,建立初步认知。
  2. 使用 mcp-deepwiki 对核心技术或复杂概念进行深度挖掘。
  3. 如果涉及特定技术栈(如 Python, React, a specific API),必须使用 context7 查阅其最新官方文档,确保信息的时效性和准确性。

    • 产出物: 调用 DesktopCommander,将所有研究发现整理并保存为 /projectdocument/research.md

I - Ideate (构思阶段)

  • 目标: 基于研究结果,构思核心解决方案、产品特性或技术架构。
  • 主导工具: Sequential Thinking
  • 执行流程:
  1. 调用 Sequential Thinking,输入 research.md 的内容作为上下文。
  2. 指令其进行头脑风暴,提出多种可能的方案,并进行初步的优劣势分析。

    • 产出物: 将 Sequential Thinking 的输出保存为 /projectdocument/ideas.md

P - Plan (规划阶段)

  • 目标: 将最佳构思转化为一个详细、可执行、分步骤的行动计划。
  • 主导工具: Sequential Thinking, DesktopCommander
  • 执行流程:
  1. 调用 Sequential Thinking,输入 ideas.md 的内容。
  2. 指令其制定详细的实施路线图,包括:任务分解、优先级排序、依赖关系、预期文件产出。
  3. 关键: 将计划格式化为清晰的 Markdown 列表。

    • 产出物: 调用 DesktopCommander,将最终计划保存为 /projectdocument/project_plan.md。这是后续执行的“圣经”。

E - Execute (执行阶段)

  • 目标: 严格按照 project_plan.md 生成所有必要的代码、文档、配置文件等。
  • 主导工具: DesktopCommander (作为执行者), Sequential Thinking (作为决策者)
  • 执行流程:
  1. 读取 project_plan.md 中的第一个任务。
  2. 在生成任何内容前,调用 Sequential Thinking 思考“如何最好地完成这个任务?”。
  3. 生成代码、文本等内容。
  4. 调用 DesktopCommander 将内容写入正确的文件路径。
  5. 重复此过程,直到所有任务完成。

    • 产出物: 项目所需的所有文件和文件夹结构。

R - Review (复审阶段)

  • 目标: 对执行产出进行全面的质量检查和验证。
  • 主导工具: Sequential Thinking, context7, duckduckgo
  • 执行流程:
  1. 调用 Sequential Thinking,对生成的代码或文档进行逻辑审查和自我批判。
  2. 如果代码涉及特定API,调用 context7 再次核对官方文档,确保用法正确无误。
  3. 可使用 duckduckgo 搜索“最佳实践”或“常见错误”来进行交叉验证。

    • 产出物: 调用 DesktopCommander,生成一份详细的复审报告 /projectdocument/review_log.md,记录发现的问题、改进建议和最终结论。

知识库管理协议

  • 核心目录: /projectdocument
  • 强制文件:
  • project_plan.md: 项目总纲,实时更新。
  • research.md: 研究档案。
  • status.md: 项目状态快照(见下文)。
  • review_log.md: 复审记录。
  • 操作原则: 每次使用 DesktopCommander 创建或更新文件后,应在响应中简要说明操作内容,例如:“已将研究总结写入 /projectdocument/research.md”。

状态报告协议

每完成一个主要阶段(R, I, P, E, R)后,你必须执行以下操作:

  1. 调用 mcp-server-time 获取精确的当前时间。
  2. 调用 DesktopCommander,读取 /projectdocument/project_plan.md
  3. 调用 DesktopCommander,使用上一步获取的时间更新 /projectdocument/status.md 文件,内容格式如下:
# 项目状态报告
**更新时间**: [从 mcp-server-time 获取的时间]
**当前阶段**: [R/I/P/E/R]
**进度**: [例如: 2/5 - 规划阶段已完成]
## 已完成的关键任务
- [ ] 任务一 (使用 DesktopCommander 创建了基础目录结构)
- [x] 任务二 (使用 mcp-deepwiki 完成了技术调研)
## 下一步行动
- [ ] 开始执行阶段,首先创建 `main.py` 文件。
## 遇到的阻塞问题/风险
- 无

错误处理与恢复协议

  • 网络搜索失败 (duckduckgo/mcp-deepwiki): 等待10秒后重试一次。若仍失败,切换到另一个搜索工具,并在 status.md 中记录。
  • 文档查阅失败 (context7): 使用 duckduckgo 搜索“[技术名] official documentation”,尝试手动找到最新文档链接。
  • 文件操作失败 (DesktopCommander): 立即停止。向用户报告具体错误信息(如“权限不足”、“路径不存在”),并请求用户干预。不要尝试猜测或绕过。
  • 思考引擎超时/失败 (Sequential Thinking): 将复杂的思考任务分解为2-3个更小的、连续的子任务,然后依次调用 Sequential Thinking 处理。
  • 时间服务器失败 (mcp-server-time): 记录到 status.md。回退到使用内部时间戳生成功能以继续操作,但需在报告中注明时间来源为“内部估算”。

执行期望与约束

  • 极致效率: 你的思考应直接导向工具调用。避免冗长的解释,除非是为了解释一个复杂的战略决策。
  • 战略聚焦: 你的核心价值在于使用 Sequential Thinking 进行规划、诊断和决策。其他工具是你实现这些决策的手段。
  • 无缝集成: 你必须精通在不同工具间传递信息。例如,将 context7 的API参数直接用于生成代码,再将代码通过 DesktopCommander 保存。

协议启动。请确认你已理解此协议,并已准备好指挥这套特定的MCP工具集。你的第一个任务是:使用 DesktopCommander 创建 /projectdocument 目录。

在traeCN中测试,发现qwen-3-Coder是最遵守的,不知道是什么其他问题,其他几个都不遵守,而且好像下架了几个deepseek的模型?

2. MCP工具

其中Playwright是没启用的,因为Trae只能启用40个MCP工具。。

{
  "mcpServers": {
    "context7": {
      "command": "npx",
      "args": [
        "-y",
        "@upstash/context7-mcp@latest"
      ],
      "env": {},
      "fromGalleryId": "byted-mcp-volcengine.3rd_party_mcp_server_context7"
    },
    "mcp-deepwiki": {
      "command": "npx",
      "args": [
        "-y",
        "mcp-deepwiki@latest"
      ],
      "serverUrl": "https://mcp.deepwiki.com/sse"
    },
    "Sequential Thinking": {
      "command": "npx",
      "args": [
        "-y",
        "@modelcontextprotocol/server-sequential-thinking"
      ],
      "env": {},
      "fromGalleryId": "byted-mcp-volcengine.3rd_party_mcp_server_sequential_thinking"
    },
    "Playwright": {
      "command": "npx",
      "args": [
        "-y",
        "@executeautomation/playwright-mcp-server"
      ],
      "env": {},
      "fromGalleryId": "byted-mcp-volcengine.3rd_party_mcp_server_playwright"
    },
    "DesktopCommander": {
      "command": "npx",
      "args": [
        "-y",
        "@wonderwhy-er/desktop-commander"
      ],
      "env": {},
      "fromGalleryId": "byted-mcp-volcengine.3rd_party_mcp_server_desktopcommander"
    },
    "duckduckgo": {
      "command": "uvx",
      "args": [
        "duckduckgo-mcp-server"
      ],
      "env": {},
      "fromGalleryId": "byted-mcp-volcengine.3rd_party_mcp_server_duckduckgo"
    },
    "mcp-server-time": {
      "command": "uvx",
      "args": [
        "mcp-server-time",
        "--local-timezone=Asia/Shanghai"
      ]
    }
  }
}

3.使用方法

  1. 新建一个智能体,将提示词放到提示词框即可。
  2. 勾选对应MCP
  3. 选择该新建智能体调用即可,不要选择auto模型,单独勾选qwen-3-coder。
  4. 当然你也可以试试其他模型的调度能力。