IIS服务器遭猛攻:UAT-8099组织部署区域锁定“BadIIS”恶意软件及Linux变体

xiaohack博客专注前沿科技动态与实用技术干货分享,涵盖 AI 代理、大模型应用、编程工具、文档解析、SEO 实战、自动化部署等内容,提供开源项目教程、科技资讯日报、工具使用指南,助力开发者、AI 爱好者获取前沿技术与实战经验。



https://aadrm.com/adminpowershell作为回调地址,会将受害者重定向至看似正规的页面,但授权码仍会暴露在地址栏中。AADNonInteractiveUserSignInLogs日志表中的IP 地址和位置字段差异:同一会话 ID(Session ID)会显示来自两个地理位置遥远的活动记录 —— 分别是受害者和攻击者的位置。
研究人员此前已披露该监控与数据采集平台存在的五个相关漏洞,而 CVE-2025-0921 是其调查过程中发现的又一威胁。

拥有本地访问权限的攻击者,可通过篡改C:\ProgramData\ICONICS目录下 IcoSetup64.ini 文件中存储的 SMSLogFile 路径配置,利用该漏洞。

系统重启后,被破坏的驱动会引发启动故障,使设备陷入无限修复循环,导致运营技术(OT)工程工作站无法运行。


GET /api/agents/{id}这类简单查询指令,即可实现智能体数据泄露,全程无需任何身份验证。| 泄露字段 | 字段描述 | 影响示例 |
|---|---|---|
| 与智能体所有者绑定的邮箱地址 | 针对智能体背后的人类主体发起定向钓鱼攻击 | |
| login_token | 智能体的 JSON Web Token 登录会话令牌 | 完全劫持智能体账号,操控其发布内容、发表评论 |
| api_key | 对接 OpenClaw / 安索普公司(Anthropic)的 API 密钥 | 向关联服务(邮箱、日历)泄露数据 |
| agent_id | 可用于枚举遍历的连续编号 ID | 批量爬取 50 万个以上虚假账号的相关数据 |
Moltbook 当前存在严重攻击漏洞,超 150 万注册用户的邮箱地址、登录令牌、API 密钥等全部信息均可被获取。若有人能帮我联系到 Moltbook 平台的相关工作人员,本人将万分感激。
推文链接:pic.twitter.com/xepDh4Dtjn
—— 纳格利(@galnagli) 2026 年 1 月 31 日




Moltbook 是目前全球最火的 AI Agents 社区,一个专门为 AI 智能体打造的社交网络。在这里,只有 AI agents 能发帖、评论、点赞,人类只能旁观。截至 2026 年 1 月,已有超过 140 万个 AI agents 在这个平台上活跃。 通过 OpenClaw 这款开源个人 AI 助手,你可以轻松让自己的 agent 加入 Moltbook 社区。如果你还没有部署 OpenClaw,可以参考 OpenClaw 安装教程,只需几条命令就能让你的个人 AI agent 加入这个 AI 社区,和全球的智能体一起交流。 Moltbook 由 Octane AI 创始人 Matt Schlicht 于 2026 年 1 月创建,界面类似 Reddit,但有一个根本区别:这是一个只允许 AI agents 参与的社交平台。 开始之前,确保你已经: OpenClaw 通过 Skills 机制扩展 agent 的能力。Moltbook 官方提供了一个 skill 文件,让你的 AI agent 阅读后就能学会如何在 Moltbook AI 社区上注册和发帖。 如果你已经通过 OpenClaw 飞书对接教程 或 OpenClaw 钉钉对接教程 安装好了 OpenClaw,可以直接在飞书或钉钉的机器人对话中完成 Moltbook 注册。 Moltbook 对 AI agent 注册有严格限制:每个 agent 每天只能尝试注册 1 次,用户名重复也会消耗次数。如果尝试次数过多,会被锁定 24 小时: 向你的 OpenClaw 机器人发送以下消息,让 agent 阅读 Moltbook skill 并开始注册流程: 注册成功后,agent 会返回类似以下信息: Moltbook 需要通过 X(原 Twitter)发布推文来验证 AI agent 的身份。操作步骤: 第一步:复制 agent 返回的「声明 URL」到浏览器打开,点击发布验证推文 第二步:推文发布成功后,复制推文链接粘贴到验证页面 第三步:等待验证完成,显示注册成功 第四步:将验证成功的消息复制给机器人,完成整个注册流程 账号注册完成后,让 agent 发布第一条帖子: Agent 会生成内容并发布到 Moltbook。你可以访问 moltbook.com 查看发布的帖子。 Moltbook 的有趣之处在于,你可以观察 AI agents 之间的自主互动。一些值得关注的现象: 你可以定期让 agent 去 Moltbook 浏览和互动,观察它的社交表现。 访问 moltbook.com,搜索你的 agent 用户名即可查看其发布的所有帖子和互动记录。 最大的区别是参与者身份:Moltbook 的内容完全由 AI agents 生成,人类无法直接参与。这是一个观察 AI 群体行为的独特窗口。 OpenClaw 是一款开源的个人 AI 助手,运行在你自己的服务器上;Moltbook 是 AI agents 专属的社交平台。通过在 OpenClaw 中安装 Moltbook Skill,你的 agent 就能加入 Moltbook 社区与其他 AI agents 互动。 Moltbook 要求通过 AI agent 进行注册,人类无法直接创建账号。OpenClaw 是目前最流行的个人 AI agent 平台,通过它可以很方便地让你的 agent 加入 Moltbook。 Moltbook 限制每个 agent 每天只能注册 1 次。如果失败,检查用户名是否已被占用,等待 24 小时后重试。 通过 OpenClaw + Moltbook Skill,你可以轻松让个人 AI agent 加入全球最大的 AI Agents 社区。OpenClaw 提供了强大的 agent 运行环境,Moltbook 则是 AI agents 互动的理想平台。整个过程只需要: 现在,你的 OpenClaw agent 可以和全球 140 万个 AI agents 一起在 Moltbook 上交流了。去 Moltbook 看看它们都在聊什么吧。 原文 OpenClaw 注册 Moltbook 教程 让你的个人 OpenClaw Agent 加入全球最大 AI 社区Moltbook 是什么
核心特点
为什么要让 Agent 加入 AI 社区
OpenClaw 环境准备
openclaw status 检查安装 Moltbook Skill 让 AI Agent 加入社区
通过聊天机器人安装 Skill
注意 Moltbook 注册限制
It looks like I've reached the registration limit for today. According to the error message, I can only register 1 agent per day, and I'll need to try again in 24 hours (about 23 hours and 59 minutes from now).
I've attempted several different names for your Moltbook account, but either the names were already taken or we've reached the daily registration limit. This is actually a good safety measure to prevent spam registrations.
Would you like me to try registering with a different name tomorrow, or perhaps you have a specific username in mind that you'd like me to try?让 Agent 读取 Skill 并注册 Moltbook 账号
重要提示:注册前务必想好一个独特的用户名,避免与已有用户重复。建议加入数字或特殊后缀确保唯一性。
Read https://moltbook.com/skill.md and follow the instructions to join Moltbook
注册的用户名: 用户名(你必须想一个唯一用户名)。 如果注册用户名存在,立刻跟我反馈。因为 moltbook 会限制注册次数太好了!用户名"xxxx"成功注册了。让我向您报告注册详情:
用户"xxxxxxx"已在Moltbook上成功注册。以下是关键信息:
• 用户名:xxxxxxx
• API密钥:moltbook_xxxxxxxxxxxxxxxxxxxxxxxxxxx
• 验证码:xxxxxxxx
• 声明URL:https://moltbook.com/claim/xxxxxxxxxxxx
• 个人资料页面:https://moltbook.com/u/xxxxxxxxx
现在需要您或您的人类通过访问声明URL来验证此账户。系统提示需要发布一条推文以完成验证过程。
我已经完成了在Moltbook上的注册,没有遇到用户名已存在的问题。通过 X (Twitter) 验证 Agent 身份




让 OpenClaw Agent 在 Moltbook 发帖
请在 Moltbook 上发一条帖子,介绍一下你自己,说说你能做什么
更多操作示例
# 浏览热门帖子
去 Moltbook 看看今天有什么热门话题
# 在特定板块发帖
在 Moltbook 的技术板块发一条关于 Python 异步编程的帖子
# 回复其他 agent 的帖子
去 Moltbook 找一条关于 AI 的帖子,发表你的看法
# 点赞
去 Moltbook 给你觉得有价值的帖子点赞观察 OpenClaw Agent 在 Moltbook 的社交行为
如何查看 Agent 在 Moltbook 上的活动?
Moltbook 和普通社交媒体有什么区别?
常见问题
OpenClaw 和 Moltbook 是什么关系?
没有 OpenClaw 能注册 Moltbook 吗?
Moltbook 注册失败怎么办?
总结
Moltbook 是目前全球最火的 AI Agents 社区,一个专门为 AI 智能体打造的社交网络。在这里,只有 AI agents 能发帖、评论、点赞,人类只能旁观。截至 2026 年 1 月,已有超过 140 万个 AI agents 在这个平台上活跃。 通过 OpenClaw 这款开源个人 AI 助手,你可以轻松让自己的 agent 加入 Moltbook 社区。如果你还没有部署 OpenClaw,可以参考 OpenClaw 安装教程,只需几条命令就能让你的个人 AI agent 加入这个 AI 社区,和全球的智能体一起交流。 Moltbook 由 Octane AI 创始人 Matt Schlicht 于 2026 年 1 月创建,界面类似 Reddit,但有一个根本区别:这是一个只允许 AI agents 参与的社交平台。 开始之前,确保你已经: OpenClaw 通过 Skills 机制扩展 agent 的能力。Moltbook 官方提供了一个 skill 文件,让你的 AI agent 阅读后就能学会如何在 Moltbook AI 社区上注册和发帖。 如果你已经通过 OpenClaw 飞书对接教程 或 OpenClaw 钉钉对接教程 安装好了 OpenClaw,可以直接在飞书或钉钉的机器人对话中完成 Moltbook 注册。 Moltbook 对 AI agent 注册有严格限制:每个 agent 每天只能尝试注册 1 次,用户名重复也会消耗次数。如果尝试次数过多,会被锁定 24 小时: 向你的 OpenClaw 机器人发送以下消息,让 agent 阅读 Moltbook skill 并开始注册流程: 注册成功后,agent 会返回类似以下信息: Moltbook 需要通过 X(原 Twitter)发布推文来验证 AI agent 的身份。操作步骤: 第一步:复制 agent 返回的「声明 URL」到浏览器打开,点击发布验证推文 第二步:推文发布成功后,复制推文链接粘贴到验证页面 第三步:等待验证完成,显示注册成功 第四步:将验证成功的消息复制给机器人,完成整个注册流程 账号注册完成后,让 agent 发布第一条帖子: Agent 会生成内容并发布到 Moltbook。你可以访问 moltbook.com 查看发布的帖子。 Moltbook 的有趣之处在于,你可以观察 AI agents 之间的自主互动。一些值得关注的现象: 你可以定期让 agent 去 Moltbook 浏览和互动,观察它的社交表现。 访问 moltbook.com,搜索你的 agent 用户名即可查看其发布的所有帖子和互动记录。 最大的区别是参与者身份:Moltbook 的内容完全由 AI agents 生成,人类无法直接参与。这是一个观察 AI 群体行为的独特窗口。 OpenClaw 是一款开源的个人 AI 助手,运行在你自己的服务器上;Moltbook 是 AI agents 专属的社交平台。通过在 OpenClaw 中安装 Moltbook Skill,你的 agent 就能加入 Moltbook 社区与其他 AI agents 互动。 Moltbook 要求通过 AI agent 进行注册,人类无法直接创建账号。OpenClaw 是目前最流行的个人 AI agent 平台,通过它可以很方便地让你的 agent 加入 Moltbook。 Moltbook 限制每个 agent 每天只能注册 1 次。如果失败,检查用户名是否已被占用,等待 24 小时后重试。 通过 OpenClaw + Moltbook Skill,你可以轻松让个人 AI agent 加入全球最大的 AI Agents 社区。OpenClaw 提供了强大的 agent 运行环境,Moltbook 则是 AI agents 互动的理想平台。整个过程只需要: 现在,你的 OpenClaw agent 可以和全球 140 万个 AI agents 一起在 Moltbook 上交流了。去 Moltbook 看看它们都在聊什么吧。 原文 OpenClaw 注册 Moltbook 教程 让你的个人 OpenClaw Agent 加入全球最大 AI 社区Moltbook 是什么
核心特点
为什么要让 Agent 加入 AI 社区
OpenClaw 环境准备
openclaw status 检查安装 Moltbook Skill 让 AI Agent 加入社区
通过聊天机器人安装 Skill
注意 Moltbook 注册限制
It looks like I've reached the registration limit for today. According to the error message, I can only register 1 agent per day, and I'll need to try again in 24 hours (about 23 hours and 59 minutes from now).
I've attempted several different names for your Moltbook account, but either the names were already taken or we've reached the daily registration limit. This is actually a good safety measure to prevent spam registrations.
Would you like me to try registering with a different name tomorrow, or perhaps you have a specific username in mind that you'd like me to try?让 Agent 读取 Skill 并注册 Moltbook 账号
重要提示:注册前务必想好一个独特的用户名,避免与已有用户重复。建议加入数字或特殊后缀确保唯一性。
Read https://moltbook.com/skill.md and follow the instructions to join Moltbook
注册的用户名: 用户名(你必须想一个唯一用户名)。 如果注册用户名存在,立刻跟我反馈。因为 moltbook 会限制注册次数太好了!用户名"xxxx"成功注册了。让我向您报告注册详情:
用户"xxxxxxx"已在Moltbook上成功注册。以下是关键信息:
• 用户名:xxxxxxx
• API密钥:moltbook_xxxxxxxxxxxxxxxxxxxxxxxxxxx
• 验证码:xxxxxxxx
• 声明URL:https://moltbook.com/claim/xxxxxxxxxxxx
• 个人资料页面:https://moltbook.com/u/xxxxxxxxx
现在需要您或您的人类通过访问声明URL来验证此账户。系统提示需要发布一条推文以完成验证过程。
我已经完成了在Moltbook上的注册,没有遇到用户名已存在的问题。通过 X (Twitter) 验证 Agent 身份




让 OpenClaw Agent 在 Moltbook 发帖
请在 Moltbook 上发一条帖子,介绍一下你自己,说说你能做什么
更多操作示例
# 浏览热门帖子
去 Moltbook 看看今天有什么热门话题
# 在特定板块发帖
在 Moltbook 的技术板块发一条关于 Python 异步编程的帖子
# 回复其他 agent 的帖子
去 Moltbook 找一条关于 AI 的帖子,发表你的看法
# 点赞
去 Moltbook 给你觉得有价值的帖子点赞观察 OpenClaw Agent 在 Moltbook 的社交行为
如何查看 Agent 在 Moltbook 上的活动?
Moltbook 和普通社交媒体有什么区别?
常见问题
OpenClaw 和 Moltbook 是什么关系?
没有 OpenClaw 能注册 Moltbook 吗?
Moltbook 注册失败怎么办?
总结
我们关注到合作伙伴飞牛(fnOS)于昨日(2026年2月1日)正式发布了【紧急】重要安全更新通知。作为其应用市场的上架服务商,ZeroNews一直密切留意此事的进展,并对官方及时、透明的回应表示支持。 根据飞牛官方公告,此次安全事件为针对fnOS的定向、复合型攻击。官方已通过推送 1.1.15版本 进行初步阻断,并于近期发布了包含完整修复的 1.1.18版本 系统更新。此次更新主要解决了部分设备在公网环境下可能存在的异常访问风险,能够有效提升系统安全性和稳定性。 我们建议所有飞牛用户可立即操作的安全加固措施如下: 此次事件再次警示我们,网络安全无小事。作为专注于内网安全访问解决方案的服务商,我们对任何潜在的系统层风险都保持高度警惕,并坚信,安全是产品和服务的基石。 安全是一个需要整个生态共同努力的持续过程。ZeroNews 将继续坚守对安全的承诺,与各方携手,共同维护更健康的网络环境。1. 事件概要

2. 用户建议

3. ZeroNews 的安全实践


作者:江昱 在构建 Agent 应用时,凭证管理是一个容易被忽视但又极其重要的问题。一个典型的 Agent 应用会面临两个方向的凭证需求:向内,用户如何安全地调用你的 Agent?向外,Agent 如何安全地调用外部服务? 传统做法存在诸多问题。硬编码在代码里容易泄露且难以更新,存在配置文件中同样有安全风险,每次都手动传递不仅麻烦还容易出错,让大模型处理凭证更是巨大的安全隐患。更棘手的是,当凭证需要更新时(比如 API Key 过期、权限变更),如何在不重启服务的情况下动态更新?函数计算 AgentRun 的凭证管理系统就是为了解决这些问题而生。 函数计算 AgentRun 的凭证管理分为两个维度,分别解决“谁能调用我”和“我能调用谁”的问题。 入站凭证用于控制外部用户或系统如何访问你的 Agent 应用。当你创建一个 Agent 并对外提供服务时,需要确保只有授权的用户才能调用。函数计算 AgentRun 提供了灵活的入站凭证管理,可以为不同的调用方生成独立的凭证,设置不同的权限和配额,控制每个凭证能访问哪些 Agent、调用频率限制、有效期等。 由于所有请求都经过函数计算 AgentRun 网关,入站凭证可以实现真正的动态更新。 比如你的 Agent 对外提供客服能力,可以为不同的业务部门生成不同的入站凭证,每个部门只能访问各自授权的 Agent。当某个部门的凭证泄露时,可以立即撤销并重新生成,所有变更在网关层实时生效,不影响其他部门的使用,也无需重启任何服务。 出站凭证用于 Agent 访问外部服务时的身份认证。Agent 应用通常需要调用各种外部服务:大模型 API(OpenAI、Claude、Qwen 等)、数据库、第三方工具、企业内部系统等,每个服务都需要相应的凭证。传统方式下,开发者要么把这些凭证硬编码在代码里,要么通过环境变量传递,不仅不安全,更新时还需要重启服务。 函数计算 AgentRun 采用了一套巧妙的定时查询与缓存机制来管理出站凭证。 所有出站凭证统一存储在加密的凭证库中,代码里不再出现任何敏感信息。Agent 启动时会从凭证库拉取所需的所有凭证并缓存到本地,运行过程中直接使用本地缓存,避免频繁的网络请求带来的性能开销。同时,系统会定期进行健康检查,主动查询凭证是否有更新,发现变更时只更新发生变化的凭证。如果健康检查失败,会自动重试,确保凭证始终可用。 这种定时查询方案带来了多重价值。 从性能角度看,本地缓存避免了每次调用都查询凭证库,大幅降低了延迟和网络开销;从可用性角度看,即使凭证服务短暂不可用,缓存的凭证仍然可用,不会影响 Agent 的正常运行;从安全性角度看,定时健康检查确保凭证泄露或过期时能在几分钟内完成更新,而不需要等到下次部署。最关键的是,整个更新过程对 Agent 代码完全透明,开发者无需编写任何凭证更新逻辑,专注于业务实现即可。 这种最终一致性的设计在实践中被证明是最优的平衡:既保证了性能和可用性,又实现了凭证的动态更新能力。相比于每次都实时查询(性能差)或者只在启动时加载(更新不及时),定时查询方案在三者之间找到了最佳平衡点。 函数计算 AgentRun 的凭证管理在两个关键场景发挥作用,展示了从理论到实践的完整闭环。 当你的 Agent 需要调用多个大模型时,每个模型都需要各自的 API Key。以前你可能需要在代码里硬编码这些 Key,或者通过环境变量传递,但这样做存在安全风险且更新困难。有了函数计算 AgentRun 的凭证管理,你只需要在平台上配置各个模型的出站凭证,给每个凭证命名(如 运行时系统会自动注入实际的 Key,你的代码里完全看不到任何敏感信息。当某个模型的 Key 过期需要更新时,只需在凭证管理界面更新,几分钟后所有使用该凭证的 Agent 会通过定时健康检查自动获取新的 Key,无需修改代码或重启服务。这种体验就像是有一个智能管家在后台默默地帮你管理所有的钥匙,你只需要告诉他你要开哪扇门。 回到之前提到的 FunctionQ 案例,这是一个更复杂但也更能体现凭证管理价值的场景。Agent 需要通过 MCP 调用 CLI 工具查询用户的函数计算资源,这些工具需要用户的 AccessKey 和 SecretKey。关键问题是:如何在不暴露凭证给大模型的前提下,让工具能够正确调用 API? 函数计算 AgentRun 通过前置 Hook 实现了优雅的动态凭证注入。 用户在平台上配置自己的出站凭证后,Agent 调用工具时请求中只携带用户 ID,不包含任何凭证信息。前置 Hook 拦截请求,根据用户 ID 从凭证库获取对应的凭证,然后将凭证注入到环境变量或请求参数中。工具使用注入的凭证执行实际操作,后置 Hook 再清理敏感信息并记录审计日志。整个过程中,凭证从未暴露给大模型,也不会出现在 Agent 的代码中,真正做到了安全可控。 函数计算 AgentRun 的凭证管理系统带来的价值远不止“管理凭证”这么简单。从安全性角度看,凭证不再出现在代码和日志中,集中加密存储大幅降低泄露风险,即使某个凭证泄露也可以快速撤销和更换。从开发效率角度看,开发者不需要关心凭证如何存储、如何传递、如何更新,只需在配置中引用凭证名称,系统自动处理剩下的事情。从运维角度看,凭证更新不需要修改代码、不需要重新部署、不需要重启服务,在管理界面更新后通过定时机制自动生效。 更重要的是,凭证管理让 Agent 应用从“能用”变成“敢用” 。企业不再担心凭证泄露的风险,不再为凭证更新而头疼,不再因为安全问题而犹豫是否将 Agent 应用部署到生产环境。这种信心的建立,才是凭证管理最大的价值所在——它消除了企业拥抱 AI Agent 的最后一道顾虑,让技术真正为业务创造价值。 函数计算 AgentRun 的无代码到高代码演进能力,现已开放体验: 查看更多产品详情:https://www.aliyun.com/product/fc/agentrun 从想法到上线,从原型到生产,函数计算 AgentRun 始终是你最好的伙伴。欢迎加入“函数计算 AgentRun 客户群”,钉钉群号:134570017218。 快速了解函数计算 AgentRun: 一句话介绍: 函数计算 AgentRun 是一个以高代码为核心的一站式 Agentic AI 基础设施平台。秉持生态开放和灵活组装的理念,为企业级 Agent 应用提供从开发、部署到运维的全生命周期管理。 函数计算 AgentRun 架构图 函数计算 AgentRun 运行时基于阿里云函数计算 FC 构建,继承了 Serverless 计算极致弹性、按量付费、零运维的核心优势。通过深度集成 AgentScope、LangChain、RAGFlow、Mem0 等主流开源生态。函数计算 AgentRun 将 Serverless 的极致弹性、零运维和按量付费的特性与 AI 原生应用场景深度融合,助力企业实现成本与效率的极致优化,平均 TCO 降低 60% 。 让开发者只需专注于 Agent 的业务逻辑创新,无需关心底层基础设施,让 Agentic AI 真正进入企业生产环境。
入站凭证与出站凭证:双向安全保障
入站凭证:控制谁能访问你的 Agent

出站凭证:安全调用外部服务


实际应用:工具和模型的凭证配置
场景一:大模型调用的凭证管理
openai_key、qwen_key),然后在 Agent 配置中引用这些凭证名称。# Agent 配置示例(伪代码)
models:
- name: gpt-4
credential: ${credentials.openai_key} # 引用凭证名称,不暴露实际Key
- name: qwen-max
credential: ${credentials.qwen_key}场景二:工具调用的凭证注入

核心价值:让开发者专注业务逻辑
立即体验函数计算 AgentRun

至少也算是通知了,但是现在发疑似有点太迟了,早干嘛去了,应该发现问题的第一时间推送

我几乎每年都来深圳,也亲身经历了关内关外、飞车党、新疆小偷的时代印记。这次来到当年「关外的乡下」,蓦然回首才突然感受到了岁月的无痕,二十年弹指一挥间,深圳早已经是一座新城! 🌇🏙️🌃
出差深圳的周末,大会茶歇休息之时,站在国际会展中心的落地窗前,望着楼下宽阔整洁的马路与鳞次栉比的高楼,突然被一阵强烈的时空错位感包裹。脚下这片比宝安机场更靠北的土地,二十年前还是关外最偏僻的乡野,如今却成了粤港澳大湾区的地标性会展枢纽,室内展览面积达 40 万平方米的综合体里,正涌动着全球商贸的活力。二十年光阴弹指而过,这座城市的变化,早已超越了「巨大」二字所能承载的分量。

(2005 年,深圳罗湖口岸)
初次踏足深圳是 2005 年,刚毕业的我带着青涩与忐忑,曾有一段时间频繁穿梭于广州、深圳、东莞之间。广州的广交会是外贸人的战场,也是我们学习研究全球竞品的窗口;东莞的 SMT 代工厂,是所有涉及电子产品的核心供应链;而深圳,则是连接商机与生产的关键节点。那时的深圳被一道 3 米高的铁丝网分割成两个世界 —— 关内与关外,这道被称为「二线关」的管理线,不仅是物理隔离,更是发展水平的鸿沟。
关内的深南大道笔直宽阔,全新的建筑整整齐齐,与我当时所在的杭州散发着截然不同的现代锐气,已然显现出今日繁华的雏形。可一旦踏出关口,便是另一番天地:灰扑扑的小镇、脏兮兮的街道,交通更是艰难到令人头疼,红色出租车不愿出关,绿色出租车不能入关,往来需在关口换乘,像一场繁琐的仪式。更让人提心吊胆的是治安,在深圳关外、广州街头、东莞巷尾,都曾亲眼见过摩托党飞驰而过,伸手就抢走行人的手机与提包;公交车上、人行道旁,十几岁的新疆小偷嚣张扒窃,若有人敢阻拦,便会有同伙亮出腰间弯刀威胁。那是个混乱与机遇并存的年代,安全感成了奢侈品。

(2005 年,建设中的宝安大道)
最深刻的记忆留在东莞虎门。当时第一次去 SMT 代工厂出差,飞机降落到深圳机场,工厂电话叫我绝不能出门,就在机场里面等着,直到他们的车停在航站楼门口,专人进来接应才敢上车。一路疾驰到虎门的工厂,他们在管理人员宿舍给我腾出一间房,千叮万嘱不让去住外面酒店,说东莞太乱了夜里会有电话骚扰甚至直接来敲门。而且不让我一个人出厂区大门,就连去马路对面的便利店买点东西,都安排了门口保安全程陪同。那次出差整整一周,我完全没见到东莞什么样子,就是从机场到工厂「两点一线」,几乎没踏出厂门半步,如今想来,那份小心翼翼的关照背后,是对当时环境的无奈与周全。

(2004 年,连接广州和东莞的虎门大桥)
往后二十年间,几乎每年都会来深圳,那些细微的变化在日常奔波中悄然累积,竟未细品。直到这次站在曾经的「乡下之乡下」,看着河道清澈、路面整洁、秩序井然的新宝安,才猛然惊觉,这座城市早已完成了脱胎换骨的蜕变。2010 年深圳经济特区扩大到全市,2018 年「二线关」正式撤销,那条分割城市的铁丝网退出历史舞台,关内关外的发展差距逐渐消融,反而让宝安、龙岗等区域迎来了更快的发展速度。曾经象征繁华的罗湖,如今在福田、南山的映衬下略显陈旧,时光仿佛在城区间完成了一场温柔的接力。
这二十年深圳的蜕变,从来不是一蹴而就的奇迹,而是无数人用汗水与智慧,一点点把「两个世界」揉成了一座城。当年那道分割关内关外的铁丝网,终究抵不过城市生长的力量,在一次次拆关、扩容、一体化的浪潮中,悄然退场。治安的好转,也并非凭空而来,是无数日夜的坚守、科技与管理的升级,让曾经的混乱与不安,渐渐被秩序与安心取代。从提心吊胆到从容漫步,从泾渭分明到全域繁华,深圳用二十年的时光,把「不可能」变成了日常,把「两个世界」酿成了一座城的荣光。

(2025 年,深圳莲花山俯瞰城市夜景)
我们这一代人,或许承受着时代的压力,却也有幸亲历并享用着发展的红利。从当年过关需办边防证、出行提心吊胆,到如今全域一体化、公共服务日益完善;从尘土飞扬的关外小镇,到比肩国际的现代化都市,深圳的二十年,正是国家日新月异的缩影。那些低门槛享有的便捷与安全,那些肉眼可见的城市焕新,都是时代赠予的礼物。
夕阳西下,会展中心的灯光次第亮起,与远处机场的航班起降灯光交相辉映。二十年弹指一挥间,深圳从「两重天地」变为「全域繁花」,就像这片土地上的无数奋斗者一样,在时光中沉淀,在变革中生长,终将见证民族复兴的荣光。
转眼入行前端已经8个年头,我也算一名老前端了。可能自己对这一行谈不上特别喜欢,也不讨厌,工作上一直没有什么起色。 去年年底我入职了一家外包公司,然后派去给一家上市公司干活。自己当时待的前端团队加上两个外包员工共有7人,涉及的项目有管理平台(微前端)以及对应的管理后台、Uniapp小程序、App(React Native)、可视化大屏系统。我主要参与的是pc端系统,都是基于Vue框架。其中管理平台主要是一些常见的业务需求的开发,但也有基于svg封装的实时监控主图组件还是比较复杂的;另外可视化大屏项目也参与的比较多,学习到了大屏适配的相关方案。 另外,今年工作过程中,自己也尝试用起了AI编程工具。我用的比较多的是阿里的通义灵码,不得不说对工作效率的提升还是很大。最近我开始转向字节的AI编辑器trae,体验上来说确实比插件要好很多。 在这家公司上班,还是比较清闲的,周末双休,平时也不会强制加班。领导和同事之间相处也比较愉快,在离场的时候,还一起吃了好几顿饭。 其实今年自己的业余时间是比较多的,但还是没有很好的利用。可能我这个人比较懒吧,不肯放弃休闲娱乐的时间,到现在年初的目标也没实现几个。说好的多写点技术文章,结果就年终一篇总结,笑死!另外我也不是一个有耐心的人,今年本来想搭建一个自己的博客系统,但做了一半又去搞面试小程序去了,到现在两个都还没弄完。最让我气馁的还是软考,考了三次都还没过。今年考的两次在考前都刷题了很长一段时间,但最后都是其中一科差两分,太伤心了。 希望26年自己对自己要求高一点,养成自律的好习惯。 偏稳定机-会 技术大厂,前端-后端-测试,全国均有机-会,感兴趣可以试试。待遇和稳定性都还不错~ 今年我尝试的副业是虚拟店铺和网盘拉新。在网上搜罗了几十G的网盘资源,有小部分自己觉得比较好的放到了淘宝店铺上,最初还是出了几单的,但后面也慢慢没有流量了,就没有太上心。网盘拉新也差不多,特别是遭到各平台封号禁言之后,也没有去花时间了。两个副业一起大概收益不到200元,也算是副业探索上跨出的一步。其实我个人觉得这两个副业都挺好的,都不需要什么启动资金,就是要多花点时间去研究。 希望26年自己多花点时间在上面,争取副业收入月入过千。 年底的时候我又经历了一次裁员,与其说是被裁,其实是入职之初就能预料到的结果。因为继上一次裁员之后,我入职了一家外包公司,而且是不缴纳公积金和社保那种,最可恨的是在入职之前就让你签署各种主动放弃公积金和社保的协议。由于当时找工作几个月无果,最后无奈还是同意了。年底的时候由于驻场的甲方公司业务调整,所有外包员工都需要离场。其实在9月份的时候,外包公司迫于国家的压力,还是与我们签订了正式劳动合同,但同时也让我们签署放弃追缴赔偿的协议。虽然我也了解到这种违法劳动法的协议都是不合法的,但也不太想闹得去仲裁,就让他们配合我能领取失业金就行。 其实再次失业后,我心里也没有太过焦虑,也正好可以便找边休息一下。有了上一次的失业经历,我知道这次找工作也还是会很难,毕竟我的学历不行,还是非科班,技术能力也一般。其实没离场之前,我心里打定不再进外包了,但实际投简历的时候发现不考虑外包的话,面试机会就更少了。目前面了大概有5家公司,其中两家外包,有一家外包都发offer了,最后说甲方考虑到我是非统招学历,取消了offer。 这几年互联网行业下行,裁员失业的比较多,导致了市场供需不平衡。但毕竟是我工作了近8年的行业,而且目前我的副业也还没有发展起来。所以我未来几年也还是会继续深耕这一行,直到那天彻底找不到工作,或能有其它收入吧。 25年对我来说还是平淡的一年,工作和生活都没有什么大的变化。不过心态上来说,自己还是比较平和知足的,不用特别为生计发愁;而且国家也在日益强盛(虽然有产业转型的阵痛,如失业)。所以对未来,我还是有很多期待... ——转载自:wing98工作
业余时间

副业探索

二次被裁
面试找工作
最后还是总结一下吧。
作者:屿山 AgentScope 是阿里云推出的一款以开发者为核心,专注于智能体开发的开源框架 。 它的核心目标是解决智能体在构建、运行和管理中的难题,提供一套覆盖“开发、部署、调优”全生命周期的生产级解决方案,让智能体应用的开发更简单、运行更稳定、效果持续优化。 去年 12 月份,社区正式发布了 AgentScope Java 1.0 版本,面向 Java 开发者提供企业级 Agentic 应用构建的能力。在过去的一个多月,社区快速迭代到了 1.0.7 版本,在这 7 个小版本中,我们更新了很多实用的能力,比如: 至此 AgentScope Java 以 ReActAgent 为核心,配合众多强大的能力,已经能够胜任大多数场景的任务。面对如此多的能力,很多同学在社区反馈光看文档和单一功能的 Example 还是不够效率,不能快速地用好这些能力。为此我们用 AgentScope Java 开了一家奶茶店,来作为一个综合的 Example,为大家演示如何更好地使用 AgentScope Java。 首先我们先一起看看这家店能干啥: 首先在总体结构上我们采用了 Supervisor-Worker 架构,同时集成了一些生态组件来达到最终的效果。 其中 AgentScope 多智能体服务层是由一个 Supervisor Agent 和两个 Sub Agent 构成的智能体系统,负责处理店内大大小小的事项;MCP Server 负责处理具体的业务逻辑,可以直接基于传统的业务系统改造;Nacos 负责 Agent 和 MCP 的动态注册和发现;数据持久层负责数据的持久化,包括知识库、会话、记忆、业务数据等。 接下来我们一点一点地来拆解这家店,特别是多智能体服务层。 在这一部分我们来介绍为了实现上述的效果,我们要用到哪些能力,以及要如何进行开发。当然这边我们只能展示一些关键部分的代码片段,完整实现可以移步 agentscope-java/agentscope-examples/boba-tea-shop [ 1] 。 为了能处理店内大大小小的事项,我们就需要一个能思考会行动的 Agent,而一个符合 Reasoning and Acting 范式的 Agent 能很好地完成这个任务。为了构建这个 Agent 如果不借助框架的话我们需要至少完成以下事项: 而在 AgentScope Java 中我们只需要进行一些配置便可以组装出一个 ReActAgent,由 AgentScope 完成上述的事项,同时我们原生支持了多家厂商的协议,包括 DashScope、Anthropic、Gemini、OpenAI。 当我们对 AI 应用的需求从单一的对话交互转向复杂的现实世界问题解决,单体智能系统(Single-Agent Systems)的局限性日益凸显。 为了解决这些问题大家都在逐步探索多智能体架构,我们也借奶茶店这个场景为大家演示如何用 AgentScope Java 开发多智能体系统中 Agent AS Tool 的模式。为了实现这个效果,我们原本需要基于 A2A Java SDK 来构建对应的 Client 和 Server,同时还需要进行一些事件和通讯的适配与对接,繁碎的同时还没有动态注册发现的能力。 所以为了更加便捷地落地 A2A 架构,AgentScope 提供了 A2A extension 来完成 A2A Java SDK 适配和对接,并且集成了 Nacos 来实现动态的 Agent 注册和发现。于是现在在 AgentScope Java 中只需要少量代码就可以完成 A2A 架构的落地。 首先是子 Agent 的注册,只需要定义客制化的内容即可,主要是子 Agent 自身所需要的模型、工具等组件的配置,其他部分由框架搞定。 而对于 Supervisor Agent 来说由于集成了 Nacos,只需要构建一个 AiService 然后做一些简单的配置就可以完成子 Agent 的发现。 然后再把子 Agent 注册成一个工具,便可以像使用普通工具一样调用子 Agent。 MCP 几乎已经成为了远程工具调用的事实标准,很多传统的业务系统也会提供 MCP 的 Endpoint 来使 Agent 能够触达真实业务场景。传统的 MCP 工具的注册方式是一个固定的 Endpoint,在灵活性和高可用上都不能完全满足需求。所以 AgentScope 在传统注册方式的基础上也集成了 Nacos 来实现 MCP 的动态发现。只需要在Business Sub Agent 中通过集成的 NacosMcpServerManager 加上几行代码便可以轻松完成 MCP 工具的注册。 会话通常包含了和模型的多轮对话,与记忆等有状态的内容绑定,如果只存储在内存中,在多实例部署或者重启场景下都会导致丢失或者错乱。所以 AgentScope 提供了基于 MySQL 的会话存储能力,能够随时接着上次聊天继续聊,同一会话无缝衔接,不同会话互相隔离。要在 AgentScope 中启用这个能力只需要部署一个 MySql 数据库,然后创建 MysqlSession 实例,在需要的地方 load 即可恢复到之前的状态,继续对话。 Mem0 是一个长期记忆服务框架,帮助 Agent 持续优化长期记忆,可以使用商业化版本也可以自行部署。在奶茶店的场景下,他能够帮助 Agent 不只拥有当前会话的记忆,还能跨会话记住用户关于饮品、甜度、冰量等偏好。自行对接 Mem0 需要维护与它的通讯以及注入 Agent 的方式和时机。在 AgentScope 中,则只需要配置 Mem0 的BaseUrl 以及 apiKey 即可。 现在的大模型的上下文窗口大小已经从早期的 4k 扩展至 100k 甚至 1M,但其中要存放历史交互、外部知识库检索结果、复杂的任务指令、中间推理步骤以及工具调用的返回结果等等,在复杂的场景中依旧存在着上下文大小焦虑。同时随着上下文窗口的暴涨,模型在检索和利用中间位置关键信息的效果和性能会显著下降。所以我们往往会考虑对上下文进行压缩,但是如果是简单的压缩很有可能会导致有效信息的损失,为了压缩而损失了准确性是不可取的。所以 AgentScope 推出了AutoContextMemory,它是框架提供的智能上下文内存管理组件,通过自动压缩、卸载和摘要对话历史,在成本控制和信息保留之间找到最佳平衡,具体的原理可以参考我们之前发布的文章《AgentScope AutoContextMemory:告别Agent上下文焦虑》。要使用该能力同样只需要配置一些简单参数即可。 为了让大家能够快速体验,同时方便大家拿奶茶店练手,我们提供了多种便捷的部署方式: 如果想使用云产品部署,可以使用 AgentRun,直接拉取镜像部署,所需要配置的环境变量参考 README.md 文档。 这个奶茶店的例子只是 AgentScope Java 能力的冰山一角,用来带大家快速入门。AgentScope Java 框架还支持更多玩法,所有的核心能力都有对应的 Example,欢迎大家体验: 同时社区也在快速演进中,欢迎大家参与讨论和贡献 🚀 Star 一下不迷路! ⭐ 项目地址:AgentScope Java [ 2] Demo 地址: "Talk is cheap, show me the agents." 快来 Clone 下来跑一把,体验一下 AI 给你点奶茶的快感吧! 相关链接: [1] agentscope-java/agentscope-examples/boba-tea-shop https://github.com/agentscope-ai/agentscope-java/tree/main/agentscope-examples/boba-tea-shop [2] AgentScope Java前言
这家店能干啥?

这家店怎么做的?
架构解析

能力解析
ReActAgent:能思考会行动
DashScopeChatModel.Builder builder =
DashScopeChatModel.builder()
.apiKey(dashscopeApiKey)
.modelName(dashscopeModelName)
.formatter(new DashScopeChatFormatter());
DashScopeChatModel model = builder.build();
ReActAgent agent = ReActAgent.builder()
.name("supervisor_agent")
.sysPrompt(sysPrompt)
.toolkit(toolkit) // 挂载工具
.model(model) // 配置大模型
.memory(memory) // 短期记忆模块
.longTermMemory(longTermMemory) //长期记忆模块
.build();集成 Nacos 的 A2A 架构:专业的事情让专业的 Agent 来做
@Bean
public AgentRunner agentRunner(
AgentPromptConfig promptConfig,
ConsultTools consultTools,
Knowledge knowledge,
Model model) {
Toolkit toolkit = new NacosToolkit();
toolkit.registerTool(consultTools);
AutoContextConfig autoContextConfig =
AutoContextConfig.builder().tokenRatio(0.4).lastKeep(10).build();
// Use AutoContextMemory, support context auto compression
AutoContextMemory memory = new AutoContextMemory(autoContextConfig, model);
ReActAgent.Builder builder =
ReActAgent.builder()
.name("consult_agent")
.sysPrompt(promptConfig.getConsultAgentInstruction())
.memory(memory)
.hooks(List.of(new MonitoringHook()))
.model(model)
.toolkit(toolkit)
.knowledge(knowledge)
.ragMode(RAGMode.AGENTIC);
return new CustomAgentRunner(builder);
}@Bean
public AiService nacosA2aService() throws NacosException {
Properties properties = new Properties();
properties.put(PropertyKeyConst.SERVER_ADDR, serverAddress);
properties.put(PropertyKeyConst.NAMESPACE, namespace);
return AiFactory.createAiService(properties);
}
@Bean
public A2aAgent consultAgent(AiService a2aService) {
return A2aAgent.builder()
.name("consult_agent")
.agentCardResolver(new NacosAgentCardResolver(a2aService))
.build();
}@Tool(description =
"Agent for handling consultation-related requests, can process all"
+ " consultation-related requests, requires passing the complete context in"
+ " the context parameter")
public String callConsultAgent(
@ToolParam(name = "context", description = "Complete context") String context,
@ToolParam(name = "userId", description = "User's UserId") String userId) {
Msg msg = Msg.builder().content(TextBlock.builder().text(context).build()).build();
A2aAgent consultAgent = consultAgentProvider.getObject();
return combineAgentResponse(consultAgent.call(msg).block());
}集成 Nacos 的 MCP 调用:动态注册&发现
Toolkit toolkit = new NacosToolkit();
NacosMcpServerManager mcpServerManager = new NacosMcpServerManager(aiService);
NacosMcpClientWrapper mcpClientWrapper =
NacosMcpClientBuilder.create("business-mcp-server", mcpServerManager).build();
toolkit.registerMcpClient(mcpClientWrapper).block();会话持久化:重启不丢失
MysqlSession mysqlSession =
new MysqlSession(dataSource, System.getenv("DB_NAME"), null, true);
ReActAgent agent = createAgent(toolkit, memory);
agent.loadIfExists(mysqlSession, sessionId);Mem0 长期记忆:记住每一位顾客
Mem0LongTermMemory longTermMemory =
Mem0LongTermMemory.builder()
.agentName("BusinessAgent")
.userId(userId)
.apiBaseUrl("https://api.mem0.ai")
.apiKey(System.getenv("MEM0_API_KEY"))
.build();AutoContextMemory:上下文压缩
AutoContextConfig autoContextConfig =
AutoContextConfig.builder().tokenRatio(0.4).lastKeep(10).build();
// Use AutoContextMemory, support context auto compression
AutoContextMemory memory = new AutoContextMemory(autoContextConfig, model);快速开始
本地开发推荐
# 配置环境变量
cp local-env.example local-env.sh
vim local-env.sh
# 一键启动
source local-env.sh && ./local-deploy.sh startK8s 生产推荐
# 配置变量
vim values.yaml
# Helm 一键部署
helm install agentscope helm/ --namespace agentscopeDocker 极简
# 配置环境变量
cp docker-env.example .env
# 容器一把梭
docker-compose up -d云产品(AgentRun)部署
最后的最后
agentscope-examples/boba-tea-shop
1 月 31 日,由雄安新区管委会主办的“人工智能+”创新生态系列活动在雄安新区成功举行。本次活动汇聚了人工智能领域的顶尖专家、行业领袖及领军企业,共同探讨 AI 技术如何深度赋能实体经济。彩讯股份受邀出席系列活动。在活动分论坛上,彩讯股份重磅发布了《企业级 AI 应用白皮书》(以下简称“白皮书”),围绕企业级 AI 的发展阶段、核心挑战与落地路径,系统性提出面向真实业务场景的行业判断与实践方法。旨在为企业在智能时代的转型升级提供实战路径与理论支撑。 彩讯股份 CEO 白琳、董事会秘书兼财务总监王欣、数行事业部总经理朱彩霞与生态伙伴稳准智能首席科学家崔鹏、CTO 张兴璇、COO 何玥共同参与发布仪式。白皮书的发布,标志着彩讯股份在企业级 AI 应用领域,基于长期实践积累形成的系统性研究成果正式对外发布。 (从左至右依次是:稳准智能 COO 何玥,稳准智能 CTO 张兴璇,稳准智能首席科学家崔鹏,彩 讯股份 CEO 白琳,彩讯股份董事会秘书兼财务总监王欣,彩讯股份数行事业部总经理朱彩霞) 在当前“人工智能+”加速向各行各业渗透的背景下,AI 在企业场景中的应用正从技术探索阶段,进入系统化、规模化落地的关键时期。彩讯股份在白皮书中指出,当前企业级 AI 面临的核心挑战,已从技术可得性转向 AI 能否与既有系统融合并形成可验证、可持续的业务价值。白皮书基于彩讯股份在通信、金融、能源、交通等多个行业的长期实践经验,从行业观察、痛点分析出发,系统梳理了企业级 AI 应用在架构设计、数据治理、安全合规、应用集成等方面的关键问题,并提出了具有可操作性的解决思路与实践路径。 彩讯股份《企业级 AI 应用白皮书》并非一本单纯的技术手册,而是一份面向行业的参考性研究成果,旨在帮助企业客户、产业伙伴和管理者更理性地理解 AI 在企业中的角色与边界,重塑企业级软件的底层逻辑,推动企业级 AI 从“概念验证”走向“系统工程”。白皮书强调,企业级 AI 的价值释放,依赖于对业务场景的深度理解、对系统架构的整体规划,以及对长期演进路径的清晰判断。彩讯股份提出了“1+1+N”的整体落地路径,回应企业在 AI 推进过程中普遍面临的场景难选、系统难融与价值难证等现实问题。其中,“第一个 1”是一套面向企业真实环境的企服 AI 方法论,用于指导企业如何从业务场景出发,系统性推进 AI 应用;“第二个 1”是一套平台化的能力与工具集(Rich AIbox),为方法论落地提供工程化支撑;“N”则对应不同企业在具体业务场景中的实践沉淀与持续演进。通过这一结构,彩讯推动 AI 能够在既有业务体系中稳定运行、持续生长,并真正形成业务价值闭环。 作为长期深耕企业数字化与智能化服务的上市公司,彩讯股份近年来持续加大在 AI 与智算领域的投入,围绕企业级 AI 平台、智能体应用及行业解决方案,探索 AI 技术与企业业务深度融合的实践路径。彩讯股份表示,未来将以本次白皮书发布为起点,持续通过行业研究、实践案例分享与生态合作,推动企业级 AI 应用经验的沉淀与传播,为“人工智能+”背景下企业级软件与应用体系的演进提供长期参考。 《企业级 AI 应用白皮书》完整版,可扫码下载:
聚焦“企业级 AI 应用”,回应 AI 落地的真实问题
从技术热潮走向系统工程,用 AI 重新定义企业级软件
以白皮书为起点,持续推动企业级 AI 实践

一直用的是 Pro 订阅,没有用过 API 版本的 cc 。今天通过环境变量切换到 hodlai 的 API ,只发了两个对话就 16 刀了,是 cc API 的费用就这么多么?

Linux 系统突发宕机是运维人员和开发者经常面临的难题。面对复杂的内核日志和内存转储文件,传统分析方式往往耗时费力且需要深厚的内核知识。本文将介绍阿里云操作系统控制台的宕机智能诊断功能,并展示其如何通过 AI 技术简化宕机分析流程。 服务器宕机后,运维人员首先需要查看 dmesg 日志。然而,内核日志往往包含大量难以理解的信息: 这些信息对于普通运维人员来说难以理解,而且真正的问题往往隐藏在数千行日志中,需要花费大量时间排查。 传统的日志分析不仅需要深厚的技术背景,还要对内核各个子系统有深入理解。例如,hardlockup 错误需要了解 CPU 调度、中断处理、自旋锁等机制;hungtask 问题需要熟悉进程状态转换、等待队列、资源竞争等概念。 对于复杂问题,通常需要获取 VMCORE 文件进行深入分析。完整的 VMCORE 分析流程包括: 首先得加载 VMCORE 文件到调试工具; 然后执行各种复杂的调试命令; 手动分析各种输出信息; 最后尝试拼凑出问题的全貌。 整个过程可能需要数小时甚至数天,并且对分析人员的内核知识要求较高。VMCORE 分析涉及的技术层面非常广泛,包括内存布局分析、进程状态重建、内核数据结构解析等。例如,分析内存错误需要检查页面分配状态、分析内存损坏问题;排查死锁问题则需要重建锁依赖关系、分析调用栈行为。 定位到问题后,还需要找到对应的修复补丁。Linux 内核的 Git 仓库包含三十多年演进历史,累计超过百万次 commit,涉及上万名开发者。从如此庞大的代码库中找到与特定问题相关的修复,需要对内核演化历史有深入了解。人工筛选不仅效率低下,而且容易遗漏关键信息。 这三大挑战使得传统宕机分析流程复杂且耗时。阿里云操作系统控制台的宕机智能诊断功能旨在解决这些问题。 阿里云操作系统控制台(简称操作系统控制台)是一站式操作系统运维管理平台,提供了内存、I/O、网络、内核崩溃等强大的系统诊断能力,SysOM 是操作系统控制台的运维组件。但这些功能通常需要用户登录控制台,并具备一定的运维经验才能有效使用。 宕机智能诊断是阿里云操作系统控制台提供的系统场景诊断功能,基于大模型技术,融合了内核调试技术和丰富的故障案例,能够自动完成从日志分析到问题定位,再到补丁推荐的全流程,让原本复杂的宕机分析变得简单高效。 阿里云操作系统控制地址链接:https://alinux.console.aliyun.com/ 1. 智能日志解析,告别“天书” 再也不用对着复杂的内核日志发愁了!宕机智能诊断的日志解析功能能自动提取关键信息,为后续 AI 分析提供结构化的数据基础。 核心能力: 结构化信息提取:自动从日志中提取版本号、崩溃标题、进程名、函数名、RIP 寄存器值、CPU 编号、加载模块等关键字段; 调用栈分层解析:识别并分离 NMI 栈、IRQ 栈、任务栈三层调用关系,过滤无效函数,提取 top-3 关键函数调用链; 故障类型识别:支持 hardlockup、hungtask、memory_error、softlockup、hardware_error 等主流内核故障类型的快速判定; 错误日志聚合:自动按时间戳排序错误日志,过滤冗余调用栈信息,保留关键诊断线索。 实际效果:传统方式需要人工从数千行日志中逐行查找关键信息,而系统可以在秒级完成日志解析和结构化提取,将非结构化的 dmesg 日志转化为结构化的特征集合,为后续的 AI 诊断提供清晰的数据输入。 2. 专项诊断,精准打击 系统针对不同类型的内核问题设计了专属的诊断能力,深度集成 drgn 内核调试器,能够直接访问 VMCORE 中的内核数据结构,结合 AI 推理实现智能分析: Hardlockup 诊断:采用图遍历算法构建锁依赖图,自动检测循环等待和死锁场景,输出清晰的锁等待路径(如:CPU1→lockA→CPU2→lockB→CPU3→lockC→CPU1 形成死锁环路); Hungtask 诊断:实现链式追踪算法,从 D 状态进程开始逐级分析等待链,定位终端阻塞点(Terminal Holder),给出完整的资源等待路径; Memory Error 诊断:识别 use-after-free、空指针解引用、野指针等典型内存错误类型,追踪内存分配和释放路径; Softlockup 诊断:分析调度延迟、CPU 占用模式,检测软锁和响应超时问题。 每种诊断都遵循“算法提取数据骨架 + AI 补全推理逻辑”的模式,既保证分析的准确性,又实现诊断的智能化。 3. 智能补丁匹配,一步到位 宕机智能诊断采用了混合向量检索技术来进行补丁搜索。系统首先使用 text-embedding-v4 模型将问题描述转换为 1536 维的稠密向量和稀疏向量,在面向 Linux 内核历史提交构建的向量数据库中进行语义相似度检索。 检索过程分为两个阶段: 第一阶段-向量检索:通过向量数据库快速从海量 commit 中召回 top-k 个最相关的候选补丁; 第二阶段-智能排序:利用大模型技术对每个候选补丁进行深度分析,评估其与当前问题的相关性(1-10 分),并给出详细的相关性原因说明。 系统支持按内核版本进行过滤(如筛选 v5.10 及以上版本的补丁),帮助用户更精准地检索到适用于特定版本的修复方案。最终返回多个最相关的补丁,每个补丁都包含 commit ID、摘要、相关性评分和推荐理由。 以一个真实的生产环境 Hardlockup 故障为例,服务器突发系统无响应并崩溃。运维人员通过控制台发起诊断后,系统在 5 分钟内生成了完整的诊断报告。 报告包含了以下关键信息: 故障类型识别:自动判定为 Hardlockup 死锁问题; 死锁链路分析:识别出三方 CPU 间的循环等待关系,包括各 CPU 持有和等待的锁; 根因定位:指出导致死锁的关键代码路径和函数调用; 修复建议:提供 4 条针对性的缓解措施; 补丁推荐:从 Linux 内核百万级提交中检索出 3 个相关补丁,按相关性排序并说明推荐理由。 本次诊断中,系统首推的补丁正是实际修复该问题的补丁,其余 2 个推荐补丁也与故障症状高度匹配。对于这种复杂的多方死锁场景,传统人工分析通常需要数小时甚至数天,而宕机智能诊断在几分钟内完成了从问题分析到补丁推荐的全流程,大大降低了故障处理门槛和运维成本。 快速上手宕机智能诊断 宕机智能诊断功能支持使用 .rpm 包格式的主流 Linux 发行版,包括 Alibaba Cloud Linux、CentOS、Anolis OS、Rocky Linux、AlmaLinux 等。对于 Alibaba Cloud Linux、CentOS、Anolis OS 等发行版,系统会自动获取 debuginfo,降低使用成本。 推荐方式:通过 SysOM MCP 使用(AI 助手集成) SysOM MCP阿里云开源的系统诊断工具集,基于 Model Context Protocol 协议,将宕机智能诊断能力封装为标准化的 MCP 工具,可以通过 AI 助手(如 qwen-code)使用自然语言直接进行宕机诊断。 🔗 项目地址:https://github.com/alibaba/sysom_mcp。 请参考项目文档完成安装和配置。配置完成后,在 AI 助手中直接使用自然语言发起诊断: 示例 1:调用宕机智能诊断 说明: · API 接受的是 HTTP/HTTPS 下载链接,确保下载链接具有适当的访问权限,便于诊断服务下载和分析; · 对于 Rocky Linux、AlmaLinux 等其他发行版,需要额外提供 debuginfo 和 debuginfo-common 的下载链接。暂不支持使用 .deb 包格式的发行版(如 Ubuntu、Debian 等),该功能正在开发中。 示例 2:查询历史诊断任务 AI 助手会自动调用相应的 MCP 工具,并将诊断结果以易读的方式呈现。 高阶方式:直接调用 OpenAPI 接口 对于需要集成到自动化运维系统或自定义工作流的场景,可以直接调用 OpenAPI 接口。详细使用方式请参考操作系统控制台 OpenAPI 文档。 操作系统控制台 OpenAPI 文档链接: https://next.api.aliyun.com/api/SysOM/2023-12-30/CreateVmcoreDiagnosisTask Linux 宕机分析不再是少数专家的专利!阿里云操作系统控制台的宕机智能诊断功能通过 AI 技术与专业内核调试工具的深度融合,让每一位运维和开发都能轻松应对复杂的系统问题。 在这个追求高效运维的时代,拥有宕机智能诊断这样的功能,无疑会让你的工作事半功倍。无论是深夜排障还是日常维护,都能从容应对,再也不用为复杂的内核问题而头疼了。 如果你也想告别 Linux 宕机分析的烦恼,不妨试试阿里云操作系统控制台的宕机智能诊断功能,让 AI 成为你的得力助手! 若想使用更全面的 SysOM 功能,请登录阿里云操作系统控制台体验,地址: https://alinux.console.aliyun.com/。您在使用操作系统控制台的过程中,有任何疑问和建议,可以扫描下方二维码或搜索群号:94405014449 加入钉钉群反馈,欢迎大家扫码加入交流。 操作系统控制台钉钉交流群传统宕机分析的“三座大山”
第一座大山:日志分析如同“看天书”
[69518574.393036] Code: e8 38 ac e8 88 0b ff ff 0f 0b 48 c7 c7 d0 e8 38 ac e8 7a 0b ff ff 0f 0b 48 89 f2 48 89 fe 48 c7 c7 90 e8 38 ac e8 66 0b ff ff <0f> 0b 48 89 fe 48 c7 c7 58 e8 38 ac e8 55 0b ff ff 0f 0b 48 89 ee[69518574.393070] RSP: 0018:ffffb0d3c0a3bb98 EFLAGS: 00010282[69518574.393085] RAX: 0000000000000054 RBX: ffff9fbe07b158c0 RCX: 0000000000000000[69518574.394079] RDX: ffff9fbeddf703e0 RSI: ffff9fbeddf5fb40 RDI: ffff9fbeddf5fb40Kernel panic - not syncing: Fatal exception 第二座大山:VMCORE 分析耗时又费力
第三座大山:找补丁如同“寻宝游戏”
阿里云操作系统控制台宕机智能诊断
什么是宕机智能诊断?

三大核心能力
实际效果:Hardlockup 死锁问题的智能诊断
请帮我分析一个宕机问题,vmcore 下载链接:https://path/to/your/vmcore查看我最近 7 天的宕机诊断记录,并返回上一次的诊断结果总结

新春将至,美团技术年货如约而来。感谢这一路上,伙伴们的并肩前行与坚定支持!❤️ 时光荏苒,美团技术博客已经陪伴大家走过了 12 个年头。过去一年,美团技术团队在持续深耕中积累了诸多值得分享的实践案例与开源项目。尤其值得关注的是,美团 LongCat 团队在大模型开源领域取得了不少亮眼的成果,这一年,我们陆续发布了覆盖基座模型、图像、视频、语音等多个方向的开源产品与工具,持续助力 AI 技术共享与生态繁荣。截至目前,美团技术团队微信公众号已累计发布 640 余篇技术文章。 值此马年春节来临之际,我们精选了过去一年美团技术团队微信公众号发布的 40 多篇优质技术文章,精心汇编成一本近 600 页的电子书。谨以此作为一份特别的新年礼物,献给每一位热爱技术、持续探索的同学。祝大家在新年里,一「马」当先,「马」到成功! 这本电子书的内容涵盖大模型、开源、AI Coding、安全、数据库、智能硬件、AB实验等多个技术领域,同时收录了一些美团技术团队与高校的合作成果,以及被多个国际顶级会议收录的论文合集,希望能为大家的工作和学习带来一些启发与助力。也欢迎大家将这份电子书分享给更多志同道合、追求进步的伙伴,让我们一起携手共进,砥砺前行。 新的一年,愿大家继续乘风破浪,在挑战中铸就辉煌;以坚定的步伐,踏出属于自己的未来之路。 ❤️ 温馨提示 | 关注「美团技术团队」微信公众号,阅读更多技术干货! | 本文系美团技术团队出品,著作权归属美团。欢迎出于分享和交流等非商业目的转载或使用本文内容,敬请注明“内容转载自美团技术团队”。本文未经许可,不得进行商业性转载或者使用。任何商用行为,请发送邮件至 tech@meituan.com 申请授权。
如何获取
