2026年1月

本文通过一个真实的商品分类审核场景,详细讲解 Claude Code Subagent 的创建、调用,以及大规模数据处理时的上下文管理技巧。

背景

我需要维护一份商品标准化分类体系表。随着业务发展,商品清单不断增加,我需要定期检查:哪些商品还没有被现有分类覆盖?

手上有两个文件:

  • goods.txt:商品清单,一行一个商品名,约 5000 个
  • 标准化分类体系表.md:现有的分类表,markdown 表格格式

目标很简单:找出所有未被覆盖的商品,并给出分类建议

解决方案对比

面对这个需求,我尝试了三种方案:

方案 1:直接 Prompt 让 AI 处理

最直接的想法:把 goods.txt标准化分类体系表.md 都丢给 Claude,让它一次性处理。

核心问题:

  • 上下文溢出:5000 个商品 + 分类表 + 审核结果,轻松超出上下文限制
  • 输出不稳定:AI 处理到第 3000 个商品时,可能 "忘记" 前面的判断标准
  • 无法并行:只能串行处理,5000 个商品要等很久
  • 结果难以解析:AI 输出格式不一致,后续脚本难以处理

方案 2:使用 Skills

把审核逻辑封装成一个 Skill,让主 Agent 调用。

改进点:

  • Skill 可以复用,审核逻辑标准化
  • 可以分批处理,降低单次上下文压力

依然存在的问题:

  • 上下文累积:每批的输入输出仍然留在主对话中
  • 无法真正隔离:所有 Skill 调用共享主 Agent 的上下文
  • 并发受限:Skill 仍是串行执行,无法并行加速

方案 3:使用 Subagent(本文方案)

为审核任务创建独立的 Subagent,每个 Subagent 处理一批商品。

核心优势:

  • 上下文隔离:每个 Subagent 拥有独立的上下文,互不干扰
  • 可并行处理:多批审核可以同时进行(理论上)
  • 输出标准化:Subagent 严格按照定义的 JSON 格式输出
  • 主 Agent 轻量:主 Agent 只做调度,不接触数据内容

Subagent 方案

传统方案

📦 5000 商品挤在一个上下文

❌ AI 输出格式不稳定

⏳ 串行处理,效率低

🤖 主 Agent 直接处理数据

📦 每批 30 个,独立上下文

✅ 严格 JSON 格式输出

🚀 可批次并行处理

🎯 主 Agent 只做调度

什么是 Subagent?

简单来说,Subagent 就是一个可以被主 Agent 调用的 "专家助手"

你可以把它理解为:

  • 函数:定义好输入输出,主 Agent 调用时传参
  • 独立进程:拥有自己的上下文,不污染主 Agent
  • 专业顾问:每个 Subagent 可以有自己的专业领域和工具集

不过,不要太纠结概念。接下来通过实战,你会直观理解 Subagent 是怎么工作的。

为什么选择 Subagent?

最初我想直接让 Claude Code 处理,但很快发现问题:

  1. 上下文爆炸:5000 个商品 + 分类表 + 审核结果,轻松超出上下文限制
  2. 串行处理慢:逐个商品判断,效率太低
  3. 结果混乱:长对话中,Claude 容易 "忘记" 之前的判断标准

Subagent 天然解决这些问题:

痛点Subagent 方案
上下文爆炸每个 Subagent 独立上下文,互不干扰
处理效率批次并行处理
结果一致性每批独立审核,标准统一

实战开始

第一步:设计 Subagent

.claude/agents/ 目录下创建 category-reviewer.md

---
name: category-reviewer
description: 商品分类覆盖审核专家。当需要批量检查商品是否被现有分类表覆盖时使用。
tools: Read, Write
model: sonnet
---
你是商品分类覆盖审核专家。 ## 输入说明 调用时会提供: - batch_id: 批次编号
- input_
file: 商品列表文件路径 - output_file: 结果输出文件路径

## 执行步骤
1. 使用 Read 读取 input_
file,获取商品列表 2. 使用 Read 读取 `doc/goodscategoryreview/标准化分类体系表.md` 3. 逐一判断每个商品的分类覆盖情况 4. 将结果 JSON 写入 output_file
5. 回复确认信息

## 判断标准
- **covered**:商品名称能够明确归入现有某个分类
- **uncovered**:商品无法归入任何现有分类

## 输出格式
写入 output_
file 的 JSON: { "batch_id": "xxx",
"results": [
{"name": "商品A", "status": "covered", "matched_
category": "匹配的分类"}, {"name": "商品B", "status": "uncovered", "reason": "原因", "suggested_category": "建议分类"}
]
}
## 注意事项 - 每个商品都必须有一条记录,不要遗漏 - status 只能是 "covered" 或 "uncovered" - 相似商品的 suggested_category 保持一致

## 完成回复
只需回复:`✓ {batch_
id} 完成,已写入 {output_file}`

几个关键设计点:

  1. tools 精简:只给 ReadWrite,不需要 Bash 等其他工具
  2. 输入输出分离:通过文件路径传递数据,而不是直接传内容
  3. 明确输出格式:JSON 结构固定,方便后续脚本处理
  4. 简洁回复:只回复确认信息,不要长篇大论

第二步:上下文管理 —— 这是关键!

5000 个商品,如果直接让主 Agent 读取并分组,商品列表就会进入上下文。167 个批次的调用记录,又会持续膨胀上下文。

错误做法

1. 读取 goods.txt(5000 商品进入上下文)
2. 分组并逐批调用 subagent(调用记录堆积)

预估上下文:~150,000 字符,非常臃肿。

正确做法

核心原则:主 Agent 只做调度,不接触数据内容

1. 用脚本预处理数据(主 Agent 不读商品内容)
2. 主 Agent 只传递文件路径给 Subagent
3. 用脚本汇总结果(主 Agent 不读 batch 文件)

预估上下文:~20,000 字符,精简高效。

第三步:完整的主流程 Prompt

这是我最终优化后的 Prompt:

我需要找出商品清单中所有未被现有分类覆盖的商品。

## 文件路径
- 商品清单:doc/goodscategoryreview/goods.txt
- 分类表:doc/goodscategoryreview/标准化分类体系表.md
- 审核结果目录:doc/goodscategoryreview/review_output/

## 任务流程

### 第一步:准备工作
编写并执行 Python 脚本 `prepare.py`:
1. 创建 doc/goodscategoryreview/review_output/input/ 目录
2. 读取 goods.txt,按 30 个一批分组
3. 将每批商品写入单独文件:
   - doc/goodscategoryreview/review_output/input/batch_001.txt
   - doc/goodscategoryreview/review_output/input/batch_002.txt
   - ...
4. 输出批次总数到 doc/goodscategoryreview/review_output/batch_count.txt

### 第二步:批量审核
1. 读取 batch_count.txt 获取批次总数 N
2. 循环 i 从 1 到 N,对每个批次调用 category-reviewer subagent:

使用 category-reviewer subagent 审核:

batch_id: batch_{i:03d}
input_file: doc/goodscategoryreview/review_output/input/batch_{i:03d}.txt
output_file: doc/goodscategoryreview/review_output/batch_{i:03d}.json

注意:
- 不要读取 input 文件内容,只传递文件路径
- 不要读取 output 文件内容,只确认完成

### 第三步:汇总统计
编写并执行 Python 脚本 `summarize.py`:
1. 读取所有 batch_*.json
2. 只提取 status = "uncovered" 的记录
3. 按 suggested_category 分组
4. 统计总数、未覆盖数、覆盖率
5. 保存到 summary.json

### 第四步:生成报告
读取 summary.json(精简数据),生成 report.md:
- 审核概览
- 未覆盖商品清单(按建议分类分组)
- 分类调整建议

### 第五步:等待确认
展示对 标准化分类体系表.md 的修改建议,等待我确认后再执行修改。

## 关键约束
- 主对话中绝不读取商品列表原文
- 主对话中绝不读取 batch 输入/输出文件内容
- 所有数据处理通过 Python 脚本完成
- 只关注未覆盖的商品

请开始执行。

第四步:执行过程

执行后,Claude Code 会:

1. 生成预处理脚本 prepare.py

2. 逐批调用 Subagent

每个 Subagent 独立执行,主 Agent 只收到简短确认:

✓ batch_001 完成,已写入 doc/goodscategoryreview/review_output/batch_001.json
✓ batch_002 完成,已写入 doc/goodscategoryreview/review_output/batch_002.json
...

3. 生成汇总脚本 summarize.py

4. 输出最终报告

最终文件结构

doc/goodscategoryreview/
├── goods.txt                      # 原始商品清单
├── 标准化分类体系表.md              # 分类表
└── review_output/
    ├── input/
    │   ├── batch_001.txt          # 第1批输入
    │   ├── batch_002.txt          # 第2批输入
    │   └── ...
    ├── batch_001.json             # 第1批结果
    ├── batch_002.json             # 第2批结果
    ├── ...
    ├── batch_count.txt            # 批次总数
    ├── summary.json               # 汇总统计
    └── report.md                  # 最终报告 

进阶拓展:从 "主副二人组" 到 "多人团队"

本文的实战方案中,只有审核环节用了 Subagent,其他步骤(数据准备、汇总统计、报告生成)还是通过 Python 脚本完成的。

其实,我们可以把整个流程的每个环节都交给专门的 Subagent 处理,这样就形成了一个多人协作的 AI 团队:

AI 团队协作架构项目经理负责任务调度和协调 data-preparercategory-reviewerresult-mergerreport-generator 读取商品清单并分组批量审核商品分类合并审核结果并统计生成审核报告

踩坑与经验总结

踩坑 1:让 AI 直接计数

错误:让 Subagent 输出 “已覆盖数量: 25, 未覆盖数量: 5”

问题:AI 不擅长精确计数,容易出错

正确:让 Subagent 逐条输出每个商品的判断结果,用脚本统计数量

踩坑 2:主 Agent 读取 Subagent 输出

错误:每批完成后,主 Agent 读取 JSON 文件检查结果

问题:167 个批次的 JSON 内容全部进入上下文,直接爆炸

正确:主 Agent 只确认完成,最后用脚本统一汇总

踩坑 3:在调用时传递商品列表内容

错误

使用 category-reviewer subagent 审核:
products:
商品1
商品2
...(30个商品名)

问题:167 次调用 × 30 个商品名 = 大量内容进入主 Agent 上下文

正确:只传文件路径

使用 category-reviewer subagent 审核:
input_file: xxx/batch_001.txt

经验总结

原则说明
数据不入上下文大量数据通过文件传递,主 Agent 只传路径
脚本做重活分组、统计、汇总等操作交给 Python 脚本
Subagent 输出到文件不要让 Subagent 返回大量内容
只关注异常只汇总 "未覆盖" 的商品,忽略正常的
确认再执行修改重要文件前,先展示建议等待确认

Subagent 适用场景

通过这次实战,我总结了 Subagent 的最佳适用场景:

适合用 Subagent

  • 大量同质化任务(如本文的批量审核)
  • 需要隔离上下文的独立子任务
  • 可并行处理的工作
  • 需要专业化 prompt 的特定领域任务

不适合用 Subagent

  • 简单的一次性任务
  • 需要持续对话、多轮迭代的任务
  • 强依赖上下文连贯性的任务

结语

Subagent 是 Claude Code 中非常强大的功能,但用好它需要注意上下文管理。核心思路就是:

主 Agent 是调度员,不是搬运工。数据流转靠文件,不靠对话。

希望这篇实战分享对你有帮助。如果你也有类似的大规模数据处理场景,不妨试试 Subagent + 脚本的组合方案。


本文基于 Claude Code 实际使用经验撰写,欢迎交流讨论。


📌 转载信息
转载时间:
2026/1/10 18:59:58

这 2 天 拉小伙门入 google 家庭组遇到的问题:账号已经申请改资料变成了美国 但是还是没法加入美国群组

查看国家: https://policies.google.com/terms
查看支付方式: https://play.google.com/store/games
一直向下滑动 右下角能看到支付国家 就是因为这个地址和上方账号地址不一致导致无法加入

修改方式
https://wallet.google.com/wallet/u/0/settings?utm_source=pgc&utm_medium=website&utm_campaign=redirect

设置->支付资料->设置->滑倒最下面 关闭资料即可

ps:如果没有资料或者关闭资料后还是不行 那就去添加支付资料

支付资料银行卡卡什么都可以随便填 但是国家一定选美国 点击确定保存资料 是不是成功无所谓 这时候再去看支付国家就会变了

Claude Code Skill 话题这么火,我也来凑个热度 🚀

开发了一个 kube-audit-kit.

🛡️ 它能做什么:

  • 一键扫描 K8s 集群安全隐患
  • 基于 PSS/NSA/CIS 权威安全标准
  • 智能分组应用,静态扫描 + AI 深度分析
  • 覆盖 Pod 安全、RBAC 、网络策略、敏感数据等

🎯 解决什么痛点:

  • ❌ 手动翻 YAML 检查安全配置太耗时
  • ❌ 不清楚集群里有哪些违规配置
  • ❌ 想审计但怕影响生产环境
  • ✅ 纯只读操作,零侵入,3 分钟出报告

欢迎试用,Star 支持 ⭐️

https://github.com/crazygit/kube-audit-kit

背景

2025 年底的时候,我想要找一个能够帮我自动化执行浏览器任务的软件。但是在 agent 元年各种 agent 盛行,大吹特吹,演示视频似乎很厉害,但没有一个真正能用的。不是体验差,就是 token 消耗多价格高执行慢或者执行不稳定,成功率低。一怒之下,我就开始自己开发了,开发了几周经过了一小部分种子用户的体验和改进。现在可以这么说,browserwing 已经可以完成很多自动化任务了,通过 AI 辅助和 AI 的调度,帮你每天省下 x 个小时。

截屏 2026-01-10 11.59.28.png

ai_extract_mode.png

使用

演示

下面的演示,你也可以在 20 分钟内复刻实现,不是那种花里胡哨的但没用的演示。

题目是《淘宝内核组 001 号员工,20 年经验“小菜鸟”:我用 AI 写代码,但不担心“手艺”退化》,提到 AI 使用是最后一个提问:

CSDN:您个人在日常开发中,会使用类似 Cursor 大模型编程工具吗?您如何看待它对开发者“手艺”的影响?是颠覆性的助手,还是可能导致开发者基础能力退化的“慢性毒药”?

李勇:我是会使用到 Cursor ,还有字节的 Trae ,主要是在阅读代码时帮我解释一下某些简单函数的运行逻辑。实际工作中,这大大提高了我在学习一个全新内核子系统过程中的效率,确实很有用。
但是也要警惕这些工具出现幻觉,所以还需要具备一定的逻辑判断能力,不能完全相信这些编程工具的输出内容。
我本人不在意“手艺”退化的影响,毕竟大学毕业后我就已经不具备纸上写代码的能力了。
系统软件开发者,和普通的程序语言开发程序员的差别之一,是需要对整个系统有深刻的理解,然后除了实现功能外,还要兼顾考虑到硬件体系结构和软件架构相关的很多隐含的背景知识。可靠的辅助编程工具,可以将开发者从具体代码开发的繁琐细节中解放出来,更多的精力可以集中在代码思路、效率和更好的思路上,对 Linux 内核开发应该是会有积极的促进作用。但开发者个人要对最终的代码负责,要确保代码的品质,避免对 AI 工具的滥用。

?哪里有“我用 AI 写代码”了?还是说这时候把“读代码”归到“写代码”活动中了?

家里的宽带,打电话开通了公网 IP ,所以需要定时更新公网 IP ,防止重启后 dns 记录不更新。因为是托管在 cloudflare 上的域名,没有找到现成的工具,所以自己用 github copilot 写了一个脚本。自己测试了一下,比较符合预期:

./ddns_sync_public_ip.sh --setup-cron

添加到定时任务里面,就不用管了,默认每 5 分钟同步一次。

提示下antigravity增加周限额了,专门为 antigravity 而半价年付需要谨慎。

之前我一直在用老账号老提示“此账号无法订阅 Google One AI Pro”,变更过地址,一直不行,搁置许久。今天心血来潮又折腾了一下,终于搞定了。分享下处理步骤:

  1. 访问以下网址 https://policies.google.com/terms ,登录自己的账号即可查看账号当前的国家或地区,中国的话,请换区(注意,申请换区换区理由选“其他”;一年只能修改一次) ----- 换成功了,没有效果
  2. 看下“付款资料” https://pay.google.com/gp/w/home/settings ,看下付款地区是否有中国的,有的话就删除(底部有“关闭支付资料”按钮,可以删除当前默认的)。增加一个其他支持的国家的。
  3. 如果还是不行,看下是否开通过 google enterprise 的试用,如果有,请关闭 (之前有一个月的免费使用活动的羊毛,gemini 告诉我需要关闭)

完事儿,可以再重新进入 https://one.google.com/about/plans 页面试试看出现没出现半价包年的优惠。

能加载 RSS 分类,点击到具体 RSS 的时候就 500 错误了,
从 reddit 的反馈看,影响全球两百多个国家和地区的 Feedly 用户,嗯哼。
话说热度不行啊,V2EX 没有讨论,用户量应该没那么少啊。

自从去年 9 月大更新后,Feedly 的稳定性就变差了很多,这次也影响到了 APP 用户,说明是服务器炸了。
(嗯,我虽然因为 feedly 不修 bug ,叛逃去了 inoreader 但有点不适应,毕竟还没写用户脚本进行优化使用,结果叛逃第三天 Feedly 修复了 bug 所以又反叛回来了)

Error: 500 / server error / undefined

对了,可能有人要问,为什么我的界面不一样,看起来简洁许多……别问,问就是自己写的用户脚本/油猴脚本。

大家好,最近在调研微服务灰度发布的落地情况,发现一个矛盾:

需求背景

大厂(阿里、腾讯、字节等)已有成熟方案,但往往绑定自家 PaaS/注册中心/MQ ,且不开源或收费高;
开源社区方案(如基于 Spring Cloud + Nacos 的灰度)大多只覆盖 HTTP/RPC 同步调用,一遇到 异步线程/RocketMQ/Kafka 就断链;
更头疼的是,很多方案要求改业务代码(比如加 @Gray 注解、手动透传 header ),团队一多就推不动。
于是我在想:如果做一个真正零侵入(通过 Java Agent 或 Sidecar 实现)、自动透传灰度标签到 MQ 消息体、兼容主流注册中心 & 消息队列、
支持按用户/租户/IP 等多维度灰度的轻量级产品,目标用户是中小公司( 50 ~ 200 人技术团队),会有需求吗?

设想的产品特点

我们想打造一个更“轻量、易用、经济”的解决方案,初步设想:
低侵入/无侵入:尽可能通过 Agent 、Sidecar 等方式减少代码改动
完整链路支持:同步调用( HTTP/gRPC ) + 异步消息(主流 MQ ) + 数据库(影子表/库)
多云/混合云友好:不绑定特定云厂商,支持私有化部署
成本可控:预计为大厂方案的 1/3 或更低,提供透明定价

想问问 V 友们:

你们公司现在怎么做灰度发布?遇到过 MQ 或异步线程 断链问题吗?
如果有这样的工具,愿意试用 or 付费吗?心理价位多少?
最不能接受的缺陷是什么?(比如性能损耗 >5%?必须用特定注册中心?)
不卖课不引流,纯粹想验证下这个方向是否值得投入。感谢任何真实反馈!🙏
如果感兴趣,也可以留下邮箱,产品原型出来后可以优先体验

人在大马,需要经常访问国内家里的服务器(无公网 ip )
手上还有一台香港 CN2 机器
预期是手上的各种移动设备都能无缝访问内网,所以用上了 tailscale
目前尝试的方案:
大马——tailscale p2p——内网:可以打洞成功,但晚高峰几乎不可用
大马——tailscale——香港,香港 frps——hy2——内网 frpc:小火箭直接连 hy2 节点是正常的,但加入 tailscale 后就不行了,涉及到透明代理,折腾一下午没搞定,放弃
大马——tailscale——香港自建 derp+peer relay ——内网:可用,但不稳定,经常存在过一段时间不可用的情况

大马——tailscale——香港,香港 frpc——openvpn——内网 frps:这是多天尝试下来最好用的方案,但 openvpn 容易被识别,担心用两天就被封了

问 ai 也没啥好方案,求大佬们支招

Anthropic否认了关于封禁合法账户的报道,此前X平台上一则病毒式传播的帖子声称Claude的创建者因用户进行“氛围编程”而封禁其账号。

Claude Code是目前能力最强的AI编程助手之一,与Gemini CLI或Codex等工具相比,其应用也更为广泛。

随着其受欢迎程度的提升,也出现了大量恶搞行为和作为封禁“证据”传播的虚假截图。

在X平台的病毒式帖子中,用户分享了一张截图,声称Claude永久封禁了该账户并向当地当局分享了详细信息。

该信息被设计得令人恐慌,但Anthropic表示这与Claude实际向用户显示的任何内容都不符。

Anthropic在向BleepingComputer提供的声明中表示,该图片并非真实,公司不会使用此类语言或显示此类信息。

该公司补充说,该截图似乎是“每隔几个月就会流传一次”的伪造内容,并不准确。

但这并不意味着Claude用户不会受到限制。

与其他AI公司一样,Anthropic执行严格的规则以防止AI系统被滥用。

ChatGPT测试新功能:找工作、优化简历等

OpenAI正在测试名为"Jobs"的新功能,该功能可帮助用户探索职位、优化简历并规划职业生涯。这项功能是在ChatGPT获得健康仪表板支持后开始测试的。

目前看来,OpenAI正试图通过AI驱动功能打造"全能型"应用。

借助Jobs功能,用户可以要求ChatGPT优化简历或协助规划职业发展。

OpenAI表示用户可通过Jobs功能实现以下目标:
- 获取优化简历和定位建议
- 明确适合自身的职位及突出优势的方法
- 搜索并对比符合职业目标的机会

其他潜在功能尚不明确,但据BleepingComputer了解,该功能将类似新发布的健康功能。

ChatGPT健康功能为用户提供私密的健康对话空间,这也是该公司针对日益增长的ChatGPT健康咨询需求做出的尝试。

OpenAI宣布:"我们推出ChatGPT健康功能,这个专属体验将您的健康信息与ChatGPT智能安全结合,帮助您在健康管理中获取更充分信息、做好更周全准备并增强信心。"

若您已获得ChatGPT健康功能早期访问权限,在桌面端侧边栏和移动端汉堡菜单中会出现新的专属空间。

目前尚未知GPT Jobs功能的具体发布时间。

微软正在测试一项新策略,允许IT管理员在受管设备上卸载由AI驱动的Copilot数字助手。

这项名为RemoveMicrosoftCopilotApp的新策略已于今日开始向Dev和Beta Insider通道的系统推送,这些系统需已安装Windows 11 Insider预览版Build 26220.7535(KB5072046)。

正如Windows Insider团队今日在博客文章中解释的,当通过Microsoft Intune或System Center Configuration Manager(SCCM)管理的终端启用该策略后,Copilot将被卸载。

新策略将适用于同时安装了Microsoft 365 Copilot和Microsoft Copilot的设备,且Microsoft Copilot应用并非由用户安装,且在最近28天内未被启动过。

"管理员现在可以通过启用名为RemoveMicrosoftCopilotApp的新策略,以定向方式为用户卸载Microsoft Copilot,"Windows Insider团队表示。

"如果启用此策略,Microsoft Copilot应用将被卸载一次。用户仍可选择重新安装。该策略适用于企业版、专业版和教育版SKU。"

"要启用此策略,请打开组策略编辑器并转到:用户配置 -> 管理模板 -> Windows AI -> 移除Microsoft Copilot应用。"

Windows Insider团队还在努力解决此预览版中的若干问题,包括与音频设备交互时设置应用崩溃的问题,以及点击开始菜单无法启动的问题(尽管使用Windows键可以打开),该问题可能也会影响通知中心(使用WIN + N打开)和快速设置(使用WIN + A打开)。

黑客正系统性地搜寻配置不当的代理服务器,以获取对商用大型语言模型(LLM)服务的访问权限。

自去年12月下旬开始的一场持续攻击活动中,攻击者已探测超过73个LLM端点并生成了逾8万次会话。

据威胁监控平台GreyNoise分析,威胁行为者使用低噪声提示词查询端点,试图在不触发安全警报的情况下确定所访问的AI模型。

灰帽行动

GreyNoise在报告中指出,过去四个月中其Ollama蜜罐共捕获91,403次攻击,这些攻击分属两个不同的活动集群。

其中一项行动始于去年10月且仍在持续,在圣诞节期间的48小时内出现1,688次会话峰值。该行动利用服务器端请求伪造(SSRF)漏洞,迫使服务器连接至攻击者控制的外部基础设施。

研究人员表示,该行动的攻击者通过利用Ollama的模型拉取功能,通过MediaURL参数注入恶意注册表URL和Twilio短信网络钩子集成来实现其目标。

但根据所用工具判断,GreyNoise指出该活动很可能源自安全研究人员或漏洞赏金猎人,因为他们使用了ProjectDiscovery的OAST(带外应用安全测试)基础设施——这类设施通常用于漏洞评估。

"OAST回调是标准的漏洞研究技术。但其规模和圣诞节时间点表明,这是游走于灰色地带的边界测试行为" —— GreyNoise

遥测数据显示,该活动源自27个国家的62个IP地址,这些地址呈现VPS特征而非僵尸网络活动迹象。

活动时间线
Activity timeline
来源:GreyNoise

威胁行为者活动

GreyNoise观察到第二场始于12月28日的攻击活动,检测到攻击者正通过高频率枚举来识别暴露或配置不当的LLM端点。

在11天内,该活动产生了80,469次会话,两个IP地址系统性地使用OpenAI兼容格式和Google Gemini API格式探测了超过73个模型端点。

目标模型列表涵盖所有主流供应商,包括:
- OpenAI(GPT-4o及其变体)
- Anthropic(Claude Sonnet、Opus、Haiku)
- Meta(Llama 3.x)
- DeepSeek(DeepSeek-R1)
- Google(Gemini)
- Mistral
- 阿里巴巴(Qwen)
- xAI(Grok)

为避免测试LLM服务访问权限时触发安全警报,攻击者使用了简短问候语、空输入或事实性问答等无害查询。

GreyNoise表示,该扫描基础设施此前曾与大规模漏洞利用活动关联,这表明枚举行为是有组织侦察行动的一部分,旨在编制可访问LLM服务的目录。

GreyNoise报告未声称观察到发现后的利用行为、数据窃取或模型滥用,但该活动仍暗示着恶意意图。

研究人员警告称:"八万次枚举请求意味着资源投入",并补充道:"威胁行为者不会在没有使用计划的情况下进行如此大规模的基础设施测绘。"

为防御此类活动,建议将Ollama模型拉取限制在可信注册表,实施出口过滤,并在DNS层级拦截已知的OAST回调域名。

针对枚举的防护措施包括:对可疑自治系统号(ASN)进行速率限制,以及监控与自动化扫描工具关联的JA4网络指纹。

美国检方指控一名伊利诺伊州男子策划网络钓鱼活动,通过入侵近600名女性的Snapchat账户窃取私密照片并在网上出售。

据指控,在2020年5月至2021年2月期间,26岁的被告凯尔·斯瓦拉采用多种社交工程手段获取受害者的电子邮件、电话号码和Snapchat用户名。

通过这些信息,斯瓦拉冒充Snap官方代表向超过4500个目标发送短信索取验证码,成功获取约570名受害者的账户凭证,从而侵入其Snapchat账户。

根据法庭文件显示,“他指示潜在共谋者通过其他更安全的渠道(如加密通讯应用Kik)与他联系”。

其客户之一史蒂夫·韦特曾是东北大学田径教练,他雇佣斯瓦拉入侵东北大学学生以及该校女子田径队或足球队成员的Snapchat账户。韦特因针对至少128名女性实施性勒索、网络跟踪和网络欺诈,已于2024年3月被判处五年监禁。

检方指出,除有偿黑客服务外,斯瓦拉还曾独立针对缅因州科尔比学院的学生和伊利诺伊州普兰菲尔德的女性进行攻击。

相关指控面临重刑:加重身份盗窃罪最低判处两年监禁,电信欺诈罪最高可判处20年监禁。计算机欺诈和共谋罪最高可判处五年监禁,虚假陈述罪最高可判处八年监禁。

联邦调查人员呼吁潜在受害者或掌握案件线索者通过此在线表格联系FBI。

V 站上关于洗碗机的讨论似乎隔三岔五就会冒出一波,发表意见的基本分成两派,支持者赞不绝口,反对者嗤之以鼻。相较于其他常见的白色家电,好像也就只有洗碗机能引发如此争论,今天再见到这个话题,我想谈谈自己的看法。
我和先生搬进新房四五个月,我先生是医生,而我居家办公,因此日常家务基本都是我来负责,处理不了的再交给他做。装修之初,我就下定决心,一定要把零碎家务降到最低,比如大板通铺,不装房间门,挑选扫地机器人能通过的家具,全屋新风,利用近门次卧做衣帽兼储物,避免灰尘和杂物等,而在厨房,洗碗机和垃圾处理器就是我的解决方案。
我们家的饭比较简单规律,早上鸡蛋牛奶三明治,中午炒个热菜配白饭,晚上两菜或三菜一汤看心情。在租房期间,每天做饭是我最不想面对的事情,不但是因为小厨房施展不开,而且处理厨余和洗碗也要占掉半个小时,我认为这是纯粹的垃圾时间,本来做饭就是件费功夫的事情,饭后还要忙活一通才能休息,更别提还要触碰那些脏污油腻了。
厨余垃圾处理器和洗碗机很好的解决了我的痛点,搬进新家后,我在准备食材时可以直接将边角料丢进水槽,饭后再打开垃圾处理器,将盘中厨余和边角料一并打碎冲走,码放餐具并启动洗碗机,最后擦下餐桌和操作台,命令扫地机器人开始选区清洁即可,全程用不了五分钟。
对比前后,洗碗机每天为我节省二十五分钟左右,虽然不少人会觉得这点时间无足轻重,但对我来说,它实实在在的把我从厨房的油腻中解放出来,我可以只和烹饪打交道,而不是一边当厨子一边打下手,干活干的像个碎催。
如此一来,我和先生也终于可以保持几乎同步的节奏,一起休息,一起娱乐,两人晚饭后各处一室的情况几乎没有了,夫妻感情也升温了一些。
我的结论是,洗碗机是否有用,其实很吃家庭情况,也需要做好事前准备,如果你的家里也是选定一个人做饭,而且餐食规律不复杂,无论是你还是你的家人,一台合适大小的洗碗机是可以切实提升幸福感的。
在正式使用洗碗机之前,最好学习摆放和其他正确用法,如果条件允许,可以把餐具换成更容易摆放的款式,建议用一些足够薄而且边缘平坦的碗碟,不留残水所以很容易洗净。
对不喜欢洗碗机的人,可能是家里用到的餐具较多,做饭相对复杂,预处理和摆放不能节省太多时间,清洗效果也不甚理想,或者大家庭可以更多分担家务,因此我反而认为,洗碗机对双收入的小家庭的帮助是更加显著的。
一点拙见,大半夜的就写到这吧,希望大家喜欢。