为什么要做这个玩意儿

不知道大家有没有遇到过这种问题,用 LocalSend 时两台设备在现实中相距很近,也在同一个专用网络中,但因为接入的子网不同导致两台设备没法相互发现,不过可以手动添加 IP 来指定设备进行文件传输(比如咱实验室中的一台计算机连接的是有线网,但是我笔记本连接的是 WiFi,就没法互相发现,这台计算机和我的笔记本其实都在校园网中)。

  • 但是这两种接入方式分配的都是动态 IP 来着,可能过一段时间就变了。

LocalSend 协议 可以看到在发现设备时用的是 UDP 组播,而其他 REST API 用的是单播的 HTTP (S)。咱自己搜索了一下发现,校园网涉及到了 VLAN 和子网划分,不同 VLAN 对应了不同子网,组播被隔离在各个子网中,而单播则有三层设备的规则来跨子网进行传输,于是就有了上述的这种情况(无法组播发现设备,但是可以通过指定 IP 进行单播)。

用 Wireshark 抓包也能看到,组播包中 TTL=1,是无法被转发的。

正好最近学了 Go,就想熟悉一下这个语言,简单写个交换桥梁来解决这个问题,于是 LocalSend Switch 这个小工具就诞生了~

解决思路其实很简单,在每台有 LocalSend 的客户端上都启动 LocalSend Switch,捕获其发出的 UDP 组播包,取出其中的客户端信息通过单播进行转发 (转发途径的 Switch 节点可以是内网或者外网中有静态 IP 的节点),客户端信息最终会转发到其他的终端 Switch 节点手里,这些 Switch 节点会请求客户端信息中的地址和端口,通过 REST API 来代替 LocalSend 进行响应和注册。

组播捕获

客户端信息

客户端信息

客户端信息

注册 LocalSend D

LocalSend A

A

B

C

D

LocalSend D

比如上面这个例子就是 A, B, C, D 为四台主机上的 Switch 节点。其中 A 和 D 在允许单播的大局域网中,它们所在的主机有 LocalSend 客户端在运行;B 和 C 节点则纯担当转发角色,它们最好有静态 IP
A 捕获组播包后拆出其中的客户端信息进行转发,转发途径 B, C 节点最终到 D,D 于是向 LocalSend A 发出 LocalSend D 客户端的信息来进行注册。反之从 D 到 A 的过程也类似,是 A 向 LocalSend D 来发出注册请求,由此来实现互相发现。

简单来说 LocalSend Switch 充当的角色就有点类似于 BT 下载中的 Tracker 服务器了,但同时也会帮忙发送单播的注册请求,用于辅助 组播隔离、单播允许 的局域网子网之间的 LocalSend 客户端互相发现。

更多详细的实现和原理说明可以见 README: localsend-switch/README.zh_CN.md at main · SomeBottle/localsend-switch

项目地址

如果这个项目帮助到了大家,希望能给个 star ˋ(° ▽、°)

其他碎碎念

  1. 虽然传递的信息不算那么敏感,但每个 Switch 节点仍然支持配置一个对称加密密钥进行端侧 AES 加密,让传输的是密文。
  2. 为了尽量消除环路,每条客户端信息都带有 TTL 和唯一 ID。
  3. 支持开机启动,资源占用很低。

目前已经在咱实验室的计算机上实装了,现在传文件真的要轻松更多了 ╰( ̄ω ̄o)


📌 转载信息
原作者:
SomeBottle
转载时间:
2026/1/10 19:04:17

25.4.3 是目前的最新版。

第一次启动需要执行:

./EmEditor.exe /ol "./crack.txt"

Emeditor v25.4.5 便携版 cracked1

双界面均正常显示

已干掉联网

如果弹窗了可以留言。


更新了版本:

[One Drive]emed64_25.4.4_portable_patched.zip


更新了分析:
https://ctfer.me/posts/emeditor - 反盗版校验分析 /


📌 转载信息
转载时间:
2026/1/10 19:03:09

SpartanHost Monitor (Universal Edition)

一款专为 Spartan Host 设计的工业级库存监控系统,支持多平台 Linux 自动适配。提供交互式部署流程、自动邮件提醒及 RESTful API 支持,能够轻松完成库存监控应用的搭建。


开源一款 vps 监控面板脚本(用 Claude 写的)自学作品1 开源一款 vps 监控面板脚本(用 Claude 写的)自学作品2 开源一款 vps 监控面板脚本(用 Claude 写的)自学作品3

开源一款 vps 监控面板脚本(用 Claude 写的)自学作品4 开源一款 vps 监控面板脚本(用 Claude 写的)自学作品5 StyleSecurity


技术栈支持


核心特性

  • 全系统适配:一键支持 Ubuntu, Debian, CentOS, AlmaLinux, Rocky, Fedora。

  • 交互式部署:安装时动态配置邮箱及密码,实现零代码基础配置。

  • 智能提醒:支持 Gmail 等 SMTP 服务,内置防骚扰冷却机制。

  • 安全加固:管理密码支持自定义或强随机生成,接口受鉴权保护。

  • 进程守护:基于 PM2 实现开机自启、崩溃重启及实时日志监控。

  • RESTful API:预留库存数据及订阅者管理接口,方便二次开发。


快速开始

克隆项目 (Git 方式)

git clone https://github.com/yokopro/spartanhost-monitor.git
cd spartanhost-monitor

执行一键部署脚本

将自动识别系统环境并安装 Node.jsPM2

# 修复换行符并赋予权限
sed -i 's/\r$//' deploy.sh && chmod +x deploy.sh

# 运行交互式安装
./deploy.sh

查看管理密码

如果在安装时选择了随机生成密码,请运行以下命令查看密码:

pm2 logs spartan-monitor --lines 50 


运维管理指令

需求指令
实时日志pm2 logs spartan-monitor
状态面板pm2 status
重启应用pm2 restart spartan-monitor
停止监控pm2 stop spartan-monitor
资源监控pm2 monit
彻底卸载pm2 delete spartan-monitor && rm -rf $(pwd)


API 接口文档

系统默认运行在 3000 端口。

实时库存数据

  • Endpoint: GET /api/stock

  • 说明: 返回当前监控的所有产品及其库存状态。

查看订阅者清单

  • Endpoint: GET /api/subscribers

  • 认证: 需在 Request Header 中添加:

    password: 你的管理密码 

系统健康检查

  • Endpoint: GET /health


项目结构

├── public/                # Web 前端页面 (订阅及展示)
├── server.js              # 后端核心逻辑与 API 服务
├── config.js              # 自动生成的配置文件 (由 deploy.sh 生成)
├── deploy.sh              # 终极全能交互式部署脚本
├── package.json           # 项目依赖清单
└── subscribers.json       # 订阅用户数据存储 (本地 JSON) 


注意事项

  1. Gmail 用户

    • 请务必开启 “两步验证” 并使用 16 位应用专用密码,而非邮箱登录密码。
  2. 防火墙设置

    • 本脚本会自动尝试开放 3000 端口,若无法访问,请检查云服务商的安全组设置。
  3. 隐私保护

    • .gitignore 已默认忽略 config.js,请勿手动取消,防止授权码泄露至公共仓库。

Demo


📌 转载信息
原作者:
yongsoul
转载时间:
2026/1/10 19:01:22

这个软件用了好多年了,他和别的 rss 软件最大的不同就是,他不需要网站支持 rss,可以通过元素定位,自动识别当前关注的区域是否有更新,再进行推送,功能还是很强了,就是设置可能有些麻烦,不过也有好长时间没用了,主要是订阅的越多,无效信息就越多,就搁置了


刚去看了下现在要 VIP 才能无限订阅,免费只能 10 个,有点烦,本来试了下订阅 L 站效果还不错,他能关键字筛选,内置了浏览器,也能登录账号用自定义订阅关注列表,但是收费了就算了,不行让 ai 写个类似的软件有没有搞头


📌 转载信息
原作者:
yuezhong
转载时间:
2026/1/10 19:00:38

实用工具分享:MCP Toolbox 轻松实现查库、执行 SQL、造数据

Toolbox 一款便捷实用的工具,核心支持数据库查询、SQL 直接执行、快速造测试数据三大核心场景,能大幅提升数据相关工作与 AI 联动的效率~

一、下载与安装 MCP Toolbox

  1. 官方下载地址(请选择对应自身操作系统的版本):
    https://github.com/googleapis/genai-toolbox/releases
  2. 安装后赋予执行权限并验证版本(适用于 Mac/Linux 等类 Unix 系统):
# 赋予 toolbox 可执行权限 chmod +x toolbox

# 验证工具是否安装成功,输出版本号即代表可用
./toolbox --version

补充提示:Windows 系统无需执行 chmod 赋予权限操作,直接在命令行中运行 toolbox.exe --version 即可完成版本验证。

二、配置对接 AI 工具(以 Claude 为例)

通过以下 JSON 配置文件,实现 Claude 与 MCP Toolbox 的联动,核心配置 MySQL 数据库连接信息(其他数据库可参考官方文档进行扩展配置):

{ "mcpServers": { "mysql": { "command": "./PATH/TO/toolbox", // 替换为你的 toolbox 实际文件存放路径 "args": ["--prebuilt", "mysql", "--stdio"], "env": { "MYSQL_HOST": "", // 数据库主机地址,本地环境通常填写 127.0.0.1 "MYSQL_PORT": "", // 数据库端口,MySQL 默认端口为 3306 "MYSQL_DATABASE": "", // 要连接的目标数据库名称 "MYSQL_USER": "", // 数据库登录用户名 "MYSQL_PASSWORD": "" // 数据库登录密码 } } } } 

三、配置生效与使用

  1. 完整填写上述配置文件中的各项空缺(重点替换工具路径与数据库连接信息),填写完成后保存文件;
  2. 重启你的 Claude 工具(或对应的 AI 客户端);
  3. 重启完成后,即可在 Claude 中调用 MCP Toolbox 实现查库、执行 SQL、造测试数据等操作啦~

补充说明

  1. 除 MySQL 外,MCP Toolbox 还支持多种主流数据库,完整预构建工具列表可前往官方仓库查看;
  2. 若配置后无法正常连接数据库,优先排查:数据库服务是否正常启动、连接信息是否填写正确、toolbox 实际路径是否匹配;
  3. 项目官方仓库详情:GitHub - googleapis/genai-toolbox: MCP Toolbox for Databases is an open source MCP server for databases.

📌 转载信息
原作者:
geekjair
转载时间:
2026/1/10 19:00:16

本文通过一个真实的商品分类审核场景,详细讲解 Claude Code Subagent 的创建、调用,以及大规模数据处理时的上下文管理技巧。

背景

我需要维护一份商品标准化分类体系表。随着业务发展,商品清单不断增加,我需要定期检查:哪些商品还没有被现有分类覆盖?

手上有两个文件:

  • goods.txt:商品清单,一行一个商品名,约 5000 个
  • 标准化分类体系表.md:现有的分类表,markdown 表格格式

目标很简单:找出所有未被覆盖的商品,并给出分类建议

解决方案对比

面对这个需求,我尝试了三种方案:

方案 1:直接 Prompt 让 AI 处理

最直接的想法:把 goods.txt标准化分类体系表.md 都丢给 Claude,让它一次性处理。

核心问题:

  • 上下文溢出:5000 个商品 + 分类表 + 审核结果,轻松超出上下文限制
  • 输出不稳定:AI 处理到第 3000 个商品时,可能 "忘记" 前面的判断标准
  • 无法并行:只能串行处理,5000 个商品要等很久
  • 结果难以解析:AI 输出格式不一致,后续脚本难以处理

方案 2:使用 Skills

把审核逻辑封装成一个 Skill,让主 Agent 调用。

改进点:

  • Skill 可以复用,审核逻辑标准化
  • 可以分批处理,降低单次上下文压力

依然存在的问题:

  • 上下文累积:每批的输入输出仍然留在主对话中
  • 无法真正隔离:所有 Skill 调用共享主 Agent 的上下文
  • 并发受限:Skill 仍是串行执行,无法并行加速

方案 3:使用 Subagent(本文方案)

为审核任务创建独立的 Subagent,每个 Subagent 处理一批商品。

核心优势:

  • 上下文隔离:每个 Subagent 拥有独立的上下文,互不干扰
  • 可并行处理:多批审核可以同时进行(理论上)
  • 输出标准化:Subagent 严格按照定义的 JSON 格式输出
  • 主 Agent 轻量:主 Agent 只做调度,不接触数据内容

Subagent 方案

传统方案

📦 5000 商品挤在一个上下文

❌ AI 输出格式不稳定

⏳ 串行处理,效率低

🤖 主 Agent 直接处理数据

📦 每批 30 个,独立上下文

✅ 严格 JSON 格式输出

🚀 可批次并行处理

🎯 主 Agent 只做调度

什么是 Subagent?

简单来说,Subagent 就是一个可以被主 Agent 调用的 "专家助手"

你可以把它理解为:

  • 函数:定义好输入输出,主 Agent 调用时传参
  • 独立进程:拥有自己的上下文,不污染主 Agent
  • 专业顾问:每个 Subagent 可以有自己的专业领域和工具集

不过,不要太纠结概念。接下来通过实战,你会直观理解 Subagent 是怎么工作的。

为什么选择 Subagent?

最初我想直接让 Claude Code 处理,但很快发现问题:

  1. 上下文爆炸:5000 个商品 + 分类表 + 审核结果,轻松超出上下文限制
  2. 串行处理慢:逐个商品判断,效率太低
  3. 结果混乱:长对话中,Claude 容易 "忘记" 之前的判断标准

Subagent 天然解决这些问题:

痛点Subagent 方案
上下文爆炸每个 Subagent 独立上下文,互不干扰
处理效率批次并行处理
结果一致性每批独立审核,标准统一

实战开始

第一步:设计 Subagent

.claude/agents/ 目录下创建 category-reviewer.md

---
name: category-reviewer
description: 商品分类覆盖审核专家。当需要批量检查商品是否被现有分类表覆盖时使用。
tools: Read, Write
model: sonnet
---
你是商品分类覆盖审核专家。 ## 输入说明 调用时会提供: - batch_id: 批次编号
- input_
file: 商品列表文件路径 - output_file: 结果输出文件路径

## 执行步骤
1. 使用 Read 读取 input_
file,获取商品列表 2. 使用 Read 读取 `doc/goodscategoryreview/标准化分类体系表.md` 3. 逐一判断每个商品的分类覆盖情况 4. 将结果 JSON 写入 output_file
5. 回复确认信息

## 判断标准
- **covered**:商品名称能够明确归入现有某个分类
- **uncovered**:商品无法归入任何现有分类

## 输出格式
写入 output_
file 的 JSON: { "batch_id": "xxx",
"results": [
{"name": "商品A", "status": "covered", "matched_
category": "匹配的分类"}, {"name": "商品B", "status": "uncovered", "reason": "原因", "suggested_category": "建议分类"}
]
}
## 注意事项 - 每个商品都必须有一条记录,不要遗漏 - status 只能是 "covered" 或 "uncovered" - 相似商品的 suggested_category 保持一致

## 完成回复
只需回复:`✓ {batch_
id} 完成,已写入 {output_file}`

几个关键设计点:

  1. tools 精简:只给 ReadWrite,不需要 Bash 等其他工具
  2. 输入输出分离:通过文件路径传递数据,而不是直接传内容
  3. 明确输出格式:JSON 结构固定,方便后续脚本处理
  4. 简洁回复:只回复确认信息,不要长篇大论

第二步:上下文管理 —— 这是关键!

5000 个商品,如果直接让主 Agent 读取并分组,商品列表就会进入上下文。167 个批次的调用记录,又会持续膨胀上下文。

错误做法

1. 读取 goods.txt(5000 商品进入上下文)
2. 分组并逐批调用 subagent(调用记录堆积)

预估上下文:~150,000 字符,非常臃肿。

正确做法

核心原则:主 Agent 只做调度,不接触数据内容

1. 用脚本预处理数据(主 Agent 不读商品内容)
2. 主 Agent 只传递文件路径给 Subagent
3. 用脚本汇总结果(主 Agent 不读 batch 文件)

预估上下文:~20,000 字符,精简高效。

第三步:完整的主流程 Prompt

这是我最终优化后的 Prompt:

我需要找出商品清单中所有未被现有分类覆盖的商品。

## 文件路径
- 商品清单:doc/goodscategoryreview/goods.txt
- 分类表:doc/goodscategoryreview/标准化分类体系表.md
- 审核结果目录:doc/goodscategoryreview/review_output/

## 任务流程

### 第一步:准备工作
编写并执行 Python 脚本 `prepare.py`:
1. 创建 doc/goodscategoryreview/review_output/input/ 目录
2. 读取 goods.txt,按 30 个一批分组
3. 将每批商品写入单独文件:
   - doc/goodscategoryreview/review_output/input/batch_001.txt
   - doc/goodscategoryreview/review_output/input/batch_002.txt
   - ...
4. 输出批次总数到 doc/goodscategoryreview/review_output/batch_count.txt

### 第二步:批量审核
1. 读取 batch_count.txt 获取批次总数 N
2. 循环 i 从 1 到 N,对每个批次调用 category-reviewer subagent:

使用 category-reviewer subagent 审核:

batch_id: batch_{i:03d}
input_file: doc/goodscategoryreview/review_output/input/batch_{i:03d}.txt
output_file: doc/goodscategoryreview/review_output/batch_{i:03d}.json

注意:
- 不要读取 input 文件内容,只传递文件路径
- 不要读取 output 文件内容,只确认完成

### 第三步:汇总统计
编写并执行 Python 脚本 `summarize.py`:
1. 读取所有 batch_*.json
2. 只提取 status = "uncovered" 的记录
3. 按 suggested_category 分组
4. 统计总数、未覆盖数、覆盖率
5. 保存到 summary.json

### 第四步:生成报告
读取 summary.json(精简数据),生成 report.md:
- 审核概览
- 未覆盖商品清单(按建议分类分组)
- 分类调整建议

### 第五步:等待确认
展示对 标准化分类体系表.md 的修改建议,等待我确认后再执行修改。

## 关键约束
- 主对话中绝不读取商品列表原文
- 主对话中绝不读取 batch 输入/输出文件内容
- 所有数据处理通过 Python 脚本完成
- 只关注未覆盖的商品

请开始执行。

第四步:执行过程

执行后,Claude Code 会:

1. 生成预处理脚本 prepare.py

2. 逐批调用 Subagent

每个 Subagent 独立执行,主 Agent 只收到简短确认:

✓ batch_001 完成,已写入 doc/goodscategoryreview/review_output/batch_001.json
✓ batch_002 完成,已写入 doc/goodscategoryreview/review_output/batch_002.json
...

3. 生成汇总脚本 summarize.py

4. 输出最终报告

最终文件结构

doc/goodscategoryreview/
├── goods.txt                      # 原始商品清单
├── 标准化分类体系表.md              # 分类表
└── review_output/
    ├── input/
    │   ├── batch_001.txt          # 第1批输入
    │   ├── batch_002.txt          # 第2批输入
    │   └── ...
    ├── batch_001.json             # 第1批结果
    ├── batch_002.json             # 第2批结果
    ├── ...
    ├── batch_count.txt            # 批次总数
    ├── summary.json               # 汇总统计
    └── report.md                  # 最终报告 

进阶拓展:从 "主副二人组" 到 "多人团队"

本文的实战方案中,只有审核环节用了 Subagent,其他步骤(数据准备、汇总统计、报告生成)还是通过 Python 脚本完成的。

其实,我们可以把整个流程的每个环节都交给专门的 Subagent 处理,这样就形成了一个多人协作的 AI 团队:

AI 团队协作架构项目经理负责任务调度和协调 data-preparercategory-reviewerresult-mergerreport-generator 读取商品清单并分组批量审核商品分类合并审核结果并统计生成审核报告

踩坑与经验总结

踩坑 1:让 AI 直接计数

错误:让 Subagent 输出 “已覆盖数量: 25, 未覆盖数量: 5”

问题:AI 不擅长精确计数,容易出错

正确:让 Subagent 逐条输出每个商品的判断结果,用脚本统计数量

踩坑 2:主 Agent 读取 Subagent 输出

错误:每批完成后,主 Agent 读取 JSON 文件检查结果

问题:167 个批次的 JSON 内容全部进入上下文,直接爆炸

正确:主 Agent 只确认完成,最后用脚本统一汇总

踩坑 3:在调用时传递商品列表内容

错误

使用 category-reviewer subagent 审核:
products:
商品1
商品2
...(30个商品名)

问题:167 次调用 × 30 个商品名 = 大量内容进入主 Agent 上下文

正确:只传文件路径

使用 category-reviewer subagent 审核:
input_file: xxx/batch_001.txt

经验总结

原则说明
数据不入上下文大量数据通过文件传递,主 Agent 只传路径
脚本做重活分组、统计、汇总等操作交给 Python 脚本
Subagent 输出到文件不要让 Subagent 返回大量内容
只关注异常只汇总 "未覆盖" 的商品,忽略正常的
确认再执行修改重要文件前,先展示建议等待确认

Subagent 适用场景

通过这次实战,我总结了 Subagent 的最佳适用场景:

适合用 Subagent

  • 大量同质化任务(如本文的批量审核)
  • 需要隔离上下文的独立子任务
  • 可并行处理的工作
  • 需要专业化 prompt 的特定领域任务

不适合用 Subagent

  • 简单的一次性任务
  • 需要持续对话、多轮迭代的任务
  • 强依赖上下文连贯性的任务

结语

Subagent 是 Claude Code 中非常强大的功能,但用好它需要注意上下文管理。核心思路就是:

主 Agent 是调度员,不是搬运工。数据流转靠文件,不靠对话。

希望这篇实战分享对你有帮助。如果你也有类似的大规模数据处理场景,不妨试试 Subagent + 脚本的组合方案。


本文基于 Claude Code 实际使用经验撰写,欢迎交流讨论。


📌 转载信息
转载时间:
2026/1/10 18:59:58

这 2 天 拉小伙门入 google 家庭组遇到的问题:账号已经申请改资料变成了美国 但是还是没法加入美国群组

查看国家: https://policies.google.com/terms
查看支付方式: https://play.google.com/store/games
一直向下滑动 右下角能看到支付国家 就是因为这个地址和上方账号地址不一致导致无法加入

修改方式
https://wallet.google.com/wallet/u/0/settings?utm_source=pgc&utm_medium=website&utm_campaign=redirect

设置->支付资料->设置->滑倒最下面 关闭资料即可

ps:如果没有资料或者关闭资料后还是不行 那就去添加支付资料

支付资料银行卡卡什么都可以随便填 但是国家一定选美国 点击确定保存资料 是不是成功无所谓 这时候再去看支付国家就会变了

Claude Code Skill 话题这么火,我也来凑个热度 🚀

开发了一个 kube-audit-kit.

🛡️ 它能做什么:

  • 一键扫描 K8s 集群安全隐患
  • 基于 PSS/NSA/CIS 权威安全标准
  • 智能分组应用,静态扫描 + AI 深度分析
  • 覆盖 Pod 安全、RBAC 、网络策略、敏感数据等

🎯 解决什么痛点:

  • ❌ 手动翻 YAML 检查安全配置太耗时
  • ❌ 不清楚集群里有哪些违规配置
  • ❌ 想审计但怕影响生产环境
  • ✅ 纯只读操作,零侵入,3 分钟出报告

欢迎试用,Star 支持 ⭐️

https://github.com/crazygit/kube-audit-kit

背景

2025 年底的时候,我想要找一个能够帮我自动化执行浏览器任务的软件。但是在 agent 元年各种 agent 盛行,大吹特吹,演示视频似乎很厉害,但没有一个真正能用的。不是体验差,就是 token 消耗多价格高执行慢或者执行不稳定,成功率低。一怒之下,我就开始自己开发了,开发了几周经过了一小部分种子用户的体验和改进。现在可以这么说,browserwing 已经可以完成很多自动化任务了,通过 AI 辅助和 AI 的调度,帮你每天省下 x 个小时。

截屏 2026-01-10 11.59.28.png

ai_extract_mode.png

使用

演示

下面的演示,你也可以在 20 分钟内复刻实现,不是那种花里胡哨的但没用的演示。

题目是《淘宝内核组 001 号员工,20 年经验“小菜鸟”:我用 AI 写代码,但不担心“手艺”退化》,提到 AI 使用是最后一个提问:

CSDN:您个人在日常开发中,会使用类似 Cursor 大模型编程工具吗?您如何看待它对开发者“手艺”的影响?是颠覆性的助手,还是可能导致开发者基础能力退化的“慢性毒药”?

李勇:我是会使用到 Cursor ,还有字节的 Trae ,主要是在阅读代码时帮我解释一下某些简单函数的运行逻辑。实际工作中,这大大提高了我在学习一个全新内核子系统过程中的效率,确实很有用。
但是也要警惕这些工具出现幻觉,所以还需要具备一定的逻辑判断能力,不能完全相信这些编程工具的输出内容。
我本人不在意“手艺”退化的影响,毕竟大学毕业后我就已经不具备纸上写代码的能力了。
系统软件开发者,和普通的程序语言开发程序员的差别之一,是需要对整个系统有深刻的理解,然后除了实现功能外,还要兼顾考虑到硬件体系结构和软件架构相关的很多隐含的背景知识。可靠的辅助编程工具,可以将开发者从具体代码开发的繁琐细节中解放出来,更多的精力可以集中在代码思路、效率和更好的思路上,对 Linux 内核开发应该是会有积极的促进作用。但开发者个人要对最终的代码负责,要确保代码的品质,避免对 AI 工具的滥用。

?哪里有“我用 AI 写代码”了?还是说这时候把“读代码”归到“写代码”活动中了?

家里的宽带,打电话开通了公网 IP ,所以需要定时更新公网 IP ,防止重启后 dns 记录不更新。因为是托管在 cloudflare 上的域名,没有找到现成的工具,所以自己用 github copilot 写了一个脚本。自己测试了一下,比较符合预期:

./ddns_sync_public_ip.sh --setup-cron

添加到定时任务里面,就不用管了,默认每 5 分钟同步一次。

提示下antigravity增加周限额了,专门为 antigravity 而半价年付需要谨慎。

之前我一直在用老账号老提示“此账号无法订阅 Google One AI Pro”,变更过地址,一直不行,搁置许久。今天心血来潮又折腾了一下,终于搞定了。分享下处理步骤:

  1. 访问以下网址 https://policies.google.com/terms ,登录自己的账号即可查看账号当前的国家或地区,中国的话,请换区(注意,申请换区换区理由选“其他”;一年只能修改一次) ----- 换成功了,没有效果
  2. 看下“付款资料” https://pay.google.com/gp/w/home/settings ,看下付款地区是否有中国的,有的话就删除(底部有“关闭支付资料”按钮,可以删除当前默认的)。增加一个其他支持的国家的。
  3. 如果还是不行,看下是否开通过 google enterprise 的试用,如果有,请关闭 (之前有一个月的免费使用活动的羊毛,gemini 告诉我需要关闭)

完事儿,可以再重新进入 https://one.google.com/about/plans 页面试试看出现没出现半价包年的优惠。

能加载 RSS 分类,点击到具体 RSS 的时候就 500 错误了,
从 reddit 的反馈看,影响全球两百多个国家和地区的 Feedly 用户,嗯哼。
话说热度不行啊,V2EX 没有讨论,用户量应该没那么少啊。

自从去年 9 月大更新后,Feedly 的稳定性就变差了很多,这次也影响到了 APP 用户,说明是服务器炸了。
(嗯,我虽然因为 feedly 不修 bug ,叛逃去了 inoreader 但有点不适应,毕竟还没写用户脚本进行优化使用,结果叛逃第三天 Feedly 修复了 bug 所以又反叛回来了)

Error: 500 / server error / undefined

对了,可能有人要问,为什么我的界面不一样,看起来简洁许多……别问,问就是自己写的用户脚本/油猴脚本。

大家好,最近在调研微服务灰度发布的落地情况,发现一个矛盾:

需求背景

大厂(阿里、腾讯、字节等)已有成熟方案,但往往绑定自家 PaaS/注册中心/MQ ,且不开源或收费高;
开源社区方案(如基于 Spring Cloud + Nacos 的灰度)大多只覆盖 HTTP/RPC 同步调用,一遇到 异步线程/RocketMQ/Kafka 就断链;
更头疼的是,很多方案要求改业务代码(比如加 @Gray 注解、手动透传 header ),团队一多就推不动。
于是我在想:如果做一个真正零侵入(通过 Java Agent 或 Sidecar 实现)、自动透传灰度标签到 MQ 消息体、兼容主流注册中心 & 消息队列、
支持按用户/租户/IP 等多维度灰度的轻量级产品,目标用户是中小公司( 50 ~ 200 人技术团队),会有需求吗?

设想的产品特点

我们想打造一个更“轻量、易用、经济”的解决方案,初步设想:
低侵入/无侵入:尽可能通过 Agent 、Sidecar 等方式减少代码改动
完整链路支持:同步调用( HTTP/gRPC ) + 异步消息(主流 MQ ) + 数据库(影子表/库)
多云/混合云友好:不绑定特定云厂商,支持私有化部署
成本可控:预计为大厂方案的 1/3 或更低,提供透明定价

想问问 V 友们:

你们公司现在怎么做灰度发布?遇到过 MQ 或异步线程 断链问题吗?
如果有这样的工具,愿意试用 or 付费吗?心理价位多少?
最不能接受的缺陷是什么?(比如性能损耗 >5%?必须用特定注册中心?)
不卖课不引流,纯粹想验证下这个方向是否值得投入。感谢任何真实反馈!🙏
如果感兴趣,也可以留下邮箱,产品原型出来后可以优先体验

人在大马,需要经常访问国内家里的服务器(无公网 ip )
手上还有一台香港 CN2 机器
预期是手上的各种移动设备都能无缝访问内网,所以用上了 tailscale
目前尝试的方案:
大马——tailscale p2p——内网:可以打洞成功,但晚高峰几乎不可用
大马——tailscale——香港,香港 frps——hy2——内网 frpc:小火箭直接连 hy2 节点是正常的,但加入 tailscale 后就不行了,涉及到透明代理,折腾一下午没搞定,放弃
大马——tailscale——香港自建 derp+peer relay ——内网:可用,但不稳定,经常存在过一段时间不可用的情况

大马——tailscale——香港,香港 frpc——openvpn——内网 frps:这是多天尝试下来最好用的方案,但 openvpn 容易被识别,担心用两天就被封了

问 ai 也没啥好方案,求大佬们支招

Anthropic否认了关于封禁合法账户的报道,此前X平台上一则病毒式传播的帖子声称Claude的创建者因用户进行“氛围编程”而封禁其账号。

Claude Code是目前能力最强的AI编程助手之一,与Gemini CLI或Codex等工具相比,其应用也更为广泛。

随着其受欢迎程度的提升,也出现了大量恶搞行为和作为封禁“证据”传播的虚假截图。

在X平台的病毒式帖子中,用户分享了一张截图,声称Claude永久封禁了该账户并向当地当局分享了详细信息。

该信息被设计得令人恐慌,但Anthropic表示这与Claude实际向用户显示的任何内容都不符。

Anthropic在向BleepingComputer提供的声明中表示,该图片并非真实,公司不会使用此类语言或显示此类信息。

该公司补充说,该截图似乎是“每隔几个月就会流传一次”的伪造内容,并不准确。

但这并不意味着Claude用户不会受到限制。

与其他AI公司一样,Anthropic执行严格的规则以防止AI系统被滥用。

ChatGPT测试新功能:找工作、优化简历等

OpenAI正在测试名为"Jobs"的新功能,该功能可帮助用户探索职位、优化简历并规划职业生涯。这项功能是在ChatGPT获得健康仪表板支持后开始测试的。

目前看来,OpenAI正试图通过AI驱动功能打造"全能型"应用。

借助Jobs功能,用户可以要求ChatGPT优化简历或协助规划职业发展。

OpenAI表示用户可通过Jobs功能实现以下目标:
- 获取优化简历和定位建议
- 明确适合自身的职位及突出优势的方法
- 搜索并对比符合职业目标的机会

其他潜在功能尚不明确,但据BleepingComputer了解,该功能将类似新发布的健康功能。

ChatGPT健康功能为用户提供私密的健康对话空间,这也是该公司针对日益增长的ChatGPT健康咨询需求做出的尝试。

OpenAI宣布:"我们推出ChatGPT健康功能,这个专属体验将您的健康信息与ChatGPT智能安全结合,帮助您在健康管理中获取更充分信息、做好更周全准备并增强信心。"

若您已获得ChatGPT健康功能早期访问权限,在桌面端侧边栏和移动端汉堡菜单中会出现新的专属空间。

目前尚未知GPT Jobs功能的具体发布时间。