2026年1月

在我的上一篇文章中阐述了如何配置 clash 防止 AI 降智访问的方法,但是经过实战我发现机场连接本身存在动态更新的特性,只要更新,我们写入的东西就没了,但是我摸索出了新的方法

点击订阅,右键选择扩展脚本
然后自定义扩展脚本

function main(config) {
  // -------------------------------------------------------
  // 第一步:定义你的落地节点(我的是那个美国家宽 IP)
  // -------------------------------------------------------
  const landingProxy = {
    "name": "家宽",
    "type": "socks5",
    "server": "秘密",
    "port": 12324,
    // 注意:如果你的 SOCKS5 有账号密码,请填写在引号内;没有则留空
    "username": "秘密", 
    "password": "秘密", 
    // 关键参数:指定前置代理为“运载火箭”策略组
    "dialer-proxy": "运载火箭" 
  };

  // 将这个自定义节点加入到节点列表中
  if (!config['proxies']) {
    config['proxies'] = [];
  }
  config['proxies'].push(landingProxy);

  // -------------------------------------------------------
  // 第二步:定义“运载火箭”策略组(负责过墙的中转组)
  // -------------------------------------------------------
  
  // 这里我们需要从机场原本的节点里,筛选出你想要的“IEPL”节点
  // 假设 config.proxies 里包含了机场的所有节点
  // 我们用正则筛选名字里包含 "IEPL""专线" 的节点
  // 如果你想用机场所有的节点,可以直接引用机场原本的组名(通常叫 "Proxy""节点选择")
  
  const providerProxies = config['proxies']
    .filter(p => /IEPL|专线/.test(p.name)) // 筛选名字包含 IEPL 或 专线 的节点
    .map(p => p.name);

  const tunnelGroup = {
    "name": "运载火箭",
    "type": "select", // 手动选择线路,如果想自动测速换成 url-test
    "proxies": providerProxies.length > 0 ? providerProxies : ["DIRECT"] // 防止筛选为空报错
  };

  // -------------------------------------------------------
  // 第三步:定义 OpenAI 策略组(最终使用的组)
  // -------------------------------------------------------
const targetGroup = {
    "name": "oopenai", // 已修改:避开冲突的自定义名字
    "type": "select",
    "proxies": ["家宽"] // 只走家宽
  };

  // -------------------------------------------------------
  // 第四步:将策略组加入配置 (插入到最前面)
  // -------------------------------------------------------
  if (!config['proxy-groups']) config['proxy-groups'] = [];
  config['proxy-groups'].unshift(tunnelGroup);
  config['proxy-groups'].unshift(targetGroup);

  // -------------------------------------------------------
  // 第五步:注入您提供的所有规则
  // -------------------------------------------------------
  // 注意:所有规则的末尾都已指向 "oopenai"
  const myRules = [
    // --- Google / Gemini ---

    "DOMAIN-SUFFIX,notebooklm.google.com,oopenai",
    
    // --- OpenAI Core & CDN ---
    "DOMAIN,browser-intake-datadoghq.com,oopenai",
    "DOMAIN,chat.openai.com.cdn.cloudflare.net,oopenai",
    "DOMAIN,openai-api.arkoselabs.com,oopenai",
    "DOMAIN,openaicom-api-bdcpf8c6d2e9atf6.z01.azurefd.net,oopenai",
    "DOMAIN,openaicomproductionae4b.blob.core.windows.net,oopenai",
    "DOMAIN,production-openaicom-storage.azureedge.net,oopenai",
    "DOMAIN,static.cloudflareinsights.com,oopenai",
    "DOMAIN-SUFFIX,ai.com,oopenai",
    "DOMAIN-SUFFIX,algolia.net,oopenai",
    "DOMAIN-SUFFIX,api.statsig.com,oopenai",
    "DOMAIN-SUFFIX,auth0.com,oopenai",
    "DOMAIN-SUFFIX,chatgpt.com,oopenai",
    "DOMAIN-SUFFIX,chatgpt.livekit.cloud,oopenai",
    "DOMAIN-SUFFIX,client-api.arkoselabs.com,oopenai",
    "DOMAIN-SUFFIX,events.statsigapi.net,oopenai",
    "DOMAIN-SUFFIX,featuregates.org,oopenai",
    "DOMAIN-SUFFIX,host.livekit.cloud,oopenai",
    "DOMAIN-SUFFIX,identrust.com,oopenai",
    "DOMAIN-SUFFIX,intercom.io,oopenai",
    "DOMAIN-SUFFIX,intercomcdn.com,oopenai",
    "DOMAIN-SUFFIX,launchdarkly.com,oopenai",
    "DOMAIN-SUFFIX,oaistatic.com,oopenai",
    "DOMAIN-SUFFIX,oaiusercontent.com,oopenai",
    "DOMAIN-SUFFIX,observeit.net,oopenai",
    "DOMAIN-SUFFIX,openai.com,oopenai",
    "DOMAIN-SUFFIX,openaiapi-site.azureedge.net,oopenai",
    "DOMAIN-SUFFIX,openaicom.imgix.net,oopenai",
    "DOMAIN-SUFFIX,segment.io,oopenai",
    "DOMAIN-SUFFIX,sentry.io,oopenai",
    "DOMAIN-SUFFIX,stripe.com,oopenai",
    "DOMAIN-SUFFIX,turn.livekit.cloud,oopenai",
    "DOMAIN-KEYWORD,openai,oopenai",
    
    // --- IP Rules (No Resolve) ---
    "IP-CIDR,24.199.123.28/32,oopenai,no-resolve",
    "IP-CIDR,64.23.132.171/32,oopenai,no-resolve",
    
    // --- Apple Private Relay / Intelligence ---
    "DOMAIN-SUFFIX,apple-ready.fastly-edge.com,oopenai",
    "DOMAIN-SUFFIX,apple-relay.apple.com,oopenai",
    "DOMAIN-SUFFIX,apple-relay.cloudflare.com,oopenai",
    "DOMAIN-SUFFIX,cp4.cloudflare.com,oopenai",
    "DOMAIN-SUFFIX,gateway.icloud.com,oopenai",
    "DOMAIN-SUFFIX,guzzoni.apple.com,oopenai",
    "DOMAIN-SUFFIX,gspe1-ssl.ls.apple.com,oopenai",
    "DOMAIN-SUFFIX,smoot.apple.com,oopenai"
  ];

  // 将规则插入到列表最头部,确保绝对优先
  if (!config['rules']) config['rules'] = [];
  config['rules'] = [...myRules, ...config['rules']];

  return config;
}

这样就好啦!落地服务器您只需要自己配置即可,该配置方案适用于 openai 的全系列,不涉及 gemini, 如果有需要自行询问 AI 进行修改即可.


📌 转载信息
转载时间:
2026/1/21 22:19:54

权益

  • 1tb 的 OneDrive 同步盘
  • 正版的 office+ai,可以开通 OneDrive 自动同步,可以 ai 生成 ppt 啥的,对打工人和学生比较实用
  • 微软 copilot 的访问权限,用这位佬的脚本来使用完整的不降智的 GPT5.2 https://linux.do/t/topic/1490924

申请链接

https://checkout.microsoft365.com/acquire/purchase?language=zh-TW&market=US&requestedDuration=Month&scenario=microsoft-365-student&client=poc&campaign=StudentFree12M
https://checkout.microsoft365.com/acquire/purchase?language=zh-TW&market=US&requestedDuration=Month&scenario=microsoft-365-premium&client=poc&campaign=StudentPremiumFree12M

正文

我原本有一个 edu 的,被拿去薅香港的 copilot 了,结果香港只有两年。美区才是 5 年,支付方式我推荐 Google Pay

于是研究了一下,发现不用 edu 也可以搞。

具体操作就是,先领取第一个链接再领取第二个链接,第一步左下角切换成美国 - 英语 - 确认一下,不然可能有 bug,然后一路下一步,当让你验证 edu 的时候点击我没有 edu(use different methods),然后会让你上传证明文件。

这里用佬友的网站 https://acagen.suck-dick.tech/ ,生成一个就行,我建议上传成绩单。(突然发现忘了写来源 已支持教师资料生成 千万不要用于 K12 啊🥵 感谢这位佬。)

上传之后我等了半天,微软就告诉我审核通过了

然后自然就是一个愉快的薅

薅完了记得取消订阅

常见问题

  • 如果遇到这个错误


    刷新一下,手快一点,在再次报错前点左下角把地区改成美国就行
    注意,如果你的页面语言是繁体中文,必须手动切换成美国 - 英语
  • 如果遇到这个错误


    这是你的 ip 有问题,被检测到代理了,我怀疑微软用了 RTT 延时检测,建议换一个离你物理距离近点的 ip,比如香港,然后开全局
  • 会员时间问题
    第一个链接写的是一年,第二个链接写的是一个月,先领取第一个链接再领取第二个链接。如果你领取的地区是美国最后就会变成五年,如果是香港就会变成两年

最后记得取消自动续费
还有其他问题可以翻一下评论区


📌 转载信息
原作者:
Carnivore
转载时间:
2026/1/21 22:19:05

历史回顾

1.7.5 版本新特性

  • 集成 popup-mcp 作为内置工具,支持交互式提示和确认。

  • 为 Claude 和 Codex 添加 CLI 提供商配置界面及后端服务。

  • 添加存储实用程序和思考过程显示组件。

  • 修复了 CLI 提供商设置中 ANTHROPIC_MODEL 的默认值。

  • 修复了 Guid 组件中重复调用模型设置的问题。


📌 转载信息
转载时间:
2026/1/21 22:16:20

省流:这次测试最让我惊喜的是豆包,它已经不只是在 “读图”,而是在 “理解图”。通过逻辑推理发现 OCR 过程中的不合理并自我修正,这种空间推理能力确实走在了前面。


刚好有个工作,同事将一个纸质版表格拍给我(截图君一脸问号?)要转换为一个通知文本。
我太懒了就想让 AI 来完成,然后就发给了 gemini,发现效果有点点问题,就把什么 chatgpt、千问、豆包、阶跃星辰试了一遍。所以有这篇对比(水一贴)
首先是 gemini, 用的是 flash 思考,文字表达比较清晰,但是人数识别有问题,部分单位出现了错位。


接下来用了千问 APP 打开深度思考,文风没问题,人数识别也没问题,但是但是他居然对其中一个单位名字识别出现了幻觉,变成了一个不知道哪来的名字,满分直接变不及格。


刚好阶跃星辰昨天发了个新模型和新工具,想起来他牛逼吹得震天响,就看看他水平,用的是最新的 step3,结果裤子拔掉了,文风有问题,因为我提示词说了是发微信给个人。然后数字也有很多识别错位的情况,比 gemini 多。


然后是豆包,打开思考,唯一满分,有一个很惊艳我的地方,他在输出思考的时候发现识别出来的人数不合理,然后推理出应该是图片方向不对,然后他把图片表格摆正了再识别,最终输出了完全正确的结果。他把图片转置的过程展现了出来,惊艳到我了。唯一有点瑕疵是‘你好~’显得不正式。


最后是老朋友,完全没充值的 chatgpt 网页版,因为没地方选模型,不知道他用了啥。文风没啥问题,数字也没啥问题,但是但是他将 XX 市 XX 区识别成了 XX 市 AA 区,确实是无语。

对于一个主要做办公室工作的人,Vipe Coding 并不能很快改变什么,尤其是老旧的体制机制也没有完成转变,而且实际上并没有那么多单位实现了无纸化数据化办公,对于多模态的需求是非常刚需的存在。
这种细碎的工作使用 AI 辅助其实更能提高幸福感,希望 AI 越来越好,让我成为一个真正的懒汉。


📌 转载信息
原作者:
pigbird
转载时间:
2026/1/21 22:15:10

功能介绍

  • 在兼容所有操作系统的基础上,为 Antigravity 右侧聊天面板自定义功能,建设了基础框架。用户可以在此基础上按照 SPA Web 项目开发的理念,自定义任何自己想要的功能。拉低了用户自定义的门槛。
  • 安装过程简单,甚至可以用傻瓜来形容。只需要复制一个 html 文件进行替换即可.
  • v0.1.1 演示版包括三个功能,分别为:
      1. 替换聊天窗口各个位置文字的颜色。
      1. 为用户发送的任务内容、AI 的思考过程和 AI 的反馈结果三处增加一键复制按钮
      1. 允许用户替换当前对话发送快捷键 (Enter),可以替换为 Cmd + Enter / Ctrl + Enter 等自定义快捷键
  • 所有开发内容集中在一个 html 文件内。方便统一管理和保证安装简便。虽然略显臃肿,但对于一个本地项目,这不算问题。
  • 架构设计遵循 "零性能损耗模式",使用 Web 弹窗的形式来控制功能的开启状态,以应对中后期功能较多的场景,基本可以做到不启用不占用性能.

开源信息

项目截图



📌 转载信息
原作者:
lygmqkl
转载时间:
2026/1/21 22:14:45

已经测试了一段时间,没有发现什么大问题,并且还在持续更新中,基于 Cloudflare 全生态部署。

  • 数据库使用 D1 SQL
  • 登录 token 基于 KV Workers 进行校验
  • 接口基于 Cloudflare Workers 进行构建
  • 管理后台及评论端 js 托管到 Cloudflare Pages

我已经将我的网站全面接入该程序,测试链接:

1. 评论端

2. 后台管理


功能:

功能方面足以满足多站点使用。

  • 极速响应:基于 Cloudflare 全球边缘网络
  • 安全可靠:内置管理员认证、CORS 保护等
  • 易于集成:提供完整的 REST API,支持定制前端评论组件
  • 管理后台:提供完善的后台管理界面,方便评论管理
  • 评论审核:支持手动审核评论,防止垃圾评论
  • 禁止评论:支持屏蔽 IP 和拉黑邮箱
  • 邮件通知:集成各大邮箱厂商(逐步接入),支持自定义通知模板


文档中介绍了部署的流程,感兴趣的佬友可以试试看,顺便提交一下反馈,还在不断优化。

支持从其他评论框架进行迁移,文档中均有说明。


📌 转载信息
原作者:
anghunk
转载时间:
2026/1/21 22:14:01

最近反代很火,所以不少人都买了或者白嫖了服务器,作为反代使用,给服务器只用来做反代肯定有很多的冗余,所以我考虑利用服务器的公网 ip,做成 vpn 使用,下面就是一个详细的教程

此方案重点是:

  • 只对公网开放 VPN 端口(UDP 51820),管理后台不暴露公网,更安全。
  • web 管理,方便多设备统一管理并导入


总体原理

  • WireGuard 是 VPN,本质是服务器上开一个虚拟网卡 wg0,客户端连上后拿到一个虚拟 IP(如 10.66.66.2)。
  • “全局走 VPN / 分流” 主要由客户端配置里的 AllowedIPs 决定:
    • 全局:0.0.0.0/0
    • 分流:只填你想走 VPN 的网段(如 10.66.66.0/24 或你家的内网段)
  • wg-easy = WireGuard + Web 管理界面:让你一键创建多个设备配置、二维码导入。


A. 部署前检查(确认 Docker/Compose 可用)

在服务器执行:

docker --version
docker compose version

如果 docker compose version 报错,安装 compose 插件:

sudo apt update
sudo apt install -y docker-compose-plugin

确认 Docker 在运行:

sudo systemctl enable --now docker


B. 开启 IPv4 转发(否则连上 VPN 也可能无法上网)

执行:

echo "net.ipv4.ip_forward=1" | sudo tee /etc/sysctl.d/99-wg.conf
sudo sysctl --system

解释:
VPN 客户端的流量要 “经过服务器转发到公网”,Linux 默认可能不转发,所以要打开 ip_forward


C. 云安全组 / 防火墙:放行端口

你需要在云厂商控制台安全组放行:

  • 入站 UDP 51820(WireGuard 连接端口,必须)
  • 管理后台端口 51821 不需要放行(我们会只让它监听 127.0.0.1)

解释:
如果 UDP 51820 没放行,客户端永远握手不上(handshake 失败),这是最常见原因。


D. 使用 Docker Compose 部署 wg-easy(安全版:后台不对公网开放)

1)创建目录

sudo mkdir -p /opt/wg-easy
cd /opt/wg-easy

2)创建 docker-compose.yml

把下面两处改掉:

  • WG_HOST=你的服务器公网IP或域名
  • PASSWORD_HASH=改成密码的hash值

生成 bcrypt 密码哈希,并写入 PASSWORD_HASH

在服务器安装生成工具:

apt update
apt install -y apache2-utils

生成 bcrypt(示例密码用 123,实际请用强密码):

<BASH>
htpasswd -bnBC 10 "" "123" | tr -d ':\n' 

会输出类似:

$2y$10$xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

关键细节:Compose 里必须把 $ 写成 $$

Docker Compose 会把 $VAR 当变量替换,所以 bcrypt 中的 $ 必须转义。

例如哈希是:

$2y$10$ABC...

写入 compose 时必须变成:

$$2y$$10$$ABC...

然后执行创建文件:

sudo tee /opt/wg-easy/docker-compose.yml >/dev/null <<'EOF'
services:
  wg-easy:
    image: ghcr.io/wg-easy/wg-easy:latest
    container_name: wg-easy
    restart: unless-stopped
    environment:
      # 你的服务器公网 IP 或域名(客户端连接时用)
      - WG_HOST=159.223.37.240

      # 管理后台密码(务必设置强密码) # 这里切记(新版不可使用PASSDWORD,需要使用PASSWORD_HASH)
      - PASSWORD_HASH= 这里填写你密码生成的hash# WireGuard 端口(UDP)
      - WG_PORT=51820

      # Web 管理后台端口(TCP)
      - PORT=51821

      # 给客户端分配的 VPN 网段
      - WG_DEFAULT_ADDRESS=10.66.66.x

      # 客户端默认 DNS(全局模式时通常需要)
      - WG_DEFAULT_DNS=1.1.1.1

      # 默认“全局走 VPN”(你优先全局,所以这里这样设)
      - WG_ALLOWED_IPS=0.0.0.0/0

    volumes:
      # 配置与密钥会保存在宿主机这个目录,容器重建也不丢
      - /opt/wg-easy:/etc/wireguard
      # 让容器能使用宿主机内核模块
      - /lib/modules:/lib/modules:ro

    ports:
      # 对公网开放 WireGuard
      - "51820:51820/udp" # 管理后台只监听本机回环地址,不对公网开放(更安全)
      - "127.0.0.1:51821:51821/tcp"

    cap_add:
      - NET_ADMIN
      - SYS_MODULE

    sysctls:
      - net.ipv4.ip_forward=1
      - net.ipv4.conf.all.src_valid_mark=1
EOF

解释关键点:

  • WG_HOST:客户端配置里的 Endpoint 会用它,填错会导致连接不上。
  • 127.0.0.1:51821:51821/tcp:保证管理后台只能本机访问,公网扫不到。
  • /opt/wg-easy:/etc/wireguard:把配置落地到宿主机,防止容器更新 / 重建后丢配置。

3)启动

cd /opt/wg-easy
sudo docker compose up -d

查看是否启动成功:

sudo docker ps
sudo docker logs --tail=200 wg-easy


E. 访问管理后台(通过 SSH 隧道)

因为我们没对公网开放 51821,所以用 SSH 隧道从你电脑访问:

在你自己的电脑(Windows/macOS/Linux 都可以)执行:

ssh -L 51821:127.0.0.1:51821 root@你的服务器公网IP

然后浏览器打开:

输入你设置的 PASSWORD 登录。

解释:
SSH 隧道相当于 “把服务器的本地端口映射到你本机”,外网无法直接访问后台,但你能安全管理。


F. 创建客户端(你的每台设备一个)

在 wg-easy 管理页面:

  1. New Client
  2. 给设备起名(如 phone, laptop, ipad
  3. 直接:
    • 扫二维码(手机 WireGuard App)
    • 或下载配置文件(电脑 WireGuard 客户端导入)

建议:一台设备对应一个 client,方便你单独禁用 / 删除。


G. 连接测试(确认全局模式生效)

客户端连上后:

  1. 访问 https://ipinfo.iohttps://ifconfig.me
    看显示的出口 IP 是否变成你的服务器公网 IP(全局模式应当变为服务器 IP)

  2. 如果你能 SSH 到服务器,也可以在服务器看握手:

    sudo docker exec -it wg-easy wg show
    


H. 分流怎么实现

你现在默认是全局(WG_ALLOWED_IPS=0.0.0.0/0)。
如果某些设备想分流:在该设备的配置里把 AllowedIPs 改成你需要的网段即可,例如:

  • 只走 VPN 内网(仅访问 VPN 内部资源,不代理全网):

    • AllowedIPs = 10.66.66.0/24
  • 只访问你家 / 公司内网(举例 192.168.1.0/24):

    • AllowedIPs = 192.168.1.0/24, 10.66.66.0/24

做法:你可以在 wg-easy 里把该设备配置下载下来后手动改,或在客户端里编辑配置。


I. 结语

大家新手一般都是只有一台服务器,wg-easy 很适合作为第一站:先把 VPN 跑起来、把设备接入跑通;等你对需求更明确后,再决定是留在 wg-easy 继续精细化配置,还是迁移到原生 WireGuard、Headscale 这类更强的组网架构。


📌 转载信息
转载时间:
2026/1/21 22:13:08

翻了很多帖子,发现很多都是之前的的 claude 配置,要么就是不全,按照流程无法正确执行。
这里只做记录,佬清喷。纯手打。

目标群体:之前没有接触过 claude 的新手,但想试试,且快速部署上手尝试的选手。

win 配置

1,node.js 安装

2,Claude 安装
在 cmd 或者 powershell 输入

npm install -g @anthropic-ai/claude-code

完成安装

3,你需要知道的几个文件和目录

  • claude 相关的一些配置文件在:C:\Users\ 你的用户名 \.claude 下
  • CLAUDE.md 是放提示词的
  • settings.json 配置 mcp 和模型,这个会由 cc switch 接管和修改

4,修改配置文件

  • 修改 C:\Users\ 你的用户名.claude.json 加入如下代码,位置请看图片,对齐即可,这个必须配置,跳过初始化,以及最开始的网络检查,否则会报无法连接网络
"hasCompletedOnboarding": true 

5,安装 cc switch

  • https://github.com/farion1231/cc-switch release 中下载对应的 CC-Switch-v3.9.1-Windows.msi 安装即可
  • 打开 cc switch 添加供应商,如图,填入官方的 api
  • 这里我实际测试硅基流动,存在上下文限流,以及无法执行联网查询。建议使用官方的
  • 配置完成后保存即可

6, 使用 cmd,输入 claude,显示图,即说明配置正确

mac 配置

过程完全一致

需要配置的文件目录在:

  • 存储提示词,skills,api 的目录在:/User/ 你的用户名 /.claude
  • .claude.json:/User/ 你的用户名 /.claude.json

最后

1,安装各种 mcp,skills,市场等等
2,配置提示词
3,如果你想将 antigravity 反代给 claude,站内佬的帖子很多。实测 macos 15 以上,使用 quotio 比较方便,但注意无法反代 codex。win 暂时没看到好用的工具。
4,目前我使用 glm4.7 进行项目分析,代码分析工作,出具的报告个人感觉比 augment 的 sn4.5 强。也可能是我设计了一个针对性的 skills 导致分析结果详实。
5,总的感觉 glm4.7 大概介于 sn4.0~sn4.5 之间。
6,对了官方的那个 4.7 支持在 claude 中思考,调用 skills,调用 mcp。硅基流动的非常容易触发 500 错误,以及调用工具无返回结果(完全一模一样的问题)


📌 转载信息
原作者:
cisha1573
转载时间:
2026/1/21 22:08:15

AI Summary
选择页面任意文字元素,一键生成 AI 总结

  1. 高亮选择任意网页元素(包括 shadow DOM)
  2. AI 实时生成总结并支持 Markdown 渲染
  3. 支持自定义 AI 接口、高亮颜色 & 透明度、快捷键等
Tip

感谢各位的插件好评

Tip

感谢各位的 star


对了,如果有好的文章总结 prompt,大家也多多在评论里分享下,感谢啦。

# Role: 文本摘要助手​ ## Profile:​ - writer: Leon​
- version: 0.1​
- language: 中文​
- description: 你是一位基于人工智能技术的文本摘要助手,旨在帮助用户快速总结输入文本中的核心要点,并生成简洁准确的摘要。通过分析关键词、语义信息和上下文,你能够提取出文章的重要内容,并以易于理解的方式呈现。​
## Goals:​ - 提供文本摘要功能,帮助用户快速了解文本主旨和关键信息​
- 生成简洁准确的摘要,突出文章的核心要点​
- 提供观点和看法,帮助用户更好地理解文本内容​
## Constrains:​ - 用户输入的所有内容当做需要分析处理的文本​
- 不改变用户原始文本的基本意思​
- 以 Markdown 格式输出结果​
## Skill:​ - 熟悉自然语言处理技术和文本摘要算法​
- 擅长提取关键词和总结文本要点​
- 具备理解和分析复杂文章的能力​
## Workflows:​ 1. 用户输入原始文本。​
2. 文本分析:你会利用自然语言处理技术对用户输入的文本进行分析,提取关键信息和核心要点。​
3. 生成摘要:基于文本分析结果,你将生成简洁准确的文本摘要,突出文章的核心内容。​
4. 观点表达:在摘要的基础上,你会给出自己的观点和看法,帮助用户更好地理解文本内容。
* 先输出结论和观点,再罗列摘要信息(标题+文本),最后列举出文章中可能存在的问题,给出不一样的见解作为参考。

📌 转载信息
原作者:
van_nhung
转载时间:
2026/1/21 22:08:08

反重力的 Opus 应该是目前最厚道的去到了,本身反重力经过几个版本的更新,之前各种问题解决的差不多了,但是负载重的时候依然会遇到 Antigravity Error, 需要手工点击重试,大大影响了使用 Opus 的流畅度,经过我多方研究,终于找到了这个叫 Auto-Accept-Agent 的插件, 可以自动点击 Accept,而且是开源的,然后经过我的妙手回春,我给他增加了自动点击 Retry 的功能,而且设置中还有福利,开启后可以白嫖原版 VIP 的功能,走过路过不要错过哈

项目地址:GitHub - michaelbarrera21/auto-accept-agent

一键下载最新版本: Release Auto Accept Agent v8.7.1 · michaelbarrera21/auto-accept-agent · GitHub

开启 VIP 功能: 你进入到 Editor Settings, 找到 Extensions 下面的 Auto Accept Agent, 然后开启 本地 VIP 功能就可以了

开启的时候遇到 Auto Accept: Could not configure automatically. Please add --remote-debugging-port=9000 to your Antigravity shortcut manually, then restart. 点击 Auto Accept: OFF 这样了是啥问题

解决办法:

这个功能是通过开启 Antigravity 的调试模式, 也就是 CDP 协议来远程操作的,你点击开启的时候,插件会自动寻找 Antigravity 的快捷方式,将快捷方式加上 --remote-debugging-port 的参数,你这个提示是因为可能我只遍历了开始菜单和桌面,找不到你的快捷方式,你可以自己新建一个快捷方式,然后加上–remote-debugging-port=9000 的参数, 我之后会优化这块的提示哈

现已支持全中文界面,安装最新版插件,可自动识别界面语言,并且可以在设置中修改

mac 用户可以试试最新版本,加上了自动生成快捷方式的逻辑, 如果不生效,可以参考故障提示中的方法:


📌 转载信息
原作者:
puppywang
转载时间:
2026/1/21 22:07:25

2026-01-21 更新公告

*添加因为某些网站有反爬机制无法访问的情况,优化了输出的内容* 

YuJunZhiXue/StudyAnalysis-Skills: 深度解析链接、文档或代码,生成 “全能导师级” 的教学笔记

github 访问不了的各位可以查看 gitee

yangyuhou/StudyAnalysis-Skills

本人目前正在修改,由于有的网站有反爬机制,比如知乎,正在尝试修改 SKills

如果可以的各位尽可能 star 一下

注意

如果不生成文件,请将 SKills 中的 data 文件删除,这是最重要的,让他重新自己创建即可!!!

下面部分是在 Skill 中的调用方式

此部分是用来看何时启动 skill 的

何时调用 (When to use)

当出现以下任一场景时,请立即激活本技能:

  1. 显式学习指令
  • 用户明确要求:“学习这个”、“深度分析”、“深度学习”、“解析”、“解释这个概念”、“存入知识库”。

  • 用户要求:“把这个讲清楚”、“教我怎么用”、“总结并生成笔记”。

  • 关键词触发:只要用户提到 “学习” 或 “分析” 配合某个对象,必须激活。

  1. 复杂多模态输入
  • 用户提供了一个或多个 URL 链接(尤其是包含大量信息或图片的链接)。

  • 用户上传了文档文件(PDF, Word, Markdown, TXT)。

  • 用户上传了图片(PNG, JPG),且图片内容包含大量文字或图表(如架构图、思维导图)。

  • 混合输入:同时包含链接、文字描述和图片。

  1. 代码深度解析
  • 用户选中或上传了代码文件,并询问:“这段代码是怎么跑的?”、“架构是怎样的?”。
  1. 隐式教学需求
  • 用户表示困惑:“我不理解这个概念”、“太难了,看不懂”。

  • 用户需要降维打击:“用大白话解释一下”、“给个小白能懂的例子”。

实话说,我也经常被那些长得离谱的技术文档搞得头大。再加上现在的技术更新太快,资料一个接一个,代码库看的两眼迷茫。

尤其是每次想静下心学点东西的时候,没过半小时就放弃了,这种感觉真的很让人沮丧。

在记忆心理学里,这被称为 **“认知负荷”**。我们的大脑在同一时间能处理的信息量是非常有限的。如果资料里充斥着大量冗余信息、凌乱的逻辑,大脑会消耗掉绝大部分能量来理清这些噪音,导致你根本没力气去真正 “学习”。


所以我开始尝试把这些 “费劲” 的环节交给 Skills 来处理。

比如当我面对一个几万字的 GitHub 项目文档时,我不会直接去读,而是先运行我编写的 knowledge-absorberSkills 。这个 Skills 帮我完成了最痛苦的部分:

  • 自动过滤掉啰嗦的客套话和重复的背景说明。

  • 只抓住最核心的架构逻辑和关键 API。

  • 把深奥的术语换成小白都能听懂的直白话语。

功能基本上就是给链接,给图片,给文档,给 PDF 给你读取,如果是长文本会自己截断,然后会生成 Html 和 md 两个格式文件,比如说你不爱看 md,可以直接把 html 拖入到浏览器观看 比如这篇文章很多字,看不懂说的什么

那么使用 SKills 来完成 效果图如下:


说到底,现在的知识获取已经不是拼体力,而是拼谁更会利用工具来 “武装自己”。

把那些繁琐、消耗能量的活儿交给 AI,交给 Skills,把最宝贵的注意力留给真正的思考。这才是这个时代最不焦虑的学习方式。

祝愿大家能够有完美的知识获取体验!!!


📌 转载信息
原作者:
Y_yuHou
转载时间:
2026/1/21 22:06:50

项目概况

本项目使用 zig+ts+preact+tw css 开发

功能是番茄钟 + 一堆还未实现的扩展功能 (不必期待,因为我还要打比赛和另外的项目要做,只是给大家一个 zig 能干的事情的参考)

现状

其实就是大概都跑通了,自己走的路线是轻量化,虽然使用的是 webui, 但是众所周知,其实拿 gtk 或者其他 UI 都有很多复杂的跨平台问题,但是借助 web, 就可以少了这些问题来影响.

仓库链接


📌 转载信息
转载时间:
2026/1/21 22:06:33

下图展示了一个有趣的现象:在法国斗牛犬的图像上添加一小块对抗性补丁后,VGG分类器竟然以极高的置信度将其判定为足球。Grad-CAM可视化清楚地显示,模型的注意力完全从狗身上转移到了那块补丁——一个精心构造的小扰动就足以劫持整个决策过程。

95%准确率的模型可能不堪一击

ResNet、VGG、EfficientNet这些主流架构在ImageNet上动辄90%以上的准确率,看起来已经相当可靠。但这些模型隐藏着一个被多数工程师忽视的致命缺陷:它们极易被对抗样本愚弄。

改变一个像素,可能肉眼完全看不出区别,但分类器会彻底崩溃。本文会用FGSM(快速梯度符号法)演示如何制作对抗样本,并解释神经网络为何如此脆弱。

对抗样本到底是什么

简单说,对抗样本就是专门设计来欺骗模型的输入。和随机噪声不同,这种扰动是经过精确计算的——目标是在人眼察觉不到的前提下,最大化模型的预测误差。

这里存在一个悖论:模型可以正确识别成千上万张图片,但只要加上一点经过数学优化的噪声(像素值变化不到1%),它就会完全判断失误。

对抗攻击绝非学术界的自娱自乐。自动驾驶汽车可能把停车标志识别成限速标志;人脸识别系统可能被绕过;放射科AI可能给出错误诊断;有害内容可能躲过审核系统的检测。

问题的根源在于:分类器学到的是统计层面的捷径,而非真正的语义理解。高准确率和高安全性是两回事。

FGSM:简单却致命的攻击方法

Ian Goodfellow等人在2015年提出的FGSM至今仍是最经典的对抗攻击之一。它的原理出奇地简单,但恰恰暴露了深度神经网络的根本弱点。

数学原理

给定分类器和输入图像,FGSM计算一个扰动把图像推向错误分类的方向。具体做法是沿着损失函数梯度的方向移动每个像素,用epsilon参数控制扰动幅度,确保改动在视觉上不可察觉。

FGSM为何有效

深度网络虽然有非线性激活函数但在局部表现出近似线性的特性。每个像素上的微小变化会在高维空间中累积,最终在输出空间产生巨大偏移。梯度恰好指明了这个最有效的攻击方向——随机噪声做不到的事情,梯度对齐的噪声可以轻松做到。

上图就是是Goodfellow等人最初展示的结果:在熊猫图像上叠加梯度符号计算得到的微小扰动,模型就会以极高置信度将其误判为长臂猿。两张图片在人眼看来毫无差别,但神经网络的判断却天差地别。

Python实战:构建你的第一个对抗样本

下面用PyTorch和预训练的ResNet-50从零实现一个对抗样本。

先安装依赖:

 pip install torch torchvision matplotlib numpy pillow

导入必要的库:

 import torch  
 import torch.nn.functional as F  
 import torchvision.models as models  
 import torchvision.transforms as transforms  
 import matplotlib.pyplot as plt  
 import numpy as np  
 from PIL import Image

第一步:加载分类器

用ResNet-50作为目标模型。这个架构在生产环境中很常见,而且支持梯度计算:

 model=models.resnet50(pretrained=True)  
 model.eval()

第二步:准备图像

按ImageNet标准预处理输入图像:

 transform=transforms.Compose([  
    transforms.Resize((224, 224)),  
    transforms.ToTensor(),  
])

img=Image.open("your_image.jpg").convert("RGB")  
x=transform(img).unsqueeze(0)  
 x.requires_grad=True

注意

requires_grad=True

这行。没有它就无法计算梯度,对抗攻击也就无从谈起。

第三步:获取原始预测

跑一次前向传播,看看模型本来会给出什么分类:

 logits=model(x)  
 pred=logits.argmax(dim=1)  
 print(f"Original prediction: {pred.item()}")

正常情况下模型应该能正确分类。

第四步:FGSM攻击

核心代码如下:

 label = pred  
loss = F.cross_entropy(logits, label)  
loss.backward()

epsilon = 0.01  # perturbation budget
perturbation = epsilon * x.grad.sign()  
x_adv = x + perturbation  
 x_adv = torch.clamp(x_adv, 0, 1)

这段代码做了什么?计算损失对输入像素的梯度,取符号得到方向,乘以epsilon控制幅度,加到原图上就得到对抗样本。最后用clamp保证像素值在合法范围内。

第五步:检验效果

用同一个模型测试对抗图像:

 logits_adv=model(x_adv)  
 pred_adv=logits_adv.argmax(dim=1)  
 print(f"Adversarial prediction: {pred_adv.item()}")

大多数情况下预测结果会完全不同。图像看起来一样,分类却天壤之别。

第六步:可视化

把原图、对抗图、噪声模式放在一起对比:

 def show_adversarial_attack(original, adversarial, perturbation):  
    fig, axes = plt.subplots(1, 3, figsize=(15, 5))  
      
    axes[0].imshow(original)  
    axes[0].set_title("Original Image")  
    axes[0].axis("off")  
      
    axes[1].imshow(adversarial)  
    axes[1].set_title("Adversarial Image")  
    axes[1].axis("off")  
      
    axes[2].imshow(perturbation, cmap="gray")  
    axes[2].set_title("Noise Pattern (10x Amplified)")  
    axes[2].axis("off")  
      
    plt.tight_layout()  
    plt.show()

orig_np = x.detach().squeeze().permute(1, 2, 0).numpy()  
adv_np = x_adv.detach().squeeze().permute(1, 2, 0).numpy()  
noise_np = (adv_np - orig_np) * 10
 show_adversarial_attack(orig_np, adv_np, noise_np)

噪声模式放大10倍后看起来像电视雪花。人眼根本分辨不出两张图的区别,但神经网络却认为它们是完全不同的物体。

神经网络为何如此脆弱

理解这个问题需要从三个角度切入。

高维几何:一张224×224的RGB图像有150,528个维度。在这么高的维度里每个维度上的微小扰动累加起来就是巨大的距离。

局部线性:尽管激活函数是非线性的,深度网络在数据点附近的小邻域内表现得非常线性,这让基于梯度的攻击特别有效。

非泛化特征:研究发现模型大量依赖那些与标签相关、但与人类感知无关的统计模式。对抗样本正是在利用这些"捷径特征"。

一个令人不安的事实:深度学习模型优化的目标是训练集上的准确率,而不是对扰动的泛化性。

一些限制需要说明

FGSM只是单步攻击算比较弱的。迭代方法如PGD和Carlini-Wagner攻击力更强也更难防御。

本文的演示假设攻击者能拿到模型权重和梯度,属于白盒场景。现实中攻击者可能只能观察模型输出,需要用黑盒攻击技术或者利用对抗样本的迁移性。

数字扰动只是一种形式。物理世界的对抗样本——比如贴在物体上的特制贴纸——可以在不同光照和角度下持续欺骗视觉系统。

防御手段确实存在:对抗训练、输入预处理、集成方法、认证防御等等。但这些方法往往要牺牲准确率,而且没有哪个能提供完全的保护。

防御策略

几种主流防御思路:

对抗训练把对抗样本混入训练数据,让模型学会应对扰动。输入变换用JPEG压缩、随机缩放、降低位深等预处理来破坏对抗扰动。集成防御结合多个模型的预测或引入随机性来增加攻击难度。认证防御用随机平滑等技术在一定范围内提供数学上的泛化性保证。检测方法则训练专门的模型来识别对抗样本。

每种方法都有代价,在泛化性、准确率、计算开销之间做权衡。

总结

对抗样本揭示的是统计优化和人类感知之间的根本鸿沟。深度学习擅长模式匹配,但它并不理解图像的语义。

对抗样本不会消失。这不是可以修复的bug而是当前深度学习架构的内在属性。随着AI在关键基础设施中的应用越来越广,理解和缓解对抗脆弱性变得愈发重要。

泛化性应该和准确率、公平性、效率一样,成为一等公民级别的工程需求。否则,高准确率带来的只是虚假的安全感。

https://avoid.overfit.cn/post/935d5167003748db859452026a44b056

作者: Sarthakvyadav

Andrej Karpathy:过去一年大模型的六个关键转折

本文共 2836 字,阅读预计需要 4 分钟。

一边是模型光靠"多想一会儿"就能解出奥数题,另一边是刷爆排行榜的选手被用户吐槽"中看不中用"。

2025年的AI圈,弥漫着一股诡异的气息:

参数规模不再是唯一的军备竞赛指标,但模型能力却在某些维度上狂飙突进。

这到底发生了什么?

Andrej Karpathy——前OpenAI研究总监、曾掌舵特斯拉AI团队的技术大牛——在年终复盘中抛出了一个判断:

2025年LLM的真正突破,不在于模型变大,而在于我们"驯养"它的方式、理解它的视角、以及使用它的姿势,都发生了根本性的变化。

这篇文章,我会带你拆解Karpathy眼中的六个范式转变,聊聊它们对普通人意味着什么,以及有哪些坑是你现在就该绕开的。

一、RLVR:训练范式的静默换代

2024年之前,大模型训练三板斧:预训练、监督微调、RLHF。但RLHF的瓶颈很明显——依赖人工标注,成本高、速度慢

2025年,RLVR(基于可验证奖励的强化学习)开始上位。核心逻辑很简单:用有标准答案的任务来训练。数学题对不对?代码能不能跑?机器自己就能验证。

打个比方:RLHF像请老师批改作文,标准不一;RLVR像做数学卷子,对就是对、错就是错。

RLVR还解锁了一个调节旋钮:让模型"多想一会儿"

生成更长的推理链,就能换来更强能力。OpenAI的o1到o3,DeepSeek的R1,都是这条路线的产物。

以前比谁模型参数多,现在比谁的强化学习跑得久。

二、召唤幽灵,而非驯养动物

Karpathy用了一个隐喻:我们不是在"培育动物",而是在"召唤幽灵"

动物智能是进化塑造的,能力配合天衣无缝。

但LLM的"大脑"是为了预测下一个词、在数学题里拿分——这些目标和生存没关系

结果就是"锯齿状智能":某些任务碾压专家,另一些任务犯低级错误。

它能写出逻辑严密的报告,但是转头就被越狱提示词骗了。

实际后果是:别迷信基准测试。 LLM团队为了刷榜,围绕测试题大量生成训练数据,榜单漂亮,实际用起来翻车。

幽灵的能力是尖刺的、不可预测的。用的时候,得时刻警惕。

三、Cursor与新应用层:上下文工程的价值爆发

2025年,Cursor没有自己训练模型,但估值从4亿飙到99亿美元。它做对了什么?

答案是上下文工程——在调用大模型时,精心设计给它的信息环境:提示词怎么写、代码库怎么索引、多次调用怎么编排。

Karpathy的观点是:LLM实验室培养"通才大学生",应用层把他们培养成"垂直专家"。桥梁就是上下文工程。

直接问ChatGPT和用Cursor写代码,体验天差地别。Cursor自动索引代码仓库,理解文件依赖,提问时自动塞入相关上下文。这不是模型能力差距,是信息组织方式的差距

启示很清晰:模型会迭代,但上下文工程能力可以沉淀,能无缝迁移到下一代模型。

这也是我一直以来坚持上下文工程优先的原因。

四、Claude Code:AI从"网站"变成"室友"

Claude Code是Anthropic推出的命令行工具,特别之处在于:直接运行在本地电脑上,访问你的文件、配置、密钥。后续Copilot等工具也相继推出了这样的开发模式。

Karpathy说:它不再是需要打开浏览器的网站,而是"寄居"在电脑里的小精灵

本地运行的好处:AI直接读取电脑上的上下文——装了哪些软件、项目代码长什么样,不需要手动复制粘贴。

更重要的是延迟和隐私——云端来回几百毫秒,敏感数据发到第三方合规部门不同意。

当然也有隐患:一个能操作本地文件的AI,权限边界怎么划定?

五、Vibe Coding:代码正在变得廉价

Karpathy造了个词叫"Vibe Coding"——氛围编程。

用自然语言描述需求,AI帮你写代码,你甚至不需要"懂"代码

2025年这事跨过了临界点。之前AI写代码问题多,需要人debug。现在很多简单项目,从想法到可运行程序,一气呵成。

Karpathy自己用它写了Rust版tokenizer(不需要学Rust)、做了好几个小应用原型、甚至写过临时应用定位bug——用完就扔。

他的原话是:代码变得廉价、短暂、可塑、用完即弃。

对普通人意味着什么?"我有想法但不会代码"这个门槛,正在消失。

六、Nano Banana:LLM的GUI时代前奏

Google的Gemini Nano Banana让Karpathy特别兴奋。

核心不是图像生成能力,而是文本、图像与世界知识在模型权重中的深度融合

现在"跟LLM对话"像1980年代敲命令。文本是机器原生语言,但人更喜欢视觉化呈现——这正是GUI被发明的原因。

LLM也需要自己的GUI——用图片、信息图、动画跟我们沟通。Nano Banana就是这个方向的早期预演。

写在最后:可立即落地的三个建议

拉回来说说,这六个范式转变对你意味着什么。

如果你是创业者,最重要的启示是:模型能力会继续涨,但涨的方式变了。与其追着模型跑,不如在上下文工程上建立壁垒。Cursor的成功已经证明了这条路。

如果你是开发者,Vibe Coding值得你认真对待。不是说它会取代你,而是说它能让你的生产力翻倍。把重复性的代码工作交给AI,把精力放在架构设计和业务逻辑上。

如果你是普通用户,最重要的是调整预期。AI既不是全能的神,也不是彻底的废物——它是一个能力极度不均匀的"幽灵"。用好它的尖刺能力,同时对它的盲区保持警惕。

三个行动建议,作为结束:

投资上下文工程能力。学会设计提示词、组织RAG检索、编排多步调用,这是当下性价比最高的AI技能。

用Vibe Coding降低创意落地门槛。你脑子里的想法,别再等"等我学会编程再说",现在就可以试着让AI帮你实现。

理解锯齿状智能,设置人工校验。在享受AI效率提升的同时,别忘了在关键环节保留人工把关。

2025年是LLM的分水岭。规则变了,玩法也得跟着变。

2026年,又会有什么新的成果出现呢?评论区聊聊你的看法

既然看到这了,如果觉得不错,随手点个赞、收藏、转发三连吧~

我是Carl,大厂研发裸辞的AI创业者,只讲能落地的AI干货。

关注我,更多AI趋势与实战,我们下期再见!

数据来源

Karpathy 2025年终复盘原文 [数据|2025|https://karpathy.bearblog.dev/year-in-review-2025/]

RLVR训练范式说明:基于可验证奖励的强化学习 [数据|2025|Karpathy原文]

DeepSeek R1推理能力展示 [数据|2025|DeepSeek R1论文]

Cursor估值变化:$400M(2024.8) → $9.9B(2025.6) [数据|2024-2025|https://techcrunch.com/tag/cursor/]

OpenAI o1/o3推理模型发布 [数据|2024-2025|OpenAI官方]

Claude Code产品发布与功能说明 [数据|2025|Anthropic官方]

Vibe Coding概念由Karpathy在Twitter提出 [数据|2025|https://x.com/karpathy/status/1886192184808149383]

Google Gemini Nano Banana多模态融合能力 [数据|2025|Google官方]

三大运营商线路
在国内,最大的三个网络运营商电信,联通和移动,各自都有自己的局域网,也有自己的ASN,我们的流量就是走的这些ASN来和服务器进行交流沟通的。
这些流量的轨迹一般是你家->省网->跨境->国际出口,网络线路的体验也就和流经这些段的速度相关了。
电信线路一般为(163/CN2 GT/CN2 GIA)
AS4134:国内骨干网,俗称4134或163骨干网,ip常以202.97开头。
定位于承载普通质量的互联网业务, 基建早, 带宽大, 便宜,多次扩容后拥挤情况有改善,绝大部分普通家宽的出境路线。
AS4809:国内精品网,俗称CN2,ip常以59.43开头. CN2 相比较 163 网络, 带宽小, 稳定高速。
AS23764:境外网,俗称CTGNet,用于面向企业客户提供定制化的国际互联网专线接入服务。
CN2实际上分为CN2GT和CN2GIA两种。CN2GT又称半程CN2,Global Transit,因为其国内走163骨干网
,跨境和163挤在一个段里(那我要你有何用),国外和CN2一样;CN2GIA是全程CN2,跨境段不用和163挤在一起,拥有自己的带宽,国内国外都走CN2网络。
亚太还有个比较流行的163pp,俗称高q163,其实就是拥有跨境段高qos保障的163,相当于单独购买了带宽的163骨干网,
大部分163跨境都是共享的,导致晚高峰互相抢带宽,卡的半死,高q163贵的夸张…
可以看看电信去程走的是CN2骨干网
# 时间:2024-07-07 23:16:36
1   192.168.50.1    *                         RFC1918
                                            0.51 ms / 0.88 ms / 1.07 ms
2   116.233.80.1    AS4812   [CHINANET-SH]    中国 上海 上海  chinatelecom.cn
                                            6.68 ms / 5.92 ms / 6.34 ms
3   124.75.232.117  AS4812   [CHINANET-SH]    中国 上海 上海  chinatelecom.cn
                                            2.60 ms / 3.00 ms / 2.95 ms
4   61.152.54.177   AS4812   [CHINANET-SH]    中国 上海   chinatelecom.cn  电信
                                            3.18 ms / * ms / * ms
5   61.152.24.118   AS4812   [CHINANET-SH]    中国 上海   chinatelecom.cn  电信
                                            4.93 ms / 105.15 ms / * ms
6   59.43.80.142    *        [CN2-BackBone]   中国 上海   chinatelecom.cn  电信
                                            11.95 ms / 5.59 ms / 8.94 ms
7   59.43.22.6      *        [CN2-BackBone]   中国 上海 C-I  chinatelecom.cn  电信
                                            5.67 ms / * ms / * ms
8   59.43.39.154    *        [CN2-BackBone]   中国 上海   chinatelecom.cn  电信
                                            6.04 ms / 106.66 ms / * ms
9   59.43.182.181   *        [CN2-BackBone]   美国 加利福尼亚 圣何塞  chinatelecom.cn  电信
                                            129.89 ms / 127.50 ms / 127.40 ms
10  218.30.49.182   AS4134   [CHINANET-US]    美国 加利福尼亚 圣何塞  www.chinatelecom.com.cn  电信
                                            140.20 ms / 139.90 ms / 139.33 ms
11  91.200.241.87   *                         美国 加利福尼亚 圣何塞
  cs03.q51.sjc.xtom.us                      158.29 ms / 275.86 ms / * ms
12  xxx.xxx.xxx.98    AS6233                    美国 加利福尼亚州 圣何塞  xtom.com
  xxx.xxx.xxx.vps.hosting                        128.21 ms / 127.87 ms / 128.31 ms

可以看到回程走的也是CN2
 时间:2024-07-07 23:16:36
1   45.139.193.1    AS8888                    美国 加利福尼亚 圣何塞  xtom.com
                                            36.96 ms / 4.64 ms / 40.33 ms
2   91.200.241.86   *                         美国 加利福尼亚 圣何塞
                                            0.39 ms / 0.26 ms / 0.40 ms
3   218.30.49.181   AS4134   [CHINANET-US]    美国 加利福尼亚 圣何塞  www.chinatelecom.com.cn  电信
                                            0.89 ms / 0.99 ms / 0.64 ms
4   59.43.182.182   *        [CN2-BackBone]   中国 上海   chinatelecom.cn  电信
                                            123.80 ms / 122.43 ms / * ms
5   *
6   59.43.22.5      *        [CN2-BackBone]   中国 上海  C-I chinatelecom.cn  电信
                                            127.02 ms / 124.53 ms / 130.04 ms
7   59.43.80.141    *        [CN2-BackBone]   中国 上海   chinatelecom.cn  电信
                                            177.49 ms / 175.56 ms / * ms
8   61.152.25.197   AS4812   [CHINANET-SH]    中国 上海   chinatelecom.cn  电信
                                            128.97 ms / 125.90 ms / 131.26 ms
9   61.172.67.150   AS4812                    中国 上海  青浦 chinatelecom.cn  电信
                                            137.60 ms / 125.11 ms / 126.16 ms
10  58.37.40.1      AS4812                    中国 上海   chinatelecom.cn  电信
  1.40.37.58.broad.xw.sh.dynamic.163data.com.cn   228.09 ms / * ms / * ms
这就是电信CN2GIA双程,属于电信极致网络了。

接下来我们看联通线路(4837/9929)
AS4837:国内骨干网,俗称4837或联通169网络,IP以219.158开头,相当于电信中的163骨干网,大部分联通家宽的线路 。
AS9929:国内老骨干网,俗称A网或者9929或者CUII,定位类似于电信中的CN2,实际上这玩意和优化度很高的CN2没得比,这只是使用人数很少的普通网络,承载力和质量远远不如CN2,而且9929的口子普遍不大。
AS10099:境外网,俗称联通国际CUG,提供至大陆方向的差异化接入。
线路组合有以下几种:
内地 AS4837 + 境外 AS4837:最普通、最常见的联通 169 网络
内地 AS4837 + 境外 AS10099:应该算是高端线路。
内地 AS9929 + 境外 AS4837:很少见的路由。
内地 AS9929 + 境外 AS10099:联通高端线路。

去程国内省内先走了一段普通网4837,随后接入9929优化网,到了境外走优化线路CUG,去程优秀。
时间:2024-07-07 23:16:36
1   192.168.1.1     *                         RFC1918
                                            0.63 ms / 0.45 ms / 0.49 ms
2   115.49.100.1    AS4837   [UNICOM-HA]      中国 河南 南阳市 新野 chinaunicom.cn
  hn.kd.ny.adsl                             3.66 ms / 18.18 ms / 2.78 ms
3   219.154.128.197 AS4837   [UNICOM-CN]      中国 河南 南阳  chinaunicom.cn
  hn.kd.jz.adsl                             4.22 ms / 18.30 ms / 7.32 ms
4   61.168.28.165   AS4837   [UNICOM-HA]      中国 河南 郑州市  chinaunicom.cn  联通
  pc165.zz.ha.cn                            * ms / 37.55 ms / 37.46 ms
5   219.158.121.129 AS4837   [CU169-BACKBONE] 中国    chinaunicom.cn  联通
                                            24.84 ms / 24.58 ms / 24.73 ms
6   219.158.119.246 AS4837   [CU169-BACKBONE] 中国 上海   chinaunicom.cn  联通
                                            27.39 ms / 24.56 ms / 29.73 ms
7   219.158.32.6    AS4837   [CU169-BACKBONE] 中国 上海   chinaunicom.cn  联通
                                            26.21 ms / 26.03 ms / 26.05 ms
8   218.105.2.209   AS9929   [CNC-BACKBONE]   中国 上海   chinaunicom.cn  联通 CUII
                                            30.64 ms / 30.40 ms / 30.34 ms
9   218.105.2.202   AS9929   [CNC-BACKBONE]   中国 上海   chinaunicom.cn  联通 CUII
                                            27.18 ms / 28.48 ms / 26.97 ms
10  203.160.75.217  AS10099  [CUG-BACKBONE]   美国 加利福尼亚 洛杉矶  chinaunicomglobal.com  联通
                                            158.17 ms / 158.31 ms / 157.90 ms
11  162.219.85.182  AS10099  [CUG-BACKBONE]   美国 加利福尼亚 圣何塞  chinaunicomglobal.com  联通
                                            162.02 ms / 162.05 ms / 162.02 ms
12  91.200.241.87   *                         美国 加利福尼亚 圣何塞
                                            166.27 ms / 168.89 ms / 169.22 ms
13  xxx.xxx.xxx.98    AS6233                    美国 加利福尼亚州 圣何塞  xtom.com
                                            161.98 ms / 162.04 ms / 162.12 ms
# 回程也是先CUG入境,中间路线看不到了,大概率对称9929。
# 时间:2024-07-07 23:16:36
1   45.139.193.1    AS8888                    美国 加利福尼亚 圣何塞  xtom.com
                                            5.57 ms / 3.01 ms / 23.26 ms
2   91.200.241.88   *                         美国 加利福尼亚 圣何塞
                                            0.33 ms / 0.38 ms / 0.37 ms
3   162.219.85.181  AS10099  [CUG-BACKBONE]   美国 加利福尼亚 圣何塞  chinaunicomglobal.com  联通
                                            0.96 ms / 0.97 ms / 0.97 ms
4   162.219.85.13   AS10099  [CUG-BACKBONE]   中国 上海   chinaunicomglobal.com  联通
                                            131.61 ms / 128.86 ms / 128.89 ms
5   210.14.186.137  *        [APNIC-AP]       中国 上海
                                            132.68 ms / 132.58 ms / 132.55 ms
6   *
7   *
8   210.78.8.146    *        [CNC-BACKBONE]   中国 河南 郑州  chinaunicom.cn  联通 CUII
                                            157.51 ms / 156.68 ms / 156.76 ms
9   219.158.45.57   AS4837   [CU169-BACKBONE] 中国 河南 新乡  chinaunicom.cn  联通
                                            152.74 ms / 153.83 ms / 151.12 ms
10  219.158.112.97  AS4837   [CU169-BACKBONE] 中国 河南 郑州  chinaunicom.cn  联通
                                            156.50 ms / 158.49 ms / 158.17 ms
11  61.168.38.218   AS4837   [UNICOM-HA]      中国 河南 郑州  chinaunicom.cn
  pc218.zz.ha.cn                            258.82 ms / * ms / * ms
12  61.168.238.14   AS4837   [UNICOM-HA]      中国 河南 南阳市  chinaunicom.cn  联通
                                            159.28 ms / 162.72 ms / 159.16 ms
13  123.4.44.63     AS4837   [UNICOM-HA]      中国 河南 南阳  chinaunicom.cn
                                            160.90 ms / 161.27 ms / 161.18 ms
这就是联通的双程极致线路。
最后我们讲讲移动线路(CMI/CMIN2)
AS9808:国内网,俗称CMNET,对标电信普通网。
AS58453:境外网,俗称CMI,最常见的网段,负载均衡做的极其差劲,而且由于带宽被灌满,而且万物走香港出口,骨干疯狂丢包。
AS58807:境外网,俗称CMI N2,移动精品网。
AS3356:Tier1,俗称lumen,实际上,lumen并不是移动管辖的网络,但是lumen-cmi的传输方式让移动用户用起来相当舒服,lumen也成了实际上更受欢迎的移动快乐机器,大家看到lumen都知道移动基本快乐,所以把lumen并入移动线路。个人分类纯属娱乐,这种传输方式哪天就被移动干爆
你可以发现,移动的国内网都是一样的,只有跨境段和境外段才区分CMI还是CMIN2,也就是说,移动用户哪怕用的是CMIN2,国内段也照样和CMI的用户一起挤,这也导致移动的晚高峰qos格外严重

 时间:2024-07-07 23:16:36
1   192.168.1.1     *                         RFC1918
                                            1.52 ms / 1.33 ms / 1.39 ms
2   *
3   120.204.37.49   AS24400  [APNIC-AP]       中国 上海 上海  chinamobile.com
                                            4.49 ms / * ms / * ms
4   *
5   111.24.4.89     AS9808   [CMNET]          中国 上海   chinamobileltd.com  移动
                                            5.10 ms / 4.88 ms / 4.97 ms
6   221.183.179.22  AS9808   [CMNET]          中国 上海   chinamobileltd.com
                                            5.43 ms / 5.18 ms / 5.28 ms
7   221.183.87.218  AS9808   [CMNET]          中国 上海   chinamobileltd.com  移动
                                            6.06 ms / 5.46 ms / 5.40 ms
8   221.183.92.110  AS9808   [CMNET]          中国 上海   chinamobileltd.com  移动
                                            5.96 ms / 5.44 ms / 16.83 ms
9   223.120.160.6   AS58807  [CMIN2-NET]      美国 加利福尼亚 圣何塞  cmi.chinamobile.com  移动
                                            128.12 ms / 128.48 ms / 128.88 ms
10  223.120.196.38  AS58807  [CMIN2-NET]      美国 加利福尼亚 圣何塞  cmi.chinamobile.com  移动
                                            128.24 ms / 128.24 ms / 128.10 ms
11  223.120.200.25  AS58807  [CMIN2-NET]      美国 加利福尼亚 洛杉矶  cmi.chinamobile.com  移动
                                            135.52 ms / 128.98 ms / 134.23 ms
12  91.200.241.89   *                         美国 加利福尼亚 圣何塞
                                            138.98 ms / 135.83 ms / 133.68 ms
13  xxx.xxx.xxx.98    AS6233                    美国 加利福尼亚州 圣何塞  xtom.com
  xxx.xxx.xxx.vps.hosting                        127.71 ms / 127.82 ms / 127.59 ms


# 时间:2024-07-07 23:16:36
1   45.139.193.1    AS8888                    美国 加利福尼亚 圣何塞  xtom.com
                                            12.53 ms / 15.81 ms / 2.42 ms
2   91.200.241.86   *                         美国 加利福尼亚 圣何塞
                                            0.35 ms / 0.36 ms / 0.30 ms
3   223.120.200.24  AS58807  [CMIN2-NET]      美国 加利福尼亚 洛杉矶  cmi.chinamobile.com  移动
                                            0.47 ms / 0.58 ms / 0.60 ms
4   223.120.196.37  AS58807  [CMIN2-NET]      美国 加利福尼亚 圣何塞  cmi.chinamobile.com  移动
                                            123.57 ms / 123.50 ms / 122.53 ms
5   223.120.160.5   AS58807  [CMIN2-NET]      中国 上海   cmi.chinamobile.com
                                            122.86 ms / 122.45 ms / 122.47 ms
6   221.183.92.113  AS9808   [CMNET]          中国 上海   chinamobileltd.com  移动
                                            123.61 ms / 136.29 ms / 123.40 ms
7   221.183.87.245  AS9808   [CMNET]          中国 上海   chinamobileltd.com  移动
                                            123.66 ms / 123.42 ms / 123.52 ms
8   221.183.87.226  AS9808   [CMNET]          中国 上海   chinamobileltd.com  移动
                                            124.05 ms / 123.98 ms / 128.56 ms
9   111.24.4.106    AS9808   [CMNET]          中国 上海   chinamobileltd.com  移动
                                            124.80 ms / 174.96 ms / * ms
10  120.204.37.138  AS24400  [APNIC-AP]       中国 上海 上海  chinamobile.com
                                            125.71 ms / 125.89 ms / 125.69 ms

国内9808,境外走优化线路CMIN2,这就是移动双程极致线路。
三网对比
综合的说,就是CN2GIA≈CN2CTG>9929≈CMIN2>CN2GT>4837≈163≈CMI
三网顶级优化

三网主干网


电信用户:CN2GIA≈CN2CTG>CN2GT>163 联通用户:9929>4837 移动用户:CMIN2>CMI

这是个比较总体的评价,具体到个别商家就又不一样了,极端点的例子,比如 10G 口 4837 和 20Mbps CN2GIA,你用起来当然是 CMI 更爽,再比如 1000 个人挤的 100Mbps CN2GIA,和你独享的 50Mbps4837,毫无疑问 4837 更胜一筹,所以不要看到谁谁谁卖的 CN2,就是碾压其他的 163 商家…

想问问大家一个问题:联通用户是走 CN2GIA 还是 9929 好?

一般来说,联通走电信的网络会被跨网 qos (就是运营商会 qos 来自不同的运营商的流量),所以还是走 9929 好点。跨网 qos 最典型的例子就是电信走移动 CMI 经常被 q 成 10Mbps 不到,而移动用户就可以跑到几百 Mbps。

常见测试工具,路由追踪工具 traceroute /mtr

最基础也是最重要的路由追踪工具,可以查看数据包经过的每一跳路由节点。

不错的查询网站

ITDOG:快速测试 ip 到国内大部分地区的 ICMP/TCP 延时

BGPtool:快速查询 ip 对应的 BGP 和路由情况,上面的图都是来自这个网站

IPIPNET:查看 IP 的详细路由和 AS 信息

总结

我这多天使用下来呢,感觉移动最佳的路线还是 CN2GIA,CMIN2 的国内段晚高峰还是太拥挤了,虽然电信会 qos 移动用户,但是 CN2 还是 CN2,走起来体验比 CMIN2 好多了。至于联通的 9929,整体容量口子太小了,和 CN2GIA 不是一个量级,尤其是亚太,9929 口子小的可怜,真不如走 CN2GIA 了,不过联通用户其实 4837 表现也不错,不必追求精品网,移动用户也是,lumen 还是很快乐的,电信就只能捏着鼻子玩 CN2GIA 了,不然 163 真的卡死。


📌 转载信息
原作者:
Rosna
转载时间:
2026/1/21 21:49:12

自己稍微汇总了一下日常会使用的各类 AI 工具,真的蛮多的,汇总一下供各位参考,有推荐的工具也可以分享一下:

开发编程(终端 / IDE / 代码代理)

  • Claude Code(终端代码代理)
    • 使用:需要订阅 / API
    • 说明:终端里跑任务、改仓库、执行命令。
  • OpenAI CodeX(终端代码代理)
    • 使用:需要订阅 / API
    • 说明:终端里跑任务、改仓库、执行命令,功能与 Claude Code 类似
  • Gemini CLI(Google 终端 AI 代理)
    • 使用:可免费使用,有配额限制
    • 说明:Google 提供的终端 AI 工具,功能与 Claude Code 类似
  • Warp(AI 终端)
    • 使用:Build 计划需要订阅
    • 说明:现代化 AI 终端,Build 计划含每月 1,500 AI credits,支持 BYOK(自带密钥)
  • GitHub Copilot(代码补全 / 对话助手 / 终端工具)
    • 使用:通过 GitHub Education 免费领取 Pro
    • 说明:提供终端 Copilot 工具,可在命令行中使用 AI 辅助;同时支持 IDE 内实时代码补全和 AI 对话助手,支持多种编程语言
  • Cursor(AI IDE)
    • 使用:订阅 Cursor Pro
    • 说明:集成 AI 的现代化 IDE
  • OpenCode(开源终端 / TUI 代码代理)
    • 使用:开源软件,可接入多种模型
    • 说明:通用开源代理工具,支持接入不同 AI 模型账号,灵活配置
  • Replit(在线 IDE + Agent)
    • 使用:可免费使用,高级功能需订阅
    • 说明:浏览器内完成编写、运行、部署,适合快速原型开发和协作
  • v0 by Vercel(UI / 全栈原型生成)
    • 使用:订阅 v0 Premium
    • 说明:AI 驱动的 UI 和全栈应用生成工具,Premium 含每月 $20 credits


研究与知识工作(检索 / 文档 / 知识库)

  • Perplexity
    • 使用:订阅 Perplexity Pro
    • 说明:AI 搜索引擎,提供带来源的检索式问答和研究能力,支持文件上传分析
  • Notion AI
    • 使用:订阅 Notion AI
    • 说明:在 Notion 内实现内容总结、改写、知识库抽取与生成,作为工作流增强功能
  • ChatGPT(客户端)
    • 使用:Team 会员
    • 说明:OpenAI 的对话式 AI 助手,Mac 端支持访问本地的一些软件中的内容,比较方便。
  • Gemini(网页版)
    • 使用:Google One 学生会员
    • 说明:Google 的 期间模型,推荐深度研究、大香蕉。


编排与管理(账号 / API / 配置 / 额度监控、多 Agent 协作)

  • CC-switch(软件)
    • 使用:独立软件工具
    • 说明:统一管理 Claude Code / Codex / Gemini CLI 的账号、API、配置、MCP、Skills 等,简化多工具切换
  • Quotio(软件)
    • 使用:独立软件工具
    • 说明:监控 Claude Code / Codex / Cursor 等工具的用量和额度,支持 CLI Proxy API
  • Conductor(软件)
    • 使用:独立软件工具
    • 说明:多 Agent 协作平台,每个对话独立工作区,支持接入 Claude Code / Codex 等工具
  • Z Code(软件)
    • 使用:智谱提供的工具
    • 说明:智谱的 AI 编程平台,类似终端,偏多 Agent / 协作 / 集成的编程工作流

📌 转载信息
转载时间:
2026/1/21 21:46:54

分享给 Java 开发者的 Claude Code Rules & Skills

Claude Code 上下文的完整加载机制

优先级路径说明
1企业策略/Library/Application Support/ClaudeCode/CLAUDE.md (macOS)
2项目规则./.claude/rules/*.md(递归扫描)
3项目内存./CLAUDE.md./.claude/CLAUDE.md
4本地项目内存./CLAUDE.local.md(gitignore,个人配置)
5用户内存~/.claude/CLAUDE.md
6用户规则~/.claude/rules/*.md(递归扫描)

优先级规则

  • 项目规则 > 用户规则(冲突时项目规则覆盖全局)
  • 支持子目录组织:~/.claude/rules/frontend/*.md 也会被递归发现

Claude Code 的代码编写规范限制

从上面的加载机制中,可以很快地出结论,可以将我们的某类开发语言 (Go / Java / Vue) 的规范放到项目规则或项目内存中

所以我就会把我的我的规范 md 放到项目的 .claude/rules 文件夹中 (其实也可以放到全局的规则文件夹中,我一开始也是放到全局规则文件夹中,后面项目多了才放到项目规则文件夹中),得到如下

放入后,重启一下 Claude Code,然后使用 /memory 查看一下,有没有加载到你添加的规则文件

可以参考的 java-spring 规范 md,都是用 Claude Code 以来,很多 CC 不怎么遵守的,根据自己的项目与实际情况微调一下

规则 Gists: https://gist.githubusercontent.com/anlostsheep/b2a6e9d24c5b67b50fdeb1dcec4182ea/raw/cda9755a31a3f20aef211279cda38c0f5360ad92/java-spring.md

为什么不用 Skill 做代码编写规范?

确实使用 skill 更符合现在的方向,减少使用 tokens 以及上下文占用,

但是 skill 的调用如果是自动调用的情况下,不管是 opus 或者 sonnet 都会选择性执行 (模型要想偷懒),触发都是不稳定的,除非显式地在 prompts 中说明调用,但是 prompts 中我们更多是跟模型对话一整个功能的实现,很少会说:帮我修改 xx 类 / 帮我优化一下这个类的代码

所以我选择把这个 skill 做成一个代码审查的操作,然后每次代码完成输出后,显式地调用这个 skill 进行审查

按照这样的格式构建 skill 文件夹 java-review, 文件夹放入 SKILL.md,得到如下:

显式执行效果:

skill Gists: https://gist.githubusercontent.com/anlostsheep/be83fea55777c932267d2ba2a4ee7395/raw/c14f226b138517199d70367452f16314629a916d/SKILL.md

hook 函数

skill 的方式始终触发不稳定情况,可以添加一个 hook 函数,让 Claude Code 再每次执行了新增 / 修改操作的工具时收到一个提示 (也可以放到 git 提交的时候触发,根据自己实际情况修改),修改到了 java 代码,需要执行 java-review 进行规范审查,不过最终模型也会根据这个修改的文件复杂程度来决定是否触发这个 skill (简而言之就是想省事一点)

修改配置文件: ~/.claude/setting.json,补充一下这个 PostToolUse

"hooks": { "PostToolUse": [ { "hooks": [ { "command": "filepath=\"$CLAUDE_FILE_PATH\"; if [[ \"$filepath\" == *.java ]]; then echo '⚠️ [Java文件修改] 建议执行 /java-review 进行代码审查'; fi", "type": "command" } ], "matcher": "Edit|Write|MultiEdit" } ] } 

效果:

claude-code-guide Agent 的妙用

这个子 Agent 是 Claude Code 内置的指导使用 Claude Code 的代理,有很多我不明白怎么使用 Claude Code 的地方我都会使用这个代理进行分析

比如:

  • 配置 Hook 的环境变量不生效,提问解决

  • 插件配置问题导致启动失败 (claude-mem)

对于配置和使用 Claude Code 方面,相关的问题还是十分好解决的,


📌 转载信息
原作者:
lostsheep
转载时间:
2026/1/21 21:46:45

背景

使用 CPA 作为 API 代理,配合 OpenCode,想要通过 OpenAI 兼容格式调用 Gemini 3
系列模型。

环境配置:

  • CPA 部署在自用云服务器,配置了 OpenAI 兼容转发
  • 上游服务:https://***.com(支持多模型的 API 服务|newapi)
  • 本地客户端:OpenCode


问题现象

  1. 第一个错误:404 Not Found
  • POST “/v1/models/gemini-3-flash-preview:streamGenerateContent?alt=sse” 404

  • 请求直接返回 404,模型无法调用。

  1. 第二个错误:Invalid Role
  • 修复 404 后,出现新错误:

  • Invalid param: Please use a valid role: user, model.


问题分析

  1. 404 问题分析
  • 查看 CPA 日志发现请求路径是:/v1/models/gemini-3-flash-preview:streamGenerateContent?alt=sse; 这是 Gemini 原生 API 格式,而不是 OpenAI 兼容格式 (/v1/chat/completions)。

  • 原因:OpenCode 检测到模型名包含 gemini 关键字,自动切换到 Gemini 原生协议。

  1. Invalid Role 问题分析
  • 修复 404 后,查看日志发现请求走的是:POST “/v1/responses” 400; 这是 OpenAI 新的 Responses API(用于 GPT-5.x 等新模型),而不是传统的 /v1/chat/completions。

  • 原因:OpenCode 配置中 openai provider 包含 reasoningEffort 等参数,触发了新 API 格式。而 Responses API 使用 role: “assistant”,Gemini API 期望 role:“model”,上游服务没有正确转换角色名。


解决方案

  1. 步骤 1:CPA 配置 - 给 Gemini 模型设置别名

修改服务器上的 /path/to/cpa/config.yaml,给 Gemini 模型设置不含 “gemini” 关键字的别名:

 openai-compatibility: - name: claude base-url: https://***.com/v1 api-key-entries: - api-key: sk-xxxxx models: # Claude 模型 - name: claude-opus-4-5-20251101 alias: claude-opus-4-5 # Gemini 模型 - 使用不含 "gemini" 的别名 - name: gemini-3-flash-preview alias: "g3-flash-preview" - name: gemini-3-pro-preview alias: "g3-pro-preview" - name: gemini-3-pro-image-preview alias: "g3-pro-image-preview" 

重启 CPA 容器:
docker restart cpa

  1. 步骤 2:OpenCode 配置 - 创建独立 Provider
    关键点:不要把 Gemini 模型放在带有 reasoningEffort 等参数的 openai provider
    下,否则会触发 Responses API。
    创建一个独立的 provider:
{ "provider": { "openai": { "name": "OpenAI", "options": { "baseURL": "https://***.com/v1", "apiKey": "your-key", "reasoningEffort": "medium" // 这会触发 Responses API }, "models": { "gpt-5.2": { ... } // GPT 模型放这里 } }, "openai-compat": { "name": "Gemini via CPA", "options": { "baseURL": "https://***.com/v1", "apiKey": "your-key" // 注意:不要加 reasoningEffort 等参数! }, "models": { "g3-pro-preview": { "name": "Gemini 3 Pro Preview", "limit": { "context": 1048576, "output": 65535 } }, "g3-flash-preview": { "name": "Gemini 3 Flash Preview", "limit": { "context": 1048576, "output": 65535 } }, "g3-pro-image-preview": { "name": "Gemini 3 Pro Image Preview", "limit": { "context": 1048576, "output": 65536 } } } } } } 


问题总结

问题原因解决方案
404 错误模型名含 gemini,OpenCode 自动用 Gemini 原生协议设置不含 gemini 的别名
Invalid RolereasoningEffort 参数触发 Responses API,角色名不兼容创建独立 provider,不加 reasoning 参数


关键

  1. 模型名称很重要:某些客户端会根据模型名自动选择协议,避免使用原厂商关键字(如 gemini、claude)可以强制走 OpenAI 兼容格式。
  2. OpenAI API 有两套格式:
    • 传统:/v1/chat/completions
    • 新版:/v1/responses(GPT-5.x,带 reasoning 功能)

自用经验仅供参考


📌 转载信息
转载时间:
2026/1/21 21:42:07

前情提要


1. Fiat24 介绍

  • 大陆用户线上免费开通,没有年费或管理费
  • 附带一个与你同名的欧洲 IBAN 账户
  • 支持绑定微信支付宝在内地消费
  • 也支持订阅海外服务,比如 ChatGPTX/TwitterYouTube
  • 卡 bin:548108,隶属于 美国🇺🇸

对背景感兴趣,可以看另一个佬友的调研


2. 下载并创建钱包

链接:Bitget Wallet

若无相关知识,请选择社交登录的方式创建钱包(如谷歌 / Apple 等),防止丢失


3. 注册 Fiat 24 瑞士 IBAN 账户

1)在 Bitget Wallet 的 钱包 页面,选择 银行卡
2)左下角选择 中国大陆,点击 立即申请,注册 Fiat 24 账户,注册后点击 “去认证”;

钱包内资金要求为 >=10$,但这并非开卡费,目前开卡免费


4. 进入 Fiat24 登录页面

  • 根据提示点击对应按钮,使用 护照 进行认证


5. 如实填写你的个人信息

  • 点击 Next,填写你的邮箱账号,选择 Submit 提交;



6. 验证页面

请下载 Read ID Ready APP

  • 流程如下




7. 激活银行卡

  • 目前只支持充值 USDC(Arbitrum链)

  • 打开银行卡,点击 充值,建议充值金额填写为 11 USDC

  • 点击 确认 即可完成充值。

如左图需要 Gas 费的情况下,可以按右图教程私聊发我 钱包地址
无条件长期免费 转给佬友,一般不需要充值 getgas


8. 支付使用

点击 去激活,跳转页面后选择 Activate CardActive


9. 支付币种

  • 所有 Fiat 24 账户支持四种货币:美刀、欧元、法郎、RMB
  • 你可以为这些货币启用直接支付功能
  • 启用后,交易时将优先从相应货币余额中扣除,帮助用户避免外汇手续费
  • Direct Pay 全部打开
  • Default Card Currency 选择 USD


10. 绑定至 APP

点击按钮,查看卡信息,支持 ApplePay、微信、支付宝等等


11. 零手续费返现

BitgetWallet 会针对 Fiat24充值手续费较低汇率 进行补贴,最小提取金额为 1 USDC

充值手续费:USDC 充入卡里的 1% 手续费
汇率补贴:消费时与谷歌汇率同步


  • 0 手续费额度下,充值的费用会在下次消费的返现中一并返还


相关羊毛


具体使用场景

1. ChatGPT

  • 如果不能直接支付,套一层 Apple/Google Pay


2. 微信 / 支付宝

依据《网络支付业务管理办法》

  • 单笔不超过 3,000 元
  • 单月累计不超过 50,000 元
  • 年度累计不超过 600,000 元
单笔超过 200 RMB,老马要额外收 3% 手续费,这不是 Fiat 24 的锅


3. Google Cloud


4. PayPal


5. Azure

  • 如果直接绑卡不行,套一层 PayPal


6. 出入金银行 & 券商


7. 美区 App Store

  • 卡 bin 是美国的,支持美区

参考账单地址

街道:3054 Libby Street
街道:15-1
城市:Siletz
州:俄勒冈州
邮政编码:97380
电话:310 3134269
国家 / 地区:美国



8. 甲骨文免费服务器


9. GPT 战术型 1 年 Plus 认证


QA

五年有效期过了会发生什么?

官方说在过期前 半年 内有 消费 即可续卡

为什么绑不了 GPT

请检查网络环境,建议使用全局模式下的高质量美国节点,并确保真实地址
参考账单地址


GPT 首月免费付不了怎么办?

在零元购界面右下角切换为法国,套一层 PayPal 支付

PayPal 支付方法参考:


隔壁佬友的 Safepal 又是什么?

传送门:10 分钟通关瑞士万事达卡 (fiat24),≈0 成本,从此绑卡不求人

Fiat 24 主要合作的两家分别是 SafepalBitget Wallet,本教程属于后者
由于底层是相同的,所以这两张卡只能 二选一
但也有特殊情况,一个 护照 申请,另一个用 身份证 申请,少数的佬友成功过


我该选择 Safepal 还是 Bitget Wallet

个人偏向于 Bitget Wallet,走特殊的邀请码有首笔返现 5$ 的活动
Safepal 是送一个冷钱包,一般人不太需要,感兴趣的可以整一个玩玩,但有 5$ 运费


C 2 C 是什么?

C 2 C(英语:Customer to Customer),是指个人对个人的交易形式,该名词常出现在币圈


Gas 是什么?

可以理解为手续费,如果开卡的时候碰到可以私信我,我免费发一些给佬友


我该如何获得 USDT/USDC?

请自行搜索关键词:币安 欧易,进行 C2C 交易,请注意个人安全


这卡会影响我的征信吗?

完全不会


📌 转载信息
原作者:
Ling_Jing
转载时间:
2026/1/21 21:41:40

GitHub - op7418/Humanizer-zh: Humanizer 的汉化版本,Claude Code Skills,旨在消除文本中 AI 生成的痕迹。

根据这个仓库进行的提示词升级优化


部分节选

AI 生成的内容原提示词效果现提示词效果
实验产生了有趣的结果。智能体生成了 300 万行代码。一些开发者印象深刻,另一些则持怀疑态度。影响尚不明确。我真的不知道该怎么看待这件事。300 万行代码,在人类大概睡觉的时候生成的。开发社区有一半人疯了,另一半人在解释为什么这不算数。真相可能在无聊的中间某处 —— 但我一直在想那些通宵工作的智能体。三百万行代码 —— 当智能体真的把这个数字甩在面前时,冲击力是实打实的。有些开发者当场就被震住了,觉得这是奇迹;但也有一拨人看着这堆东西直皱眉,毕竟代码写得快是一回事,能不能用又是另一回事。这究竟是生产力的解放还是新麻烦的开始?现在谁心里都没底。
加泰罗尼亚统计局于 1989 年正式成立,标志着西班牙区域统计演变史上的关键时刻。这一举措是西班牙全国范围内更广泛运动的一部分,旨在分散行政职能并加强区域治理。加泰罗尼亚统计局成立于 1989 年,负责独立于西班牙国家统计局收集和发布区域统计数据。加泰罗尼亚统计局成立于 1989 年,负责独立于西班牙国家统计局收集和发布区域统计数据。
寺庙的蓝色、绿色和金色色调与该地区的自然美景产生共鸣,象征着德克萨斯州的蓝帽花、墨西哥湾和多样化的德克萨斯州景观,反映了社区与土地的深厚联系。寺庙使用蓝色、绿色和金色。建筑师表示这些颜色是为了呼应当地的蓝帽花和墨西哥湾海岸。寺庙采用蓝、绿、金三色,呼应了德克萨斯的自然风光:那是蓝帽花、海湾和起伏的地貌。这种设计将社区与脚下的土地紧密相连。
坐落在埃塞俄比亚贡德尔地区令人叹为观止的区域内,Alamata Raya Kobo 是一座充满活力的城镇,拥有丰富的文化遗产和迷人的自然美景Alamata Raya Kobo 是埃塞俄比亚贡德尔地区的一座城镇,以其每周集市和 18 世纪教堂而闻名。Alamata Raya Kobo 位于埃塞俄比亚贡德尔地区。这座城镇不仅有着悠久的历史传统,周边的自然景观也颇具特色。
尽管工业繁荣,Korattur 面临着城市地区典型的挑战,包括交通拥堵和水资源短缺。尽管存在这些挑战,凭借其战略位置和正在进行的举措,Korattur 继续蓬勃发展,成为钦奈增长不可或缺的一部分。2015 年三个新 IT 园区开业后,交通拥堵加剧。市政公司于 2022 年启动了雨水排水项目,以解决反复发生的洪水。像许多工业区一样,Korattur 也受困于交通拥堵和缺水问题。但这没能阻止它的发展,凭借优越的地理位置,它依然是钦奈经济版图中不可或缺的一块。
此外,索马里菜肴的一个显著特征是加入骆驼肉。意大利殖民影响的持久证明是当地烹饪格局中广泛采用意大利面,展示了这些菜肴如何融入传统饮食。索马里菜肴还包括骆驼肉,被认为是一种美味。在意大利殖民期间引入的意大利面菜肴仍然很常见,尤其是在南部。索马里菜爱用骆驼肉。另外,意大利面在这里也很常见 —— 这是意大利殖民时期留下的饮食习惯,如今已完全融入了当地人的餐桌。
新的软件更新作为公司致力于创新的证明。此外,它提供了无缝、直观和强大的用户体验 —— 确保用户能够高效地完成目标。这不仅仅是一次更新,而是我们思考生产力方式的革命。行业专家认为这将对整个行业产生持久影响,彰显了公司在不断演变的技术格局中的关键作用。软件更新添加了批处理、键盘快捷键和离线模式。来自测试用户的早期反馈是积极的,大多数报告任务完成速度更快。这次软件更新是公司持续创新的结果。新版本用起来很顺手,直观且流畅,能实实在在地提升工作效率。它不只是一次常规升级,更代表了一种全新的生产力思路。在技术快速迭代的当下,这种改变或许能产生长久的影响。

我更新后的提示词效果提升显著,以下是把深度研究的充满 AI 味的内容转写后的文章,可以看到已经完全没有 AI 味了,可与人类专业作家相媲美:


📌 转载信息
原作者:
_BIGFA
转载时间:
2026/1/21 21:41:14