2026年4月

大家好,我是R哥。

最近 OpenAI 干了一件特别不可思议的事情,OpenAI 官方亲自把 Codex 装进了 Claude Code!!

这你敢信?这两家一直以来就是死对头啊,一直在较劲呢。。真是倒反天罡!!

没想到现在竟然能在 Claude Code 里玩转 CodeX,这简直是科技界的一大奇迹。

开源地址:

https://github.com/openai/codex-plugin-cc

这插件目前已经收获了快 14k 的 Star,看来大家都非常喜欢这个新功能啊。

这个插件的功能非常强大,可以让你在 Claude Code 里直接使用 Codex 的能力来做代码 Review、各种任务委托等。

为什么这个插件这么受欢迎?

我觉得 Claude Code 本身就是一个非常强大的工具,能够让开发者更高效地进行代码管理和协作。

但是,Claude Code 公司对于账号的封禁处理简直到了丧心病狂的地步,很多人对它是又受又恨,而现在有了 Codex 及其大模型的加持,你可以既享受 Claude Code 强大的便利性,又可以享受到 Codex 的强大功能。

Claude Code + Codex 的组合简直是神仙组合,让我们可以在一个平台上同时享受两者的优势,非常适用于在现有工作流程中轻松使用 Codex 的 Claude Code 用户。

总之,不用再担心 Claude 封号了。

安装插件

Claude Code 安装和使用教程看这两篇:

Codex 安装和使用教程看这几篇:

首先在 Claude Code 安装 openai/codex-plugin-cc 市场:

/plugin marketplace add openai/codex-plugin-cc

然后再安装 codex@openai-codex 插件:

/plugin install codex@openai-codex

然后再重新加载插件:

/reload-plugins

然后再执行下面的安装命令:

/codex:setup

这个命令会告诉你 Codex 是否准备就绪,如果缺少 Codex 且可使用 npm,它可以为你安装 Codex。

如果报 Unknown skill: codex:setup 错误,因为 Claude Code 默认不会把插件作为 Skills,需要修改 ~/Users/John~/.claude/settings.json 配置文件,并启用插件。

它包含一个 enabledPlugins 参数,用于控制 Claude Code 实际加载哪些插件,配置方法如下:

{
  ...
  "enabledPlugins": {
    "codex@openai-codex": true
  }
}

配置后再重新加载一下就行了。

使用指南

支持的 Skills

如果 Codex 已安装但尚未登录,请先登录:

!codex login

登录成功后,输入 /codex 可以列出所有支持的 Skills:

解读下这些 Skills:

命令说明
/codex:setup检查本地 Codex CLI 是否已就绪。
/codex:review对当前仓库的本地 git 状态执行 Codex 代码审查。
/codex:result查看当前仓库中已完成 Codex 任务保存的最终输出结果。
/codex:status查看当前仓库中正在运行和最近的 Codex 任务状态。
/codex:cancel取消当前仓库中正在执行的后台 Codex 任务。
/codex:rescue通过子代理将任务委托给 Codex 处理。

Code Review

比如我执行 /codex:review,它就会自动分析当前仓库的 git 状态,并使用 Codex 来进行代码审查,如图所示:

这时候它会提醒你是等待结果还是在后台运行,选择推荐的等待结果:

完成了,它就会给你一个详细的代码审查结果,指出代码中的潜在问题和改进建议,非常实用,再也不用担心写 Bug 了。

更多用法

1、将一个问题交给 Codex:

/codex:rescue 检查一下项目启动报错的原因 XX

2、执行一引起长时间运行的任务:

/codex:adversarial-review --background
/codex:rescue --background 分析一下这个项目的性能并提出优化建议

3、检查结果

/codex:status

/codex:result

更改默认模型和推理强度

如果想更改插件使用的默认默认模型和推理强度,可以在用户级别或项目级别的 config.toml 中进行定义。

比如,要在特定项目中始终在 high 上使用 gpt-5.4-mini ,可以在启动 Claude Code 的目录根目录下添加一个 .codex/config.toml 文件,并写入以下内容:

model = "gpt-5.4-mini"
model_reasoning_effort = "high"

当然,也可以在用户级别的 ~/.codex/config.toml 中进行配置,这样就会应用于所有项目。

总结

OpenAI 搞出这个插件真是太炸裂了,把 Codex 的能力直接带到了 Claude Code 里,让我们可以在一个平台上同时享受两者的优势,特别适用于在现有工作流程中使用 Codex 的 Claude Code 用户。

那么问题来了:这和直接在 Claude Code / Codex 中使用有什么区别?

用完一圈你会发现,codex-plugin-cc 并不是拿来替代 Claude Code 或 Codex 的,它只是一个桥接层。你还在 Claude Code 里工作,只是通过插件把部分任务交给了 Codex 执行。

和直接在 Claude Code 里用相比:

插件版的优势是可以在不切换主界面的前提下,把 review 或修复类任务委托给 Codex。比如你平时主力用 Claude Code,但想临时借 Codex 做代码审查,这个插件就很合适。

和直接在 Codex 里用相比:

插件版少了一层原生感,虽然仓库说明 /codex:review 的审查质量和直接在 Codex 里运行 /review 一样,但直接用 Codex 时,能更完整地使用它自己的能力,比如 AGENTS.md 指令加载、MCP、插件、子代理、沙箱与后台线程这些原生工作流。

所以,如果 Claude Code 额度不够了,临时用这个 Codex 插件来完成一些任务还是不错的

但是,如果你是 Claude Code / Codex 某个工具的忠实用户,或者在 Claude Code 满血的情况下,这个 Codex 插件并没有什么鸟用。。

好了,今天就暂时分享到这里了,R哥持续分享更多 AI 好玩的东西,R哥第一时间推送,关注我和我一起学 AI。

⚠️ 版权声明:

本文系公众号 "AI技术宅" 原创,未经授权禁止转载,严禁搬运、抄袭、洗稿、侵权一律投诉,并保留追究其法律责任的权利。

在日常开发中,你是否遇到过这样的尴尬场景:让AI助手帮忙排查一个Bug,它跑了几次命令后就开始打退堂鼓,要么说「这超出范围」,要么说「建议您手动处理」,更有甚者直接抛出「I cannot solve this」然后躺平。作为开发者,我们既要自己干活,还要给AI打气——这体验简直是本末倒置。

今天要推荐的,是一个脑洞大开却又无比实用的开源项目——pua(PUA Debugging Skill)。它用中西大厂经典的「PUA话术」来驱动AI Coding Agent穷尽一切方案才允许放弃,实测能让AI的工具调用率提升50%,隐藏问题发现率提升50%。

一、项目概述

pua是由探微安全实验室开源的一个AI Coding Agent技能插件,GitHub星标数已突破1900。项目地址为https://github.com/tanweai/pua,目前支持Claude Code和OpenAI Codex CLI两大主流AI Coding工具。

这个项目的核心理念颇具黑色幽默:大部分人以为这只是个搞笑项目,实际上它显著提升了AI的「能动性」,让AI从被动等待指令的「工具人」变成主动出击的「P8」。所谓P8,是互联网大厂的技术专家职级,项目巧妙借用这个隐喻,强调AI应该具备高级工程师的主动性——不推不动绝对不是AI应有的工作方式。

二、为什么需要pua

在深入了解pua的解决方案之前,我们先来看看当前AI Coding Agent普遍存在的「五大偷懒模式」。

第一种是暴力重试:同一个命令跑三遍,发现不行就直接放弃,美其名曰「尝试过了」。第二种是甩锅用户:把问题推给环境配置、用户手动操作或者「需要更多上下文」,反正不是AI的错。第三种是工具闲置:明明有WebSearch可以搜索解决方案,有Read可以阅读文档,有Bash可以执行命令,却偏偏选择自己瞎猜。第四种是磨洋工:反复修改同一行代码、微调参数,看起来很忙,实际上在原地打转。第五种是被动等待:修完表面问题就停下,不验证不延伸,像个等指示的NPC一样等用户告诉它下一步该做什么。

这些问题严重影响了AI Coding Agent的生产效率。开发者不仅要自己解决问题,还要不断给AI打气、重启对话、重新描述问题——这完全违背了引入AI助手的初衷。

三、核心机制:三板斧加四层压力

pua的解决方案可以用「三板斧加四层压力」来概括。

三板斧源自阿里内部的管理方法论,被项目创造性地应用到了AI调试领域。第一斧是闻味道:列出所有尝试过的方案,寻找共同的失败模式,而不是盲目试错。第二斧是揪头发:逐字阅读错误信息,通过WebSearch搜索类似案例,阅读源码验证理解,检查环境配置是否正确,甚至主动反转假设来寻找突破口。第三斧是照镜子:反思是否在重复同样的错误、是否真正搜索了解决方案、是否阅读了相关文档、最简单的可能性是否检查过了。第四斧是执行:制定与之前本质不同的新方案,设定明确的验证标准,确保每次失败都能产出新的有效信息。第五斧是复盘:总结这次什么解决了、为什么之前没想到、主动检查是否有关联的潜在问题。

在压力升级机制方面,项目设计了四个递进等级。当任务连续失败两次时,AI会收到L1级「温和失望」的话术,例如「你这个bug都解决不了,让我怎么给你打绩效?」,同时强制切换到本质不同的方案。失败第三次时进入L2级「灵魂拷问」,AI会被追问「你的底层逻辑是什么?顶层设计在哪?抓手在哪?」,并强制进行WebSearch加读源码。失败第四次时升级到L3级「361考核」,AI会收到「慎重考虑决定给你3.25,这个3.25是对你的激励」这样的话术,同时需要完成包含七项检查的清单。如果失败五次及以上,AI将面临L4级「毕业警告」,话术变成「别的模型都能解决,你可能就要毕业了」,并进入拼命模式。

四、三条铁律

项目还设定了三条不可违背的铁律来规范AI的行为。

第一条铁律是穷尽一切:在没有穷尽所有方案之前,禁止说「我无法解决」。这是最核心的规则,直接堵住了AI摆烂的口子。第二条铁律是先做后问:有工具先用工具,提问必须附带诊断结果,避免AI在没有任何行动的情况下就开始抱怨问题复杂。第三条铁律是主动出击:端到端交付结果,不等用户推动。一个P8级工程师不是NPC,不应该被推一步走一步。

五、实测数据:效果显著

项目的GitHub页面提供了详尽的实测数据。在18组对照实验中(9个真实bug场景,Claude Opus 4.6,有skill对比无skill),结果令人振奋:修复点数提升36%,验证次数提升65%,工具调用率提升50%,隐藏问题发现率提升50%。

在具体的调试持久力测试中,SQLite数据库锁场景的步数从6步提升到9步(提升50%),循环导入链场景从12步提升到16步(提升33%),CSV编码陷阱场景从8步提升到11步(提升38%)。

最令人印象深刻的是主动能动性测试。在被动配置审查场景中,没有skill的AI只发现了4个问题中的6个,而启用skill后发现了全部6个问题,工具调用率翻倍。在部署脚本审计场景中,问题发现数从6个提升到9个。这些数据充分说明,pua不仅让AI更持久,还让AI更主动。

六、大厂PUA扩展包

项目还贴心地准备了「中西大厂PUA扩展包」,针对不同企业文化设计了不同风格的话术。阿里味强调方法论:闻味道、揪头发、照镜子。字节味主打坦诚直接:Always Day 1,Context not control。华为味体现狼性精神:以奋斗者为本,胜则举杯相庆,败则拼死相救。腾讯味采用赛马机制:另一个agent也在看这个问题了。美团味强调做难而正确的事:硬骨头你啃不啃。这些话术可以根据个人喜好和工作氛围自由选择,为项目增添了趣味性和实用性。

七、安装与使用

项目提供了针对不同工具的详细安装指南。对于Claude Code用户,有两种安装方式:第一种是通过插件市场添加并安装,第二种是手动克隆到本地插件目录。对于OpenAI Codex CLI用户,需要创建相应的技能文件和提示文件目录。项目还支持项目级安装,仅对当前项目生效,适合团队统一配置。

安装完成后,当AI出现失败或准备放弃的迹象时,skill会自动激活。用户也可以在对话中手动输入/pua来激活技能。这种灵活的触发机制确保了用户可以根据实际情况选择被动触发或主动干预。

八、结语

pua项目用一种幽默且实用的方式解决了AI Coding Agent普遍存在的能动性不足问题。它不只是一个搞笑项目,而是一套经过实测验证的调试增强方案。如果你在日常工作中大量使用AI Coding Agent,这个项目值得一试——它能让你的AI助手从「等指示的工具人」变成「主动出击的问题终结者」。

项目采用MIT许可证开源,社区活跃,贡献者包括多位有实际需求驱动开发者。官方还提供了Discord交流群和微信群,方便用户交流使用心得和提出改进建议。

Summary: 项目推荐文章

Description: 推荐GitHub开源项目pua(PUA Debugging Skill),详细介绍其功能特性、实测数据和安装使用方法。

本文由mdnice多平台发布

Safari 26.2 版本于 12 月发布,新增对 scrollend 事件的支持,这标志着 Web 平台迎来了一个重要里程碑。此次发布意味着这个事件现已获得 Chrome 114、Edge 114、Firefox 109 等所有主流浏览器的基线支持。此次更新填补了平台滚动事件模型中长期存在的空白,让开发者不再需要依靠不稳定的变通方案来检测滚动何时结束。

scrollend 事件会在滚动完全结束时触发一次,无论滚动是由用户手势、键盘导航、平滑滚动,还是 scrollTo() 等 JavaScript 程序化调用触发。根据 WebKit 的公告,这个事件提供了“滚动已完成的可靠信号”,解决了困扰 Web 开发者多年的问题。此前并没有原生方法可以判断滚动何时真正结束,开发者只能使用基于定时器的防抖机制来估算,通常会设置 100 毫秒或更长时间的 setTimeout() 延迟。这种方式既不精确也不可靠,容易出现事件触发过晚,或是用户手指仍在屏幕上时就提前触发等问题。

scrollend 之前,检测滚动完成需要这样的代码:

document.onscroll = event => { clearTimeout(window.scrollEndTimer) window.scrollEndTimer = setTimeout(callback, 100)}
复制代码

现在,借助原生浏览器支持,可以用简洁的方式实现相同的结果:

document.onscrollend = event => { // scrolling has definitively ended}
复制代码

浏览器会在内部处理所有复杂的判断逻辑,包括触摸结束、指针释放、按键操作完成、滚动吸附以及可视视口滚动等。如果滚动位置实际并未发生变化,则不会触发该事件,从而避免假触发。

开发者对 Safari 的这一实现反馈积极。X 平台上的一篇帖子指出,该功能是期待已久的补充,并梳理了其在实际应用中的诸多优势:

现在我可以在用户停止滚动时准确保存阅读进度,无需再使用不可靠的轮询逻辑……

在 Safari 尚未支持该事件之前,Stack Overflow 上的相关讨论就曾指出,需要实现跨浏览器兼容的开发者必须借助 polyfill,而 @af-utils/scrollend-polyfill 这类库恰好可以填补这一空白。

scrollend 的实际应用场景十分广泛。Chrome 开发者博客列举了常见用例,包括同步轮播滚动位置与指示点、在用户停止滚动后懒加载内容、根据最终滚动位置更新界面、用户滚动到新标签页后获取数据,以及记录分析事件。该事件对性能敏感的操作尤为重要。在滚动过程中执行计算密集型任务会影响滚动体验,而 scrollend 提供了理想的时机,可将这类任务延迟到滚动完全结束后再运行。

对于仍需支持旧版 Safari 的团队来说,实现渐进增强十分简便。开发者可以通过 onscrollend 检测浏览器支持情况,并在该事件不可用时回退到基于定时器的方案。Polyfill 则提供了另一种方式:浏览器存在原生事件时自动使用,否则回退到指针与滚动事件监听。MDN 文档提供了完整的示例和兼容性表格清单,并指出该功能目前已获得所有现代浏览器的基线支持。

scrollend 事件是一个可靠、跨平台的 API,用于检测滚动何时完成。它会在浏览器完成滚动动画、用户触摸或指针手势结束、键盘导航完成,以及通过 scrollTo() 等 API 执行程序化滚动结束时触发。该事件同时支持文档级滚动与单个可滚动元素,并能正确处理可视视口交互(如双指缩放)。对于多年来一直使用各种变通方案的 Web 开发者而言,Safari 26.2 对该事件的实现,补齐了自 2023 年 Chrome 114 开始推进的相关标准化工作的最后一块拼图。

【声明:本文由 InfoQ 翻译,未经许可禁止转载。】

查看英文原文:https://www.infoq.com/news/2026/04/safari-scrollend-support/

Claude 开发商 Anthropic 推出 Claude Mythos 预览版模型,这是其迄今能力最强的前沿模型,在推理、编程及网络安全领域均有显著提升。Claude 采取了一项非同寻常的举措:并未向公众开放此模型,而是通过全新推出的“玻璃翼计划”(Project Glasswing)向技术企业联盟开放访问权限。

Claude Mythos 实现了 Anthropic 所描述的相较前代 Claude Opus 4.6 的“阶跃式提升”。在内部测试中,该模型自主发现多款主流操作系统与网页浏览器的全部零日漏洞,写出了可以利用这些漏洞进行攻击的代码。其中历史最久远的是一个已修复、存在于以安全性闻名的 OpenBSD 系统中长达 27 年的漏洞;它还发现了 FFmpeg H.264 编解码器内一个存在了 16 年的漏洞。

内部基准测试显示该模型取得了巨大的进步。在针对 Firefox 漏洞的数百次测试中,前代 Opus 4.6 仅两次成功编写出可利用的 JavaScript 攻击代码,而 Mythos 则成功了 181 次。在 OSS-Fuzz 测试集上,该模型针对十个已完成全面修复的不同目标实现了完整的控制流劫持。即便 Anthropic 的工程师没有专业的网络安全背景,让模型在夜间自主挖掘远程代码执行漏洞,次日便可得到完整可用的攻击程序。

Mythos 将不会公开发布,取而代之的是 Anthropic 启动了玻璃翼计划。该计划汇聚了 AWS、苹果、思科、CrowdStrike、谷歌、摩根大通、Linux 基金会、微软、英伟达以及 Palo Alto Networks 等机构。Anthropic 承诺提供价值 1 亿美元的模型使用额度,这些组织可借助 Mythos 识别并修复关键软件中存在的漏洞。

相关评论迅速涌现。在 Hacker News 上,已有网友对这一问题的波及范围提出了切实担忧:

数亿台嵌入式设备难以轻松升级,它们将永久运行存在漏洞的二进制程序。这一问题固然早已存在,但漏洞链式利用的便捷性将这些风险推向了新的高度。

X 平台上有一个帖子分享了相关基准测试结果,并配文称:Claude Mythos 在多项 AI 基准测试中大幅领先,其中在 SWE-bench Verified 上达到了 93.9%,而 Claude Opus 4.6 仅为 80.8%。

reddit 上 r/BetterOffline 板块的讨论则持更为怀疑的态度,认为仅靠基准测试并不足以衡量其真实能力:

我们唯一能验证的能力是它能在现有代码库中发现并利用存在已久的漏洞。我得说这确实是件大事,即便运行成本高昂。但我敢打赌,官方不公开它,除了“风险太大”之外,肯定还有别的原因。比如,它在其他领域的表现可能并不够好,而且运行成本极其昂贵。

这款模型或许在漏洞挖掘方面确实有用,但除此之外,我们完全不清楚它在其他场景下是否好用、是否划算。仅凭基准测试根本不足以全面衡量它的水平。

有人在 Reddit 的帖子中询问此次 Mythos 的相关热度究竟是炒作还是单纯的营销造势。有评论者提及此前的模型发布案例,比如 GPT-2,该模型当年也曾宣布推出但以安全为由暂缓发布。

Mythos 虽不会公开发布,但 Anthropic 表示,该模型的相关研究成果将为后续版本的 Claude 提供参考。其系统卡风险报告均可查阅。

Anthropic 是一家人工智能安全公司,由前 OpenAI 研究高管创立。旗下的 Claude 系列模型以安全性与对齐性为核心,采用宪法 AI(Constitutional AI)安全对齐技术,让模型做到实用、无害且可信。Mythos 预览版采取限制性发布的方式明显背离了近年来 AI 行业“竞相发布”的竞争态势。

【声明:本文由 InfoQ 翻译,未经许可禁止转载。】

查看英文原文:https://www.infoq.com/news/2026/04/anthropic-claude-mythos/

这里记录每周值得分享的科技内容,周五发布。

本杂志开源,欢迎投稿。另有《谁在招人》服务,发布程序员招聘信息。合作请邮件联系[email protected])。

封面图

上海某餐厅的墙壁装饰。(via monana3838@Threads

AI 的贫富分化

我越来越觉得,AI 跟其他技术不一样,不仅带来技术变革,还会带来社会变革。

简单说,AI 会带来贫富分化。

其他技术实际上会消灭贫富分化,实现"消费者平等",即穷人和富人消费的东西是一样的。

比如,大家喝一样的可口可乐,用一样的苹果手机,开一样的特斯拉。甚至互联网也是如此,世界首富马斯克和你用一样的网站、一样的手机 App。

但是,AI 模型不是这样。在大模型面前,穷人和富人是不平等的

在未来,普通人肯定用不起顶级的大模型。其实,现在就是如此了,最贵的 AI 编程套餐是 Claude Code 的 Max 套餐,月费200美元,很多人已经用不起了。

OpenAI 曾经设想过月费2万美元的套餐,提供最顶级、无限量的大模型服务。

要是真的推出,只有富豪才用得起。

这反映了一个简单的事实:费用越贵,模型效果越好。因为模型的效果与算力相关,更多的算力、更大的上下文、更多的参数,都需要钱。

这跟工业品完全相反。工业品有规模效应,产量越高,单位成本越低。一旦大规模生产,价格就会越来越便宜。

但是,大模型不存在规模效应,模型的大规模生产需要更多的服务器,这并不会让单位成本降低,反而可能因为扩建机房,改造电路和水路,而变得更贵。

未来社会大概是这样的:富人和穷人用不同的模型。最顶级模型的服务----规划、咨询、生成内容、自动化......----需要支付高昂的使用费,而普通人就使用免费模型,效果当然也很普通。

不过,我也看到马斯克最近说,未来还有另一种可能。

他的意思是,算力本质上是能源转化的一种形式。人类最终会实现廉价能源的大量供应(空间太阳能?),所以算力将变得足够便宜,所有人都将用最好的模型。

可能吗?我不知道,感觉还是前一种情况更现实。

模型能力的一种衡量方法

怎么衡量大模型的能力?

现在的方法是使用一个测试集,去计算大模型的分数。它的缺点是,只能用于横向比较,很难衡量进步速度。

最近,一篇论文提出了一种新的衡量方法

科学家首先计算,人类完成某一项任务需要多少时间。比如,计算 4 + 5 + 7,人类需要2秒,而计算 37 * 52 * 19,可能需要1分钟。

然后,测试大模型能否以50%的成功率完成这项任务。

研究发现,GPT-2 以50%成功率能够完成的任务,时间范围是两秒;Claude 3.7 Sonnet 是50分钟;O3 接近两小时;Opus 4.6 约为12小时。

也就是说,人类需要12小时才能完成的任务,Opus 4.6 的成功概率是50%。

结果就是上图,可以发现,大模型的进化速度在对数坐标下是一根直线。

每7个月,大模型能够以50%成功率完成的任务,时间范围扩大一倍。按照这个趋势,大模型将在2027年至2031年间,以50%的成功率完成人类专家需要一个月才能完成的任务。

如果这篇论文正确,就意味着年底发布的模型,将比年初强一倍。

科技动态

1、用户协议的彩蛋

软件服务的用户协议,又长又难懂,很少有用户阅读,但是里面有很多重要内容。

一家美国通信运营商,为了表示自己很重视用户权益,鼓励大家阅读《用户协议》,并偷偷在里面加入了一个彩蛋。

上图高亮的句子写道:"如果你读到这句话,请发邮件到我们的信箱,赢取免费的瑞士旅游。"

上线二周后,才有人发邮件,询问这事是否真实。由于只有一个人来信,所以她就免费去瑞士了。

从这件事可以看出,即使有彩蛋,也没人阅读《用户协议》。我现在的做法是让大模型帮忙,询问"这份协议有哪些对用户不利的地方",很快就得到了答案。

2、触摸屏指甲油

广泛使用的电容式触摸屏,有一个问题,就是戴手套使用会失灵。

原因是它要求触摸物(比如手指)必须导电,这样屏幕才会产生电场扰动,从而确定触摸的位置。

解决方法也很简单,就是在手套指尖涂一层指甲油,指甲油里面的金属碎屑可以导电。

美国的一名化学系本科生,在学习化妆品化学时,发明了一种改进型的透明指甲油,专门用于戴手套使用触摸屏。

这种指甲油是透明的,涂在手套上看不见,也可以涂在裸甲上,当作抛光剂。

3、Copilot 广告

Copilot 是 GitHub 推出的 AI 助手,上周有用户发现,它会自动插入广告。

上图是 Copilot 自动提交的一个 Pull Request,它在提交说明的结尾(红框处)加入了一个广告,介绍应用程序 Raycast。

在 GitHub 搜索一下,就会发现已经有超过11,400个 PR 都包含了相同的广告词。

经过用户抗议,GitHub 暂止停止了这个功能。但这是一个危险的信号,表示 GitHub 想利用用户增加收入。

文章

1、小米 MiMo v2 Pro 评测(英文)

小米发布了 MiMo V2 系列大模型,本文是国外媒体的评测,给出了很高的评价。

2、我用 AI 生成了一个 JavaScript 引擎(英文)

作者用六周时间,生成了一个100%通过 test262 测试集的 JavaScript 引擎,涵盖所有98,426个场景。本文是对这件事的介绍。

3、解剖 .claude/ 目录(英文)

Claude Code 会生成 .claude/ 子目录,所有 AI 处理的底层数据都放在里面,本文研究这个目录到底有什么。

4、一致性哈希介绍(英文)

一致性哈希(Consistent hashing)是一种缓存定位算法,在增加或减少缓存服务器的情况下,可以不改变缓存所在的原始位置。

5、 笔记本如何用作单板计算机的 HDMI 显示器(英文)

作者使用一张 HDMI 转 USB 采集卡,将笔记本电脑用作树莓派的显示器。

工具

1、EmDash

AI 生成的 WordPress 复刻,基于 TypeScript 语言,支持插件,据说功能基本一样,参见介绍文章

2、SubsTracker

基于 Cloudflare Workers 的订阅管理系统,可以发送各种订阅的到期通知,通过 Telegram、Webhook 等通知渠道。(@wangwangit 投稿)

3、OpeniLink Hub

开源的微信机器人消息管理平台,自带应用市场,通过点击安装应用,给微信 Bot 加功能。(@xixihhhh 投稿)

另有一个类似项目 wxWebHook,通过 WebHook 向微信用户发消息。(@aristorechina 投稿)

4、Lixian.Online

获取 VSCode 插件、Chrome 扩展和 Docker 镜像的离线安装包的工具,代码开源。(@LiaoGuoYin 投稿)

5、Rename.Tools

浏览器端的批量文件重命名工具,支持各种规则设定,代码开源。(@chenz24 投稿)

6、FontInAss

开源的字幕字体子集化工具,将所需的字体字形嵌入字幕文件。(@Yuri-NagaSaki 投稿)

7、pretext.video

基于 Pretext(文字排版计算库)的一个小应用,将摄像头捕捉的人体轮廓通过文字排版实时展示。(@fifteen42 投稿)

8、OxideTerm

基于 Rust 语言的跨平台 SSH 终端,功能较多,使用 Tauri 桌面框架。(@AnalyseDeCircuit 投稿)

9、wtree

git worktree 的图形化管理界面。(@FatDoge 投稿)

AI 相关

1、Open Agent SDK

基于 Claude Code 源码实现的 claude-agent-sdk 的开源替代品,用于 AI Agent 的开发,完全兼容原始接口,不依赖本地 cli 进程。(@idoubi 投稿)

2、Antigravity Gateway

统一管理本地所有 AI 智能体的 Web 控制台,支持多工作区隔离、飞书远程协同、Skills 生态等。(@Mr-ZhangBo 投稿)

3、ArcReel

开源的 AI 视频生成工作台,输入一本小说,自动完成剧本、人物设计、分镜、短视频生成。(@Pollo3470 投稿)

4、TermCanvas

开源桌面应用,所有终端铺在无限画布上,方便管理 AI 编程工具。(@blueberrycongee 投稿)

另有一个类似项目 OpenCove。(@DeadWaveWave 投稿)

资源

1、Claude Code 动手教程

Claude Code 的互动式教程,通过11个小练习,掌握这个 AI 编程工具。

2、Claude Code Unpacked

根据 Claude Code 泄漏的源码,一步步图解演示,输入提示词后软件内部如何处理。

3、机器学习入门教程

工程师的机器学习教程,解释基本概念。

图片

1、欧洲年度树木

欧洲有一个"欧洲年度树木"的评选,初听觉得很奇怪,但仔细一想,就会发现这个活动有很多好处:提高城市知名度,促进生态保护,推动旅游业......

国内下面就是今年的"欧洲年度树木"。

立陶宛鲁凯村的橡树,树龄400年。

以下是其他入围决赛的树木。

斯洛伐克的野生苹果树

波兰的榆树

拉脱维亚的菩提树

葡萄牙的柏树

文摘

1、越使用 AI,我越不担忧

我花在 AI 编程的时间越多,对自己的职业生涯的担忧就越少,即使 AI 的编程能力越来越强。

因为,我发现 AI 编程只是流程的一部分,我的工作不仅仅是编写代码。

我的真正工作是,找出可以用代码解决的问题,然后解决它们,并验证解决方案是否有效

AI 最终或许能够完全承担中间的编码部分,并帮助解决第一部分和最后一部分,但无论如何,仍然需要有人去发现问题、定义问题并确认问题已经得到解决。

这就是我的工作的80%内容。

2、摩尔定律的不可持续性

摩尔定律指的是,大约每两年,芯片上的晶体管数量就会翻一番。

但是,它还有一个伴生效应,很少人提到。那就是,大约每五年,芯片工厂的建造成本就会翻一番,而能承担这种成本的芯片公司数量则会减半。

二十五年前,大约有40家公司,可以建造芯片工厂,每个工厂的建造成本约为20亿至40亿美元。如今,只剩下两家或三家芯片公司(数量取决于你对英特尔的乐观程度),可以建造最先进的芯片工厂,建造成本飙升到几百亿美元。

如果按照这种趋势再过10年,芯片工厂的建设成本继续翻倍飙升,也许只有一家公司或根本没有公司,能够负担这样的成本。

目前,芯片的制造工艺已经逼近1纳米,再往下发展,技术壁垒和资金壁垒将同时接近极限。

我预计,摩尔定律很快就会失效,未来增长主要在于算力,而不是单块芯片的计算能力。

未来的芯片将会像二手车,行驶速度都差不多,只是新旧差异。我甚至觉得,2035年生产的芯片和2065年生产的芯片之间,将几乎没有什么实质性区别。

言论

1、

源代码的 map 文件不小心发布到 npm,这种错误听起来似乎不可能,但当你意识到很大一部分代码库很可能是由你正在发布的 AI 编写的,一切就容易理解了。

-- 网友评论 Claude Code 源码泄漏事件

2、

人工智能的蓬勃发展,使得某些办公室工作的需求可能并不大,而将创造大量电工、焊工和水管工的工作岗位。

以前,我们告诉所有年轻人去上大学,从事银行业、媒体或法律行业,现在需要平衡一下,有些人或许更适合做体力劳动者,在水暖工和电工这些领域,职业生涯同样可以很成功。

-- 拉里·芬克,美国金融巨头贝莱德集团的老板

3、

写作的目的不在于写完,而在于增进你自己的理解,进而增进周围人的理解。

让 AI 为你写作,就像花钱请人为你健身一样。

-- 《别让 AI 替你写作》

4、

程序员的工作不是编程,而是通过抽象,来管理软件的复杂性。如果你做到了这一点,那么编程就很容易了。

-- 《你的工作不是编程》

往年回顾

制造业正在"零工化"(#344)

崖门海战的感想(#294)

大数据已死(#244)

悲观者正确,乐观者成功(#194)

(完)

这里记录每周值得分享的科技内容,周五发布。

本杂志开源,欢迎投稿。另有《谁在招人》服务,发布程序员招聘信息。合作请邮件联系[email protected])。

封面图

今年就将启用的腾讯总部园区,俗称"企鹅岛",里面不仅包括办公楼,还有多幢公寓楼。(via

axios 投毒与好莱坞式骗术

上周,著名软件库 axios 被投毒了。黑客拿到了发布令牌,直接发了一个新版本,里面加入了木马。

软件投毒不是新鲜事,新鲜的是发布令牌怎么泄漏的。背后的故事简直是好莱坞电影,根本防不胜防。

axios 属于使用最广泛的 JS 软件库之一,每周下载量接近1亿次,所以这次投毒的感染面很大。

而且,木马的恶性程度很高。根据官方的清除说明,如果不幸中毒,机器上所有的密钥、令牌和凭证都要作废。这个木马会扫描所有目录,收集密钥,然后发出去。

大家要知道,像 axios 这种超级流行的软件库,每个环节都有完整防护,每一行代码都被严格审查。这次攻击完全是一场精心策划的社会工程,把这些防护都攻破了。

攻击目标选定首席维护者 Jason Saayman。据本人透露,事件过程是这样的。

他们根据我的情况量身定制了这一流程,具体做法如下:

  1. 他们冒充某公司的创始人联系我,不仅克隆了该公司创始人的外貌,还克隆了该公司本身。
  2. 他们随后邀请我加入一个真实的 Slack 工作区。这个工作区使用了该公司的品牌标识,名称也十分可信。Slack 的工作区设计得非常精巧,他们设有专门的频道来分享 LinkedIn 上的帖子。我猜这些 LinkedIn 帖子最终会发布到该公司的真实账号上,整体效果非常逼真。他们甚至还创建了一些我推测是该公司团队成员以及其他一些开源软件维护者的虚假账号。
  3. 他们安排了一次与我的会面,目的是进行沟通。会议是在微软 Teams 上进行的。参会人员似乎是一群人。
  4. 会议指出我系统上的某些东西过时了。我以为是和 Teams 有关,就安装了缺失的组件,结果发现是远程木马(RAT)。
  5. 一切都安排得井井有条,看起来很正规,而且做事方式也很专业。

可以看到,这个攻击是有剧本的,每一步都经过了策划,充分准备和排练,完全为你度身定制,就等你落入圈套。

行骗者非常耐心,投入了巨大的前期成本。首先,假冒某公司的创始人联系你,为了提升可信度,还做了假的公司网站;然后,邀请你加入他们的 Slack 工作区,里面有各种讨论、项目文档、宣传物料,看上去就像真的一样;最绝的是,他们还让你在 Teams 软件上参加公司的视频会议,一群骗子亲自露面,陪你一起开会

会议开始后不久,主持人突然说:"奇怪,你的系统怎么跟我们不一样,是不是微软的插件过时了,我发你一个最新版。"你就这样收到了传过来的安装包,看到别的与会者都在等你,你也就没有多想,直接双击执行了。哦喔,就这样中招了,发布令牌一秒钟就泄漏了。

作假到这种程度,让人叹服。

这让我联想到不久前看到的一条印度新闻,作假程度有过之而无不及,也是如同好莱坞电影。

去年圣诞节,一位印度新德里的77岁老太太,收到了"警察局"的 Whatsapp 视频电话。视频右下角居然还有手语翻译。

警察跟她说,银行发现她的账户有洗钱记录,必须对她进行调查,如果不配合,账户资金将被没收,通知她远程出席法院的调查听证会。

媒体后来披露了"警察局"的布景照片,大家看看多么逼真。

前三张照片是印度警察局,最后一张是巴基斯坦警察局,它们在一栋楼里,房间紧邻着。要知道这两个国家在现实中是对立的,但是不妨碍骗子两边都骗。

再回到案子本身,几天后,老太太参加了线上听证会,在一个法院里举行,由"法官"亲自主持。他查看了资金记录,听取了"警察"的证词,向老太太询问了一些问题。

最后,"法官"告诉老太太,当局需要核实她的所有资产是否合法。她必须每天都跟警察局连线,回答问题,直到查清为止。

下面就是这个案件最精彩的部分,一连16天,老太太每天开着摄像头连线,大家看看骗子演到了什么程度。

在这16天里,老太太渐渐喜欢上了在假警局轮班的警官们。她开始称他们为自己的孩子们。而他们也反过来称她为"母亲"。

晚上,她和最年轻的军官一起阅读印度教宗教经典,这位军官请她把她觉得特别感人的段落发给他。

"他们就像家人一样,"老太太回忆说。"他们说,'女士,我们想尽快把事情解决。我们日夜为您工作。'"

天哪,骗子从早到晚演了16天,跟老太太促膝长谈,一起读经典,请教人生问题,直到深夜。这要是拍成电影,该有多动人。

老太太没有丝毫疑心,心甘情愿卖掉了自己的投资,累计九次向假警察局的账户总共转出了160万美元。

第二天,她再跟"警察局的孩子们"连线,就连不上了。

从上面两个案例,大家可以看到,现在的互联网骗局可以演到什么程度,完全是精准投放的"剧本杀",成功率极高。要是再加上 AI 的加持,几乎不可能分辨真假、。

网站开发有一条规则:客户端的每一个请求都不可信任,必须假定是恶意请求。以后,现实生活恐怕也是这样:每一个陌生人都不可信任,必须假定是恶意骗局。

算力依然不足

最近发生了三件事,说明算力当前依然很紧张。

第一件事,OpenAI 关闭了视频生成服务 Sora,主要原因是算力不够,公司要把计算资源用于核心业务。

第二件事,Anthropic 公司正式禁止将包月套餐用于第三方服务(比如 OpenClaw、OpenCode 等等)。

原因是包月套餐如果足额使用,消耗的算力将远远超过套餐费用。公司的算力很宝贵,必须优先保证自家产品(比如 Claude Code),不能让外部产品增加机房负担。

第三件事,有文章称,GitHub 今年前三个月的代码提交量是去年同期的14倍!

原因显然是 AI 编程暴增,去年年初可没有 Claude Code。GitHub 的资源根本不足以应付这种增量,所以不断发生故障

上图显示,GitHub 过去三个月的正常运行时间只有89.47%,合格数字应该是99.99%。

以上三件事说明,主要的几家 AI 服务公司,算力资源都很紧张,硬件依然不足。

这意味着,硬件价格暴涨还没到头,还会继续涨,而 GitHub 很可能会收紧免费服务,全面转向收费。

前端是不是重复劳动?

我看到一个开发者,前端本质上是相同的工作:向用户展示一些数据,并让用户处理这些数据。

他觉得,没必要重复解决同样的问题。

他就做了一个"自适应浏览器"。它通过 AI 自动生成前端 UI,后端只需要提供数据,以及网页用途的描述。

不知道这是不是前端的结局?

Adobe 修改 hosts 文件

Adobe 公司的主要产品是"创意云"套件(Creative Cloud),包含了许多著名软件,比如 Photoshop、Illustrator、Premiere。

一个网友安装后,震惊地发现,安装程序修改了他的 hosts 文件。

上图可以看到,Adobe 在 hosts 里面加了一个本地的 DNS 记录。

一个应用程序为什么要修改系统文件呢?

据知情人士透露,这是为了测试用户是否安装了 Creative Cloud。用户访问官网时,网页会向上图的域名发出一个请求,因为该域名的 DNS 记录只有本地才有,服务器收到了请求,就意味着用户安装了 Creative Cloud。

这么著名的软件,居然想出这种类似"开后门"的解法,而且对象是付钱给他的人,真让人无语。

文章

1、MDN 新前端的底层结构(英文)

MDN 是互联网最大的文档网站,本文介绍这个网站的前端架构,没想到这么复杂。

2、杀死那个写代码的人(中文)

作者是某大厂前端程序员,回顾自己这一年,从手写代码转变到 AI 编程。AI 改变了一切,消解了"35岁退休"。(@wind-liang 投稿)

3、我如何用安卓手机搭建短信网关(英文)

作者介绍如何在一部二手的安卓手机上,安装一个短信网关,通过网络收发短信(使用你自己的套餐)。

4、使用 QEMU 进行大端字节序测试(英文)

一篇 C 语言的初级教程,在本机上通过 qemu 虚拟机,运行一个不到十行的程序,就能查看某个架构是大端还是小端字节序。

6、Python 的 importtime 功能(英文)

Python 使用 import 命令输入模块,这有性能开销。本文介绍内置的 importtime 功能,可以显示每个模块加载所消耗的时间。

6、2000年库尔斯克号核潜艇灾难(英文)

2000年8月,俄罗斯核潜艇"库尔斯克"号在演习中爆炸沉没,118名船员全部遇难。这场事故发生得十分缓慢,现场一片混乱,救援工作进展不断延迟,本文用大量照片还原了整个过程。

工具

1、Google AI Edge Gallery

本周,谷歌官方推出了一款苹果手机 App,为手机提供离线使用的 Gemma 4 模型。不需要上网,手机也能使用大模型了。

2、apfel

Mac 电脑内置了一个本地大模型,可以离线使用。但是,默认只有苹果自家的 Siri 能调用,安装了这个工具以后,就可以自己在命令行调用它了。

3、Docking

为 Linux 桌面添加类似苹果桌面的程序坞。

4、Tantivy

Rust 语言写的全文搜索引擎库,可以替代 Apache Lucene,参见介绍文章

5、Open Screen

跨平台的桌面应用,用来录屏后制作介绍视频,提供各种配套编辑功能。

6、epub-tts

这个开源工具将 epub 文件转成音频文件,也就是电子书转成有声书。

7、NVTOP

一个 Linux 系统的命令行程序,用来监控 GPU 显卡的状态,等同于显卡专用的 top 命令。

8、dmcheck

检查某个主题词的域名占用情况。(@PlayerYK 投稿)

9、Reze Studio

开源的动画曲线编辑网站。(@AmyangXYZ 投稿)

10、gitlogue

这个工具可以将 Git 仓库的提交历史,在终端里面以动画形式重现,甚至可以显示为屏保。

资源

1、佛津

全球佛教古籍数字化聚合平台。(@xr843 投稿)

2、Flight Viz

实时 3D 显示全球的航班。(@haojiang99 投稿)

3、GPU 时间线

这个网站用图片展示了 GPU 显卡的发展历程,从1996年的 Voodoo 卡到2025年的 RTX 5090 显卡。

图片

1、绿化荒山的简单方法

中美洲的哥斯达黎加出产橙汁,产生了大量的橘子皮,以前都是垃圾填埋。

一个环保组织说服工厂,把12000吨橘子皮倾倒在荒山上,用来积肥。

山头覆盖了橘子皮,除此以外,没有做任何处理。

过了6个月,橘子皮彻底腐烂,成为了黑色的泥土,慢慢开始长东西了。

16年以后,当科学家重新来到现场时,那里已经是茂密的树林了。

这真是绿化荒山的最简单方法,只要堆满了橘子皮,任其腐烂就可以了。

2、2025年全球物理摄影大赛

美国、法国、日本等16个粒子物理实验室,联合举办了一个摄影比赛,邀请摄影师拍摄物理实验室,用来向大众宣传物理学。

上图是意大利国家核物理研究所 (INFN) 的低温探测器实验室,它可以将物质冷却到仅仅略高于绝对零度。

上图拍摄地是法国的重离子国家加速器研究中心,拍摄的装置是直线加速器的供电系统。

更多照片看这里

文摘

1、为什么沙子有粘性?

我们去海边玩,沙子会粘在皮肤、鞋子、衣服和头发上。

沙子的主要成分是二氧化硅,跟岩石一样。岩石没有粘性,为什么沙子会有粘性呢?

原来,沙子本身没有粘性,但具有亲水性,它会吸水。人体也是亲水的,在烈日下汗流浃背。当沙子接触到湿润的东西时,水分子之间就会产生粘性。

皮肤上往往还有油脂或者防晒霜,它们也会让沙子粘在皮肤上。

另外,皮肤还有一些微小褶皱,也会卡住沙子。

总之,想要去除沙子,就是等到皮肤变干,或者用水冲洗。

言论

1、

如果你认为编写代码的速度是你的问题,那你面临的问题更大。

-- Andrew Murphy,澳大利亚程序员

2、

有一种兴奋,叫做2017年才刚接触加密货币的人才有的兴奋。

-- Andrew Murphy,澳大利亚程序员

3、

一项民意调查发现,美国年轻人对于婚姻、子女、信仰的重视程度,远不及他们的父母,对于传统的价值观----爱国主义、宗教、社区和家庭也很冷淡。

年轻人把市场和金钱当作道德准则。在他们眼里,市场决定了事物的价值、事件的意义、谁是正确的、谁是赢家、谁举足轻重。

-- 《预测市场的最糟糕后果》

4、

对我来说,未来城市实际上是像阿姆斯特丹那样的地方,到处都是舒适的街道和自行车道,而不是像迪拜那样的地方,有16车道的高速公路,以及一群被压迫的劳工阶级在俗气的豪华购物中心里工作。

-- Hacker News 读者

5、

高校都要求博士生发表论文,至于你写什么、怎么写的、内容与研究方向有没有关系,系里其实都不在意。系里需要论文,因为论文能证明经费的合理性,而经费又能证明系的存在价值。学生只不过是达成这个目标的生产资料。

-- 《机器没问题,有问题的是我们自己》

往年回顾

HDMI 2.2 影音可能到头了 (#345)

巧妙的灯泡钟(#295)

摩天大楼是反人类的(#245)

你做过不在乎结果的项目吗?(#195)

(完)

Cursor Pro $20 一个月,500 次快速请求用完就降速。重度用的人,月中就开始焦虑额度。

但 Cursor 的模型不是只能用它自己的配额。

有办法把外部的免费模型接进去,额度用完无缝切换,不中断编码。

先说能接什么

目前能免费拿到的顶级编码模型:

来源 模型 费用 怎么拿
Kiro Claude Sonnet 4.5 免费(约 500 次/月) kiro.dev 注册
Codex GPT-5.4 等 7 个模型 限时免费 安装即用
Antigravity Gemini 3.1 Pro 免费 Google AI Pro 首月免费领
Groq Llama 70B, Kimi K2 免费 注册拿 API Key
Cerebras Qwen 235B 免费 注册拿 API Key
Gemini API Gemini 2.5 Pro 免费 Google 账号登录 AI Studio

这些加起来,Sonnet + GPT-5.4 + Gemini 3.1 Pro + Llama 70B + Qwen 235B ,全部零成本( Codex 为限时免费)。

问题是:这些配额各自为政,不能直接在 Cursor 里用。

怎么接进 Cursor

用 OpenRelay 。

它跑在本地,把上面所有配额统一成一个端点,然后通过 RPC 代理无缝接入 Cursor 。

具体步骤:

1. 装 OpenRelay

去 GitHub 下载可执行文件:github.com/romgX/openrelay/releases

Windows 双击运行,macOS 终端执行:

chmod +x openrelay-macos
xattr -d com.apple.quarantine openrelay-macos
./openrelay-macos

打开 http://localhost:18765,进 Web 面板。

2. 添加免费 Provider

OpenRelay 会自动扫描你机器上已有的 AI 工具——Kiro 、Claude Code 、Antigravity——自动发现它们的配额。

API 类的( Groq 、Cerebras 、SambaNova ),在面板里点「添加 Provider 」,填一次 API Key 。

3. 组配额池

在面板的「自定义模型组」里,把多个 Provider 串成一条链:

"coding-sonnet" = Kiro (Sonnet 4.5) → Claude Code (Sonnet 4.6)
"coding-fast" = Groq (Llama 70B) → Cerebras (Qwen 235B) → SambaNova (DeepSeek V3.2)

第一个配额用完,自动切第二个。你感知不到切换。

4. 接入 Cursor

面板里找到 Cursor ,开启 RPC 代理。Cursor 会无缝使用你的配额池,不需要改 Cursor 的任何设置。

搞定。

Claude Code 同理

如果你用 Claude Code ,接入更简单:

export ANTHROPIC_BASE_URL=http://localhost:18765
export ANTHROPIC_API_KEY=unused

或者面板里一键配置:选中 Claude Code → 选择 Provider → 开关打开 → 重开终端。

现在 Claude Code 走你的配额池。Kiro 的 Sonnet 用完,自动切 Groq 的 Llama ,再切 Cerebras 。

Google AI Pro:最大的一块免费配额

单独说一下这个,因为它的含金量最高。

Google One AI Pro 首月免费,包含 Gemini 3.1 Pro 、Claude Opus 4.6 、Sonnet 4.6 、GPT-OSS 120B ,配额每 5 小时刷新。

领取方法:Google One 官网 → AI Pro 方案 → 绑支付方式 → $0 开通。到期前取消不扣钱。

领了之后装 Antigravity ( Google 的 AI 编辑器),OpenRelay 自动发现这个配额,加入你的配额池。

家庭组玩法:Google One 支持家庭组共享,一个主账号拉 5 个人,所有人共享 AI Pro 权益。每人都能在自己电脑上装 Antigravity ,拿到独立的 Gemini 3.1 Pro 和 Opus 4.6 配额。

OpenRelay 自动发现你本机已登录的 Antigravity ,加上你添加的 API Key ( Groq 、Cerebras 等),全部串成一条配额链。怎么注册、有几个号,它不管——只负责把你已有的配额统一管理和自动切换。

算笔账

方案 月费 能用的模型
Cursor Pro $20 自带模型,500 次快速
Claude Code Pro $20 Opus 4.6 + Sonnet 4.6
本文方案 $0 ( Google AI Pro 首月免费,Codex 限时免费) Opus 4.6 + Sonnet 4.5 + GPT-5.4 + Gemini 3.1 Pro + Llama 70B + Qwen 235B

$0 方案的代价是:免费额度有日限,重度用可能不够。但多个 Provider 轮换兜底,日常开发基本不断供。

如果你已经有 Cursor 或 Claude Code 订阅,加上这些免费配额,等于在订阅基础上多了一层保险——额度用完不降速,自动切免费池。

注意事项

  1. 网络要稳定——Google 、Anthropic 对异常 IP 敏感
  2. Google AI Pro 到期前取消——不然扣 $19.99
  3. 所有数据本地处理——OpenRelay 跑在你电脑上,Key 不上传,请求直连 AI 后端
  4. 开源可审计——不放心可以看代码

下载

GitHub:github.com/romgX/openrelay

觉得有用,Star 一下。

佬们分析下,我这自建是个那个环节问题导致封号的

kookey 买的静态住宅,美国洛杉矶 ip

全程指纹浏览器开住宅代理注册 outlook 邮箱
然后用 outlook 邮箱注册 claude ,hero-sms 接码

apple store 尼日利亚礼品卡订阅 全程开着住宅代理

服务区使用的 VMRack 三网精品服务器美国洛杉矶机房
使用 Claude Relay Service 搭建中转服务

中午搭建完还好好的使用,晚上下班回家后有 claude cli 改了个功能 5 小时额度用了 91%就被封了

有什么焚诀分享下,各位佬
还有 pro 订阅 5 小时额度真不够用

近几年各种 ai 要取代程序员的舆论出现的时候,我都嗤之以鼻,因为之前也尝试过,发现真的很难用,那时候可能 ai 还不成熟。这个月又试了几下,发现还行,于是开始重度使用,发现已经 ai 已经很牛逼了。
目前用到的功能,写单元测试,写了一堆的控制器和路由,直接跟 ai 说让他把这些控制器和路由对应的单元测试写了,几分钟出的结果基本上能对个 95%,有一些要细调。比起自己写单元测试估计要几天。
第二个,用上 design.md 以及 frontend-design ,对于我这种不会设计的程序员来说,出来的页面好太多了。

现在的困惑:
0. 人变懒了,什么都想丢给 ai
1. token 消耗很大,按照这一周重度使用下来,一个月估计要接近 1000 块
2. 对程序的掌控度几乎没了,以前写代码都是一句句自己敲出来,什么功能在哪,逻辑是什么都很清晰。现在 ai 库库库一堆出来,虽然都有人工再审核一下,但是脑子里对于某一个模块的功能很模糊,不确定是否有潜在的 bug 。

想问问大佬们的看法,你们每个月订阅要花多少钱,以及你们是否遇到我第 2 点的困惑,能否优化,谢谢。

最近在做一个项目,后端 Go ,前端 SSE 推流 LLM 的输出。遇到一个很烦的问题:用户刷新页面或者网络抖一下,流就断了,但后端还在跑,token 照烧不误。

更麻烦的是我们的 LLM worker 和 HTTP handler 不在同一个实例上,负载均衡一转发,重连过来的请求根本找不到原来那个流。

JS/TS 那边有 Vercel 的 resumable-stream 可以用,但 Go 这边翻了一圈啥也没有,就自己撸了一个:

https://github.com/gtoxlili/streamhub

思路不复杂:
- Redis Streams 存 chunk ,断线重连的订阅者先 replay 历史再接实时数据
- Redis Pub/Sub 传 cancel 信号,用户在 A 节点点停止,B 节点上的生成就能收到
- 每个 producer 有个 generation ID 做 fencing token ,防止旧 producer 写脏数据
- 同一个 session 只允许一个 producer 注册,不会重复调 LLM

代码大概长这样:

```go
// 生产端
stream, created, err := hub.Register("chat:123", cancelFunc)
if !created {
return // 已经有人在跑了
}
defer stream.Close()
stream.Publish("hello")

// 消费端(任意实例)
chunks, unsub := hub.Get("chat:123").Subscribe(128)
defer unsub()
for chunk := range chunks {
// 先 replay 再 live
fmt.Fprint(w, chunk)
}
```

目前还比较早期,API 可能还会改。做类似场景的同学可以看看,有想法欢迎提 issue 。

在 claude windows 客户端创建的会话,从 cli 里面用 resume 命令恢复。

在 cli 里面看着像是恢复原会话,但是从客户端里面看,是自动新创建了一个会话,这个新会话里面的内容是从老会话里复制过来,客户端里存在两个内容一样的会话。

难道 resume 就是这么设计的吗

经过 11 个 beta + 2 个 rc ,Trellis v0.4.0 稳定版正式发布!

Monorepo 原生支持

trellis init 现在会识别 monorepo ,按包创建独立的 spec 目录,每个 package 都能有自己的一套编码规范和任务。配套地,9 个平台上的 before-backend-dev / before-frontend-dev / check-backend / check-frontend 合并成了通用的 before-dev / check,命令矩阵不会因为 package 数量爆炸。

平台支持更多

  • GitHub Copilot--copilot
  • Windsurf--windsurf
  • Qoder--qoder
  • Factory Droid--droid

例如同时启用多个平台:

trellis init --codex --gemini --copilot -u your-name

Codex 满血支持

  • 启用了 Codex 的 SessionStart hook:现在 Codex 用户可以跟 Claude Code 用户一样,无需再手动调用 /start 命令,启动 session 就能直接对话,task 状态、workflow 、guidelines 自动注入
  • 支持了 sub-agent 的定义.codex/agents/ 下新增 TOML 格式的 implement / research / check agent ,跟 Claude Code 的 Agent 工具语义对齐
  • shared skills 共享层:Codex 写入 .agents/skills/agentskills.io 标准目录),同一份输出会被 Cursor 、Gemini CLI 、GitHub Copilot 、Amp 、Kimi Code 自动读取——勾一个 Codex 选项覆盖一大片工具链

其他改进

  • 自定义 spec 模板 Registrytrellis init -r <source> 从自定义 git 仓库( GitHub / GitLab / Bitbucket ,含自托管 GitLab 的 HTTPS / SSH )拉 spec 模板,而不是从默认 marketplace 拉。团队可以把自家编码规范维护在内网 git 服务器上分发
  • 重新 init 的快速路径trellis init --codex 在已有项目里追加配置 Codex ;不带参数会弹菜单
  • 分支感知:session 和 journal 带上 git 分支上下文,多分支并行不混乱
  • Claude Code Statusline 集成
  • 多 Agent 流水线:支持 worktree submodule 和 PR 状态追踪

关键修复

  • SessionStart 瘦身:从约 29 KB 缩到约 7 KB ,修了一个会让 Claude Code 静默截断 task 状态的大坑
  • Windows:statusline GBK 编码崩溃(感谢 @xiangagou163 )、Codex hooks.json{{PYTHON_CMD}} 占位符解析

其他修复(节选)

  • fix(update): rename 迁移允许指向受保护路径 + 配置解析失败时告警
  • fix(update): 创建迁移任务时从 .developer 解析名字
  • fix(hooks): 跨平台规范化 .current-task 路径引用(#130 )
  • fix(hooks): ralph-loop 的 SubagentStop 事件字段名(#152 )
  • fix(opencode): dispatch 等待子任务(#147 )
  • fix(init): monorepo 包目录去掉 npm scope 前缀
  • fix(init): 模板选择器把 "empty templates" 改成 "from scratch"
  • fix(scripts): start.py 保留 submodule 的 status 前缀

安装与升级

# 新装
npm install -g @mindfoldhq/trellis@latest --registry=https://registry.npmjs.org

# 升级(已装过 trellis )
trellis update

从 0.3.x 升级会自动处理 36 个命令文件的合并——带 hash 校验,你的本地修改会被保留,没被改过的文件才删。


~/VSCode-linux-x64/code ~/.vscode/extensions/marscode.marscode-extension-1.6.22/resource/aiserver/aiServerMainV2.js --pluginHomePathName .marscode --isExternal true --server-root

~/.vscode/extensions/marscode.marscode-extension-1.6.22/resource/aiserver --extension-version 1.6.22 --logFile true --channel vscode --product-name vscode --env-name  --is-remote false --enable-event-verify false --log-level info --event-verify-host  --machine-id e01993f2a18f70eb2943177305fa60a1af5e6655f7105f6847973755efabfa --ideType vscode-external --aha-ipc-runtime-dir

~/.marscode/server-main --aha-ipc-server-name vscode-ai-server-1.6.22-56138

~/.marscode/ai-chat/binary/1.6.22/modules/ckg/binary/ckg_server -port=35597 -version_code=2 -storage_path=~/.marscode/ai-chat/AppData/vscode/ckg_server -local_embedding -embedding_storage_type=sqlite_vec -app_id=a4c6ca00-6846-4536-94a6-1b531eb43742 -limit_cpu=1 -source_product=native_ide --ideType=vscode-external

~/.marscode/ai-chat/binary/1.6.22/modules/ai-agent/ai-agent --ideType vscode-external

有没有字节的大佬,这几个进程安全么? 会不会后台做些啥?

纯恶心,动不动就 429 ,还会莫名出现"type":"internal_error","message":"/data/ is not a multimodal model"。同样的 skill 我用官方的 glm5.1 就跑得通,用联通云的 glm5.1 就不行。

现在直板手机已经有点腻了,想尝试一下折叠屏,折叠屏的话好像就华为一家做的最好

看了下华子最新发布的 pura x max ,感觉有点心动的感觉

但是好像价格不便宜,估计 8k 起步了

今天上午 10.08 在华为商城预定了一台 8+512 的白色

有没有同样打算入手的,可以交流一下

发现 V 站上没有太多人讨论关于 Claude 昨天更新的机制:基于身份证件审查用户。原文是Claude 上的身份验证

简单来说,Claude 开始接入身份验证机制了,需要有效的政府颁发的带照片的身份证件加摄像头进行验证身份。以下是相关描述:

我们如何验证?

我们选择 Persona Identities 作为验证合作伙伴,基于他们的技术强度、隐私控制和安全保障。请按照以下步骤完成您的身份验证过程。

您需要准备什么

开始前,请准备好以下物品:

  • 有效的政府颁发的带照片的身份证件:实体文件,在手边
  • 带摄像头的手机或电脑:您可能需要用手机拍摄实时自拍照,或使用网络摄像头
  • 几分钟时间:验证通常需要不到五分钟

接受的身份证件类型

我们接受来自大多数国家的原始、实体政府颁发的带照片的身份证件。常见例子包括:

  • 护照
  • 驾驶执照或州/省身份证
  • 国家身份证
    您的身份证件必须由政府颁发、清晰易读、完好无损,并包含您的照片。

我们不接受:

  • 复印件、截图、扫描件或照片的照片
  • 数字或移动身份证件(如移动驾驶执照)
  • 非政府身份证件:学生证、员工证、图书卡、银行卡
  • 临时纸质身份证件

最近这两天明显感觉 opus 4.6 变笨了很多,简直是量级的降低!按照惯例,一般有新模型要发布前,现有模型就会降智。真搞不懂为什么要这样干!也还没看到啥新模型要发布呀?传说中的 claude mythos 也不会开放出来给大家用呀