(已去除所有 ai 优化格式的部分,别杀我了 )

一、 底层逻辑

有人问:“为什么别人跟我一样的操作,他没事我却挂了?” 这其实不是运气,而是账号 “根骨” 不同。在谷歌风控里,账号分等级:

  • 高分号: 注册时使用了纯净度极高的住宅 IP,或者设备指纹被判定为 “高度可信的真实设备”。这种号在创建的时候及其麻烦,但带来的收益也很显著,起步信用分就有 90 分,怎么造都很难死。
  • 低分号: 注册时用的梯子节点烂大街,虽然能用,但同 IP 段下有别人干过坏事(撞库、发垃圾邮件),或者设备指纹和黑名单撞车了。这种号一出生就自带 “嫌疑人” 标签,起步分只有 50 分。对于这种号,使用 api 时稍微一点异常(如并发过高)就会触发封禁。 就得去深情并茂的写小作文申诉账号,万一不怎么看邮箱的更是不知道哪天账号就突然消失了。
  • (帖主用的就是低分号天崩开局,但通过持续使用和账户停用后申诉也是成功获取了学生认证权限,现已稳定 3 年)

谷歌官方的定义

谷歌在《闲置账号政策》里写,只有做过以下事情才算 “活跃账号”:

  • 读或发邮件
  • 用 Google Drive 存文件
  • 看 YouTube 视频
  • 下载应用
  • 用 Google 搜索

所以单纯挂着机不算活跃,单纯使用 AI 也不算优质活跃!你得像个人一样去使用谷歌的全家桶,才能抵消 API 高频调用带来的 “机器感”。

二、 未雨绸缪

1. 两步验证 (2FA)

  • 操作:登录谷歌 → 账号管理 → 安全性 (Security) → 开启 两步验证 → 绑定 Google Authenticator (谷歌验证器) APP 或者微软的 Authenticator APP。
  • 保底: 生成备用码。把这 10 个 8 位数的码截图或打印下来。哪怕手机丢了、梯子挂了,输这个码就能就地复原。

2. 选好 “赛博祖国”

  • 原则: 选定一个国家(推荐美国或日本或新加坡),以后就死磕这个地方。
  • 避坑: 最好别用万人骑的免费节点,那种 IP 早被谷歌拉黑了。尽量保持 IP 地区一致,不要一会儿飞美国一会儿飞日本。

三、 循序渐进

假装自己是一个 “刚通网的村里人”

  • Day 0 - Day 3(装死):
    • 动作: 装死 ,登录网页,把 Google Drive、Docs 点开看看,挂着号熟悉环境。
    • 目的: 让后台日志留下 “真人浏览记录”。
  • Day 4 - Day 7(手动):
    • 动作: 可以填入 Key 使用了。但是把上下文设置得小点,不要一上来就拉满。
    • 频率: 每天对话几十次就停,不要高频使用,不要让它一秒钟吐几千字。
  • 第二周(上强度):
    • 动作: 可以适当增加上下文长度,但如果报这两个错(403/429),就停手,不要死磕重试。
    • 原则: 跟养孩子一样,慢慢增加强度。(这也算得上赛博养娃了吧)

四、 多号管理

很多人使用 api 为了负载均衡,手里通常有好几个号。这里有巨大的连坐风险,一旦操作失误,就是株连九族,一死死一片。

1. 不要点 “退出登录”

  • 原理: 养号的核心是积累 “在线时长”。一直挂着账号(保持 Cookie 活跃),让谷歌觉得这是一个主力设备,权重会越来越高。
  • 结论: 除非你要换节点搬手机之类的,否则永远不要点击 “退出登录”,直接关掉浏览器窗口即可。

2. 不要清空 Cookie

  • 弊端(严重): Cookie 是谷歌识别你 “设备指纹” 的核心凭证。你清空了 Cookie,约等于把你的 “免死金牌” 扔了。下次登录谷歌会认为你是 “新设备登录”,极大概率会弹窗验证。
  • 建议: 不要频繁清除 Cookie。只要 Cookie 还在,你的账号就更安全。

3. 连坐逻辑

  • 如果你有多个账号,Google 判断它们是否关联主要看设备指纹和 IP 地址。如果被检测出关联,一个号挂了会导致所有号被连坐封禁。

第一阶段:环境隔离(浏览器指纹管理)

首先,你要确保你是用的是电脑端。
我们要做的,是根据你手里账号的珍贵程度,选择不同等级的隔离方案:

  • 简单方案(3-5 个号):Chrome/Edge 多用户配置文件(适合仅用来聊天的玩家)
    • 原理: 这是最简单的方案。它隔离了 “软指纹”(Cookies、缓存、本地存储),虽然 IP 和硬件指纹相同,但能应付 90% 的日常场景。
    • 操作: 点击浏览器右上角头像 → 添加 → 不登录账号继续 → 创建新 Profile。
    • 注意: 永远不要同时打开多个配置文件的窗口!用完之后需要确保彻底关闭(后台进程也结束)再开下一个,否则如果你的梯子突然掉了,这几个账号的 IP 会同时变动,谷歌就会认定这几个账号是你同一个人的。
  • 进阶方案(5 个号以上):指纹浏览器(推荐)
    • 原理: 如果你账号很多,或者账号是买来的,建议使用指纹浏览器。
    • 功能: 它们能伪造 UserAgent、Canvas、WebGL 等 “硬指纹”,让 Google 认为每个账号是在完全不同的电脑上登录的。
  • 移动端方案(不推荐):
    • 如果必须在手机上用两个号,最好使用不同的浏览器。比如:
      ・账号 A:只在 Safari 登录。
      ・账号 B:只在 Chrome 登录。
      ・账号 C:只在 Firefox 登录。
      ・原理:手机的沙盒机制会隔离不同 APP 的数据,这样比在同一个浏览器里切账号安全得多。
    • 最好不要在同一个浏览器里关联账号,因为移动端使用的是统一账户池。

小提示:

  1. iOS 的后台刷新机制很特殊。即使在前台使用的是账号 A,后台的账号 B 的同步服务可能还在活动。

  2. 无论是什么设备,都不要使用无痕模式养号
    原因: 无痕模式存不住 Cookie。每次登录都像新设备,谷歌会认为你每次都是新设备,反而触发风控验证。

第二阶段:IP 地址管理

  • IP 纯净度: 再次强调,少用万人骑的免费 VPN 节点。如果某个 IP 上曾有大量违规账号,你的新号只要沾上边,也会受牵连。
  • 固定坑位: 尽量保证每个账号在一个固定的 IP 地区登录。比如账号 A 永远挂美国节点,账号 B 永远挂日本节点。如果你上一秒在美国登 A 号,下一秒切日本登 B 号,极易触发风控。
  • 修改时区:在浏览器修改时区、使用 Change Timezone 插件 (chrome)、Browser™的时区插件 (edge)、直接修改系统时间。因为浏览器会默认使用你的系统时区,如果你在使用日本 / 美国 IP 的时候,但浏览器传回的时区确实在中国,那你之前营造的的人设就白费了。这个不容易立刻触发风控,但是秋后算账是谷歌最擅长是事情,如果你的账号在之前没有违法上面任意一条规则就被封了,那这个可能就是原因。
    (我寻思账号都没珍贵到这种程度吧)(新增:刷了会 l 站发现还真有许多被连坐的事情,只能说防溃于未然吧)

五、 养号操作

方法一:YouTube 发邮件法

具体操作:

  1. 订阅: 挂梯子去 YouTube,订阅几个更新频率高、粉丝多的顶流博主。
  2. 开启 “强提醒”: 点击订阅旁边的铃铛,选择 “全部 (All)”。
  3. 设置邮件通知: 去 YouTube 设置 → 通知 (Notifications),确保 “邮件通知 (Email notifications)” 是开启的。
  4. 操作总结:
  • 当博主发视频时,你的 Gmail 会收到邮件。
  • 每隔 1-2 天,挂梯子打开 Gmail,点开这些通知邮件。
  • 点击邮件里的链接 跳转回 YouTube(哪怕不看完)。
  1. 原理:这是一个 YouTube → Gmail → 点击 → YouTube 的闭环。在谷歌眼里,你不仅活跃,而且深度使用了它的生态系统。

方法二:订阅新闻(辅助法)

让正规机构给你发邮件,增加邮箱权重。

  • 操作: 订阅 The VergeNew York TimesGitHub 的通知。
  • 动作: 每周打开读一下,或者从 “推广” 分类拖到 “主收件箱”。这证明你的邮箱是接收高价值信息的。(如果 l 站的总结绑定的邮箱是这个谷歌账号,应该也行)

手机端设置

很多人号没问题,死在了手机设置上。

  • iOS (苹果用户):
    • 大忌: 千万不要直接在 iPhone 自带的 “设置 → app → 邮件” 里添加谷歌账号!不挂梯子,iOS 后台的 “通讯录 / 日历同步” 会泄露真实 IP。
    • 正确姿势: 下载官方 Gmail App。每次打开 App 前,先挂梯子。不用的时候把后台划掉。如果非要用系统自带邮件,必须在 “设置 → app → 邮件 -> 邮件账户 -> 你的邮箱 @gamil.com” 里把 “邮件”、“通讯录”、“日历”、“备忘录” 全部关闭,且只在挂梯子时打开。
  • Android (安卓用户):
    • 设置: 确保你的梯子软件开启了 “接管所有流量” (TUN 模式 / VPN 模式 / 全局模式),并且把 Google Play 服务和 Gmail 纳入代理范围。

求求给我点个赞吧


📌 转载信息
原作者:
nvmepact
转载时间:
2026/1/6 18:40:16

  1. 安装指令 (Installation)
    由于你要使用 Gemini 2.5 这种最新的模型,普通的 pip install 版本可能更新不及时。我强烈建议你使用你在 README 里看到的那个开发者版本安装命令,这样能确保包含最新的模型列表。
    在 CMD 中运行:
    DOS
    pip install git+https://github.com/OpenInterpreter/open-interpreter.git
    2CMD 窗口开 “魔法” (设置代理) 这一步告诉命令行工具走你的网络通道。 (注意:如果你重启了电脑或关掉了黑窗口,必须重新输这一行)

DOS

set https_proxy=http://127.0.0.1:7897
第 3 步:启动 Open Interpreter 使用正确的模型名称和参数启动。 (注意:gemini/ 前缀不能少,后面接刚才查到的最新模型名)

DOS

interpreter-classic.exe --model gemini/gemini-2.5-flash --api_key 你的 API_KEY

api 在 google ai studio

这样就能让 geminit 通过 api 直接操作你的电脑了


📌 转载信息
原作者:
kkk4
转载时间:
2026/1/6 18:40:05

应佬友的要求再出一篇文章,前面薅了 wispbyte.com 的羊毛,但是吧容器性能比较弱,强一点的就是 huggingface.co 免费的容器:

Free 版本就是 2vCPU 和 16GB RAM,就已经非常强了

那先介绍一下 huggingface,其实这是一家非常强悍的公司,可以称作是 “AI 界的 GitHub”,可以分享模型,数据集,然后演示应用。

我们用到的就是这个演示应用(Spaces)

首先注册好账号,然后右上角点击头像按钮,新建一个 Space

然后填入必须项

  • Space name:就写 myhome,随便来一个好记得

  • Short description:Save Our Home

  • License:MIT

  • SDK:选择 Docker

  • Docker template: 选择 Blank

  • Space hardware:选择 Free

其它都不选,最后 Create Space 即可

然后就建好了,其实是给你开了一个 git 的 repo

我们到右上角,选择 Files 选项

薅大善人 Huggingface 和 Cloudflare 羊毛自建代理的方法3

然后打开的文件页面,只有两个文件

老套路,建立一个 Dockerfile 文件,就是容器的打包文件,注意文件名大小写,第一个字母是大写

Dockerfile.txt (202 Bytes)

然后我们把 index.js 文件准备好,需要修改几个地方

index.js.txt

其中几个地方有修改,先看看 huggingface 给咱们的域名,右边,Settings 右边的三个点按钮,

点开,然后点 Embed this Space

看 src 那里,大善人给了咱们一个免费的域名,这个域名是自带证书的!!!我们把域名拷贝下来

记好了,cf 那里还要用

然后根据实际情况修改 index.js

const DOMAIN = process.env.DOMAIN || 'xxx.qzz.io';   // 填写最后大善人出定的域名域名 const SUB_PATH = process.env.SUB_PATH || 'sub';                    // 获取节点的订阅路径,最好改掉 

改完后是这样的:

然后改好了,别急着贴进去:

去到 https://obfuscator.io/legacy-playground

贴进去代码,混淆一下,弄成谁也认不得的模样,然后 Copy,再贴进去

然后再建立 package.json 文件

package.json.txt (291 Bytes)

{ "name": "js02", "version": "0.0.2", "description": "Nodejs-server", "main": "index.js", "private": false, "scripts": { "start": "node index.js" }, "dependencies": { "ws": "^8.14.2", "axios": "^1.12.2" }, "engines": { "node": ">=14" } } 

再建立 index.html 文件,这是个用来装饰的环保单页面,如果不加,就会显示 hello world,太假了,可以让 gemini 给你生成一个:

index.txt

那就一切完工,看下都有什么文件:

一切就绪,点击 App 运行:

那会看到运行完毕,开了 7860 这个端口

那直接点击左上的 myhome 链接,就能看到环保页面了。

那大善人 huggingface 就弄好了。

解释一下具体原理:

huggingface 跑了个前置的 Nginx 或 Caddy 或 traefik 代理,自动申请了证书,代理后端容器的 7860 端口,为什么是 7860 端口呢?

因为最常见的用途是托管基于 Gradio 构建的机器学习模型演示。Gradio 是一个非常流行的 Python 库,用于快速创建交互式 Web 界面来展示 ML 模型。它的默认启动端口就是 7860。

那接着我们去薅大善人 cloudflare,首先弄好一个域名并托管到 CF 上面,比如免费的 qzz.io

点开左边的菜单:Build –> Compute & AI –> Workers & Pages

新建一个应用,Create application

然后选 Start with Hello World!

然后就会建出一个应用来,点击编辑代码,Edit Code

把代码中 username-spacename.hf.space 换成自己的域名

 export default {
    async fetch(request, env) {
        let url = new URL(request.url);
        if (url.pathname.startsWith('/')) {
            var arrStr = [
                'username-spacename.hf.space', // 此处单引号里填写你的节点伪装域名
            ];
            url.protocol = 'https:'
            url.hostname = getRandomArray(arrStr)
            let new_request = new Request(url, request);
            return fetch(new_request);
        }
        return env.ASSETS.fetch(request);
    },
};
function getRandomArray(array) {
  const randomIndex = Math.floor(Math.random() * array.length);
  return array[randomIndex];
}

这段程序就是简简单单一个代理,不加任何缓存,因为我们的数据包不会有重样的。

然后点 Deploy ,部署

返回这个 worker 的空间,点击 Settings,下面的 Domains & Routes ,右边点击 +Add

弹出的对话框,选择 Custom domain

然后起个自己心满意足的域名,CF 大善人会自动生成 dns 记录

点击 Add domain 就完事了。

然后我们打开我们心满意足的域名:

环保页面,然后打开我们的订阅页面,缺省是 /sub,当然改成只有自己知道的路径为好

出现订阅的 Base64 字符就 ok 了。

薅大善人 Huggingface 和 Cloudflare 羊毛自建代理的方法22

我们用 v2rayN 导入即可。

完工,还是说一下原理:

利用 cf 大善人的网络代理加速,利用 hug 大善人的免费域名和证书,达到我们的目的

最后,这个的 index.js 和上一篇的不同啊,唯一区别就是端口,hug 端口肯定是 443,而 wispbyte 的端口是非标的。

注意注意!!!

同样也扔到自己博客了一份: huggingface.co 薅羊毛记 | 八戒的技术博客


📌 转载信息
原作者:
defunct9
转载时间:
2026/1/6 17:33:35

一位谷歌资深工程师透露,Anthropic 的 Claude Code 用一小时跑出了她团队打磨了一年的系统。

 

一小时复现一年工作?

 

1 月 3 日,谷歌主管工程师、负责 Gemini API 的 Jaana Dogan 在 X 上写道:“我们从去年开始就在谷歌内部尝试构建分布式 Agent 编排器。但可选路线很多,大家并没有完全对齐……我只是把问题用三段话描述了一下交给 Claude Code,它在一小时内就生成了一个系统,和我们去年做出来的东西非常接近。”

 

“我不是在开玩笑,这件事一点也不好笑。”

 

不过她后来又补充说,这个元旦假期里自己终于第一次有时间拿一些“玩具项目”随手试一试。由于无法分享任何专有信息,提示里也不可能包含真实的内部细节,所以她只是基于一些已有思路搭了一个“玩具版”来评估 Claude Code;整个问题描述也就三段文字。

 

截图为 1 月 4 日 Gogan 推文

 

“它还不完美,我也还在不断迭代和打磨,但现实就是这样。”Dogan 写道,“如果你对编码 Agent 持怀疑态度,就把它拿到你已经非常熟悉的领域里试一试:从零开始做一个足够复杂的东西,由你亲自来判断它产出的这些‘成果物’到底靠不靠谱。”

 

她同时说明,在谷歌内部,Claude Code 目前只允许用于开源项目,不得用于公司内部代码。

 

补充一点背景是,Dogan 说自己做编程语言相关工作以来,几乎没见过开发者社区对同一件事出现如此两极化的反应。她在 1 月 3 日晚发文感叹:围绕 coding agents 的讨论里充斥着大量“炒作”和“空话”,这些噪音常常把真正扎实的工作淹没掉;她强调,事情本不必走向如此撕裂。

 

在她看来,行业整体仍处在一个“可以视为全行业研究项目”的阶段:语言模型还在被探索、还会持续变强;团队会在看到价值的地方逐步把它“产品化/工程化”,同时也借此推动更多探索。

 

她甚至回忆说,三四年前自己一度考虑过退休——那时她感觉行业“过度饱和”,似乎已经没什么实质性的新东西可做:无论是作业调度器、网络接口,还是各种基础设施,大家都在反复“重造已被造过的轮子”,却只是在制造更多复杂度。

 

正因如此,她反而喜欢上这波 AI 编程浪潮带来的“新岔路”:它让像她这样的工程师重新有了新鲜的问题可以研究。只是 LLM 变得过于“迅速且广泛可得”,也随之引发了更强烈的情绪化反应;她怀念更早些年——当时只有一小群人带着好奇心去探索新模型的阶段。

 

Dogan 还总结了 AI 编程能力的快速跃迁:

  • 2022 年:只能补全单行代码

  • 2023 年:可以生成完整代码片段

  • 2024 年:可跨多个文件工作,构建简单应用

  • 2025 年:能够创建并重构整个代码库

 

她写道:

“在 2022 年时,我根本不相信 2024 年的里程碑能作为一个面向全球开发者的产品真正落地。这个领域在质量和效率上的提升,已经远远超出了任何人的想象。”

 

也有同行从另一个角度补了一句“体感”。前谷歌、Meta 杰出工程师、Gemini 共同作者 @arohan写道:他自己也曾是谷歌工程师,一路升级打怪;如果当年就能用上 agentic coding,尤其是 Opus 这样的模型,他可能会把职业生涯最初6 年的积累压缩到短短几个月。

 

更重要的是,他认为“能直接把事情做出来”还有一个副作用:人会保持锋利。技能不会自动维持不变,不用就会退化;而具备自主性的 agentic coding,本质上是一种“反萎缩机制”——你持续在做判断、做执行,就不容易变钝。

 

写代码很快,难的是对齐

 

Dogan 身为谷歌工程师,却公开高度评价了一款竞争对手的产品。这无疑给大家带来了巨大震撼,也带来了一些争议。

 

毕竟她并不是一位“普通工程师”。有网友指出,作为谷歌的主管工程师,她在以“实操落地”为导向的工程岗位体系里几乎处在“金字塔尖”:这类角色往往要负责设计并推动落地面向全球规模的系统与基础设施。也正因如此,这条推文才会引发如此高的关注;而她又参与 Gemini 相关工作,更让外界对这番公开表态格外敏感。

 

也有人认为,正因为她的身份分量够重,这番表态甚至可能被视为某种“技术转折点”的信号。

 

围绕这条分享,讨论也迅速延伸到了“一年工程 vs 一小时生成”背后真正被压缩的是什么。

 

也有人用明显的讽刺口吻表达怀疑:每当有人说“AI 一小时做完我们一年做的事”,真实情况往往是——人类花了一年把最难的“思考”和“定义问题”做完了,AI 只是以硅的速度把这些内容复述出来,这和“生产力提升”完全不是一回事。

 

如果一个团队真的要花一年,更多反映的是流程问题,而不是 AI 有多强。在他看来,写代码反而是最容易的部分,真正消耗时间的是会议、对齐、架构争论、Jira 梳理,以及在 snake_case 和 camelCase 之间反复纠结——Claude 并没有做这些,所以“它其实什么也没做”。

 

他还继续自嘲:自己花了多年培养直觉、判断和品味,这些原本以为无法被自动化,结果却被一个“概率文本模型”在自己坚持称之为“微妙”的领域里不断超越;当然,输出能跑、能过测试、能替代数月努力,但它“不理解自己在做什么”——不像他本人,“绝对理解”自己从 Stack Overflow 复制的每一行代码。最后他用一句话收束:“如果 AI 真那么强,它早就让我失业了;既然我还有工作,那这一切肯定都是炒作。”

 

有网友向 Dogan 抛出了一个关键问题(截至目前她尚未回应):过去这一年的工作里,究竟有多少时间花在把问题的规格与边界定义清楚,而不是实际的执行与编码?

 

在他看来,这才是核心所在——一旦你能够把问题完整描述出来,并且能聪明地引导执行者避开所有潜在陷阱,很多工作都可以在极短时间内完成。他分享了自己的经验:自己和同事曾在一夜之间重写过代码库中的大块内容,但真正花了好几年的,是找到“正确解法”本身;一旦解法确定,编码往往只需要几个小时,在现代工具的加持下甚至更快。

 

也有人感慨,“一年工作一小时做完”当然令人震惊,但它同时暴露了一个长期被忽视的现实:大量开发时间并不是被写代码本身消耗掉的,而是被会议、规划、调试以及频繁的上下文切换吞噬。AI 的作用,恰恰是在这些噪音之上直接“切一刀”。

 

他也因此表达担忧:企业看到这种效率提升后,可能首先想到的是削减人力,而不是把工程师重新配置到更高层次的工作上。

 

还有评论从更日常的角度补了一刀:几乎每天早上八点左右,他都会想着“今天一定能干成不少事”,结果一抬头已经两三点了,发现脑子里还是同样的想法——工作中充斥着大量毫无必要的会议,简直让人抓狂。

 

而面对巨大争议,一天后 Dogan 又单独发了一条推文强调:“做出第一个版本,不等于做成一个产品”,希望以此为这场争论画上句号。

 

谷歌与 Anthropic 的合作关系

 

当有人询问谷歌的 Gemini 何时能达到类似能力时,Dogan 回应称,她的团队目前正在“全力推进模型和基础设施建设”。

 

另一个容易被忽视的背景是:谷歌其实也是 Anthropic 的重要投资方之一。有评论提到,谷歌目前持有 Anthropic 约 14% 的股份;也有网友称,谷歌内部长期在使用 Sonnet 和 Opus,并表示自己曾在 DeepMind 的内部网络环境中验证过这一点。还有人则指出,以谷歌的体量和布局,本就可能同时为多条技术路线“背书”。

 

在资本与算力层面,谷歌与 Anthropic 的绑定更为直接:谷歌累计投资 Anthropic 约 30 亿美元。双方在 2025 年 10 月进一步深化合作——谷歌同意向 Anthropic 提供最多 100 万颗 TPU(张量处理单元),交易总价值高达数百亿美元。

 

该协议预计将在 2026 年带来超过 1 吉瓦的算力上线,成为 AI 行业历史上规模最大的硬件承诺之一。Anthropic 表示,选择谷歌 TPU 的原因包括更优的成本效率、稳定的性能,以及谷歌在该处理器上的长期经验。

 

Dogan 对此写道:

“这个行业从来不是零和博弈。即便对方是竞争对手,也完全可以坦然承认他们做得出色。Claude Code 的工作令人印象深刻,它让我更加兴奋,也更有动力继续向前。”

 

Anthropic 的 Claude Code 创建者 Boris Cherny 也在 2025 年 12 月下旬披露:在此前 30 天里,他对 Claude Code 项目的所有贡献——共 259 个 Pull Request、497 次提交,累计 新增约 4 万行代码、删除约 3.8 万行代码——“每一行都由 Claude Code 搭配 Opus 4.5 完成”。那一个月里,他甚至一次 IDE 都没有打开过。

 

几乎在假期里的同一时间,Cherny 还系统总结了自己的工作流“秘籍”。他给出的首要建议是:一定要让 Claude 有办法验证自己的工作——只要建立起稳定的反馈回路,最终产出质量往往能提升 2~3 倍。

 

具体做法上,他建议多数任务先从 Plan 模式开始,先把计划推敲扎实;计划一旦确定,Claude 往往就能“一把梭”完成实现。对高频重复的操作,他会用 slash commands 和子 agent 固化成可复用流程,比如自动做代码简化、端到端测试等。面对更长周期的任务,他会运行后台 agent 在完成后复查输出,并行开多个 Claude 实例分工推进;代码评审时,团队甚至会直接在同事的 PR 里 @Claude 来补充文档或规则说明。按他的说法,Claude Code 也能接入 Slack、BigQuery、Sentry 等外部工具,把“写代码”嵌入到更完整的工程流程里。

 

而 Cherny 在推文中分享的这套“用法”,很快也被 Dogan 注意到。她转发之后不久,便发布了那条引发巨大争议的动态——把 Claude Code 一小时生成原型、对照谷歌团队一年推进的经历,推到了聚光灯下。

 

参考链接:

https://x.com/bcherny/status/2007179850139000872

https://www.reddit.com/r/OpenAI/comments/1q2uuil/google_engineer_im_not_joking_and_this_isnt_funny/

https://news.ycombinator.com/item?id=46477966

Bun(一个快速全能的 JavaScript 运行环境)现已发布1.3 版本。此次更新堪称迄今为止最大的一个版本,不仅实现了全栈开发能力,还推出了统一的数据库 API,并显著提升了运行时的整体性能。

 

Bun 1.3 引入了零配置前端开发模式,内置模块热替换功能并支持 React 快速刷新。开发人员现在可以直接通过 Bun 运行 HTML 文件,系统将自动处理 JavaScript、CSS 及 React 的转译与打包。开发服务器通过平台专属 API(如 macOS 的 kqueue 和 Linux 的 inotify)实现文件系统监听,无需任何额外配置即可实现热重载。当生产就绪时,运行 bunbuild --production命令即可打包应用程序并生成优化后的输出文件。

 

Bun 1.3 的核心功能之一是Bun.SQL,这是一个支持 MySQL、MariaDB、PostgreSQL 和 SQLite 的统一 API,而且完全不依赖外部组件。对于所有的数据库适配器,该 API 都提供了一致的语法,并且通过原生实现保持了高性能。下面是这种统一语法的示例:

import { sql, SQL } from "bun";const postgres = new SQL("postgres://[localhost/mydb](<http://localhost/mydb>)");const mysql = new SQL("mysql://[localhost/mydb](<http://localhost/mydb>)");const sqlite = new SQL("sqlite://data.db");const username = "test_user";const findUser = await sql`SELECT name, role, username FROM users WHERE username = ${username}`;
复制代码

 

本次发布还引入了一个内置的Redis客户端,其性能比流行的ioredis包高出 7.9 倍以上。它支持所有的标准 Redis 操作。集群、流和 Lua 脚本功能计划在未来版本中实现。

 

对于此次发布,社区的反响褒贬不一,开发者们既表现出兴奋又流露出担忧。Hacker News 上的一篇讨论帖获得了 56 个赞,其中不乏积极评价,例如:

Bun 真是太棒了。我几乎不需要安装任何软件包,因为 Bun 内置的组件恰到好处,比如 SQL 、S3 ,现在连 Redis 也支持了。

 

在其他地方,Lobsters 上有评论者对性能基准测试提出了质疑,特别是关于编译后的 Bun 应用程序能比 nginx 更快地处理文件的说法。

 

Reddit 上一位用户评论说,对于生产应用,他们仍然有些问题需要解决:

在开发阶段,Bun 已经百分之百就绪。但在生产环境中,我仍然会不时地遇到各种问题。

 

Bun 1.3 通过单体库依赖项目录扩展了包管理功能,其设计灵感源自pnpm 的目录特性。工作区现默认采用隔离安装模式,这样可以防止包访问未声明的依赖项。新增的bun update --interactive命令支持开发人员有选择性地更新依赖项,而bun why命令则可以解析依赖链。安全改进包括用于漏洞检测的 Scanner API,而 Socket 正在实现官方安全扫描器集成。

 

从早期版本迁移时,Bun 1.3 包含若干破坏性变更。最显著的是Bun.serve()TypeScript 类型已重构,尤其是对于 WebSocket 数据处理。若将 SQL 客户端作为函数而非带标签的模板字面量调用,现在会抛出错误。Bun 现在将 TypeScript 配置中的"module": "Preserve"作为默认值,而非自动检测(auto-detection)。要了解详细的迁移指南,请查阅Bun 1.3 版本的发布说明

 

该版本性能提升显著,Next.jsElysia等框架的 JavaScript 内存占用减少了 10% 至 30% 。AbortSignal.timeout实现的速度提升了 40 倍,而通过 I/O 线程池优化,macOS 系统上bun build的性能提升了 60%。Express 基准测试显示性能提升 9%,Fastify 因node:http改进速度提升了 5.4%。

 

相较于 Node.js 和 Deno 等竞争对手,Bun 通过将常用功能直接打包到运行时环境中继续保持差异化优势。Node.js 需要单独安装数据库客户端、打包工具和测试套件,而 Bun 则开箱即用地提供了这些功能。

 

Bun 是一个基于 JavaScriptCore 构建的开源 JavaScript 运行时,由 Oven 开发,Jarred Sumner 及其团队维护。它旨在成为 Node.js 的直接替代方案,同时提供明显更快的性能和更好的开发体验。Bun 可以通过运行 bun upgrade 来升级,或按照bun.sh中的说明全新安装。

 

https://www.infoq.com/news/2026/01/bun-v3-1-release/

近日,Cloudflare 发布了第六版Radar年度回顾报告。数据显示,全球互联网流量同比增长 19%,Googlebot 占据主导地位,爬取引流比持续攀升,后量子加密技术得到广泛应用。有超过 20%的自动化 API 请求是由基于 Go 语言的客户端发起的,其采用率较上年几乎翻倍。

 

本年度报告以 Cloudflare 广泛的基础设施数据(包括 1.1.1.1 公共 DNS 解析器的匿名查询数据)为基础,深入剖析了 2025 年定义互联网格局的各类中断事件、技术突破及关键指标。该报告包含多个不同的板块(流量、人工智能、普及与应用、连接性、安全性及电子邮件安全),采用与往年相同的分析方法论。

 

报告指出,在过去一年中,全球流量增长了 19%,谷歌和 Facebook 仍是用户最常使用的服务,而星链(Starlink)的增长尤为显著,同比增长达 2.3 倍。

 

通过希尔伯特曲线以二维模式将 IPv4 地址序列可视化——该模式能使相近的 IP 地址排列在一起,Cloudflare 在分析中发现,谷歌爬虫(Googlebot)是使用最频繁的网络爬虫。Cloudflare 数据洞察负责人David Belson写道:

2025 年,Googlebot 再次成为 Cloudflare 请求流量的最大来源,它爬取了数百万个 Cloudflare 客户网站用于搜索索引和人工智能训练。

 

此外,Googlebot 占已验证机器人流量的 28%以上,而 Google AdsBot(用于监控已投放谷歌广告的网站)、Google Image Proxy(用于检索和缓存嵌入在电子邮件信息中的图片)以及 GoogleOther 进一步巩固了这家搜索巨头的统治地位。OpenAI 的 GPTBot 和微软 Bingbot 分别以 7.5%和 6%的占比紧随其后。

 

报告显示,人工智能平台正在以极高的频率爬取内容,却未能为来源网站带来相应的流量,其爬取引流比与 2024 年相比持续攀升。Anthropic 平台的爬取引流比高达 500000:1,OpenAI 最高达 3700:1。在主流人工智能平台中,Perplexity 的爬取引流比最低。

 

CloudZero 研究总监 Jeremy Daly 在其新闻通讯中总结道

Cloudflare 年度报告精彩回顾:内容饥渴的 AI 爬虫(仅 Googlebot 就占所有 HTML 请求量的 4.5%,“用户操作”爬取量激增 15 倍),超过半数人类 Web 流量采用了后量子加密技术,以及 174 次重大互联网中断事件。

 

在这份报告中,这家超大规模云服务商承认,Meta 的 llama-3-8b-instruct 模型在其边缘 AI 平台 Workers AI 上最受欢迎。该平台支持在网络边缘直接运行 AI 模型,其中最热门的任务类型是文本生成。

 

尽管 2025 年 HTTP/3 和 HTTP/2 请求量均小幅增长,但在人类产生的 Web 流量中,为了有效防范“先收集、后解密”的攻击手段,已有半数采用后量子加密技术——该比例较年初的 29%几乎翻倍。

图片来源:Cloudflare 官方博客

 

与往年一样,该团队使用Cloudflare Radar的URL扫描器来识别前 5000 个域名中最受欢迎的技术和服务。他们发现,基于 JavaScript 的库和框架仍然是构建网站不可或缺的工具。Belson 补充道:

jQuery 自称是一个快速、小巧、功能丰富的 JavaScript 库,我们扫描发现,使用它的网站数量是 Slick(用于图片轮播的 JavaScript 库)的 8 倍。React 仍然是构建 Web 界面最常用的 JavaScript 框架,在我们扫描的站点中,其使用数量是 Vue.js 的两倍。

 

PHP、Node.js 和 Java 仍是最常用的编程技术,明显领先于 Ruby、Python、Perl 和 C 等替代方案。在 Hacker News 上的一个热门帖子中,许多人质疑 ASP.NET 和 C#的相对份额,用户 nic547写道

ASP.NET 可能涵盖多种编程语言,而我猜测,ASP.NET 服务器本身并不会披露具体细节。虽然可以合理推测主要是使用 C#,但这需要采用不同的指标来评估。

 

通过分析与 API 相关的请求,Cloudflare 识别出构建API客户端最常用的编程语言:20%的自动化 API 请求来自基于 Go 的客户端,与 Go 语言 2024 年 12%的份额相比增长显著。Python、Java 和 Node.js 紧随其后,成为最受欢迎的技术。

图片来源:Cloudflare 官方博客

 

尽管从业者往往会关注云服务中断问题,但 2025 年观察到的中断事件近半数实为计划内停机——旨在“防止学术考试作弊”,其余则与抗议活动、社会动荡或海底及国内光纤基础设施遭破坏有关。

 

与往年一样,这家超大规模服务商强调,超大规模网络层攻击的频率和规模日益增长。这类攻击发生在第 3/4 层,峰值流量超过每秒 1 太比特或每秒 10 亿个数据包。Cybernara 创始人 Chirag Goswami评论道

互联网正经历中年危机。机器人已成为新常态。分布式拒绝服务攻击屡创新高。一次 BGP 故障仍能让半数网站瘫痪。Cloudflare 的 Radar 年度回顾不仅是数据统计,更是互联网真实面貌的压力测试报告——它揭示了网络环境的脆弱、快速以及机器人泛滥的现状。

 

Cloudflare Radar 2025年度回顾专题网站提供了更详细的数据,包括按具体国家和地区划分的趋势分析。

 

https://www.infoq.com/news/2025/12/cloudflare-2025-ai-bots/

开发软件就像一次旅行,在这个过程中,团队需要不断做出决策,既包括他们所构建产品的功能(即 MVP,最小可行产品),也包括支撑该 MVP 所需的架构(即 MVA,最小可行架构)。

 

采用这种方法的主要挑战在于,我们必须足够快速地构建出可发布的产品,以便团队能尽快获得关键反馈。

 

当团队寻求更快捷的获取反馈的方式时,他们必须决定,是选择一条他人已经走过的路径,还是另辟蹊径、自行探索。

 

有一种重用架构的方式,那就是使用其他团队已经采用的相同的平台或框架。一个优秀的平台或框架能让每个团队专注于自身独有的“增值部分”。重复造轮子毫无价值,因此忽视现有的平台和框架团队,实际上就是在浪费精力,未能聚焦于只有他们自己才能完成的事情。

 

平台和框架就像已经铺设好的道路,它们能够帮助团队在开发旅程中更快地前进,并提供定义明确的“出口匝道”或扩展点,让团队可以在需要时对平台进行扩展以满足自身的需求。但它们也附带一些副作用,可能使其变得不够理想。

 

团队需要针对如下问题做出判断,即何时(如果有的话)应当离开他人铺设的道路,通过扩展平台/框架,甚至开发全新的平台/框架,走出自己的路。

 

当团队以平台或框架作为其软件架构的基础时,所面临的挑战在于,选择一条最接近其目标目的地的“铺好的路”(即平台或框架),同时尽量减少绕行或新建工程。但是,MVP 的问题是这个“目的地”在项目初期往往是未知的。

平台和框架会替你做出许多决策,但其中有些是你根本不需要的

平台和框架通常具有一定的倾向性,这意味着在构建 MVA 时,团队需要做的架构决策更少。关键问题在于,团队能否接受平台开发者所做的那些决策?理想情况下,团队应审视自身所需的架构决策,并与平台已做出的决策进行对比。

 

这带来了两个重要的挑战:

  1. 团队往往会在实验获得的经验反馈中,逐步发现他们真正需要做哪些决策;

  2. 平台开发者所做的决策并不总是明确或最终的,尤其当平台提供了扩展点,要求使用团队自行填充代码时更是如此。在“铺好的路”这一隐喻中,这些扩展点正是团队可以偏离主路、走上自己方向的地方。

 

许多平台的决策是无害的,只要不影响团队必须满足的质量属性需求(QAR),就可以接受甚至忽略。判断这些决策是否会造成损害的唯一方法,就是通过实验暴露平台在哪些方面未能达成系统的目标。由于平台开发者所做的决策常常未被记录,甚至是未知的,所以团队必须要测试他们的系统(包括所依赖的平台),以确保架构目标(即 QAR)得以实现。

 

即使技术上可行,扩展平台或框架也可能非常复杂。其他使用该平台或框架的人可能不同意你所提出的决策及相关变更,或者他们可能更偏好其他方案,而这些方案又无法满足某些团队的实际需求。这也是为什么存在如此多功能相似的平台和框架的原因之一。

 

此外,当团队决定扩展某个平台或框架时,他们实际上做出了一个隐含承诺,也就是长期维护这些扩展。他们必须将这种成本和所需的时间/精力纳入决策考量。这包括未来升级应用以适配平台/框架新版本的成本和工作量;若不及时升级,可能导致应用崩溃、安全漏洞无法修复,也无法利用新版本在性能和可扩展性方面的改进。

平台和框架能节省时间,直到它们无法做到这一点为止

在我们的简化视角中,平台是指应用程序运行所使用的软件环境(以及提供支撑的基础设施),平台的一个样例就是 Amazon Web Services(AWS)。框架则是应用程序(或其一部分)部分完成的“骨架”,团队在它的基础上添加自身特定的业务逻辑,例如 Java Spring UI 框架。大语言模型(LLM)也可被视为一种平台,团队通过提示词(prompt)对其进行扩展。平台和框架通过提供大量现成的能力,简化了应用程序的开发。

 

但有时候,团队需要的功能与平台或框架所提供的有所差异,举例来说,LLM 可能无法处理团队所需输入类型,比如,需要处理电话通话的音频并响应指令。LLM 在录音室环境下表现良好,但面对在嘈杂的机场录制的语音时,可能就无法工作。团队需要先构建音频降噪过滤器,但随后可能发现这些过滤器仍不足以解决问题。此时,他们就不得不训练自己的 LLM,以便使用包含“噪声”的对话数据。

 

用“铺好的路”作比喻,LLM 提供了一条已被验证的路径,但它无法带领团队抵达真正想去的地方。一旦发生这种情况,团队别无选择,只能在如下三种方案中做出选择:尝试扩展该平台(如果可行)、寻找另一个平台,或者从头构建自己的平台。

 

他们的挑战在于,需要花费一定的时间才能判断,究竟是基于现有平台继续开发更高效,还是必须为自己的场景构建独特的方案。他们的选择受限于平台开发者所做的决策。如果能接受这些决策,那么基于平台开发可能是最佳选择;但如果不能接受,那么在此基础上开发就是在浪费时间,而时间,恰恰是他们最宝贵的资产。

帮助厘清替代方案的三个关键问题

MVP 和 MVA 本质上是对潜在解决方案的“下注”。它们可能正确,也可能错误,而评估这些“赌注”是否成功的唯一方式就是实验。以下三个关于MVP的核心问题,有助于判断平台是否满足你的需求:这个产品值得构建吗?它能否在预期负载下实现可扩展性和性能? 它是否具备长期可维护性?

图 1:帮助确定架构决策的三个问题

 

团队在评估某个平台时,应结合这三个问题进行思考:

  1. 该平台有助于 MVP 的开发,还是阻碍 MVP 的开发?平台可能提供面向用户的功能,简化 MVP 的开发,但也可能附带团队无法接受的架构决策。借用道路的隐喻来说,唯一的方法是先沿着这条路走一小段,通过架构实验,检验平台所做的决策是否契合团队对 MVA 的需求。

  2. 该平台能否在预期的负载下实现可扩展性和性能?这里的难点在于,通常只有通过实验,你才能真正了解自己的可扩展性需求。借用道路的隐喻来说,你往往并不清楚自己需要的是一条车流稀少的双车道乡间小路,还是一条能够承载海量车流的高速公路。

  3. 基于该平台构建的架构是否具备长期可维护性?平台的演进速度通常比具体的业务系统更慢,因为它们的变更往往需要社区共识。当平台无法快速调整以满足需求时,团队就需要有明确的机制来扩展平台,直到平台本身能够做出相应修改。

 

这些问题不应该仅仅停留在激发思考和讨论的层面,必须通过实验进行实证评估。在实践中,这些实验体现为可执行的测试,可以在系统构建过程中持续运行。频繁对系统进行测试,以评估当前架构是否仍然适合目标用途,有助于避免后期出现不可控的大规模返工。

 

尽管上述三个问题看似按线性顺序展开,但实际上它们构成了一个循环(如图 1 所示):针对性能/可扩展性和模块化所做的调整,不应危及整体解决方案的有效性。

结论

平台就像一条现成的道路,可以让团队在交付 MVP 的旅程中更加轻松,但前提是,这条路确实通往他们想去的地方。团队在使用平台时面临的核心挑战在于,至少在项目初期,他们并不完全清楚自己的目的地,因此也无法确定平台所提供的“铺好的路”是否能带领他们抵达那里。

 

判断这条道路是否适合其 MVP 的一个重要方法,就是先走一小段,看看方向是否仍然正确,而这个“正确的方向”,正是由团队的质量属性需求(QAR)所定义的。

 

最终,团队不可避免地会在某个时刻离开平台所提供的“铺好的路”,走出自己的路径。通过实验,他们可以判断何时、何地需要这样做,是扩展平台以满足自身需求,还是开发平台完全未提供的全新解决方案,甚至彻底替换掉原有的平台。

 

The Architect’s Dilemma: Choose a Proven Path or Pave Your Own Way?

一个朋友分享一下他的大作,我觉得这个 Agent+Serverless 架构在工程层面是一个很棒的实现,希望各位佬友能够指教.

省流

一种远程部署 Agent 的方法:
基于 FileSystem 持久化的无状态容器 Agent 部署架构.
实现 Serverless 部署有状态 Agent,基本无单点故障,成本 500-1000 刀 / 月降到 30 刀 / 月
让 Agent 无痛上云而不必要单点部署!

项目源码

项目简介

为了解决部署 AI Agent 的两难问题:

  • 单机部署有状态但 “不容易负载均衡”“成本高”“各个功能耦合” 问题.
  • Serverless 便宜,很多即开即用的组件,不需要管理底层架构,但每次调用丢失状态 (对话历史等)。

本项目实现 Lambda + S3 + DynamoDB 来部署 Claude Agent,实现成本 30 刀 / 月的有状态 Agent,彻底解决以上问题。

这个架构打破了 "Serverless = 无状态" 的固有观念。通过在 S3 中维持会话历史,Lambda 获得了有状态 Agent 的能力,同时保持按需计费的成本优势。

状态管理不需要绑定在容器上,可以与计算完全分离。结合 DynamoDB 的映射、S3 的持久化、Lambda 的弹性计算,用更少的钱,更耦合的组件实现了更好的可靠性。

适用场景

  • Telegram / 微信 / Slack Bot (本项目用 TelegramBot 做示例的,Client 还可以实现其他)
  • SaaS 应用中的 AI 助手 (需要重新写 Client)
  • 多租户平台

Agent 为什么难以 Serverless 化

Claude Agent SDK 需要维护对话状态,与无状态 API 完全不同:

  • 每个 Agent 需要持久 shell、工作目录、完整对话树
  • Lambda 环境是无状态的:每次调用都是干净环境,/tmp 会被清空
  • 官方推荐四种部署模式中,Hybrid Sessions(临时容器 + 状态恢复)成本最优

项目框架 (这个只是当前我需要集成到 TG, 各位大佬如果有需要可以把 Client 改为其他客户端。欢迎 Fork 或者提 PR 来兼容更多客户端!)

Telegram User → Bot API → API Gateway → Producer Lambda → SQS Queue → Consumer Lambda
                                              ↓                            ↓
                                        Return 200              agent-server Lambda
                                        immediately                        ↓
                                              DynamoDB (Session mapping) + S3 (Session files) + Bedrock (Claude)

参考

本文永久链接

https://forum.beginner.center/t/topic/2575


📌 转载信息
转载时间:
2026/1/6 17:05:44

基于人工智能的流行集成开发环境解决方案(如 Cursor、Windsurf、Google Antigravity 和 Trae)会推荐 OpenVSX 注册表中不存在的扩展,这使得威胁行为者能够占用其命名空间并上传恶意扩展。

这些 AI 辅助 IDE 是从 Microsoft VSCode 分支而来,但由于许可限制,无法使用官方商店中的扩展。相反,它们由 OpenVSX 提供支持,这是一个适用于 VSCode 兼容扩展的开源市场替代方案。

分支的结果是,这些 IDE 继承了官方推荐扩展列表,这些列表硬编码在配置文件中,并指向 Microsoft 的 Visual Studio Marketplace。

这些推荐以两种形式出现:一种是基于文件的,在打开如 azure-pipelines.yaml 这类文件时触发,并推荐 Azure Pipelines 扩展;另一种是基于软件的,在检测到开发者系统上安装了 PostgreSQL 时发生,并建议 PostgreSQL 扩展。

然而,并非所有推荐的扩展都存在于 OpenVSX 上,因此相应的发布者命名空间未被占用。

供应链安全公司 Koi 的研究人员表示,威胁行为者可能利用用户对应用推荐的信任,注册未被占用的命名空间来推送恶意软件。

研究人员于 2025 年 11 月下旬向 Google、Windsurf 和 Cursor 报告了此问题。Cursor 于 12 月 1 日做出反应,修复了该漏洞。Google 最初于 12 月 26 日从其 IDE 中移除了 13 个扩展推荐,并于 1 月 1 日将该问题标记为已修复。Windsurf 尚未回应研究人员。

与此同时,Koi 研究人员占用了以下扩展的命名空间,以防止恶意利用:

ms-ossdata.vscode-postgresql
ms-azure-devops.azure-pipelines
msazurermtools.azurerm-vscode-tools
usqlextpublisher.usql-vscode-ext
cake-build.cake-vscode
pkosta2005.heroku-command

研究人员上传了非功能性的占位扩展,这些扩展不提供实际功能,但仍能阻止供应链攻击。

此外,他们已与 OpenVSX 的运营方 Eclipse Foundation 协调,以验证剩余的引用命名空间,移除非官方贡献者,并应用更广泛的注册表级别保护措施。

目前,没有迹象表明恶意行为者在 Koi 研究人员发现并采取行动之前利用了此安全漏洞。

建议分支 IDE 的用户始终通过手动访问 OpenVSX 注册表并检查扩展是否来自信誉良好的发布者来验证扩展推荐。

更新 [东部时间 1月5日 14:09]:
文章已编辑,以反映 Cursor 告知 Koi 研究人员其已于 2025 年 12 月 1 日修复了该问题。

这个没听说过,不过看纸面参数好像还行

  • 在 qwen3 基础上进行后训练
  • 同时提供 30A3B 和 235A22B 两种架构版本
  • 据称在 BrowserComp 测试中表现优异
  • 技术报告即将发布
  • MiT 许可证

比如一下上个版本提升:


在线体验:https://dr.miromind.ai/
GitHub:https://github.com/MiroMindAI/MiroThinker
Hugging Face:MiroThinker-v1.5 - a miromind-ai Collection


📌 转载信息
原作者:
artorius
转载时间:
2026/1/6 17:04:36

美国最大的光纤宽带公司之一Brightspeed正在调查勒索团伙Crimson Collective提出的安全漏洞及数据窃取声明。

这家成立于2022年的美国电信和互联网服务提供商(ISP)为20个州的农村和郊区社区提供服务。

"我们高度重视网络安全及客户与员工信息的保护,并严格实施网络防护与威胁监控。目前我们正在调查有关网络安全事件的报告,"Brightspeed向BleepingComputer表示。"随着调查深入,我们将及时向客户、员工及相关机构通报情况。"

该声明发布前,Crimson Collective周日在他们的Telegram频道更新中声称,已窃取超过100万Brightspeed客户的敏感信息。

威胁行为者声称,被盗数据包含客户/账户详细信息(含个人身份信息PII)、地址信息、关联会话/用户ID的账户信息(包括姓名、邮箱和电话号码)、支付历史记录、部分支付卡信息,以及包含客户PII的预约/订单记录。

"如果有谁认识BrightSpeed的员工,请告诉他们尽快查看邮件!我们手中掌握着超过100万居民用户的PII数据,"他们表示,并补充说"样本将于周一晚间发布,先给他们一些时间回应我们。"

去年10月,该黑客组织还入侵了Red Hat的GitLab实例之一,从28,000个内部开发仓库中窃取约570GB数据,这起事件影响了这家企业软件巨头的咨询部门。

事件发生后,Crimson Collective与Scattered Lapsus$ Hunters黑客组织合作,并利用他们的ShinyHunters数据泄露网站作为勒索Red Hat的手段之一。

12月,日产汽车确认约21,000名日本客户的个人信息(包括姓名、实际地址、电话号码和邮箱地址)在Red Hat数据泄露事件中遭到泄露。

此后,Crimson Collective还针对AWS(亚马逊云服务)云环境实施数据窃取和企业勒索,利用暴露的AWS凭证创建恶意身份和访问管理(IAM)账户来提升权限。

背景介绍:

前端测试目前最主流的是使用 jest 这个测试框架配合 testing library 这个库适配各种前端框架,使用 jsdom 或者 happy-dom 等虚拟浏览器环境来做测试。

虚拟浏览器环境测试的问题

主要问题出在使用虚拟浏览器环境进行前端测试,会出现需要更多额外的配置和匹配器只能匹配 css 属性的值,而无法看到作用在元素上的样式


来自 @testing-library/jest-dom/vitest 的匹配器 toHaveStyle 检查,但是你不好奇样式真的作用在我们测试的元素上了吗?


我们实际去查询下这个元素的样式


发现居然匹配出来不对

这是 jsdom 的问题,主要是在模拟的浏览器环境里实现对性能降低很多。

使用浏览器模式


有一个真实的浏览器环境,可以看到渲染成果,甚至是可以交互的

浏览器模式的问题

社区不是很活跃

  1. vue,react,angular,svetle 有社区组织维护
  2. solid preact 都是个人在维护

bug

时不时在每次修改测试自动重启时,会卡住,需退出重新运行测试

资料

  1. vitest 的官方文档
  2. vite conf 上的介绍b 站上的讲解版
  3. 快速上手的视频教程(youtube 和 b 站的首发哦)
  4. 我自己手写的 component 全覆盖测试的小仓库

📌 转载信息
转载时间:
2026/1/6 17:04:03

ClickFix攻击利用伪造的Windows蓝屏死机界面传播恶意软件

                        作者

04:16 PM

一场针对欧洲酒店业的新型ClickFix社会工程攻击正在活跃,攻击者通过伪造Windows蓝屏死机(BSOD)界面,诱骗用户在其系统上手动编译并执行恶意软件。

蓝屏死机是Windows操作系统遇到致命且无法恢复的错误时显示的崩溃界面。

这场最早于12月被发现、被Securonix研究人员追踪命名为"PHALT#BLYX"的新攻击活动中,冒充Booking.com的网络钓鱼邮件最终导向了部署恶意软件的ClickFix社会工程攻击。

ClickFix攻击伪造蓝屏死机崩溃界面

ClickFix社会工程攻击通过设计展示错误或问题的网页,随后提供"修复方案"来解决该问题。这些错误可能是伪造的错误消息、安全警告、验证码挑战或更新通知,指示访问者在计算机上运行命令以解决问题。

受害者最终会按照攻击者指示运行恶意的PowerShell或Shell命令,从而感染自己的设备。

在此次新的ClickFix攻击活动中,攻击者发送冒充酒店客人取消Booking.com预订的钓鱼邮件,通常针对酒店企业。邮件中声明的退款金额足以给收件人制造紧迫感。

伪造的Booking.com预订取消提醒

来源:Securonix

点击邮件中的链接会将受害者导向托管在'low-house[.]com'的虚假Booking.com网站,Securonix将其描述为真实Booking.com网站的"高保真克隆版"。

"该页面使用官方Booking.com品牌元素,包括正确的配色方案、标识和字体样式。对于未经训练的用户而言,它与合法网站无法区分,"
Securonix报告指出

Booking.com克隆网站上的虚假错误信息

来源:Securonix

然而当目标点击按钮时,浏览器会进入全屏模式并显示伪造的Windows蓝屏死机崩溃界面,从而启动ClickFix社会工程攻击。

受害者浏览器上显示的ClickFix蓝屏死机界面

来源:Securonix

该界面提示用户打开Windows运行对话框,然后按CTRL+V粘贴已复制到Windows剪贴板的恶意命令。

随后系统会提示用户点击确定按钮或按键盘回车键执行该命令。

真实的蓝屏死机消息不会提供恢复指导,仅显示错误代码和重启提示,但缺乏经验的用户或在解决纠纷压力下的酒店工作人员可能会忽略这些欺诈迹象。

恶意软件(staxs.exe)是DCRAT远程访问木马,威胁行为者常用此工具远程访问受感染设备。

该恶意软件通过进程镂空技术注入到合法的'aspnet_compiler.exe'进程中,并直接在内存中执行。

首次连接命令与控制(C2)服务器时,恶意软件会发送完整的系统指纹信息,随后等待执行命令。

它支持远程桌面功能、键盘记录、反向Shell以及额外载荷的内存执行。在Securonix观察到的案例中,攻击者部署了加密货币挖矿程序。

建立远程访问后,威胁行为者便在目标网络中建立了立足点,从而能够扩散到其他设备、窃取数据并可能危害其他系统。

TII 刚刚发布了 Falcon H1R-7B 模型

一种新型推理模型,仅凭 70 亿参数和 25.6 万字节上下文窗口,便在数学和编程领域超越其他模型

该模型融合了 Mamba 与 Transformers 架构,因此在吞吐量和内存效率方面更具优势


官方介绍:Introducing Falcon H1R 7B
Hugging Face:Falcon-H1R - a tiiuae Collection


热乎的喵,最新小模型好多哇


📌 转载信息
原作者:
artorius
转载时间:
2026/1/6 17:03:08

一个名为Zestix的威胁行为者正在兜售从数十家公司窃取的企业数据,这些数据很可能是通过入侵其ShareFile、Nextcloud和OwnCloud实例获取的。

根据网络犯罪情报公司Hudson Rock的分析,初始访问权限可能是通过部署在员工设备上的信息窃取恶意软件(如RedLine、Lumma和Vidar)收集的凭证获得的。

这三种信息窃取程序通常通过恶意广告活动或ClickFix攻击传播。此类恶意软件主要针对浏览器存储的数据(凭证、信用卡、个人信息)、即时通讯应用和加密货币钱包。

当缺乏多因素认证(MFA)保护时,持有有效凭证的威胁行为者可以未经授权访问文件共享平台等服务。

Hudson Rock在今日的报告中指出,部分被分析的被盗凭证已在犯罪数据库中存在多年,这表明相关企业未能及时更换凭证,甚至在长时间后仍未使活跃会话失效。

多起入侵事件被公开兜售

Hudson Rock表示,Zestix在地下论坛担任初始访问经纪人(IAB),出售高价值企业云平台的访问权限。

这家网络安全公司指出,攻击者入侵了跨航空、国防、医疗、公用事业、公共交通、电信、法律、房地产和政府等多个行业组织使用的ShareFile、Nextcloud和OwnCloud环境。

地下论坛中Zestix兜售数据的样本

来源:Hudson Rock

通过解析信息窃取器日志并"专门查找企业云URL(ShareFile、Nextcloud)",该威胁行为者使用有效的用户名和密码登录了未启用MFA的文件共享服务。

Hudson Rock表示,通过将其平台上的信息窃取器数据与公开图像、元数据和开源信息进行关联分析,锁定了可能的入侵点。

在至少15个分析案例中,这家网络安全公司发现云文件共享服务的员工凭证确实被信息窃取器收集。

需要强调的是,这种验证是单方面的,所列公司均未公开确认存在安全漏洞。可能的例外是Iberia航空公司,尽管其近期披露的安全事件未必与Hudson Rock的发现直接相关。

Zestix兜售的被盗数据量从数十GB到数TB不等,声称包含飞机维护手册和机队数据、国防与工程文件、客户数据库、健康记录、公共交通示意图、公用事业LiDAR地图、ISP网络配置、卫星项目数据、ERP源代码、政府合同和法律文件。

许多据称被盗的文件可能使相关组织面临安全、隐私和工业间谍风险,而暴露的政府合同可能引发国家安全担忧。

暴露数据的规模与类型

来源:Hudson Rock

Hudson Rock还发现了Zestix使用别名"Sentap"销售的另外30个受害者,但研究人员未以相同方式验证这些案例。

研究人员报告称,除已列出的受害者外,其威胁情报数据表明云暴露是一个更广泛的系统性问题,根源在于组织未能遵循良好的安全实践。

他们报告已识别出数千台受感染计算机,其中包括德勤、毕马威、三星、霍尼韦尔和沃尔玛的设备。

Hudson Rock向BleepingComputer透露,已就已验证的暴露事件通知ShareFile,并将向Nextcloud和OwnCloud发出警报,以便采取适当措施。

浅谈一次 cherry-studio 捉虫记录并浅谈它内置联网原理

最近因为 cherry-studio 内置的三大搜索(bing、baidu、google)过于难用于是我开启了捉虫行动。

大家都遇到过这种情况:在 cherry 里问 AI 一个问题然后它通过调用联网搜索的方式回答,但是很操蛋的是内置的三大搜索都几乎不可用,这太操蛋了。

我通过查阅 cherry 的源代码最终理解了为什么三大搜索这么难用,下面举例说明为什么难用

  1. cherry 会将 AI 生成的查询关键词做一些可有可无的处理导致搜索范围变窄(我个人认为这是其中之一的原因,他们这样写肯定有自己的原因),比如会在搜索关键词前面插入当前的日期信息 today is 20**-**-** \r\n 后面插入用户的语言 lang: **** , 这就导致整个搜索关键词变得繁杂冗长,能搜到的内容自然变少了。
  2. cherry 通过一个隐藏的窗口获取网页信息,但由于是隐藏的窗口导致加载出来的网页信息和正常的网页有非常大的差异。
  3. cherry 获取网页源码的时机有点问题,在页面还有抖动的时候就尝试获取了,这导致有时候获取的是空内容


好,那么如何解决呢?首先让我将一下 cherry 是如何搜索的吧。

cherry 负责搜索的模块在接受到 AI 生成的搜索关键词后会对关键词进行一定的处理,处理完成后会开启一个浏览器的窗口访问处理好的搜索链接,当页面加载完成后会获取整个网页内容传递给对应搜索的解析器进行数据提纯,完成这一切后浏览器窗口会将其关闭(当然由于是隐藏的所以你什么也看不见),这时候就完成了搜索,AI 就可以根据返回的内容输出答案。

问题就出现在开启浏览器的过程和获取源代码的时机上面,当我让 cherry 创建窗口获取网页源代码的时候获取的页面是这样的

但是在不显示窗口的情况下获取到的页面是这样的

这时候解决方法就呼之欲出了,这里引用我提交的 pr 说明

通过启用离屏渲染并修改executeJavaScript执行时机修复bing、baidu、google无法获取搜索内容的bug。

这个bug是因为在electron中隐藏窗口时候获取的页面会与显示窗口时有差异导致的无法获取搜索内容,且原有的did-finish-load会导致窗口内网页的抖动,这进一步导致随机性的无法正常获取搜索内容。

我通过启动离屏渲染确保不显示窗口时页面内容和显示窗口时一致解决无法获取搜索内容的问题,并改用ready-to-show事件确保完全加载完成页面后再获取完整的页面dom,这样即可解决搜索的bug


最后贴一张修复后的使用效果图,使用内置 bing 搜索(要是能加载后面需要翻页的内容就好了)


今天 08:45 悲报,由于我修复了这个 bug,现在出现了新的问题,由于这东西搜索在获取具体的网站链接后会直接并发请求目标网站,这就导致搜索很容易被知乎、豆瓣等网站 403 拦截(麻痹的 cherry 怎么就不搞个节流呢?我回头研究一下怎么搞上去吧,乏了)


今天 14:47 @DeJeune 为我提交的 pr 添加了请求节流


📌 转载信息
原作者:
tausak
转载时间:
2026/1/6 17:02:33

我,程序员爸爸,目前带在公立学校的小学三年级男娃,感觉带娃还是挺好玩的。

  1. 会发现自己童年的影子,可以跟娃聊面临的相同的问题。试图影响下自己当年的遗憾,这点只能靠忽悠。
  2. 可以陪娃一起研究共同爱好,比如打游戏。
  3. 可以研究娃感兴趣和有特长的事的发展路径,真人养成。
  4. 可以帮娃正确看待学校老师和他人的观点看法,做娃独立意志的支持。

这学期娃平均每天 2 小时通关了塞尔达旷野之息和王国之泪,打 boss 跟玩一样,远超老父亲。
音乐上新学了钢琴。吹长号也进了学校交响乐团比赛团,下学期跟学校表演去。视唱练耳也学完了,下学期打算正式学编曲。
数学上,在家把袋鼠数学 level3 快刷完了,下学期考 level3 去。

这学期期中开家长会,我去问各科老师娃表现。语文和英语老师都说娃上课不听课。我就跟老师说您就说哪儿需要补,我们回家自己补。对于上课不听课这个事,我们家已经平常心看待了,毕竟我小时候也不听课。幸好班主任是数学老师,娃数学好,班主任就没给太大规矩压力。

对于啥时候要开始卷学习这个事,我按照我小时候的情况看,目前已经不打算小学让娃为了成绩放弃自己的爱好了。目前高中也快普及了,感觉初中也不用。学习就等高中再说了。

笔记同步方法分享(含图床配置和同步配置)

本人使用的是 Obsidian 进行笔记管理 + Typora 进行笔记的编写,因为 Obsidian 多端同步且显示效果不会那么割裂,比较好用,实际效果如下:

Windows:

平板端:

有一说一 Obsidian 的阅读要比 typora 体验好很多,但是用多了 Typora,编辑体验比 Ob 强很多捏(个人感觉),尤其是 Typora+picgo 的图床配置,无感上传并自动转换图片为图床链接很爽。我使用的是 CF 的 R2 存储桶,免费的容量和访问次数完全够用,使用下来非常舒服。

图床配置

贴一下 picgo 相关配置:

配置方法的话也写一下吧,如下:

1. 创建一个存储桶

2. 开启 R2 存储桶的权限,然后配置一个桶,我这里是使用的是 这个桶,然后在 cloudflare 页面配置这个桶,

然后把这个 S3API 配置到 PicGo 的自定义节点,如果你嫌链接太长,可以在这里配置你的自定义域,也就是域名,配置后会自动在你的域名下创建相关 DNS 记录,其他的可以照抄我的也行。

3. 配置访问令牌

然后把上边的访问密钥 ID访问密钥配置到你的 PicGO 中的应用密钥 ID应用密钥即可

4. 大功告成,设置 Typora 使用 PicGO 上传即可。

  • 偏好设置 → 图像

同步配置

这里使用的是 Obsidian 中的一个插件 Remotely Save,因为我不想登录 Obsidian,本来就是本地管理笔记,登录干嘛哈哈哈哈。这里我是用的 Webdev 进行同步的,我是用的一个 GitHub 的夸克网盘的项目来实现对 Webdev 服务的支持(88VIP 必须物尽其用!)这里贴一下相关的项目:

这个项目的 stars 数还是很少的,但是我用下来体验还是不错的,虽然偶尔报错有点多,但大部分时间是好的哈哈哈哈

配置好,在 Typora 中写完东西,只要在 Obsidian 点一下同步,就可以在手机平板上肆意浏览你的笔记啦。

这里有一些配置推荐:

如果和我一样只在电脑上写笔记,在别的地方只是看笔记的话,建议开启这样的配置:

Windows:

观看端的话也是这样:

但是同步方向修改一下,万一在手机改了一下,可能会有一些冲突和覆盖:

配置同步也很方便,这里有一个导出的配置,用二维码扫一下就好咯:

结尾

这就是全部的内容啦,我个人目前的笔记管理,是这样的,在期末周忙里偷闲(其实是不想学习 ),想给大家分享下我的方案。当然可能会有欠佳的地方,大家可能也有比较好用的方案,都可以分享出来,我们共同学习共同进步!


📌 转载信息
原作者:
Wiretender
转载时间:
2026/1/6 17:01:43

这个软件和 Homebrew 配合可以比较完美的保持软件处于最新状态,用了几年了

没人接盘的话估计就凉了,大家还有啥完美的替代品吗

不幸的是,MacUpdater 3 承诺的使用期限“直到 2026 年 1 月 1 日”现已结束。
我们将不再推出 MacUpdater 4 或任何后续版本。
我们的日常维护已停止,也不再验证更新。
MacUpdater 3.5 现已不再支持,但仍可免费使用,包括所有之前的“专业”功能。
如有任何问题或关于停止支持的更多信息,请查阅常见问题解答。

原文: https://www.corecode.io/macupdater/

Unfortunately MacUpdater 3's promised lifetime of "until 2026-01-01" is now over.
There will be no MacUpdater 4 or any continuation of the MacUpdater product from us.
Our daily maintainaince has been stopped and we don't verify updates anymore.
MacUpdater 3.5 is now unsupported but free-to-use including all previous "Pro" features.
For any questions or more info regarding the disontinuation head to the F.A.Q.

先准备一些 USDC 和 SOL ,比如 $1000 和大约 1 SOL 。

然后在这里 Add Position ,先存 $200 和 0.2 SOL 进去:

https://www.meteora.ag/dlmm/BGm1tav58oGcsQJehL9WXBFXF7D27vZsKefj4xJKD5Y

如果后续波动出了区间,那么再在新的区间继续加 $200 和 0.2 SOL 进去。

不要一次性把所有子弹全部打空。

最终,实现的效果是,你的预算可以大致覆盖 SOL-USDC 的大部分波动区间,然后每天收钱。

这样在接下来很长一段时间里,就不会再需要从 CEX 提取 SOL 当 gas 。

PT 站新手入门指南

最近元旦 btshcool 开放注册,我也是注册了一个新号,由此开始我的新手入门。

什么是 PT 站?

PT 站(Private Tracker)是一种私有的种子分享站点,和公共 BT 站点不同,只有在站内注册且满足一定门槛的用户才能相互分享和下载资源。因此,PT 站点一般资源更加丰富,但门槛也更高。

进站后的规则

进入 PT 站点后,需要遵守以下规定:

  • 只能使用允许的 BT 客户端下载站内资源,不能使用迅雷、QQ 旋风、离线网盘等下载工具。
  • 所有资源不能用于盈利,也不能在其他站点分享。
  • 过低的分享率会导致严重的后果,包括禁止帐号。

站点有各自的规定和门槛,需要仔细阅读站点介绍和规则后再进行相应的操作。

H&R 是什么?

H&R 就是 Hit and Run 的缩写,表示下载完资源后在规定时间内没有完成最少做种时间的行为,简单说就是 "下完就跑"。实行 H&R 考核是为了提高资源保种率,使老资源不断种。

H&R 有四种状态:

  1. 考察中:需要保种的种子,做种时间没完成或上传量小于下载量。
  2. 已达标:下载的种子已完成做种时间或上传量大于等于下载量。
  3. 未达标:没完成种子做种时间且种子的上传量小于下载量。
  4. 已免罪:大赦天下,这情况特殊!

在 btshcool 站点,下载一个种子后,需在下载完成后 10 天内做种时间达到 20 小时。

网站速度限制规则

网站限制上传速度最高为 25 MByte/S (超过 100 MByte/S 系统自动封号),下载不限。

新人考核要求

  • 上传量:需要 60 GB
  • 下载量:需要 60 GB
  • 魔力值:需要 6000.0

如何完成考核?

下载量:下载一些热门的影视资源即可完成。

上传量:保种电影资源,一个月 60GB 的上传量总会满足的,或者挂魔力值,到时候用魔力值兑换上传量。

魔力值:获得方式为 0.5 个魔力值 * 做种数 (做种数最多计 100 个)。实际操作中,可以在种子页按大小顺序排列,下载 100 个小种子,总共大小也就 100 多 M,最后一直挂种,每个小时能获得 50 魔力值。

计算一下:30 天 X24 小时 = 720 小时,考核期结束前最多能拿 36000 魔力值,减去考核所需要的 6000 魔力值,其他都可用来兑换上传量。10GB 上传量为 4200 魔力值,30000 魔力值可兑换 70G 上传量。

BT 下载工具设置

推荐直接下载官方优化版 μTorrent,我选择使用 Aria2,但需要修改配置以符合 PT 站要求。以下是关键配置:

# 断点续传 continue=true # 最大同时下载任务数 max-concurrent-downloads=100 # 同一服务器连接数 max-connection-per-server=8 # 最小文件分片大小 min-split-size=10M
# 单个任务最大线程数 split=32 # 整体下载速度限制 max-overall-download-limit=0 # 整体上传速度限制 max-overall-upload-limit=3M
# 禁用IPv6 disable-ipv6=false ## BT/PT下载相关 ## # 当下载的是一个种子时, 自动开始BT任务 follow-torrent=true # 禁用DHT功能 enable-dht=false # 禁用IPv6 DHT功能 enable-dht6=false # 禁用本地节点查找 bt-enable-lpd=false # 禁用种子交换 enable-peer-exchange=false # 客户端伪装 peer-id-prefix=-TR2770-
user-agent=Transmission/2.77 # 当种子的分享率达到这个数时, 自动停止做种 seed-ratio=2.0 # 继续之前的BT任务时, 无需再次校验 bt-seed-unverified=true # 强制校验种子完整性 check-integrity=true # 下载完成前限制上传 bt-upload-only-on-complete=true 

这些配置确保 Aria2 符合 PT 站要求,不会因为违规而被封号。特别是禁用 DHT、PEX 等功能,以及客户端伪装,都是 PT 站的基本要求。

最后提醒

PT 站点管理严格,第一次使用建议先了解规则,不要急于下载大量资源。保持良好的分享率,遵守站点规定。

以上内容只是个人理解,有错误麻烦指正。


📌 转载信息
原作者:
k452b
转载时间:
2026/1/6 13:15:12

放心用吧,没有任何限制,值得点赞


📌 转载信息
转载时间:
2026/1/6 12:52:52