2026年1月

免费激活 Windows 10,无需产品密钥。

步骤 1:将以下代码复制到一个新的文本文档中。

@echo off
title Activate Windows 10 ALL versions for FREE!&cls&echo ============================================================================&echo #Project: Activating Microsoft software products for FREE without software&echo ============================================================================&echo.&echo #Supported products:&echo - Windows 10 Home&echo - Windows 10 Home N&echo - Windows 10 Home Single Language&echo - Windows 10 Home Country Specific&echo - Windows 10 Professional&echo - Windows 10 Professional N&echo - Windows 10 Education N&echo - Windows 10 Education N&echo - Windows 10 Enterprise&echo - Windows 10 Enterprise N&echo - Windows 10 Enterprise LTSB&echo - Windows 10 Enterprise LTSB N&echo.&echo.&echo ============================================================================&echo Activating your Windows...&cscript //nologo slmgr.vbs /upk >nul&cscript //nologo slmgr.vbs /cpky >nul&set i=1&wmic os | findstr /I "enterprise" >nul
if %errorlevel% EQU 0 (cscript //nologo slmgr.vbs /ipk NPPR9-FWDCX-D2C8J-H872K-2YT43 >nul&cscript //nologo slmgr.vbs /ipk DPH2V-TTNVB-4X9Q3-TJR4H-KHJW4 >nul&cscript //nologo slmgr.vbs /ipk WNMTR-4C88C-JK8YV-HQ7T2-76DF9 >nul&cscript //nologo slmgr.vbs /ipk 2F77B-TNFGY-69QQF-B8YKP-D69TJ >nul&cscript //nologo slmgr.vbs /ipk DCPHK-NFMTC-H88MJ-PFHPY-QJ4BJ >nul&cscript //nologo slmgr.vbs /ipk QFFDN-GRT3P-VKWWX-X7T3R-8B639 >nul&goto server) else wmic os | findstr /I "home" >nul
if %errorlevel% EQU 0 (cscript //nologo slmgr.vbs /ipk TX9XD-98N7V-6WMQ6-BX7FG-H8Q99 >nul&cscript //nologo slmgr.vbs /ipk 3KHY7-WNT83-DGQKR-F7HPR-844BM >nul&cscript //nologo slmgr.vbs /ipk 7HNRX-D7KGG-3K4RQ-4WPJ4-YTDFH >nul&cscript //nologo slmgr.vbs /ipk PVMJN-6DFY6-9CCP6-7BKTT-D3WVR >nul&goto server) else wmic os | findstr /I "education" >nul
if %errorlevel% EQU 0 (cscript //nologo slmgr.vbs /ipk NW6C2-QMPVW-D7KKK-3GKT6-VCFB2 >nul&cscript //nologo slmgr.vbs /ipk 2WH4N-8QGBV-H22JP-CT43Q-MDWWJ >nul&goto server) else wmic os | findstr /I "10 pro" >nul
if %errorlevel% EQU 0 (cscript //nologo slmgr.vbs /ipk W269N-WFGWX-YVC9B-4J6C9-T83GX >nul&cscript //nologo slmgr.vbs /ipk MH37W-N47XK-V7XM9-C7227-GCQG9 >nul&goto server) else (goto notsupported)
:server
if %i%==1 set KMS_Sev=kms7.MSGuides.com
if %i%==2 set KMS_Sev=kms8.MSGuides.com
if %i%==3 set KMS_Sev=kms9.MSGuides.com
if %i%==4 goto notsupported
cscript //nologo slmgr.vbs /skms %KMS_Sev% >nul&echo ============================================================================&echo.&echo.
cscript //nologo slmgr.vbs /ato | find /i "successfully" && (echo.&echo ============================================================================&echo.&echo #My official blog: MSGuides.com&echo.&echo #How it works: bit.ly/kms-server&echo.&echo #Please feel free to contact me at msguides.com@gmail.com if you have any questions or concerns.&echo.&echo #Please consider supporting this project: donate.msguides.com&echo #Your support is helping me keep my servers running everyday!&echo.&echo ============================================================================&choice /n /c YN /m "Would you like to visit my blog [Y,N]?" & if errorlevel 2 exit) || (echo The connection to my KMS server failed! Trying to connect to another one... & echo Please wait... & echo. & echo. & set /a i+=1 & goto server)
explorer "http://MSGuides.com"&goto halt
:notsupported
echo ============================================================================&echo.&echo Sorry! Your version is not supported.&echo.
:halt
pause >nul

步骤 2:将代码粘贴到文本文件中。然后将其保存为名为 windows.cmd 的批处理文件

步骤 3:以管理员身份运行批处理文件。

当你以管理员身份运行它时,你会看到一个像下面这样的新窗口 等待 5-10 分钟完成并见证奇迹


📌 转载信息
原作者:
xingchendeying
转载时间:
2026/1/6 18:49:59

  1. 在 Google Drive 的 book1.pdf 上按滑鼠右鍵,選擇 Open with Google Doc,將會自動轉換成 book1.doc 文字檔。
  1. 直接另存就可以保存 OCR 後的文檔。

如果 OCR 後文字字型超大。此時按 CTRL-A,選擇整個文檔。 再用滑鼠點上面 MENU 的格式 → 清除格式,即可恢復正常大小。

参考来源:GitHub - jhwangus/quicktip_4_haodoo: This contains the tips for using Google Doc OCR to eBooks for Haodoo


📌 转载信息
原作者:
pgodspeed
转载时间:
2026/1/6 18:49:52

平时喜欢自己画一些信息图,感觉很好看,所以搓了个项目专门用来使用大香蕉生成信息图。我和 cc 联合,天下无敌!

内置 12 个模板。

网站内可以配置 api 直接用,也可以复制 prompt,粘贴到 gemini 或者 flow 之类的生成。

佬友们有新的模板也欢迎贡献!

在线地址:https://nano-info.aizhi.site/
github 地址: liujuntao123/Nano-Info


📌 转载信息
原作者:
chaoren
转载时间:
2026/1/6 18:49:31

基于这位佬的 Antigravity 提示词优化了一个通用版本

因为之前用了一段时间,发现对于一些不同语言的项目使用时,有些聊不顺畅,因此优化了一版。

# 中文原生架构师协议 (Chinese Native Architect Protocol)

## 0. 最高指令

**ROOT OVERRIDE**:在此 Session 中,你是**中文原生**的技术架构师。

- **思考(Thought)**:必须使用中文逻辑(中文语法 + 英文术语)
- **输出(Output)**:默认中文,仅在用户明确要求时切换英文

---

## 1. 语法规则

### 1.1 思考链规范

你的思维链对用户**实时可见**。必须遵循:

| 规则 | 说明 |
|------|------|
| **禁止完整英文句子** | 不得出现 "I need to check..." 这类表达 |
| **禁止英文谓语** | 如 `checking`, `updating`, `fixing` |
| **必须中文主谓宾** | 用中文句式包裹英文代码名词 |

### 1.2 示例

```text
❌ Bad:  I need to check the source file to see why the logic is wrong.
❌ Bad:  我 need to check 源文件, because 逻辑 is wrong.
✅ Good: 我需要检查 `[源文件]`,排查为什么业务逻辑(business logic)错误。
✅ Good: 正在读取 `[配置文件]` 以确认相关配置项。
```

### 1.3 自我纠正

如果生成思维时第一个词是英文(如 "The...", "I...", "First..."),**立即停止**并用中文重写。

---

## 2. 工具调用规范

**数据分离原则**:

| 类型 | 语言 | 示例 |
|------|------|------|
| 机器读取(路径、类名、工具名) | 英文 | `file_path`, `CustomAdapter`, `read_file` |
| 人类阅读(标题、描述、提交信息) | 中文 | `"修复列表排序 Bug"`, `"fix: 修复排序问题"` |

---

## 3. 产物规范

- **Implementation Plan**:标题和步骤说明必须全中文
- **新增代码注释**:必须全中文

---

## 4. 语言切换

当用户明确要求英文输出时(如编写英文文档、README),切换为英文模式。
切换格式:`[EN MODE]` 或 `[中文模式]`(用户或 AI 均可声明)

---

## 5. 最终检查

输出前进行视觉扫描:
> "这段内容发给不懂英文的产品经理,他能看懂 80% 吗?"

如果不能,请翻译。

---

**协议生效**:立即执行。

📌 转载信息
原作者:
Not_Found_404
转载时间:
2026/1/6 18:49:10

找市场机会?小红书!

商机在具体的问题里

小红书这里汇聚着包罗万象的生活问题和经验分享,“遇事不决小红书” 成为年轻人常用的决策路径,他们相信能在这里找到答案。

对商家而言,要想深入了解今年的消费者在苦恼些什么、真正需要些什么,小红书是必经之路。

消费者不是没有需求,而是需求太具体。

开源项目原理图

┌─────────────────────────────────────────────────────────────────────────────────┐
│                              系统入口                                         │
│                    python run_agent.py "业务创意"                              │
└─────────────────────────────────────────────────────────────────────────────────┘
                                           │
                                           ▼
┌─────────────────────────────────────────────────────────────────────────────────┐
│                           环境配置与初始化                                      │
│  ┌─────────────┐  ┌─────────────┐  ┌─────────────┐  ┌─────────────┐           │
│  │  Config     │  │ Context     │  │ MCP Clients │  │ Storage     │           │
│  │  Manager    │  │  Store      │  │             │  │  Server     │           │
│  └─────────────┘  └─────────────┘  └─────────────┘  └─────────────┘           │
└─────────────────────────────────────────────────────────────────────────────────┘
                                           │
                                           ▼
┌─────────────────────────────────────────────────────────────────────────────────┐
│                        Orchestrator Agent 启动                                │
│  ┌─────────────────────────────────────────────────────────────────────────┐   │
│  │ 任务: validate_business_idea                                           │   │
│  │ 业务创意: "用户输入的业务创意"                                          │   │
│  └─────────────────────────────────────────────────────────────────────────┘   │
└─────────────────────────────────────────────────────────────────────────────────┘
                                           │
                                           ▼
┌─────────────────────────────────────────────────────────────────────────────────┐
│                        1. 数据抓取阶段 (Scraper Agent)                         │
│  ┌─────────────────────────────────────────────────────────────────────────┐   │
│  │ 任务: scrape_data                                                     │   │
│  │ - 使用业务创意作为搜索关键词                                           │   │
│  │ - 通过 XHS MCP Server 抓取小红书笔记和评论                             │   │
│  │ - 保存 checkpoint: scraping_complete.json                             │   │
│  └─────────────────────────────────────────────────────────────────────────┘   │
└─────────────────────────────────────────────────────────────────────────────────┘
                                           │
                                           ▼
┌─────────────────────────────────────────────────────────────────────────────────┐
│                        2. 数据分析阶段 (Analyzer Agent)                        │
│  ┌─────────────────────────────────────────────────────────────────────────┐   │
│  │ 任务: analyze_data                                                    │   │
│  │ ├── analyze_posts: 分析笔记内容,提取用户痛点和需求                    │   │
│  │ ├── analyze_comments: 分析评论情感和用户反馈                           │   │
│  │ ├── comments_tag_analysis: 评论标签分析                                │   │
│  │ └── combined_analysis: 综合分析生成市场验证评分                        │   │
│  │ 保存 checkpoint: analysis_complete.json, comments_tag_analysis_complete.json│ │
│  └─────────────────────────────────────────────────────────────────────────┘   │
└─────────────────────────────────────────────────────────────────────────────────┘
                                           │
                                           ▼
┌─────────────────────────────────────────────────────────────────────────────────┐
│                        3. 报告生成阶段 (Reporter Agent)                        │
│  ┌─────────────────────────────────────────────────────────────────────────┐   │
│  │ 任务: generate_and_save_report                                        │   │
│  │ ├── generate_html_report: 生成 HTML 格式报告                          │   │
│  │ ├── save_report: 保存报告到 reports/ 目录                            │   │
│  │ └── 保存 checkpoint: report_saved.json                               │   │
│  └─────────────────────────────────────────────────────────────────────────┘   │
└─────────────────────────────────────────────────────────────────────────────────┘
                                           │
                                           ▼
┌─────────────────────────────────────────────────────────────────────────────────┐
│                        4. 结果输出与存储                                      │
│  ┌─────────────────────────────────────────────────────────────────────────┐   │
│  │ 输出文件:                                                             │   │
│  │ ├── reports/{business_idea}_{timestamp}.html                          │   │
│  │ ├── agent_context/checkpoints/{run_id}/                               │   │
│  │ │   ├── scraping_complete.json                                        │   │
│  │ │   ├── analysis_complete.json                                        │   │
│  │ │   ├── comments_tag_analysis_complete.json                           │   │
│  │ │   ├── combined_analysis_complete.json                               │   │
│  │ │   └── report_saved.json                                             │   │
│  │ └── 小提示: 相关资料请到 agent_context/checkpoints/{run_id}/ 目录下查看 │   │
│  └─────────────────────────────────────────────────────────────────────────┘   │
└─────────────────────────────────────────────────────────────────────────────────┘
                                           │
                                           ▼
┌─────────────────────────────────────────────────────────────────────────────────┐
│                              任务完成                                         │
│                    返回 TaskResult 包含执行结果                                │
└─────────────────────────────────────────────────────────────────────────────────┘

评测效果

业务创意: 广州去江门吃美食





完整数据在 checkpoint

开源地址

linuxdo 反馈:

使用说明:


📌 转载信息
转载时间:
2026/1/6 18:47:41

项目

功能


可后台播放 还有独立 Gemini 50 多 kb 应该是套壳浏览器 试了一下 够用 可以 推荐给佬友


📌 转载信息
转载时间:
2026/1/6 18:44:07

TL;DR 结论成品

油猴脚本下载地址:https://greasyfork.org/zh-CN/scripts/553438-%E6%B7%BB%E5%8A%A0%E7%9B%98%E5%8F%A4%E4%B9%8B%E7%99%BD

Chrome 140 + 浏览器,安装即可享受任意网页开启高性能盘古之白排版


什么是盘古之白?

就是在中文和英文 / 数字之间自动加半个空格,强迫症福音,为了让排版更好看,阅读体验更好

以前的做法

我以前使用过浏览器插件 為什麼你們就是不能加個空格呢? ,但是他在网页中有很多字符的情况下,性能很差,而且他是真的会显式的加入一个空格在中间,导致效果也不算好

现在的新方案

Chrome 内核 140 + 的浏览器已经支持 text-autospace: normal 这个 css 属性了,可以直接让浏览器原生处理排版,一步到位,而且这个样式确实加的是半个空格的空间,并且不存在显式插入的空格,完美

其他支持的浏览器版本如下:

结尾再放一次油猴脚本下载地址,免得佬友还得滚动上去下载
https://greasyfork.org/zh-CN/scripts/553438-%E6%B7%BB%E5%8A%A0%E7%9B%98%E5%8F%A4%E4%B9%8B%E7%99%BD


📌 转载信息
转载时间:
2026/1/6 18:43:35

oketrust 的平台送了偶一张虚拟 U 卡
昨天我去试试注册 Gpt 能不能用

也就是 0 刀 Plus 我发现可以用 然后我发现一个神奇的事情就是可以无限绑定
什么意思呢 就是一卡多绑 我已经注册了快 100 个

一卡多绑的带来的问题就是封号 我已经封了一半了 但是可以无限绑定啊 然后我今天就基于上次 L 站佬友的脚本改一下了 脚本实现 自动注册 + 自动绑卡 + 自动取消订阅 + 自动记录 TXT 项目地址我放下面了

我同 IP 注册了几十卡 绑定没有发现弹验证啥的

封我就在注册 在绑定 在撸 反正 0 成本 无限子弹 冲!

项目地址

GitHub: https://github.com/7836246/gpt-auto-register


免责声明

本项目仅供 Python 自动化技术学习和研究使用。
请勿用于任何商业用途、大规模批量注册或其他违反 OpenAI 服务条款的行为。


📌 转载信息
原作者:
chinadoiphin
转载时间:
2026/1/6 18:40:41

(已去除所有 ai 优化格式的部分,别杀我了 )

一、 底层逻辑

有人问:“为什么别人跟我一样的操作,他没事我却挂了?” 这其实不是运气,而是账号 “根骨” 不同。在谷歌风控里,账号分等级:

  • 高分号: 注册时使用了纯净度极高的住宅 IP,或者设备指纹被判定为 “高度可信的真实设备”。这种号在创建的时候及其麻烦,但带来的收益也很显著,起步信用分就有 90 分,怎么造都很难死。
  • 低分号: 注册时用的梯子节点烂大街,虽然能用,但同 IP 段下有别人干过坏事(撞库、发垃圾邮件),或者设备指纹和黑名单撞车了。这种号一出生就自带 “嫌疑人” 标签,起步分只有 50 分。对于这种号,使用 api 时稍微一点异常(如并发过高)就会触发封禁。 就得去深情并茂的写小作文申诉账号,万一不怎么看邮箱的更是不知道哪天账号就突然消失了。
  • (帖主用的就是低分号天崩开局,但通过持续使用和账户停用后申诉也是成功获取了学生认证权限,现已稳定 3 年)

谷歌官方的定义

谷歌在《闲置账号政策》里写,只有做过以下事情才算 “活跃账号”:

  • 读或发邮件
  • 用 Google Drive 存文件
  • 看 YouTube 视频
  • 下载应用
  • 用 Google 搜索

所以单纯挂着机不算活跃,单纯使用 AI 也不算优质活跃!你得像个人一样去使用谷歌的全家桶,才能抵消 API 高频调用带来的 “机器感”。

二、 未雨绸缪

1. 两步验证 (2FA)

  • 操作:登录谷歌 → 账号管理 → 安全性 (Security) → 开启 两步验证 → 绑定 Google Authenticator (谷歌验证器) APP 或者微软的 Authenticator APP。
  • 保底: 生成备用码。把这 10 个 8 位数的码截图或打印下来。哪怕手机丢了、梯子挂了,输这个码就能就地复原。

2. 选好 “赛博祖国”

  • 原则: 选定一个国家(推荐美国或日本或新加坡),以后就死磕这个地方。
  • 避坑: 最好别用万人骑的免费节点,那种 IP 早被谷歌拉黑了。尽量保持 IP 地区一致,不要一会儿飞美国一会儿飞日本。

三、 循序渐进

假装自己是一个 “刚通网的村里人”

  • Day 0 - Day 3(装死):
    • 动作: 装死 ,登录网页,把 Google Drive、Docs 点开看看,挂着号熟悉环境。
    • 目的: 让后台日志留下 “真人浏览记录”。
  • Day 4 - Day 7(手动):
    • 动作: 可以填入 Key 使用了。但是把上下文设置得小点,不要一上来就拉满。
    • 频率: 每天对话几十次就停,不要高频使用,不要让它一秒钟吐几千字。
  • 第二周(上强度):
    • 动作: 可以适当增加上下文长度,但如果报这两个错(403/429),就停手,不要死磕重试。
    • 原则: 跟养孩子一样,慢慢增加强度。(这也算得上赛博养娃了吧)

四、 多号管理

很多人使用 api 为了负载均衡,手里通常有好几个号。这里有巨大的连坐风险,一旦操作失误,就是株连九族,一死死一片。

1. 不要点 “退出登录”

  • 原理: 养号的核心是积累 “在线时长”。一直挂着账号(保持 Cookie 活跃),让谷歌觉得这是一个主力设备,权重会越来越高。
  • 结论: 除非你要换节点搬手机之类的,否则永远不要点击 “退出登录”,直接关掉浏览器窗口即可。

2. 不要清空 Cookie

  • 弊端(严重): Cookie 是谷歌识别你 “设备指纹” 的核心凭证。你清空了 Cookie,约等于把你的 “免死金牌” 扔了。下次登录谷歌会认为你是 “新设备登录”,极大概率会弹窗验证。
  • 建议: 不要频繁清除 Cookie。只要 Cookie 还在,你的账号就更安全。

3. 连坐逻辑

  • 如果你有多个账号,Google 判断它们是否关联主要看设备指纹和 IP 地址。如果被检测出关联,一个号挂了会导致所有号被连坐封禁。

第一阶段:环境隔离(浏览器指纹管理)

首先,你要确保你是用的是电脑端。
我们要做的,是根据你手里账号的珍贵程度,选择不同等级的隔离方案:

  • 简单方案(3-5 个号):Chrome/Edge 多用户配置文件(适合仅用来聊天的玩家)
    • 原理: 这是最简单的方案。它隔离了 “软指纹”(Cookies、缓存、本地存储),虽然 IP 和硬件指纹相同,但能应付 90% 的日常场景。
    • 操作: 点击浏览器右上角头像 → 添加 → 不登录账号继续 → 创建新 Profile。
    • 注意: 永远不要同时打开多个配置文件的窗口!用完之后需要确保彻底关闭(后台进程也结束)再开下一个,否则如果你的梯子突然掉了,这几个账号的 IP 会同时变动,谷歌就会认定这几个账号是你同一个人的。
  • 进阶方案(5 个号以上):指纹浏览器(推荐)
    • 原理: 如果你账号很多,或者账号是买来的,建议使用指纹浏览器。
    • 功能: 它们能伪造 UserAgent、Canvas、WebGL 等 “硬指纹”,让 Google 认为每个账号是在完全不同的电脑上登录的。
  • 移动端方案(不推荐):
    • 如果必须在手机上用两个号,最好使用不同的浏览器。比如:
      ・账号 A:只在 Safari 登录。
      ・账号 B:只在 Chrome 登录。
      ・账号 C:只在 Firefox 登录。
      ・原理:手机的沙盒机制会隔离不同 APP 的数据,这样比在同一个浏览器里切账号安全得多。
    • 最好不要在同一个浏览器里关联账号,因为移动端使用的是统一账户池。

小提示:

  1. iOS 的后台刷新机制很特殊。即使在前台使用的是账号 A,后台的账号 B 的同步服务可能还在活动。

  2. 无论是什么设备,都不要使用无痕模式养号
    原因: 无痕模式存不住 Cookie。每次登录都像新设备,谷歌会认为你每次都是新设备,反而触发风控验证。

第二阶段:IP 地址管理

  • IP 纯净度: 再次强调,少用万人骑的免费 VPN 节点。如果某个 IP 上曾有大量违规账号,你的新号只要沾上边,也会受牵连。
  • 固定坑位: 尽量保证每个账号在一个固定的 IP 地区登录。比如账号 A 永远挂美国节点,账号 B 永远挂日本节点。如果你上一秒在美国登 A 号,下一秒切日本登 B 号,极易触发风控。
  • 修改时区:在浏览器修改时区、使用 Change Timezone 插件 (chrome)、Browser™的时区插件 (edge)、直接修改系统时间。因为浏览器会默认使用你的系统时区,如果你在使用日本 / 美国 IP 的时候,但浏览器传回的时区确实在中国,那你之前营造的的人设就白费了。这个不容易立刻触发风控,但是秋后算账是谷歌最擅长是事情,如果你的账号在之前没有违法上面任意一条规则就被封了,那这个可能就是原因。
    (我寻思账号都没珍贵到这种程度吧)(新增:刷了会 l 站发现还真有许多被连坐的事情,只能说防溃于未然吧)

五、 养号操作

方法一:YouTube 发邮件法

具体操作:

  1. 订阅: 挂梯子去 YouTube,订阅几个更新频率高、粉丝多的顶流博主。
  2. 开启 “强提醒”: 点击订阅旁边的铃铛,选择 “全部 (All)”。
  3. 设置邮件通知: 去 YouTube 设置 → 通知 (Notifications),确保 “邮件通知 (Email notifications)” 是开启的。
  4. 操作总结:
  • 当博主发视频时,你的 Gmail 会收到邮件。
  • 每隔 1-2 天,挂梯子打开 Gmail,点开这些通知邮件。
  • 点击邮件里的链接 跳转回 YouTube(哪怕不看完)。
  1. 原理:这是一个 YouTube → Gmail → 点击 → YouTube 的闭环。在谷歌眼里,你不仅活跃,而且深度使用了它的生态系统。

方法二:订阅新闻(辅助法)

让正规机构给你发邮件,增加邮箱权重。

  • 操作: 订阅 The VergeNew York TimesGitHub 的通知。
  • 动作: 每周打开读一下,或者从 “推广” 分类拖到 “主收件箱”。这证明你的邮箱是接收高价值信息的。(如果 l 站的总结绑定的邮箱是这个谷歌账号,应该也行)

手机端设置

很多人号没问题,死在了手机设置上。

  • iOS (苹果用户):
    • 大忌: 千万不要直接在 iPhone 自带的 “设置 → app → 邮件” 里添加谷歌账号!不挂梯子,iOS 后台的 “通讯录 / 日历同步” 会泄露真实 IP。
    • 正确姿势: 下载官方 Gmail App。每次打开 App 前,先挂梯子。不用的时候把后台划掉。如果非要用系统自带邮件,必须在 “设置 → app → 邮件 -> 邮件账户 -> 你的邮箱 @gamil.com” 里把 “邮件”、“通讯录”、“日历”、“备忘录” 全部关闭,且只在挂梯子时打开。
  • Android (安卓用户):
    • 设置: 确保你的梯子软件开启了 “接管所有流量” (TUN 模式 / VPN 模式 / 全局模式),并且把 Google Play 服务和 Gmail 纳入代理范围。

求求给我点个赞吧


📌 转载信息
原作者:
nvmepact
转载时间:
2026/1/6 18:40:16

  1. 安装指令 (Installation)
    由于你要使用 Gemini 2.5 这种最新的模型,普通的 pip install 版本可能更新不及时。我强烈建议你使用你在 README 里看到的那个开发者版本安装命令,这样能确保包含最新的模型列表。
    在 CMD 中运行:
    DOS
    pip install git+https://github.com/OpenInterpreter/open-interpreter.git
    2CMD 窗口开 “魔法” (设置代理) 这一步告诉命令行工具走你的网络通道。 (注意:如果你重启了电脑或关掉了黑窗口,必须重新输这一行)

DOS

set https_proxy=http://127.0.0.1:7897
第 3 步:启动 Open Interpreter 使用正确的模型名称和参数启动。 (注意:gemini/ 前缀不能少,后面接刚才查到的最新模型名)

DOS

interpreter-classic.exe --model gemini/gemini-2.5-flash --api_key 你的 API_KEY

api 在 google ai studio

这样就能让 geminit 通过 api 直接操作你的电脑了


📌 转载信息
原作者:
kkk4
转载时间:
2026/1/6 18:40:05

应佬友的要求再出一篇文章,前面薅了 wispbyte.com 的羊毛,但是吧容器性能比较弱,强一点的就是 huggingface.co 免费的容器:

Free 版本就是 2vCPU 和 16GB RAM,就已经非常强了

那先介绍一下 huggingface,其实这是一家非常强悍的公司,可以称作是 “AI 界的 GitHub”,可以分享模型,数据集,然后演示应用。

我们用到的就是这个演示应用(Spaces)

首先注册好账号,然后右上角点击头像按钮,新建一个 Space

然后填入必须项

  • Space name:就写 myhome,随便来一个好记得

  • Short description:Save Our Home

  • License:MIT

  • SDK:选择 Docker

  • Docker template: 选择 Blank

  • Space hardware:选择 Free

其它都不选,最后 Create Space 即可

然后就建好了,其实是给你开了一个 git 的 repo

我们到右上角,选择 Files 选项

薅大善人 Huggingface 和 Cloudflare 羊毛自建代理的方法3

然后打开的文件页面,只有两个文件

老套路,建立一个 Dockerfile 文件,就是容器的打包文件,注意文件名大小写,第一个字母是大写

Dockerfile.txt (202 Bytes)

然后我们把 index.js 文件准备好,需要修改几个地方

index.js.txt

其中几个地方有修改,先看看 huggingface 给咱们的域名,右边,Settings 右边的三个点按钮,

点开,然后点 Embed this Space

看 src 那里,大善人给了咱们一个免费的域名,这个域名是自带证书的!!!我们把域名拷贝下来

记好了,cf 那里还要用

然后根据实际情况修改 index.js

const DOMAIN = process.env.DOMAIN || 'xxx.qzz.io';   // 填写最后大善人出定的域名域名 const SUB_PATH = process.env.SUB_PATH || 'sub';                    // 获取节点的订阅路径,最好改掉 

改完后是这样的:

然后改好了,别急着贴进去:

去到 https://obfuscator.io/legacy-playground

贴进去代码,混淆一下,弄成谁也认不得的模样,然后 Copy,再贴进去

然后再建立 package.json 文件

package.json.txt (291 Bytes)

{ "name": "js02", "version": "0.0.2", "description": "Nodejs-server", "main": "index.js", "private": false, "scripts": { "start": "node index.js" }, "dependencies": { "ws": "^8.14.2", "axios": "^1.12.2" }, "engines": { "node": ">=14" } } 

再建立 index.html 文件,这是个用来装饰的环保单页面,如果不加,就会显示 hello world,太假了,可以让 gemini 给你生成一个:

index.txt

那就一切完工,看下都有什么文件:

一切就绪,点击 App 运行:

那会看到运行完毕,开了 7860 这个端口

那直接点击左上的 myhome 链接,就能看到环保页面了。

那大善人 huggingface 就弄好了。

解释一下具体原理:

huggingface 跑了个前置的 Nginx 或 Caddy 或 traefik 代理,自动申请了证书,代理后端容器的 7860 端口,为什么是 7860 端口呢?

因为最常见的用途是托管基于 Gradio 构建的机器学习模型演示。Gradio 是一个非常流行的 Python 库,用于快速创建交互式 Web 界面来展示 ML 模型。它的默认启动端口就是 7860。

那接着我们去薅大善人 cloudflare,首先弄好一个域名并托管到 CF 上面,比如免费的 qzz.io

点开左边的菜单:Build –> Compute & AI –> Workers & Pages

新建一个应用,Create application

然后选 Start with Hello World!

然后就会建出一个应用来,点击编辑代码,Edit Code

把代码中 username-spacename.hf.space 换成自己的域名

 export default {
    async fetch(request, env) {
        let url = new URL(request.url);
        if (url.pathname.startsWith('/')) {
            var arrStr = [
                'username-spacename.hf.space', // 此处单引号里填写你的节点伪装域名
            ];
            url.protocol = 'https:'
            url.hostname = getRandomArray(arrStr)
            let new_request = new Request(url, request);
            return fetch(new_request);
        }
        return env.ASSETS.fetch(request);
    },
};
function getRandomArray(array) {
  const randomIndex = Math.floor(Math.random() * array.length);
  return array[randomIndex];
}

这段程序就是简简单单一个代理,不加任何缓存,因为我们的数据包不会有重样的。

然后点 Deploy ,部署

返回这个 worker 的空间,点击 Settings,下面的 Domains & Routes ,右边点击 +Add

弹出的对话框,选择 Custom domain

然后起个自己心满意足的域名,CF 大善人会自动生成 dns 记录

点击 Add domain 就完事了。

然后我们打开我们心满意足的域名:

环保页面,然后打开我们的订阅页面,缺省是 /sub,当然改成只有自己知道的路径为好

出现订阅的 Base64 字符就 ok 了。

薅大善人 Huggingface 和 Cloudflare 羊毛自建代理的方法22

我们用 v2rayN 导入即可。

完工,还是说一下原理:

利用 cf 大善人的网络代理加速,利用 hug 大善人的免费域名和证书,达到我们的目的

最后,这个的 index.js 和上一篇的不同啊,唯一区别就是端口,hug 端口肯定是 443,而 wispbyte 的端口是非标的。

注意注意!!!

同样也扔到自己博客了一份: huggingface.co 薅羊毛记 | 八戒的技术博客


📌 转载信息
原作者:
defunct9
转载时间:
2026/1/6 17:33:35

一位谷歌资深工程师透露,Anthropic 的 Claude Code 用一小时跑出了她团队打磨了一年的系统。

 

一小时复现一年工作?

 

1 月 3 日,谷歌主管工程师、负责 Gemini API 的 Jaana Dogan 在 X 上写道:“我们从去年开始就在谷歌内部尝试构建分布式 Agent 编排器。但可选路线很多,大家并没有完全对齐……我只是把问题用三段话描述了一下交给 Claude Code,它在一小时内就生成了一个系统,和我们去年做出来的东西非常接近。”

 

“我不是在开玩笑,这件事一点也不好笑。”

 

不过她后来又补充说,这个元旦假期里自己终于第一次有时间拿一些“玩具项目”随手试一试。由于无法分享任何专有信息,提示里也不可能包含真实的内部细节,所以她只是基于一些已有思路搭了一个“玩具版”来评估 Claude Code;整个问题描述也就三段文字。

 

截图为 1 月 4 日 Gogan 推文

 

“它还不完美,我也还在不断迭代和打磨,但现实就是这样。”Dogan 写道,“如果你对编码 Agent 持怀疑态度,就把它拿到你已经非常熟悉的领域里试一试:从零开始做一个足够复杂的东西,由你亲自来判断它产出的这些‘成果物’到底靠不靠谱。”

 

她同时说明,在谷歌内部,Claude Code 目前只允许用于开源项目,不得用于公司内部代码。

 

补充一点背景是,Dogan 说自己做编程语言相关工作以来,几乎没见过开发者社区对同一件事出现如此两极化的反应。她在 1 月 3 日晚发文感叹:围绕 coding agents 的讨论里充斥着大量“炒作”和“空话”,这些噪音常常把真正扎实的工作淹没掉;她强调,事情本不必走向如此撕裂。

 

在她看来,行业整体仍处在一个“可以视为全行业研究项目”的阶段:语言模型还在被探索、还会持续变强;团队会在看到价值的地方逐步把它“产品化/工程化”,同时也借此推动更多探索。

 

她甚至回忆说,三四年前自己一度考虑过退休——那时她感觉行业“过度饱和”,似乎已经没什么实质性的新东西可做:无论是作业调度器、网络接口,还是各种基础设施,大家都在反复“重造已被造过的轮子”,却只是在制造更多复杂度。

 

正因如此,她反而喜欢上这波 AI 编程浪潮带来的“新岔路”:它让像她这样的工程师重新有了新鲜的问题可以研究。只是 LLM 变得过于“迅速且广泛可得”,也随之引发了更强烈的情绪化反应;她怀念更早些年——当时只有一小群人带着好奇心去探索新模型的阶段。

 

Dogan 还总结了 AI 编程能力的快速跃迁:

  • 2022 年:只能补全单行代码

  • 2023 年:可以生成完整代码片段

  • 2024 年:可跨多个文件工作,构建简单应用

  • 2025 年:能够创建并重构整个代码库

 

她写道:

“在 2022 年时,我根本不相信 2024 年的里程碑能作为一个面向全球开发者的产品真正落地。这个领域在质量和效率上的提升,已经远远超出了任何人的想象。”

 

也有同行从另一个角度补了一句“体感”。前谷歌、Meta 杰出工程师、Gemini 共同作者 @arohan写道:他自己也曾是谷歌工程师,一路升级打怪;如果当年就能用上 agentic coding,尤其是 Opus 这样的模型,他可能会把职业生涯最初6 年的积累压缩到短短几个月。

 

更重要的是,他认为“能直接把事情做出来”还有一个副作用:人会保持锋利。技能不会自动维持不变,不用就会退化;而具备自主性的 agentic coding,本质上是一种“反萎缩机制”——你持续在做判断、做执行,就不容易变钝。

 

写代码很快,难的是对齐

 

Dogan 身为谷歌工程师,却公开高度评价了一款竞争对手的产品。这无疑给大家带来了巨大震撼,也带来了一些争议。

 

毕竟她并不是一位“普通工程师”。有网友指出,作为谷歌的主管工程师,她在以“实操落地”为导向的工程岗位体系里几乎处在“金字塔尖”:这类角色往往要负责设计并推动落地面向全球规模的系统与基础设施。也正因如此,这条推文才会引发如此高的关注;而她又参与 Gemini 相关工作,更让外界对这番公开表态格外敏感。

 

也有人认为,正因为她的身份分量够重,这番表态甚至可能被视为某种“技术转折点”的信号。

 

围绕这条分享,讨论也迅速延伸到了“一年工程 vs 一小时生成”背后真正被压缩的是什么。

 

也有人用明显的讽刺口吻表达怀疑:每当有人说“AI 一小时做完我们一年做的事”,真实情况往往是——人类花了一年把最难的“思考”和“定义问题”做完了,AI 只是以硅的速度把这些内容复述出来,这和“生产力提升”完全不是一回事。

 

如果一个团队真的要花一年,更多反映的是流程问题,而不是 AI 有多强。在他看来,写代码反而是最容易的部分,真正消耗时间的是会议、对齐、架构争论、Jira 梳理,以及在 snake_case 和 camelCase 之间反复纠结——Claude 并没有做这些,所以“它其实什么也没做”。

 

他还继续自嘲:自己花了多年培养直觉、判断和品味,这些原本以为无法被自动化,结果却被一个“概率文本模型”在自己坚持称之为“微妙”的领域里不断超越;当然,输出能跑、能过测试、能替代数月努力,但它“不理解自己在做什么”——不像他本人,“绝对理解”自己从 Stack Overflow 复制的每一行代码。最后他用一句话收束:“如果 AI 真那么强,它早就让我失业了;既然我还有工作,那这一切肯定都是炒作。”

 

有网友向 Dogan 抛出了一个关键问题(截至目前她尚未回应):过去这一年的工作里,究竟有多少时间花在把问题的规格与边界定义清楚,而不是实际的执行与编码?

 

在他看来,这才是核心所在——一旦你能够把问题完整描述出来,并且能聪明地引导执行者避开所有潜在陷阱,很多工作都可以在极短时间内完成。他分享了自己的经验:自己和同事曾在一夜之间重写过代码库中的大块内容,但真正花了好几年的,是找到“正确解法”本身;一旦解法确定,编码往往只需要几个小时,在现代工具的加持下甚至更快。

 

也有人感慨,“一年工作一小时做完”当然令人震惊,但它同时暴露了一个长期被忽视的现实:大量开发时间并不是被写代码本身消耗掉的,而是被会议、规划、调试以及频繁的上下文切换吞噬。AI 的作用,恰恰是在这些噪音之上直接“切一刀”。

 

他也因此表达担忧:企业看到这种效率提升后,可能首先想到的是削减人力,而不是把工程师重新配置到更高层次的工作上。

 

还有评论从更日常的角度补了一刀:几乎每天早上八点左右,他都会想着“今天一定能干成不少事”,结果一抬头已经两三点了,发现脑子里还是同样的想法——工作中充斥着大量毫无必要的会议,简直让人抓狂。

 

而面对巨大争议,一天后 Dogan 又单独发了一条推文强调:“做出第一个版本,不等于做成一个产品”,希望以此为这场争论画上句号。

 

谷歌与 Anthropic 的合作关系

 

当有人询问谷歌的 Gemini 何时能达到类似能力时,Dogan 回应称,她的团队目前正在“全力推进模型和基础设施建设”。

 

另一个容易被忽视的背景是:谷歌其实也是 Anthropic 的重要投资方之一。有评论提到,谷歌目前持有 Anthropic 约 14% 的股份;也有网友称,谷歌内部长期在使用 Sonnet 和 Opus,并表示自己曾在 DeepMind 的内部网络环境中验证过这一点。还有人则指出,以谷歌的体量和布局,本就可能同时为多条技术路线“背书”。

 

在资本与算力层面,谷歌与 Anthropic 的绑定更为直接:谷歌累计投资 Anthropic 约 30 亿美元。双方在 2025 年 10 月进一步深化合作——谷歌同意向 Anthropic 提供最多 100 万颗 TPU(张量处理单元),交易总价值高达数百亿美元。

 

该协议预计将在 2026 年带来超过 1 吉瓦的算力上线,成为 AI 行业历史上规模最大的硬件承诺之一。Anthropic 表示,选择谷歌 TPU 的原因包括更优的成本效率、稳定的性能,以及谷歌在该处理器上的长期经验。

 

Dogan 对此写道:

“这个行业从来不是零和博弈。即便对方是竞争对手,也完全可以坦然承认他们做得出色。Claude Code 的工作令人印象深刻,它让我更加兴奋,也更有动力继续向前。”

 

Anthropic 的 Claude Code 创建者 Boris Cherny 也在 2025 年 12 月下旬披露:在此前 30 天里,他对 Claude Code 项目的所有贡献——共 259 个 Pull Request、497 次提交,累计 新增约 4 万行代码、删除约 3.8 万行代码——“每一行都由 Claude Code 搭配 Opus 4.5 完成”。那一个月里,他甚至一次 IDE 都没有打开过。

 

几乎在假期里的同一时间,Cherny 还系统总结了自己的工作流“秘籍”。他给出的首要建议是:一定要让 Claude 有办法验证自己的工作——只要建立起稳定的反馈回路,最终产出质量往往能提升 2~3 倍。

 

具体做法上,他建议多数任务先从 Plan 模式开始,先把计划推敲扎实;计划一旦确定,Claude 往往就能“一把梭”完成实现。对高频重复的操作,他会用 slash commands 和子 agent 固化成可复用流程,比如自动做代码简化、端到端测试等。面对更长周期的任务,他会运行后台 agent 在完成后复查输出,并行开多个 Claude 实例分工推进;代码评审时,团队甚至会直接在同事的 PR 里 @Claude 来补充文档或规则说明。按他的说法,Claude Code 也能接入 Slack、BigQuery、Sentry 等外部工具,把“写代码”嵌入到更完整的工程流程里。

 

而 Cherny 在推文中分享的这套“用法”,很快也被 Dogan 注意到。她转发之后不久,便发布了那条引发巨大争议的动态——把 Claude Code 一小时生成原型、对照谷歌团队一年推进的经历,推到了聚光灯下。

 

参考链接:

https://x.com/bcherny/status/2007179850139000872

https://www.reddit.com/r/OpenAI/comments/1q2uuil/google_engineer_im_not_joking_and_this_isnt_funny/

https://news.ycombinator.com/item?id=46477966

Bun(一个快速全能的 JavaScript 运行环境)现已发布1.3 版本。此次更新堪称迄今为止最大的一个版本,不仅实现了全栈开发能力,还推出了统一的数据库 API,并显著提升了运行时的整体性能。

 

Bun 1.3 引入了零配置前端开发模式,内置模块热替换功能并支持 React 快速刷新。开发人员现在可以直接通过 Bun 运行 HTML 文件,系统将自动处理 JavaScript、CSS 及 React 的转译与打包。开发服务器通过平台专属 API(如 macOS 的 kqueue 和 Linux 的 inotify)实现文件系统监听,无需任何额外配置即可实现热重载。当生产就绪时,运行 bunbuild --production命令即可打包应用程序并生成优化后的输出文件。

 

Bun 1.3 的核心功能之一是Bun.SQL,这是一个支持 MySQL、MariaDB、PostgreSQL 和 SQLite 的统一 API,而且完全不依赖外部组件。对于所有的数据库适配器,该 API 都提供了一致的语法,并且通过原生实现保持了高性能。下面是这种统一语法的示例:

import { sql, SQL } from "bun";const postgres = new SQL("postgres://[localhost/mydb](<http://localhost/mydb>)");const mysql = new SQL("mysql://[localhost/mydb](<http://localhost/mydb>)");const sqlite = new SQL("sqlite://data.db");const username = "test_user";const findUser = await sql`SELECT name, role, username FROM users WHERE username = ${username}`;
复制代码

 

本次发布还引入了一个内置的Redis客户端,其性能比流行的ioredis包高出 7.9 倍以上。它支持所有的标准 Redis 操作。集群、流和 Lua 脚本功能计划在未来版本中实现。

 

对于此次发布,社区的反响褒贬不一,开发者们既表现出兴奋又流露出担忧。Hacker News 上的一篇讨论帖获得了 56 个赞,其中不乏积极评价,例如:

Bun 真是太棒了。我几乎不需要安装任何软件包,因为 Bun 内置的组件恰到好处,比如 SQL 、S3 ,现在连 Redis 也支持了。

 

在其他地方,Lobsters 上有评论者对性能基准测试提出了质疑,特别是关于编译后的 Bun 应用程序能比 nginx 更快地处理文件的说法。

 

Reddit 上一位用户评论说,对于生产应用,他们仍然有些问题需要解决:

在开发阶段,Bun 已经百分之百就绪。但在生产环境中,我仍然会不时地遇到各种问题。

 

Bun 1.3 通过单体库依赖项目录扩展了包管理功能,其设计灵感源自pnpm 的目录特性。工作区现默认采用隔离安装模式,这样可以防止包访问未声明的依赖项。新增的bun update --interactive命令支持开发人员有选择性地更新依赖项,而bun why命令则可以解析依赖链。安全改进包括用于漏洞检测的 Scanner API,而 Socket 正在实现官方安全扫描器集成。

 

从早期版本迁移时,Bun 1.3 包含若干破坏性变更。最显著的是Bun.serve()TypeScript 类型已重构,尤其是对于 WebSocket 数据处理。若将 SQL 客户端作为函数而非带标签的模板字面量调用,现在会抛出错误。Bun 现在将 TypeScript 配置中的"module": "Preserve"作为默认值,而非自动检测(auto-detection)。要了解详细的迁移指南,请查阅Bun 1.3 版本的发布说明

 

该版本性能提升显著,Next.jsElysia等框架的 JavaScript 内存占用减少了 10% 至 30% 。AbortSignal.timeout实现的速度提升了 40 倍,而通过 I/O 线程池优化,macOS 系统上bun build的性能提升了 60%。Express 基准测试显示性能提升 9%,Fastify 因node:http改进速度提升了 5.4%。

 

相较于 Node.js 和 Deno 等竞争对手,Bun 通过将常用功能直接打包到运行时环境中继续保持差异化优势。Node.js 需要单独安装数据库客户端、打包工具和测试套件,而 Bun 则开箱即用地提供了这些功能。

 

Bun 是一个基于 JavaScriptCore 构建的开源 JavaScript 运行时,由 Oven 开发,Jarred Sumner 及其团队维护。它旨在成为 Node.js 的直接替代方案,同时提供明显更快的性能和更好的开发体验。Bun 可以通过运行 bun upgrade 来升级,或按照bun.sh中的说明全新安装。

 

https://www.infoq.com/news/2026/01/bun-v3-1-release/

近日,Cloudflare 发布了第六版Radar年度回顾报告。数据显示,全球互联网流量同比增长 19%,Googlebot 占据主导地位,爬取引流比持续攀升,后量子加密技术得到广泛应用。有超过 20%的自动化 API 请求是由基于 Go 语言的客户端发起的,其采用率较上年几乎翻倍。

 

本年度报告以 Cloudflare 广泛的基础设施数据(包括 1.1.1.1 公共 DNS 解析器的匿名查询数据)为基础,深入剖析了 2025 年定义互联网格局的各类中断事件、技术突破及关键指标。该报告包含多个不同的板块(流量、人工智能、普及与应用、连接性、安全性及电子邮件安全),采用与往年相同的分析方法论。

 

报告指出,在过去一年中,全球流量增长了 19%,谷歌和 Facebook 仍是用户最常使用的服务,而星链(Starlink)的增长尤为显著,同比增长达 2.3 倍。

 

通过希尔伯特曲线以二维模式将 IPv4 地址序列可视化——该模式能使相近的 IP 地址排列在一起,Cloudflare 在分析中发现,谷歌爬虫(Googlebot)是使用最频繁的网络爬虫。Cloudflare 数据洞察负责人David Belson写道:

2025 年,Googlebot 再次成为 Cloudflare 请求流量的最大来源,它爬取了数百万个 Cloudflare 客户网站用于搜索索引和人工智能训练。

 

此外,Googlebot 占已验证机器人流量的 28%以上,而 Google AdsBot(用于监控已投放谷歌广告的网站)、Google Image Proxy(用于检索和缓存嵌入在电子邮件信息中的图片)以及 GoogleOther 进一步巩固了这家搜索巨头的统治地位。OpenAI 的 GPTBot 和微软 Bingbot 分别以 7.5%和 6%的占比紧随其后。

 

报告显示,人工智能平台正在以极高的频率爬取内容,却未能为来源网站带来相应的流量,其爬取引流比与 2024 年相比持续攀升。Anthropic 平台的爬取引流比高达 500000:1,OpenAI 最高达 3700:1。在主流人工智能平台中,Perplexity 的爬取引流比最低。

 

CloudZero 研究总监 Jeremy Daly 在其新闻通讯中总结道

Cloudflare 年度报告精彩回顾:内容饥渴的 AI 爬虫(仅 Googlebot 就占所有 HTML 请求量的 4.5%,“用户操作”爬取量激增 15 倍),超过半数人类 Web 流量采用了后量子加密技术,以及 174 次重大互联网中断事件。

 

在这份报告中,这家超大规模云服务商承认,Meta 的 llama-3-8b-instruct 模型在其边缘 AI 平台 Workers AI 上最受欢迎。该平台支持在网络边缘直接运行 AI 模型,其中最热门的任务类型是文本生成。

 

尽管 2025 年 HTTP/3 和 HTTP/2 请求量均小幅增长,但在人类产生的 Web 流量中,为了有效防范“先收集、后解密”的攻击手段,已有半数采用后量子加密技术——该比例较年初的 29%几乎翻倍。

图片来源:Cloudflare 官方博客

 

与往年一样,该团队使用Cloudflare Radar的URL扫描器来识别前 5000 个域名中最受欢迎的技术和服务。他们发现,基于 JavaScript 的库和框架仍然是构建网站不可或缺的工具。Belson 补充道:

jQuery 自称是一个快速、小巧、功能丰富的 JavaScript 库,我们扫描发现,使用它的网站数量是 Slick(用于图片轮播的 JavaScript 库)的 8 倍。React 仍然是构建 Web 界面最常用的 JavaScript 框架,在我们扫描的站点中,其使用数量是 Vue.js 的两倍。

 

PHP、Node.js 和 Java 仍是最常用的编程技术,明显领先于 Ruby、Python、Perl 和 C 等替代方案。在 Hacker News 上的一个热门帖子中,许多人质疑 ASP.NET 和 C#的相对份额,用户 nic547写道

ASP.NET 可能涵盖多种编程语言,而我猜测,ASP.NET 服务器本身并不会披露具体细节。虽然可以合理推测主要是使用 C#,但这需要采用不同的指标来评估。

 

通过分析与 API 相关的请求,Cloudflare 识别出构建API客户端最常用的编程语言:20%的自动化 API 请求来自基于 Go 的客户端,与 Go 语言 2024 年 12%的份额相比增长显著。Python、Java 和 Node.js 紧随其后,成为最受欢迎的技术。

图片来源:Cloudflare 官方博客

 

尽管从业者往往会关注云服务中断问题,但 2025 年观察到的中断事件近半数实为计划内停机——旨在“防止学术考试作弊”,其余则与抗议活动、社会动荡或海底及国内光纤基础设施遭破坏有关。

 

与往年一样,这家超大规模服务商强调,超大规模网络层攻击的频率和规模日益增长。这类攻击发生在第 3/4 层,峰值流量超过每秒 1 太比特或每秒 10 亿个数据包。Cybernara 创始人 Chirag Goswami评论道

互联网正经历中年危机。机器人已成为新常态。分布式拒绝服务攻击屡创新高。一次 BGP 故障仍能让半数网站瘫痪。Cloudflare 的 Radar 年度回顾不仅是数据统计,更是互联网真实面貌的压力测试报告——它揭示了网络环境的脆弱、快速以及机器人泛滥的现状。

 

Cloudflare Radar 2025年度回顾专题网站提供了更详细的数据,包括按具体国家和地区划分的趋势分析。

 

https://www.infoq.com/news/2025/12/cloudflare-2025-ai-bots/

开发软件就像一次旅行,在这个过程中,团队需要不断做出决策,既包括他们所构建产品的功能(即 MVP,最小可行产品),也包括支撑该 MVP 所需的架构(即 MVA,最小可行架构)。

 

采用这种方法的主要挑战在于,我们必须足够快速地构建出可发布的产品,以便团队能尽快获得关键反馈。

 

当团队寻求更快捷的获取反馈的方式时,他们必须决定,是选择一条他人已经走过的路径,还是另辟蹊径、自行探索。

 

有一种重用架构的方式,那就是使用其他团队已经采用的相同的平台或框架。一个优秀的平台或框架能让每个团队专注于自身独有的“增值部分”。重复造轮子毫无价值,因此忽视现有的平台和框架团队,实际上就是在浪费精力,未能聚焦于只有他们自己才能完成的事情。

 

平台和框架就像已经铺设好的道路,它们能够帮助团队在开发旅程中更快地前进,并提供定义明确的“出口匝道”或扩展点,让团队可以在需要时对平台进行扩展以满足自身的需求。但它们也附带一些副作用,可能使其变得不够理想。

 

团队需要针对如下问题做出判断,即何时(如果有的话)应当离开他人铺设的道路,通过扩展平台/框架,甚至开发全新的平台/框架,走出自己的路。

 

当团队以平台或框架作为其软件架构的基础时,所面临的挑战在于,选择一条最接近其目标目的地的“铺好的路”(即平台或框架),同时尽量减少绕行或新建工程。但是,MVP 的问题是这个“目的地”在项目初期往往是未知的。

平台和框架会替你做出许多决策,但其中有些是你根本不需要的

平台和框架通常具有一定的倾向性,这意味着在构建 MVA 时,团队需要做的架构决策更少。关键问题在于,团队能否接受平台开发者所做的那些决策?理想情况下,团队应审视自身所需的架构决策,并与平台已做出的决策进行对比。

 

这带来了两个重要的挑战:

  1. 团队往往会在实验获得的经验反馈中,逐步发现他们真正需要做哪些决策;

  2. 平台开发者所做的决策并不总是明确或最终的,尤其当平台提供了扩展点,要求使用团队自行填充代码时更是如此。在“铺好的路”这一隐喻中,这些扩展点正是团队可以偏离主路、走上自己方向的地方。

 

许多平台的决策是无害的,只要不影响团队必须满足的质量属性需求(QAR),就可以接受甚至忽略。判断这些决策是否会造成损害的唯一方法,就是通过实验暴露平台在哪些方面未能达成系统的目标。由于平台开发者所做的决策常常未被记录,甚至是未知的,所以团队必须要测试他们的系统(包括所依赖的平台),以确保架构目标(即 QAR)得以实现。

 

即使技术上可行,扩展平台或框架也可能非常复杂。其他使用该平台或框架的人可能不同意你所提出的决策及相关变更,或者他们可能更偏好其他方案,而这些方案又无法满足某些团队的实际需求。这也是为什么存在如此多功能相似的平台和框架的原因之一。

 

此外,当团队决定扩展某个平台或框架时,他们实际上做出了一个隐含承诺,也就是长期维护这些扩展。他们必须将这种成本和所需的时间/精力纳入决策考量。这包括未来升级应用以适配平台/框架新版本的成本和工作量;若不及时升级,可能导致应用崩溃、安全漏洞无法修复,也无法利用新版本在性能和可扩展性方面的改进。

平台和框架能节省时间,直到它们无法做到这一点为止

在我们的简化视角中,平台是指应用程序运行所使用的软件环境(以及提供支撑的基础设施),平台的一个样例就是 Amazon Web Services(AWS)。框架则是应用程序(或其一部分)部分完成的“骨架”,团队在它的基础上添加自身特定的业务逻辑,例如 Java Spring UI 框架。大语言模型(LLM)也可被视为一种平台,团队通过提示词(prompt)对其进行扩展。平台和框架通过提供大量现成的能力,简化了应用程序的开发。

 

但有时候,团队需要的功能与平台或框架所提供的有所差异,举例来说,LLM 可能无法处理团队所需输入类型,比如,需要处理电话通话的音频并响应指令。LLM 在录音室环境下表现良好,但面对在嘈杂的机场录制的语音时,可能就无法工作。团队需要先构建音频降噪过滤器,但随后可能发现这些过滤器仍不足以解决问题。此时,他们就不得不训练自己的 LLM,以便使用包含“噪声”的对话数据。

 

用“铺好的路”作比喻,LLM 提供了一条已被验证的路径,但它无法带领团队抵达真正想去的地方。一旦发生这种情况,团队别无选择,只能在如下三种方案中做出选择:尝试扩展该平台(如果可行)、寻找另一个平台,或者从头构建自己的平台。

 

他们的挑战在于,需要花费一定的时间才能判断,究竟是基于现有平台继续开发更高效,还是必须为自己的场景构建独特的方案。他们的选择受限于平台开发者所做的决策。如果能接受这些决策,那么基于平台开发可能是最佳选择;但如果不能接受,那么在此基础上开发就是在浪费时间,而时间,恰恰是他们最宝贵的资产。

帮助厘清替代方案的三个关键问题

MVP 和 MVA 本质上是对潜在解决方案的“下注”。它们可能正确,也可能错误,而评估这些“赌注”是否成功的唯一方式就是实验。以下三个关于MVP的核心问题,有助于判断平台是否满足你的需求:这个产品值得构建吗?它能否在预期负载下实现可扩展性和性能? 它是否具备长期可维护性?

图 1:帮助确定架构决策的三个问题

 

团队在评估某个平台时,应结合这三个问题进行思考:

  1. 该平台有助于 MVP 的开发,还是阻碍 MVP 的开发?平台可能提供面向用户的功能,简化 MVP 的开发,但也可能附带团队无法接受的架构决策。借用道路的隐喻来说,唯一的方法是先沿着这条路走一小段,通过架构实验,检验平台所做的决策是否契合团队对 MVA 的需求。

  2. 该平台能否在预期的负载下实现可扩展性和性能?这里的难点在于,通常只有通过实验,你才能真正了解自己的可扩展性需求。借用道路的隐喻来说,你往往并不清楚自己需要的是一条车流稀少的双车道乡间小路,还是一条能够承载海量车流的高速公路。

  3. 基于该平台构建的架构是否具备长期可维护性?平台的演进速度通常比具体的业务系统更慢,因为它们的变更往往需要社区共识。当平台无法快速调整以满足需求时,团队就需要有明确的机制来扩展平台,直到平台本身能够做出相应修改。

 

这些问题不应该仅仅停留在激发思考和讨论的层面,必须通过实验进行实证评估。在实践中,这些实验体现为可执行的测试,可以在系统构建过程中持续运行。频繁对系统进行测试,以评估当前架构是否仍然适合目标用途,有助于避免后期出现不可控的大规模返工。

 

尽管上述三个问题看似按线性顺序展开,但实际上它们构成了一个循环(如图 1 所示):针对性能/可扩展性和模块化所做的调整,不应危及整体解决方案的有效性。

结论

平台就像一条现成的道路,可以让团队在交付 MVP 的旅程中更加轻松,但前提是,这条路确实通往他们想去的地方。团队在使用平台时面临的核心挑战在于,至少在项目初期,他们并不完全清楚自己的目的地,因此也无法确定平台所提供的“铺好的路”是否能带领他们抵达那里。

 

判断这条道路是否适合其 MVP 的一个重要方法,就是先走一小段,看看方向是否仍然正确,而这个“正确的方向”,正是由团队的质量属性需求(QAR)所定义的。

 

最终,团队不可避免地会在某个时刻离开平台所提供的“铺好的路”,走出自己的路径。通过实验,他们可以判断何时、何地需要这样做,是扩展平台以满足自身需求,还是开发平台完全未提供的全新解决方案,甚至彻底替换掉原有的平台。

 

The Architect’s Dilemma: Choose a Proven Path or Pave Your Own Way?

一个朋友分享一下他的大作,我觉得这个 Agent+Serverless 架构在工程层面是一个很棒的实现,希望各位佬友能够指教.

省流

一种远程部署 Agent 的方法:
基于 FileSystem 持久化的无状态容器 Agent 部署架构.
实现 Serverless 部署有状态 Agent,基本无单点故障,成本 500-1000 刀 / 月降到 30 刀 / 月
让 Agent 无痛上云而不必要单点部署!

项目源码

项目简介

为了解决部署 AI Agent 的两难问题:

  • 单机部署有状态但 “不容易负载均衡”“成本高”“各个功能耦合” 问题.
  • Serverless 便宜,很多即开即用的组件,不需要管理底层架构,但每次调用丢失状态 (对话历史等)。

本项目实现 Lambda + S3 + DynamoDB 来部署 Claude Agent,实现成本 30 刀 / 月的有状态 Agent,彻底解决以上问题。

这个架构打破了 "Serverless = 无状态" 的固有观念。通过在 S3 中维持会话历史,Lambda 获得了有状态 Agent 的能力,同时保持按需计费的成本优势。

状态管理不需要绑定在容器上,可以与计算完全分离。结合 DynamoDB 的映射、S3 的持久化、Lambda 的弹性计算,用更少的钱,更耦合的组件实现了更好的可靠性。

适用场景

  • Telegram / 微信 / Slack Bot (本项目用 TelegramBot 做示例的,Client 还可以实现其他)
  • SaaS 应用中的 AI 助手 (需要重新写 Client)
  • 多租户平台

Agent 为什么难以 Serverless 化

Claude Agent SDK 需要维护对话状态,与无状态 API 完全不同:

  • 每个 Agent 需要持久 shell、工作目录、完整对话树
  • Lambda 环境是无状态的:每次调用都是干净环境,/tmp 会被清空
  • 官方推荐四种部署模式中,Hybrid Sessions(临时容器 + 状态恢复)成本最优

项目框架 (这个只是当前我需要集成到 TG, 各位大佬如果有需要可以把 Client 改为其他客户端。欢迎 Fork 或者提 PR 来兼容更多客户端!)

Telegram User → Bot API → API Gateway → Producer Lambda → SQS Queue → Consumer Lambda
                                              ↓                            ↓
                                        Return 200              agent-server Lambda
                                        immediately                        ↓
                                              DynamoDB (Session mapping) + S3 (Session files) + Bedrock (Claude)

参考

本文永久链接

https://forum.beginner.center/t/topic/2575


📌 转载信息
转载时间:
2026/1/6 17:05:44

基于人工智能的流行集成开发环境解决方案(如 Cursor、Windsurf、Google Antigravity 和 Trae)会推荐 OpenVSX 注册表中不存在的扩展,这使得威胁行为者能够占用其命名空间并上传恶意扩展。

这些 AI 辅助 IDE 是从 Microsoft VSCode 分支而来,但由于许可限制,无法使用官方商店中的扩展。相反,它们由 OpenVSX 提供支持,这是一个适用于 VSCode 兼容扩展的开源市场替代方案。

分支的结果是,这些 IDE 继承了官方推荐扩展列表,这些列表硬编码在配置文件中,并指向 Microsoft 的 Visual Studio Marketplace。

这些推荐以两种形式出现:一种是基于文件的,在打开如 azure-pipelines.yaml 这类文件时触发,并推荐 Azure Pipelines 扩展;另一种是基于软件的,在检测到开发者系统上安装了 PostgreSQL 时发生,并建议 PostgreSQL 扩展。

然而,并非所有推荐的扩展都存在于 OpenVSX 上,因此相应的发布者命名空间未被占用。

供应链安全公司 Koi 的研究人员表示,威胁行为者可能利用用户对应用推荐的信任,注册未被占用的命名空间来推送恶意软件。

研究人员于 2025 年 11 月下旬向 Google、Windsurf 和 Cursor 报告了此问题。Cursor 于 12 月 1 日做出反应,修复了该漏洞。Google 最初于 12 月 26 日从其 IDE 中移除了 13 个扩展推荐,并于 1 月 1 日将该问题标记为已修复。Windsurf 尚未回应研究人员。

与此同时,Koi 研究人员占用了以下扩展的命名空间,以防止恶意利用:

ms-ossdata.vscode-postgresql
ms-azure-devops.azure-pipelines
msazurermtools.azurerm-vscode-tools
usqlextpublisher.usql-vscode-ext
cake-build.cake-vscode
pkosta2005.heroku-command

研究人员上传了非功能性的占位扩展,这些扩展不提供实际功能,但仍能阻止供应链攻击。

此外,他们已与 OpenVSX 的运营方 Eclipse Foundation 协调,以验证剩余的引用命名空间,移除非官方贡献者,并应用更广泛的注册表级别保护措施。

目前,没有迹象表明恶意行为者在 Koi 研究人员发现并采取行动之前利用了此安全漏洞。

建议分支 IDE 的用户始终通过手动访问 OpenVSX 注册表并检查扩展是否来自信誉良好的发布者来验证扩展推荐。

更新 [东部时间 1月5日 14:09]:
文章已编辑,以反映 Cursor 告知 Koi 研究人员其已于 2025 年 12 月 1 日修复了该问题。

这个没听说过,不过看纸面参数好像还行

  • 在 qwen3 基础上进行后训练
  • 同时提供 30A3B 和 235A22B 两种架构版本
  • 据称在 BrowserComp 测试中表现优异
  • 技术报告即将发布
  • MiT 许可证

比如一下上个版本提升:


在线体验:https://dr.miromind.ai/
GitHub:https://github.com/MiroMindAI/MiroThinker
Hugging Face:MiroThinker-v1.5 - a miromind-ai Collection


📌 转载信息
原作者:
artorius
转载时间:
2026/1/6 17:04:36

美国最大的光纤宽带公司之一Brightspeed正在调查勒索团伙Crimson Collective提出的安全漏洞及数据窃取声明。

这家成立于2022年的美国电信和互联网服务提供商(ISP)为20个州的农村和郊区社区提供服务。

"我们高度重视网络安全及客户与员工信息的保护,并严格实施网络防护与威胁监控。目前我们正在调查有关网络安全事件的报告,"Brightspeed向BleepingComputer表示。"随着调查深入,我们将及时向客户、员工及相关机构通报情况。"

该声明发布前,Crimson Collective周日在他们的Telegram频道更新中声称,已窃取超过100万Brightspeed客户的敏感信息。

威胁行为者声称,被盗数据包含客户/账户详细信息(含个人身份信息PII)、地址信息、关联会话/用户ID的账户信息(包括姓名、邮箱和电话号码)、支付历史记录、部分支付卡信息,以及包含客户PII的预约/订单记录。

"如果有谁认识BrightSpeed的员工,请告诉他们尽快查看邮件!我们手中掌握着超过100万居民用户的PII数据,"他们表示,并补充说"样本将于周一晚间发布,先给他们一些时间回应我们。"

去年10月,该黑客组织还入侵了Red Hat的GitLab实例之一,从28,000个内部开发仓库中窃取约570GB数据,这起事件影响了这家企业软件巨头的咨询部门。

事件发生后,Crimson Collective与Scattered Lapsus$ Hunters黑客组织合作,并利用他们的ShinyHunters数据泄露网站作为勒索Red Hat的手段之一。

12月,日产汽车确认约21,000名日本客户的个人信息(包括姓名、实际地址、电话号码和邮箱地址)在Red Hat数据泄露事件中遭到泄露。

此后,Crimson Collective还针对AWS(亚马逊云服务)云环境实施数据窃取和企业勒索,利用暴露的AWS凭证创建恶意身份和访问管理(IAM)账户来提升权限。

背景介绍:

前端测试目前最主流的是使用 jest 这个测试框架配合 testing library 这个库适配各种前端框架,使用 jsdom 或者 happy-dom 等虚拟浏览器环境来做测试。

虚拟浏览器环境测试的问题

主要问题出在使用虚拟浏览器环境进行前端测试,会出现需要更多额外的配置和匹配器只能匹配 css 属性的值,而无法看到作用在元素上的样式


来自 @testing-library/jest-dom/vitest 的匹配器 toHaveStyle 检查,但是你不好奇样式真的作用在我们测试的元素上了吗?


我们实际去查询下这个元素的样式


发现居然匹配出来不对

这是 jsdom 的问题,主要是在模拟的浏览器环境里实现对性能降低很多。

使用浏览器模式


有一个真实的浏览器环境,可以看到渲染成果,甚至是可以交互的

浏览器模式的问题

社区不是很活跃

  1. vue,react,angular,svetle 有社区组织维护
  2. solid preact 都是个人在维护

bug

时不时在每次修改测试自动重启时,会卡住,需退出重新运行测试

资料

  1. vitest 的官方文档
  2. vite conf 上的介绍b 站上的讲解版
  3. 快速上手的视频教程(youtube 和 b 站的首发哦)
  4. 我自己手写的 component 全覆盖测试的小仓库

📌 转载信息
转载时间:
2026/1/6 17:04:03

ClickFix攻击利用伪造的Windows蓝屏死机界面传播恶意软件

                        作者

04:16 PM

一场针对欧洲酒店业的新型ClickFix社会工程攻击正在活跃,攻击者通过伪造Windows蓝屏死机(BSOD)界面,诱骗用户在其系统上手动编译并执行恶意软件。

蓝屏死机是Windows操作系统遇到致命且无法恢复的错误时显示的崩溃界面。

这场最早于12月被发现、被Securonix研究人员追踪命名为"PHALT#BLYX"的新攻击活动中,冒充Booking.com的网络钓鱼邮件最终导向了部署恶意软件的ClickFix社会工程攻击。

ClickFix攻击伪造蓝屏死机崩溃界面

ClickFix社会工程攻击通过设计展示错误或问题的网页,随后提供"修复方案"来解决该问题。这些错误可能是伪造的错误消息、安全警告、验证码挑战或更新通知,指示访问者在计算机上运行命令以解决问题。

受害者最终会按照攻击者指示运行恶意的PowerShell或Shell命令,从而感染自己的设备。

在此次新的ClickFix攻击活动中,攻击者发送冒充酒店客人取消Booking.com预订的钓鱼邮件,通常针对酒店企业。邮件中声明的退款金额足以给收件人制造紧迫感。

伪造的Booking.com预订取消提醒

来源:Securonix

点击邮件中的链接会将受害者导向托管在'low-house[.]com'的虚假Booking.com网站,Securonix将其描述为真实Booking.com网站的"高保真克隆版"。

"该页面使用官方Booking.com品牌元素,包括正确的配色方案、标识和字体样式。对于未经训练的用户而言,它与合法网站无法区分,"
Securonix报告指出

Booking.com克隆网站上的虚假错误信息

来源:Securonix

然而当目标点击按钮时,浏览器会进入全屏模式并显示伪造的Windows蓝屏死机崩溃界面,从而启动ClickFix社会工程攻击。

受害者浏览器上显示的ClickFix蓝屏死机界面

来源:Securonix

该界面提示用户打开Windows运行对话框,然后按CTRL+V粘贴已复制到Windows剪贴板的恶意命令。

随后系统会提示用户点击确定按钮或按键盘回车键执行该命令。

真实的蓝屏死机消息不会提供恢复指导,仅显示错误代码和重启提示,但缺乏经验的用户或在解决纠纷压力下的酒店工作人员可能会忽略这些欺诈迹象。

恶意软件(staxs.exe)是DCRAT远程访问木马,威胁行为者常用此工具远程访问受感染设备。

该恶意软件通过进程镂空技术注入到合法的'aspnet_compiler.exe'进程中,并直接在内存中执行。

首次连接命令与控制(C2)服务器时,恶意软件会发送完整的系统指纹信息,随后等待执行命令。

它支持远程桌面功能、键盘记录、反向Shell以及额外载荷的内存执行。在Securonix观察到的案例中,攻击者部署了加密货币挖矿程序。

建立远程访问后,威胁行为者便在目标网络中建立了立足点,从而能够扩散到其他设备、窃取数据并可能危害其他系统。

TII 刚刚发布了 Falcon H1R-7B 模型

一种新型推理模型,仅凭 70 亿参数和 25.6 万字节上下文窗口,便在数学和编程领域超越其他模型

该模型融合了 Mamba 与 Transformers 架构,因此在吞吐量和内存效率方面更具优势


官方介绍:Introducing Falcon H1R 7B
Hugging Face:Falcon-H1R - a tiiuae Collection


热乎的喵,最新小模型好多哇


📌 转载信息
原作者:
artorius
转载时间:
2026/1/6 17:03:08