2026年1月

开发缘由:

参考:
https://linux.do/t/topic/1427584


功能:
自动同步 Gemini 主题与系统主题,防止页面加载时主题突变


源码
// ==UserScript==
// @name         Gemini 主题同步助手
// @namespace    http://tampermonkey.net/
// @version      1.0
// @description  自动同步 Gemini 主题与系统主题,防止页面加载时主题突变
// @author       Assistant
// @match        https://gemini.google.com/*
// @run-at       document-start
// @grant        none
// ==/UserScript==

(function() {
    'use strict';

    // 防止在 iframe 中运行
    if (window.self !== window.top) {
        return;
    }

    // ==================== 配置常量 ====================
    const THEME_KEY = 'Bard-Color-Theme';
    const DEBUG = false; // 设为 true 可开启调试日志

    // ==================== 工具函数 ====================

    /**
     * 调试日志输出
     * @param  {...any} args - 日志参数
     */
    function log(...args) {
        if (DEBUG) {
            console.log('[Gemini主题同步]', ...args);
        }
    }

    /**
     * 获取系统主题是否为深色模式
     * 使用 CSS Media Query API 检测系统级别的主题偏好
     * @returns {boolean} true 表示系统为深色模式,false 表示浅色模式
     */
    function getSystemThemeIsDark() {
        try {
            return window.matchMedia('(prefers-color-scheme: dark)').matches;
        } catch (e) {
            // 如果 matchMedia 不可用,默认返回 false(浅色模式)
            log('matchMedia API 不可用,默认使用浅色模式');
            return false;
        }
    }

    /**
     * 解析存储的主题值,判断是否为深色模式
     * Gemini 的主题值通常包含 "Light" 或 "Dark" 字符串
     *
     * @param {string} value - localStorage 中存储的主题值
     * @returns {boolean|null}
     *   - true: 深色模式
     *   - false: 浅色模式
     *   - null: 无法判断(值为空或不包含可识别的主题标识)
     */
    function parseStoredTheme(value) {
        // 空值检查
        if (!value || typeof value !== 'string') {
            return null;
        }

        // 转换为小写进行不区分大小写的匹配
        const lowerValue = value.toLowerCase();

        // 检查是否包含深色模式标识
        if (lowerValue.includes('dark')) {
            return true;
        }

        // 检查是否包含浅色模式标识
        if (lowerValue.includes('light')) {
            return false;
        }

        // 无法识别的值
        return null;
    }

    /**
     * 主函数:同步主题与系统设置
     *
     * 逻辑流程:
     * 1. 检查 localStorage 中是否存在主题设置
     * 2. 如果存在,获取系统当前主题偏好
     * 3. 对比两者是否一致
     * 4. 不一致时删除存储的主题值,让页面使用系统默认主题
     */
    function syncThemeWithSystem() {
        try {
            // ========== 步骤1: 读取存储的主题 ==========
            const storedTheme = localStorage.getItem(THEME_KEY);

            // 如果不存在存储的主题,说明页面会使用默认行为,无需干预
            if (!storedTheme) {
                log('未检测到存储的主题,跳过处理');
                return;
            }

            log('检测到存储的主题:', storedTheme);

            // ========== 步骤2: 获取系统主题 ==========
            const systemIsDark = getSystemThemeIsDark();
            log('系统主题:', systemIsDark ? '深色模式' : '浅色模式');

            // ========== 步骤3: 解析存储的主题 ==========
            const storedIsDark = parseStoredTheme(storedTheme);

            // 如果无法解析存储的主题值,保守处理,不做任何操作
            if (storedIsDark === null) {
                log('无法解析存储的主题值,跳过处理');
                return;
            }

            log('存储的主题:', storedIsDark ? '深色模式' : '浅色模式');

            // ========== 步骤4: 对比并处理 ==========
            if (storedIsDark !== systemIsDark) {
                // 主题不一致,删除存储的值
                localStorage.removeItem(THEME_KEY);
                log('✓ 主题不一致,已删除存储的主题值,页面将使用系统主题');
            } else {
                // 主题一致,无需处理
                log('✓ 主题一致,无需处理');
            }

        } catch (error) {
            // 捕获所有异常,确保脚本不会因错误而影响页面正常加载
            console.error('[Gemini主题同步] 执行出错:', error);
        }
    }

    // ==================== 立即执行 ====================
    // 在 document-start 阶段执行,确保在页面渲染前完成主题同步
    syncThemeWithSystem();

})();



📌 转载信息
转载时间:
2026/1/12 10:12:40

▎ Brown Noise Rain: SleepLoop

Sleeploop 提供专业的棕色、粉色、绿色和白色噪声,以及 70 多种高质量的雨声和自然声音。

需要 iOS 17.6 或更高版本,目前内购 SleepLoop Premium Lifetime 限免 $ 0

解锁方法:
左上角点击后弹出内购页

限时活动,购买前请确认在限免期

可以不用,但是不能没有

转载自 小声逼逼 群组


📌 转载信息
原作者:
Luster
转载时间:
2026/1/12 10:07:26

上游多个号池组成,先看看稳定性,可以的话后面再看情况开放注册,佬友们帮忙看看速度和效果

api 地址:https://api.2020111.xyz
密钥:sk-ppQKZLfWFY9flNsbpuMDT9cG38viKW3JEiVHnI6AUZ4YEFE0
模型:翻译

沉浸式翻译插件添加自定义 API 地址要写全:https://api.2020111.xyz/v1/chat/completions


📌 转载信息
原作者:
lsolol
转载时间:
2026/1/12 10:07:08

Telegram 移动应用漏洞或致真实 IP 地址泄露

安全研究人员发现,Telegram 移动应用的快速代理设置链接存在潜在 IP 地址泄露风险。用户点击链接时,应用未提供警告就直接连接到指定服务器。攻击者可伪装此类链接诱使用户点击,绕过已配置的代理,暴露真实 IP 地址。该问题仅影响 Android 和 iOS 客户端,其他版本如桌面端和网页版则能安全处理链接。

Telegram 团队过去已修复类似安全漏洞,预计未来更新会调整代理链接的自动连接功能。对 IP 隐私敏感的用户建议使用系统级 VPN,以防止跨应用泄露问题。

Σ( ° △ °|||)︴


📌 转载信息
原作者:
camille520
转载时间:
2026/1/12 10:07:04

项目地址: GitHub - osscv/maccms-api: 一个基于 MACCMS(苹果 CMS)数据库结构 的 API 接口服务,通过直接访问数据库获取数据,并以 RESTful JSON 格式提供标准化数据接口,便于第三方系统调用或软件开发。

我给苹果 CMS(MACCMS)做了个 “标准 JSON 接口层”**。因为目前自带的无法满足我个人开发和使用需求,另外苹果 CMS API 一直都很神秘(你买模板 / 使用模板都好他们都加密或者需要授权啥的)。

这个项目直接按 MACCMS 数据库结构读库,把视频 / 分类 / 搜索 / 热门等数据统一用 RESTful JSON 输出,方便第三方系统、APP、小程序、前端站点、爬虫对接(合法合规前提下)或者你自己做二次开发。

通熟来说常见场景如下:

  • 你有一套 MACCMS 数据库,但想做自己的前端 / APP,不想被 CMS 模板绑死
  • 你想给第三方系统提供统一数据接口(列表、详情、分类、搜索、热门)
  • 你想写小程序 / TV 端 / Flutter/React/Vue 之类,直接对接 JSON
  • 你只想 “读数据”,不想碰后台一堆逻辑

具体使用文档可以看: maccms-api/README.md at main · osscv/maccms-api · GitHub

有什么欢迎反馈 & PR 提交一下,这几天有空就更一下。

还要就是,过几天 / 2 月这样,我会开源一套安卓原生手机端 + TV 端的源码 (自己开发的基于我目前这个 GitHub - osscv/maccms-api: 一个基于 MACCMS(苹果 CMS)数据库结构 的 API 接口服务,通过直接访问数据库获取数据,并以 RESTful JSON 格式提供标准化数据接口,便于第三方系统调用或软件开发。 ) 我还在做最后优化。

别忘了给我 github 点个 Star 呗 哈哈哈。


📌 转载信息
原作者:
dkly2004
转载时间:
2026/1/12 10:06:51

Git Hub

有空可以帮忙支持一下小白新人
** 有能力的老板可以资助一下 LDC,球球辣 **
50LDC 即可鼓励新人

半自动化是因为 API 化失败了,所以采用开浏览器半自动化的模式了。

欢迎有实力的佬友进行调优,本人是小白,用哈基米和 Codex 写的。写得很粗糙,不要见怪。

使用方法看 README

自备一个订阅机场,clash 核心自下。配置我个人是通过 clash 右键订阅机场,打开文件,复制到 local.yaml 覆盖全部使用。运行后,本地的 clash(或者其他代理)可以关了,或者切换为规则。不要开全局,系统代理。否则两个 clash 会冲突。

邮箱注册功能来自: DuckMail


@ 个人资料 - Syferie - LINUX DO

Business 登录地址:

后续登录也靠佬的前端:

运行界面:

账号密码保存在 csv 文件下:

待完善功能

| 功能 | 状态 | 说明 |

| 纯 API 注册 | 未实现 | Google 使用 reCAPTCHA Enterprise,纯 API 无法绕过

已知问题

| 问题 | 说明 |

| IP 封锁 | 部分代理节点被 Google 封禁,程序会自动切换节点 |

| 按钮匹配不正确 | 有大概率触发点击验证和重发验证码两个按钮,但是不影响功能 |

| 页面加载慢 | 网络不稳定时页面加载较慢,可能导致超时 |

| 存在僵尸进程 clash.exe| 在后台会占用资源,可自己手动进任务管理器结束 |

更新预告
大兵自助验证 API 已完成,完全全自动,使用方法参考市面上的 BOT,输入验证 URL 即可完成验证。这几天活动关了,等稳定了可能考虑开源给大家。


📌 转载信息
原作者:
Zooo1
转载时间:
2026/1/12 10:03:20

可以在这里分享需要频繁定制的个性化 clash 规则.

其实我开始是想做一个 clash 配置管理中心,不过刚刚立项,就和 RyanVan 佬的项目 https://ryan-ai.de 撞车了,然后人家完成度已经很高了,就不是很有必要再折腾一遍.

不过我这里还是有一个比较好的功能点是可以结合起来用的.

这个小功能可以按照 clash 的 rule-provider 规范 (参见规则集合内容 - 虚空终端 Docs) 定义规则提供者

比如我定义的这个:
https://cr-hub.jsonsong.top/rules/ai-us
是我目前在使用的,需要走美国家宽的路由规则.
其他规则我一般是走 hk.

使用方式是,定义 rule-provider 和指定分组


📌 转载信息
转载时间:
2026/1/12 10:03:13

先直接上链接。GitHub repo: GitHub - haddock-development/claude-reflect-system: Self-improving skills system for Claude Code - learn from corrections, never repeat mistakes

什么是 Reflect skill ?

核心逻辑是让 AI 在反复的对话过程中,能够 “记住” 你的偏好和纠错,从而实现自我进化相关的其它 Skills。

常见的实现方式?

手动 / 自动

Reflect skill 的简单实例

直接看这个片子。https://youtu.be/-4nUCaMNBR8?si=jIUlnm7KuJ6GXjcQ

里面提到了 Authentication 模块忘了使用 SQL injection。 Reflect skill 可以从当前的 code review skill 的对话里面,抽取相关的纠正,完善 code review。原文提到 corrections the signal。

自动化程度可调节(参考 Github repo)

如何自动化?

自动化的流程是一个 cloud code hooks,在一个对话停止之后,它会自动执行一个 shell 脚本。

此外,这个功能可以打开或者关闭。


📌 转载信息
原作者:
qian_zhou
转载时间:
2026/1/12 10:02:16

有兴趣的佬友帮忙点点 star

项目地址:

原贴地址:[开源自荐] 基于 AI 的股票分析系统

某强大佬友接入微信后的效果反馈

爱你们


📌 转载信息
原作者:
mumuladu
转载时间:
2026/1/12 10:01:30

Datawhale 开源生态驱动的大模型与 Agent 应用开发工程师全景深度研究报告

第一章 绪论:开源精神下的 AI 工程化教育新范式

1.1 Datawhale 的教育哲学与技术愿景

在人工智能技术以指数级速度迭代的当下,技术知识的半衰期显著缩短,传统的教育体系往往难以跟上工业界的步伐。Datawhale 作为成立于 2018 年的专注于 AI 领域的开源组织,其 “For the Learner” 的核心价值观不仅是一种口号,更是一种应对技术变革的系统性方法论。该组织通过汇聚具备开源与探索精神的理想主义者,构建了一个去中心化、高响应速度的知识生产与传播网络。

对于渴望成为大模型(Large Language Model, LLM)应用开发工程师或智能体(Agent)开发者的学习者而言,Datawhale 提供了一个独特的生态位:它既不完全等同于学术界的纯理论研究,也不同于商业公司的封闭技术栈。Datawhale 的项目矩阵通常呈现出 “元认知” 的特性 —— 不仅教授如何使用工具,更深入工具背后的原理与设计哲学。通过对 Datawhale 开源仓库的全面梳理,我们可以清晰地通过其项目演进看到 AI 工程化范式的转移:从早期的模型训练(Training-centric),过渡到以提示工程(Prompt Engineering)为核心的应用开发,最终演进至 2024-2025 年爆发的智能体(Agentic)系统构建。

1.2 大模型与 Agent 开发者的能力模型重构

本报告旨在为学习者规划一条详尽的进阶路径,该路径严格基于 Datawhale 的开源项目构建,旨在培养具备 “全栈 AI 思维” 的工程师。一个合格的大模型 / Agent 应用开发工程师,其能力图谱已发生根本性重构:

  1. 交互层(Interaction Layer):不再仅限于 GUI 设计,而是转向提示工程(Prompt Engineering)与自然语言交互设计。
  2. 编排层(Orchestration Layer):掌握 LangChain、LlamaIndex 等工具,以及更进阶的 Agent 框架(如 AutoGen、LangGraph、CAMEL)。
  3. 认知层(Cognitive Layer):理解模型推理、规划(Planning)、记忆(Memory)与反思(Reflection)机制。
  4. 数据层(Data Layer):精通 RAG(检索增强生成)架构,管理向量数据库与非结构化知识。
  5. 协作层(Collaboration Layer):构建多智能体系统(Multi-Agent Systems),实现 Agent 间的社会化分工。

本报告将摒弃版本过旧或简单的搬运类项目,聚焦于 Datawhale 生态中具备系统性、原创性及前沿性的核心仓库,规划出一条长达数千小时的深度学习路线。


第二章 认知基石:提示工程与大模型应用开发初探

任何复杂的 Agent 系统,其原子单元皆为单次的大模型调用。因此,理解如何与模型高效沟通,即 “提示工程”,是所有后续开发的基石。Datawhale 在此领域提供了两套互补的 “教材”,分别侧重于交互逻辑与工程落地。

2.1 交互逻辑重塑:面向开发者的 LLM 入门教程

该项目是吴恩达(Andrew Ng)与 OpenAI 合作推出的系列课程的中文版。Datawhale 团队不仅进行了翻译,更针对中英文模型在理解 Prompt 时的细微差异进行了大量的 “本地化” 调优。这使得该项目成为了解 LLM 思维方式的最佳起点。

2.1.1 提示工程的核心原则与迭代范式

在这一模块中,学习者将深入探究控制大模型输出质量的底层逻辑。这并非简单的 “说话技巧”,而是一种编程思维。

  • 原则一:清晰具体的指令(Clear and Specific Instructions)。这不仅仅意味着 “把话说清楚”,更涉及到结构化思维。学习者需掌握使用分隔符(Delimiters)来隔离指令与数据,防止提示注入攻击;利用结构化输出(如 JSON、HTML)来强迫模型生成可被代码解析的响应。项目中展示的通过系统消息(System Message)设定角色(Persona)的技巧,是后续构建 Agent “人设” 的雏形。
  • 原则二:给予思考的时间(Give the Model Time to Think)。这是链式思维(Chain of Thought, CoT)的早期形态。学习者将通过实战案例理解,为何在要求模型输出最终答案前,强制其列出计算步骤或推理过程,能显著降低 “幻觉”(Hallucination)率。这揭示了 LLM 作为自回归模型,其生成的每一个 Token 都在为下一个 Token 提供上下文的本质。
  • 迭代开发(Iterative Development)。Prompt 开发绝非一蹴而就。本项目强调 “Idea → Prompt → Error Analysis → Refined Prompt” 的闭环。学习者将学会如何建立测试用例,量化评估 Prompt 的表现,这种工程化思维是将 Prompt 从 “玄学” 变为 “科学” 的关键。

2.1.2 系统级应用的构建逻辑

从单一 Prompt 进阶到系统构建,项目涵盖了 Building Systems with the ChatGPT API 的核心内容。

  • 输入监控与分类:在真实应用中,用户输入是不可控的。学习者将学习使用 Moderation API 进行内容审查,并构建分类 Prompt 来识别用户意图(Intent Recognition),这是 Agent 中 “路由(Routing)” 模块的前身。
  • 多轮对话管理:LLM 本身是无状态的(Stateless)。项目详细解析了如何通过手动维护 messages 列表来构建对话历史(History),以及如何处理上下文窗口限制,为后续理解 Agent 的 Memory 模块打下基础。

2.1.3 LangChain 框架的原理解析

虽然 Datawhale 有更复杂的 Agent 教程,但 llm-cookbook 中关于 LangChain 的章节提供了最纯粹的原理解读。

  • Chains(链):学习者将理解如何将多个 LLM 调用串联(Sequential Chain),实现 “先总结评论,再撰写回复” 的流水线逻辑。
  • Document Loading 与 Splitting:初步接触非结构化数据处理,理解为何需要将长文档切片,以及重叠(Overlap)参数对上下文连贯性的影响。


2.2 全栈工程落地:动手学大模型应用开发

如果说 llm-cookbook 是注重理论的 “计算机科学导论”,那么 llm-universe 就是注重实操的 “软件工程实验课”。该项目致力于帮助小白开发者从零开始构建一个完整的、可部署的个人知识库助手。

2.2.1 多源异构 API 的统一封装

在实际的国内开发环境中,开发者往往面临 OpenAI 访问受限或成本过高的问题。llm-universe 的一个核心贡献是提供了一套统一的接口设计模式,涵盖了百度文心(Ernie)、讯飞星火(Spark)、智谱 AI(ZhipuAI)等主流国产大模型。

  • 适配器模式应用:学习者通过阅读源码,将深入理解如何继承 LangChain 的 LLM 基类,将不同厂商的 SDK(如 zhipuaidashscope)封装为统一的_call 接口。这种能力对于企业级应用中实现 “模型热切换” 至关重要,也是构建模型无关(Model-Agnostic)Agent 框架的前提。

2.2.2 检索增强生成(RAG)的端到端实现

RAG 是目前解决大模型知识截止和私有数据访问最成熟的技术方案。本项目通过由浅入深的实战,剖析了 RAG 的每一个环节。

  • 数据清洗与向量化:项目详细介绍了如何处理 PDF、Markdown 等格式的文档。学习者将亲手实践使用 Embedding 模型(如 OpenAI Embedding 或 HuggingFace 开源模型)将文本转化为高维向量。
  • 向量数据库实战:不仅涵盖了轻量级的 Chroma,也涉及了生产级的 Milvus。学习者将掌握向量存储(Vector Store)的构建、持久化以及基于余弦相似度(Cosine Similarity)的检索逻辑。
  • Prompt 模板注入:如何将检索到的 Top-K 片段优雅地嵌入到 Prompt 中,并提示模型 “仅根据已知信息回答”,是减少幻觉的关键。项目中的 Prompt 模板设计经过了大量验证,极具参考价值。

2.2.3 前端交互与 Web 部署

为了完成工程闭环,项目引入了 Streamlit 框架。学习者不再停留于 Jupyter Notebook 的黑底白字,而是能够快速构建具备侧边栏配置、聊天气泡界面的 Web 应用。这对于展示 Agent Demo、进行用户测试(User Testing)具有重要意义。


第三章 理论深潜:Transformer 架构与模型微调原理

在掌握了 API 调用与基础应用开发后,真正的专家级工程师必须具备 “打开黑盒” 的能力。理解 Transformer 架构、训练过程及微调(Fine-tuning)原理,是优化复杂 Prompt、调试模型异常表现以及进行私有化部署的前提。

3.1 深度解析 Transformer:HuggingLLM(蝴蝶书)

此项目被称为 “蝴蝶书”,意在阐述微小的代码变动可能引发的模型行为的巨大蝴蝶效应。它连接了深度学习理论与 Hugging Face 开源生态。

3.1.1 自然语言处理(NLP)范式的演进

学习者将通过该项目,梳理 NLP 从 RNN/LSTM 到 Transformer 的范式转移。

  • Attention Is All You Need:项目对 Transformer 论文进行了逐行代码级的复现与解析。学习者需深刻理解 Self-Attention(自注意力机制)如何解决长距离依赖问题,以及 Positional Encoding(位置编码)如何赋予模型序列感。
  • BERT vs GPT:对比 Encoder-only(BERT)、Encoder-Decoder(T5)与 Decoder-only(GPT)架构的优劣。理解为何生成式任务最终收敛于 Decoder-only 架构,这对于理解当前主流大模型(如 Llama, Qwen)的结构至关重要。

3.1.2 Hugging Face 生态与开源模型实战

Hugging Face 已成为 AI 领域的 GitHub。本项目手把手教导如何利用 transformers 库加载开源模型。

  • Tokenizer 的奥秘:学习者将发现,Tokenizer 不仅仅是分词,更涉及到词表(Vocabulary)构建、特殊 Token(如 <|endoftext|>)的处理。不同模型的 Tokenizer 实现差异(如 SentencePiece vs Byte-Pair Encoding)直接影响 Prompt 的 Token 计算与上下文窗口利用率。
  • Pipeline 与 Model Head:掌握如何根据任务(文本分类、生成、命名实体识别)选择不同的 Model Head,这对于需要结合传统 NLP 任务与 LLM 能力的复合型 Agent 系统非常有用。

3.2 训练与对齐机制:Happy-LLM

该项目从更加底层的视角,剖析了大模型全生命周期的训练过程。

3.2.1 从预训练到指令微调

  • Pre-training(预训练):理解模型如何通过海量文本的自监督学习获得世界知识。
  • Instruction Tuning(指令微调 / SFT):这是让模型听懂人话的关键。项目展示了如何构建 <Instruction, Input, Output> 格式的数据集,将预训练模型转化为 Chat 模型。这对于开发者想要在特定垂直领域(如医疗、法律)微调模型以获得更好表现极具指导意义。

3.2.2 RLHF 与人类价值观对齐

Reinforcement Learning from Human Feedback(RLHF)是大模型安全性的核心。虽然大多数应用开发者不需要亲自进行 RLHF,但理解其原理(奖励模型 Reward Model、PPO 算法)有助于理解模型为何会拒绝某些请求,以及如何通过 Prompt 设计规避过度的防御机制。


第四章 智能体元年:Agent 架构与开发实战

2024 年与 2025 年被普遍认为是 “Agent 元年”。大模型的能力焦点从单纯的文本生成(Chatbot)转移到了具备自主感知、规划、工具使用能力的智能体(Agent)。Datawhale 的 hello-agents 项目是目前开源社区中最系统、最前沿的 Agent 学习资料,是本报告的核心推荐内容。

4.1 智能体通识与核心范式:Hello-Agents(Part I & II)

该项目立意高远,旨在培养 “AI Native” 的 Agent 开发者。它不仅介绍了如何使用工具,更从第一性原理出发,探讨 Agent 的本质。

4.1.1 智能体的定义与演进

学习者首先需要建立对 Agent 的科学认知。

  • 从 Copilot 到 Agent:明确区分辅助驾驶(Copilot,人主导,AI 辅助)与智能体(Agent,AI 主导,人监督)的边界。
  • 演进史:项目梳理了从符号主义 Agent(Symbolic Agent)到强化学习 Agent(RL Agent),再到如今基于 LLM 的 Agent 的演变路径。理解这一历史,有助于明白当前 LLM Agent 虽然在通用性上通过了图灵测试,但在长期规划和确定性执行上仍存在挑战。

4.1.2 经典 Agent 范式的代码级复现

在这一部分,hello-agents 展现了极高的教学价值:它拒绝直接使用封装好的框架,而是引导学习者用原生 Python 复现经典论文。

  • ReAct (Reasoning + Acting):这是当前 Agent 最主流的范式。学习者将亲手编写一个 While 循环,模拟 “Thought(思考) → Action(行动) → Observation(观察)” 的过程。通过解析模型输出的字符串,提取工具调用指令,执行工具函数,并将结果拼接到 Prompt 中进入下一轮循环。这种 “手搓 ReAct” 的经历,能让开发者对 Agent 的 Token 消耗、延迟来源及错误恢复机制有刻骨铭心的理解。
  • Plan-and-Solve:针对 ReAct 在复杂长链条任务中容易跑偏的问题,学习者将实现 “先规划,后执行” 的范式。即让模型先生成完整的 Step-by-Step 计划,再逐一执行。
  • Reflection(反思):学习如何构建一个 “双我” 系统,即一个 Agent 负责生成,另一个 Agent 负责批评(Critique)和建议,从而实现自我进化。这在代码生成(Self-Debugging)任务中尤为重要。

4.2 打造自主可控的框架:HelloAgents Framework

  • 项目章节hello-agents 第七章 8

在掌握了原理后,Datawhale 鼓励学习者造一个属于自己的轮子。这一章指导学习者构建名为 HelloAgents 的轻量级框架。

4.2.1 框架设计哲学与架构

  • 组件解耦:学习者将设计 Agent 基类、ToolRegistry(工具注册表)、Memory(记忆模块)等核心组件。
  • 统一接口:为了兼容 OpenAI、Anthropic 及本地模型,需要设计统一的 LLM 适配层。
  • 消息路由:设计高效的消息传递机制,确保 System Message、User Message 和 Tool Output 能在多轮对话中正确拼接,不丢失上下文。

4.2.2 高级工具系统的实现

  • 工具链管理:实现工具的自动发现与注册。学习者将学习如何利用 Python 的装饰器(Decorator)将普通函数转化为带有 JSON Schema 描述的 Agent 工具。
  • 多源搜索聚合:实战开发一个聚合了 Tavily(AI 专用搜索)、SerpApi(Google 搜索)的超级搜索工具,并实现故障转移(Failover)机制。


第五章 进阶工程:多智能体协作与复杂社会模拟

当单一 Agent 受限于上下文窗口或能力瓶颈无法解决复杂问题时,多智能体系统(Multi-Agent Systems, MAS)应运而生。Datawhale 通过 handy-multi-agenthello-agents 的高级章节,深入探索了这一前沿领域。

5.1 多智能体协作框架:Handy Multi-Agent

该项目基于 CAMEL(Communicative Agents for “Mind” Exploration of Large Scale Language Model Society)框架,重点展示了 Agent 社会的构建。

5.1.1 角色扮演(Role-Playing)与 Inception Prompting

CAMEL 框架的核心创新在于 “角色扮演”。

  • Inception Prompting:学习者将深入研究这种特殊的 Prompt 技术,它在对话开始前对两个 Agent(如 “Python 程序员” 和 “股票交易员”)进行深度催眠,设定其职责、禁忌和交互协议,从而实现全自动的对话推进,无需人类作为中间人。
  • 任务特化(Task Specialization):通过案例(如 “开发一个交易机器人”),观察两个 Agent 如何通过不断的指令下达与代码交付,逐步逼近任务目标。

5.1.2 异构 Agent 社会的构建

  • Agent Society:项目展示了如何不仅限于两个 Agent,而是构建一个包含多种角色的 “社会”。学习者将理解在这种网络拓扑中,信息如何流动,以及如何避免死循环对话。

5.2 主流框架横向评测与实战:Hello-Agents(Part II Advanced)

除了自研框架和 CAMEL,hello-agents 还深入剖析了工业界主流框架。

5.2.1 AutoGen 的对话式编程

微软推出的 AutoGen 是目前最火的框架之一。

  • UserProxyAgent:学习者需掌握这一特殊 Agent 的使用,它充当人类代理,可以在代码执行前请求人类批准,通过 Docker 沙箱安全执行代码。
  • GroupChat 与 Manager:理解 AutoGen 如何通过一个 “群聊管理员” 来动态选择下一个发言的 Agent,这对于构建非线性协作流程(如头脑风暴)至关重要。

5.2.2 LangGraph 的图论编排

LangGraph 代表了 Agent 编排的另一方向 —— 基于图(Graph)。

  • Cyclic Flows(有环流):不同于传统的 DAG(有向无环图),LangGraph 原生支持循环。这对于实现 ReAct 循环或长周期的 Human-in-the-loop 流程非常自然。学习者将学习定义 Nodes(节点)和 Edges(边),构建状态机。

5.3 跨平台轻量级方案:Wow-Agent

作为一个更轻量级的选择,wow-agent 提供了一个跨平台的视角。其中的 Zigent 模块展示了极简主义的 Agent 设计。学习者可以对比其与庞大的 LangChain/AutoGen 的差异,理解在资源受限或需要快速原型开发时如何取舍。


第六章 综合应用:RAG 进阶与 Agent 生态互联

在掌握了单个和多个 Agent 的构建后,最后阶段将聚焦于数据的深度利用与生态互联,这是构建具备商业价值应用的关键。

6.1 下一代检索增强:Wow-RAG

基础的 RAG(如 llm-universe 中所述)往往面临检索精度不足、多跳推理困难的问题。wow-rag 聚焦于 Advanced RAG 技术。

6.1.1 混合检索与重排序(Rerank)

  • Hybrid Search:学习者将实践结合关键词检索(BM25,擅长精确匹配)与向量检索(Embedding,擅长语义匹配)的策略,以提高召回率(Recall)。
  • Rerank 模型:在检索回 Top-50 文档后,使用专门的 Cross-Encoder 模型(如 BGE-Reranker)进行精细排序,筛选出 Top-5 给 LLM。这是提升 RAG 系统准确率(Precision)性价比最高的手段。

6.1.2 GraphRAG 与知识图谱

项目触及了最前沿的 GraphRAG 技术。利用知识图谱(Knowledge Graph)捕捉实体间的关系,解决 “跨文档推理” 难题。学习者将了解如何将非结构化文本转化为图谱,并利用图算法增强检索上下文。

6.2 基础设施支持:Easy-VectorDB

为了支持上述 RAG 系统,对向量数据库的深入理解不可或缺。该项目专注于向量数据库的原理与实践,填补了数据库层面的认知空白,是构建大规模知识库 Agent 的基石。

6.3 毕业设计与未来展望:Hello-Agents(Part IV & V)

  • 项目章节hello-agents 第 13-16 章 8

学习的终点是创造。本部分提供了多个企业级复杂度的案例,涵盖了当前最热门的应用方向。

6.3.1 智能旅行助手:MCP 协议实战

  • 案例详解:构建一个包含景点搜索、天气查询、酒店推荐、行程规划四个 Agent 的协作系统。
  • Model Context Protocol (MCP):这是 Anthropic 等巨头推动的下一代标准。学习者将实战如何使用 MCP 协议,标准化 Agent 与外部数据源(如高德地图 API、Unsplash 图片库)的连接。掌握 MCP 意味着开发的 Agent 天然具备跨平台互操作性。

6.3.2 自动化深度研究 Agent (Deep Research)

  • 案例详解:复现类似 OpenAI Deep Research 的功能。
  • 递归任务分解:学习如何让 Agent 自主进行长周期的互联网探索。它需要自己提出搜索关键词,阅读网页,判断信息是否足够,如果不足则生成新的关键词继续搜索(递归),最后阅读数十个网页并生成万字长文报告。这考验了 Agent 的显存管理、长上下文处理及逻辑一致性。

6.3.3 赛博小镇 (Cyber Town) 社会模拟

  • 案例详解:基于斯坦福 “Generative Agents” 论文,构建一个包含多个 NPC 的虚拟小镇。
  • 记忆流(Memory Stream):这是本案例的核心。学习者将实现包含 “感知、记忆检索、反思、规划” 的完整认知架构。观察 NPC 之间如何涌现出八卦传播、选举拉票等社会行为。

6.3.4 毕业设计:从 Idea 到开源

最后,学习者需完成一个完整的开源项目。hello-agents 提供了详细的指南,包括选题(如代码审查 Agent、数据分析师)、项目结构规范(src, tests, docs)、以及如何撰写 requirements.txtREADME.md。这不仅是技术的总结,更是开源礼仪与工程规范的实战。


第七章 总结与学习路径规划表

7.1 学习路径总览表

阶段核心项目学习重点预计耗时产出物
P1: 基础llm-cookbookPrompt Engineering, API, LangChain Basic20h翻译助手,摘要工具
P2: 应用llm-universeRAG, VectorDB, Streamlit UI30h个人知识库助手 (Web 版)
P3: 原理hugging-llmTransformer, Tokenizer, Open Source Models25h本地模型推理 Demo
P4: 智能体hello-agents (Part 1-2)ReAct, Plan-and-Solve, HelloAgents 框架40h手写 Agent 框架,命令行工具
P5: 协作handy-multi-agentCAMEL, Role-Playing, Agent Society30h多智能体辩论系统
P6: 进阶hello-agents (Part 3-5) + wow-ragMCP, GraphRAG, Deep Research, Simulation50h+毕业设计开源项目

7.2 给学习者的最后建议

Datawhale 的开源项目群构建了一座宏大的 “AI 工程学院”。从掌握 Prompt 这一原子能力,到构建复杂的 Agent 社会,这条路径既漫长又充满挑战。

  1. 代码至上:切勿止步于阅读文档。务必 Clone 每一个仓库,运行每一个 Jupyter Notebook。Agent 的许多微妙之处(如 Prompt 的微小差异导致的执行失败)只有在 Debug 中才能体会。
  2. 关注数据流:在学习多智能体系统时,时刻关注 “消息(Message)” 是如何在 Agent 之间流转的。消息即 Agent 的血液。
  3. 拥抱开源:Datawhale 的核心是 “和学习者一起成长”。在学习过程中,如果发现代码过时或有 Bug,请积极提交 Issue 或 PR。这不仅是对社区的回馈,也是证明你已从 “Learner” 成长为 “Builder” 的最佳勋章。

愿这份基于 Datawhale 生态的详尽报告,能成为你在大模型与智能体开发之路上最坚实的导航图。


附录:引用项目清单


📌 转载信息
转载时间:
2026/1/12 10:01:12

1月11日,供应链知情人士透露,闪迪已向部分下游客户提出了一项被业界称为“前所未闻”的供应合同:要求客户支付100%现金预付款,以锁定未来1至3年的存储芯片配额。

通常情况下,半导体供应链合作多采用分期付款或信用账期模式,闪迪此次推出的“100%全额预付”制度彻底打破了行业惯例,对买方的现金流提出了极端挑战。

尽管条款极为严苛,但在AI基础设施建设对存储设备产生“刚性需求”的背景下,部分急需扩充算力的云服务供应商不得不考虑接受这一条款。

此外,闪迪也将此类合同谈判范围扩大到了PC、智能手机及模组厂商。

除了付款方式上的强硬,野村证券在最新的客户报告中明确指出:“闪迪用于企业级SSD的NAND报价,在3月份期间可能环比上涨超过100%。”

目前尚不清楚企业级产品价格翻倍将在多大程度上波及消费级市场,但野村证券警告称,由于智能手机和PC使用的3D NAND与企业级芯片产自同一晶圆厂,通常情况下,消费级产品价格会跟随企业级产品上涨。


📌 转载信息
原作者: ubert
转载时间: 2026/1/11 23:08:07

我推荐的食用方法:
根据 PPT/PDF 生成对应的思维导图 & 闪卡 & 测验
具体步骤为
1,先根据思维导图进行学习,不会的就点击思维导图的某个部分
2,然后再利用闪卡巩固记忆
3,在纸上记一下重点内容,消化吸收
4,做一下测验,完成最后的验收
过程大约半个小时,可以保证知识 90~100%(因人而异,我基本是 100%)的掌握
至少生物是这样的




📌 转载信息
转载时间:
2026/1/11 19:29:29

很早前就遇到 feadback-mcp 失败的问题了
也测试了大佬们的三术和寸止好像都会出现问题
不知道是我配置的问题,还是什么原因,猜测可能是 wf 对 mcp 工具的描述进行了检测?
所以我 fork 项目给提示词都换成 "变形金刚" 了,好家伙,现在我是可以正常用了,佬友们也可以试试看艾


📌 转载信息
转载时间:
2026/1/11 19:28:34

RenewHelper 迎来发布以来最大规模的升级 ——v2.0 版本

除了完善的多渠道通知提醒以外,本次更新重构了核心逻辑,引入了多币种汇率自动换算、支出趋势分析、历史账单管理。无论你是管理几台 VPS,还是几十个订阅,v2.0 都能让你对每一笔数字支出如指掌。


v2.0 核心亮点:三大维度升级

1. 财务看板:钱花在哪里,一目了然

v2.0 不再只是告诉你 “什么时候过期”,而是告诉你 “花了多少钱”。

  • 多币种自动汇率换算

  • 功能:支持 USD, CNY, EUR, GBP 等主流货币。系统接入了免费的汇率 Frankfurter API(该 API 服务也支持用户自建),并利用 KV 缓存机制优化性能,每天自动更新汇率。

  • 体验:你购买的是美元支付的服务器,是日元支付的游戏会员?没问题。系统会自动将它们换算为你设置的 “默认币种”(如 CNY),并统计总资产规模。

  • 双模式支出分析 (Dashboard)

  • 点击首页的 “视图切换” (View Switch)“支出分析”,你将看到全新的可视化图表。

  • 账单金额模式 (Bill Amount):按服务的订阅周期统计,包含开启了自动续费的未来预测账单统计,适合做预算规划。

  • 实际支出模式 (Actual Cost):按你实际付款的操作日期统计,适合查看每月的现金流压力。

  • 交互式图表:支持查看 “月度趋势” 曲线、“月度平均支出” 和 “年度汇总” 柱状图,也可以点击某个月份查看当月的详细消费明细。

2. 账单管理:全生命周期记录

以前的版本只记录 “下一次到期日”,v2.0 开始记录每一次 “续费历史”。

  • 完整的续费历史 (Renewal History)

  • 现在,你可以为每一个服务记录无限条历史账单。

  • 补录功能:老用户的福音。点击服务菜单中的 “历史记录” → “+”,可以补录过去几年的续费记录,系统会自动计算历史总花费。

  • 智能续费:点击 “手动续期” 时,系统会自动根据你的周期设置(如:月付、年付、农历周期)预填充开始和结束日期,并自动填入价格。

  • 未来账单预测 (Upcoming Bills)

  • 左上角的 铃铛图标 变得更聪明了。

  • 它不仅显示即将到期的服务,还会根据你的 “自动续期” 设置,预测未来 N 天内需要支付的金额总和。

  • 自定义阈值:你可以在设置中调整 “待付款提醒天数”(默认为 7 天),提前规划资金。

3. 体验与部署:更自由,更强大

  • 高级筛选器 (Smart Filters)
  • 服务太多找不到?v2.0 增加了强大的筛选栏。
  • 按状态:已过期、n 天内到期、30 天内到期。
  • 按稳定性:新服务 (<30 天)、长期服务 (>1 年)。
  • 按标签:点击标签即可快速聚合查看。
  • 自动更新:支持 Watchtower,镜像更新后自动拉取,保持最新,懒人福音。
  • 自定义通知标题:现在的推送通知(Telegram, PushPlus 等)支持自定义标题。你可以把它改为 “我的财务日报” 或任何你喜欢的名字,让提醒更具个性化。


v2.0 快速上手教程

如果你是新用户且想一次部署并保持更新建议按 README 中,方式三:GitHub Actions 部署并启用 sync 上游同步(注意必须设置完 secrets 才会部署成功)。

场景一:从 v1.x 升级与数据迁移

如果你是老用户,更新代码后,可能会发现很多项目没有历史账单数据。

  1. 部署新代码:将 _worker.js 替换为 v2.0.20 版本。
  2. 数据迁移工具
  • 进入 设置 (Settings)数据管理
  • 点击 “升级旧数据 (Migrate Old Data)”
  • 作用:系统会自动扫描所有旧项目,根据它们当前的 “上次续费时间” 和 “周期”,自动生成一条初始的账单记录。这能让你立刻看到财务统计数据,而无需手动一个个添加。(除了手动操作,系统也每日会自动扫描并提醒一次)

场景二:如何记账?

假设你刚续费了一台年付 $50 的 VPS。

  1. 在列表中找到该 VPS,点击 “手动续期” (Renew) 按钮。
  2. 系统会弹出对话框:
  • 续费日期:自动填入今天。
  • 账单周期:自动根据去年的结束日期往后推算一年(例如 ),无需手动计算。
  • 金额:自动填入预设的 $50(你也可以根据实际修改金额)。
  1. 点击 “确认”
  2. 结果:服务的 “到期日” 自动更新,同时在后台生成了一笔历史账单。你的 “支出分析” 看板中,今年的支出会自动增加 $50(对应的汇率换算金额)。

场景三:查看 “我今年在订阅上花了多少钱?”

  1. 点击主界面右上方的 “视图切换”,选择 “支出分析”
  2. 在右侧的 “年度汇总” 区域,你将看到本年度的总支出柱状图。
  3. 点击 “2026” 柱状条,左侧的趋势图将展示 2026 年每个月的消费分布。
  4. 看一眼左上角的数字,那就是你今年的 “订阅总账单”。


Docker 部署指南 (支持自动更新)

对于不想依赖 Cloudflare Workers 的用户,现在可以直接使用 Docker compose 部署:

services:
  renewhelper:
    image: ieax/renewhelper:latest
    container_name: renewhelper
    restart: unless-stopped
    ports:
      - "9787:9787"
    volumes:
      - ./data:/data
    environment:
      # 1. 设置登录密码
      - AUTH_PASSWORD=admin
      
      # 2. 设置 Cron 定时任务 (Cron 表达式)
      - CRON_SCHEDULE=0,30 * * * *
      
      # 3. 容器时区 (影响日志和本地时间计算)
      - TZ=Asia/Shanghai

  # 若需自动更新保留以下watchtower配置
  watchtower:
    image: containrrr/watchtower
    container_name: watchtower
    restart: unless-stopped
    volumes:
      - /var/run/docker.sock:/var/run/docker.sock
    command: --interval 86400 --cleanup
    environment:
      - TZ=Asia/Shanghai

  • 数据持久化:建议挂载 /app/data 目录以保存 KV 数据。
  • 多架构支持:镜像支持 amd64 和 arm64。


结语

RenewHelper v2.0 不仅仅是一个记录工具,它试图解决的是数字时代的 “订阅焦虑”。通过自动化的计算、清晰的图表和精准的提醒,它让你从被动的 “等待扣费”,变为主动的 “财务掌控”。

立即升级,开启你的订阅资产管理 2.0 时代!

项目地址: GitHub - RenewHelper
演示站地址https://lostfree.de5.net
演示站密码:demo
演示站千万不要保存你推送渠道的各种 TOKEN 和 API KEY!!!
代码完全开源,MIT 协议。
如果觉得好用,求大佬们给个 Star 支持一下!
有 Bug 或建议欢迎提 Issue 或在楼里反馈。


📌 转载信息
转载时间:
2026/1/11 19:28:23

这是一款通过 Vibe Coding 完成的项目。想法来源于在做毕设的时候迭代我自己项目里的提示词,然后辗转 Gemini 和 GPT 复制修改,感觉非常的不方便,所以冒出了这个项目开发的想法。
论坛里也看到有佬友实现 / 开源了,但是似乎后续也没有跟进,目前我这个项目应该至少会在近半年以内跟进更新一些需要的功能。以及现在 V1.0 也是还有一些功能没实现,近段时间会先慢慢补全。
项目链接~
具体的操作流程:
config/providers.example.yaml 内配置好 API 和 URL(目前只支持 OPENAI 格式,也是有待继续开发)之后删除.example 即可使用
设置栏里可以自行配置增加模型,也可以修改提示词
后端使用 FastAPI,端口默认 8000,配备了启动脚本,会默认清理一些端口,如果有需要避免的问题可以自行修改。
欢迎大家提 issue 和 pr~ 有什么问题也欢迎在评论区指出~
以下是效果展示:


📌 转载信息
转载时间:
2026/1/11 19:28:02

很多佬友都想购买一个心仪的服务器,但是市面上太多了,不知道该如何下手,我就来简单推荐一些各个地区常见的线路机器 / 落地机器 / 家宽机器,包含 MJJ 常用的主流机器和评价不错的服务商,你可以通过这个来简单筛选适合自己的机器

  • 线路机器:拥有 CN 大陆方向的优化线路机器,延时低稳定性高
  • 落地机器:国际互连优秀 / 流媒体解锁优秀的机器,注意:落地适合与否和 ip 质量并无关系
  • 家宽机器:IP 质量优秀的机器,不容易被风控

叠个甲:一般说不要轻易随便给别人推荐机器,因为大家的本地网络情况大不相同,有些地区舒服的机器有些地区就是不行,这个没什么办法,网络实在是太复杂,所以这个推荐你可以看成是一个概率推荐,即最有可能最多人满意的机器,本推荐也会着重说明机器的缺点而不是优点,因为优点总是能找到的,但缺点往往是致命的、可以影响决策的。VPS 信息繁琐,这个推荐注定是要多次修改的,也欢迎大家指出问题分享体验,常看常新~

本文无 AFF,有必要说明的是:建站机器的推荐将会缺失,因为我真的不玩建站机器,什么斯巴达 /ovh/netcup 都用的不多,就不强行推荐了。当然了,如果你不知道线路 /ip 质量,或许你可以看看常见线路的科普IP 质量检测方法

本文最后更新于 2026/1/11,测评与推荐结果在此日期附近有较强参考性,原文链接

HK (香港)

HK 因为常年被 ddos 攻击,线路质量非常不稳定,防御成本高昂,绝大部分商家的 HK 线路机器都是搞的一地鸡毛,最后只剩下几家高端机器,HK 廉价线路机器基本不存在了 (除了小口子 10Mbps 这种),电信联通基本没有便宜的 HK 机器了,移动还能玩玩一些移动快乐机。不过作为亚太的中转核心,有需要的还是有必要买一台强力的 HK 线路机,拉 TW/SG 都是很好的选择。

线路机器

Gomami (狗妈咪)

三网各自顶级优化 (CTGGIA/9929/CMIN2) 的 HK 线路机器,单线程轻松稳定 500Mbps + 甚至 1Gbps (移动上行 qos 严重伴随断流,下行正常),国际互连优秀;ip 质量还不错,流媒体基本解锁,完全可以直出;机器性能非常强劲,恐怖如斯。毫无疑问,如果你能接受它的价格,它就是 HK 的顶端机器。

缺点:移动上行低 (直播等需要大量上传的移动用户慎选)

常见产品线:

  • HKG.Turin.Mini:2C4G 100GB 1T 单向 / 月 2Gbps 69 刀 / 月
  • HKG.Pulse.Mini:2C4G 40GB 1T 单向 / 月 1Gbps 49 刀 / 月

Gomami 详细测评

Neburst (奶爸)

三网各自优化 (高 q163/10099/CMIN2) 的 HK 线路商家,电信联通的表现都相当优秀,上下行单线程都有稳定 500Mbps+,但移动去程主干 CMI 表现相当一般,非晚高峰都 q 的厉害,长时间上行都达不到 100Mbps 还伴随断流,不适合需要上传 (直播) 的用户,回程 CMIN2 倒是极致,随便跑到 500Mbps+;ip 质量不错,直出完全够用无需落地,国际互联也很强力;7Y43 的 CPU 性能不错,较为强劲,大部分应用都能满足了。相比起 Gomami 而言,这个机器相当便宜起步价低。

缺点:移动上行低 (直播等需要大量上传的移动用户慎选)

常见产品线:

  • Hong Kong (HKG):1C1G 20GB 500GB (单向)/ 月 55.92 刀 / 季

Neburst 详细测评

DMIT (大妈)

三网 CN2GIA 优化,电信用户很舒适,联通移动也不错 (虽然二者面临跨网延时会偏高),单线程电信用户可以跑到 300-500Mbps,联通 300Mbps+,移动也有 300-500Mbps+,速度都是比较极致的;ip 质量不错,直出完全够用无需额外落地,国际互联比较不错;机器性能较为强劲,绝大部分应用可以满足。

缺点:联通移动跨网延时可能会略微升高 + 近期被 ddos 攻击导致不稳定

常见产品线:

  • HKG.Pro.Victoria (维多利亚):1C2G 60G 800G (双向)/ 月 298.88 刀 / 年

DMIT 详细测评

RFCHOST (花卷科技)

三网各自优化 (高 q163/10099/CMI) 的 HK 线路商家,电信相当极致,晚高峰单线程上下行 500Mbps,联通去程部分地区 (济南) 拉跨,多次测试都卡在 100Mbps,回程 400Mbps 很极致,其他地区不错,移动少部分地区拉跨 (哈尔滨 / 沈阳 / 大连 / 天津),其他地区很极致,单线程有 500Mbps,广移都有 300Mbps;ip 质量中规中矩,该解锁的都解锁;机器性能较差。

缺点:移动部分地区爆炸 + 部分地区联通上传拉跨 + 性能较差 (不是建站的选择)+ 经常被 ddos 攻击导致不稳定

常见产品线:

  • HK-CO-Mini:1C1G 15GB 1.5T (双向)/ 月 18.9 刀 / 月

RFC 详细测评

ISIF

ISIF 的 HK 拥有两款产品线,COM (CN2/9929/CMIN2) 和 COP (高 q163/10099/CMIN2) 系列,前者对标高端机,后者对标中端机,由于这家的详细测评并没有完成,所以此处先不评价具体到某个运营商的情况,机器已在测试中,具体情况后补。

不主流但值得一看的产品

  • VMISS 的 CN.HK.BGP.DC3.Basic:20r 左右 / 月的 HK 优化 (CTGGIA/10099/CMI) 线路,虽然只有 100Mbps,虽然只有 300GB 流量,虽然联通上行 q 麻了,虽然 ip 质量一般 (甚至送中),但是只要 20r / 月啊,你看看跟上面的动辄 10 刀 30 刀的一比,是不是这些缺点都能接受了?当然了,如果你是移动单线,他家 14CAD / 年的 CN.HK.INTL 也很不错。VMISS 详细测评
  • Zouter 的 HK BGP Global - Standar:9.9r / 月的移动 + 教育网快乐机器,电联完全爆炸无法直连,但是移动 + 教育快乐让他在特定情形下是个优秀的选择,毕竟只要 9.9r (最近一个月他家被同行 ddos 打的生活不能自理了,最好过段时间再买)
  • YXVM 不做散户了,就不推荐了;Fxtransit 速度跑不起来,和价格有点不匹配;yunyoo 这类小水管 10M20M 的 CN2 就不推了,实在是食之无味弃之可惜;BWH 的 90 刀 / 月实在是太贵太贵,机器好是好,但是价格和配置严重不匹配了;technovm 的大小包高手不要跑出来吓我哈。

家宽机器

港仔

亚太顶级家宽服务商,提供 HKT/HKBN/i-Cable/CMHK/HGC 等的几乎所有 HK 家宽产品,顶级的家宽质量,标准化稳定产品,主要面向中高端用户。这个机器本身是几乎完美的,只要你能接受价格,那 HK 家宽就是这家了。

常见产品线:

  • HKT:2C2G 8GB 500Mbps (5TB 双向) 38 刀 / 月
  • i-Cable: 2C2G 8GB 1000Mbps (5TB 双向) 38 刀 / 月

港仔详细测评

kazecloud

HK 地区较大的 HK 家宽服务商,提供 i-Cable/HKBN/CMHK/HKT/HGC 等几乎所有 HK 家宽产品,顶级的家宽质量,这家主打的是 VDS,独享带宽无限流量,面板比较简陋,产品标准化和便捷性较差,相比起港仔没这么成熟,oneman 了一点,但是产品相对价格也会低点。

常见产品线:

  • CMHK FTTx VDS - 200Mbps:1C2G 10GB 200Mbps (无限流量) 38 刀 / 月
  • HKT FTTx VDS - 200Mbps:1C2G 10GB 200Mbps (无限流量) 38 刀 / 月

不主流但值得一看的产品

  • Bestvm 的香港 HGC-Special-2:价格确实是便宜其他家一大截,质量也不错,平均下来 70r / 月就有一个独立 ipHGC 家宽,流量还多。
  • Yinnet 的香港双 ISP 产品:同样的 HGC 家宽,搭配活动的 5 折券,竟然可以 5 刀 / 月买到一个独立 HK 家宽 ip,这个价格更是重量级,是真便宜啊,把价格战贯彻到底。不过这么便宜,ip 质量容易崩坏呢
  • NAT 机器 ip 质量都挺差劲的,除了港仔的 NAT 好点 (有人数限制),其他无一例外都是超售 + 不稳定的小垃鸡,什么速达云喵云诸如此类,我是不太推荐的。

落地机器

DMIT (大妈)

无优化,电信丢包绕路严重,移动联通部分地区快乐,整体还是不可直连的机器,不建议直连使用;ip 质量一般;机器性能中规中矩,大部分应用都足够使用。DMIT 有独特的超量限速不限量政策,如果流量较大的话性价比就比较高。

缺点:同段机场较多,沦为纯粹的流媒体解锁和国际互联机器,该跳盾还得跳盾

常见产品线:

  • HKG.T1.WEE: 1C1G20G 1T (单向)/ 月 超量限速 50Mbps 36.9 刀 / 年

DMIT 详细测评

RFCHOST (花卷科技)

三网不可直连,RFC 拥有 CTC+JINX 的强力上游,国际互连优秀;ip 质量一般;机器性能一般。这家最大的特点不仅是国际优秀,而且 JINX 系列还拥有免费的 DNS 解锁和 EMBY 服务 (CTC 系列没有),性价比进一步上升。

缺点:同段机场较多,沦为纯粹的流媒体解锁和国际互联机器,该跳盾还得跳盾 + 经常被 ddos 攻击导致不稳定

常见产品线:

  • T1ION-Unlimited speed-Balance:1C1G 10GB 2TB (双) 29.9 刀 / 年

RFC 详细测评

BageVM

熟悉的 CTC 上游啊,国际互连很不错啊,直连电联基本爆炸,移动相当快乐,去程能跑 500Mbps,回程也有 200Mbps,虽然 CMI 晚高峰波动大,但用还是能用的,性价比一下就很不错了;ip 质量不错,合格的落地机器;机器性能比较强劲,EPYC 7663 的 CPU,IO 也不错,可惜还是配置低,1c1g 掀不起大浪。

缺点:同段机场较多,沦为纯粹的流媒体解锁和国际互联机器,该跳盾还得跳盾 + 经常被 ddos 攻击导致不稳定

常见产品线:

  • Hong Kong Standard - TINY:1C1G 20GB 2TB (双) 3.99 刀 / 月

BageVM 详细测评

不主流但值得一看的产品

  • bestvm 的香港 BGP-Standard:akari 的机器互联拉 TW 有一手的,互联还不错,比直接从 akari 买便宜太多了
  • Nube 的国际轻量:牛肉佬的 1.6 刀 / 月的 HK 性能机器,落地互联不错,带宽大,而且按流量计费,十分灵活。Nube 详细测评
  • 剩下没想到有啥值得一看的,要么超售到爆炸要么互联差要么毫无特色,等待评论区 MJJ 补充算了

JP (日本)

JP 应该是亚太最难搞的区域,无论是线路还是落地,价格都相当高昂,大部分线路机器直出就是不错的选择了,落地机器大多也是主打国际互连的,没有那种很干净的非家宽落地机器,需要干净还得是家宽,但是家宽价格很高昂,就导致这个区域的 NAT 机器满天飞,各家的软银 NAT 其实质量都大差不差,也就是超售多少和价格的区别而已,如果你让我给你一个省钱建议:那就是别玩日本机器。(美西组一个优质线路 + 优质家宽的价格)*2 < 日本优质家宽的价格

线路机器

Gomami (狗妈咪)

三网各自顶级优化 (CTGGIA/9929/CMIN2) 的 JP 线路机器,单线程 400Mbps+(移动上行 qos 严重,下行正常),国际互连优秀,对 ip 质量没要求的可以直出;ip 质量还行,常规流媒体基本解锁,但是日本本土网站解锁很差,DMM 倒是解锁,meta 不出意外的不能用;机器性能比较强劲。整体而言是相当优秀的建站业务机器。

缺点:ip 质量差,有需要还是要套家宽 + 移动上行低 (直播等需要大量上传的移动用户慎选)

常见产品线:

  • JPN.Pulse.Nano:2C2G 40GB 500GB 单向 / 月 29 刀 / 月

Gomami 详细测评

Neburst (奶爸)

三网优化,电信双程 163pp (高 q163) 表现比较极致,联通则是双程 10099,移动去程 CMI 回程 CMIN2。电信表现都相当优秀,上下行单线程都有稳定 300Mbps-400Mbps,联通速率偏低但也还行,移动去程主干 CMI 表现相当一般,非晚高峰都 q 的厉害,长时间上行都达不到 100Mbps 还伴随断流,不适合需要上传 (直播) 的用户,回程 CMIN2 倒是极致,可以跑到 300-500Mbps+;ip 质量不错,直出基本够用,无需落地 (解锁有点混合,ip 地区还没更新,有 US 解锁有 JP 解锁),当然很多 JP 专属的流媒体解锁失败,国际互联也很强力,无需求可以直出;机器性能比较强劲。整体而言是相当优秀的建站业务机器。

缺点:ip 质量差,有需要还是要套家宽 + 移动上行低 (直播等需要大量上传的移动用户慎选)

常见产品线:

  • Tokyo (NRT):1C1G 20GB 500GB (单向)/ 月 55.92 刀 / 季

Neburst 详细测评

DMIT (大妈)

三网 CTGGIA 的线路 (CTGGIA 和 CN2GIA 基本无差异,CN2GT 才是比较烂的),IPV6 可以直连,电信单线程基本可以跑到 500Mbps,移动联通基本也有 300~400Mbps,三网都很不错。ip 质量中规中矩;机器性能比较强劲。

缺点:ip 质量一般,有本土流媒体需求还是要套家宽 + 联通移动跨网延时可能会略微升高 + 近期被 ddos 攻击导致不稳定

常见产品线:

  • TYO.Pro.Shinagawa (品川):1C2G 60G 840G (双向)/ 月 199.99 刀 / 年

DMIT 详细测评

RFCHOST (花卷科技)

去程回程优化的 JP 线路,高 q163+10099+cmi,实测下来电信上行 (去程) 确实是优化,但是这个优化也仅仅到不丢包而已,去程并不算优秀,多次测试都卡在 50Mbps,下行很极致,有 400Mbps,联通上下行都很极致,单线程 400Mbps + 低重传,移动大部分地区比较优秀,单线程有 300Mbps,少部分地区拉跨,丢包丢飞了,在这些地区 (查看详细测评中的 ITDOG 可见) 的用户需要慎重考虑上车;ip 质量很差,送中 + 大量流媒体被 ban,要靠 DNS 解锁救一下了;机器性能中规中矩。

缺点:ip 质量差,有需要还是要套家宽 + 电信上行低 (直播等需要大量上传的移动用户慎选)+ 部分地区移动爆炸

常见产品线:

  • JP2-CO-Micro:1C0.5G 10GB 1T (双向)/ 月 10.40 刀 / 月

RFC 详细测评

不主流但值得一看的产品

  • ISIF 的 COM 系列:三网优化机器,应该是对标中端机器,经常看到 MJJ 说它家 JP 速度不行,我因为并没有长期使用,而且这家的详细测评并没有完成,所以此处先不评价具体到某个运营商的情况,先挖个坑,机器已在测试中,具体情况后补。
  • Bagevm 的 Japan Standard:3.99 刀 / 月,2T 双向 / 月,本质上是一台落地机器,流媒体解锁比较完整,同段机场多导致 ip 质量差,线路方面是三网软银,神就神在这个机器联通移动基本快乐,联通可以跑 1000Mbps 上下对等,移动也有 300Mbps 上下对等,电信晚高峰爆炸丢包用不了,联通移动依旧比较快乐,作为一个落地还送线路,它真的我哭死。BageVM 详细测评
  • 绿云软银:绿云三网软银线路表现和 BageVM 差不多,都是移动联通比较快乐,电信爆炸,这家的机器我没有持有过,也没有太关心,因为 MJJ 用的很多,所以加进来了,评价实在是不知道怎么评价,先空着吧…
  • 小秘书的 Gen2:没有持有过,看测试和 MJJ 的评价来看是一台三网极致的高端机器,正价高昂,活动款溢价夸张,正常来说我觉得这个应该在上面,不过没有进行过详细测试而且 MJJ 持有量也并不大,不主流,所以放在这个板块里。
  • Nube 的 JP 国际优化:1 刀 / 月起步的日本三网直连 + 性能强劲机器,直连的电联 IIJ + 移动 softbank,三网延时都很好看,实测下来电信基本只有 50Mbps,联通移动倒是很不错,有 200~300Mbps 的速度,值得注意的是:IIJ 和 softbank 晚高峰波动较大,时不时会断流卡住,这个机好就好在价格上,它才要 1 刀… 小流量用户福音啊。Nube 详细测评
  • VMISS 的 JP.TKY.TRI:JP 地区的三网优化 (CTGGIA/10099/CMI),12CAD 也就是 60r / 月,平常有 8 折活动入手就是 50r 左右每月,口子偏小只有 100Mbps,流量倒还行,在 JP 地区三网优化这个价格很不错,个人使用完全足够,也可以作为过渡时期的机器。网络质量比较优秀,三网基本都能跑满 95Mbps,带宽冗余不错,部分地区有丢包 (例如深电),大部分地区稳定低重传;ip 质量中规中矩;机器性能较强,EPYC-Milan 的 CPU 基本够用。VMISS 详细测评
  • Skyline 的 JP 产品:正价性价比一般,活动款 12.5 刀 / 年一下就很有诚意了,1T 流量 / 月联通移动快乐机 (虽然产品名叫中国路由优化,实际上电信基本用不来了的,丢包太猛),流媒体解锁基本完整,meta 送中了用不了;机器性能羸弱。
  • BWH 好是好,但是 90 刀 / 月的售价未免有点太夸张了… 并非主流产品,你要是说的是那个 CMI 樱花盒子就拉倒吧

家宽机器

SOSOSO

老牌 JP 家宽商家了,提供 Rakuten (乐天)/Biglobe/KDDI/sony 等多种家宽,包含独立 IPV4/NATIPV4 / 独立 IPV6-only 等多种产品,各种产品常年缺货,工单 /tg 响应都非常快,比较特色的是这个商家是有 SLA99 保证的,不达标会免除费用 (低于 99% 免除 50%,低于 95% 免除 100%),少数的家宽机器提供稳定性保障的商家,独立 ip 的家宽质量非常不错,但是共享 NAT 质量有点一眼难尽了,大部分都有送中的现象导致 google 系使用不了,总体而言还是非常不错的商家。

缺点:NAT 机器送中严重

常见产品线:

  • 日本 A 区独立 IPV6 + 共享 NAT:1C0.5G 7GB 1T (双向)/ 月 9.99 刀 / 月
  • 日本乐天独享:2C4G 30GB 20T (单向)/ 月 99 刀 / 月

Radonet

也是老牌 JP 家宽商家了,提供 UCOM/NURO/Rakuten/KDDI/So-net/ 甚至还有星链等多种家宽,部分产品自带 DNS 解锁分流防止送中,产品整体价格较高,ip 质量优秀,机器性能中规中矩。你能接受价格的话,这家是个不错的选择。注:这家可以全额退款 (只要你对服务不完全满意,但不一定成功)。

常见产品线:

  • NURO M Package:2C4G 20GB 10T (双向)/ 月 50 刀 / 月
  • Starlink Shared Package:1C1G 10GB 1.5T (双向)/ 月 25 刀 / 月

港仔

港仔在 JP 地区的新产品线,主营 CPE 4G/5G 蜂窩網絡 Mobile 4G/5G 产品,包含 KDDI/NTT/Rakuten/SoftBank 等产品,ip 质量优秀,也是少数直接可以购买蜂窩網絡 VPS 的商家,相当不错,就是起步价格较高,面向高端用户了。

常见产品线:

  • KDDI/au 5G Mobile VPS:2C2G 8GB 1T (双向)/ 月 98 刀 / 月
  • Rakuten 5G Mobile VPS:2C2G 8GB 1T (双向)/ 月 98 刀 / 月

学长网络

这个商家相对 oneman 一点,提供 Softbank/biglobe 的便宜量大 NAT 机器,还有樱花 / GMO 的机器代开,ss/vmess/socks5 屏蔽了国内方向,多次收到反馈说机器速度达不到标称,风评两极分化,应该是超售严重导致的,最好就不要当成直连机器了,本土内基本都跑不满,晚高峰波动严重,毕竟价格便宜,只能说是一分钱一分货了。还有,有几个大户也和我说它家独享机器速度不达标,让我怀疑到底是超售问题还是网络架构问题了… 这家机器正在测试,详细测评后补

缺点:稳定性一般,超售严重 + 速度不达标

常见产品线:

  • 软银 SoftBank-nat 机:1C0.5G 3GB 1T (双向)/ 月 35r / 月
  • Biglobe 家宽 nat:1C0.5G 5GB 2T (双向)/ 月 35r / 月

不主流但值得一看的产品

  • AaiTR 的软银 NAT:30r / 月的 JP NAT 机器,超售相对不严重,因为要实名验证… 光看机器还是划得来的,就是这个实名有点搞…
  • lala 的代开服务:有独享软银家宽产品和 GMO / 樱花 / Webarena 代开服务,就是服务费有点高,其家宽产品我没持有过,我对它家的印象只剩下它家常年通报的各种专线机器了
  • tokyoonline:提供 sonet/KDDI 的家宽产品,对于小户而言价格较贵,对于大户而言就比较便宜,不过这家的 ip 长年累月的被大户蹬,现在已经不太行了
  • zorocloud 的 GLBB 家宽:价格中档的 GLBB 家宽产品,也是少数几家提供 GLBB 家宽的服务商,ip 质量还行,这个是真家宽啊,不是伪家宽,测了下流媒体本土解锁不错,这个应该是所有家宽里独立 ip 最便宜的,但是延时偏高而且他家有多次被 MJJ 冲烂 IP 的前科导致 IP 不稳,所以放在这个板块里,
  • AWS Wavelength:极少数人的选择,ip 池子是真干净,贵也是真贵,它是真的贵啊

落地机器

RFCHOST (花卷科技)

电信联通 IIJ + 移动软银线路的落地机器,直连情况下:电联晚高峰丢包严重,几乎不可用,移动相当快乐,低重传单线程能到 200~300Mbps,相互不错。这个机器的优秀之处在于国际互连,接入 IIJ + 软银 + NTT 等多线的组合相当炸裂,JP 落地互联的相当棒的选择;ip 质量出乎我意料的居然还不错,配合 DNS 解锁更好;机器性能中规中矩。

缺点:同段机场较多,沦为纯粹的流媒体解锁和国际互联机器,该跳盾还得跳盾 + 经常被 ddos 攻击导致不稳定

常见产品线:

  • JP2-T1ION-Balance:1C0.5G 10GB 1TB (双) 29.9 刀 / 年

RFC 详细测评

BageVM

SAKURA 上游,国际互连很不错啊,这款机器三网软银回程,JP 地区相当有性价比的回程,电信就爆炸了,但是联通移动基本快乐,联通可以跑 1000Mbps 上下对等,移动也有 300Mbps 上下对等这个机器,而且这个机器我持有很久了,相当不错啊,联通晚高峰多线程可以跑到 900Mbps,一个落地还送线路他真的我哭死,联通好机这就是;ip 质量不错,合格的落地机器;机器性能比较强劲,小型应用随便跑,CPU 不会成为瓶颈,可惜总体还是配置低,1c1g 掀不起大浪,能加到 2c4g 这就是建站神机啊。

缺点:同段机场较多,沦为纯粹的流媒体解锁和国际互联机器,该跳盾还得跳盾 + 经常被 ddos 攻击导致不稳定

常见产品线:

  • Japan Standard - SMALL:1C1G 10GB 2TB (双) 3.99 刀 / 月

BageVM 详细测评

DMIT (大妈)

无优化线路,电信联通基本不可用,移动部分地区快乐,整体还是不可直连的机器,不建议直连使用,国际互连不错;ip 质量一般;机器性能中规中矩,大部分应用都足够使用。DMIT 有独特的超量限速不限量政策,如果流量较大的话性价比就比较高。

缺点:同段机场较多,沦为纯粹的流媒体解锁和国际互联机器,该跳盾还得跳盾

常见产品线:

  • TYO.T1.WEE: 1C1G20G 1T (单向)/ 月 超量限速 50Mbps 36.9 刀 / 年

DMIT 详细测评

不主流但值得一看的产品

  • Fxtransit 的大流量落地:ip 质量一搬,但是国际路由优化不错,它家的回国是个动态路由啊,有时候直有时候绕路,推荐当成纯落地用,虽然官方标注了超量限速不限量,实际上超量后基本达不到标称,如果你是看重超量后的带宽劝你慎重,不超量倒是速度倒是拉满
  • yunyoo 的量大管饱 iij:10r/T 站起来蹬 (这家正在详测,测完后补其他信息)
  • 想了一圈好像没啥别的特殊的落地了,backwave 的单线 GSL 国内又绕路没啥优势,Nube 的 1 刀 / 月起手 + 10r2T 流量还行,还有一批 wap/aki/alice 的便宜小拉机网路波动大,以后再慢慢补充吧

📌 转载信息
原作者:
STALK
转载时间:
2026/1/11 19:27:58

官方链接

Cloudflare One

dash 控制面板登录

目的

  • 搭建 3xui 的 vless + ws + tls 后,使用 Gemini 的过程中容易访问失败
  • 基础 warp 容易遇到质量差的问题,出现风控的问题
  • 隐藏真实的 ip

Teams 注册

  • 登录 cf 的 Zero Trust 之后,选择 cf one plan 计划
  • 50 个的 warp 用户是免费的,但是需要有 visa 卡,我这里用的是 bybit 的卡 → 首次会直接扣 0 美元,所以要保证卡的可用
  • 填写的团队网站会指向这里,后续也可以修改

warp 登录规则

入口

规则填写

  • 说明:规则一般都是做限制注册用的,所以我这里的规则就是 使用邮箱 → value 是我的邮箱信息 (完整的)

服务器配置

官方的 warp-cli 下载教程

官方注册

  1. 使用一个能够打开网页的机器,并打开以下链接
    https://{team-name}.cloudflareaccess.com/warp
    
  2. 填写相关信息之后,会到达该页面,并使用 f12,选择 图中的元素位置,需要 获取的是 com.cloudflare.warp://xxxxxx

邪修注册

链接

Sign in ・ Cloudflare Access

方法

  1. 输入对应的 team-name 和账号信息

  2. 之后会有 Team Token

  3. 前面拼接以下内容即可

    com.cloudflare.warp://{team-name}.cloudflareaccess.com/auth?token={team-token}
    

回到服务器上,输入 warp-cli registration token com.cloudflare.warp://{team-name}.cloudflareaccess.com/auth?token={team-token},会显示 Success 即可。 此时,会进行账号注册,显示在

到达 one.dash 页面上,点击 Device Profiles 选项,会有一个 Default 默认配置,点击 config 进入配置信息页面,并打开以下配置之后下拉到最底进行保存

  • Mode switch
  • Service mode 选择 Proxy mode [默认会走端口号 40000]



佬友的指正
设备隧道协议要选 MASQUE,才能开启代理模式,最好也提醒大伙儿一下
以及建议用 curl --socks5 127.0.0.1:40000 https://cloudflare.com/cdn-cgi/trace 来测试,因为这样能清楚的看到是否有 warp=plus 结果(原来 team 是走的 plus 哎)


回到服务器上,输入 warp-cli settings,会有一大堆配置信息。等待出现显示为
(network policy) Mode: WarpProxy on port 40000
说明 warp 注册完毕。输入 warp-cli connect, 链接服务。

验证

服务器输入: curl -x socks5://127.0.0.1:40000 ifconfig.me 得到 非本机 ip 地址,说明配置完毕

3xui 配置 warp

  1. 进入 3xui 面板,选择 Xrap 设置
  2. 直接选择高级配置
  3. 找到 outbounds 这个 dict,并输入以下配置信息 [port 就是 warp 的端口号]
    {
          "tag": "WARP",
          "protocol": "socks",
          "settings": {
            "servers": [
              {
                "address": "127.0.0.1",
                "port": 40000,
                "users": []
              }
            ]
          }
        }
    
  4. 找到 routing.rules 这个 list,并输入以下配置,让服务直接走 warp 即可
    { "type": "field", "outboundTag": "WARP", "domain": [ "geosite:google", "geosite:youtube", "geosite:openai", "geosite:netflix", "geosite:disney", "gemini.google.com" ] 
  5. 保存,并重启 Xray,即可

📌 转载信息
转载时间:
2026/1/11 19:27:55