Codex 分享 - 2026-01-12
base_url = “https://crs.yierbubu.ggff.net/openai”
xiaohack博客专注前沿科技动态与实用技术干货分享,涵盖 AI 代理、大模型应用、编程工具、文档解析、SEO 实战、自动化部署等内容,提供开源项目教程、科技资讯日报、工具使用指南,助力开发者、AI 爱好者获取前沿技术与实战经验。
base_url = “https://crs.yierbubu.ggff.net/openai”
开发缘由:
参考:
https://linux.do/t/topic/1427584
功能:
自动同步 Gemini 主题与系统主题,防止页面加载时主题突变
// ==UserScript==
// @name Gemini 主题同步助手
// @namespace http://tampermonkey.net/
// @version 1.0
// @description 自动同步 Gemini 主题与系统主题,防止页面加载时主题突变
// @author Assistant
// @match https://gemini.google.com/*
// @run-at document-start
// @grant none
// ==/UserScript==
(function() {
'use strict';
// 防止在 iframe 中运行
if (window.self !== window.top) {
return;
}
// ==================== 配置常量 ====================
const THEME_KEY = 'Bard-Color-Theme';
const DEBUG = false; // 设为 true 可开启调试日志
// ==================== 工具函数 ====================
/**
* 调试日志输出
* @param {...any} args - 日志参数
*/
function log(...args) {
if (DEBUG) {
console.log('[Gemini主题同步]', ...args);
}
}
/**
* 获取系统主题是否为深色模式
* 使用 CSS Media Query API 检测系统级别的主题偏好
* @returns {boolean} true 表示系统为深色模式,false 表示浅色模式
*/
function getSystemThemeIsDark() {
try {
return window.matchMedia('(prefers-color-scheme: dark)').matches;
} catch (e) {
// 如果 matchMedia 不可用,默认返回 false(浅色模式)
log('matchMedia API 不可用,默认使用浅色模式');
return false;
}
}
/**
* 解析存储的主题值,判断是否为深色模式
* Gemini 的主题值通常包含 "Light" 或 "Dark" 字符串
*
* @param {string} value - localStorage 中存储的主题值
* @returns {boolean|null}
* - true: 深色模式
* - false: 浅色模式
* - null: 无法判断(值为空或不包含可识别的主题标识)
*/
function parseStoredTheme(value) {
// 空值检查
if (!value || typeof value !== 'string') {
return null;
}
// 转换为小写进行不区分大小写的匹配
const lowerValue = value.toLowerCase();
// 检查是否包含深色模式标识
if (lowerValue.includes('dark')) {
return true;
}
// 检查是否包含浅色模式标识
if (lowerValue.includes('light')) {
return false;
}
// 无法识别的值
return null;
}
/**
* 主函数:同步主题与系统设置
*
* 逻辑流程:
* 1. 检查 localStorage 中是否存在主题设置
* 2. 如果存在,获取系统当前主题偏好
* 3. 对比两者是否一致
* 4. 不一致时删除存储的主题值,让页面使用系统默认主题
*/
function syncThemeWithSystem() {
try {
// ========== 步骤1: 读取存储的主题 ==========
const storedTheme = localStorage.getItem(THEME_KEY);
// 如果不存在存储的主题,说明页面会使用默认行为,无需干预
if (!storedTheme) {
log('未检测到存储的主题,跳过处理');
return;
}
log('检测到存储的主题:', storedTheme);
// ========== 步骤2: 获取系统主题 ==========
const systemIsDark = getSystemThemeIsDark();
log('系统主题:', systemIsDark ? '深色模式' : '浅色模式');
// ========== 步骤3: 解析存储的主题 ==========
const storedIsDark = parseStoredTheme(storedTheme);
// 如果无法解析存储的主题值,保守处理,不做任何操作
if (storedIsDark === null) {
log('无法解析存储的主题值,跳过处理');
return;
}
log('存储的主题:', storedIsDark ? '深色模式' : '浅色模式');
// ========== 步骤4: 对比并处理 ==========
if (storedIsDark !== systemIsDark) {
// 主题不一致,删除存储的值
localStorage.removeItem(THEME_KEY);
log('✓ 主题不一致,已删除存储的主题值,页面将使用系统主题');
} else {
// 主题一致,无需处理
log('✓ 主题一致,无需处理');
}
} catch (error) {
// 捕获所有异常,确保脚本不会因错误而影响页面正常加载
console.error('[Gemini主题同步] 执行出错:', error);
}
}
// ==================== 立即执行 ====================
// 在 document-start 阶段执行,确保在页面渲染前完成主题同步
syncThemeWithSystem();
})();
▎ Brown Noise Rain: SleepLoop
Sleeploop 提供专业的棕色、粉色、绿色和白色噪声,以及 70 多种高质量的雨声和自然声音。
需要 iOS 17.6 或更高版本,目前内购 SleepLoop Premium Lifetime 限免 $ 0
解锁方法:
左上角点击后弹出内购页
限时活动,购买前请确认在限免期
可以不用,但是不能没有
转载自 小声逼逼 群组
上游多个号池组成,先看看稳定性,可以的话后面再看情况开放注册,佬友们帮忙看看速度和效果
api 地址:https://api.2020111.xyz
密钥:sk-ppQKZLfWFY9flNsbpuMDT9cG38viKW3JEiVHnI6AUZ4YEFE0
模型:翻译
沉浸式翻译插件添加自定义 API 地址要写全:https://api.2020111.xyz/v1/chat/completions
Telegram 移动应用漏洞或致真实 IP 地址泄露
安全研究人员发现,Telegram 移动应用的快速代理设置链接存在潜在 IP 地址泄露风险。用户点击链接时,应用未提供警告就直接连接到指定服务器。攻击者可伪装此类链接诱使用户点击,绕过已配置的代理,暴露真实 IP 地址。该问题仅影响 Android 和 iOS 客户端,其他版本如桌面端和网页版则能安全处理链接。
Telegram 团队过去已修复类似安全漏洞,预计未来更新会调整代理链接的自动连接功能。对 IP 隐私敏感的用户建议使用系统级 VPN,以防止跨应用泄露问题。
Σ( ° △ °|||)︴
我给苹果 CMS(MACCMS)做了个 “标准 JSON 接口层”**。因为目前自带的无法满足我个人开发和使用需求,另外苹果 CMS API 一直都很神秘(你买模板 / 使用模板都好他们都加密或者需要授权啥的)。
这个项目直接按 MACCMS 数据库结构读库,把视频 / 分类 / 搜索 / 热门等数据统一用 RESTful JSON 输出,方便第三方系统、APP、小程序、前端站点、爬虫对接(合法合规前提下)或者你自己做二次开发。
通熟来说常见场景如下:
具体使用文档可以看: maccms-api/README.md at main · osscv/maccms-api · GitHub
有什么欢迎反馈 & PR 提交一下,这几天有空就更一下。
还要就是,过几天 / 2 月这样,我会开源一套安卓原生手机端 + TV 端的源码 (自己开发的基于我目前这个 GitHub - osscv/maccms-api: 一个基于 MACCMS(苹果 CMS)数据库结构 的 API 接口服务,通过直接访问数据库获取数据,并以 RESTful JSON 格式提供标准化数据接口,便于第三方系统调用或软件开发。 ) 我还在做最后优化。
别忘了给我 github 点个 Star 呗 哈哈哈。
Git Hub
有空可以帮忙支持一下小白新人
** 有能力的老板可以资助一下 LDC,球球辣 **
50LDC 即可鼓励新人
半自动化是因为 API 化失败了,所以采用开浏览器半自动化的模式了。
欢迎有实力的佬友进行调优,本人是小白,用哈基米和 Codex 写的。写得很粗糙,不要见怪。
使用方法看 README
自备一个订阅机场,clash 核心自下。配置我个人是通过 clash 右键订阅机场,打开文件,复制到 local.yaml 覆盖全部使用。运行后,本地的 clash(或者其他代理)可以关了,或者切换为规则。不要开全局,系统代理。否则两个 clash 会冲突。
邮箱注册功能来自: DuckMail
Business 登录地址:
后续登录也靠佬的前端:
运行界面:
账号密码保存在 csv 文件下:
| 功能 | 状态 | 说明 |
| 纯 API 注册 | 未实现 | Google 使用 reCAPTCHA Enterprise,纯 API 无法绕过
| 问题 | 说明 |
| IP 封锁 | 部分代理节点被 Google 封禁,程序会自动切换节点 |
| 按钮匹配不正确 | 有大概率触发点击验证和重发验证码两个按钮,但是不影响功能 |
| 页面加载慢 | 网络不稳定时页面加载较慢,可能导致超时 |
| 存在僵尸进程 clash.exe| 在后台会占用资源,可自己手动进任务管理器结束 |
更新预告:
大兵自助验证 API 已完成,完全全自动,使用方法参考市面上的 BOT,输入验证 URL 即可完成验证。这几天活动关了,等稳定了可能考虑开源给大家。
可以在这里分享需要频繁定制的个性化 clash 规则.
其实我开始是想做一个 clash 配置管理中心,不过刚刚立项,就和 RyanVan 佬的项目 https://ryan-ai.de 撞车了,然后人家完成度已经很高了,就不是很有必要再折腾一遍.
不过我这里还是有一个比较好的功能点是可以结合起来用的.
这个小功能可以按照 clash 的 rule-provider 规范 (参见规则集合内容 - 虚空终端 Docs) 定义规则提供者
比如我定义的这个:
https://cr-hub.jsonsong.top/rules/ai-us
是我目前在使用的,需要走美国家宽的路由规则.
其他规则我一般是走 hk.
使用方式是,定义 rule-provider 和指定分组
支持输入作者名,ISBN,
https://zh.zlib.li/
先直接上链接。GitHub repo: GitHub - haddock-development/claude-reflect-system: Self-improving skills system for Claude Code - learn from corrections, never repeat mistakes
什么是 Reflect skill ?
核心逻辑是让 AI 在反复的对话过程中,能够 “记住” 你的偏好和纠错,从而实现自我进化相关的其它 Skills。
常见的实现方式?
手动 / 自动
Reflect skill 的简单实例
直接看这个片子。https://youtu.be/-4nUCaMNBR8?si=jIUlnm7KuJ6GXjcQ
里面提到了 Authentication 模块忘了使用 SQL injection。 Reflect skill 可以从当前的 code review skill 的对话里面,抽取相关的纠正,完善 code review。原文提到 corrections the signal。
自动化程度可调节(参考 Github repo)
如何自动化?
自动化的流程是一个 cloud code hooks,在一个对话停止之后,它会自动执行一个 shell 脚本。
此外,这个功能可以打开或者关闭。
在人工智能技术以指数级速度迭代的当下,技术知识的半衰期显著缩短,传统的教育体系往往难以跟上工业界的步伐。Datawhale 作为成立于 2018 年的专注于 AI 领域的开源组织,其 “For the Learner” 的核心价值观不仅是一种口号,更是一种应对技术变革的系统性方法论。该组织通过汇聚具备开源与探索精神的理想主义者,构建了一个去中心化、高响应速度的知识生产与传播网络。
对于渴望成为大模型(Large Language Model, LLM)应用开发工程师或智能体(Agent)开发者的学习者而言,Datawhale 提供了一个独特的生态位:它既不完全等同于学术界的纯理论研究,也不同于商业公司的封闭技术栈。Datawhale 的项目矩阵通常呈现出 “元认知” 的特性 —— 不仅教授如何使用工具,更深入工具背后的原理与设计哲学。通过对 Datawhale 开源仓库的全面梳理,我们可以清晰地通过其项目演进看到 AI 工程化范式的转移:从早期的模型训练(Training-centric),过渡到以提示工程(Prompt Engineering)为核心的应用开发,最终演进至 2024-2025 年爆发的智能体(Agentic)系统构建。
本报告旨在为学习者规划一条详尽的进阶路径,该路径严格基于 Datawhale 的开源项目构建,旨在培养具备 “全栈 AI 思维” 的工程师。一个合格的大模型 / Agent 应用开发工程师,其能力图谱已发生根本性重构:
本报告将摒弃版本过旧或简单的搬运类项目,聚焦于 Datawhale 生态中具备系统性、原创性及前沿性的核心仓库,规划出一条长达数千小时的深度学习路线。
任何复杂的 Agent 系统,其原子单元皆为单次的大模型调用。因此,理解如何与模型高效沟通,即 “提示工程”,是所有后续开发的基石。Datawhale 在此领域提供了两套互补的 “教材”,分别侧重于交互逻辑与工程落地。
llm-cookbook该项目是吴恩达(Andrew Ng)与 OpenAI 合作推出的系列课程的中文版。Datawhale 团队不仅进行了翻译,更针对中英文模型在理解 Prompt 时的细微差异进行了大量的 “本地化” 调优。这使得该项目成为了解 LLM 思维方式的最佳起点。
在这一模块中,学习者将深入探究控制大模型输出质量的底层逻辑。这并非简单的 “说话技巧”,而是一种编程思维。
从单一 Prompt 进阶到系统构建,项目涵盖了 Building Systems with the ChatGPT API 的核心内容。
messages 列表来构建对话历史(History),以及如何处理上下文窗口限制,为后续理解 Agent 的 Memory 模块打下基础。虽然 Datawhale 有更复杂的 Agent 教程,但 llm-cookbook 中关于 LangChain 的章节提供了最纯粹的原理解读。
llm-universe如果说 llm-cookbook 是注重理论的 “计算机科学导论”,那么 llm-universe 就是注重实操的 “软件工程实验课”。该项目致力于帮助小白开发者从零开始构建一个完整的、可部署的个人知识库助手。
在实际的国内开发环境中,开发者往往面临 OpenAI 访问受限或成本过高的问题。llm-universe 的一个核心贡献是提供了一套统一的接口设计模式,涵盖了百度文心(Ernie)、讯飞星火(Spark)、智谱 AI(ZhipuAI)等主流国产大模型。
LLM 基类,将不同厂商的 SDK(如 zhipuai、dashscope)封装为统一的_call 接口。这种能力对于企业级应用中实现 “模型热切换” 至关重要,也是构建模型无关(Model-Agnostic)Agent 框架的前提。RAG 是目前解决大模型知识截止和私有数据访问最成熟的技术方案。本项目通过由浅入深的实战,剖析了 RAG 的每一个环节。
为了完成工程闭环,项目引入了 Streamlit 框架。学习者不再停留于 Jupyter Notebook 的黑底白字,而是能够快速构建具备侧边栏配置、聊天气泡界面的 Web 应用。这对于展示 Agent Demo、进行用户测试(User Testing)具有重要意义。
在掌握了 API 调用与基础应用开发后,真正的专家级工程师必须具备 “打开黑盒” 的能力。理解 Transformer 架构、训练过程及微调(Fine-tuning)原理,是优化复杂 Prompt、调试模型异常表现以及进行私有化部署的前提。
hugging-llm此项目被称为 “蝴蝶书”,意在阐述微小的代码变动可能引发的模型行为的巨大蝴蝶效应。它连接了深度学习理论与 Hugging Face 开源生态。
学习者将通过该项目,梳理 NLP 从 RNN/LSTM 到 Transformer 的范式转移。
Hugging Face 已成为 AI 领域的 GitHub。本项目手把手教导如何利用 transformers 库加载开源模型。
<|endoftext|>)的处理。不同模型的 Tokenizer 实现差异(如 SentencePiece vs Byte-Pair Encoding)直接影响 Prompt 的 Token 计算与上下文窗口利用率。happy-llm该项目从更加底层的视角,剖析了大模型全生命周期的训练过程。
<Instruction, Input, Output> 格式的数据集,将预训练模型转化为 Chat 模型。这对于开发者想要在特定垂直领域(如医疗、法律)微调模型以获得更好表现极具指导意义。Reinforcement Learning from Human Feedback(RLHF)是大模型安全性的核心。虽然大多数应用开发者不需要亲自进行 RLHF,但理解其原理(奖励模型 Reward Model、PPO 算法)有助于理解模型为何会拒绝某些请求,以及如何通过 Prompt 设计规避过度的防御机制。
2024 年与 2025 年被普遍认为是 “Agent 元年”。大模型的能力焦点从单纯的文本生成(Chatbot)转移到了具备自主感知、规划、工具使用能力的智能体(Agent)。Datawhale 的 hello-agents 项目是目前开源社区中最系统、最前沿的 Agent 学习资料,是本报告的核心推荐内容。
hello-agents该项目立意高远,旨在培养 “AI Native” 的 Agent 开发者。它不仅介绍了如何使用工具,更从第一性原理出发,探讨 Agent 的本质。
学习者首先需要建立对 Agent 的科学认知。
在这一部分,hello-agents 展现了极高的教学价值:它拒绝直接使用封装好的框架,而是引导学习者用原生 Python 复现经典论文。
hello-agents 第七章 8在掌握了原理后,Datawhale 鼓励学习者造一个属于自己的轮子。这一章指导学习者构建名为 HelloAgents 的轻量级框架。
Agent 基类、ToolRegistry(工具注册表)、Memory(记忆模块)等核心组件。当单一 Agent 受限于上下文窗口或能力瓶颈无法解决复杂问题时,多智能体系统(Multi-Agent Systems, MAS)应运而生。Datawhale 通过 handy-multi-agent 和 hello-agents 的高级章节,深入探索了这一前沿领域。
handy-multi-agent该项目基于 CAMEL(Communicative Agents for “Mind” Exploration of Large Scale Language Model Society)框架,重点展示了 Agent 社会的构建。
CAMEL 框架的核心创新在于 “角色扮演”。
除了自研框架和 CAMEL,hello-agents 还深入剖析了工业界主流框架。
微软推出的 AutoGen 是目前最火的框架之一。
LangGraph 代表了 Agent 编排的另一方向 —— 基于图(Graph)。
wow-agent作为一个更轻量级的选择,wow-agent 提供了一个跨平台的视角。其中的 Zigent 模块展示了极简主义的 Agent 设计。学习者可以对比其与庞大的 LangChain/AutoGen 的差异,理解在资源受限或需要快速原型开发时如何取舍。
在掌握了单个和多个 Agent 的构建后,最后阶段将聚焦于数据的深度利用与生态互联,这是构建具备商业价值应用的关键。
wow-rag基础的 RAG(如 llm-universe 中所述)往往面临检索精度不足、多跳推理困难的问题。wow-rag 聚焦于 Advanced RAG 技术。
项目触及了最前沿的 GraphRAG 技术。利用知识图谱(Knowledge Graph)捕捉实体间的关系,解决 “跨文档推理” 难题。学习者将了解如何将非结构化文本转化为图谱,并利用图算法增强检索上下文。
easy-vectordb为了支持上述 RAG 系统,对向量数据库的深入理解不可或缺。该项目专注于向量数据库的原理与实践,填补了数据库层面的认知空白,是构建大规模知识库 Agent 的基石。
hello-agents 第 13-16 章 8学习的终点是创造。本部分提供了多个企业级复杂度的案例,涵盖了当前最热门的应用方向。
最后,学习者需完成一个完整的开源项目。hello-agents 提供了详细的指南,包括选题(如代码审查 Agent、数据分析师)、项目结构规范(src, tests, docs)、以及如何撰写 requirements.txt 和 README.md。这不仅是技术的总结,更是开源礼仪与工程规范的实战。
| 阶段 | 核心项目 | 学习重点 | 预计耗时 | 产出物 |
|---|---|---|---|---|
| P1: 基础 | llm-cookbook | Prompt Engineering, API, LangChain Basic | 20h | 翻译助手,摘要工具 |
| P2: 应用 | llm-universe | RAG, VectorDB, Streamlit UI | 30h | 个人知识库助手 (Web 版) |
| P3: 原理 | hugging-llm | Transformer, Tokenizer, Open Source Models | 25h | 本地模型推理 Demo |
| P4: 智能体 | hello-agents (Part 1-2) | ReAct, Plan-and-Solve, HelloAgents 框架 | 40h | 手写 Agent 框架,命令行工具 |
| P5: 协作 | handy-multi-agent | CAMEL, Role-Playing, Agent Society | 30h | 多智能体辩论系统 |
| P6: 进阶 | hello-agents (Part 3-5) + wow-rag | MCP, GraphRAG, Deep Research, Simulation | 50h+ | 毕业设计开源项目 |
Datawhale 的开源项目群构建了一座宏大的 “AI 工程学院”。从掌握 Prompt 这一原子能力,到构建复杂的 Agent 社会,这条路径既漫长又充满挑战。
愿这份基于 Datawhale 生态的详尽报告,能成为你在大模型与智能体开发之路上最坚实的导航图。
附录:引用项目清单
llm-cookbook: GitHub - datawhalechina/llm-cookbook: 面向开发者的 LLM 入门教程,吴恩达大模型系列课程中文版llm-universe: GitHub - datawhalechina/llm-universe: 本项目是一个面向小白开发者的大模型应用开发教程,在线阅读地址:https://datawhalechina.github.io/llm-universe/hugging-llm: GitHub - datawhalechina/hugging-llm: HuggingLLM, Hugging Future.happy-llm: GitHub - datawhalechina/happy-llm: 📚 从零开始的大语言模型原理与实践教程hello-agents: GitHub - datawhalechina/hello-agents: 📚 《从零开始构建智能体》—— 从零开始的智能体原理与实践教程handy-multi-agent: GitHub - datawhalechina/handy-multi-agent: This is a multi agent tutorial based on the CAMEL framework, aimed at understanding how to build an Agent Society from the ground up!wow-agent: GitHub - datawhalechina/wow-agent: A simple and trans-platform agent framework and tutorialwow-rag: GitHub - datawhalechina/wow-rag: A simple and trans-platform rag framework and tutorialeasy-vectordb: GitHub - datawhalechina/easy-vectordb: 📚 从零开始的向量数据库原理与实践教程,在线阅读地址:https://datawhalechina.github.io/easy-vectordb/1月11日,供应链知情人士透露,闪迪已向部分下游客户提出了一项被业界称为“前所未闻”的供应合同:要求客户支付100%现金预付款,以锁定未来1至3年的存储芯片配额。
通常情况下,半导体供应链合作多采用分期付款或信用账期模式,闪迪此次推出的“100%全额预付”制度彻底打破了行业惯例,对买方的现金流提出了极端挑战。
尽管条款极为严苛,但在AI基础设施建设对存储设备产生“刚性需求”的背景下,部分急需扩充算力的云服务供应商不得不考虑接受这一条款。
此外,闪迪也将此类合同谈判范围扩大到了PC、智能手机及模组厂商。
除了付款方式上的强硬,野村证券在最新的客户报告中明确指出:“闪迪用于企业级SSD的NAND报价,在3月份期间可能环比上涨超过100%。”
目前尚不清楚企业级产品价格翻倍将在多大程度上波及消费级市场,但野村证券警告称,由于智能手机和PC使用的3D NAND与企业级芯片产自同一晶圆厂,通常情况下,消费级产品价格会跟随企业级产品上涨。
我推荐的食用方法:
根据 PPT/PDF 生成对应的思维导图 & 闪卡 & 测验
具体步骤为
1,先根据思维导图进行学习,不会的就点击思维导图的某个部分
2,然后再利用闪卡巩固记忆
3,在纸上记一下重点内容,消化吸收
4,做一下测验,完成最后的验收
过程大约半个小时,可以保证知识 90~100%(因人而异,我基本是 100%)的掌握至少生物是这样的
RT
其实我很疑惑为什么死了么火了这个反而没火。
还是悲伤的故事
很早前就遇到 feadback-mcp 失败的问题了
也测试了大佬们的三术和寸止好像都会出现问题
不知道是我配置的问题,还是什么原因,猜测可能是 wf 对 mcp 工具的描述进行了检测?
所以我 fork 项目给提示词都换成 "变形金刚" 了,好家伙,现在我是可以正常用了,佬友们也可以试试看艾
sso_tokens.txt
可搭配 grok2api 使用
RenewHelper 迎来发布以来最大规模的升级 ——v2.0 版本。
除了完善的多渠道通知提醒以外,本次更新重构了核心逻辑,引入了多币种汇率自动换算、支出趋势分析、历史账单管理。无论你是管理几台 VPS,还是几十个订阅,v2.0 都能让你对每一笔数字支出如指掌。
v2.0 不再只是告诉你 “什么时候过期”,而是告诉你 “花了多少钱”。
多币种自动汇率换算
功能:支持 USD, CNY, EUR, GBP 等主流货币。系统接入了免费的汇率 Frankfurter API(该 API 服务也支持用户自建),并利用 KV 缓存机制优化性能,每天自动更新汇率。
体验:你购买的是美元支付的服务器,是日元支付的游戏会员?没问题。系统会自动将它们换算为你设置的 “默认币种”(如 CNY),并统计总资产规模。
双模式支出分析 (Dashboard)
点击首页的 “视图切换” (View Switch) → “支出分析”,你将看到全新的可视化图表。
账单金额模式 (Bill Amount):按服务的订阅周期统计,包含开启了自动续费的未来预测账单统计,适合做预算规划。
实际支出模式 (Actual Cost):按你实际付款的操作日期统计,适合查看每月的现金流压力。
交互式图表:支持查看 “月度趋势” 曲线、“月度平均支出” 和 “年度汇总” 柱状图,也可以点击某个月份查看当月的详细消费明细。
以前的版本只记录 “下一次到期日”,v2.0 开始记录每一次 “续费历史”。
完整的续费历史 (Renewal History)
现在,你可以为每一个服务记录无限条历史账单。
补录功能:老用户的福音。点击服务菜单中的 “历史记录” → “+”,可以补录过去几年的续费记录,系统会自动计算历史总花费。
智能续费:点击 “手动续期” 时,系统会自动根据你的周期设置(如:月付、年付、农历周期)预填充开始和结束日期,并自动填入价格。
未来账单预测 (Upcoming Bills)
左上角的 铃铛图标 变得更聪明了。
它不仅显示即将到期的服务,还会根据你的 “自动续期” 设置,预测未来 N 天内需要支付的金额总和。
自定义阈值:你可以在设置中调整 “待付款提醒天数”(默认为 7 天),提前规划资金。
如果你是新用户且想一次部署并保持更新建议按 README 中,方式三:GitHub Actions 部署并启用 sync 上游同步(注意必须设置完 secrets 才会部署成功)。
如果你是老用户,更新代码后,可能会发现很多项目没有历史账单数据。
_worker.js 替换为 v2.0.20 版本。假设你刚续费了一台年付 $50 的 VPS。
到 ),无需手动计算。$50(你也可以根据实际修改金额)。对于不想依赖 Cloudflare Workers 的用户,现在可以直接使用 Docker compose 部署:
services:
renewhelper:
image: ieax/renewhelper:latest
container_name: renewhelper
restart: unless-stopped
ports:
- "9787:9787"
volumes:
- ./data:/data
environment:
# 1. 设置登录密码
- AUTH_PASSWORD=admin
# 2. 设置 Cron 定时任务 (Cron 表达式)
- CRON_SCHEDULE=0,30 * * * *
# 3. 容器时区 (影响日志和本地时间计算)
- TZ=Asia/Shanghai
# 若需自动更新保留以下watchtower配置
watchtower:
image: containrrr/watchtower
container_name: watchtower
restart: unless-stopped
volumes:
- /var/run/docker.sock:/var/run/docker.sock
command: --interval 86400 --cleanup
environment:
- TZ=Asia/Shanghai
/app/data 目录以保存 KV 数据。RenewHelper v2.0 不仅仅是一个记录工具,它试图解决的是数字时代的 “订阅焦虑”。通过自动化的计算、清晰的图表和精准的提醒,它让你从被动的 “等待扣费”,变为主动的 “财务掌控”。
立即升级,开启你的订阅资产管理 2.0 时代!
项目地址: GitHub - RenewHelper
演示站地址:https://lostfree.de5.net
演示站密码:demo
演示站千万不要保存你推送渠道的各种 TOKEN 和 API KEY!!!
代码完全开源,MIT 协议。
如果觉得好用,求大佬们给个 Star 支持一下!
有 Bug 或建议欢迎提 Issue 或在楼里反馈。
这是一款通过 Vibe Coding 完成的项目。想法来源于在做毕设的时候迭代我自己项目里的提示词,然后辗转 Gemini 和 GPT 复制修改,感觉非常的不方便,所以冒出了这个项目开发的想法。
论坛里也看到有佬友实现 / 开源了,但是似乎后续也没有跟进,目前我这个项目应该至少会在近半年以内跟进更新一些需要的功能。以及现在 V1.0 也是还有一些功能没实现,近段时间会先慢慢补全。
项目链接~
具体的操作流程:
config/providers.example.yaml 内配置好 API 和 URL(目前只支持 OPENAI 格式,也是有待继续开发)之后删除.example 即可使用
设置栏里可以自行配置增加模型,也可以修改提示词
后端使用 FastAPI,端口默认 8000,配备了启动脚本,会默认清理一些端口,如果有需要避免的问题可以自行修改。
欢迎大家提 issue 和 pr~ 有什么问题也欢迎在评论区指出~
以下是效果展示:
很多佬友都想购买一个心仪的服务器,但是市面上太多了,不知道该如何下手,我就来简单推荐一些各个地区常见的线路机器 / 落地机器 / 家宽机器,包含 MJJ 常用的主流机器和评价不错的服务商,你可以通过这个来简单筛选适合自己的机器
叠个甲:一般说不要轻易随便给别人推荐机器,因为大家的本地网络情况大不相同,有些地区舒服的机器有些地区就是不行,这个没什么办法,网络实在是太复杂,所以这个推荐你可以看成是一个概率推荐,即最有可能最多人满意的机器,本推荐也会着重说明机器的缺点而不是优点,因为优点总是能找到的,但缺点往往是致命的、可以影响决策的。VPS 信息繁琐,这个推荐注定是要多次修改的,也欢迎大家指出问题分享体验,常看常新~
本文无 AFF,有必要说明的是:建站机器的推荐将会缺失,因为我真的不玩建站机器,什么斯巴达 /ovh/netcup 都用的不多,就不强行推荐了。当然了,如果你不知道线路 /ip 质量,或许你可以看看常见线路的科普和 IP 质量检测方法。
本文最后更新于 2026/1/11,测评与推荐结果在此日期附近有较强参考性,原文链接。
HK 因为常年被 ddos 攻击,线路质量非常不稳定,防御成本高昂,绝大部分商家的 HK 线路机器都是搞的一地鸡毛,最后只剩下几家高端机器,HK 廉价线路机器基本不存在了 (除了小口子 10Mbps 这种),电信联通基本没有便宜的 HK 机器了,移动还能玩玩一些移动快乐机。不过作为亚太的中转核心,有需要的还是有必要买一台强力的 HK 线路机,拉 TW/SG 都是很好的选择。
三网各自顶级优化 (CTGGIA/9929/CMIN2) 的 HK 线路机器,单线程轻松稳定 500Mbps + 甚至 1Gbps (移动上行 qos 严重伴随断流,下行正常),国际互连优秀;ip 质量还不错,流媒体基本解锁,完全可以直出;机器性能非常强劲,恐怖如斯。毫无疑问,如果你能接受它的价格,它就是 HK 的顶端机器。
缺点:移动上行低 (直播等需要大量上传的移动用户慎选)
常见产品线:
三网各自优化 (高 q163/10099/CMIN2) 的 HK 线路商家,电信联通的表现都相当优秀,上下行单线程都有稳定 500Mbps+,但移动去程主干 CMI 表现相当一般,非晚高峰都 q 的厉害,长时间上行都达不到 100Mbps 还伴随断流,不适合需要上传 (直播) 的用户,回程 CMIN2 倒是极致,随便跑到 500Mbps+;ip 质量不错,直出完全够用无需落地,国际互联也很强力;7Y43 的 CPU 性能不错,较为强劲,大部分应用都能满足了。相比起 Gomami 而言,这个机器相当便宜起步价低。
缺点:移动上行低 (直播等需要大量上传的移动用户慎选)
常见产品线:
三网 CN2GIA 优化,电信用户很舒适,联通移动也不错 (虽然二者面临跨网延时会偏高),单线程电信用户可以跑到 300-500Mbps,联通 300Mbps+,移动也有 300-500Mbps+,速度都是比较极致的;ip 质量不错,直出完全够用无需额外落地,国际互联比较不错;机器性能较为强劲,绝大部分应用可以满足。
缺点:联通移动跨网延时可能会略微升高 + 近期被 ddos 攻击导致不稳定
常见产品线:
三网各自优化 (高 q163/10099/CMI) 的 HK 线路商家,电信相当极致,晚高峰单线程上下行 500Mbps,联通去程部分地区 (济南) 拉跨,多次测试都卡在 100Mbps,回程 400Mbps 很极致,其他地区不错,移动少部分地区拉跨 (哈尔滨 / 沈阳 / 大连 / 天津),其他地区很极致,单线程有 500Mbps,广移都有 300Mbps;ip 质量中规中矩,该解锁的都解锁;机器性能较差。
缺点:移动部分地区爆炸 + 部分地区联通上传拉跨 + 性能较差 (不是建站的选择)+ 经常被 ddos 攻击导致不稳定
常见产品线:
ISIF 的 HK 拥有两款产品线,COM (CN2/9929/CMIN2) 和 COP (高 q163/10099/CMIN2) 系列,前者对标高端机,后者对标中端机,由于这家的详细测评并没有完成,所以此处先不评价具体到某个运营商的情况,机器已在测试中,具体情况后补。
亚太顶级家宽服务商,提供 HKT/HKBN/i-Cable/CMHK/HGC 等的几乎所有 HK 家宽产品,顶级的家宽质量,标准化稳定产品,主要面向中高端用户。这个机器本身是几乎完美的,只要你能接受价格,那 HK 家宽就是这家了。
常见产品线:
HK 地区较大的 HK 家宽服务商,提供 i-Cable/HKBN/CMHK/HKT/HGC 等几乎所有 HK 家宽产品,顶级的家宽质量,这家主打的是 VDS,独享带宽无限流量,面板比较简陋,产品标准化和便捷性较差,相比起港仔没这么成熟,oneman 了一点,但是产品相对价格也会低点。
常见产品线:
无优化,电信丢包绕路严重,移动联通部分地区快乐,整体还是不可直连的机器,不建议直连使用;ip 质量一般;机器性能中规中矩,大部分应用都足够使用。DMIT 有独特的超量限速不限量政策,如果流量较大的话性价比就比较高。
缺点:同段机场较多,沦为纯粹的流媒体解锁和国际互联机器,该跳盾还得跳盾
常见产品线:
三网不可直连,RFC 拥有 CTC+JINX 的强力上游,国际互连优秀;ip 质量一般;机器性能一般。这家最大的特点不仅是国际优秀,而且 JINX 系列还拥有免费的 DNS 解锁和 EMBY 服务 (CTC 系列没有),性价比进一步上升。
缺点:同段机场较多,沦为纯粹的流媒体解锁和国际互联机器,该跳盾还得跳盾 + 经常被 ddos 攻击导致不稳定
常见产品线:
熟悉的 CTC 上游啊,国际互连很不错啊,直连电联基本爆炸,移动相当快乐,去程能跑 500Mbps,回程也有 200Mbps,虽然 CMI 晚高峰波动大,但用还是能用的,性价比一下就很不错了;ip 质量不错,合格的落地机器;机器性能比较强劲,EPYC 7663 的 CPU,IO 也不错,可惜还是配置低,1c1g 掀不起大浪。
缺点:同段机场较多,沦为纯粹的流媒体解锁和国际互联机器,该跳盾还得跳盾 + 经常被 ddos 攻击导致不稳定
常见产品线:
JP 应该是亚太最难搞的区域,无论是线路还是落地,价格都相当高昂,大部分线路机器直出就是不错的选择了,落地机器大多也是主打国际互连的,没有那种很干净的非家宽落地机器,需要干净还得是家宽,但是家宽价格很高昂,就导致这个区域的 NAT 机器满天飞,各家的软银 NAT 其实质量都大差不差,也就是超售多少和价格的区别而已,如果你让我给你一个省钱建议:那就是别玩日本机器。(美西组一个优质线路 + 优质家宽的价格)*2 < 日本优质家宽的价格
三网各自顶级优化 (CTGGIA/9929/CMIN2) 的 JP 线路机器,单线程 400Mbps+(移动上行 qos 严重,下行正常),国际互连优秀,对 ip 质量没要求的可以直出;ip 质量还行,常规流媒体基本解锁,但是日本本土网站解锁很差,DMM 倒是解锁,meta 不出意外的不能用;机器性能比较强劲。整体而言是相当优秀的建站业务机器。
缺点:ip 质量差,有需要还是要套家宽 + 移动上行低 (直播等需要大量上传的移动用户慎选)
常见产品线:
三网优化,电信双程 163pp (高 q163) 表现比较极致,联通则是双程 10099,移动去程 CMI 回程 CMIN2。电信表现都相当优秀,上下行单线程都有稳定 300Mbps-400Mbps,联通速率偏低但也还行,移动去程主干 CMI 表现相当一般,非晚高峰都 q 的厉害,长时间上行都达不到 100Mbps 还伴随断流,不适合需要上传 (直播) 的用户,回程 CMIN2 倒是极致,可以跑到 300-500Mbps+;ip 质量不错,直出基本够用,无需落地 (解锁有点混合,ip 地区还没更新,有 US 解锁有 JP 解锁),当然很多 JP 专属的流媒体解锁失败,国际互联也很强力,无需求可以直出;机器性能比较强劲。整体而言是相当优秀的建站业务机器。
缺点:ip 质量差,有需要还是要套家宽 + 移动上行低 (直播等需要大量上传的移动用户慎选)
常见产品线:
三网 CTGGIA 的线路 (CTGGIA 和 CN2GIA 基本无差异,CN2GT 才是比较烂的),IPV6 可以直连,电信单线程基本可以跑到 500Mbps,移动联通基本也有 300~400Mbps,三网都很不错。ip 质量中规中矩;机器性能比较强劲。
缺点:ip 质量一般,有本土流媒体需求还是要套家宽 + 联通移动跨网延时可能会略微升高 + 近期被 ddos 攻击导致不稳定
常见产品线:
去程回程优化的 JP 线路,高 q163+10099+cmi,实测下来电信上行 (去程) 确实是优化,但是这个优化也仅仅到不丢包而已,去程并不算优秀,多次测试都卡在 50Mbps,下行很极致,有 400Mbps,联通上下行都很极致,单线程 400Mbps + 低重传,移动大部分地区比较优秀,单线程有 300Mbps,少部分地区拉跨,丢包丢飞了,在这些地区 (查看详细测评中的 ITDOG 可见) 的用户需要慎重考虑上车;ip 质量很差,送中 + 大量流媒体被 ban,要靠 DNS 解锁救一下了;机器性能中规中矩。
缺点:ip 质量差,有需要还是要套家宽 + 电信上行低 (直播等需要大量上传的移动用户慎选)+ 部分地区移动爆炸
常见产品线:
老牌 JP 家宽商家了,提供 Rakuten (乐天)/Biglobe/KDDI/sony 等多种家宽,包含独立 IPV4/NATIPV4 / 独立 IPV6-only 等多种产品,各种产品常年缺货,工单 /tg 响应都非常快,比较特色的是这个商家是有 SLA99 保证的,不达标会免除费用 (低于 99% 免除 50%,低于 95% 免除 100%),少数的家宽机器提供稳定性保障的商家,独立 ip 的家宽质量非常不错,但是共享 NAT 质量有点一眼难尽了,大部分都有送中的现象导致 google 系使用不了,总体而言还是非常不错的商家。
缺点:NAT 机器送中严重
常见产品线:
也是老牌 JP 家宽商家了,提供 UCOM/NURO/Rakuten/KDDI/So-net/ 甚至还有星链等多种家宽,部分产品自带 DNS 解锁分流防止送中,产品整体价格较高,ip 质量优秀,机器性能中规中矩。你能接受价格的话,这家是个不错的选择。注:这家可以全额退款 (只要你对服务不完全满意,但不一定成功)。
常见产品线:
港仔在 JP 地区的新产品线,主营 CPE 4G/5G 蜂窩網絡 Mobile 4G/5G 产品,包含 KDDI/NTT/Rakuten/SoftBank 等产品,ip 质量优秀,也是少数直接可以购买蜂窩網絡 VPS 的商家,相当不错,就是起步价格较高,面向高端用户了。
常见产品线:
这个商家相对 oneman 一点,提供 Softbank/biglobe 的便宜量大 NAT 机器,还有樱花 / GMO 的机器代开,ss/vmess/socks5 屏蔽了国内方向,多次收到反馈说机器速度达不到标称,风评两极分化,应该是超售严重导致的,最好就不要当成直连机器了,本土内基本都跑不满,晚高峰波动严重,毕竟价格便宜,只能说是一分钱一分货了。还有,有几个大户也和我说它家独享机器速度不达标,让我怀疑到底是超售问题还是网络架构问题了… 这家机器正在测试,详细测评后补
缺点:稳定性一般,超售严重 + 速度不达标
常见产品线:
电信联通 IIJ + 移动软银线路的落地机器,直连情况下:电联晚高峰丢包严重,几乎不可用,移动相当快乐,低重传单线程能到 200~300Mbps,相互不错。这个机器的优秀之处在于国际互连,接入 IIJ + 软银 + NTT 等多线的组合相当炸裂,JP 落地互联的相当棒的选择;ip 质量出乎我意料的居然还不错,配合 DNS 解锁更好;机器性能中规中矩。
缺点:同段机场较多,沦为纯粹的流媒体解锁和国际互联机器,该跳盾还得跳盾 + 经常被 ddos 攻击导致不稳定
常见产品线:
SAKURA 上游,国际互连很不错啊,这款机器三网软银回程,JP 地区相当有性价比的回程,电信就爆炸了,但是联通移动基本快乐,联通可以跑 1000Mbps 上下对等,移动也有 300Mbps 上下对等这个机器,而且这个机器我持有很久了,相当不错啊,联通晚高峰多线程可以跑到 900Mbps,一个落地还送线路他真的我哭死,联通好机这就是;ip 质量不错,合格的落地机器;机器性能比较强劲,小型应用随便跑,CPU 不会成为瓶颈,可惜总体还是配置低,1c1g 掀不起大浪,能加到 2c4g 这就是建站神机啊。
缺点:同段机场较多,沦为纯粹的流媒体解锁和国际互联机器,该跳盾还得跳盾 + 经常被 ddos 攻击导致不稳定
常见产品线:
无优化线路,电信联通基本不可用,移动部分地区快乐,整体还是不可直连的机器,不建议直连使用,国际互连不错;ip 质量一般;机器性能中规中矩,大部分应用都足够使用。DMIT 有独特的超量限速不限量政策,如果流量较大的话性价比就比较高。
缺点:同段机场较多,沦为纯粹的流媒体解锁和国际互联机器,该跳盾还得跳盾
常见产品线:
https://{team-name}.cloudflareaccess.com/warp
f12,选择 图中的元素位置,需要 获取的是 com.cloudflare.warp://xxxxxx输入对应的 team-name 和账号信息
之后会有 Team Token
前面拼接以下内容即可
com.cloudflare.warp://{team-name}.cloudflareaccess.com/auth?token={team-token}
回到服务器上,输入 warp-cli registration token com.cloudflare.warp://{team-name}.cloudflareaccess.com/auth?token={team-token},会显示 Success 即可。 此时,会进行账号注册,显示在
到达 one.dash 页面上,点击 Device Profiles 选项,会有一个 Default 默认配置,点击 config 进入配置信息页面,并打开以下配置之后下拉到最底进行保存
佬友的指正
设备隧道协议要选MASQUE,才能开启代理模式,最好也提醒大伙儿一下
以及建议用curl --socks5 127.0.0.1:40000 https://cloudflare.com/cdn-cgi/trace来测试,因为这样能清楚的看到是否有warp=plus结果(原来 team 是走的 plus 哎)
回到服务器上,输入 warp-cli settings,会有一大堆配置信息。等待出现显示为 (network policy) Mode: WarpProxy on port 40000
说明 warp 注册完毕。输入 warp-cli connect, 链接服务。
服务器输入: curl -x socks5://127.0.0.1:40000 ifconfig.me 得到 非本机 ip 地址,说明配置完毕
{
"tag": "WARP",
"protocol": "socks",
"settings": {
"servers": [
{
"address": "127.0.0.1",
"port": 40000,
"users": []
}
]
}
}
{ "type": "field", "outboundTag": "WARP", "domain": [ "geosite:google", "geosite:youtube", "geosite:openai", "geosite:netflix", "geosite:disney", "gemini.google.com" ]