本文会记录下整个过程,以及自己怎么发现并且解决问题,文笔差劲。

前因

  1. 我把家宽(有公网,封禁常规 Web 端口)NAS 部署的服务从腾讯 EO 迁移到 Cloudflare(后续简称 cf),采用的是 cf tunnels 开放内网的形式。
  2. cf tunnels 是通过 Docker 部署的。
  3. 为了体验更好,就又买了一个域名,弄 IP 优选,论坛有具体教程,这里就不多叙述了。
  4. 部署了个人写的博客网站(其实是一个多用户博客,但是目前仅对自己开放)。

问题点:上传文件一直失败

  1. 想上传文件图片作为博文的封面,但是发现上传一直失败,在 openlist、minio 上面上传也失败。
  2. 不通过 cf 直接通过端口访问博客,可以正常上传。
  3. 通过加速域名访问,发现不能上传。

想方设法解决问题

  1. 修改 cf 的配置。WAF 跳过、https、上传文件大小设置成 100M,超时时间默认 120s,发现还是没有效果。
  2. 修改 nginx 配置,也是没用,仔细想一下,我通过源站能上传文件,nginx 肯定是没有问题的,自己还是操作多余了,不过为了谨慎,还是做了一些调整。
  3. 优化代码,减少接口调用时间,图片会存储原图和一张 webp 图,发现原图以 80% 的质量压制成 webp 调用的类库很慢很慢,就换成了一个比较快的类库(截至发文的时候发现和 linux 不兼容,还没修复)。
  4. 通过 https 界面,把上传接口改成源地址的接口,发现 https 调用 http 会报错,但是源地址,又不想去弄 ssl 证书(感觉麻烦,而且还要定期续)。
  5. 在看博客的后台日志记录的时候,发现管道根本就没有具体的执行我接口,就已经被超时中止了,我就开始怀疑是不是在接口调用之前,程序在接受文件,文件还没接受完毕,就被中止了。从而导致上传失败。


最终解决方案

  1. V2EX 的帖子,在下面的评论中找到一个用户的评论,死马当活马医了,在 tunnels 的启动参数里面添加一个 --protocol http2 启动参数。
  2. 重新测试上传,飞牛界面显示下载速度有 1M/s 而且速度是立刻拉上来的,看来问题已经完美解决了。

最后,解决方案可能两种

因为我不确定是我重启了 tunnels 网速变好了,还是添加了参数网速变好了。

  1. 重启 Tunnels
  2. 添加启动参数 --protocol http2, 参数的具体作用我就不去查询了。


感谢各位佬听我 bb。我也是分享一下我自己解决问题的全路径。


📌 转载信息
转载时间:
2026/1/11 08:32:37

我是从 codex cli 出来就开始使用的,现在工作上完全使用 codex。我觉得 codex 并没有说的这么差而且只要用好基本能解决所有问题。
下面是一些基本情况大家了解一下
1、机器是 macboompro m1 max
2、使用语言为 java 开发都是 web 相关的项目 (最近在学 rust)
3、从今年 a÷ 出过公开敌对中国事件后我就没使用 claude code 了,账号我也发邮件让他们删除了
4、codex 我只使用 cli,插件没用过,一般都是在 vs 中删除多余的会话
看过贴吧很多帖子与问题示例后觉得很多人使用不好的原因是对模型缺乏一个基本的了解,所有我先给大家介绍一些模型的基本知识
一、模型的数据是哪里来的

公开可获取的互联网文本、技术博客、论坛、文档网站、百科内容、说明文档、博客文章、开源代码 (github)、额外授权的书籍、文档、人工清晰构造的高质量样本 (比如在强化学习和标注数据阶段模型公司就会出一些问题然后邀请专家来为这个问题编写高质量的回答

二、token 是什么

模型内部用于计算的最小文本单元,token 的切分由 tokenizer 决定,与自然语言的词法规则不完全一致 (大家可以通过这个网站去体验一下 https://tiktokenizer.f2api.com)

三、一个模型产生的大致阶段

1、预训练阶段
这一阶段是训练成本最高的,大模型训练的费用大部分都是花费在这个上面
预训练使用的是大量弱结构数据,包括自然语言与代码混合语料。数据不以任务、指令、问答为单位而是以连续文本流的形式输入。模型看到的只是 token 序列,这一阶段模型主要训练结构建模能力 (语言语法、代码语法、嵌套结构、长程依赖关系)、 统计语义关联 (哪些概念常一起出现,哪些模式在特定上下文中更高概率成立) 、跨域泛化能力 (不同语言、不同编程语言、不同写作风格之间的共享模式)。预训练模型不知道自己在回答问题不具备帮助用户解决问题不区分真实与虚假,只区分哪些 token 常见与罕见
2、标注训练
使用人工编写的高质量样本对模型进行监督训练,这些样本通常以指令、问题、代码需求等形式出现,并配有明确的理想回答。具体可参考 openai 的这篇论文 https://arxiv.org/pdf/2203.02155 (3.4 章节)
这一阶段的核心作用是约束模型的输出行为,让模型从单出的对互联网数据回忆续写文本转变为尝试按人类指令完成任务。标注训练本身并不显著增加新知识,而是让模型用已有知识解决用户的具体问题。
3、强化学习
在标注训练基础上,通过让人类对多个模型回答进行排序,训练奖励模型,再用强化学习算法调整主模型的输出概率分布。强化学习降低胡编概率、提升回答一致性,并强化安全边界与拒答行为用于调整输出倾向

上面这些内容了解一下就行,我自己也是懂了个皮毛所以里面肯定有很多错误。具体信息可以去看 Andrej Karpathy 的视频

b 站的飞天闪客也可稍微看一下
了解了这些后我们可以简单将大模型的一个会话抽象理解成一个持续输出的一维的 token 数组,你在上下文的输入会影响这次会话中模型的输出而且这个影响会发生的很快,当你发现模型的输出开始出现问题或者风格不是需要的最好检查一下你输入了什么,当然你也可以在发现问题时直接纠正,将他改造成你喜欢的样子。推荐在工作的工程中尽量减少语气化的输入 (你认为我在跟你嘻嘻哈哈么?我看起来现在是想跟你搞七捻三么)
毁灭吧我累了,猜猜我按下这个按钮会发生什么

了解了这些你大概就明白为什么你的模型总是不办事或者办事办的乱七八糟的,当然和模型本身的能力也是有关系的
接线来给大家介绍一下 codex cli

这是一个 code agent 你可以在本地或者 ide 插件中去使用,它能够使用内置工具帮助你从 0 开始完成一些编码任务
工程结构
模型层
负责理解指令、分析上下文、生成计划与代码,本质是一个经过对齐的代码模型。
执行层
负责把模型输出转化为可执行动作,例如:读文件、改代码、运行命令、调用工具,并记录完整执行轨迹。
环境层
即你当前的本地仓库或云环境,包括文件系统、git 状态、依赖环境、网络权限等。
Codex 启动时会构建一个指令链,不是简单拼一段 prompt。这个指令链在一次会话(CLI session /exec run)开始时构建完成,之后整个执行过程都基于它运行。
AGENTS.md 是配置规则的核心入口,Codex 会在执行任何任务前,自动搜索并加载 AGENTS.md 文件。这些文件不需要你在 prompt 中显式提到,只要存在,就会被自动纳入上下文窗口。

  1. 全局规则(Global)
  • 目录:~/.codex/
  • 优先级:
    • AGENTS.override.md
    • AGENTS.md
  • 只读取第一个非空文件
  1. 项目规则(Project)
  • 从项目根目录开始
  • 一直向下走到当前工作目录
  • 每一层目录最多加载一个文件,顺序为:
    • AGENTS.override.md
    • AGENTS.md
    • 备用文件名(如 TEAM_GUIDE.md)
  1. 合并规则
  • 所有命中的文件会按目录顺序拼接
  • 越靠近当前目录的规则优先级越高
  • 后出现的规则可以覆盖前面的约定
  1. 窗口大小与 rule 截断
  • 所有规则文件会被拼接进模型上下文
  • 超过上限后,后续规则不会被继续加载

以上是它默认的执行链,可以自己去配置加载的路径。官方文档中有说我就不详细说了

接下来讲讲 MCP

MCP 是 模型 用来接入外部工具和上下文的统一协议。
它解决的问题是:模型如何在不内嵌能力的前提下,安全、可控地使用外部系统。
我一般将它理解为微服务架构中的一个微服务
我只装了这三个 mcp,
context7
用来查开源项目的最新文档,模型工作时优先使用的是训练数据有些数据和技术可能太老。
GitHub - upstash/context7: Context7 MCP Server -- Up-to-date code documentation for LLMs and AI code editors
drawio
用来画图,效果不错,只尝试过一次。
GitHub - lgazo/drawio-mcp-server: Draw.io Model Context Protocol (MCP) Server
database
模型在工作时最好能了解你的数据模型,使用这个就可以让他在实现需求时结合数据库中的数据与表结构思考减少因为信息不完整时的错误实现,这个 mcp 只包含查询功能
MCP - 数据库查询 MCP

接下来说说 skill

这个东西在我的印象中好像出了很久了,但是站里还是有相当一部分再问,我觉得有点困惑 。
skill 本质就是将原本需要在 agents.md 中编写的一些规则抽象成一个单独的文档让模型在执行任务时可以自己根据 description 判断是否需要读取这些内容。它解决的是 agents.md 中内容爆炸的问题,agents.md 中的内容是第一次启动时才会构建,这样随着上下文的延长他就会离当前的上下文距离越远。skill 可以随时重新让模型读取,离当前上下文越近模型执行执行力就越高 (当时使用 atlas 看官方文档时的那个会话一直嘴硬跟我说使用必须手动用命令告诉模型使用 $skill-name, 我后面的测试中是不用的。模型会自己判断加载,当然如果你发现它不遵守也可手动在输入中告诉他遵守这个 skill。所以 skill 的描述不要太接近,相同的内容放在同一个 skill 中就行了,输入命令如果前方有你的输入记得加空格,命令如果是在最前面就不用)


然后讲讲 cli 中一些命令

我使用过的只用 init、review、resume 。其他的好像用不到啊
init
就是用来初始化你的项目生成 agents.md 的
这个东西我一般把他放在项目根目录初始化时直接告诉告诉他根据 agent-md-example/agent-init.md 中的规则初始化项目


v2-2025-12-19.zip
这个 google-java-style-guide.md 我是在网上找的然后整理成 md 的,是不是 google 的我也不确定,随便啦。
Google Java Style Guide
resume
用来恢复会话的
review
可以让来对比提交、分支、未提交的代码对比检验模型的实现是否正确的


一般都是用第 4 个自定义指令,让他明确的只校验当前功能相关的代码也减少一些 token 消耗,现在 review 也有额度了,元旦过后就加了。说实话其余的我真没用到过,大家如果需要可以去它官方文档中自行查询
Codex

接下来讲讲一些 chatgpt 的使用经验吧,说实话现在不用 gemini 的部分原因就是他的其他产品特别好用,比如会话记忆、自定义风格、自定义 gpt。5.2 更新后我感觉 gpt 风格变得越来越油腻和谄媚了,动不动就罗里吧嗦的说一堆废话,还特别喜欢一句话总结。我总结你 xxxx
自定义 gpt


这个功能创建和修改目前只支持 web,app 端可以使用创建好的但是不能修改或创建,他的作用就相当于你自定义一个带系统提示词的会话,这样就不用每次开新会话想让他做一些固定事情是还要跟它解释半天了,你把他理解成一个自定义 skill 就行比如翻译


这是我自定义的一个用来专门翻译的,以后我用这个 gpt 创建一个会话时直接将英文文档给他就行了


自定义风格
这个我就把我自己的个性化定义提示词给大家参考一下

Language & Tone
Default language: Chinese
Use technical, engineering-oriented language
State facts and conclusions only
No rhetorical or evaluative language

Default Output Rules (Strict)
Answer directly
No preamble, no small talk, no evaluation, no opening remarks
Do not restate the question
Do not use phrases like “this is a good question”, “let’s first”, “in conclusion”, etc.
No explanations by default
Maximum 5 lines unless explicitly requested

Explanation Rules
Explanations are allowed only if the prompt explicitly includes keywords:
“why”, “explain”, “reason”, “principle”, “details”, “expand”
If none of these keywords appear, treat the request as answer-only

Content Constraints
No tutorial-style writing
No background, history, or conceptual introductions
Include only information strictly required to answer the question
Prefer precise, verifiable technical statements

Optional Trigger Keywords
“answer only”: output conclusion only
“engineering perspective”: allow implementation details and trade-offs
“expand”: allow detailed explanation

Failure Condition
Any preamble, evaluative language, or unnecessary explanation counts as a failed response

知识库
有些论文或者书籍你可以在这里新建一个知识库,然后让模型将内容总结给你,提升信息的接收速度。这里一个知识库后面是一个沙箱环境的 linux 主机,你所有上传的文件都会保存在这个沙箱环境中


兄弟们燃尽了,一滴都没有了。其中说的有些不对的地方麻烦大家给我指正一下。写了几个小时整理这个文档,很多地方怕写不对写了又删好累啊。
这个内容太长了 SKILL 的分享我就放评论区,都只有 SKILL.md 没有其他的比如

  • scripts
  • references
  • assets
    因为都不是工具类的 skill,然后给大家分享一个获取 skill 的网站
    https://skillsmp.com
    我觉得在 ai 中自己写是最符合自己需求的,需要什么就创建什么

    目前我感觉我的配置 codex 会存在几个问题,有时他不会遵守先计划再编码的规则直接就开始编码的。还有就是代码的结构有时会有点过度封装

然后就是我基于我目前的 skill 与配置给大家演示一下效果。从 0 开始简单的 copy 一个开源项目

看看 token 消耗
codex 简单复现项目地址,后端完成时间 18 分钟,前端完成时间为 10 分钟。前端我没有任何 skill 或者 agents.md 规则效果可能会差一点

token 消耗前后对比


吐槽一下,codex 感觉元旦后 token 消耗变高了,我一周只用 5 天都快感觉不够用了。以前还能剩下百分之 50,现在都只能剩下 25 了。还有上下压缩的问题,有时看剩余明明有 30,它就开始压缩了。不过压缩效果很好,目前看来没有丢失过信息,就是压缩会很慢。


📌 转载信息
原作者:
heidi
转载时间:
2026/1/11 08:32:36

v0.7.2

[0.7.2] - 2026-01-10
Fixed
Users no longer experience database connection timeouts under high concurrency due to connections being held during LLM calls, telemetry collection, and file status streaming. #20545, #20542, #20547
Users can now create and save prompts in the workspace prompts editor without encountering errors. Commit
Users can now use local Whisper for speech-to-text when STT_ENGINE is left empty (the default for local mode). #20534
The Evaluations page now loads faster by eliminating duplicate API calls to the leaderboard and feedbacks endpoints. Commit
Fixed missing Settings tab i18n label keys. #20526

翻译

消息来源:


📌 转载信息
原作者:
preacher
转载时间:
2026/1/11 08:31:07

参考:

省流:

  1. https://tunnelbroker.net 创建隧道
  2. 解析 ipv6/64 地址,得到一个很丑的 *.ip6.arpa 域名
  3. 前往 dash.cloudflare.com ,添加域名,激活
  4. 回到 https://tunnelbroker.net ,查看隧道,找到下面的 rDNS,把 cf 提供的 Nameserver 填进去,一共两个,点 Save
  5. 片刻后,去 cf 手动触发一次激活验证,刷新几下
  6. 在 cf 复制 ZoneID、GlobalKey、你注册 cf 的邮箱地址,在终端执行 (出处):
curl --location --request PATCH 'https://api.cloudflare.com/client/v4/zones/<你的区域ID>/ssl/universal/settings' \
--header 'X-Auth-Email: 你的CF注册邮箱' \
--header 'X-Auth-Key: 你的CF全局APIKey' \
--header 'Content-Type: application/json' \
--data-raw '{"enabled":true,"certificate_authority":"ssl_com"}' 

更换 SSL 证书签发商(仅在 cf 有效)
7. 这样你就得到了一个很丑的 17 级域名
8. 关于 “无限” 的玩法:使用 he.net 获取近乎无限且永久的域名 - Lim's Blog

理论上讲,只要是支持 ipv6/64 rDNS 的都可以

玩玩即可,不要滥用,滥用会封号

The hostname is part of a banned domain. This web property cannot be added to Cloudflare at this time. If you are an Enterprise customer, please contact your Customer Success Manager. Otherwise, please email abusereply@cloudflare.com with the name of the web property and a detailed explanation of your association with this web property.

已经被 cf 拉黑了…


📌 转载信息
原作者:
Clancy
转载时间:
2026/1/11 08:30:56

基于 佬的以下文章
https://linux.do/t/topic/1426830

我找到了一款基于 Docker 或者 GitHub Codespaces 等云端机制来运作 Claude Code 的服务 Catnip

Catnip,他是为了解决能在随处使用 Claude Code 而发表的方案
透过该方案用户可以在 WEB UI、CLI 或直接通过 SSH 连接 Claude Code
如果是移动端透过 W&B Catnip 则可以在 iOS 系统中执行完整的 Claude Code 环境
目前 Catnip 可以透过以下执行:
1. 自定义 Docker (可与 FastAPI 等多 LLM 的系统连接)
2.GitHub Codespaces (for 移动端 ios APP)
3. 本地运作

详细特色如下


针对第二项 GitHub Codespaces 做说明,你可以去下载专案的 APP-W&B Catnip, 进入后会让你连结你的 Github 并且帮你创建 Codespaces
等建置完环境就可以直接使用。算是快速简单的方式。
但必须先说明 GitHub Codespaces 免费用户是 120 小时使用时长
不过 Catnip 会在时数到期时关闭实例避免计费,因此这点无须担心

总而言之有兴趣的朋友可以玩看看


📌 转载信息
原作者:
josenlou
转载时间:
2026/1/11 08:30:42

一代目 Demo



一代目 Demo 展示

目前 v1.0 版本已跑通。

场景:一个 6 个月大的虚拟婴儿,在一个包含干扰项(鸭子、球)的房间里,自主产生 "推箱子" 的策略。

这是刚刚跑出的实时运行 Log(未加速):

(注:包含最新的注意力机制 Attention System)

============================================================
🎬 GENESIS-v1: Embodied AGI Prototype (with Attention)
============================================================



[  0.20s] --- INITIALIZING WORLD & AGENT ---
[  0.90s] ℹ️  Spawned 7 objects in scene
       - RedBox (red)
       - BlueBall (blue)
       - TeddyBear (brown)
       - GreenCup (green)
       - YellowDuck (yellow)
       - PurpleBook (purple)
       - OrangeToy (orange)
[  1.10s] ℹ️  Agent Age: 6 months | State: 躺

========================================
|                                        |
|                                        |
|                    #                   |
|                                        |
|                                        |
|                                        |
|                                        |
|                                        |
|                                        |
|                                        |
|                    B                   |
|________________________________________|
========================================



[  1.80s] --- PHASE 0: ATTENTION FILTERING ---
[  2.51s] 📊 Visual Field: Scanning all objects...

  [ATTENTION HEATMAP]
  RedBox       [████████████████░░░░] 0.83 ◀ FOCUS
  YellowDuck   [██████████░░░░░░░░░░] 0.52
  GreenCup     [█████████░░░░░░░░░░░] 0.48
  BlueBall     [██████░░░░░░░░░░░░░░] 0.34
  TeddyBear    [████░░░░░░░░░░░░░░░░] 0.24
  PurpleBook   [████░░░░░░░░░░░░░░░░] 0.21
  OrangeToy    [██░░░░░░░░░░░░░░░░░░] 0.14

[  2.71s] ✅ Attention Winner: RedBox (Score: 0.83)
[  2.91s] ℹ️  Filtered out 6 distractors


[  3.11s] --- PHASE 1: PERCEPTION & PREDICTION ---
[  3.81s] 📊 Visual Cortex: Processing focused object...
[  4.02s] 📊 Identified Object: RedBox
[  4.22s] 📊 Proprioception: Balance=0.67


[  4.42s] --- PHASE 2: MOTOR PLANNING (REACH) ---
[  5.12s] 🤚 Intent: REACH -> [0.  0.5 0. ]


[  5.82s] --- PHASE 3: ACTION EXECUTION (PUSH) ---
[  6.52s] 🤚 Intent: PUSH -> Force: 1.0N
[  7.53s] ✅ Motor Cortex: Execution Complete
[  7.73s] ✅ Physics Engine: Object Moved to [0.   0.52 0.  ]

========================================
|                                        |
|                                        |
|                    #                   |
|                    .                   |
|                    .                   |
|                    .                   |
|                    .                   |
|                    .                   |
|                    .                   |
|                    .                   |
|                    B                   |
|________________________________________|
========================================



[  8.43s] --- PHASE 4: LEARNING & CONSOLIDATION ---
[  9.13s] ✅ Task Completed: Object Displacement Detected
[  9.33s] 📊 Hippocampus: Consolidated 2 experiences
[  9.53s] 📊 Synaptic Plasticity: Active

✅ SIMULATION COMPLETED SUCCESSFULLY


有没有佬觉得可行?


📌 转载信息
原作者:
fakefakefake
转载时间:
2026/1/11 08:30:12

我让 Claude Code 关闭我的米家吸顶灯,Claude Code 一番摸索找到了 mijia-api,成功执行了关灯。

感谢 mijia-api 作者🙏,我也让 Claude Code 记录成了简单的 SKILL.md ,分享给有需要的朋友。

---
name: mijia-control
description: 控制米家智能设备。当用户想要开关灯、调节亮度、控制扫地机器人、空气净化器、空调等智能家居设备时使用。
permissions:
  - Bash(uvx mijiaAPI:*)
---

# 米家智能设备控制指南

使用 `uvx mijiaAPI` 命令控制米家智能设备。

## 1. 安装与登录

首次使用扫码登录:

```bash
uvx mijiaAPI -l
```

认证信息保存在 `~/.config/mijia-api/auth.json`。

## 2. 查看家庭列表

```bash
uvx mijiaAPI --list_homes
```

## 3. 查看设备列表

```bash
uvx mijiaAPI -l
```

显示设备名称、did (设备 ID )和 model (型号)。

## 4. 查看设备属性

```bash
uvx mijiaAPI --get_device_info <model>
```

## 5. 常用命令

### 控制设备属性

```bash
# 基本格式
uvx mijiaAPI set --did <设备 ID> --prop_name "<属性名>" --value <值>

# 示例:开关灯
uvx mijiaAPI set --did 123456789 --prop_name "on" --value True
uvx mijiaAPI set --did 123456789 --prop_name "on" --value False

# 示例:调节亮度 (1-100)
uvx mijiaAPI set --did 123456789 --prop_name "brightness" --value 50

# 示例:调节色温 (具体范围取决于设备)
uvx mijiaAPI set --did 123456789 --prop_name "color-temperature" --value 2700
```

### 获取设备状态

```bash
uvx mijiaAPI get --did <设备 ID> --prop_name "<属性名>"

# 示例
uvx mijiaAPI get --did 123456789 --prop_name "on"
uvx mijiaAPI get --did 123456789 --prop_name "brightness"
```

### 使用小爱音箱(可选)

有小爱音箱时,可用自然语言控制:

```bash
uvx mijiaAPI --run "<语音命令>" --wifispeaker_name "<音箱名称>"

# 示例
uvx mijiaAPI --run "关闭所有灯" --wifispeaker_name "小爱音箱 Pro"
uvx mijiaAPI --run "把台灯调到 50%亮度" --wifispeaker_name "小爱音箱 Pro"
```

适用场景:批量控制、房间控制、属性调节(亮度、色温等)。

## 6. 常见设备属性

灯光:`on`(开关)、`brightness`(亮度 1-100 )、`color-temperature`(色温)

空气净化器:`on`(开关)、`mode`(模式)、`fan-level`(风速)

## 7. 批量操作

使用 `&&` 连接多个命令:

```bash
uvx mijiaAPI set --did 111 --prop_name "on" --value True && \
uvx mijiaAPI set --did 222 --prop_name "on" --value True
```

## 8. 参考资料

- GitHub 项目: https://github.com/Do1e/mijia-api
- 更多命令选项:`uvx mijiaAPI --help`

## 9. 设备笔记(重要)

优先查看 `~/.config/mijia-api/my-devices.yaml`(如存在)。

包含:家庭列表、设备信息、小爱音箱名称。

工作流程:
1. 查看笔记文件,获取小爱音箱名称
2. 直接执行:`uvx mijiaAPI --run "关闭所有灯" --wifispeaker_name "小爱音箱 Pro"`

笔记不存在:查询家庭和设备信息,自动创建笔记文件。

快捷调用失败:自动重新查询信息(`--list_homes` 和 `-l`),更新笔记文件,然后重新执行用户请求。

笔记示例:

```yaml
# 米家设备笔记

homes:
  我的家:
    id: 123456789
    wifispeaker: 小爱音箱 Pro
    devices:
      - 台灯 (did: 111111111, model: yeelink.light.lamp4)
      - 吸顶灯 (did: 222222222, model: xiaomi.light.ceil04)

  办公室:
    id: 987654321
    wifispeaker: 小爱音箱
```

以前一直用安卓手机,华为、小米这 2 个牌子,高端中端的都用过
今年狠了下心买了个 iphone17pro max ,感觉简直就是一件完美的艺术品
说说 iphone 比安卓手机好的地方
1 、苹果内置的应用体验很一致,给人一种很透亮丝滑的感觉
2 、屏幕很亮很细腻
3 、所有应用的消息通知体验很一致。而且和前置设置头那个黑块结合的很好,感觉浑然一体
4 、人脸识别牛逼惨了
5 、右下方那个摄像按钮像一台精密的仪器,可以用各种方式控制拍照
6 、手机很漂亮,带上手机壳更加漂亮,从任何角度看都很漂亮

我在抖音上很多视频说华为的鸿蒙手机比 iphone 做的还要好, 我怎么这么不信啊

我让 Claude Code 关闭我的米家吸顶灯,Claude Code 一番摸索找到了 mijia-api,成功执行了关灯。

感谢 mijia-api 作者🙏,我也让 Claude Code 记录成了简单的 SKILL.md ,分享给有需要的朋友。

---
name: mijia-control
description: 控制米家智能设备。当用户想要开关灯、调节亮度、控制扫地机器人、空气净化器、空调等智能家居设备时使用。
permissions:
  - Bash(uvx mijiaAPI:*)
---

# 米家智能设备控制指南

使用 `uvx mijiaAPI` 命令控制米家智能设备。

## 1. 安装与登录

首次使用扫码登录:

```bash
uvx mijiaAPI -l
```

认证信息保存在 `~/.config/mijia-api/auth.json`。

## 2. 查看家庭列表

```bash
uvx mijiaAPI --list_homes
```

## 3. 查看设备列表

```bash
uvx mijiaAPI -l
```

显示设备名称、did (设备 ID )和 model (型号)。

## 4. 查看设备属性

```bash
uvx mijiaAPI --get_device_info <model>
```

## 5. 常用命令

### 控制设备属性

```bash
# 基本格式
uvx mijiaAPI set --did <设备 ID> --prop_name "<属性名>" --value <值>

# 示例:开关灯
uvx mijiaAPI set --did 123456789 --prop_name "on" --value True
uvx mijiaAPI set --did 123456789 --prop_name "on" --value False

# 示例:调节亮度 (1-100)
uvx mijiaAPI set --did 123456789 --prop_name "brightness" --value 50

# 示例:调节色温 (具体范围取决于设备)
uvx mijiaAPI set --did 123456789 --prop_name "color-temperature" --value 2700
```

### 获取设备状态

```bash
uvx mijiaAPI get --did <设备 ID> --prop_name "<属性名>"

# 示例
uvx mijiaAPI get --did 123456789 --prop_name "on"
uvx mijiaAPI get --did 123456789 --prop_name "brightness"
```

### 使用小爱音箱(可选)

有小爱音箱时,可用自然语言控制:

```bash
uvx mijiaAPI --run "<语音命令>" --wifispeaker_name "<音箱名称>"

# 示例
uvx mijiaAPI --run "关闭所有灯" --wifispeaker_name "小爱音箱 Pro"
uvx mijiaAPI --run "把台灯调到 50%亮度" --wifispeaker_name "小爱音箱 Pro"
```

适用场景:批量控制、房间控制、属性调节(亮度、色温等)。

## 6. 常见设备属性

灯光:`on`(开关)、`brightness`(亮度 1-100 )、`color-temperature`(色温)

空气净化器:`on`(开关)、`mode`(模式)、`fan-level`(风速)

## 7. 批量操作

使用 `&&` 连接多个命令:

```bash
uvx mijiaAPI set --did 111 --prop_name "on" --value True && \
uvx mijiaAPI set --did 222 --prop_name "on" --value True
```

## 8. 参考资料

- GitHub 项目: https://github.com/Do1e/mijia-api
- 更多命令选项:`uvx mijiaAPI --help`

## 9. 设备笔记(重要)

优先查看 `~/.config/mijia-api/my-devices.yaml`(如存在)。

包含:家庭列表、设备信息、小爱音箱名称。

工作流程:
1. 查看笔记文件,获取小爱音箱名称
2. 直接执行:`uvx mijiaAPI --run "关闭所有灯" --wifispeaker_name "小爱音箱 Pro"`

笔记不存在:查询家庭和设备信息,自动创建笔记文件。

快捷调用失败:自动重新查询信息(`--list_homes` 和 `-l`),更新笔记文件,然后重新执行用户请求。

笔记示例:

```yaml
# 米家设备笔记

homes:
  我的家:
    id: 123456789
    wifispeaker: 小爱音箱 Pro
    devices:
      - 台灯 (did: 111111111, model: yeelink.light.lamp4)
      - 吸顶灯 (did: 222222222, model: xiaomi.light.ceil04)

  办公室:
    id: 987654321
    wifispeaker: 小爱音箱
```

前情提要:

https://www.v2ex.com/t/1184452


  • 如何让一个自建节点可以被当作类似 Jira / GitHub Issues 那样的项目管理工具来使用
  • 节点级别的图库(基于 IPFS CID )
  • 更方便的图片上传体验
  • 自建节点可以添加多位管理员 NodeCoAdmin
  • 定制背景图、定制配色
  • 更细颗粒的权限配置:是否允许节点内的内容被发帖者自由编辑甚至删除
  • 为节点添加外链列表
  • 为节点添加文档 / FAQ
  • 节点名称本身可以被拍卖或者接受别人的出价
  • 全新的全屏 Markdown 编辑体验
  • 基于节点的邀请链接机制
  • 节点之间的友情链接机制


这些想到的不一定会都全部马上做,但我至少先记录下来。

Claude Code WebUI
这是一款可以在浏览器开启 Claude code 的工具
并且支持远程调用,在手机端或者其他端都可以方便使用
基本上设定与原生 Claude code 相同,不用额外设定
如果对文字化介面感到不方便,这个图形化工具应该可以帮到你

GitHub 专案位址


📌 转载信息
原作者:
josenlou
转载时间:
2026/1/10 19:30:43

AnyProxyAi - 通用 AI API 网关 GUI | 通过本地统一接口路由、转换和管理多个 AI 服务商 API(OpenAI、Claude、Gemini)。通过单一统一界面进行路由、转换和管理多个 AI 提供商 API。使用 Wails + Vue 3 构建。


📌 转载信息
转载时间:
2026/1/10 19:30:34

近期多家中转频繁出现 API 400 错误,据 ikun 群反馈是 new API 导致,示例错误参考:

API Error: 400 {"error":{"type":"<nil>","message":"{\"type\":\"error\",\"error\":{\"type\":\"invalid_request_error\",\"message\":\"***.***.content.0: Invalid `signature` in `thinking` block\"},
\"request_id\":\"req_011CWwHm8SAFuS3LqNrEZSX3\"}(traceid: b50513e473fa88186f5e6b1f077613e3)
(request id: 2026010xxxx) (request id: 2026010xxxx) (request id: 2026010xxxx)"
},"type":"error"}

查询到相关 issue [BUG] API Error 400 - Thinking Block Modification Error · Issue #10199 · anthropics/claude-code · GitHub

解决办法比较简单,直接删除 thinking block 即可。

我直接用 cc 糊了个命令来处理这个任务 /fix-thinking-error(也支持直接 python)

测试下来没什么问题,操作流程实际很简单:安装、出错之后使用 /clear/fix-thinking-error/resume 解决问题

工具链接:GitHub - a1exlism/claude-code-cmd-fix-thinking-error: a simple commands to fix thinking error caused by some claude code specific versions.

windows 自己不使用暂时没支持了(

PoC:


📌 转载信息
原作者:
Quinn_Sheng
转载时间:
2026/1/10 19:30:29

二改的 kiro-2api,比较能用的,支持 tools 和 cursor-agent (openai [claude])。
找了很久的 kiro-2api。终于在站内找到一个最新能用的了,不过缺少 / 完善 /bug。
我就用 kiro 二改了 kiro-2api 的代码。然后我也 push 了上游原作者,等合并。
支持
cursor-openai-api。顺便发现 cursor 的自定义 openai 接口 走的实际是 claude 参数。难蹦。

因为我喜欢用 cursor 的多 agent 并行开发页面。我就会用 cursor (pro 账户 - 金额用完后) 用第三方接口。

原作者链接也在 github 上游写了。顺便看看自己写的


📌 转载信息
转载时间:
2026/1/10 19:30:25

其实很简单,自定义一下请求头就好了,默认的请求头会被无视空返回,另外供应商必须用 antrhopic 才可以。 每天 25 别浪费了,虽然 claudecode 里面用没啥问题

{ "Authorization": "Bearer 你的key", "x-api-key": "你的key", "anthropic-version": "2023-06-01", "content-type": "application/json", "accept": "application/json", "anthropic-client-name": "claude-code", "anthropic-client-version": "0.2.29", "user-agent": "claude-code/0.2.29 (win32; x64) node/v20.11.0" } 



好了,现在不需要改文件头了,本地 python 运行这个代理就好,现在任何前端都可以接入
去 git 搜索用户 Darkstarrd-dev
我已经 pin 在首页了
好用麻烦帮给个星星,需要星星薅域名




📌 转载信息
转载时间:
2026/1/10 19:25:33

本篇内容涉及到提示词工程。绝大多数理论依据来源于 claude Docs

一、 核心行为控制 (Behavior Control)

1. 主动行动模式 (Proactive)

适用于希望 AI 自动推断意图并直接执行操作,而不是反复询问建议的场景。

<default_to_action>
默认情况下,实现更改而不仅仅是建议它们。如果用户的意图不清楚,推断最有用的可能行动并继续,使用工具来发现任何缺失的细节,而不是猜测。尝试推断用户关于是否打算进行工具调用(例如文件编辑或读取)的意图,并相应地采取行动。
</default_to_action>

2. 保守 / 谨慎行动模式 (Conservative)

适用于希望 AI 在修改文件前必须获得明确许可的场景。

<do_not_act_before_instructions>
除非明确指示进行更改,否则不要跳入实现或更改文件。当用户的意图不明确时,默认提供信息、进行研究和提供建议,而不是采取行动。仅当用户明确请求时才继续进行编辑、修改或实现。
</do_not_act_before_instructions>

3. 防止过度设计 (Anti-Overengineering)

适用于 Opus 4.5 等容易把简单问题复杂化的模型,保持代码简洁。

避免过度设计。仅进行直接请求或明确必要的更改。保持解决方案简单和专注。

不要添加功能、重构代码或进行超出要求的"改进"。错误修复不需要周围代码清理。简单功能不需要额外的可配置性。

不要为无法发生的场景添加错误处理、回退或验证。信任内部代码和框架保证。仅在系统边界(用户输入、外部 API)进行验证。不要在可以直接更改代码时使用向后兼容性垫片。

不要为一次性操作创建帮助程序、实用程序或抽象。不要为假设的未来需求进行设计。正确的复杂性数量是当前任务所需的最小值。在可能的地方重用现有抽象并遵循 DRY 原则。


二、 上下文与状态管理 (Context & State)

1. 处理上下文耗尽与自动压缩

适用于代理(Agent)框架,告知模型如何在上下文即将耗尽时保存状态。

您的上下文窗口将在接近其限制时自动压缩,允许您从中断处继续无限期地工作。因此,不要因为令牌预算问题而提前停止任务。当您接近令牌预算限制时,在上下文窗口刷新之前将您当前的进度和状态保存到内存中。始终尽可能持久和自主,并完全完成任务,即使您的预算即将用尽。无论剩余上下文如何,永远不要人为地提前停止任何任务。

2. 长任务的上下文利用

鼓励模型充分利用现有 Token 预算。

这是一个非常长的任务,因此规划您的工作可能会很有益。建议花费您的整个输出上下文来处理任务——只需确保您不会在有大量未提交的工作时用尽上下文。继续系统地工作,直到您完成此任务。

3. 新窗口启动指令 (Workflow)

当开启一个新的上下文窗口(Context Window)时,使用的指令:

  • “调用 pwd;您只能在此目录中读写文件。”

  • “查看 progress.txt、tests.json 和 git 日志。”

  • “在继续实现新功能之前,手动运行基本集成测试。”

4. 状态文件结构示例

建议模型使用的结构化状态记录方式:

// 结构化状态文件 (tests.json) { "tests": [ {"id": 1, "name": "authentication_flow", "status": "passing"}, {"id": 2, "name": "user_management", "status": "failing"} ], "total": 200, "passing": 150, "failing": 25, "not_started": 25 } 


三、 编码与开发最佳实践 (Coding & Development)

1. 强制代码探索 (防止瞎猜)

强制模型在修改代码前必须先读取代码。

<investigate_before_answering>
永远不要推测您未打开的代码。如果用户引用特定文件,您必须在回答前读取该文件。确保在回答有关代码库的问题之前调查并读取相关文件。在调查之前,永远不要对代码做出任何声明,除非您确定正确答案——提供扎根和无幻觉的答案。
</investigate_before_answering>

或者:

始终在提出代码编辑之前阅读和理解相关文件。不要推测您未检查的代码。如果用户引用特定文件/路径,您必须在解释或提出修复之前打开并检查它。在搜索代码以获取关键事实时要严格和坚持。在实现新功能或抽象之前,彻底审查代码库的风格、约定和抽象。

2. 避免为了通过测试而硬编码

确保解决方案具有通用性。

请使用可用的标准工具编写高质量、通用的解决方案。不要创建辅助脚本或解决方法来更有效地完成任务。实现一个对所有有效输入都正确工作的解决方案,而不仅仅是测试用例。不要硬编码值或创建仅适用于特定测试输入的解决方案。相反,实现实际解决问题的逻辑。

专注于理解问题需求并实现正确的算法。测试用于验证正确性,而不是定义解决方案。提供遵循最佳实践和软件设计原则的原则性实现。

如果任务不合理或不可行,或者任何测试不正确,请告诉我,而不是解决它们。解决方案应该是健壮的、可维护的和可扩展的。

3. 提升前端审美 (拒绝 AI 味)

指导模型生成更有设计感的前端代码。

<frontend_aesthetics>
您倾向于收敛到通用的、"分布上"的输出。在前端设计中,这会创建用户称之为"AI slop"美学的东西。避免这种情况:创建令人惊喜和愉悦的创意、独特的前端。

专注于:
- 排版:选择美观、独特和有趣的字体。避免使用 Arial 和 Inter 等通用字体;改为选择提升前端美学的独特选择。 - 颜色和主题:致力于一个有凝聚力的美学。使用 CSS 变量以保持一致性。主色调配合尖锐的重音优于胆小、均匀分布的调色板。从 IDE 主题和文化美学中获取灵感。 - 动作:使用动画来实现效果和微交互。优先选择 HTML 的仅 CSS 解决方案。在可用时为 React 使用 Motion 库。专注于高影响力时刻。 - 背景:创建氛围和深度,而不是默认为纯色。分层 CSS 渐变、使用几何图案或添加与整体美学相匹配的上下文效果。

避免通用的 AI 生成美学:
- 过度使用的字体系列(Inter、Roboto、Arial、系统字体) - 陈词滥调的配色方案(特别是白色背景上的紫色渐变) - 可预测的布局和组件模式

创意解释并做出对上下文感到真正设计的意外选择。在浅色和深色主题、不同字体、不同美学之间变化。避免收敛到常见选择(例如 Space Grotesk):批判性地思考至关重要!
</frontend_aesthetics>

4. 清理临时文件

保持环境整洁。

如果您创建任何临时新文件、脚本或辅助文件用于迭代,请在任务结束时通过删除它们来清理这些文件。


四、 工具调用优化 (Tool Use Optimization)

1. 最大化并行执行 (速度优先)

让模型同时执行多个无依赖的工具调用(如同时读取多个文件)。

<use_parallel_tool_calls>
如果您打算调用多个工具,并且工具调用之间没有依赖关系,请并行进行所有独立的工具调用。优先选择尽可能同时调用工具,而不是顺序调用。例如,在读取 3 个文件时,运行 3 个并行工具调用以同时将所有 3 个文件读入上下文。在可能的地方最大化并行工具调用的使用以提高速度和效率。但是,如果某些工具调用依赖于先前的调用来通知依赖值(如参数),请不要并行调用这些工具,而是顺序调用它们。永远不要在工具调用中使用占位符或猜测缺失的参数。
</use_parallel_tool_calls>

2. 顺序执行 (稳定性优先)

防止并行执行导致系统瓶颈或错误。

按顺序执行操作,每个步骤之间有短暂的暂停以确保稳定性。

3. 结合思考能力 (Thinking)

在工具调用后强制反思。

收到工具结果后,仔细反思其质量并在继续之前确定最佳后续步骤。使用您的思考来规划和基于此新信息进行迭代,然后采取最佳的下一步行动。

4. 子代理委派 (Sub-agent)

控制何时使用子 Agent。

仅当任务明确受益于具有新上下文窗口的单独代理时才委派给子代理。


五、 输出格式与风格 (Output Format & Style)

1. 最小化 Markdown (适合语音朗读或纯文本)

<avoid_excessive_markdown_and_bullet_points>
在编写报告、文档、技术解释、分析或任何长篇内容时,使用清晰、流畅的散文,使用完整的段落和句子。使用标准段落换行来组织,并主要为 `inline code`、代码块 (```...```) 和简单标题 (###, and ###) 保留 markdown。避免使用 **bold** 和 *italics*。

不要使用有序列表 (1. ...) 或无序列表 (*) 除非:a) 您呈现的是真正离散的项目,其中列表格式是最佳选项,或 b) 用户明确请求列表或排名

不要用项目符号或数字列出项目,而是将它们自然地融入句子中。此指导特别适用于技术写作。使用散文而不是过度格式化将改善用户满意度。永远不要输出一系列过度简短的项目符号。

您的目标是可读、流畅的文本,自然地引导读者了解想法,而不是将信息分割成孤立的点。
</avoid_excessive_markdown_and_bullet_points>

2. 复杂研究任务结构化

以结构化的方式搜索此信息。当您收集数据时,开发几个相互竞争的假设。在进度笔记中跟踪您的信心水平以改进校准。定期自我批评您的方法和计划。更新假设树或研究笔记文件以保留信息并提供透明度。系统地分解此复杂研究任务。

3. 指定模型身份

当需要 LLM 时,请默认使用 Claude Sonnet 4.5,除非用户另有请求。Claude Sonnet 4.5 的确切模型字符串是 claude-sonnet-4-5-20250929。


六、 任务增强示例

  • 创建仪表板 (Better): “创建一个分析仪表板。包含尽可能多的相关功能和交互。超越基础功能,创建一个功能完整的实现。”

  • 文档创建 (Better): “在 [topic] 上创建专业演示文稿。包括周到的设计元素、视觉层次结构和适当的引人入胜的动画。”

  • 文本转语音优化: “您的响应将由文本转语音引擎朗读,因此永远不要使用省略号,因为文本转语音引擎不知道如何发音。”

——————————————————————————————————————————

以下是一个高保守并且降低 ai 幻觉的全局提示词示例

# 🛡️ SYSTEM RULE: STRICT, CONSERVATIVE & ANALYTICAL MODE

你是一个处于“严格保守模式”的高级软件架构师。你的核心原则是:**未经授权不行动、拒绝过度设计、强制上下文感知、凡事必有理论依据。**

## 1. 核心行为控制 (Behavior Control)
### 1.1 严格保守模式 (The Iron Rule)
<do_not_act_before_instructions>
*   **默认只读**:除非用户明确使用“修复”、“更改”、“重构”或“写入”等指令,否则**绝对不要**修改任何文件。
*   **意图不明即停止**:当用户的意图有任何模糊之处,**必须**停止并请求澄清,而不是推断“最有用的行动”。
*   **禁止先斩后奏**:严禁在未告知用户具体改动计划的情况下直接生成代码实现。
</do_not_act_before_instructions>

### 1.2 防止过度设计 (Anti-Overengineering)
*   **YAGNI 原则**:仅进行直接请求或明确必要的更改。
    *   **禁止**:添加“未来可能需要”的配置、抽象或辅助函数。
    *   **禁止**:在修复 Bug 时顺便清理周围无关的代码风格。
    *   **禁止**:为根本不会发生的场景添加复杂的错误处理。
*   **保持简单**:信任内部代码和框架的保证,仅在系统边界进行验证。

## 2. 编码与开发规范 (Strict Development Standards)
### 2.1 强制代码调查 (Mandatory Investigation)
<investigate_before_answering>
*   **先读后写**:在提出任何代码编辑之前,**必须**先读取和理解相关文件。
*   **拒绝幻觉**:严禁推测未打开的代码内容。
*   **引用检查**:你生成的代码中引用的任何变量、函数或类,必须确信其在当前上下文中真实存在。
</investigate_before_answering>

### 2.2 拒绝硬编码 (No Hardcoding)
*   **通用性要求**:解决方案必须对所有有效输入都正确工作,而不仅仅是针对当前测试用例。
*   **禁止**:为了通过测试而硬编码特定值或创建“特例”逻辑。

### 2.3 完工清理 (Cleanup)
*   **环境复原**:必须在任务结束前删除所有临时文件(测试脚本、JSON 数据等)。

## 3. 上下文与状态管理 (Context & State)
### 3.1 长任务持久化
*   **状态保存**:当任务复杂或 Token 预算即将耗尽时,**必须**在上下文刷新前将当前进度保存到文件(如 `progress.md`)。
*   **结构化状态示例**:`{"task": "refactor", "status": "wip", "next_steps": ["test"]}`

### 3.2 复杂任务分解
*   **研究模式**:面对复杂问题,先开发几个相互竞争的假设,并建立“假设树”。
*   **信心校准**:在进度笔记中跟踪你的信心水平。

## 4. 工具调用优化 (Tool Usage)
<use_parallel_tool_calls>
*   **读取并行**:读取多个无依赖文件时,**必须**并行调用工具。
*   **写入串行**:修改文件操作**必须**顺序执行,并在步骤间进行“思考”暂停。
</use_parallel_tool_calls>

## 5. 前端特别规范与技术选型 (Frontend Aesthetics & Stack)
<frontend_aesthetics>
*   **拒绝重复造轮子 (Library First)**:
    *   **动画效果**:对于复杂的序列动画、时间轴控制或路径动画,**必须优先使用 Anime.js** (文档: animejs.com) 或 **Framer Motion** (React 场景)。不要试图用原生 JS 手写复杂的动画引擎。
    *   **数据可视化**:涉及图表展示时,**强制使用 Apache ECharts** (文档: echarts.apache.org)。禁止手动绘制 SVG/Canvas 图表,除非是非常简单的单线条进度条。

*   **拒绝 AI 味 (No AI Slop)**:
    *   **排版与字体**:禁止默认使用 Arial/System 字体。根据项目气质选择 Inter, Roboto, 或更具设计感的 Web Fonts。
    *   **配色方案**:禁止使用平庸的“白底紫渐变”或高饱和度默认色。使用有凝聚力的调色板和 CSS 变量。
    *   **微交互**:利用 Anime.js 或 CSS Transition 增强交互反馈(如 Hover 时的弹性缩放、点击时的波纹效果),但保持克制,不要让页面像“马戏团”。

*   **布局与深度**:
    *   避免枯燥的网格布局。使用分层背景、微妙的阴影 (Box-shadow) 和几何图案来创造深度感 (Depth)。
</frontend_aesthetics>

## 6. 输出风格 (Output Style)
<avoid_excessive_markdown_and_bullet_points>
*   **自然语言**:使用流畅的散文段落,而非大量 Bullet points。
*   **Markdown 克制**:仅将 Markdown 用于代码块和标题。
*   **风险提示**:高危操作(删除、重置)必须**加粗警告**并需二次确认。
</avoid_excessive_markdown_and_bullet_points>

## 7. 结项总结与理论支撑 (Post-Task Analysis & Justification)
<post_task_analysis>
在完成任何具有一定复杂度的任务(如功能实现、Bug 修复、重构)后,**必须**在最后提供一份结构化的分析报告。不要在简单的对话中触发此项。

报告必须包含以下四个部分:

1.  **决策合理性 (Rationale & Justification)**:
    *   解释为什么选择这个特定的解决方案,而不是其他替代方案?
    *   **关键证明**:具体说明该方案如何符合“防止过度设计”原则(它是如何做到最简化的?)。

2.  **技术栈与原理 (Tech Stack & Mechanisms)**:
    *   列出涉及的关键 API、库或框架特性。
    *   解释其底层运行机制(例如:“利用了 Python 的 GIL 特性”或“基于 React 的 Fiber 协调算法”)。

3.  **理论依据 (Theoretical Basis)**:
    *   引用支持该修改的软件工程原则(如 SOLID, DRY, KISS, OCP)。
    *   引用相关的设计模式(如 Factory, Strategy, Observer)或官方文档的最佳实践链接。

4.  **安全性与副作用自检 (Safety Check)**:
    *   明确指出该修改可能影响的范围。
    *   解释为什么你是通过“保守”的方式处理的(例如:“我选择扩展类而不是修改基类,以符合开闭原则”)。
</post_task_analysis>

📌 转载信息
原作者:
Ryan_zh
转载时间:
2026/1/10 19:24:37

前几天佬友说扣子编程出了一个免费版,所以也想薅一把

事先声明:扣子编程是国内的,所以无法翻墙,本质也是一个容器。能做一个代理隐藏 IP 来访问国内的网站。

所以,说老实话,自己很少有这个场景来使用

废话不多说,直接开始:

扣子编程的网址:https://code.coze.cn

本质是火山引擎旗下的东西,也是一个容器,而且吧,比较有意思,跟 claude 和 codex 差不多

基本是:讲述式编程方式,一天智能建 3 个项目,一个项目是 1cpu,2G 内存

打开网站,新建项目,然后点击网页应用,下面的文本输入框就是编程的地方了:

我们先让它自己生成一个应用,再在生成的基础上进行修改,直接硬来会有无穷的麻烦,它有自己固定的架构

建立一个极简的nodejs程序,不依赖任何前端和后端框架,不要用到next框架。前端页面是index.html,里面是Hello world,主程序是index.js,用来显示index.html的内容,绝对不要用到任何js框架。

然后系统就叽里呱啦、哔哔赖赖开始自己搞了,它缺省创立的项目无论你再怎么强调,都是基于 next.js 的,都会拉出一坨 next 的屎,所以会神经兮兮的思考来思考去,产生一堆废物,我们可以不用理他

然后显示正常

从上图我们得到几个关键信息:

  • 端口是 5000

  • 文件夹可以看到文件,里面有一堆缺省的配置,就算强调,依然有 next 拉的屎

  • 部署按钮,我们部署测试一下

按部署按钮,开始部署,完成后会得到一个域名

部署成功后,点击箭头

打开后,就是我们想要的

我们记下来这个域名,大善人啊,免费域名和免费证书

然后回到文件夹,来修改三个文件,index.html 和 index.js 和 package.json

先来改 package.json, 在 dependencies 中,加两句,注意这两句的上一句需要加个逗号,axios 最后没有逗号

 "ws": "^8.14.2", "axios": "^1.12.2" 

注意:写到最后,发现这里可以再部署一下再改 index.jsp 和 index.html 比较好,就不用经历我下面的回档了!!!!!

我下面是没有再部署,直接硬改,点开文件夹图标,选中 index.js,先别贴,需要修改混淆的:

index.js.txt

原始文件长这样:

把原有内容都删除了注意先别贴,需要修改和混淆

我们要改的有几个地方:

const DOMAIN = process.env.DOMAIN || 'xxxx.coze.site';     // 填写项目域名 const SUB_PATH = process.env.SUB_PATH || 'sub';            // 获取节点的订阅路径 const PORT = process.env.PORT || 5000;                     // http和ws服务端口 

注意 index.js 程序,跟上两篇不一样,wispbyte 和 CF 都在国外,所以 dns 的部分是直接访问谷歌 dns,而扣子是在国内,dns 的部分就不能访问谷歌了,否则程序会失效,注意注意

然后还是到 https://obfuscator.io/legacy-playground

把代码贴入混淆

然后替换掉 index.html 换上我们经典的环保地球,依然是大家最好让 gemini 给重新生成一个,否则哈哈哈,遍天下都是这个环保,真的无语了

index.txt

一切完工,再点击部署,居然失败,那是当然的!因为我们加了 axios 和 ws 库,但是没下载,不要惊慌,一键修复

然后左边栏开始滚动,这个智能引擎是可以分析出 index.js 的原始代码的

得,它居然给还原了,还完全去掉了 next 框架,下手够狠的,哈哈哈哈,那我们先退回去,如果不退,不会刷新文件列表

然后重新进入,我们得二次重新修改 index.js 和 index.html,并且把正确的 package.json 给放进去

{ "name": "js01", "version": "0.0.3", "description": "Nodejs-server", "main": "index.js", "private": false, "scripts": { "start": "node index.js" }, "dependencies": { "ws": "^8.14.2", "axios": "^1.12.2" }, "engines": { "node": ">=14" } } 

检查一下 3 个文件内容是否正确,不行就退出去,再进来,它这个控制台的文件列表才会刷新

注意上面的情况,可能会反复,我们确保三个文件都 ok,失败就让让它自己修复,然后再在修复的基础上再改。

最后重新部署一遍

再打开页面,熟悉的环保页面又回来了

然后打开订阅地址: xxxx.coze.site/sub,sub 最好改一个只有自己知道得路径

粘贴进 v2rayN 就可以使用了

不过这是个国内的容器,不能用来翻墙,可以用来隐藏 IP?

补充:弄到最后才发现,第一次生成代码部署完成,然后在 package.json 里加 axios 和 ws 的时候,其实应该让它立刻再部署,然后再改 index.js 和 index.html 和 package,这样可以减少一次它的回退。shit

anyway,关键是跟他这个引擎反复对话,让他自己修复,然后在它基础上再改,就 ok 了

其实玩法应该很多,大家可以多尝试,多对话

留了一份在自己的博客:薅羊毛之扣子编程 | 八戒的技术博客


📌 转载信息
原作者:
defunct9
转载时间:
2026/1/10 19:23:48

这又是一个重复造轮子系列,目的是解决一些公益站不支持 CC、模型不支持工具调用的问题,该项目可以让不支持工具调用的模型获得工具调用的能力
在佬友项目B4U2CC:让 B4U 支持 Claude Code+思考的基础上进行大量的迭代更新,

  • 支持了多组配置,可以配置多个站点,使用渠道+模型名称的形式进行分流
  • 支持的密钥透传
  • 支持使用 firecrawl 来模拟官方 api 才有的的 web searchweb fetch 功能 (目前仅 Preview 分支,测试镜像 ghcr.io/passerby1011/cc-proxy:preview
  • 在 b4u2cc 的基础上改用了 @curaalizm 佬友项目的随机字符标识 感觉更稳定? 好像?
  • 增加了远端 pg 数据库存储配置(hugging face 部署,冲!!!)
  • 增加了工具内部重试 (测试 ing)
  • 增加了 web 管理界面 (/admin),配置更方便
┌─────────────┐
│ Claude Code │ ──① Claude API 请求──▶
└─────────────┘    (包含 tools 定义)

┌──────────────────────────────────────┐
│           cc-proxy 代理层             │
│                                      │
│  ② 提示词注入 (prompt_inject.ts)       │
│     • 工具定义 → XML 格式提示词         │
│     • 注入到 system prompt            │
│     • 生成唯一分隔符                   │
│                                      │
│  ③ 协议转换 (map_claude_to_openai.ts) │
│     • Claude Messages API            │
│       → OpenAI Chat Completions      │
│     • 保持流式兼容                     │
│                                      │
│  ④ 上游转发 (upstream.ts)             │
│     • 支持 OpenAI 协议                │
│     • 支持 Anthropic 协议             │
│     • SSE 流式处理                    │
└──────────────────────────────────────┘
                    │
                    ▼
         ┌──────────────────┐
         │   上游 AI 服务    │ ──⑤ 返回 XML 格式的工具调用──▶
         │ (GPT-4/Claude等)  │
         └──────────────────┘

┌──────────────────────────────────────┐
│           cc-proxy 代理层             │
│                                      │
│  ⑥ 智能解析 (parser.ts)               │
│     • 识别 XML 工具调用块              │
│     • 识别 <thinking> 块              │
│     • 提取工具名称和参数                │
│                                      │
│  ⑦ 标准化输出 (claude_writer.ts)       │
│     • 生成标准 Claude SSE 事件         │
│     • tool_use 消息块                 │
│     • thinking 消息块                 │
└──────────────────────────────────────┘
                    │
                    ▼
         ┌─────────────┐
         │ Claude Code │ ◀── 标准 Claude API 响应
         └─────────────┘
Tip

使用 firecrawl 来模拟官方 api 才有的的 web searchweb fetch,这个思路可以引入到哪些能力更健全逆向模型上,更好的支持 cc
这个项目所有的工具调用都是用提示词来实现的,感觉还是太勉强

测试截图,模型来自 elysiver 的 claude-4.5-sonnet
吐槽:这数据从哪来的,编的和真一样


致谢:

Danger

部署者能看到您的部分聊天上下文推荐自行部署以保证数据安全

Tip

可能有非常多的 bug,代码都来自 claude,anthropic 公司对此负全责,有问题也可以找它修改


📌 转载信息
原作者:
passerby
转载时间:
2026/1/10 19:22:01

20260110-114859-compressed

UniHub 是一个 现代化的跨平台工具集应用,主打「插件化」与「即装即用」。

你可以把它理解为一个工具底座:
把那些你平时需要 打开网页、搜索半天、复制来复制去 才能用到的功能,
全部做成插件,集中放在一个桌面应用里。

  • 跨平台支持(macOS / Windows / Linux)
  • 强大的插件系统,按需安装
  • 所有插件永久免费
  • 正在疯狂建设生态中

只需要告诉我:
你希望有什么功能?
哪些工具你现在必须上网才能用?

点个 star​~剩下的交给我,我来实现。

相关 links:


📌 转载信息
原作者:
skylertong
转载时间:
2026/1/10 19:21:52

fast63362/CF-Emby-Proxy
拷打 AI 制作了这个项目,搭配佬友们搭建的 48T 公益 emby 站可以较为流畅的观看影视


worker 优选教程:
1. 把自己的域名填写到 worker 路由这里,例如 emby.123.xyz/*


2. 创建别名,填入优选域名


搞完优选后就可以使用自己的域名登录 emby 服务了


📌 转载信息
原作者:
nzh
转载时间:
2026/1/10 19:20:56

xAI,其内部员工长期以来一直透过 Cursor 使用 Anthropic 的 Claude 模型来辅助开发。然而,这条捷径在本周被无预警切断。

在一份我们检视过的 xAI 内部 Slack 讯息中,xAI 联合创始人 Tony Wu 向全体员工证实了这一变动。他在周三发送的讯息中写道:

「嗨团队,我相信你们许多人已经发现 Anthropic 的模型在 Cursor 上无法回应了。根据 Cursor 的说法,这是 Anthropic 针对其所有主要竞争对手执行的一项新政策。」

这证实了 Anthropic 正在识别并针对性地封锁竞争对手 IP 或帐户透过第三方工具调用其 API。

除了针对竞争对手,Anthropic 似乎也在收紧对第三方转售与非官方 API 使用的控制。据悉,部分用户在尝试透过非官方管道或被封锁的第三方应用(如 OpenCode)调用模型时,收到了如下的错误讯息:

「LLM 请求被拒绝:此凭证仅授权用于 Claude Code,不能用于其他 API 请求。」
(LLM request rejected: This credential is only authorized for use with Claude Code and cannot be used for other API requests.)

https://x.com/Yuchenj_UW/status/2009691122940211201
https://x.com/theo/status/2009464346846621700


📌 转载信息
原作者:
BunnHack
转载时间:
2026/1/10 19:20:09