包含关键字 typecho 的文章

自写的 QuantumultX 优化配置 🎉 继续说起
最近抽空又双更新了一下 QuantumultX 配置
目前 使用的 Surge 备用机 QuantumultX ,后面整理更新一下 Surge 配置
Github:https://github.com/curtinp118/QuantumultX

配置预览

以下为 Quantumult X 配置界面预览:

配置文件:

# 自用QuantumultX规则
# 更新日期:2026/01/12




[general]

# 直连网络测试URL
network_check_url = http://taobao.com/

# 节点延迟测试URL
server_check_url= http://www.gstatic.com/generate_204
#server_check_url = http://cp.cloudflare.com/generate_204

# 节点延迟测试超时参数
server_check_timeout=2000

# 配置文件图标
profile_img_url = https://raw.githubusercontent.com/curtinp118/QuantumultX/refs/heads/main/icons/Curtin.jpg


# 资源解析器 @XIAO_KOP 
resource_parser_url=https://raw.githubusercontent.com/KOP-XIAO/QuantumultX/master/Scripts/resource-parser.js

# 节点信息 @XIAO_KOP 
geo_location_checker=http://ip-api.com/json/?lang=zh-CN, https://raw.githubusercontent.com/KOP-XIAO/QuantumultX/master/Scripts/IP_API.js

# 绕过QuantumultX代理
excluded_routes=192.168.0.0/16, 10.0.0.0/8, 172.16.0.0/12, 100.64.0.0/10, 17.0.0.0/8,239.255.255.250/32, 24.105.30.129/32, 185.60.112.157/32, 185.60.112.158/32, 182.162.132.1/32

# UDP白名单端口列表
udp_whitelist=1-442, 444-65535

# 不使用fake-ip 及远程解析域名列表
dns_exclusion_list=*.cmpassport.com, *.jegotrip.com.cn, *.icitymobile.mobi, id6.me, *.pingan.com.cn, *.cmbchina.com, *.localnetwork.uop, mfs.ykimg.com*.ttf, *.icbc.com.cn

# DoH请求头 User-Agent参数
;doh_user_agent=Agent/1.0



[dns]
# 禁用系统DNS
no-ipv6

# 禁用IPV6
no-system

# DNS 服务器列表
server=223.5.5.5
server=119.29.29.29
server=114.114.114.114
server=1.2.4.8
server=/*.taobao.com/223.5.5.5
server=/*.tmall.com/223.5.5.5
server=/*.alipay.com/223.5.5.5
server=/*.alicdn.com/223.5.5.5
server=/*.aliyun.com/223.5.5.5
server=/*.jd.com/119.28.28.28
server=/*.qq.com/119.28.28.28
server=/*.tencent.com/119.29.29.29
server=/*.bilibili.com/119.29.29.29
server=/hdslb.com/119.29.29.29
server=/*.163.com/119.29.29.29
server=/*.126.com/119.29.29.29
server=/*.126.net/119.29.29.29
server=/*.127.net/119.29.29.29
server=/*.netease.com/119.29.29.29
server=/*.mi.com/119.29.29.29
server=/*.xiaomi.com/119.29.29.29
address=/mtalk.google.com/108.177.125.188
server=/*.icloud.com/119.29.29.29
server=/*.icloud.com.cn/119.29.29.29
server=/*.weixin.com/119.29.29.29


# 策略组配置
[policy]
static=国内网站, direct, proxy, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Domestic.png
static=境外网站, proxy, Hong Kong, Taiwan, Japan, Korea, Singapore, United States, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Global.png
static=Apple, direct, proxy, img-url=https://raw.githubusercontent.com/fmz200/wool_scripts/main/icons/apps/Apple_01.png
static=Netflix, PROXY, Hong Kong, Taiwan, Japan, Korea, Singapore, United States, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Netflix_Letter.png
static=YouTube, Hong Kong, Taiwan, Japan, Korea, Singapore, United States, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/YouTube.png
static=Spotify, direct, proxy, Hong Kong, Singapore, United States, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Spotify.png
static=ChatGPT, proxy, Singapore, United States, img-url=https://raw.githubusercontent.com/chxm1023/Script_X/main/icon/ChatGPT/ChatGPT3.png
static=Telegram, proxy, Hong Kong, Taiwan, Japan, Korea, Singapore, United States, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Telegram.png
static=Twitter, proxy, Hong Kong, Taiwan, Japan, Korea, Singapore, United States, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Twitter.png
static=AdBlock, direct, reject, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Advertising.png
static=Final, proxy, direct, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Final.png
url-latency-benchmark=Hong Kong, server-tag-regex=(?=.*(港|🇭🇰|香港|HK|(?i)Hong))^((?!(台|日|韩|新|美)).)*$, check-interval=1200, tolerance=0, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Hong_Kong.png
url-latency-benchmark=Taiwan, server-tag-regex=(?=.*(台|🇹🇼|臺|台湾|台灣|TW|(?i)Taiwan))^((?!(港|日|韩|新|美)).)*$, check-interval=1200, tolerance=0, alive-checking=false, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Taiwan.png
url-latency-benchmark=Japan, server-tag-regex=(?=.*(日|🇯🇵|日本|JP|(?i)Japan))^((?!(港|台|韩|新|美)).)*$, check-interval=1200, tolerance=0, alive-checking=false, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Japan.png
url-latency-benchmark=Korea, server-tag-regex=(?=.*(韩|🇰🇷|韓|韩国|韓國|南朝鲜|KR|(?i)Korean))^((?!(港|台|日|新|美)).)*$, check-interval=1800, tolerance=10, alive-checking=false, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Korea.png
url-latency-benchmark=Singapore, server-tag-regex=(?=.*(新|🇸🇬|狮|獅|SG|(?i)Singapore))^((?!(港|台|日|韩|美)).)*$, check-interval=600, tolerance=0, alive-checking=false, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Singapore.png
url-latency-benchmark=United States, server-tag-regex=(?=.*(美|🇺🇸|美国|美國|US|(?i)States|American))^((?!(港|台|日|韩|新)).)*$, check-interval=600, tolerance=0, alive-checking=false, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/United_States.png




# 本地服务器节点
[server_local]



# 服务器订阅
[server_remote]
https://sub-url.com, tag=机场订阅, update-interval=604800, opt-parser=true, enabled=true



# 远程分流规则
[filter_remote]
https://raw.githubusercontent.com/blackmatrix7/ios_rule_script/master/rule/QuantumultX/WeChat/WeChat.list, tag=WeChat (微信直连), force-policy=direct, update-interval=172800, opt-parser=false, enabled=true
https://raw.githubusercontent.com/blackmatrix7/ios_rule_script/master/rule/QuantumultX/China/China.list, tag=Mainland (国内网站), force-policy=国内网站, update-interval=86400, opt-parser=true, enabled=true
https://raw.githubusercontent.com/TG-Twilight/AWAvenue-Ads-Rule/main/Filters/AWAvenue-Ads-Rule-QuantumultX.list, tag=Ads, force-policy=AdBlock, update-interval=172800, opt-parser=false, enabled=true
https://github.com/Repcz/Tool/raw/X/QuantumultX/Rules/OpenAI.list, tag=OpenAI, force-policy=ChatGPT, update-interval=172800, opt-parser=false, enabled=true
https://raw.githubusercontent.com/blackmatrix7/ios_rule_script/master/rule/QuantumultX/Global/Global.list, tag=Outside (境外网站), force-policy=proxy, update-interval=86400, opt-parser=true, enabled=true
https://raw.githubusercontent.com/blackmatrix7/ios_rule_script/master/rule/QuantumultX/Apple/Apple.list, tag=Apple (Apple服务), force-policy=Apple, update-interval=86400, opt-parser=false, enabled=true
https://raw.githubusercontent.com/blackmatrix7/ios_rule_script/master/rule/QuantumultX/Netflix/Netflix.list, tag=Netflix(奈飞), force-policy=Netflix, update-interval=86400, opt-parser=false, enabled=true
https://raw.githubusercontent.com/blackmatrix7/ios_rule_script/master/rule/QuantumultX/YouTube/YouTube.list, tag=YouTube(油管), force-policy=YouTube, update-interval=86400, opt-parser=false, enabled=true
https://raw.githubusercontent.com/blackmatrix7/ios_rule_script/master/rule/QuantumultX/Spotify/Spotify.list, tag=Spotify(声破天), force-policy=Spotify, update-interval=86400, opt-parser=false, enabled=true
https://raw.githubusercontent.com/blackmatrix7/ios_rule_script/master/rule/QuantumultX/OpenAI/OpenAI.list, tag=ChatGPT(狗屁通), force-policy=ChatGPT, update-interval=86400, opt-parser=true, inserted-resource=true, enabled=true
https://raw.githubusercontent.com/blackmatrix7/ios_rule_script/master/rule/QuantumultX/Telegram/Telegram.list, tag=Telegram(电报), force-policy=Telegram, update-interval=86400, opt-parser=false, enabled=true
https://raw.githubusercontent.com/blackmatrix7/ios_rule_script/master/rule/QuantumultX/Twitter/Twitter.list, tag=Twitter(推特), force-policy=Twitter, update-interval=86400, opt-parser=false, enabled=true
https://raw.githubusercontent.com/blackmatrix7/ios_rule_script/master/rule/QuantumultX/Advertising/Advertising.list, tag=AdBlock (广告拦截), force-policy=AdBlock, update-interval=604800, opt-parser=false, enabled=true


# 本地分流规则
[filter_local]
host, glados.network, 境外网站
host, glados.rocks, 境外网站
host, update.glados-config.com, direct

# 避免迅雷版权问题
host, hub5idx.v6.shub.sandai.net, reject
host, hub5emu.v6.shub.sandai.net, reject
host, hub5btmain.v6.shub.sandai.net, reject

HOST-SUFFIX,95599.cn,direct
HOST-SUFFIX,abchina.com,direct
HOST-SUFFIX,bscabank.com,direct
HOST-SUFFIX,openaboc.cn,direct
HOST-SUFFIX,openaboc.com,direct
HOST-SUFFIX,openaboc.com.cn,direct
ip-cidr, 180.76.76.200/32, reject
host-suffix, local, direct
host-keyword, yattazen, proxy
ip-cidr, 10.0.0.0/8, direct
ip-cidr, 17.0.0.0/8, direct
ip-cidr, 100.64.0.0/10, direct
ip-cidr, 127.0.0.0/8, direct
ip-cidr, 172.16.0.0/12, direct
ip-cidr, 192.168.0.0/16, direct
ip-cidr, 224.0.0.0/24, direct
ip-cidr, 182.254.116.0/24, direct
geoip, cn, direct
final, Final


# 本地复写规则
[rewrite_local]

# 远程复写规则
[rewrite_remote]
https://raw.githubusercontent.com/chxm1023/Advertising/main/AppAd.conf, tag=App广告拦截, update-interval=172800, opt-parser=true, enabled=true
https://ddgksf2013.top/rewrite/StartUpAds.conf, tag=开屏广告拦截, update-interval=172800, opt-parser=true, enabled=true
https://raw.githubusercontent.com/blackmatrix7/ios_rule_script/master/rewrite/QuantumultX/Redirect/Redirect.conf, tag=重定向, update-interval=172800, opt-parser=true, enabled=true

# 定时任务,UI交互脚本,网络切换脚本配置
[task_local]


# 流媒体解锁查询
event-interaction https://raw.githubusercontent.com/KOP-XIAO/QuantumultX/master/Scripts/streaming-ui-check.js, tag=流媒体解锁查询, img-url=arrowtriangle.right.square.system, enabled=true

# GeoIP 查询
event-interaction https://raw.githubusercontent.com/KOP-XIAO/QuantumultX/master/Scripts/geo_location.js, tag=GeoIP 查询, img-url=location.fill.viewfinder.system

# 网络信息查询
event-interaction https://raw.githubusercontent.com/xream/scripts/main/surge/modules/network-info/net-lsp-x.js, tag=网络信息查询, img-url=link.circle.system, enabled=true


# 本地HTTP服务器
[http_backend]



[mitm]
hostname = 
passphrase = 
p12 = 

📌 转载信息
原作者:
Null404
转载时间:
2026/1/12 17:10:14

各位佬好,我是 Wipely 的作者。

上周发帖后收到了很多兄弟的反馈,确实被喷得不轻(感谢大家的真实吐槽)。 大家最关心的几个问题:“识别不准”、“怕上传文件不安全”、“水印去不掉很烦”

这周我没闲着,针对这些痛点肝了一周,带来了 Wipely 的重大更新

核心更新

1. OCR 准确率大幅提升 之前的版本确实有点 “瞎”,小字、模糊字经常漏。 这次我优化了识别模型,文字捕获率显著提升(相对首发)

2. 支持「纯离线模式」 (Privacy First) 这是大家最关心的隐私问题。 现在,你可以选择离线模式。在这个模式下:

  • 所有计算(OCR、Inpainting 修复)全部在你的本地浏览器 (WebAssembly) 中完成
  • 没有任何图片数据会被上传到服务器 (不用担心你的 PPT 隐私泄漏了)
  • 拔掉网线也能跑!(当然加载网页还得联网一下)
  • 真正做到了 “你的数据只属于你”。

3. 水印不再 “Burn 死在图里” 之前擦除后的图片带的水印,是直接 burn 在图层里的。 现在的逻辑改了:水印会作为一个独立的、可编辑的对象层添加。 如果不喜欢?直接在 ppt 中选中 → Delete。 就这么简单,把选择权还给大家。


关于福利

上周的首发活动不管是骂是夸,热度都很高,感谢大家支持。

  • 永久福利: L 站用户的 每天 50 个文件 额度依然有效(多页 PDF 算 1 个文件)。

传送门

Wipely - NotebookLM2PPT Tool


📌 转载信息
转载时间:
2026/1/12 17:09:47

前倾回顾
根据 L 友的推荐,老弟入手了一台京东云太乙 Plus.
教程已经比较详细了,但是我还是根据我自己遇到的问题记录分享一下:

  1. 拆开设备后,只有 TTL 刷机线夹子是不够的,还需要一个 USB 转 TTL 的设备,TTL 夹子买单排;2.54mm 间隔;4p/4 针就可以。


    注意嗷,这俩东西还需要一个双公头的杜邦线连接。下图非常之形象了。

    然后一定要问商家要 USB 转 TTL 的设备的驱动,装好驱动。
  2. 夹子参考 hugoYuan 的教程夹好,找一个 Lan 口接入电脑,电脑需要设置好固定 IP:192.168.1.25, 教程里写的很详细,这里不再复述。
  3. 使用 putty 链接串口,速度填 115200 然后给太乙 Plus 通电,putty 这时候就会跳启动的程序了,如果没有,就检查自己的 ttl 连接的线材是否正常,驱动是否正常,巴拉巴拉,我这里卡了很久是我原来自己买的 USB 转 TTL 的设备不行。参考上图重新买了个新的。
  4. 最后刷机成功,也是用上了 QWRT, 猫棒测试了诺基亚 G-010S-A,华为 MA5671A,阿尔卡特 G-010S-P。最后稳定且正常的是诺基亚 G-010S-A, 猫棒是找商家刷好的系统。
  5. 小插曲,在太乙主板上发现了一个 A1 的插口,就找了一个小风扇怼上去了。发现虽然接口不是很匹配,但是能用。

    拿双面胶粘顶盖上。

    装上顶盖,小风扇正常运转
  6. 塞弱电箱里
  7. 温度没超过 45 度,效果还不错。
  8. 测速 千兆带宽跑成这样也不错了,PS:图便宜,用东莞联通千兆带宽
  9. 网络拓扑图

📌 转载信息
原作者:
SimonChen
转载时间:
2026/1/12 17:09:33

目前只有プリンセスコネクト!Re:Dive 无法 dump,这玩意的 crackproof 不知道改了什么东西,会把完整的 PE 切成几百个分页,不过可以分析安卓版本的,壳子难度中等。
由于 Unity 的源代码得买,所以这里只能用反编译器 + pdb 来分析

LoadScriptingRuntime 这个函数加载了 GameAssembly.dll,相关的加载逻辑在 LoadIl2Cpp 里面,LoadIl2Cpp 的返回值是 GameAssembly.dll 的 handle

解法就很明显了,可以用 frida 拦截 LoadIl2Cpp 返回时候的动作,这时候 GameAssembly.dll 刚刚被 LoadLibraryW 加载上去,并且完成了一些初始化(crackproof 修复导入表,解密解压代码段等等),但是没有执行任何 il2cpp 部分的代码,dump 下来就能获得完全干净的 GameAssembly.dll 了。
dump 下来以后还需要简单的修复一下 PE 头,完整代码如下:

'use strict';

const UNITY_PLAYER = "UnityPlayer.dll";
const TARGET_RVA = ;
const GAMEASSEMBLY = "GameAssembly.dll";
const DUMP_PATH = "D:\\Reverse\\Frida_Hook\\GameAssembly_dump_fix.dll";
const CHUNK_SIZE = ;


function dumpModule(moduleName, outPath) {
    try {
        const m = Process.getModuleByName(moduleName);
        console.log("[*] Found module:", m.name, "Base:", m.base, "Size:", m.size);

        const size = m.size;
        const base = m.base;

        // raw→virtual const localCopy = fixPEHeader(base, size);
        if (localCopy === null) {
            console.error("[!] Fix PE Header failed");
            return;
        }

        const file = new File(outPath, "wb");
        console.log("[*] Output:", outPath);

        let offset = 0;
        while (offset < size) {
            const chunk = Math.min(CHUNK_SIZE, size - offset);
            const buf = localCopy.add(offset).readByteArray(chunk);
            file.write(buf);
            offset += chunk;
        }

        file.flush();
        file.close();
        console.log("[*] Dump finished:", outPath);

    } catch (e) {
        console.error("[!] Dump exception:", e);
    }
}

function hookAfterUnityPlayerLoaded(module) {
    if (module.name !== UNITY_PLAYER) return;
    console.log("[+] UnityPlayer.dll loaded @", module.base);

    const targetAddr = module.base.add(TARGET_RVA);
    console.log("[*] Hooking LoadDynamicLibrary @", targetAddr);

    Interceptor.attach(targetAddr, {
        onLeave(retval) {
            console.log("[*] LoadDynamicLibrary returned:", retval);

            try {
                const found = Process.findModuleByName(GAMEASSEMBLY);
                if (found) {
                    console.log("[*] GameAssembly.dll loaded -> dumping...");
                    dumpModule(GAMEASSEMBLY, DUMP_PATH);
                } else {
                    console.warn("[!] GameAssembly.dll not found yet");
                }
            } catch (e) {
                console.error("[!] Dump error:", e);
            }
        }
    });
}


function fixPEHeader(base, size) {
    try {
        const localBuf = Memory.alloc(size);
        Memory.copy(localBuf, base, size);

        const dos = localBuf.readPointer();
        const e_lfanew = localBuf.add().readU32();
        const nt = localBuf.add(e_lfanew);

        const numSections = nt.add().readU16();
        const optSize = nt.add().readU16();
        const firstSec = nt.add( + optSize);

        console.log("[*] Sections:", numSections, "First section @", firstSec);

        let secPtr = firstSec;
        for (let i = 0; i < numSections; i++) {
            const virtualAddress = secPtr.add(0xC).readU32();
            const virtualSize = secPtr.add().readU32();

            // 把 raw data 指向 virtual
            secPtr.add().writeU32(virtualAddress);       // PointerToRawData
            secPtr.add().writeU32(virtualSize);          // SizeOfRawData

            secPtr = secPtr.add(); // 下一节
        }

        return localBuf;

    } catch (e) {
        console.error("[!] fixPEHeader exception:", e);
        return null;
    }
}


setImmediate(() => {
    console.log("[*] Script started.");

    Process.attachModuleObserver({
        onAdded(module) {
            console.log("[*] Module loaded:", module.name);
            if (module.name === UNITY_PLAYER) {
                hookAfterUnityPlayerLoaded(module);
            }
        },
        onRemoved(module) { }
    });

    try {
        const existing = Process.getModuleByName(UNITY_PLAYER);
        if (existing) hookAfterUnityPlayerLoaded(existing);
    } catch (e) { }
});

由于 crackproof hook 了自身的 openprocess 并且进行的 handle 权限过滤,frida-server 是肯定不行了,但是 Windows 这玩意相当开放,有以下方法能把 frida-gadget.dll 塞进去:

  1. 劫持 version.dll
  2. 修改 UnityPlayer.dll 的导入表,把 frida-gadget.dll 导出表的任意函数塞进去。
  3. 搓一个 ring0 驱动,从内核用 APC 方法把 frida-gadget.dll 强行塞进去。

frida-gadget.dll 塞进去了以后还需要写一个配置文件,名称命名为 frida-gadget.config

{
  "interaction": {
    "type": "script",
    "path": "D:\\Reverse\\Frida_Hook\\crackproof\\1.js"
  }
}

这样 frida-gadget.dll 加载后就能自动执行脚本,手动连接执行肯定是来不及的,因为 GameAssembly.dll 加载时机非常早。

对于ウマ娘 プリティーダービー这种会检查目录下面有没有多余的 dll,可以把带 crackproof 但是不检查 dll 的启动器复制过去,然后就能随意改导入表了。(不带 crackproof 不检查 dll 的启动器貌似不行,疑似启动器上面的壳子有额外检测)


📌 转载信息
转载时间:
2026/1/12 17:05:44

手里 2api 太多没地方用?别浪费,用来帮你闲鱼捡捡漏。
项目地址:

好久没发帖了,最近把旧坑补了补,前端后端都重构了一遍,试了试,用起来更顺手了,风控也基本规避的差不多了。

在线体验地址:web-ui
登录名:admin
登录密码:admin123
注意 在线体验不要录入自己的 apiKey 信息和闲鱼 cookie 信息!!

点点 Star 点点赞 来点夸夸
I need more credit! plz!


群众里有调皮鬼~把我跑的示例结果都删了 不过不影响 反正是在线体验 随便造


📌 转载信息
转载时间:
2026/1/12 17:05:33

前段时间搞了个《简历润色》的小工具,开发的比较仓促,制作了单句润色的功能。有佬友提出了一些建设性的建议。吸取佬友们的建议了,我重新做了《简历炼金术》这款简历润色的工具,希望能在这个寒冷的招聘环境中帮助到有需要的佬友。

如果佬们喜欢希望多多给 github 点点 star,你们的 star 就是我的动力呀!
如果佬们喜欢希望多多给 github 点点 star,你们的 star 就是我的动力呀!
如果佬们喜欢希望多多给 github 点点 star,你们的 star 就是我的动力呀!

地址

工具地址: https://resume.de5.net/
github 地址: GitHub - Anarkh-Lee/resume-alchemist: 一款基于 AI 的智能简历优化工具,帮助求职者打造更具竞争力的简历。通过 AI 分析、毒舌点评、STAR 法则润色和职位匹配等功能,让你的简历脱颖而出。
大概长这个样子:

演示:

3-ezgif.com-video-to-gif-converter

主要功能

1. 独家 “毒舌” 点评模式 (The Roast)

痛点:身边的朋友不敢说真话,导致你不知道简历烂在哪里。
方案:上传简历后,AI 会立刻化身最严厉的 HR。

  • 它不会给你灌鸡汤,而是直接开喷:“你的项目经历写得像个报菜名的服务员,全是技术栈堆砌,我看不到任何深度!”
  • 视觉暴击:0-100 的动态评分 + 犀利的评语,瞬间打破你的自我感觉良好,逼你直面问题。

2. 七大行业深度适配 (Multi-Industry)

痛点:通用的 AI 根本不懂隔行如隔山。
方案:我构建了一套复杂的 Config Schema,针对不同职业注入完全不同的人设:

  • 程序员:关注算法基础,系统架构,工程质量,技术广度,业务理解,影响力。
  • 产品经理:关注商业洞察,用户体验,数据分析,项目管理,沟通协调,战略规划。
  • UI/UX 设计师 :关注视觉表现,交互逻辑,用户同理心,设计规范,品牌理解,工具效率
  • 数据分析师:关注统计学基础,建模能力,业务洞察,数据可视化,SQL/Python, 决策支持。
  • 市场 / 运营 :关注获客能力,内容创意,活动策划,数据复盘,渠道管理,品牌建设。
  • 销售:关注客户开发,谈判技巧,业绩达成,渠道拓展,客户维系,销售管理。
  • HR :关注招聘配置,组织发展,薪酬绩效,员工关系,企业文化,流程合规。

3. 单句 “原子” 润色 (Atomic Polish) —— 保留了原来的这部分功能

痛点:知道要改,但不知道怎么改得高大上。
方案:你只需要选中一句话(比如 “我用了 Redis”),系统提供三种维度的改写:

  • 标准专业版:去口语化,商务范儿。

  • 行业高阶版:程序员变成 “架构师视角”,PM 变成 “战略视角”。

  • 数据驱动版 (Data-Driven):这是最强的!AI 会强制插入高亮占位符:

    “重构缓存策略,将核心接口 QPS 提升了 [X%],平均响应延迟从 [Yms] 降低至 [Zms]。” (系统会高亮显示 [] 部分,逼你去填数字。填不出来?说明你的工作产出有问题!)
    2
    【开源自荐 4】简历炼金术–简历润色升级啦,新增 7 大行业简历润色、独家毒舌点评模式、六边形能力雷达图、JD 职位匹配度分析、一键 STAR 法则改写简历等等4

4. 智能可视化诊断 (Hexagon Diagnosis)

痛点:不知道自己是偏科还是全能。
方案:根据你的简历内容和目标职位,自动生成动态的六边形能力雷达图

  • Java 开发显示:[算法,架构,工程,业务…]
  • 运营显示:[获客,活,转化,创意…] 让你的短板一目了然。

5. JD 职位匹配度分析 (Job Match)

痛点:海投命中率低,因为简历没有针对性。
方案:左手简历,右手 JD(职位描述)。

  • AI 会逐行比对,计算匹配度(Match Rate)。
  • 缺口分析:直接告诉你 “JD 里要求熟悉 Docker,但你的简历里一次都没出现,建议补充”。

6. 一键 STAR 法则全篇重写

痛点:懒得一句句改,想先看个大概。
方案:基于经典的 STAR 原则 (Situation, Task, Action, Result),一键重构整个项目经历模块。把 “流水账” 瞬间变成 “英雄之旅” 的故事结构。

7. A4 导出 & ATS 友好模板–这部分还有待提升

痛点:网页做得很漂亮,导出 PDF 格式全乱,被大厂系统直接过滤。
方案

  • 内置 极客版 (Geek)大厂精英版 (Elite)极简版 (Minimalist) 三套模板。
  • 使用 CSS @media print 级控制,确保导出就是标准的 A4 纸张,不切边、不乱码。
  • ATS 优化:结构化数据排版,确保招聘系统能 100% 抓取你的关键词。

8. 隐私安全第一 (Privacy First)

痛点:把简历上传到不明网站,担心被卖数据。
方案

  • 数据本地处理,不保存用户简历

📌 转载信息
原作者:
anarkh
转载时间:
2026/1/12 16:50:16

项目地址: GitHub - looplj/axonhub: AxonHub is a modern AI gateway system that provides a unified OpenAI ( Chat Completion, Responses), Anthropic, Gemini and AI SDK compatible API

前文见:[开源] AI 网关 AxonHub 发布 v0.7.0 ,支持模型管理以及批量映射

本次是个大版本,攒了挺多功能,所以发布时间稍晚,欢迎大家试用反馈,觉得有用的话,欢迎点个 。

主要大功能如下:

  1. 渠道监控监控展示(基于历史 request 数据)
  1. 备份恢复

  2. Prompt 注入

  3. 自动禁用配置

  4. 其他大量细节优化和修复

这个版本变更很大,为了尽快发布,很多细节还没完善,欢迎大家反馈。

然后标题也起的很大(抄的 DeepSeek v3.1 发布),其实 prompt 管理等相关 agent 功能是早就计划的内容了,从 0.4 开始就准备做,一直到 v0.8 才是真的落地,中间对于网关代理的基础功能做了很多完善优化,感谢大家的反馈。

接下来会在继续完善网关基础功能的前提下,加入更多 agent 相关的能力,其实这也是这个项目的启动初衷;当然功能越多,服务越重,有很多需要考虑的,比如是不是大部分佬友不需要 agent 能力,是不是应该新开一个项目,或者是构建的时候拆分,欢迎大家提出反馈,


📌 转载信息
原作者:
looplj
转载时间:
2026/1/12 16:41:33

本地配置 texlive + vscode

1. 背景

随着 overleaf 免费版的编译时间不断缩小,遇到过长的文本可能出现无法编译超时的情况。于是考虑在本地
配置 texlive 进行编译。由于我使用 vscode 较多,因此并没有下载 texworks, 而是在 vscode 上进行配置,同时
可以享受到 vscode 的 AI 集成等功能。

本机环境为 windows11。

2. 安装 texlive

首先前往 Index of /CTAN/systems/texlive/Images/ | 清华大学开源软件镜像站 | Tsinghua Open Source Mirror

出现如图所示的页面,texlive.iso 或 texlive2025.iso 进行下载即可。

下载时间十几分钟左右,需耐心等待。

接着在本地解压,得到

选择 install-tl-windows.bat 进行安装,即可。可以选择不安装前段 texworks。

3. 配置 vscode

首先安装 vscode 的 latex 插件,一般选择为 LaTeX Workshop。

\documentclass{article}
\usepackage{fontspec}
\usepackage{xeCJK}
\setCJKmainfont{SimSun}
\usepackage{geometry}    % 调整页边距
\usepackage{amsmath}     % 数学公式支持
\usepackage{graphicx}    % 插入图片


% 2. 基础设置
\geometry{a4paper, margin=1in} % A4纸,1英寸页边距
\title{LaTeX中文文档示例}       % 文档标题
\author{测试用户}               % 作者
\date{\today}                   % 日期(\today表示当前日期)

% 3. 文档开始
\begin{document}
\maketitle % 生成标题(包含标题、作者、日期)

% 正文段落
这是一段中文正文示例。LaTeX擅长处理复杂排版,尤其在数学公式、学术引用和长文档结构上优势明显。

% 无序列表(可用于罗列要点)
\begin{itemize}
    \item 优点1:排版美观,格式统一
    \item 优点2:数学公式支持完善(如下方示例)
    \item 优点3:跨平台兼容,文档格式稳定
\end{itemize}

% 数学公式示例(两种常用形式)
% 1) 行内公式(嵌入正文):勾股定理 $a^2 + b^2 = c^2$
% 2) 独立公式(单独成行,自动编号):
\begin{equation}
    f(x) = \int_{-\infty}^{+\infty} e^{-t^2} dt = \sqrt{\pi}
\end{equation}

% 插入图片(需将图片文件放在同一目录,替换"test.jpg"为实际文件名)
\begin{figure}[h] % [h]表示优先将图片放在当前位置
    \centering % 图片居中
    \includegraphics[width=0.6\textwidth]{test.jpg} % 宽度设为页面60%
    \caption{图片示例(可修改为实际图片说明)} % 图片标题
    \label{fig:test} % 图片标签(用于后文引用)
\end{figure}



\end{document}

在 latex 中最麻烦的问题是中文字体的寻找,Windows 上的字体和你认为的名称可能有较大出入,因此会出现
字体未找到的错误。

这里采用 xeCJK,因为 ctex 的默认配置会找 SimHei 字体,而本机简黑字体可能名称不直接叫 SimHei。
故出现如图错误

若想使用 ctex 则需要将默认配置关闭,并重新配置字体。

\documentclass[fontset=none]{ctexart}
\setCJKmainfont{SimSun}
\begin{document}
你好,世界
\end{document}

那么我们如何在本机上找到我们需要的字体呢,这时候可以用到 powershell 中的 fc-list 命令,查找本机上所有字体。

我们可以看到,主要有两个 C:/WINDOWS/Fonts 和 H:/texlive/2025/texmf-dist/fonts 两个文件夹下的字体,
H:/texlive/2025/texmf-dist/fonts 是 texlive 自带字体,主要用于数学,西文等。
C:/WINDOWS/Fonts/ 是我们本机自带字体,我们将要在他的目录下寻找我们需要的中文字体。

当我们需要查找仿宋字体时,我们可以 fc-list | Select-String “song”, 得到如图结果!

这里的 STFangsong 就是我们需要的名称。

另一个问题则是 settings.json 的配置,我之前使用这位 https://zhuanlan.zhihu.com/p/624932249 博主的配置。但发现存在引用时,会发生无法二次编译的问题,于是进行了添加

{ "latex-workshop.latex.autoBuild.run": "onSave", "latex-workshop.showContextMenu": true, "latex-workshop.intellisense.package.enabled": true, "latex-workshop.message.error.show": false, "latex-workshop.message.warning.show": false, "latex-workshop.latex.tools": [ { "name": "latexmk_xelatex", "command": "latexmk", "args": [ "-xelatex", "-synctex=1", "-interaction=nonstopmode", "-file-line-error", "-outdir=%OUTDIR%", "%DOCFILE%" ] } ], "latex-workshop.latex.recipes": [ { "name": "LaTeXmk (XeLaTeX)", "tools": ["latexmk_xelatex"] } ], "latex-workshop.latex.recipe.default": "LaTeXmk (XeLaTeX)", "latex-workshop.latex.clean.fileTypes": [ "*.aux", "*.bbl", "*.blg", "*.idx", "*.ind", "*.lof", "*.lot", "*.out", "*.toc", "*.acn", "*.acr", "*.alg", "*.glg", "*.glo", "*.gls", "*.ist", "*.fls", "*.log", "*.fdb_latexmk" ], "latex-workshop.latex.autoClean.run": "onFailed", "latex-workshop.view.pdf.viewer": "tab", "latex-workshop.view.pdf.autoReload.enabled": true, "latex-workshop.view.pdf.reloadOnStart.always": true, "latex-workshop.view.pdf.internal.synctex.keybinding": "double-click" } 

精简了一些指令,只使用 latexmk_xelatex 用于管理多次编译。

4. 引用

https://zhuanlan.zhihu.com/p/624932249


📌 转载信息
原作者:
lycx
转载时间:
2026/1/12 16:41:19

原项目地址:GitHub:GitHub - TheSmallHanCat/flow2api: 无限次数的 banana pro!逆向账号池,支持负载均衡、AT 自动刷新、缓存策略、代理等。Q 交流群 1073237297
原帖地址:[Flow2api] 无限次数的 banana pro!逆向账号池,支持负载均衡、AT 自动刷新、缓存策略、代理等

发帖原因是因为自己折腾了好久飞牛 nas-docker 安装后总有一些问题。
后来用 ai 改了下可以直接部署到 huggingface.co(抱脸)space,下面是具体步骤
第 1 步复制空间:
【小白教程 huggingface.co 搭建 [Flow2api] 】无限次数的 banana pro!逆向账号池1

第 2 步:复制后会提交部署

第 3 步:获取项目访问网址

默认账号密码:admin/admin
第 4 步:安装浏览器脚本(出现提取错误请将 http 改成 https)

其他对应后台里面提示设置就好了,这个仅针对小白,有不懂的可以问,但是可能你问我我也解决不了啥,有能力的还是直接用原作者 @ TheSmallHanCat 的项目。
关于提取错误:将 http 改成 https
关于 403:无头打码不稳定 最稳定目前应该是 https://yescaptcha.com/ 有 1500 积分可用


📌 转载信息
转载时间:
2026/1/12 16:40:43

引言:唐杰、杨植麟、林俊旸、姚顺雨聚会:AI 发展的共识和差异;“死了么”APP 爆火,开发者:用户数翻了 50 倍,尚不准备改名;消息称微软本月将启动新一轮大裁员,规模达 1.1 万至 2.2 万人;字节实习生全面涨薪,最高涨幅达 150%;马斯克:X 平台将于七天内开源其算法;消息称约翰・特努斯成库克头号苹果接班人,曾主导 iPhone Air 项目;OpenAI 预留 500 亿美元员工股权激励池;王腾官宣创业:核心成员来自小米、华为,薪资福利基本看齐大厂;京东将推出全年龄段人群 AI 玩具……

 

行业热点

唐杰、杨植麟、林俊旸、姚顺雨聚会:AI 发展的共识和差异

 

在近日的 AGI-Next 前沿峰会上,唐杰、杨植麟、林俊旸、姚顺雨等行业标杆人物,与张钹院士共同勾勒出大模型发展的新图景,围绕技术突破、行业分化、范式变革与中国 AI 的未来展开了一场思想碰撞。

 

在技术发展的核心议题上,各位领军者达成了“突破现有瓶颈、迈向多元智能”的共识。智谱创始人唐杰直言,中国开源大模型虽成果斐然,但与美国闭源大模型的差距可能仍在拉大,行业需保持清醒认知。他提出,大模型的下一阶段应借鉴人脑认知过程,重点突破三大能力:多模态“感统”能力,实现视觉、声音、触感等多源信息的统一感知;构建全人类“第四级记忆”,解决模型记忆与持续学习不足的问题;探索反思与自我认知,挖掘大模型自主意识的可能性。2026 年,智谱将聚焦架构创新、多模态感统等方向,推动 AI 进入长任务场景并实现具身智能,同时预判今年将成为 AI for Science 的爆发年。

 

月之暗面 Kimi 创始人杨植麟则从 Agentic 时代的技术架构切入,强调提升 token efficiency 与实现 long context 的双重重要性。他认为,前者能以更少 token 达到同等效果,后者可突破传统架构局限,支撑复杂 Agent 任务,二者结合方能实现更高水平的代理智能。更具启发性的是,他提出智能具有“非同质化”属性,未来的技术升级不仅是算力的堆砌,更关乎“品味”——即对 AI 价值观与形态的深层理解,这种差异性将催生出更多新颖应用场景。面对 AGI 潜在风险,杨植麟秉持开放态度,认为 AGI 是提升人类文明上限的关键工具,应在风险可控的前提下持续迭代突破。

 

通义 Qwen 技术负责人林俊旸则将目光投向物理世界,提出打造 Multimodal Foundation Agent 的愿景。他认为行业发展“殊途同归”,全模态模型与具身推理是核心方向,Agent 将从数字世界走向物理世界。林俊旸描绘了具体的落地场景:数字特工可实现 GUI 操作与 API 调用,物理特工则能完成斟茶倒水等实体交互动作,这种从虚拟到现实的延伸,为 AI 应用开辟了广阔空间。

 

作为压轴嘉宾,张钹院士从旁观者视角给出了深刻洞见。他指出,大模型当前擅长跨领域泛化,但落地应用需实现跨任务泛化,重点解决分布外、长尾场景的泛化难题,具体应推进多模态、具身交互、结构化知识对齐等六大方向。在人机关系上,他大胆质疑“机器必须与人类对齐”的传统认知,认为人类存在固有缺陷,无需让 AI 完全复刻;而 AI 治理的核心,不应是约束机器,而是规范研究者与使用者的行为。值得关注的是,张院士一改以往态度,鼓励最优秀的学生投身创业,认为人工智能时代的企业家应承担起将知识、伦理与应用转化为通用工具的使命。

 

圆桌对话环节,嘉宾们围绕行业分化、范式变革、Agent 战略与中国 AI 的胜算四大议题展开深度探讨。腾讯首席科学家姚顺雨从跨中美视角指出,To C 与 To B 场景的模型需求已分道扬镳:To C 用户对强智能需求有限,To B 领域则呈现“智能即生产力”的鲜明特征,模型强弱分化将愈发明显。在范式变革方面,姚顺雨提出自主学习已实际发生,只是尚未形成颠覆性感知;唐杰则预判 2026 年将出现新范式,单纯依靠扩算力、扩数据的 Scaling 模式已难以为继,创新是唯一出路。

 

关于中国 AI 的全球竞争力,嘉宾们既正视差距也保持信心。姚顺雨认为中国团队在快速复现与局部优化上具备优势,但缺乏敢于探索未知的“冒险家”;林俊旸坦言美国在算力投入上领先 1-2 个数量级,中国团队领先概率约为 20%,但“穷则思变”可能催生创新机会;唐杰则强调,凭借敢冒险的年轻一代、良好的发展环境与持续深耕的定力,中国 AI 有望在长期竞争中实现突破。

 

“死了么”APP 爆火,开发者:用户数翻了 50 倍,尚不准备改名

 

2026 年 1 月,郑州月境技术 3 人 95 后团队开发的 8 元付费 APP “死了么” 爆火,苹果付费软件排行榜登顶,用户数较此前翻 50 倍仍在上涨。据悉,该 APP 专为独居人群设计,2 日未签到即自动向紧急联系人发邮件,因名字有传播力、需求旺盛等爆火,团队表示暂不改名,计划上线短信提醒、留言等功能。

 

该软件不需注册登录,首次使用只需填写本人姓名与紧急联系人邮箱即可。每天打开应用轻轻一点完成签到,后台自动监测状态。系统有一个异常未签到自动通知的功能,如果用户连续 2 天没有在应用内签到,系统将于次日自动发送邮件告诉对方。

 

其背后公司名为月境(郑州)技术服务有限公司,2025 年 3 月份才成立,注册资本 10 万元。创始人之一小郭对媒体介绍,团队有 3 人,一位是朋友,一位是网友,都是 95 后。这款 APP 耗时 1 个月完成,开发成本约 1500 元。

 

据报道,“死了么”在 2025 年中旬上线,不过期间团队未花过多精力打理,在一个月前才做了一次更新。上线后很长一段时间里用户量很少,团队也不擅长营销,直到最近突然爆火,用户数达到之前的 50 倍,目前热度还在上涨。不过由于用户规模数能直接推导出团队收益,小郭表示,目前不便透露具体用户规模。

 

消息称微软本月将启动新一轮大裁员,规模达 1.1 万至 2.2 万人

 

1 月 7 日消息,据报道,微软公司计划于 2026 年 1 月启动新一轮裁员。预计全球范围内裁员规模将达到 1.1 万至 2.2 万人,约占其全球约 22 万名员工总数的 5% 至 10%。此次裁员预计将在 1 月第三周实施。有员工透露,微软 Azure 云团队、Xbox 游戏部门以及全球销售部门将是裁员的重点领域。截至目前,微软尚未证实该计划。微软在 2025 年尽管全年营收与利润保持稳健态势,该公司仍通过多轮裁员削减了超过 1.5 万个岗位。

 

与此同时,微软正加大对人工智能系统的投入力度。仅在 2026 财年第一季度,其资本支出就高达 349 亿美元(现汇率约合 2441.36 亿元人民币)。该公司预计全年总支出将突破 800 亿美元(现汇率约合 5596.24 亿元人民币),超过 2025 财年水平。这笔资金的大部分将用于数据中心、芯片及人工智能工具的建设与研发。分析师认为,受此战略调整影响,微软正将资金从人力成本转向长期技术资产投资。因此,中层管理人员及传统产品团队将面临更高的裁员风险。

 

字节实习生全面涨薪,最高涨幅达 150%

 

1 月 5 日,有消息称字节跳动实习生全面涨薪,覆盖技术、产品、运营等多个岗位,薪资标准自 2026 年 1 月 1 日起正式生效。其中,技术类实习生日薪调整至 500 元,较此前上涨 25%。产品类岗位从每日 200 元提升至 500 元,较此前上涨 150%。此外,运营、设计、市场、职能、销售等其他岗位也均有不同程度涨薪,调整后日薪区间涵盖 100 余元至 400 余元。

 

需要注意的是,此次公布的涨薪标准主要适用于北上广深杭等一线城市。同时,具体薪资仍会根据岗位类型、所在业务线等因素有所区别,并非完全统一。通过查询招聘软件发现,目前北京地区的产品实习生日薪已调整为 500 元,运营、营销类实习生日薪则为 350 元/天。

 

据了解,字节跳动 2025 年 12 月发布面向全球员工的内部邮件,宣布继续加大人才投入,提高薪酬竞争力、提升期权激励力度。具体包括以下措施:增加奖金(含绩效期权)投入,2025 全年绩效评估周期相比上个周期提升 35%;大幅增加调薪投入,较上个周期提升 1.5 倍;提高所有职级薪酬总包的下限(起薪)和上限(天花板)。该公司表示,此举系为确保员工薪酬竞争力和激励回报在全球各个市场都“领先于头部水平”。

 

马斯克:X 平台将于七天内开源其算法

 

社交媒体平台 X 创始人埃隆・马斯克于周六表示,该平台将在七天内面向公众开源其新版算法,这一算法包含用于决定向用户推荐哪些帖文及广告的相关代码。“这项举措将每四周推行一次,同时会附上详尽的开发者说明文档,助力大家了解算法的具体更新内容。”身为 X 平台所有者的马斯克在该平台发布的一则帖子中如此表示。

 

消息称约翰・特努斯成库克头号苹果接班人,曾主导 iPhone Air 项目

 

1 月 9 日消息,报道称伴随着现任首席执行官蒂姆・库克年满 65 岁,且其本人有意减轻工作负荷,苹果公司已加速接班人计划,而约翰・特努斯再次被认为是接班热门人选。媒体援引博文介绍,现年 65 岁的库克向高层坦言感到疲惫,希望减轻工作负担。若库克决定卸任 CEO 一职,极有可能转任苹果董事会主席。在众多候选人中,现任硬件工程主管约翰・特努斯尽管行事低调,但已跃升为头号热门人选。特努斯现年 50 岁,这一年龄恰好与库克 2011 年接替乔布斯时的年龄相同。

 

知情人士透露,特努斯之所以脱颖而出,源于其在产品定义与商业利益间“穿针引线”的精准把控力。据内部人士回忆,2018 年前后,苹果为了提升摄影与增强现实(AR)体验,曾考虑在 iPhone 上引入一种微型激光(LiDAR)组件。然而,该组件高达 40 美元的单项成本将严重压缩利润。特努斯当时果断建议:仅在价格更高的 Pro 机型上搭载该组件。他认为,购买 Pro 系列的忠实用户更愿为新技术买单,而普通用户对此并不敏感。这一决策不仅保住了利润,也确立了产品分级策略。

 

针对外界关于其缺乏创新能力的质疑,Ternus 的支持者指出,他实际上深度参与了近年来多个关键产品的研发。值得注意的是,备受瞩目的 iPhone Air 以及即将面世的折叠屏 iPhone 均由他牵头主导。这些项目显示,Ternus 不仅具备卓越的执行力,在推动产品形态创新方面同样拥有实际战绩。此外在管理风格方面,特努斯被认为与库克高度相似。他于 2001 年加入苹果,以注重细节和深谙庞大的供应链网络著称。

 

OpenAI 预留 500 亿美元员工股权激励池

 

1 月 8 日消息,据外媒报道,人工智能公司 OpenAI 去年秋季设立了一项规模达约 500 亿美元的员工股票激励池,相当于公司当时估值的约 10% 股份,该估值基于 2025 年 10 月约 5000 亿美元 的公司估值水平。报道指出,此前 OpenAI 已向员工授予约 800 亿美元的已归属股权,本次新增的股票激励池与既有部分合计约占公司总股份的 26%。

 

在过去一年中,OpenAI 的估值经历了快速增长。2025 年年中公司通过一笔员工股份二级市场交易达到约 5000 亿美元估值,高于前一次由 SoftBank 等领投的 3000 亿美元融资轮。二级股权交易不仅为员工提供了变现渠道,同时也被视为衡量市场对 OpenAI 增长前景信心的一个指标。

 

这一大规模股权激励池反映了 OpenAI 在全球 AI 竞争中对人才吸引与保留的高度重视。在人工智能研发与产品商业化日益加剧的背景下,顶尖 AI 研究人员和工程师成为市场追逐的稀缺资源,竞争对手包括 Meta、Google 等科技巨头均提供了丰厚的股权激励条件。在行业快速发展与人才争夺日益激烈的背景下,OpenAI 的股权策略旨在通过高比例激励计划锁定核心技术人才,同时支持公司未来产品和业务长期增长。

 

王腾官宣创业:核心成员来自小米、华为,薪资福利基本看齐大厂

 

1 月 8 日,王腾在社交平台公布最近情况。王腾称,从小米离开后开始筹备创业,最近新公司已经成立,公司取名为“今日宜休”,目标是通过研发睡眠健康相关的产品,让大家能拥有更好的精力状态。王腾表示,目前已经组了一个初创团队,核心成员主要来自小米、华为等头部科技大厂。

 

王腾还放出招聘广告,重点招聘软硬件产品经理、 健康/AI 算法工程师、脑科学睡眠健康专家等岗位。王腾还解释为何选择睡眠健康、精力管理方向:1. 首先睡眠、精力已经成为每个人都关心的健康问题。2. 社会对睡眠的价值理解有待提升。3. 新时代下 AI 大模型发展迅速,让很多产品的体验能大幅提升。公开信息显示,北京今日宜休科技有限责任公司成立于 2026 年 1 月 6 日,由王腾持股 55%并担任法定代表人,注册资本是 100 万人民币,注册地址是北京市海淀区。

 

此前报道,去年 9 月 8 日,小米发布内容通报,原小米中国区市场部总经理、REDMI 品牌总经理王腾因泄密被小米公司辞退。11 月份,王腾发文称告别手机行业。他表示前段时间因为自己的问题离开小米,最近也有一些公司发来邀约,但综合竞业限制和个人兴趣的考虑,想跟手机行业说声再见了,愿还在这个行业的朋友们继续加油,期待更精彩的产品出现。王腾还透露 11 月开始准备尝试些新的赛道,大的方向是科技+健康领域,具体还在筹备中,“迎接新的挑战,正是闯的年纪。”

 

京东将推出全年龄段人群 AI 玩具

 

1 月 8 日消息,据媒体报道,京东成立“变色龙业务部”,全面承接 JoyAI App、JoyInside、数字人等核心 AI 产品的打造与商业化。报道称,全新的第二批 AI 玩具已在筹备中,此次新品将推出面向全年龄段人群的 AI 玩具,将于 1 月中旬全面上线。

 

值得一提的是,在 2025 世界人工智能大会(WAIC)期间,京东正式宣布旗下大模型品牌升级为 JoyAI,以及京东在大模型方向的技术进展和 JoyAI 应用全景图,同时也发布了全新的附身智能品牌 JoyInside。据当时介绍,JoyAI 大模型拥有从 3B 到 750B 全尺寸模型家族,且通过动态分层蒸馏、跨领域数据治理等创新技术,大模型推理效率平均提升了 30%,训练成本降低 70%。

 

此外,谈到 JoyInside,截至 2025 年 7 月,已有众擎、云深处、商汤元萝卜、火火兔、Fuzozo 等数十家企业已正式接入,覆盖人形机器人、四足机器人、儿童玩具、AI 潮玩等多类载体。另据京东官方披露,截止 2025 年 12 月,已有超 4.5 万家品牌接入数字人服务,数字人直播成本约为真人直播的 1/10,平均转化率提升约 30%。在 2025 年“双 11”期间,采用数字人直播的商家数量同比增长近 6 倍,全年累计带动商品交易总额(GMV)达数百亿元。

 

蚂蚁美团联手投了一家 AI 硬件创企,前美团硬件负责人带队

 

1 月 5 日,北京 AI 硬件创企 Looki 正式完成超 2000 万美元(约合人民币 1.4 亿元)A 轮融资,本轮由蚂蚁集团领投,美团龙珠、华登国际、中关村资本跟投,老股东 BAI 资本连续两轮超额追投,阿尔法公社、同歌创投持续加码。在完成本轮融资后,Looki 计划加快人才建设、模型迭代、产品研发及供应链整合,围绕 AI 原生硬件推进下一代交互设备的探索。

 

Looki 成立于 2024 年 5 月,截至目前已连续完成 4 轮融资。该公司由两位卡内基梅隆大学(CMU)的校友联合创办,CEO 孙洋曾任美团智能硬件负责人、Momenta 高级研发总监,是 Google Assistant 早期创始成员之一。CTO 刘博聪曾任美团自动驾驶算法负责人、Pony.ai 创始成员。团队成员来自清华大学、北京大学、多伦多大学、伊利诺伊大学、伦敦政经等知名院校,曾就职于 Google、Amazon、Qualcomm、字节跳动等公司,在 AI 算法、AI 产品、硬件工程等方面具备丰富经验。

 

在 Looki 发布的一段产品介绍视频中,CEO 孙洋称,Luki L1 自去年 8 月上线以来,已被不少用户当作“记录生活节奏”的常用设备使用。Luki 还具备“主动 AI”能力,如根据饮食、坐姿时间、行为节奏提出健康建议,例如“你今天已经喝了两杯咖啡,要不要换成水?”或者“你已经在桌前坐了一小时,要不要走一走?”等。

 

智谱上市,唐杰内部信要求全面回归基础模型研究

 

1 月 8 日智谱上市当天,清华大学计算机系教授、智谱创立发起人兼首席科学家唐杰发布内部信,宣布很快将推出新一代模型 GLM-5。内部信还介绍了 2026 年智谱聚焦的三个技术方向,包括全新的模型架构设计,更通用的 RL(强化学习)范式以及对模型持续学习与自主进化的探索。它们均围绕基础模型能力提升展开。

 

上海又一 GPU“四小龙”上市!

 

继沐曦股份、壁仞科技之后,上海又一家 AI 芯片企业成功上市。1 月 8 日,上海芯片企业天数智芯登陆港交所,在 1 个月的时间内,上海已先后有“港股国产 GPU 第一股”的壁仞科技和科创板上市首日涨幅近 7 倍的沐曦股份,加上已完成 IPO 辅导冲刺科创板的燧原科技,上海 GPU“四小龙”齐聚资本市场。

 

媒体从上海市经信委获悉,2025 年 1-11 月,上海市集成电路产业营收规模 3912 亿元,同比增长 23.72%,2025 年全年产业规模预计超 4600 亿元,同比增长 24%,五年间产业规模翻了一番多,超额完成“十四五”发展目标。集聚超 1200 家集成电路企业,汇聚全国约 40%的产业人才、近 50%的产业创新资源。

 

天数智芯战略与公共关系部副总裁余雪松表示,作为国内首家开展通用 GPU 自主研发的企业,公司已完成从核心技术攻关到商业化落地的全链路贯通。“我们的研发团队有 480 人,平均拥有 20 年以上行业经验,超三分之一研发人员具备 10 年以上芯片设计与软件开发经验。包含架构、通用 GPU IP 及芯片设计、基础软件、软硬件协同等各领域的专家。”余雪松说。上海市经信委相关工作人员表示,除了上海 GPU 芯片“四小龙”(壁仞、沐曦、天数、燧原),光计算、近存计算等创新路线 AI 芯片企业也相继涌现,支撑国内大模型等新质生产力发展。

 

马斯克回应英伟达自动驾驶 AI 模型:特斯拉正在做,达到 99%很容易

 

1 月 6 日消息,在 2026 消费电子展(CES)上,英伟达宣布推出 Alpamayo 系列开放式 AI 模型、模拟工具和数据集,旨在解决自动驾驶安全挑战。对此,马斯克回应称:“好吧,这正是特斯拉在做的。他们会发现,达到 99%很容易,但要解决分布的长尾问题却非常困难。”

 

据悉,Alpamayo 平台的核心是 Alpamayo 1 模型,这是一款拥有 100 亿参数、基于思维链技术的视觉-语言-行动(VLA)模型。该模型可让自动驾驶汽车具备类人思维能力,即便在未经任何训练和标注的情况下,也能解决复杂的场景问题,例如在交通信号灯失灵的路口规划通行路线。

 

英伟达还强调,Alpamayo 模型并非直接在车内运行,而是作为大规模教师模型,供开发者微调并提取到其完整自动驾驶技术栈的骨干中。黄仁勋在声明中表示:“首款搭载英伟达技术的汽车将于第一季度在美国上路。”

 

硅谷科技初创公司兴起“脱鞋办公”潮

 

1 月 5 日消息,曾经靠海洋球滑梯、免费尼古丁袋等五花八门的福利留住员工的硅谷热门科技初创公司,如今又出新招——要求员工进门脱鞋。根据观察,在年轻人占主导的办公场所,“无鞋办公”政策正悄然兴起。雇主们认为,员工穿着毛绒袜、拖鞋踩在地毯上,能打造出更轻松无压的工作氛围。然而矛盾的是,这些公司中不少仍推行“996”工作制,要求员工从早 9 点工作到晚 9 点,每周连轴转 6 天。

 

斯坦福大学经济学家、职场文化专家尼克·布鲁姆表示,无鞋办公政策的流行,在一定程度上是“睡衣经济”的延伸——随着远程办公者被要求重返办公室,他们也把居家办公的习惯带到了办公室。但这一趋势也与硅谷高压的工作文化一脉相承。布鲁姆说:“如果你每天要在公司待 12 个小时,那不如直接穿拖鞋上班,毕竟在家也没机会穿。”

 

中国商务部回应 Meta 收购 Manus

 

1 月 8 日,就 Meta 收购人工智能平台 Manus 一事,中国商务部新闻发言人何亚东表示,中国政府一贯支持企业依法依规开展互利共赢的跨国经营与国际技术合作。何亚东在当日举行的例行新闻发布会上回应称,需要说明的是,企业从事对外投资、技术出口、数据出境、跨境并购等活动,须符合中国法律法规,履行法定程序。商务部将会同相关部门对此项收购与出口管制、技术进出口、对外投资等相关法律法规的一致性开展评估调查。

 

大模型一周大事

 

重磅发布

 

黄仁勋官宣英伟达已投产 Vera Rubin:训练 AI 速度是 Blackwell 架构 3.5 倍

 

在北京时间 1 月 6 日凌晨举办的 CES 2026 主题演讲中,英伟达首席执行官黄仁勋发表主题演讲,介绍了新一代“Rubin”计算架构,并将其定义为当前 AI 硬件领域的“最先进技术”,该架构已进入全面量产阶段。Rubin 架构以天文学家薇拉·鲁宾的名字命名,由六款协同工作的独立芯片组成。该系统的核心是 Rubin GPU,同时配备了专为“智能体推理”(Agentic Reasoning)设计的全新 Vera CPU。

 

在性能表现方面,Rubin 架构相较于前代产品实现了显著跨越。根据英伟达官方测试数据,Rubin 在 AI 模型训练任务上的运行速度是 Blackwell 架构的 3.5 倍;在推理任务中,其速度更是达到了前代的 5 倍,峰值运算能力高达 50 Petaflops。此外,新平台的能效表现同样优异,其每瓦推理算力提升了 8 倍。这一性能飞跃将为日益复杂的 AI 模型提供强大的算力支撑。

 

同时,黄仁勋也介绍并推出了全新的 Alpamayo 1,是其视觉-语言-动作模型(VLA),结合因果链推理与轨迹规划,主要增强复杂驾驶场景中的决策能力。

 

智元发布开源仿真平台 Genie Sim 3.0

 

智元机器人在 CES 国际消费电子展首日正式发布首个大语言模型驱动的开源仿真平台——Genie Sim 3.0。基于 NVIDIA Isaac Sim,Genie Sim 3.0 融合三维重建与视觉生成,打造数字孪生级的高保真环境;首创大语言模型驱动的场景泛化技术,让万级场景的生成只需几分钟;同步开源包含真实机器人作业场景的上万小时仿真数据集;并构建了覆盖 10 万+场景的多维度智能评估体系,为模型能力绘制全景画像。

 

OpenAI 推出 ChatGPT Health 模式,为“健康 / 医疗”类型对话设立专属空间

 

1 月 8 日消息,OpenAI 正式宣布推出 ChatGPT Health,该模式集成于 ChatGPT 中,号称是一个“专门用于与 ChatGPT 进行健康相关对话的独立空间”,预计将在未来几周内陆续向用户开放。OpenAI 称,目前平台每周有超过 2.3 亿人询问有关健康的问题,因此该公司推出了 ChatGPT Health 模式,旨在让用户更系统、更安全地讨论自身的健康问题。

 

据介绍,在 ChatGPT Health 模式下,系统会将用户的对话与其他普通聊天记录进行隔离,避免用户的健康背景在日常对话中被无意提及。如果用户在普通聊天中开始讨论健康问题,系统也会引导其切换到 Health 模式进行交流。同时,在 Health 模式下,AI 仍然可以参考用户在其他场景中的部分信息。ChatGPT Health 还将支持与个人信息及健康类应用的数据整合,包括 Apple Health(苹果健康)、Function 和 MyFitnessPal 等。OpenAI 强调,Health 模式中的对话内容不会被用于训练模型。

 

不过,ChatGPT 这样的“大模型”本质上是通过预测最可能的回答来生成内容,而不是基于对“真实与否”的判断,因此并不保证生成的医疗见解一定正确,OpenAI 也在其服务条款中明确指出,ChatGPT 仅供参考,不能够用于任何健康状况诊断 / 治疗。

 

雷鸟 CES 2026 推出全球首款 eSIM 功能 AR 智能眼镜 X3 Pro Project eSIM

 

1 月 8 日消息,雷鸟在 CES 2026 中正式推出了全球首款支持 eSIM 功能的 AR 智能眼镜 X3 Pro Project eSIM,但并未公布价格和上市时间。据介绍,该产品采用双目全彩光机,可获得“等效 43 英寸的 3D 空间视觉观感”,同时产品搭载高通骁龙 AR 1 计算平台,内置 RayNeo AR 应用虚拟机,支持微信、抖音、B 站等多款应用。此外,该产品搭载 eSIM 通信模块,使得 AR 眼镜首次真正具备脱离手机的能力,产品无需通过手机或 Wi-Fi,即可独立完成包括通话、实时 AI 对话、实时翻译、在线流媒体播放等功能。

 

摩尔线程正式发布开源大模型分布式训练仿真工具 SimuMax 的 1.1 版本

 

1 月 8 日,据摩尔线程消息,近日,摩尔线程正式发布开源大模型分布式训练仿真工具 SimuMax 的 1.1 版本。该版本在完整继承 v1.0 高精度仿真能力的基础上,实现了从单一工具到一体化全栈工作流平台的重要升级,为大模型训练的仿真与调优提供系统化支持。本次更新聚焦三大核心创新:用户友好的可视化配置界面、智能并行策略搜索,以及融合计算与通信效率建模的 System-Config 生成流水线。新版本同时提升了对主流训练框架 Megatron-LM 的兼容性,并增强了对混合并行训练中复杂通信行为的建模精度,使仿真环境更贴近真实生产场景。

 

企业应用

 

  • 1 月 7 日,微创机器人依托神经元 MicroGenius 多模态自主手术大模型,成功完成了全球首例“大模型自主手术”动物实验。这一突破性成果不仅填补了全球大模型自主手术在体动物实验的技术空白,更推动全球 AI 产业在医疗领域的深度升级与跨界融合。

  • 1 月 6 日,波士顿动力与谷歌 DeepMind 宣布建立新的人工智能合作伙伴关系,目标将 Gemini Robotics 人工智能基础模型与波士顿动力的新型 Atlas 人形机器人集成。

  • 1 月 6 日,高通与谷歌宣布深化长达十年的汽车领域合作,双方将整合骁龙数字底盘解决方案与谷歌汽车软件及云服务能力,加速软件定义汽车落地,推动 AI 赋能的智能出行体验规模化普及。

  • 1 月 5 日,腾讯 AI 工作台 ima.copilot 迎来更新:正式上线“生成 PPT”功能。用户只需进入“任务模式”,即可调用个人知识库中的素材,一键生成幻灯片。

  • 1 月 5 日,智元机器人已与 MiniMax 达成合作,MiniMax 将为智元机器人提供文本到语音全流程 AI 技术支持。针对智元机器人的产品定位与功能特性,MiniMax 为其量身打造专属人设体系,优化用户与机器人的语音交互体验。同时,基于人设体系构建定制化提示词策略,为用户生成专属音色,实现千人千面的个性化音色合成,满足多样化语音交互需求。此外,MiniMax 还基于自研音乐生成模型,助力智元机器人拓展娱乐场景玩法。

亚马逊云科技(AWS)最近宣布公开预览Amazon Route 53 Global Resolver,这是一项在全球范围内提供安全、可靠的 DNS 解析的新服务。组织可以使用该服务来解析互联网上的公共域和与 Route 53 私有托管区域关联的私有域名的 DNS 查询。

 

从历史上看,管理混合型 DNS 带来了巨大的操作开销。在传统的区域设置中,管理员必须手动同步水平分区基础设施,并管理复杂的转发规则。这通常需要维护冗余的 VPC 解析器端点,并在多个区域中复制安全策略以确保故障转移。

 

Route 53 Global Resolver 通过消除对单独分 DNS 转发的需求来解决这些挑战。正如 AWS 的高级解决方案架构师 Esra Kayabali 解释的那样:

 

它通过多种协议提供 DNS 解析,包括 DNS over UDP(Do53)、DNS-over-HTTPS(DoH)和 DNS-over-TLS(DoT)。每个部署提供一组通用的 IPv4 和 IPv6 任何播 IP 地址,将查询路由到最近的 AWS 区域,减少分布式客户端群体的延迟。

(来源:AWS新闻博客文章)

 

该服务集成了与 Route 53 Resolver DNS 防火墙等效的安全功能,可以集中实施策略。主要的安全功能包括:

 

  • 托管过滤:管理员使用AWS托管域名列表来阻止恶意软件和网络钓鱼等威胁,或限制特定网络内容。

  • 行为保护:解析器检测并阻止域名生成算法(Domain Generation Algorithm,DGA)模式和 DNS 隧道尝试。

  • 加密传输:支持 DoH 和 DoT 保护查询在传输过程中免受未经授权的访问。

 

为了支持零信任架构,Global Resolver 仅接受经过身份验证的客户端的流量。除了标准的 IP/CIDR 允许列表外,该服务为 DoH 和 DoT 连接引入了基于令牌的身份验证。这提供了细粒度的控制,允许管理员为特定客户端组或单个远程设备分配和撤销令牌。

 

Abhijeet Kulkarni 在 LinkedIn帖子中指出,虽然传统的 DNS 依赖于区域绑定的解析器,其中故障可能会放大中断,但 Global Resolver 引入了一种根本不同的运维模式。

 

通过任播将解析移动到边缘,DNS 在默认情况下成为全局分布的。Kulkarni 强调,这提供了“解析层的故障隔离”,确保在 DNS 层吸收区域中断,而不是通过网络级联。这有效地将 DNS 从区域依赖转变为具有弹性的全球系统边界。

 

预览版目前在几个全球区域可用,包括美国东部(弗吉尼亚北部、俄亥俄州)、美国西部(加利福尼亚北部、俄勒冈州)、欧洲(法兰克福、爱尔兰、伦敦)和亚太地区(孟买、新加坡、东京、悉尼)。定价详情可在官方Route 53定价页面上找到。

 

https://www.infoq.com/news/2026/01/route53-global-resolver-anycast/

25 年拼夕夕上断断续续的帮着朋友卖手办,看没什么成色,想着搞二次元赚钱,看剪点动画解说短视频到油管,在年底上了自媒体的车,下面是数据,从起号到可以开收益,差不多用了一个多月。



油管估算 shorts 的收益看起来还行,一万实际观看次数对应 1 刀左右。

然后手上还有个外网的服务器,就顺便起了个影视网站,从 shorts 的评论那引流到网站。不过收益就很可怜哩 wwww


当前就等着收到 adsense 的 PIN 码,看实际能收到多少马内了

对了,尝试过发横屏视频,数据实在是感人,便没有在继续了。
吐槽:发 shorts 十分傻屌,必须得是竖屏的。然后,封面图片必须得加在视频中,且至少 3 帧以上,这都不是事,反人类的是必须得用手机 youtube 应用上才能设置封面

之前看到 Google AI Pro 新年活动 99 美元/年。还送 Google 全家桶,没忍住入坑了。刚开始用着还行,毕竟用过其他 AI 编程工具,很快就适应了。但深度使用一段时间后,我觉得这玩意儿目前充其量只是个半成品。

🛑 槽点

  • 鸡肋的 Agent Manager:完全搞不懂这功能的定位。我猜测 Google 是希望用户能脱离代码操作,但尴尬的是,MCP 和 Rule 等核心功能只能在编辑器模式下设置。目前它对我唯一的用处就是点击“Plan 模式”生成的计划执行按钮。没错,编辑器模式下居然没有计划的执行按钮,必须手动输入“继续”才能推进计划。

  • Knowledge 功能:官方声称 Knowledge 会由 Agent 自动生成,但目前社区里似乎还没人成功触发过,基本属于摆设。

  • 配额缩水:体感上,所有模型的配额都比之前降低了很多,一两轮会话就能用掉 10%,这可能是我经常用 Plan 模式的原因,但体感确实消耗快了很多。此外对于配额,有个好消息是 Claude 模型和 Gemini 模型配额是单独计算的,坏消息是 Claude 模型基本不可用(见下文)。

  • 模型降智:今天测试 Gemini 3 Pro (High) 调用 MCP 查询接口定义并生成 API ,这种基础任务居然都开始胡编乱造。而在上周,类似的任务基本都没问题。

🐛 严重 BUG

  • Generate Commit Message 功能完全失效:这个功能基本不可用。在上周之前,它会把所有改动过的文件统一识别为新实现的功能,完全无法反映真实的修改。最离谱的是,这个功能从上周彻底挂掉,直到现在好几天了依然没有修复。

  • Claude 模型 BUG:在使用 Claude 模型时,调用任何 MCP 服务都会报错(如下图),结果就是 Claude 模型基本不可用。

  • 输出意外中断:这个出现不太频繁,但是出现后“Retry”是没用的,必须新建会话才能解决。

📝 总结

市面上主流的 AI 编辑器我基本都用过,基本上都是越做越好。Antigravity 是唯一一个能让好端端的功能挂掉好几天都不修也没有官方任何答复的。

Error in Antigravity - Not Generating Commit Message

当其他友商都在保持“一天一更”甚至“一天多更”的节奏,BUG 基本上都能够得到及时的修复,而 Antigravity 的上次更新竟然还停留在 2025-12-19 (三周前)。这个维护力度,实在对不起 Google 大厂的实力。

总之想要付费入坑的朋友,还请仔细评估下自己的使用习惯,能否接受以上这些问题!白嫖的朋友随意~

演示视频

这是原版脚本

bash <(curl -fsSL https://github.com/crazypeace/ghproxy/raw/refs/heads/main/fake/test-install.sh)

套 “正常” 的 ghproxy 这里以 https://ghproxy.lvedong.eu.org/ 为例

bash <(curl -fsSL https://ghproxy.lvedong.eu.org/https://github.com/crazypeace/ghproxy/raw/refs/heads/main/fake/test-install.sh)

套 “动过手脚” 的 ghproxy 这里以 https://ghproxy-fake.lvedong.eu.org/ 为例

bash <(curl -fsSL https://ghproxy-fake.lvedong.eu.org/https://github.com/crazypeace/ghproxy/raw/refs/heads/main/fake/test-install.sh)

可以看到 aff 链接被修改了

下载的 zip 文件解压缩 的结果也是不一样的

面向 GPT 开发

要实现这样的效果,没有开发能力的普通人借助 GPT 也能做到
上传 正常的 ghproxy 的 worker.js (以 ghproxy/worker.js at main · crazypeace/ghproxy · GitHub 为例)
向 GPT 发送 prompt

这是一个 cloudflare 的 worker 的 JS 脚本
增加以下处理:

1. 在对 .sh 文件的内容的处理中, 对链接的处理增加以下效果

当链接包含 racknerd 和 aff= 时, 
将aff= 后面的数字替换为 54321

当链接包含 justmysocks 和 aff= 时, 
将aff= 后面的数字替换为 98765

2. 在向目的url 进行 fetch之前 , 增加处理
当 path 是 https://github.com/SagerNet/sing-box/releases/download/v1.12.15/sing-box-1.12.15-windows-amd64.zip   时,
改为fetch https://github.com/XTLS/Xray-core/releases/download/v25.12.8/Xray-windows-64.zip 并返回数据

Github

https://github.com/crazypeace/ghproxy/raw/refs/heads/main/fake/test-worker.js

总结

ghproxy 还是要掌握在自己手里


📌 转载信息
原作者:
crazypeace
转载时间:
2026/1/12 15:47:07

各位佬,明明指定了模型为啥还是会报错 codex-5.1 呢,cc 和 Gemini 使用就没有这种。不止 kfc,还有好些公益站也会有这种但是报错不一样。烦请各位佬解答这个困扰我已久的困惑


比如 AbuAI 站的 CC 会有报错如下:


kfc 的 ccswitch 配置如下图:


📌 转载信息
原作者:
Zenfish-zy
转载时间:
2026/1/12 15:41:23

需要绑卡验证,相信难不住 L 站的佬友

聪明的佬友又发现了年优惠码,更新一下

UIZ2FREE


📌 转载信息
原作者:
Triceratops2017
转载时间:
2026/1/12 15:41:13

最近工作上用 cc 改旧项目比较多,于是做了一个很垂很垂的 vscode 插件 (Copy Selection Path),用于辅助 claude code 重构旧项目的场景、节省 token

claude code 的能力不用多说了,用了都说好,最近在用他改一些旧项目的代码时,经常要拿选中区域的代码,然后把对应文件路径和行号范围输入到提示框内,虽然在 vscode 中已经能识别我当前选中的代码范围,但是对有多处要改的场景就没那么方便了,所以这个插件就应运而生

其实主要功能就是在选中区域加上两个右键菜单用于拷贝选择部分的行号范围信息如 filepath line:10-24 ,佬友们有这个痛点的可以试用一下



📌 转载信息
转载时间:
2026/1/12 15:41:03

简介:CCometixLine (ccline) 是对于 claude code 显示一个状态栏信息的工具,由于原作者不考虑 cliproxyapi 相关的 PR, 所以自行 fork 并添加,后续如原仓库有重要 / 安全更新本 fork 会尽快合并更新.


较原仓库添加功能:

  1. 模型别名 (通用)
  2. cliproxyapi 额度显示 (当前只做了 opus,3pro,3flash), 每个模型都能设置别名 / 颜色


效果图:


fork 仓库:


使用方法:由于还没有配置 NPM, 只能手动安装,

  1. 发现严重问题,没有配置 cliproxykey 的管理 key 的地方,请先不使用等更新,或暂时修改cliproxyapi管理的密钥为nbkey测试 (不建议)

  2. 安装官方版 (安装完要配置) GitHub - Haleclipse/CCometixLine: Claude Code statusline tool written in Rust

  3. 打开 fork 仓库

  4. release

  5. 选择对应你的系统版本下载

  6. exe 覆盖官方的安装位置 C:\Users\Administrator\.claude\ccline\ccline.exe

  7. 配置默认关闭需手动开启,

  8. 终端命令 ccline

  9. Configuration Mode

  10. segment 选择 CLI Proxy API Quota , 然后 enter 开启,s 保存 (必须)

  11. 可选,tab 选到 options 设置别名 / 颜色,s 保存


ps: 360 可能误报,我自己本地构建无误报,原仓库 action 自动构建有误报,如有担忧可自行 AI 审核构建

体检报告 (win64) :

https://www.virscan.org/report/e12d7b36366e6a47b9cd6c7c27295eff659659114676d513818d9238b5913eed


📌 转载信息
原作者:
kei233
转载时间:
2026/1/12 15:39:48

开发缘由

ChatGPT 有的问候语,会显示用户名!

例如:
用户名为:CloseAI


功能:
将 ChatGPT 首页问候语换成自定义文案!

适合:

  • 遮挡问候语中的用户名!
  • 根据自身喜好,自定义问候语!


效果:

  • 宽屏:

  • 窄屏:


源码:



📌 转载信息
转载时间:
2026/1/12 15:39:26

各位佬,周一中午好,上次在论坛问有没有好用的开源的导航站推荐,

当时有佬推荐我用 ai 写一个,肝了几天终于给搞出完了,开源分享给大家,可能会有 bug,请大家见谅。 自从加入本社区感觉社区的氛围非常棒,就像这个佬说的。

我为人人,人人为我,真的很棒,所以做完以后第一时间给开源了,并且第一时间分享给社区。

非常感谢 anyrouter 公益站提供 CC (不是广告哈!)

没有服务器,我就给大家放几张图片哈:

前台访问地址:

后台管理系统首页:

网站管理:


📌 转载信息
转载时间:
2026/1/12 15:18:10

codex 实在是太慢了,没有温馨提示,佬们在挂着跑 codex 任务的时候很容易刷 L 站过头,忘记 ai 的代码已经完成所以我想你需要 codex 版本的对话结束提示!

Success

如图,每次一轮对话完成进行 toast 提示 + 系统提示音

因为 codex 没有官方的对话结束的钩子,所以需要 mcp 实现提示。
但是上文的 claude code 很简单只需要增加一个配置项就可以实现!

简单三步走

  1. 下载 mcp 文件并且去掉.txt 后缀
  2. 配置 mcp
[mcp_servers.notify] type = "stdio" command = "cmd" args = ["/c", "node", 'C:\\你的路径\\你的路径\\notify.mjs']
  1. 增加提示词
## 硬规则
每次输出“最终回复”之前,必须且只调用一次 MCP 工具 `notify`,参数固定:{"title":"Codex 完成","message":"done"}。禁止跳过。工具调用成功后,再输出最终回复正文。

📌 转载信息
转载时间:
2026/1/12 15:03:32

拿同学的 GLM4.7 蹬了半天,让它先生成一份技术文档,主要用于对接外部接口,它编写的极为清晰,甚至还带了调用关系图,包结构也规划好了,后面就只需要拿这份文档生成代码了。


文档生成这波给到夯,但是后面写代码效果就一般了,生成的代码质量就差强人意。
先是只生成了大体框架,很多需要查询的地方直接写 todo 打发我了,后面是代码里明显有报错的地方直接过了它的评审,让它修改它也没有改全,但是就这已经能节省 80-90% 的开发工作量了,微调一下感觉就能使了。

现在 GLM4.7 叠个拼好模,170 多,应该算好价,大伙儿使用下来怎么样?我应该支持一下国产模型吗?


📌 转载信息
原作者:
mydubai7794
转载时间:
2026/1/12 15:03:27