自写的 QuantumultX 优化配置 🎉 继续说起
最近抽空又双更新了一下 QuantumultX 配置
目前 使用的 Surge 备用机 QuantumultX ,后面整理更新一下 Surge 配置
Github:https://github.com/curtinp118/QuantumultX

配置预览

以下为 Quantumult X 配置界面预览:

配置文件:

# 自用QuantumultX规则
# 更新日期:2026/01/12




[general]

# 直连网络测试URL
network_check_url = http://taobao.com/

# 节点延迟测试URL
server_check_url= http://www.gstatic.com/generate_204
#server_check_url = http://cp.cloudflare.com/generate_204

# 节点延迟测试超时参数
server_check_timeout=2000

# 配置文件图标
profile_img_url = https://raw.githubusercontent.com/curtinp118/QuantumultX/refs/heads/main/icons/Curtin.jpg


# 资源解析器 @XIAO_KOP 
resource_parser_url=https://raw.githubusercontent.com/KOP-XIAO/QuantumultX/master/Scripts/resource-parser.js

# 节点信息 @XIAO_KOP 
geo_location_checker=http://ip-api.com/json/?lang=zh-CN, https://raw.githubusercontent.com/KOP-XIAO/QuantumultX/master/Scripts/IP_API.js

# 绕过QuantumultX代理
excluded_routes=192.168.0.0/16, 10.0.0.0/8, 172.16.0.0/12, 100.64.0.0/10, 17.0.0.0/8,239.255.255.250/32, 24.105.30.129/32, 185.60.112.157/32, 185.60.112.158/32, 182.162.132.1/32

# UDP白名单端口列表
udp_whitelist=1-442, 444-65535

# 不使用fake-ip 及远程解析域名列表
dns_exclusion_list=*.cmpassport.com, *.jegotrip.com.cn, *.icitymobile.mobi, id6.me, *.pingan.com.cn, *.cmbchina.com, *.localnetwork.uop, mfs.ykimg.com*.ttf, *.icbc.com.cn

# DoH请求头 User-Agent参数
;doh_user_agent=Agent/1.0



[dns]
# 禁用系统DNS
no-ipv6

# 禁用IPV6
no-system

# DNS 服务器列表
server=223.5.5.5
server=119.29.29.29
server=114.114.114.114
server=1.2.4.8
server=/*.taobao.com/223.5.5.5
server=/*.tmall.com/223.5.5.5
server=/*.alipay.com/223.5.5.5
server=/*.alicdn.com/223.5.5.5
server=/*.aliyun.com/223.5.5.5
server=/*.jd.com/119.28.28.28
server=/*.qq.com/119.28.28.28
server=/*.tencent.com/119.29.29.29
server=/*.bilibili.com/119.29.29.29
server=/hdslb.com/119.29.29.29
server=/*.163.com/119.29.29.29
server=/*.126.com/119.29.29.29
server=/*.126.net/119.29.29.29
server=/*.127.net/119.29.29.29
server=/*.netease.com/119.29.29.29
server=/*.mi.com/119.29.29.29
server=/*.xiaomi.com/119.29.29.29
address=/mtalk.google.com/108.177.125.188
server=/*.icloud.com/119.29.29.29
server=/*.icloud.com.cn/119.29.29.29
server=/*.weixin.com/119.29.29.29


# 策略组配置
[policy]
static=国内网站, direct, proxy, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Domestic.png
static=境外网站, proxy, Hong Kong, Taiwan, Japan, Korea, Singapore, United States, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Global.png
static=Apple, direct, proxy, img-url=https://raw.githubusercontent.com/fmz200/wool_scripts/main/icons/apps/Apple_01.png
static=Netflix, PROXY, Hong Kong, Taiwan, Japan, Korea, Singapore, United States, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Netflix_Letter.png
static=YouTube, Hong Kong, Taiwan, Japan, Korea, Singapore, United States, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/YouTube.png
static=Spotify, direct, proxy, Hong Kong, Singapore, United States, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Spotify.png
static=ChatGPT, proxy, Singapore, United States, img-url=https://raw.githubusercontent.com/chxm1023/Script_X/main/icon/ChatGPT/ChatGPT3.png
static=Telegram, proxy, Hong Kong, Taiwan, Japan, Korea, Singapore, United States, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Telegram.png
static=Twitter, proxy, Hong Kong, Taiwan, Japan, Korea, Singapore, United States, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Twitter.png
static=AdBlock, direct, reject, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Advertising.png
static=Final, proxy, direct, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Final.png
url-latency-benchmark=Hong Kong, server-tag-regex=(?=.*(港|🇭🇰|香港|HK|(?i)Hong))^((?!(台|日|韩|新|美)).)*$, check-interval=1200, tolerance=0, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Hong_Kong.png
url-latency-benchmark=Taiwan, server-tag-regex=(?=.*(台|🇹🇼|臺|台湾|台灣|TW|(?i)Taiwan))^((?!(港|日|韩|新|美)).)*$, check-interval=1200, tolerance=0, alive-checking=false, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Taiwan.png
url-latency-benchmark=Japan, server-tag-regex=(?=.*(日|🇯🇵|日本|JP|(?i)Japan))^((?!(港|台|韩|新|美)).)*$, check-interval=1200, tolerance=0, alive-checking=false, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Japan.png
url-latency-benchmark=Korea, server-tag-regex=(?=.*(韩|🇰🇷|韓|韩国|韓國|南朝鲜|KR|(?i)Korean))^((?!(港|台|日|新|美)).)*$, check-interval=1800, tolerance=10, alive-checking=false, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Korea.png
url-latency-benchmark=Singapore, server-tag-regex=(?=.*(新|🇸🇬|狮|獅|SG|(?i)Singapore))^((?!(港|台|日|韩|美)).)*$, check-interval=600, tolerance=0, alive-checking=false, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/Singapore.png
url-latency-benchmark=United States, server-tag-regex=(?=.*(美|🇺🇸|美国|美國|US|(?i)States|American))^((?!(港|台|日|韩|新)).)*$, check-interval=600, tolerance=0, alive-checking=false, img-url=https://raw.githubusercontent.com/Koolson/Qure/master/IconSet/Color/United_States.png




# 本地服务器节点
[server_local]



# 服务器订阅
[server_remote]
https://sub-url.com, tag=机场订阅, update-interval=604800, opt-parser=true, enabled=true



# 远程分流规则
[filter_remote]
https://raw.githubusercontent.com/blackmatrix7/ios_rule_script/master/rule/QuantumultX/WeChat/WeChat.list, tag=WeChat (微信直连), force-policy=direct, update-interval=172800, opt-parser=false, enabled=true
https://raw.githubusercontent.com/blackmatrix7/ios_rule_script/master/rule/QuantumultX/China/China.list, tag=Mainland (国内网站), force-policy=国内网站, update-interval=86400, opt-parser=true, enabled=true
https://raw.githubusercontent.com/TG-Twilight/AWAvenue-Ads-Rule/main/Filters/AWAvenue-Ads-Rule-QuantumultX.list, tag=Ads, force-policy=AdBlock, update-interval=172800, opt-parser=false, enabled=true
https://github.com/Repcz/Tool/raw/X/QuantumultX/Rules/OpenAI.list, tag=OpenAI, force-policy=ChatGPT, update-interval=172800, opt-parser=false, enabled=true
https://raw.githubusercontent.com/blackmatrix7/ios_rule_script/master/rule/QuantumultX/Global/Global.list, tag=Outside (境外网站), force-policy=proxy, update-interval=86400, opt-parser=true, enabled=true
https://raw.githubusercontent.com/blackmatrix7/ios_rule_script/master/rule/QuantumultX/Apple/Apple.list, tag=Apple (Apple服务), force-policy=Apple, update-interval=86400, opt-parser=false, enabled=true
https://raw.githubusercontent.com/blackmatrix7/ios_rule_script/master/rule/QuantumultX/Netflix/Netflix.list, tag=Netflix(奈飞), force-policy=Netflix, update-interval=86400, opt-parser=false, enabled=true
https://raw.githubusercontent.com/blackmatrix7/ios_rule_script/master/rule/QuantumultX/YouTube/YouTube.list, tag=YouTube(油管), force-policy=YouTube, update-interval=86400, opt-parser=false, enabled=true
https://raw.githubusercontent.com/blackmatrix7/ios_rule_script/master/rule/QuantumultX/Spotify/Spotify.list, tag=Spotify(声破天), force-policy=Spotify, update-interval=86400, opt-parser=false, enabled=true
https://raw.githubusercontent.com/blackmatrix7/ios_rule_script/master/rule/QuantumultX/OpenAI/OpenAI.list, tag=ChatGPT(狗屁通), force-policy=ChatGPT, update-interval=86400, opt-parser=true, inserted-resource=true, enabled=true
https://raw.githubusercontent.com/blackmatrix7/ios_rule_script/master/rule/QuantumultX/Telegram/Telegram.list, tag=Telegram(电报), force-policy=Telegram, update-interval=86400, opt-parser=false, enabled=true
https://raw.githubusercontent.com/blackmatrix7/ios_rule_script/master/rule/QuantumultX/Twitter/Twitter.list, tag=Twitter(推特), force-policy=Twitter, update-interval=86400, opt-parser=false, enabled=true
https://raw.githubusercontent.com/blackmatrix7/ios_rule_script/master/rule/QuantumultX/Advertising/Advertising.list, tag=AdBlock (广告拦截), force-policy=AdBlock, update-interval=604800, opt-parser=false, enabled=true


# 本地分流规则
[filter_local]
host, glados.network, 境外网站
host, glados.rocks, 境外网站
host, update.glados-config.com, direct

# 避免迅雷版权问题
host, hub5idx.v6.shub.sandai.net, reject
host, hub5emu.v6.shub.sandai.net, reject
host, hub5btmain.v6.shub.sandai.net, reject

HOST-SUFFIX,95599.cn,direct
HOST-SUFFIX,abchina.com,direct
HOST-SUFFIX,bscabank.com,direct
HOST-SUFFIX,openaboc.cn,direct
HOST-SUFFIX,openaboc.com,direct
HOST-SUFFIX,openaboc.com.cn,direct
ip-cidr, 180.76.76.200/32, reject
host-suffix, local, direct
host-keyword, yattazen, proxy
ip-cidr, 10.0.0.0/8, direct
ip-cidr, 17.0.0.0/8, direct
ip-cidr, 100.64.0.0/10, direct
ip-cidr, 127.0.0.0/8, direct
ip-cidr, 172.16.0.0/12, direct
ip-cidr, 192.168.0.0/16, direct
ip-cidr, 224.0.0.0/24, direct
ip-cidr, 182.254.116.0/24, direct
geoip, cn, direct
final, Final


# 本地复写规则
[rewrite_local]

# 远程复写规则
[rewrite_remote]
https://raw.githubusercontent.com/chxm1023/Advertising/main/AppAd.conf, tag=App广告拦截, update-interval=172800, opt-parser=true, enabled=true
https://ddgksf2013.top/rewrite/StartUpAds.conf, tag=开屏广告拦截, update-interval=172800, opt-parser=true, enabled=true
https://raw.githubusercontent.com/blackmatrix7/ios_rule_script/master/rewrite/QuantumultX/Redirect/Redirect.conf, tag=重定向, update-interval=172800, opt-parser=true, enabled=true

# 定时任务,UI交互脚本,网络切换脚本配置
[task_local]


# 流媒体解锁查询
event-interaction https://raw.githubusercontent.com/KOP-XIAO/QuantumultX/master/Scripts/streaming-ui-check.js, tag=流媒体解锁查询, img-url=arrowtriangle.right.square.system, enabled=true

# GeoIP 查询
event-interaction https://raw.githubusercontent.com/KOP-XIAO/QuantumultX/master/Scripts/geo_location.js, tag=GeoIP 查询, img-url=location.fill.viewfinder.system

# 网络信息查询
event-interaction https://raw.githubusercontent.com/xream/scripts/main/surge/modules/network-info/net-lsp-x.js, tag=网络信息查询, img-url=link.circle.system, enabled=true


# 本地HTTP服务器
[http_backend]



[mitm]
hostname = 
passphrase = 
p12 = 

📌 转载信息
原作者:
Null404
转载时间:
2026/1/12 17:10:14

各位佬好,我是 Wipely 的作者。

上周发帖后收到了很多兄弟的反馈,确实被喷得不轻(感谢大家的真实吐槽)。 大家最关心的几个问题:“识别不准”、“怕上传文件不安全”、“水印去不掉很烦”

这周我没闲着,针对这些痛点肝了一周,带来了 Wipely 的重大更新

核心更新

1. OCR 准确率大幅提升 之前的版本确实有点 “瞎”,小字、模糊字经常漏。 这次我优化了识别模型,文字捕获率显著提升(相对首发)

2. 支持「纯离线模式」 (Privacy First) 这是大家最关心的隐私问题。 现在,你可以选择离线模式。在这个模式下:

  • 所有计算(OCR、Inpainting 修复)全部在你的本地浏览器 (WebAssembly) 中完成
  • 没有任何图片数据会被上传到服务器 (不用担心你的 PPT 隐私泄漏了)
  • 拔掉网线也能跑!(当然加载网页还得联网一下)
  • 真正做到了 “你的数据只属于你”。

3. 水印不再 “Burn 死在图里” 之前擦除后的图片带的水印,是直接 burn 在图层里的。 现在的逻辑改了:水印会作为一个独立的、可编辑的对象层添加。 如果不喜欢?直接在 ppt 中选中 → Delete。 就这么简单,把选择权还给大家。


关于福利

上周的首发活动不管是骂是夸,热度都很高,感谢大家支持。

  • 永久福利: L 站用户的 每天 50 个文件 额度依然有效(多页 PDF 算 1 个文件)。

传送门

Wipely - NotebookLM2PPT Tool


📌 转载信息
转载时间:
2026/1/12 17:09:47

前倾回顾
根据 L 友的推荐,老弟入手了一台京东云太乙 Plus.
教程已经比较详细了,但是我还是根据我自己遇到的问题记录分享一下:

  1. 拆开设备后,只有 TTL 刷机线夹子是不够的,还需要一个 USB 转 TTL 的设备,TTL 夹子买单排;2.54mm 间隔;4p/4 针就可以。


    注意嗷,这俩东西还需要一个双公头的杜邦线连接。下图非常之形象了。

    然后一定要问商家要 USB 转 TTL 的设备的驱动,装好驱动。
  2. 夹子参考 hugoYuan 的教程夹好,找一个 Lan 口接入电脑,电脑需要设置好固定 IP:192.168.1.25, 教程里写的很详细,这里不再复述。
  3. 使用 putty 链接串口,速度填 115200 然后给太乙 Plus 通电,putty 这时候就会跳启动的程序了,如果没有,就检查自己的 ttl 连接的线材是否正常,驱动是否正常,巴拉巴拉,我这里卡了很久是我原来自己买的 USB 转 TTL 的设备不行。参考上图重新买了个新的。
  4. 最后刷机成功,也是用上了 QWRT, 猫棒测试了诺基亚 G-010S-A,华为 MA5671A,阿尔卡特 G-010S-P。最后稳定且正常的是诺基亚 G-010S-A, 猫棒是找商家刷好的系统。
  5. 小插曲,在太乙主板上发现了一个 A1 的插口,就找了一个小风扇怼上去了。发现虽然接口不是很匹配,但是能用。

    拿双面胶粘顶盖上。

    装上顶盖,小风扇正常运转
  6. 塞弱电箱里
  7. 温度没超过 45 度,效果还不错。
  8. 测速 千兆带宽跑成这样也不错了,PS:图便宜,用东莞联通千兆带宽
  9. 网络拓扑图

📌 转载信息
原作者:
SimonChen
转载时间:
2026/1/12 17:09:33

是的,我又来了,不过好像来晚了
BASE_URL: https://code.vmax.fr.cr
API_KEY : sk-eCANOawVuZDRXHmkg7v3wTybGFzbBOGqj2W0Pv50EgDSG9VV
模型:claude-sonnet-4-5-20250929,claude-opus-4-5-20251101,claude-haiku-4-5-20251001 以及 gpt-5.2,gpt-5.1-codex,gpt-5.2-codex
cc 中可直接 /model 切换到 opus

另外 求打赏


📌 转载信息
转载时间:
2026/1/12 17:06:44

目前只有プリンセスコネクト!Re:Dive 无法 dump,这玩意的 crackproof 不知道改了什么东西,会把完整的 PE 切成几百个分页,不过可以分析安卓版本的,壳子难度中等。
由于 Unity 的源代码得买,所以这里只能用反编译器 + pdb 来分析

LoadScriptingRuntime 这个函数加载了 GameAssembly.dll,相关的加载逻辑在 LoadIl2Cpp 里面,LoadIl2Cpp 的返回值是 GameAssembly.dll 的 handle

解法就很明显了,可以用 frida 拦截 LoadIl2Cpp 返回时候的动作,这时候 GameAssembly.dll 刚刚被 LoadLibraryW 加载上去,并且完成了一些初始化(crackproof 修复导入表,解密解压代码段等等),但是没有执行任何 il2cpp 部分的代码,dump 下来就能获得完全干净的 GameAssembly.dll 了。
dump 下来以后还需要简单的修复一下 PE 头,完整代码如下:

'use strict';

const UNITY_PLAYER = "UnityPlayer.dll";
const TARGET_RVA = ;
const GAMEASSEMBLY = "GameAssembly.dll";
const DUMP_PATH = "D:\\Reverse\\Frida_Hook\\GameAssembly_dump_fix.dll";
const CHUNK_SIZE = ;


function dumpModule(moduleName, outPath) {
    try {
        const m = Process.getModuleByName(moduleName);
        console.log("[*] Found module:", m.name, "Base:", m.base, "Size:", m.size);

        const size = m.size;
        const base = m.base;

        // raw→virtual const localCopy = fixPEHeader(base, size);
        if (localCopy === null) {
            console.error("[!] Fix PE Header failed");
            return;
        }

        const file = new File(outPath, "wb");
        console.log("[*] Output:", outPath);

        let offset = 0;
        while (offset < size) {
            const chunk = Math.min(CHUNK_SIZE, size - offset);
            const buf = localCopy.add(offset).readByteArray(chunk);
            file.write(buf);
            offset += chunk;
        }

        file.flush();
        file.close();
        console.log("[*] Dump finished:", outPath);

    } catch (e) {
        console.error("[!] Dump exception:", e);
    }
}

function hookAfterUnityPlayerLoaded(module) {
    if (module.name !== UNITY_PLAYER) return;
    console.log("[+] UnityPlayer.dll loaded @", module.base);

    const targetAddr = module.base.add(TARGET_RVA);
    console.log("[*] Hooking LoadDynamicLibrary @", targetAddr);

    Interceptor.attach(targetAddr, {
        onLeave(retval) {
            console.log("[*] LoadDynamicLibrary returned:", retval);

            try {
                const found = Process.findModuleByName(GAMEASSEMBLY);
                if (found) {
                    console.log("[*] GameAssembly.dll loaded -> dumping...");
                    dumpModule(GAMEASSEMBLY, DUMP_PATH);
                } else {
                    console.warn("[!] GameAssembly.dll not found yet");
                }
            } catch (e) {
                console.error("[!] Dump error:", e);
            }
        }
    });
}


function fixPEHeader(base, size) {
    try {
        const localBuf = Memory.alloc(size);
        Memory.copy(localBuf, base, size);

        const dos = localBuf.readPointer();
        const e_lfanew = localBuf.add().readU32();
        const nt = localBuf.add(e_lfanew);

        const numSections = nt.add().readU16();
        const optSize = nt.add().readU16();
        const firstSec = nt.add( + optSize);

        console.log("[*] Sections:", numSections, "First section @", firstSec);

        let secPtr = firstSec;
        for (let i = 0; i < numSections; i++) {
            const virtualAddress = secPtr.add(0xC).readU32();
            const virtualSize = secPtr.add().readU32();

            // 把 raw data 指向 virtual
            secPtr.add().writeU32(virtualAddress);       // PointerToRawData
            secPtr.add().writeU32(virtualSize);          // SizeOfRawData

            secPtr = secPtr.add(); // 下一节
        }

        return localBuf;

    } catch (e) {
        console.error("[!] fixPEHeader exception:", e);
        return null;
    }
}


setImmediate(() => {
    console.log("[*] Script started.");

    Process.attachModuleObserver({
        onAdded(module) {
            console.log("[*] Module loaded:", module.name);
            if (module.name === UNITY_PLAYER) {
                hookAfterUnityPlayerLoaded(module);
            }
        },
        onRemoved(module) { }
    });

    try {
        const existing = Process.getModuleByName(UNITY_PLAYER);
        if (existing) hookAfterUnityPlayerLoaded(existing);
    } catch (e) { }
});

由于 crackproof hook 了自身的 openprocess 并且进行的 handle 权限过滤,frida-server 是肯定不行了,但是 Windows 这玩意相当开放,有以下方法能把 frida-gadget.dll 塞进去:

  1. 劫持 version.dll
  2. 修改 UnityPlayer.dll 的导入表,把 frida-gadget.dll 导出表的任意函数塞进去。
  3. 搓一个 ring0 驱动,从内核用 APC 方法把 frida-gadget.dll 强行塞进去。

frida-gadget.dll 塞进去了以后还需要写一个配置文件,名称命名为 frida-gadget.config

{
  "interaction": {
    "type": "script",
    "path": "D:\\Reverse\\Frida_Hook\\crackproof\\1.js"
  }
}

这样 frida-gadget.dll 加载后就能自动执行脚本,手动连接执行肯定是来不及的,因为 GameAssembly.dll 加载时机非常早。

对于ウマ娘 プリティーダービー这种会检查目录下面有没有多余的 dll,可以把带 crackproof 但是不检查 dll 的启动器复制过去,然后就能随意改导入表了。(不带 crackproof 不检查 dll 的启动器貌似不行,疑似启动器上面的壳子有额外检测)


📌 转载信息
转载时间:
2026/1/12 17:05:44

手里 2api 太多没地方用?别浪费,用来帮你闲鱼捡捡漏。
项目地址:

好久没发帖了,最近把旧坑补了补,前端后端都重构了一遍,试了试,用起来更顺手了,风控也基本规避的差不多了。

在线体验地址:web-ui
登录名:admin
登录密码:admin123
注意 在线体验不要录入自己的 apiKey 信息和闲鱼 cookie 信息!!

点点 Star 点点赞 来点夸夸
I need more credit! plz!


群众里有调皮鬼~把我跑的示例结果都删了 不过不影响 反正是在线体验 随便造


📌 转载信息
转载时间:
2026/1/12 17:05:33

前段时间搞了个《简历润色》的小工具,开发的比较仓促,制作了单句润色的功能。有佬友提出了一些建设性的建议。吸取佬友们的建议了,我重新做了《简历炼金术》这款简历润色的工具,希望能在这个寒冷的招聘环境中帮助到有需要的佬友。

如果佬们喜欢希望多多给 github 点点 star,你们的 star 就是我的动力呀!
如果佬们喜欢希望多多给 github 点点 star,你们的 star 就是我的动力呀!
如果佬们喜欢希望多多给 github 点点 star,你们的 star 就是我的动力呀!

地址

工具地址: https://resume.de5.net/
github 地址: GitHub - Anarkh-Lee/resume-alchemist: 一款基于 AI 的智能简历优化工具,帮助求职者打造更具竞争力的简历。通过 AI 分析、毒舌点评、STAR 法则润色和职位匹配等功能,让你的简历脱颖而出。
大概长这个样子:

演示:

3-ezgif.com-video-to-gif-converter

主要功能

1. 独家 “毒舌” 点评模式 (The Roast)

痛点:身边的朋友不敢说真话,导致你不知道简历烂在哪里。
方案:上传简历后,AI 会立刻化身最严厉的 HR。

  • 它不会给你灌鸡汤,而是直接开喷:“你的项目经历写得像个报菜名的服务员,全是技术栈堆砌,我看不到任何深度!”
  • 视觉暴击:0-100 的动态评分 + 犀利的评语,瞬间打破你的自我感觉良好,逼你直面问题。

2. 七大行业深度适配 (Multi-Industry)

痛点:通用的 AI 根本不懂隔行如隔山。
方案:我构建了一套复杂的 Config Schema,针对不同职业注入完全不同的人设:

  • 程序员:关注算法基础,系统架构,工程质量,技术广度,业务理解,影响力。
  • 产品经理:关注商业洞察,用户体验,数据分析,项目管理,沟通协调,战略规划。
  • UI/UX 设计师 :关注视觉表现,交互逻辑,用户同理心,设计规范,品牌理解,工具效率
  • 数据分析师:关注统计学基础,建模能力,业务洞察,数据可视化,SQL/Python, 决策支持。
  • 市场 / 运营 :关注获客能力,内容创意,活动策划,数据复盘,渠道管理,品牌建设。
  • 销售:关注客户开发,谈判技巧,业绩达成,渠道拓展,客户维系,销售管理。
  • HR :关注招聘配置,组织发展,薪酬绩效,员工关系,企业文化,流程合规。

3. 单句 “原子” 润色 (Atomic Polish) —— 保留了原来的这部分功能

痛点:知道要改,但不知道怎么改得高大上。
方案:你只需要选中一句话(比如 “我用了 Redis”),系统提供三种维度的改写:

  • 标准专业版:去口语化,商务范儿。

  • 行业高阶版:程序员变成 “架构师视角”,PM 变成 “战略视角”。

  • 数据驱动版 (Data-Driven):这是最强的!AI 会强制插入高亮占位符:

    “重构缓存策略,将核心接口 QPS 提升了 [X%],平均响应延迟从 [Yms] 降低至 [Zms]。” (系统会高亮显示 [] 部分,逼你去填数字。填不出来?说明你的工作产出有问题!)
    2
    【开源自荐 4】简历炼金术–简历润色升级啦,新增 7 大行业简历润色、独家毒舌点评模式、六边形能力雷达图、JD 职位匹配度分析、一键 STAR 法则改写简历等等4

4. 智能可视化诊断 (Hexagon Diagnosis)

痛点:不知道自己是偏科还是全能。
方案:根据你的简历内容和目标职位,自动生成动态的六边形能力雷达图

  • Java 开发显示:[算法,架构,工程,业务…]
  • 运营显示:[获客,活,转化,创意…] 让你的短板一目了然。

5. JD 职位匹配度分析 (Job Match)

痛点:海投命中率低,因为简历没有针对性。
方案:左手简历,右手 JD(职位描述)。

  • AI 会逐行比对,计算匹配度(Match Rate)。
  • 缺口分析:直接告诉你 “JD 里要求熟悉 Docker,但你的简历里一次都没出现,建议补充”。

6. 一键 STAR 法则全篇重写

痛点:懒得一句句改,想先看个大概。
方案:基于经典的 STAR 原则 (Situation, Task, Action, Result),一键重构整个项目经历模块。把 “流水账” 瞬间变成 “英雄之旅” 的故事结构。

7. A4 导出 & ATS 友好模板–这部分还有待提升

痛点:网页做得很漂亮,导出 PDF 格式全乱,被大厂系统直接过滤。
方案

  • 内置 极客版 (Geek)大厂精英版 (Elite)极简版 (Minimalist) 三套模板。
  • 使用 CSS @media print 级控制,确保导出就是标准的 A4 纸张,不切边、不乱码。
  • ATS 优化:结构化数据排版,确保招聘系统能 100% 抓取你的关键词。

8. 隐私安全第一 (Privacy First)

痛点:把简历上传到不明网站,担心被卖数据。
方案

  • 数据本地处理,不保存用户简历

📌 转载信息
原作者:
anarkh
转载时间:
2026/1/12 16:50:16

项目地址: GitHub - looplj/axonhub: AxonHub is a modern AI gateway system that provides a unified OpenAI ( Chat Completion, Responses), Anthropic, Gemini and AI SDK compatible API

前文见:[开源] AI 网关 AxonHub 发布 v0.7.0 ,支持模型管理以及批量映射

本次是个大版本,攒了挺多功能,所以发布时间稍晚,欢迎大家试用反馈,觉得有用的话,欢迎点个 。

主要大功能如下:

  1. 渠道监控监控展示(基于历史 request 数据)
  1. 备份恢复

  2. Prompt 注入

  3. 自动禁用配置

  4. 其他大量细节优化和修复

这个版本变更很大,为了尽快发布,很多细节还没完善,欢迎大家反馈。

然后标题也起的很大(抄的 DeepSeek v3.1 发布),其实 prompt 管理等相关 agent 功能是早就计划的内容了,从 0.4 开始就准备做,一直到 v0.8 才是真的落地,中间对于网关代理的基础功能做了很多完善优化,感谢大家的反馈。

接下来会在继续完善网关基础功能的前提下,加入更多 agent 相关的能力,其实这也是这个项目的启动初衷;当然功能越多,服务越重,有很多需要考虑的,比如是不是大部分佬友不需要 agent 能力,是不是应该新开一个项目,或者是构建的时候拆分,欢迎大家提出反馈,


📌 转载信息
原作者:
looplj
转载时间:
2026/1/12 16:41:33

本地配置 texlive + vscode

1. 背景

随着 overleaf 免费版的编译时间不断缩小,遇到过长的文本可能出现无法编译超时的情况。于是考虑在本地
配置 texlive 进行编译。由于我使用 vscode 较多,因此并没有下载 texworks, 而是在 vscode 上进行配置,同时
可以享受到 vscode 的 AI 集成等功能。

本机环境为 windows11。

2. 安装 texlive

首先前往 Index of /CTAN/systems/texlive/Images/ | 清华大学开源软件镜像站 | Tsinghua Open Source Mirror

出现如图所示的页面,texlive.iso 或 texlive2025.iso 进行下载即可。

下载时间十几分钟左右,需耐心等待。

接着在本地解压,得到

选择 install-tl-windows.bat 进行安装,即可。可以选择不安装前段 texworks。

3. 配置 vscode

首先安装 vscode 的 latex 插件,一般选择为 LaTeX Workshop。

\documentclass{article}
\usepackage{fontspec}
\usepackage{xeCJK}
\setCJKmainfont{SimSun}
\usepackage{geometry}    % 调整页边距
\usepackage{amsmath}     % 数学公式支持
\usepackage{graphicx}    % 插入图片


% 2. 基础设置
\geometry{a4paper, margin=1in} % A4纸,1英寸页边距
\title{LaTeX中文文档示例}       % 文档标题
\author{测试用户}               % 作者
\date{\today}                   % 日期(\today表示当前日期)

% 3. 文档开始
\begin{document}
\maketitle % 生成标题(包含标题、作者、日期)

% 正文段落
这是一段中文正文示例。LaTeX擅长处理复杂排版,尤其在数学公式、学术引用和长文档结构上优势明显。

% 无序列表(可用于罗列要点)
\begin{itemize}
    \item 优点1:排版美观,格式统一
    \item 优点2:数学公式支持完善(如下方示例)
    \item 优点3:跨平台兼容,文档格式稳定
\end{itemize}

% 数学公式示例(两种常用形式)
% 1) 行内公式(嵌入正文):勾股定理 $a^2 + b^2 = c^2$
% 2) 独立公式(单独成行,自动编号):
\begin{equation}
    f(x) = \int_{-\infty}^{+\infty} e^{-t^2} dt = \sqrt{\pi}
\end{equation}

% 插入图片(需将图片文件放在同一目录,替换"test.jpg"为实际文件名)
\begin{figure}[h] % [h]表示优先将图片放在当前位置
    \centering % 图片居中
    \includegraphics[width=0.6\textwidth]{test.jpg} % 宽度设为页面60%
    \caption{图片示例(可修改为实际图片说明)} % 图片标题
    \label{fig:test} % 图片标签(用于后文引用)
\end{figure}



\end{document}

在 latex 中最麻烦的问题是中文字体的寻找,Windows 上的字体和你认为的名称可能有较大出入,因此会出现
字体未找到的错误。

这里采用 xeCJK,因为 ctex 的默认配置会找 SimHei 字体,而本机简黑字体可能名称不直接叫 SimHei。
故出现如图错误

若想使用 ctex 则需要将默认配置关闭,并重新配置字体。

\documentclass[fontset=none]{ctexart}
\setCJKmainfont{SimSun}
\begin{document}
你好,世界
\end{document}

那么我们如何在本机上找到我们需要的字体呢,这时候可以用到 powershell 中的 fc-list 命令,查找本机上所有字体。

我们可以看到,主要有两个 C:/WINDOWS/Fonts 和 H:/texlive/2025/texmf-dist/fonts 两个文件夹下的字体,
H:/texlive/2025/texmf-dist/fonts 是 texlive 自带字体,主要用于数学,西文等。
C:/WINDOWS/Fonts/ 是我们本机自带字体,我们将要在他的目录下寻找我们需要的中文字体。

当我们需要查找仿宋字体时,我们可以 fc-list | Select-String “song”, 得到如图结果!

这里的 STFangsong 就是我们需要的名称。

另一个问题则是 settings.json 的配置,我之前使用这位 https://zhuanlan.zhihu.com/p/624932249 博主的配置。但发现存在引用时,会发生无法二次编译的问题,于是进行了添加

{ "latex-workshop.latex.autoBuild.run": "onSave", "latex-workshop.showContextMenu": true, "latex-workshop.intellisense.package.enabled": true, "latex-workshop.message.error.show": false, "latex-workshop.message.warning.show": false, "latex-workshop.latex.tools": [ { "name": "latexmk_xelatex", "command": "latexmk", "args": [ "-xelatex", "-synctex=1", "-interaction=nonstopmode", "-file-line-error", "-outdir=%OUTDIR%", "%DOCFILE%" ] } ], "latex-workshop.latex.recipes": [ { "name": "LaTeXmk (XeLaTeX)", "tools": ["latexmk_xelatex"] } ], "latex-workshop.latex.recipe.default": "LaTeXmk (XeLaTeX)", "latex-workshop.latex.clean.fileTypes": [ "*.aux", "*.bbl", "*.blg", "*.idx", "*.ind", "*.lof", "*.lot", "*.out", "*.toc", "*.acn", "*.acr", "*.alg", "*.glg", "*.glo", "*.gls", "*.ist", "*.fls", "*.log", "*.fdb_latexmk" ], "latex-workshop.latex.autoClean.run": "onFailed", "latex-workshop.view.pdf.viewer": "tab", "latex-workshop.view.pdf.autoReload.enabled": true, "latex-workshop.view.pdf.reloadOnStart.always": true, "latex-workshop.view.pdf.internal.synctex.keybinding": "double-click" } 

精简了一些指令,只使用 latexmk_xelatex 用于管理多次编译。

4. 引用

https://zhuanlan.zhihu.com/p/624932249


📌 转载信息
原作者:
lycx
转载时间:
2026/1/12 16:41:19

原项目地址:GitHub:GitHub - TheSmallHanCat/flow2api: 无限次数的 banana pro!逆向账号池,支持负载均衡、AT 自动刷新、缓存策略、代理等。Q 交流群 1073237297
原帖地址:[Flow2api] 无限次数的 banana pro!逆向账号池,支持负载均衡、AT 自动刷新、缓存策略、代理等

发帖原因是因为自己折腾了好久飞牛 nas-docker 安装后总有一些问题。
后来用 ai 改了下可以直接部署到 huggingface.co(抱脸)space,下面是具体步骤
第 1 步复制空间:
【小白教程 huggingface.co 搭建 [Flow2api] 】无限次数的 banana pro!逆向账号池1

第 2 步:复制后会提交部署

第 3 步:获取项目访问网址

默认账号密码:admin/admin
第 4 步:安装浏览器脚本(出现提取错误请将 http 改成 https)

其他对应后台里面提示设置就好了,这个仅针对小白,有不懂的可以问,但是可能你问我我也解决不了啥,有能力的还是直接用原作者 @ TheSmallHanCat 的项目。
关于提取错误:将 http 改成 https
关于 403:无头打码不稳定 最稳定目前应该是 https://yescaptcha.com/ 有 1500 积分可用


📌 转载信息
转载时间:
2026/1/12 16:40:43

为什么命令行越来越具有代理式功能

传统上,终端或 shell 是一种命令式工具,依赖于像lsgrepgit这样的预定义命令来执行特定指令。

 

然而,像Gemini CLIClaude CodeAutoGPT这样的代理性命令行工具的最新进展已经将这个简单的实用程序转变为一个更动态和智能的助手。

 

这些代理式 CLI 工具允许用户用自然语言描述更高级的目标或任务,从而使简陋的 shell 栩栩如生。

 

它们可以规划步骤,利用各种工具完成不同任务(例如文件处理、代码执行和网络搜索),对输出进行推理,并充当辅助驾驶以帮助完成任务。

 

这显著减少了用户的心智负担,并最大限度地减少了多个工具之间的上下文切换。至关重要的是,用户通过批准或指导智能体的过程来保持控制权,确保自动化和用户监督之间的平衡。

 

在本文中,我们将探讨这些代理式工具的架构,对比不同的规划风格,如 ReAct 和计划-执行。

 

我们还将检查代理式工作流程的实际生命周期,从意图捕获到执行,并讨论可靠日常使用所需的关键安全护栏。

 

端到端代理式终端生命周期:一个提示,三个智能体

虽然人工智能在开发中的兴起通常与聊天界面(如 ChatGPT)和代理式 IDE(如Cursor)有关,但代理式 CLI 占据了一个独特的利基市场。基于 IDE 的智能体擅长于以丰富的视觉上下文为中心的代码任务,但它们通常局限于编辑器的窗口。

 

CLI 满足了开发人员管理基础设施和 git 工作流的需求:shell。这种无头的、可组合的特性允许它以 GUI 绑定代理无法做到的方式将工具和系统命令链接起来。然而,请注意,随着像 Gemini CLI 这样的智能体现在可以与 IDE(如 VSCode)集成以提供其建议的差异视图,这种区别正在变得模糊。

 

为了详细说明代理式终端工具的强大功能,让我们讨论一个运行示例。

 

这些标记文件封装了关于如何构建和测试 repo 的事实,以及文档和脚本的约定。他们基本上是代理的入职文件。例如,Gemini CLI 的文件名为“Gemini.md”。Claude Code 工具也使用了类似的约定。

 

考虑一个常见场景,开发人员需要用标准文档和自动化脚本启动一个新的存储库。与其手动创建每个文件并编写样板代码,代理式 CLI 可以从单个高级指令处理整个过程,从而确保一致性并节省宝贵的时间。

 

输入提示:

添加一个 CONTRIBUTING.md,一个 PULL_REQUEST_TEMPLATE.md,以及一个 scripts/smoke-check.sh,运行一个可配置的命令并在失败时退出非零;更新 README 以记录两者,并打开一个 PR。

 

清单 1:用户提示代码片段

 

为了理解这个指令是如何转化为行动的,我们将把代理式的工作流程分解为它的组成阶段。我们从意图捕获开始,其中智能体在项目的特定上下文中定位自己,然后转移到规划风格,对比不同模型架构其推理的方式。后续部分将详细说明执行实际工作的 Tool Execution 循环和防止自主事故的关键安全防护措施。最后,我们将看看结果如何呈现给用户,说明在不同的品牌名称下,大多数代理式工具共享一个共同的架构 DNA。

 

阶段 1:意图捕获和上下文形成

为了确保 LLM 的高质量提示,智能体首先收集所有必要的信息,然后进行规划或执行。这种方法包括几个步骤:将任务链接到当前工作目录,管理会话状态,并将每个项目的配置保存在 dotfolders(例如,./.gemini 和./.claude)。这种方法消除了重复使用标志进行重复任务的需要。

 

此外,指令还隐式地从各种位置获取。以下是 CLI 智能体除了用户的提示之外,从哪些主要信号源获取的一些:

 

特定于文件夹的上下文文件

这些是封装了有关你的存储库如何构建和测试以及你的文档和脚本约定的事实的 markdown 文件。它们本质上充当你智能体的入门文档。例如,Gemini CLI 的文件称为Gemini.md。Claude Code 工具也使用了类似的约定。

 

这是一个高性能的SaaS后端。* **核心原则:** 可读性优于聪明度。显式优于隐式。* **架构:** 六边形架构(端口和适配器)。* **安全性:** 零信任安全模型。所有输入必须通过Pydantic进行验证。* **语言:** Python 3.11+(需要严格类型)。* **框架:** FastAPI(异步默认)。* **数据库:** PostgreSQL(通过SQLAlchemy 2.0异步会话)。* **测试:** Pytest(覆盖率必须保持>90%)。
复制代码

 

清单 2:Gemini.md 示例

 

技能

早期智能体的一个主要限制是需要将所有指令塞进上下文窗口。Anthropic 的 Claude Code 引入了Skills的概念,它建立在上述 markdown 文件的想法之上,作为专业知识的模块化包(例如,PDF 操作、数据分析和 React 最佳实践),作为包含SKILL.md的文件夹存在。

 

这种包含使得渐进式披露成为可能:智能体最初只看到可用技能的名称/描述(消耗最少的词元)。然后,只有在用户的任务需要时,它才动态安装或读取完整的SKILL.md指令集。这种方法允许将智能体默认成为通才,但在需要时是专家。

 

代码库信号

CLI 可以扫描现有的scripts/.github/,并拾取像README.md这样的文件工件,如果你已经提供了这些文件。基于像 Python 这样的语言的典型约定,它还可以查看像pyproject.toml这样的工件以获得高级概览。

IDE 焦点

这是一个可选步骤,如果你连接到像 VSCode 或 Cursor 这样的代码编辑器,可以用来打开文件和选择。

 

阶段 2:规划风格

加载上下文后,每个工具开始其控制循环:

 

  • Gemini(ReAct风格)思考,调用工具,观察并重复,这非常适合发现缺失的文件夹或策略。这种迭代方法允许 Gemini 适应新信息并动态调整其策略,使其适用于需要灵活解决问题和探索的任务。

  • Claude(计划和执行)提出一个你可以批准的清单,然后逐步执行计划,并带有策略钩子。这种方法提供了更高程度的控制和透明度,因为用户可以在执行前审查和修改计划,确保遵守特定的策略或偏好。

  • Auto-GPT 发出思考加上每个周期运行器执行的 JSON 命令。这种结构化输出便于自动化和与其他系统集成,因为 JSON 格式提供了智能体意图和行动的清晰且机器可读的表示。

 

以下示例说明了不同智能体如何处理这个规划阶段。Claude 提供了一个人类可读的清单供用户审批,而 Auto-GPT 生成了专为自动执行而设计的 JSON 输出。

 

Claude——计划预览

计划:创建脚本/smoke-check.sh (POSIX sh;从env读取CMD;失败时退出非零)创建CONTRIBUTING.md(如何在本地进行冒烟检查)创建.github/PULL_REQUEST_TEMPLATE.md(检查清单包括冒烟检查)更新README.md,添加scripts/和PR模板说明运行冒烟检查运行smoke-check;提交;打开PR批准吗?[是/否]
复制代码

 

清单 3:Claude 计划审查代码示例

 

Auto-GPT——带有思考和命令的显式 JSON

“thoughts”: {"text“: ”创建冒烟检查,文档,模板;更新README;运行脚本;提交/PR”},"command":{"name":"write_file","args":{"path":"scripts/smoke-check.sh","content":"#!/bin/sh\n: \"${CMD:=echo ok}\" \n$CMD || { echo \"smoke failed\" >&2; exit 1; }\necho \"ok\""}}}
复制代码

 

清单 4:Auto-GPT 审查代码示例

 

阶段 3:工具调用

在此阶段,智能体使用其库中的工具根据其任务提出更改建议。例如,这可能涉及使用文件编辑工具在 IDE 中显示差异。

 

工具已经从专有实现发展为开放标准:模型上下文协议(Model Context Protocol,MCP)。在 Anthropic、谷歌和其他组织的支持下,MCP 就像 AI 应用程序的 USB-C 端口。而不是硬编码集成每个数据库或 API,(例如,用于 PostgreSQL、Slack 或 GitHub 的服务)。CLI 智能体在启动时自动发现这些资源,允许单个智能体在一个无缝的工作流程中查询你的生产数据库,阅读你的线性票证,并编辑代码。

 

示例冒烟脚本的 Diff

*** scripts/smoke-check.sh ++set -eu +# CMD可以被覆盖:CMD="make test" ./scripts/smoke-check.sh +: "${CMD:=printf ok}" +$CMD >/dev/null 2>&1 || { echo "smoke failed" >&2; exit 1; } +echo "ok"
复制代码

 

清单 5:冒烟脚本 diff 示例

 

Claude 的钩子是一种明确策略的干净方式——限制写入路径、自动 chmod 脚本、在写入后运行 lint/tests——而不需要将其塞入提示中。Gemini 通过扩展和 MCP 获得类似的杠杆作用:不同的旋钮,类似的结果。

 

阶段 4:人为干预的安全和护栏

你保留了对冒险行为的控制。Gemini 在执行写入或具有副作用的 shell 命令之前需要你的批准。Claude 提供了确认和钩子,允许你阻止违反策略的写操作,或者在继续之前自动运行检查。Auto-GPT 暂停是/否确认,除非启用连续模式。为了进行探索,激活一个容器化的沙箱来隔离文件系统和进程。

 

阶段 5:执行和迭代:真正完成工作的循环

创建文件后,智能体执行脚本并根据结果进行调整。例如,如果缺少scripts目录,Gemini 将创建它并再次尝试操作。如果脚本缺乏可执行权限,Claude 的集成钩子会自动应用chmod +x命令。

 

脚本在观察、推理和操作的连续循环中执行。这个循环不断重复,直到本地执行成功并完成文档。

 

阶段 6:渲染结果和停止条件

CLI 提供了一个清晰的、语法高亮显示的工具调用和文件差异视图。用户可以在编辑器中打开这些差异,手动进行调整,或者指示智能体进行适当的更改。批量批准是最有效的,例如在单个批准之前一起审查所有脚本和文档。

 

在一次成功的冒烟检查之后,通过批准的差异,智能体将创建一个新的分支,提交更改,并打开一个 PR 草案。

 

如何在你的工作流程中利用代理式 CLI

以下是一些实用技巧,帮助你在工作流程中充分利用这些工具:

 

  • 将上下文文件视为构建资产

 

将 GEMINI.md 和 CLAUDE.md 文件与你的 README 文件一起维护。这些文件应该简洁且专注于特定细节,包括构建和测试程序、配置位置、任何特定于存储库的问题以及安全编辑的目录。你甚至可以使用智能体生成初始草稿。将这些文件视为为代理式编程环境的方式,而不是另一个需要持续监督的提示。

 

  • 积极地限定范围

 

将智能体指向实际重要的文件夹(例如 services/payments/,而不是整个单体仓库)并传递明确的 @file 提示以指向热点。更紧凑的范围意味着更紧凑的差异,更少的创造性幻觉和更快的迭代。如果任务确实跨越多个包,请在提示中列举它们,以防止智能体进行详尽的扫描。

 

  • 使用沙箱避免对环境的意外更改

 

Gemini CLI 提供了一个沙箱模式,用于 shell/file 工具的临时、容器化执行。这保护了你的主机系统,限制对挂载的工作目录的写入,并控制网络访问。它非常适合无风险的探索,但不会消除对破坏性命令的审批提示,不能编辑已安装的秘密,也不能防止模型建议有风险的操作。你仍然是最终的仲裁者。

 

Claude Code 通常在容器化开发环境(Dev Container/Docker)中运行,或使用插件/钩子将 shell/file 操作通过容器化运行器路由。这提供了类似的隔离(写入限制在挂载路径,控制环境,确定性工具链)。然而,这种隔离并不具有回溯性;如果允许,它不会阻止对挂载的秘密或暴露路径的意外写入。使用钩子来强制执行路径限制,并在写入最终确定之前自动运行测试/lint。

 

Auto-GPT 没有专门的沙箱模式标志,但强烈建议在 Docker 容器中运行它。这确保了其文件系统操作与你的主机操作系统隔离,防止对你主要环境的任何意外更改。

 

  • 使用符合你需求的工具

 

Gemini CLI 非常适合深入集成到谷歌生态系统中的用户。它作为一个通用工具,擅长于发现繁重的任务,包括代码编辑、文档更新、小的 shell 操作(如列出目录和移动文件)、快速网络研究以及探索性的解决问题。它的 ReAct 循环促进了自然的探索和迭代工作。

 

Claude Code 最适合需要具体计划和强大编码能力的任务。这包括多文件重构、通过钩子执行策略、Git 原生工作流程(分支、变基、冲突解决)和透明的护栏。

 

GitHub Copilot CLI旨在为快速、存储库感知的自然语言到 shell 辅助提供支持。它非常适合生成一次性命令、搭建测试、搜索代码以及起草提交和拉取请求,所有这些都不会破坏现有的 GitHub 工作流程。

 

其他工具包括AiderOpen Interpreter和本地优先 CLI。当你需要对实现有更大的控制权,并且有高度特定的需求,如紧密的 Git 人机工程学、本地 LLM 或不受限制的 shell 环境时,可以考虑这些选项。这些工具对于喜欢较少护栏和更快修改工具本身的经验丰富的用户来说非常有用,特别是对于较小的存储库。

 

  • 像工程师一样提示,不要写论文

 

好的提示主要是关于清晰的合同,而不是华丽的散文。使用包含以下详细信息的四部分提示。从一个高层次的目标开始,用一句话陈述你的意图。

 

定义约束,包括范围(例如,“仅 services/billing”)、风格(“POSIX sh; no bashisms”)和安全协议(“写入前询问”)。确定所需的工件,指定预期的结果(例如,文件、测试、README/PR 文本)。

 

确定检查,概述将如何衡量成功(例如,测试命令、验收标准)。

 

  • 像任何其他自动化一样进行仪表化

 

为了优化智能体性能,监控关键指标,如 PR 周期时间、智能体生成的差异大小、需要返工的 PR 百分比以及智能体编辑后不稳定测试的频率等。

 

这些指标作为反馈,不仅用于智能体的整体有效性,还用于你自己的运维合同。

 

接下来是什么

 

代理式 CLI 正在从简单的 shell 助手演变为将你的工作工具、操作系统和云基础设施统一起来的连接组织。以下是截至本文撰写时的一些新兴趋势:

 

  1. IDE 和操作系统正在融合成统一的 Agent Surfaces。像Windsurf和 Cursor 这样的工具允许智能体在终端、编辑器和运行过程中共享上下文,而不是作为孤立的聊天窗口运行。Windows 也在其体验中注入了大语言模型驱动的交互

  2. 智能体正在从响应式 CLI 转变为持久的后台服务。这些守护进程智能体不是等待输入,而是主动监控日志文件和本地服务器,仅在出现错误时介入修复计划。虽然这些工具(如 GitHub PR 上的 Copilot)仍处于起步阶段,它们的洞察力尚浅,但随着正确的集成,它们将不断改进。

  3. 扩展正在成为代理能力的 App Store。随着 CLI 智能体的技能扩展等创新,我们正在开发新一代的 App Store,让用户可以将适当的能力插入到他们的智能体中。这也模糊了通用智能体和专业智能体之间的区别,因为专业智能体只是一个拥有正确知识和工具的强大通用智能体。

 

https://www.infoq.com/articles/agentic-terminal-cli-agents/

 Sara Martinez 在Online TestConf上的演讲“确保软件安全”中说到,一个安全的软件开发生命周期意味着将安全融入到计划、设计、构建、测试和维护各个阶段,而不是在最后阶段才匆忙添加。测试人员不是漏洞查找者,而是早期的防御者,从第一个冲刺开始构建安全性和质量。文化第一,自动化第二,全程持续测试和监控;她认为,这就是如何让安全成为一种习惯,而不是紧急演练的方式。

 

通用弱点枚举(Common Weakness Enumeration, CWE)统计数据显示,超过 85%的软件弱点来自于我们如何实现代码,大约 60%可以追溯到设计决策。Martinez 说,这意味着产品的基础、架构和构建方式对产品的安全性有着巨大的影响。她补充说,一旦产品上线,就要密切关注它,运行漏洞扫描,并在问题出现时尽快修补,以领先于攻击者。

 

安全的软件开发生命周期看起来很像常规的 SDLC,但每个步骤都内置了安全性,Martinez 解释道:

 

* 它首先定义明确的安全需求,并在规划和设计时运行威胁建模。

* 在开发过程中,遵循安全编码实践,审查依赖关系,并使用安全测试自动化工具或依赖项* 扫描器来尽早捕获弱点。

* 测试超越了 DAST、渗透测试和其他安全检查的功能,以发现真正的攻击路径。

* 一旦产品上线,你就可以通过安全部署、持续监控和快速补丁管理来保证它的安全。

 

Martinez 认为,安全的软件从文化开始,就像质量一样。这不是一个清单,而是关于开发者、测试人员、运维人员和管理人员之间的责任分担:

 

每个公司都应该创建适合其产品的行动计划,查看安全软件开发指南,并确保安全实践是日常工作的一部分。自动化是关键;将安全分析工具引入 CI/CD 管道,以便及早和一致地发现弱点。

 

Martinez 提到不要忘记测试的人为方面:添加与安全需求相关的特定功能测试用例,以便团队保持对诸如弱输入验证、风险角色和权限配置或访问控制等问题的警觉。

 

Martinez 说,许多最严重的事件仍然来自旧的、众所周知的攻击,我们可以通过正确的工具和实践来预防这些攻击。现在,我们面临着新的挑战,比如与 AI 相关的漏洞,它们正在重塑格局:

 

例如,许多公司正在使用 AI 来生成代码,但他们没有扫描它或应用安全开发实践,因此他们最终将已知的漏洞引入到他们的产品中。

 

我学到了很多,但我知道我永远也学不完。安全性是一个移动的目标,安全性测试是一个持续的挑战,这正是使它成为一个如此迷人、不断变化的世界的原因。

 

InfoQ 就软件安全问题采访了Sara Martinez

 

InfoQ:测试人员在安全方面扮演什么角色?

 

Sara Martinez:测试员是我们拥有的最好的安全秘密武器之一。我认为我们的角色不仅仅是检查功能是否有效;我们很容易注意到可能变成大漏洞的小问题,比如弱输入验证、有风险的角色和权限配置,或者访问控制。

 

团队需要在安全软件开发生命周期(SSDLC)中共担安全责任,比如挑战安全需求、帮助进行威胁建模,以及运行静态和动态安全自动扫描以尽早发现问题。测试人员可以通过确保快速验证修复并集成到 CI/CD 中来保持管道中的安全性。

 

InfoQ:我们有哪些关于漏洞和弱点的数据,我们如何使用这些数据?

 

Martinez:像 CWE (Common Weakness Enumeration)和 CVE (Common Vulnerabilities and Exposures)这样的数据标准为我们提供了一种描述软件弱点和现实世界漏洞的共享语言。这些数据不仅仅用于报告;自动化扫描器实际上使用这些引用来检测代码和正在运行的应用程序中的漏洞。

 

我认为这也是发现攻击者趋势的好方法。在过去的几年里,顶级 CVE 一直被跨站点脚本(XSS)和 SQL 注入等问题所主导,这些问题继续影响着很大比例的软件产品。使用这些数据可以帮助团队确定测试的优先级,关注安全编码实践,并对攻击者真正利用的东西保持警惕。

 

https://www.infoq.com/news/2026/01/ensure-software-security/

引言:唐杰、杨植麟、林俊旸、姚顺雨聚会:AI 发展的共识和差异;“死了么”APP 爆火,开发者:用户数翻了 50 倍,尚不准备改名;消息称微软本月将启动新一轮大裁员,规模达 1.1 万至 2.2 万人;字节实习生全面涨薪,最高涨幅达 150%;马斯克:X 平台将于七天内开源其算法;消息称约翰・特努斯成库克头号苹果接班人,曾主导 iPhone Air 项目;OpenAI 预留 500 亿美元员工股权激励池;王腾官宣创业:核心成员来自小米、华为,薪资福利基本看齐大厂;京东将推出全年龄段人群 AI 玩具……

 

行业热点

唐杰、杨植麟、林俊旸、姚顺雨聚会:AI 发展的共识和差异

 

在近日的 AGI-Next 前沿峰会上,唐杰、杨植麟、林俊旸、姚顺雨等行业标杆人物,与张钹院士共同勾勒出大模型发展的新图景,围绕技术突破、行业分化、范式变革与中国 AI 的未来展开了一场思想碰撞。

 

在技术发展的核心议题上,各位领军者达成了“突破现有瓶颈、迈向多元智能”的共识。智谱创始人唐杰直言,中国开源大模型虽成果斐然,但与美国闭源大模型的差距可能仍在拉大,行业需保持清醒认知。他提出,大模型的下一阶段应借鉴人脑认知过程,重点突破三大能力:多模态“感统”能力,实现视觉、声音、触感等多源信息的统一感知;构建全人类“第四级记忆”,解决模型记忆与持续学习不足的问题;探索反思与自我认知,挖掘大模型自主意识的可能性。2026 年,智谱将聚焦架构创新、多模态感统等方向,推动 AI 进入长任务场景并实现具身智能,同时预判今年将成为 AI for Science 的爆发年。

 

月之暗面 Kimi 创始人杨植麟则从 Agentic 时代的技术架构切入,强调提升 token efficiency 与实现 long context 的双重重要性。他认为,前者能以更少 token 达到同等效果,后者可突破传统架构局限,支撑复杂 Agent 任务,二者结合方能实现更高水平的代理智能。更具启发性的是,他提出智能具有“非同质化”属性,未来的技术升级不仅是算力的堆砌,更关乎“品味”——即对 AI 价值观与形态的深层理解,这种差异性将催生出更多新颖应用场景。面对 AGI 潜在风险,杨植麟秉持开放态度,认为 AGI 是提升人类文明上限的关键工具,应在风险可控的前提下持续迭代突破。

 

通义 Qwen 技术负责人林俊旸则将目光投向物理世界,提出打造 Multimodal Foundation Agent 的愿景。他认为行业发展“殊途同归”,全模态模型与具身推理是核心方向,Agent 将从数字世界走向物理世界。林俊旸描绘了具体的落地场景:数字特工可实现 GUI 操作与 API 调用,物理特工则能完成斟茶倒水等实体交互动作,这种从虚拟到现实的延伸,为 AI 应用开辟了广阔空间。

 

作为压轴嘉宾,张钹院士从旁观者视角给出了深刻洞见。他指出,大模型当前擅长跨领域泛化,但落地应用需实现跨任务泛化,重点解决分布外、长尾场景的泛化难题,具体应推进多模态、具身交互、结构化知识对齐等六大方向。在人机关系上,他大胆质疑“机器必须与人类对齐”的传统认知,认为人类存在固有缺陷,无需让 AI 完全复刻;而 AI 治理的核心,不应是约束机器,而是规范研究者与使用者的行为。值得关注的是,张院士一改以往态度,鼓励最优秀的学生投身创业,认为人工智能时代的企业家应承担起将知识、伦理与应用转化为通用工具的使命。

 

圆桌对话环节,嘉宾们围绕行业分化、范式变革、Agent 战略与中国 AI 的胜算四大议题展开深度探讨。腾讯首席科学家姚顺雨从跨中美视角指出,To C 与 To B 场景的模型需求已分道扬镳:To C 用户对强智能需求有限,To B 领域则呈现“智能即生产力”的鲜明特征,模型强弱分化将愈发明显。在范式变革方面,姚顺雨提出自主学习已实际发生,只是尚未形成颠覆性感知;唐杰则预判 2026 年将出现新范式,单纯依靠扩算力、扩数据的 Scaling 模式已难以为继,创新是唯一出路。

 

关于中国 AI 的全球竞争力,嘉宾们既正视差距也保持信心。姚顺雨认为中国团队在快速复现与局部优化上具备优势,但缺乏敢于探索未知的“冒险家”;林俊旸坦言美国在算力投入上领先 1-2 个数量级,中国团队领先概率约为 20%,但“穷则思变”可能催生创新机会;唐杰则强调,凭借敢冒险的年轻一代、良好的发展环境与持续深耕的定力,中国 AI 有望在长期竞争中实现突破。

 

“死了么”APP 爆火,开发者:用户数翻了 50 倍,尚不准备改名

 

2026 年 1 月,郑州月境技术 3 人 95 后团队开发的 8 元付费 APP “死了么” 爆火,苹果付费软件排行榜登顶,用户数较此前翻 50 倍仍在上涨。据悉,该 APP 专为独居人群设计,2 日未签到即自动向紧急联系人发邮件,因名字有传播力、需求旺盛等爆火,团队表示暂不改名,计划上线短信提醒、留言等功能。

 

该软件不需注册登录,首次使用只需填写本人姓名与紧急联系人邮箱即可。每天打开应用轻轻一点完成签到,后台自动监测状态。系统有一个异常未签到自动通知的功能,如果用户连续 2 天没有在应用内签到,系统将于次日自动发送邮件告诉对方。

 

其背后公司名为月境(郑州)技术服务有限公司,2025 年 3 月份才成立,注册资本 10 万元。创始人之一小郭对媒体介绍,团队有 3 人,一位是朋友,一位是网友,都是 95 后。这款 APP 耗时 1 个月完成,开发成本约 1500 元。

 

据报道,“死了么”在 2025 年中旬上线,不过期间团队未花过多精力打理,在一个月前才做了一次更新。上线后很长一段时间里用户量很少,团队也不擅长营销,直到最近突然爆火,用户数达到之前的 50 倍,目前热度还在上涨。不过由于用户规模数能直接推导出团队收益,小郭表示,目前不便透露具体用户规模。

 

消息称微软本月将启动新一轮大裁员,规模达 1.1 万至 2.2 万人

 

1 月 7 日消息,据报道,微软公司计划于 2026 年 1 月启动新一轮裁员。预计全球范围内裁员规模将达到 1.1 万至 2.2 万人,约占其全球约 22 万名员工总数的 5% 至 10%。此次裁员预计将在 1 月第三周实施。有员工透露,微软 Azure 云团队、Xbox 游戏部门以及全球销售部门将是裁员的重点领域。截至目前,微软尚未证实该计划。微软在 2025 年尽管全年营收与利润保持稳健态势,该公司仍通过多轮裁员削减了超过 1.5 万个岗位。

 

与此同时,微软正加大对人工智能系统的投入力度。仅在 2026 财年第一季度,其资本支出就高达 349 亿美元(现汇率约合 2441.36 亿元人民币)。该公司预计全年总支出将突破 800 亿美元(现汇率约合 5596.24 亿元人民币),超过 2025 财年水平。这笔资金的大部分将用于数据中心、芯片及人工智能工具的建设与研发。分析师认为,受此战略调整影响,微软正将资金从人力成本转向长期技术资产投资。因此,中层管理人员及传统产品团队将面临更高的裁员风险。

 

字节实习生全面涨薪,最高涨幅达 150%

 

1 月 5 日,有消息称字节跳动实习生全面涨薪,覆盖技术、产品、运营等多个岗位,薪资标准自 2026 年 1 月 1 日起正式生效。其中,技术类实习生日薪调整至 500 元,较此前上涨 25%。产品类岗位从每日 200 元提升至 500 元,较此前上涨 150%。此外,运营、设计、市场、职能、销售等其他岗位也均有不同程度涨薪,调整后日薪区间涵盖 100 余元至 400 余元。

 

需要注意的是,此次公布的涨薪标准主要适用于北上广深杭等一线城市。同时,具体薪资仍会根据岗位类型、所在业务线等因素有所区别,并非完全统一。通过查询招聘软件发现,目前北京地区的产品实习生日薪已调整为 500 元,运营、营销类实习生日薪则为 350 元/天。

 

据了解,字节跳动 2025 年 12 月发布面向全球员工的内部邮件,宣布继续加大人才投入,提高薪酬竞争力、提升期权激励力度。具体包括以下措施:增加奖金(含绩效期权)投入,2025 全年绩效评估周期相比上个周期提升 35%;大幅增加调薪投入,较上个周期提升 1.5 倍;提高所有职级薪酬总包的下限(起薪)和上限(天花板)。该公司表示,此举系为确保员工薪酬竞争力和激励回报在全球各个市场都“领先于头部水平”。

 

马斯克:X 平台将于七天内开源其算法

 

社交媒体平台 X 创始人埃隆・马斯克于周六表示,该平台将在七天内面向公众开源其新版算法,这一算法包含用于决定向用户推荐哪些帖文及广告的相关代码。“这项举措将每四周推行一次,同时会附上详尽的开发者说明文档,助力大家了解算法的具体更新内容。”身为 X 平台所有者的马斯克在该平台发布的一则帖子中如此表示。

 

消息称约翰・特努斯成库克头号苹果接班人,曾主导 iPhone Air 项目

 

1 月 9 日消息,报道称伴随着现任首席执行官蒂姆・库克年满 65 岁,且其本人有意减轻工作负荷,苹果公司已加速接班人计划,而约翰・特努斯再次被认为是接班热门人选。媒体援引博文介绍,现年 65 岁的库克向高层坦言感到疲惫,希望减轻工作负担。若库克决定卸任 CEO 一职,极有可能转任苹果董事会主席。在众多候选人中,现任硬件工程主管约翰・特努斯尽管行事低调,但已跃升为头号热门人选。特努斯现年 50 岁,这一年龄恰好与库克 2011 年接替乔布斯时的年龄相同。

 

知情人士透露,特努斯之所以脱颖而出,源于其在产品定义与商业利益间“穿针引线”的精准把控力。据内部人士回忆,2018 年前后,苹果为了提升摄影与增强现实(AR)体验,曾考虑在 iPhone 上引入一种微型激光(LiDAR)组件。然而,该组件高达 40 美元的单项成本将严重压缩利润。特努斯当时果断建议:仅在价格更高的 Pro 机型上搭载该组件。他认为,购买 Pro 系列的忠实用户更愿为新技术买单,而普通用户对此并不敏感。这一决策不仅保住了利润,也确立了产品分级策略。

 

针对外界关于其缺乏创新能力的质疑,Ternus 的支持者指出,他实际上深度参与了近年来多个关键产品的研发。值得注意的是,备受瞩目的 iPhone Air 以及即将面世的折叠屏 iPhone 均由他牵头主导。这些项目显示,Ternus 不仅具备卓越的执行力,在推动产品形态创新方面同样拥有实际战绩。此外在管理风格方面,特努斯被认为与库克高度相似。他于 2001 年加入苹果,以注重细节和深谙庞大的供应链网络著称。

 

OpenAI 预留 500 亿美元员工股权激励池

 

1 月 8 日消息,据外媒报道,人工智能公司 OpenAI 去年秋季设立了一项规模达约 500 亿美元的员工股票激励池,相当于公司当时估值的约 10% 股份,该估值基于 2025 年 10 月约 5000 亿美元 的公司估值水平。报道指出,此前 OpenAI 已向员工授予约 800 亿美元的已归属股权,本次新增的股票激励池与既有部分合计约占公司总股份的 26%。

 

在过去一年中,OpenAI 的估值经历了快速增长。2025 年年中公司通过一笔员工股份二级市场交易达到约 5000 亿美元估值,高于前一次由 SoftBank 等领投的 3000 亿美元融资轮。二级股权交易不仅为员工提供了变现渠道,同时也被视为衡量市场对 OpenAI 增长前景信心的一个指标。

 

这一大规模股权激励池反映了 OpenAI 在全球 AI 竞争中对人才吸引与保留的高度重视。在人工智能研发与产品商业化日益加剧的背景下,顶尖 AI 研究人员和工程师成为市场追逐的稀缺资源,竞争对手包括 Meta、Google 等科技巨头均提供了丰厚的股权激励条件。在行业快速发展与人才争夺日益激烈的背景下,OpenAI 的股权策略旨在通过高比例激励计划锁定核心技术人才,同时支持公司未来产品和业务长期增长。

 

王腾官宣创业:核心成员来自小米、华为,薪资福利基本看齐大厂

 

1 月 8 日,王腾在社交平台公布最近情况。王腾称,从小米离开后开始筹备创业,最近新公司已经成立,公司取名为“今日宜休”,目标是通过研发睡眠健康相关的产品,让大家能拥有更好的精力状态。王腾表示,目前已经组了一个初创团队,核心成员主要来自小米、华为等头部科技大厂。

 

王腾还放出招聘广告,重点招聘软硬件产品经理、 健康/AI 算法工程师、脑科学睡眠健康专家等岗位。王腾还解释为何选择睡眠健康、精力管理方向:1. 首先睡眠、精力已经成为每个人都关心的健康问题。2. 社会对睡眠的价值理解有待提升。3. 新时代下 AI 大模型发展迅速,让很多产品的体验能大幅提升。公开信息显示,北京今日宜休科技有限责任公司成立于 2026 年 1 月 6 日,由王腾持股 55%并担任法定代表人,注册资本是 100 万人民币,注册地址是北京市海淀区。

 

此前报道,去年 9 月 8 日,小米发布内容通报,原小米中国区市场部总经理、REDMI 品牌总经理王腾因泄密被小米公司辞退。11 月份,王腾发文称告别手机行业。他表示前段时间因为自己的问题离开小米,最近也有一些公司发来邀约,但综合竞业限制和个人兴趣的考虑,想跟手机行业说声再见了,愿还在这个行业的朋友们继续加油,期待更精彩的产品出现。王腾还透露 11 月开始准备尝试些新的赛道,大的方向是科技+健康领域,具体还在筹备中,“迎接新的挑战,正是闯的年纪。”

 

京东将推出全年龄段人群 AI 玩具

 

1 月 8 日消息,据媒体报道,京东成立“变色龙业务部”,全面承接 JoyAI App、JoyInside、数字人等核心 AI 产品的打造与商业化。报道称,全新的第二批 AI 玩具已在筹备中,此次新品将推出面向全年龄段人群的 AI 玩具,将于 1 月中旬全面上线。

 

值得一提的是,在 2025 世界人工智能大会(WAIC)期间,京东正式宣布旗下大模型品牌升级为 JoyAI,以及京东在大模型方向的技术进展和 JoyAI 应用全景图,同时也发布了全新的附身智能品牌 JoyInside。据当时介绍,JoyAI 大模型拥有从 3B 到 750B 全尺寸模型家族,且通过动态分层蒸馏、跨领域数据治理等创新技术,大模型推理效率平均提升了 30%,训练成本降低 70%。

 

此外,谈到 JoyInside,截至 2025 年 7 月,已有众擎、云深处、商汤元萝卜、火火兔、Fuzozo 等数十家企业已正式接入,覆盖人形机器人、四足机器人、儿童玩具、AI 潮玩等多类载体。另据京东官方披露,截止 2025 年 12 月,已有超 4.5 万家品牌接入数字人服务,数字人直播成本约为真人直播的 1/10,平均转化率提升约 30%。在 2025 年“双 11”期间,采用数字人直播的商家数量同比增长近 6 倍,全年累计带动商品交易总额(GMV)达数百亿元。

 

蚂蚁美团联手投了一家 AI 硬件创企,前美团硬件负责人带队

 

1 月 5 日,北京 AI 硬件创企 Looki 正式完成超 2000 万美元(约合人民币 1.4 亿元)A 轮融资,本轮由蚂蚁集团领投,美团龙珠、华登国际、中关村资本跟投,老股东 BAI 资本连续两轮超额追投,阿尔法公社、同歌创投持续加码。在完成本轮融资后,Looki 计划加快人才建设、模型迭代、产品研发及供应链整合,围绕 AI 原生硬件推进下一代交互设备的探索。

 

Looki 成立于 2024 年 5 月,截至目前已连续完成 4 轮融资。该公司由两位卡内基梅隆大学(CMU)的校友联合创办,CEO 孙洋曾任美团智能硬件负责人、Momenta 高级研发总监,是 Google Assistant 早期创始成员之一。CTO 刘博聪曾任美团自动驾驶算法负责人、Pony.ai 创始成员。团队成员来自清华大学、北京大学、多伦多大学、伊利诺伊大学、伦敦政经等知名院校,曾就职于 Google、Amazon、Qualcomm、字节跳动等公司,在 AI 算法、AI 产品、硬件工程等方面具备丰富经验。

 

在 Looki 发布的一段产品介绍视频中,CEO 孙洋称,Luki L1 自去年 8 月上线以来,已被不少用户当作“记录生活节奏”的常用设备使用。Luki 还具备“主动 AI”能力,如根据饮食、坐姿时间、行为节奏提出健康建议,例如“你今天已经喝了两杯咖啡,要不要换成水?”或者“你已经在桌前坐了一小时,要不要走一走?”等。

 

智谱上市,唐杰内部信要求全面回归基础模型研究

 

1 月 8 日智谱上市当天,清华大学计算机系教授、智谱创立发起人兼首席科学家唐杰发布内部信,宣布很快将推出新一代模型 GLM-5。内部信还介绍了 2026 年智谱聚焦的三个技术方向,包括全新的模型架构设计,更通用的 RL(强化学习)范式以及对模型持续学习与自主进化的探索。它们均围绕基础模型能力提升展开。

 

上海又一 GPU“四小龙”上市!

 

继沐曦股份、壁仞科技之后,上海又一家 AI 芯片企业成功上市。1 月 8 日,上海芯片企业天数智芯登陆港交所,在 1 个月的时间内,上海已先后有“港股国产 GPU 第一股”的壁仞科技和科创板上市首日涨幅近 7 倍的沐曦股份,加上已完成 IPO 辅导冲刺科创板的燧原科技,上海 GPU“四小龙”齐聚资本市场。

 

媒体从上海市经信委获悉,2025 年 1-11 月,上海市集成电路产业营收规模 3912 亿元,同比增长 23.72%,2025 年全年产业规模预计超 4600 亿元,同比增长 24%,五年间产业规模翻了一番多,超额完成“十四五”发展目标。集聚超 1200 家集成电路企业,汇聚全国约 40%的产业人才、近 50%的产业创新资源。

 

天数智芯战略与公共关系部副总裁余雪松表示,作为国内首家开展通用 GPU 自主研发的企业,公司已完成从核心技术攻关到商业化落地的全链路贯通。“我们的研发团队有 480 人,平均拥有 20 年以上行业经验,超三分之一研发人员具备 10 年以上芯片设计与软件开发经验。包含架构、通用 GPU IP 及芯片设计、基础软件、软硬件协同等各领域的专家。”余雪松说。上海市经信委相关工作人员表示,除了上海 GPU 芯片“四小龙”(壁仞、沐曦、天数、燧原),光计算、近存计算等创新路线 AI 芯片企业也相继涌现,支撑国内大模型等新质生产力发展。

 

马斯克回应英伟达自动驾驶 AI 模型:特斯拉正在做,达到 99%很容易

 

1 月 6 日消息,在 2026 消费电子展(CES)上,英伟达宣布推出 Alpamayo 系列开放式 AI 模型、模拟工具和数据集,旨在解决自动驾驶安全挑战。对此,马斯克回应称:“好吧,这正是特斯拉在做的。他们会发现,达到 99%很容易,但要解决分布的长尾问题却非常困难。”

 

据悉,Alpamayo 平台的核心是 Alpamayo 1 模型,这是一款拥有 100 亿参数、基于思维链技术的视觉-语言-行动(VLA)模型。该模型可让自动驾驶汽车具备类人思维能力,即便在未经任何训练和标注的情况下,也能解决复杂的场景问题,例如在交通信号灯失灵的路口规划通行路线。

 

英伟达还强调,Alpamayo 模型并非直接在车内运行,而是作为大规模教师模型,供开发者微调并提取到其完整自动驾驶技术栈的骨干中。黄仁勋在声明中表示:“首款搭载英伟达技术的汽车将于第一季度在美国上路。”

 

硅谷科技初创公司兴起“脱鞋办公”潮

 

1 月 5 日消息,曾经靠海洋球滑梯、免费尼古丁袋等五花八门的福利留住员工的硅谷热门科技初创公司,如今又出新招——要求员工进门脱鞋。根据观察,在年轻人占主导的办公场所,“无鞋办公”政策正悄然兴起。雇主们认为,员工穿着毛绒袜、拖鞋踩在地毯上,能打造出更轻松无压的工作氛围。然而矛盾的是,这些公司中不少仍推行“996”工作制,要求员工从早 9 点工作到晚 9 点,每周连轴转 6 天。

 

斯坦福大学经济学家、职场文化专家尼克·布鲁姆表示,无鞋办公政策的流行,在一定程度上是“睡衣经济”的延伸——随着远程办公者被要求重返办公室,他们也把居家办公的习惯带到了办公室。但这一趋势也与硅谷高压的工作文化一脉相承。布鲁姆说:“如果你每天要在公司待 12 个小时,那不如直接穿拖鞋上班,毕竟在家也没机会穿。”

 

中国商务部回应 Meta 收购 Manus

 

1 月 8 日,就 Meta 收购人工智能平台 Manus 一事,中国商务部新闻发言人何亚东表示,中国政府一贯支持企业依法依规开展互利共赢的跨国经营与国际技术合作。何亚东在当日举行的例行新闻发布会上回应称,需要说明的是,企业从事对外投资、技术出口、数据出境、跨境并购等活动,须符合中国法律法规,履行法定程序。商务部将会同相关部门对此项收购与出口管制、技术进出口、对外投资等相关法律法规的一致性开展评估调查。

 

大模型一周大事

 

重磅发布

 

黄仁勋官宣英伟达已投产 Vera Rubin:训练 AI 速度是 Blackwell 架构 3.5 倍

 

在北京时间 1 月 6 日凌晨举办的 CES 2026 主题演讲中,英伟达首席执行官黄仁勋发表主题演讲,介绍了新一代“Rubin”计算架构,并将其定义为当前 AI 硬件领域的“最先进技术”,该架构已进入全面量产阶段。Rubin 架构以天文学家薇拉·鲁宾的名字命名,由六款协同工作的独立芯片组成。该系统的核心是 Rubin GPU,同时配备了专为“智能体推理”(Agentic Reasoning)设计的全新 Vera CPU。

 

在性能表现方面,Rubin 架构相较于前代产品实现了显著跨越。根据英伟达官方测试数据,Rubin 在 AI 模型训练任务上的运行速度是 Blackwell 架构的 3.5 倍;在推理任务中,其速度更是达到了前代的 5 倍,峰值运算能力高达 50 Petaflops。此外,新平台的能效表现同样优异,其每瓦推理算力提升了 8 倍。这一性能飞跃将为日益复杂的 AI 模型提供强大的算力支撑。

 

同时,黄仁勋也介绍并推出了全新的 Alpamayo 1,是其视觉-语言-动作模型(VLA),结合因果链推理与轨迹规划,主要增强复杂驾驶场景中的决策能力。

 

智元发布开源仿真平台 Genie Sim 3.0

 

智元机器人在 CES 国际消费电子展首日正式发布首个大语言模型驱动的开源仿真平台——Genie Sim 3.0。基于 NVIDIA Isaac Sim,Genie Sim 3.0 融合三维重建与视觉生成,打造数字孪生级的高保真环境;首创大语言模型驱动的场景泛化技术,让万级场景的生成只需几分钟;同步开源包含真实机器人作业场景的上万小时仿真数据集;并构建了覆盖 10 万+场景的多维度智能评估体系,为模型能力绘制全景画像。

 

OpenAI 推出 ChatGPT Health 模式,为“健康 / 医疗”类型对话设立专属空间

 

1 月 8 日消息,OpenAI 正式宣布推出 ChatGPT Health,该模式集成于 ChatGPT 中,号称是一个“专门用于与 ChatGPT 进行健康相关对话的独立空间”,预计将在未来几周内陆续向用户开放。OpenAI 称,目前平台每周有超过 2.3 亿人询问有关健康的问题,因此该公司推出了 ChatGPT Health 模式,旨在让用户更系统、更安全地讨论自身的健康问题。

 

据介绍,在 ChatGPT Health 模式下,系统会将用户的对话与其他普通聊天记录进行隔离,避免用户的健康背景在日常对话中被无意提及。如果用户在普通聊天中开始讨论健康问题,系统也会引导其切换到 Health 模式进行交流。同时,在 Health 模式下,AI 仍然可以参考用户在其他场景中的部分信息。ChatGPT Health 还将支持与个人信息及健康类应用的数据整合,包括 Apple Health(苹果健康)、Function 和 MyFitnessPal 等。OpenAI 强调,Health 模式中的对话内容不会被用于训练模型。

 

不过,ChatGPT 这样的“大模型”本质上是通过预测最可能的回答来生成内容,而不是基于对“真实与否”的判断,因此并不保证生成的医疗见解一定正确,OpenAI 也在其服务条款中明确指出,ChatGPT 仅供参考,不能够用于任何健康状况诊断 / 治疗。

 

雷鸟 CES 2026 推出全球首款 eSIM 功能 AR 智能眼镜 X3 Pro Project eSIM

 

1 月 8 日消息,雷鸟在 CES 2026 中正式推出了全球首款支持 eSIM 功能的 AR 智能眼镜 X3 Pro Project eSIM,但并未公布价格和上市时间。据介绍,该产品采用双目全彩光机,可获得“等效 43 英寸的 3D 空间视觉观感”,同时产品搭载高通骁龙 AR 1 计算平台,内置 RayNeo AR 应用虚拟机,支持微信、抖音、B 站等多款应用。此外,该产品搭载 eSIM 通信模块,使得 AR 眼镜首次真正具备脱离手机的能力,产品无需通过手机或 Wi-Fi,即可独立完成包括通话、实时 AI 对话、实时翻译、在线流媒体播放等功能。

 

摩尔线程正式发布开源大模型分布式训练仿真工具 SimuMax 的 1.1 版本

 

1 月 8 日,据摩尔线程消息,近日,摩尔线程正式发布开源大模型分布式训练仿真工具 SimuMax 的 1.1 版本。该版本在完整继承 v1.0 高精度仿真能力的基础上,实现了从单一工具到一体化全栈工作流平台的重要升级,为大模型训练的仿真与调优提供系统化支持。本次更新聚焦三大核心创新:用户友好的可视化配置界面、智能并行策略搜索,以及融合计算与通信效率建模的 System-Config 生成流水线。新版本同时提升了对主流训练框架 Megatron-LM 的兼容性,并增强了对混合并行训练中复杂通信行为的建模精度,使仿真环境更贴近真实生产场景。

 

企业应用

 

  • 1 月 7 日,微创机器人依托神经元 MicroGenius 多模态自主手术大模型,成功完成了全球首例“大模型自主手术”动物实验。这一突破性成果不仅填补了全球大模型自主手术在体动物实验的技术空白,更推动全球 AI 产业在医疗领域的深度升级与跨界融合。

  • 1 月 6 日,波士顿动力与谷歌 DeepMind 宣布建立新的人工智能合作伙伴关系,目标将 Gemini Robotics 人工智能基础模型与波士顿动力的新型 Atlas 人形机器人集成。

  • 1 月 6 日,高通与谷歌宣布深化长达十年的汽车领域合作,双方将整合骁龙数字底盘解决方案与谷歌汽车软件及云服务能力,加速软件定义汽车落地,推动 AI 赋能的智能出行体验规模化普及。

  • 1 月 5 日,腾讯 AI 工作台 ima.copilot 迎来更新:正式上线“生成 PPT”功能。用户只需进入“任务模式”,即可调用个人知识库中的素材,一键生成幻灯片。

  • 1 月 5 日,智元机器人已与 MiniMax 达成合作,MiniMax 将为智元机器人提供文本到语音全流程 AI 技术支持。针对智元机器人的产品定位与功能特性,MiniMax 为其量身打造专属人设体系,优化用户与机器人的语音交互体验。同时,基于人设体系构建定制化提示词策略,为用户生成专属音色,实现千人千面的个性化音色合成,满足多样化语音交互需求。此外,MiniMax 还基于自研音乐生成模型,助力智元机器人拓展娱乐场景玩法。

Anthropic 由 7 位前 OpenAI 核心成员创立,他们曾参与 GPT-2、GPT-3、Scaling Laws 及 AI 安全研究。Daniela Amodei 就是其中之一,她是 Dario Amodei 的妹妹,也曾任 OpenAI 的安全与政策副总裁,现在是 Anthropic 联合创始人兼总裁。

 

2021 年初疫情期间,Dario 冒雨向 Eric Schmidt 路演,后者成为 Anthropic A 轮投资人。与其他大模型公司不同,Anthropic 会将大模型使用中的风险公开,比如 Claude 在极端“生存威胁”情境测试中,多数情况下会选择勒索,类似操作在行业中极少见。

 

在 Amodei 近期在接受 CNBC 采访中,她谈到了如何在支出方面控制成本、如何保障人工智能安全以及 2026 年上市的可能性。

 

Amodei 认为,“AI 安全”不是商业负累,而是核心优势,企业客户对安全性的高要求,恰好匹配其创立初衷,这一理念在早期被认为“激进”,如今成为 B 端竞争壁垒。Anthropic 是唯一能同时登陆微软、亚马逊云科技、Google 三大云平台的前沿大模型厂商,企业客户需求曾数次超过其算力供给能力。

 

另外,她还提到,Anthropic 以“不要相信炒作”为内部价值观,拒绝博关注,通过 B 端真实价值锚定长期方向,避免被行业泡沫裹挟。

 

Anthropic 在支出和算法效率方面采取了更为谨慎的态度,而其竞争对手 OpenAI 则承诺投入 1.4 万亿美元用于计算。她提到,即便行业算力投入规模惊人,但“更好的硬件回报极高”,哪怕模型性能仅提升 0.01,价值也足够可观;且前沿模型的算力需求仍在指数级增长,需提前大规模布局。

 

下面是详细对话内容,我们在不改变原意基础上进行翻译和删减,以飨读者。

 

Anthropic 起源:离开 OpenAI 为什么值得

 

主持人:这家公司创建初期,当时世界处在什么状态?你们觉得 Anthropic 要特别解决什么问题?

 

Amodei:Anthropic 就要迎来五周年了。说到最初,其实我和另外六位联合创始人,当时都在 OpenAI 一起工作。我们一起参与过很多不同的项目,从把一些当时规模最大的模型做起来,比如 GPT-2、GPT-3,到很多早期的语言模型工作,后来都成了大模型革命的一部分;还有 scaling laws 相关的研究,以及大量偏技术安全方向的工作,比如可解释性和对齐。

 

在某个时间点,我们逐渐形成了一个非常清晰的想法:我们想建立一家真正站在 AI 前沿、开发变革性技术的公司,但同时对系统的安全性和可靠性保持一种极其严格、近乎执念式的关注。那时我们觉得,与其在原有框架里继续做,不如自己出来,把这件事从头到尾做到极致。Anthropic 就是在这样的背景下诞生的。

 

如果把时间背景说清楚,那是 2020 年的冬天,到 2021 年初。大家都被封在家里,正值疫情高峰。那种感觉很复杂:机会既让人兴奋,又让人害怕。

 

主持人:你之前提到过一个像电影画面的瞬间,2021 年 1 月,在 Dario 的后院,大家都戴着口罩,Eric Schmidt 也在,下着大雨,你们在帐篷下面向他做介绍。你会把它看作公司的起始点吗?

 

Amodei:是的,那一幕真的很难忘。具体日期我可能记不太准了,但应该是 1 月初的某一天。我们就在 Dario 家后院,正下着雨,我们临时搭了一个帐篷,我们私下都叫它“派对帐篷”,大家就挤在下面。

 

后来,Eric 成了我们的 A 轮投资人。但当时,其实我们只是刚刚做出“要出来创业”的决定,一切都还非常早期,对公司具体会长成什么样,说实话并没有清晰的答案。我们只有一个特别大的愿景、特别宏大的想法。

 

还有一个小插曲:那时候我其实已经怀孕八周了,怀的是我儿子。我觉得在所有联合创始人里,可能只有 Dario 知道这件事,甚至我都不确定他当时是不是已经知道了(笑)。所以那段时间,真的发生了太多事情:口罩、保持社交距离,一切都很混乱。但与此同时,我们又怀抱着一个巨大的梦想,无论在个人层面还是职业层面,那都是一个重大时刻。

 

主持人:那一刻,你们觉得 OpenAI 做错了什么,才让“离开”这件事即使有很大风险也值得?

 

Amodei:我们并不是“逃离”什么,更像是在“奔向”某个目标。我的意思是,我们这群联合创始人,彼此认识的时间其实非常久了,不只是 OpenAI 这段经历。比如 Dario、Chris Olah、Tom Brown 之前就在 Google Brain 一起共事;Jared 曾是 Dario 的研究伙伴;Dario 和我是兄妹。我和 Chris 已经认识十三年了。

 

所以我们是一群长期一起工作、在价值观上高度一致的人。我们都深信,人工智能有着极其巨大的正向潜力,但要真正释放这种潜力,必须极其严肃地对待风险问题。

 

在某个时间点,我们开始想,如果能从一开始就创办一家把“安全与可靠性”放在一切核心位置的公司,会怎么样?我们内心其实也相信,这样的理念不仅有伦理意义,从商业角度看也同样有价值,甚至会成为一种优势。

 

当时很多人认为,“安全”和“商业成功”是相互冲突的,但我们反而相信,这两件事是高度相关、彼此强化的。现在回看,这个想法在当时确实听起来很激进、很新,但那正是我们创立 Anthropic 的根本动因之一。

 

主持人:把“我们非常重视安全”这句话,真正落到可执行的策略上来看,现在最让你担忧的是什么?

 

Amodei:我觉得在安全层面,大概可以分成两个方面来说。首先是技术安全本身,这里面其实还有大量非常有意思、但尚未被完全发现和解决的技术问题。我认为 Anthropic 一直在努力成为这个领域的引领者,至少是积极推动者。无论是我们在机制可解释性上的研究,还是 Constitutional AI,本质上都是在做一件事:想办法把“护栏”直接内建进模型里。我们的技术团队花了非常多时间去琢磨,怎样才能真正从模型内部把这些安全机制做好。但现实是,这件事永远做不完,而且模型变聪明的速度实在太快了。

 

其次是技术对整个社会层面的影响。这一点我们也公开谈过很多次。Anthropic 在这方面相对比较“异类”,我们会发布大量研究,去探讨人工智能可能带来的社会影响。比如我们最近发布过一份报告,讨论 AI 可能带来的经济层面影响,以及对劳动力市场的冲击。

 

我们之所以尽可能透明,是因为我们真的认为,提前面对潜在问题,总比事后补救要好。作为一家公共利益公司(Public Benefit Corporation),我们觉得公开讨论这些问题本身就是我们的责任。当然,我们并不认为 Anthropic 能单独解决所有问题,但我们必须和公民社会、政府以及更多相关方一起讨论:当人工智能开始能够完成大量人类日常工作的那一天,世界会发生什么变化。

 

主持人:“激进透明”似乎已经成了你们文化的一部分。你们也发布过研究,显示在面对“生存威胁”的极端情境时,Claude 在绝大多数情况下会选择勒索,而其他模型也有类似表现。你们把这些东西公开出来,几乎就像一条公共安全提示:这是这项技术现在能做到的事情,而这正是我们要解决的问题。那在这些案例之后,当你们进行方向调整时,最紧迫的安全重点是什么?

 

Amodei:确实,这种做法在行业里并不常见。很多人都会觉得,一家公司这么公开地谈论自己技术的风险和潜在伤害,是一件很不寻常的事情。我们之所以这么做,有几个原因。

 

第一,作为一家公共利益公司,这本身就是我们使命的一部分。我们确实相信 AI 有巨大的正向潜力,比如我们真心觉得,未来它可能在治愈疾病等领域发挥颠覆性的作用。但要真正实现这些美好愿景,就必须把最棘手、最困难的问题先解决好。从这个角度看,越是坦诚地谈风险,对所有人反而越有利。因为我们的目标不是制造恐慌,而是防止坏事发生,好让这些积极的成果真正落地。

 

第二个原因是,我们相信,更充分的信息和更开放的讨论,通常会带来更好的结果。我们很幸运,处在一个可以第一时间看到风险信号的位置,也有条件把这些信息讲清楚。比如我们可以明确地说:Claude 可能被用于网络攻击,这是一件必须高度警惕的事情。而且如果这种情况发生在我们身上,很可能也会发生在其他前沿模型开发者身上。

 

在安全、信任与防护这些领域,很多工作其实是可以、也应该跨公司协作的。把趋势、问题用清晰、易懂的方式公开出来,本身就是降低整体风险的一部分。

 

我们经常会做一个反事实思考:如果你是一家上一代的技术公司,比如社交媒体平台,如果可以回到过去,提前知道这些平台后来带来的社会后果,你会不会选择做出不同的设计决策?Anthropic 想做的就是尽量在今天问自己这些问题。我们当然无法预测未来,但至少要问清楚:如果我们已经意识到某些风险的可能性,那我们今天有没有尽最大努力去讨论它、应对它、降低它?

 

在算力上是不是花太多了?

 

主持人:回看过去半年,整个行业签下的算力合同数量可以说非常惊人。与此同时,Gemini 在模型性能上也明显追近了差距。不少分析师指出,Google 的优势在于它几乎掌控了整个技术栈,从芯片、云业务,到各种可以直接部署技术的产品入口。而 Anthropic 现在也开始自建一方基础设施,在既有云资源承诺之外,又投入五百亿美元,在纽约和德州建设数据中心。这是不是你们赢得 AI 竞赛战略的一部分?要想胜出,就必须自己做基础设施,掌控更多垂直整合的能力吗?

 

Amodei:这是个很有意思的问题。人工智能领域的一个核心挑战在于,如果你想训练真正处在前沿的大模型,对算力以及相关资本的要求实在是太高了。Anthropic 一直以来的目标,是在这种“必须大量消耗算力”的现实下,尽可能理性、高效地使用我们手头的资源。

 

有意思的是,长期以来,Anthropic 拥有的算力和资本,其实都只是竞争对手的一小部分,但在过去几年中,我们却相当稳定地推出了性能最强、效果最好的模型之一。我认为,这一方面来自团队本身的质量,另一方面也来自我们的价值取向,即用更少的资源,做更多的事情。

 

当然,面向未来,算力需求确实会非常巨大。如果我们要随着公司规模扩大,继续站在技术前沿,那毫无疑问,我们也需要更多算力支持。

 

主持人:粗略算一笔账,Anthropic 的算力投入大概在一千亿美元量级,而你们的竞争对手 OpenAI,据说已经到了万亿美元级别。从整个行业来看,我们是不是在算力上花得太多了?投入是否已经超过了大模型目前能够可靠变现的能力?还是说,这是服务用户所必需的?

 

Amodei:很多被拿出来讨论的数字,其实并不完全可比,因为这些交易的结构本身就差异很大。有些是提前锁定购买权,有些是长期承诺,形式并不一样。

 

但从根本上讲,整个行业押注的是这样一个判断:如果你想在未来几年里拥有训练前沿模型所需的硬件资源,就必须非常早地、非常大规模地提前投入。如果你去问我的一些技术同事,他们会说一件很有意思的事:即便我们是 scaling laws 的提出者之一,理论上早就相信“更多算力会带来更好结果”,但实际进展依然一次次超出我们的预期。

 

Dario 也公开谈过这一点:无论是模型性能还是收入规模,很多指标看起来都呈现出一种指数级的增长。当然,我们内部也常说一句话:指数增长会一直持续,直到某一天不再成立。每一年我们都会怀疑:“不可能再这样增长下去了吧?”但结果是,每一年它都继续成立。所以这确实是个无法确定未来的问题,但至少到目前为止,年复一年的性能提升,看起来仍然相当接近指数曲线。

 

主持人:过去几个月我们也频繁讨论一种“循环式交易”:模型公司、硬件供应商、云厂商之间,通过股权换芯片、资源互换等方式形成闭环。这种结构中,哪些是健康的飞轮效应?又有哪些地方值得警惕?

 

Amodei:我当然不能评论 Anthropic 以外的具体交易,更不可能讨论任何交易细节。但我想说的是,这些交易之间差异其实非常大,并不存在一种统一模式。不同参与方,对于算力和资本的理解方式本来就不一样。

 

回到 Anthropic 自身,我们一直以来都是用相对更少的资源,去完成更多事情。我们的期望是,未来这些模型提供方,确实能成为你刚才说的那种“飞轮”的一部分。事实上,我们已经在某种程度上看到了这种趋势:Claude 是目前唯一一个同时在微软、亚马逊云科技和 Google 三大云平台上提供的前沿模型。

 

尤其在企业市场,我们会持续创造出大量价值。对 Anthropic 来说,我们一直是以企业需求为优先。而在过去一年左右的时间里,有不少时间段,我们甚至出现过“需求大于供给”的情况,从算力角度来看,Claude 的需求一度超过了我们能提供的能力。

 

主持人:那在硬件层面,你们是如何考虑芯片折旧的?是按三到四年的生命周期来规划,还是会把 GPU 用到十年,把整个可用寿命都榨干?

 

Amodei:坦率说,我并不是芯片方面的专家,我的一些同事会更适合回答细节。但从宏观上看,它和大模型的发展其实很相似。每一代新的前沿模型,性能都会好到让高端用户更愿意使用新模型,硬件也是如此。新一代芯片往往在性能、成本效率、能效上都会有所提升,所以,能尽早用上新一代芯片,本身就具有很高的价值。

 

主持人:我们是不是正处在一个 AI 泡沫里?我不是说技术不真实,而是支出增长曲线,是否已经跑在了收入增长曲线前面?

 

Amodei:我会把这个问题拆成两个层面来看:技术层面和商业层面。

 

在技术层面,我们非常有信心。无论是 Anthropic 内部,还是 Dario 最近的公开表态,我们都认为,从纯技术角度看,进步并没有放缓。未来当然无法预测,但截至目前,模型仍然在以相当稳定、快速的节奏变得更强。

 

在商业层面,这个问题就复杂得多。无论技术多先进,把它真正落地到企业或个人场景中,都需要时间。关键问题在于:企业,尤其是企业,能以多快的速度真正利用这些技术?也许 Claude 5、Claude 6,在性能上依然是按同样比例提升的,但在组织内部推广和落地,可能会因为“人”的因素而遇到瓶颈:变革管理很难,采购流程很慢,很多应用场景一开始根本想不到。

 

所以,真正值得观察的是:技术扩散到经济体系中的速度,是否能持续匹配技术本身的加速速度。这也是我认为最有挑战、也最值得持续关注的问题。

 

主持人:基于刚才的讨论,你觉得我们现在是不是在模型公司,或者在硬件供应链上投入得有点过头了?

 

Amodei:从某种角度看,这个市场其实很小。说“小”听起来有点奇怪,毕竟金额巨大,但真正参与其中的玩家数量并不多。我也不完全确定该如何解读这一点,它有点不寻常。不过到目前为止,我们看到的情况是:更好的硬件,回报非常高,哪怕模型只提升一点点,比如 0.01 的性能提升,回报同样很可观。

 

在 Anthropic 的历史中,这一点几乎一直都成立。所以我不太愿意直接用“过度投资”来形容,但我确实认为,这种参与者数量有限的结构值得警惕,一旦链条中的某个环节出了问题,后果会是什么?这是个很重要、也很有意思的问题。

 

主持人:那你觉得我们现在大概处在这个周期的什么位置?不管你把它叫作泡沫破裂,还是一次正常的修正,考虑到最近出现的各种乱象和泡沫迹象,这种调整会不会在未来六到十二个月内发生?如果会的话,Anthropic 现在是否已经在为这种下行风险做准备?

 

Amodei:对于 Anthropic 来说,我们一直把自己看作是资本的理性、负责任的管理者。这一点从成立之初就是我们的重点。对我们而言,每一分算力、每一美元投入都非常重要,它们要么意味着我们能训练出更好、更安全的模型,要么意味着我们能服务更多客户。

 

我更愿意相信,我们对模型质量的预期、训练所需的算力、推理阶段服务客户所需的算力,以及我们能持续为客户创造的价值,都有一个相对合理的判断。当然,没有人能做到完美预测。但至少从一家负责任企业的角度来说,不管市场环境怎么变化,我希望我们都能处在一个相对稳健的位置。

 

至于整个市场会发生什么,这确实很难一概而论。但就 Anthropic 自身而言,做资本的负责任管理者,始终是我们的目标。

 

“我们本身就是个做 to B”

 

主持人:聊聊 Anthropic 接下来的资本路径吧。收购这条路,考虑到反垄断和你们目前的规模,基本可以排除了。那 IPO 会不会是 2026 年的一个选项?

 

Amodei:目前我们没有任何可以对外公布的具体计划。正如我之前说的,Anthropic 一直在努力以负责任的方式使用手中的资本。我们也始终在权衡:在哪里、以什么方式获得所需的资本,才是最合适的。

 

主持人:Amazon 仍然是你们最大的战略支持方,但你们的股东和合作方阵容也在不断扩大,比如 Google 既是投资方又是云合作伙伴,还有 Microsoft、Nvidia。与此同时,Google 自身也在全力参与模型竞争。当你的合作伙伴本身方向和野心并不完全一致时,你们是如何处理这些关系的?

 

Amodei:我觉得这恰恰说明了市场对这项技术的强烈需求。Anthropic 的模型能够同时在三大云平台上提供服务,本身就很有意思,甚至包括彼此之间存在竞争关系的云厂商。

 

我的直觉是,这些超大规模云厂商都在密切观察自己的客户在业务层面发生了什么。财富五百强企业可能用的是一家云,也可能是两家、三家,但现在几乎所有企业都有一个共同点:他们觉得自己必须要有 AI 解决方案。

 

而我们看到的情况是,由于 Anthropic 特别专注企业场景,我们往往正是客户最想用的那个模型。如果企业无法使用 Claude,反而会对他们的业务造成伤害。所以,对我们来说,最重要的一点就是:在客户需要的地方出现。

 

有些客户会直接用我们的一方服务,但更多客户已经和云厂商建立了长期合作关系,通过云平台接入大模型,对他们来说是非常自然的一条路径。

 

主持人:从一开始,Anthropic 似乎就不像 OpenAI 那样,急于抢占大众文化层面的心智,而是选择把筹码压在企业客户身上。事实证明,这可能是一个更聪明的选择。现在很多人都在追赶你们,试图在企业市场分一杯羹。你们当初是怎么判断,企业才是最值得投入的市场?

 

Amodei:你给我们的评价有点高了,我不敢说我们一开始就“确定”这条路一定是对的,但我觉得可以从两个方面来看。

 

第一,Anthropic 这个组织本身就非常适合做一家 B2B 公司。我们对可靠性、安全性和安全边界的重视,是写进公司基因里的。这也是我们创立 Anthropic 的初衷之一:既要释放 AI 的巨大潜力,也要尽可能降低风险。而事实证明,企业客户非常看重这一点。我从没听过哪家企业客户对我说:“如果 Claude 能多一点幻觉、多生成点有害内容就好了。”从这个角度看,企业对安全性的高要求,反而让 Anthropic 从第一天起就处在一个很有优势的位置。

 

第二,是一种更偏经济学层面的判断,当时也可能判断错了。我们认为,这些模型虽然在娱乐层面也很有吸引力,但从长期看,它们更像是帮助人类完成高价值工作的工具。无论是现在 Claude 被大量用于写代码,还是用于总结复杂信息、做金融分析和数据分析,我们在 2020 年底、2021 年初,就已经隐约看到了这样一种未来:模型可以承担大量工作场景中需要高智力投入的任务。而我们认为,这是一个非常大的市场。

 

这两个因素叠加在一起,让我们觉得,把 Anthropic 做成一家以企业为核心的公司,是一条合理的路径。

 

主持人:企业客户通常既强调安全,也永远希望有更多功能、更强的 Agent 能力。有没有一些需求,是客户明确提出来了,但因为安全护栏的原因,你们暂时还不愿意提供的?

 

Amodei:有意思的是,到目前为止,我们还没有遇到那种特别明确的场景:安全和功能之间形成了正面冲突。更多时候,挑战在于如何确保我们发布的模型始终处在前沿水平。

 

确实有过这样的情况:我们在内部已经有一个模型准备好了,但在正式发布之前,还需要做更多安全测试。客户并不会直接看到这一点,但这是我们必须坚持的过程。所以如果说安全和产品之间的“交汇点”在哪里,那大概就是:确保我们推向市场的模型,已经在安全性上做到我们能力范围内的最好。

 

“AI 原生”创业公司蓬勃发展

 

主持人:谈到规模发展,很多当初的决策其实都需要随着时间不断演化。比如一开始,Anthropic 曾明确表示不会接受来自中东的资金,但在最近一轮融资中,这个立场发生了变化。你们是如何在坚持最初的原则、以及为了在激烈竞争中生存和发展而必须做出调整之间取得平衡的?

 

Amodei:我认为,在最重要的层面上,Anthropic 随着规模扩大,其实一直坚守着自己的价值观。尤其是我们的 PBC(公益型公司)结构,以及“公共利益公司”作为北极星一样的存在,对我们非常重要。正是因为有这样一个长期愿景,当具体问题出现时,我们总会回到一个核心判断:我们现在做的事情,是否真的在为公共利益服务?是否是在努力让 AI 的转型过程走得更好?

 

当然,不同的人对“公共利益”具体意味着什么,理解上可能会有差异,但我们对新员工、候选人、投资人都非常坦诚:这就是 Anthropic,这就是我们的价值观。正因为如此,大多数情况下我们都能比较顺畅地做出判断。只是正如你所说,随着公司规模变大,确实会遇到一些处在灰色地带、更加棘手的情况。

 

主持人:有一种批评声音认为,把“安全使命”放在如此核心的位置,实际上会形成一种“可防御壁垒”,让最早成立的几家大模型实验室更容易在监管环境下维持竞争优势,而后来进入的初创公司,由于没有经历同样的积累过程,反而更难追赶。你怎么看这种说法?

 

Amodei:这点挺有意思的。虽然我现在没有具体数据在手,但我印象中,绝大多数初创公司其实都是云计算用户。真正被算力和资本门槛高度限制的,是“前沿模型”的研发。正如我们之前聊到的,要成为一家前沿模型实验室,成本确实非常高。

 

但在 Anthropic,我们看到的是一个正在蓬勃发展的生态系统,我们称之为“AI 原生”创业公司。就像五到十年前大家谈“数字原生”企业一样,现在出现了大量“AI 原生”公司:它们的产品从一开始就是围绕人工智能能力构建的,而其中绝大多数都是构建在云基础设施之上的。

 

所以我认为,我们对这个生态系统的影响,最终取决于我们是否能够持续打造行业里最优秀、最安全的模型。

 

主持人:但现在“安全”并不是一个特别受欢迎的立场。一个月前你们和 David Sacks 有过一些隔空讨论,Dario 也写了一篇文章回应。面对这样的情况,你们如何避免让外部环境干扰你们真正的技术工作?

 

Amodei:我认为 Anthropic 一直努力把重点放在“政策”而不是“政治”上。我们在很多议题上,其实能够跨越党派找到共识,而这些议题正是美国公众真正关心的事情。比如,如何保持美国在全球 AI 领域的领先地位,又比如如何确保我们开发出来的模型真正对人有益、对孩子有益、对使用它们的成年人也有益。在这些问题上,其实存在着相当多的共识空间。

 

更重要的是,人工智能仍然是一个非常新的领域。正因为如此,我们始终保持开放和好奇,去探索以安全、可靠的方式发展这项技术的最佳路径。我们也一直在学习,这也是为什么我们会大量公开发布研究成果的原因之一。

 

主持人:你现在还会去思考“有效利他主义”(Effective Altruism)吗?我知道你之前说过,这个标签在你看来已经有些过时了,也不再是公司当前叙事的一部分,但无论是早期招聘还是融资阶段,它确实曾经深深嵌入你们的创始故事里。那它现在在公司内部的文化中还留下了些什么吗?还是说,到 2025 年,这更多只是外界投射到 Anthropic 身上的一种标签?

 

Amodei:我觉得“投射”这个词可能更接近。Dario 之前也谈过这个问题。你得回到一个背景:在 AI 非常早期、差不多二十年前的时候,真正认真思考“AI 可能会变得如此强大”的人其实非常少。而恰恰是那一小撮人,往往同时也非常关注风险问题。

 

所以你会看到,早期的 OpenAI,以及后来成为 Anthropic 创始成员的一些人,最初确实是从“风险”这个角度出发的,我们在担心技术可能出什么问题。

 

但我认为 Anthropic 最大的不同之处在于:我们同样高度关注技术的“正向价值”和“上行空间”。我们一直在思考,人工智能在医学、生命科学、医疗健康、金融服务,以及整个经济体系中,究竟能带来多大的积极影响。当然,如果我们不能把它做得足够安全,事情也可能会走向非常糟糕的方向,这两点是并存的。

 

“不要相信炒作”,AGI 理念过时了

 

主持人:Anthropic 的品牌似乎自带一种“神秘感”,我不太好精准形容,但感觉公司内部的人,几乎把它当成一种信念体系。你会如何描述你所塑造的 Anthropic 员工文化?另外,我也注意到,虽然最近几个月你们变得更公开了一些,但整体来看,你们仍然非常克制,往往在真正准备好之前,很少对外释放信息。

 

Amodei:你这么说真的很善意,我不知道是不是“神秘感”,但我很感激这样的评价。对我们来说,有一个内部反复强调的价值观,就是“不要相信炒作”。这听起来好像很小,但我觉得它其实回到了我们之前讨论的那些关于经济、商业的问题。

 

Anthropic 从来不是为了博关注、抢头条而存在的。我们真正关心的是把事情做好,无论是在模型训练层面,如何以公平、负责的方式训练模型;还是在客户层面,如何每天都真正为客户提供价值。

 

现在 AI 领域的炒作非常多,而我们是一家以企业客户为核心、B2B 导向的公司,这在某种程度上让我们更加“脚踏实地”。我们的目标很简单:为企业创造真实价值。这项工作往往不那么炫目,但它能帮助我们不被泡沫裹挟,始终记得我们当初为什么要创办这家公司——我们是一家公共利益公司,我们关心的是长期价值。如果没有这个北极星,其实很容易迷失方向。

 

主持人:Yann LeCun 以及其他一些机器学习领域的“老一代”学者认为,大语言模型并不能通向 AGI,他们转而研究世界模型,认为还需要一些关键突破才能迈向下一阶段。你怎么看?你认为真正解锁 AGI 所需要的突破是什么?未来你们是否需要超越 LLM,才能在行业中保持竞争力?

 

Amodei:AGI 这个词本身就挺有意思的。Dario 也说过,很多年前,这个概念是有意义的,它帮助我们思考“什么时候 AI 会和人类一样强”。但有趣的是,按照某些定义,我们其实已经超过了这个标准。

 

比如说,Claude 写代码肯定比我强,这个门槛不高。但它也已经能在一定程度上,达到甚至接近 Anthropic 许多工程师的水平。要知道,我们雇的可是世界上顶尖的一批工程师,而他们中的不少人都会说,Claude 已经能完成他们相当一部分的工作,或者极大地加速他们的效率。这本身就很疯狂。

 

当然,另一方面,Claude 依然做不了很多人类能做的事情。所以我觉得,AGI 这个概念本身可能不是“错了”,而是有点过时了。

 

至于是否需要新的突破才能继续前进,老实说,我们并不知道。技术发展的路径,本身就是科学与工程的复杂混合体。而我觉得实验室最特别的地方就在于:不同团队会用完全不同的方式去逼近同一个目标。

 

至少从目前来看,进展并没有放缓。当然,一切都是“直到它真的放缓为止”。如果让我下注,我会说,能力还会在相当长一段时间内继续提升,我们也应该为这样的世界做好准备。

 

主持人:你和 Dario 的能力结构差异很大,你在哪些方面补足了他?你是如何帮助他把想法打磨得更锋利的?

 

Amodei:能和我的哥哥一起经营 Anthropic,真的是一种“特权”。我感觉我们认识彼此一辈子了,他在我出生前独自生活了四年,挺惨的(笑)。

 

Dario 有一种非常罕见的能力,仿佛能“看到未来”。虽然我总说没人真的知道未来,但如果真有这样的人,那大概就是他。从技术视角来看,他对技术走向、对社会和组织意味着什么,有着极其敏锐的直觉,这是一种真正的愿景型领导力。

 

而我更偏向实务型。我非常喜欢运营组织,我大部分时间都在和高管团队一起工作,比如搭建团队、招聘负责人、思考客户真正需要什么、如何为企业创造价值、如何构建让公司长期可持续的合作关系。

 

我觉得 Dario 和我彼此成就。他会不断把我拉回更宏大的视角,而我则专注于如何打造一家能长期存在、可持续发展、聚集了一群真正想做我们五年前一起立志要做的事情的优秀人才的组织。

 

https://www.youtube.com/watch?v=GMXnmaky9FY

亚马逊云科技(AWS)最近宣布公开预览Amazon Route 53 Global Resolver,这是一项在全球范围内提供安全、可靠的 DNS 解析的新服务。组织可以使用该服务来解析互联网上的公共域和与 Route 53 私有托管区域关联的私有域名的 DNS 查询。

 

从历史上看,管理混合型 DNS 带来了巨大的操作开销。在传统的区域设置中,管理员必须手动同步水平分区基础设施,并管理复杂的转发规则。这通常需要维护冗余的 VPC 解析器端点,并在多个区域中复制安全策略以确保故障转移。

 

Route 53 Global Resolver 通过消除对单独分 DNS 转发的需求来解决这些挑战。正如 AWS 的高级解决方案架构师 Esra Kayabali 解释的那样:

 

它通过多种协议提供 DNS 解析,包括 DNS over UDP(Do53)、DNS-over-HTTPS(DoH)和 DNS-over-TLS(DoT)。每个部署提供一组通用的 IPv4 和 IPv6 任何播 IP 地址,将查询路由到最近的 AWS 区域,减少分布式客户端群体的延迟。

(来源:AWS新闻博客文章)

 

该服务集成了与 Route 53 Resolver DNS 防火墙等效的安全功能,可以集中实施策略。主要的安全功能包括:

 

  • 托管过滤:管理员使用AWS托管域名列表来阻止恶意软件和网络钓鱼等威胁,或限制特定网络内容。

  • 行为保护:解析器检测并阻止域名生成算法(Domain Generation Algorithm,DGA)模式和 DNS 隧道尝试。

  • 加密传输:支持 DoH 和 DoT 保护查询在传输过程中免受未经授权的访问。

 

为了支持零信任架构,Global Resolver 仅接受经过身份验证的客户端的流量。除了标准的 IP/CIDR 允许列表外,该服务为 DoH 和 DoT 连接引入了基于令牌的身份验证。这提供了细粒度的控制,允许管理员为特定客户端组或单个远程设备分配和撤销令牌。

 

Abhijeet Kulkarni 在 LinkedIn帖子中指出,虽然传统的 DNS 依赖于区域绑定的解析器,其中故障可能会放大中断,但 Global Resolver 引入了一种根本不同的运维模式。

 

通过任播将解析移动到边缘,DNS 在默认情况下成为全局分布的。Kulkarni 强调,这提供了“解析层的故障隔离”,确保在 DNS 层吸收区域中断,而不是通过网络级联。这有效地将 DNS 从区域依赖转变为具有弹性的全球系统边界。

 

预览版目前在几个全球区域可用,包括美国东部(弗吉尼亚北部、俄亥俄州)、美国西部(加利福尼亚北部、俄勒冈州)、欧洲(法兰克福、爱尔兰、伦敦)和亚太地区(孟买、新加坡、东京、悉尼)。定价详情可在官方Route 53定价页面上找到。

 

https://www.infoq.com/news/2026/01/route53-global-resolver-anycast/

25 年拼夕夕上断断续续的帮着朋友卖手办,看没什么成色,想着搞二次元赚钱,看剪点动画解说短视频到油管,在年底上了自媒体的车,下面是数据,从起号到可以开收益,差不多用了一个多月。



油管估算 shorts 的收益看起来还行,一万实际观看次数对应 1 刀左右。

然后手上还有个外网的服务器,就顺便起了个影视网站,从 shorts 的评论那引流到网站。不过收益就很可怜哩 wwww


当前就等着收到 adsense 的 PIN 码,看实际能收到多少马内了

对了,尝试过发横屏视频,数据实在是感人,便没有在继续了。
吐槽:发 shorts 十分傻屌,必须得是竖屏的。然后,封面图片必须得加在视频中,且至少 3 帧以上,这都不是事,反人类的是必须得用手机 youtube 应用上才能设置封面

之前看到 Google AI Pro 新年活动 99 美元/年。还送 Google 全家桶,没忍住入坑了。刚开始用着还行,毕竟用过其他 AI 编程工具,很快就适应了。但深度使用一段时间后,我觉得这玩意儿目前充其量只是个半成品。

🛑 槽点

  • 鸡肋的 Agent Manager:完全搞不懂这功能的定位。我猜测 Google 是希望用户能脱离代码操作,但尴尬的是,MCP 和 Rule 等核心功能只能在编辑器模式下设置。目前它对我唯一的用处就是点击“Plan 模式”生成的计划执行按钮。没错,编辑器模式下居然没有计划的执行按钮,必须手动输入“继续”才能推进计划。

  • Knowledge 功能:官方声称 Knowledge 会由 Agent 自动生成,但目前社区里似乎还没人成功触发过,基本属于摆设。

  • 配额缩水:体感上,所有模型的配额都比之前降低了很多,一两轮会话就能用掉 10%,这可能是我经常用 Plan 模式的原因,但体感确实消耗快了很多。此外对于配额,有个好消息是 Claude 模型和 Gemini 模型配额是单独计算的,坏消息是 Claude 模型基本不可用(见下文)。

  • 模型降智:今天测试 Gemini 3 Pro (High) 调用 MCP 查询接口定义并生成 API ,这种基础任务居然都开始胡编乱造。而在上周,类似的任务基本都没问题。

🐛 严重 BUG

  • Generate Commit Message 功能完全失效:这个功能基本不可用。在上周之前,它会把所有改动过的文件统一识别为新实现的功能,完全无法反映真实的修改。最离谱的是,这个功能从上周彻底挂掉,直到现在好几天了依然没有修复。

  • Claude 模型 BUG:在使用 Claude 模型时,调用任何 MCP 服务都会报错(如下图),结果就是 Claude 模型基本不可用。

  • 输出意外中断:这个出现不太频繁,但是出现后“Retry”是没用的,必须新建会话才能解决。

📝 总结

市面上主流的 AI 编辑器我基本都用过,基本上都是越做越好。Antigravity 是唯一一个能让好端端的功能挂掉好几天都不修也没有官方任何答复的。

Error in Antigravity - Not Generating Commit Message

当其他友商都在保持“一天一更”甚至“一天多更”的节奏,BUG 基本上都能够得到及时的修复,而 Antigravity 的上次更新竟然还停留在 2025-12-19 (三周前)。这个维护力度,实在对不起 Google 大厂的实力。

总之想要付费入坑的朋友,还请仔细评估下自己的使用习惯,能否接受以上这些问题!白嫖的朋友随意~

抖音海外视频搬运账号,本来就是搬运油管上的视频,想着可以涨粉,粉丝多了就能开橱窗带货,或者加入创作伙伴计划,有播放量就有收益,刚开始坚持每天发一个视频,坚持一个星期后有一个视频爆了,有了几百万的播放量,那一个视频让我涨粉了 1000 ,后面发现你不买他那个引流的套餐根本不给你流量,播放量只有几个或者十几个,而且加入创作者计划得有 1W 个粉丝,太难了,最后就放弃了,最终收益为 0 是😂

Gboard 三年前最后一版本的更新,目前在 ios26 下还能满足使用(虽然全键盘下符号显示不完整等小瑕疵)。

比较好的隐私保护、原生支持小鹤双拼、聪明的自动纠正、极佳的滑行输入、整体简洁和流畅操作,基本都戳中我的痛点

再配上 spokenly+qwen-asr+口语化提示词,基本语音输入法也有稳定长久好用的方案了。

之前看了很多关于 ios 上输入法推荐,坦白说,挺惊讶 v 站上会有这么多在用微信语音输入法的用户,并非秀“隐私”抑或其他良好点,只是感觉站友应该普遍很在意隐私,不会轻易考虑“声名在外”的腾讯系产品吧,毕竟选择“微信”很多人是迫于无奈,但是输入法是有挺多选择。

虽然 qwen 是中资产品,但是是通过 api 调用,况且文字等敏感信息还是有键盘进行输入。

演示视频

这是原版脚本

bash <(curl -fsSL https://github.com/crazypeace/ghproxy/raw/refs/heads/main/fake/test-install.sh)

套 “正常” 的 ghproxy 这里以 https://ghproxy.lvedong.eu.org/ 为例

bash <(curl -fsSL https://ghproxy.lvedong.eu.org/https://github.com/crazypeace/ghproxy/raw/refs/heads/main/fake/test-install.sh)

套 “动过手脚” 的 ghproxy 这里以 https://ghproxy-fake.lvedong.eu.org/ 为例

bash <(curl -fsSL https://ghproxy-fake.lvedong.eu.org/https://github.com/crazypeace/ghproxy/raw/refs/heads/main/fake/test-install.sh)

可以看到 aff 链接被修改了

下载的 zip 文件解压缩 的结果也是不一样的

面向 GPT 开发

要实现这样的效果,没有开发能力的普通人借助 GPT 也能做到
上传 正常的 ghproxy 的 worker.js (以 ghproxy/worker.js at main · crazypeace/ghproxy · GitHub 为例)
向 GPT 发送 prompt

这是一个 cloudflare 的 worker 的 JS 脚本
增加以下处理:

1. 在对 .sh 文件的内容的处理中, 对链接的处理增加以下效果

当链接包含 racknerd 和 aff= 时, 
将aff= 后面的数字替换为 54321

当链接包含 justmysocks 和 aff= 时, 
将aff= 后面的数字替换为 98765

2. 在向目的url 进行 fetch之前 , 增加处理
当 path 是 https://github.com/SagerNet/sing-box/releases/download/v1.12.15/sing-box-1.12.15-windows-amd64.zip   时,
改为fetch https://github.com/XTLS/Xray-core/releases/download/v25.12.8/Xray-windows-64.zip 并返回数据

Github

https://github.com/crazypeace/ghproxy/raw/refs/heads/main/fake/test-worker.js

总结

ghproxy 还是要掌握在自己手里


📌 转载信息
原作者:
crazypeace
转载时间:
2026/1/12 15:47:07

各位佬,明明指定了模型为啥还是会报错 codex-5.1 呢,cc 和 Gemini 使用就没有这种。不止 kfc,还有好些公益站也会有这种但是报错不一样。烦请各位佬解答这个困扰我已久的困惑


比如 AbuAI 站的 CC 会有报错如下:


kfc 的 ccswitch 配置如下图:


📌 转载信息
原作者:
Zenfish-zy
转载时间:
2026/1/12 15:41:23

需要绑卡验证,相信难不住 L 站的佬友

聪明的佬友又发现了年优惠码,更新一下

UIZ2FREE


📌 转载信息
原作者:
Triceratops2017
转载时间:
2026/1/12 15:41:13