2026年2月

大家新年好啊,我日常会使用多个 Code Agent ,比如 CC 、copolit 、opencode ,也在本地安装了很多 Skills ,每次使用其中一个 Agent 的时候会担心我的 Skills 到底有没有被加载,所以我偶尔会使用 /skills 查看下当前有哪些 Skills 。

虽然有一个 https://agentskills.io/home 的标准,但各家 app 也有自己的目录,总之管理起来比较恼火(还要考虑到更新的问题)。

于是我就用 Claude Code 写了这么一个 app:SkillDeck

它不仅提供安装能力,还提供了统一的发现、更新、删除等全生命周期管理。

统一仪表盘

三栏布局的 macOS 原生界面:左边是 Agent 列表和筛选,中间是 Skill 列表,右边是详情。支持按名称、描述、作者搜索,还能按 Agent 过滤和排序。

Dashboard Overview

Skills 市场浏览

内置了 skills.sh 的排行榜浏览,支持 All Time 、Trending 、Hot 三种排序方式,还有搜索功能。看到喜欢的 Skill 可以直接一键安装。

Registry Browser

安装与更新

从 GitHub 安装只需要输入仓库地址(支持 owner/repo 格式),SkillDeck 会自动 clone 、扫描可用 Skills 、创建 symlink 。

更新检测也是一键的:会对比本地和远程的 tree hash ,有变更就显示橙色角标,点一下就能拉取最新代码。

Install & Update

Agent 分配

每个 Skill 的详情页有一组 toggle 开关,控制这个 Skill 安装到哪些 Agent 。打开就自动创建 symlink ,关掉就自动删除。

这样也不用每个 Agent 都去安装 skill ,只保留一份。

安装方式:

brew tap crossoverJie/skilldeck && brew install --cask skilldeck

项目开源,MIT 协议,欢迎 star/issue/PR:GitHub | 项目主页

突然发现可以补签春节假期, 但是需要花费金币,奈何 4000 金币两下用完了,补签还没补够, 还有什么办法快速获取金币啊

做了一个类似 WordPress 的动态博客 CMS 系统,可以部署在 Vercel 等云平台或者使用 Docker 自部署,和 WordPress 一样,可以在后台实时动态的更改页面内容和布局。

我敢说你一定没见过全站横向滚动的博客。

Demo: https://ravelloh.com

Github: https://github.com/RavelloH/NeutralPress

文档: https://neutralpress.net

(你可以在文档页面查看更详细的功能介绍)

简介

NeutralPress 是一个基于 Next.js 的 CMS 系统,其在生态位上与 WordPress 类似,你可以所见即所得的通过强大的后台管理系统来管理你的站点,所有更改都会实时应用。

WordPress 之所以流行,是因为它易于使用且功能强大。但其技术栈陈旧、性能要求高、功能依靠插件、后台风格过时,且强需求服务器,难以免费部署。我们致力于解决这些问题,通过融合静态站点生成器(如 Hexo )和动态 CMS 系统(如 WordPress )的优点,提供一个低成本、易于使用且功能强大的内容管理平台。

仅当内容变更时,NeutralPress 才会使用动态增量再生( ISR )技术重新生成发生更改的页面,而在内容未变更时,页面与静态页面类似。这既确保内容可实时更新,又能享受静态页面的高性能、SEO 友好和低成本优势。

因此,你可以 0 成本 的免费部署 NeutralPress 到任何支持 Serverless 的云平台,而无需实际管理服务器。或者,如果你愿意,你也可以选择使用 Docker 自托管。

功能

功能上应该是最多的 CMS 博客系统之一,不仅仅只是个文章发布平台。一键部署,你就可以拥有:

  • 行云流水的内容系统,所见即所得、支持 Markdown / MDX 可视化编辑、草稿箱、版本管理,内置 SEO 深度优化。
  • 独具匠心的页面系统,支持拖拽组件、实时预览,也可使用 HTML / Markdown / MDX 新建页面。
  • 井井有条的归档系统,以标签和分类两个维度对文章进行组织,支持自定义。
  • 强大的媒体管理系统,自动压缩、图片优化、防盗链、短链接、照片墙、Exif 信息展示。
  • 多用户权限管理系统,支持多角色、多权限分配,支持访客注册、Github / Google / Microsoft OAuth 登录、Passkey 登录、TOTP 双因素认证、会话管理、敏感操作二次验证。
  • 毫不妥协的安全系统,内置速率限制 WAF 、IP 封禁系统,重要端点自带 PoW 验证码,并使用 Server Action 代替 API 通信以增强安全性。
  • 详细的访问统计系统,内置访客分析、搜索关键词与全站关键词对比、访客来源、设备分析、文章热度分析等,自动发送日报/周报/月报。
  • 无限层级的评论系统,支持嵌套回复、评论审核、评论点赞,内置评论反垃圾系统。
  • 事无巨细的审计系统,记录每一次内容更改,所有操作可追溯、可还原。
  • 洞察秋毫的搜索系统,高性能分词与索引,专为中文内容及编程术语进行了优化。后续将支持 AI 向量搜索。
  • 即时通达的通讯系统,基于 WebSocket ,支持实时私信、在线 / 输入状态显示等。后续将支持端对端加密私聊。
  • 无远弗届的通知系统,整合站内信、Email 、WebPush 推送,支持精细化的通知订阅策略。
  • 兼容并蓄的订阅系统,支持 RSS ,支持邮件通讯录订阅。
  • 别出心裁的作品系统,独立于文章的展示维度,专为项目展示设计的网格布局与详情页、GitHub 仓库卡片同步。
  • 守望相助的友链系统,支持友链自助申请、自动抓取元信息、健康度巡检,自动标记或隐藏失效链接。
  • 海纳百川的存储系统,同时支持本地文件系统、AWS S3 、Cloudflare R2 、Vercel Blob 、OSS ,甚至 Github Pages 。多种对象存储策略可并存,切换自如。
  • 防微杜渐的诊断系统,支持定时健康检查、性能分析,自动优化。即使在 Serverless 环境下,也能正常执行定时任务。

‧‧‧‧‧‧

前台默认主题

Front 1 Front 2 Front 3
Front 4 Front 5 Front 6
Front 7 Front 8 Front 9
Front 10 Front 11 Front 12
Front 13 Front 14 Front 15
Front 16 Front 17 Front 18
Front 19 Front 20 Front 21

后台默认主题

Front 1 Front 2 Front 3
Front 4 Front 5 Front 6
Front 7 Front 8 Front 9
Front 10 Front 11 Front 12
Front 13 Front 14 Front 15
Front 16 Front 17 Front 18
Front 19 Front 20 Front 21

部署

可以参考 https://neutralpress.net/docs/deploy ,支持 Vercel 、源码部署、Docker 部署。Docker 一键部署:

curl -fsSL https://get.neutralpress.net | bash

(服务器需要 1GB 内存才能正常运行)

大家要是有自己想要的新功能,也可以留言一下,后续的版本我给加上

大家好,我是良许。

近年来,无线充电技术已经从高端旗舰手机逐渐普及到各类消费电子产品,甚至开始在汽车、医疗设备等领域崭露头角。

作为一名嵌入式工程师,我在汽车电子项目中也接触过不少无线充电模块的集成工作。

今天就和大家聊聊无线充电技术的原理,以及在实际应用中最让工程师头疼的电磁兼容性(EMC)问题。

1. 无线充电技术原理

1.1 电磁感应式无线充电

目前市面上最常见的无线充电技术是基于电磁感应原理的,这也是 Qi 标准(由无线充电联盟 WPC 制定)所采用的核心技术。

简单来说,就是利用法拉第电磁感应定律:当发射端线圈通过交变电流时,会在周围产生交变磁场,接收端线圈处于这个磁场中就会感应出电动势,从而实现能量传输。

我记得刚接触这个技术时,项目经理让我负责在车载中控台集成一个手机无线充电板。

当时我天真地以为只要把充电模块焊接上去就行了.

结果测试时发现各种问题:充电效率低、发热严重、还干扰了车载收音机信号。

后来才明白,无线充电系统的设计远比想象中复杂。

发射端的核心是一个逆变电路,通常工作在 100kHz 到 205kHz 频段(Qi 标准规定的范围)。

以 STM32 为例,我们可以用定时器产生 PWM 信号来驱动全桥或半桥逆变电路:

// STM32 HAL库配置PWM用于无线充电发射端
void WirelessCharger_PWM_Init(void)
{
    TIM_HandleTypeDef htim1;
    TIM_OC_InitTypeDef sConfigOC = {0};
    
    // 配置定时器基本参数
    htim1.Instance = TIM1;
    htim1.Init.Prescaler = 0;
    htim1.Init.CounterMode = TIM_COUNTERMODE_UP;
    htim1.Init.Period = 719;  // 假设系统时钟72MHz,输出约100kHz
    htim1.Init.ClockDivision = TIM_CLOCKDIVISION_DIV1;
    htim1.Init.RepetitionCounter = 0;
    HAL_TIM_PWM_Init(&htim1);
    
    // 配置PWM通道
    sConfigOC.OCMode = TIM_OCMODE_PWM1;
    sConfigOC.Pulse = 360;  // 50%占空比
    sConfigOC.OCPolarity = TIM_OCPOLARITY_HIGH;
    sConfigOC.OCFastMode = TIM_OCFAST_DISABLE;
    HAL_TIM_PWM_ConfigChannel(&htim1, &sConfigOC, TIM_CHANNEL_1);
    
    // 启动PWM输出
    HAL_TIM_PWM_Start(&htim1, TIM_CHANNEL_1);
}

这段代码配置了一个 100kHz 的 PWM 信号,用于驱动逆变电路。

但实际项目中,频率需要根据负载情况动态调整,以实现最佳的能量传输效率。

1.2 磁共振式无线充电

除了电磁感应,还有一种磁共振技术,它允许更远的传输距离(可达几厘米甚至十几厘米),而且对位置的要求没那么严格。

这种技术的原理是让发射端和接收端都工作在相同的谐振频率上,通过共振耦合来传输能量。

磁共振技术在医疗设备中应用较多,比如植入式医疗器械的充电。

因为它可以穿透一定厚度的非金属材料,不需要精确对位。

不过这种技术的电路设计更复杂,对元器件的参数一致性要求也更高。

1.3 无线充电系统的组成

一个完整的无线充电系统通常包括以下几个部分:

1.1.1 发射端:包括电源管理芯片、逆变电路、发射线圈、控制 MCU、通信模块等。

1.1.2 接收端:包括接收线圈、整流电路、稳压电路、充电管理芯片、通信模块等。

1.1.3 通信协议:发射端和接收端需要通过某种方式进行通信,交换功率需求、充电状态等信息。

Qi 标准采用的是反向散射调制技术,接收端通过改变负载来调制信号,发射端通过检测线圈电流或电压的变化来解调信息。

2. 电磁兼容性挑战

2.1 EMC 问题的本质

无线充电系统天生就是一个强电磁干扰源。

想想看,我们要在几厘米的距离内传输 5W 到 15W 甚至更高的功率,这意味着发射线圈周围存在很强的交变磁场。

这个磁场不仅会感应到接收线圈,也会感应到周围的任何导体上,造成电磁干扰。

我在做那个车载无线充电项目时,最头疼的就是 EMC 测试。

第一次送检,辐射发射超标了将近 20dB,完全不符合汽车电子的 CISPR 25 标准。

当时压力特别大,因为如果 EMC 过不了,整个项目就要延期。

2.2 传导干扰

无线充电系统的传导干扰主要来自于逆变电路的开关动作。

每次 MOSFET 开关时,都会产生很大的 di/dt 和 dv/dt,这些高频分量会通过电源线传导出去,干扰其他设备。

解决传导干扰的常用方法包括:

2.1.1 在电源输入端加 EMI 滤波器,通常采用 π 型或 T 型滤波网络,包括共模电感、差模电感和 X 电容、Y 电容。

2.1.2 优化 PCB 布局,缩短大电流回路的面积,减少寄生电感。

我的经验是,逆变电路的功率回路一定要做到最短最粗,而且要在顶层和底层都铺铜,形成良好的回流路径。

2.1.3 选择合适的开关频率和软开关技术。

如果能实现零电压开关(ZVS)或零电流开关(ZCS),可以大幅降低开关损耗和 EMI。

// 动态调整开关频率以优化EMC性能
void Adjust_Switching_Frequency(uint32_t load_power)
{
    uint32_t new_period;
    
    if(load_power < 5000) {  // 小于5W
        new_period = 800;  // 降低频率到90kHz
    } else if(load_power < 10000) {  // 5W-10W
        new_period = 720;  // 100kHz
    } else {  // 大于10W
        new_period = 650;  // 提高到110kHz
    }
    
    __HAL_TIM_SET_AUTORELOAD(&htim1, new_period);
    __HAL_TIM_SET_COMPARE(&htim1, TIM_CHANNEL_1, new_period/2);
}

2.3 辐射干扰

辐射干扰是无线充电系统更难解决的问题。

发射线圈本身就是一个天线,它不仅发射工作频率的基波,还会发射大量的谐波分量。

这些谐波可能落在各种通信频段内,干扰 WiFi、蓝牙、GPS、FM 收音机等设备。

在我那个车载项目中,无线充电工作时,FM 收音机会出现明显的噪声,特别是在某些频段。

后来我们采取了几个措施:

2.2.1 线圈屏蔽:在发射线圈和接收线圈背面都加了铁氧体磁屏蔽片,可以有效约束磁场,防止向外泄漏。

但要注意,屏蔽片的位置和厚度需要仔细调试,否则会降低充电效率。

2.2.2 频率跳变技术:当检测到某个频率干扰严重时,自动切换到另一个频率工作。

Qi 标准允许在一定范围内调整工作频率。

2.2.3 金属外壳接地:如果设备有金属外壳,一定要良好接地。

但要注意接地方式,避免形成地环路。

2.2.4 滤波和吸收:在关键信号线上加磁珠、电容进行滤波,在容易产生谐振的地方加阻尼电阻。

2.4 对其他设备的干扰

无线充电系统不仅要考虑自身的 EMC 性能,还要考虑对周围设备的影响。

比如在手机上,无线充电时可能会干扰 NFC、指纹识别、摄像头等模块。

在汽车上,可能会干扰钥匙识别、胎压监测等系统。

我遇到过一个案例,某款手机在无线充电时,触摸屏会出现误触现象。

后来分析发现,是充电线圈产生的磁场在触摸屏的 ITO 层上感应出了干扰信号。

最后通过调整线圈位置和增加屏蔽才解决问题。

3. EMC 设计的实践经验

3.1 PCB 设计要点

对于无线充电系统,PCB 设计至关重要。

我总结了几个关键点:

3.1.1 分区布局:将数字电路、模拟电路、功率电路严格分开,各自独立供电和接地。

3.1.2 地平面完整:尽量保持地平面的完整性,避免分割。如果必须分割,要在分割处加跨接电容。

3.1.3 走线优化:高频信号线要短而粗,差分信号要等长等宽,阻抗匹配。

大电流走线要足够宽,必要时可以多层并联。

3.1.4 过孔处理:过孔会引入寄生电感,在高频电路中要尽量减少过孔数量。

如果必须使用,可以采用多个过孔并联来降低寄生电感。

// 在代码中监测EMC相关参数
typedef struct {
    uint32_t switching_freq;      // 当前开关频率
    uint16_t coil_current;        // 线圈电流
    uint16_t coil_voltage;        // 线圈电压
    int8_t   temperature;         // 温度
    uint8_t  efficiency;          // 效率
} WirelessCharger_Status_t;
​
void Monitor_EMC_Parameters(WirelessCharger_Status_t *status)
{
    // 读取ADC获取电流电压
    status->coil_current = HAL_ADC_GetValue(&hadc1);
    status->coil_voltage = HAL_ADC_GetValue(&hadc2);
    
    // 计算效率
    uint32_t input_power = status->coil_voltage * status->coil_current;
    uint32_t output_power = Get_Output_Power();
    status->efficiency = (output_power * 100) / input_power;
    
    // 如果效率过低,可能存在EMC问题导致的能量损耗
    if(status->efficiency < 70) {
        // 触发告警或调整工作参数
        Adjust_Working_Parameters();
    }
}

3.2 测试与调试

EMC 测试是一个迭代的过程,很少有产品能一次通过所有测试。

我的建议是:

3.2.1 尽早测试:不要等到产品定型才做 EMC 测试,在原型阶段就应该进行预测试,及早发现问题。

3.2.2 定位干扰源:使用近场探头和频谱分析仪,可以快速定位干扰源的位置和频率。

3.2.3 分步整改:不要一次改动太多地方,每次只改一个参数,观察效果。这样可以明确每个改动的作用。

3.2.4 留有余量:不要刚好压线通过测试,要留有足够的余量,因为批量生产时元器件参数会有分散性。

3.3 标准与认证

不同的应用场景对 EMC 有不同的要求。

消费电子产品通常需要符合 FCC Part 15、CE 等标准;汽车电子需要符合 CISPR 25 标准;医疗设备需要符合 IEC 60601 系列标准。

在设计之初就要明确目标市场的认证要求,避免后期返工。

Qi 标准本身也包含了 EMC 要求,产品要获得 Qi 认证,必须通过 WPC 指定实验室的 EMC 测试。

这个测试比一般的 EMC 测试更严格,因为它还要考虑与手机等接收设备的兼容性。

4. 未来发展趋势

无线充电技术还在快速发展中。

功率越来越大,从最初的 5W 发展到现在的 50W 甚至更高;距离越来越远,从紧贴充电发展到几厘米的自由摆放;应用场景越来越广,从手机扩展到电动汽车、无人机、机器人等领域。

但功率越大、距离越远,EMC 问题就越突出。这需要我们在电路设计、材料选择、算法优化等多方面不断创新。

比如采用自适应频率跟踪技术,实时监测 EMI 水平并动态调整工作参数;采用有源 EMI 抑制技术,主动注入反相干扰信号来抵消 EMI;采用新型磁性材料和屏蔽材料,提高磁场约束能力。

作为嵌入式工程师,我们不仅要关注功能实现,更要重视 EMC 设计。

一个好的产品,不仅要能正常工作,还要能在复杂的电磁环境中稳定可靠地工作,同时不对其他设备造成干扰。

这需要我们在理论学习和实践经验之间不断积累,在每一个项目中总结教训,才能逐步提高设计水平。

无线充电和 EMC 技术都是非常实践性的领域,纸上谈兵远远不够,只有真正动手做过项目,经历过测试失败的痛苦,才能深刻理解其中的门道。

希望我的这些经验分享能对大家有所帮助,也欢迎同行们一起交流探讨。

更多编程学习资源

在 Amazon 生态持续复杂化的 2026 年,价格已经不仅仅是一个数字,而是一种动态博弈。无论你是跨境卖家、套利交易者,还是数据分析团队,价格追踪工具都不再是辅助工具,而是决策核心。
但问题在于:市面上的 Amazon 价格追踪工具越来越多,功能看似相似,实际效果却差异巨大。真正的区别,往往不在界面,而在数据来源、更新频率、历史深度以及系统稳定性。
理解这些底层逻辑,比盲目选择“热门工具”更重要。

为什么 2026 年价格追踪变得更难

Amazon 的价格结构早已不再简单。Buy Box 轮换、区域差异定价、促销活动、限时折扣、库存波动,都会实时影响页面显示结果。
与此同时,平台对自动化访问的风控更加严格。频繁请求同一产品页面,很容易触发限制,导致数据缺失或延迟。
这意味着,价格追踪工具的核心竞争力,已经从“是否能抓取页面”转变为“是否能稳定、持续、真实地获取数据”。

评估价格追踪工具的关键维度

真正成熟的价格追踪工具,通常具备三个核心能力。
第一,是历史数据深度。短期价格波动意义有限,真正有价值的是长期趋势。工具是否能提供完整的历史曲线,直接决定其分析价值。
第二,是更新频率与准确性。数据延迟会影响决策窗口,尤其在套利或竞品监控场景中,分钟级差异可能带来实际利润差。
第三,是系统稳定性。如果数据经常缺失或中断,再丰富的功能也失去意义。
这些因素共同构成了“终极对比”的真正标准。

主流工具的能力差异(概念层面对比)

目前市场上的工具大致分为三类。
第一类是浏览器插件型工具,安装简单,适合个人使用,历史数据展示清晰,但通常依赖自身服务器定期抓取,数据覆盖范围有限。
第二类是 SaaS 平台型工具,支持批量监控、API 输出与团队协作,适合卖家与企业用户,但价格相对较高。
第三类是自建追踪系统,通过自动化程序定期抓取商品页面数据。这种方式灵活度最高,但对技术能力与网络环境要求也最高。
对于专业用户而言,第三种方式在可控性上具有明显优势,但同时也是最容易受到风控影响的方式。

真正决定工具质量的隐藏变量:网络出口

很多人忽略了一个关键事实:Amazon 对访问行为的监控远比想象中严格。
如果价格追踪系统从同一数据中心 IP 高频访问页面,很容易被限流甚至屏蔽。数据丢失并不是工具功能问题,而是网络身份被识别的问题。
成熟的追踪工具通常会采用分布式网络环境,以模拟真实用户访问行为。无论是商业 SaaS 平台,还是自建系统,背后都离不开高质量 IP 资源支持。
在这方面,使用真实住宅网络出口,可以显著降低访问异常概率。

自建系统 vs 商业工具:如何选择

如果你只是偶尔监控少量商品,成熟的 SaaS 工具已经足够。但如果你的业务依赖大量 SKU、区域价格对比或实时库存监测,自建系统可能更具扩展性。
不过,自建系统的成功率高度依赖网络质量。没有稳定的出口环境,高频访问将迅速触发限制。
因此,决策时不仅要评估工具本身,还要评估背后的技术架构与网络资源。

2026 年真正“最佳”的定义

“最佳 Amazon 价格追踪工具”并不存在统一答案。
对个人用户而言,简单、直观、历史数据清晰可能是最佳标准。对企业而言,可扩展性、API 接口与稳定性才是核心。
但在 2026 年,所有工具都绕不开一个现实:平台风控正在持续升级。能够长期稳定运行的系统,必然在网络身份管理和访问策略上进行了深入优化。
因此,真正的“终极对比”,不只是功能对比,而是架构与稳定性的对比。

结语

Amazon 价格追踪早已不是简单的抓取行为,而是数据系统的一部分。选择工具时,不要只看界面和功能,而要理解其数据来源与运行机制。
在一个越来越强调访问真实性与行为自然性的环境中,稳定的网络基础设施往往决定最终成败。
当数据稳定、访问真实、历史完整时,价格追踪才真正具备战略价值。

Chris Lattner 是 LLVM 项目的创建者,也是 Clang 编译器的关键推动者之一,长期站在编译器工程、编程语言设计与大型软件系统实践的交汇点上。他对 Claude C Compiler 的判断之所以重要,源于他在过去二十多年里持续参与并推动的那一代编译器抽象——这些抽象已经深度嵌入现代软件工程体系,塑造了今天我们构建与维护大型系统的基本方式。

 

2 月 6 日,Anthropic 发布工程博客:他们让 Opus 4.6 以 agent 团队方式构建一套 C 编译器,“基本放手”两周后,它能在 Linux 内核上工作。2 月 7 日,Lattner 在 X 上转发并评价这一结果“相当惊人”——既反映了 AI/agent 能力的进展,也说明了编译器设计的某些特性。他随即抛出问题:如果由他来写一篇解读,哪些角度最值得写、又不至于重复现有讨论?在大量反馈推动下,他随后深入拆解其工作方式与构建过程,并于 2 月 20 日发表长文总结所见。

 

他在文中给出的判断是:Claude C 编译器之所以重要,不是因为“AI 写出了编译器”这条新闻本身,而是因为它证明了一点——在结构成熟、标准清晰、成败可验证的工程问题里,AI 已经可以把几十年积累下来的工程共识成体系地复刻出来:搭出架构、维护子系统一致性、在测试与失败反馈循环里迭代,直到“跑得过”。

 

这意味着实现、转译、重写、样板化改造这类过去最耗人力的工程活动,正在被直接纳入 AI 的默认工作范围,成本被系统性压低,从而让编程“从根本上发生了改变”。

 

但同一个案例也把短板推到台面上:它更像是在优化“通过测试”,而不是像人类工程师那样主动追求更通用、更稳健的抽象——一旦离开现成测试套件或既定成功标准,泛化能力就会变得脆弱。软件工程的重心因此被迫上移:写代码不再是瓶颈,瓶颈转向架构选择、抽象设计与工程判断——以及在复杂性引入之前,决定什么值得做、什么不该做。

 

以下是 Chris Lattner 的原文翻译:

 

Claude C 编译器的诞生,揭示软件未来形态

 

编译器在计算机科学发展史中占据着特殊地位。作为计科教育的经典课程,构建一款编译器本身就是段意义重大的历练。学生们需要借此直面软件的真实运作方式,研究语言、抽象、硬件、人类意图与机器执行之间的过渡边界。

 

曾经的编译器帮助人类与机器对话,如今的机器则开始帮助人类构建编译器。

 

笔者的职业生涯一直致力于编译器与编程语言方面的研究,Anthropic 打造的 Claude C 编译器(简称 CCC)自然引起了多的关注。我的基本观点非常简单:这代表着真正的进步,也是行业的一大里程碑。当然,AI 的进展并非世界末日,请大家冷静看待。

 

提纲挈领说一句:AI 构建 C 编译器并不能算多么重大的革命性突破,但却揭示了 AI 编程的发展历程及未来的前进方向。

 

以下是我的几条主要观点:

  • AI 不再局限于编写小段代码,而开始参与大规模系统的工程设计。

  • AI 正从局部代码生成转向全局工程参与:Claude C 编译器不仅涵盖函数,,更须维护子系统架构。

  • Claude C 编译器的设计与 LLVM 类似:依托数十年的编译器工程经验训练而成,其编译器架构也深受历史影响。

  • 我们的法律体系往往滞后于技术进步,而 AI 正在挑战法律的边界。也许专有软件正在被时代淘汰。

  • 优秀的软件依赖于高质量判断、沟通与清晰的抽象,AI 进一步强化了这点。

  • AI 编程完成的是实现环节的自动化,因此设计和维护变得更加重要。

  • 手动重写和转译工作正被划入 AI 原生任务的范畴,将更高比例的工程活动囊括于其中。

  • 只要人类投入更多精力在架构、设计和创新上,正确使用 AI 就能产生更好的软件。

  • 随着 AI 系统的结构化知识持续增强,文档缺失开始成为制约开发能力的瓶颈,架构文档越来越多地扮演起基础设施的角色。

 

这一切都给工程团队带来了真实且直接的影响。在文章的最后,我将分享我们 Modular 团队如何将这些洞见转化为具体愿景。

编译器是什么?为什么要将其作为 AI 基准测试的重心?

要理解 Claude C 编译器的深远意义,我们首先需要理解编译器对于智能(无论是人类智能还是人工智能)为何如此重要。

 

编译器处于多个复杂领域的交汇点上:形式化语言设计、大规模软件架构、严苛的性能约束以及毫不妥协的正确性要求。

 

大多数应用程序可以容忍存在 bug,但编译器不行。一个错误转换就足以悄无声息导致程序 bug,进而影响无数用户的生产实践。因此其中每个层次都必须严格保持不变性,同时与其他层次协同工作。

 

从历史上看,这也让编译器成为计算机科学教育中至关重要的必修课。工程师们必须跨越抽象层展开思考:将文本转化为结构,将结构转化为意义,再将意义转化为高度优化的机器行为。

摘自我之前关于 LLVM 编译器设计文章。

 

这个过程实际还反映出更深层次的问题,即把人类意图转化为精确执行的过程。正因如此,编译器成为 AI 系统集成中一个独特而有趣的基准课题。

 

早期 AI 编程工具在编写函数、生成脚本或者填充缺失代码等局部任务上表现出色,这里考查的是模式识别和短期推理的能力。

 

Claude C 编译器展现出的更高层次进步,使其成为真正的里程碑。它展示了 AI 系统如何在整个工程系统中保持一致性,协调多个子系统、维护架构结构,随时间推移不断迭代以保障正确性并在复杂的测试与失败反馈循环下稳定运行。由此开始,AI 正式从代码补全转向整体工程参与。

 

更重要的是,编译器工程师构建的架构往往具有高度可读性与结构化水平。编译器具有分层抽象、统一命名约定、可组合的编译过程以及确定性反馈(具有明确标准的成功或失败判断)。正是这些特性,让接触过大量人类经验与源代码训练的学习机器获得了相对简单的工程参与入口。

 

由此看来,Claude C 编译器验证了过去数十年间的软件工程实践,在由编译器工程师们开发的跟着抽象结构之上实现了机器推理。但在意义非凡背后,这里也暗含一大重要局限性。

深入体察 Claude C 编译器

Claude C 编译器最引人注目的一点,在于 Anthropic 为其发布了完整源代码。与众多其他 AI 演示不同,此次亮相的不只是经过精心打磨的结果或者基准测试分数,而是任何人都能随意查阅的工程成果。包括提交历史、设计文档与未来规划,整个代码库都已对外公开。这意味着我们可以研究这套 AI 系统如何一步步构建编译器,搞清自己感兴趣的一切细节。

 

其中初次主要提交就“一次性”构建了系统的基本架构。Claude C 编译器严格遵循经典编译器结构,各主要子系统也都辅以出色的设计文档,具体包括:

  • 处理预处理、解析和语义分析的前端(所有编译器通用)。

  • 直接受 LLVM 启发的中间表示和优化成果。

  • 负责代码生成的后端,支持 4 种架构(x86-32、x86-64、RISC-V 和 AArch64)。

整个代码库的设计选择始终体现出成熟的编译器实践,符合大学课堂上的讲义,也在 LLVM 和 GCC 等现有编译器中广泛采用。中间表示则包含大量 LLVM 开发者非常熟悉的概念,例如 GetElementPtr 指令、基本块“终止符”和 Mem2Reg。从结果上看,Claude C 编译器对于主流编译器设计有着深刻的理解。

 

子系统编译器架构示例。

面对训练集中的 LLVM 与 GCC 代码,Claude 有效将其中相当一部分转译成了 Rust 以供 Claude C 编译器使用。设计文档同样体现其对这两大系统的深入理解,以及对实现方法的深思熟虑。有人批评 Claude C 编译器借鉴了大量现有技术,但在我看来这相当荒谬——我在构建 Clang 时,也从 GCC 身上汲取了不少灵感!

 

Pushpendre Rastogi 还专门撰写了一篇关于 Claude C 编译器与智能体扩展定律(scaling laws)的博文(https://vizops.ai/blog/agent-scaling-laws/),探讨了迭代式智能体工作流如何逐步扩展以优化实现/测试覆盖率:

代码考古时间线,作者 Pushpendre Rastogi(已获原作者许可)。

 

总之,Claude C 编译器完全不像是实验性的研究编译器,而更多展现出教科书式实现的稳健风格。它类似于优秀本科生团队在项目早期构建的系统,虽然还须数年时间进行完善,但初步成果已经令人瞩目。

Claude C 编译器有哪些不足?

Claude C 编译器当然并非完美无瑕。部分设计选择表明,其优化目标更多是让系统通过测试,而不是像人类开发者那样构建起通用抽象。仅举几例:

  • 代码生成器功能简陋,优化器会重新解析汇编文本、而未使用中间表示法(IR),此外代码生成器的架构设计也很糟糕。

  • 解析器的错误恢复能力和可用性较差,且在某些极端情况下会出问题。

  • Claude C 编译器似乎无法解析系统头文件(系统头文件的处理复杂度要远高于应用代码),因此它会直接将测试所需内容硬编码到代码当中。

 

从 bug 跟踪系统的检测结果来看,Claude C 编译器最后、也是最大的缺陷,似乎是无法很好地泛化到测试套件之外。这个问题颇具启发性,表明当前 AI 系统更擅长组合已知技术并针对可量化的成功标准进行优化,但在生产级系统所需的开放式泛化方面表现不佳。

 

由此引出了另一个更深层次的问题:AI 编程本身到底存在哪些问题?

Claude C 编译器揭示出 AI 编程之道

Claude C 编译器最有趣的启示并不在于 AI 有能力构建编译器,而在于具体构建过程。它并没有发明新的架构或者探索陌生的设计空间,只是复现了数十年来编译器工程积累下的共识:结构正确、易于理解,且完全基于成熟技术。

 

现代大语言模型是极其强大的分布式模仿者。它们能掌握工作中的大量现有模式,并生成与这些集体经验相仿的解决方案。这种现象与 Richard Sutton 提出的“痛苦教训”理论高度契合,认为扩展定律法能够重新发现已经获得广泛成功的结构。

 

打个比方,使用英国文学作品进行训练能让模型生成莎翁风格的散文。这倒不是说英国文学自 17 世纪之后就停止了发展,只是因为莎士比亚的作品在训练分布中密度更高。模型会学习那些被广泛传播和强化的内容。类似的情况也出现在了编译器设计当中。

 

人类知识的各个阶段都会被大规模吸纳和消化,但问题是谁来编写下一阶段的课程?

 

Claude C 编译器表明,AI 系统能够内化某一领域的教科书知识并成功实现大规模连贯应用。AI 现在可以在既定工程实践中可靠运行,里程碑式地消除诸多重复性繁琐工作,帮助工程师释放出更多创造性空间。但这也凸显出 AI 编程领域的一大重要局限:

 

实现已知抽象概念,与发明新的抽象概念截然不同。我认为目前的实现方式并无创新可言。

 

纵观整个历史,编译器的进步并非源自快速整合标准组件,而来自概念上的飞跃。例如新的中间表示、新的优化模型、新的程序结构以及新的硬件交互方式。团队成员以探索性的思维彼此激励鼓舞,协同打造出前所未有的技术成果。

 

当前 AI 编程系统在标准清晰且可验证的情况下,已经拥有良好的产出表现:编译程序、通过测试、提升性能等等。但创新却截然不同——在创造一种全新抽象概念时,什么才算成功尚无定论。对于尚不存在的想法,因为缺少相应测试套件,AI 难以判断哪种设计才算好。

 

因此,AI 编程只能算是自动化进程中的重要一步。它显著降低了实现、转换与改进的成本。随着这些剧本的降低,真正稀缺的决策,即哪些系统应当存在、软件应当如何演进等,开始向上转移。

知识产权法与专有软件护城河

Claude C 编译器还在知识产权领域引发了不少争议。既然结构、模式乃至特定实现都依托于过去几十年间的公开代码,那么学习和照抄之间的边界究竟在哪里?部分观察人士指出,尽管声称是“洁净开发”,但 Claude C 编译器似乎仍会生成与过往实现高度相似的工件,包括标准头文件及实用程序代码。现有法律框架显然无法制约这种并未明确引用源代码,而是通过统计方法对原有代码进行“洗稿”的行为。

 

当然,人类也会通过研究现有系统、内化模式并将想法重新应用于新情境来学习。二者的区别在于规模化和自动化。AI 可以将数十年间的工程知识压缩成一套可以瞬间复制解决方案的生成模型,这无疑让以具体表达方式为切入点的许可协议显得苍白无力。

 

我们正面临着专有软件会被轻易自动重新实现的新时代。AI 降低了复制既有设计的成本,也让竞争优势从原本的代码库转向执行、生态与持续创新。法律与制度规范也将随之转变,正如当初的 Linux 和开源软件逐步打开自己的生存空间。我敢肯定,未来由人类-AI 协作高效产出的生态体系,将取代那些无法跟上时代洪流的传统生态系统。

自动化、创新与软件的未来

如果 AI 编程主要用于自动化实现,那么未来又会变成什么样子?

 

历史已经给出了清晰的脉络:当某种产品的构建成本大幅降低,我们不仅会以更低成本构建相同的东西,还必然开始构建出前所未有的产物。

 

编译器本身就是个很好的例子。早期程序员只能手动编写汇编代码,可一旦编译器变得稳定可靠,开发者能做的就更多了,整个软件行业也应运而生。这是因为高度抽象使得复杂性更加易于管理。代码编写难度越低,带来的结果不是程序员越来越少,而是软件越来越多。我们可以推进更多实验、获得更多专业工具,并让以往不值得自动化的问题也拥有自动解决方案。

 

1957 年,NASA 利用 IBM 704 主机进行航空研究。

 

工程工作的经济性由此得到优化,大规模重写、迁移和样板代码实现等机械性任务可以交给 AI 负责。这种工作量大但创新性较低的任务,天然与 AI 系统的特性高度适应。工程师们的工作重心也从编写代码实现转向指引系统,即明确意图->验证结果->构建架构的新形式。

 

随着实现成本的降低,工程师的角色也开始上移。到那时候,最稀缺的技能会变成选择合适的抽象概念、决定哪些问题更有意义,以及设计出人类-AI 共同参与并推进的系统。软件工程与产品思维之间的边界将日益模糊,限制项目落地的不再是能够构建软件,而是判断应该构建什么及如何管理随之而来的复杂性。当然,AI 也会同时放大软件结构中好的和坏的部分,管理不善的代码也一定会造成理解和维护上的噩梦。

 

综合以上提出的所有趋势,既然编程正从根本上发生改变,那么软件工程师自身又该何去何从?

软件工程师的角色演变

软件开发的每一次重大变革,都会改变程序员的定义。早期工程师直接管理硬件,而后来的工程师则学会了信任编译器并掌握高级语言。每一次转变都减少了人工操作,同时也提高了人们对于工程师能力的期望。AI 编程无疑代表着这一发展进程的未来走向。

 

随着实现过程日益自动化,软件工程的核心技能也从亲手编写代码转向构建系统。工程师们将专注于决定哪些功能应当保留、组件如何整合以及如何随时间推移保证复杂性元素的可理解性。软件的质量将依赖于判断力、沟通效果与抽象清晰度。AI 系统只是在增强这些人类特质,而非将其取代。

 

最优秀的工程师不会与 AI 比谁编码更快,而是学会与 AI 协作,运用技术快速探索想法、广泛迭代并将精力集中在规划和设计上。AI 工具正迅速成为常规软件开发技术栈的组成部分,正如之前的编译器、版本控制乃至持续集成一样。学习如何有效与 AI 合作正迅速成为一项核心技能。现在谁忽视 AI 的存在,就如同二十年前拒绝采用源码控制一样。

 

来源:摘自 Luca Rossi《软件工厂的时代》,CircleCI 2026 年软件交付现状报告。各顶尖开发团队正迅速拉开差距。

 

根据 CIrcleCI 发布的《2026 年软件交付现状报告》,排名前 5%工程团队的产出量几乎同比增长了一倍,而排名后 50%的团队则停滞不前。2025 年生产力最高团队的产出量,已经达到 2024 年领先团队的 10 倍。

 

这就带来了新的问题:开发团队要如何调整才能取得成功?

 

以下是我们 Modular 团队对这种转变的理解。

Modular 如何适应 AI 工具带来的新愿景?

Claude C 编译器等重大成果改变了我对于软件工程的看法,也让我对团队提出了新的要求。充分利用 AI 工具的前提,是有意识地做出改变:几十年来形成的习惯不会自动消失,组织也很少会单纯为了适应更好的新工具就自主转型。

 

同时,务实的态度也很重要。AI 系统确实功能强大,但远非完美。进步来自与 AI 的协作,而非对 AI 的放任。我们不是为了削减人手,而是把人放在更重要的位置上。由此引出了以下三点愿景:

1. 主动采用 AI,同时保持责任感

从软件工程到行政管理、再到市场推广,每位员工都该积极采用 AI 工具来提高生产力与决策效率。世界瞬息万变,我们必须拥抱变革。

 

但这并不是把责任也推卸给工具。例如,构建大规模生产软件的工程师们仍须对软件正确性、设计质量和长期可维护性负责。AI 扩展了我们的能力,但并不能取代判断。AI 生成的成果应该像手工编写的代码一样,经过充分的解读、验证和认可。产品的声誉永远建立在成果,而非提示词之上。

2. 推动人类价值升华至新高度

历史上,大部分工程工作都属于机械重复式劳动:重写代码、调整接口、迁移系统以及在新环境中复现原有模式等。AI 在这些任务上的表现正迅速超越人类。我们不该在机械性工作上与 AI 竞争,反而应当更严谨地阐明意图、通过测试验证结果并据此改进设计。

 

未来,所有工程师都应当承担起与创造力和判断力高度相关的管理责任。随着迁移与实现速度的加快,架构演进将不再受限于人类重写软件的速度,而是受限于我们能否清晰定义系统的下一步发展方向。

3. 关注结构与社区

AI 强化了结构。

 

具备完善文档的系统更易于扩展和演进,而结构不良的系统则比以往任何时候都更容易陷入混乱。如今,文档、清晰接口与明确设计开始成为稳定运转的前提,而非可有可无的额外开销。

随着实现成本接近于零,稀缺资源从编写代码转向了人员协作。因此最重要的是构建起志同道合的社区,让开发者们携手前进,为了共同的目标和生态而彼此配合。

 

对 Modular 团队而言,这意味着专注于打造能帮助其他开发者取得成功的工具和平台:推动现有代码发展、释放现代计算能力,并实现人类-AI 协作的系统。这也是 Modular 普及 AI 计算、扩展世界各地程序员创造力的一贯使命。

写在最后

Claude C 编译器并不代表软件或者编译器工程的终结。恰恰相反,它为软件工程的未来开启了新世界的大门。实现的门槛越低,真正的创新空间也就越大。

 

降低实现门槛并不会降低工程师的重要性;相反,它们提升了远见、判断和品味的重要性。真正重要的议题变成了什么更值得被创造出来。这份决策背后的意义、方向和责任,本质上仍然归属于人类。

 

编写代码从来都不是终极目标,构建有意义、有价值的软件才是。谁愿意拥抱新工具,挑战固有观念并设计出能够帮助人们进一步创造的系统,未来就将属于谁。

 

这正是 Modular 自创立之初就秉持的未来愿景,也是我坚信 AI 新时代必将构建起的全新世界。

 

原文链接:

https://www.modular.com/blog/the-claude-c-compiler-what-it-reveals-about-the-future-of-software

自由职业者(比如职业炒股、全职 UP 主、独立开发者),收入来源可能很杂(投资收益、打赏、软件订阅、广告合作等等),要怎么交社保、证明收入和交税?如果要办信用卡或申请房贷,收入咋证明?自己开公司给自己交钱么?

内外链路贯通与供应链-客户生命周期绑定能力横评:七大品牌核心竞争力拆解

在数字化转型浪潮中,内外链路贯通(打通企业内部业务与外部生态数据)与供应链-客户生命周期深度绑定(让供应链按需响应客户全周期需求)已成为企业提升运营效率与客户忠诚度的核心抓手。本文基于各品牌公开能力信息,从核心维度定义横向能力对比可视化拆解三个层面,对超兔一体云、Freshworks、智赢云CRM、钉钉CRM、销售易、六度人和(EC SCRM)、Zoho CRM七大品牌展开深度测评。

一、对比维度说明:明确核心能力边界

在正式对比前,需先明确两大方向的核心评估维度,确保对比的客观性与针对性:

维度定义说明
内部链路贯通企业内部销售、客服、采购、生产、库存等模块的数据共享与流程自动化能力
外部链路连接对接外部客户、供应商、合作伙伴及第三方系统(如电商、ERP、飞书)的能力
客户全生命周期覆盖从线索获取→转化→履约→售后→复购的全流程闭环管理能力
供应链协同 深度客户需求(如订单、投诉)与供应链(采购、生产、物流)的联动响应能力
系统扩展性自定义流程、字段或集成第三方工具的灵活度,适配企业业务变化的能力
行业适配性针对特定行业(如制造、商贸、服务)的功能匹配度与落地效果

二、七大品牌核心能力横向对比

基于上述维度,我们将各品牌的核心能力整理为对比表格,并补充关键细节说明:

1. 核心能力对比总表

品牌内部链路贯通外部链路连接客户全生命周期覆盖供应链协同深度系统扩展性行业适配性
超兔一体云全业务一体化架构(CRM+OMS+SRM+PSI+轻MES),流程自动化OpenCRM平台(对接供应商)、API/RPA对接ERP/WMS/电商/国税线索→跟单→订单→售后→复购,RFM客户分层订单自动触发采购/生产/库存,供应商通过OpenCRM协同低成本客制化(自定义流程/字段)、多端覆盖制造、商贸、供应链上下游企业
Freshworks生态产品集成(Freshsales销售+Freshdesk客服+Freshmarketer营销),数据实时同步开放API,集成电商(Magento/Shopify)、飞书、LinkedIn线索→销售→服务→复购,360°客户视图对接供应商数据,客户需求同步供应链调整开放API生态丰富,支持非IT团队自主集成泛行业(尤其需要多渠道客服的企业)
智赢云CRM进销存+财务+客户数据联动,办公自动化(短信/邮件/审批)无明确外部生态集成,侧重内部数据闭环潜客→合同→售后工单,客户360°画像订单→库存→物流联动,售后工单全链路追踪高度自定义字段,买断制+本地化存储商贸、教育、工贸等中小微企业
钉钉CRM钉钉生态深度集成(OA+销售+供应链),ERP/财务系统秒级同步钉钉生态内对接,支持外部ERP/物流系统线索→售后标准化流程,AI客服7×24小时响应订单触发排产,MES监控生产进度,客户实时查单钉钉生态扩展性强(企业微信/腾讯会议集成)钉钉深度使用企业(尤其制造型企业)
销售易腾讯生态集成(企业微信+腾讯会议+腾讯电子签),全流程闭环腾讯系产品(乐享/文档),外部API对接线索→商机→交付→服务,会议数据自动沉淀为客户资产线索→生产→供应链调度联动,订单同步ERP腾讯生态扩展性,自定义销售流程中大型企业(尤其需要腾讯生态协同)
六度人和社交化链路(微信/企业微信),销售过程与客户互动实时同步微信/企业微信深度集成,API对接ERP/订单系统线索培育→复购,CLV(客户终身价值)量化,行为追踪订单数据同步供应链,辅助库存决策社交生态扩展性,自定义客户标签依赖社交获客的企业(如零售、服务)
Zoho CRM模块化设计(销售+客服+库存),模块间数据集成开放API,对接Zoho Supply Chain等供应链工具线索捕获→售后支持,自动化工作流需求预测→采购计划联动,供应链工具对接模块化扩展(按需添加模块),自定义流程中小微企业(尤其需要灵活模块组合)

2. 关键能力补充说明

(1)超兔一体云:全业务一体化的“链主型”选手
  • 核心优势

    • 内部链路:通过CRM+OMS+SRM+PSI+轻MES全模块集成,实现“线索→订单→采购→生产→售后”的全流程自动化(如订单生成后自动检查库存,缺料则触发采购计划);
    • 外部链路:OpenCRM平台打通上下游,供应商可直接在平台接收询价、确认订单,客户可实时查看物流进度;
    • 供应链协同:订单数据直接联动生产(轻MES排产)与库存(PSI实时更新),解决“销售漏单、库存积压”痛点。
  • 适用场景:需要打通上下游的制造型企业(如电子制造、机械设备)。
(2)Freshworks:生态集成的“多渠道客服型”选手
  • 核心优势

    • 内部链路:Freshsales(销售)+Freshdesk(客服)+Freshmarketer(营销)深度集成,销售捕捉的线索可同步至客服,客服反馈的问题可传递至产品部门;
    • 外部链路:支持集成Magento/Shopify电商平台(实时获取客户购买行为)、飞书(将客服工单同步至飞书群);
    • 客户生命周期:通过360°客户视图整合销售、客服、营销数据,实现“售前个性化跟进+售后快速响应”。
  • 适用场景:需要多渠道客服(如电商、 SaaS)的企业。
(3)钉钉CRM:钉钉生态的“重度依赖型”选手
  • 核心优势

    • 内部链路:依托钉钉OA审批、考勤等功能,实现销售订单与生产排产秒级同步(如订单生成后自动触发MES系统排产);
    • 供应链协同:客户可通过钉钉直接查询订单生产进度(如“已排产→已发货→已签收”),投诉处理时效从48小时压缩至2小时;
    • 系统扩展性:深度集成钉钉生态(如企业微信、腾讯会议),无需额外开发即可实现“会议→线索→订单”的闭环。
  • 适用场景:已深度使用钉钉的制造企业(如服装、家电)。
(4)六度人和:社交化获客的“精准型”选手
  • 核心优势

    • 外部链路:微信/企业微信深度集成,支持将客户朋友圈互动、聊天记录自动同步至CRM(如客户点赞促销海报→自动打“潜在复购”标签);
    • 客户生命周期:通过行为追踪(如客户查看产品链接、咨询客服)量化CLV,实现“高价值客户→专属销售跟进”的精准运营;
    • 供应链协同:订单数据同步至供应链系统,辅助企业调整库存(如某款产品咨询量上升→提前备货)。
  • 适用场景:依赖微信/企业微信获客的零售、服务企业(如教育培训、本地生活)。

三、可视化能力拆解:流程图、脑图与雷达图

为更直观展示各品牌的能力逻辑,我们用Mermaid语法生成三类可视化图表:

1. 超兔一体云:内部业务流程自动化流程图

超兔的核心优势是全流程自动化,以下流程图展示从“线索”到“复购”的内部链路:

flowchart LR
    A[市场获客-线索] --> B[客户中心-线索分配]
    B --> C[跟单中心-线索跟进]
    C --> D[合同订单-订单生成]
    D --> E[采购管理-自动生成采购计划]
    D --> F[库存管理-库存检查]
    F --> G[生产管理-轻MES排产]
    E --> H[供应商协同-OpenCRM平台]
    G --> I[物流配送-订单履约]
    I --> J[售后管理-工单系统]
    J --> K[客户复购-精准营销(RFM分析)]
    linkStyle 0-9 stroke:#2f54eb,stroke-width:1.5px;

说明:流程中无人工干预,数据自动流转,解决了“销售漏跟进、采购滞后”等问题。

2. 各品牌核心能力脑图

mindmap梳理七大品牌的核心能力框架,清晰展示能力边界:

mindmap
    root((内外链路与供应链-客户绑定能力))
        超兔一体云
            内部链路: 全业务一体化、流程自动化
            外部链路: OpenCRM、API/RPA对接
            客户生命周期: 全流程覆盖、RFM分析
            供应链协同: 订单触发采购/生产、供应商协同
        Freshworks
            内部链路: 生态产品集成、数据同步
            外部链路: 开放API、电商/飞书集成
            客户生命周期: 线索-销售-服务-复购、360°视图
            供应链协同: 供应商数据对接、需求联动
        钉钉CRM
            内部链路: 钉钉生态集成、ERP同步
            外部链路: 钉钉生态、外部系统对接
            客户生命周期: 标准化流程、AI客服
            供应链协同: 订单排产、MES监控
        六度人和
            内部链路: 社交化链路、互动同步
            外部链路: 微信/企业微信、API对接
            客户生命周期: 线索培育-复购、CLV量化
            供应链协同: 订单同步供应链、库存决策

3. 雷达图:核心能力得分对比

选取内部链路、外部链路、客户生命周期、供应链协同、扩展性五大指标(1-5分,5分为优),各品牌得分如下:

品牌内部链路外部链路客户生命周期供应链协同扩展性
超兔一体云55454
Freshworks45445
钉钉CRM54455
六度人和35434

雷达图解读

  • 超兔一体云:内部链路与供应链协同能力最强,适合需要全链路贯通的制造企业;
  • Freshworks:外部链路与扩展性最优,适合需要多渠道集成的电商/服务企业;
  • 钉钉CRM:内部链路与供应链协同较强,适合钉钉深度用户;
  • 六度人和:外部链路(社交)最优,适合依赖微信获客的企业。

四、选型建议:匹配企业需求的最优解

基于上述分析,我们针对不同企业需求给出选型指南

企业需求推荐品牌核心原因
需要打通上下游供应链超兔一体云OpenCRM平台连接供应商,全业务一体化架构实现“订单→采购→生产”联动
依赖微信/企业微信获客六度人和社交化链路集成,客户互动数据自动同步,CLV量化实现精准营销
已深度使用钉钉钉钉CRM钉钉生态无缝集成,订单排产与客户查单功能满足制造企业需求
需要多渠道客服Freshworks集成电商/飞书,360°客户视图提升客服响应效率
中小商贸企业(内部闭环)智赢云CRM进销存+财务联动,买断制降低长期成本,本地化存储保障数据安全

五、结论:从“工具”到“生态”的能力升级

从对比结果看,超兔一体云钉钉CRM在“全链路贯通”与“供应链协同”上表现最突出,适合需要深度整合的制造企业;Freshworks六度人和则聚焦“外部生态”与“社交化”,适合轻量级服务企业。

本质上,企业选择的不仅是“CRM工具”,更是数字化生态的接入权——能否通过工具打通内部业务与外部生态,让供应链真正“以客户为中心”,才是未来企业的核心竞争力。

对于企业而言,选型的关键不是“选最好的”,而是“选最匹配自身业务链路的”——先明确自身的核心痛点(如内部流程割裂、外部生态对接难),再对应品牌的核心能力,才能实现真正的数字化价值。

Redis 数据结构核心模型笔记

一、Redis 本质模型

Redis 是 key–value 结构

  • key:必须是字符串
  • value:只能是以下 5 种类型之一
string
list
hash
set
zset

二、一个 key 只能对应一种数据类型

Redis 不支持混合数据结构。

key  →  单一数据结构实例

例如:

user:list        → list
user:profile     → hash
url:dupefilter   → set
rank:score       → zset

不能出现:

❌ 一个 key 同时是 list + hash + set
❌ list 里面直接嵌套 hash / set / zset

三、为什么不能混合?

Redis 底层实现是:

key  →  某种具体数据结构对象
  • list → quicklist
  • hash → dict
  • set → intset / hashtable
  • zset → skiplist + dict

一个 key 只能绑定一个结构对象。

四、Redis 是否支持"嵌套结构"?

❌ 不支持真正嵌套。例如:

list 里面放 hash
list 里面放 set

这是不可能的。因为 list 的元素本质上只是字符串(binary-safe string)。

五、如何实现"复杂结构"?

方法 1:多 key 组合(推荐)

用 key 引用 key,示例:

task:list  →  [ task:1, task:2, task:3 ]

task:1 → hash
task:2 → set
task:3 → zset

本质:list 里存的是其他 key 的名字,这是 Redis 设计复杂结构的标准方式。

方法 2:序列化存储(不推荐)

把复杂结构转成 JSON 作为 string 存储:

{
  "type": "hash",
  "data": {...}
}

缺点:

  • 无法使用 Redis 数据结构命令
  • 性能优势丢失

六、核心理解

✅ Redis = 简单结构 + 多 key 组合
❌ Redis ≠ 嵌套对象数据库

七、一句话总结

Redis 中一个 key 只能对应一种数据类型;value 可以是 string / list / hash / set / zset;不支持混合或嵌套结构;复杂结构必须通过多个 key 组合实现。

提到应急救援,大家最先想到的是冲锋在前的救援人员,但很少有人注意到,背后的物资保障同样是“生命线”。洪水、地震等灾害突发时,缺一件救生衣、少一箱急救药品,都可能影响救援成效。传统应急物资管理靠人工统计、经验调度,常常陷入“找不准、调不快、配不均”的困境,而AI应急物资管理系统,正是用技术破解这些难题,让应急保障从“被动响应”变成“主动出击”。

作为资深产品经理,我始终认为,AI的价值不在于“高大上”的概念,而在于解决实际痛点。这套系统的核心,就是用AI技术打通物资管理“入库—储备—调度—配送”全流程,把人工的繁琐工作交给机器,把决策的精准度交给算法。

先说说最基础的入库和储备环节,这是物资保障的“家底”。传统模式下,工作人员要手动登记物资名称、数量、保质期,不仅耗时,还容易出错,比如漏登、错登,导致灾害来临时找不到急需物资。AI系统搭配简单的物联网传感器和扫码设备,就能实现“自动登记、智能预警”。

扫码枪一扫物资条码,AI就会自动录入所有信息,同步更新到数据库,不用人工敲一个字;传感器实时监测仓库的温度、湿度,一旦超出物资储存标准,AI会立即发出提醒,避免物资变质损坏;更实用的是,AI能通过机器学习分析物资消耗规律,比如某类急救药品每年的消耗数量,提前提醒工作人员补充库存,杜绝“有仓无备”的尴尬。

最能体现AI价值的,是灾害突发时的调度环节——救援的黄金时间往往只有几小时,每一分每一秒都至关重要。传统调度靠人工汇总灾情、统计各地物资库存,再凭经验分配,不仅速度慢,还容易出现“这边物资积压、那边物资短缺”的问题。

而AI系统就像一个“智能调度中枢”,能在秒级内完成海量数据的分析和决策。它会实时整合灾情信息(比如受灾范围、受灾人数)、交通信息(比如哪条道路通畅、哪条道路中断)、物资信息(比如各地库存、物资位置),再通过算法快速生成最优调度方案。比如地震发生后,AI能立即算出受灾区域需要多少帐篷、饮用水,附近哪个仓库有储备,选择哪条路线运输最快,甚至能动态调整路线,避开突发的道路损毁,让物资以最快速度送达灾区。

可能有人会问,AI会不会出错?其实,AI的决策能力来自于海量数据的训练,它能整合过去多年的灾害救援数据、物资调度数据,学习不同场景下的最优方案,比人工经验更全面、更精准。而且系统还保留了人工干预权限,一旦出现特殊情况,工作人员可以随时调整方案,兼顾智能与稳妥。

除此之外,AI还能实现物资运输全程可视化监控。通过北斗定位和AI分析,工作人员在后台就能实时看到物资的运输位置、运输状态,知道物资什么时候能到达灾区,避免“物资失联”“盲调”的风险,让整个救援过程更透明、更可控。

很多人觉得AI技术很遥远,其实这套系统的核心逻辑很简单:用技术替代人工繁琐操作,用算法提升决策精准度,本质上就是让应急物资管理更高效、更省心。它不用复杂的操作,工作人员经过简单培训就能上手,既能大幅减少人工成本,又能最大限度发挥应急物资的作用,让救援工作少走弯路、多抢时间。

总而言之,AI应急物资管理系统,不是“花架子”,而是实实在在的救援助力。它用简单易懂的技术逻辑,解决了传统应急物资管理的痛点,让每一件应急物资都能在最需要的时候发挥作用,用科技的力量,为救援工作筑牢“物资防线”。

刚刚看了 @JoeJoeJoe 的分享来注册的
我开发出身,自己公司是做电商平台、AI 教育 的,同时也做了 5 年以上的天使投资
一直在投互联网、软件类产品或个人或团队
例如 TODO 类产品、AI 类工具、社交类产品、小游戏等
有创业想法、这方面产品的朋友,可以和我联系,看看有没有合作的机会 🤝

三维设计虽然已成为工程建设、智能制造、科研创新等领域的核心生产力工具,但随着模型复杂度与协同需求的持续提升,传统的本地工作站模式也正面临算力瓶颈、数据安全隐患、协同效率低下及运维成本高昂等问题。
三维设计私有云平台,已被诸多企业认为是构建新一代设计基础设施的优秀方案。以点量三维云设计系统为代表的云化设计解决方案,通过低延迟视频流技术与云端算力调度,将设计软件与数据集中部署,实现流畅的设计体验与安全可控的数据管理,全面推动设计业务向云端迁移。
本文将从行业痛点、解决方案架构、核心能力与应用价值等几个角度,系统说明三维设计私有云平台的方案优势与实际价值。
一、行业痛点:传统三维设计模式的四大瓶颈

  1. 算力分散,硬件投入高且利用率低
    三维设计软件(如 SolidWorks、CATIA、Revit 等)对 CPU/GPU 性能要求极高。企业通常为设计人员配备高性能图形工作站,但仍面临以下几种情况:
  2. 大型模型卡顿、渲染耗时长
  3. 硬件更新周期短,投资压力大
  4. 算力资源闲置严重
  5. 数据分散存储,安全风险突出
    设计数据往往存储在本地设备中,存在以下几种问题:
  6. 磁盘损坏导致数据丢失
  7. U盘拷贝带来的泄密风险
  8. 核心知识产权难以集中管控
  9. 协同效率低,版本管理混乱
    传统协同依赖文件传输与人工沟通,导致以下几种情况:
  10. 多版本文件难以追溯
  11. 异地协同效率低下
  12. 评审流程复杂,沟通成本高
  13. 运维复杂,软件授权成本高
  14. 软件部署与升级需逐台维护
  15. 授权无法复用,成本浪费严重
  16. IT 运维压力大,管理效率低
    二、解决方案概述:三维设计私有云平台架构
    三维设计私有云平台通过将设计软件、算力资源和数据集中部署于企业私有云环境,构建统一的云端设计工作空间。
    核心架构组成
    image.png
  17. 云端算力节点
    数据中心图形工作站 / GPU服务器;弹性算力调度与负载均衡
  18. 云设计管理系统
    点量三维云设计系统;云管平台(资源调度、权限管理、监控)
  19. 数据安全系统
    云端集中存储;权限控制与操作审计;数据不落地机制
  20. 用户终端接入
    PC/瘦终端/平板/手机/国产终端;Web端与客户端双模式访问
    三、核心能力:点量三维云设计系统赋能云化设计
  21. 即点即用的云端设计体验
    依托低延迟交互视频流技术,设计软件部署于云端,用户通过浏览器即可流畅操作,无需本地安装。其优势:打开网页即可进入设计环境;支持弱网环境流畅操作;出差、现场、居家均可办公。
  22. 极致协同:从远程桌面到虚拟设计协作空间
    平台不仅支持远程访问,更提供沉浸式协同能力:多人实时旁观与评审;主控权限接管与演示;内建音视频会议与沟通工具;图纸在线流转与审批。真正实现“设计即协作,协作即生产力”。
  23. 数据安全:设计数据不落地
    平台构建企业级数据安全体系:全量设计数据仅存储云端;禁止USB映射、剪贴板外传;精细化权限控制与日志审计;用户数据隔离,防止跨账号访问。确保企业核心设计资产始终处于可控状态。
  24. 授权复用与成本优化
    通过并发授权与资源池化管理:软件许可按需分配、自动回收;提升授权利用率;降低软件采购成本。同时,集中算力部署可减少终端高性能工作站数量,显著降低硬件投入。
  25. 全端适配与国产化支持
    系统兼容主流设计软件与多种终端环境:
    软件兼容:SolidWorks、CATIA、AutoCAD、UG、SketchUp、Unity、UE 等
    终端支持:Windows、国产操作系统、Android、iOS、瘦终端、平板等
    信创支持:国产 CPU、操作系统、显卡全链路适配
    image.png
    四、应用场景:多行业三维设计云化实践
  26. 工程建设与 BIM 设计
    多专业协同建模与评审;超大型模型流畅操作;异地项目团队实时协同
  27. 高端制造与产品研发
    零部件设计与虚拟装配;CAE仿真任务云端调度;提升研发效率与设备利用率
  28. 科研院所与教育培训
    统一设计环境与软件管理;支持远程教学与实验;降低实验室硬件投入
  29. 数字内容与可视化行业
    三维建模与动画渲染;多节点云端渲染加速;提升制作效率
    三维设计正从“单机工具”向“云端生产力平台”演进。以点量三维云设计系统为核心的私有云平台,不仅解决了算力、协同与安全难题,更重塑了企业设计模式,使设计资源从“个人资产”升级为“企业级共享能力”。
    未来,随着云计算与实时流技术的持续发展,三维设计私有云平台将成为企业数字化转型的重要基础设施,助力更多行业实现:设计云化协同无界。

整理了一份实用的 RSS 订阅源合集,包含官方 RSS 和 RSSHub 路由,覆盖 AI 、技术社区、安全资讯、前端设计、大厂技术博客、技术周刊等 11 个分类。

主要特点:

  • 69 个精选源,全部经过可用性验证
  • 在线版支持分类筛选、搜索、一键复制: https://jackyst0.github.io/awesome-rsshub-routes/
  • 提供 OPML 文件,可一键导入到 RSS 阅读器
  • GitHub Actions 自动检测源的健康状态
  • 中英文双语支持

GitHub: https://github.com/JackyST0/awesome-rsshub-routes

欢迎补充更多实用源,PR welcome~

很多人还在吵“AI 会不会取代程序员”。OpenAI 内部给出的答案是:AI 正在把工程师重新分层。差距不会慢慢拉开,它会被工具放大、被流程放大、被组织放大,最后变成一种很难追回的“复利”。

 

在 OpenAI,95% 的工程师每天都在用 Codex。PR 先过 AI 的眼,再轮到人;代码评审从每个 10~15 分钟压到 2~3 分钟;真正拥抱工具的人,提交的 PR 数量比同事高出 70%,而且差距还在继续扩大。工程师的角色也跟着变形:越来越像“Tech Lead + 调度员”,同时盯着 10~20 条并行的 Codex 线程,主要工作变成引导、验收、兜底,亲手写代码反倒成了偶尔为之。

 

Sherwin Wu 是 OpenAI API 与开发者平台工程负责人。几乎所有 AI 创业公司都在集成 OpenAI 的 API,因此 Sherwin 对整个生态正在发生什么、以及未来走向,有一个极其独特、广阔的视角。

 

他在播客里还丢了一个判断:很多公司今天引以为豪的 AI“脚手架”——向量数据库、Agent 框架、复杂流程编排——可能只是一段过渡期的拐杖。模型进化会把它们吞掉。真正跑出来的团队已经换了打法:为模型将要到达的能力提前设计工作流,产品现在只有 80% 好用也能上线,等下一代模型升级,直接跨过那条门槛。

 

AI 也不会平均抬升所有人。它会把高主观能动性的工程师推到一个“不成比例”的高度:能拆需求、能控上下文、能调度多 Agent、能把验证闭环做扎实的人,一个人就能顶过去一个小团队。随之而来的不只是所谓“一人独角兽”,更像是组织结构被迫重写:更小团队、更快迭代、更陡分化。

 

工程之外,Sherwin 认为更被低估的机会在业务流程自动化:现实世界的大多数工作运行在可重复、强约束、标准作业流程里。AI 真正深入这些流程,改变的将是企业运作方式本身,而不只是效率。

 

如果你觉得最近两三年的变化快得让人焦虑,那你没感觉错。Sherwin 的话更像是在提醒我们:这其实是一个不会持续太久的窗口期。变化总有一天会放缓,但如果错过了这一段,很多人可能连这套“新分层的规则”都还没来得及学会。

 

我们翻译了这期播客。

 

Agent 时代的工程分层,已经在 OpenAI 出现

 

主持人:Sherwin,非常感谢你来到节目。我想从一个现在几乎成了 AI 进展“晴雨表”的问题开始,尤其是在工程领域。你自己现在还写代码吗?如果写的话,你和你的团队,现在有多少代码是由 AI 写出来的?

 

Sherwin Wu:我现在偶尔还会写代码。不过说实话,对像我这样的管理者来说,现在用 AI 工具反而比手写代码更容易。

 

就我个人,以及 OpenAI 里的一些工程管理者来说,我们的代码基本都是由 Codex 写的。从更宏观的角度看,内部有一种非常强烈、非常真实的能量感——大家都在感叹这些工具已经走了多远,Codex 对我们来说已经有多好用。

 

我们其实很难精确衡量“到底有多少代码是 AI 写的”,因为绝大多数代码——我会说接近 100%——几乎都是先由 AI 生成的

 

我们真正去跟踪的指标是:现在绝大多数工程师每天都会用 Codex。

 

95% 的工程师在日常使用 Codex,100% 的 PR 每天都会被 Codex 审查。也就是说,任何最终合并、进入生产环境的代码,Codex 都会“看一眼”,并在 PR 阶段提出改进建议、指出潜在问题。

 

但比这些数字更让我兴奋的,是那种整体的氛围和能量。

 

我们还有一个有意思的观察:使用 Codex 更多的工程师,会打开明显更多的 PR。他们提交的 PR 数量比不常用 Codex 的工程师多 70%,而且这个差距还在扩大。

 

我感觉那些 PR 打得多的人,正在不断学习如何更高效地使用这个工具,这个 70% 的差距随着时间推移还在继续拉大。说不定现在这个数字已经比我上次看到的更高了。

 

主持人:我确认一下我理解得对不对:你的意思是,在 OpenAI,那 95% 的工程师,他们的代码基本都是AI 先写,然后由他们来 review

 

Sherwin Wu:对,对,没错。

 

主持人:听起来很疯狂,但又好像已经不那么疯狂了,我们正在迅速适应这种状态。当然,我觉得还是需要一点时间来适应。

 

Sherwin Wu:是的,确实还在适应中。也有一些工程师,对 Codex 的信任度相对低一些。但几乎每天,我都会听到有人被它做出来的事情震惊到,然后他们对模型“可以独立完成多少事情”的信任阈值,一次次被拉高。

 

Kevin Weil(我们的科学副总裁)有句话我特别喜欢。他常说:“这是模型此生最差的一刻。”这句话放到软件工程上同样成立:时间越往后走,人们会越来越愿意把关键工作交给模型,而模型本身也只会变得更强。

 

主持人:Kevin Weil 之前也上过这个节目,他在节目里也说过这句话,而且说了不止一次。最近 OpenClaw(之前叫 Claudebot / Moltbot)的开发者 Peter 也分享过,他在工作中大量使用 Codex。他说很多时候,Codex 做完事情之后,他几乎是完全信任的,甚至觉得可以直接合并进 master 分支,结果也会很好。

 

Sherwin Wu:对,他确实是 Codex 的一个非常优秀的用户。我知道他和我们团队保持着很密切的沟通,也给了很多很好的反馈,所以我一点也不意外他会这样用。

 

主持人:回到这个我们正身处其中的疯狂时刻,尤其是对工程师来说。我们已经从“你要亲手写下每一行代码”,变成了“AI 写你所有的代码”。我真的想不出还有哪个职业,在短短几年内发生了这么剧烈、而且完全出乎预料的变化。一个工程师整个职业生命周期里的“工作内容”,在这两年里被彻底重塑了。那你怎么想象,接下来一两年里,软件工程师这个角色会变成什么样?这个“工作本身”会是什么?

 

Sherwin Wu:说实话,看到这一切真的非常酷。这种兴奋感的一部分,就来自于:这个职业在未来一到两年里,很可能还会发生一次非常显著的变化。

 

但我们现在也还在摸索阶段。对很多工程师来说,这正是一个非常罕见的窗口期——在接下来的 12 到 24 个月里,我们几乎可以亲手定义标准,定义“工程师应该是什么样”。

 

目前大家常说的一种趋势是:IC 工程师正在变成技术负责人,基本就像是管理者一样。他们在管理一整支又一整支的 agent“舰队”。

 

我团队里的很多工程师,实际上同时在拉着10 到 20 条并行的线程。当然不是同时跑着 10 到 20 个 Codex 任务,但确实是在处理大量并行的工作:不断查看进度、调整方向、给 agent 和 Codex 提反馈。他们的工作,已经从“写代码”,变成了几乎是在“管理”。

 

如果要给我一个对未来一到两年的直觉隐喻,我常会想起大学时读过的一本编程教材——《Structure and Interpretation of Computer Programs》(SICP)。这本书当年在 MIT 非常流行,长期作为入门编程课教材,在程序员圈里也有点“邪典经典”的地位。它用 Scheme 来教你编程,引你进入函数式的世界,读起来很开脑洞。

 

但真正让我记住的,是它开篇对“编程”这件事的比喻:把软件工程说成一种巫术。书里讲,软件工程师像巫师,编程语言像咒语——你念出咒语,咒语就会被释放出去,替你完成事情。难点不在于你能不能念,而在于:你要念什么样的咒语,程序才会按你想要的方式运行。SICP 写于 1980 年,这个隐喻却一直有效。我甚至觉得,它正在被今天的现实真正“兑现”。

 

从这个角度看,无论是 vibe coding,还是未来的软件工程,都像是这条演进路线的自然延伸。编程语言本来就是咒语,只不过咒语在不断进化,让我们越来越容易让计算机做我们想做的事。而这一波 AI,很可能就是下一站。它把“咒语”这件事推到了极致:你几乎可以直接告诉 Codex、告诉 Cursor 你想要什么,它就会替你把事情做出来。

 

我尤其喜欢“巫师”这个隐喻,因为眼下的状态越来越像《幻想曲》里的《魔法师学徒》。你戴上魔法帽开始施法,力量强得离谱,但前提是:你得清楚自己在做什么。《魔法师学徒》里,米老鼠让扫帚去干活,自己转身就睡,结果扫帚越干越多、洪水失控、屋子直接被淹——这几乎就是 vibe coding 的极限形态:愿望实现得太快,失控也来得太快。

 

所以,当我看到工程师同时跑着 20 个 Codex 线程时,我想到的并不是“爽”,而是这背后其实需要技能、资历和大量判断力。你不能彻底放手不管,也不能假装一切都会自动变好。

 

但它的杠杆率也确实高得惊人。一个真正把这些工具用顺了的资深工程师,现在能完成过去根本不可能完成的工作量。这也是它迷人的地方:我们真的开始有一种很具体的感觉——自己像个巫师在施法,而软件在替我们跑腿、替我们干活。那种“魔法感”,前所未有地接近现实。

 

主持人:我这里有两个线索想继续追问。其中一个是,我最近越来越多地听到一种反馈:当智能体不按预期工作时,人会产生很强的压力。你一下子发出去一堆 Codex agent,然后就得时刻盯着它们——“这个不跑了”“那个卡住了”,感觉时间在被白白浪费。你自己有这种感受吗?你在团队里也看到这种情况吗?

 

Sherwin:有的,有的,这种情况一直都在发生。说实话,我反而觉得这是当下最有意思、也最关键的地方。因为模型并不完美,这些工具也不完美,我们其实还在摸索:到底该怎么和 Codex、和这些 AI 智能体协作,才能把事情真正做成。这类问题在我们内部经常出现。

 

我们有一支特别有意思的团队,正在 OpenAI 内部做一个实验:他们维护的是一个100% 由 Codex 编写的代码库。一般情况下,你可能会让 AI 先写一版代码,然后再自己重写一部分、检查一遍、修修补补;但这个团队是完全 “Codex 化”,几乎是彻底 lean in。

 

小编注:Sherwin Wu 提到的这次实验,OpenAI 已经写成博客公开了:https://openai.com/index/harness-engineering/。文章记录了一个“0 人手写代码”的软件工程实验:团队用 5 个月从空 Git 仓库起步,做出一个真实可用的内部产品——能上线部署、会出故障也会被修复,且已经被数百名内部用户使用(包括每天都在用的重度用户)。但从头到尾 没有任何人工直接写代码:应用逻辑、测试、CI 配置、文档、可观测性、内部工具,全部由 Codex(Codex CLI + GPT-5)生成。最终在仅 3 名工程师驱动下,累计合并约 1500 个 PR、产出接近 100 万行代码;他们估算整体交付速度约为传统手写的 1/10。

 

于是他们就会遇到你刚才说的那种问题:比如我想把某个功能做出来,但怎么都让 agent 做不对。通常这时候,人是有“逃生出口”的——你可以说“算了,我自己撸袖子来”,不用 Codex,改用 tab complete、Cursor 之类的工具直接手写。但这个实验团队没有这个出口,这是实验设计的一部分。

 

所以问题就变成了:我到底要怎么做,才能让这个 agent 把事做好?其中一个我们反复看到的现象是——不知道你有没有类似感受,但我们这边非常明显——很多时候,编码智能体做不好,并不是“它不行”,而是上下文出了问题。要么是你给的信息不够明确,要么是 agent 根本拿不到完成这件事所需要的信息。

 

一旦你意识到这一点,解决方式就会发生变化:你不再是去“调 prompt”,而是开始补文档、补结构,想办法绕过这个限制。说白了,就是把你脑子里的“隐性经验”“团队共识”“默认做法”,想办法编码进代码库里——可能是代码注释,可能是代码结构,也可能是一些 Markdown 文档、skills 文件,或者仓库里的其他辅助资源。目标只有一个:让模型在仓库里就能读到它完成任务所需要的一切信息。

 

这个团队还有很多其他收获,我觉得都非常值得展开聊。但至少有一点已经很清楚了:刻意拿掉“不用 AI 的退路”,反而逼着他们看清楚——如果我们真的要全面拥抱 agent,这些问题是迟早都要解决的。

 

把工程师对 PR 的注意力,从 100% 降到 30%

 

主持人:我们刚才聊到,使用 AI 的人疯狂地在发 PR,PR 数量明显变多了。显然,代码评审现在会变成更大的挑战。你们团队有没有摸索出什么办法,让 code review 也能更快、更规模化,而不是把大家变成“每天坐在那里审 PR 的苦力”?

 

Sherwin Wu:有的。首先,现在Codex 会评审我们 100% 的 PR

 

我觉得这里发生了一件特别有意思的事:我们最先交给模型去做的,往往就是那些最烦人、最无聊的软件工程部分。也正因如此,现在写软件反而更有趣了——我们可以把更多时间花在真正有意思的事情上。

 

就我个人而言,我以前特别讨厌 code review,真的属于我最不喜欢的工作之一。我记得我大学毕业后的第一份工作是在 Quora。我当时负责 Newsfeed,所以 Newsfeed 那块代码基本归我“所有”,我也就成了 Newsfeed 的主要 reviewer。那段代码是整个系统里最核心的一块,几乎所有人都会动它。

 

结果就是,我每天早上一登录,就看到20 到 30 个 code review,我会直接心里一沉:“天啊,我得把这些全过一遍。”我经常会拖延,然后待审的 PR 会涨到50 个。review 的量非常大。

 

Codex 在 code review 这件事上真的很强。我们观察到一个现象:5.2(GPT-5.2 这一代)尤其擅长审代码,尤其是你能把它引导到正确方向的时候。

 

所以我们这里虽然 PR 的量确实变多了,但 Codex 会先过一遍所有 PR,这会让 code review 从原来那种10~15 分钟的任务,变成很多时候2~3 分钟就能搞定的任务,因为它已经提前把一堆建议“烤”在里面了。

 

很多时候,特别是一些小 PR,你甚至不一定需要再拉人来 review。我们在某种程度上会信任 Codex。因为 code review 的核心价值就是“第二双眼睛”帮你确认你没有做蠢事——而现在 Codex 已经是一双相当聪明的第二双眼睛了,所以我们在这点上非常用力地 lean in。

 

另外,我们内部现在 CI 流程、以及 push 之后到部署的那套流程,也已经大量通过 Codex 自动化了。

 

如果你问很多工程师最烦的是什么,往往不是写代码本身,而是:你写完一段漂亮的代码之后,怎么把它送进生产环境。你得跑一堆测试,要处理 lint error,要走 code review……这里面有很多流程性的工作。

 

这些东西其实都很适合让 Codex 来做,所以我们内部也做了一些工具去自动化这些步骤,比如自动处理 lint:如果出现 lint error,Codex 通常很容易就能修掉,它可以直接 patch,然后重启 CI 流程。

 

我们总体在做的事情,就是尽可能把工程师需要投入的“人肉操作”压缩到最少。副作用(其实是好处)就是:大家现在可以合并更多 PR、发布更多代码。

 

主持人:Codex 在写代码,Codex 也在 review 自己写的代码。我很好奇,你们会不会考虑用别的模型来 review 你们模型的工作?这是不是一个方向?还是说现在这样已经够好了,不需要其他东西?

 

Sherwin Wu:我会说,这里确实存在一种“循环”的风险。回到《魔法师学徒》的隐喻,你得确保自己没有让扫帚失控、满屋乱跑。

 

所以我们在“哪些 PR 可以完全由 Codex review”这件事上,其实是很谨慎的。大多数人当然还是会自己看一眼自己的 PR,并不是说人类 review 就彻底归零了。

 

更准确的描述是:把一个人对 PR 的注意力从100% 降到 30%。这样就能让事情更顺畅地推进。

 

至于“多个模型”的问题,我们内部当然会测试很多模型,所以我们手上有大量不同的版本。但我们相对少用外部模型——因为我们认为“吃自己的狗粮”很重要,要用自家的模型去做实际工作,从而获得真实反馈。

 

当然,你也可以用一些内部的不同变体模型来获得另一种视角,我们发现这种方式也挺有效。

 

主持人:我再确认一下我对 OpenAI 当下“AI + 代码”现状的理解,确认完我想切换到另一个话题。你是说,现在 OpenAI 全部的代码,100% 都是 Codex 写的?这样表述对吗?

 

Sherwin Wu:我不会直接说“今天在生产环境里跑的所有代码都是 AI 写的”。这句话我不会这么下结论,因为很难在归因上做得那么精确。

 

但可以肯定的是:几乎每一个工程师,在所有任务中都非常重度地使用 Codex。如果你让我估一个大概的比例,我会说:现在绝大多数代码,很可能最初的作者就是 AI。

 

AI 时代,管理者的杠杆在谁身上?

主持人:大家讨论很多的是 IC(个人贡献者)工程师的角色变化,但关于“管理者”的变化讨论得少得多,尤其是工程经理这种角色。AI 崛起之后,你作为一个 manager 的生活发生了什么变化?你觉得未来 manager 的角色会是什么?

 

Sherwin Wu:它的变化确实没有工程师那么大。至少现在还没有“专门给管理者用的 Codex”。不过,我确实会用 Codex 去处理一些我做的“更管理向”的工作。我会说,现在变化还没有那么剧烈,但我能看到一些趋势。你把这些趋势推演下去,就能大概看到很多事情会往哪里走。

 

一个越来越明显的点是:Codex 会让顶尖表现者变得更高效得多。我觉得这可能也是 AI 在更大范围内的普遍规律:那些真正愿意深度拥抱、那些主观能动性很强的人,或者能把这些工具用到很溜的人,会把自己“超级加速”。

 

我现在也能明显感觉到:团队里顶尖表现者会变得更多产,于是团队生产力会出现更大的分化和跨度。

 

我一直以来的一个管理理念是:我会把大部分时间花在顶尖表现者身上——确保他们不卡住、确保他们开心、确保他们觉得自己在高效推进、也觉得自己的声音被听见。

 

我觉得在 AI 时代,这件事会变得更重要,因为顶尖表现者会用这些工具跑得更快、更猛。

 

比如之前提到的那个团队:维护一个100% 由 Codex 生成的代码库。让他们放开去做、看看会发生什么,这件事实际上回报非常大。所以我看到的一个趋势是:对于管理者来说,未来可能会更频繁地、更多地把时间投入在顶尖表现者身上。

 

另一个趋势是:管理者可用的 AI 工具,会让管理者的杠杆率变高。不是写代码层面的,而是像“带组织知识的 ChatGPT”这种——它能帮你做研究、理解组织上下文。举个很现实的例子:我们现在在做绩效评估。你可以很容易地用一个接了内部知识的 ChatGPT——它连着 GitHub、Notion 文档、Google Docs——让它快速形成对某个人过去 12 个月做了什么的完整理解,然后给你写一份小型“深度研究报告”。

 

我的直觉是,在这种世界里,管理者可以管理更大的团队。就像工程师现在在管理 20~30 个 Codex 线程一样,这些工具也会让“人管人”的管理变得更高杠杆。

 

现在工程团队里所谓的最佳实践,一个 manager 通常带6~8 个人。但我觉得未来可能会变。

 

你在客服、运营这些非工程领域已经能看到类似现象:过去支持团队规模会受限,但当你能把更多工作交给 agent,你就能做更多事,也能管理更多人。

 

我觉得 people management 在科技公司也可能发生类似变化。我们已经在看到一些团队:有些 EM 管的人已经不少了,但他们依然能管理得很好,因为工具让他们能更高杠杆地理解团队在做什么、理解组织上下文,并以此运转。

 

主持人:我很喜欢你这里的建议:你一直以来都会倾向于把更多时间投在顶尖表现者身上,帮他们扫清障碍,确保他们开心。Mark Andreessen (著名风投创始人)最近也上了这个播客,他的说法是:AI 会让好的人更好,让伟大的人变得卓越。

 

Sherwin Wu:对,对。你说的这个点就是:在未来,这件事可能要做得更多、更极端一点——花更多时间在团队里最强的人身上,确保他们有一切需要的资源。

 

我现在的一个很好的例子是:内部有一小群工程师,真的非常“Codex 化”,他们在非常认真地琢磨“和这个模型交互的最佳实践到底是什么”。这是一件极其高杠杆的事情。

 

作为 manager,我就是直接说:你们去探索。无论你们总结出什么最佳实践,我们都必须把它分享给整个组织。我们会做各种知识分享 session,会把文档、最佳实践到处同步。

 

这种事情会把所有人一起往上抬。我也把它看作是这种趋势的又一个例子:顶尖表现者会变得更卓越。

 

软件与创业,正在进入一个新阶段

 

主持人:人们会有一种感觉:这件事很大,AI 正在改变这个世界,“一人十亿美元公司”这个概念正在改变很多东西,它会是一件大事。你觉得大家还没有真正把哪些变化算进去?也就是,未来会怎么走,有什么你认为我们还没意识到、但其实很关键的例子?

 

Sherwin Wu:这波 AI 浪潮里,我最喜欢的一个说法,就是“一人十亿美元公司”。我记得好像是 Sam 最早说出这个概念的(至少是最早把它讲出来的人之一)。它真的很耐人寻味:如果一个人的杠杆变得足够高,某个时间点上,确实可能出现一个“一人十亿美元公司”。

 

这件事本身当然很酷,但我觉得大家还没有真正把它的二阶、三阶影响算进去。

 

因为“一人十亿美元公司”背后隐含的意思是:一个人借助这些工具,可以拥有更强的主观能动性、更高的杠杆,于是他很容易就能把一个公司需要做的所有事情都搞定,最终做出一个价值十亿美元的东西。但这还只是其中一个层面。它还有其他含义。

 

其中一个二阶影响是:如果一个人都能做到“一人十亿美元公司”,那也就意味着——创业这件事整体会变得容易得多。我其实认为,这会引发一个巨大的“创业潮”,尤其是那种偏 SMB(中小企业)风格的小型创业潮:几乎任何人都可以为任何需求做软件。

 

你现在已经能在 AI 创业圈里看到一点苗头:软件正在变得更“垂直化”。也就是,为某个特定行业/垂直领域做一个 AI 工具往往非常有效,因为你能更深地理解那个领域的实际场景和用例。

如果把 AI 的演进继续往后推,我看不出有什么理由不会出现 100 倍数量的这类创业公司。

 

所以我设想的一个世界是:为了支撑一个“一人十亿美元公司”,可能会出现上百家小型创业公司,专门做高度定制、做得非常贴合需求的“bespoke software”,来为这些公司提供支持。

 

这会把我们带进一个可能非常有意思的阶段:我们可能真的会进入一个B2B SaaS 的黄金时代,甚至更广义地说,是软件与创业的黄金时代。因为随着写软件越来越容易、经营公司越来越容易,你最终看到的,很可能不是“只有一个一人独角兽”,而是——也许会有一个“一人十亿美元公司”,但同时还会有一百家一亿美元公司,还会有几万家一千万美元公司

 

而对个人来说,一千万美元的生意其实已经非常好了——那基本就意味着“这辈子稳了”。所以我觉得我们可能会在这个方向上看到一次爆炸式增长,而很多人还没把这一点真正算进去。

 

再往下一层——算是三阶影响——当然越往远推不确定性越大,但如果我们真的走向这样一个世界:到处都是这种“微型公司”,做的软件可能只服务一两个人,公司也就是一两个人在拥有、在运营。

 

那整个创业生态会变,VC 生态也会变。

 

我们可能会进入一个世界:只有少数几个超级大玩家提供平台,然后平台上托举、支撑着大量小公司。

 

但与此同时,那种真正符合“风险投资尺度”的项目——能把你的投资翻 100 倍、1000 倍的项目——可能反而会变少。因为更多出现的会是大量 1000 万到 5000 万美元的公司:它们对个体来说非常棒,但对 VC 来说未必是理想的回报结构。

 

这些公司会非常适合那些主观能动性极强的人——他们深度拥抱 AI,为自己打造业务。

 

主持人:我太喜欢我们一路聊到第几阶影响了。我现在想听第四阶影响了,Sherwin——开玩笑的。

 

Sherwin Wu:我真的不行,第四阶太“巨脑”了,我想不了那么远。

 

主持人:这就像《盗梦空间》一样,你每往下一层,时间就变慢,事情就更复杂。不过说回“一人十亿美元公司”,我确实经常想这个问题。因为我做的事情不可能变成十亿美元公司,它完全不符合 VC 尺度,也不算特别高杠杆。

 

但我会想到一个现实问题:我每天收到的支持工单实在太多了,而且经常是一些特别离谱、特别琐碎的事。光是“支持成本”这一块,就让我很难想象一个人怎么能撑起十亿美元规模。所以我对“一人十亿美元公司”这件事其实是偏谨慎、甚至偏悲观的。我想分享这个观点,核心就是:支持成本太难规模化。就算 AI 能帮你一部分,在十亿美元规模下,除非你的 ACV 很高、客户很少,否则光是处理支持和各种人类沟通,就很难扩张。

 

在我自己的经验里,很多用户其实是能自己解决问题的,但他们还是会选择给支持邮箱发一封邮件问一个小问题。处理这些事非常难规模化。所以除非你雇了一堆承包商——但那还算“一人公司”吗?——否则我觉得要把公司做大到十亿美元,同时又没有人帮你处理至少支持工作,这几乎不可能。AI 也只能帮到一定程度。

 

Sherwin Wu:我同意你说的这个问题。只不过我对“它会怎么发生”的看法稍微不一样。

我甚至觉得,Lenny,你的播客未来可能会变成一个十亿美元级别的生意。但它发生的方式可能不是:你一个人去派遣 AI,一张一张处理支持工单、修问题、回邮件。

 

更可能发生的是:会出现一大堆其他创业公司,专门做非常贴合你需求的软件,而且是高度定制、极其垂直的那种。比如,可能会有 10 家、20 家创业公司,专门为播客、newsletter 这类业务做支持软件。它们自己可能就是“一人公司”,不一定要做得很大。

 

因为在这个世界里,做出一个产品会变得非常容易。他们可以把产品做得很贴合、很独特、真的对你有用,然后你会愿意为它付费——作为那个“高杠杆的一人公司”,你买这些工具来外包掉那些你不想做的事情。

 

主持人:我会买的,我真的会买。

 

Sherwin Wu:对,这里面有一个关键问题就是:哪些你要 in-house,哪些你要外包出去。

我觉得可能发生的事是:因为写软件、做产品的成本在极速坍塌,你会把更多东西外包出去。于是你反而能把公司规模压得更小。

 

这就是我觉得可能出现的世界。当然这里仍然有很高的不确定性,但最终形态可能仍然是:由一个人驱动的、极高杠杆的公司,真的有机会做到十亿美元规模。

 

主持人:我能理解。我还会想到 Peter(OpenClaw 那位),他现在被各种需求、邮件、私信、DM、PR 完全淹没。而且他甚至还没靠这个赚到钱。我真的很难想象他现在的生活是什么样——一定非常疯狂。这大概就像你们当初发布 ChatGPT 后的那几个月那种疯狂,但他是一个人扛着。也许第四阶影响就是:分发/触达(distribution)会越来越重要。因为有太多东西在争夺你的注意力。于是拥有受众、拥有平台的人会越来越值钱——这倒是挺有意思的。

 

主持人:好,我其实想回到你刚才说的管理话题。我真的很喜欢你那个洞见:你说把更多时间花在顶尖表现者身上,对你来说非常有效。你现在在带的团队是在做平台,而这个平台基本驱动着整个 AI 经济——几乎每个 AI 创业公司都在用你们的 API。显然你做得非常好。那除了这一条,你还有哪些核心的管理经验?你觉得哪些东西对你作为一个工程团队、以及人的管理者来说,特别重要,也构成了你成功的关键?

 

Sherwin Wu:我学到的很多东西,我不确定是不是特别“OpenAI API 团队专属”,或者是不是只适用于我们的一些 enterprise 产品。

 

我的管理哲学确实在变化,但整体来说,它更多是保持一致,而不是完全翻新。其中一个原则就是我之前说的那条:把大量时间花在顶尖表现者身上。更具体一点说,我会把超过 50% 的时间花在团队里最强的那部分人身上,比如前 10%,尽最大努力去赋能他们。

 

我常用一个隐喻来理解这个问题:把软件工程师看作“外科医生”。这个隐喻来自一本很老的书《The Mythical Man-Month》。这本书写于 70 年代左右,它里面其实是在“预测未来”。书里描述了一种可能的世界:软件工程会走向一个模式——工程师像外科手术室里那位主刀医生,手术室里只有一个人真正动刀,其余的人都围绕他提供支持:护士、住院医、fellow……主刀说“我要手术刀”,就有人把手术刀递上去;主刀说“我要这个工具”,就有人把设备推过来。所有人都在支持那一个人。

 

《人月神话》预测软件工程会往这个方向走。我不觉得现实完全是这样——软件工程仍然更协作,不是只有一个人干活。

 

但我一直很喜欢这个比喻,也一直努力把它用在我的管理方式里。也就是说:软件工程不等同于手术,但我希望我对团队成员的支持方式,能让他们感觉自己像那位“主刀医生”——他们在推进最关键的工作,而我作为 manager 的职责,就是确保他们手里有一支“支持团队”,确保他们需要的东西随时可用。哪怕实际上所谓的支持团队只有我一个人,我也希望做到这种效果。

 

我常举的例子就是:提前看见拐角处的阻碍,并把人从组织流程里解卡出来,这件事极其有价值。

 

而且在 AI 时代,这件事更重要。因为当工程师能一口气刷很多 PR、连续高频交付时,真正限制进展与交付速度的,往往就变成了组织层面的阻碍、流程层面的阻碍。

 

如果你作为 manager 能够“看得更远一步”、提前准备好他们需要的资源——就像主刀医生需要手术刀,而你已经把手术刀准备好了——那就是最理想的状态。这就是我理解的管理方式,尤其是工程管理。这个隐喻一直跟着我,也基本贯穿了我的职业生涯。

 

主持人:我太喜欢这个比喻了。我甚至会想,AI 会不会也能帮到这件事:帮你“看拐角”。比如预测:这个工程师接下来会被哪个决策卡住,我们得提前把它解决掉。

 

Sherwin Wu:我还没试过,但我现在突然很好奇:如果我问一个接了公司内部知识的 ChatGPT——比如让它去扫 Notion 文档,看看 Slack 里哪里提过——我直接问它:“我团队现在有哪些活跃的 blocker?我能做什么来帮他们?”这个思路我之前真的没想到,但你说得对,你刚刚给了我一个洞见。

 

主持人:而且更进一步,甚至可以问:你预判接下来几个月这个工程师、这个团队会被什么卡住?你刚才在聊二阶三阶影响,现在我让模型帮你做二阶三阶影响:提前预判下个月的 blocker,提前把它解决掉。

 

Sherwin Wu:对,对。我们这里可能真的挖到一个好点子了。

为什么这么多 AI 部署,最后成了负 ROI?

 

主持人:好,我想切到你们做的 API 和平台。你们会和很多公司打交道:它们在接入你们的 API、用你们的平台、基于你们的工具去做产品。你之前跟我说,你观察到很多公司的 AI 部署其实 ROI 是负的。我觉得这也是很多人读新闻、自己体感里隐约相信的结论,但你说你真的在一线看到它发生,这很有意思。到底怎么回事?他们哪里做错了?现在 AI 部署与 ROI 的现实状况是什么?

 

Sherwin Wu:我先澄清一下:我并不是在“显式地”看到那种可量化的 ROI 数据——这件事其实很难测。但仅凭我观察到的一些公司“上 AI”的方式,我不会惊讶如果不少部署最后落成了负 ROI。与此同时我也注意到,在科技圈外——比如美国很多非技术行业的人群里——存在一种很普遍的情绪:AI 是被强塞进来的。而这种抵触感,本身很可能就是“负 ROI 部署”的外在症状之一。

 

我看到的典型问题大概有几个。

 

首先,我总会回到一个老问题:硅谷经常忘了自己活在泡沫里。Twitter 是泡沫——抱歉,现在叫 X——硅谷是泡沫,软件工程也是泡沫。世界上绝大多数人、美国绝大多数人,都不是软件工程师。他们没有那么 “AI pilled”(被 AI 深度洗礼),也不会追踪每一次模型发布。很多人其实根本不知道怎么用这项技术,甚至对它怎么工作都没什么概念。

 

你看我们在 OpenAI 内部,会聊很多 Codex 的 best practices,甚至有一群人专门研究怎么把 Codex 用到最有效。X 上那些经常发帖的人,也几乎都是 AI 工具的疯狂 power user:skills、agents.md、MCP……这些他们都玩得很溜。

 

但当我去和很多公司聊,尤其是和真正要把工具用到日常工作的一线员工聊时,你会发现他们的需求非常基础,而他们对这项技术的理解也很有限。他们问的问题都很简单,离“把工具推到极限”还差得很远。

 

这也引出了我觉得更理想的 AI 部署方式应该是什么样——也是我们在 OpenAI 内部大体上是怎么运转的:那些“做得很顺”的公司,往往同时具备两件事。

 

第一,是自上而下的 buy-in。高层明确表态:我们要变成 AI-first 公司。于是资源会投入、工具会采购、组织会给到明确支持。

 

但第二同样关键:必须有自下而上的 adoption 和 buy-in。也就是那些真正干活的一线员工,要对这项技术感到兴奋,愿意学习、愿意布道、愿意总结 best practice,愿意在组织里做知识分享。

 

我们在 OpenAI 内部也经历过类似过程。OpenAI 一直希望自己以 AI 为中心,但真正让这件事“起飞”的,是 Codex 这类工具出现之后——因为员工终于能把它直接用到具体工作里。

 

你之所以需要自下而上的推动,是因为每个人的工作都不一样、非常具体。软件工程不等于财务,不等于运营,也不等于市场销售。落地到工作层面,会有大量“最后一公里”的细节,必须靠一线的人去试、去打磨、去改 workflow。

 

而很多 AI 部署之所以失败,恰恰是因为缺少自下而上的 adoption:它更像一条来自高层的命令,过于 top-down,又和真实工作怎么做脱节。结果就是,面对一整个庞大的员工群体,他们并不真正理解这项技术,只知道“我应该用它”,甚至绩效里也写着“你得用 AI 提升生产力”,但没人告诉他们具体怎么用。

 

他们环顾四周,发现也没有别人真的在用:没人可学、没路径可抄,于是就卡在原地。

 

所以我给那些想推进 AI 的公司的建议是:找到——甚至专门配备——一个全职的小团队,作为内部的 tiger team。这支队伍负责把能力摸透、落到具体 workflow 上,做持续的知识分享,在组织内部制造兴奋感,让更多人愿意尝试。没有这种机制,AI 真的很难被“捡起来用”。

 

主持人:那你会把谁放进这个 tiger team?它应该是工程师主导吗?还是你觉得更像一个跨职能团队?

 

Sherwin Wu:这个问题很有意思。因为现实是:很多公司根本没有软件工程师。所以我看到更常见的一种模式是——tiger team 的核心成员,往往来自“软件工程相邻”的岗位:技术向,但不一定是工程师。

 

这些人反而最容易先兴奋起来。比如支持团队或运营负责人:他不写代码,但特别爱折腾工具,可能还是个 Excel 高手、流程高手。你会发现,这类人一旦接触到 AI 工具,往往会“亮起来”——上手快、动力足,也愿意主动把用法总结出来。

 

所以这类 tiger team 的典型画像是:技术相邻、编码相邻,整体技术能力不弱,愿意试、愿意学、愿意带人。你通常可以以他们为核心搭起一个小团队。

 

当然,工程师加入会很有帮助,他们能更快理解底层机制、也更擅长做系统化落地。但很多公司没有这个条件:工程师是稀缺资源,难招也昂贵。于是很多时候,真正把 AI 推起来的,反而是这些“非工程师但技术向”的角色。

 

主持人:我听下来,你说的反模式就是:自上而下。比如 CEO 和高管团队拍板:我们要 AI-first,我们要全面拥抱 AI。每个人都会被考核:你用 AI 工具提升了多少生产力。但如果只有自上而下,没有建立一个自下而上“传播与带动”的团队,那这事就做不起来。

 

Sherwin Wu:对,完全是这样。核心建议就是:找到那些最兴奋的人。与其把他们分散在组织各处,不如把他们聚起来,组成一个小的“AI 传教士团队”。他们去探索怎么用、怎么落地,然后把用法扩散到整个组织。你这么复述我,我突然意识到:这也能和我自己的管理哲学对上。换句话说:找到 AI 采用上的高绩效者,然后赋能他们——让他们办 hackathon,让他们做分享会,让他们做知识分享,在内部种下兴奋感的种子。

从向量库到 skills:脚手架正在一层层被吃掉

 

主持人:我有几个“热观点”想听你展开一下。有一个我看到你经常提到:你说在 AI 领域,“去跟客户聊、听客户的话”不一定总是对的策略,甚至经常会把你带偏。

 

Sherwin Wu:我不确定这算不算多“热”。我想说的也不是“不该跟客户聊”——当然应该聊,而且非常有价值。

 

我更想强调的是:AI 这个领域(尤其是我过去三年在 API 这一侧看到的变化)迭代速度实在太快了。模型和整个生态会不断自我颠覆,特别是在工具链、脚手架这一层。

 

我这周刚看到一句话,来自 X 上的一篇文章,作者是 Nicholas——一家叫 Finol 的创业公司创始人。他分享了不少在金融服务场景做 AI agent 的实战经验(我记得他之前也在一家叫 FinTool 的公司做过类似方向)。他有句话我特别喜欢:“模型会把你的脚手架当早餐吃掉。”

 

你回看 2022 年 ChatGPT 刚发布的时候,模型还很粗糙。于是开发者工具圈冒出了大量“脚手架式产品”,用来约束、引导模型按你期望的方式工作:各种 agent 框架、向量数据库……那时候向量库尤其火,周边还长出了一大圈配套工具。

 

但这几年一路看下来,模型变得太快、也变得太强,结果它真的会把其中一部分脚手架“吃掉”。我觉得这件事今天仍然成立。Nicholas 那篇文章提到的“当前时髦脚手架”,是基于 skills 文件的上下文管理。你完全可以想象一个世界:未来某个时间点,这套东西也不再有用,因为模型可以自己管理这些上下文;或者整个范式又会切换到别的方向,不再需要这种文件式的 skills。

 

你已经亲眼看过这种事发生:agent 框架现在没那么有用了;2023 年一度我们以为向量库会是把组织知识引入模型的“主路径”——你需要把所有语料 embedding、做向量检索,还要做大量优化,保证在正确时间取到正确的信息。

 

那一整套,本质上都是脚手架,因为模型当时还不够强。而当模型变强后,更好的方式往往是:把很多逻辑拿掉,信任模型本身,给它一组用于搜索的工具就行。

 

这个搜索不一定非得是向量库,它可以接任何形式的搜索——甚至可以只是文件系统里的文件,比如 skills、agents.md 这种,来引导它。

 

当然,向量库仍然有它的位置,很多公司还在用。但“围绕向量库搭建整个脚手架生态、把它当成唯一答案”的那种假设,已经发生了很大变化。

 

所以回到“客户反馈”:你不一定总要听客户的,因为这个领域变化太快。很多客户在某个时点上其实处在一个“局部最优”里。

 

如果你只盲听客户,他们会说:我想要更好的向量库,我想要更好的 agent 框架……但如果你只沿着这条路走,你可能会做出一个“局部最优”的产品;而当模型能力再上一个台阶时,我们往往需要重新发明、重新思考:什么才是正确的抽象、正确的工具、正确的框架。而更有趣、也更令人兴奋、同时也有点让人抓狂的是:这是一个移动靶。

 

你今天认为“正确”的工具和框架组合,未来很可能还会继续演化、继续大改,随着模型越来越聪明、越来越强。这就是在这个领域里做产品的本质。这也是它令人兴奋的地方。但它也意味着:你和客户聊的时候,你需要在“他们此刻想要什么”与“你认为模型将往哪里走、未来一到两年会如何演化”之间做平衡。

 

主持人:这听起来很像所谓的 “bitter lesson”:在 AI/ML 领域里一个重要教训就是——你加得越多复杂逻辑、越多手工设计,反而越限制它规模化成长。你应该尽可能拿掉这些东西,让它计算、让它自己变强。

 

Sherwin Wu:对,这里确实存在一个“把 bitter lesson 应用到 AI 产品构建”的版本。我们曾经试图在模型周围架构很多东西,结果模型能力提升之后,它会把这些东西直接吃掉。说实话,OpenAI 的 API 团队在某些时候也犯过这个错:我们走过一些不该走的弯路。但模型还是会变强,我们也只能在日常中不断学习这条 bitter lesson。

 

主持人:那对那些在用 API 构建产品、构建 agent 的人来说,关键 takeaway 是什么?因为他们现在还是得围绕现阶段能力搭一些东西。你会给什么建议?

 

Sherwin Wu:我一直给大家的总体建议——到今天我仍然觉得成立——是:为模型将要去的地方而构建,而不是只为模型今天能做到什么而构建。

 

因为目标本质上是个移动靶。我见过不少做得特别好的创业公司,会围绕一种“理想能力”来设计产品:这种能力在当下也许只实现了 80%。所以他们的产品现在当然“能用”,但总像差最后一口气。

 

可一旦模型能力再往前迈一步,体验会突然“咔哒”一下被解锁:原本差的那一口气补上了,产品整体就从“勉强可用”变成“非常惊艳”。

 

比如某个关键能力在 o3 时代还不够稳,但到了 5.1、5.2 就突然可用了——他们之所以能吃到这波红利,是因为在产品设计时就把“模型必然会变强”当成前提写进了路线图。最终你会得到一种体验:它远远好过那种把模型能力当成静态、围着现状去打补丁的做法。

 

所以我的建议很简单:按模型未来的走向来设计。你可能需要稍微等一等,但模型变强的速度太快了,很多时候你并不需要等太久。

 

主持人:顺着这个话题,你能分享一下未来 6~12 个月 API 会往哪走?平台会往哪走?模型会往哪走?我知道这里很多内容可能是机密,但你可以分享多少就分享多少——你最兴奋的、你觉得大家应该开始准备的。

 

Sherwin Wu:一个最明显的方向是:模型能连续、稳定完成任务的时长正在变长。

 

有一个我觉得很有参考价值的基准指标(他提到的meter benchmark),用来跟踪在软件工程任务里,模型能稳定跑多久——比如在50% 成功率下能撑多长时间、在80% 成功率下又能做到多久。

 

我印象里,当前前沿模型大概是:在 50% 成功率上已经能完成“多小时级”的任务;但如果把门槛提高到 80% 成功率,可能还停留在“接近 1 小时、但还不到”的水平。这个基准指标最让人清醒的地方在于:它把历代模型都放在同一条时间线上,你能非常直观地看到趋势是怎么一步步往前推的。

 

让我兴奋的是:今天很多产品,其实还在围绕“模型能跑几分钟”来做优化。哪怕是 Codex 这种编码工具,你也会发现它更偏交互式、更像一个随叫随到的协作伙伴——它最擅长、也被优化得最充分的,往往还是十分钟左右的任务。

 

当然,我也见过有人把 Codex 推到极限,用它去跑多小时级的任务,但那仍然是少数案例,并不是常态。

 

如果沿着这个趋势继续往前推,我认为在未来 12~18 个月,我们会看到模型能更稳定、更连贯地完成“多小时任务”。甚至可能出现这样的阶段:你把一个大约 6 小时量级的任务交给它,让它自己先跑一段时间,再回来给你结果和进度。

 

一旦能力到了这个级别,围绕它构建的产品形态会完全不一样。你仍然需要给模型反馈,也肯定不希望它毫无约束地跑上一整天——也许有人会想这么做,但多数场景下不会。而当任务时长真正拉长,模型能覆盖的工作范围会一下子变得更大,能做的事情的“宇宙”也会随之扩张。这也是我最兴奋的一点。

 

另一个我觉得未来 12~18 个月会很酷的方向,是多模态模型的进步。更具体地说,我主要指音频

 

现在模型在音频上已经挺不错了,但我认为未来 6~12 个月,它会变得更强——尤其是那种原生多模态、speech-to-speech 的模型。同时音频侧可能还会有一些新的模型结构、架构方向出现。而音频在企业与商业场景里,仍然是一个被严重低估的领域:大家都在聊 coding,都在聊 text,但我们现在就是用音频在对话。世界上很多业务,就是靠“说话”完成的;很多服务与运营,也是靠沟通完成的。

 

所以我觉得未来 12~18 个月,音频会变得非常令人兴奋,我们会看到更多“被解锁”的能力。

 

主持人:我快速总结一下:你认为 agent 和 AI 工具会越来越能跑更长时间的任务,这个趋势会持续增强;然后音频与语音会变得更重要,更原生、更核心、体验更好。

主持人:回到你刚才的“热观点”。我还看到你经常讲另一个:你对“业务流程自动化”这个方向非常看多,觉得它会是 AI 世界里巨大的机会。聊聊这个?

 

Sherwin Wu:对,这其实又回到我前面说过的那件事:我们在硅谷生活在一个泡沫里。我们熟悉的工作形态——软件工程、产品管理、做产品——跟支撑整个经济运转的大量工作形态,其实完全不是一回事。我跟客户聊的时候经常能强烈感受到这一点:如果你去跟任何一家非科技公司聊,你会发现他们有海量的“业务流程”。

 

我一般会这样区分:软件工程更像一种开放式的知识工作(open-ended knowledge work)。这也是为什么像 Codex 这种工具会很强,因为它擅长探索,你给它的是开放式问题。

但软件工程的本质是非常开放的,而且它并不“可重复”。你做一个功能,不是为了反复做同一个功能一遍又一遍。很多科技类岗位都属于这种开放式工作:数据科学也有点像,甚至一些偏战略的财务工作也有点像。

但当你离软件工程、离“科技公司核心”越来越远,你会发现很多工作其实就是业务流程:可重复的事情、可重复的运营操作。它往往是某个公司的管理者长期迭代出来的一套做法,通常会有标准操作流程(SOP)。大家希望按 SOP 来做,而且不希望偏离太多。

软件工程的“聪明才智”往往在于创新、偏离、探索;但世界上大量工作的本质,其实就是按这些流程跑下去。

比如我打电话去客服,对方就在按一套流程走;我给水电煤公司打电话,他们也有很多流程和规则:哪些能做、哪些不能做。所以我对这一大类机会非常看多:用 AI 去做业务流程自动化。而且我觉得它被低估了,因为它跟硅谷日常聊的东西太不一样了,大家就很少想它。

但如果你去想:我们能不能用 AI、用我们现有的工具和框架,去自动化这些可重复、确定性很强(high determinism)的业务流程?能不能把它做得更省力、更顺滑?关键还在于:它必须深度集成企业的数据、企业的决策逻辑,以及企业内部的各种系统。我觉得这块机会巨大、要做的工作也非常多,只是我们不怎么聊,因为它不在我们的“舒适区”。

主持人:我确认一下我理解得对不对:你认为 AI 在“工程之外”的机会更大——它能更大幅度影响公司的生产力,影响大量从事可重复、容易自动化工作的人,甚至改变工作的组织方式。因为现实里很多工作就是这样被完成的。

Sherwin Wu:对。我经常跟很多大型企业客户聊:AI 会怎么在 20 年后改变我的公司?公司在 AI 世界里会怎么运转?

软件工程当然是故事的一部分,但业务流程那一侧还有更多。而且我觉得业务流程那一侧,最终可能会呈现出更“彻底不同”的样子,要做的工作量也非常大。

从绝对规模上说,我不确定它到底比软件工程更大还是更小——软件本身也非常庞大、覆盖面也非常广。但可以确定的是:这块真的很大,而且它远远大过你在 X/Twitter 上看到的讨论热度。很多人根本不谈它,所以你会低估它。

怎么才能不被 OpenAI “碾压”?

主持人:换个方向。你们做平台、做 API,很多人在 API 上做产品。大家脑子里最大的一个问题永远是:我怎么才能不被 OpenAI “碾压”?你们会不会自己做同样的东西,然后把我刚建立的市场给毁了?你们的总体政策、总体哲学是什么?创业公司应该怎么判断:哪些方向是 OpenAI 不太可能亲自下场的?

Sherwin Wu:我的总体回答是:市场太大了,机会空间巨大到离谱。创业公司真的不用过度纠结 OpenAI 或其他大模型实验室会做什么。

 

我见过很多创业公司,有做得不好的,也有做得很好的。所有我见过“熄火”的公司,没有一个是因为 OpenAI、某个大实验室、Google 之类“跑来碾压他们”。它们失败的原因更简单:他们做的东西没有真正打动客户,没有和客户需求产生共振。

相反,那些起飞的公司,即便在极其竞争的领域里也能做起来。比如 coding 这个领域竞争够激烈了,但 Cursor 现在依然很大——因为他们做出了大家真的很喜欢的东西。

所以我的建议是:别太焦虑这件事。专注做一个用户喜欢的产品,你一定能在里面找到空间。

我没法强调得更重:现在 AI 的机会有多大。机会大到一个程度,连 VC 的“可接受范围”(overton window)都被改变了——VC 现在在同一个赛道里投“互相竞争的公司”投得非常多、非常激进,就是因为空间太大、机会太大,几乎前所未有。

从创业者视角看,这反而是最赋能的环境:只要你做出一个让一部分人非常非常喜欢的东西,你就能做出一个价值巨大的生意。所以我才会反复说:别过度思考“会不会被碾压”。

另外还有一点也很重要,至少从 OpenAI 的角度:我们一直非常非常重视一件事,这也是 Sam 和 Greg 从顶层不断强调的——我们从根本上把自己看成一家“生态平台公司”。API 是我们的第一个产品。我们认为自己必须去培育这个生态、持续支持它,而不是去摧毁它。

你看我们做的很多决策,这条逻辑一直贯穿其中:我们每发布一个模型、在某个产品里上线,它最终都会进入 API。哪怕我们现在推出的 Codex 模型更偏向 Codex harness 的优化,它们最终也都会进 API,让所有 API 客户也能用到。

我们不会把这些能力“藏起来不放”。我们认为保持平台中立非常重要:我们不会屏蔽竞争对手,我们允许大家访问我们的模型。我们最近也在测试“用 ChatGPT 登录”这类产品,我们希望继续壮大这个生态——这件事非常重要。总体的逻辑就是:水涨船高。我们现在可能像一艘航母,体量很大,但我们认为把“潮位”整体抬高,对所有人都有好处,我们自己也会受益。

我们 API 的增长,某种程度上就是因为我们一直以这种方式行动。所以我真的鼓励大家别把 OpenAI 想成一个会随时把你推开、把你挤出去的存在。你应该把注意力放在:做出真正有价值的东西。我们会持续致力于提供一个开放的生态。

主持人:为什么这对 OpenAI 很重要?这种“做平台、让别人做生意”的坚持,是一开始就有的愿景吗?

Sherwin Wu:对,这是从一开始就有的。它甚至可以追溯到我们的章程、我们的使命。

OpenAI 的使命一直是两件事:第一,构建 AGI。我们当然在做这件事。第二,是把它的收益扩散到全人类(spread the benefits to all of humanity)。关键就在“全人类”。ChatGPT 当然在做这件事,我们想触达全世界。但很早我们就意识到:仅靠 OpenAI 作为一个公司,我们不可能触达世界的每一个角落。世界太大了,每个角落的需求都很深、很细。

所以为了完成使命,我们必须做一个平台:去赋能其他人来构建那些我们自己不可能亲自去做的东西——比如你刚才举的“为播客和 newsletter 主理人做客服 bot”这种产品,我们自己不会去做,但别人可以在平台上做出来。这就是 API 的意义。我们也一直非常喜欢看到生态里涌现出的各种东西,所以从第一天开始,这就是使命的一种体现。

主持人:而且你还没提你们要上线的 ChatGPT “应用商店”(app store)。这个是在你管的范围里吗?还是另一个组织/团队?

Sherwin Wu:那是另一个团队,更偏 ChatGPT 体系。但我们和他们合作非常紧密。他们做了一个 apps SDK,也是和我们团队密切协作出来的。但它确实是在 ChatGPT 的 umbrella 之下。

不过它也是同一个逻辑的例子:ChatGPT 现在大概有8 亿每周活跃用户,这些用户会反复回来用。对业务来说这是非常强的资产。但如果我们能让其他公司也进来,利用这个入口,为这个人群去构建产品——那不是更好吗?最终我们也认为这会帮助我们把这个用户群体继续做大。所以它依然回到使命:做平台、保持开放,往往能带来更大的增长。

主持人:你刚说的 8 亿这个数字……是每周活跃 8 亿吗?我刚刚脑子卡了一下。

 

Sherwin Wu:每周活跃 8 亿。

 

主持人:这太夸张了,简直前所未有。我们已经对这种规模数字麻了,但它真的离谱。

Sherwin Wu:对,从规模角度想这件事,我也觉得非常震撼。我会这么理解:差不多是全世界10% 的人口,而且还在增长。它还在往上冲。每周会有 10% 的世界人口来用 ChatGPT(准确说是每周)。

 

主持人:我也想再强调一下你刚才说的点:OpenAI 的使命是让 AI 的益处触达全人类。有些人会嘲讽这句话,说“这不是要收费吗”。但现实是:任何人都能用免费的 ChatGPT。免费版的能力,和世界上最强的 AI 模型也没有“天差地别”的那种距离,它不是被严格门槛挡住、只给少数人用的。如果你是亿万富翁,你能从 AI 里获得的增量,其实也有限;而一个在非洲某个村庄里的人,只要他能上网,他能获得的 AI 能力并不会差到哪里去。我知道这一直是 OpenAI 很在意的东西。

 

Sherwin Wu:对,这也是为什么我们会很重视医疗、很重视教育——教育这块会非常有意思。

还有一个很疯狂的趋势是:免费模型本身也越来越聪明。你回头看 2022 年的免费模型,当时已经算不错了,但跟今天比完全不是一个量级。你今天拿到的是 GPT-5(他这里提到“2 GB 5”,我按语义理解为 GPT-5 级别的免费能力)——所以我们所谓“抬高全球底线”(raising the floor)这件事,就是我们使命的一部分。

另外,从“亿万富翁”那个角度还有个有趣对比:有人说你用的 iPhone,跟 Zuckerberg 或那些亿万富翁用的,可能就是同一款。而现在某种程度上也类似:你每月 20 美元,就能用到“亿万富翁也在用的那套 AI”。你每月 200 美元,就能上 Pro——“亿万富翁也在用的 Pro”。但他们日常也不一定全用 Pro,很多时候也就是 Plus 级别。

所以这种“民主化”、这种把益处扩散到全世界的事情,对我们来说非常有意义,也驱动了我们很多决策。

 

主持人:最后一个问题:对那些想在 API 上做东西的人来说——可能他们突然意识到“我也可以用开源模型和 API 做很酷的东西”——你们的 API 和平台到底允许大家做什么?我知道你们能在平台上构建 agents。你能整体讲讲你们提供了哪些能力吗?

Sherwin Wu:从根本上说,API 提供的是一组开发者端点(developer endpoints),让你可以从我们的模型里采样(sample)。

现在最受欢迎的端点叫Responses API。它是一个专门为构建“长时间运行的 agent”优化的 endpoint——也就是能工作一段时间的 agent。

在最底层的 primitive 上,你基本就是给模型一段文本,让模型工作一会儿;你可以去轮询它(poll),看看它在做什么;然后在某个时间点拿到模型的返回。这是我们给开发者的最低层原语,也是很多人最常用的构建方式。它非常“不带观点”(unopinionated):你几乎可以拿它做任何事,它就是最底层的构建块。在这个之上,我们开始提供越来越多的抽象层,帮助大家更容易地构建这些东西。

再上一层,我们有一个非常受欢迎的东西叫Agents SDK。它允许你基于 Responses API 或其他端点,去构建更传统意义上的 agent:比如一个 AI 在一个近似“无限循环”的工作流里持续运行;它可能有子 agent,可以把任务委派出去。

它会帮你搭出一整套框架/脚手架——当然,未来这套脚手架会不会也被模型“吃掉”,我们也会继续观察。但在当下,它确实让构建 agent 变得容易很多:你能给它 guardrails,让它把子任务分发给其他 agent,去编排一个 agent swarm(蜂群式的 agent 体系)。Agents SDK 就是帮你做这些的。

 

然后再往上,我们也开始做一些更偏“部署层(meta level)”的工具。我们有一个产品叫Agent Kit和一些Widgets:本质是一组 UI 组件,让你可以很快地在 API 或 Agents SDK 之上做出一个很漂亮的界面。因为很多 agent 从 UI 视角看起来非常相似,所以提供一套组件能大幅加速产品化。

此外我们也有一些评估相关的产品,比如Eval API:如果你想测试模型、测试你的 agent 或 workflow 是否有效,你可以用我们的 eval 产品做比较量化的测试。

所以我会把它理解成一个分层的栈:不同层级帮助你用我们的模型构建你想要的东西,抽象层级越来越高、也越来越“带观点”。你既可以把整套栈都用起来,很快就做出一个 agent;也可以一路下沉到最底层,只用 Responses API 去搭你自己想要的一切。

闪电问答

主持人:Sherwin,在我们进入很刺激的 lightning round 之前,你还有什么想补充的吗?有什么你想留给听众的?有没有我们还没聊到、但你觉得很有帮助的点?

Sherwin Wu:我只想留一个信息:我觉得接下来两到三年,会是科技圈和创业圈在很长一段时间里最有趣的一段时间。

我鼓励大家不要把它当成理所当然。我 2014 年进入职场,头两年挺不错,但接下来大概五六年,我觉得科技圈没那么“兴奋”。而过去三年,是我职业生涯里最让人兴奋、最有能量的阶段。

我觉得未来两到三年还会延续这种状态。

所以别把它当成理所当然。总有一天这波浪潮会走完,变化会变得更增量、没那么剧烈。

但在这段时间里,我们会探索很多很酷的东西,发明很多新东西,改变世界,也改变我们工作的方式。这就是我想留给大家的。

主持人:我太喜欢这段话了,我想多问一句。你说“别错过”,那你具体建议大家做什么?是去 build、去拥抱、去学习、去加入一家做有趣事情的公司?你给那些想说“我不想错过这班车”的人什么建议?

Sherwin Wu:我会说:去参与它(engage with it)

基本就是你说的:去拥抱它。在这之上构建工具,是故事的一部分。但就算你不是软件工程师,你也完全可以拥抱它:去用这些工具。

我觉得很多工作都会被改变。所以你应该去用工具、理解它能做什么、不能做什么,理解它的限制,这样你才能看得见它随着模型进步会开始能做什么。

总之就是:让自己熟悉这项技术,而不是后仰着让它从你身边过去。

 

主持人:但反过来,也有很多压力和焦虑:事情太多了,我怎么跟得上?我这周要学 Clawbot,下周又冒出别的……你在中心位置,你怎么不被这种“错过恐惧”压垮?你怎么保持节奏、怎么跟新闻?

Sherwin Wu:我个人其实是个坏例子,因为我基本属于“长期在线”:X 上长期在线,公司 Slack 也长期在线,所以我确实会吸收很多信息。但我观察那些不像我这么“上瘾”的人,我觉得有一点很重要:大多数信息其实是噪音

你不需要让 110% 的东西都穿过你的大脑。说实话,你只要选一两个工具,先从小处开始,就已经完全够了。

行业节奏太快,再加上 X 这个产品本身的机制,会制造一种极其疯狂的新闻节奏,让人非常压迫、非常容易被淹没。

但你真的不需要掌握所有这些,才能参与到当下正在发生的事情里。

哪怕只是装一下 Codex 客户端玩一玩;装一下 ChatGPT,接上你的一两个内部数据源——Notion、Slack、GitHub——看看它能做什么、不能做什么,我觉得就已经很有价值了。

主持人:你有没有一个常常用来提醒自己的座右铭?

Sherwin Wu:我一直会对自己重复的一句是:永远别可怜自己(never feel sorry for yourself)。

工作和生活里会发生很多事。提醒自己不要陷入自怜,而是始终相信自己有主观能动性、能把自己拉起来——这是我经常需要对自己说的话,我也经常对别人说这句话。

 

参考链接:

https://www.youtube.com/watch?v=B26CwKm5C1k

我发现在公共厕所有很多的牛皮鲜黄色网站的印刷广告,上面都是一个链接。很好奇,这个产业链如何实现盈利,靠流量不大现实吧。靠充值也没几个人会重置吧。那么大的法律风险

今年估計要給"通勤夥伴"換兩雙鞋,大家有推薦的嗎?

車款:Model Y LR 23
目前:4 萬公里的原廠 Michelin Pilot Sport EV
座標:上海,冬天不下雪的區域
選手:Michelin PS5、Continental MC7
使用方式:60% 市區高架(80-100 km/h 的速度),30% 小熱血,10% 家人接送
備註:不考慮胎噪、能耗。

附上貓貓新年照。

image