包含关键字 typecho 的文章

Chris Lattner 是 LLVM 项目的创建者,也是 Clang 编译器的关键推动者之一,长期站在编译器工程、编程语言设计与大型软件系统实践的交汇点上。他对 Claude C Compiler 的判断之所以重要,源于他在过去二十多年里持续参与并推动的那一代编译器抽象——这些抽象已经深度嵌入现代软件工程体系,塑造了今天我们构建与维护大型系统的基本方式。

 

2 月 6 日,Anthropic 发布工程博客:他们让 Opus 4.6 以 agent 团队方式构建一套 C 编译器,“基本放手”两周后,它能在 Linux 内核上工作。2 月 7 日,Lattner 在 X 上转发并评价这一结果“相当惊人”——既反映了 AI/agent 能力的进展,也说明了编译器设计的某些特性。他随即抛出问题:如果由他来写一篇解读,哪些角度最值得写、又不至于重复现有讨论?在大量反馈推动下,他随后深入拆解其工作方式与构建过程,并于 2 月 20 日发表长文总结所见。

 

他在文中给出的判断是:Claude C 编译器之所以重要,不是因为“AI 写出了编译器”这条新闻本身,而是因为它证明了一点——在结构成熟、标准清晰、成败可验证的工程问题里,AI 已经可以把几十年积累下来的工程共识成体系地复刻出来:搭出架构、维护子系统一致性、在测试与失败反馈循环里迭代,直到“跑得过”。

 

这意味着实现、转译、重写、样板化改造这类过去最耗人力的工程活动,正在被直接纳入 AI 的默认工作范围,成本被系统性压低,从而让编程“从根本上发生了改变”。

 

但同一个案例也把短板推到台面上:它更像是在优化“通过测试”,而不是像人类工程师那样主动追求更通用、更稳健的抽象——一旦离开现成测试套件或既定成功标准,泛化能力就会变得脆弱。软件工程的重心因此被迫上移:写代码不再是瓶颈,瓶颈转向架构选择、抽象设计与工程判断——以及在复杂性引入之前,决定什么值得做、什么不该做。

 

以下是 Chris Lattner 的原文翻译:

 

Claude C 编译器的诞生,揭示软件未来形态

 

编译器在计算机科学发展史中占据着特殊地位。作为计科教育的经典课程,构建一款编译器本身就是段意义重大的历练。学生们需要借此直面软件的真实运作方式,研究语言、抽象、硬件、人类意图与机器执行之间的过渡边界。

 

曾经的编译器帮助人类与机器对话,如今的机器则开始帮助人类构建编译器。

 

笔者的职业生涯一直致力于编译器与编程语言方面的研究,Anthropic 打造的 Claude C 编译器(简称 CCC)自然引起了多的关注。我的基本观点非常简单:这代表着真正的进步,也是行业的一大里程碑。当然,AI 的进展并非世界末日,请大家冷静看待。

 

提纲挈领说一句:AI 构建 C 编译器并不能算多么重大的革命性突破,但却揭示了 AI 编程的发展历程及未来的前进方向。

 

以下是我的几条主要观点:

  • AI 不再局限于编写小段代码,而开始参与大规模系统的工程设计。

  • AI 正从局部代码生成转向全局工程参与:Claude C 编译器不仅涵盖函数,,更须维护子系统架构。

  • Claude C 编译器的设计与 LLVM 类似:依托数十年的编译器工程经验训练而成,其编译器架构也深受历史影响。

  • 我们的法律体系往往滞后于技术进步,而 AI 正在挑战法律的边界。也许专有软件正在被时代淘汰。

  • 优秀的软件依赖于高质量判断、沟通与清晰的抽象,AI 进一步强化了这点。

  • AI 编程完成的是实现环节的自动化,因此设计和维护变得更加重要。

  • 手动重写和转译工作正被划入 AI 原生任务的范畴,将更高比例的工程活动囊括于其中。

  • 只要人类投入更多精力在架构、设计和创新上,正确使用 AI 就能产生更好的软件。

  • 随着 AI 系统的结构化知识持续增强,文档缺失开始成为制约开发能力的瓶颈,架构文档越来越多地扮演起基础设施的角色。

 

这一切都给工程团队带来了真实且直接的影响。在文章的最后,我将分享我们 Modular 团队如何将这些洞见转化为具体愿景。

编译器是什么?为什么要将其作为 AI 基准测试的重心?

要理解 Claude C 编译器的深远意义,我们首先需要理解编译器对于智能(无论是人类智能还是人工智能)为何如此重要。

 

编译器处于多个复杂领域的交汇点上:形式化语言设计、大规模软件架构、严苛的性能约束以及毫不妥协的正确性要求。

 

大多数应用程序可以容忍存在 bug,但编译器不行。一个错误转换就足以悄无声息导致程序 bug,进而影响无数用户的生产实践。因此其中每个层次都必须严格保持不变性,同时与其他层次协同工作。

 

从历史上看,这也让编译器成为计算机科学教育中至关重要的必修课。工程师们必须跨越抽象层展开思考:将文本转化为结构,将结构转化为意义,再将意义转化为高度优化的机器行为。

摘自我之前关于 LLVM 编译器设计文章。

 

这个过程实际还反映出更深层次的问题,即把人类意图转化为精确执行的过程。正因如此,编译器成为 AI 系统集成中一个独特而有趣的基准课题。

 

早期 AI 编程工具在编写函数、生成脚本或者填充缺失代码等局部任务上表现出色,这里考查的是模式识别和短期推理的能力。

 

Claude C 编译器展现出的更高层次进步,使其成为真正的里程碑。它展示了 AI 系统如何在整个工程系统中保持一致性,协调多个子系统、维护架构结构,随时间推移不断迭代以保障正确性并在复杂的测试与失败反馈循环下稳定运行。由此开始,AI 正式从代码补全转向整体工程参与。

 

更重要的是,编译器工程师构建的架构往往具有高度可读性与结构化水平。编译器具有分层抽象、统一命名约定、可组合的编译过程以及确定性反馈(具有明确标准的成功或失败判断)。正是这些特性,让接触过大量人类经验与源代码训练的学习机器获得了相对简单的工程参与入口。

 

由此看来,Claude C 编译器验证了过去数十年间的软件工程实践,在由编译器工程师们开发的跟着抽象结构之上实现了机器推理。但在意义非凡背后,这里也暗含一大重要局限性。

深入体察 Claude C 编译器

Claude C 编译器最引人注目的一点,在于 Anthropic 为其发布了完整源代码。与众多其他 AI 演示不同,此次亮相的不只是经过精心打磨的结果或者基准测试分数,而是任何人都能随意查阅的工程成果。包括提交历史、设计文档与未来规划,整个代码库都已对外公开。这意味着我们可以研究这套 AI 系统如何一步步构建编译器,搞清自己感兴趣的一切细节。

 

其中初次主要提交就“一次性”构建了系统的基本架构。Claude C 编译器严格遵循经典编译器结构,各主要子系统也都辅以出色的设计文档,具体包括:

  • 处理预处理、解析和语义分析的前端(所有编译器通用)。

  • 直接受 LLVM 启发的中间表示和优化成果。

  • 负责代码生成的后端,支持 4 种架构(x86-32、x86-64、RISC-V 和 AArch64)。

整个代码库的设计选择始终体现出成熟的编译器实践,符合大学课堂上的讲义,也在 LLVM 和 GCC 等现有编译器中广泛采用。中间表示则包含大量 LLVM 开发者非常熟悉的概念,例如 GetElementPtr 指令、基本块“终止符”和 Mem2Reg。从结果上看,Claude C 编译器对于主流编译器设计有着深刻的理解。

 

子系统编译器架构示例。

面对训练集中的 LLVM 与 GCC 代码,Claude 有效将其中相当一部分转译成了 Rust 以供 Claude C 编译器使用。设计文档同样体现其对这两大系统的深入理解,以及对实现方法的深思熟虑。有人批评 Claude C 编译器借鉴了大量现有技术,但在我看来这相当荒谬——我在构建 Clang 时,也从 GCC 身上汲取了不少灵感!

 

Pushpendre Rastogi 还专门撰写了一篇关于 Claude C 编译器与智能体扩展定律(scaling laws)的博文(https://vizops.ai/blog/agent-scaling-laws/),探讨了迭代式智能体工作流如何逐步扩展以优化实现/测试覆盖率:

代码考古时间线,作者 Pushpendre Rastogi(已获原作者许可)。

 

总之,Claude C 编译器完全不像是实验性的研究编译器,而更多展现出教科书式实现的稳健风格。它类似于优秀本科生团队在项目早期构建的系统,虽然还须数年时间进行完善,但初步成果已经令人瞩目。

Claude C 编译器有哪些不足?

Claude C 编译器当然并非完美无瑕。部分设计选择表明,其优化目标更多是让系统通过测试,而不是像人类开发者那样构建起通用抽象。仅举几例:

  • 代码生成器功能简陋,优化器会重新解析汇编文本、而未使用中间表示法(IR),此外代码生成器的架构设计也很糟糕。

  • 解析器的错误恢复能力和可用性较差,且在某些极端情况下会出问题。

  • Claude C 编译器似乎无法解析系统头文件(系统头文件的处理复杂度要远高于应用代码),因此它会直接将测试所需内容硬编码到代码当中。

 

从 bug 跟踪系统的检测结果来看,Claude C 编译器最后、也是最大的缺陷,似乎是无法很好地泛化到测试套件之外。这个问题颇具启发性,表明当前 AI 系统更擅长组合已知技术并针对可量化的成功标准进行优化,但在生产级系统所需的开放式泛化方面表现不佳。

 

由此引出了另一个更深层次的问题:AI 编程本身到底存在哪些问题?

Claude C 编译器揭示出 AI 编程之道

Claude C 编译器最有趣的启示并不在于 AI 有能力构建编译器,而在于具体构建过程。它并没有发明新的架构或者探索陌生的设计空间,只是复现了数十年来编译器工程积累下的共识:结构正确、易于理解,且完全基于成熟技术。

 

现代大语言模型是极其强大的分布式模仿者。它们能掌握工作中的大量现有模式,并生成与这些集体经验相仿的解决方案。这种现象与 Richard Sutton 提出的“痛苦教训”理论高度契合,认为扩展定律法能够重新发现已经获得广泛成功的结构。

 

打个比方,使用英国文学作品进行训练能让模型生成莎翁风格的散文。这倒不是说英国文学自 17 世纪之后就停止了发展,只是因为莎士比亚的作品在训练分布中密度更高。模型会学习那些被广泛传播和强化的内容。类似的情况也出现在了编译器设计当中。

 

人类知识的各个阶段都会被大规模吸纳和消化,但问题是谁来编写下一阶段的课程?

 

Claude C 编译器表明,AI 系统能够内化某一领域的教科书知识并成功实现大规模连贯应用。AI 现在可以在既定工程实践中可靠运行,里程碑式地消除诸多重复性繁琐工作,帮助工程师释放出更多创造性空间。但这也凸显出 AI 编程领域的一大重要局限:

 

实现已知抽象概念,与发明新的抽象概念截然不同。我认为目前的实现方式并无创新可言。

 

纵观整个历史,编译器的进步并非源自快速整合标准组件,而来自概念上的飞跃。例如新的中间表示、新的优化模型、新的程序结构以及新的硬件交互方式。团队成员以探索性的思维彼此激励鼓舞,协同打造出前所未有的技术成果。

 

当前 AI 编程系统在标准清晰且可验证的情况下,已经拥有良好的产出表现:编译程序、通过测试、提升性能等等。但创新却截然不同——在创造一种全新抽象概念时,什么才算成功尚无定论。对于尚不存在的想法,因为缺少相应测试套件,AI 难以判断哪种设计才算好。

 

因此,AI 编程只能算是自动化进程中的重要一步。它显著降低了实现、转换与改进的成本。随着这些剧本的降低,真正稀缺的决策,即哪些系统应当存在、软件应当如何演进等,开始向上转移。

知识产权法与专有软件护城河

Claude C 编译器还在知识产权领域引发了不少争议。既然结构、模式乃至特定实现都依托于过去几十年间的公开代码,那么学习和照抄之间的边界究竟在哪里?部分观察人士指出,尽管声称是“洁净开发”,但 Claude C 编译器似乎仍会生成与过往实现高度相似的工件,包括标准头文件及实用程序代码。现有法律框架显然无法制约这种并未明确引用源代码,而是通过统计方法对原有代码进行“洗稿”的行为。

 

当然,人类也会通过研究现有系统、内化模式并将想法重新应用于新情境来学习。二者的区别在于规模化和自动化。AI 可以将数十年间的工程知识压缩成一套可以瞬间复制解决方案的生成模型,这无疑让以具体表达方式为切入点的许可协议显得苍白无力。

 

我们正面临着专有软件会被轻易自动重新实现的新时代。AI 降低了复制既有设计的成本,也让竞争优势从原本的代码库转向执行、生态与持续创新。法律与制度规范也将随之转变,正如当初的 Linux 和开源软件逐步打开自己的生存空间。我敢肯定,未来由人类-AI 协作高效产出的生态体系,将取代那些无法跟上时代洪流的传统生态系统。

自动化、创新与软件的未来

如果 AI 编程主要用于自动化实现,那么未来又会变成什么样子?

 

历史已经给出了清晰的脉络:当某种产品的构建成本大幅降低,我们不仅会以更低成本构建相同的东西,还必然开始构建出前所未有的产物。

 

编译器本身就是个很好的例子。早期程序员只能手动编写汇编代码,可一旦编译器变得稳定可靠,开发者能做的就更多了,整个软件行业也应运而生。这是因为高度抽象使得复杂性更加易于管理。代码编写难度越低,带来的结果不是程序员越来越少,而是软件越来越多。我们可以推进更多实验、获得更多专业工具,并让以往不值得自动化的问题也拥有自动解决方案。

 

1957 年,NASA 利用 IBM 704 主机进行航空研究。

 

工程工作的经济性由此得到优化,大规模重写、迁移和样板代码实现等机械性任务可以交给 AI 负责。这种工作量大但创新性较低的任务,天然与 AI 系统的特性高度适应。工程师们的工作重心也从编写代码实现转向指引系统,即明确意图->验证结果->构建架构的新形式。

 

随着实现成本的降低,工程师的角色也开始上移。到那时候,最稀缺的技能会变成选择合适的抽象概念、决定哪些问题更有意义,以及设计出人类-AI 共同参与并推进的系统。软件工程与产品思维之间的边界将日益模糊,限制项目落地的不再是能够构建软件,而是判断应该构建什么及如何管理随之而来的复杂性。当然,AI 也会同时放大软件结构中好的和坏的部分,管理不善的代码也一定会造成理解和维护上的噩梦。

 

综合以上提出的所有趋势,既然编程正从根本上发生改变,那么软件工程师自身又该何去何从?

软件工程师的角色演变

软件开发的每一次重大变革,都会改变程序员的定义。早期工程师直接管理硬件,而后来的工程师则学会了信任编译器并掌握高级语言。每一次转变都减少了人工操作,同时也提高了人们对于工程师能力的期望。AI 编程无疑代表着这一发展进程的未来走向。

 

随着实现过程日益自动化,软件工程的核心技能也从亲手编写代码转向构建系统。工程师们将专注于决定哪些功能应当保留、组件如何整合以及如何随时间推移保证复杂性元素的可理解性。软件的质量将依赖于判断力、沟通效果与抽象清晰度。AI 系统只是在增强这些人类特质,而非将其取代。

 

最优秀的工程师不会与 AI 比谁编码更快,而是学会与 AI 协作,运用技术快速探索想法、广泛迭代并将精力集中在规划和设计上。AI 工具正迅速成为常规软件开发技术栈的组成部分,正如之前的编译器、版本控制乃至持续集成一样。学习如何有效与 AI 合作正迅速成为一项核心技能。现在谁忽视 AI 的存在,就如同二十年前拒绝采用源码控制一样。

 

来源:摘自 Luca Rossi《软件工厂的时代》,CircleCI 2026 年软件交付现状报告。各顶尖开发团队正迅速拉开差距。

 

根据 CIrcleCI 发布的《2026 年软件交付现状报告》,排名前 5%工程团队的产出量几乎同比增长了一倍,而排名后 50%的团队则停滞不前。2025 年生产力最高团队的产出量,已经达到 2024 年领先团队的 10 倍。

 

这就带来了新的问题:开发团队要如何调整才能取得成功?

 

以下是我们 Modular 团队对这种转变的理解。

Modular 如何适应 AI 工具带来的新愿景?

Claude C 编译器等重大成果改变了我对于软件工程的看法,也让我对团队提出了新的要求。充分利用 AI 工具的前提,是有意识地做出改变:几十年来形成的习惯不会自动消失,组织也很少会单纯为了适应更好的新工具就自主转型。

 

同时,务实的态度也很重要。AI 系统确实功能强大,但远非完美。进步来自与 AI 的协作,而非对 AI 的放任。我们不是为了削减人手,而是把人放在更重要的位置上。由此引出了以下三点愿景:

1. 主动采用 AI,同时保持责任感

从软件工程到行政管理、再到市场推广,每位员工都该积极采用 AI 工具来提高生产力与决策效率。世界瞬息万变,我们必须拥抱变革。

 

但这并不是把责任也推卸给工具。例如,构建大规模生产软件的工程师们仍须对软件正确性、设计质量和长期可维护性负责。AI 扩展了我们的能力,但并不能取代判断。AI 生成的成果应该像手工编写的代码一样,经过充分的解读、验证和认可。产品的声誉永远建立在成果,而非提示词之上。

2. 推动人类价值升华至新高度

历史上,大部分工程工作都属于机械重复式劳动:重写代码、调整接口、迁移系统以及在新环境中复现原有模式等。AI 在这些任务上的表现正迅速超越人类。我们不该在机械性工作上与 AI 竞争,反而应当更严谨地阐明意图、通过测试验证结果并据此改进设计。

 

未来,所有工程师都应当承担起与创造力和判断力高度相关的管理责任。随着迁移与实现速度的加快,架构演进将不再受限于人类重写软件的速度,而是受限于我们能否清晰定义系统的下一步发展方向。

3. 关注结构与社区

AI 强化了结构。

 

具备完善文档的系统更易于扩展和演进,而结构不良的系统则比以往任何时候都更容易陷入混乱。如今,文档、清晰接口与明确设计开始成为稳定运转的前提,而非可有可无的额外开销。

随着实现成本接近于零,稀缺资源从编写代码转向了人员协作。因此最重要的是构建起志同道合的社区,让开发者们携手前进,为了共同的目标和生态而彼此配合。

 

对 Modular 团队而言,这意味着专注于打造能帮助其他开发者取得成功的工具和平台:推动现有代码发展、释放现代计算能力,并实现人类-AI 协作的系统。这也是 Modular 普及 AI 计算、扩展世界各地程序员创造力的一贯使命。

写在最后

Claude C 编译器并不代表软件或者编译器工程的终结。恰恰相反,它为软件工程的未来开启了新世界的大门。实现的门槛越低,真正的创新空间也就越大。

 

降低实现门槛并不会降低工程师的重要性;相反,它们提升了远见、判断和品味的重要性。真正重要的议题变成了什么更值得被创造出来。这份决策背后的意义、方向和责任,本质上仍然归属于人类。

 

编写代码从来都不是终极目标,构建有意义、有价值的软件才是。谁愿意拥抱新工具,挑战固有观念并设计出能够帮助人们进一步创造的系统,未来就将属于谁。

 

这正是 Modular 自创立之初就秉持的未来愿景,也是我坚信 AI 新时代必将构建起的全新世界。

 

原文链接:

https://www.modular.com/blog/the-claude-c-compiler-what-it-reveals-about-the-future-of-software

三维设计虽然已成为工程建设、智能制造、科研创新等领域的核心生产力工具,但随着模型复杂度与协同需求的持续提升,传统的本地工作站模式也正面临算力瓶颈、数据安全隐患、协同效率低下及运维成本高昂等问题。
三维设计私有云平台,已被诸多企业认为是构建新一代设计基础设施的优秀方案。以点量三维云设计系统为代表的云化设计解决方案,通过低延迟视频流技术与云端算力调度,将设计软件与数据集中部署,实现流畅的设计体验与安全可控的数据管理,全面推动设计业务向云端迁移。
本文将从行业痛点、解决方案架构、核心能力与应用价值等几个角度,系统说明三维设计私有云平台的方案优势与实际价值。
一、行业痛点:传统三维设计模式的四大瓶颈

  1. 算力分散,硬件投入高且利用率低
    三维设计软件(如 SolidWorks、CATIA、Revit 等)对 CPU/GPU 性能要求极高。企业通常为设计人员配备高性能图形工作站,但仍面临以下几种情况:
  2. 大型模型卡顿、渲染耗时长
  3. 硬件更新周期短,投资压力大
  4. 算力资源闲置严重
  5. 数据分散存储,安全风险突出
    设计数据往往存储在本地设备中,存在以下几种问题:
  6. 磁盘损坏导致数据丢失
  7. U盘拷贝带来的泄密风险
  8. 核心知识产权难以集中管控
  9. 协同效率低,版本管理混乱
    传统协同依赖文件传输与人工沟通,导致以下几种情况:
  10. 多版本文件难以追溯
  11. 异地协同效率低下
  12. 评审流程复杂,沟通成本高
  13. 运维复杂,软件授权成本高
  14. 软件部署与升级需逐台维护
  15. 授权无法复用,成本浪费严重
  16. IT 运维压力大,管理效率低
    二、解决方案概述:三维设计私有云平台架构
    三维设计私有云平台通过将设计软件、算力资源和数据集中部署于企业私有云环境,构建统一的云端设计工作空间。
    核心架构组成
    image.png
  17. 云端算力节点
    数据中心图形工作站 / GPU服务器;弹性算力调度与负载均衡
  18. 云设计管理系统
    点量三维云设计系统;云管平台(资源调度、权限管理、监控)
  19. 数据安全系统
    云端集中存储;权限控制与操作审计;数据不落地机制
  20. 用户终端接入
    PC/瘦终端/平板/手机/国产终端;Web端与客户端双模式访问
    三、核心能力:点量三维云设计系统赋能云化设计
  21. 即点即用的云端设计体验
    依托低延迟交互视频流技术,设计软件部署于云端,用户通过浏览器即可流畅操作,无需本地安装。其优势:打开网页即可进入设计环境;支持弱网环境流畅操作;出差、现场、居家均可办公。
  22. 极致协同:从远程桌面到虚拟设计协作空间
    平台不仅支持远程访问,更提供沉浸式协同能力:多人实时旁观与评审;主控权限接管与演示;内建音视频会议与沟通工具;图纸在线流转与审批。真正实现“设计即协作,协作即生产力”。
  23. 数据安全:设计数据不落地
    平台构建企业级数据安全体系:全量设计数据仅存储云端;禁止USB映射、剪贴板外传;精细化权限控制与日志审计;用户数据隔离,防止跨账号访问。确保企业核心设计资产始终处于可控状态。
  24. 授权复用与成本优化
    通过并发授权与资源池化管理:软件许可按需分配、自动回收;提升授权利用率;降低软件采购成本。同时,集中算力部署可减少终端高性能工作站数量,显著降低硬件投入。
  25. 全端适配与国产化支持
    系统兼容主流设计软件与多种终端环境:
    软件兼容:SolidWorks、CATIA、AutoCAD、UG、SketchUp、Unity、UE 等
    终端支持:Windows、国产操作系统、Android、iOS、瘦终端、平板等
    信创支持:国产 CPU、操作系统、显卡全链路适配
    image.png
    四、应用场景:多行业三维设计云化实践
  26. 工程建设与 BIM 设计
    多专业协同建模与评审;超大型模型流畅操作;异地项目团队实时协同
  27. 高端制造与产品研发
    零部件设计与虚拟装配;CAE仿真任务云端调度;提升研发效率与设备利用率
  28. 科研院所与教育培训
    统一设计环境与软件管理;支持远程教学与实验;降低实验室硬件投入
  29. 数字内容与可视化行业
    三维建模与动画渲染;多节点云端渲染加速;提升制作效率
    三维设计正从“单机工具”向“云端生产力平台”演进。以点量三维云设计系统为核心的私有云平台,不仅解决了算力、协同与安全难题,更重塑了企业设计模式,使设计资源从“个人资产”升级为“企业级共享能力”。
    未来,随着云计算与实时流技术的持续发展,三维设计私有云平台将成为企业数字化转型的重要基础设施,助力更多行业实现:设计云化协同无界。

很多人还在吵“AI 会不会取代程序员”。OpenAI 内部给出的答案是:AI 正在把工程师重新分层。差距不会慢慢拉开,它会被工具放大、被流程放大、被组织放大,最后变成一种很难追回的“复利”。

 

在 OpenAI,95% 的工程师每天都在用 Codex。PR 先过 AI 的眼,再轮到人;代码评审从每个 10~15 分钟压到 2~3 分钟;真正拥抱工具的人,提交的 PR 数量比同事高出 70%,而且差距还在继续扩大。工程师的角色也跟着变形:越来越像“Tech Lead + 调度员”,同时盯着 10~20 条并行的 Codex 线程,主要工作变成引导、验收、兜底,亲手写代码反倒成了偶尔为之。

 

Sherwin Wu 是 OpenAI API 与开发者平台工程负责人。几乎所有 AI 创业公司都在集成 OpenAI 的 API,因此 Sherwin 对整个生态正在发生什么、以及未来走向,有一个极其独特、广阔的视角。

 

他在播客里还丢了一个判断:很多公司今天引以为豪的 AI“脚手架”——向量数据库、Agent 框架、复杂流程编排——可能只是一段过渡期的拐杖。模型进化会把它们吞掉。真正跑出来的团队已经换了打法:为模型将要到达的能力提前设计工作流,产品现在只有 80% 好用也能上线,等下一代模型升级,直接跨过那条门槛。

 

AI 也不会平均抬升所有人。它会把高主观能动性的工程师推到一个“不成比例”的高度:能拆需求、能控上下文、能调度多 Agent、能把验证闭环做扎实的人,一个人就能顶过去一个小团队。随之而来的不只是所谓“一人独角兽”,更像是组织结构被迫重写:更小团队、更快迭代、更陡分化。

 

工程之外,Sherwin 认为更被低估的机会在业务流程自动化:现实世界的大多数工作运行在可重复、强约束、标准作业流程里。AI 真正深入这些流程,改变的将是企业运作方式本身,而不只是效率。

 

如果你觉得最近两三年的变化快得让人焦虑,那你没感觉错。Sherwin 的话更像是在提醒我们:这其实是一个不会持续太久的窗口期。变化总有一天会放缓,但如果错过了这一段,很多人可能连这套“新分层的规则”都还没来得及学会。

 

我们翻译了这期播客。

 

Agent 时代的工程分层,已经在 OpenAI 出现

 

主持人:Sherwin,非常感谢你来到节目。我想从一个现在几乎成了 AI 进展“晴雨表”的问题开始,尤其是在工程领域。你自己现在还写代码吗?如果写的话,你和你的团队,现在有多少代码是由 AI 写出来的?

 

Sherwin Wu:我现在偶尔还会写代码。不过说实话,对像我这样的管理者来说,现在用 AI 工具反而比手写代码更容易。

 

就我个人,以及 OpenAI 里的一些工程管理者来说,我们的代码基本都是由 Codex 写的。从更宏观的角度看,内部有一种非常强烈、非常真实的能量感——大家都在感叹这些工具已经走了多远,Codex 对我们来说已经有多好用。

 

我们其实很难精确衡量“到底有多少代码是 AI 写的”,因为绝大多数代码——我会说接近 100%——几乎都是先由 AI 生成的

 

我们真正去跟踪的指标是:现在绝大多数工程师每天都会用 Codex。

 

95% 的工程师在日常使用 Codex,100% 的 PR 每天都会被 Codex 审查。也就是说,任何最终合并、进入生产环境的代码,Codex 都会“看一眼”,并在 PR 阶段提出改进建议、指出潜在问题。

 

但比这些数字更让我兴奋的,是那种整体的氛围和能量。

 

我们还有一个有意思的观察:使用 Codex 更多的工程师,会打开明显更多的 PR。他们提交的 PR 数量比不常用 Codex 的工程师多 70%,而且这个差距还在扩大。

 

我感觉那些 PR 打得多的人,正在不断学习如何更高效地使用这个工具,这个 70% 的差距随着时间推移还在继续拉大。说不定现在这个数字已经比我上次看到的更高了。

 

主持人:我确认一下我理解得对不对:你的意思是,在 OpenAI,那 95% 的工程师,他们的代码基本都是AI 先写,然后由他们来 review

 

Sherwin Wu:对,对,没错。

 

主持人:听起来很疯狂,但又好像已经不那么疯狂了,我们正在迅速适应这种状态。当然,我觉得还是需要一点时间来适应。

 

Sherwin Wu:是的,确实还在适应中。也有一些工程师,对 Codex 的信任度相对低一些。但几乎每天,我都会听到有人被它做出来的事情震惊到,然后他们对模型“可以独立完成多少事情”的信任阈值,一次次被拉高。

 

Kevin Weil(我们的科学副总裁)有句话我特别喜欢。他常说:“这是模型此生最差的一刻。”这句话放到软件工程上同样成立:时间越往后走,人们会越来越愿意把关键工作交给模型,而模型本身也只会变得更强。

 

主持人:Kevin Weil 之前也上过这个节目,他在节目里也说过这句话,而且说了不止一次。最近 OpenClaw(之前叫 Claudebot / Moltbot)的开发者 Peter 也分享过,他在工作中大量使用 Codex。他说很多时候,Codex 做完事情之后,他几乎是完全信任的,甚至觉得可以直接合并进 master 分支,结果也会很好。

 

Sherwin Wu:对,他确实是 Codex 的一个非常优秀的用户。我知道他和我们团队保持着很密切的沟通,也给了很多很好的反馈,所以我一点也不意外他会这样用。

 

主持人:回到这个我们正身处其中的疯狂时刻,尤其是对工程师来说。我们已经从“你要亲手写下每一行代码”,变成了“AI 写你所有的代码”。我真的想不出还有哪个职业,在短短几年内发生了这么剧烈、而且完全出乎预料的变化。一个工程师整个职业生命周期里的“工作内容”,在这两年里被彻底重塑了。那你怎么想象,接下来一两年里,软件工程师这个角色会变成什么样?这个“工作本身”会是什么?

 

Sherwin Wu:说实话,看到这一切真的非常酷。这种兴奋感的一部分,就来自于:这个职业在未来一到两年里,很可能还会发生一次非常显著的变化。

 

但我们现在也还在摸索阶段。对很多工程师来说,这正是一个非常罕见的窗口期——在接下来的 12 到 24 个月里,我们几乎可以亲手定义标准,定义“工程师应该是什么样”。

 

目前大家常说的一种趋势是:IC 工程师正在变成技术负责人,基本就像是管理者一样。他们在管理一整支又一整支的 agent“舰队”。

 

我团队里的很多工程师,实际上同时在拉着10 到 20 条并行的线程。当然不是同时跑着 10 到 20 个 Codex 任务,但确实是在处理大量并行的工作:不断查看进度、调整方向、给 agent 和 Codex 提反馈。他们的工作,已经从“写代码”,变成了几乎是在“管理”。

 

如果要给我一个对未来一到两年的直觉隐喻,我常会想起大学时读过的一本编程教材——《Structure and Interpretation of Computer Programs》(SICP)。这本书当年在 MIT 非常流行,长期作为入门编程课教材,在程序员圈里也有点“邪典经典”的地位。它用 Scheme 来教你编程,引你进入函数式的世界,读起来很开脑洞。

 

但真正让我记住的,是它开篇对“编程”这件事的比喻:把软件工程说成一种巫术。书里讲,软件工程师像巫师,编程语言像咒语——你念出咒语,咒语就会被释放出去,替你完成事情。难点不在于你能不能念,而在于:你要念什么样的咒语,程序才会按你想要的方式运行。SICP 写于 1980 年,这个隐喻却一直有效。我甚至觉得,它正在被今天的现实真正“兑现”。

 

从这个角度看,无论是 vibe coding,还是未来的软件工程,都像是这条演进路线的自然延伸。编程语言本来就是咒语,只不过咒语在不断进化,让我们越来越容易让计算机做我们想做的事。而这一波 AI,很可能就是下一站。它把“咒语”这件事推到了极致:你几乎可以直接告诉 Codex、告诉 Cursor 你想要什么,它就会替你把事情做出来。

 

我尤其喜欢“巫师”这个隐喻,因为眼下的状态越来越像《幻想曲》里的《魔法师学徒》。你戴上魔法帽开始施法,力量强得离谱,但前提是:你得清楚自己在做什么。《魔法师学徒》里,米老鼠让扫帚去干活,自己转身就睡,结果扫帚越干越多、洪水失控、屋子直接被淹——这几乎就是 vibe coding 的极限形态:愿望实现得太快,失控也来得太快。

 

所以,当我看到工程师同时跑着 20 个 Codex 线程时,我想到的并不是“爽”,而是这背后其实需要技能、资历和大量判断力。你不能彻底放手不管,也不能假装一切都会自动变好。

 

但它的杠杆率也确实高得惊人。一个真正把这些工具用顺了的资深工程师,现在能完成过去根本不可能完成的工作量。这也是它迷人的地方:我们真的开始有一种很具体的感觉——自己像个巫师在施法,而软件在替我们跑腿、替我们干活。那种“魔法感”,前所未有地接近现实。

 

主持人:我这里有两个线索想继续追问。其中一个是,我最近越来越多地听到一种反馈:当智能体不按预期工作时,人会产生很强的压力。你一下子发出去一堆 Codex agent,然后就得时刻盯着它们——“这个不跑了”“那个卡住了”,感觉时间在被白白浪费。你自己有这种感受吗?你在团队里也看到这种情况吗?

 

Sherwin:有的,有的,这种情况一直都在发生。说实话,我反而觉得这是当下最有意思、也最关键的地方。因为模型并不完美,这些工具也不完美,我们其实还在摸索:到底该怎么和 Codex、和这些 AI 智能体协作,才能把事情真正做成。这类问题在我们内部经常出现。

 

我们有一支特别有意思的团队,正在 OpenAI 内部做一个实验:他们维护的是一个100% 由 Codex 编写的代码库。一般情况下,你可能会让 AI 先写一版代码,然后再自己重写一部分、检查一遍、修修补补;但这个团队是完全 “Codex 化”,几乎是彻底 lean in。

 

小编注:Sherwin Wu 提到的这次实验,OpenAI 已经写成博客公开了:https://openai.com/index/harness-engineering/。文章记录了一个“0 人手写代码”的软件工程实验:团队用 5 个月从空 Git 仓库起步,做出一个真实可用的内部产品——能上线部署、会出故障也会被修复,且已经被数百名内部用户使用(包括每天都在用的重度用户)。但从头到尾 没有任何人工直接写代码:应用逻辑、测试、CI 配置、文档、可观测性、内部工具,全部由 Codex(Codex CLI + GPT-5)生成。最终在仅 3 名工程师驱动下,累计合并约 1500 个 PR、产出接近 100 万行代码;他们估算整体交付速度约为传统手写的 1/10。

 

于是他们就会遇到你刚才说的那种问题:比如我想把某个功能做出来,但怎么都让 agent 做不对。通常这时候,人是有“逃生出口”的——你可以说“算了,我自己撸袖子来”,不用 Codex,改用 tab complete、Cursor 之类的工具直接手写。但这个实验团队没有这个出口,这是实验设计的一部分。

 

所以问题就变成了:我到底要怎么做,才能让这个 agent 把事做好?其中一个我们反复看到的现象是——不知道你有没有类似感受,但我们这边非常明显——很多时候,编码智能体做不好,并不是“它不行”,而是上下文出了问题。要么是你给的信息不够明确,要么是 agent 根本拿不到完成这件事所需要的信息。

 

一旦你意识到这一点,解决方式就会发生变化:你不再是去“调 prompt”,而是开始补文档、补结构,想办法绕过这个限制。说白了,就是把你脑子里的“隐性经验”“团队共识”“默认做法”,想办法编码进代码库里——可能是代码注释,可能是代码结构,也可能是一些 Markdown 文档、skills 文件,或者仓库里的其他辅助资源。目标只有一个:让模型在仓库里就能读到它完成任务所需要的一切信息。

 

这个团队还有很多其他收获,我觉得都非常值得展开聊。但至少有一点已经很清楚了:刻意拿掉“不用 AI 的退路”,反而逼着他们看清楚——如果我们真的要全面拥抱 agent,这些问题是迟早都要解决的。

 

把工程师对 PR 的注意力,从 100% 降到 30%

 

主持人:我们刚才聊到,使用 AI 的人疯狂地在发 PR,PR 数量明显变多了。显然,代码评审现在会变成更大的挑战。你们团队有没有摸索出什么办法,让 code review 也能更快、更规模化,而不是把大家变成“每天坐在那里审 PR 的苦力”?

 

Sherwin Wu:有的。首先,现在Codex 会评审我们 100% 的 PR

 

我觉得这里发生了一件特别有意思的事:我们最先交给模型去做的,往往就是那些最烦人、最无聊的软件工程部分。也正因如此,现在写软件反而更有趣了——我们可以把更多时间花在真正有意思的事情上。

 

就我个人而言,我以前特别讨厌 code review,真的属于我最不喜欢的工作之一。我记得我大学毕业后的第一份工作是在 Quora。我当时负责 Newsfeed,所以 Newsfeed 那块代码基本归我“所有”,我也就成了 Newsfeed 的主要 reviewer。那段代码是整个系统里最核心的一块,几乎所有人都会动它。

 

结果就是,我每天早上一登录,就看到20 到 30 个 code review,我会直接心里一沉:“天啊,我得把这些全过一遍。”我经常会拖延,然后待审的 PR 会涨到50 个。review 的量非常大。

 

Codex 在 code review 这件事上真的很强。我们观察到一个现象:5.2(GPT-5.2 这一代)尤其擅长审代码,尤其是你能把它引导到正确方向的时候。

 

所以我们这里虽然 PR 的量确实变多了,但 Codex 会先过一遍所有 PR,这会让 code review 从原来那种10~15 分钟的任务,变成很多时候2~3 分钟就能搞定的任务,因为它已经提前把一堆建议“烤”在里面了。

 

很多时候,特别是一些小 PR,你甚至不一定需要再拉人来 review。我们在某种程度上会信任 Codex。因为 code review 的核心价值就是“第二双眼睛”帮你确认你没有做蠢事——而现在 Codex 已经是一双相当聪明的第二双眼睛了,所以我们在这点上非常用力地 lean in。

 

另外,我们内部现在 CI 流程、以及 push 之后到部署的那套流程,也已经大量通过 Codex 自动化了。

 

如果你问很多工程师最烦的是什么,往往不是写代码本身,而是:你写完一段漂亮的代码之后,怎么把它送进生产环境。你得跑一堆测试,要处理 lint error,要走 code review……这里面有很多流程性的工作。

 

这些东西其实都很适合让 Codex 来做,所以我们内部也做了一些工具去自动化这些步骤,比如自动处理 lint:如果出现 lint error,Codex 通常很容易就能修掉,它可以直接 patch,然后重启 CI 流程。

 

我们总体在做的事情,就是尽可能把工程师需要投入的“人肉操作”压缩到最少。副作用(其实是好处)就是:大家现在可以合并更多 PR、发布更多代码。

 

主持人:Codex 在写代码,Codex 也在 review 自己写的代码。我很好奇,你们会不会考虑用别的模型来 review 你们模型的工作?这是不是一个方向?还是说现在这样已经够好了,不需要其他东西?

 

Sherwin Wu:我会说,这里确实存在一种“循环”的风险。回到《魔法师学徒》的隐喻,你得确保自己没有让扫帚失控、满屋乱跑。

 

所以我们在“哪些 PR 可以完全由 Codex review”这件事上,其实是很谨慎的。大多数人当然还是会自己看一眼自己的 PR,并不是说人类 review 就彻底归零了。

 

更准确的描述是:把一个人对 PR 的注意力从100% 降到 30%。这样就能让事情更顺畅地推进。

 

至于“多个模型”的问题,我们内部当然会测试很多模型,所以我们手上有大量不同的版本。但我们相对少用外部模型——因为我们认为“吃自己的狗粮”很重要,要用自家的模型去做实际工作,从而获得真实反馈。

 

当然,你也可以用一些内部的不同变体模型来获得另一种视角,我们发现这种方式也挺有效。

 

主持人:我再确认一下我对 OpenAI 当下“AI + 代码”现状的理解,确认完我想切换到另一个话题。你是说,现在 OpenAI 全部的代码,100% 都是 Codex 写的?这样表述对吗?

 

Sherwin Wu:我不会直接说“今天在生产环境里跑的所有代码都是 AI 写的”。这句话我不会这么下结论,因为很难在归因上做得那么精确。

 

但可以肯定的是:几乎每一个工程师,在所有任务中都非常重度地使用 Codex。如果你让我估一个大概的比例,我会说:现在绝大多数代码,很可能最初的作者就是 AI。

 

AI 时代,管理者的杠杆在谁身上?

主持人:大家讨论很多的是 IC(个人贡献者)工程师的角色变化,但关于“管理者”的变化讨论得少得多,尤其是工程经理这种角色。AI 崛起之后,你作为一个 manager 的生活发生了什么变化?你觉得未来 manager 的角色会是什么?

 

Sherwin Wu:它的变化确实没有工程师那么大。至少现在还没有“专门给管理者用的 Codex”。不过,我确实会用 Codex 去处理一些我做的“更管理向”的工作。我会说,现在变化还没有那么剧烈,但我能看到一些趋势。你把这些趋势推演下去,就能大概看到很多事情会往哪里走。

 

一个越来越明显的点是:Codex 会让顶尖表现者变得更高效得多。我觉得这可能也是 AI 在更大范围内的普遍规律:那些真正愿意深度拥抱、那些主观能动性很强的人,或者能把这些工具用到很溜的人,会把自己“超级加速”。

 

我现在也能明显感觉到:团队里顶尖表现者会变得更多产,于是团队生产力会出现更大的分化和跨度。

 

我一直以来的一个管理理念是:我会把大部分时间花在顶尖表现者身上——确保他们不卡住、确保他们开心、确保他们觉得自己在高效推进、也觉得自己的声音被听见。

 

我觉得在 AI 时代,这件事会变得更重要,因为顶尖表现者会用这些工具跑得更快、更猛。

 

比如之前提到的那个团队:维护一个100% 由 Codex 生成的代码库。让他们放开去做、看看会发生什么,这件事实际上回报非常大。所以我看到的一个趋势是:对于管理者来说,未来可能会更频繁地、更多地把时间投入在顶尖表现者身上。

 

另一个趋势是:管理者可用的 AI 工具,会让管理者的杠杆率变高。不是写代码层面的,而是像“带组织知识的 ChatGPT”这种——它能帮你做研究、理解组织上下文。举个很现实的例子:我们现在在做绩效评估。你可以很容易地用一个接了内部知识的 ChatGPT——它连着 GitHub、Notion 文档、Google Docs——让它快速形成对某个人过去 12 个月做了什么的完整理解,然后给你写一份小型“深度研究报告”。

 

我的直觉是,在这种世界里,管理者可以管理更大的团队。就像工程师现在在管理 20~30 个 Codex 线程一样,这些工具也会让“人管人”的管理变得更高杠杆。

 

现在工程团队里所谓的最佳实践,一个 manager 通常带6~8 个人。但我觉得未来可能会变。

 

你在客服、运营这些非工程领域已经能看到类似现象:过去支持团队规模会受限,但当你能把更多工作交给 agent,你就能做更多事,也能管理更多人。

 

我觉得 people management 在科技公司也可能发生类似变化。我们已经在看到一些团队:有些 EM 管的人已经不少了,但他们依然能管理得很好,因为工具让他们能更高杠杆地理解团队在做什么、理解组织上下文,并以此运转。

 

主持人:我很喜欢你这里的建议:你一直以来都会倾向于把更多时间投在顶尖表现者身上,帮他们扫清障碍,确保他们开心。Mark Andreessen (著名风投创始人)最近也上了这个播客,他的说法是:AI 会让好的人更好,让伟大的人变得卓越。

 

Sherwin Wu:对,对。你说的这个点就是:在未来,这件事可能要做得更多、更极端一点——花更多时间在团队里最强的人身上,确保他们有一切需要的资源。

 

我现在的一个很好的例子是:内部有一小群工程师,真的非常“Codex 化”,他们在非常认真地琢磨“和这个模型交互的最佳实践到底是什么”。这是一件极其高杠杆的事情。

 

作为 manager,我就是直接说:你们去探索。无论你们总结出什么最佳实践,我们都必须把它分享给整个组织。我们会做各种知识分享 session,会把文档、最佳实践到处同步。

 

这种事情会把所有人一起往上抬。我也把它看作是这种趋势的又一个例子:顶尖表现者会变得更卓越。

 

软件与创业,正在进入一个新阶段

 

主持人:人们会有一种感觉:这件事很大,AI 正在改变这个世界,“一人十亿美元公司”这个概念正在改变很多东西,它会是一件大事。你觉得大家还没有真正把哪些变化算进去?也就是,未来会怎么走,有什么你认为我们还没意识到、但其实很关键的例子?

 

Sherwin Wu:这波 AI 浪潮里,我最喜欢的一个说法,就是“一人十亿美元公司”。我记得好像是 Sam 最早说出这个概念的(至少是最早把它讲出来的人之一)。它真的很耐人寻味:如果一个人的杠杆变得足够高,某个时间点上,确实可能出现一个“一人十亿美元公司”。

 

这件事本身当然很酷,但我觉得大家还没有真正把它的二阶、三阶影响算进去。

 

因为“一人十亿美元公司”背后隐含的意思是:一个人借助这些工具,可以拥有更强的主观能动性、更高的杠杆,于是他很容易就能把一个公司需要做的所有事情都搞定,最终做出一个价值十亿美元的东西。但这还只是其中一个层面。它还有其他含义。

 

其中一个二阶影响是:如果一个人都能做到“一人十亿美元公司”,那也就意味着——创业这件事整体会变得容易得多。我其实认为,这会引发一个巨大的“创业潮”,尤其是那种偏 SMB(中小企业)风格的小型创业潮:几乎任何人都可以为任何需求做软件。

 

你现在已经能在 AI 创业圈里看到一点苗头:软件正在变得更“垂直化”。也就是,为某个特定行业/垂直领域做一个 AI 工具往往非常有效,因为你能更深地理解那个领域的实际场景和用例。

如果把 AI 的演进继续往后推,我看不出有什么理由不会出现 100 倍数量的这类创业公司。

 

所以我设想的一个世界是:为了支撑一个“一人十亿美元公司”,可能会出现上百家小型创业公司,专门做高度定制、做得非常贴合需求的“bespoke software”,来为这些公司提供支持。

 

这会把我们带进一个可能非常有意思的阶段:我们可能真的会进入一个B2B SaaS 的黄金时代,甚至更广义地说,是软件与创业的黄金时代。因为随着写软件越来越容易、经营公司越来越容易,你最终看到的,很可能不是“只有一个一人独角兽”,而是——也许会有一个“一人十亿美元公司”,但同时还会有一百家一亿美元公司,还会有几万家一千万美元公司

 

而对个人来说,一千万美元的生意其实已经非常好了——那基本就意味着“这辈子稳了”。所以我觉得我们可能会在这个方向上看到一次爆炸式增长,而很多人还没把这一点真正算进去。

 

再往下一层——算是三阶影响——当然越往远推不确定性越大,但如果我们真的走向这样一个世界:到处都是这种“微型公司”,做的软件可能只服务一两个人,公司也就是一两个人在拥有、在运营。

 

那整个创业生态会变,VC 生态也会变。

 

我们可能会进入一个世界:只有少数几个超级大玩家提供平台,然后平台上托举、支撑着大量小公司。

 

但与此同时,那种真正符合“风险投资尺度”的项目——能把你的投资翻 100 倍、1000 倍的项目——可能反而会变少。因为更多出现的会是大量 1000 万到 5000 万美元的公司:它们对个体来说非常棒,但对 VC 来说未必是理想的回报结构。

 

这些公司会非常适合那些主观能动性极强的人——他们深度拥抱 AI,为自己打造业务。

 

主持人:我太喜欢我们一路聊到第几阶影响了。我现在想听第四阶影响了,Sherwin——开玩笑的。

 

Sherwin Wu:我真的不行,第四阶太“巨脑”了,我想不了那么远。

 

主持人:这就像《盗梦空间》一样,你每往下一层,时间就变慢,事情就更复杂。不过说回“一人十亿美元公司”,我确实经常想这个问题。因为我做的事情不可能变成十亿美元公司,它完全不符合 VC 尺度,也不算特别高杠杆。

 

但我会想到一个现实问题:我每天收到的支持工单实在太多了,而且经常是一些特别离谱、特别琐碎的事。光是“支持成本”这一块,就让我很难想象一个人怎么能撑起十亿美元规模。所以我对“一人十亿美元公司”这件事其实是偏谨慎、甚至偏悲观的。我想分享这个观点,核心就是:支持成本太难规模化。就算 AI 能帮你一部分,在十亿美元规模下,除非你的 ACV 很高、客户很少,否则光是处理支持和各种人类沟通,就很难扩张。

 

在我自己的经验里,很多用户其实是能自己解决问题的,但他们还是会选择给支持邮箱发一封邮件问一个小问题。处理这些事非常难规模化。所以除非你雇了一堆承包商——但那还算“一人公司”吗?——否则我觉得要把公司做大到十亿美元,同时又没有人帮你处理至少支持工作,这几乎不可能。AI 也只能帮到一定程度。

 

Sherwin Wu:我同意你说的这个问题。只不过我对“它会怎么发生”的看法稍微不一样。

我甚至觉得,Lenny,你的播客未来可能会变成一个十亿美元级别的生意。但它发生的方式可能不是:你一个人去派遣 AI,一张一张处理支持工单、修问题、回邮件。

 

更可能发生的是:会出现一大堆其他创业公司,专门做非常贴合你需求的软件,而且是高度定制、极其垂直的那种。比如,可能会有 10 家、20 家创业公司,专门为播客、newsletter 这类业务做支持软件。它们自己可能就是“一人公司”,不一定要做得很大。

 

因为在这个世界里,做出一个产品会变得非常容易。他们可以把产品做得很贴合、很独特、真的对你有用,然后你会愿意为它付费——作为那个“高杠杆的一人公司”,你买这些工具来外包掉那些你不想做的事情。

 

主持人:我会买的,我真的会买。

 

Sherwin Wu:对,这里面有一个关键问题就是:哪些你要 in-house,哪些你要外包出去。

我觉得可能发生的事是:因为写软件、做产品的成本在极速坍塌,你会把更多东西外包出去。于是你反而能把公司规模压得更小。

 

这就是我觉得可能出现的世界。当然这里仍然有很高的不确定性,但最终形态可能仍然是:由一个人驱动的、极高杠杆的公司,真的有机会做到十亿美元规模。

 

主持人:我能理解。我还会想到 Peter(OpenClaw 那位),他现在被各种需求、邮件、私信、DM、PR 完全淹没。而且他甚至还没靠这个赚到钱。我真的很难想象他现在的生活是什么样——一定非常疯狂。这大概就像你们当初发布 ChatGPT 后的那几个月那种疯狂,但他是一个人扛着。也许第四阶影响就是:分发/触达(distribution)会越来越重要。因为有太多东西在争夺你的注意力。于是拥有受众、拥有平台的人会越来越值钱——这倒是挺有意思的。

 

主持人:好,我其实想回到你刚才说的管理话题。我真的很喜欢你那个洞见:你说把更多时间花在顶尖表现者身上,对你来说非常有效。你现在在带的团队是在做平台,而这个平台基本驱动着整个 AI 经济——几乎每个 AI 创业公司都在用你们的 API。显然你做得非常好。那除了这一条,你还有哪些核心的管理经验?你觉得哪些东西对你作为一个工程团队、以及人的管理者来说,特别重要,也构成了你成功的关键?

 

Sherwin Wu:我学到的很多东西,我不确定是不是特别“OpenAI API 团队专属”,或者是不是只适用于我们的一些 enterprise 产品。

 

我的管理哲学确实在变化,但整体来说,它更多是保持一致,而不是完全翻新。其中一个原则就是我之前说的那条:把大量时间花在顶尖表现者身上。更具体一点说,我会把超过 50% 的时间花在团队里最强的那部分人身上,比如前 10%,尽最大努力去赋能他们。

 

我常用一个隐喻来理解这个问题:把软件工程师看作“外科医生”。这个隐喻来自一本很老的书《The Mythical Man-Month》。这本书写于 70 年代左右,它里面其实是在“预测未来”。书里描述了一种可能的世界:软件工程会走向一个模式——工程师像外科手术室里那位主刀医生,手术室里只有一个人真正动刀,其余的人都围绕他提供支持:护士、住院医、fellow……主刀说“我要手术刀”,就有人把手术刀递上去;主刀说“我要这个工具”,就有人把设备推过来。所有人都在支持那一个人。

 

《人月神话》预测软件工程会往这个方向走。我不觉得现实完全是这样——软件工程仍然更协作,不是只有一个人干活。

 

但我一直很喜欢这个比喻,也一直努力把它用在我的管理方式里。也就是说:软件工程不等同于手术,但我希望我对团队成员的支持方式,能让他们感觉自己像那位“主刀医生”——他们在推进最关键的工作,而我作为 manager 的职责,就是确保他们手里有一支“支持团队”,确保他们需要的东西随时可用。哪怕实际上所谓的支持团队只有我一个人,我也希望做到这种效果。

 

我常举的例子就是:提前看见拐角处的阻碍,并把人从组织流程里解卡出来,这件事极其有价值。

 

而且在 AI 时代,这件事更重要。因为当工程师能一口气刷很多 PR、连续高频交付时,真正限制进展与交付速度的,往往就变成了组织层面的阻碍、流程层面的阻碍。

 

如果你作为 manager 能够“看得更远一步”、提前准备好他们需要的资源——就像主刀医生需要手术刀,而你已经把手术刀准备好了——那就是最理想的状态。这就是我理解的管理方式,尤其是工程管理。这个隐喻一直跟着我,也基本贯穿了我的职业生涯。

 

主持人:我太喜欢这个比喻了。我甚至会想,AI 会不会也能帮到这件事:帮你“看拐角”。比如预测:这个工程师接下来会被哪个决策卡住,我们得提前把它解决掉。

 

Sherwin Wu:我还没试过,但我现在突然很好奇:如果我问一个接了公司内部知识的 ChatGPT——比如让它去扫 Notion 文档,看看 Slack 里哪里提过——我直接问它:“我团队现在有哪些活跃的 blocker?我能做什么来帮他们?”这个思路我之前真的没想到,但你说得对,你刚刚给了我一个洞见。

 

主持人:而且更进一步,甚至可以问:你预判接下来几个月这个工程师、这个团队会被什么卡住?你刚才在聊二阶三阶影响,现在我让模型帮你做二阶三阶影响:提前预判下个月的 blocker,提前把它解决掉。

 

Sherwin Wu:对,对。我们这里可能真的挖到一个好点子了。

为什么这么多 AI 部署,最后成了负 ROI?

 

主持人:好,我想切到你们做的 API 和平台。你们会和很多公司打交道:它们在接入你们的 API、用你们的平台、基于你们的工具去做产品。你之前跟我说,你观察到很多公司的 AI 部署其实 ROI 是负的。我觉得这也是很多人读新闻、自己体感里隐约相信的结论,但你说你真的在一线看到它发生,这很有意思。到底怎么回事?他们哪里做错了?现在 AI 部署与 ROI 的现实状况是什么?

 

Sherwin Wu:我先澄清一下:我并不是在“显式地”看到那种可量化的 ROI 数据——这件事其实很难测。但仅凭我观察到的一些公司“上 AI”的方式,我不会惊讶如果不少部署最后落成了负 ROI。与此同时我也注意到,在科技圈外——比如美国很多非技术行业的人群里——存在一种很普遍的情绪:AI 是被强塞进来的。而这种抵触感,本身很可能就是“负 ROI 部署”的外在症状之一。

 

我看到的典型问题大概有几个。

 

首先,我总会回到一个老问题:硅谷经常忘了自己活在泡沫里。Twitter 是泡沫——抱歉,现在叫 X——硅谷是泡沫,软件工程也是泡沫。世界上绝大多数人、美国绝大多数人,都不是软件工程师。他们没有那么 “AI pilled”(被 AI 深度洗礼),也不会追踪每一次模型发布。很多人其实根本不知道怎么用这项技术,甚至对它怎么工作都没什么概念。

 

你看我们在 OpenAI 内部,会聊很多 Codex 的 best practices,甚至有一群人专门研究怎么把 Codex 用到最有效。X 上那些经常发帖的人,也几乎都是 AI 工具的疯狂 power user:skills、agents.md、MCP……这些他们都玩得很溜。

 

但当我去和很多公司聊,尤其是和真正要把工具用到日常工作的一线员工聊时,你会发现他们的需求非常基础,而他们对这项技术的理解也很有限。他们问的问题都很简单,离“把工具推到极限”还差得很远。

 

这也引出了我觉得更理想的 AI 部署方式应该是什么样——也是我们在 OpenAI 内部大体上是怎么运转的:那些“做得很顺”的公司,往往同时具备两件事。

 

第一,是自上而下的 buy-in。高层明确表态:我们要变成 AI-first 公司。于是资源会投入、工具会采购、组织会给到明确支持。

 

但第二同样关键:必须有自下而上的 adoption 和 buy-in。也就是那些真正干活的一线员工,要对这项技术感到兴奋,愿意学习、愿意布道、愿意总结 best practice,愿意在组织里做知识分享。

 

我们在 OpenAI 内部也经历过类似过程。OpenAI 一直希望自己以 AI 为中心,但真正让这件事“起飞”的,是 Codex 这类工具出现之后——因为员工终于能把它直接用到具体工作里。

 

你之所以需要自下而上的推动,是因为每个人的工作都不一样、非常具体。软件工程不等于财务,不等于运营,也不等于市场销售。落地到工作层面,会有大量“最后一公里”的细节,必须靠一线的人去试、去打磨、去改 workflow。

 

而很多 AI 部署之所以失败,恰恰是因为缺少自下而上的 adoption:它更像一条来自高层的命令,过于 top-down,又和真实工作怎么做脱节。结果就是,面对一整个庞大的员工群体,他们并不真正理解这项技术,只知道“我应该用它”,甚至绩效里也写着“你得用 AI 提升生产力”,但没人告诉他们具体怎么用。

 

他们环顾四周,发现也没有别人真的在用:没人可学、没路径可抄,于是就卡在原地。

 

所以我给那些想推进 AI 的公司的建议是:找到——甚至专门配备——一个全职的小团队,作为内部的 tiger team。这支队伍负责把能力摸透、落到具体 workflow 上,做持续的知识分享,在组织内部制造兴奋感,让更多人愿意尝试。没有这种机制,AI 真的很难被“捡起来用”。

 

主持人:那你会把谁放进这个 tiger team?它应该是工程师主导吗?还是你觉得更像一个跨职能团队?

 

Sherwin Wu:这个问题很有意思。因为现实是:很多公司根本没有软件工程师。所以我看到更常见的一种模式是——tiger team 的核心成员,往往来自“软件工程相邻”的岗位:技术向,但不一定是工程师。

 

这些人反而最容易先兴奋起来。比如支持团队或运营负责人:他不写代码,但特别爱折腾工具,可能还是个 Excel 高手、流程高手。你会发现,这类人一旦接触到 AI 工具,往往会“亮起来”——上手快、动力足,也愿意主动把用法总结出来。

 

所以这类 tiger team 的典型画像是:技术相邻、编码相邻,整体技术能力不弱,愿意试、愿意学、愿意带人。你通常可以以他们为核心搭起一个小团队。

 

当然,工程师加入会很有帮助,他们能更快理解底层机制、也更擅长做系统化落地。但很多公司没有这个条件:工程师是稀缺资源,难招也昂贵。于是很多时候,真正把 AI 推起来的,反而是这些“非工程师但技术向”的角色。

 

主持人:我听下来,你说的反模式就是:自上而下。比如 CEO 和高管团队拍板:我们要 AI-first,我们要全面拥抱 AI。每个人都会被考核:你用 AI 工具提升了多少生产力。但如果只有自上而下,没有建立一个自下而上“传播与带动”的团队,那这事就做不起来。

 

Sherwin Wu:对,完全是这样。核心建议就是:找到那些最兴奋的人。与其把他们分散在组织各处,不如把他们聚起来,组成一个小的“AI 传教士团队”。他们去探索怎么用、怎么落地,然后把用法扩散到整个组织。你这么复述我,我突然意识到:这也能和我自己的管理哲学对上。换句话说:找到 AI 采用上的高绩效者,然后赋能他们——让他们办 hackathon,让他们做分享会,让他们做知识分享,在内部种下兴奋感的种子。

从向量库到 skills:脚手架正在一层层被吃掉

 

主持人:我有几个“热观点”想听你展开一下。有一个我看到你经常提到:你说在 AI 领域,“去跟客户聊、听客户的话”不一定总是对的策略,甚至经常会把你带偏。

 

Sherwin Wu:我不确定这算不算多“热”。我想说的也不是“不该跟客户聊”——当然应该聊,而且非常有价值。

 

我更想强调的是:AI 这个领域(尤其是我过去三年在 API 这一侧看到的变化)迭代速度实在太快了。模型和整个生态会不断自我颠覆,特别是在工具链、脚手架这一层。

 

我这周刚看到一句话,来自 X 上的一篇文章,作者是 Nicholas——一家叫 Finol 的创业公司创始人。他分享了不少在金融服务场景做 AI agent 的实战经验(我记得他之前也在一家叫 FinTool 的公司做过类似方向)。他有句话我特别喜欢:“模型会把你的脚手架当早餐吃掉。”

 

你回看 2022 年 ChatGPT 刚发布的时候,模型还很粗糙。于是开发者工具圈冒出了大量“脚手架式产品”,用来约束、引导模型按你期望的方式工作:各种 agent 框架、向量数据库……那时候向量库尤其火,周边还长出了一大圈配套工具。

 

但这几年一路看下来,模型变得太快、也变得太强,结果它真的会把其中一部分脚手架“吃掉”。我觉得这件事今天仍然成立。Nicholas 那篇文章提到的“当前时髦脚手架”,是基于 skills 文件的上下文管理。你完全可以想象一个世界:未来某个时间点,这套东西也不再有用,因为模型可以自己管理这些上下文;或者整个范式又会切换到别的方向,不再需要这种文件式的 skills。

 

你已经亲眼看过这种事发生:agent 框架现在没那么有用了;2023 年一度我们以为向量库会是把组织知识引入模型的“主路径”——你需要把所有语料 embedding、做向量检索,还要做大量优化,保证在正确时间取到正确的信息。

 

那一整套,本质上都是脚手架,因为模型当时还不够强。而当模型变强后,更好的方式往往是:把很多逻辑拿掉,信任模型本身,给它一组用于搜索的工具就行。

 

这个搜索不一定非得是向量库,它可以接任何形式的搜索——甚至可以只是文件系统里的文件,比如 skills、agents.md 这种,来引导它。

 

当然,向量库仍然有它的位置,很多公司还在用。但“围绕向量库搭建整个脚手架生态、把它当成唯一答案”的那种假设,已经发生了很大变化。

 

所以回到“客户反馈”:你不一定总要听客户的,因为这个领域变化太快。很多客户在某个时点上其实处在一个“局部最优”里。

 

如果你只盲听客户,他们会说:我想要更好的向量库,我想要更好的 agent 框架……但如果你只沿着这条路走,你可能会做出一个“局部最优”的产品;而当模型能力再上一个台阶时,我们往往需要重新发明、重新思考:什么才是正确的抽象、正确的工具、正确的框架。而更有趣、也更令人兴奋、同时也有点让人抓狂的是:这是一个移动靶。

 

你今天认为“正确”的工具和框架组合,未来很可能还会继续演化、继续大改,随着模型越来越聪明、越来越强。这就是在这个领域里做产品的本质。这也是它令人兴奋的地方。但它也意味着:你和客户聊的时候,你需要在“他们此刻想要什么”与“你认为模型将往哪里走、未来一到两年会如何演化”之间做平衡。

 

主持人:这听起来很像所谓的 “bitter lesson”:在 AI/ML 领域里一个重要教训就是——你加得越多复杂逻辑、越多手工设计,反而越限制它规模化成长。你应该尽可能拿掉这些东西,让它计算、让它自己变强。

 

Sherwin Wu:对,这里确实存在一个“把 bitter lesson 应用到 AI 产品构建”的版本。我们曾经试图在模型周围架构很多东西,结果模型能力提升之后,它会把这些东西直接吃掉。说实话,OpenAI 的 API 团队在某些时候也犯过这个错:我们走过一些不该走的弯路。但模型还是会变强,我们也只能在日常中不断学习这条 bitter lesson。

 

主持人:那对那些在用 API 构建产品、构建 agent 的人来说,关键 takeaway 是什么?因为他们现在还是得围绕现阶段能力搭一些东西。你会给什么建议?

 

Sherwin Wu:我一直给大家的总体建议——到今天我仍然觉得成立——是:为模型将要去的地方而构建,而不是只为模型今天能做到什么而构建。

 

因为目标本质上是个移动靶。我见过不少做得特别好的创业公司,会围绕一种“理想能力”来设计产品:这种能力在当下也许只实现了 80%。所以他们的产品现在当然“能用”,但总像差最后一口气。

 

可一旦模型能力再往前迈一步,体验会突然“咔哒”一下被解锁:原本差的那一口气补上了,产品整体就从“勉强可用”变成“非常惊艳”。

 

比如某个关键能力在 o3 时代还不够稳,但到了 5.1、5.2 就突然可用了——他们之所以能吃到这波红利,是因为在产品设计时就把“模型必然会变强”当成前提写进了路线图。最终你会得到一种体验:它远远好过那种把模型能力当成静态、围着现状去打补丁的做法。

 

所以我的建议很简单:按模型未来的走向来设计。你可能需要稍微等一等,但模型变强的速度太快了,很多时候你并不需要等太久。

 

主持人:顺着这个话题,你能分享一下未来 6~12 个月 API 会往哪走?平台会往哪走?模型会往哪走?我知道这里很多内容可能是机密,但你可以分享多少就分享多少——你最兴奋的、你觉得大家应该开始准备的。

 

Sherwin Wu:一个最明显的方向是:模型能连续、稳定完成任务的时长正在变长。

 

有一个我觉得很有参考价值的基准指标(他提到的meter benchmark),用来跟踪在软件工程任务里,模型能稳定跑多久——比如在50% 成功率下能撑多长时间、在80% 成功率下又能做到多久。

 

我印象里,当前前沿模型大概是:在 50% 成功率上已经能完成“多小时级”的任务;但如果把门槛提高到 80% 成功率,可能还停留在“接近 1 小时、但还不到”的水平。这个基准指标最让人清醒的地方在于:它把历代模型都放在同一条时间线上,你能非常直观地看到趋势是怎么一步步往前推的。

 

让我兴奋的是:今天很多产品,其实还在围绕“模型能跑几分钟”来做优化。哪怕是 Codex 这种编码工具,你也会发现它更偏交互式、更像一个随叫随到的协作伙伴——它最擅长、也被优化得最充分的,往往还是十分钟左右的任务。

 

当然,我也见过有人把 Codex 推到极限,用它去跑多小时级的任务,但那仍然是少数案例,并不是常态。

 

如果沿着这个趋势继续往前推,我认为在未来 12~18 个月,我们会看到模型能更稳定、更连贯地完成“多小时任务”。甚至可能出现这样的阶段:你把一个大约 6 小时量级的任务交给它,让它自己先跑一段时间,再回来给你结果和进度。

 

一旦能力到了这个级别,围绕它构建的产品形态会完全不一样。你仍然需要给模型反馈,也肯定不希望它毫无约束地跑上一整天——也许有人会想这么做,但多数场景下不会。而当任务时长真正拉长,模型能覆盖的工作范围会一下子变得更大,能做的事情的“宇宙”也会随之扩张。这也是我最兴奋的一点。

 

另一个我觉得未来 12~18 个月会很酷的方向,是多模态模型的进步。更具体地说,我主要指音频

 

现在模型在音频上已经挺不错了,但我认为未来 6~12 个月,它会变得更强——尤其是那种原生多模态、speech-to-speech 的模型。同时音频侧可能还会有一些新的模型结构、架构方向出现。而音频在企业与商业场景里,仍然是一个被严重低估的领域:大家都在聊 coding,都在聊 text,但我们现在就是用音频在对话。世界上很多业务,就是靠“说话”完成的;很多服务与运营,也是靠沟通完成的。

 

所以我觉得未来 12~18 个月,音频会变得非常令人兴奋,我们会看到更多“被解锁”的能力。

 

主持人:我快速总结一下:你认为 agent 和 AI 工具会越来越能跑更长时间的任务,这个趋势会持续增强;然后音频与语音会变得更重要,更原生、更核心、体验更好。

主持人:回到你刚才的“热观点”。我还看到你经常讲另一个:你对“业务流程自动化”这个方向非常看多,觉得它会是 AI 世界里巨大的机会。聊聊这个?

 

Sherwin Wu:对,这其实又回到我前面说过的那件事:我们在硅谷生活在一个泡沫里。我们熟悉的工作形态——软件工程、产品管理、做产品——跟支撑整个经济运转的大量工作形态,其实完全不是一回事。我跟客户聊的时候经常能强烈感受到这一点:如果你去跟任何一家非科技公司聊,你会发现他们有海量的“业务流程”。

 

我一般会这样区分:软件工程更像一种开放式的知识工作(open-ended knowledge work)。这也是为什么像 Codex 这种工具会很强,因为它擅长探索,你给它的是开放式问题。

但软件工程的本质是非常开放的,而且它并不“可重复”。你做一个功能,不是为了反复做同一个功能一遍又一遍。很多科技类岗位都属于这种开放式工作:数据科学也有点像,甚至一些偏战略的财务工作也有点像。

但当你离软件工程、离“科技公司核心”越来越远,你会发现很多工作其实就是业务流程:可重复的事情、可重复的运营操作。它往往是某个公司的管理者长期迭代出来的一套做法,通常会有标准操作流程(SOP)。大家希望按 SOP 来做,而且不希望偏离太多。

软件工程的“聪明才智”往往在于创新、偏离、探索;但世界上大量工作的本质,其实就是按这些流程跑下去。

比如我打电话去客服,对方就在按一套流程走;我给水电煤公司打电话,他们也有很多流程和规则:哪些能做、哪些不能做。所以我对这一大类机会非常看多:用 AI 去做业务流程自动化。而且我觉得它被低估了,因为它跟硅谷日常聊的东西太不一样了,大家就很少想它。

但如果你去想:我们能不能用 AI、用我们现有的工具和框架,去自动化这些可重复、确定性很强(high determinism)的业务流程?能不能把它做得更省力、更顺滑?关键还在于:它必须深度集成企业的数据、企业的决策逻辑,以及企业内部的各种系统。我觉得这块机会巨大、要做的工作也非常多,只是我们不怎么聊,因为它不在我们的“舒适区”。

主持人:我确认一下我理解得对不对:你认为 AI 在“工程之外”的机会更大——它能更大幅度影响公司的生产力,影响大量从事可重复、容易自动化工作的人,甚至改变工作的组织方式。因为现实里很多工作就是这样被完成的。

Sherwin Wu:对。我经常跟很多大型企业客户聊:AI 会怎么在 20 年后改变我的公司?公司在 AI 世界里会怎么运转?

软件工程当然是故事的一部分,但业务流程那一侧还有更多。而且我觉得业务流程那一侧,最终可能会呈现出更“彻底不同”的样子,要做的工作量也非常大。

从绝对规模上说,我不确定它到底比软件工程更大还是更小——软件本身也非常庞大、覆盖面也非常广。但可以确定的是:这块真的很大,而且它远远大过你在 X/Twitter 上看到的讨论热度。很多人根本不谈它,所以你会低估它。

怎么才能不被 OpenAI “碾压”?

主持人:换个方向。你们做平台、做 API,很多人在 API 上做产品。大家脑子里最大的一个问题永远是:我怎么才能不被 OpenAI “碾压”?你们会不会自己做同样的东西,然后把我刚建立的市场给毁了?你们的总体政策、总体哲学是什么?创业公司应该怎么判断:哪些方向是 OpenAI 不太可能亲自下场的?

Sherwin Wu:我的总体回答是:市场太大了,机会空间巨大到离谱。创业公司真的不用过度纠结 OpenAI 或其他大模型实验室会做什么。

 

我见过很多创业公司,有做得不好的,也有做得很好的。所有我见过“熄火”的公司,没有一个是因为 OpenAI、某个大实验室、Google 之类“跑来碾压他们”。它们失败的原因更简单:他们做的东西没有真正打动客户,没有和客户需求产生共振。

相反,那些起飞的公司,即便在极其竞争的领域里也能做起来。比如 coding 这个领域竞争够激烈了,但 Cursor 现在依然很大——因为他们做出了大家真的很喜欢的东西。

所以我的建议是:别太焦虑这件事。专注做一个用户喜欢的产品,你一定能在里面找到空间。

我没法强调得更重:现在 AI 的机会有多大。机会大到一个程度,连 VC 的“可接受范围”(overton window)都被改变了——VC 现在在同一个赛道里投“互相竞争的公司”投得非常多、非常激进,就是因为空间太大、机会太大,几乎前所未有。

从创业者视角看,这反而是最赋能的环境:只要你做出一个让一部分人非常非常喜欢的东西,你就能做出一个价值巨大的生意。所以我才会反复说:别过度思考“会不会被碾压”。

另外还有一点也很重要,至少从 OpenAI 的角度:我们一直非常非常重视一件事,这也是 Sam 和 Greg 从顶层不断强调的——我们从根本上把自己看成一家“生态平台公司”。API 是我们的第一个产品。我们认为自己必须去培育这个生态、持续支持它,而不是去摧毁它。

你看我们做的很多决策,这条逻辑一直贯穿其中:我们每发布一个模型、在某个产品里上线,它最终都会进入 API。哪怕我们现在推出的 Codex 模型更偏向 Codex harness 的优化,它们最终也都会进 API,让所有 API 客户也能用到。

我们不会把这些能力“藏起来不放”。我们认为保持平台中立非常重要:我们不会屏蔽竞争对手,我们允许大家访问我们的模型。我们最近也在测试“用 ChatGPT 登录”这类产品,我们希望继续壮大这个生态——这件事非常重要。总体的逻辑就是:水涨船高。我们现在可能像一艘航母,体量很大,但我们认为把“潮位”整体抬高,对所有人都有好处,我们自己也会受益。

我们 API 的增长,某种程度上就是因为我们一直以这种方式行动。所以我真的鼓励大家别把 OpenAI 想成一个会随时把你推开、把你挤出去的存在。你应该把注意力放在:做出真正有价值的东西。我们会持续致力于提供一个开放的生态。

主持人:为什么这对 OpenAI 很重要?这种“做平台、让别人做生意”的坚持,是一开始就有的愿景吗?

Sherwin Wu:对,这是从一开始就有的。它甚至可以追溯到我们的章程、我们的使命。

OpenAI 的使命一直是两件事:第一,构建 AGI。我们当然在做这件事。第二,是把它的收益扩散到全人类(spread the benefits to all of humanity)。关键就在“全人类”。ChatGPT 当然在做这件事,我们想触达全世界。但很早我们就意识到:仅靠 OpenAI 作为一个公司,我们不可能触达世界的每一个角落。世界太大了,每个角落的需求都很深、很细。

所以为了完成使命,我们必须做一个平台:去赋能其他人来构建那些我们自己不可能亲自去做的东西——比如你刚才举的“为播客和 newsletter 主理人做客服 bot”这种产品,我们自己不会去做,但别人可以在平台上做出来。这就是 API 的意义。我们也一直非常喜欢看到生态里涌现出的各种东西,所以从第一天开始,这就是使命的一种体现。

主持人:而且你还没提你们要上线的 ChatGPT “应用商店”(app store)。这个是在你管的范围里吗?还是另一个组织/团队?

Sherwin Wu:那是另一个团队,更偏 ChatGPT 体系。但我们和他们合作非常紧密。他们做了一个 apps SDK,也是和我们团队密切协作出来的。但它确实是在 ChatGPT 的 umbrella 之下。

不过它也是同一个逻辑的例子:ChatGPT 现在大概有8 亿每周活跃用户,这些用户会反复回来用。对业务来说这是非常强的资产。但如果我们能让其他公司也进来,利用这个入口,为这个人群去构建产品——那不是更好吗?最终我们也认为这会帮助我们把这个用户群体继续做大。所以它依然回到使命:做平台、保持开放,往往能带来更大的增长。

主持人:你刚说的 8 亿这个数字……是每周活跃 8 亿吗?我刚刚脑子卡了一下。

 

Sherwin Wu:每周活跃 8 亿。

 

主持人:这太夸张了,简直前所未有。我们已经对这种规模数字麻了,但它真的离谱。

Sherwin Wu:对,从规模角度想这件事,我也觉得非常震撼。我会这么理解:差不多是全世界10% 的人口,而且还在增长。它还在往上冲。每周会有 10% 的世界人口来用 ChatGPT(准确说是每周)。

 

主持人:我也想再强调一下你刚才说的点:OpenAI 的使命是让 AI 的益处触达全人类。有些人会嘲讽这句话,说“这不是要收费吗”。但现实是:任何人都能用免费的 ChatGPT。免费版的能力,和世界上最强的 AI 模型也没有“天差地别”的那种距离,它不是被严格门槛挡住、只给少数人用的。如果你是亿万富翁,你能从 AI 里获得的增量,其实也有限;而一个在非洲某个村庄里的人,只要他能上网,他能获得的 AI 能力并不会差到哪里去。我知道这一直是 OpenAI 很在意的东西。

 

Sherwin Wu:对,这也是为什么我们会很重视医疗、很重视教育——教育这块会非常有意思。

还有一个很疯狂的趋势是:免费模型本身也越来越聪明。你回头看 2022 年的免费模型,当时已经算不错了,但跟今天比完全不是一个量级。你今天拿到的是 GPT-5(他这里提到“2 GB 5”,我按语义理解为 GPT-5 级别的免费能力)——所以我们所谓“抬高全球底线”(raising the floor)这件事,就是我们使命的一部分。

另外,从“亿万富翁”那个角度还有个有趣对比:有人说你用的 iPhone,跟 Zuckerberg 或那些亿万富翁用的,可能就是同一款。而现在某种程度上也类似:你每月 20 美元,就能用到“亿万富翁也在用的那套 AI”。你每月 200 美元,就能上 Pro——“亿万富翁也在用的 Pro”。但他们日常也不一定全用 Pro,很多时候也就是 Plus 级别。

所以这种“民主化”、这种把益处扩散到全世界的事情,对我们来说非常有意义,也驱动了我们很多决策。

 

主持人:最后一个问题:对那些想在 API 上做东西的人来说——可能他们突然意识到“我也可以用开源模型和 API 做很酷的东西”——你们的 API 和平台到底允许大家做什么?我知道你们能在平台上构建 agents。你能整体讲讲你们提供了哪些能力吗?

Sherwin Wu:从根本上说,API 提供的是一组开发者端点(developer endpoints),让你可以从我们的模型里采样(sample)。

现在最受欢迎的端点叫Responses API。它是一个专门为构建“长时间运行的 agent”优化的 endpoint——也就是能工作一段时间的 agent。

在最底层的 primitive 上,你基本就是给模型一段文本,让模型工作一会儿;你可以去轮询它(poll),看看它在做什么;然后在某个时间点拿到模型的返回。这是我们给开发者的最低层原语,也是很多人最常用的构建方式。它非常“不带观点”(unopinionated):你几乎可以拿它做任何事,它就是最底层的构建块。在这个之上,我们开始提供越来越多的抽象层,帮助大家更容易地构建这些东西。

再上一层,我们有一个非常受欢迎的东西叫Agents SDK。它允许你基于 Responses API 或其他端点,去构建更传统意义上的 agent:比如一个 AI 在一个近似“无限循环”的工作流里持续运行;它可能有子 agent,可以把任务委派出去。

它会帮你搭出一整套框架/脚手架——当然,未来这套脚手架会不会也被模型“吃掉”,我们也会继续观察。但在当下,它确实让构建 agent 变得容易很多:你能给它 guardrails,让它把子任务分发给其他 agent,去编排一个 agent swarm(蜂群式的 agent 体系)。Agents SDK 就是帮你做这些的。

 

然后再往上,我们也开始做一些更偏“部署层(meta level)”的工具。我们有一个产品叫Agent Kit和一些Widgets:本质是一组 UI 组件,让你可以很快地在 API 或 Agents SDK 之上做出一个很漂亮的界面。因为很多 agent 从 UI 视角看起来非常相似,所以提供一套组件能大幅加速产品化。

此外我们也有一些评估相关的产品,比如Eval API:如果你想测试模型、测试你的 agent 或 workflow 是否有效,你可以用我们的 eval 产品做比较量化的测试。

所以我会把它理解成一个分层的栈:不同层级帮助你用我们的模型构建你想要的东西,抽象层级越来越高、也越来越“带观点”。你既可以把整套栈都用起来,很快就做出一个 agent;也可以一路下沉到最底层,只用 Responses API 去搭你自己想要的一切。

闪电问答

主持人:Sherwin,在我们进入很刺激的 lightning round 之前,你还有什么想补充的吗?有什么你想留给听众的?有没有我们还没聊到、但你觉得很有帮助的点?

Sherwin Wu:我只想留一个信息:我觉得接下来两到三年,会是科技圈和创业圈在很长一段时间里最有趣的一段时间。

我鼓励大家不要把它当成理所当然。我 2014 年进入职场,头两年挺不错,但接下来大概五六年,我觉得科技圈没那么“兴奋”。而过去三年,是我职业生涯里最让人兴奋、最有能量的阶段。

我觉得未来两到三年还会延续这种状态。

所以别把它当成理所当然。总有一天这波浪潮会走完,变化会变得更增量、没那么剧烈。

但在这段时间里,我们会探索很多很酷的东西,发明很多新东西,改变世界,也改变我们工作的方式。这就是我想留给大家的。

主持人:我太喜欢这段话了,我想多问一句。你说“别错过”,那你具体建议大家做什么?是去 build、去拥抱、去学习、去加入一家做有趣事情的公司?你给那些想说“我不想错过这班车”的人什么建议?

Sherwin Wu:我会说:去参与它(engage with it)

基本就是你说的:去拥抱它。在这之上构建工具,是故事的一部分。但就算你不是软件工程师,你也完全可以拥抱它:去用这些工具。

我觉得很多工作都会被改变。所以你应该去用工具、理解它能做什么、不能做什么,理解它的限制,这样你才能看得见它随着模型进步会开始能做什么。

总之就是:让自己熟悉这项技术,而不是后仰着让它从你身边过去。

 

主持人:但反过来,也有很多压力和焦虑:事情太多了,我怎么跟得上?我这周要学 Clawbot,下周又冒出别的……你在中心位置,你怎么不被这种“错过恐惧”压垮?你怎么保持节奏、怎么跟新闻?

Sherwin Wu:我个人其实是个坏例子,因为我基本属于“长期在线”:X 上长期在线,公司 Slack 也长期在线,所以我确实会吸收很多信息。但我观察那些不像我这么“上瘾”的人,我觉得有一点很重要:大多数信息其实是噪音

你不需要让 110% 的东西都穿过你的大脑。说实话,你只要选一两个工具,先从小处开始,就已经完全够了。

行业节奏太快,再加上 X 这个产品本身的机制,会制造一种极其疯狂的新闻节奏,让人非常压迫、非常容易被淹没。

但你真的不需要掌握所有这些,才能参与到当下正在发生的事情里。

哪怕只是装一下 Codex 客户端玩一玩;装一下 ChatGPT,接上你的一两个内部数据源——Notion、Slack、GitHub——看看它能做什么、不能做什么,我觉得就已经很有价值了。

主持人:你有没有一个常常用来提醒自己的座右铭?

Sherwin Wu:我一直会对自己重复的一句是:永远别可怜自己(never feel sorry for yourself)。

工作和生活里会发生很多事。提醒自己不要陷入自怜,而是始终相信自己有主观能动性、能把自己拉起来——这是我经常需要对自己说的话,我也经常对别人说这句话。

 

参考链接:

https://www.youtube.com/watch?v=B26CwKm5C1k

今年估計要給"通勤夥伴"換兩雙鞋,大家有推薦的嗎?

車款:Model Y LR 23
目前:4 萬公里的原廠 Michelin Pilot Sport EV
座標:上海,冬天不下雪的區域
選手:Michelin PS5、Continental MC7
使用方式:60% 市區高架(80-100 km/h 的速度),30% 小熱血,10% 家人接送
備註:不考慮胎噪、能耗。

附上貓貓新年照。

image

春节,是属于 AI 的“高光时刻”。当数亿观众涌入央视春晚,与字节跳动旗下的 AI 助手“豆包”实时互动、抢红包、生成内容时,一场全民参与的 AI 压力测试悄然上演。

豆包全程稳定运行,不仅展现了 AI 的智能与亲和力,更在技术圈引发广泛讨论:在 AI 走向大规模实时交互的时代,系统稳定性已不再是可选项,而是 AI 规模化落地的基本前提。

但要让 AI 在亿级并发下依然丝滑如常,系统究竟需要跨越哪些挑战?

01  什么是“春晚级”系统挑战?

春晚,对于任何一个互联网应用而言,都是一场极限挑战。以豆包为例,它需要在极短时间内同时应对:

  • 超大规模并发:数亿用户几乎在同一窗口发起高频请求;
  • 高比例写入与生成负载:不只是浏览,更要实时完成 AI 内容生成、红包发放、互动反馈等操作;
  • 突发性极强的流量脉冲:关键节目节点可能瞬间引爆数十倍流量,要求系统具备秒级弹性能力。

任何一个环节的延迟或抖动,都可能引发连锁反应,导致响应变慢、交互中断等,最终损害用户体验与品牌信任。

这提醒我们:在 AI 应用走向全民化的今天,再惊艳的智能交互,也必须建立在稳如磐石的系统底座之上。

02  从“AI大秀”到“稳定性大考”

豆包在春晚的成功,标志着 AI 竞争正从模型能力的比拼,转向系统稳定性的较量。

面对高维、高频、不可预测的负载,传统依赖人工巡检和事后响应的运维方式已难以为继。AIOps(智能运维)正是应对这一挑战的关键——它将 AI 能力用于保障 AI 系统自身,实现:

  • 提前预警:通过对系统指标的智能分析,在用户体验受损前发现潜在风险;
  • 精准定位:在故障发生后,快速、精准地找到真实根因,告别人肉“作战室”;
  • 快速恢复:自动化执行恢复预案,减少人为干预延迟,将故障影响降至最低,保障核心业务连续性。

03  Castrel AI:您的“春晚级”稳定性

守护者在高并发、高复杂度的场景中,真正实现 AIOps 所承诺的提前预警、精准定位与快速恢复,需要一个能在真实生产环境中持续进化的 AI SRE 智能体

云智慧推出的SRE 智能体—— Castrel AI(鹰眼)正是为此而生。它就像一位经验丰富的“AI老专家”,7×24 小时守护着您的核心业务系统。

图片

  • 云智慧 Castrel AI 自动过滤高达 90% 的无效告警,避免团队被噪音淹没;
  • 在故障发生时,可基于日志、指标和调用链,分钟级完成根因分析,并自动触发恢复预案;
  • 更关键的是,它会从每一次排障中学习,持续优化自己的判断能力,让运维知识真正沉淀为组织资产。

图片

凭借这样的能力,国内主流AI SRE Agent产品——云智慧 Castrel AI 助力企业将潜在的“事故”变为可控的“故事”,通过将故障预测、根因定位与自动恢复融为一体的能力,将风险消弭于无形。

Castrel AI 将豆包春晚普及的 AI Agent 概念从 C 端的“数字伙伴”,延伸至 B 端复杂的运维场景,为 IT 团队带来可积累、可进化的自主学习与决策能力。

图片

AI 应用已经成为工作与生活不可或缺的一部分,AI基础设施的稳定性不再是后台保障,而是用户体验的基石。云智慧愿与您一起,共同迎接“稳定性大考”,守护每一次关键交互,让AI应用稳定可靠成为常态。

详询热线:400-666-1332,点击详询更多AI ARE 智能体——云智慧Castrel AI 的应用场景与案例

摘要:
OceanBase生态工具链包括四个核心组件:OAT专用于企业版产品工具部署;obd是开箱即用的部署与基础运维工具,支持集群和OCP安装;OCP提供企业级图形化管理平台,具备监控、诊断、备份恢复等高级功能;obshell作为内核原生组件,提供本地集群运维接口和轻量级Web管理页面。今天我们邀请了这些生态工具的产品负责人 —— 治民大佬,来为大家详细介绍和解析OceanBase的生态工具链。

说明:
本文的受众主要是 DBA。
如果是个人开发者:
Linux 环境下,推荐使用 seekdb 的安装包[1]。
Windows / Mac 环境下,推荐直接使用 seekdb[2] 的桌面版。

背景

OceanBase 作为一款领先的分布式云原生数据库,其强大的功能不仅体现在内核的高性能与高可用性以及强大的物理资源云化管理上,更体现在其丰富且层次分明的生态工具链上。这些工具共同构成了一个从部署、运维到管理的完整体系。

然而,对于社区版新用户或希望从社区版迁移到企业版的用户而言,OAT、obd、OCP 与 obshell / obshell Dashboard 等工具的定位和关系常常令人困惑。

本文旨在深入剖析这些核心工具的功能、定位及其相互关系,并为社区版用户提供一条清晰、可行的向企业版升级的路径。

一些历史

2017 年商业化阶段:OceanBase 正式对外商业化,我们提供了基于 OAT / OCP 的商业化部署方案。其中,OAT 作为独立工具,有效解决了部署 OCP、OMS、ODC 等产品时对元数据库(MetaDB 基于 OceanBase)的依赖问题,随后通过 OCP 部署企业版集群,大幅简化了商业化交付流程,实现了安装部署的标准化。

2021 年开源阶段:随着OceanBase开源,考虑到 OAT 仅支持 Docker 化部署,难以满足社区版用户对轻量化和简易部署的需求,我们选定 obd 作为社区版官方安装工具,并持续扩展其功能。obd 不仅支持 OceanBase(社区 / 企业版)的部署,还支持OCP(社区 / 企业版)的部署与升级,同时具备基础运维管理能力,有效响应了用户对命令行管控和简化 OCP 部署升级的诉求。

2023 年轻量化解决方案演进:在服务中小型客户过程中,针对部分用户对命令行与轻量级可视化管控的需求,我们进一步推出了内核级 obshell / obshell Dashboard 解决方案。该方案旨在让 obd / OCP 或其他三方产品能够基于 obshell SDK 进行 OceanBase 数据运维,实现所有运维管理操作的状态一致性。

说明:
obd 部分操作已适配 obshell,OCP(社区 / 企业版)支持 obshell 的启动 / 停止操作。

OceanBase 核心运维管理工具概览与关系

OceanBase 的安装部署和运维管理工具可以大致分为三个层级:命令行工具、图形化管理平台,以及内核级工具。它们相互协作,共同服务于数据库的全生命周期管理。

1. 工具简介

(1)OAT (OceanBase Administration Tool):企业版部署的辅助工具

OAT 是一个相对特定的工具,主要用于 OceanBase 企业版产品工具的部署。

核心功能:OAT 的主要功能是支持部署 OceanBase 企业版的产品工具。它是企业版生态中的关键环节,旨在为商业化部署场景提供便利。

定位与特点:OAT 的定位比 obd 更加专一,它服务于企业版产品工具如 OCP / ODC / OMS 以及 MetaDB(docker 形式) 等安装部署 / 扩缩容 / 升级等。

应用场景:商业化交付场景。

(2)obd (OceanBase Deployer):开箱即用的部署与基础运维工具

obd 是 OceanBase 最基础、最核心的集群 / OCP(企业和社区版) 安装部署工具,它扮演着 “自动化部署专家” 的角色。

核心功能:obd 的主要职责是简化 OceanBase 集群 / OCP 安装与部署。它支持 YAML 配置文件 / 交互式 / 可视化(web UI)三种部署形式,能够完成从软件包安装、环境预检查、环境配置、参数配置到集群启动的整个流程,极大地降低了部署的复杂度。

定位与特点:obd 是一个安装部署工具和集中化管控工具,强调“开箱即用”。它为用户提供了高度的灵活性和可定制性,适合熟悉命令行操作的用户或需要自动化脚本集成的场景。同时 obd 支持 RPM 形式部署方案,满足了部分对容器化技术有顾虑或有严格合规要求的客户的需求,确保了部署方式的普适性和选择的多样性。

运维能力:除了安装部署,obd 还提供了一定的运维能力,例如 obd cluster display 查看集群状态、obd cluster restart 重启集群、obd cluster destroy 销毁集群以及租户管理能力等。但其运维功能相对基础,主要集中在集群 / 租户的生命周期管理上, 若需可视化管控能力,建议与 obshell Dashboard 配合使用。

应用场景:多集群管理、入门体验、测试环境、中小规模生产。

(3)OCP (OceanBase Cloud Platform): 企业级图形化管理平台

OCP 是 OceanBase 的企业级云管理平台,是数据库管理的 “一站式中心”。

核心功能:OCP 提供了一个功能强大的 Web 图形化界面,它不仅支持部署和管理 OceanBase 集群,还提供全面的集群监控、性能分析、告警管理、备份恢复、租户管理、SQL 诊断与优化、自动化运维等高级功能。OCP 是企业用户进行日常运维、故障排查和容量规划的首选工具。

定位与特点:OCP 的定位是“企业级”和“可视化”。它极大地降低了数据库运维的门槛,使非资深 DBA 也能高效地管理数据库。OCP 本身也有社区版和企业版之分,其功能和授权策略有所不同,具体功能差异详见 OCP 官网文档。

部署方式:OCP 的部署通常有三种路径:一是直接使用 obd 配置文件形式部署;二是通过 obd web 命令启动一个 Web 安装向导,以更直观的图形化方式引导用户完成 OCP 的部署;三是通过 OAT 进行可视化部署。

应用场景: 多集群管理、大规模生产环境、企业级运维。

(4)obshell /obshell Dashboard: 内核级的命令行与可视化工具

obshell / obshell Dashboard 是与 OceanBase 深度集成的内核运维管理工具。作为 OceanBase 内核的原生组件,它提供了最直接的数据库操作接口。

核心功能:obshell 是一个 “免安装、开箱即用的本地集群命令行工具”。它不是一个独立的外部工具,而是由 OceanBase Server 节点(OBServer)提供的。obshell 内嵌在 OceanBase 的 RPM 包中,部署集群时会自动安装。它支持集群的运维操作,并基于 OBServer 节点对外提供运维管理 SDK。obshell Dashboard 则是 obshell 提供的基于 Web 的交互式管理页面,用于监控和管理集群及租户资源。

定位与特点:obshell 的定位是 “内核级” 和 “轻量版 OCP”。它与 obd 不同,obd 是外部部署工具,而 obshell 是内核提供的本地运维接口。obd 在管理集群时,会利用 obshell 提供的 python SDK 来执行部分运维操作。可以理解为,obd 是 “指挥官”,而 obshell 是 “执行兵”。对于单机或单个集群,obshell Dashboard 提供了一个轻量级的 Web 界面,可以作为 OCP 替代品,同时也可以实现 OCP 不可用场景下时的数据库运维管理能力。

应用场景:单集群管理、开发测试、小型生产环境。

2. 工具定位与功能矩阵

3. 产品工具关系图

管控使用方式建议

对于社区用户,如果不习惯 OAT 的管理方式,您可以选择以下两种方案进行集群运维:

(1) 直接使用 obd + obshell / obshell Dashboard 组合,实现命令行与轻量可视化工具结合的运维管理;

(2) 通过 obd 部署企业版 OCP,再由 OCP 管理企业版集群,实现图形化集中化运维管控并通过 obd 管理 OCP 的运维管理和升级。本组合下,obd 会扮演商业版 OAT 的角色。

工具使用建议

注意:
为避免管理混乱,建议大家在整个生命周期内仅选择其中一种方式对集群进行统一管理。

从社区版到企业版 —— 升级路径建议

许多用户从 OceanBase 社区版开始,随着业务发展,对性能、稳定性、功能或官方技术支持的需求日益增长,最终希望迁移到企业版。然而直接的 “原地升级”(in-place upgrade)从社区版到企业版并不可行。

主要包含 2 方面的原因:

OceanBase 官方不支持直接将社区版集群升级为企业版。

企业版和社区版 OCP 在集群管理上互不兼容,各自只能管理对应版本的集群。

推荐的升级路径:数据迁移法

基于不能原地升级的事实,最可靠的方法是通过在线数据迁移来实现从社区版到企业版的平滑过渡。核心步骤如下:

(1)准备企业版环境

获取 OceanBase 企业版的安装包和商业许可证。
使用 obd 或 OAT 在新的服务器环境上部署一个全新的 OCP 企业版。
通过新部署的 OCP 企业版,在另一组服务器上创建一个全新的 OceanBase 企业版集群。确保新集群的硬件配置、网络环境等满足业务要求。

(2)执行数据迁移

利用 OceanBase 生态中的迁移工具社区版 OMS (OceanBase Migration Service) 来完成数据迁移。
为社区版集群和企业版集群创建一个数据迁移项目,配置源(社区版)和目标(企业版)。
OMS 支持结构迁移,全量迁移和增量同步,可以实现业务的 不停服迁移。首先进行全量数据拷贝,然后在后台持续同步增量数据,最终在业务低峰期进行一次短暂的切换,将应用的连接字符串从社区版切换到企业版。

(3)验证与切换

在数据迁移完成后,对新企业版集群进行全面的功能和性能验证,确保数据完整性和业务逻辑正确。
验证无误后,正式将应用流量切换至企业版集群。若需反向数据同步,请使用企业版 OMS 创建企业版 OB 到社区版 OB 的增量数据同步链路。
监控新集群的运行状态,确保服务运行稳定。

总结与展望

部署阶段:OCP、obd、OAT提供灵活的部署方式选择

运维阶段:OCP、obd、obshell / obshell Dashboard 提供不同层级和业务场景的运维能力

OceanBase 为社区版用户提供了清晰的企业版升级路径。通过在线数据迁移技术,用户可在不影响业务运行的前提下,平滑升级至功能更完善、支持更全面的企业版,满足不同发展阶段的需求。在运维生态方面,OceanBase 构建了 OCP 与 obshell / obshell Dashboard 的协同体系,两者互为补充,共同确保各类业务场景的全面运维支持。正确理解各工具的定位和适用场景,选择合适的管控方案,是成功部署和使用 OceanBase 的关键。

未来,OCP 将与 obshell 将深度融合,构建协同一致全客户覆盖的运维体系。OCP 会持续强化可视化管控与企业级能力,obshell 则专注于轻量敏捷。通过两者的优势互补,我们将大幅降低数据库使用门槛,使 OceanBase 运维更加简单高效。这种 “重轻结合” 的创新模式将有力推动 OceanBase 在更广泛业务场景的普及应用,加速生态繁荣发展。

参考资料
[1]
seekdb 的安装包: https://www.oceanbase.com/softwarecenter
[2]
seekdb: https://www.oceanbase.ai/

随着成都及川内企业数字化发展,越来越多企业选择服务器托管降低运营成本,但 “成都 IDC 机房服务器托管一年多少钱” 成为高频疑问 —— 毕竟托管年费直接关系企业成本规划,选对服务商才能避免花冤枉钱。作为成都本地专业 IDC 服务商,成都极云科技结合自身服务经验,为大家拆解影响托管年费的 5 大核心因素,帮企业算清 “明白账”!

服务器托管并非 “单纯放机器”,成都极云科技的 IDC 机房托管服务,是帮企业将自有服务器(或租用设备)交给川内专业数据中心管理 —— 提供T3 + 标准机房场地、稳定电力、多运营商网络,同时负责 24 小时设备运维、故障响应、数据备份等,企业只需通过 Web 浏览器就能正常访问和管理数据,无需自建机房和养运维团队。

二、成都 IDC 机房托管一年多少钱?5 大影响因素(成都极云科技实测参考)

成都极云科技提醒:服务器托管年费无固定标准,核心受 “机房、带宽、电力、维护、设备”5 点影响,不同需求对应费用差异较大,以下结合成都本地服务场景给出具体参考:

1. 机房选择:川内机房级别决定基础成本,成都 T3 + 机房更省心

机房是托管的 “地基”,级别越高、设施越全,年费越高:

普通机房:川内部分老旧机房,无冗余电力、安防简单,1U 托管一年约 3000-4000 元,但稳定性难保障;

成都极云科技 T3 + 机房:依托川内优质 T3 + 标准机房(含成都本地机房),具备双路电力、恒温恒湿、7×24 小时安防,1U 托管一年基础费约 3500-5000 元,机柜托管一年约 4.5 万 - 7.5万元 —— 虽成本略高,但能避免因机房故障导致的业务中断(如断电、漏水),适合成都企业核心业务。

2. 带宽费用:按需选带宽,成都多运营商网络更灵活

带宽直接影响服务器访问速度,是托管年费的 “弹性支出”,成都极云科技提供电信 / 联通 / 移动多运营商带宽,费用参考:

单线带宽(如电信 10M):适合成都本地业务为主的企业,一年约 1800-2500 元;

多线带宽(如电信 + 联通 20M):适合川内跨区域业务,避免运营商互通卡顿,一年约 3600-5000元;

大带宽(100M 及以上):适配电商、直播等高频访问场景,成都极云科技可定制,一年约 1.8万 - 2.5万元(按实际带宽需求核算)。

3. 电力费用:按功耗算钱,高电需求企业需重点考虑

服务器运行依赖稳定电力,成都极云科技按 “机柜 / 机位功耗” 收取电费,川内市场参考:

普通机位(1U/2U,功耗≤300W):电费含在基础托管费中,无需额外支付;

标准机柜(10A/13A,功耗≤3KW):按整机柜算,一年 约4 .5万 - 7.5 万元;

高电机位(4KW-15KW,适配 AI、大数据设备):成都极云科技提供专属电力配置,电费约 800-1500 元 / KW/月(按功耗结算,无隐藏费)。

4. 维护费用:24 小时运维是关键,成都本地响应更快

维护费对应 “服务保障等级”,成都极云科技的维护服务分 2 类,年费差异明显:

基础维护(含机房巡检、设备重启、故障预警):已包含在托管基础费中,无额外收费,一年 0 元;

增值维护(含系统安装、数据备份、硬件更换协助):适合无技术团队的成都企业,一年约 2000-5000 元(按服务内容定制,比外包技术团队成本低 60%)。

5. 设备费用:可自购可租用,成都极云科技不强制捆绑

若企业无自有服务器,可选择成都极云科技的设备租用服务,年费受配置影响:

1U 入门级服务器(适合初创公司):租用一年约 3000-5000 元;

准机柜配套设备(适合中型企业):租用一年约 1 万 - 2 万元;

高配置定制设备(适合高负载业务):按 CPU、内存、硬盘配置核算,一年约 2.5 万 - 6 万元;

* 注:成都极云科技支持 “自购设备托管”,不强制捆绑租用,帮企业节省不必要的设备支出。

三、成都极云科技:不同企业托管一年多少钱?给个参考范围!

结合上述因素,成都极云科技给出川内企业托管年费参考(按常见需求搭配):

成都初创公司(1U 服务器 + 10M 电信带宽):一年约 5300-7500元(含 T3 + 机房 + 基础维护);

川内中型企业(1 个标准机柜 + 50M 多线带宽):一年约 5.4 万 - 8.8 万元(含电费 + 基础维护);

• 高功耗企业(4KW 高电机位 + 100M 带宽):一年约 5.6 万 - 10万元(含定制电力 + 增值维护)。

四、成都企业选托管:别只看价格,这 3 点更重要!

成都极云科技提醒:选 IDC 机房托管不能只比 “一年多少钱”,还要关注:

本地化服务:优先选成都本地服务商(如成都极云科技),24 小时现场运维,设备故障 1 小时内响应,比外地服务商省时间;

透明报价:拒绝 “模糊套餐”,要求按 “机房 + 带宽 + 电力 + 维护” 分项报价,无隐形消费(成都极云科技支持定制化报价单,每项费用可追溯);

口碑信誉:查服务商是否有川内企业案例(如成都电商、制造企业合作案例),避免遇到 “收钱不办事” 的不良商家。

若您是成都初创公司、中型企业,或川内有高功耗设备托管需求,想知道 “自己的业务托管一年具体多少钱”,欢迎联系成都极云科技!提供设备规格、带宽需求,即可获取本地化定制报价,帮您算清托管成本,选对不选贵!

智能客服网页版:5分钟上线的企业客服革命

企业客服的新选择

在数字化转型的浪潮中,企业官网的客户服务体验成为影响转化率的关键因素。传统的客服模式面临人力成本高、服务时间受限等挑战,而访答智能客服网页版的出现,为企业提供了全新的解决方案。

技术优势解析

基于深度优化的中文RAG技术,访答能够深度学习并解析官网内容,构建专属知识库。这项技术不仅支持文字内容,还能识别图片、图文混排等多模态资源,将图片信息融入问答逻辑,提升解答的直观性。

部署效率对比

与需要技术团队介入的传统客服系统不同,访答实现了真正的零开发部署。企业只需将生成的代码嵌入网站,5分钟内即可上线专属智能客服机器人。这种轻量化部署方式,大幅降低了企业的技术门槛和时间成本。

持续运营价值

访答的独特之处在于支持知识库一键更新。当网站内容发生变化时,企业无需修改前端界面,即可同步更新客服知识库,确保持续提供准确的问答服务。溯源参考导航功能还能引导用户深度浏览官网,提升网站留存率。

这种基于官网内容的智能问答解决方案,真正实现了"问有所答、答有所据",帮助企业提升品牌形象与访问转化率。

​ 

OpenClaw 这波热度很高,想亲手跑一遍的人越来越多。但很多人第一步就卡在环境上:装依赖、配权限、跑服务,折腾半天还没开始体验。

我们做了一件更省心的事:把最新 OpenClaw 直接预置进灵臂 Lybic 的 Linux 镜像里。你不用本地安装,也不用准备服务器,开一个云端 Linux 沙盒就能直接用。更“偷懒”的是,你甚至不一定需要电脑,用手机登录 Lybic 官网控制台也能完成创建与启动操作。

然后再加一层更有意思的“套娃”玩法。

前两天我们刚把 Lybic Skills 上线到 OpenClaw 的 skills 商店。也就是说,当你在 Lybic 的 Linux 沙盒里跑 OpenClaw 时,可以让它反过来调用 Lybic 的能力,去批量创建和管理更多沙盒环境,包括 Windows、Android、Linux。你可以把它理解成:在一个沙盒里,指挥 OpenClaw 去拉起一组沙盒集群,然后把任务分发进去跑。

这有什么用

如果你在做评测和复现,可以同时起多个环境,跑不同任务集或不同配置,省去手工点点点。

如果你在做 GUI 相关自动化,可以把“执行”分散到独立的 Windows 或 Android 沙盒里,互不干扰。

如果你在做长链路工作流,也可以把不同阶段拆到不同环境里,各跑各的,失败了就重来,环境本身可以随时重置。

三步极简开箱体验

前往 Lybic 控制台按需创建 Linux 沙盒,切换到实时视图

图片

根据提示输入API Base URL、 API Key、Model ID。如果需要粘贴进沙盒,可以使用上方的发送文本功能。

图片

图片

看到 Setup Complete说明配置成功

图片

接下来可以使用沙盒内的浏览器打开Web UI地址 http://127.0.0.1:18789,点击 Overview,在 Password 栏输入默认密码 lybic,点击connect,如果一切正常,你会看到右侧 Snapshot 卡片中  status  栏变为绿色 Connected

图片

最后就可以回到 Chat 界面,进行 OpenClaw 体验了。当然,这一切输入配置操作等,你也可以尝试前往我们的 Playground 体验中心,让 GUI Agent 来帮你完成操作。试试看,如果仅仅是动动嘴,打打字,AI能帮你做到哪一步呢,也许答案会超乎你的想象。

图片

在生产计划领域,一个常见难题是:面对新订单时,到底该不该考虑仓库里已有的库存?多生产会造成浪费,少生产又可能无法按时交付订单。
JVS - 智能 APS 系统在排产时,会依据不同的设置条件,精准且灵活地处理库存与订单的关系,为企业解决上述难题提供了有效方案。
智能APS系统排产时会兼顾几个点,在【排产策略】的【约束物料】开启的条件下,首先会根据订单的成品下单数量与该成品的库存进行对比。若是库存满足订单的成品数量,则无需排产。若库存无法满足订单成品数量,则会订单数量扣减库存数量。举例说明:现在需要CN-PLUS-BLUE-01产品2600个。
图片
而对应该产品的现有库存为0,此时就会排2600个。
图片
若该产品由半成品构成,此时半成品库存也不足。aps排产时则会自动增加半成品订单。
图片
若是【排产策略】的【约束物料】未开启的条件下,如下图所示。
图片
那么就不会考虑库存影响,直接按订单数量进行排产。好比现在要生产2600个,库存有2000个。也不会考虑库存影响,且不会进行扣减。依旧生产2600个,即不会参与MRP计算。
在线demo:https://aps.bctools.cn
开源地址:https://gitee.com/software-minister/jvs-aps

image

大家好,我是 Rumus 的开发者,来分享一下自己做的终端工具,顺便招募一波内测用户。

Rumus 是什么

一句话概括:一个好看、好用的终端,内置 AI Agent。

做这个项目的初衷是觉得市面上的终端要么功能强但颜值拉胯,要么好看但不够实用,而且几乎没有把 AI 能力原生集成进去的。所以就自己做了一个。

主要功能

  • 内置 AI Agent - 接入最新的 AI 大模型,可以直接在终端里用自然语言写脚本、自动化任务、问问题
  • 智能命令补全 - 会学习你的使用习惯,越用越懂你
  • SSH 连接管理 - 保存主机凭证,一键连接,内置 SFTP 拖拽传文件
  • 工作区管理 - 终端卡片 + 监控小组件,多任务管理很方便
  • 隐私优先 - 端到端加密,AI 功能可以随时关闭,数据自己掌控
  • GPU 加速渲染 - 丝滑流畅

支持 macOS / Windows / Linux 三端。

内测福利

现在注册即可获得:

  • 1 个月 MAX 订阅(解锁全部功能)
  • $1 AI 模型额度(体验内置 AI Agent)

使用方式:访问 https://www.rumus.ai 注册账号后,在设置里输入激活码即可。

码用完了也没关系,可以在帖子下面留言,我再补。

反馈渠道

欢迎大家来体验,有任何问题或建议随时交流!

今天打开 cf 说看一下网站流量,结果找不到以前的一些功能了。
本来流量统计这里,是有按照维度聚合的,比如 ip、请求头啥的,可是今天突然没有了,昨天还有的。
有朋友知道他是砍了还是挪到别的地方去了吗
image]

一、为什么需要IP地址SSL证书?

在许多企业级应用和开发场景中,IP直连是刚需:

  1. 无域名的内部系统:企业的ERP、OA后台或工业控制面板,往往仅通过内网IP访问,没有配置域名 。
  2. 开发与测试环境:开发人员在本地或云服务器调试代码时,使用IP地址配置HTTPS可以更真实地模拟生产环境 。
  3. API接口与设备通信:物联网设备、银行专线接口等,通常直接与固定IP进行加密数据传输。
  4. 避免域名暴露:某些高安全需求场景下,使用IP而非域名可以减少子域名枚举攻击的风险。

二、IP证书与域名证书有何不同?

IP地址SSL证书的原理与域名证书类似,都是通过CA(证书颁发机构)验证所有权后,绑定公网IP并实现HTTPS加密。但IP证书的申请门槛更高:

  • 必须是公网IP:CA机构需要能够访问该IP的80或443端口进行验证,内网IP(如192.168.x.x)无法申请公共信任的SSL证书。
  • 验证方式特殊:由于IP无法做DNS解析,IP证书通常仅支持文件验证(HTTP验证)。
  • 供应商较少:并非所有CA都支持IP证书签发,选择时需要特别甄别 。

三、为什么选择JoySSL申请IP证书?

IP证书申请入口

在众多SSL品牌中,JoySSL凭借其对IP证书的友好支持和本土化服务,成为无域名用户的理想选择。

  1. 支持IP证书签发
    JoySSL是国内较早支持公网IP地址SSL证书申请的CA机构之一,无论是DV(域名验证型)还是OV(企业验证型)IP证书,都能提供完整的解决方案 。
  2. 提供免费测试版本
    对于个人开发者或初期测试环境,JoySSL提供IP证书的免费试用版。用户只需在注册时填写特定注册码230970,即可获得申请权限,极大降低了试错成本。
  3. 数据不出境,合规更安心
    JoySSL作为国产CA,其验签服务器部署在国内。对于政府、教育、金融等有数据合规要求的领域,使用JoySSL意味着敏感信息无需出境,满足等保合规要求 。
  4. 自动化管理工具
    JoySSL平台提供证书到期预警和一键部署脚本,帮助用户避免因证书忘记续期而导致的业务中断 。

四、JoySSL IP证书申请全流程(四步搞定)

如果您手头只有一个公网IP,别担心,跟着以下步骤即可快速实现IP HTTPS加密。

第一步:注册账号并获取权限
  • 访问JoySSL官方网站,点击“注册”。
  • 在注册过程中,填写特定注册码 230970(免费证书申请必填),完成账号创建 。
第二步:选择IP证书并下单
  • 登录后台,在证书选择界面找到“IP SSL证书”或“IP地址证书”。
  • 根据需求选择证书类型:

    • DV IP证书:验证最快,适用于个人或测试环境。
    • OV IP证书:验证企业身份,适用于商业系统。
  • 提交您的公网IP地址,完成下单(试用版免费)。
第三步:完成IP所有权验证
  • 验证方式:IP证书通常采用文件验证。您需要在IP地址对应的网站根目录下,创建指定的验证文件(例如:http://您的IP/.well-known/pki-validation/xxx.txt)。
  • 关键点:确保该IP的80端口(HTTP服务)能够被公网访问,且未开启强制HTTPS跳转,否则CA无法读取验证文件 。
  • 提交验证后,通常10分钟至几小时内即可完成审核。
第四步:下载证书并部署到服务器
  • 审核通过后,在JoySSL后台下载证书压缩包(包含Nginx、Apache、IIS等主流服务器格式)。

引言:内网安全升级的必然选择

在数字化转型加速推进的当下,内网安全已成为企业核心竞争力的关键组成部分。传统RSA算法因密钥长度不足、抗量子计算能力弱等问题,逐渐暴露出安全隐患。与此同时,我国自主研发的SM2算法凭借其高安全性、高效率及自主可控特性,成为内网加密生态升级的核心技术支撑。国密IP证书作为SM2算法的载体,通过绑定内网IP地址与设备身份,构建起“身份认证+数据加密+访问控制”三位一体的安全防护体系,为内网安全提供了全新解决方案。

国密算法内网IP证书,满足密评需要,支持免费试用,注册码230959

一、RSA算法的局限性:内网安全的潜在风险

1. 密钥长度与计算效率的矛盾

RSA算法的安全性依赖于大整数分解的难度。随着计算能力的提升,1024位RSA密钥已可被破解,2048位密钥虽能满足当前需求,但其密钥长度(2048位)远超SM2算法的256位,导致计算效率低下。例如,在金融交易场景中,RSA签名验证耗时是SM2的3-5倍,难以满足高并发需求。

2. 抗量子计算能力的缺失

量子计算的发展对RSA构成致命威胁。Shor算法可在多项式时间内分解大整数,使现有RSA密钥体系崩溃。相比之下,SM2基于椭圆曲线离散对数问题,在量子计算环境下具有更强的抗攻击能力,为内网安全提供了长期保障。

3. 实现漏洞与后门风险

RSA算法在实现过程中存在诸多漏洞,如随机数生成缺陷、填充方案漏洞等。例如,2012年Android系统因随机数生成器熵不足,导致数万设备共享同一RSA密钥,引发大规模数据泄露。此外,国际算法可能存在技术后门,威胁国家信息安全。

二、SM2算法的优势:内网加密的革新力量

1. 高安全性与短密钥

SM2采用256位椭圆曲线密钥,其安全强度相当于3072位RSA密钥,但计算效率提升3倍以上。例如,在政务信息化场景中,SM2签名验证耗时仅0.5ms,较RSA缩短70%,显著提升系统吞吐量。

2. 自主可控与合规性

SM2是我国自主研发的密码算法,符合国家密码管理局标准,可避免国际算法的技术封锁与后门风险。在等保三级要求中,SM2已成为内网加密的强制标准,助力企业通过合规审计。

3. 多功能集成与灵活性

SM2支持数字签名、密钥交换与公钥加密,可覆盖内网全场景需求。例如:

  • 数字签名:确保数据来源可靠性与完整性,防止伪造与篡改;
  • 密钥交换:通过椭圆曲线Diffie-Hellman协议实现安全会话密钥协商;
  • 公钥加密:结合SM4对称加密算法,实现端到端数据保护。

三、国密IP证书的核心价值:重塑内网安全生态

1. 身份认证:从IP地址到可信凭证

国密IP证书将内网IP地址与设备身份强绑定,形成唯一数字标识。例如,在医疗机构信息系统中,医护人员通过证书访问电子病历,系统可精准追溯操作行为,防止数据泄露。

2. 数据加密:全流程安全防护

国密IP证书结合SSL/TLS协议,实现内网通信全流程加密。以金融机构交易后台为例,用户发起转账请求后,数据从客户端到银行服务器的传输过程中,均采用SM2加密与SM3哈希校验,确保交易安全。

3. 访问控制:精细化权限管理

基于证书属性,企业可实施最小权限原则。例如,在教育机构校园网中,重点实验室仅允许授权设备访问实验数据采集平台,通过证书吊销机制实时阻断非法访问。

4. 审计追溯:安全事件快速定位

国密IP证书记录所有操作日志,包括认证时间、访问设备与行为内容。在工业互联网场景中,若发生设备异常,管理人员可通过审计日志快速定位问题IP与操作人,缩短响应时间。

四、国密IP证书申请与部署:五步实现安全升级

1. 选择合规CA机构

优先选择获得国家密码管理局认证的CA机构,如JoySSL、CFCA、上海CA等。国际CA机构通常不提供国密算法证书,需避免选择。

2. 提交申请与验证

  • 生成密钥对:使用GmSSL、OpenSSL等工具生成SM2密钥对,妥善保管私钥;
  • 提交CSR文件:在CA平台填写内网IP、组织信息,上传证书签名请求文件;
  • 完成验证:OV证书需人工审核企业资料,DV证书通过技术手段自动验证(如放置验证文件至目标IP服务器)。

3. 签发与下载证书

审核通过后,CA签发包含SM2签名证书与加密证书的文件包。例如,CFCA签发的证书包通常包含.crt(证书文件)与.key(私钥文件)。

4. 服务器部署与配置

以Nginx为例:

nginx
server {
    listen 443 ssl;
    ssl_certificate /path/to/sm2.crt;
    ssl_certificate_key /path/to/sm2.key;
    ssl_protocols TLSv1.3;
    ssl_ciphers ECC-SM2-WITH-SM4-SM3;
}
  • 禁用弱算法:仅启用国密套件,避免降级攻击;
  • 测试验证:使用GmSSL工具测试握手协议,确认无弱算法使用记录。

5. 自动化运维与监控

  • 证书生命周期管理:通过内部PKI体系实现证书自动更新与吊销;
  • 日志审计:记录所有SSL握手事件,满足等保三级要求;
  • 可视化监控:部署安全运营中心(SOC),实时监控证书状态与加密流量。

五、未来展望:国密算法的星辰大海

随着《密码法》与信创产业的推进,SM2算法将在更多关键领域替代RSA。例如:

  • 量子计算融合:研发抗量子SM9算法,提前布局后量子时代;
  • 物联网轻量化:优化证书格式,适配低功耗设备;
  • 云原生集成:与Kubernetes等云平台深度融合,实现动态证书管理。

结语:守护内网安全的中国方案

国密IP证书不仅代表着密码技术的升级,更象征着企业安全理念与管理模式的深刻变革。从RSA到SM2的转型,是企业构建自主可控内网安全体系的必由之路。那些率先采用国密IP证书的企业,正在通过“身份可信、数据加密、访问可控”的三维防护,筑牢数字时代的安全防线,将技术投入转化为实实在在的竞争优势。