CVE-2026-22822:External Secrets Operator严重漏洞破坏命名空间隔离机制

xiaohack博客专注前沿科技动态与实用技术干货分享,涵盖 AI 代理、大模型应用、编程工具、文档解析、SEO 实战、自动化部署等内容,提供开源项目教程、科技资讯日报、工具使用指南,助力开发者、AI 爱好者获取前沿技术与实战经验。



rnarriottinternational.com 这类 URL 时,大脑常会 “自动修正” 视觉信息,误判其为官方域名 “Marriott”。rnarriottinternational.comrnarriotthotels.com(针对特定酒店品牌的定向攻击)rnicrosoft.com 发送虚假安全警报或账单通知,具备三大欺诈特征:| 钓鱼域名 | 仿冒服务 | 拼写欺诈手段 | 识别难度 |
|---|---|---|---|
| rnarriottinternational.com | 万豪国际(Marriott International) | “m” 替换为 “rn” | 极高(Critical) |
| rnarriotthotels.com | 万豪酒店(Marriott Hotels) | “m” 替换为 “rn” | 极高(Critical) |
| rnicrosoft.com | Microsoft 365 / 登录服务 | “m” 替换为 “rn” | 高(移动设备) |
| micros0ft.com | 微软(Microsoft) | “o” 替换为数字 “0” | 中(Medium) |
| microsoft-support.com | 微软支持(Microsoft Support) | 添加连字符 / 后缀 | 低(Low) |
marriott.com 或 microsoft.com 访问官方网站;rnicrosoft.com 与真实 microsoft.com 不一致),不会自动填充账号密码,从源头规避信息泄露风险。今年体检发现肾结石越来越严重了,估计都排不出来了
。
Payload Website Template 是 Payload 官方提供的网站模板,适用于搭建从个人到企业级的各类网站、博客或作品集。 环境准备 重要提示:在继续操作之前,请确保您已满足上述要求。 1. 准备数据库,首先,本案例采用Postgres数据库进行演示。 2. 安装Postgres数据库成功之后,可以看到我们的数据库运行是正常的 3. 我们接着打开 SQL Shell(psgl) 工具,并执行下面命令创建一个数据库 4. 完成上述操作后,数据库准备工作就好了。5. 现在,我们打开CMD窗口,使用create-payload-app命令行界面将此payload模板直接克隆到您的计算机 6. 然后在选择数据库的时候,选择 PostgreSQL(您也可以选择其他的数据库,具体需要您自行摸索) 7. 接着在下方的地址里,把您PostgreSQL的密码输入替换掉原来的<password>8. 然后等待安装完成即可。 9. 完成之后,可以看到上面提示我们进入到对应的目录,我们执行下面的命令 10. 接着,我们执行启动运行命令 注意:这里如果数据库名称没有配置正确,会提示报错,需要重新去创建一个名词的数据即可 11. 访问服务服务启动后,可以通过浏览器访问以下地址:Web界面: http://..:* 12. 点击 Visit the admin dashboard ,将进入配置初始化页面,然后创建您的账号密码 13. 创建完成之后,即可进入到本地 Dashboard 服务页面了 二、 创建 ZeroNews 映射服务 1. 首先,打开 ZeroNews 网站,然后选择您的系统(小编用的是用Win10,选择Windows即可),并按照对应的步骤和命令安装运行 Agent 服务。 2. 运行完成之后,您可以在 Agent 页面看到已经在线的 Agent 服务。 3. 接着,我们在域名端口页面,创建一个可用的公网域名(自定义前缀),并勾选HTTPS 协议端口。 4. 域名创建完成之后,我们继续打开映射页面,并按下面的步骤添加映射 5. 照上述步骤创建完成之后,我们就可以得到一条可公网访问的映射域名 三、 公网访问您的Payload Website Template服务 1. 我们在任意有网络访问电脑的浏览器上,复制上面的链接并打开访问。 2. 输入刚才本地创建的账号密码后登录 3. 登录成功之后,即可进入管理页面
该模板内置功能完善的后端系统、企业级管理面板,以及一套设计精美、可直接用于生产环境的前端界面。
如果您计划开展以下项目,本模板将是一个理想选择:
一、 部署Payload Website Template服务



my-project 后面会用到。











注意:Agent 前台运行不能关闭命令窗口
如果您想要开机自启动,可以执行后台运行命令





a) Agent:选择第一步运行的 Agent
b) 映射协议:选择 HTTPS 协议
c) 域名:选择刚创建好的域名
d) 带宽:根据需要选择带宽大小
e) 内网IP:我们是本地部署,直接使用 127.0.0.1 即可
f) 内网端口:输入本地服务的端口 3000 即可




首先无论是什么渠道, 对于普通人来说 35+ 的程序员, 不好就业, 就是一个既定事实。 甚至都不一定与自己的工作经历、学历 有多大的关系。 甚至我知道很多 35+ 的老哥们, 经验丰富, 985 大学毕业, 依然不好找工作, 这个不是个例。 我们不过多探究为何 35+ 的程序员不好就业, 我们可能需要更多关注, 怎么在这种大背景下「绝地求生」 “35 岁危机”并非绝对,大量 35 岁以上的程序员仍能保持职业竞争力,甚至更受青睐,核心在于是否具备“不可替代性”: 首先看看「管理型」, 我感觉上面三个「绝地求生」方向, 管理方向, 反而是最不考虑的, 其实很简单, 现在大社会都是紧缩模式,只有出局的业务,没有新业务开展了。 那么这个时候, 就出现一个更加严重的问题, 「技术管理系」岗位, 一个萝卜一个坑, 甚至可以说, 你无论技术有多牛逼, 但是没有那个坑位, 可能永远都上不去。 甚至还有一个比较搞笑的现象,都是很多中小公司离开一线很久的技术 leader , 找不到坑位了, 再想着来投递技术岗, 技术上基本上生疏很久了, 基本上很难再就业。 这种人真不在少数。 深耕技术性 - 有利有弊 这个其实是一个非常好的方向, 但是这种人往往都是大头兵, 或者叫做高级工具人。 首先需要花非常多的时间和精力去做深耕技术, 要时刻保持最前沿的技术储备, 最充沛的精力, 最丰富的热情。然后要去干最累的活儿, 干最难的事儿, 但是不一定有好结果。 很简单, 这个业务线没了, 那也只能去找下一份工作。 而且大头兵, 很容易为业务背锅。 都是高级打工仔了, 做的好, 是应该的, 做的不好就得背锅。 而且还要想办法跟 AI 做差异性竞争。 很简单, 做了一个非常好的工作架构, 然后 AI 可以用非常低的成本做替代, 那就白干了。 上面说了那么多缺点, 这个方向就真的那么不堪吗?其实也不是, 只要努力, 肯吃苦, 至少下限还是很高的。 因为这个路子, 就跟上大学一样,你只要一直读书, 肯吃苦, 就能上到 博士 。 做深耕技术也是一样的, 只要肯努力, 耐得住寂寞, 一直死磕下去, 基本上在一个方向都能有几刷子的。 对于迷茫型和努力型同学,这个也是最佳直选。 所以有利有弊, 各位同学可自行斟酌。 业务融合型 - 性价比之王 技术的价值最终要落地到业务中,30 + 程序员若能将技术能力与具体行业的业务逻辑深度绑定,会比 “纯技术专家” 更难被替代 —— 因为年轻人可以快速学会技术,但吃透一个行业的业务规则(如金融风控逻辑、医疗流程规范、制造业供应链协同)往往需要 5 年以上的沉淀。 这个才是我真正想跟大家聊一聊的方向。 机-会 技术大厂,前端-后端-测试,全国均有机-会,感兴趣可以试试。待遇和稳定性都还不错~ “技术 + 业务” 复合岗,核心是 让技术能力成为 “解读业务、解决业务痛点” 的工具,而非终点。 这种转型的价值在于:业务逻辑的沉淀周期长(5-10 年),年轻人可快速学会技术,但难以短期吃透行业规则,这正是 30 + 程序员的经验红利。以下从 “有价值的业务方向”“业务理解训练方法”“避坑要点” 三个维度展开,附具体实操步骤: 选择业务方向的关键标准:业务逻辑复杂(有门槛)、监管严格(需经验规避风险)、技术与业务深度绑定(技术优化能直接带来业务收益)。以下是几个高价值领域: 核心业务逻辑:金融行业的本质是“风险定价+资金流转”,涉及复杂的监管规则(如央行反洗钱、银保监会合规要求)、用户分层(高净值客户vs大众客户)、业务流程(信贷审批、理赔核保、交易清算)。 核心业务逻辑:医疗行业的核心是“患者诊疗全流程”,涉及医院内部流程(挂号、分诊、问诊、检查、缴费、取药)、医保政策(医保目录、报销比例、异地结算规则)、医疗安全(病历隐私、药品溯源)。 核心业务逻辑:制造业的核心是“生产效率提升+成本控制”,涉及生产流程(订单排产、物料采购、车间加工、质量检测、物流配送)、设备管理(设备故障率、OEE设备综合效率)、供应链协同(供应商交付周期、库存周转率)。 技术结合点: 核心业务逻辑:跨境电商的核心是“跨区域供需匹配”,涉及海外市场规则(如亚马逊的A+页面规则、TikTok Shop的物流时效要求)、跨境链路(报关、清关、海外仓配送)、本地化运营(语言、支付习惯、合规要求,如欧盟增值税VAT)。 技术结合点: 为什么值得做:跨境业务涉及“多国家、多规则、多链路”,技术方案需灵活适配(比如某国突然调整进口关税,系统需快速支持税率更新),经验能减少试错成本,年轻人易因不了解海外规则导致系统“水土不服”。 技术人员常陷入“只懂代码不懂业务”的误区,核心问题是:习惯用“技术实现”倒推“业务需求”,而非从“业务目标”推导“技术价值”。以下步骤帮你系统性建立业务思维: 步骤1:从“被动接需求”到“主动问目标”——搞懂“业务为什么需要这个功能” 步骤2:画“业务流程图”——用可视化方式梳理业务环节(比写代码更重要) 步骤3:“泡在业务场景里”——亲身体验业务,而非只听业务方描述 步骤4:建立“业务知识体系”——像学技术一样系统化学习业务 步骤5:输出“业务-技术关联报告”——证明你能“用技术解决业务问题” ——转载自:晴小篆不要侥幸,35 岁以上的程序员不好找工作, 这是一个既定事实

这些方向可以让 35+ 程序员依然抢手
技术深度型:在某一细分领域(如底层架构、算法优化、安全攻防)有深耕,成为行业公认的技术专家。例如,专注于分布式系统设计、AI 大模型工程化的资深工程师,35 岁后反而因经验稀缺而抢手。
业务融合型:熟悉特定行业(如金融、医疗、制造业)的业务逻辑,能将技术与行业需求深度结合。例如,懂银行业务的支付系统架构师、懂医疗流程的医疗信息化专家,年龄增长带来的业务经验反而成为优势。
管理转型型:从技术岗转型为技术管理(如 CTO、技术总监、团队负责人),具备带团队、做决策、对接业务的能力。这类岗位更看重“经验沉淀”和“资源整合能力”,35-45 岁往往是黄金期。
技术管理型 - 有坑
精通技术的业务专家成长之路
一、值得深耕的“技术+业务”方向(附核心业务逻辑与技术结合点)
技术结合点:
信贷领域:用AI模型优化风控(需理解“逾期率”“不良率”等业务指标,以及征信数据、行为数据如何影响授信);
交易领域:低延迟交易系统(需理解股票/期货的“撮合规则”“涨跌停限制”,技术优化直接影响交易成功率);
保险领域:智能核保系统(需理解“健康告知”“免责条款”等业务规则,技术需实现“用户输入→规则匹配→核保结论”的自动化)。
为什么值得做:金融监管政策每年更新(如2025年央行新规对“消费贷资金用途监控”的要求),技术方案必须跟着业务规则调整,经验越丰富越能快速响应,年轻人易因不懂合规踩坑。
技术结合点:
医院信息系统(HIS):需理解“门诊/住院流程”(如门诊的“医生开单→药房发药”环节,技术需对接收费系统、药品库存系统);
互联网医疗:在线问诊平台需符合《互联网诊疗管理办法》(如“首诊不能线上”“电子处方流转规则”),技术架构要支持“医患身份核验→问诊记录留存→处方合规性校验”;
医疗大数据:医疗影像AI辅助诊断(需理解“CT/MRI影像的临床意义”,技术模型训练需结合医生诊断逻辑,而非纯数据拟合)。
为什么值得做:医疗流程标准化程度低(不同医院流程差异大),且涉及生命安全,技术方案容错率极低,需要“技术+临床经验”双重积累,30+的耐心和细致更具优势。
工业物联网(IIoT):设备数据采集与分析(需理解“数控机床的主轴温度、转速与产品精度的关系”,技术需将数据转化为“设备维护预警”等业务动作);
MES系统(制造执行系统):生产排产优化(需理解“订单优先级、物料齐套率、设备产能”的制约关系,技术算法要平衡“交付时效”与“生产成本”);
质量追溯系统:需理解“产品不良品的产生环节”(如焊接工艺参数异常导致的缺陷),技术需实现“生产数据→不良原因”的反向追溯。
为什么值得做:制造业数字化转型依赖“懂生产的技术人”,纯技术人员易陷入“为数字化而数字化”(比如盲目上物联网设备却不会分析数据),而有车间经验的技术人员能精准定位痛点(如某环节停机1小时损失5万元,技术优化需优先解决)。
选品系统:需理解“海外市场需求”(如东南亚雨季对雨具的需求波动),技术通过爬虫+数据分析预测“潜力商品”;
跨境ERP:需对接“多国物流商API”“海关报关系统”,技术需处理“汇率换算”“多语言订单”“合规申报”等业务细节;
本地化营销工具:如TikTok直播带货的“实时翻译+弹幕互动”功能,技术需结合“海外用户互动习惯”(如欧美用户更关注产品参数,东南亚用户更关注价格)。
二、训练“业务理解能力”的5个实操步骤(从0到1建立业务思维)
具体做法:每次接需求时,多问3个问题:
“这个功能要解决用户的什么痛点?”(如“用户反馈支付失败率高”,而非只接“开发新支付渠道”);
“这个功能的业务指标是什么?”(如“支付成功率从90%提升到99%”,而非“完成开发即可”);
“如果这个功能上线后不达预期,备选方案是什么?”(理解业务的优先级和容错空间)。
案例:若业务方提“开发一个优惠券系统”,技术人员不应直接设计表结构,而是先问:“发优惠券是为了拉新还是促活?目标是提升客单价10%还是复购率20%?预算多少?”——这些决定了系统是否需要支持“新用户专属券”“满减叠加规则”等细节。
工具:Figma(画流程图)、Visio(复杂流程)、甚至手绘;
核心要素:每个流程节点包含“谁(角色)→做什么(动作)→输入/输出什么(信息)→遇到异常怎么办(分支)”;
案例:画“电商退款流程”时,需明确:
角色:用户、客服、财务、仓库;
动作:用户发起退款→客服审核(是否符合7天无理由)→财务确认退款金额→仓库确认是否收到退货→系统打款;
异常分支:“用户已拆封商品”是否支持退款?“仓库未收到货但用户说已寄出”如何处理?
价值:流程图能帮你发现“技术设计的盲区”(如漏考虑“退款失败后重试机制”),也能让你在和业务方沟通时“用他们的语言对话”(而非只说“接口、数据库”)。
具体做法:
若做电商:自己下单、退货、咨询客服,记录每个环节的体验(如“退款到账时间长”可能是技术链路太长);
若做医疗系统:去医院门诊“蹲点”,看医生如何开单、护士如何分诊、患者如何缴费(你会发现“医生开单时频繁切换系统”是真实痛点,技术可做集成优化);
若做金融:假扮客户打电话给银行客服,咨询“信用卡逾期如何处理”(理解业务方常说的“催收流程”实际是怎样的)。
关键:技术人员容易“坐在办公室想当然”,而业务的真相往往藏在一线操作中。比如某团队开发“外卖骑手App”时,程序员亲自骑了3天车,才发现“高峰期导航频繁卡顿”是比“界面美观”更重要的问题。
方法:
行业基础术语库:整理业务常用词(如金融的“拨备率”“LPR”,医疗的“DRG/DIP”“电子病历互联互通”),每个词注明“定义+业务意义”(如“DRG”是“按疾病诊断分组付费”,影响医院的收费和成本控制);
监管规则清单:收集行业相关政策(如跨境电商的《跨境电子商务零售进口商品清单》,金融的《个人信息保护法》对数据采集的要求),标注“哪些规则会影响技术方案”(如数据本地化存储要求决定服务器部署位置);
业务指标公式:搞懂核心KPI的计算逻辑(如“电商GMV=流量×转化率×客单价”,“银行不良率=不良贷款余额/总贷款余额”),理解技术优化如何影响这些指标(如“页面加载速度提升1秒→转化率提升2%→GMV增加X万元”)。
工具:用Notion或Excel整理,定期更新(如政策变动时),避免“业务术语听不懂”的尴尬。
核心动作:每完成一个项目,写一份“技术方案如何支撑业务目标”的报告,包含:
业务背景:项目要解决什么业务痛点(如“工厂因排产不合理,订单交付延迟率达15%”);
技术方案:用了什么技术(如APS高级排产算法),为什么选这个技术(对比其他方案,该算法在“多品种小批量”场景下更优);
业务效果:技术上线后,业务指标有何变化(如“交付延迟率从15%降至5%,每月减少违约金100万元”);
经验沉淀:如果再遇到类似业务问题,技术方案可复用哪些部分(如“排产算法可适配其他工厂的生产模式”)。
价值:这份报告不仅是你“业务+技术”能力的证明(跳槽时可作为案例),更能倒逼你在项目中主动思考“技术的业务价值”,而非只关注“代码写得漂不漂亮”。
三、转型避坑:这3个误区会让你“既不像技术,也不像业务”
误区1:放弃技术深度,单纯“转业务”
复合岗的核心是“技术为根,业务为翼”,而非变成纯业务岗。比如做金融科技,若不懂分布式系统,就无法设计高并发的交易系统;若不懂AI,就无法优化风控模型。保留技术深度,同时叠加业务理解,才是不可替代的关键。
误区2:只学“表面业务”,不懂“业务本质”
比如做电商,知道“优惠券能促单”是表面,理解“不同面额的优惠券对不同客群(新用户vs老用户)的转化差异”才是本质;做医疗,知道“电子病历要存数据”是表面,理解“病历数据如何支持医生诊断决策”才是本质。多问“为什么”,穿透业务动作看目标。
误区3:等待“别人教业务”,而非主动获取
业务方通常很忙,不会系统性教你业务知识。要主动“找信息”:看行业报告(艾瑞、易观)、读专业书籍(如《支付战争》懂支付业务,《精益生产》懂制造流程)、加行业社群(如医疗信息化的“HIT专家网”)、甚至考行业证书(如PMP学项目管理,CFA基础懂金融)。
科学计算器在线工具: https://see-tool.com/calculator 工具截图: 计算器使用说明 基本操作 功能键说明 M+ M- MR MC Rad Deg RND工具网址

工具介绍
鼠标点击网页计算器的[数字键]/[功能键]进行计算
也可通过键盘上的数字键与加减乘除等符号按键进行计算
键盘上的Backspace键,可删除上一个输入的内容
键盘上的回车键Enter,相当于等号,会直接进行计算
AC
清除显示区的数字或执行清除常量操作
存储器的数字加上显示区的数字,计算结果并存入存储器中
存储器的数字减去显示区的数字,计算结果并存入存储器中
显示存储器中的数字到显示屏
清除存储器中的记忆的内容
切换为弧度制(计算三角/反三角时使用)
切换为角度制
输出大于0,小于1的随机数
OV(Organization Validation)级别SSL证书,即组织验证型SSL证书,是一种通过严格身份验证流程来确认网站或应用所属组织合法性的数字证书。它结合了数据加密与组织身份验证功能,是介于DV(域名验证)和EV(扩展验证)证书之间的安全解决方案,适用于需要平衡安全性与成本的中大型企业及机构。 访问JoySSL官网,注册时填写注册码230970,获取一对一技术支持。一、什么是OV级别SSL证书?
二、OV SSL证书的核心价值
1.增强用户信任
2.满足合规要求
3.提升品牌形象
4.平衡安全性与成本
三、如何申请OV SSL证书
OV SSL证书申请入口

四、哪些企业需要使用OV 证书
1.电子商务平台
2.金融服务机构
3.企业官方网站
4.政府公共部门
5.中大型企业及机构
6.需满足搜索引擎优化(SEO)需求的企业

我之前做过一个类似的功能,一开始也是使用@Somebody,后面放进数据库,发现实现更简单,不用处理复杂的逻辑。
只是提供参考哈
早上更新完后 Claude 模型的用量一下就掉完了,因为我是 9.30 上班,显示还有 40 分钟重置,所以这个不可能是我自己用的。

有人遇到过同样的情况吗?装过两个不同的查看用量的插件,不知道是官方的原因还是插件导致的,如果是插件导致的,有办法解除授权吗?
前阵子写的日志分析工具NginxPulse,自开源以来,已过去 2 周时间,目前 GitHub 已收获 1.5k 的 star 。收到了不少用户的反馈建议,花了点时间将这些问题都处理了下。
本文就跟大家分享下新版本都解决了哪些问题,优化了哪些内容,欢迎各位感兴趣的开发者阅读本文。
有不少用户反馈说日志文件很大的时候( 10G+),解析速度非常慢,需要解析好几个小时,解析完成之后数据看板的查询也比较慢(接口响应在 5 秒左右)。
于是,我重写了日志解析策略(解析阶段不做 IP 归属地查询,仅入库其他数据,将日志中 IP 记录起来),日志解析完毕后,将记录的 IP 做去重处理,随后去做归属地的查询处理(优先本地的 ip2region 库,远程的 API 调用查询做兜底),最后将解析到的归属地回填至对应的数据库表中,这样一套下来就可以大大提升日志的解析速度。
数据库的数据量大了之后,SQLite 的表现就有点差强人意了,请教了一些后端朋友,他们给了我一些方案,结合我自身的实际场景后,最后选定了 PostgreSQL 作为新的数据库选型。
这套方案落地后,用户群的好兄弟说:他原先需要解析 1 个小时的日志,新版只需要 10 多分钟。

有一部分用户反馈说他非专业人士,这些晦涩的配置对他来说使用门槛太高了,希望能有一个 UI 配置页面,他只需要点一点、敲敲键盘,就能完成这些配置。
我将整个配置流程做成了 4 步,同时也准备一个[演示视频](NginxPulse 支持 UI 配置化了) - https://www.bilibili.com/video/BV1hqzyBVEU9:

因为配置过于庞大,仓库主页浏览 README.md 比较费劲,希望能整理一份 wiki 文档发上去。
花了点时间,简化了下 README ,整理了一份: https://github.com/likaia/nginxpulse/wiki

有部分用户反馈说希望增加更多的筛选条件以及导出 Excel 功能,现在它来了:

概况页面的日期筛选之前放在趋势分析卡片的上方,但是他的切换影响的维度还包含了指标,于是我就调整了下它的位置,新版如下图所示:

至此,文章就分享完毕了。
我是神奇的程序员,一位前端开发工程师。
如果你对我感兴趣,请移步我的个人网站,进一步了解。
浩辰CAD看图王电脑版的「尺寸标注」功能,能够标注各种尺寸,如:长度、面积、弧长、角度、坐标、半径、直径等,使用起来简单方便,新手一看就会。有了尺寸标注,就能更精准化的查看图纸的信息。接下来和大家分享一下各种不同标注的操作教程。1、线性/对齐标注线性标注和对齐标注都是对长度进行标注。线性标注适用于横平竖直的线段进行标注,标注的是水平或者垂直的距离;对齐标注适用于对倾斜的线段进行标注,标注的是线段的实际长度。两种标注的操作方法是一样的:【文字标注】菜单栏点击【线性/对齐】标注功能,在界面上点击线段的两端,相应的尺寸就标注在图纸上了。如下图所示,点击的是同一条线段的相同两个端点,线性标注出来的是线段的水平长度1386,对齐标注出来的是线段的实际长度2746。
2、面积标注面积标注可以直接标注出所在区域的实际面积和周长。操作方法:【文字标注】菜单栏点击【面积】标注功能,在界面上点击需要测量面积区域的各个顶点,回车后,所选区域的面积和周长就显示出来了,点击相应的位置即可将面积和周长标注在图纸上。如下图所示,虚线区域【门厅】的面积为31㎡,周长为23500㎜。需要注意的是标注面积的时候点击的各个顶点对应的图形面积是闭合的,即如果点击三下,就构成一个三角形,那么标注出来的就是三角形的面积,下图中我们需要标注的是四边形(矩形)的面积,就需要点击五下,即矩形的第一个顶点点击后,最后回来还要再点击一次,才能构成一个闭合的四边形,标注出来的才是整个四边形的面积。
3、坐标标注浩辰CAD看图王电脑版的坐标标注包含坐标找点和点标坐标。坐标找点就是输入相应的坐标可以在图纸中找到相应的点,并进行标注;点标坐标就是点击图纸中的某一点,就可以将该点的坐标标注在图纸上。操作方法:【文字标注】菜单栏点击【坐标】标注功能。①坐标找点:在下拉列表中选择【坐标找点】,在出来的左侧菜单栏中输入需要查找的点,点击菜单栏中的【查找并标注】即可。②点标坐标:在下拉列表中选择【点标坐标】,直接在图纸中点击相应的点,该点的坐标就标注在图纸上了。如下图所示,左侧坐标找点,找到了原点位置,并标注在了图纸上,右侧点标坐标,随机选取了一个点,该点的坐标就标注在图纸上了。
4、半径/直径标注浩辰CAD看图王电脑版可以一键标注圆或圆弧的半径和直径。操作方法:【文字标注】菜单栏点击【半径】或【直径】标注功能,在图纸上点击需要标注的圆或圆弧即可。如下图所示:同一个圆弧的半径和直径均标注在图纸上了,图中因为设置的精度是整数,所以直径和半径不是完全的2倍,想要更加精准的话可以在设置里面进行精度设置。
5、角度标注浩辰CAD看图王电脑版的角度标注包含绘制两边和选择实体。绘制两边就是绘制出角度的两边即可测量出两边之前的角度;选择实体是选择图纸上相应的实体,测量其角度。操作方法:【文字标注】菜单栏点击【角度】标注功能。①绘制两边:在下拉列表中选择【绘制两边】,在界面上点击指定角的顶点和两个端点,相应的角度就标注在图纸上了。②选择实体:在下拉列表中选择【选择实体】,直接在图纸中点击相应实体的两边,对应角的角度就标注在图纸上了。如下图所示,左侧绘制两边,根据顶点和两边标注出的角度为79°,右侧选择实体,选择了图纸中原有楼梯的两条线段,标注出其角度为120°。
6、弧长标注浩辰CAD看图王电脑版可以一键标注圆或圆弧的长度。操作方法:【文字标注】菜单栏点击【弧长】标注功能,在图纸上点击需要标注的圆或圆弧即可。如下图所示:点击圆弧就将圆弧的长度2019mm标注到图纸上啦。
除了上面介绍的标注功能外,浩辰CAD看图王电脑版还有专门针对标注文字的内容编辑功能,标注隐藏功能以及测量设置,可以对标注的比例、样式、字高,箭头大小、颜色、线宽、坐标系、精度等进行设置,操作起来都超级方便,快来试试吧!
为防止大语言模型和 AI Agent 执行嵌入在外部数据中的恶意指令,所有进入 Agent 上下文的文本在完成校验之前都必须被视为不可信数据,其中不仅包括用户输入的提示,还包括来自外部系统的各类信息。AI 安全公司 CyberArk 的首席软件架构师 Niv Rabin 表示。为此,他所在的团队提出了一种基于“指令检测”(Instruction Detection)与“历史感知校验”(History-Aware Validation)的方法,用于同时防御恶意输入数据和上下文历史投毒攻击。 Rabin 介绍说,团队设计了多种防御机制,并将其组织成一个分层的处理流水线。流水线中的每一层都针对不同类型的威胁,目的是减少单一防护手段不可避免存在的盲区。 这些防御措施包括“蜜罐动作”(honeypot actions)以及指令检测器,用于拦截具备指令特征的文本,确保模型最终接触到的仅是经过验证、且不包含指令的数据。同时,这些机制也会应用于整个上下文历史中,以防止所谓的“历史投毒”(history poisoning)。这种攻击方式指的是,原本看似无害的内容片段在多轮交互中逐步累积,最终拼接成一条完整的恶意指令。 所谓“蜜罐动作”,本质上是一种用于诱捕恶意意图的安全陷阱,即 Agent 在任何正常业务场景下都不应选择的合成动作。 这些动作对应的是一些不会真正执行任何操作的虚拟工具。它们并非用于完成实际任务,而是作为安全信号存在,其工具描述被刻意设计成能够暴露可疑行为。 在提示中出现的可疑行为包括对系统内部机制的元层级探测、异常的数据提取尝试,以及试图诱导模型泄露系统提示(system prompt)的操纵行为等。如果 LLM 在动作映射阶段选择了其中一个蜜罐动作,通常就意味着存在明显的异常或越界行为。 Rabin 指出,真正的安全风险并不主要来自用户输入,而是来自外部 API 或数据库的返回结果。针对这一问题,团队引入了指令检测器作为关键防护手段。 这种检测已经不再是传统意义上对“恶意内容”的搜索,也并非基于关键词、文本毒性或策略违规的判断,而是聚焦于识别文本中所蕴含的意图、行为模式以及指令在结构层面的特征。 指令检测器本身是基于 LLM 构建的“裁判模型”。在任何外部数据被送入主模型之前,检测器都会对其进行审查,并被明确要求识别任何形式的指令,无论其表现得多么直白或隐蔽,从而使系统能够在第一时间阻断可疑数据。 此外,时间也被证明是一种重要的攻击向量。早期响应中零散存在的恶意指令片段,可能会在后续交互中被重新组合,最终形成一条完整指令。这种现象被称为“历史投毒”。 示意图展示了一个典型案例:LLM 被要求分别获取三段数据,单独来看,这些数据完全无害;但合并在一起后,内容实际拼成了一条指令,要求系统停止处理并返回特定结果。 为防止历史投毒,所有历史 API 响应都会与最新获取的数据一并提交给指令检测器,作为一个统一输入进行分析。 Rabin 指出,历史投毒并不是发生在数据进入系统的入口阶段,而是发生在系统从历史记录中重建上下文的过程中。通过引入这一机制,即便对话历史中隐藏着试图干扰模型推理的细微线索,系统也能够在模型受到影响之前及时发现异常。 上述所有步骤都会在同一条流水线中运行。一旦任意一个阶段检测到风险,请求就会在模型处理之前被直接拦截;只有通过全部校验后,模型才会处理已经净化过的数据。 Rabin 总结,这种方法的关键在于将 LLM 视为一个长期运行、跨多轮交互的工作流系统,而非一次性的请求响应组件。他在原文中对这一方案进行了更为深入的展开,对于关注 AI 安全问题的读者而言,值得进一步阅读。 原文链接: https://www.infoq.com/news/2026/01/cyberark-agents-defenses/
作为企业项目管理负责人,你是否曾陷入“软件功能堆砌却不贴合业务”的困境——研发团队需要敏捷迭代与缺陷追踪,工程团队依赖甘特图与资源管控,营销团队看重流程可视化与跨部门协同,而一款通用工具往往难以兼顾所有场景。2026年,项目管理软件市场呈现“专业化细分+AI赋能”趋势,从轻量化看板到企业级全生命周期解决方案,产品矩阵愈发丰富。本文聚焦10类核心业务需求,拆解10款主流产品的核心能力,帮助不同行业、不同规模的团队跳出选型误区,找到适配自身的工具。 以下产品按“场景适配性”分类介绍,均保持中立客观表述,聚焦功能模块与适用场景,不做优劣对比,每款产品至少覆盖4个核心功能模块,各模块用一句话总结核心价值。 适配场景:中大型研发团队、国产化适配需求企业,支持本地部署保障数据安全。 适配场景:跨国研发团队、对流程自定义有极致需求的技术团队,需关注云端数据合规性。 适配场景:中型创意团队、营销团队,适合跨部门协同与项目时间线管控。 适配场景:中型企业通用场景,适合任务管理、文档协作与审批流程一体化需求。 适配场景:小微团队、初创公司,适合简单任务分发与快速流转管理。 适配场景:创业团队、小型部门,适合轻量化任务管理与内部协作。 适配场景:大型企业、工程施工团队,适合复杂项目全生命周期与成本管控。 适配场景:中型企业、市场团队,适合复杂项目资源管理与跨国协作。 适配场景:全规模团队、敏捷开发小组,适合功能一体化与高度自定义需求。 适配场景:初创团队、运营团队,适合可视化协作与低代码自动化需求。 上线后分角色开展培训(管理层关注仪表盘,执行层关注任务操作),建立反馈机制优化流程配置;每季度复盘工具使用效率,结合业务变化调整功能模块,让软件持续适配团队需求。 2026年项目管理软件选型的核心,早已从“选功能全的”转变为“选适配自身的”。无论是研发团队的敏捷迭代、企业级的多项目管控,还是小微团队的轻量协作,都能在上述10款产品中找到匹配选项。禅道凭借国产化适配与研发全流程能力,成为国内团队的优选;Jira、Microsoft Project等海外产品则在跨国协作与复杂项目管控中具备优势。最终,选型的关键在于穿透表面功能,锚定业务痛点与长期发展需求,让工具成为项目效率提升的“助推器”,而非流程负担。一、从选型困境到精准匹配
二、2026年10款主流项目管理软件核心功能解析
(一)研发项目专用型
1. 禅道

2. Jira

(二)通用协同型
3. Asana

4. Teambition

(三)轻量看板型
5. Trello

6. Tower

(四)企业级全周期型
7. Microsoft Project

8. Wrike

(五)全能整合型
9. ClickUp

10. Monday.com

三、10类核心需求与产品精准匹配清单
四、2026年项目管理软件选型核心建议
(一)选型前:锚定核心需求,规避三大误区
(二)选型中:三维评估,精准筛选
(三)选型后:落地优化,持续适配
五、总结
本节详细聊一下基于envoy的可观测性 首先是日志,配置日志的方式也很简单 envoy有默认的admin页面,方便查看统计信息、打开某些功能的开关等 打开9901页面: 可以查看相关的统计信息、也可以打开某些开关,功能还是很丰富的 打开了admin之后,就默认提供了相关的prometheus stats 这时只需在k8s集群外弄一个prometheus,并且采集该envoy即可 prometheus.yml jaeger的安装可以参考这里: opentelemetry全链路初探--埋点与jaeger jaeger启动之后,改造一下envoy的配置,这里要特别注意,不同版本的配置不一样,我这里envoy的版本是:v1.32 修改完成之后重启下envoy jaeger成功接收到了来自envoy的trace 由于只在envoy配置了trace,没有和后端服务联动,所有只显示了envoy这一段的trace信息,如果要联动后端,可以参考这个系列的文章: 全链路监控配置 至此,logs、metrics、traces三大可观测的指标建设完成,envoy可观测性的建设也结束了 至此,本文结束前言
日志
static_resources:
listeners:
- name: ingress_listener
address:
socket_address:
address: 0.0.0.0
port_value: 10000
filter_chains:
- filters:
- name: envoy.filters.network.http_connection_manager
typed_config:
"@type": type.googleapis.com/envoy.extensions.filters.network.http_connection_manager.v3.HttpConnectionManager
stat_prefix: ingress_http
...
access_log:
- name: envoy.access_loggers.stdout
typed_config:
"@type": type.googleapis.com/envoy.extensions.access_loggers.stream.v3.StdoutAccessLog
log_format:
text_format: "[%START_TIME%] \"%REQ(:METHOD)% %REQ(X-ENVOY-ORIGINAL-PATH?:PATH)% %PROTOCOL%\" %RESPONSE_CODE% %BYTES_SENT% %DURATION% %REQ(X-REQUEST-ID)% \"%REQ(USER-AGENT)%\" \"%REQ(X-FORWARDED-FOR)%\" %UPSTREAM_HOST% %UPSTREAM_CLUSTER% %RESPONSE_FLAGS%\n"
path: /var/log/envoy/access.logadmin管理页面
admin:
address:
socket_address:
address: 0.0.0.0
port_value: 9901

merics接入prometheus
http://10.105.148.194:9901/stats/prometheusglobal:
scrape_interval: 5s
evaluation_interval: 5s
rule_files:
- /etc/prometheus/*.rules
scrape_configs:
- job_name: 'prometheus'
static_configs:
- targets: ['localhost:9090']
- job_name: "envoy"
metrics_path: /stats/prometheus
static_configs:
- targets: ["10.105.148.194:9901"]
docker run -d --name prometheus \
-p 9090:9090 \
-v ./prometheus.yml:/etc/prometheus/prometheus.yml \
-v /usr/share/zoneinfo/Asia/Shanghai:/etc/localtime \
registry.cn-beijing.aliyuncs.com/wilsonchai/prometheus:v3.5.0traces接入jaeger
static_resources:
listeners:
- name: ingress_listener
filter_chains:
- filters:
- name: envoy.filters.network.http_connection_manager
typed_config:
...
tracing:
provider:
name: envoy.tracers.opentelemetry
typed_config:
"@type": type.googleapis.com/envoy.config.trace.v3.OpenTelemetryConfig
service_name: envoy-proxy
grpc_service:
envoy_grpc:
cluster_name: jaeger_otlp_collector
...
clusters:
...
- name: jaeger_otlp_collector
type: LOGICAL_DNS
connect_timeout: 5s
lb_policy: ROUND_ROBIN
http2_protocol_options: {}
load_assignment:
cluster_name: jaeger_otlp_collector
endpoints:
- lb_endpoints:
- endpoint:
address:
socket_address:
address: 10.22.12.178
port_value: 4317
...


小结
联系我

在下才疏学浅,有撒汤漏水的,请各位不吝赐教...
新年将至,各项事务迎来收尾,钓鱼邮件愈加频繁。
请各方注意防范
1、个人邮箱注意辨别邮件内容与附件。
2、企业邮箱注意辨别邮件来源、内容、附件等。
预防措施
1、 定期修改邮箱密码,密码长度不少于 8 位,包含至少 2 种类型的字符,不使用与其他系统相同的登录密码。
2、 银行、政府以及学校等机构,不会通过邮件向用户索要帐号密码与其他敏感信息,如收到此类邮件,请谨慎处理。
3、 收到来历不明邮件,不要点击链接或下载附件,更不能打开附件,甄别后确认为恶意邮件的请及时删除。
4、 除非文档(文档、表格可被嵌入恶意代码)来自可信来源,否则请关闭 Office 宏。
钓鱼邮件一般有如下特征:
1、 发件地址伪造,地址后标记由…代发;
2、 冒充邮件管理员、银行、电子支付系统、软件注册商、合作伙伴、人事或财务部门,要求点击链接,下载附件;
3、 要求将邮件转发至特定人员。
样本:
邮件内容
附件正文
作者:Julia Vural,Percona 工程师。 原文:https://www.percona.com/blog/separating-fud-and-reality-has-m...,Jan 22, 2026 爱可生开源社区翻译,本文约 900 字,预计阅读需要 3 分钟。 过去几周,MySQL 社区再次出现关于 “Oracle 已停止开发 MySQL” 或 “MySQL 将被放弃” 的说法,引发了更多讨论和担忧。一些图表显示,2025 年 10 月之后 GitHub 的提交数量似乎停止增长,而一些博客文章和论坛讨论也对这些迹象进行了字面解读,这进一步加剧了人们的担忧。 作为一名公开分析过 MySQL 代码库活动,并且每天都在 Percona 公司使用 MySQL 的人,我想清楚地区分数据实际显示的内容和数据未显示的内容。 这篇文章并非对 Oracle 的盲目辩护。我们常常不同意 Oracle 的某些决定,并且会公开表达我们的观点。但公平至关重要——尤其是在恐惧、不确定性和怀疑(FUD)开始影响客户和更广泛的生态系统时。 我们最近收到社区一个令人惊讶的问题:MySQL 真的被放弃了吗?他们还附上了 Otto Kekäläinen 的帖子中分享的图表。 这一结论通常是从 GitHub 公共仓库 的活动图表中得出的 ,该图表确实显示存在很长一段时间没有可见的提交。 图表本身没有错,但解读并不完整。 错误在于假设 MySQL 是在 GitHub 上开发的,但事实并非如此。 多年来,Oracle 一直遵循一套特定的工作流程,即在私有的封闭代码库中进行实时工程开发。GitHub 仅作为公共镜像和发布平台,而非活跃的开发工作空间。因此,代码会以大型的、整合的“代码包”的形式发布,与官方版本同步,而不是以每日增量提交的形式出现。 换句话说: GitHub 是一个异步发布镜像,而不是开发记录系统。 这意味着: 这种开发模式并不新鲜,它已经沿用多年。有人会说这不是 “真正的开源开发模式” 吗?也许会,但最终,在 2026 年 1 月 21 日(在最近发布的 9.6.0、8.4.8 和 8.0.45 版本之后)绘制的同一张图表 看起来不再像是被弃用了。 MySQL 的“弃用”案例完美地提醒我们,指标的价值取决于我们对所衡量系统的理解。 GitHub 图表上的停滞不前并不总是意味着项目正在走向衰亡;很多时候,它只是引擎在紧闭的大门后静默运转的体现。虽然我们可以讨论 Oracle 开发模式的透明度,但我们不应该将不同的工作流程误解为缺乏工作。事实并非总是如表面所见,以貌取人或以镜像来判断数据库都是错误的。
关于“停止对 MySQL 维护”的说法

缺失的背景信息:MySQL 的实际开发过程


源码包含:完整YOLOv8训练代码+数据集(带标注)+权重文件+直接可允许检测的yolo检测程序+直接部署教程/训练教程 https://www.bilibili.com/video/BV1ctr6BQEPX/ 随着城市化进程加快与水域生态压力的持续增加,河道漂浮垃圾已成为影响城市形象、水体安全与生态环境的重要问题。传统人工巡查方式存在效率低、成本高、实时性差等不足,难以满足大范围、全天候的监管需求。 本项目基于 YOLOv8 目标检测算法,构建了一套 河道漂浮垃圾智能检测系统,可对河面常见漂浮垃圾(如塑料瓶、泡沫、包装物等)进行实时、精准识别与定位。系统集成 PyQt5 可视化界面,支持图片、视频、文件夹及摄像头等多种输入方式,具备良好的易用性与工程化落地能力。 项目提供完整源码、标注数据集、训练脚本、模型权重以及部署教程,覆盖从数据准备、模型训练到实际应用的完整流程,实现真正的开箱即用,适用于科研学习、课程设计以及智慧水务、环保监测等实际场景。 在“智慧城市”“数字孪生水利”等理念不断落地的背景下,河道环境的精细化管理正逐步从人工经验驱动转向数据与智能驱动。河面漂浮垃圾不仅影响景观,更可能造成排水口堵塞、水质恶化,甚至引发生态安全隐患,因此实现高效、自动化的垃圾监测具有重要现实意义。 近年来,基于深度学习的目标检测技术在工业检测、交通监控、安防巡检等领域取得了显著成果。其中,YOLO 系列模型以其速度快、精度高、部署灵活的优势,成为工程实践中的主流选择。YOLOv8 作为 Ultralytics 推出的新一代模型,在网络结构、训练策略和推理效率方面均有明显提升,非常适合实时场景应用。 基于上述背景,本项目围绕“河道漂浮垃圾自动检测”这一典型应用场景,设计并实现了一套完整的智能识别系统,重点解决以下问题: 通过算法与界面的深度结合,使该系统不仅“能跑模型”,更“能实际使用”。 系统支持多种数据输入方式,满足不同应用场景需求: 所有检测结果均可实时显示,便于直观观察模型性能。 核心检测模块基于 YOLOv8 目标检测模型,具有以下特点: 检测结果以边界框 + 类别标签 + 置信度形式直观呈现。 为降低使用门槛,系统采用 PyQt5 构建桌面端可视化界面,主要功能包括: 即使不具备深度学习背景,也可通过图形界面完成完整检测流程。 项目不仅提供推理程序,还包含完整训练链路: 用户可基于现有数据集直接训练,也可替换为自己的河道或水域数据进行二次开发。 在真实河道与公开视频测试中,系统能够稳定识别多种漂浮垃圾目标,在复杂背景下仍保持较高的检测准确率。通过 PyQt5 界面,可清晰观察每一帧的检测结果,为后续垃圾统计、告警联动与智能清理提供可靠数据支撑。 为了直观展示本系统基于 YOLOv8 模型的检测能力,我们设计了多种操作场景,涵盖静态图片、批量图片、视频以及实时摄像头流的检测演示。 用户点击“选择图片”,即可加载本地图像并执行检测: 用户可选择包含多张图像的文件夹,系统会批量检测并生成结果图。 支持上传视频文件,系统会逐帧处理并生成目标检测结果,可选保存输出视频: 实时检测是系统中的核心应用之一,系统可直接调用摄像头进行检测。由于原理和视频检测相同,就不重复演示了。 用户可通过按钮勾选是否保存检测结果,所有检测图像自动加框标注并保存至指定文件夹,支持后续数据分析与复审。 YOLOv8是Ultralytics公司发布的新一代目标检测模型,采用更轻量的架构、更先进的损失函数(如CIoU、TaskAlignedAssigner)与Anchor-Free策略,在COCO等数据集上表现优异。 YOLOv8 是 Ultralytics 发布的新一代实时目标检测模型,具备如下优势: YOLOv8 由Ultralytics 于 2023 年 1 月 10 日发布,在准确性和速度方面具有尖端性能。在以往YOLO 版本的基础上,YOLOv8 引入了新的功能和优化,使其成为广泛应用中各种物体检测任务的理想选择。 YOLOv8原理图如下: 采用 YOLO 格式的数据集结构如下: 每张图像有对应的 分类包括(可自定义): 训练完成后,将在 在深度学习领域,我们通常通过观察损失函数下降的曲线来评估模型的训练状态。YOLOv8训练过程中,主要包含三种损失:定位损失(box_loss)、分类损失(cls_loss)和动态特征损失(dfl_loss)。训练完成后,相关的训练记录和结果文件会保存在runs/目录下,具体内容如下: 使用 PyTorch 推理接口加载模型: 预测结果包含类别、置信度、边框坐标等信息。 本文涉及到的完整全部程序文件:包括python源码、数据集、训练代码、UI文件、测试图片视频等(见下图),获取方式见【4.2 完整源码下载】: 作者已将整个工程打包。包含已训练完成的权重,读者可不用自行训练直接运行检测。 运行项目只需输入下面命令。 读者也可自行配置训练集,或使用打包好的数据集直接训练。 自行训练项目只需输入下面命令。 至项目实录视频下方获取: 包含: 📦完整项目源码 📦 预训练模型权重 🗂️ 数据集地址(含标注脚本) 本文围绕 “基于 YOLOv8 的河道漂浮垃圾智能检测系统”,系统性地介绍了从问题背景、技术选型到工程实现与效果验证的完整过程。项目以 YOLOv8 目标检测模型为核心,结合 PyQt5 图形化界面,实现了对河道漂浮垃圾的自动化、可视化与实时化检测,有效弥补了传统人工巡查在效率、覆盖范围和实时性方面的不足。 在工程层面,项目不仅验证了 YOLOv8 在复杂水面场景下对小目标垃圾的良好检测能力,还通过完整的数据集组织方式、训练与评估流程,保证了模型具备较强的可复现性与可扩展性。同时,PyQt5 界面的引入显著降低了系统使用门槛,使算法能力能够以“产品化”的形式落地,真正做到算法即服务、模型即工具。 从应用价值来看,该系统可广泛应用于智慧水务、河道巡检、环保监管及无人机巡河等场景,并具备进一步扩展垃圾统计分析、告警联动、边缘端部署等能力的潜力。整体而言,本项目不仅是一个完整可运行的目标检测实战案例,也为水环境智能感知与治理提供了一种具有实际落地价值的技术方案。基于 YOLOv8 的河道漂浮垃圾智能检测|完整源码数据集+PyQt5界面+完整训练流程+开箱即用!
基本功能演示
源码在文末哔哩哔哩视频简介处。
项目摘要
前言
一、软件核心功能介绍及效果演示
1. 多源数据输入支持
2. 基于 YOLOv8 的高精度漂浮垃圾检测
3. PyQt5 可视化界面设计
4. 完整训练与部署流程支持
5. 实际效果演示说明
二、软件效果演示
(1)单图片检测演示

(2)多文件夹图片检测演示

(3)视频检测演示

(4)摄像头检测演示

(5)保存图片与视频检测结果

三、模型的训练、评估与推理
其核心优势如下:3.1 YOLOv8的基本原理


3.2 数据集准备与训练
dataset/
├── images/
│ ├── train/
│ └── val/
├── labels/
│ ├── train/
│ └── val/.txt 文件,内容格式为:4 0.5096721233576642 0.352838390077821 0.3947600423357664 0.31825755058365757

3.3. 训练结果评估
runs/detect/train 目录生成结果文件,包括:results.png:损失曲线和 mAP 曲线;weights/best.pt:最佳模型权重;confusion_matrix.png:混淆矩阵分析图。若 mAP@0.5 达到 90% 以上,即可用于部署。

3.4检测结果识别
import cv2
from ultralytics import YOLO
import torch
from torch.serialization import safe_globals
from ultralytics.nn.tasks import DetectionModel
# 加入可信模型结构
safe_globals().add(DetectionModel)
# 加载模型并推理
model = YOLO('runs/detect/train/weights/best.pt')
results = model('test.jpg', save=True, conf=0.25)
# 获取保存后的图像路径
# 默认保存到 runs/detect/predict/ 目录
save_path = results[0].save_dir / results[0].path.name
# 使用 OpenCV 加载并显示图像
img = cv2.imread(str(save_path))
cv2.imshow('Detection Result', img)
cv2.waitKey(0)
cv2.destroyAllWindows()

四.YOLOV8+YOLOUI完整源码打包
4.1 项目开箱即用
python main.pyyolo detect train data=datasets/expression/loopy.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 batch=16 lr0=0.0014.2 完整源码
https://www.bilibili.com/video/BV1ctr6BQEPX/
总结
2026 年的第一个月,Jerry Tworek 离开 OpenAI 的消息传出来时,几位 OpenAI 的员工都觉得很突然,他们在 X 上评论说:“我真的崩溃了”“这太难受了”。 Jerry 是现代 AI 浪潮背后最有影响力、却也最少公开露面的关键人物之一。 2019 年加入 OpenAI 时,当时该公司还只有约 30 名员工。他参与了许多最重要的项目,包括后来被称为 Q-Star 和 Strawberry 的推理方法,最终发展成为 o1 推理模型。 这次离职后,他在接受 Core Memory 的播客采访时解释了原因:他想从事有风险的基础研究,这种研究在像 OpenAI 这样的公司已经不可能进行了,因为像用户增长这样的指标才是优先考虑的。他对 ChatGPT 广告的看法体现了研究与商业化之间的脱节:“这是一种商业策略,而我负责训练模型。” 这番言论印证了有关 OpenAI 人工智能研究与产品开发之间日益加剧的分歧的传言。 Tworek 指出,创新不足的原因有很多。最佳模型的竞争异常激烈,公司需要不断展现实力才能留住用户并证明 GPU 成本的合理性。僵化的组织结构更是雪上加霜,组织架构图决定了哪些研究是可能的:团队各自为政,职责分明,跨团队研究难以开展,Tworek 解释道。 这场采访,也是一次“离职解读”,Jerry 还批评了整个人工智能行业,指出所有主要的人工智能公司都在开发几乎相同的技术,产品也几乎没有区别,这迫使研究人员追求短期利益,而不是实验性突破。更重要的是,他开始认真思考:如果研究真的需要冒险、需要不同路径,那他是否还应该继续待在这场高度同质化的竞赛中。 在 Tworek 看来,谷歌之所以能够在 AI 竞赛中成功追赶 OpenAI,本质上是 OpenAI 自身的失误。他表示,这家 AI 实验室犯了一些错误,行动过于缓慢,没能充分利用自己原本拥有的巨大领先优势;而与此同时,谷歌则做出了许多正确的决策。 当被问及 OpenAI 的具体问题时,Tworek 并未展开细说,只是暗示:员工流失有时是更深层问题的表象。他强调说,人走人来本来很正常,但如果一波人是因为“方向不对、决策错了”才走,那就说明公司里确实有点事——也难怪有些关键推进会慢得不该那么慢。 与这种“慢得不该那么慢”的状态形成对照的,是 Tworek 对 Anthropic 的评价。在播客中,他高度评价了这家 OpenAI 最强的初创公司对手,认为它在过去一年里展现出了一种罕见的“清晰感”:算力更少、团队更小,却异常专注,执行力极强。他特别提到 Anthropic 在代码模型与代码 Agent 方向上的进展——那不是靠简单堆规模取得的成果,而是一种“非常清楚自己在做什么”的工程与研究结合状态。 随着谈话继续,话题很快从技术转向了另一件更微妙的事。 Jerry 说,这几年最让他感到“不对劲”的,并不只是研究路线,而是整个大模型行业正在发生的变化。他形容现在的状态有点像这样:你做出一个新东西,大家还没真正弄清楚它是什么,它已经被卷进了一整套剧情里。谁离职、谁跳槽、谁被挖、谁“内部有分歧”,每天都像连续剧更新;湾区像一个巨大的转会市场,研究者在几家前沿实验室之间流动,围观者负责情绪,媒体负责剪辑——研究现场,被包裹进了一层娱乐业式的叙事。 “技术、概念、人类情绪、现实生活,是分不开的。”Jerry 说。 当一个行业被持续围观,每一次进展都会被强行赋予意义,每一次内部变化都会被解读成信号,整个系统就会被不断加压。你不是在安静地做研究,而是在聚光灯下跑一场没有终点的马拉松。他用一个很个人的比喻形容这七年:“像做俯卧撑。”每一次高压过去,你会更能扛一点。你学会屏蔽噪音,学会在混乱中保持稳定。但代价是,你也会慢慢习惯这种状态——把异常当成常态,把围观当成空气,把压力当成日常。 我们翻译并整理了这期播客的完整对话,以飨读者。 主持人:今天我们请来重量级嘉宾——OpenAI 的 Jerry Tworek。他在 AI 圈算是“活传奇”那种人,而且刚刚离开 OpenAI,所以这期信息非常新、也非常重磅。我刷到不少 OpenAI 的同事在 X 上直接说“我崩溃了”“太难受了”。这就能看出来他在内部的分量。 他主导或参与了 OpenAI 很多最重要的项目。这一波“推理模型”的时代,在很大程度上也和 Jerry 有关。今天他会聊他的经历、他做过的事情,然后我们也看看他会不会讲得更“辣”一点——希望如此。 Jerry,你好。你身上有一种……“刚失业的光芒”。 Jerry:我已经失业八天了,确实是一种变化。我已经很久没有失业过了,但这件事也有很多好处。比如我现在晒太阳的时间多了很多。 主持人:那这期节目就算你的“离职访谈”了。我们刚才已经简单介绍了你的背景,我再稍微补充一点。你大概是 2019 年加入 OpenAI 的。你来自波兰,在来 AI 领域之前,和很多 AI 从业者一样,曾经在高频交易相关的领域工作过。在 OpenAI,你参与或领导了很多大家非常熟悉的重要项目。最近,很多人听说过 Strawberry、o1,以及这波“推理模型”的兴起,而这是你追了相当长一段时间的方向。然后,如大家所知,你最近刚离开 OpenAI。这件事在 X(推特)上引起了不少讨论。 大家好,我做了一个艰难的决定:离开 OpenAI。 我在这里将近七年,经历了很多美好与疯狂的时刻——但美好远远多于疯狂。 我非常享受和这支团队共事的时光。我有机会在“机器人上的强化学习规模化”还没流行之前就参与其中;训练了世界上最早的一批代码模型,推动了 LLM 编程革命;在“Chinchilla(缩放规律)”还没被叫作 Chinchilla 之前就发现了它;参与了 GPT-4 和 ChatGPT 的工作;最近则是组建了一支团队,建立了一种训练与推理算力规模化的新范式——我们通常把它称为“推理模型”。 我在这里结识了许多朋友,有些夜晚也在办公室度过;我参与并见证了相当多的技术突破;也和许多我视为至亲的人一起欢笑、一起担忧。我有幸招募并壮大了——在我看来——世界上最强的机器学习团队。 这段旅程非常精彩。虽然我将离开,去探索一些在 OpenAI 很难开展的研究方向,但这依然是一家特别的公司、一个特别的地方,它已经在全人类的历史中占据了永恒的一席之地。 Jerry:某种意义上,这事挺棘手的:我如果不自己说,媒体迟早也会替我说——要么写成“独家”,要么当成“泄露”。所以我宁愿自己把话讲清楚,省得消息一传十、十传百,越传越走样。 主持人:对,我们最怕“越传越离谱”。你其实可以先跟我们说。 Jerry:(笑)我可以随时给你们打电话,告诉你们我生活里发生的任何事——比如我中午吃了什么。 主持人:但说真的,你那条离职帖写得很好,而且挺真情实感的。你在那里待了七年,经历了巨大的变化。从你的视角看,这七年是什么感觉? Jerry:老实说,我在 OpenAI 的每一年,都像是在一家完全不同的公司里。无论是公司本身的高速增长,还是整个 AI 世界的变化速度,都非常罕见。我不觉得历史上有很多类似的例子。我很高兴自己亲身经历了这一切。几乎每一个阶段,情况都完全不同。 主持人:你 2019 年加入的时候,公司大概只有 30 人左右? Jerry:对,大概就是那个规模。 主持人:那现在呢?几千人? Jerry:已经没法数清楚了。现在是一家规模非常大的公司,有很多办公室,全球各地都有团队。现在几乎很难找到没听说过 OpenAI 的人。我加入的时候,还是几个小团队各自在做自己的小研究项目。那时唯一始终不变的,是野心——从一开始就瞄准 AGI,想要改变世界、产生正向影响。我觉得公司在这方面做得非常成功。ChatGPT 把一种“可用的智能”分发给了非常多的人,这本身就是一件非常了不起的事情。 主持人:你发了那条离职推文之后,是不是几乎所有基础模型实验室都立刻联系你了? Jerry:确实有很多。我现在正在慢慢梳理下一步要做什么。在这个行业待了这么多年,我本来就认识很多人,也有很多联系。从积极的角度看,我并不急着立刻做决定。过去很多年我工作得非常拼,几乎没有时间去见人、聊天。现在终于有机会停下来,认真想一想接下来的七年要怎么度过。 主持人:你在推文里提到,你想做一些在 OpenAI 觉得无法进行的研究。能具体解释一下吗? Jerry:是这样:在一家必须参与当下这种极其残酷、极其高压的竞赛、必须争夺“世界上最强 AI 模型”的公司里,有些事情就是很难做。这背后有几个方面的原因。 其中一个因素是风险偏好。公司愿意承担多大风险,会受到很多现实约束:比如不能落后于用户增长指标,比如 GPU 成本极其高昂。因此,向外界展示实力、持续拥有最强模型,对所有主要 AI 公司来说都非常重要。但这确实会影响你愿意承担风险的“胃口”。 另一个很难的取舍是组织架构。公司有 org chart,而 org chart 往往决定了你能做什么研究。每个团队都需要一个身份、一个研究范围、一组他们要解决的问题。跨组织的研究就会变得非常困难。 我也不确定这是不是一个已经被完全解决的问题:当研究规模变得很大时,究竟该如何把研究组织好?研究本身喜欢动态,甚至可以说喜欢混沌;但一大群人需要秩序、结构和组织架构。 所以,“把组织架构交付出去(shipping your org chart)”成了一种非常普遍的现象,研究也不例外。你最终会做那些组织结构最容易支持的项目。而与此同时,我确实想做一些研究,但公司的组织结构并不容易支持我去做这些事情。 主持人:这是否意味着我们将看到一项新突破? Jerry:我想,其实 AI 世界里的每一位研究者,都想参与下一次真正的突破——我当然也包括在内。 主持人:我之前在播客里跟 Mark(Mark Chen,OpenAI 的 首席研究官) 聊过这个话题:几乎所有人都会带着自己的想法去找他、找 Yakob(Jakub Pachocki,OpenAI 的核心研究负责人之一)。OpenAI 一直以来确实有一段“押注冒险想法、去做其他实验室没做的事”的历史,而且这种策略也确实为他们带来了回报。但我也很清楚——你们那里一定聚集了大量非常聪明的人,所有人都会不断提出各种想法。 而在某个时刻,公司终究是一家资源有限的组织——哪怕这些资源已经非常多了——也必须做出取舍。所以,这必然是一个非常艰难的决策过程。也正因为如此,我在思考的那些方向,大概确实属于那种“相当新、相当不寻常”的路径:公司需要判断,我们到底要不要往这个方向走?现在有没有能力、有没有余力去承担这种不确定性?我们是否能在当下负担得起? Jerry:关于“研究时代”的判断,我不确定事情是否真的像他说的那样是非黑即白的。但我非常确定的一点是:在 AI 和机器学习的世界里,还有大量东西尚未被真正探索。 大约六年前,我们基本确定了以 Transformer 为核心的架构路线。此后相当长一段时间里,整个行业都在持续扩大 Transformer 的规模,而且进展确实不错。路径也非常清晰:每个季度用稍多一点算力、稍多一点数据,训练出一个更强的模型。到目前为止,这条路看起来并没有明显的“天花板”,进步仍在持续。 但问题是:这就是终点了吗?这是最后一条路了吗?我几乎可以确定不是。 我们还有很多改进模型的方式,目前根本还没真正开始做。正如你刚才提到的,我自己主要做的是“推理”,以及扩大强化学习的规模。在那之前,整个领域几乎所有的“大赌注”都押在 Transformer 的预训练规模上。 扩大预训练规模,确实是一种有效的扩展方式,而且效果很好。每一次更大规模的预训练,模型能力都会整体提升,各方面都会变强。所以你当然可以说:那我们就继续扩展预训练规模,模型自然会越来越好。 但后来,有那么一小撮“做梦的人”、研究者开始相信:事情不止这一种做法。我们不只是扩展预训练,还可以在语言模型之上,大规模扩展强化学习,而且投入的计算量可以和预训练处在同一个量级。这样做,能够教会模型一些仅靠预训练永远学不会的东西。 正因为如此,我们今天才有了这些令人惊叹的 Agent:它们可以自动化工作、解决复杂问题。而如果只靠预训练模型去完成这些任务,可能需要极其夸张的算力和数据量。 也就是说,当你发明了一种新的“扩展方式”,你就会得到一整套全新的能力;而如果你只是沿着原有的预训练扩展路线走,那可能要花非常、非常久,才能逼近这些能力。这一次,其实是一次相当大的跃迁。 在我看来,自从 GPT-4 引入以来,“推理模型”几乎是这几年里最重要的一次能力跃升。而我相信,类似这样的跃迁还会出现不止一次。 所以我一直觉得,研究者不应该只盯着“渐进式改进”,而是要去思考:有没有办法把整个棋盘掀翻? 主持人:去年在 NeurIPS 上,Ilya 曾说过一句话,大意是:“我们正在耗尽数据,这条路迟早会走到尽头。”关于“预训练是否正在进入一个越来越艰难的阶段”,我一直在想:那下一个真正的突破会是什么?这正是你现在想问的问题,对吧? Jerry:是的。但我并不认为这等于在说“预训练已经结束了”。预训练仍然在持续改进,而且还有很多方式可以继续优化它。但它已经不再是唯一的改进路径,而且其他路径,可能在很多维度上能更快地带来提升。 扩大预训练规模,在很多能力上提升得其实非常慢——它确实会让模型更好,但提升是渐进的。而与此同时,可能还存在其他方式,能带来更大的跃迁。 主持人:硅谷有一个很有意思的现象:很多时候,科技公司会提出一些非常原创、甚至看起来“怪异”的想法,外界一开始完全不理解。但正是这样,才催生了全新的商业模式、新的科学、新的研究方向。而科学研究本身,也是如此:你需要去追逐别人还没走的方向。 可一旦某个方向“爆了”,事情就会反过来——会形成一种巨大的共识。突然之间,所有人都开始说:“我们就该这么做。”然后大家不再讨论“该不该走这条路”,而是开始比拼“谁在这条路上跑得更快”。 这其实就是你刚才描述的那种状态。那么问题来了:当我们已经进入这种“模型竞赛”,而且已经持续了两三年之后,会不会出问题?是不是所有主要实验室都变得越来越保守?这会不会成为一个普遍性的结构问题? Jerry:让我感到非常“难过”的事,就是现在几乎所有 AI 实验室都在试图做和 OpenAI 一模一样的事情。 OpenAI 显然是一家非常成功的公司,它在很多关键问题上做对了选择,把整个世界带进了“规模化 Transformer”的范式之中,也证明了:通过扩展机器学习模型的规模,确实可以为世界带来大量非常有价值、非常有用的能力。 但问题是:这个世界究竟需要多少家“做完全同一件事”的公司?我不知道。竞争当然是好事,所以肯定不止一家更好。但现在我们大概已经有五家相当严肃、体量巨大的 AI 公司,基本上在用完全同一套“配方”,试图在同一套技术之上,做出一点点差异化的产品。 也许这确实是对的选择,但我还是希望能看到更多多样性——更多模型层面的差异。 如果你去看现在世界上最好的那些模型,实际上很少有人真的能注意到它们之间的区别。我觉得应该做更多“盲测”:让人们分别和不同模型对话,看他们是否真的能分辨出哪个是哪个。我敢说,99.9% 的用户根本察觉不出来这些模型有什么不同;在他们的感受里,这些模型几乎一模一样。 即便背后是不同团队,在做一些细微不同的事情,但所有实验室都觉得“我们在这个点上做得稍微好一点”“对方在另一个技巧上可能更强”,最终的结果却是:大家全都挤在一个非常接近的位置上。 那真正的探索在哪里?真正的创新空间在哪里?真正能让你和别人拉开距离的差异化又在哪里? 主持人: 我主要用这些模型做文字工作,偶尔会在 Gemini、ChatGPT、Claude 之间切换——差别确实有,但很细,更多是语气和“性格”。比如我最近更常用 Claude,因为它更直接、不啰嗦;而 ChatGPT 的语气我一直很难调到那种感觉。不过总体我也同意,大多数人其实分不清这些模型的区别。 话说回来,我想问一个可能有点尖锐的问题:你在 OpenAI 待了这么久,在公司内部算是传奇人物之一,而且你的履历也证明,你参与的项目往往能做成。那从外界看,如果连你这样的人都觉得——自己真正想做的研究在公司里推进起来足够困难,以至于最后选择离开——这是不是一个不太好的信号?尤其对一家最初以研究实验室起家的公司来说,这意味着什么? Jerry:我觉得有时候,人和组织都会成长到一个阶段:必须意识到,彼此的道路需要分开。 对一家单一公司来说,非常重要的一点是:公司内部的人,必须在某种程度上对目标、对前进路径保持一致。而在某个时刻,我对“未来研究路径”的判断,和 OpenAI 选择的方向,至少在一些足够重要的点上,出现了分歧——包括接下来一年研究该是什么样子。 在这种情况下,我认为分开,反而比强行在分歧中继续合作要好得多。否则,那些分歧可能会不断积累、发酵。 所以我反而认为:不同公司去做同样的事情,在某种意义上是合理的。因为专注对于一家公司来说非常重要,而 OpenAI 很可能正在做所有“正确的事”。 也许只是我自己有一些不太现实的梦想;也许我对“还能做些什么其他事情”过于乐观——这完全有可能。 很多公司必须专注于自己的核心路径,才能活下来,才能进入下一个阶段。所以在一个理想的世界里,应该有很多不同的公司,在做很多不同的事情。而研究者——尤其是那些很难去做自己并不真正相信之事的研究者——应该能找到一个地方,在那里,他们能投入到自己最相信的研究方向中。最终,历史会证明哪一条路是对的。 正因为如此,我才会对“大家都在做同一件事”感到有点难过。因为在当下,如果你想做一些偏离主流机器学习路线的事情,真的非常难找到一个合适的地方。这大概是我目前最感到遗憾的一点。 主持人:那你现在还在思考下一步要做什么,对吧?如果所有实验室都在做同一件事,那你应该不会想简单跳去另一家大实验室? Jerry:我当然还在认真思考下一阶段。但如果有更多“稍微偏离主流、但依然具备规模”的选择,那我会更开心,也会更容易做决定。 主持人:那你觉得,要让整个行业偏离当前主流路径,需要什么条件?我可以想象,这些公司投入了巨额资金、消耗了大量资源,又处在聚光灯下,自然会害怕承担风险。但也许这些风险是必要的。那到底要改变什么?或者这种改变真的会发生吗? Jerry:这正是一个非常有意思的问题。 我其实非常喜欢冒风险,也经常被人这样评价。我认为,冒风险本身是一件好事。但当你面对的是“巨额资金在押”的局面时,真正有能力、也愿意承担风险的人,其实非常非常少。 每个人的风险偏好都是极其个人化、极其独特的。我和很多人共事过,我真心觉得:人们应该愿意多承担一些风险,多去尝试一些事情。 但另一方面,现在 AI 世界里的研究者薪酬已经高得离谱了。这在某种程度上,也会让人变得非常害怕失去工作、害怕一次不好的绩效周期。结果就是:人们更倾向于追求短期、确定性的收益路径。而这些人本身往往都是非常聪明、动机也非常正直的研究者。只是整个系统在某些地方,确实更容易鼓励“短视”。 我认为,研究者应该被更明确地鼓励去冒风险、去下大胆的赌注,因为真正的进步,正是这样发生的。 主持人:那我们已经看到了一些“独行侠”式的人物。比如 John Carmack。Carmack 跑去了达拉斯,像是进了自己的洞穴里。一开始似乎是单干,现在好像有几个人在跟他一起做。他几年前说的,其实和你刚才讲的很像:也许我不知道能不能走出一条完全不同的路,但至少应该有人在一条完全不同的路径上持续折腾。 我和 Ilya 聊过,但并不知道他现在具体在做什么。我不知道那是他之前工作的延续,还是某种非常激进的新路线。不过我想,如果不是完全不同的方向,他大概也不会去募那么多钱、重新开始。 然后还有 Yann LeCun,他显然有一套不同的哲学。有时候我会觉得这个领域挺奇怪的:AI 从某种意义上说很“老”,已经发展了几十年;但当前这一波 AI 又非常新。和研究者聊天时,他们会说:现在把主要论文读完,其实很快就能跟上前沿。所以我一直在想,会不会有某个人,突然从完全意想不到的方向出现,带来一个极端激进的新想法,把整个领域往前推一大步?但与此同时,又好像越来越难——因为现在你几乎需要一个“国家级规模”的数据中心,才能真正参与到这个层级的竞争中。 Jerry:这正是事情变得非常困难的地方,同时也是一个非常值得解决的问题。 世界上其实有大量学术研究在发生,也有很多学生在做各种各样的事情,但其中大多数都严重缺乏资源。这使得很多研究最终走不远,因为你真正想做的研究,往往必须在“大规模”下才能完成。 但这也是让我感到非常乐观的一点:现在确实有相当多的资金,正在流向那些“想做新东西”的人。像 John Carmack、像 Ilya——他们做的事情,正是当下这个时代应该存在、也应该被资助的。当然,不是所有尝试都会成功,但其中一定会有一些成功,而创新正是这样发生的。对于任何一个强化学习研究者来说,“探索(exploration)与利用(exploitation)”之间的权衡,都是一个非常基础、非常重要的概念。 即便是在优化 agent 时,你也必须不断权衡:是走已经被证明有效的路径,还是去尝试全新的方法,用完全不同的方式解决老问题?这是一个非常困难的取舍,但它本身就是一个被研究、也值得研究的问题。而正如我们在设计 agent 时会思考这个问题一样,我们也应该反过来问自己:我们自己在做研究时,是如何在探索与利用之间取舍的? 主持人:在这个非常非常顶尖的小圈子里,大家都知道 Carmack 在做什么吗?你们彼此是互相了解的吗? Jerry:老实说,我并不完全清楚。但如果我没记错的话,我隐约知道一些。他可能是在押注一种非常端到端的强化学习方式——通过鼠标和键盘,在电脑游戏中训练 agent。 如果真是这样,那其实非常有意思。因为我长期以来一直在想:电子游戏,可能是训练智能体的最有趣环境之一。游戏本身就是为了“对人类大脑有吸引力”而设计的。它们包含故事、权力幻想,但更重要的是:大量的问题求解。游戏必须有趣、必须有挑战、不能重复。 在某种意义上,电子游戏非常贴合人类智能,它们天然地在教你资源分配、解谜、如何在不同规则下取胜——这正是我们希望 agent 能学会的事情。当然,我们现在还没有真正能在高频、多模态环境中稳定运行的超强模型,可能存在一些架构层面的限制。但我认为,用电子游戏来训练 AI,是一件非常值得做的事情。 主持人:Richard Richard Sutton 过去在扑克、游戏等领域做过大量工作;我也曾在他的实验室待过。早期的那些游戏环境,比后来 OpenAI 的 Dota 要原始得多。但你可以看到,这个想法一直贯穿其中。 Demis Hassabis 也长期在追逐类似的方向。所以你提到这一点很有意思——这其实是一个“老想法”。一段时间里,各大实验室都在比谁能打通更复杂的游戏、谁能更好地“秀”成果;后来在 ChatGPT 时代,这条路线似乎被边缘化了。但也许,它仍然有潜力。 Jerry:在科学史上,有一个非常常见的现象:好的想法,往往会反复出现。真正困难的,并不是提前预测“哪个想法是重要的”,而是判断“什么时候是对的时机”。即便在 OpenAI 早期,我们也常说:不能断言某种方法“行不通”,也许只是“现在还行不通”。 我七年前刚加入 OpenAI 时,强化学习在游戏上是一个非常火的方向。我们解决了很多游戏问题:StarCraft、Dota,而 AlphaGo 更是一个标志性时刻。但这些模型有一个非常明显的缺陷:它们几乎没有世界知识。它们并不理解我们的世界,只是从零开始,专门为某一个游戏训练。 这显然不是正确的路径。我们必须先教模型理解世界,理解更高层次的概念,而不仅仅是对像素做出反应。从零开始的强化学习,更像是“猴脑”或“蜥蜴脑”。而我们想要的,是具备更高层次抽象能力的模型。 在多年大规模预训练之后,我们现在已经能够学到一套非常强的“世界表征”。而接下来,我们应该利用它。这正是“推理模型”的核心魔法:在一个对世界有深刻理解的基础之上,叠加一层强化学习。未来就应该沿着这个方向前进。 主持人:那这不就和“世界模型”的方向一致了吗?Google 在做这个,Yann LeCun 似乎也在推动类似的想法。这在直觉上是合理的——这也是人类学习世界的方式。我们不是在一个黑箱里长大的,而是通过不断试探、感知世界来学习的。所以你对这个方向是非常看好的。 Jerry:这个方向毫无疑问是正确的。真正有挑战性的,是:如何把从世界建模中学到的表征,与强化学习真正结合起来。 强化学习教会模型“技能”——让它学会如何在世界中实现自己的目标。但在此之前,模型必须先理解世界,否则它连“如何设定目标”“如何达成目标”都无从谈起。 正因为如此,这两件事情必须结合起来。 如果有人能在一个高质量世界模型之上,真正把强化学习跑通,那将会是一个非常令人振奋的时刻。 主持人:就你现在这些正在吸引你的研究方向来说——你能不能稍微给我们一点提示?还是说,这样就直接暴露你下一家创业公司的方向了? Jerry:我现在最兴奋的研究方向大概有两个。主要原因也很简单:我不觉得重复去做各大实验室正在做的那套事情有什么意义。现有体系里当然还有很多可以微调、可以改进的地方,但我认为有两个方向长期被低估了投入——或者至少没有得到足够的资源与重视。 第一,是某种意义上的“架构创新”。我觉得我们对 Transformer 架构有点过于“路径依赖”了。Transformer 确实很伟大,也被非常深入地研究过。人们一直试图在本地做一些小改动,让 Transformer 更强,但这件事并不容易。虽然也有一些相当成功的改进——比如稀疏化非常成功;还有各种让注意力计算更便宜的方法,也取得了不错的效果。 但 Transformer 会是机器学习的最终架构吗?显然不会。尽管 Transformer 的发明者做出了惊人的贡献,并且几乎定义了接下来十年的机器学习格局,但我相信一定还有更多可能。 一定存在一些训练大模型的方法——它们也许有点像 Transformer,也许完全不像。我觉得这是一个值得去解决的问题。甚至如果没有别人去做,我也愿意卷起袖子自己上,试着把它做出来。 第二个方向相对更“热门”,但我觉得几乎没有人把它做得真正好,那就是持续学习(continual learning):如何把测试时(test time)与训练时(train time)真正打通、真正融合起来。 人类显然就是这样运作的:我们没有一个“专门学习模式”和一个“专门回答问题模式”。学习与反应是连续发生的、时时刻刻都在进行。我觉得我们的模型也应该更接近这种状态。 这可能是我们在把模型真正称为 AGI 之前,最后几个关键能力要素之一。如果模型不能从它看到的数据中持续学习,它就仍然显得有点受限——甚至有点“笨”。 主持人:说到 AGI,我们上次录播客时我提过:我已经不像一两年前那样经常听到“时间线”讨论了。那时候大家非常热衷谈什么时候会实现 AGI,甚至连“AGI”这个词最近都没那么火了。你自称对 AI 是“谨慎的乐观主义者”。那你觉得我们现在处在 AGI 时间线的哪个位置? Jerry:我个人的看法是:我对时间线做了一点更新。 我一直认为,把强化学习规模化(scaling reinforcement learning)是通向 AGI 的必要部分。一年、或一年半之前,我非常坚定地认为:只要把 RL 规模化到我们的模型之上,那就是 AGI 了。但我确实不得不稍微修正这个判断。因为有些东西,只有当你真的到了“下一阶段”之后才看得见。 我们也必须承认:今天的模型在很多方面已经非常非常强了。就拿编码来说——“vibe coding”是我最喜欢的爱好之一,你现在可以非常快地写出很多东西。对一些十年前的人来说,如果你把今天这些能力展示给他们,他们可能已经会把它叫做 AGI 了。 所以我不觉得谈 AGI 还是一种多么离谱、多么疯狂的事。但至少按我的定义,现在的模型仍然不是 AGI——原因之一是:持续学习完全还没有以真正的方式被整合进模型体系里。 除此之外,还有很多问题。比如多模态感知:如果模型文本理解很强、编程也很强,但它看不见真实世界、不能看视频并且很好地理解视频,那我们能称它为 AGI 吗? 所以我认为,要真正达到那个“文明级里程碑”——构建 AGI——还有很多必要步骤要完成。 有一段时间我曾想:如果我们真的拼命推进,并且把所有关键问题都做得足够好,也许 2026 年至少能实现非常强的持续学习,以及真正通用的强化学习。 我觉得我的时间线仍在漂移。但与此同时,AI 领域移动得太快了:投资在年复一年累积增长,越来越多人进入 AI 领域,人才池变大,我们探索的想法数量也变多。 所以我不觉得“这个想法完全荒唐”。也许会早一点,也许会晚一点:可能是 2026,也可能 2027、2028、2029。我不觉得会比这更久太多。但确实还有很多工作要做。不过人们正在非常努力地做 AGI。 主持人:你刚才提到的内容——让我想起你之前做的那些事。除非我记错:在 Strawberry 还没成为一个“明确项目”之前,外界不是有过所谓的 Q-Star 传闻吗?而且在那次“内部风波”期间,这件事被反复提起:什么“他们知道 AGI 已经到了”,把所有人都吓到了。但听你现在这么说又挺有意思的。因为确实,这些东西做出来以后非常惊人,我们会一度情绪很亢奋;然后时间过去,大家就习惯了。现在回头看,Strawberry 确实很不可思议,也确实改变了整个领域。 但我第一次用它的时候,并没有到那种“把我吓死”的程度。你懂我意思吧? Jerry:我懂你意思。 这其实涉及人类心理,以及我们如何与技术互动的方式。对我来说,把强化学习规模化带来的效果仍然非常显著,而且我觉得随着时间推移,我们会看到更多影响。 尤其是应用在编程上,这会以很多很多方式改变我们的生活。你今天做一个大规模编程项目,和一年前相比,完全是另一种游戏。我们会在很多领域看到这种变化带来的连锁影响。 但我也想说:两年前,当我和团队、以及 OpenAI 的很多人第一次看到 Q-Star 的一些早期迹象真的开始工作时——你坐在一个房间里,看到一种“有意义的新技术”正在出现。 如果你在那一刻不感到一点害怕、不感到一点担忧、不暂停一下想一想“这对世界意味着什么后果”,那我会觉得你没有在负责任地对待自己的工作。我认为每一个 AI 研究者都应该想这些问题:如果我正在做的东西是全新的、它展现出了以前从未出现过的新能力,那世界会发生什么? 很多研究者确实会这么想。当然,有时候也会把担忧推得太远。一方面,到目前为止,AI 还没有给世界带来什么“实质性的重大伤害”;但另一方面,一些事情(比如“某些很花哨的东西”)是不是算有问题——也许还可以争论。(笑) 但总体来说,我认为:当你向世界释放新技术时,感到担忧与谨慎,是一种非常好、也非常健康的反应。 我们正在经历一个变化的时代:大量新事物正在扩散到世界里,它们会产生影响——影响人们如何生活,如何看待自己、看待他人;影响人际关系、国际关系;影响 GDP、影响生产力。 有时候,一个人写下的一行代码,就可能引发连锁反应。经历了这一切,肩膀上的担子就相当重。 主持人: 我一直在想,尤其“政变”那段时间:你做出来的东西被媒体炒得很热,还被卷进各种戏剧化叙事。我不知道“滑稽”这个词对不对,很多人其实还没弄清它到底是什么,就已经围观成现象了。你当时是什么感觉? Jerry:技术、概念、人类情绪、人类生活、人和人之间的协议与分歧——在现实里很难被切开来看。 我们确实活在一个世界里:AI 领域的重要参与者之间,有一个非常复杂的关系网络,很多层次叠在一起。要把它完全理清楚,可能得历史学家花很多年、甚至几十年,才能真正弄明白到底发生了什么、哪些因素起了关键作用。 老实说,到现在为止,我对那段时间发生的一切也只剩下非常零散的记忆。我们也在不断“补课”——每当有新的证词出现、每当新的文件被披露,就会冒出一些新事实。未来某个时刻,肯定会有人把所有内容都挖出来、完整还原。 但现实世界就是这么复杂。我也确实觉得,也许应该有一种更健康的方式来讨论技术:找到一个更合适的讨论场域,让分歧能够被更充分、更有建设性地展开。但我们生活在这样一个世界里:没有完美解,也不存在一种绝对正确的讨论机制。 主持人: 所以你觉得 X(推特)也不是理想媒介? Jerry:我个人其实很喜欢在 X 上发内容,分享想法,和社区交流。但它也不是一个完全严肃的地方——很多时候都是半开玩笑、半认真。更核心的问题是:有人担心某件事太危险不该继续;有人觉得继续做是对的,因为它会增强能力;还有人认为方向本身就不对,我们应该做别的研究。 在技术进步与研究的世界里,这些事情很多都是未知的。没人知道未来。我们只有想法、信念和梦想。 我们必须和这种不确定性共处,也必须学会在很多问题上“求同存异”——很多时候只能接受:大家各自下注、各自承担后果。 主持人: 说到当时媒体对 Q-Star 的关注——那阵子简直是炒作过度,几乎天天都在加码,每个月都愈演愈烈。我看着会觉得:这是不是太“嗨”了、太多 hype 了?而且我们俩也都在推特上,多少也参与了这股热度。你怎么看:这种 hype 该不该降一降?我个人确实觉得,强度可以往回拧一点。 Jerry:我了解。反过来想,如果七年前有人告诉你:OpenAI 会成为万亿美元级别的公司;会建造规模堪比史上最大基础设施项目的数据中心;会拥有世界上最大的 Web 产品之一;全世界会无时无刻都在谈 AI——你一定会觉得那个人疯了,会说“这就是炒作”。 可我真心觉得:这波 hype 在很多层面其实是有事实支撑的。人工智能在很多方面存在过度反应和反应不足的情况(有时候被高估,有时候也会低估),但 AI 的重要性毋庸置疑——它值得被讨论。我不觉得现在还有谁会认为 AI 是个“不重要、不值得讨论”的话题。几年前确实还有人这么想,但现在已经很清楚:AI 很可能是当今世界最重要的议题之一,值得持续讨论与思考。至于进展会有多快、路径到底对不对、安全还是危险——这些当然都可以争论。但 AI 会长期存在,而且只会越来越强。 主持人: 完全同意。但如果先把技术放一边——我甚至报道过“挖人狂潮”。我越来越觉得,这个行业的叙事变得像肥皂剧、像真人秀,很多时候讨论的不是硬核科学,而是剧情、阵营和情绪。你会不会也觉得我们有点“跑偏”了? Jerry:但到底是谁在制造这场肥皂剧?这才是问题。 主持人: 嗯,说真的,这一轮比我经历过的任何技术周期都更“肥皂剧”。可能是赌注太高、钱太多,再加上挖人和各种戏剧化叙事,整个旧金山像活在一套自己的现实里。 我有时都替你们累——七八年一直在这种高压竞速里,你现在想停下来喘口气,我完全能理解。 Jerry:的确很消耗。 但我可以跟你分享一句对我很有帮助的话:有一次,一个比我更有经验、更擅长应对压力的人跟我说——Jerry,这就像做俯卧撑。每经历一次艰难、紧张的时刻,你就更擅长应对压力一点。 老实说,这七年让我练出了很强的心理和情绪韧性。我真的学会了在大量噪音、很多胡扯面前,把自己抽离出来,尽量保持稳定、保持定力。 不管外部发生什么——公司看起来要塌了也好,研究者流动也好,项目被重新分配也好——总会有事情在推进,总会有新的变化。 我听过有人把“挖人”这件事类比成体育队伍的转会。体育之所以还能运转,是因为有角色、有规则。我差点想说:可惜在加州的法律框架下,这类规则基本不可能出现。但我确实觉得,如果能有一些规则,可能会更健康。 因为确实存在这样一种现象:有些人换工作的频率,比他们真正产出成果的频率还高。 主持人:AI 薪资帽?(笑) Jerry:(笑)确实有人这样。但也仍然有很多人在认真做事,推动前沿继续往前走。不过,AI 是一门大生意——这点无论如何都没法否认。 主持人:我还跟同事说,我们真该做一张表,把那些在每一家前沿实验室都待过的人列出来,标注他们在每家待了多久。(笑)肯定至少有一小撮人,把整个湾区的“前沿实验室巡回赛”跑完了。说真的,这太疯狂了。 主持人:2018 年前后,OpenAI 还只有三十来个人。有一件事当时让我印象特别深:最早那批成员里,波兰人的比例异常高,而且很多都是非常典型的“数学脑”。 有些人彼此从小就认识,有些并不认识。我一直很好奇:这到底反映的是一种教育背景的集中效应——比如偏重数学训练的体系,确实更容易培养出这类人?还是说,其实只是早期有几个人先来了,后来通过学术和个人网络,慢慢把更多同类的人吸引到了 OpenAI? Jerry:先澄清一点:我在加入 OpenAI 之前,完全不认识任何 OpenAI 的人。我是非常随机、机缘巧合地进来的。 但你说得没错,在 OpenAI 非常早期,波兰人的占比确实偏高。不过我并不觉得这种情况“经得起时间检验”。现在公司里,波兰人的比例仍然略高于平均水平,但考虑到 OpenAI 的规模已经增长了大概一百倍,这种早期的“高浓度”并没有按比例延续。 我觉得这里面确实有一些值得讨论的因素,但我并没有足够多对其他教育体系的亲身体验,所以不敢轻易下结论,说波兰的教育体系“天然更强”。我能确定的是:我们确实有很多非常聪明、数学直觉很强的人。 但如果说有一件我特别认可、也特别喜欢的事情,那就是波兰人对“努力工作”这件事的重视从我个人经历来看,这种特质在很多地方正在变得越来越少见——尤其是在一些生活条件已经非常优渥的社会里,人们对工作的强调确实在下降。 主持人:你怎么看 Google 最近这一轮的“回归”?你是觉得意外、惊讶,还是说其实早就料到了?看起来他们这段时间做对了不少事情。你们之前是不是一直都觉得:Google 迟早会把局面理顺? Jerry:我个人其实不太愿意把这件事称为“Google 的回归”。它应该被视为OpenAI 的失误。 OpenAI 确实在很多关键点上做对了事情,但也不可否认,在某些阶段出现过判断或执行上的失误,导致整体推进速度比它本可以达到的状态要慢。 在一种理想的执行情境里,如果你是一家已经取得领先优势的公司,而且拥有 OpenAI 那样的技术、人才和资源条件,那么你理论上是可以持续保持领先的。但如果在这个过程中,你做出了一些错误决策,而你的竞争对手做出了更多正确决策——而 Google 在最近一段时间里,确实做对了不少事情——那对方追上来,其实并不奇怪。 你也必须承认:Google 在硬件、算力和人才储备上,本身就有非常巨大的优势。事实上,在 OpenAI 刚起步的那些年里,Google 在几乎所有机器学习方向上,都是明显的行业第一。 OpenAI 能真正跑出来,靠的主要不是资源优势,而是研究方向上的强烈信念:对某一条具体技术路线、某一个具体长期赌注的坚定投入。 但让整个行业、让外部世界真正意识到“这是一个正确的赌注”,花的时间比很多人想象的要长得多。哪怕 GPT-2 训练完成了,GPT-3 训练完成了,后来 GPT-3.5 也出来了——在那个阶段,其实并没有太多人真正重视这件事。 你去 NeurIPS 这样的会议和研究者聊天,大家会觉得 OpenAI 很酷,但很多其他实验室的态度是:“嗯,我们迟早也能复现。”语言模型确实挺有意思,但在他们看来,也就止步于“有意思”。 真正的转折点,是 OpenAI 开始通过 ChatGPT 赚到钱。那一刻,其他公司才突然意识到:“好,这不只是研究展示,而是一个已经被验证的商业方向,我们必须认真投入了。” 这里其实存在一个很关键、但常常被忽略的时间窗口:从你开始构建一项技术,到它真正被商业化,中间往往隔着一段很长的时间。 这段时间,足够让其他公司观察、犹豫、评估风险,然后再决定是否下场。而在这个阶段,Google 显然开始非常认真地对待大语言模型这条路线。再叠加 OpenAI 在执行层面的一些失误,最终导致今天的结果:在模型能力和训练成果上,双方已经变得非常接近。 所以,从 Google 的角度来看,这确实是一件值得祝贺的事情。能够把团队重新拉回状态、把执行节奏提起来,背后一定做了大量艰难而高质量的工作。 主持人:那你说的这些“失误”,具体指的是什么?我在努力回忆。我记得当年你们推出 Search 的时候,外界一度在说“Google 完了”,但我当时就觉得未必如此。所以你提到的失误,更多是指哪些方面? Jerry:我不太想展开讨论具体的内部决策细节,哪些判断是对的,哪些是错的。 但我想强调的核心其实很简单:如果一家领先公司执行得足够好,那么在大多数情况下,它是可以把领先优势持续下去的。 而在现实中,很明显有一些事情的推进速度,比它本可以达到的节奏要慢。 主持人:你的意思是技术层面的失误吗?因为从外界看,也确实发生了不少公司层面的戏剧性的狗血剧情,这些在某些阶段显然拖慢了整体节奏。 我跟 OpenAI 的一些人聊过,关于公司要如何继续向前,确实出现过一些阶段性的混乱,比如关键人物离开等等。所以我原本以为你指的是纯技术问题,但听起来你的意思更复杂一些。 Jerry:这些事情有时候确实是相互关联的。 从技术角度来说,我并不认为“有人离开”这件事本身就一定构成问题。在任何一家公司,人来人往其实都很正常,也应该是一种常态。 但如果离开变成了某种更深层问题的症状——比如有人觉得:“公司在一些关键事情上做错了决定,我不再相信这家公司了,所以选择离开”——那这往往意味着,背后确实存在一些需要被正视的问题。 所以回到我最初的判断:确实有一些事情,推进得比它本可以做到的速度要慢。这并不否认 OpenAI 的成功,但也不能忽视这些失误带来的影响。 主持人:如果像你说的那样,各大实验室基本都在走同一条路,那 Meta 显然也是其中之一。他们在 AI 上投入巨大,也在从各家实验室挖人。我并不完全清楚 Meta 内部的具体策略,但从外部看,他们似乎并没有选择一条完全不同的路线,而更像是在追赶同一条主流路线。 这听起来像一个根本性的问题:如果你既起步更晚,又在做和别人几乎一样的事情,这真的可能有好结果吗?还是说,你觉得 Meta 实际上走的是一条不一样的路? Jerry:我并不完全了解他们的内部策略,所以只能谈一些外部观察。 我的感觉是,他们已经意识到一件非常关键的事情:“规模化”在当前的 AI 世界里是不可回避的。如果你放眼现在的 AI 行业,基本可以抽象出两种不同的战略选择。 第一种是:我要做一种和其他人都不一样的模型——它在某些方面会明显更强,我希望把这种差异化模型带给世界。第二种是:我也希望拥有和别人一样强、同一量级的模型,但我的重点不在模型本身,而在于我如何使用这些模型、以及我基于它们构建什么样的产品。 从我对 Meta 一贯路线的理解来看,这家公司长期以来关注的核心,一直是连接人与人、构建关系、打造大规模的用户体验型产品。无论是社交网络、沉浸式体验,还是他们设想中的元宇宙,本质上都是围绕“体验”和“连接”展开的。 所以我这里是基于外部推测,但我认为 Meta 的思路,很可能是:使用我们已经熟悉、已经理解得比较透彻的 AI 技术(比如 Transformer),来构建全新的产品体验,而不是在模型层面追求完全不同的路线。 从一家极其成功、极其赚钱、而且已经拥有全球最大社交网络的公司视角来看,这其实完全可能是一种非常合理、甚至非常聪明的策略。 主持人:我们刚才聊了 Google,也聊了 Meta。但我想换一个角度问:在你们内部讨论、或者评估其他实验室的时候,有没有哪一家,让你们真的觉得“被震撼到了”?哪一家是你个人印象最深的? Jerry:我得说,这是一个相对比较新的变化。 在过去一年里,我对 Anthropic 的印象提升得非常明显。我本人其实从来不是那种特别在意模型“性格”的人。虽然我也听说过 Claude 的“性格”很好,可能确实如此,但这并不是我关注的重点。 真正让我感到震撼的是几件事:他们在代码模型、编码 Agent上的成果;以及他们围绕“开发者”建立起来的整体产品和品牌——还有最关键的一点:他们拥有一大群真正满意、甚至很开心的开发者用户。这是一项非常、非常了不起的成就。 更重要的是:他们起步比 OpenAI 更晚;算力条件更受限制;团队规模也更小。在这样的前提下,他们依然做到了高度聚焦,并且执行得非常好。 他们在获取高质量算力方面遇到过不少现实困难,但即便如此,仍然做出了非常出色的产品。 这些产品正在明显改变人们开发软件的方式;而据我了解,也已经在实质性地提升企业生产力。 所以我真心觉得:他们做得非常好,值得祝贺。 主持人:他们确实看起来正处在一个“高光时刻”。我身边几乎所有人都在聊 Claude Code。我最近还采访了一个人——他在用 Claude“养活一盆植物”。(笑)可能是第一种被 AI 模型持续“照料”的生命体。我真的不知道他们是怎么做出一个几乎“人人都喜欢”的工具的。从 ChatGPT 到 Claude Code,这种程度的“普遍好评”,其实非常少见。 而且之前还有一件事:当大家被“切断使用”时,开发者的反应极其强烈——某种程度上,那种崩溃感甚至超过了 OpenAI 出事时的反应。连 Elon 都公开承认了这一点,说:“是的,我们用得太多了,这是个警醒,我们得把自己的东西做得更好。”所以我在想:这也许不是一个完全普遍的现象,但看起来,很多实验室其实已经在不同程度上依赖这套工具了。也希望这次“切断”能倒逼出更多、更好的同类产品。来一百万个 Claude Code。(笑) Jerry:在 OpenAI,我们其实也开发 Codex 有一段时间了——它算是我们自己的“Claude Code 版本”。 我个人觉得 Codex 也挺不错的。有点好笑的是:我自己其实并没有怎么用过 Claude Code。毕竟当时我还在 OpenAI 工作,也没太多机会去亲自用。 我也是想说得客气一点。所以我确实没法给出太多一手对比体验。但至少从推特上的反馈来看,Claude 确实被全球开发者非常、非常喜欢。 主持人:结合我们前面的讨论,我对你的理解是:你一直是从一种很纯粹的智识和科学兴趣出发的人。你在 reasoning 上的很多工作,本质上都指向一个长期目标——你想创造“AI 科学家”。 所以当我看到你说要离开 OpenAI 时,我忍不住在想:你是不是已经不太想继续待在这场“基础模型竞赛”里了?听你说话的感觉,更像是想换一条路走。我甚至会想象,你会不会干脆跑去做生物科技之类的方向,用完全不同的方式继续追这件事。 Jerry:如果我能克隆自己、同时做很多件不同的事情,我真的会非常愿意。但长话短说:有一天我突然意识到——我对自己过去的人生很满意,也为自己做过的事情感到骄傲;但我现在真正想做的,是押一两个、甚至两三个非常非常大的研究赌注,然后看看能不能把它们做成。 我一直觉得,人应该更愿意冒风险。至少从我的观察来看,我可能算是那种风险承受能力比较高的人——愿意去追一些看起来很野、很不确定、甚至有点离谱的想法。所以我觉得,我应该把这种特质用在更有意义的事情上。 主持人:那你脑子里的这些想法,如果真要落地,大概需要多久?是一年左右的项目,还是说你说的“风险”,意味着你愿意花四五年时间去追一件事,而它最后甚至可能还不如现有方案? Jerry:我肯定愿意投入很多时间。但与此同时,我也非常坚定地认为:研究应该尽可能快地推进。 做得慢,本身并不值得骄傲。从“把研究执行好”这个角度看,我希望它能更快。 不过,真正关键的,其实是我之前反复提到的两个词:聚焦(focus)和信念(conviction)。 如果你同时做很多事情,几乎注定每件事都只能做一小部分。你的注意力会被摊薄,资源也会被摊薄。研究实验室经常会说:算力不够,算力限制拖慢了研究。这当然是真的,而且是重要因素之一。但很多时候,更核心的问题其实是:不够聚焦。一天之内,一个人的注意力只能真正放在有限的几件事情上。 我很喜欢对和我共事过的研究者说一句话:少跑一点实验,把每一个实验想得更深。因为有时候,你花几个小时什么实验都不跑,只是盯着结果、反复分析数据——反而更容易带来真正的突破,而不是不停地“多跑”。 所以像 OpenAI 这样的公司,算力其实非常多。但如果算力被分散到太多项目上,效果反而会被稀释。如果把算力集中到更少、更聚焦的项目上,算力往往是够用的。 但这又回到了风险和信念的问题。如果你同时做三个项目,只要有一个成功,其实就已经算不错了;另外两个被砍掉,也完全可以接受。如果三个都成功,那当然更好。但如果你只做一个项目,它往往会推进得更快——因为你足够聚焦、也足够坚定。当然,代价是:如果它失败了,你会非常惨;但如果它成功了,你可能会拥有世界上最好的模型。 而对 OpenAI 这样规模的公司来说,现在确实很难做到一件事:把整个公司押注在一个全新的、完全不同的方向上,同时不在乎下个季度 Gemini 会不会更强。这真的非常难。它需要一种非常特殊类型的人,才愿意这么做。 我觉得,这就是问题的核心。 主持人:我明白,也知道你不能聊什么“秘方”。但我还是忍不住好奇:从外部看,我会直觉觉得,OpenAI 接下来押注的方向,应该是那些能赚大钱的方向。比如“Chat 里要加广告”的消息,几乎把整个互联网点燃了。哪怕很笼统地说,你觉得我们能判断他们接下来大概会把资源投向哪里吗? Jerry:这个问题上,我确实不应该、也不能谈 OpenAI 的任何具体计划。 主持人:合理。(笑)那我换个问法:你觉得这些做模型的公司里,有没有谁会选择——也许“勇气”这个词不太准确——不把广告塞进模型里?还是说,从商业角度看,这其实是不可避免的? Jerry:这属于商业策略。我做的是训练模型。(笑) 主持人:好,抱歉,我不是想逼你。(笑)只是聊完整个对话之后,我自己还在试图想明白一件事。一方面,你说你想走一些新的方向,去追一些和主流不同的路径;但另一方面,我们也反复提到:你想做的这些事,确实需要非常强的“马力”。所以我有点难想象:这是 Jerry 一个人、在外面慢慢测试新想法?还是说,就你真正想做的那些研究,你必须身处一个拥有足够资源的地方,事情才有可能发生? Jerry:这正是我现在最想搞清楚的第一个问题。任何 AI 研究,最终都离不开 GPU、离不开算力(FLOPs)。我现在需要认真想清楚的是:到底什么样的方式,才是做这些研究的最佳路径。 我确实正在努力理清楚:我很清楚自己想做哪些研究,但我还在寻找答案——到底怎样去做,才算是一个“好的方式”。 主持人:我刚才问的那些,基本就是我最想问的了。我觉得我能跟你聊上好几个小时。 我不想继续追问“你接下来做什么”,因为你看起来太开心了,整个人容光焕发。 Jerry:是的,我听好几个人都跟我说:你现在比以前快乐多了。 主持人:我不想把你拖回那种压力里,比如问你接下来要做什么? Jerry:我不知道。而且我也听一位正在经营自己公司的人说过一句让我很震撼的话:在 OpenAI 工作,比自己创业还更有压力。从很多方面看,OpenAI 的确是一个压力极大的地方。 主持人:还有一个小问题,除了“大家都在追同一套东西”之外,你觉得这个领域里还有没有什么“巨大的错误”? Jerry:我不觉得存在那种特别“巨大的错误”。这个行业里的人,其实都很难犯那种一眼就能看出来的致命错误。 真正的问题更像是:你愿意花多少精力去探索“其他可能性”?又有多少精力,继续沿着你已经走得很顺的那条路往前推。 主持人:那我换个问法,可能更准确一点。有没有一些你觉得被明显低估、被忽视的研究方向?它们本该得到更多关注,但现在没有。 Jerry:老实说,这样的想法非常多。但这些想法最缺的,往往不是“它们不存在”,而是:缺关注、缺算力、缺资源。 这里还有一个比较有意思的现象。很多研究者——包括学术界——很擅长、也很喜欢做“从 0 到 1”的事情:提出一个新想法,证明它“有点能跑”,然后就发表出来。而我觉得,我自己、以及我在 OpenAI 共事过的团队,真正特别擅长的一件事,是“从 1 到 100”:拿一些已经有初步证据的新想法——它们很不同,也不成熟——然后想办法把它们在大规模上做得可靠、稳定、可落地。 要训练前沿模型,把一种技术真正嵌进系统里,会涉及大量非常具体、非常琐碎、但又极其关键的工程和研究工作。如果执行不好,可能要花上好几年;但如果你有一套好的方法和节奏,可能几个月就能完成。这也是我未来很想继续多做的一类事情。 主持人:我们之前聊到 OpenAI 的人员流动时,你说公司是能扛住这些变化的。但从外部看,这个领域又很像是“明星驱动”的:比如 Alec Radford 那样的突破级贡献——你知道我指的是什么。 从行业行为上看,很多实验室似乎也在按“明星逻辑”行事。当然,这背后有大量集体协作,但确实也有一些时刻,看起来重大突破被“绑定”在少数几个人身上。但你刚才的反应,似乎并不完全认同这是一个“明星驱动”的行业。 Jerry:我觉得这是个很复杂的话题,但有两个看法可以同时成立。 一方面,确实存在这样的情况:在某些阶段,尤其是在 OpenAI,一小撮人能产生远超常人的影响力,推动真正突破性的成果,然后这些成果扩散到整个行业。我亲眼看到这种事情反复发生。 但另一方面,当我看到人们在不同公司之间频繁流动时,我很少看到这种流动本身,对公司产生“决定性影响”。 我更相信的是:公司的结构、文化和运作方式,才是真正的研究引擎,而不完全取决于某一个研究者是否在这里。 而且我也观察到一个现象:那些频繁跳槽的研究者,反而往往没那么高产——即便他们过去做过很好的工作。他们需要重新磨合,会被各种事情分散注意力,短期内也未必有新的突破性想法。 经验当然重要,但更重要的是:营造一种环境——强调个人责任、鼓励探索、并且真正为“做出伟大事情”提供条件。 在一个好的结构、好的文化、好的协作方式下,你完全可以建立很多团队,持续做出伟大的成果。 这件事并不依赖某一个“唯一的人”。归根结底,我认为:研究结构、研究文化和协作方式,远比“某个特定的人是否在团队里”更重要。 主持人:很有道理,很有道理。 主持人:最后一个问题:你冥想吗? Jerry:最近在试,但我觉得我冥想得不太行。 主持人:那祝你下一段旅程,能找到属于自己的“黑暗静修”。Jerry,谢谢你。 Jerry:谢谢,很高兴和你们聊天。 参考链接:当整个大模型行业只剩下一套“配方”,有些人宁愿离场



Yann LeCun 的世界模型,“方向无疑是正确的”
新技术炒作带来的恐惧感
为什么大模型行业叙事变成了肥皂剧、真人秀
Google 的“回归”还是 OpenAI 的“失误”?
做点跟 OpenAI 不同的事情
OpenAI 的压力甚至超过创业?
AI 研究是“明星驱动”的吗?