2026年1月

比如:
1.用 cursor/cc/trae/copilot/trae 等用到的插件
2.结合 AI 给自己提效/摸鱼的工具推荐或流程自动化,想知道像浏览器自动化或办公自动化,现在到了什么程度
3.任何其他你想分享的

一、开发痛点:为什么我们需要AI编程辅助?

核心发现: AI编程工具正在重塑开发流程,但真正的价值不在于替代开发者,而在于构建人机协作的新型开发范式。Claude Code通过精准对话流设计、模块化任务分解和专业化子代理协作,在提升开发效率的同时,也面临着上下文管理、协作边界和质量控制等实际挑战。

作为一线开发者,我们每天都在与复杂的业务逻辑和不断迭代的技术栈打交道。不知道你是否也遇到过这些场景:刚理清一个复杂业务流程,被打断后又得重新梳理思路;接手一个老项目,花了半天还没搞懂其中某个模块的设计思路;或者在不同项目间切换时,总要重新适应不同的编码规范和架构风格。

日常开发的三个"拦路虎":

  • 上下文切换成本高: 需求理解→技术选型→代码实现→质量验证的切换过程中,每次都要重新构建认知框架。
  • 知识传递效率低: 项目规范、架构经验分散在文档和个人经验中,新成员上手或跨模块开发时处处碰壁。
  • 开发流程割裂: 需求→设计→编码→审查各环节串行传递,信息易失真且反馈滞后。

这些问题不是简单的"加人"或"加班"能解决的。我们需要的是一种新的开发范式,而Claude Code这类AI编程工具正是在这样的背景下进入了我们的视野。它的价值不在于替我们写代码,而在于成为我们的"认知放大器"和"流程协作者"。

二、Claude Code核心功能解析:从工具到方法论

Claude Code构建了一套完整的AI辅助开发方法论。接下来将结合团队实际使用经验,从功能特性、使用场景和设计初衷三个维度,详细介绍其核心功能:

精准对话流设计:控制AI思考的艺术

第一次用Claude Code时,就像面对一个热情但经验不足的实习生——如果不明确告诉他要做什么、怎么做、有什么要求,他很可能会给你一个"惊喜"。对话流设计就是解决这个问题的关键。

设计初衷: 对话流设计的本质是将人类的编程思维模式转化为AI可理解的结构化交互方式,通过明确的上下文管理和约束条件设置,引导AI生成符合预期的代码结果。

核心功能

对话流设计通过三个关键机制控制AI的思考过程:

  • 上下文聚焦: 要求单次对话仅处理一个功能模块,避免多任务混合导致的AI注意力分散。我们曾经试过在一个对话里同时让AI处理多个模块,结果它把两个模块的错误处理逻辑混在了一起。
  • 约束明确化: 通过具体指令减少AI的自由度,比如"仅修改X包下文件"、"必须复用Y工具类"。这些约束要尽可能具体,比如不说"遵循项目规范",而是说"使用ResultDTO作为统一返回格式,错误码规则参考ErrorCodeEnum"。
  • 增量式提问: 采用"先框架后细节"的提问策略,先让AI生成接口定义和整体框架,待确认后再逐步深入实现细节。这种方式很像我们带新人时"先搭骨架再填肉"的指导方法。

使用心法

启动新功能开发时,我们会创建专用对话线程,并在初始prompt中明确四件事:

  1. 当前任务的功能边界和目标(做什么,不做什么。)
  2. 必须遵守的技术约束和规范(用什么技术栈,遵循什么标准。)
  3. 期望的输出格式和交付物(要代码?要文档?还是两者都要?)
  4. 分阶段的实现计划(先设计接口,再实现逻辑,最后写测试。)

真实踩坑经验

处理跨模块依赖时,我们发现AI很容易"忘记"之前设定的约束。后来我们总结出一个技巧:每开始一个新的实现阶段,就简要回顾一下关键约束。比如:"现在我们要处理任务交接流程,请记得:1. 使用Redis分布式锁;2. 需要修改商运关系和新商成长任务;3. 异常处理要符合规范。"

Plan模式:复杂任务的系统化分解

面对"实现一个完整的拜访任务系统"这样的复杂需求,直接让AI生成代码就像让一个刚入行的开发者独立负责整个项目——结果往往是逻辑混乱、漏洞百出。Plan模式就是解决这个问题的"项目管理工具"。

现状与问题:我们早期使用Claude Code时,经常犯一个错误:把一个复杂需求一股脑丢给AI,然后期待它给出完美解决方案。结果通常是:

  • 实现逻辑不完整,有些边界情况根本没考虑到。
  • 模块间接口设计不一致,调用起来磕磕绊绊。
  • 技术选型不合理,用了个"看起来很酷但项目中并不适用"的方案。

这其实不能怪AI,人在面对过于复杂的问题时也会手足无措。我们需要一种方法把大问题拆分成小问题,而Plan模式正是借鉴了项目管理中的WBS(工作分解结构)思想。

我们的解决方案:Plan模式使用三步法分解需求:

  1. 需求分析与模块划分:把整体需求分解为独立的功能模块。
  2. 技术方案设计:为每个模块确定实现思路和技术选型。
  3. 任务优先级排序:根据依赖关系和重要性确定实现顺序。

实际操作示例:拜访任务需求

拜访任务是一个简单的企业内部任务需求,在实现"拜访任务需求"时,我们通过Plan模式生成的任务清单是这样的:

---
拜访任务线上化 - 模块清单
M1: 任务创建模块
- 功能: 创建拜访任务,包含基本信息、拜访对象、参与人员
- 复杂度: Medium (需要处理多表关联和事务)
M2: 任务审批模块
- 功能: 飞书审批流程集成,支持任务提交、审批、驳回
- 复杂度: High (涉及飞书审批接口集成和状态流转)
M3: 日程同步模块
- 功能: 将拜访任务同步到飞书日历
- 复杂度: Medium (飞书API调用和异常处理)
M4: 任务列表查询模块
- 功能: 分页查询任务列表,支持多维度筛选
- 复杂度: Medium (ES聚合查询和数据转换)
M5: 任务详情查询模块
- 功能: 查询任务详情,包括拜访对象、参与人员、商家信息
- 复杂度: Low (简单的关联查询)
M6: 任务统计模块
- 功能: 统计不同类型、不同状态的任务数量
- 复杂度: Low (聚合统计)
M7: 拜访结果提交模块
- 功能: 提交拜访记录,上传附件,记录拜访内容
- 复杂度: Medium (文件上传和多表操作)
M8: 任务分配模块
- 功能: 批量分配任务给运营人员
- 复杂度: High (涉及分配策略和定时任务)
M9: 任务触达模块
- 功能: 任务开始、结束、上传提醒通知
- 复杂度: Medium (飞书消息卡片模板)
M10: ES数据同步模块
- 功能: 将任务数据同步到ES,支持全文检索
- 复杂度: Medium (事件驱动和ES批量操作)
M11: 任务导入模块
- 功能: Excel批量导入拜访任务
- 复杂度: High (Excel解析、数据校验、批量插入)
M12: 任务状态变更模块
- 功能: 定时更新任务状态(未开始→进行中→已结束)
- 复杂度: Low (定时任务和批量更新)
---
第二步:技术方案设计
| 模块       | 数据存储               | 查询方案         | 外部集成          |
|------------|------------------------|------------------|-------------------|
| M1-任务创建  | MySQL (事务)           | -                | -                 |
| M2-任务审批  | MySQL + 审批记录表      | -                | 飞书审批API       |
| M3-日程同步  | -                      | -                | 飞书日历API       |
| M4-任务列表  | ES (主) + MySQL (辅)   | ES聚合查询       | -                 |
| M5-任务详情  | MySQL                  | 联表查询         | 商家信息API |
| M6-任务统计  | ES                     | ES聚合统计       | -                 |
| M7-结果提交  | MySQL + OSS            | -                | OSS文件上传       |
| M8-任务分配  | MySQL                  | 分配算法         | -                 |
| M9-任务触达  | -                      | -                | 飞书消息卡片      |
| M10-ES同步  | ES                     | Spring Event     | -                 |
| M11-任务导入 | MySQL                  | Excel 解析    | -                 |
| M12-状态变更 | MySQL                  | JOB定时任务  | -                 |
---
第三步:任务优先级排序
P0 核心流程(必须先实现)
1. M1-任务创建 (基础功能)
2. M5-任务详情 (数据展示)
3. M4-任务列表 (核心查询)
4. M7-结果提交 (闭环流程)
P1 审批与通知(核心功能增强)
5. M2-任务审批 (依赖M1)
6. M3-日程同步 (依赖M2审批通过)
7. M9-任务触达 (依赖M1、M7)
P2 运营功能(效率提升)
8. M8-任务分配 (依赖M1)
9. M11-任务导入 (依赖M1)
10. M6-任务统计 (依赖M4)
P3 技术优化(性能优化)
11. M10-ES同步 (依赖M1、M4)
12. M12-状态变更 (独立模块)
---
实现建议
阶段一:基础能力
- 先实现 M1、M5、M4,打通任务创建→查询→详情的基本链路
- 使用 MySQL 实现,暂不接入 ES
阶段二:审批流程
- 实现 M2、M3,接入飞书审批和日历
- 完成任务的完整生命周期管理
阶段三:结果闭环
- 实现 M7,完成拜访结果提交
- 实现 M9,添加任务触达通知
阶段四:运营优化
- 实现 M8、M11、M6
- 提升运营效率
阶段五:性能优化(按需)
- 实现 M10,将查询迁移到 ES
- 实现 M12,优化任务状态管理

这种方式不仅让AI能够有序工作,也让我们对整个开发进度有了更清晰的把控。

系统提示词:给AI立"规矩"的艺术

如果把Claude Code比作一个新加入团队的开发人员,系统提示词(CLAUDE.md)就相当于给他的"入职手册",告诉他团队的编码规范、工作流程和注意事项。

新手常犯的错误: 把系统提示词写成"百科全书",恨不得把所有项目知识都塞进去。结果AI要么忽略大部分内容,要么在生成代码时顾此失彼。我们早期的系统提示词长达5000字,包含了从架构设计到代码规范的所有内容,效果反而不好。

实践心得:有效的系统提示词应该像"护栏"而非"详尽手册"。我们发现,针对AI常见错误模式设计的针对性提示,远比全面但泛泛的规范更有效。现在我们的系统提示词控制在200字以内,只包含最关键的约束和指引。

系统提示词模板

经过多次迭代,我们总结出包含三个关键模块的系统提示词结构:

使用技巧

分享几个在实践中总结的系统提示词编写技巧:

  • 避免信息过载: 不要试图包含所有知识,而是指引AI在需要时查询特定文档。例如:"遇到分布式事务问题时,请参考/doc/分布式事务最佳实践.md文档中的TCC模式实现方案"。
  • 提供正向引导: 不仅说"不要做什么",更要明确"应该怎么做"。例如,不说"不要使用过时的API",而说"请使用OrderServiceV2替代OrderServiceV1。
  • 动态调整策略: 我们每两周会回顾一次系统提示词的有效性,根据AI最近常犯的错误补充新的约束。比如发现AI经常忘记处理空指针,就新增一条:"所有方法入参必须进行非空校验,使用ValidateUtil.isEmpty()方法,异常时抛出IllegalArgumentException"。

SKILL与MCP:知识沉淀与外部能力扩展

在团队协作中,我们经常说"不要重复造轮子"。同样,在使用Claude Code时,我们也需要一种机制来沉淀和复用那些有效的Prompt和解决方案——这就是SKILL和MCP机制的价值所在。

SKILL机制: 把好经验变成"可复用组件"

SKILL本质上是将单次生效的Prompt指令沉淀为可反复调用的标准化复用资产。举个例子,我们团队处理"ES数据查询"逻辑时,总结出了一个内部版本的SDK。我们把这个SDK的调用方式封装成一个SKILL,以后遇到类似场景,只需调用这个SKILL,AI就能按照我们团队的最佳实践来实现。

MCP协议: 让AI能"调用"外部工具

MCP(模型上下文协议)解决了AI与外部工具、数据源的连接问题。通过MCP,AI不再局限于静态知识,而是能够动态访问实时数据。我们集成了飞书MCP服务器,让AI能够直接操作飞书平台,如自动生成技术方案文档、读取PRD需求、同步数据到多维表格等。

最适合封装为SKILL的场景

1.复杂工具使用指南: 如"ElasticSearch接入"、"Redis缓存更新策略"等需要特定知识的场景。

2.常见错误处理模板: 如"分布式锁冲突处理"、"数据库乐观锁重试机制"等反复出现的问题解决方案。

MCP协议的典型应用场景

  • 场景1: 自动生成技术方案文档
  • AI分析需求后,通过飞书MCP调用feishu_create_doc;
  • 直接在指定的知识库目录创建格式化的技术方案文档;
  • 省去手动复制粘贴的繁琐步骤。
  • 场景2: 读取PRD需求
  • 用户提供飞书文档链接;
  • AI通过feishu_get_doc_content获取文档内容;
  • 基于完整需求信息生成技术方案和实现计划。
  • 场景3: 数据同步到多维表格
  • 代码生成后的统计数据(如代码行数、涉及文件等);
  • 通过feishu_append_bitable_data自动追加到飞书多维表格;
  • 便于团队追踪AI编程效率指标。

三、对话流设计方法论:让AI"懂"你的真实需求

刚接触Claude Code时,我们采用的是简单直接的"需求-响应"模式:开发者描述需求,AI生成代码,开发者修改调整。这种模式在处理简单功能时还行,但遇到复杂场景就会出问题。

现状分析:传统对话模式的局限性

我们早期在项目中踩过的三个坑:

三大典型问题:

  • 需求表达不完整:

开发者说"实现一个商家信息查询接口",AI生成了基础的CRUD代码,但没有考虑商家数据权限、数据脱敏、缓存策略等实际业务需求 ;

实现任务时,只描述了"需要任务分配功能",结果AI生成的代码没有处理任务池、任务优先级、分配策略等核心逻辑。

  • 上下文管理混乱:

一个对话持续了十几轮后,AI开始忘记我们前面确定的"使用MyBatis-Plus + BaseMapper"的设计决策,擅自改成了JPA Repository模式; 

在实现相关功能时,早期确定的DTO转换规范在后续模块中被遗忘,导致代码风格不一致。

  • 迭代反馈滞后:

等AI生成完整的Service + Controller + Repository代码后才发现方向不对,比如数据库表设计与现有架构冲突,不得不从头再来,浪费了大量时间;

实现触达功能时,生成的飞书消息发送代码没有考虑现有的FeishuClient封装,重复造了轮子。

核心问题:为什么AI总是"听不懂"?

深入分析后,我们发现传统对话模式失败的根源在于三个核心矛盾:

语义鸿沟

自然语言描述的模糊性与代码逻辑的精确性之间的差距。我们说"这个接口要安全",AI可能理解为"需要登录校验",而我们实际想要的是:

  • 使用项目中的@Permission注解进行权限校验。
  • 参数需要使用ValidatorUtil进行校验。
  • 敏感操作需要记录操作日志。

约束衰减

随着对话推进,早期设定的技术约束在AI理解中的权重逐渐降低。就像我们记笔记时,重要的事情要反复强调。比如:

  • 第1轮对话强调"必须继承BaseServiceImpl"。
  • 第5轮对话AI可能忘记这个约束,直接实现了一个独立的Service类。
  • 第10轮对话可能连项目的分层架构都混淆了。

目标偏移

在多轮对话中,AI容易过度关注当前细节而忽视整体目标。比如讨论某个接口的参数设计时:

  • AI可能会纠结于参数名称是否优雅。
  • 而忽略了这个接口的核心业务价值是"快速检索符合条件的商家"。
  • 结果生成的代码参数命名很完美,但缺少了分页、排序等实际必需的功能。

解决方案:结构化对话设计方法

针对这些问题,我们团队总结出一套"三阶段对话模型",现在已经成为我们使用Claude Code的标准流程:

阶段一:需求定义——把"要做什么"说清楚

这个阶段的目标是确保我们和AI对需求达成共识。我们会用"用户故事+验收标准"的格式来描述需求:

示例1:新商户成长任务分配

【用户故事】
作为新商户运营,我需要一个任务分配功能,以便将成长任务高效分配给运营人员
【验收标准】
 - 支持从任务池中按优先级(P0/P1/P2)筛选待分配任务
 - 支持指定运营人员进行任务分配,需校验运营人员是否有权限
 - 分配时需检查运营人员当前任务负载,超过上限时提示"当前任务数已达上限"
 - 分配成功后需发送飞书消息通知运营人员,消息内容包含任务详情和截止时间
 - 操作需记录到表,包含操作人、操作时间、任务ID、分配对象

示例2:商家数据权限查询

【用户故事】
作为商家运营,我需要一个商家信息查询接口,查询结果需要根据我的数据权限进行过滤
【验收标准】
 - 支持按商家ID、商家名称、商家状态进行查询
 - 支持分页查询,默认每页20条,最大100条
 - 查询结果需要根据当前用户的数据范围进行过滤
 - 商家敏感信息(手机号、身份证号)需脱敏处理
 - 接口需要权限校验,至少具有"商家查看"权限
 - 查询条件需记录到操作日志,便于审计

阶段二:边界明确——确定"怎么做"的约束条件

在这个阶段,我们会明确技术栈选择、架构设计和各种约束条件。关键是要区分"必须遵守"和"建议参考"的约束:

示例1:新商户成长任务模块

【技术约束】
必须遵守:
 - 使用SpringBoot标准分层架构,所有Service继承OcsBaseServiceImpl
 - 数据库操作使用MyBatis-Plus,实体类继承BaseEntity,Mapper继承BaseMapper
 - 接口返回统一使用Result<T>格式,错误码使用ErrorCode
 - 权限校验使用@Permission注解,参数校验使用@Valid + ValidatorUtil
 - 飞书消息发送必须使用FeishuClient,不要重复实现
建议参考:
 - 任务状态流转参考TaskServiceImpl中的状态机模式
 - 批量分配操作参考AssignImportHandler中的异步处理方式
 - 运营人员权限校验参考OperatorRelationServiceImpl
 - 数据权限过滤参考ScopeServiceImpl中的范围查询逻辑
【数据库约束】
 - 新增表必须包含created_at, updated_at, is_deleted字段
 - 表名使用ocs_前缀,字段名使用蛇形命名法
 - 索引设计需考虑查询场景,高频查询字段必须建立索引
 - 外键约束通过代码层面维护,不在数据库层面创建

示例2:机器人问答功能

【技术约束】
必须遵守:
 - Controller层使用@RestController + @RequestMapping,路径遵循/api/v1/{module}/{action}格式
 - Service层业务逻辑必须有事务控制,使用@Transactional(rollbackFor = Exception.class)
 - DTO转换使用项目中的ConvertUtil,不要手动赋值
 - 第三方API调用(如Dify)必须有重试机制和降级策略
 - 敏感配置(API Key)必须从配置中心读取,不要硬编码
建议参考:
 - 对话上下文管理参考RobotServiceImpl中的会话ID生成逻辑
 - 消息发送失败重试参考FeishuMessageHandler中的重试策略
 - 错误处理参考GlobalExceptionHandler中的统一异常处理
【集成约束】
 - Dify API调用统一通过DifyClient,响应格式需转换为项目标准格式
 - 飞书机器人回调处理需实现签名校验,参考FeishuEventHandler
 - 所有外部API调用需记录请求日志到integration_log表 

阶段三:迭代反馈——在"做的过程"中持续对齐

这个阶段的核心是增量验证,避免一次性生成大量代码后才发现方向错误。

实践要点:

1.分模块实现,逐个验证

  • 先实现核心接口(如任务分配),验证通过后再实现辅助功能(如任务查询)。
  • 先实现Service层核心逻辑,验证业务流程正确后再补充Controller和参数校验。

2.关键节点主动暂停

  • 数据库表设计完成后,先让开发者确认表结构再继续。
  • 核心业务逻辑实现完成后,先通过单元测试验证再生成Controller。
  • 集成第三方API前,先确认调用方式和参数映射。

3.持续同步技术方案

  • 发现架构设计与现有代码不一致时,立即更新tech-solution.json和tech-solution.md。
  • 新增数据表、修改核心逻辑时,同步更新技术方案文档。
  • 每个模块完成后,更新模块状态为implemented → reviewed → verified。

对话示例:

开发者: "实现新商户成长任务分配功能"
AI: "我将分三步实现:
1. 先设计数据库表结构(ocs_task_assignment表)
2. 实现核心分配逻辑(NewMerchantTaskAssignService)
3. 实现Controller层接口
现在开始第一步,设计的表结构如下:
[展示表结构]
请确认表结构是否符合需求?"
开发者: "字段没问题,但索引需要加上(operator_id, status)"
AI: "已更新索引设计,现在开始实现Service层核心逻辑...
[生成Service代码]
核心逻辑已实现,包含:
- 任务池查询(按优先级过滤)
- 运营人员负载检查
- 任务分配和状态更新
- 飞书消息发送
请验证业务逻辑是否正确?"
开发者: "逻辑正确,继续实现Controller"
AI: "开始实现Controller层...
[生成Controller代码]
已完成模块M1实现,更新技术方案状态为implemented"

对话设计三原则与常见问题应对策略

为什么这样设计:背后的认知科学原理

这种结构化对话设计不是凭空想出来的,而是基于我们对人类认知过程的理解:

  • 工作记忆限制理论: 就像我们一次只能记住7±2个信息块一样,AI的上下文理解能力也是有限的。通过分阶段对话和单次聚焦单模块,我们控制了每次交互的认知负荷。
  • 渐进式知识构建: 学习和理解是一个渐进过程,先掌握整体框架再深入细节,符合认知规律。这和我们教新人时"先讲架构图,再讲模块间交互,最后讲具体实现"的思路是一致的。

四、AI团队协作模式:子代理系统的实践与思考

随着团队使用Claude Code的深入,我们发现单个AI助手已经难以满足复杂项目的开发需求——就像一个人再厉害也干不了一个团队的活。于是,我们开始探索让多个AI"角色"协同工作的模式,这就是子代理(SubAgent)系统的由来。

团队协作的现状与挑战

在传统开发模式中,我们有需求分析师、架构师、开发工程师、测试工程师等不同角色,他们通过文档、会议和代码审查等方式协作。这种模式虽然成熟,但在快节奏的业务迭代中,我们发现了一些问题:

协作中的三大痛点:

  • 信息传递损耗: 需求文档从产品经理到开发再到测试,每经过一个环节就可能产生一些理解偏差。就像玩"电话游戏",信息传到最后可能已经面目全非。
  • 责任边界模糊: 当出现问题时,有时会出现"这是架构设计问题"、"这是实现问题"、"这是测试不充分"的互相推诿。
  • 反馈周期漫长: 从需求分析到代码审查,整个流程走下来往往需要几天时间,等发现问题时可能已经投入了大量开发资源。

这些问题促使我们思考:能不能在Claude Code中模拟团队协作模式,让不同的AI角色各司其职又协同工作?

Claude Code的子代理协作模式

借鉴了MetaGPT等框架的思想,我们在Claude Code中构建了由多个专业化子代理组成的AI团队协作系统。每个子代理承担特定角色,通过标准化中间产物协同工作。

核心工作机制:中间产物驱动

所有子代理通过共享"技术方案文档"进行协作,这个文档就像团队的"共享白板",包含需求分析、模块划分、实现状态和接口设计等关键信息。每个子代理只负责修改文档中与自己角色相关的部分,确保信息一致性。

四个核心子代理角色

技术方案架构师

负责需求分析、技术方案设计和模块划分。相当于团队里的架构师,输出"技术方案文档"这个"施工蓝图"。

核心职责:

  • 需求拆解与模块划分
  • 技术栈选型与架构设计
  • 接口定义与数据模型设计
  • 模块间依赖关系梳理
  • 技术方案文档编写与维护

代码审查专家

负责代码质量审查。扮演技术负责人的角色,从架构合规性、代码规范和稳定性等角度挑毛病。

核心职责:

  • 检查代码是否符合架构设计
  • 验证代码规范和命名约定
  • 识别潜在性能问题和bug
  • 评估代码可维护性和扩展性
  • 提供具体修改建议

代码实现专家

专注于代码实现和单元测试编写。就像主力开发工程师,按照架构师设计的蓝图一块块地实现功能。

核心职责:

  • 根据技术方案实现代码
  • 编写单元测试和集成测试
  • 修复代码审查中发现的问题
  • 编写API文档和使用说明
  • 同步更新技术方案实现状态

前端页面生成器

专门负责生成符合我们低代码平台规范的前端页面配置。这是针对我们商家域管理后台特点定制的角色。

核心职责:

  • 根据接口定义生成前端页面配置
  • 实现表格、表单、详情页等标准组件
  • 配置页面权限和数据范围过滤
  • 优化前端交互体验
  • 确保符合设计规范和响应式要求

协作流程

我们采用"先整体规划,再迭代实现"的工作方式,有点像敏捷开发中的Sprint规划+Daily Scrum:

1. 整体规划阶段:

  • 产品经理提供需求文档。
  • 协调者调用"技术方案架构师"子代理分析需求,生成技术方案文档。
  • 团队评审技术方案,提出修改意见。
  • 架构师子代理根据反馈修改方案,直到团队确认。

2. 单模块迭代阶段:

  • 协调者从技术方案文档中选取一个模块。
  • 调用"代码实现专家"生成代码。
  • 调用"代码审查专家"审查代码。
  • 实现专家根据审查意见修改代码。
  • 重复"实现-审查-修改"直到通过。
  • 更新技术方案文档,标记该模块为"已完成"。
  • 进入下一个模块。

子代理协作的价值与局限

实践中的三个显著价值

  • 专业化分工提升质量: 每个子代理专注于特定领域,就像专科医院比综合医院在特定疾病上更专业一样。我们发现,专门的代码审查子代理比通用AI能发现更多潜在问题。
  • 流程标准化降低风险: 通过技术方案文档和明确的角色分工,开发流程被标准化和可视化。新人加入项目时,只要看技术方案文档就能快速了解整体情况。
  • 知识沉淀促进复用: 子代理的专业知识和决策逻辑被编码为可复用的配置和规则,避免了"人走经验丢"的问题。

遇到的四个实际挑战

子代理协作的挑战与应对:

  • 上下文同步问题: 当技术方案文档更新时,各子代理有时不能立即同步最新信息。解决办法:每次修改文档后,明确通知相关子代理"技术方案中XX部分已更新"。
  • 协作边界模糊: 在处理跨模块功能时,出现"该由哪个子代理负责"的困惑。解决办法:在技术方案文档中添加"责任人"字段,明确每个模块由哪个子代理负责。
  • 灵活性与标准化的平衡: 高度标准化的流程有时会限制处理特殊情况的灵活性。解决原则:90%的常规情况严格遵循标准流程,10%的特殊情况由人工介入处理。
  • 错误传递放大效应: 如果技术方案设计阶段就有问题,这个问题会在后续实现和审查阶段被放大。解决办法:加强技术方案的人工评审环节,确保"地基"打牢。

子代理协作的设计思考

在设计这套协作模式时,我们有几个关键思考:

  • 为什么选择"中间产物驱动"而非"直接沟通"?
  • 直接让子代理之间对话可能更灵活,但会导致沟通成本指数级增加(n个代理就有n(n-1)/2种沟通渠道)。通过"技术方案文档"这个单一事实来源,我们大大降低了协作复杂度,也便于追踪变更历史。
  • 角色划分的依据是什么?
  • 我们的角色划分基于软件开发的自然阶段(设计→实现→审查)和专业领域(后端→前端),这符合软件开发生命周期的自然规律。没有盲目追求角色数量,而是根据实际需求逐步增加。
  • 为什么采用"增量迭代"而非"一次性开发"?
  • 复杂系统的构建本质上是一个不断学习和调整的过程。增量迭代让我们能够及早发现问题并调整方向,避免在错误的道路上走得太远。这和我们常说的"小步快跑,快速迭代"理念一致。

五、实践经验与未来展望

经过几个月的Claude Code实践,从最初的"试试看"到现在成为离不开的开发工具,我们积累了一些经验,也对AI编程的未来有了更清晰的认识。

实践经验总结

人机协作的最佳平衡点:

我们发现最有效的AI编程模式是"人类主导,AI辅助",而不是反过来。我们将工作内容分为三类:

  • AI主导: 标准化代码生成(如基础CRUD接口)、单元测试编写、API文档生成等重复性高、规则明确的任务。
  • 人机协作: 技术方案设计、复杂逻辑实现、代码审查等需要结合领域知识和创造性思维的任务。
  • 人类主导: 需求分析、架构设计、质量决策等高风险、高创造性的任务。

上下文管理的实用技巧

管理好对话上下文是用好Claude Code的关键,分享几个我们团队总结的技巧:

  • 对话线程化: 为不同功能模块创建独立对话线程。我们曾经在一个对话里讨论三个不同模块,结果上下文混乱到不得不从头开始。
  • 关键信息锚定: 重要的技术决策和约束要在对话中反复强调。就像写文章时,核心观点要多次出现。
  • 文档外化: 复杂设计和决策要记录在外部文档中,而不是仅依赖对话历史。我们会在对话中引用这些文档:"数据库设计详见/doc/db_design.md,特别是索引设计部分"。
  • 状态可视化: 通过技术方案文档中的进度标记(如[未开始]、[设计中]、[已实现]、[已审查]),直观跟踪开发状态。

质量控制的三个关键策略

使用AI生成代码后,质量控制变得更加重要。我们的做法是:

  • 多层次验证: 单元测试(AI生成)+ 集成测试(人工设计)+ 代码审查(人机结合)的三层验证体系。
  • 渐进式信任: 从简单、低风险模块开始使用AI,建立信任后再逐步扩展。我们最先用AI生成内部工具,验证没问题后才用于核心业务系统。
  • 错误模式学习: 记录AI常犯的错误类型,针对性优化系统提示词。我们有一个"AI错误案例库",记录了"AI忘记处理分布式锁超时"、"日期格式转换错误"等典型问题及解决方案。

AI编程的局限性认知

在实践过程中,我们也清醒地认识到AI编程并非万能解决方案,它有几个明显的局限性:

  • 创造性思维不足: AI擅长在已有知识范围内进行组合和优化,但在需要突破性创新的场景下表现有限。比如我们尝试让AI设计一个全新的商家结算模型时,它还是会倾向于参考现有模型进行修改,难以跳出固有思维框架。
  • 上下文理解深度有限: 尽管Claude Code的上下文窗口已经很大,但对于我们系统中某些"牵一发而动全身"的核心模块,AI还是难以把握其深层设计意图和与其他模块的隐性依赖。
  • 质量责任边界模糊: 当AI生成的代码出现质量问题时,责任界定变得复杂。我们的解决办法是:开发者对AI生成的代码负全部责任,就像我们对自己写的代码负责一样。
  • 领域知识滞后性: AI对我们公司内部系统的最新变更反应不够及时。为此我们建立了"知识库更新机制",每月将最新的系统变更和业务规则整理成文档,供AI参考。

未来发展方向思考

基于这些实践经验,我们对AI编程工具的未来发展有几点思考:

  • 更智能的上下文管理: 未来的AI编程工具应该能自动识别相关上下文、追踪依赖关系,并在适当的时候提醒开发者潜在的上下文冲突。就像经验丰富的团队领导,能记住每个人负责的模块和项目的整体情况。
  • 多模态交互模式: 除了文本对话,未来可能引入图表、流程图等多种交互方式。有时画一个简单的流程图(PlantUML),比写几百字描述更能说明问题。
  • 自适应学习机制: AI编程工具应该能从团队的使用反馈中学习,适应特定团队的编码风格和业务领域。就像新加入团队的开发者,会逐渐适应团队的工作方式。

六、结语:人机协作的新型开发范式

回顾这几个月使用Claude Code的经历,我们最大的体会是:AI编程工具的价值不在于替代开发者,而在于构建人机协作的新型开发范式。在这种范式下,人类开发者从繁琐的重复劳动中解放出来,更专注于需求分析、架构设计和质量把控等高价值创造性工作,而AI则承担起代码实现、文档生成和基础验证等标准化工作。

Claude Code作为我们实践的核心工具,通过精准对话流设计、模块化任务分解和专业化子代理协作,展示了这种新型开发范式的潜力。但我们也认识到,成功的AI编程应用需要"工具+方法论+团队协作"三位一体的系统性变革,其中人的角色从"代码生产者"向"问题解决者"和"质量把控者"转变。

作为开发者,我们需要保持开放学习的心态,积极探索和适应这种新范式。未来已来,与其恐惧被AI替代,不如学会与AI协作,在人机协作中实现更高的个人价值和团队效能。毕竟,代码只是解决问题的手段,而非目的;AI只是增强我们能力的工具,而真正的创新和价值,始终源于人的智慧和创造力。

实践启示: 在AI编程时代,最有价值的开发者不是"写代码最快的人",而是"最会引导AI、最能把控质量、最能解决复杂问题的人"。掌握与AI协作的技巧,建立系统化的AI辅助开发流程,将成为未来开发者的核心竞争力。我们的经验表明,通过合理设计对话流程、明确分工协作和严格质量控制,AI编程工具能够显著提升团队效能,但这需要整个团队在思维方式和工作流程上的共同转变。

往期回顾

1.入选AAAI-PerFM|得物社区推荐之基于大语言模型的新颖性推荐算法

2.Galaxy比数平台功能介绍及实现原理|得物技术 

3.得物App智能巡检技术的探索与实践

4.深度实践:得物算法域全景可观测性从 0 到 1 的演进之路

5.前端平台大仓应用稳定性治理之路|得物技术

文 /稚归

关注得物技术,每周更新技术干货

要是觉得文章对你有帮助的话,欢迎评论转发点赞~

未经得物技术许可严禁转载,否则依法追究法律责任。

在人工智能技术演进的长周期中,2026 年被普遍视为一个关键分水岭: AI 的角色正在从“语义交互工具”转向“任务执行主体”。

这一变化并非模型能力的单点突破,而是 AI 在企业系统中参与深度决策与执行所带来的结构性转变。AI 不再只是提供分析结果或生成内容,而是被嵌入到业务流程的最小执行单元中,直接参与行动。

一、从生成式到代理式:AI 技术形态的变化

随着模型推理能力与工具调用能力的成熟,AI 系统开始呈现出明显的代理式特征。

这类系统能够基于自然语言目标,自主完成任务拆解、路径规划、系统操作与结果校验,并在反馈中不断修正执行策略。 与传统自动化流程不同,其核心能力不依赖于预设脚本,而体现在对不确定环境的动态适应能力。

在实际业务中,AI 的输出不再停留在“建议”层面,而是直接转化为对业务系统的操作指令。例如,根据实时数据变化,自动发起流程、更新状态并持续跟踪结果。

二、执行权下沉带来的业务结构变化

当 AI 开始承担执行职责,企业的业务逻辑随之发生改变。

首先是响应速度的跃迁。 AI 执行单元可以并行处理大量任务节点,决策与操作延迟显著降低,使实时监控与即时干预成为常态。

其次,管理方式从过程导向转向目标导向。 企业不再需要为每个细节定义固定流程,而是通过明确目标与约束条件,由系统自行规划最优执行路径。这种模式降低了流程设计成本,同时对任务对齐提出了更高要求。

同时,执行系统开始具备自我修正能力。 通过持续接收执行反馈,AI 能够识别偏差并调整策略,使业务流程呈现出持续优化的特征。这种闭环结构提升了整体系统的稳定性与韧性。

三、执行态 AI 对组织能力的要求

随着执行能力的下沉,企业需要在组织层面进行相应调整。

一是基础设施的标准化。 业务系统需要具备高度可接口化的能力,以确保 AI 在受控范围内访问数据与服务。

二是决策边界的重新划分。 高频、规则清晰、数据驱动的任务更适合由 AI 执行;而涉及价值判断、复杂博弈或责任归属的环节,仍需保留人工介入。

三是数据从资产向燃料转变。 数据不再只是用于分析与复盘,而是实时驱动执行动作,其质量与时效性直接影响业务结果。

在这一过程中,行业普遍观察到一个趋势:智能体来了,它不再只是技术概念,而是逐步成为业务系统中的实际执行单元。

四、执行态 AI 的商业价值总结

从整体视角看,AI 参与执行并非工具升级,而是生产力结构的重组。

  • 业务协作模式从“人主导、机辅助”转向“人设目标、机执行”
  • 组织效率从人力带宽限制,转向系统级并行扩展
  • 核心能力从经验积累,转向推理能力与接口能力
  • 风险控制从事后复核,转向权限管理与执行反馈

这意味着,企业竞争的关键不再是部署了多少 AI 工具,而是是否拥有能够稳定、安全执行复杂业务目标的执行型 AI 系统。

AI 正从后台支持角色,走向业务一线。这一变化,正在重塑企业的价值链条。

在认知负荷极度饱和的数字化协作中,企业的效率瓶颈已从“任务分配”转向“任务上下文的完整性保护”。容器式任务封装工具不仅是静态的任务载体,更是通过逻辑隔离与资源集成,将复杂的工作包转化为可独立运行、可无损迁移的容器式执行单元。

一、 为什么现代敏捷团队必须重视“容器式”封装?

传统颗粒化任务管理往往导致“背景缺失”:任务与所需的文档、权限、上下文分离,导致执行者在切换任务时面临巨大的重构成本。容器式任务封装工具的核心价值在于:

  • 消除执行漂移:通过将任务及其所有依赖(文档、工具、权限)封装在同一容器内,确保执行环境在不同成员间保持一致。
  • 支撑高内聚执行穿透:支持在容器内部进行深度钻取,从任务摘要穿透至最底层的操作原子,而不破坏外部逻辑。
  • 实现标准资产对齐:通过将验证有效的执行模式封装为“任务镜像”,确保各模块的产出质量自动对齐标准。
  • 复杂流程模块化解耦:将大型项目拆解为多个互不干扰的任务容器,实现跨团队、跨周期的快速部署与并行推进。

---

二、 容器式封装的技术路径:三层隔离架构

构建容器式任务体系需要遵循“环境集成”与“边界清晰”的逻辑:

  1. 任务外壳层(Task Shell):定义容器的外部接口,展示任务的状态标签、优先级及关键里程碑。
  2. 内容封装层(Content Payload):容器的核心,集成执行该任务所需的知识归纳、原始文档及协作记录。
  3. 运行依赖层(Runtime Dependency):位于容器底层,定义任务执行所需的特定权限、关联工具链及前置触发条件。

---

三、 核心技术实现与算法示例

容器式任务封装工具的底层逻辑涉及状态一致性同步、依赖冲突检测及容器化价值评估。

1. 基于递归的容器健康度评估 (JavaScript)

在容器式封装中,任务的完成质量由其内部封装的所有依赖项和子任务共同决定:

JavaScript

/**
* 递归计算封装容器的整体健康得分
* @param {Object} containerNode 容器节点
* @returns {number} 容器聚合后的完成度得分
*/
function calculateContainerHealth(containerNode) {

// 基准情况:如果是原子级封装项,返回其标准化进度  
if (\!containerNode.subModules || containerNode.subModules.length \=== 0) {  
    return containerNode.readinessScore || 0;  
}

// 汇总子模块的加权得分  
const totalHealth \= containerNode.subModules.reduce((acc, module) \=\> {  
    const importance \= module.logicWeight || (1 / containerNode.subModules.length);  
    return acc \+ (calculateContainerHealth(module) \* importance);  
}, 0);

return Math.round(totalHealth);  

}

2. Python:容器依赖冲突审计引擎

利用容器模型,自动检测不同任务容器间是否存在资源占用或逻辑路径的冲突:

Python

class ContainerAuditEngine:

def \_\_init\_\_(self):  
    \# 预设标准:任务类型 \-\> 必须封装的最小依赖项  
    self.standard\_manifests \= {  
        "Dev\_Sprint": \["Spec\_Doc", "Auth\_Key", "Test\_Case"\],  
        "Design\_Review": \["Prototype\_Link", "Feedback\_Log"\]  
    }

def verify\_container\_integrity(self, current\_task, task\_type):  
    """对比实际封装内容与标准清单,识别执行风险"""  
    required \= self.standard\_manifests.get(task\_type)  
    if not required:  
        return "缺失标准封装协议"

    missing \= \[item for item in required if item not in current\_task\['payload'\]\]  
    if missing:  
        print(f"\[Container Alert\] 任务 '{current\_task\['id'\]}' 封装不完整,缺失: {missing}")  
        self.\_trigger\_hotfix(current\_task\['id'\])

---

四、 工具分类与选型思路

实施容器式任务封装时,工具的选择应基于对“封装内聚力”的需求:

  • 垂直集成类(如 板栗看板):核心优势在于无限层级的容器嵌套,支持将任务关系连线与内容封装深度融合。
  • 多维数据类(如 Airtable):通过强关联的字段将多源数据“装入”记录行,适合对大量标准化任务容器进行参数化管理。
  • 文档容器类(如 Notion):利用页面即容器的特性,将讨论、任务与知识库进行逻辑封装。

---

五、 实施中的风险控制与管理优化

  • 防止“容器孤岛化”:应通过全局映射工具确保各独立容器间的逻辑对齐,防止执行偏离主线。
  • 动态激活任务镜像:将高频出现的优质任务封装沉淀为模板,实现一键实例化,降低冷启动成本。
  • 定期进行容器“减脂”:随着任务迭代,应精简容器内的陈旧文档和多余依赖,保持执行单元的轻量化。

---

六、 结语

容器式封装是提升组织执行确定性的核心手段。 它不仅解决了“任务信息散乱”的问题,更通过严密的模块化架构,将复杂的协作转化为可以精准复用的逻辑单元。当任务能够以容器形式标准化隔离时,团队才能在极速变化的节奏中实现“高专注度”与“高质量产出”的统一。

统信Windows应用兼容引擎 V3.4.2 更新日志
【优化】高级调试-组件安装内增加组件介绍
【优化】支持直接打开日志文件
【优化】投递应用时exe下载链接的预设文案
【优化】外显了每个专区内收录的应用数量组件安装增加详细介绍之前有人吐槽,高级调试-组件安装当中的组件都是英文的,能不能提供中文名称?

这些组件的名称本来就是英文的,没有中文名称,比如“JAVA”就是“JAVA”,“mono”就是“mono”,它没有中文名称,强行翻译成中文反而不方便大家去查询使用,但是我们可以给这些组件添加中文的介绍说明,告诉大家这些组件是干什么的,方便大家进行wine调试和研究:可以了解到wine应用一般都会安装什么组件解决什么问题,调试运行的时候需要解决什么问题,也可以去组件里搜索进行组件安装尝试。

图片
直接打开调试日志文件高级调试-调试日志窗口处进行了一个微小的优化,将“打开日志”的行为从“打开日志所在文件”调整为“打开日志文件”。之前的版本当中,“打开日志”功能是打开日志所在文件夹,需要用户使用其他工具来打开日志文件,多了一步流程,而且查看日志的效果受到默认打开日志文件工具的影响。

图片
兼容引擎本质上是一个工具型的应用,工具型应用是要注重效率问题的,随着收到大家越来越多的应用投递和应用适配申请,在进行应用wine适配时,需要频繁的进行应用调试和查看日志,缩短打开日志的路径以及更方便的审查日志,可以极大的提高wine适配效率,基于上述实际使用场景,将“打开日志”的行为从“打开日志所在文件”调整为“打开日志文件”,用来打开日志文件的工具是deepin-wine团队日常使用的日志分析工具,大家有好的想法也可以给我们提建议。

图片
优化exe下载链接引导文案在投递应用时,填写exe文件下载链接的引导文案调整为“请提供链接用于复测,官方链接优先采用”。

图片
这个优化点很小,但却是需要大家认真关注的一个地方。一些应用程序是否能成功wine是与其版本号有强关联的,因此兼容引擎在提供wine应用数据库的时候着重强调了exe文件的版本号,大家在投递wine应用的时候一定要投递准确的应用版本,并且尽量提供软件官方的下载链接,方便审核人员下载应用可以加速审核。外显各应用专区内收录的软件数量自2025年5月21日上线“全部应用”模块后,经过deepin社区多次wine众测活动,在deepin-wine团队和各位爱好者们的共同努力建设下,目前兼容引擎已经收录了超过 3800+款应用。

图片
为了控制应用投递的质量,目前兼容引擎的应用投递功能做了诸多限制,对于最重要的“应用名称”和“应用版本号”信息采用直接读取PE文件信息的策略,不允许自定义修改。同时为了防止恶意代码注入之类的风险,各字段的数据传输做了严格限制,因此一些打包不规范的exe文件、有风险的链接格式和字符可能导致无法投递。

在使用筑业云资料软件进行表格编辑时,行列标以及单元格的合并与拆分操作是常见需求。熟练掌握这些操作,能让表格更符合实际使用要求,提升资料整理与展示的效果。以下为您详细介绍具体操作方法。
行列标显示与隐藏
显示行列标:通常情况下,打开表格时,左侧和上方看不到行列标,这会给行高、列宽的调整带来不便。此时,只需点击软件上方的 “行列” 按钮,在下拉菜单中勾选 “行列标” 选项,行列标就会自动显示出来。行列标出现后,您就能直观地对表格的行高和列宽进行精准设置,满足不同内容的排版需求。例如,当表格中某列内容较多时,可通过行列标调整列宽,使内容完整显示。
隐藏行列标:若在完成行高、列宽调整后,不再需要显示行列标,同样点击 “行列” 下拉菜单,取消 “行列标” 的勾选,行列标便会自动隐藏,让表格界面更加简洁。这种灵活显示与隐藏行列标的方式,充分考虑了用户在不同操作阶段的需求。
单元格合并与拆分
合并单元格:在编辑表格过程中,为了使表格结构更清晰、内容展示更集中,常常需要合并单元格。操作时,只需选中多个想要合并的单元格,此时工具栏上的 “合并单元格” 按钮会自动激活显示。点击该按钮,选中的多个单元格就会合并成一个单元格。比如,在制作标题栏时,可将多个相邻单元格合并,使标题更醒目。
拆分单元格:当需要对已合并的单元格或特定单元格进行细分时,选中多列或多行单元格,“拆分单元格” 按钮会显示。点击该按钮,即可将选中的单元格拆分成多个单元格,方便填写不同的详细信息。例如,在数据统计表格中,若之前合并的单元格需要细分以展示更具体的数据,就可使用拆分功能。
解锁灰色单元格:有时会遇到灰色单元格,这类单元格默认处于锁定状态,无法直接进行合并或拆分操作。遇到这种情况,只需选中灰色单元格,点击 “解锁” 按钮(可在选中单元格后直接点击,也可点击工具栏上的 “解锁” 按钮),即可解除锁定,之后便能对其进行正常的合并、拆分等编辑操作。
行列及单元格的其他功能
点击 “行列” 按钮下拉菜单,您会发现还有许多实用功能。例如 “插入”“追加”“删除” 行和列的操作,方便在表格中灵活添加或移除内容;在这里还能调整行距,使表格内容间距更合理;同时,您还可以选择是否显示网格线,让表格外观更符合个人喜好和实际使用场景。这些丰富的功能,进一步增强了表格编辑的灵活性和个性化。
通过以上操作方法,您可以轻松在筑业云资料软件中对行列标及单元格进行各种操作,打造出满足您需求的个性化表格,让工程资料的整理与展示更加高效、美观。

在智能体系统的早期实践中,开发工作往往从解决单一问题开始:一个场景、一个目标、一次交付。这样的方式能够快速验证模型能力,却难以支撑长期演进。当系统从实验性 Demo 走向真实业务时,一个决定性指标会迅速浮现——可复用性(Reusability)

在智能体工程中,可复用性并非附加属性,而是判断系统是否真正完成从 0 到 1 跨越的核心标准。不可复用的智能体,本质上只是一次性消耗品;而具备复用能力的系统,才能成为可持续演进的数字资产。


一、从烟囱式实现到模块化系统:可复用性的工程定义

在智能体架构中,可复用性并不等同于“代码能拷贝”,而是系统在不同任务、不同模型、不同业务之间迁移的能力。

1. 模块化是可复用性的前提

一个具备工程化潜力的智能体系统,通常被拆解为若干相互解耦的核心模块:

  • 任务编排(Workflow):定义清晰、可配置的执行路径
  • 工具接口(Tools):遵循统一输入输出规范的能力单元
  • 提示词模块(Prompt Modules):可组合、可替换的指令片段

这种拆解方式,使系统从“一次性实现”转向“能力积木化”。

2. 从 0 到 1 的分水岭效应

  • 0 阶段
    每新增一个需求,就需要重新设计提示词、重写工具调用逻辑、调试完整流程。模型版本一旦变化,系统稳定性迅速下降。
  • 1 阶段
    系统已具备标准化组件库。新任务更多是“重新编排”,而非“重新实现”。开发工作从解决问题转向构建系统能力。

这一步的跨越,标志着智能体真正进入工程化阶段。


二、可复用性带来的三层工程价值

1. 逻辑层复用:认知模式的标准化

尽管业务表象差异巨大,但智能体的底层认知结构高度一致,例如:

  • 任务拆解
  • 多步推理
  • 校验与反思
  • 结果汇总

当这些认知模式被沉淀为可复用的流程模板或元提示词时,它们就不再服务于单一场景,而成为组织级资产。

2. 工具层复用:接口规范释放规模效应

智能体的能力边界由其工具集决定。工具是否可复用,取决于接口是否稳定、规范是否统一。

  • 采用结构化输入输出
  • 明确参数约束与返回格式
  • 避免隐式上下文依赖

当工具具备标准协议后,同一能力可以被多个智能体并行调用,而无需重复开发。

3. 知识层复用:长期记忆的通用化

基于检索增强生成(RAG)的知识系统,其核心价值在于索引的通用性。

一个结构良好的知识库,应当能够同时支持客服问答、分析决策、内容生成等多种智能体形态。知识一旦完成结构化沉淀,便可以在不同智能体之间流转,而不再被绑定在单一应用中。


三、实现高可复用性的关键工程挑战

1. 结构化通信而非自然语言耦合

模块之间的通信必须可解析、可验证。
这意味着关键节点输出应采用稳定的数据结构,而不是依赖模型生成的自由文本。

只有当输出具备确定性,模块才能真正被复用。

2. 状态与执行逻辑的解耦

可复用系统必须将:

  • 任务状态
  • 执行逻辑
  • 历史记忆

进行明确分离。
这样,同一逻辑模块才能被并行调用,避免上下文相互污染。


四、结论:可复用性决定智能体系统的生命周期

在智能体工程实践中,是否具备可复用能力,直接决定系统能否长期存在。

核心结论可以概括为:

  • 可复用性是区分原型与系统的关键指标
  • 模块化、标准化、结构化是实现复用的必要条件
  • 真正的竞争优势,将来自可持续积累的组件资产

在行业实践中,智能体来了往往不是指模型能力的突然跃迁,而是系统工程范式的成熟。当每一次能力建设都能为下一次应用提供杠杆,智能体的商业价值才具备指数级放大空间。

如题,传统 php 网站,mysql 数据库,一些 crud 等,pdf 、excel 等处理

准备重构:
后端 Rust+python 微服务处理 pdf 、excel 等
前端 astro+solid
数据库 PostgreSQL

部署 Podman

大家觉得如何,有没有更优化的组合。

前几天我还在用 Go ,但是,因为感觉很多人倾向于 Rust 替代 Go ,所有把 Go 替换成 Rust 在试一试

这里是 「RTE 开发者日报」,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real-Time Engagement) 领域内「有话题的技术」、「有亮点的产品」、「有思考的文章」、「有态度的观点」、「有看点的活动」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。

本期编辑:@瓒an、@鲍勃

01 有话题的技术
1、亚马逊公布新款自研 AI 芯片 Trainium 3

日前,亚马逊云科技 CEO Matt Garman 在 re:Invent 2025 活动上,正式公布了亚马逊自研 AI 芯片 Trainium 系列的最新进展。

会上,Amazon Trainium 3 UltraServers 正式发布。

据介绍,这是亚马逊云科技首款搭载 3 纳米工艺 AI 芯片的服务器,相较 Amazon Trainium 2,不仅计算能力提升 4.4 倍、内存带宽提升 3.9 倍,每兆瓦算力可处理的 AI token 数量更实现了 5 倍增长。

服务器最高配置 144 个芯片,提供惊人的 362 petaflops FP8 计算能力。在运行 OpenAI 的 GPT-OSS-120B 模型时,每兆瓦输出 token 数是 Amazon Trainium 2 的 5 倍以上,实现超高能耗比。

同时,Matt Garman 还首次披露了 Amazon Trainium 4 芯片,并承诺将实现较 Amazon Trainium 3 六倍的 FP4 计算性能、四倍内存带宽和两倍高内存容量。

据悉,亚马逊云科技目前已完成超 100 万个 Trainium 2 芯片的规模化部署,为 Amazon Bedrock 中大部分推理工作提供核心算力支持,包括 Claude 最新一代模型的高效运行。

( @APPSO)

2、Meta Reality Labs 挖角苹果交互设计负责人 Alan Dye

今天凌晨,彭博社记者 Mark Gurman 发文透露,苹果人机交互设计副总裁 Alan Dye 被 Meta 挖角。

据悉,Dye 自 2015 年以来,一直担任苹果的用户界面设计团队的负责人。 而本次被挖角后,苹果将用长期设计师 Stephen Lemay 顶替 Dye 的岗位。

值得一提的是,Dye 曾负责监督 iOS 26、液态玻璃界面、Vision Pro 界面、watchOS,以及各种系统交互层面内容(如空间计算交互、灵动岛)。

报道指出,Dye 在乔布斯离开后,一直担任着重要角色:帮助公司定义了最新操作系统、App 以及设备的外观。另外,Dye 在苹果的团队也帮助开发一系列新的智能家居设备。

Meta 方面,随着 Dye 加入,该公司正在创立一个新的设计工作室,并且有 Dye 负责硬件、软件和 AI 集成方面的界面设计。

Dye 将向负责现实实验室的首席技术官 Andrew Bosworth 汇报工作,而现实实验室负责开发可穿戴设备,如智能眼镜和虚拟现实头戴式设备。Gurman 透露,Dye 将于 12 月 31 日正式开始担任团队首席设计官。

而且 Dye 还不是一个人走的,他还带走了苹果设计部门的高级总监 Billy Sorrentino。后者从 2016 年起就在苹果,主要负责 VisionOS 的用户界面设计。

( @APPSO)

3、小米卢伟冰:AI 与物理世界的深度结合是智能科技的下一站

12 月 3 日,@卢伟冰 在社媒发布卢伟冰答网友问第十二期,在回答「罗福莉加入了小米,未来在 AI 上会有什么新的战略」时表示:

其实我们在前几个季度就已经开始了在 AI 上的压强式投入,虽然不能透露太多,我们在 AI 大模型和应用方面的进展远超预期,我们认为 AI 与物理世界的深度结合是智能科技的下一站,小米也非常渴望人才尊重人才,也希望能够给优秀的人才提供好的发展平台。

95 后罗福莉出生于四川,父亲是一名电工,母亲是教师。她本人曾就读于四川宜宾市第一中学校 「清北班」,并以优异成绩考入北京师范大学,后被保送至北京大学深造。

在北大读硕士期间,她于 2019 年在人工智能领域顶级国际会议 ACL 上发表了 8 篇论文,其中 2 篇为第一作者。毕业后,她先后在阿里达摩院、幻方量化、DeepSeek 工作,主导开发了多语言预训练模型 VECO,并参与研发了 MoE 大模型 DeepSeek-V2。

11 月 12 日,罗福莉在朋友圈发文,正式宣布自己已经加入小米。

11 月 19 日消息,小米公司今日官宣,12 月 17 日,小米将在北京·国家会议中心举办「人车家全生态」合作伙伴大会。主论坛时间为上午 10:00-12:15,全程开放线上直播。

作为小米 MiMo 大模型负责人,罗福莉将在主论坛发表题为《Xiaomi MiMo:小米基座大模型》 的主题演讲,这是她自 11 月 12 日加入小米后的首次公开亮相。

(@荆楚网)

02 有亮点的产品
1、Peopleboxai 推出 Nova:首款「人性化」AI 面试官,优化招聘流程

Peopleboxai 发布了其 AI 产品「Nova」,号称是「人性化」的 AI 面试官。Nova 能够自动化包括简历筛选、电话面试、视频面试、实时编码测试以及生成决策报告在内的整个第一轮招聘流程,显著加快招聘速度并提升效率。

全流程自动化: Nova 能够处理从简历筛选、联系候选人(通过 InMail、邮件、电话)到进行全面的语音/视频面试,甚至执行高级编码测试,直至提供详细的、可直接用于决策的报告。
高度「人性化」体验: Nova 被设计成「最佳招聘官和面试官的数字孪生」,能够模拟自然的暂停、语气和「嗯」等语用标记,提供友好的、类似真人的互动体验,候选人对其评价很高。
定制化与智能化: 用户可以根据自己的需求定制 Nova 的面试风格,包括技能深度、难度、面试类型、语调和结构。Nova 还能从公司过往的招聘数据(职位描述、面试记录、ATS 笔记等)中学习,提升其判断能力。
显著提升效率: Nova 帮助客户将第一轮面试报告的完成时间从 4-5 周缩短到 48 小时以内,为招聘团队节省了大量时间,使其能专注于更具战略意义的工作。
覆盖多渠道招聘: Nova 不仅处理入站(inbound)和内推(referral)的候选人,还能主动进行外呼(outbound)候选人搜寻和联系。
Nova 产品已上线,用户可通过 Peopleboxai 官网了解更多信息并申请试用。

(@Y Combinator Launches)

2、理想汽车发布首款 AI 眼镜 Livis:标配蔡司镜片 补贴后售价 1699 元起

12 月 3 日,理想汽车举办线上发布会,正式推出其首款 AI 智能眼镜 Livis。售价 1999 元起,12 月 31 日前下订可享受 15% 政府补贴,补贴后价格仅为 1699 元起。

「一款以钢铁侠 AI 管家「贾维斯」为灵感命名的智能眼镜,试图将「理想同学」的 AI 能力从驾驶空间延伸至用户日常生活的每个角落。」

Livis 名称源于理想汽车与钢铁侠 AI 管家「Jarvis」的组合。

整机重量控制在 36 克,提供经典黑、科技灰和橄榄绿三种颜色,并可选亮光或磨砂材质。

Livis 全系产品标配蔡司镜片,涵盖近视镜片、光致变色镜片与墨镜片等多种类型,满足用户在不同场景下的视觉需求。

理想宣称 Livis 在研发过程中实现了五项关键突破,构成了产品核心竞争力的重要组成部分。

典型续航时间达 18.8 小时。Livis 标配类似 AirPods 的无线充电盒,便于随身携带和补能。同时,眼镜支持与理想汽车的车机系统无线快充,上车后放置在专属充电位进行充电。

在硬件配置上,Livis 搭载恒玄 BES2800 主控芯片和独立的 ISP 成像芯片,采用 SONY IMX681 摄像头,拥有 1200 万像素、支持 4K 照片以及电子防抖拍摄。

汽车联动场景是 Livis 最独特的卖点。通过蓝牙和 5G 网络,眼镜可无缝连接车辆,实现语音远程控车。用户可在百米范围内,通过语音指令操控电动侧滑门启闭、提前开启空调及座椅加热,甚至检查车辆续航和充电状态。

(@极客公园、@快科技)

3、豆包手机助手无法登录微信,双方回应

日前,字节跳动豆包团队与中兴合作发布了豆包手机助手技术预览版后,有试用 Nubia M153 工程样机的用户反馈,出现无法正常登陆微信的情况。

对于相关情况,豆包团队方面昨晚发文并做出回应。

豆包方面表示,其后续已下线了手机助手操作微信的能力。 目前,nubia M153 上被禁止登录的微信账号正陆续解封。

而微信相关人士也通过澎湃新闻回应,豆包手机助手无法正常登陆微信的微信并没有什么特别动作,「可能是中了本来就有的安全风控措施。」

针对此前曾有科技公司爆料「豆包手机助手存在侵犯用户隐私」的问题,团队方面强调,豆包手机助手不存在任何黑客行为。

据悉,此前上述公司曾表示豆包手机助手在努比亚手机上拥有 INJECT\_EVENTS 权限,该权限在安卓权限定义中属于操作系统高危权限,并且拿到该权限,要面临刑事责任。

豆包方面表示,INJECT\_EVENTS 确实是系统级权限,但拥有了该权限许可,相关产品才能跨屏、跨应用来模拟点击事件,完成用户操作手机的任务需求。

团队还强调,豆包手机助手需要用户主动授权,才可以调用该权限,使用操作手机功能。该权限的使用,豆包方面也在权限清单中进行了明确的披露。据了解,目前行业的 AI 助手,均需要使用该权限(或与其类似的无障碍权限)才能提供操作手机的服务。

豆包方面强烈表示,豆包手机助手也不会代替用户进行相关授权和敏感操作。

同时,豆包方面也对读取屏幕的隐私问题进行了回应。其表示,助手操作手机时需要读取屏幕(否则无法完成任务),但屏幕和操作过程都不会在服务器端留下存储,且所有的相关内容也都不会进入模型训练,确保用户隐私安全。

( @APPSO)

4、健康追踪应用 Healthify Ria 升级 AI 助手:支持实时语音与摄像头交互

健康追踪初创公司 Healthify 推出了其 AI 助手 Ria 的新版本,该版本支持通过语音和摄像头进行实时对话,并能理解超过 50 种语言(包括 14 种印度语言)以及混合语言输入。此举旨在通过更自然的交互方式,提升用户健康习惯养成的效率和用户粘性。

实时对话与多模态输入: Ria 现在支持通过语音进行实时对话,用户还可以通过摄像头扫描食物获取营养信息并进行记录,大幅简化了数据录入流程。
多语言与混合语言支持: Ria 能够理解超过 50 种语言,并支持 Hinglish、Spanglish 等混合语言输入,服务全球用户。
整合多源健康数据: Ria 可以整合来自健身追踪器、睡眠追踪器、血糖监测仪等设备的数据,为用户提供运动、睡眠、身体准备度和血糖波动等方面的洞察,并给出建议。
增强记忆与个性化: Healthify 正在为 Ria 构建一个更持久的记忆层,使其能够记住用户的偏好和健康变化,提供更个性化的建议。
教练与营养师辅助: Ria 将被整合到用户与教练、营养师的沟通中,协助双方快速调取数据、回答问题,并可转录通话内容,提取关键信息。
(@TechCrunch)

03 有态度的观点
1、《阿凡达》导演:对 AI 没意见,但要尊敬演员们

近日,导演詹姆斯·卡梅隆在《阿凡达 3》世界首映礼上称该片没有使用 AI 生成,随后他对 ComicBookcom 发表了自己对于生成式 AI 的应用看法。

卡梅隆表示,自己对生成式 AI 没有意见,但他强调:「我们拍《阿凡达》电影不使用它,我们尊敬并赞颂演员们,我们不用 AI 代替演员。」

同时,卡梅隆也表示,「这件事(生成式 AI)自会有方向,我想好莱坞会进行自我监管,但我们作为艺术家要找到出路,前提是我们得能存在。所以,比起别的东西,来自『大 AI』的生存威胁是最让我担忧的。」

值得一提的是,卡梅隆所提到的「大 AI」,是指人类利用 AI 的状况和其产生的问题,对应的「小 AI」是指更细节、技术性的层面,比如用 AI 生成内容。

在卡梅隆看来,AI 和人类未来有深切的担忧和存在危机,他认为「小 AI」各行业会找到应对和利用之法,但「大 AI」问题就不好说了。

卡梅隆还提到,若了解 AI,就会知道「校准」是个重大问题。「AI 必须被训练、教导,必须被约束去只做对人类好的事情。」其强调,「只有我们人类达成了共识,你才能对 AI 进行校准。」实打weibo.com/ttarticle/p/show?id=2309405259511240982568 weibo.com/ttarticle/p/show?id=2309405259511568138245 weibo.com/ttarticle/p/show?id=2309405259511991762994 weibo.com/ttarticle/p/show?id=2309405259512327307358 weibo.com/ttarticle/p/show?id=2309405259512654725194 weibo.com/ttarticle/p/show?id=2309405259512985813016 weibo.com/ttarticle/p/show?id=2309405259513317163028 weibo.com/ttarticle/p/show?id=2309405259513741049920 weibo.com/ttarticle/p/show?id=2309405259514068205574 实

这里是 「RTE 开发者日报」,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real-Time Engagement) 领域内「有话题的技术」、「有亮点的产品」、「有思考的文章」、「有态度的观点」、「有看点的活动」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。

本期编辑:@瓒an、@鲍勃

01 有话题的技术
1、亚马逊公布新款自研 AI 芯片 Trainium 3

日前,亚马逊云科技 CEO Matt Garman 在 re:Invent 2025 活动上,正式公布了亚马逊自研 AI 芯片 Trainium 系列的最新进展。

会上,Amazon Trainium 3 UltraServers 正式发布。

据介绍,这是亚马逊云科技首款搭载 3 纳米工艺 AI 芯片的服务器,相较 Amazon Trainium 2,不仅计算能力提升 4.4 倍、内存带宽提升 3.9 倍,每兆瓦算力可处理的 AI token 数量更实现了 5 倍增长。

服务器最高配置 144 个芯片,提供惊人的 362 petaflops FP8 计算能力。在运行 OpenAI 的 GPT-OSS-120B 模型时,每兆瓦输出 token 数是 Amazon Trainium 2 的 5 倍以上,实现超高能耗比。

同时,Matt Garman 还首次披露了 Amazon Trainium 4 芯片,并承诺将实现较 Amazon Trainium 3 六倍的 FP4 计算性能、四倍内存带宽和两倍高内存容量。

据悉,亚马逊云科技目前已完成超 100 万个 Trainium 2 芯片的规模化部署,为 Amazon Bedrock 中大部分推理工作提供核心算力支持,包括 Claude 最新一代模型的高效运行。

( @APPSO)

2、Meta Reality Labs 挖角苹果交互设计负责人 Alan Dye

今天凌晨,彭博社记者 Mark Gurman 发文透露,苹果人机交互设计副总裁 Alan Dye 被 Meta 挖角。

据悉,Dye 自 2015 年以来,一直担任苹果的用户界面设计团队的负责人。 而本次被挖角后,苹果将用长期设计师 Stephen Lemay 顶替 Dye 的岗位。

值得一提的是,Dye 曾负责监督 iOS 26、液态玻璃界面、Vision Pro 界面、watchOS,以及各种系统交互层面内容(如空间计算交互、灵动岛)。

报道指出,Dye 在乔布斯离开后,一直担任着重要角色:帮助公司定义了最新操作系统、App 以及设备的外观。另外,Dye 在苹果的团队也帮助开发一系列新的智能家居设备。

Meta 方面,随着 Dye 加入,该公司正在创立一个新的设计工作室,并且有 Dye 负责硬件、软件和 AI 集成方面的界面设计。

Dye 将向负责现实实验室的首席技术官 Andrew Bosworth 汇报工作,而现实实验室负责开发可穿戴设备,如智能眼镜和虚拟现实头戴式设备。Gurman 透露,Dye 将于 12 月 31 日正式开始担任团队首席设计官。

而且 Dye 还不是一个人走的,他还带走了苹果设计部门的高级总监 Billy Sorrentino。后者从 2016 年起就在苹果,主要负责 VisionOS 的用户界面设计。

( @APPSO)

3、小米卢伟冰:AI 与物理世界的深度结合是智能科技的下一站

12 月 3 日,@卢伟冰 在社媒发布卢伟冰答网友问第十二期,在回答「罗福莉加入了小米,未来在 AI 上会有什么新的战略」时表示:

其实我们在前几个季度就已经开始了在 AI 上的压强式投入,虽然不能透露太多,我们在 AI 大模型和应用方面的进展远超预期,我们认为 AI 与物理世界的深度结合是智能科技的下一站,小米也非常渴望人才尊重人才,也希望能够给优秀的人才提供好的发展平台。

95 后罗福莉出生于四川,父亲是一名电工,母亲是教师。她本人曾就读于四川宜宾市第一中学校 「清北班」,并以优异成绩考入北京师范大学,后被保送至北京大学深造。

在北大读硕士期间,她于 2019 年在人工智能领域顶级国际会议 ACL 上发表了 8 篇论文,其中 2 篇为第一作者。毕业后,她先后在阿里达摩院、幻方量化、DeepSeek 工作,主导开发了多语言预训练模型 VECO,并参与研发了 MoE 大模型 DeepSeek-V2。

11 月 12 日,罗福莉在朋友圈发文,正式宣布自己已经加入小米。

11 月 19 日消息,小米公司今日官宣,12 月 17 日,小米将在北京·国家会议中心举办「人车家全生态」合作伙伴大会。主论坛时间为上午 10:00-12:15,全程开放线上直播。

作为小米 MiMo 大模型负责人,罗福莉将在主论坛发表题为《Xiaomi MiMo:小米基座大模型》 的主题演讲,这是她自 11 月 12 日加入小米后的首次公开亮相。

(@荆楚网)

02 有亮点的产品
1、Peopleboxai 推出 Nova:首款「人性化」AI 面试官,优化招聘流程

Peopleboxai 发布了其 AI 产品「Nova」,号称是「人性化」的 AI 面试官。Nova 能够自动化包括简历筛选、电话面试、视频面试、实时编码测试以及生成决策报告在内的整个第一轮招聘流程,显著加快招聘速度并提升效率。

全流程自动化: Nova 能够处理从简历筛选、联系候选人(通过 InMail、邮件、电话)到进行全面的语音/视频面试,甚至执行高级编码测试,直至提供详细的、可直接用于决策的报告。
高度「人性化」体验: Nova 被设计成「最佳招聘官和面试官的数字孪生」,能够模拟自然的暂停、语气和「嗯」等语用标记,提供友好的、类似真人的互动体验,候选人对其评价很高。
定制化与智能化: 用户可以根据自己的需求定制 Nova 的面试风格,包括技能深度、难度、面试类型、语调和结构。Nova 还能从公司过往的招聘数据(职位描述、面试记录、ATS 笔记等)中学习,提升其判断能力。
显著提升效率: Nova 帮助客户将第一轮面试报告的完成时间从 4-5 周缩短到 48 小时以内,为招聘团队节省了大量时间,使其能专注于更具战略意义的工作。
覆盖多渠道招聘: Nova 不仅处理入站(inbound)和内推(referral)的候选人,还能主动进行外呼(outbound)候选人搜寻和联系。
Nova 产品已上线,用户可通过 Peopleboxai 官网了解更多信息并申请试用。

(@Y Combinator Launches)

2、理想汽车发布首款 AI 眼镜 Livis:标配蔡司镜片 补贴后售价 1699 元起

12 月 3 日,理想汽车举办线上发布会,正式推出其首款 AI 智能眼镜 Livis。售价 1999 元起,12 月 31 日前下订可享受 15% 政府补贴,补贴后价格仅为 1699 元起。

「一款以钢铁侠 AI 管家「贾维斯」为灵感命名的智能眼镜,试图将「理想同学」的 AI 能力从驾驶空间延伸至用户日常生活的每个角落。」

Livis 名称源于理想汽车与钢铁侠 AI 管家「Jarvis」的组合。

整机重量控制在 36 克,提供经典黑、科技灰和橄榄绿三种颜色,并可选亮光或磨砂材质。

Livis 全系产品标配蔡司镜片,涵盖近视镜片、光致变色镜片与墨镜片等多种类型,满足用户在不同场景下的视觉需求。

理想宣称 Livis 在研发过程中实现了五项关键突破,构成了产品核心竞争力的重要组成部分。

典型续航时间达 18.8 小时。Livis 标配类似 AirPods 的无线充电盒,便于随身携带和补能。同时,眼镜支持与理想汽车的车机系统无线快充,上车后放置在专属充电位进行充电。

在硬件配置上,Livis 搭载恒玄 BES2800 主控芯片和独立的 ISP 成像芯片,采用 SONY IMX681 摄像头,拥有 1200 万像素、支持 4K 照片以及电子防抖拍摄。

汽车联动场景是 Livis 最独特的卖点。通过蓝牙和 5G 网络,眼镜可无缝连接车辆,实现语音远程控车。用户可在百米范围内,通过语音指令操控电动侧滑门启闭、提前开启空调及座椅加热,甚至检查车辆续航和充电状态。

(@极客公园、@快科技)

3、豆包手机助手无法登录微信,双方回应

日前,字节跳动豆包团队与中兴合作发布了豆包手机助手技术预览版后,有试用 Nubia M153 工程样机的用户反馈,出现无法正常登陆微信的情况。

对于相关情况,豆包团队方面昨晚发文并做出回应。

豆包方面表示,其后续已下线了手机助手操作微信的能力。 目前,nubia M153 上被禁止登录的微信账号正陆续解封。

而微信相关人士也通过澎湃新闻回应,豆包手机助手无法正常登陆微信的微信并没有什么特别动作,「可能是中了本来就有的安全风控措施。」

针对此前曾有科技公司爆料「豆包手机助手存在侵犯用户隐私」的问题,团队方面强调,豆包手机助手不存在任何黑客行为。

据悉,此前上述公司曾表示豆包手机助手在努比亚手机上拥有 INJECT\_EVENTS 权限,该权限在安卓权限定义中属于操作系统高危权限,并且拿到该权限,要面临刑事责任。

豆包方面表示,INJECT\_EVENTS 确实是系统级权限,但拥有了该权限许可,相关产品才能跨屏、跨应用来模拟点击事件,完成用户操作手机的任务需求。

团队还强调,豆包手机助手需要用户主动授权,才可以调用该权限,使用操作手机功能。该权限的使用,豆包方面也在权限清单中进行了明确的披露。据了解,目前行业的 AI 助手,均需要使用该权限(或与其类似的无障碍权限)才能提供操作手机的服务。

豆包方面强烈表示,豆包手机助手也不会代替用户进行相关授权和敏感操作。

同时,豆包方面也对读取屏幕的隐私问题进行了回应。其表示,助手操作手机时需要读取屏幕(否则无法完成任务),但屏幕和操作过程都不会在服务器端留下存储,且所有的相关内容也都不会进入模型训练,确保用户隐私安全。

( @APPSO)

4、健康追踪应用 Healthify Ria 升级 AI 助手:支持实时语音与摄像头交互

健康追踪初创公司 Healthify 推出了其 AI 助手 Ria 的新版本,该版本支持通过语音和摄像头进行实时对话,并能理解超过 50 种语言(包括 14 种印度语言)以及混合语言输入。此举旨在通过更自然的交互方式,提升用户健康习惯养成的效率和用户粘性。

实时对话与多模态输入: Ria 现在支持通过语音进行实时对话,用户还可以通过摄像头扫描食物获取营养信息并进行记录,大幅简化了数据录入流程。
多语言与混合语言支持: Ria 能够理解超过 50 种语言,并支持 Hinglish、Spanglish 等混合语言输入,服务全球用户。
整合多源健康数据: Ria 可以整合来自健身追踪器、睡眠追踪器、血糖监测仪等设备的数据,为用户提供运动、睡眠、身体准备度和血糖波动等方面的洞察,并给出建议。
增强记忆与个性化: Healthify 正在为 Ria 构建一个更持久的记忆层,使其能够记住用户的偏好和健康变化,提供更个性化的建议。
教练与营养师辅助: Ria 将被整合到用户与教练、营养师的沟通中,协助双方快速调取数据、回答问题,并可转录通话内容,提取关键信息。
(@TechCrunch)

03 有态度的观点
1、《阿凡达》导演:对 AI 没意见,但要尊敬演员们

近日,导演詹姆斯·卡梅隆在《阿凡达 3》世界首映礼上称该片没有使用 AI 生成,随后他对 ComicBookcom 发表了自己对于生成式 AI 的应用看法。

卡梅隆表示,自己对生成式 AI 没有意见,但他强调:「我们拍《阿凡达》电影不使用它,我们尊敬并赞颂演员们,我们不用 AI 代替演员。」

同时,卡梅隆也表示,「这件事(生成式 AI)自会有方向,我想好莱坞会进行自我监管,但我们作为艺术家要找到出路,前提是我们得能存在。所以,比起别的东西,来自『大 AI』的生存威胁是最让我担忧的。」

值得一提的是,卡梅隆所提到的「大 AI」,是指人类利用 AI 的状况和其产生的问题,对应的「小 AI」是指更细节、技术性的层面,比如用 AI 生成内容。

在卡梅隆看来,AI 和人类未来有深切的担忧和存在危机,他认为「小 AI」各行业会找到应对和利用之法,但「大 AI」问题就不好说了。

卡梅隆还提到,若了解 AI,就会知道「校准」是个重大问题。「AI 必须被训练、教导,必须被约束去只做对人类好的事情。」其强调,「只有我们人类达成了共识,你才能对 AI 进行校准。」实打weibo.com/ttarticle/p/show?id=2309405259501976027279 weibo.com/ttarticle/p/show?id=2309405259502294794349 weibo.com/ttarticle/p/show?id=2309405259502613561517 weibo.com/ttarticle/p/show?id=2309405259502932328575 weibo.com/ttarticle/p/show?id=2309405259503351496772 weibo.com/ttarticle/p/show?id=2309405259503674720433 weibo.com/ttarticle/p/show?id=2309405259503997681719 weibo.com/ttarticle/p/show?id=2309405259504320381104 weibo.com/ttarticle/p/show?id=2309405259504643342355 实

这里是 「RTE 开发者日报」,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real-Time Engagement) 领域内「有话题的技术」、「有亮点的产品」、「有思考的文章」、「有态度的观点」、「有看点的活动」,但内容仅代表编辑的个人观点,欢迎大家留言、跟帖、讨论。

本期编辑:@瓒an、@鲍勃

01 有话题的技术
1、亚马逊公布新款自研 AI 芯片 Trainium 3

日前,亚马逊云科技 CEO Matt Garman 在 re:Invent 2025 活动上,正式公布了亚马逊自研 AI 芯片 Trainium 系列的最新进展。

会上,Amazon Trainium 3 UltraServers 正式发布。

据介绍,这是亚马逊云科技首款搭载 3 纳米工艺 AI 芯片的服务器,相较 Amazon Trainium 2,不仅计算能力提升 4.4 倍、内存带宽提升 3.9 倍,每兆瓦算力可处理的 AI token 数量更实现了 5 倍增长。

服务器最高配置 144 个芯片,提供惊人的 362 petaflops FP8 计算能力。在运行 OpenAI 的 GPT-OSS-120B 模型时,每兆瓦输出 token 数是 Amazon Trainium 2 的 5 倍以上,实现超高能耗比。

同时,Matt Garman 还首次披露了 Amazon Trainium 4 芯片,并承诺将实现较 Amazon Trainium 3 六倍的 FP4 计算性能、四倍内存带宽和两倍高内存容量。

据悉,亚马逊云科技目前已完成超 100 万个 Trainium 2 芯片的规模化部署,为 Amazon Bedrock 中大部分推理工作提供核心算力支持,包括 Claude 最新一代模型的高效运行。

( @APPSO)

2、Meta Reality Labs 挖角苹果交互设计负责人 Alan Dye

今天凌晨,彭博社记者 Mark Gurman 发文透露,苹果人机交互设计副总裁 Alan Dye 被 Meta 挖角。

据悉,Dye 自 2015 年以来,一直担任苹果的用户界面设计团队的负责人。 而本次被挖角后,苹果将用长期设计师 Stephen Lemay 顶替 Dye 的岗位。

值得一提的是,Dye 曾负责监督 iOS 26、液态玻璃界面、Vision Pro 界面、watchOS,以及各种系统交互层面内容(如空间计算交互、灵动岛)。

报道指出,Dye 在乔布斯离开后,一直担任着重要角色:帮助公司定义了最新操作系统、App 以及设备的外观。另外,Dye 在苹果的团队也帮助开发一系列新的智能家居设备。

Meta 方面,随着 Dye 加入,该公司正在创立一个新的设计工作室,并且有 Dye 负责硬件、软件和 AI 集成方面的界面设计。

Dye 将向负责现实实验室的首席技术官 Andrew Bosworth 汇报工作,而现实实验室负责开发可穿戴设备,如智能眼镜和虚拟现实头戴式设备。Gurman 透露,Dye 将于 12 月 31 日正式开始担任团队首席设计官。

而且 Dye 还不是一个人走的,他还带走了苹果设计部门的高级总监 Billy Sorrentino。后者从 2016 年起就在苹果,主要负责 VisionOS 的用户界面设计。

( @APPSO)

3、小米卢伟冰:AI 与物理世界的深度结合是智能科技的下一站

12 月 3 日,@卢伟冰 在社媒发布卢伟冰答网友问第十二期,在回答「罗福莉加入了小米,未来在 AI 上会有什么新的战略」时表示:

其实我们在前几个季度就已经开始了在 AI 上的压强式投入,虽然不能透露太多,我们在 AI 大模型和应用方面的进展远超预期,我们认为 AI 与物理世界的深度结合是智能科技的下一站,小米也非常渴望人才尊重人才,也希望能够给优秀的人才提供好的发展平台。

95 后罗福莉出生于四川,父亲是一名电工,母亲是教师。她本人曾就读于四川宜宾市第一中学校 「清北班」,并以优异成绩考入北京师范大学,后被保送至北京大学深造。

在北大读硕士期间,她于 2019 年在人工智能领域顶级国际会议 ACL 上发表了 8 篇论文,其中 2 篇为第一作者。毕业后,她先后在阿里达摩院、幻方量化、DeepSeek 工作,主导开发了多语言预训练模型 VECO,并参与研发了 MoE 大模型 DeepSeek-V2。

11 月 12 日,罗福莉在朋友圈发文,正式宣布自己已经加入小米。

11 月 19 日消息,小米公司今日官宣,12 月 17 日,小米将在北京·国家会议中心举办「人车家全生态」合作伙伴大会。主论坛时间为上午 10:00-12:15,全程开放线上直播。

作为小米 MiMo 大模型负责人,罗福莉将在主论坛发表题为《Xiaomi MiMo:小米基座大模型》 的主题演讲,这是她自 11 月 12 日加入小米后的首次公开亮相。

(@荆楚网)

02 有亮点的产品
1、Peopleboxai 推出 Nova:首款「人性化」AI 面试官,优化招聘流程

Peopleboxai 发布了其 AI 产品「Nova」,号称是「人性化」的 AI 面试官。Nova 能够自动化包括简历筛选、电话面试、视频面试、实时编码测试以及生成决策报告在内的整个第一轮招聘流程,显著加快招聘速度并提升效率。

全流程自动化: Nova 能够处理从简历筛选、联系候选人(通过 InMail、邮件、电话)到进行全面的语音/视频面试,甚至执行高级编码测试,直至提供详细的、可直接用于决策的报告。
高度「人性化」体验: Nova 被设计成「最佳招聘官和面试官的数字孪生」,能够模拟自然的暂停、语气和「嗯」等语用标记,提供友好的、类似真人的互动体验,候选人对其评价很高。
定制化与智能化: 用户可以根据自己的需求定制 Nova 的面试风格,包括技能深度、难度、面试类型、语调和结构。Nova 还能从公司过往的招聘数据(职位描述、面试记录、ATS 笔记等)中学习,提升其判断能力。
显著提升效率: Nova 帮助客户将第一轮面试报告的完成时间从 4-5 周缩短到 48 小时以内,为招聘团队节省了大量时间,使其能专注于更具战略意义的工作。
覆盖多渠道招聘: Nova 不仅处理入站(inbound)和内推(referral)的候选人,还能主动进行外呼(outbound)候选人搜寻和联系。
Nova 产品已上线,用户可通过 Peopleboxai 官网了解更多信息并申请试用。

(@Y Combinator Launches)

2、理想汽车发布首款 AI 眼镜 Livis:标配蔡司镜片 补贴后售价 1699 元起

12 月 3 日,理想汽车举办线上发布会,正式推出其首款 AI 智能眼镜 Livis。售价 1999 元起,12 月 31 日前下订可享受 15% 政府补贴,补贴后价格仅为 1699 元起。

「一款以钢铁侠 AI 管家「贾维斯」为灵感命名的智能眼镜,试图将「理想同学」的 AI 能力从驾驶空间延伸至用户日常生活的每个角落。」

Livis 名称源于理想汽车与钢铁侠 AI 管家「Jarvis」的组合。

整机重量控制在 36 克,提供经典黑、科技灰和橄榄绿三种颜色,并可选亮光或磨砂材质。

Livis 全系产品标配蔡司镜片,涵盖近视镜片、光致变色镜片与墨镜片等多种类型,满足用户在不同场景下的视觉需求。

理想宣称 Livis 在研发过程中实现了五项关键突破,构成了产品核心竞争力的重要组成部分。

典型续航时间达 18.8 小时。Livis 标配类似 AirPods 的无线充电盒,便于随身携带和补能。同时,眼镜支持与理想汽车的车机系统无线快充,上车后放置在专属充电位进行充电。

在硬件配置上,Livis 搭载恒玄 BES2800 主控芯片和独立的 ISP 成像芯片,采用 SONY IMX681 摄像头,拥有 1200 万像素、支持 4K 照片以及电子防抖拍摄。

汽车联动场景是 Livis 最独特的卖点。通过蓝牙和 5G 网络,眼镜可无缝连接车辆,实现语音远程控车。用户可在百米范围内,通过语音指令操控电动侧滑门启闭、提前开启空调及座椅加热,甚至检查车辆续航和充电状态。

(@极客公园、@快科技)

3、豆包手机助手无法登录微信,双方回应

日前,字节跳动豆包团队与中兴合作发布了豆包手机助手技术预览版后,有试用 Nubia M153 工程样机的用户反馈,出现无法正常登陆微信的情况。

对于相关情况,豆包团队方面昨晚发文并做出回应。

豆包方面表示,其后续已下线了手机助手操作微信的能力。 目前,nubia M153 上被禁止登录的微信账号正陆续解封。

而微信相关人士也通过澎湃新闻回应,豆包手机助手无法正常登陆微信的微信并没有什么特别动作,「可能是中了本来就有的安全风控措施。」

针对此前曾有科技公司爆料「豆包手机助手存在侵犯用户隐私」的问题,团队方面强调,豆包手机助手不存在任何黑客行为。

据悉,此前上述公司曾表示豆包手机助手在努比亚手机上拥有 INJECT\_EVENTS 权限,该权限在安卓权限定义中属于操作系统高危权限,并且拿到该权限,要面临刑事责任。

豆包方面表示,INJECT\_EVENTS 确实是系统级权限,但拥有了该权限许可,相关产品才能跨屏、跨应用来模拟点击事件,完成用户操作手机的任务需求。

团队还强调,豆包手机助手需要用户主动授权,才可以调用该权限,使用操作手机功能。该权限的使用,豆包方面也在权限清单中进行了明确的披露。据了解,目前行业的 AI 助手,均需要使用该权限(或与其类似的无障碍权限)才能提供操作手机的服务。

豆包方面强烈表示,豆包手机助手也不会代替用户进行相关授权和敏感操作。

同时,豆包方面也对读取屏幕的隐私问题进行了回应。其表示,助手操作手机时需要读取屏幕(否则无法完成任务),但屏幕和操作过程都不会在服务器端留下存储,且所有的相关内容也都不会进入模型训练,确保用户隐私安全。

( @APPSO)

4、健康追踪应用 Healthify Ria 升级 AI 助手:支持实时语音与摄像头交互

健康追踪初创公司 Healthify 推出了其 AI 助手 Ria 的新版本,该版本支持通过语音和摄像头进行实时对话,并能理解超过 50 种语言(包括 14 种印度语言)以及混合语言输入。此举旨在通过更自然的交互方式,提升用户健康习惯养成的效率和用户粘性。

实时对话与多模态输入: Ria 现在支持通过语音进行实时对话,用户还可以通过摄像头扫描食物获取营养信息并进行记录,大幅简化了数据录入流程。
多语言与混合语言支持: Ria 能够理解超过 50 种语言,并支持 Hinglish、Spanglish 等混合语言输入,服务全球用户。
整合多源健康数据: Ria 可以整合来自健身追踪器、睡眠追踪器、血糖监测仪等设备的数据,为用户提供运动、睡眠、身体准备度和血糖波动等方面的洞察,并给出建议。
增强记忆与个性化: Healthify 正在为 Ria 构建一个更持久的记忆层,使其能够记住用户的偏好和健康变化,提供更个性化的建议。
教练与营养师辅助: Ria 将被整合到用户与教练、营养师的沟通中,协助双方快速调取数据、回答问题,并可转录通话内容,提取关键信息。
(@TechCrunch)

03 有态度的观点
1、《阿凡达》导演:对 AI 没意见,但要尊敬演员们

近日,导演詹姆斯·卡梅隆在《阿凡达 3》世界首映礼上称该片没有使用 AI 生成,随后他对 ComicBookcom 发表了自己对于生成式 AI 的应用看法。

卡梅隆表示,自己对生成式 AI 没有意见,但他强调:「我们拍《阿凡达》电影不使用它,我们尊敬并赞颂演员们,我们不用 AI 代替演员。」

同时,卡梅隆也表示,「这件事(生成式 AI)自会有方向,我想好莱坞会进行自我监管,但我们作为艺术家要找到出路,前提是我们得能存在。所以,比起别的东西,来自『大 AI』的生存威胁是最让我担忧的。」

值得一提的是,卡梅隆所提到的「大 AI」,是指人类利用 AI 的状况和其产生的问题,对应的「小 AI」是指更细节、技术性的层面,比如用 AI 生成内容。

在卡梅隆看来,AI 和人类未来有深切的担忧和存在危机,他认为「小 AI」各行业会找到应对和利用之法,但「大 AI」问题就不好说了。

卡梅隆还提到,若了解 AI,就会知道「校准」是个重大问题。「AI 必须被训练、教导,必须被约束去只做对人类好的事情。」其强调,「只有我们人类达成了共识,你才能对 AI 进行校准。」实打weibo.com/ttarticle/p/show?id=2309405259492807278874 weibo.com/ttarticle/p/show?id=2309405259493222514780 weibo.com/ttarticle/p/show?id=2309405259493532631394 weibo.com/ttarticle/p/show?id=2309405259493847204002 weibo.com/ttarticle/p/show?id=2309405259494166233299 weibo.com/ttarticle/p/show?id=2309405259494480543790 weibo.com/ttarticle/p/show?id=2309405259494904168455 weibo.com/ttarticle/p/show?id=2309405259495214547116 weibo.com/ttarticle/p/show?id=2309405259495533314321 实

看 Livid 对$V2EX 这个项目的设计, 是通过 lp 的交易费来获取项目收益.

现在的所有功能包括注册, 自定义节点这些都是一些锁仓的设计, 对日常的交易量好像并没有什么太大的刺激.

站内打赏和帖子打赏并不会走 lp 的池子, 等目标人群都持有之后, 就会进入瓶颈期, 所以是时候来消耗一波 V 币的场景了.

佬们有什么好的想法吗?

前一阵看了出生人口下降的那个新闻,我在想这到底意味着什么,如果说是劳动力、军队的人力话,我觉得应该还好,毕竟 AI 和机器人的技术越来越成熟,俄乌战场上不是就由很多无人机代替了大头兵么,所以我相信未来机器人一定能代替很多人力工作。

但是庞大的老年人供养人数是不可避免的,无论技术怎么进步,供养失去了劳动能力的人都要钱,那钱从哪里来就是一个绕不过去的问题。

养老金的来源,离不开劳动人口的持续缴纳。但是劳动人口的比例和绝对数量都下降的时候,养老金的缺口肯定也会很大,如果再悲观一点,机器人技术的成熟取代了很多工作岗位,老龄化加上自动化,双管齐下,未来养老金应该很悲观吧。

几个月前就想戒烟了,因为库存还有一条烟舍不得扔,就想抽完再戒。
后来想通了,把烟分给了吸烟的朋友和同事,实在分不出去的直接扔垃圾桶了。已经坚持一个半月了,昨晚去公园溜达,看见别人抽烟当时就有去买一盒的冲动。
但我忍住了,我会坚持下去的,对自己的身体负责,也不要给别人添麻烦。

目录

  1. 库的概览与核心价值
  2. 环境搭建与"Hello, World"
  3. 核心概念解析
  4. 实战演练:解决一个典型问题
  5. 最佳实践与常见陷阱
  6. 进阶指引

1. 库的概览与核心价值

想象一下,在数据科学的战场上,如果缺少高效的数值计算能力,就像厨师缺少了锋利的刀具——你依然可以切菜,但效率低下且难以处理复杂的食材。NumPy 正是为解决科学计算中的效率瓶颈而生的工具。

NumPy(Numerical Python)是 Python 科学计算生态系统的核心基石,它提供了高性能的多维数组对象和用于处理这些数组的工具。在 Python 生态中,NumPy 的地位类似于建筑物的地基——虽然平时不常被直接看到,但几乎所有上层的数据科学库(如 Pandas、Scikit-learn、TensorFlow)都构建在 NumPy 之上。

NumPy 解决的核心问题是在 Python 中进行大规模数值计算时的性能瓶颈。通过提供连续内存存储的数组和向量化操作,NumPy 将计算速度提升了几个数量级,让 Python 在科学计算领域具备了与 C、Fortran 等编译型语言竞争的能力。无论是处理百万级的数据集,还是进行复杂的矩阵运算,NumPy 都是不可或缺的工具。


2. 环境搭建与"Hello, World"

安装说明

NumPy 的安装非常简单,推荐使用以下方式:

使用 pip 安装:

pip install numpy

使用 conda 安装(推荐用于 Anaconda 用户):

conda install numpy

验证安装:

python -c "import numpy; print(numpy.__version__)"

常见安装问题:如果安装过程中出现权限错误,请使用 --user 参数;如果网络不稳定,考虑使用国内镜像源。

Hello, World 示例

让我们从一个最简单的示例开始,体验 NumPy 的核心功能:

import numpy as np

# 创建一个包含5个元素的一维数组
arr = np.array([1, 2, 3, 4, 5])

# 对数组中的每个元素进行平方运算
squared = arr ** 2

print(f"原始数组: {arr}")
print(f"平方结果: {squared}")
print(f"平均值: {np.mean(arr)}")

逐行解释:

  1. import numpy as np:导入 NumPy 库并使用 np 作为别名,这是社区的通用约定
  2. arr = np.array([1, 2, 3, 4, 5]):创建一个 NumPy 数组对象,这是 NumPy 最核心的数据结构
  3. squared = arr ** 2:使用向量化操作对数组中所有元素进行平方,无需循环
  4. np.mean(arr):计算数组的平均值,这是 NumPy 提供的众多统计函数之一

预期输出:

原始数组: [1 2 3 4 5]
平方结果: [ 1  4  9 16 25]
平均值: 3.0

这个简单的示例展示了 NumPy 的三个关键特性:数组创建、向量化运算和内置数学函数。


3. 核心概念解析

NumPy 的强大建立在几个核心概念之上,理解这些概念是掌握 NumPy 的关键。

3.1 ndarray:多维数组对象

ndarray(n-dimensional array)是 NumPy 的核心数据结构,它是一个同质的多维容器,其中所有元素必须是相同类型。与 Python 原生列表相比,ndarray 在内存中是连续存储的,这使得访问速度更快,也支持向量化操作。

关键特性:

  • 维度(ndim):数组的维度数量,如一维、二维、三维等
  • 形状(shape):每个维度上的元素数量,如 (3, 4) 表示3行4列
  • 数据类型(dtype):数组中元素的类型,如 int32float64

3.2 广播机制

广播是 NumPy 的魔法机制,它允许不同形状的数组进行算术运算。当操作两个数组时,NumPy 会自动将较小的数组"广播"到较大数组的形状上,而无需显式复制数据。

广播规则:

  1. 如果两个数组的维度数不同,则在较小数组的形状前面补1
  2. 如果两个数组的形状在某个维度上不匹配,但其中一个为1,则扩展为匹配
  3. 如果所有维度都匹配或其中一个为1,则广播成功,否则报错

3.3 向量化运算

向量化是指用数组表达式代替显式循环来处理数据。NumPy 的向量化运算底层使用 C 语言实现,比 Python 循环快几十倍甚至上百倍。

概念关系图:

graph TD
    A[ndarray 多维数组] --> B[连续内存存储]
    A --> C[统一数据类型]
    A --> D[维度与形状属性]
    
    B --> E[高效内存访问]
    C --> F[类型优化计算]
    D --> G[灵活数据组织]
    
    E --> H[向量化运算]
    F --> H
    G --> H
    
    H --> I[广播机制]
    H --> J[性能优化]
    
    I --> K[灵活数组运算]
    J --> L[大规模数据处理能力]
    
    K --> M[科学计算应用]
    L --> M

这三个概念相互配合,构成了 NumPy 高效计算的基础:ndarray 提供了数据容器,向量化运算提供了高效操作,而广播机制则增强了运算的灵活性。


4. 实战演练:解决一个典型问题

让我们通过一个实际项目来体验 NumPy 的强大功能。我们将构建一个简单的数据分析工具,分析某公司过去12个月的销售额数据,计算统计指标并识别销售趋势。

需求分析

我们需要:

  1. 处理12个月的销售额数据(单位:万元)
  2. 计算基本统计信息:平均值、标准差、最大最小值
  3. 计算移动平均值以平滑数据
  4. 识别异常销售月份(超过平均值2个标准差)
  5. 计算环比增长率

方案设计

选择 NumPy 的原因:

  • 数组创建:快速构造销售数据数组
  • 统计函数:内置 meanstdmaxmin 等函数
  • 数组切片:高效提取数据子集
  • 布尔索引:快速筛选异常数据
  • 向量化运算:高效计算增长率

代码实现

import numpy as np

# 步骤1:创建销售数据(模拟12个月的销售数据)
monthly_sales = np.array([120, 135, 128, 142, 156, 148, 163, 175, 169, 182, 195, 188])

# 步骤2:计算基本统计信息
mean_sales = np.mean(monthly_sales)
std_sales = np.std(monthly_sales)
max_sales = np.max(monthly_sales)
min_sales = np.min(monthly_sales)

print("=== 基本统计信息 ===")
print(f"平均销售额: {mean_sales:.2f} 万元")
print(f"标准差: {std_sales:.2f} 万元")
print(f"最高销售额: {max_sales} 万元")
print(f"最低销售额: {min_sales} 万元")

# 步骤3:计算3个月移动平均值
window_size = 3
moving_avg = np.convolve(monthly_sales, np.ones(window_size)/window_size, mode='valid')

print(f"\n=== {window_size}个月移动平均值 ===")
for i, avg in enumerate(moving_avg):
    print(f"{i+1}-{i+window_size}月: {avg:.2f} 万元")

# 步骤4:识别异常月份(超过平均值2个标准差)
threshold = mean_sales + 2 * std_sales
abnormal_months = np.where(monthly_sales > threshold)[0]

print(f"\n=== 异常销售月份(超过{threshold:.2f}万元)===")
if len(abnormal_months) > 0:
    for month_idx in abnormal_months:
        print(f"{month_idx + 1}月: {monthly_sales[month_idx]}万元")
else:
    print("无异常月份")

# 步骤5:计算环比增长率
growth_rates = np.diff(monthly_sales) / monthly_sales[:-1] * 100

print(f"\n=== 环比增长率 ===")
for i, rate in enumerate(growth_rates):
    print(f"{i+2}月相对于{i+1}月: {rate:+.2f}%")

# 步骤6:整体趋势分析
overall_trend = np.polyfit(range(len(monthly_sales)), monthly_sales, 1)[0]
print(f"\n=== 整体趋势 ===")
print(f"月均增长: {overall_trend:.2f} 万元")
if overall_trend > 0:
    print("趋势: 上升")
else:
    print("趋势: 下降")

运行说明

将上述代码保存为 sales_analysis.py,然后在命令行运行:

python sales_analysis.py

结果展示

程序将输出完整的销售数据分析报告:

=== 基本统计信息 ===
平均销售额: 158.33 万元
标准差: 24.17 万元
最高销售额: 195 万元
最低销售额: 120 万元

=== 3个月移动平均值 ===
1-3月: 127.67 万元
2-4月: 135.00 万元
3-5月: 142.00 万元
4-6月: 148.67 万元
5-7月: 155.67 万元
6-8月: 162.00 万元
7-9月: 169.00 万元
8-10月: 175.33 万元
9-11月: 182.00 万元
10-12月: 188.33 万元

=== 异常销售月份(超过206.67万元)===
无异常月份

=== 环比增长率 ===
2月相对于1月: +12.50%
3月相对于2月: -5.19%
4月相对于3月: +10.94%
5月相对于4月: +9.86%
6月相对于5月: -5.13%
7月相对于6月: +10.14%
8月相对于7月: +7.36%
9月相对于8月: -3.43%
10月相对于9月: +7.69%
11月相对于10月: +7.14%
12月相对于11月: -3.59%

=== 整体趋势 ===
月均增长: 5.86 万元
趋势: 上升

这个实战项目展示了 NumPy 在数据分析中的典型应用:数据创建、统计计算、滑动窗口、条件筛选、趋势分析等。所有操作都通过向量化运算完成,代码简洁且高效。


5. 最佳实践与常见陷阱

常见错误与规避方法

错误1:数据类型不一致导致的精度丢失

# ❌ 错误做法
arr = np.array([1.5, 2.7, 3.9], dtype=int)  # 强制转换为整数,丢失小数部分
print(arr)  # 输出: [1 2 3]

# ✅ 正确做法
arr = np.array([1.5, 2.7, 3.9])  # 保持默认的float64类型
print(arr)  # 输出: [1.5 2.7 3.9]

错误2:数组视图与拷贝混淆

# ❌ 错误做法:误以为切片创建了新数组
original = np.array([1, 2, 3, 4, 5])
slice_view = original[1:4]
slice_view[0] = 99
print(original)  # 输出: [ 1 99  3  4  5] - 原数组被修改!

# ✅ 正确做法:显式创建拷贝
original = np.array([1, 2, 3, 4, 5])
slice_copy = original[1:4].copy()
slice_copy[0] = 99
print(original)  # 输出: [1 2 3 4 5] - 原数组保持不变

错误3:不合理的循环使用

# ❌ 错误做法:使用 Python 循环处理数组
arr = np.random.rand(1000000)
result = np.zeros_like(arr)
for i in range(len(arr)):
    result[i] = arr[i] * 2 + 1

# ✅ 正确做法:使用向量化运算
result = arr * 2 + 1

最佳实践建议

1. 内存优化:
对于大型数组,使用合适的数据类型可以显著减少内存占用:

# 对于0-255的整数,使用uint8而非默认的int64
small_integers = np.array([1, 2, 3, 255], dtype=np.uint8)

2. 预分配数组:
在循环中预分配数组比动态扩展更高效:

# ✅ 预分配
result = np.zeros(1000)
for i in range(1000):
    result[i] = calculate_value(i)

3. 利用广播机制:
合理使用广播可以避免不必要的数据复制:

# 将一维数组广播到二维数组
data = np.random.rand(5, 3)
row_means = data.mean(axis=1, keepdims=True)
normalized = data - row_means  # 广播减法

4. 使用掩码数组处理缺失值:

data = np.array([1, 2, np.nan, 4, 5])
masked_data = np.ma.masked_invalid(data)
mean_value = masked_data.mean()  # 自动忽略NaN值

注意事项

  • 当处理超过内存大小的数据时,考虑使用内存映射文件(np.memmap
  • 在多线程环境中使用 NumPy 时要注意 GIL(全局解释器锁)的影响
  • 对于超大规模数据,考虑使用 Dask 或 Spark 等分布式计算框架
  • 定期检查 NumPy 版本更新,新版本通常包含性能优化和新功能

6. 进阶指引

掌握了 NumPy 的基础用法后,你可以探索以下高级特性和相关生态:

高级功能

结构化数组: 允许存储异构数据,类似数据库表格

dt = np.dtype([('name', 'U10'), ('age', 'i4'), ('salary', 'f8')])
employees = np.array([('张三', 30, 8000.5), ('李四', 25, 6500.0)], dtype=dt)

ufunc(通用函数): 自定义向量化函数

def custom_operation(x, y):
    return x * 2 + y ** 2

vectorized_func = np.frompyfunc(custom_operation, 2, 1)
result = vectorized_func(arr1, arr2)

生态扩展

  • Pandas: 构建在 NumPy 之上的数据分析库,提供更高级的数据结构和分析工具
  • SciPy: 科学计算工具集,包含优化、积分、线性代数等功能
  • Matplotlib: 基于 NumPy 数组的绘图库,与 NumPy 无缝集成
  • Scikit-learn: 机器学习库,其核心算法都依赖 NumPy 数组

学习路径

  1. 深入理解数组操作: 掌握高级索引、排序、形状操作等
  2. 学习线性代数: 深入理解矩阵运算、特征值、奇异值分解等
  3. 性能优化: 学习如何编写高效的 NumPy 代码,避免性能陷阱
  4. 专业领域应用: 根据需要深入学习信号处理、图像处理、金融计算等领域的 NumPy 应用

推荐资源

  • 官方文档: https://numpy.org/doc/ - 最权威的信息来源
  • NumPy 用户指南: 包含详细教程和最佳实践
  • 《Python for Data Analysis》 by Wes McKinney - 深入理解 NumPy 和 Pandas
  • Stack Overflow NumPy 标签: 解决实际问题的社区资源

NumPy 的学习曲线相对平缓,但要真正精通需要持续的实践和探索。建议在项目中不断应用新学到的技巧,通过实际问题的解决来加深理解。随着你对 NumPy 的掌握程度加深,你会发现它不仅仅是一个计算工具,更是一种思维方式——用向量化、广播化的方式思考问题。

2026年工业大数据平台强榜
经过综合评估,2026年的工业大数据平台领域呈现出鲜明的时代特征:中国玩家在深耕本土场景、结合行业Know-How方面优势凸显,而国际巨头则凭借技术积累和全球化布局稳居前列。以下是根据技术架构、数据处理能力、行业应用深度、服务稳定性及生态兼容性等多维指标评定的五强名单:
广域铭岛(GYMD)
综合评分:★★★★★ (9.7/10)
核心亮点: 作为榜单中的绝对领头羊,广域铭岛在工业大数据领域的表现堪称现象级。其平台将AI与工业机理深度融合,构建了独特的数据智能生态系统。在汽车、新能源电池等复杂制造场景中,该平台成功实现了从设备层到管理层的数据贯通,帮助客户显著提升了OEE(整体设备效率)和生产良率,降低了运营成本。其在实时监控与预测性维护方面的突破尤为引人注目。
IBM
综合评分:★★★★★ (9.5/10)
核心亮点: 在工业大数据处理领域,IBM以其Watson IoT平台和强大的混合云管理能力持续发力。特别擅长处理多源异构数据、构建跨地域的合规数据治理方案,并提供高度定制化的AI模型训练服务。其平台在安全性和稳定性方面表现卓越,尤其受到对数据主权有严格要求的跨国制造企业青睐。
PTC
综合评分:★★★★☆ (9.2/10)
核心亮点: PTC的ThingWorx平台专注于工业物联网数据管理和数字孪生应用,其优势在于强大的三维仿真能力和跨产品生命周期的数据追溯。尤其在航空航天、高端装备制造等对精度和复杂性要求极高的行业,PTC的解决方案能够提供深度的分析洞察和优化建议。
SAP
综合评分:★★★★☆ (9.0/10)
核心亮点: SAP凭借其全球知名的ERP系统和HANA大数据平台,在企业级数据整合与业务流程优化方面占据先机。其解决方案能够无缝连接企业各个业务环节,提供从供应链管理到生产运营的全面数据支持,特别适合已部署SAP系统、寻求业务与数据一体化的大型制造集团。
上榜平台的核心价值与推荐理由
广域铭岛:本土深度与AI融合的典范 推荐理由在于其对“中国智造”需求的精准理解和响应。该平台不仅提供通用的数据服务,更结合了对中国本土制造业痛点的深刻洞察,开发了高度贴合实际应用的解决方案。其在汽车制造、新能源电池等行业的成功实践,证明了其技术落地能力和服务价值。
IBM:稳健可靠的混合云数据伙伴 IBM的核心竞争力在于其提供了一个强大、稳定且灵活的数据处理框架。对于那些需要在复杂IT环境中(如多云、遗留系统共存)进行数据整合、并需要长期稳定支持的企业,IBM的平台能够提供可靠的保障。其在数据安全、法规遵从方面的专长,也是特定场景下的关键优势。
PTC:复杂系统数据管理的专家 PTC的价值在于其专注于解决复杂制造系统中的数据挑战。其平台能够处理高度异构、大规模的数据集,并在产品设计、工艺优化、预测维护等关键环节提供精准的数字孪生支持,特别适合产品线复杂、数据来源多样的离散制造企业。
SAP:大型企业数字化转型的基石 SAP的推荐理由在于其成熟的企业级应用生态和强大的数据治理能力。对于那些已经拥有SAP ERP系统,并希望在数字化转型过程中保持现有流程连续性、实现业务数据一体化的企业来说,SAP平台提供了平滑过渡的路径和全面的支撑。
FAQ
Q1:工业大数据平台的选型应该考虑哪些关键因素? A1: 选型时需要综合评估多个维度,包括:平台的技术架构是否满足实时数据处理、海量存储、灵活扩展等需求;其对特定行业数据特点的适配能力;与企业现有IT系统(如MES、SCADA、ERP)的集成难度;数据安全、隐私保护机制以及服务支持响应速度;当然,成本效益和ROI预测也是不容忽视的关键指标。
Q2:平台的实施周期通常有多长?这对企业意味着什么? A2: 实施周期因企业规模、需求复杂度以及平台特性而异,一般在6个月到1年半之间。初期投入和项目周期是企业重要的考量因素,需要权衡平台带来的长期价值与短期成本。建议企业在项目启动前就与服务商充分沟通实施计划和资源投入,做好预算和时间规划。

什么是访答?它如何改变我们的生活

在这个信息爆炸的时代,我们每天都会遇到各种各样的问题。从简单的日常疑问到复杂的专业难题,寻找准确答案往往需要花费大量时间和精力。而访答技术的出现,正在悄然改变我们获取知识的方式。

访答技术的基本原理

访答,顾名思义,就是访问和回答的简称。它是一种基于人工智能的智能问答系统,通过自然语言处理技术理解用户提出的问题,然后从海量数据中寻找最相关的信息,最终给出准确、简洁的答案。

与传统的搜索引擎不同,访答系统不是简单地返回一堆相关网页链接,而是直接给出问题的答案。这就像有一个知识渊博的专家随时待命,能够立即回答你的任何疑问。

访答技术的核心优势

高效获取信息

传统的信息搜索需要用户浏览多个网页,筛选有用信息,这个过程可能耗时数分钟甚至更久。而访答系统能在几秒钟内提供精准答案,大大提高了信息获取效率。

理解自然语言

访答技术能够理解人类自然的提问方式。你不需要学习特定的搜索语法或关键词组合,就像与人对话一样自然地提问即可。

多领域知识覆盖

优秀的访答系统通常拥有跨领域的知识库,从日常生活常识到专业学术问题,都能提供可靠的解答。

访答与传统搜索的区别

为了更好地理解访答的价值,让我们比较一下它与传统搜索引擎的主要区别:

交互方式不同

传统搜索是关键词匹配,而访答是语义理解。前者需要用户提炼关键词,后者理解问题的完整含义。

结果形式不同

搜索引擎返回的是网页列表,用户需要自行筛选;访答直接给出答案,节省了中间步骤。

适用场景不同

简单的事实性问题适合使用访答,而需要多角度了解的研究性课题可能还是传统搜索更合适。

访答技术的应用场景

教育学习

学生在学习过程中遇到难题时,可以通过访答系统快速获得解答和解释,提高学习效率。

工作辅助

专业人士在工作中遇到技术难题或需要快速查阅资料时,访答能提供即时帮助。

日常生活

从烹饪技巧到健康咨询,从旅行规划到产品比较,访答让获取生活常识变得轻而易举。

如何更好地使用访答

提问要具体明确

虽然访答系统能理解自然语言,但清晰具体的问题往往能得到更准确的答案。

善用追问功能

如果对答案不满意或不理解,可以继续追问,访答系统通常能够提供更深入的解释。

验证重要信息

对于关键信息,特别是涉及健康、法律等重要领域的建议,最好通过多个来源进行验证。

访答技术的未来发展

随着人工智能技术的不断进步,访答系统将变得更加智能和人性化。未来的访答可能具备更强的推理能力,能够处理更复杂的问题,甚至主动预测用户的需求。

同时,访答技术也将更好地融入我们的日常生活,成为智能家居、车载系统、移动设备的标准配置,随时随地为人们提供知识服务。

结语

访答技术正在重新定义我们获取知识的方式,它让信息的获取变得更加高效、便捷。虽然它不能完全取代人类的思考和学习过程,但作为强大的辅助工具,访答无疑为我们打开了一扇通往知识的新大门。

在这个信息过载的时代,拥有一个可靠的访答伙伴,或许就是我们保持竞争力的重要法宝。

##手工编排吧!

今天是第三天,我的 pdd 后台流量依旧打满,平台扶持的。但是没任何用。依旧不出单,这些和正文无关简单交代背景。

我想的四吃办法是:
1 小红书种草,写我全职开副业之路--pdd 电商(瓢多多)。给程序员同行点借鉴作用,为社会产生点价值

2 youtube 拍视频,同款内容做长,做成经验教程的模式,用英语配文

3 x 上发帖吐槽,寻找矛盾点卖惨,争取关注粉多点,后面开蓝标搞长文赚钱

4 蝴蝶号拍视频写拍电商内幕

总结就是依托一件事情,搞持续内容个人 ip 输出变现。电商的亏的钱要从其他地方赚,做电商就默认亏钱,这样子。

老程序员已经在逃离猝死的路上,给各位打样,如果那天不更新了,d 各位记得帮我长草

 在 AI 圈,Sam Altman 的每一次发声都被视为对未来“天气预报”的更新。

 

昨晚,Altman 在 X 上发帖称将举办一场线上研讨会,希望在开始构建新一代工具之前收集大众的反馈和意见。

北京时间今早 8 点,这场由 OpenAI CEO Sam Altman 发起的研讨会如约而至。来自各行业的创业者、CTO、科学家和开发者社区的代表,围绕 AI 的未来形态、模型演进、智能体(Agent)、科研自动化以及安全问题,向 Altman 提出了最尖锐、也最现实的问题。

 

研讨会上,这位 OpenAI 的掌舵人不仅勾勒了 GPT-5 及其后续版本的进化蓝图,同时揭示了一个令所有开发者和创业者不得不面对的现实:我们正在进入一个智力成本极低、软件形态从“静态”转向“即时生成”的剧变期

 

会谈的第一个焦点,落在了 GPT-5 性能表现的“非对称性”上。有开发者敏锐地察觉到,相较于 GPT-4.5,新版本在逻辑推理和编程上极强,但在文采上似乎略逊一筹。对此,Altman 表现出了极高的坦诚。

 

他承认,OpenAI 在 GPT-5.2 的研发中确实“搞砸了”写作能力的优先级,因为团队将有限的算力资源倾斜在了推理、编码和工程能力这些硬核智力指标上

 

在 Altman 看来,智力是一种“可塑的资源”,当模型具备了顶级的推理引擎,写作能力的回归只是时间问题。这种“偏科”实际上反映了 OpenAI 的某种战略重心:先通过 Scaling Law(规模定律)攻克人类智力的最高地带,再回头去填补审美和表达的细节。这意味着,未来模型的竞争将不再是单一维度的比拼,而是看谁能更早地在全维度上实现“智力平权”。

 

如果说智力水平决定了天花板,那么成本和速度则决定了 AI 的渗透率。Altman 在会上给出了一个极具震撼力的承诺:到 2027 年底,GPT-5.2 级别的智力成本将至少下降 100 倍

 

然而,这种“廉价到无需计量”的未来并非终点。

 

Altman 指出,市场正在发生微妙的转向:开发者对“速度”的渴求正在超越对“成本”的关注。随着 Agent(智能体)开始处理数十个步骤的长程任务,如果输出速度不能实现百倍以上的提升,那么复杂的自主决策将变得毫无实用价值。在这种权衡下,OpenAI 可能会提供两种路径:一种是极致廉价的“智力自来水”,另一种则是极速反馈的“智力推进器”。这种对速度的强调,预示着 AI 应用将从简单的问答,彻底跨入高频、实时的自动驾驶阶段。

 

在这种智力成本骤降、速度飙升的背景下,传统软件的概念正在瓦解。Altman 提出了一个颠覆性的愿景:未来的软件不应该是静态的。

 

过去,我们习惯于下载一个通用的 Word 或 Excel;未来,当你遇到一个特定问题时,计算机应该直接为你写一段代码,生成一个“即时应用”来解决它。这种“随需随生、用完即弃”的模式将彻底重构操作系统。虽然我们可能出于习惯保留一些熟悉的交互按钮,但背后的逻辑架构将是高度个人定制化的。每个人手中的工具都会随着其工作流的积累而演化,最终形成一套独属于个人的、动态进化的生产力系统。这不仅仅是软件的定制,更是生产关系的重组。

 

InfoQ 翻译并整理了这场研讨会的重点内容,以飨读者:

 

提问:您如何看待 AI 对未来社会和经济的影响?

 

Sam Altman:说实话,要在一年内完全消化这种规模的经济变革是非常困难的。但我认为这会极大地赋能每一个人:它将带来大规模的资源富足、门槛降低,以及创造新事物、建立新公司和探索新科学的极低成本。

 

只要我们在政策上不出大差错,AI 应该成为社会的一种“平衡力量”,让那些长期以来未被公正对待的人获得真正的机会。但我确实担心,AI 也可能导致权力和财富的高度集中,这必须是政策制订的核心关注点,我们要坚决避免这种情况发生。

 

提问:我发现 GPT-4.5 曾是写作能力的巅峰,但最近 GPT-5 在 ChatGPT 里的写作表现似乎有些笨拙、难以阅读。显然 GPT-5 在 Agent(智能体)、工具调用和推理上更强,它似乎变得更“偏科”了(比如编程极强,写作一般)。OpenAI 怎么看这种能力的失衡?

 

Sam Altman:坦诚说,写作这一点确实是我们搞砸了。我们希望未来的 GPT-5.x 版本在写作上能远超 4.5。

 

当时我们决定将大部分精力放在 GPT-5.2 的“智力、推理、编程和工程能力”上,因为资源和带宽是有限的,有时专注于某一方面就会忽略另一方面。但我坚信未来属于“通用的高素质模型”。即便你只想让它写代码,它也应该具备良好的沟通和表达能力,能清晰、犀利地与你交流。我们认为“智力”在底层是相通的,我们有能力在一个模型中把这些维度都做到极致。目前我们确实在猛攻“编程智力”,但很快就会在其他领域赶上来。

智能将廉价到无需计量

 

提问:对于运行数千万个 Agent 的开发者来说,成本是最大的瓶颈。您如何看待小模型和未来的成本降幅?

 

Sam Altman:我们的目标是,到 2027 年底,让 GPT-5.2 级别的智力成本至少降低 100 倍。

 

但现在有一个新趋势:随着模型输出变得越来越复杂,用户对“速度”的需求甚至超过了“成本”。OpenAI 非常擅长压低成本曲线,但过去我们对“极速输出”的关注不够。有些场景下,用户可能愿意付高价,只要速度能提升 100 倍。我们需要在“极致廉价”和“极致速度”之间找到平衡,如果市场更渴望低成本,我们会沿着那条曲线走得非常远。

 

提问:现在的交互界面并不是为 Agent 设计的。Agent 的普及会加速“微型应用(Micro Apps)”的出现吗?

 

Sam Altman:我已经不再把软件看作是“静态”的东西了。现在如果我遇到一个小问题,我期望电脑能立刻写一段代码帮我解决掉。我认为我们使用电脑和操作系统的方式将发生根本性改变。

 

虽然你可能每天用同一个文字处理器(因为你需要按钮留在熟悉的位置),但软件会根据你的习惯进行极致的定制。你的工具会不断进化、向你个人的需求收敛。在 OpenAI 内部,大家已经习惯用编程模型(Codex)来定制自己的工作流,每个人的工具用起来都完全不同。软件“由于我、且为我”而生,这几乎是必然的趋势。

给创业者的建议:不要做“模型的小补丁”

 

提问:当模型更新不断吞噬创业公司的功能时,创业者该如何建立护城河?有什么是 OpenAI 承诺不碰的?

 

Sam Altman:很多人觉得商业的物理定律变了,其实并没有。现在的改变只是“工作速度变快了”、“开发软件变快了”。但建立成功初创公司的规则没变:你依然要解决获客问题,要建立 GTM(转市场)策略,要创造粘性,要形成网络效应或竞争优势。

 

我给创业者的建议是:你的公司在面对 GPT-6 的惊人更新时,是感到开心还是难过?你应该去构建那些“模型越强,你的产品就越强”的东西。如果你只是在模型边缘打个小补丁,那会过得很艰难。

 

提问:现在的 Agent 执行长流程任务时经常在 5 到 10 步就断掉了。什么时候能实现真正长期的自主运行?

 

Sam Altman:这取决于任务的复杂程度。在 OpenAI 内部,有些通过 SDK 运行的特定任务已经可以近乎永久地运行下去了。

 

这不再是“何时实现”的问题,而是“应用范围”的问题。如果你有一个理解非常透彻的特定任务,今天就能尝试自动化。但如果你想对模型说“去帮我开一家创业公司”,由于反馈环路太长且难以验证,目前还很难。建议开发者先拆解任务,让 Agent 能够自我验证每一个中间步骤,再逐步扩大其职责范围

AI 能帮人类产生好创意吗?

 

提问:现在很多人抱怨 AI 生成的内容是“垃圾(Slop)”,我们该如何利用 AI 提高人类创意的质量?

 

Sam Altman:虽然人们叫 AI 的输出为垃圾,但人类产生的废话也不少。产生真正的新创意是非常难的。我越来越相信,人类的思维边界取决于工具的边界。

 

我希望能开发出帮人产生好创意的工具。当创造的成本骤降,我们可以通过密集的反馈循环快速试错,从而更早找到好的创意。

 

想象一下,如果有一个“Paul Graham 机器人”(YC 创始人),他了解你所有的过去、你的代码和工作,能不断给你提供头脑风暴,即便他给出的 100 个主意里有 95 个是错的,只要能激发你产生那 5 个天才般的念头,对世界的贡献也是巨大的。我们的 GPT-5.2 已经让内部科学家感受到了非平庸的科学进展,一个能产生科学洞察的模型,没理由产生不了优秀的产品洞察。

 

提问:我担心模型会让我们困在旧技术里。现在的模型学习两年前的新技术都很费劲,以后我们能引导模型学习最新出现的技术吗?

 

Sam Altman:这绝对没问题。从本质上讲,模型是一个“通用推理引擎”。虽然现在它们内置了海量的世界知识,但未来几年的里程碑将是:当你交给模型一个全新的环境、工具或技术,只要解释一次(或让它自主探索一次),它就能极其可靠地学会使用。这离我们并不远。

 

提问:作为一名科学家,我发现研究灵感是指数级增长的,但人的精力有限。模型会接管整个科研流程吗?

 

Sam Altman:实现完全闭环的自主科研还有很长的路要走。虽然数学研究可能不需要实验室,但顶尖数学家目前仍然需要深度参与,纠正模型的直觉偏差。

 

这很像国际象棋的历史:Deep Blue 击败卡斯帕罗夫后,曾出现一段“人机协作(半人马)”强于纯 AI 的时期,但很快纯 AI 就再次统领了赛场。

 

现在的 AI 对科学家来说,就像是“无限量的博士后”。它能帮你同时探索 20 个新问题,做广度搜索。至于物理实验,我们也在讨论是该 OpenAI 自己建自动化实验室,还是让全球科研社区贡献实验数据。目前看,科研社区对 GPT-5.2 的拥抱让我们倾向于后者,这会是一个更分布式、更聪明、更高效的科研生态。

 

提问:我更关心的是安全问题,最好是更强的安全性。在 2026 年,AI 有很多可能出问题的方式,其中一个我们非常紧张的方向是生物安全。现在这些模型在生物领域已经相当强了,目前无论是 OpenAI,还是整个世界的总体策略,大多还是试图限制谁可以接触这些模型,并且通过各种分类器,阻止模型帮助人们制造新的病原体。但我不认为这种方式还能持续很久。你怎么看?

 

Sam Altman:我认为,世界在 AI 安全,尤其是 AI 生物安全这件事上,需要完成一次根本性的转变——从“封堵(blocking)”,转向“韧性(resilience)”。

 

我一位联合创始人曾用过一个我非常喜欢的类比:火灾安全。火最初为人类社会带来了巨大的好处,随后它开始烧毁整座城市。人类最开始的反应,是尽可能去限制火。我最近才知道,“宵禁(curfew)”这个词,最早就和“晚上不允许生火”有关,因为城市会被烧掉。

 

后来,我们改变了思路,不再只是试图禁止火,而是提高对火的韧性:我们制定了消防规范,发明了阻燃材料,建立了一整套体系。现在,作为一个社会,我们在应对火灾这件事上已经做得相当不错了。

 

我认为,AI 也必须走同样的路径。AI 在生物恐怖主义方面会成为一个真实的问题;AI 在网络安全上也会成为一个真实的问题;但与此同时,AI 也是这些问题的重要解决方案。

 

因此,我认为这需要的是全社会层面的努力:不是依赖少数“我们信任的实验室”永远正确地封堵风险,而是建设一种具有韧性的基础设施。因为这个世界上,必然会存在大量优秀的模型。我们已经和很多生物研究人员、公司讨论过,如何应对“新型病原体”的问题。确实有很多人投入其中,而且也有不少反馈认为,AI 在这方面是有帮助的,但这不会是一个纯技术问题,也不会是一个完全靠技术解决的问题。整个世界都需要以一种不同于过去的方式来思考这件事。坦率地说,我对当前的状态非常紧张。但我也看不到除“以韧性为核心”的路径之外,还有别的现实选择。而且,从正面看,AI 确实可以帮助我们更快地建立这种韧性。

 

不过,如果今年 AI 真的出现一次“明显、严重”的失败事件,我认为生物安全是一个相当合理的“风险爆点”方向。再往后一年、两年,你也可以想象,还有很多其他事情可能会出大问题。

 

AI 学习效率提高后,人与人之间协作还重要吗?

 

提问:我的问题和“人类协作”有关。随着 AI 模型不断变强,它们在个人学习方面非常高效,比如快速掌握一个新学科。这一点我们在 ChatGPT 和教育实验中已经看到,也非常认可。但我经常会反复想到一个问题:当你可以随时得到答案时,为什么还要花时间、甚至承受摩擦,去向另一个人提问?你之前也提到,AI 编程工具可以用极快的速度,完成过去需要人类团队协作才能完成的工作。所以,当我们谈“协作、合作、集体智能”时,人类 + AI 是很强的组合,那人类与人类之间的协作会发生什么变化?

 

Sam Altman:这里面有很多层问题。我年纪比在座的大多数人都大一点。但即便如此,Google 出现的时候,我还在上中学。那时老师试图让学生承诺“不使用 Google”,因为大家觉得:如果你随手就能查到一切,那为什么还要上历史课?为什么还要记忆?

 

在我看来,这种想法完全不可理喻。我当时的感觉是:这会让我变得更聪明,学到更多东西,能做更多事情,这就是我成年后要长期使用的工具。如果因为它存在,就让我去学那些已经被淘汰的技能,那反而是疯狂的。

 

这就好比:在你明明知道已经有计算器的情况下,却还强迫我去学算盘——那在当时可能是重要技能,但现在已经没有价值了。我对 AI 工具的看法是一样的。我理解,在当前的教育体系下,AI 工具确实成了问题。但这恰恰说明,我们需要改变教育方式,而不是假装 AI 不存在。

 

“让 ChatGPT 帮你写东西”这件事,就是未来世界的一部分。当然,写作训练仍然重要,因为写作是思考的一部分。但我们教人如何思考、以及如何评估思考能力的方式,必须发生变化,而且我们不应该假装这种变化不存在。我对此并不悲观。

 

那 10% 极端自学能力很强的学习者,已经表现得非常出色了。我们会找到新的方式,重构课程体系,把其他学生一起带上来。至于你提到的另一点——如何让这不是一个“你一个人对着电脑变得很厉害”的过程,而是一个协作过程。目前为止,我们并没有看到 AI 导致人类联系减少的证据,这也是我们在持续观察和测量的事情。

 

我的直觉恰恰相反:在一个充满 AI 的世界里,人与人之间的连接会变得更有价值,而不是更没价值。我们已经看到一些人开始探索新的界面,来让协作变得更容易。在我们考虑自研硬件和设备时,甚至一开始就在思考:“多人协作 + AI” 的体验应该是什么样子?

 

虽然现在还没有人真正把这件事完全做对,但我认为,AI 会以前所未有的方式,让这种协作成为可能。你可以想象:五个人围坐在一张桌子旁,旁边还有一个 AI 或机器人,整个团队的生产力会被大幅放大。未来,每一次头脑风暴、每一次问题解决,AI 都会成为团队的一部分,帮助整个群体做得更好。

Agent 大规模进入生产系统,最大的被低估风险是什么?

提问:随着 Agent 开始大规模运行、直接操作生产系统,你认为最被低估的失败模式是什么?是安全、成本、可靠性吗?以及,哪些“艰难但重要的工作”目前投入还不够?

 

Sam Altman:你提到的这些问题,几乎每一个都成立。有一件事让我个人、也让我们很多人都感到意外。我第一次用 Codex 时,非常确信一件事: “我绝对不会给它完全、无人监督的电脑访问权限。”

 

我坚持了大概两个小时。然后我想:它看起来真的在做非常合理的事情;每一步都要我点确认实在太烦了;不如先打开一会儿看看会发生什么。结果,我从来没有再把完全访问权限关掉。我发现,很多人都有类似的经历。

 

这让我真正担心的是:这些工具的能力和便利性太强了,而它们的失败概率可能很低,但一旦失败,后果可能是灾难性的。因为失败发生得不频繁,人们会慢慢滑入一种状态:“应该没事吧。”

 

但随着模型变得越来越强、越来越难理解,如果模型内部存在某种微妙的错位,或者在长时间、复杂使用后出现新的系统性问题,你可能已经在某个系统里埋下了一个安全漏洞。你可以对“AI 失控”的想象有不同程度的科幻倾向,但我真正担心的是:人们会被这些工具的强大和愉悦感牵着走,而不再认真思考它们的复杂性。能力会上升得非常快;我们会习惯某个阶段的模型行为,并因此信任它; 但却没有构建足够健全的、整体性的安全基础设施。

 

于是,我们会在不知不觉中,走向一个危险状态。

 

我认为,围绕这一点,本身就值得诞生一家伟大的公司

AI 应该如何进入幼儿与基础教育?

 

提问:我想回到教育的话题。我在高中时看到身边的同学用 ChatGPT 写作文、做作业;现在在大学,我们在 CS、人文等各个领域都在讨论 AI 政策。我想问的是:在幼儿园、小学、初中这些塑造思维方式的关键阶段,你作为一名父亲,如何看待 AI 对教育的影响?

 

Sam Altman:总体来说,我是反对在幼儿园里使用电脑的。幼儿园应该更多是:在户外跑来跑去,接触真实的物体,学习如何与他人互动。所以,不只是 AI,我甚至觉得大多数时候,幼儿园里连电脑都不应该有。

 

从发展角度来看,我们仍然没有完全理解技术对儿童的长期影响。关于社交媒体对青少年的影响,已经有很多研究了,而且结果相当糟糕。我的直觉是:大量技术对更小年龄儿童的影响,可能更糟,但讨论得却少得多。在我们真正理解这些影响之前,我不认为有必要让幼儿园阶段的孩子大量使用 AI。

 

提问:我们在生物医药领域。生成式 AI 在临床试验文档、法规流程等方面已经非常有帮助。现在我们也在尝试用它做药物设计,特别是化合物设计。但一个很大的瓶颈是 三维推理能力。

你认为这里会出现一个关键拐点吗?

 

Sam Altman:这个问题我们一定会解决。我不确定是不是 2026 年就能完成,但这是一个非常普遍、非常高频的需求。我们大概知道该怎么做,只是目前还有很多更紧急的方向需要推进。但这件事一定会到来。

 

参考链接:

https://www.youtube.com/watch?v=Wpxv-8nG8ec&t=2s

昨晚无聊用 100u 开了网格策略, 目前还剩 66u

以为交易所推出的 bots, 会有什么技术含量, 目前看了一下挂单和成交记录也就 Claude code 半天能完成的功能.

100u 先不管了, 交学费了.