摘要

本文为普通人设计了从认知到应用、无代码到有代码、单一到复杂的智能体渐进式学习路径,分 8 个核心板块明确各阶段学习目标、实操方法、工具资源与避坑要点,同时通过高频 QA 解答零基础适配、学习时间投入、场景化学习重点等关键疑问,搭配可直接落地的 12 周学习计划,让不同基础、不同学习场景的学习者都能以 “先实践后理论” 为核心,从搭建简单智能体逐步进阶到开发落地化、甚至商业化的智能体系统,核心学习逻辑为以真实问题驱动实践,按需补充理论知识,快速积累可落地的智能体开发能力。

普通人学习智能体,应遵循 “从认知到应用、从无代码到有代码、从单一到复杂” 的渐进路径,先明确概念与应用场景,再通过零代码平台快速上手,逐步掌握核心技术并进阶实战,最终形成可落地的能力与作品。以下是分阶段的详细指南:

一、认知筑基(1-2 周):先懂 “是什么” 再动手

1. 核心概念理解

  • 明确智能体定义:具备感知、决策、执行能力,能自主完成目标的 AI 系统,区别于普通聊天机器人(后者无长期记忆与工具调用能力)。
  • 掌握关键术语:提示词工程、思维链(CoT)、工具调用、记忆机制、多智能体协作等。
  • 了解应用场景:办公自动化、客服、数据分析、游戏 AI、科研辅助等,结合自身需求选择切入点。

2. 资源推荐

  • 入门读物:《AI 智能体入门与实践》《智能体时代:从对话到协作》,快速建立认知框架。
  • 课程:吴恩达《机器学习专项课程》(Coursera)、DeepMind 强化学习入门视频,夯实 AI 基础。
  • 社区:GitHub Awesome Agentic AI、知乎 “智能体” 话题,跟踪前沿动态与案例。

二、零代码实践(2-4 周):快速做出第一个智能体

1. 平台选择(从易到难)

平台特点适合场景推荐指数
扣子(Coze)国内主流,可视化流程,插件丰富办公助手、知识库问答★★★★★
CrewAI无代码搭建多智能体,协作流程简单团队任务分工、项目管理★★★★☆
LangGraph社区活跃,灵活度高,支持复杂工作流进阶开发、自定义逻辑★★★★☆
Dify开源低代码,支持本地部署企业级应用、数据隐私需求★★★☆☆

2. 实战项目(从简到繁)

  1. 个人助理​:用扣子平台搭建日程管理、邮件总结、文档问答智能体,集成日历、邮箱插件,掌握提示词编写与工具调用。
  2. 知识库助手​:上传 PDF/Word 文档到平台,搭建企业规章制度、产品手册问答智能体,解决实际业务问题。
  3. 多智能体协作​:用 CrewAI 创建 “写作 - 编辑 - 翻译” 团队,分工完成文案生产,理解任务拆分与角色定义。

3. 核心技能

  • 提示词工程:学会写清晰指令(如 “总结收件箱中含‘会议纪要’的邮件,生成三点待办并添加到日历”),提升智能体执行效率。
  • 工具集成:熟悉常用插件(API、数据库、办公软件),掌握参数配置与调试方法。
  • 记忆管理:设置上下文窗口、长期记忆存储,确保智能体 “记住” 历史交互。

三、代码入门(4-8 周):从调用 API 到自定义开发

1. 技术栈准备

  • 编程语言:Python(必备),推荐《Python 编程:从入门到实践》快速上手。
  • 基础库:OpenAI API、LangChain、Streamlit(快速搭建前端)。
  • 数学基础:线性代数(矩阵运算)、概率论(贝叶斯定理)、基础微积分,理解模型原理。

2. 实战项目(代码驱动)

  1. API 调用型智能体​:用 OpenAI Assistants API 开发文档分析工具,实现上传文件 → 提取信息 → 生成报告的自动化流程。
  2. 强化学习小实验​:用 OpenAI Gym+PyTorch 训练 CartPole 平衡智能体,理解状态、动作、奖励机制。
  3. 自定义工作流​:用 LangChain+Streamlit 搭建论文写作助手,集成文献搜索、大纲生成、内容撰写功能。

3. 避坑指南

  • 先调通 API 再优化逻辑,避免过早陷入复杂算法。
  • 善用社区代码模板(GitHub Gist、LangChain Cookbook),减少重复开发。
  • 用 Streamlit 快速做前端,专注核心逻辑而非界面设计。

四、进阶深化(8-12 周):掌握核心技术与多智能体协作

1. 核心技术突破

  • 思维链(CoT)与计划执行(Plan-and-Execute):优化提示词,让智能体拆解复杂任务(如 “写一篇市场分析报告”→“调研行业数据 → 分析竞品 → 撰写结论”)。
  • 工具调用优化:设计工具选择逻辑,解决 “调用哪个工具”“何时调用” 的问题。
  • 记忆与知识库:用向量数据库(Pinecone、Chroma)存储长文本,实现高效检索与上下文关联。

2. 多智能体系统实战

  1. 团队协作模型​:用 AutoGen 搭建 “产品经理 - 开发 - 测试” 智能体团队,完成小型软件项目的需求分析、代码编写、Bug 修复。
  2. 复杂任务处理​:开发 “科研助手” 系统,集成文献检索、数据处理、图表生成、论文写作功能,解决跨领域复杂问题。

3. 资源推荐

  • 书籍:《深度强化学习实战》《LangChain 实战》,深入技术细节。
  • 课程:斯坦福 CS221(人工智能原理)、伯克利 RL Course,提升理论水平。
  • 开源项目:AutoGen、MetaGPT 源码阅读,学习工业级架构设计。

五、工程化与落地(12 周 +):从原型到产品

1. 工程能力建设

  • 部署与监控:用 Docker 容器化智能体,阿里云 / 腾讯云部署,Prometheus 监控性能。
  • 数据安全:敏感信息加密,遵循 GDPR / 个人信息保护法,确保合规。
  • 迭代优化:建立用户反馈机制,用 A/B 测试优化提示词与模型参数。

2. 商业化方向

  • 垂直领域解决方案:为教育、医疗、金融行业定制智能体(如学生辅导、病历分析、投资顾问)。
  • 企业效率工具:开发自动化办公套件,对接 OA 系统,提升团队协作效率。
  • 开源贡献:参与 LangChain、AutoGen 等项目,积累技术影响力。

六、常见误区与避坑建议

  1. 误区​:一上来就啃底层算法(如深度学习、强化学习数学推导)。
    建议​:先通过零代码平台做出可用产品,再按需补数学与算法知识。

    1. 误区​:忽视提示词工程,过度依赖模型能力。

      建议​:提示词是智能体的 “灵魂”,花时间优化指令,比盲目换模型更有效。

      1. 误区​:追求 “大而全”,忽略落地场景。

        建议​:从解决小问题(如 “每日邮件总结”)入手,逐步扩展功能,避免半途而废。

      七、QA 问答:解决学习中的高频疑问

      Q1:零基础、不懂编程,能学会智能体吗?

      A:完全可以。目前主流的零代码平台(如扣子、CrewAI)已实现可视化拖拽操作,无需编写代码就能搭建简单智能体。建议先从这类平台入手,完成 “个人助理”“知识库问答” 等基础项目,积累实战经验后,再根据需求决定是否学习编程进阶。学习的核心是 “解决问题”,而非必须掌握编程技能。

      Q2:学习智能体需要掌握哪些数学知识?必须深入学深度学习吗?

      A:无需一开始就深入学习复杂数学和深度学习。入门阶段(零代码 + 基础 API 调用)几乎不需要数学知识;代码进阶阶段,掌握基础的线性代数、概率论即可理解核心逻辑;只有向 “算法优化”“模型微调” 方向进阶时,才需要深入学习深度学习、强化学习的数学推导。普通人优先聚焦 “应用落地”,数学知识按需补充即可。

      Q3:不同学习场景(办公 / 科研 / 创业),学习重点有什么区别?

      A:需结合场景精准定位:① 办公场景:重点学零代码平台、提示词工程、办公软件插件集成,目标是实现日程管理、文档总结等自动化需求;② 科研场景:侧重文献检索、数据处理、多智能体协作工具(如 AutoGen),提升科研效率;③ 创业 / 商业化场景:除技术能力外,需额外关注垂直领域需求调研、数据安全合规、产品部署与迭代,优先开发能解决行业痛点的落地产品。

      Q4:学习智能体需要投入多少时间?多久能做出可用的作品?

      A:按文中渐进路径,每周投入 5-8 小时,2-4 周就能做出第一个零代码智能体(如个人日程助手);4-8 周可完成基础代码开发,做出 API 调用型工具;12 周左右能开发复杂多智能体系统。关键是 “持续实战”,避免只学理论不落地,哪怕每周只完成一个小功能,也能逐步积累成果。

      Q5:免费资源足够学习吗?需要付费购买课程或工具吗?

      A:免费资源完全能满足入门到进阶需求。免费资源包括:零代码平台的官方文档(扣子、CrewAI 文档)、GitHub 开源项目(LangChain、AutoGen)、吴恩达等学者的免费课程、知乎 / B 站的入门教程。仅当需要 “系统化课程指导”“专属答疑服务” 或 “企业级工具部署” 时,才考虑付费,新手不建议盲目购买高价课程。

      Q6:如何选择适合自己的智能体学习切入点?

      A:核心原则是​贴合自身需求与现有资源​。如果是职场人,优先从办公自动化切入,解决自己的日常工作痛点(如报表制作、信息汇总);如果是学生 / 科研人员,从文献分析、论文写作等科研辅助方向入手;如果想往开发方向发展,从 Python+LangChain 基础 API 调用开始;如果只是兴趣尝试,直接用零代码平台搭建趣味小工具(如智能问答、任务提醒)即可,切入点越贴近自身生活,越容易坚持并获得成就感。

      Q7:多智能体协作是必学的吗?单智能体的应用场景多吗?

      A:多智能体协作并非入门必学,单智能体的应用场景依然非常广泛。单智能体能很好地解决​单一、标准化的自动化需求​,比如个人日程管理、单文档问答、简单数据处理等,这类需求在日常办公、个人使用中占比极高,掌握单智能体开发已能满足大部分普通人的需求。多智能体协作主要用于解决​复杂、多步骤、跨领域的任务​(如项目管理、行业报告撰写),适合有进阶开发需求或特定场景(如科研、企业级应用)的学习者,可在单智能体掌握扎实后再学习。

      八、每周学习计划(示例)

      周次核心任务工具 / 资源输出成果
      1概念学习 + 扣子平台入门扣子文档、吴恩达课程理解智能体核心逻辑
      2搭建个人日程助手扣子 + 日历插件可自动管理日程的智能体
      3-4学习 Python+API 调用《Python 入门》+OpenAI API文档分析工具(代码版)
      5-6多智能体协作实战CrewAI+LangGraph团队任务管理系统
      7-8强化学习小项目OpenAI Gym+PyTorchCartPole 平衡智能体
      9-12复杂系统开发 + 部署Docker + 阿里云企业级知识库智能体

      普通人学习智能体的关键在于​先实践后理论​,通过解决真实问题驱动学习,逐步建立技术栈与作品集。建议从最贴近自身需求的场景(如办公自动化)开始,快速获得成就感,再向更复杂的方向进阶。

本文用“计划—执行—可视化—度量—集成—落地治理”六个维度,测评 10 款项目管理软件:ONES、Jira、Asana、monday.com、ClickUp、Smartsheet、Azure Boards、GitLab、Linear、OpenProject,帮你在不同管理模式与团队文化下做更稳的选择。

我印象很深的一次复盘:会上每个人都在“汇报进度”,但彼此说的不是同一个进度。产品说“需求评审过了”,研发说“任务都建好了”,测试说“用例还没准备”,交付说“客户以为下周能上线”。大家都很努力,问题在于——信息没有在同一条链路上自然流动。

所以我看一款项目管理软件(也可以叫项目管理系统/项目协作平台),第一反应不是“功能多不多”,而是:它能不能让团队少靠人盯人,多靠看得见的事实协作?——让计划、执行、质量、交付在同一处闭环,至少做到两件事:

  • 进度不靠问出来,而是自然呈现;
  • 风险不靠运气躲过,而是提前暴露。

我用哪些维度做测评(你也可以直接拿去做选型表)

很多人选项目管理软件,会陷入“对比清单越拉越长”。我的经验是:清单再长,不如抓住会影响交付的几个关键点。

1.计划能力:能不能把交付路径讲清楚
WBS、里程碑、依赖关系、基线对比,都是在帮助你回答“偏差从哪里开始”。尤其在瀑布/阶段门场景里,基线对比能把讨论从“谁耽误了”拉回到“偏差何时产生、是否需要变更控制”。

2.执行与协作:能不能把工作对象定义清楚
看板、冲刺、工作流、自定义字段与权限,核心目的只有一个:让团队对“这件事是什么、做到哪一步算完成”形成一致语言。ONES Project 提到的需求/任务/缺陷/迭代等全场景适配,本质上就是把对象与流程打通。

3.进度与风险可视化:能不能让问题早一点出现
燃尽图、仪表盘、状态更新、路线图,价值不在“有图”,而在于图背后是否有一致口径的数据输入。多视图与状态更新就是典型的“把对齐成本从会议里挪到系统里”。

4.度量与复盘:能不能让改进变成可重复动作
把 issue 变成可分析的数据集,用来回答“资源都花在哪、bug 修得快不快、优先级是否一致、估算准不准”。这类能力决定你复盘时是“感觉复盘”,还是“证据复盘”。

5.上下游集成:能不能减少系统之间的断层
工程交付型团队更在意规划与执行同语境:项目管理工具能不能用来承载跨迭代的目标与进度表达。

6.落地治理:能不能推得动、用得久
再强的项目管理软件,推不动就是摆设。要看:模板、权限、角色、度量口径与试点路径是否清晰。ONES Project 的多层权限与多套项目模板,属于“治理能力”的典型体现。

10款项目管理软件测评与使用体验

1)ONES:研发型项目管理软件

核心功能:需求池/需求属性与状态自定义、任务与工时统计、看板与燃尽图、缺陷跟踪与质量统计、多维报表与数据维度自定义,并强调与其他产品/应用数据互通。
项目管理能力:
敏捷/Scrum:围绕迭代规划、敏捷看板、燃尽图与迭代回顾形成闭环;并把“复盘用的数据”(工时日志、缺陷分布、交付数据等)纳入同一语境。
瀑布/阶段门:支持 WBS、前后置依赖、里程碑基线与计划-执行偏差对比,强调变更追溯与风险识别。
治理层:多层权限体系与多套项目模板(敏捷/瀑布/通用等),意味着你可以把“统一口径”固化在系统里,而不是靠项目经理反复强调。
适用场景:各种类型的研发组织、需求与缺陷协作紧、同时存在敏捷与里程碑管控的混合场景。
优势亮点:减少事实源分裂——你不用在多个系统里拼凑故事,而是让故事在一条链路里自然发生。

2)Jira:流程治理与可配置强,但你得先想清楚怎么管

核心功能:用 Boards(Scrum/Kanban)承载执行节奏;用 Plans(Advanced Roadmaps)做跨职能规划、依赖映射、产能与场景模拟,并且强调“单一数据源 + 沙盒式规划”。
项目管理能力:适合把组织规则写进系统:工作项层级、依赖关系、跨团队计划、里程碑式发布管理。
适用场景:研发组织、流程治理要求高、需要跨团队规划与依赖管理的场景。
优势亮点:当你要做的是“机制驱动的项目管理”,它的可配置性会成为优势。
局限与使用体验:最常见的失败不是工具不行,而是“配置先行、共识滞后”:字段越配越多、状态越加越长,最后没人愿意维护。我的做法是先用最小状态机跑通,再把口径写成团队约定。

3)Asana:跨部门项目管理工具

核心功能:项目多视图(list/calendar/timeline/Gantt/board 等)、自定义字段、以及可快速撰写的 Status updates。
项目管理能力:对跨部门项目而言,最大的难题往往不是“任务没分”,而是“每个人对项目现状理解不同”。状态更新把风险、阻塞、下一步结构化表达,能明显减少会议消耗。
适用场景:市场/产品/运营/交付等多角色协作,想要提高透明度、降低对齐成本的团队。
优势亮点:干系人可读性强,适合“对齐多于治理”的组织。
局限与使用体验:在更深的研发闭环(缺陷/发布与工程链路)上通常需要组合其他工具,否则项目经理仍要做系统间拼接。

4)Monday:可视化与资源视角强

核心功能:Workload(资源负载视图/组件)、Timeline(时间线)、Gantt(甘特视图/组件)等,可用于仪表盘与多项目视角展示。
项目管理能力:对“项目太多、管理层看不懂”的组织,可视化面板能显著降低解释成本;Workload 类能力的价值在于把“人是否被压垮”变成可见事实。
适用场景:交付型/运营型团队、多项目并行、强调资源均衡与态势感的组织。
优势亮点:上手快、呈现强,适合把项目管理软件变成“每天打开的工作台”。
局限与使用体验:更强于“把事情看清楚”,而不是“把复杂治理做精细”;如果你要严格的研发闭环,可能还需要工程侧工具链补齐。

5)ClickUp:功能覆盖面广

核心功能:用 Whiteboards/Docs 定义范围与共识,用 Gantt 规划时间线,用任务视图执行,用 Dashboards 监控 KPI,并强调覆盖项目管理生命周期。
项目管理能力:对项目经理来说,Docs/Whiteboards 的价值是让“共识形成”能直接链接到任务执行,减少“文档写完没人做”的断层。
适用场景:中小团队想减少工具切换;或项目+运营混合管理。
优势亮点:可塑性强,能把不同角色关注点放在同一套数据上。
局限与使用体验:功能多也容易“配置成迷宫”。建议从最小闭环(需求/目标→任务→验收→复盘)开始,避免一上来开满模块。

6)Smartsheet:表格思维友好

核心功能:Grid(网格)、Gantt(甘特)、Card(卡片/看板)、Calendar(日历)等视图可切换。
项目管理能力:很多组织的计划管理从表格开始。Smartsheet 的优势是让表格不止是表格,而是能与甘特/看板联动,让计划与执行少断层。
适用场景:PMO/交付团队、项目计划多、需要汇总报表与干系人对齐。
优势亮点:迁移门槛低,适合把“项目管理软件”引入不愿被重工具打扰的团队。
局限与使用体验:如果你追求的是敏捷研发工作流治理与缺陷闭环,它更像“计划与协作底盘”,需要与研发工具组合使用。

7)Azure Boards:工程化语境很近的敏捷项目管理工具

核心功能:Kanban boards、backlogs、dashboards、scrum boards,可从预置流程开始,也可自定义工作流;并强调可扩展与集成。
项目管理能力:适合把需求拆解、迭代推进、看板流转与管理视图连起来,尤其当团队的交付节奏与工程链路强绑定时。
适用场景:研发组织、偏工程化管理、希望在 DevOps 体系内做稳定节奏推进的团队。
优势亮点:标准敏捷工具链清晰,易于规模化推广。
局限与使用体验:对非研发角色不一定友好;跨部门协作仍需要额外的沟通机制,否则“系统内很清楚,系统外还是乱”。

8)GitLab:工程交付一体型项目管理

核心功能:使用 epics 承载跨项目/跨里程碑的主题工作,并可建立可视化 roadmaps 监控进度(并支持嵌套 epics 的层级结构)。
项目管理能力:Epic + Roadmap 的价值在于:你可以用时间线语言向管理层讲清楚目标推进情况,同时在执行层用 issue 机制推动交付。
适用场景:研发团队希望规划与交付强绑定、减少“规划在 PPT、执行在系统”的割裂。
优势亮点:把范围边界、讨论决策与交付推进放进同一工程上下文。
局限与使用体验:对非技术角色有门槛;如果协作主体不在研发侧,可能需要更偏业务协作的项目管理软件补齐。

9)Linear:轻量高节奏,但它要求团队“在概念上先对齐”

核心功能:覆盖 issues、projects、roadmaps;并通过 Insights 把 issue 变成可分析的数据集,回答资源、缺陷修复速度、优先级一致性、估算准确性等问题。
项目管理能力:Linear 的优势不是“功能多”,而是“流程摩擦小”。对项目经理来说,这类工具能把透明度建立在日常习惯上——越轻越要求口径一致。
适用场景:产品研发团队、追求效率与一致性、希望工具尽量不打扰人的团队。
优势亮点:用更少噪音换更高可见性,Insights 让复盘更像“证据讨论”。
局限与使用体验:对阶段门、合同交付、复杂资源核算的支持不一定够;如果你需要重计划与审计,可能要配更强的计划/报表体系。

10)OpenProject:开源与可控路线下的项目管理软件

核心功能:面向敏捷团队提供多 boards、sprint backlog、估算与跟踪,并与 roadmap planning、bug tracking、task management 等模块紧密集成,支持混合项目管理。
项目管理能力:对一些组织来说,项目管理软件不仅是效率工具,也是治理与合规的一部分。OpenProject 的“可控性 + 混合管理”更贴近这类需求。
适用场景:偏治理/合规、希望采用开源或自建更可控方案的团队。
优势亮点:把敏捷看板与路线图、缺陷、任务放在同一体系里,适合“方法论沉淀为机制”。
局限与使用体验:相对更偏“管理型工具”,推广与配置需要投入;对追求极简体验的团队可能不够轻。

选型建议:别先问“哪个好”,先问“我们要解决什么结构性痛点”

如果只给一个选型原则,我会说:先决定你要用项目管理软件解决什么结构性问题,再决定工具。

1.团队规模与协作密度:人越多、角色越杂,“统一事实源”的价值越高;你更需要模板、权限、度量口径来保证一致性。ONES Project 的权限与模板思路就属于这种“治理能力”。

2.管理模式:敏捷、瀑布,还是混合:敏捷关注节奏与透明(看板/燃尽/复盘数据);瀑布关注计划、依赖、里程碑与基线偏差。能同时覆盖两者并可治理的项目管理软件,更适合现实中的混合项目。

3.组织文化:是“靠自觉协作”,还是“靠机制治理”:有的团队更适合轻量透明(靠共识驱动),有的团队必须靠流程与权限保证执行(靠制度驱动)。Jira Plans/Advanced Roadmaps 这类跨团队规划能力,更适合机制治理较强的组织。

4.我建议的试点三步走(很实战,也很省力)

  • 第一步:跑一个“最小闭环”项目(目标/需求 → 任务 → 验收 → 复盘)。
  • 第二步:固化三件事:工作项定义、状态机含义、度量口径。
  • 第三步:再谈扩展:权限、模板、集成、仪表盘。

这样工具不是“强推”,而是“先用出价值,再自然扩散”。

常见问题 FAQ:

Q1:如果我只做跨部门对齐,不追求重流程治理,项目管理软件怎么选?
优先看“状态更新 + 多视图 + 干系人可读性”。这类团队的瓶颈通常不是流程,而是信息不对称; ONES/Asana 的多视图与状态更新机制就是典型能力。

Q2:如果我需要把“需求—迭代—缺陷—复盘度量”放在一条链路里?
优先看是否能覆盖需求、迭代、缺陷、看板/燃尽与多维报表,并能在同一处追溯偏差与原因。ONES Project 对需求/迭代/缺陷、看板/燃尽、报表与集成的描述更贴这种诉求。

Q3:如果我要做 WBS、里程碑与基线对比(偏瀑布/阶段门)?
优先看是否支持 WBS、依赖关系、里程碑与基线对比,用来管理“计划 vs 执行”。ONES 的瀑布方案强调了里程碑基线与偏差识别。

Q4:如果我希望跨团队规划、依赖与产能更“可算、可模拟”?
优先看跨团队计划能力与依赖/产能管理。ONES/Jira Plans(Advanced Roadmaps)强调依赖映射、产能规划与场景模拟,并作为单一数据源的规划层。

时隔近三年,马斯克再次开源 X 推荐算法

 

刚刚,X 工程团队在 X 上发帖宣布,正式开源 X 推荐算法,据介绍,这个开源库包含为 X 上的“为你推荐”信息流提供支持的核心推荐系统,它将网络内内容(来自用户关注的帐户)与网络外内容(通过基于机器学习的检索发现)相结合,并使用基于 Grok 的 Transformer 模型对所有内容进行排名,也就是说,该算法采用了与 Grok 相同的 Transformer 架构。

 

开源地址:https://x.com/XEng/status/2013471689087086804

 

X 的推荐算法负责生成用户在主界面看到的“为你推荐”(For You Feed)内容。它从两个主要来源获取候选帖子:

 

  1. 你关注的账号(In-Network / Thunder)

  2. 平台上发现的其他帖子(Out-of-Network / Phoenix)

 

这些候选内容随后被统一处理、过滤然后按相关性排序。

 

那么,算法核心架构与运行逻辑是怎样的?

 

算法先从两类来源抓取候选内容:

 

  • 关注内的内容:来自你主动关注的账号发布的帖子。

  • 非关注内容:由系统在整个内容库中检索出的、可能你感兴趣的帖子。

 

这一阶段的目标是“把可能相关的帖子找出来。

 

系统自动去除低质量、重复、违规或不合适的内容。例如:

  • 已屏蔽账号的内容

  • 与用户明确不感兴趣的主题

  • 非法、过时或无效帖子

 

这样确保最终排序时只处理有价值的候选内容。

 

此次开源的算法的核心是系统使用一个 Grok-based Transformer 模型(类似大型语言模型/深度学习网络)对每条候选帖子进行评分。Transformer 模型根据用户的历史行为(点赞、回复、转发、点击等)预测每种行为的概率。最后,将这些行为概率加权组合成一个综合得分,得分越高的帖子越有可能被推荐给用户

 

这一设计把传统手工提取特征的做法基本废除,改用端到端的学习方式预测用户兴趣。

 

 

这不是马斯克第一次开源 X 推荐算法。

 

早在 2023 年 3 月 31 日,正如马斯克收购 Twitter 时承诺的那样,他已将 Twitter 部分源代码正式开源,其中包括在用户时间线中推荐推文的算法。开源当天,该项目在 GitHub 已收获 10k+ 颗 Star。

 

当时,马斯克在 Twitter 上表示此次发布的是“大部分推荐算法”,其余的算法也将陆续开放。他还提到,希望“独立的第三方能够以合理的准确性确定 Twitter 可能向用户展示的内容”。

 

在关于算法发布的 Space 讨论中,他说此次开源计划是想让 Twitter 成为“互联网上最透明的系统”,并让它像最知名也最成功的开源项目 Linux 一样健壮。“总体目标,就是让继续支持 Twitter 的用户们最大程度享受这里。”

如今距离马斯克初次开源 X 算法,过去了近三年的时间。而作为技术圈的超级 KOL,马斯克早已为此次开源做足了的宣传。

 

1 月 11 日,马斯克在 X 上发帖称,将于 7 天内将新的 X 算法(包括用于确定向用户推荐哪些自然搜索内容和广告内容的所有代码)开源。

 

此流程将每 4 周重复一次,并附有详细的开发者说明,以帮助用户了解发生了哪些变化。

 

今天,他的承诺再次兑现了。

马斯克为什么要开源?

 

当埃隆·马斯克再次提到“开源”时,外界的第一反应并非技术理想主义,而是现实压力。

 

过去一年里,X 因其内容分发机制屡次陷入争议。该平台被广泛批评在算法层面偏袒和助长右翼观点,这种倾向并非零星个案,而被认为具有系统性特征。去年发布的一份研究报告就指出,X 的推荐系统在政治内容传播上出现了明显的新偏见。

 

与此同时,一些极端案例进一步放大了外界的质疑。去年,一段涉及美国右翼活动人士查理·柯克遇刺的未经审查视频在 X 平台迅速传播,引发舆论震动。批评者认为,这不仅暴露了平台审核机制的失效,也再次凸显了算法在“放大什么、不放大什么”上的隐性权力

 

在这样的背景下,马斯克突然强调算法透明性,很难被简单解读为一次纯粹的技术决策。

 

 

网友怎么看?

 

X 推荐算法开源后,在 X 平台,有用户对推荐算法机制做了以下 5 点总结:

 

1. 回复你的评论。算法对“回复+作者回应”的权重是点赞的 75 倍。不回复评论会严重影响曝光率。

2. 链接会降低曝光率。应该把链接放在个人简介或置顶帖里,千万不要放在帖子正文中。

3. 观看时长至关重要。如果他们滑动屏幕略过,你就不会吸引他们。视频/帖子之所以能获得高关注,是因为它们能让用户停下来。

4. 坚守你的领域。“模拟集群”是真实存在的。如果你偏离了你的细分领域(加密货币、科技等),你将无法获得任何分销渠道。

5. 屏蔽/默不作声会大幅降低你的分数。要有争议性,但不要令人讨厌。

 

简而言之:与你的受众沟通,建立关系,让用户留在应用内。其实很简单。

 

也有网友发现,虽然架构是开源的,但还有些内容仍未开源。该网友表示,此次发布本质上是一个框架,没有引擎。具体少了啥?

 

  • 缺少权重参数 - 代码确认“积极行为加分”和“消极行为扣分”,但与 2023 年版本不同的是,具体的数值被删除了。

  • 隐藏模型权重 - 不包含模型本身的内部参数和计算。

  • 未公开的训练数据 - 对于训练模型的数据、用户行为的采样方式,以及如何构建“好”样本与“坏”样本,我们一无所知。

 

对于普通 X 用户而言,X 的算法开源并不会造成太大影响。但更高的透明度可以解释为什么有些帖子能获得曝光而另一些则无人问津,并使研究人员能够研究平台如何对内容进行排名。 

为什么推荐系统是必争之地?

 

在大多数技术讨论中,推荐系统往往被视为后台工程的一部分,低调、复杂,却很少站在聚光灯下。但如果真正拆解互联网巨头的商业运转方式,会发现推荐系统并不是边缘模块,而是支撑整个商业模式的“基础设施级存在”。正因如此,它可以被称为互联网行业的“沉默巨兽”。

 

公开数据已经反复印证了这一点。亚马逊曾披露,其平台约 35% 的购买行为直接来自推荐系统;Netflix 更为激进,约 80% 的观看时长由推荐算法驱动;YouTube 的情况同样类似,大约 70% 的观看来自推荐系统,尤其是信息流(feed)。至于 Meta,虽然从未给出明确比例,但其技术团队曾提到,公司内部计算集群中约 80% 的算力周期都用于服务推荐相关任务。

 

这些数字意味着什么?如果将推荐系统从这些产品中移除,几乎等同于抽掉地基。就拿 Meta 来说,广告投放、用户停留时长、商业转化,几乎都建立在推荐系统之上。推荐系统不仅决定用户“看什么”,更直接决定平台“如何赚钱”。

 

然而,正是这样一个决定生死的系统,长期面临着工程复杂度极高的问题。

 

在传统推荐系统架构中,很难用一个统一模型覆盖所有场景。现实中的生产系统往往高度碎片化。以 Meta、LinkedIn、Netflix 这类公司为例,一个完整的推荐链路背后,通常同时运行着 30 个甚至更多专用模型:召回模型、粗排模型、精排模型、重排模型,各自针对不同目标函数和业务指标进行优化。每个模型背后,往往对应一个甚至多个团队,负责特征工程、训练、调参、上线与持续迭代。

 

这种模式的代价是显而易见的:工程复杂、维护成本高、跨任务协同困难。一旦有人提出“是否可以用一个模型解决多个推荐问题”,对整个系统而言,意味着复杂度的数量级下降。这正是行业长期渴望却难以实现的目标。

 

大型语言模型的出现,给推荐系统提供了一条新的可能路径。

 

LLM 已经在实践中证明,它可以成为极其强大的通用模型:在不同任务之间迁移能力强,随着数据规模和算力的扩展,性能还能持续提升。相比之下,传统推荐模型往往是“任务定制型”的,很难在多个场景之间共享能力。

 

更重要的是,单一大模型带来的不仅是工程简化,还包括“交叉学习”的潜力。当同一个模型同时处理多个推荐任务时,不同任务之间的信号可以相互补充,随着数据规模增长,模型更容易整体进化。这正是推荐系统长期渴望、却很难通过传统方式实现的特性。

 

LLM 改变了什么?其实是改变了从特征工程到理解能力。

 

从方法论层面看,LLM 对推荐系统最大的改变,发生在“特征工程”这一核心环节。

 

在传统推荐系统中,工程师需要先人为构造大量信号:用户点击历史、停留时长、相似用户偏好、内容标签等,然后明确告诉模型“请基于这些特征做判断”。模型本身并不理解这些信号的语义,只是在数值空间中学习映射关系。

 

而引入语言模型后,这一流程被高度抽象。你不再需要逐条指定“看这个信号、忽略那个信号”,而是可以直接向模型描述问题本身:这是一个用户,这是一个内容;这个用户过去喜欢过类似内容,其他用户也对这个内容有正反馈——现在请判断,这条内容是否应该推荐给这个用户。

 

语言模型本身已经具备理解能力,它可以自行判断哪些信息是重要信号,如何综合这些信号做出决策。在某种意义上,它不只是执行推荐规则,而是在“理解推荐这件事”。

 

这种能力的来源,在于 LLM 在训练阶段接触过海量、多样化的数据,使其更容易捕捉细微但重要的模式。相比之下,传统推荐系统必须依赖工程师显式枚举这些模式,一旦遗漏,模型就无法感知。

 

从后端视角看,这种变化并不陌生。就像你向 GPT 提问,它会基于上下文信息生成回答;同样地,当你问它“我是否会对这条内容感兴趣”,它也可以基于已有信息做出判断。某种程度上,语言模型本身已经天然具备“推荐”的能力。

专家解读:工业界可参考,对学术价值不大

 

如果 X 的方向真是“让 Grok 成为算法本身”,那么这次开源事件的意义就不止是透明度提升,更像是把一场大模型化推荐的系统级改造公开摆到台前,接受开发者与行业的持续检视与解读。

 

借此机会,我们邀请到了搜推广资深算法专家,生成式推荐模型 OnePiece 作者,《业务驱动的推荐系统:方法与实践》作者傅聪,为大家解读这次开源事件。

 

InfoQ:从代码层面看,X 这套推荐系统中,大模型是否是已经进入核心决策环节?这与传统“LLM + 规则 / 特征管道”的推荐系统相比,最大的结构性变化是什么?是否只是替换了部分模块?

 

傅聪:从系统整体设计层面看,开源的代码依然遵从 recall -> rank 这样的多阶段漏斗筛选架构。新的 post 推送会从数亿 候选集合中 以传统的 双塔 向量召回,合并排序、去重等等环节,最后送给用户。grok 没有参与中间过程,只是给 post 做排序的模型采用了类似 grok 的模型架构,但远小于 grok 的参数量。

 

最大的结构变化在于他们用了一种纯 transformer(类 grok)的模型结构去做排序,其它差异不大。

 

InfoQ:从能力边界看,该如何看待“每日处理上亿条内容、并进行实时多模态理解”这一目标所带来的系统挑战?

 

傅聪:需要极其充足的 GPU 算力以及高并发的处理引擎,尤其是视频内容,其 token 消耗量巨大,因此计算量巨大。此外,模型还需要一个可以高速访问的大型文件系统,保证大量视频可以暂存、传递给 Grok 模型。而实际上 x 并没有真的让 grok 来做这个事情,应该是处于成本考虑。

 

InfoQ:传统推荐系统采用轻量级启发式算法,成本效益高,而 Grok 方法需要大量计算资源,那么您怎么看待成本和用户体验提升之间的收益比?在算力、成本和基础设施约束下,这种方式是否注定只属于极少数平台?

 

傅聪:Grok 消耗的算力是数千倍于传统的推荐系统的,这部分成本往往不能被平台的收益覆盖。尤其是 X 这样的平台,其收入核心来源是广告。只有做到延迟、体验都能对标原有系统,其广告收入才可以持平。但因为投入成本过高,这个 ROI 过低,目前来看只 X 自己也没有真的以这种规模使用 grok。

 

InfoQ:如果 Grok 真要“把帖子都读一遍、把视频都看一遍”再来做匹配,这是不是相当于把推荐系统推到了更强的“内容级监控”?平台不只是记你点过什么,还能在语义层面猜到你可能会被什么吸引,是否会带来新的以前没有的问题?

 

傅聪:Grok 读过并不一定会记忆。很多数据并不一定会被 Grok 用来训练

 

InfoQ:另外,传统推荐系统的信息茧房问题,语义理解方式是否能解决?是否更“中立”?(此前的争议有一部分在于认为 X 平台偏向马斯克个人账号和一些党派言论)。从系统机制上看,它最可能在哪些环节反而更容易固化偏好、放大偏差?

 

傅聪:大语言模型有它自己的 bias,以大语言模型为核心的推荐系统会根据它的语言偏好构建新的信息茧房。

 

InfoQ:从开源意义看,在推荐系统这种高度复杂、长期被视为“黑箱”的领域,这种“持续、周期性开源”代码的方式,实现起来的难度在哪里?

 

傅聪:难度在于只开源代码,不开源所有配套的系统和训练数据,就无法复现它的效果。这种开源,对学术研究价值不大,对工业交流有一定参考意义。但目前其架构来看,可参考的新东西不多。

 

InfoQ:您如何看待这次开源的影响?如果 Grok 这套思路跑通,这次开源是否会迫使其他内容平台跟进,从而引发推荐系统的一轮“范式迁移”?在这种趋势下,行业会不会弱化对行为数据(包括历史数据)的依赖,甚至调整数据收集与画像方式,进而重塑整个推荐系统生态?对广告行为的影响会是什么样的?

 

傅聪:即使 Grok 跑通,其它平台也不一定会跟进。第一其他平台没有属于自己的 Grok,第二,其它大部分平台不会在这里投入这么多算力。

 

行业也不会弱化对用户行为和画像的依赖,经验证明,用户历史行为才是实现个性化的数据根基,缺少这部分信息输入的推荐系统很难千人千面,而容易做成千篇一律。从开源代码看,ranking 模型依然在使用用户行为历史进行预测,这一点也符合预期。

 

嘉宾简介:

 

傅聪,搜推广资深算法专家、生成式推荐模型 OnePiece 作者,《业务驱动的推荐系统:方法与实践》作者,《生成式推荐系统算法与实践》作者。

 

参考链接:

https://github.com/xai-org/x-algorithm

https://x.com/XEng/status/2013471689087086804

https://x.com/BlockFlow_News/status/2013510113873813781

节点创建灵感

「资源」节点的创建灵感来源于这个主题:
https://www.v2ex.com/t/1186971

我们相信,有价值的分享不仅是资源的共享,更是思想与经验的传递。因此,我们建立了这个节点,期待它能汇集更多优质内容,展现 V2exer 们的智慧与力量!


🎁 奖励机制说明

基础奖励

在「资源」节点分享资源帖(包括工具、教程、信息或见解等),即可获得 10 V2EX 打赏。

优质奖励

如果分享的帖子引发热烈讨论或收藏,评论或收藏总数 ≥ 100 时,节点管理员将额外打赏 200 V2EX


📜 节点规则

  • 主题需为可复用的资源
  • 禁止纯引流或广告内容;
  • 附上使用体验更佳。


🌟 分享倡议

我们鼓励有深度、能启发思考、对他人真正有帮助的分享。
让我们在交流中共同成长,一起丰富每个人的资源库。期待你的精彩内容!


回复此主题的所有 V 友,将获得 1 V2EX 的打赏(请提前绑定钱包地址)

Matrix 首页推荐 

Matrix 是少数派的写作社区,我们主张分享真实的产品体验,有实用价值的经验与思考。我们会不定期挑选 Matrix 最优质的文章,展示来自用户的最真实的体验和观点。 

文章代表作者个人观点,少数派仅对标题和排版略作修改。


人生中的第一个独立开发的 APP 终于通过审核了,这篇文章的重心不在应用推介,更多是记录我作为一名运营独自一人开发应用上架的完整历程。年纪大了,如果当下的感受没有被及时记录,很容易会被时间冲淡。

虽然当前版本图标对不上,但能通过审核本身就是胜利了

文章不会涉及到太多专业术语露出,无论你对 AI 编程是否感兴趣,都可以把它当个有趣的故事看下去。

前言

我貌似一直对写应用 / 做产品有一种执念,尽管我连 GitHub 怎么用都一头雾水。

2014 年,因为经常要写 APP 推荐文的原因,为了丰富截图美观度,联合少数派的 Android 开发小哥倒腾了个【带壳截图】。当时的我,负责的只是想法、素材设计和宣传推广,没有参与过半行代码的编写。

2023 年,当时部门被公司一锅端,突然失业的我申领失业金频繁受挫,靠着每天把免费版 GPT 额度用完,很是艰难地倒腾了个如何申领失业金的微信小程序。这是我自己第一个手搓代码的的产品,这阶段的我开始掌握了「如何插入广告代码」这一核心技能。

2025~2026 年,因为工作缘故要经常输出鸿蒙相关的内容,我先是做了个缓解鸿蒙升级阵痛的小程序,后来在 Gemini 的帮助下,我正式提交了人生中第一款独立开发的 APP,一个能联网的、打通服务端和前端的、有实际功能的、不再是静态页封装的应用。

所幸每一个阶段的产品,我都在少数派写过文章,留下过印记。

使用 AI 编程的挑战

自我设限

早在去年鸿蒙推出开发者激励计划的时候,老麦就问过我能不能倒腾个鸿蒙应用,我说这超出了我的能力范畴。其实彼时的我已经写过好几个小程序了,然而在我的固有认知里,小程序和 APP 开发的区别应该比美图秀秀和 PS 还要大...... 加上现在鸿蒙编译工具和原生开发语言才推出市场没多久,可能 AI 都没有收集到足够的数据来应对。

事实证明一切都是借口,真正实践起来,我这个 GitHub 都用不明白的家伙,从 12 月 30 日配置到鸿蒙开发环境,到 1 月 5 号正式动工,最后 1 月 10 日提交审核,减去中间的元旦假期和周末,整个开发周期差不多就一个星期左右。

挣脱了思想的牢笼后,一切就豁然开朗了。

网络环境

无论是 Gemini、ChatGPT,还是其他更进阶的 AI 编程服务,对网络和地区的要求都是极高的。网络的波动,经常会导致「地区限制、IP 污染」等拒绝访问的情况发生,哪怕能顺利进入,也会有一定概率只能新建聊天但无加载历史对话。

付钱也是个大问题,搞定了网络,也舍得每个月掏出 20 美元甚至更高的费用去订阅,但如果没有一张境外发行的银行卡或海外账户,那么大概率无法完成关键的付款操作。当然,真想要给钱还是有路子的,只不过给个钱甚至比软件破解还要费劲,又会劝退很大一拨人。

技术门槛

社交媒体上铺天盖地的都是「不懂代码也能编程」的帖子和教程,但目前市面上一些主流的 AI 编程工具其实都是需要使用者具备一定专业技能的,强如 Cursor 一打开就让我关联 GitHub 的代码仓库,单就这一步就直接难倒我了。

同时,零代码基础,意味着你无法判断 AI 输出的方案优劣 / 对错 / 是否最优解,AI 会偷懒、会造假、会胡说八道、会消极怠工...... 没有专业能力去支撑你的判断与决策,一旦涉及关键模块的改动,轻则影响项目进度,重则前功尽弃,推倒重来。

备案和审核

大 Boss 藏在临门一脚的收尾阶段。

从 2025 年开始,所有联网的应用都需要进行 APP 备案。然后备案要买服务器,买完服务器提示要买域名,买好域名之后又提示域名也要备案,要域名和服务器备案好了 APP 备案才算完成。兜兜转转,搞了差不多 1 个月才搞定。所幸只是耗时长,过程并不复杂。

11.20 创建备案申请,12.17 备案审核通过

来到核心的应用审核环节,由于之前提交审核的版本功能实在过于简单(体验与小程序保持一致),多次上架驳回,让我下定心思真正做一个有实际功能用途的 APP。于是乎,我拾起了 10 年前的带壳截图项目,因为应用名称已经备案了,所以我还是沿用【NEXT 升级站】这个名称,在截图带壳的基础上,新增了图层顺序调整、设备素材云端下载与更新、添加贴纸、设备形态切换等功能。


1 月 10 日,我将重新构造的 NEXT 升级站提交到鸿蒙应用商店;1 月 16 日,经过了多次沟通和调整之后,NEXT 升级站终于顺利通过审核,正式登陆鸿蒙平台。得知应用审核通过的瞬间心情还是非常激动的,毕竟花了这么多心思去打造,肯定是想让它呈现在公众面前,供有需求的人去使用。

与 Gemini 的角色分工

因为 Chat 形态的 Gemini 不能直接操作项目,所以从配置环境的安装到最后的签名打包,涉及到开发环节的每一步,全都是 Gemini 输出文字指引,我来进行操作。虽然是原始了点,但一步一脚印,也不算是一件坏事。在这个鸿蒙应用开发项目里,我主要扮演产品经理和交付验收专员的角色,Gemini 则负责以下工作:

  • 产品项目 / 需求评估
  • 解决方案输出
  • 100% 代码编写
  • 问题定位与修复
  • LOGO 初稿输出与绘制教程
  • 机型素材整理方案输出
  • 快速生成图片配置文档

我不太清楚近期火热的 Vibe Coding 能否全自动地完成项目的代码编写和程序编译,因为我没真正使用过,一来是文章开篇提及到的网络问题,二来也是我自身专业度不足以支撑的问题,当然最主要的还是自我设限,认为自己驾驭不到。

有机会尝试的话,再给各位输出一篇关于 Vibe Coding 的体验文章。

擅长开新坑

Gemini 的靠谱程度,很大程度取决于你是「开新坑」还是「优化屎山代码」。如果是「开新坑」,决策准、速度快、效率高、完成度高,会是我对它的评价;一般这种情况下的需求指令都不会特别清晰或具体,这时候的它有足够的发挥空间,Gemini 擅长写半开放式作文。

一个具体的例子,10 月初我想把初始版本的【NEXT 升级站】小程序想快速移植为鸿蒙应用,在 GitHub 找到了滴滴出品的星河小程序转译鸿蒙应用的开源项目,专门请教了公司的开发同事,询问一下这件事情在技术层面的可行性,得到的结论是不行,斩钉截铁的不行。

随后,我将这个具体的想法交代给 Gemini 后,它给出的答案也是不行,但同时提出了另一种解决方案:因为我的产品架构很简单(本地搭好页面框架,从腾讯云读取数据),无需转译,直接用鸿蒙原生开发工具写一个更简单。

然后,它就手把手教我从如何安装配置鸿蒙开发环境、如何配置页面、如何调用组件、如何读取数据、如何解决编译报错、如何真机调试等等。因为我小程序已经写好了逻辑,所以它列了几个关键的 js 文件让我发过去,它就能复用对应页面的数据读取、字段展示、排序逻辑、元素布局等。

效果非常惊人,花了 1 天的下班时间,我就已经完成从搭建鸿蒙开发环境到输出 Demo 能在真机安装运行了。虽然一开始 Gemini 并没有告诉我 Beta 版编译工具签名的 APP 无法提交审核,但那是后话了......

优化能力不详,像鬼打墙


但场景一旦切换到「具体功能优化、Bug 修复」时,当需求越具体,它就会变得越固执、越短视、喜欢钻牛角尖、重复造轮子、简单的事情复杂化:

  • 能调用系统图标的它偏要自己画;
  • 在正常编译的云服务配置文档新增一个字段读取处理,它偏不按那个版本结构逻辑去写,硬是要自己优化,结果每个自作聪明优化的代码版本都不能编译;
  • 我说哪个功能上有问题,它就只是把这个问题修复好,全然不告诉我它为了修复这个问题,偷偷把其他能正常运行的功能删了,把数据读取逻辑从服务器端改成了本地虚拟数据......

诸如此类各种数不尽的骚操作,逐渐倒逼着我自己去管控整个项目走向。慢慢地,我这个毫无感情的代码复制粘贴机器,也开始系统性地判断 Gemini 输出的技术方案思路是不是可行的,给出的方案有哪些考虑不周到的地方,存在哪些风险,需要做哪些准备工作,备份哪些关键文件,实施过程中可能会发生的问题以及应对方案等:

  • 比如在进行一些关键页面/功能的修改时,是不是可以创建一个隔离环境,先验证功能可行性,再合并到正式页面里等;
  • 又比如在复制粘贴代码的时候会多留一个心眼,观察代码量变化,很多时候往往只是修改一个极小的细节问题,但输出的完整代码量和上一个版本竟然相差 200 多行,我就知道它又开始偷懒了。

见证我踩坑与进化的,是每次下达精准修改需求时越来越长的注意事项:

  1. 必须精准修改,不要动已有的功能布局与逻辑,尤其是不要自作聪明覆盖本地数据和功能 ,不要悄默默的删掉功能,你这是惯犯
  2. 输出方案之前,要严格关联上下文,涉及到需要验证的解决方案,必须要在最小单元内测试是否有效,再全面推广
  3. 优先使用系统组件、遵从鸿蒙设计/开发规范,不要简单的问题复杂化
  4. 涉及到需要修改的页面,需要输出完整代码,减少手动操作带来的误操作
  5. 不要偷懒,不要在不告知我的情况输出精简 DEMO 来替代我现有的功能界面和布局
  6. 一步步详细的列明每一个操作步骤,不要精简和省略,包括需要修改的文件具体路径,尤其是涉及到一些不可逆或容易误操作的地方,要特别标注出来
  7. 需要涉及需要在本地新增素材或引用云端字段/系统能力,要和我提前说,并告知具体的文件存放位置和作用,减少因为「资源缺/对不上」造成的编译错误,尽量做到每一次输出的方案都是不报错的;
  8. 输出方案的时候要明确说明思路、方向、修改了什么,可能会发生的问题,以及应对思路
  9. ......

背后的心酸,只有我和 Gemini 才能知晓。

虽然开发环节总是会出现这样那样的问题,但在整个应用构建过程,我始终保持着非常激动甚至亢奋的心情。关键的转变在于我从某个环节的螺丝钉变成了整个链条的掌舵手,提出想法的是我,需求评估的是我,原型设计的是我,敲定技术实现方案的是我,字段配置、代码编译、功能验收、BUG 修复、功能迭代的还都是我......

每天结束代码编译工作时,我都会和 Gemini 复盘一下今日的成果、踩过的坑、明天的计划、以及突然冒出来的鬼点子。看着应用从最初的原型图,到一步步完善,最后成为能在真机运行的应用,成就感可以用爆棚来形容。

主角登场:NEXT 升级站

NEXT 升级站

聚焦截图编辑与创作

铺垫了这么久,是时候要请出主角了。NEXT 升级站聚焦于截图编辑与创作,支持带壳截图、快速切换设备形态、添加贴纸、云端更新素材库等。应用支持联网更新,即使不更新应用,也能获取到最新的设备素材与贴纸。

在产品架构设计阶段,应用内几乎每个环节我都加上了支持运营控制的字段与配置入口。除了机型素材和贴纸中心,还包括创作页背景、机型默认壁纸,甚至连遮罩颜色和透明度等,都可以在云端直接修改更新。节假日定期换个应景的素材,或和其他应用联名搞搞活动,是我作为一名老运营的职业习惯。

核心的截图创作页上,我将「机型系列」作为一个最小单位,一个单元内对应多个 SKU,下载对应素材后,可以左右切换更换同系列的姐妹机型与颜色。如果是涉及到折叠屏这种多形态变化的产品,同样可以通过左右切换,快速更换设备形态。

同时,「贴纸中心」的加入,大大丰富了截图的可玩性,这也是 NEXT 升级站区别于同类应用的一大特色功能。支持图层顺序调整带来了无限大的拓展空间:除了常规的表情贴纸,它可以是画布壁纸,还可以是契合产品的具体使用场景、更可以是模特手持的特写海报。

一些遗憾

由于贴纸引入了图层概念,所以正常情况下只需新增一个图层字段或贴纸类型,就可以实现「图片背景」这一功能了,写好逻辑本地处理,当检测到图层字段等于 0 时,图片自动置底且铺满画框。道理是这个道理,但可惜,目前我的水平无法支撑这个需求的实现;不仅没有实现,还出现了同一个素材从创作页添加是正常的,但从贴纸中心添加就不能显示的奇特 Bug,折腾了好久才恢复到原样来。

此外,在原本的产品规划里,我是打算将 Navigation bar 和 tabBar 统一都设置为半透明的毛玻璃效果,让壁纸能够完整铺满整个屏幕,体验更加沉浸。但这涉及到全局组件的改动,加上当时风险管理意识不足,一番操作下来,布局全乱,软件元素和系统安全区叠加在一起,越改越乱,最后不得不代码回滚。

这也是这个版本里为数不多的遗憾。

图标绘制

我对图标尤为看重,7 天的开发周期,图标绘制就占了我整整一天的时间,可见重视程度之高。我希望 NEXT 的图标是有质感的、且符合应用使用场景的,在小红书找了几个我想要的效果素材发给 Nano Banana Pro,结果输出的第一个方案里就有对胃口的版本,这让我极其欣喜。

我完整阐述一下我的图标绘制操作和思路:

  1. 在 Gemini 工具栏里选择「生成图片」,输出详细设计需求并附上参考图,让它出 n 个方案;
  2. 从中选择合心意的版本,进行细致修改;
  3. 确定最终方案后,让 Gemini 输出 Figma 绘制教程;
  4. 根据教程重绘矢量图标。

为什么要重绘图标?

我个人不太建议直接使用 AI 输出的图片作为图标。

一来是 Gemini 无法输出透明背景的 png,虽然市面上大把移除图片背景的工具和插件,但移除背景这个动作本身就会对图片质量本身产生较大影响,如边缘锯齿、阴影裁切、残留白边等;

二来应用图标在软件项目构造里并不是一张单纯的圆角矩形图,它是由一张透明背景的主体图 + 一张保留直角的背景图组成的;

三是考虑到 AI 输出的图片可能存在的版权归属问题,以及后续图标的拓展延伸(如面向付费用户提供多种图标切换、应用周边制作、品牌宣传露出等),几乎每个场景都需要你有「源文件」在手,而不仅仅只是一张 AI 提供的固定分辨率、放大会有锯齿的位图;

所以让 AI 输出方案 + 重绘修改,会是一个相对稳健且方便后续运营拓展的方案。哪怕你是设计新手也不要紧,目前主流的 AI 基本上可以做到专属教程产出,发一张图片过去,询问如何在 Photoshop 或 Figma 上绘制出一模一样的效果,它就会输出详尽的教程,包含每个图层需要叠加的效果参数、渐变色值等。

当然,图标重绘并不意味着百分百的还原 AI 稿,更多是根据实际情况进行风格和元素的调整,毕竟是手把手操作,灵活度上还是要比输入关键词指令更精准一些。我对这个工作流输出的图标成品很是满意(目前应用商店显示的图标和实际图标对不上,我争取下个版本修复)

名字来源和背后故事

介绍完应用功能和图标,我想展开聊聊 NEXT 升级站名字的来源和背后的功能变更。

故事的开始是去年我主力使用的华为设备升级到鸿蒙 5,在日常使用中或多或少都会有一些困扰与不习惯,于是我针对常见痛点梳理了解决方案,拾起老本行做了个微信小程序承载。想着解决他人问题之余还能靠流量主赚点广告费,没成想鸿蒙版的微信小程序并不支持加载流量主广告 😂 路径依赖失效了~

NEXT 升级站小程序

但每个月 19.99 的腾讯云套餐是无论如何都节省不了的支出,怎么样才能把这 19.99 用回本成为了我的新课题。既然腾讯云能被小程序调用,是不是也能被第三方网站或 APP 调用?我向 Gemini 提出了这个问题,得到了肯定的答复,随后我就搞了个页面,通过云函数将小程序的内容同步展示到网页来。不过这个页面更多是技术验证,并没对外开放访问。

小程序导流网页

小程序有了,引流页面也有了,作为一个面向鸿蒙用户提供解决方案的产品,没有鸿蒙原生应用似乎说不过去。刚开始我是打算通过「小程序转译」的方式去实现,结果 Gemini 告诉我直接原生编译工具写更简单。接下来的故事前文也提及过了,初始版本的应用多次被驳回,一是联网应用没备案,二是功能实在太过简单。

NEXT 升级站首个鸿蒙版本,功能布局与小程序保持一致

应用审核被驳回,但耗时一个月的应用备案下来了,秉持着备案不能白白浪费的原则,我又硬着头皮搞了如今以截图编辑与创作为核心的【NEXT 升级站】并成功上架,也算是给 10 年前的【带壳截图】一次秽土重生的机会。

所以现在的 NEXT 升级站处在一个非常神奇的阶段,同一个名字在不同渠道是两个完全不同形态的存在。在微信小程序里,它是提供各种常见问题解决方案的实用工具箱;在鸿蒙原生应用里,它是可以实现以带壳截图为核心的截图创作工具。至于后面究竟是逐渐融合还是单独区分,就有待后续故事的发展了,现在的我也说不准。

回顾 NEXT 升级站每一次的更迭,基本上都是脑海里的灵光一闪在稍纵即逝之际被 Gemini 及时验证可行性并给出实施方案,我才得以踏出下一步的。我认为这是 AI 存在最大的价值,通过 AI 快速验证各种天马行空想法的可行性,并以最低成本踏出第一步,只要出发了,距离终点就不远了。

开发费用


我来简单盘点一下本次开发全链路的所需费用。

  • 腾讯云:¥19.9/月
  • 服务器:¥69/年
  • 域名:¥33/年

以一年时间为例,最基础的费用支出是 340.8 元。当然,实际上远不止这个价格, 正常情况下 Gemini 应该是最费钱的一项。除符合资格的学生优惠外,最近 Gemini 还推出了 $99.99/年的多人共享活动,就是对地区、账号和付款方式都有一定要求,感兴趣的可以去了解一下。

写在最后

这是 2026 年我送给自己的新年礼物,突破身为一个运营原定能力边界的礼物。

简单评价一下这个开发周期只有 7 天的应用,我认为功能完成度是大大超出我预期的。代码质量我不好评价,后续版本维护上我也比较担忧,但在产品架构、功能完善度、可玩性上,我有信心,NEXT 升级站起码是合格的,甚至是超过平均水平线的。

当然,初个版本还是有很多不足的地方,受限于技术水平与人力原因,很多东西距离「尽善尽美」还有很长一段距离,不过大框架搭好了,素材也能支持云端更新,后续保持一定的频率更新,问题也不大。

> 关注 少数派小红书,感受精彩数字生活 🍃

> 实用、好用的 正版软件,少数派为你呈现 🚀

    2026 势不可挡!融云开年便在产业、技术与生态多维度收获多重认可。

    前沿科技媒体的专业背书、开发者社区的口碑选择、全球生态伙伴的战略肯定,共同印证了融云的智能通信云服务已获得产业界、开发者与商业生态的全面肯定。

    行业媒体 | 2025 年度灯塔产品榜
    图片

    领先科技媒体“雷科技”发布 2025 年度灯塔产品榜,融云对话 Agent 登上“年度杰出产品榜单”。

    该榜单自 2017 年创办以来,始终坚持“专业编辑提报+千万粉丝投票”的评选制度,致力于记录时代创新。本次评选涵盖消费电子、家电、汽车出行及 AI 等四大领域,融云对话 Agent 与 Google、Kimi、快手、百度等科技大厂产品共同入选 AI 领域榜单。

    开发者社区 | 年度科技创新突破奖

    图片

    在硬核技术开发者聚集的领域,融云也赢得了关键认可。近日,国内领先的大数据与人工智能开发者社区 DataFun 揭晓“星空奖”年度榜单,融云对话 Agent 获评“年度科技创新突破奖”。

    作为行业权威的技术社区,DataFun 设置该榜单旨在表彰具备实质性突破与行业影响力的工程实践。融云此次获奖,核心在于其对话 Agent 实现了从技术到场景的工程化创新落地:通过深度意图识别能力,将 AI 对话转化为可触发业务逻辑、联动外部系统的自动化任务闭环。目前,这一方案已在社交、电商等场景中高效应用,实现了从技术创新到产业价值的转化。

    数字商业生态 | 最具行业影响力品牌

    图片

    在更广阔的商业生态维度中,融云同样展现了深远的品牌影响力,获评 360 智慧商业颁发的“2025 年最具行业影响力品牌”。该奖项重点关注品牌在所属行业内推动进步、建立标准及引领方向的能力。

    融云此次入选,标志着其“全球智能通信云”的专业地位以及“通信+AI”的战略布局,获得了数字商业生态的广泛认同。

    全球化生态 | 智创未来领军人物

    图片

    在全球化生态协作维度,融云 CEO 董晗获评数美科技“星辰奖·智创未来领军人物”。“星辰奖”旨在表彰在 AI 浪潮中通过技术创新驱动行业变革的领航者。
    融云此次获评,彰显了融云与全球化生态伙伴在技术互补与商业共建方面的深度互信,折射出共同推进全球数字化转型的生态力量。
    秉持“赋能千行百业智能化升级”的初衷,融云致力于打造全球化的智能通信云底座。我们正将硬核的技术能力转化为驱动商业模式重塑的工程化力量,协助开发者高效构建智能互动能力,将技术创新转化为实际的业务增长与运营效率。

    B2B 软件研发的难点不在“写完功能”,而在多干系人、强集成、强合规约束下,把不确定性转化为可预测交付。本文以项目风险管理为主线,给出一套可落地的研发项目风险管理闭环:统一标准、结构化风险识别、量化风险评估、工程化风险应对与节奏化监控复盘,并说明如何借助工具把风险登记册、触发器与跟踪动作真正嵌入日常研发系统。

    本文关键结论:

    研发项目风险管理的目标不是消灭不确定性,而是让不确定性“显性化、可度量、可治理”。

    • 项目风险管理闭环至少包括:标准 → 识别 → 评估 → 应对 → 监控 → 复盘与风险库沉淀(并贯穿沟通与记录)。
    • 高风险项目的关键差异在于:把 Top 风险变成里程碑交付,把应对动作嵌入工程系统(流水线门禁、灰度回滚、可观测性)。
    • 用交付指标做领先预警:交付吞吐与不稳定性趋势变化往往比“延期”更早暴露问题(可与持续交付数据联动监控)。

    为什么软件研发项目的风险密度更高

    一句话定义:研发项目风险管理(项目风险管理)就是在研发全生命周期内,持续识别、评估并处置那些会影响交付、质量、合规与商业结果的不确定因素。

    在我观察过的多数交付型团队里,风险之所以频繁“爆雷”,并不是团队不努力,而是不确定性被长期隐形化:需求变了但没有升级决策、接口不稳定却没有“买断未知”、合规介入太晚导致返工吞噬缓冲。

    B2B 场景风险更高,根源来自四个结构性特征:

    1. 验收由多方共同定义:范围漂移是常态,而不是例外。
    2. 集成耦合决定风险传播速度:外部系统/数据口径/权限体系变化会引发链式风险。
    3. 安全与合规是硬约束:一旦触发审计与监管,代价往往以“月”为单位结算。
    4. 交付失败外部性大:延期只是表象,真正损失是客户信任、续费风险与团队救火化。

    一个常见误区是:把风险当成“项目经理的表格”。成熟组织则会把风险当成一种经营变量:它决定交付节奏、资源配置与承诺可信度。实践上,我更倾向于把风险“放进系统”——例如把风险登记册做成可追踪的工作项,能关联需求、任务、缺陷与里程碑,而不是放在一个没人维护的 Excel 里(后面会讲怎么落地)。

    一套可落地的研发项目风险管理闭环

    在方法论层面,风险管理的闭环是共识:从识别、分析/评价到处置与监控,并强调沟通与记录。落到 B2B 软件研发,我建议用“闭环 + 治理 + 工程化”三层视角:
    闭环:风险从发现到处置必须有“输入—处理—输出—复盘”的循环。

    • 治理:红线与资源取舍属于管理层决策域,不是 PM 单点职责。
    • 工程化:最有效的风险应对不是口号,而是嵌入研发系统(流程、流水线、指标、权限与发布机制)。

    下面是一个可直接写进制度的 6 步闭环,并在每一步补上“用工具怎么让它更易执行”。

    1)定义“风险标准”:统一什么叫“高风险/必须升级”

    风险不是“感觉危险”,而是对项目目标产生不确定影响。第一步要建立统一口径,否则跨团队沟通会失真。

    • 目标维度:交付(范围/进度/成本)、质量(缺陷/稳定性)、安全合规、客户价值、商业结果(续费/回款)。
    • 风险偏好与红线:哪些风险必须规避(合规/安全红线),哪些可接受但必须有预案。
    • 升级阈值:例如“影响关键里程碑/关键客户窗口/合规审计”的风险必须进入管理层决策池。
    VP 视角的判断标准:我不会只看甘特图是否漂亮,我更关心“最大不确定性是否被买断,以及买断动作是否在节奏内发生”。

    2)结构化风险识别:用 RBS 把经验变成清单(并沉淀为风险登记册)

    仅靠头脑风暴会遗漏系统性风险。建议用 RBS 分类(需求与商业、技术与架构、交付与质量、安全合规、供应链与组织协同等),形成可复用的“风险词典”。

    建议输出物(强复用):

    • 风险登记册 Risk Register:风险描述、类别、概率P、影响I、暴露值、Owner、应对动作、触发器、残余风险。
    • 不确定性清单 Spike Backlog:所有“未知”必须对应一个“买断动作”,并被排进迭代。

    工具落地(实用型):

    ONES Project 里,你可以把“风险”作为一种工作项(或在项目中建立“风险组件/风险列表”),并通过自定义状态与属性字段把 P/I/暴露值、触发器、Owner 结构化下来,同时与需求、任务、缺陷、迭代关联,风险就不会脱离研发主流程。

    如果你的组织希望把风险词典、评估口径与复盘模板沉淀为知识资产,则可把模板放在 ONES Wiki,并与项目工作项双向关联,降低“制度写了但落不下去”的摩擦。

    3)风险评估:定性排序 + 定量暴露,让取舍可解释

    我推荐“两层评估”,避免走向“精算崇拜”:

    • 定性:概率×影响矩阵,快速锁定 Top 风险(例如 Top 10)。
    • 定量:对 Top 风险做“暴露值(Exposure = P×I)”,I 用人天、窗口、SLA/合规代价、收入影响等表达。
    • 关键点:评估不是为了“分数”,而是为了把讨论从“观点冲突”拉回“数据与取舍”。同时,风险评估必须随项目进展持续更新,尤其在 B2B 场景中风险会“漂移”。

    4)风险应对策略:把风险转成可执行动作(并用触发器驱动升级)

    应对策略可以用四类:规避、缓解、转移、接受。但真正有效的是让动作具备“五要素”:

    • Owner:谁对结果负责。
    • Action:可验证的动作(而不是“加强沟通”)。
    • Due:截止时间(与里程碑绑定)。
    • Trigger:触发条件(出现什么信号就升级/切换预案)。
    • Residual:残余风险(做完后还剩多少,是否可接受)。

    工具落地:

    很多组织在这里卡住的原因是“触发器写了但没人盯”。这类动作适合交给流程自动化:例如当风险暴露值超过阈值、或关键接口变更频率异常时,自动提醒 Owner、增加关注者、推动状态流转、把风险升级到评审队列。ONES Automation 提供基于触发事件/条件的自动化规则、预置模板与运行日志,适合把“制度动作”变成“系统动作”。

    5)风险监控与节奏:风险要“周更”,而不是“结项归档”

    风险会漂移,监控的意义在于让团队更早看到趋势,而不是更晚写总结。对高风险项目,我建议固定一个 30 分钟“短、硬、可决策”的风险例会:

    • 只看 Top 风险是否变化、动作是否完成、是否触发升级。
    • 输出必须是“变更记录”:新增动作、需要支持、风险关闭/升级。
    • 对高风险项目建议同步“风险燃尽图”(暴露值随迭代是否下降),让健康状态一眼可见。

    工具落地:

    在 ONES Project 里,团队通常会用看板、燃尽图等视图掌控迭代进度,并结合报表做进度与质量的可视化跟踪;这些视图对“风险是否在下降”同样有帮助(尤其当风险被结构化为工作项后)。

    如果你要从管理层视角看“多项目/多团队的风险态势与交付表现”,则可以把度量与可视化放到效能分析的统一入口,形成持续的“量化—分析—改进”闭环。

    6)复盘与风险库:把一次次踩坑变成组织资产

    复盘的价值不在总结,而在复用:把风险登记册与处置效果沉淀到组织“风险库/知识库”,形成下一次项目的默认起点。成熟组织的项目风险管理能力,往往体现在“踩坑次数是否随时间下降”。

    工具落地:

    复盘最怕“散落在群聊与个人文档”。把复盘模板、ADR、接口契约、合规清单沉淀到知识库,并与对应风险工作项/缺陷/迭代关联,会显著提升组织记忆。ONES Wiki 支持文档模板、版本控制、权限与全局搜索,并能与项目任务关联,这是把复盘变成资产而不是“情绪释放”的关键。

    研发风险识别清单:常见风险、早期信号、触发器与抓手

    这一节的目标是“拿来即用”:把风险写成“可观察的信号 + 可触发的阈值 + 可执行的抓手”。

    1)需求与商业风险(范围、验收、价值)

    1.范围漂移(Scope Creep):验收口径不清、需求持续追加。

    早期信号:同一需求反复评审仍无法落结论;验收标准缺失;变更请求密度上升。
    触发器示例:连续两周关键需求无完成标准;或变更导致关键里程碑受影响。
    抓手:冻结窗口 + 变更控制(CCB/Steering Committee);把验收拆成可验证 E2E 场景用例。

    2.价值错配:功能交付不少,但客户关键路径未跑通。

    • 早期信号:演示反馈“看起来都有,但业务走不通”;UAT 长期停留在局部模块。
    • 抓手:用“场景验收”替代“模块验收”,让关键用户参与验收链路。

    2)技术与架构风险(集成、依赖、债务)

    1.集成不确定性:外部系统接口、权限、数据口径不稳定。

    • 早期信号:联调环境不稳定;接口频繁变更;数据定义口径多版本并存。
    • 触发器示例:接口变更超过约定频率;联调阻塞超过约定时长。
    • 抓手:集成 Spike 前置;契约测试;联调 SLA 与升级通道。

    2.架构债务外溢:临时方案堆叠导致稳定性问题。

    • 早期信号:线上问题集中在同一模块;变更风险上升;回归成本持续增大。
    • 抓手:ADR + 架构守门;关键改动必须评审并评估残余风险。

    3)交付与质量风险(测试、发布、稳定性)

    1.测试不足导致返工:回归成本在中后期指数级上升。

    • 早期信号:缺陷在后期集中爆发;回归周期拉长;线上热修频繁。
    • 抓手:自动化测试分层 + 流水线质量门禁;把“不可回归”定义为发布阻断项。

    2.发布与变更失控:上线后故障频发,团队救火化。

    • 早期信号:变更影响范围难评估;监控与告警缺失;回滚不可用。
    • 抓手:灰度/回滚/特性开关;发布检查清单;上线前演练(含回滚演练)。

    小提示:如果你们已经在 ONES Project 里做缺陷与迭代管理,那么把“风险”工作项与缺陷/迭代关联起来,会让风险识别从“会议纪要”变为“可追踪链路”。

    4) 安全合规与供应链风险(红线、审计、第三方)

    1.合规迟到:等保、审计、隐私评估在中后期才介入。

    • 早期信号:法务/安全“只在最后签字”;验收条款含糊。
    • 抓手:安全与法务左移;把数据分级、威胁建模纳入需求与架构评审。

    2.第三方依赖风险:开源漏洞、供应商交付延误。

    • 早期信号:关键依赖无替代方案;组件版本长期不更新。
    • 抓手:SBOM/漏洞扫描;供应商里程碑化与违约约束。
    • 风险评估:把排序变成资源取舍语言

    评估不是为了“更复杂的表格”,而是为了回答一个管理层最关心的问题:在资源有限的情况下,我们应优先买断哪些不确定性,才能让承诺可信?

    1. 风险矩阵:统一概率/影响,形成红黄绿决策语义

    • 红:必须升级决策(范围、里程碑、资源、方案)。
    • 黄:必须有 Owner 与预案,纳入周节奏跟踪。
    • 绿:记录即可,避免噪声干扰。

    2. 风险暴露值与情景推演:把风险翻译成“成本/窗口/合规代价”

    对 Top 风险做情景推演:若发生,会影响多少人天?是否冲击关键窗口?是否触发合规审计?这类“可被决策”的表达,往往比单纯的风险描述更有力量。

    风险应对让项目风险管理可复制

    1. 四类策略:规避/缓解/转移/接受(并管理残余风险)

    四类策略的关键不是名称,而是是否能落到“动作与机制”。当风险进入红区,你真正需要的是:可执行、可追踪、可复盘。

    2. 三张清单:把“风险应对”嵌入研发系统

    • Spike Backlog(买断不确定性):所有未知必须进入迭代。
    • Pipeline Gates(质量门禁):把风险控制变成系统规则。
    • Release Checklist(上线准备):灰度、回滚、监控、告警、应急联系人齐备。

    工具落地:

    ONES Project 支持需求/任务/缺陷/迭代等全流程管理,并提供看板、燃尽图与报表;当风险应对动作被写成工作项并进入迭代,它就能自然进入团队的日常节奏,而不是“只存在于会议纪要”。

    另外,ONES Project 提到可结合 Code Integration 与 Pipeline Integration 在项目内监控持续集成与部署相关数据,这对“把交付风险前置”为监控信号很有帮助(尤其在发布频繁的团队)。

    案例与洞察:从“救火式交付”回到“可预测推进”

    我经历过一个典型集团客户项目:在既有 ERP 与身份体系之上建设统一权限与审计平台,并满足严格审计与合规验收。

    中期出现三类高风险信号:

    • 接口与数据口径频繁变更(集成不确定性);
    • 审计条款逐步细化且持续追加(合规迟到);
    • 临时方案越来越多,线上问题开始集中(架构债务外溢)。

    转折点不是“加班”,而是三项治理与工程化组合拳:

    • 把 Top 风险变成里程碑交付:先交付“可审计的最小闭环”,把合规买断前置。
    • 建立触发器驱动的升级机制:接口变更超过约定频率就触发升级评审,必要时冻结联调窗口。
    • 把风险控制嵌入系统:契约测试、灰度与回滚演练进入 DoD。

    在工具层面,我们更愿意把这些机制“固化”为团队习惯:风险登记册与应对动作作为工作项进入迭代;对触发器类事项用自动化规则做提醒与升级;复盘材料进入知识库并与风险/缺陷关联。这样做的收益不是“形式更好看”,而是下一次项目启动时,组织记忆真正可复用。

    项目风险管理的终点,是研发韧性与数字化领导力

    如果你是 CTO、研发负责人或 PMO 负责人,我建议用三个层次理解研发项目风险管理(项目风险管理):

    1.方法层:闭环治理
    标准、识别、评估、应对、监控、复盘,让风险管理成为持续循环。

    2.工程层:系统化前移
    把应对动作嵌入研发系统与交付链路:门禁、回滚、可观测性、自动化提醒。ONES Project 的全流程工作项管理与报表视图、以及与流水线数据的联动,天然适合承载这些“工程化动作”。

    3.战略层:承诺可信与组织韧性
    风险管理不是保守,而是让组织在不确定中仍能稳定兑现承诺——这本质上是数字化领导力:敢承诺、会取舍、能复用、可持续。

    当外部变化更快、客户诉求更复杂时,真正稀缺的是“持续交付能力”。而持续交付能力背后,靠的不是口号,而是一套能穿透组织、落到系统的项目风险管理能力。

    附录A:一页模板(落地版)

    • 风险登记册(Risk Register)字段建议
    • 风险ID / 类别(需求、技术、质量、合规、供应链…)
    • 风险描述(用“如果…将导致…”句式)
    • 影响目标(范围/进度/成本/质量/合规/商业结果)
    • 概率P(15)/ 影响I(15)/ 暴露值E=P×I
    • 早期信号(可观察)/ 触发器(阈值)
    • Owner / 需要支持的角色
    • 应对策略与具体 Action/Due
    • 残余风险与升级路径

    很多人第一次接触智能体,都会问同一个问题:
    “它是不是比以前的 AI 更聪明了?”

    但用过一段时间后你会发现,智能体真正厉害的地方,​并不是它更聪明,而是它开始做事了​。


    一、过去的 AI,停在“回答问题”这一步

    不管是搜索引擎还是聊天 AI,它们的共同点都是:

    你问一句,它答一句。

    即使回答得很好,事情还是要你自己去完成。
    查完资料还要整理,写完段落还要排版,想好方案还要执行。

    AI 只参与了“思考”,没参与“行动”。


    二、智能体的变化,是让 AI 参与整个过程

    智能体的出现,把 AI 从“回答者”变成了“执行者”。

    你只需要给目标,它就会:

    • 拆解步骤
    • 调用工具
    • 执行动作
    • 检查结果
    • 继续修正

    直到任务完成。

    这不是更聪明,而是​更完整​。


    三、智能体最先改变的,是普通人的效率

    对于普通人来说,智能体带来的不是能力飞跃,而是:

    • 减少重复操作
    • 降低精力消耗
    • 稳定产出节奏

    你不再被“流程”拖住,而是只需要关注“结果”。


    四、当执行被接管,人的角色会自然上移

    当智能体负责执行,人最自然的变化就是:

    • 不再纠结怎么做
    • 更关注做什么
    • 更关注是否值得做

    这会让人的角色,从执行者,变成决策者。


    五、智能体真正的价值,是让工作更接近“指挥”

    过去你在工作中,既要指挥,也要亲自干活。

    智能体出现后,你开始只负责指挥,执行交给系统。
    这种转变,会慢慢改变你的工作方式、时间分配和思考习惯。


    结语

    智能体不会替代人,但会替代大量低价值的执行工作。

    当你开始习惯把“做事”交给智能体,把“判断”留给自己,
    你会发现,工作的重心已经悄悄改变了。

    过去一年,越来越多的人开始频繁听到“智能体”这个词。

    它最早出现在技术圈,但现在,很多非技术用户也开始在日常工作中使用智能体,来整理信息、完成重复任务、协助思考。这种变化,正在悄悄发生。


    一、智能体不是聊天工具,而是执行系统

    很多人第一次接触智能体时,会把它当成更聪明的 AI 聊天工具。

    但真正用过之后会发现,智能体和普通 AI 最大的不同,不在于回答得多聪明,而在于它能​连续完成一整件事​。

    你只需要给出一个目标,智能体就会拆解步骤、调用工具、执行任务、检查结果,直到完成为止。这种能力,让它从“助手”变成了“执行者”。


    二、智能体最先改变的,是大量低价值工作

    在大多数人的工作中,有一类事情既不复杂,也不重要,但却非常耗时间,例如:

    • 信息搜索与整理
    • 内容初稿生成
    • 报告结构搭建
    • 重复修改与格式调整
    • 日常资料汇总

    这些工作长期占据时间,却很难体现个人价值。智能体的出现,正好接管了这些流程,让人把精力重新放在判断、决策与创造上。


    三、使用智能体的人,正在改变工作结构

    一些已经开始使用智能体的人,会发现自己的工作方式发生了变化:

    • 从“自己做每一步”,变成“给出目标”
    • 从“重复执行”,变成“检查结果”
    • 从“操作型工作”,转向“决策型工作”

    智能体并没有替代人,而是重新分配了人的角色。


    四、智能体降低了完成复杂任务的门槛

    过去,研究、分析、写作、整理等工作,往往需要较长时间的经验积累。现在,这些流程中的大量步骤可以被智能体接管,普通人只需清楚目标、判断结果,就能完成原本难以完成的事情。

    这种门槛的下降,让更多人拥有了“完成复杂工作的能力”。


    五、真正的变化,是工作方式而不是工具

    从工具到系统,是智能体与传统 AI 的最大区别。

    当人开始把执行交给智能体,把判断留给自己,工作方式本身就发生了变化。这种变化,比任何单一工具都更深远。


    结语

    智能体的出现,不是一种颠覆,而是一种渐进式的改变。

    它正在让普通人从大量低价值工作中解放出来,让时间重新回到思考、判断与创造上。

    这种变化,已经开始发生。

    过去几周,我对于 Vibe Engineering 的实践有了更多的体会, 今天再次总结一下。其实也能看出来我避免使用 Vibe Coding 这个词,是因为当下的重点已经不再是代码,而是一些更高维度的东西。另外,本文的 AI 含量我会尽量控制在 5% 内,可以放心阅读😄。

    之前我提到的我开始的 TiDB Postgres 重写项目已经不再在是个玩具。在前几天出差的路上, 因为长途飞行没有网络, 我仔细 review 了一下这个项目的代码, 虽然一些地方略有瑕疵, 但是总体质量已经很高, 我认为已经是接近生产水平的 rust 代码,和以前我理解中的早期原型的定义很不一样。

    顺便提一句, 我认为这个项目从一开始就选择 rust 是一个无比正确的决定, rust 的严谨性让 AI 能写出更接近 bug free 的 infra code (对比我另一个项目 agfs 的 shell 和它自带的脚本语言 ascript,由于这项目使用 python,项目变大后,可维护性就大大降低,但此时重写已经很困难,只能捏着鼻子慢慢重构),所以现在已经是 2026 年了, 如果你要再启动一个新的 backend infra 项目, rust 应该是你的第一选择。

    验证差不多后,我也邀请了几位我团队内的几个顶尖的 vibe coder 加入项目, 看看 100% 的 AI Native 研发模式能在多快把这个项目推进到何种程度,无论如何都很想看看,应该会很有意思。

    下面说说自己最近的一些感受。

    当前关于 Vibe Engineering 的所有的认知都会在 1 个月内严重过时

    并非危言耸听,哪怕我正在写的这篇文章,如果你是 2026 年 2 月看到,那么很遗憾,本文聊到的东西很可能已经过时,这个领域发展的太快,很多今天的 SOTA 也许下个月就过时了。而且很有意思,过去很多对 Vibe Coding 嗤之以鼻的大佬,例如 DHH,Linus,Antirez 等,在 2025.12 月开始纷纷改口,我觉得这是相当正常的,去年 12 月开始,AI 编程工具和头部的模型突然有一个跳跃式的进步,突然对于复杂任务和大型项目的理解,以及写出代码的正确率有了极大的提升。这进步大概来自于两个方面:

    一方面头部模型在长上下文(>256K) 的支持,尤其是关键信息的召回率提升惊人

    例如上面是 GPT-5.2 在长上下文的召回表现和 GPT-5.1 对比很明显,要知道对于 Agent Coding 的场景来说,通常是多轮次推理 + 长上下文(因为要放更多的代码和中间推理结果)才能更好的有大局观,大局观的正确是对于复杂项目起到决定性因素。在这种场景下,你可以做一个简单的计算,一个模型(类似 GPT-5.1) 每轮的召回率 50%,大概 3 轮后,正确的召回率就会降低到 12.5%, 而 GPT-5.2 仍然能保持 70% 以上。

    另外一个进步是主流的 Vibe Coding 工具的 Context Engineer 实践日益成熟,例如 Claude Code / Codex / OpenCode。从用户体验到最佳实践,肉眼可见的越来越好,例如对于 Bash 的使用,Subagent 等,这方面越来越多的资深 Engineer 的重度使用和经验分享会对这些工具的进化提供数据飞轮,尤其是 AI 也在深度的开发这些工具,迭代速度只会更快。

    其实这个进步也并不是去年 12 月那个时间点的突然什么黑科技爆发,其实前几个月一直在进步,不过还不能长时间离开人工干预,更像是那个时间点,主流 Coding Agent 的质量超过了一个临界点:100% 的无人工干预下完成长时间的 Agentic Loop 成为可能。

    Hire the best (model),否则就是在浪费生命

    上面所有提到的进步,我个人感觉只反映在了最顶尖的闭源头部模型中。我听到很多朋友和我反馈到:“我感觉 AI 编程还是很傻啊?并没有你提到那么聪明”,我首先会反问,你是不是只是用着 $20 一个月那种入门模型?如果是的话,那先去用一阵 $200 以上的 Pro Max 档次的,也许有惊喜。

    我个人认为,目前主流的模型,即使并非头部那档,作为 chatbot 处理大多数普通人的短上下文的日常工作是完全足够的,哪怕是 GPT-4 在和你讲人生道理的时候也已经足够把你说得一愣一愣了。

    作为人来说,我们的直觉或者是一些简单的 CRUD Demo 已经无法评估这些模型之间的智商差距了。但是在复杂的项目的开发中,这个差距是极端明显的。

    根据我个人的实践来说,当下能用来进行大型 Infra 项目(数据库,操作系统,编译器等)开发的模型大概就两个:GPT-5.2 (xhigh) + Opus 4.5,还有半个算是 Gemini 3 Pro。

    大概上个月我主要用着 opencode + oh-my-opencode + Opus 4.5 但是最近两周转向到了 codex + gpt-5.2 的组合,下面分析一下这几个模型的一些脾气和调性,仅仅是个人感受,而且是在后端 Infra 软件开发这个领域,仅供参考。

    Opus 4.5 的风格是速度很快,是个话唠,由于 Sonnet 4 有严重 reward hacking 问题,例如是在解决不了 bug 的时候会偷偷的构造作弊的测试然后糊弄过去,所以导致很长一段时间我都不太敢用 Sonnet 系列模型干复杂的事情,但是这点在 Opus 4.5 中解决得很好,即使在模型冥思苦各种尝试想都搞不定的情况下也没有选择作弊,让我放心不少,但是 Opus 的问题是 reasoning 和做 investigation 的时间太少,动手太快,以至于发现不对的时候,又返回头确认假设和研究,这样的特性催生了像 ralph-loop 这样的奇技淫巧。比方说,同样的一个 prompt 在 Claude Code 结束后又通过 stop hook 重新调用,再完整走一遍流程,不断地逼近最终的结果。

    相比之下,GPT-5.2 更像是一个更加小心谨慎、话不多的角色。我最开始用 Codex 的体验其实不算太好,因为我一直觉得它有点太慢了。主要是因为我习惯用它的 xhigh 深度思考模式,在真正开始写代码之前,它会花很长时间去浏览项目里的各种文件和文档,做很多准备工作。可能也是因为 Codex 的客户端不会告诉你它的计划和大概需要多久,所以就显得过程特别长。

    有时候一些复杂的任务,它前期的调查可能就要花上一到两个小时。但是经过长时间思考后它完成的效果通常是更好的,尤其是在一个项目的大体框架已经稳定,Codex 考虑得更周全,最终也体现出更少的 bug 和更好的稳定性。

    对于第三个顶级模型,也就是 Gemini 3 Pro。虽然我也知道它的多模态能力非常吸引人,但就复杂任务的 Coding 场景而言,至少从我个人的体验来看,它的表现并没有 Opus 4.5 和 GPT-5.2 那么强。不过它确实针对一些快速的前端项目 Demo 和原型制作做了一些优化,再加上它的 Playground 模式,让你在需要一些炫酷的小 Demo 或前端项目时能更快实现。

    其实一个比较反直觉的事情是,过去我们经常说 Vibe Coding 只能搞一些比较简单的事情,比如上面那些小 Demo 或 CRUD 项目,你会看到网上各种各样的 KOL 其实都在做这种小原型,反而大家觉得对于一些像后端这种核心的基础设施代码,当前 AI 还是搞不定的。我以前也这么想,但从去年 12 月份开始,这个结论可能需要修正了。

    这里面的原因是,其实这类基础设施的代码通常是由顶级工程师长期精雕细琢而成,它们有清晰的抽象、良好的测试,甚至代码本身经过多轮重构后也相当精炼。所以当 AI 具备足够的上下文空间 + 更好的推理能力 + 更成熟的 Agentic Loop + 高效的工具调用时,这类 Infra 代码的开发和维护反而是能最有效地利用这些顶尖大模型的智商的场景。

    在实际的工作中,我经常会让多个 Agent 互相协作,或者使用一些复杂的工作流来把它们编排在一起,并不会让一个模型来完成所有的事情。后面我会再分享一些我自己实践中的具体例子。

    人在什么时候进入?扮演什么角色?

    上面提到了,这些顶级模型再配合主流的 Vibe Coding 工具,基本上已经能超越大多数资深工程师的水平了。这不仅体现在能写出更少 bug 的代码,也体现在在 review 中能发现更多人类工程师可能看不到的问题,毕竟 AI 真的会一行一行仔细看。

    所以人在这个过程中扮演什么样的角色,哪些阶段只有人才能做?根据我自己的实践来说,第一当然是提出需求,毕竟只有你才知道你想要啥,这很显然,但是有时确实也挺难的,毕竟人很难从一开始就准确描述自己想要什么,这时候我会用一个偷懒的办法:让 AI 来角色扮演,比方说,我在开发 PostgreSQL 版本的 TiDB 时,我就让 AI 假设自己是一个资深的 Postgres 用户,从开发者的视角告诉我有哪些特性是非常重要、一定要实现而且 ROI 比较高的,让它列出 N 个这样的功能点,然后 AI 就会根据它的理解生成一个需求列表,接下来你再和 AI 对这些需求逐个打磨,这其实是一个高效冷启动的方法。

    第二是在需求提出后,现在的 Coding Agent 大多都会和你有一个规划阶段(Planning),会反复确认你的需求。在这个过程中其实有一些技巧,比如不要给 AI 太具体的方案,而是让 AI 来生成方案,你只需要关注最终你想要的结果;提前告诉 AI 有哪些基础设施和环境的问题,让它少走弯路。

    另外,我通常会在提出需求的第一阶段就要求 Agent 做的一些关键动作。比如无论接下来做什么,都要把计划和 todo 列表放在一个 work.md 或 todo.md 这类文件里。还有,每完成一个阶段的工作,就把上一阶段的经验教训更新到 agents.md 里。第三点是当一个计划完成并且代码合并后,把这个工作的设计文档添加到项目的知识库中(.codex/knowledge)。这些都是我会在一开始提需求时就放进去的内容。

    第二个阶段就是漫长的调查、研究和分析的阶段。这个阶段其实基本上不需要人做什么事情,而且 Agent 的效率比人高得多,你只需要等着就好。唯一需要注意的就是在 Research 的过程中,我通常会告诉模型它拥有无限的预算和时间,尽可能充分地进行调研。另外,如果你的模型有推理深度的参数的话,我建议在这个阶段把它们全部调到 xhigh 的级别。虽然这会让过程变慢,但在这个阶段多烧一些 token、做好更好的规划、了解更多上下文,对后续的实现阶段会更有帮助。

    实现阶段没什么特别好说的,反正我现在基本不会一行行去看 AI 的代码。我觉得在实现阶段唯一要注意的就是,要么你就让 AI 完全去做,要么你就完全自己做,千万别混着来,我目前是倾向于完全零人工干预的模式效果更好。

    第四个阶段人就变得非常重要了,那就是测试和验收结果的阶段。其实在我个人和 AI 开发项目的过程中,我 90% 的时间和精力都花在了这个阶段:也就是如何评估 AI 的工作成果,我觉得在 Vibe Coding 时:There's a test, there's a feature,你只要知道如何评估和测试你要的东西,AI 就一定能把东西给你做出来。另外值得注意的是,AI 在实现过程中会自动帮你添加很多单元测试,但说实话,这些单元测试在微观层面基本都能通过,毕竟 AI 写这种局部代码时已经很难出 bug。

    但 AI 不擅长的是集成测试、端到端测试。比如在开发一个 SQL 数据库时,哪怕每个细节的单元测试都没问题,但整合到一起时集成测试可能会出错。所以我在完成大目标前,我一定会先和 AI 一起做一个方便的集成测试框架,并提前准备好测试的基础设施,收集和生成一些现成集成测试的用例,尽量一键能运行那种,这样在开发阶段就能事半功倍,而且关于如何使用这些测试的基础设施的信息,我都会在正式开始前就固化在 agents.md 里,这样就不用每次沟通的时候都再告诉它该怎么测试了。

    关于测试从哪来的问题,我自己的经验是你可以让 AI 帮你生成,但一定要告诉它一些生成的逻辑,标准和目的,另外就是千万不要把生成测试的 Context 和实际进行开发工作的 Agent 的 Context 混在一起。

    第五个阶段是重构和拆分。我发现当前的 Coding Agent 在面对单一模块复杂度超过大约 5 万行代码之后,就开始很难在 1-shot 里把问题一次性解决掉(但反过来这也意味着,只要任务复杂度控制在这个阈值之下,在一个足够好的 first prompt 驱动下,很多事情确实可以做到 1-shot AC),Agent 通常不会主动去做项目结构和模块边界的治理,你要它把功能做出来,它恨不得把所有东西都写进几个几万行的大文件里,短期看似很快,长期就是债务爆炸。我自己在这个阶段的做法通常是先停下来,用自己的经验进行模块拆分,然后在新的架构下进行 1~2 轮的重构,之后又可以高并发度的进行开发了。

    多 Agent 协同编程的一些实践

    前面提到我现在使用 Coding Agent 的时候,通常不会只用一个,我自己的工作流会尽量让多个 Coding Agent 同时工作。这也是为什么有时候在一些项目上会花掉好几千美金,因为你必须把并发跑起来。当然,并发和吞吐是一方面,但另一方面我觉得让不同的 Agent 在不共享上下文的前提下互相 Review 工作,其实能显著提高质量。

    这就像在管理研发团队时,你不会让同一个人既当运动员又当裁判。相当于 Agent A 写的代码交给 Agent B 来 Review,往往能发现一些 A 看不到的问题。通过这样的循环往复,你就会更有信心。

    例如,我在实际工作中现在用得比较好的一个工作流是这样的:首先让 GPT-5.2 在 Codex 下生成多个功能的设计文档,做出详细的设计和规划,第一阶段把这些规划文档都保存下来。然后在第二阶段,依然用 Codex 根据这些需求文档一个一个去实现功能。在实现的过程中,就像我前面提到的那样,记录 To-Do、经验教训,并在接近完成的时候,在代码通过测试并准备提交之前停下,把当前的工作区交给另一个 ClaudeCode 或 OpenCode,在不提供上下文的情况下,让 ClaudeCode 来 Review 当前还未提交的代码,根据设计提出修改建议。然后再把这些建议发回给 Codex,让 Codex 来评论这些建议,如果有道理就修改代码。改完之后,再让 ClaudeCode (Opus 4.5) 那边再次 Review,直到双方都觉得代码已经写得很不错了,再提交到 Git 上,标记这个任务完成,更新知识库,然后进入下一个功能的开发。

    另外在一个大型项目中我会同时开多个 Agent (in different Tmux) 并行开发多个功能,但我尽量让它们负责完全不同的模块。比如一个 Agent 修改内核代码,另一个 Agent 做前端界面,这样就能分开进行,如果你需要在一份代码上做一些彼此不太相关的工作时,可以利用 git 的 worktree 让多个 Agent 在不同的 git 分支上各自工作,这样也能快速提升吞吐量。

    未来的软件公司和组织形态

    未来的软件公司会是什么形态呢?反正从我自己的实践和与一些朋友的交流来看,至少在当下,团队中用 Coding Agent 的 token 的消耗呈现出一个非常符合二八定律的分布,也就是说,最头部的用 AI 用得最好的工程师,他们消耗的 token 可能比剩下 80% 的工程师加起来还要多,而且 Coding Agent 对于不同工程师产出(质量,吞吐)的增益是不一样的,这个方差非常大,也就是对于用的最好的一群人,他们的增幅可能是 10x,但是普通人可能也就是 10%,而且唯一的瓶颈是人工的 code review 和一些无法被自动化的线上运维工作(我觉得也很快了)而且这样的特点能够让这些头部的工程师在 AI 的协助下可以无边界的工作,也就是会有越来越多的 one-man army 出现,只是目前我认为和 token 消耗是正相关的,你能花掉多少 token,大致代表你能做得多好。

    另外我发现一个很有趣的现象,同样是 10x 的工程师,他们各自的 Vibe Coding 工作流和最佳实践其实并不相同。也就意味着,两个顶尖的 Vibe Coder 是很难在一个项目中(的同一个模块)协作。这种工作方式更像是头狼带着一群狼群(Agents),在一片自己的领地里面耕耘,但是同一片领地里很难容纳两匹头狼,会造成 1+1 < 2。

    在这样的组织形态下,我觉得传统意义上的“团队协作方式”会被重新定义。过去我们强调的是多人在同一个代码库、同一个模块里高频协作,通过评审、讨论、同步来达成共识;但在 Vibe Engineering 这种模式下,更有效的方式反而可能是强解耦的并行。管理者要做的是把问题切分成足够清晰、边界明确的“领地”,让每一个头部工程师带着自己的 Agent 群,在各自的领域里做到极致。

    从管理的角度看,这其实是一个挺大的挑战。因为你不能再用统一流程、统一节奏去约束所有人。对顶尖的 Vibe Coder 来说,过多的流程和同步反而会显著拉低效率,甚至抵消 AI 带来的增益。管理者更像是在做“资源调度”和“冲突隔离”:确保不同头狼之间尽量少互相干扰,同时在必要的时候,能够通过清晰的接口、契约和测试来完成协作。

    因为上面的种种,AI-Native 的研发组织其实很难自底向上从一个非 AI-Native 的组织中生长出来,因为大多数开发者面对变革的时候的第一反应其实并不是拥抱,而是回避和抵触,但是时代的进步不会因为个人的意志转移,只有主动拥抱和被动拥抱的区别。

    大概就写到这里吧,总的来说,在这样一个大环境下,对个人而言意味着一场深刻的转变,就像我之前在朋友圈里提到的,我身边最好的工程师们有一些已经陷入了或多或少的存在主义危机。

    但是作为具体的 Builder 的我来说是兴奋的,因为造物,在当下,门槛变低了许多,如果你能从造物中能获得成就感和找到人生的意义,那恭喜你,你活在一个最好的时代。但反过来,作为一个抽象的 “人” 来说,我又是悲观的,人类是否准备好面对这样的工具?以及这样工具带来的对于社会和整个人类文明的冲击?

    我不知道。

    近年来,随着AI大模型、传感器技术和机器人硬件的进步,具身智能(Embodied AI)逐步从理论探索迈向实际部署。2025年后,行业进入“生态构建”关键期,企业与政府开始联合推进标准化、平台化和开放化发展 。2026年被视为具身智能实现多场景渗透与产业闭环验证的重要节点。OpenAtom openKylin(简称“openKylin”)社区作为以技术创新为目标的根社区也已经着眼布局此领域。

    在 Community SIG 的协调组织下,openKylin 社区 ROS SIG、OpenLoong SIG、RISC-V SIG、Release SIG 四大 SIG 凝心聚力、分工协作,正式启动 RISC-V 架构具身智能人形机器人适配计划,此次计划填补了社区在具身智能人行机器人领域的生态空白。
    联合SIG工作计划
    01openKylin适配运行
    在2026年2月上旬,基于openKylin桌面版本完成ros2 jazzy core/base/desktop 在超睿物理硬件平台上的可运行验证。确保核心包可以正常安装卸载,模拟程序(如 turtlesim)可以正常运行。
    02测试验证ROS软件包
    在2026年3月中旬,开始基于机器人真机和openKylin系统测试验证 ROS 软件包。并在3月下旬基于人形机器人进行功能演示。
    03贡献ROS代码和补丁
    完成所有功能测试和演示后按照社区规范向 openKylin 社区贡献 ROS相关代码和补丁。目前该计划聚集上海苦芽科技有限公司、先进计算与关键软件海河实验室、麒麟软件有限公司、OpenLoong社区、超睿科技(上海)有限公司。

    openKylin社区也欢迎更多对此计划感兴趣的组织加入,共同推动RISC-V架构具身智能人形机器人的生态繁荣!

    AI重构汽车制造业——从“制造”到“智造”的范式跃迁
    工业AI正在深刻改变汽车制造业的面貌,推动行业从传统的“中国制造”向“中国智造”迈进。这种变革不仅仅是技术层面的进步,更是整个产业生态的重构。在研发设计阶段,AI大模型的应用使得车辆设计从概念到落地的时间大幅缩短。例如,造型设计、仿真建模、工艺规划等环节,通过AI的深度学习和推理能力,可以快速生成优化方案,减少对传统经验的依赖。
    在生产制造环节,工业AI的深度应用则体现在对生产流程的实时监控和优化上。传统制造中,生产过程往往依赖人工经验,而工业AI通过数据驱动的方式,能够动态调整工艺参数,提升生产效率和质量控制水平。
    政策与技术双轮驱动——中国车企的AI突围之路
    在工业AI与汽车制造业深度融合的背景下,政策的支持无疑为企业提供了重要的方向指引。2026年,工业和信息化部等八部门联合印发的《“人工智能+制造”专项行动实施意见》,明确提出要培育3-5个工业通用大模型、打造100个高质量工业数据集,并推广500个典型AI应用场景。这一政策不仅为汽车制造业的AI转型提供了明确的目标,也为企业之间的合作与创新创造了有利条件。
    中国车企在政策的引导下,正积极探索AI技术的落地应用。例如,吉利集团通过整合旗下品牌(包括吉利汽车、极氪、领克等),构建了覆盖全业务流程的AI智能体矩阵。这些智能体不仅能够辅助生产调度,还能优化供应链管理,甚至在售后服务中提供智能化支持。在某整车基地,这套系统成功将新车型投产周期缩短了30%,缺陷识别准确率提升了40%。
    与此同时,其他车企也在AI领域取得了显著进展。比亚迪自研的“天神之眼”高阶智驾系统,通过引入端到端大模型,实现了复杂路况下的智能驾驶决策。
    工业AI的实际案例——多家企业的实践
    工业AI在汽车制造业的应用不仅停留在理论层面,更在多个企业中取得了实际成效。以广域铭岛为例,该公司凭借其完备的工业AI+解决方案,成功助力多家工厂实现智能化升级。例如,在衢州极电三电智能制造工厂,广域铭岛的QAL质量分析平台将全工序97项容量相关参数进行全面排查,有效解决了以往依赖人工手动追溯导致的低效问题。
    东风汽车通过与华为的合作,将AI技术深度集成到其生产线中,实现了生产过程的实时监控和优化。
    广汽集团则借助其在智能驾驶领域的积累,推出了多款搭载L3级自动驾驶技术的车型,标志着中国车企在智能化领域的领先地位。


    前言
    最近 Anthropic 发布的 claudecode (Claude CLI) 很火,用来写代码确实舒服。但很多佬友(包括我)手里不仅有 Claude 的 Key,还有 GLM-4、Minimax 或者 DeepSeek 的 Key(配合 OneAPI/NewAPI 食用)。

    之前为了切换模型,每次都要在终端敲一大串环境变量:
    ANTHROPIC_BASE_URL=... ANTHROPIC_API_KEY=... claudecode
    或者来回改全局配置,既不优雅,终端历史也乱糟糟的。

    研究了一下 claudecode --help,发现了一个被低估的参数 --settings,配合 Alias 可以完美实现 “多进程、多模型、配置隔离”

    下面分享一下这个优雅的解决方案。


    核心思路

    利用 --settings <path> 参数加载独立的配置文件,不再依赖全局的 ~/.claude/config.json。然后通过 Shell Alias 封装命令,实现一行指令启动特定模型。

    步骤一:创建 Profile 配置文件

    建议在 ~/.claude/ 下建个 profiles 文件夹,专门放不同厂商的配置。

    1. 创建 GLM 配置文件
    mkdir -p ~/.claude/profiles
    nano ~/.claude/profiles/glm.json

    写入以下内容(注意替换你的 Key 和转发地址):

    { "env": { "ANTHROPIC_BASE_URL": "https://你的OneAPI地址/v1", "ANTHROPIC_API_KEY": "sk-你的GLM渠道Key", "ANTHROPIC_DEFAULT_SONNET_MODEL": "glm-4" }, "permission-mode": "bypassPermissions", "auto-updater": false } 

    重点参数解析:

    • ANTHROPIC_DEFAULT_SONNET_MODEL: 这是关键! claudecode 默认死磕 Sonnet 模型。通过这个变量,我们可以 “欺骗” CLI,让它把原本发给 Sonnet 的请求,强制指向 glm-4(或你 OneAPI 里映射的名字)。
    • permission-mode: 这里可以直接预设权限模式,比如 bypassPermissions (全自动) 或 ask (询问)。

    2. 创建 Minimax 配置文件
    nano ~/.claude/profiles/minimax.json

    { "env": { "ANTHROPIC_BASE_URL": "https://你的OneAPI地址/v1", "ANTHROPIC_API_KEY": "sk-你的Minimax渠道Key", "ANTHROPIC_DEFAULT_SONNET_MODEL": "minimax-v2-01" } } 


    步骤二:配置 Shell Alias

    打开你的 Shell 配置文件(.zshrc.bashrc),加入别名:

    # Claude - GLM4 alias claude-glm='claude --settings ~/.claude/profiles/glm.json' # Claude - Minimax alias claude-mini='claude --settings ~/.claude/profiles/minimax.json' # Claude - 狂暴模式 (带参数预设) alias claude-god='claude --settings ~/.claude/profiles/glm.json --dangerously-skip-permissions --verbose' 

    保存后记得 source ~/.zshrc 生效。


    步骤三:实际使用与参数覆盖

    现在,你可以丝滑地开启多个终端,并发操作不同模型了。

    1. 基础用法
    直接启动,自动加载 GLM 配置:

    claude-glm
    
    

    2. 混合参数用法(最强之处)
    Alias 本质是文本替换,所以你依然可以在命令后面追加任何官方原生参数,且优先级 高于 配置文件。

    比如,虽然 glm.json 里配置了自动通过权限,但我这次操作比较敏感,想手动确认,且想指定 Session ID:

    claude-glm "帮我检查下这个代码" --permission-mode ask --session-id 1234-5678
    
    

    系统实际执行的是:
    claude --settings .../glm.json "帮我..." --permission-mode ask ...


    总结

    这个方案的优势:

    1. 环境隔离:GLM 和 Minimax 的 History、Session Token 互不干扰。
    2. 安全:API Key 不会明文暴露在 Shell History 里,而是藏在 JSON 文件中。
    3. 灵活:想用什么模型 claude-xxx 一键启动,甚至可以针对同一个模型做 “保守版” 和 “激进版” 两套配置。

    希望能帮到大家,Happy Hacking!


    📌 转载信息
    原作者:
    cdxiadong
    转载时间:
    2026/1/20 18:10:11

    在近期举行的第五届 AIGC 开发者大会上,上海嘉唐科技发布了名为“算力供应链服务平台”的全栈式解决方案。该平台以“生态共建,供需协同”为理念,围绕算力交易、金融配套、资产管理及算电协同等维度展开设计,旨在应对当前算力行业存在的价格透明度低、流程不规范、服务缺乏标准化及供需匹配效率不高等问题,致力于为构建全国算力服务统一市场提供技术支持。

    当前,算力作为数字经济发展的重要基础设施,已成为衡量新质生产力的关键指标之一。

    据统计,近五年来我国算力产业规模年均增速超过 30%,但与此同时,行业仍面临资源结构性失衡、整合程度不足等制约高质量发展的挑战。为此,市场上陆续出现多种服务模式探索。

    嘉唐科技此次推出的平台整合了撮合与直营等模式,尝试在供需对接、资源保障、产业链协同及能耗优化等方面提供系统性支持,其中算电协同方案通过引入绿电直供等方式,尝试推动算力行业能耗成本优化与绿色化转型。

    从平台架构来看,其采用“1+3+N”的设计思路,即一个综合服务底座,涵盖算力交易、资产管理、金融服务三大核心模块,并计划拓展至多个行业应用场景。该架构试图在资源整合、智能调度与服务标准化等方面做出探索,与行业主管部门推动的算力互联互通方向具有一定的契合性。

    在生态合作方面,多家来自能源、金融、科技等领域的企业参与了此次发布仪式,并表达了在资源共享与产业协同方面的合作意向。行业分析指出,此类跨领域协作有助于将企业单体优势扩展为产业链整体效能,对推动 AI 技术在不同行业的落地应用可能形成一定支撑。

    业内观察显示,随着算力在经济社会各领域渗透不断加深,构建开放、高效、协同的算力供应链体系逐渐成为行业共同关注的议题。相关平台的出现,反映了市场主体在整合算力资源、提升服务能效方面的尝试,其长期成效仍有赖于技术可靠性、模式可持续性及行业协同机制的进一步完善。在算力市场竞争日趋全球化、绿色化的背景下,此类探索也为推动产业高质量发展提供了可供观察的案例。

    近日,OpenAI 在其官方网站及官方社交媒体公告中表示,公司计划在“未来几周内”开始在 ChatGPT 对话界面中测试广告投放,这些广告将首先面向美国地区的免费版用户以及新推出的低价订阅层级“ChatGPT Go”用户。

     

    广告内容的展示形式预计主要是在 ChatGPT 生成的回答底部以清晰标注的独立模块形式出现,与 AI 生成内容严格区分。

    OpenAI 强调,广告不会影响 ChatGPT 的回答逻辑,也不会向广告商分享用户对话内容。付费订阅用户(如 Plus、Pro、Business 及 Enterprise 层级)仍将享受无广告体验。

     

    据官方发布内容及多家外媒消息,OpenAI 此举是为了进一步拓展营收来源,以缓解高昂的研发与基础设施支出压力,同时扩大服务的可持续性。

     

    公司管理层表示,即便公司业务规模庞大,依靠订阅收入仍难覆盖巨额算力成本,而广告收入是补充营收的一种必要尝试。OpenAI 同时承诺,广告不会改变 AI 应答过程,并且将在敏感话题如健康、政治等领域避免投放广告。

     

    OpenAI 此举引发了社区热议,但批评声音居多。

     

    在 Hacker News 上,有用户表示,由于他们加了广告,很多用户已经转向了 Gemini,所以长远来看这种行为是得不偿失。

     

    “OpenAI 广告的一个问题是,用户已经开始转向 Gemeni,而 Gemeni 并不投放广告。

     

    ChatGPT 大多数情况下也比 Gemeni 差(或许如此),而且没有像 Gemeni 那样严格的速率限制。因此,他们已经开始流失用户,并且产品体验也比竞争对手更糟糕。

     

    OpenAI 当然能从广告中赚到一些钱,但这能弥补他们巨额的亏损吗?我觉得不太可能。他们真的需要像微软那样,被一位财力雄厚的“金主”收购,才能玩转这种游戏。”

     

    还有用户表示即使他们加入了广告,也不会向谷歌和 Facebook 那样赚大钱,只是赚一些小钱罢了。该用户评价道:

     

    “就我所了解的广告市场而言,像谷歌和 Facebook 这样的公司之所以能赚得盆满钵满,主要是因为它们在广告市场的垂直整合中占据了绝对优势。而 OpenAI 整合广告的方式在我看来,似乎只是想分得蛋糕里最小的一块——一个投放广告的地方——这意味着,我估计他们的用户收入更接近于报纸网站,而不是最大的社交媒体网站,或者更接近于推特或 Tumblr 这类从未实现过巨额盈利的公司。”

     

    明知加广告会被骂,OpenAI 为什么还要这么做?那就要从 OpenAI 的财务状况说起。 

    营收增长 10 倍,但算力投入扩大 9.5 倍

     

    OpenAI 的财务状况与算力投入呈现出高度协同的增长态势,过去三年,二者均实现了累计十倍左右的扩张,印证了“算力决定营收上限”的核心逻辑。这种强关联不仅是业务发展的结果,更成为 OpenAI 规划未来投入、平衡供需关系的重要依据。

     

    在 OpenAI 最新一期博客中,公司首席财务官 Sarah Friar 透露了 OpenAI 的财务细节。

     

    从算力投入来看,OpenAI 的扩张速度堪称惊人。

     

    • 2023 年,其算力规模为 0.2 吉瓦(GW);

    • 2024 年,迅速提升至 0.6 吉瓦;

    • 2025 年,进一步增至约 1.9 吉瓦,三年累计扩大约 9.5 倍。

     

    为保障未来算力供应,Sarah Friar 称 OpenAI 已与微软、英伟达、AMD、甲骨文等企业签署数千亿美元的合作协议,同时从单一供应商转向多云、多芯片的多元化布局,在高端训练任务中采用最新硬件,在大规模推理场景中使用低成本基础设施,平衡效率与开支。

     

    值得注意的是,算力投入存在显著的时间差,当前的投入需提前规划至 2028~2030 年的需求,这也意味着 OpenAI 需要稳定的长期收入来覆盖前置成本。

     

    营收方面,OpenAI 同步实现了三倍速年度增长,与算力扩张节奏高度匹配。

     

    2023 年,其收入达到 20 亿美元,2024 年增至 60 亿美元,2025 年预计突破 200 亿美元,三年累计增长约十倍。

     

    这种增长并非依赖单一业务,而是构建了多元化的收入结构:一是订阅收入,涵盖个人用户的 ChatGPT Go、Plus、Pro 档位及企业订阅服务,满足不同层级用户需求;二是 API 服务收入,为开发者和企业提供模型调用能力,支出与交付成果直接挂钩;三是广告与电商收入,依托免费用户流量开辟新增长曲线;未来还将探索授权许可、知识产权合作、结果导向定价等模式,进一步丰富收入来源。

     

    从运营效率看,OpenAI 的算力投入与营收的强相关性,验证了其商业模式的可行性。但当前仍面临算力缺口的核心挑战——由于算力不足,诸多潜在产品与功能无法落地,尚未充分释放价格弹性杠杆

     

    这也解释了为何 OpenAI 持续加码算力投资,同时通过广告等业务拓宽收入渠道,本质上是为了打破算力瓶颈,释放更多商业价值。

    加入广告,也会坚守三大原则

     

    从成本端看,算力是 OpenAI 发展的核心命脉,且需求近乎无限。但 Sarah Friar 在博客中表示,即便在模型中加入广告,也会“死守”三大底线。他表示:

     

    “大家普遍会疑惑,广告会对产品本身和公司运营产生怎样的影响?要回答这个问题,我们可以从当前的用户结构说起:如今,我们消费端平台上 95% 的用户都在使用免费版本。这恰恰契合了我们的使命 —— 研发通用人工智能是为了造福全人类,而非仅仅服务于有能力付费的群体。因此,保障用户的访问权至关重要。

     

    从广告业务的角度出发,我认为有三点原则必须坚守。第一,我们要让所有人都清楚:模型给出的永远是它能提供的最佳答案,而非付费推广的结果。很多其他平台正是在这一点上栽了跟头,导致用户无法判断看到的内容是付费广告还是真实的最优推荐。而我们的核心准则就是,模型始终以提供最优答案为导向。

     

    第二,广告本身可以具备很高的实用价值我们会明确标注广告内容,让用户一目了然。举个例子,如果用户搜索 “圣地亚哥周末短途旅行”,那么一条爱彼迎的广告可能会非常有帮助。用户甚至可能愿意在 ChatGPT 的对话场景中,与广告商展开深度交流 —— 前提是他们清楚这是广告环节。这正是我们需要创新的方向,要打造出与平台生态深度融合的广告形式,而非简单地把传统的横幅广告生搬硬套过来。

     

    第三,也是最后一点,我们必须保留无广告的服务层级,让用户拥有选择权和控制权。同时,我们对用户数据的保护始终保持高度谨慎。此前推出医疗健康功能时,我们就明确告知用户,相关数据会被隔离存储,不会用于模型训练。信任是 OpenAI 的立足之本,即便在广告业务上,我们也会坚守这些原则。”

     

    Sarah Friar 还表示,其实不只是 OpenAI,未来,消费者很可能会订阅多款人工智能服务,就像现在大多数人都会订阅不止一个流媒体平台一样,这一消费行为模式可以作为很好的参考。不同的人会根据自身需求做出不同选择,包括免费选项 —— 毕竟也有广告支持的免费流媒体服务。

     

    而且即便是同一项服务,也会同时提供付费版和免费版两种选择,未来的市场格局会呈现出丰富的多样性。不过,用户切换不同平台时也会面临一个问题 —— 迁移成本。

     

    Sarah Friar 还表示模型的记忆功能也是值得探讨的问题。他还进一步表示 OpenAI 不会垄断整个市场:

     

    “未来的模型是会实现跨平台统一记忆,还是会分平台独立记忆?其实即便是基于同一个模型,不同服务商也会推出各具特色的服务,在功能取舍上各有侧重。哪怕是依托 OpenAI 模型的服务,也有很多不同的开发者在提供差异化产品,这也是我所理解的 ‘多平台使用’ 的含义。当然,我并不认为 OpenAI 会垄断整个市场。”

     

    为维持算力与营收的同步增长,OpenAI 需要持续投入数千亿美元用于基础设施建设与合作伙伴拓展,而单一的订阅制模式难以支撑如此庞大的资金需求。

     

    广告业务的引入,能够借助免费用户的流量规模,开辟新的收入来源,为算力投入提供稳定的资金补充,形成“算力支撑业务、业务反哺算力”的循环。

     

    此外,广告业务的布局也与 OpenAI 的长期战略相契合。在 ChatGPT 月活用户突破 8 亿且仍有巨大增长空间的背景下,广告成为连接免费用户与商业价值的桥梁。

     

    据业内消息,OpenAI 预计 2026 年通过广告获得数十亿美元级收入,未来将逐步放大这一收入来源,与订阅、API 服务等形成互补,降低单一模式的经营风险。

    OpenAI 缺钱了?

     

    既有巨额的算力成本支出,又有逐年翻倍的营收进账,那 OpenAI 到底是不是真的缺钱了?

     

    近日,《纽约时报》的一位专栏作家却做出了一个明确的预测:OpenAI 将在 18 个月内因其在人工智能领域的投入而破产。

     

    该作家表示,根据去年的一份外部报告,OpenAI 预计在 2025 年将烧掉 80 亿美元,到 2028 年将烧掉 400 亿美元。鉴于该公司据报道预计到 2030 年实现盈利,不难计算出其中的利害关系。

     

    Altman 的风险投资计划在数据中心领域投入 1.4万亿 美元。正如外交关系委员会经济学家 Mallaby 所指出的,即便 OpenAI 重新考虑那些受盲目乐观影响的承诺,并“用其估值过高的股票为其他投资买单”,仍然存在巨大的资金缺口。

     

    Mallaby 并非唯一持此观点的人,贝恩公司去年发布的报告显示,即便在最乐观的预期下,该行业也至少存在 8000 亿美元的资金缺口。

     

    这位金融专家巧妙地分析了这种情况,他概括地指出,问题的关键不在于终端用户人工智能是否会在技术上得到普及,而在于开发人工智能在中长期内是否具有经济意义。

     

    分析师指出,理论上,投资者应该“弥合一项伟大技术出现与最终盈利之间的差距”,但实际上,许多人工智能公司烧钱的速度似乎远远超过了其盈利能力。Mallaby 指出,鉴于微软或 Meta 等“传统”公司在人工智能出现之前就已经拥有盈利业务,并且(实际上)有能力等待必要的时期,直到人工智能最终带来收益,因此,这些新来者的处境比它们要糟糕得多

     

    据他所说,大多数人都在使用免费服务,一旦他们常用的 AI 模型添加了广告或使用限制,他们就会毫不犹豫地转向竞争对手。目前各种任务都有无数的选择,也证实了这一点。

     

    不过,他认为这对人工智能提供商来说只是暂时的难题,随着智能人工智能越来越深入人们的日常生活,转换将会变得更加困难,因为 AI 模型最终应该能够掌握你所有的购物偏好、愿望和情感特征——甚至可能比你本人做得更好。

     

    Mallaby 确实赞扬了 OpenAI 首席执行官 Sam Altman 的“吸金能力”,他成功筹集了 400 亿美元的投资,超过了历史上任何一轮私募融资的规模——甚至超过了沙特阿美 300 亿美元的融资额。不同之处在于,沙特阿美和其他一些上市企业拥有成熟的商业模式和盈利能力,而 OpenAI 目前这两点都不具备。

     

    人工智能金融这条衔尾蛇看起来确实像是要吞噬自己的尾巴,但也有人认为它只会失去较新的部分。如果人工智能市场失去一个或多个开创者,那将颇具讽刺意味。

    参考链接:

    https://www.tomshardware.com/tech-industry/big-tech/openai-could-reportedly-run-out-of-cash-by-mid-2027-nyt-analyst-paints-grim-picture-after-examining-companys-finances

    https://news.ycombinator.com/item?id=46663341

    OpenCode + SVG:一套省心可控的 AI PPT 生成方案

    前两天接到个活儿,要做个项目方案演示 PPT。

    打开 PowerPoint 的那一刻,我盯着空白页面发了五分钟呆。

    说实话,作为一个产品,PPT 能力属实一般 —— 内容我能写,但怎么让它好看有重点一眼能抓住人 ,这事儿我真不太行。

    正好最近 OpenCode 特别火,号称是 Claude Code 的平替。最关键的是,它支持接入 GitHub Copilot 作为模型能力。

    巧了,公司正好给订阅了 Copilot 企业版

    也就是说,我现在直接实现了 API 自由 —— 装个 OpenCode,切到 Copilot,然后猛猛造就完事儿了。

    于是就有了这篇:用 OpenCode 无痛生成可编辑 PPT 的完整流程


    预期管理

    先说清楚,咱们今天分享的这套方案,主打三个字:

    • 简单实用 (不需要 mcp、skills)
    • 复用性强 (掌握方法后可在多种 PPT 场景下使用)
    • 可控性高 (支持持续性的调整和二次修改)

    最关键的是 —— 输出的内容可以在 PPT 里二次编辑 ,不像 NotebookLM 那种,生成出来是张图片,改都没法改。

    但有一点要提前说:这次主打实用,美观性这种主观因素先不深究。不过可以保证,出来的效果直接拿去用是没问题的。

    还有,我下面描述的操作流程更多是提供一种思路 ,很多步骤不是固定的,也没有所谓「一键出成果」的操作。希望大伙儿按这个思路多试试,换不同风格玩玩看。


    省流总结

    凡是需要把复杂信息结构化呈现、用图形辅助理解的场景,都很契合这套流程。

    熟悉 Vibe Coding 的小伙伴,看完这个流程估计不用看细节就能直接上手了:

    1. 安装 OpenCode
    2. 安装官方插件 oh-my-opencode
    3. 创建项目文件夹,准备好 PPT 文稿内容
    4. 用 OpenCode 打开项目文件夹,切换到 Plan 模式,输入 ulw 进入 Ultrawork 模式
    5. 输入下文准备好的 Prompt,选择 PPT 风格,输出为 SVG 格式
    6. 在 PPT 中导入 SVG 文件,点击「转换为形状」
    7. 微调一下文本排列和字号,搞定!

    效果展示

    正好这两天国外 X 上有位大佬发了篇长文特别火:「如何在一天内彻底修复你的人生」,我就拿这篇文章来做流程演示。

    这是从一篇 4000 字的长文,到一套可编辑的 PPT 录屏效果。

    全程用 OpenCode 生成,导入后可以直接在 PPT 里改,先瞅瞅看效果如何

    原文链接:https://x.com/thedankoe/status/2010751592346030461?s=20

    如何在一天内彻底修复你的人生.pdf
    想上传视频的,没找到咋搞,大伙儿打开 PDF 看看也行。

    前期准备

    1. 安装 OpenCode

    打开官网,安装指引很详细。支持三种方式:终端、客户端、IDE 插件。

    个人推荐直接选客户端 —— 方便查看历史记录,使用门槛也低。

    官方安装链接:OpenCode | Download


    2. 添加模型提供商

    安装完成后,打开终端输入以下命令,选择 Agent 执行任务时用哪个模型提供商:

    opencode auth login

    我这里直接选了 GitHub Copilot。

    没有提前准备 API 也没关系 —— 官方很贴心地内置了几个免费模型,终端里选第一项,或者客户端里选置顶的几个大模型,就能直接免费用。

    备注:以下所有效果均通过 GitHub Copilot 的 Claude Opus 4.5 模型生成。



    3. 安装 oh-my-opencode 插件

    这一步很关键。

    oh-my-opencode 是官方插件,一个强大的 OpenCode 扩展集合。简单说,开启后会进入火力全开模式 ,自动根据任务情况安排最合适的工作 Agent。

    安装很简单,直接在对话框输入:

    "Install and configure by following the instructions here https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/refs/heads/master/README.md" 

    参考文档:🔥 Oh My OpenCode (Oh My OpenCode) - OpenCode 中文文档


    4. 准备项目文件

    新建一个文件夹作为项目文件夹,把 PPT 文稿内容存成 .md 格式放进去,然后用 OpenCode 客户端打开这个文件夹。

    到这里,所有前置准备就完成了。接下来进入 PPT 生成的具体步骤

    PPT 生成操作流程

    1. 进入 Ultrawork 模式

    打开项目文件后,在输入框直接输入 ulw,让 OpenCode 进入「燃起来」的 Ultrawork 模式

    输入后,会先告知该模式的一些事项和规则。官方给出了详细的 Prompt,最下方也有使用场景说明:

    • 探索代理(背景)— 代码库结构、文件模式、内部实现
    • 图书管理员代理(背景)— 外部文档、API 参考、开源示例
    • 计划代理 — 详细工作分解和策略
    • 数据库代理 — 架构决策、代码审查、高智商推理
    • 前端 UI/UX 工程师 — 视觉设计和实现
    • 文档编写者 — 技术文档


    2. 分析 PPT 内容

    接着,把工作模式切换成 Planner-Sisyphus—— 这是 OpenCode 的计划只读模式 ,专门用于自我演进、迭代优化和处理高复杂度任务的规划模式。

    然后通过 @ 符号引用 PPT 文案的 md 文件,在输入框输入:

    请作为一名资深 PPT 设计师,帮我处理这份文档: 
    
    1. **拆解**:提炼文档精华,产出结构化的 PPT 页面清单(包含页数、内容、重点)。 
    
    2. **渲染**:利用 SVG 矢量代码输出每一页的视觉雏形。要求:图文分离、层级分明,代码需兼容 PPT 的"转换为形状"功能,以便我进行后期可编辑式的二次调整。  
    
    基于这些诉求,给出方案。
    

    这一步其实不需要什么精妙的提示词。项目初期,每次对话更多是想法碰撞和方案定位 ,不是一开始就用提示词框死大模型的想象空间。

    直接在 Plan 模式下抛出核心诉求:一是 拆解,二是 渲染。然后让大模型输出方案,根据提示不断调整方向,最终达到效果即可。

    只要能出满意的效果,那这个提示词就是合理且有效的。

    按这个思路,大模型输出的方案大概率包括:

    • 拆解后每页 PPT 的内容(标题、内容、重点…)
    • PPT 输出模式确认(分页生成 / 全部生成)
    • 设计规范确认(尺寸、配色、字体、风格…)
    • SVG 输出格式要求(代码规范、组件规范…)

    如果觉得拆解不合适,可以在 Planner 模式下持续对话,不断提要求,直到满意为止。


    3. PPT 风格确认

    这一步,建议只给定 尺寸要求、配色要求、主题色要求,剩下的布局排列和组件样式,推荐先让大模型自由发挥 —— 体验一下抽盲盒的快乐。

    可以参考我的输入试试,这里的配色是直接从公司 PPT 模板里扣的,大伙儿可以替换成自己的要求:

    尺寸要求:16:9
    主题风格:浅色风格
    配色要求:
    | 颜色用途 | RGB 值 | 说明 |
    |---------|--------|------|
    | 主色 | `rgb(1,107,255)` | 品牌蓝 |
    | 次色 | `rgb(86,91,255)` | 紫蓝 |
    | 辅助色 | `rgb(46,204,247)` | 青蓝 |
    | 背景色 | `rgb(246,246,246)` | 浅灰 |
    | 文字色 | `rgb(0,0,0)` | 黑色 |
    
    

    先让大模型输出前三页看看效果。下面是第二、三页的效果 —— 会发现实在太寡淡、太平面化了,不是不能用,就是一眼看上去没有记忆点。

    这时我想到:好的 PPT 绝不是套用模板,而是要根据内容进行「适配性设计」,才能真正突出重点、制造记忆点。

    既然如此,能不能让大模型先理解文本,由它来构思最契合的风格和布局方案?

    于是直接输入了一个简单的要求:

    基于这篇文章的内容,和品牌配色,还可以有怎样的风格和布局推荐?

    结果很 amazing!

    OpenCode 内置的 Agent 能力非常强大 —— 不仅分析出这篇文章的主题与「成长」「身份重塑」「行为心理学」「自我发展」等关键词相关,还会根据这些关键词在网上搜索相关的 PPT 设计方案,最终给出一个非常详细的每页风格推荐。

    根据新的设计方案,第三页推荐使用「冰山隐喻」风格,效果如下 —— 确实比第一版好太多了!

    接着,只需要根据设计方案,对剩下的页面做批量生成即可。


    4. PPT 内容编辑

    SVG 批量生成后,难免有些文本内容或布局效果不符合预期。怎么办?

    最简单的办法:直接在对话框描述问题,还可以通过 辅助说明需要调整的地方。

    如果只是文本内容的问题,也可以用 VSCode 打开 SVG 文件,直接手动改。


    5. PPT 文件导入

    最后一步。

    检查所有 SVG 效果图都满足要求后,把 SVG 文件导入 PPT,点击「转换为形状」,就能把 SVG 一键转成 PPT 支持的组件样式,对所有元素进行编辑和调整。

    这样再也不用担心大模型生成的 PPT 是一次性的 —— 上下文丢了,都不知道怎么改。

    具体的导入和转化操作可以参考我往期的内容:

    实际操作中,转化后的效果还是会遇到不少问题:字号错乱、布局偏移、组件变形…

    这里简单总结了一些优化方案,只需要在输出 SVG 前,把要求全部告知大模型即可:

    1️⃣ **圆角矩形优化**:使用 `<path>` + 贝塞尔曲线 `C` 命令绘制,避免 `<rect rx="24">` 在 PPT 中丢失圆角
    
    2️⃣ **字体优化**:Windows 字体优先排列 `Microsoft YaHei, SimHei, PingFang SC, sans-serif`,避免 PingFang SC 在 Windows 上不存在导致布局变化
    
    3️⃣ **文字定位优化**:使用 `style` 属性整合样式,手动计算居中位置,避免 `text-anchor``dominant-baseline` 属性支持不完善
    
    4️⃣ **颜色格式优化**:使用 `#RRGGBB` + `fill-opacity` 分离透明度,避免 `rgba()` 和带透明度的十六进制颜色支持不佳
    
    5️⃣ **阴影效果**:移除 `filter="drop-shadow(...)"` 属性,在 PPT 中转换后手动添加阴影
    

    后续优化

    这一套操作下来,熟悉大模型的伙伴可能会觉得:就这?连 MCP 和 Skills 都没用上,没啥新意。

    但对于一些小白 —— 比如连 OpenCode 或终端是什么都不知道的小伙伴 —— 操作过程中还是会遇到不少问题的。

    不过我觉得,AI 时代,只要能说得清楚、有明确报错信息的问题,丢给 AI 都能解决。所以还是希望能引导更多人去动手试试看。

    后续计划研究一下 Skills,正好扣子 skills 不是也出了吗,打算把这些流程固化进去,尽可能实现一次生成就能满足效果 的情况。

    最后

    PPT 这件事,难的从来不是内容,而是怎么让内容被看见。

    现在有了 OpenCode + SVG 这条路,至少「呈现」这一步,可以交给 AI 先跑一版了。

    剩下的,就是你来把控方向。


    有问题欢迎留言,一起交流


    📌 转载信息
    原作者:
    Vigorxu
    转载时间:
    2026/1/20 18:06:18

    你会不会有过这些疑问:

    为什么有的企业总能快速响应市场需求,有的企业却总是“慢半拍”?

    为什么有的企业成本控制得心应手,有的企业却被成本压得喘不过气?

    为什么有的企业能保证客户满意度,有的企业却老收到投诉?

    这些情况,其实是我从业十几年观察到的部分现象。

    自从对企业的供应链管理进行学习后,我就发现:

    不管是大企业还是小公司,是制造业、零售业,还是电子商务行业,想要解决上面的问题,都离不开供应链的高效管理。那么,供应链究竟是什么?数字化供应链又是什么?为什么说它对企业经营很重要?

    一、供应链究竟是什么?

    实际上,供应链就是产品从无到有的过程。

    说白了就是由“从供应商购买原材料 --> 工厂加工生产 --> 分销商销售 --> 消费者购买”构成的整个链条。

    举个例子:

    一盒阿莫西林胶囊:“药厂采购原材料 --> 制药厂的生产车间去加工 --> 药品通过医药物流公司配送到医院药房 --> 药房给到患者”的过程,就叫做医药供应链。

    image.png

    供应链的特点主要有以下几点:

    流程化:从原材料到最终用户,一系列相互关联的活动构成了一个完整的流程。

    整体性:供应链中的各个企业相互协作,共同满足最终用户的需求。

    信息与物流结合:信息在供应链中起着很重要的作用,它指导着物流的方向和效率。

    全球化:现在国内有很多供应链已经涉及了多个国家和地区的供应商、制造商和分销商。

    二、供应链的构成有哪些?

    如果要从“供应链”这个词里面,找出一个最重要的字,你会选哪个?

    相信大多数朋友跟我一样,会选“链”这个字。

    这其实也说明了,供应链是由多个部分串联起来的一条长链。在这个过程中,供应链由五要素组成,同时三大流贯穿始终,从而保证整个链条的有序运作。

    1、五大要素

    分别是供应商、制造商、分销商、零售商和用户。

    供应商。是供应链的起点,主要是向制造商提供所需材料和零部件的企业。优质的供应商能够保证物资的质量、按时交付,对企业的生产运营至关重要。

    所以,要做好供应商管理,很多企业都会配置供应商管理系统(SCM),通过系统:

    从多方面考察供应商的实力和绩效,使供应商不断改进

    供应商与制造商之间获得一个沟通和解决问题的平台,保证了信息的一致性和准确性,提高双方效率。

    制造商。负责将原材料加工成成品,通过生产制造过程,实现产品的增值。在开头提到的咖啡例子中,制造商就是那些将咖啡豆烘焙、研磨并冲泡成咖啡的企业。

    分销商。在制造商和零售商之间起到桥梁作用的企业。他们可能负责物流、仓储和分销等任务。

    零售商。直接面向消费者,负责将产品卖出去,超市就是咱们最熟悉的零售商之一。他们的主要任务是了解消费者需求、提供优质的购物体验。

    最终用户。也就是消费者,他们是供应链的最终环节,也是整条供应链的唯一收入来源。

    2、三大流

    分别是信息流、物流、资金流。

    信息流。在商品流通中,所有信息的流动过程,简称信息流。它贯穿于商品交易过程的始终,是分析物流、导向资金流、进行经营决策的重要依据。常见的信息流包括生产能力信息、促销计划和交付时间表等以及销售情况、库存信息等等。

    物流。物流主要关注的是如何用最短的时间、最低成本对原材料、中间品和成品进行交付。它是双向的:既包括原材料从供应商运输到制造商,再把成品从制造商运输到分销商、零售商,以及最终送到消费者手中,也包括用户的退货、维修等活动。

    资金流。在商品流通中,信用证、汇票、现金等,在各个交易方之间的流动,就是资金流。从消费者支付货款给零售商开始,资金会沿着供应链反向依次流转,涉及采购付款、货款结算、信贷融资等方面。

    image.png

    三、再来说说,什么是数字化供应链?

    数字化供应链是通过数字技术(物联网、大数据、人工智能等技术)对传统供应链进行全方位改造,以实现供应链的数字化、智能化、协同化的管理模式。主要目的是提升效率、降低成本、增强灵活性和抗风险能力。

    那么,数字化供应链到底是“供应链的数字化”,还是“数据化的供应链”呢?

    这两者有什么区别呢?

    简单来讲,前者指的是,将数字技术应用到供应链各个环节的过程,更关注工具的实施。比如过去供应链上各个环节用手工,现在都用系统。

    后者是前者的结果。各环节都用系统后,一定会逐渐沉淀出更多的电子化数据。也就是说,“数据化的供应链”是“供应链数字化”的直接结果。

    而本文一开始提到的“数字化供应链”,是在“数据化了的供应链”的基础上,更进一步的结果。

    比如,我们使用云计算、低代码、大数据、人工智能等数字技术,对沉淀的数据进行深入分析,来进行用户需求预测、库存优化、科学排产等动作,让数据驱动决策,发挥出数据的价值。

    这才是数字化供应链的终点。

    下面以疫苗生产为例,说明这三个阶段。

    1、供应链的数字化

    过去药厂采购员用用excel记录原材料采购;生产车间的温湿度靠手工抄表;物流温度靠司机纸质记录;疾控中心靠经验估算各社区医院的疫苗需求量。

    现在全环节部署数字系统(比如上海一家从事医疗行业的集团型公司,他们采用织信低代码,耗时5个月构建了8套业务管理系统),采购用SRM系统,生产用MES系统,仓库用WMS系统,质量管理用QMS系统,物流用车载物联网设备,疾控中心用疫苗信息管理系统等等。

    这一切是“数字化”的过程。

    2、数据化的供应链

    现在,每一支疫苗从原料批号、生产时间、生产线、检验数据,到出库后的实时位置、冷链车温度,再到进入省-市-区疾控中心冷库的入库时间、库存数量、库内温度,最后到接种门诊的接收记录、冰箱温度、每日接种数量……所有这些信息都被自动采集,并以结构化的数据形式沉淀在各自的系统中。

    3、数字化供应链

    系统自动接入并分析多种数据:过去三年的各地接种数据、今年各地区的儿科门诊流感样病例监测数据、人口流动数据、天气预测数据。

    系统智能决策:AI模型预测出,A市新区由于年轻家庭多、儿童人口激增,今年需求将比往年增长40%,系统自动向生产环节发出动态生产计划。

    四、数字化供应链促发新的商业模式

    1、制造服务化

    随着数字化时代的快速发展,越来越多的企业尝试将服务融入产品业务,由以前基于产品销售的单一模式逐渐演变成提供连续服务的模式,这种新的商业模式被称为制造服务化。制造服务化模式不仅使信息共享变得更为便捷,同时提高了供应链的整体效率。制造商不再仅仅提供产品,而是将服务与产品相结合,为客户提供综合解决方案。这为制造业数字化转型提供了明确的方向。如英伟达公司从一个主要服务于个人计算机游戏市场的显卡生产商,成功地转变成一个提供从硬件到软件,再到云服务的全方位解决方案科技巨头。这就是制造服务化的典型案例。

    2、数据驱动的快速直销

    数据驱动快速直销模式是指企业运用大数据、人工智能及其他创新技术,迅速识别用户行为、消费模式和市场动向,从而迅速生产市场高需求度产品,确保在短时间内实现有效的销售。这种模式已经司空见惯,相信大家都不陌生。中国最具代表性的企业就是跨境服装企业SHEIN.目前估值已超过H&M和ZARA的市值之和。在欧美国家已经跻身快消品牌前三。SHEIN在全球没有自己的实体店,完全是通过深入分析用户行为、搜索动态以及社交媒体的反馈,迅速洞察最新的时尚潮流,并根据这些数据进行产品设计。而且SHEIN主打的是小批量生产模式,特定款式只有50-100件服装,小批量向消费者销售经过算法筛选的商品,常常导致产品短缺,较好地发挥了饥饿营销的作用,最终实现了巨大的成功。

    数据驱动快速直销模式一方面简化了供应链,允许制造商直接与消费者互动,绕过了传统的零售中介,不但降低了成本,还为制造商提供了更直接的客户反馈渠道。另一方面该模式极大地依赖强大的数据分析技能、高效的生产和供应链管理技能,以及与消费者直接互动的能力。通过分析消费者的购买历史、浏览行为和偏好,企业可以为消费者提供个性化的产品推荐和营销信息,从而提高购买转化率和客户满意度。而基于真实的消费者数据和需求预测,企业可以更准确地管理库存,减少过度库存的风险,确保热销产品始终有货。

    3、平台经济

    平台经济指的是基于技术平台建立的商业模式,使得其中两个或者更多的用户群体可以直接互动、交换价值。平台经济的关键在于利用技术把人们联系在一起,不同的参与方提供提供连接,一起创造价值和进行交流。这种经济模式常常通过网络效应产生更好的价值,平台上的每一个新用户都可能为其他用户增加价值。

    目前,全球大型平台经济企业大部分集中在美国和中国。常见的有阿里巴巴、腾讯、字节跳动、美团、拼多多等,还有国外的苹果、微软、亚马逊、Meta等等。

    以上就是今天介绍的全部内容。希望对大家有所帮助。

    “通用性不再是主要瓶颈,部署中的任务集熟练度和可靠性才是决定机器人能否真正落地的关键。”在近期的一场采访中,智元机器人合伙人、首席科学家罗剑岚称,2026 年是机器人从会做很多事但每个事做得不太好走向把事情做好并落地的关键节点,要求学习范式从静态离线训练升级为部署学习再部署的整套数据闭环系统。

     

    他表示,正是基于这个判断,智元机器人具身研究中心提出了 SOP(Scalable Online Post-training),一套面向真实世界部署的在线后训练系统。SOP 的核心目标是,让机器人在真实世界中实现分布式、持续的在线学习。

     

    据罗剑岚透露,智元今后会在所有机器人上应用 SOP。今年,智元计划部署比现在大几个数量级的机器人,真正找到机器人真实场景部署和真实场景落地的 Scaling law。

     

    要在真实世界中大规模运行,通用机器人必须同时满足两个看似矛盾的要求:在复杂多变的环境中保持稳定性与可靠性;在处理差异巨大的任务时,仍具备良好的泛化能力。现有 VLA 预训练模型已经提供了强大的通用性,但真实世界的部署受困于更高的任务专精度要求以及离线数据采集方式的边际效益递减,往往需要通过后训练获得更高的任务成功率。

     

    然而,当前主流的 VLA 后训练方法仍受离线、单机、串行采集等因素制约,难以支撑高效、持续的真实世界学习。这些限制并非源自具体算法,而是来自学习范式本身。智元方面介绍,SOP 改变的不仅是训练范式,更是机器人系统的生命周期。如果说 VLA 让机器人第一次具备了通用理解与行动能力,那么 SOP 所做的是让众多机器人的经验共同驱动智能的快速成长。

     

    “SOP 目前不是完全开源的,但不排除未来开放的合作形式。”罗剑岚表示,智元从成立之初就坚持走生态开放的路线,希望跟更多厂商一起共建 SOP,把 SOP 的闭环真正接入到业务流程里。SOP 不是封闭系统,而是一种新的持续学习、在线学习、协同进化的方式,任意的后训练算法和模型都可以接进来,智元会开放一些 SOP 的关键模块和接口。

     

    从长远来讲,智元的目标是构建一个开放的机器人在线学习生态,不同的机器人本体都可以接入,让数据共享上传到云端一个大脑,数据回传回来并不断进化,给大家使用。

    SOP:分布式在线后训练框架

    SOP 采用 Actor–Learner 异步架构,本身是一套通用的框架,可以即插即用的使用任意后训练算法,让 VLA 从在线经验数据中获益。智元选取 HG-DAgger(交互式模仿学习)与 RECAP(离线强化学习)作为代表性算法,将其接入 SOP 框架以进化为分布式在线训练。

     

    据介绍,他们将 VLA 后训练从“离线、单机、顺序”重构为“在线、集群、并行”,形成一个低延迟的闭环系统:多机器人并行执行 → 云端集中在线更新 → 模型参数即时回流。

     

     SOP 架构设计图

    SOP 的关键优势包括:

    • 高效状态空间探索。分布式多机器人并行探索,显著提升状态–动作覆盖率,避免单机在线学习的局限。

    • 缓解分布偏移。所有机器人始终基于低延迟的最新策略进行推理采集,提升在线训练的稳定性与一致性。

    • 在提升性能的同时保留泛化能力。传统的单机在线训练往往会使模型退化为只擅长单一任务的“专家”, SOP 通过空间上的并行而非时间上的串行,在提升任务性能的同时保留 VLA 的通用能力,避免退化为单任务专家。

    实验评估:性能、效率与 Scaling Law

    实际效果方面,智元围绕三个方面对 SOP 进行了系统性评估。

     

    首先是 SOP 能为预训练 VLA 带来的影响。实验结果说明,在各类测试场景下,结合 SOP 的后训练方法均得到了显著的性能提升。

     

    相比预训练模型,结合 SOP 的 HG-Dagger 方法在物品繁杂的商超场景中实现了 33% 的综合性能提升。对于灵巧操作任务(叠衣服和纸盒装配),SOP 的引入不仅提升了任务的成功率,结合在线经验学习到的错误恢复能力还能明显提升策略操作的吞吐量。结合 SOP 的 HG-Dagger 方法让叠衣服的相比 HG-Dagger 吞吐量跃升 114%。SOP 让多任务通才的性能普遍提升至近乎完美,不同任务的成功率均提升至 94%以上,纸盒装配更是达到 98%的成功率。

     

     

    为了进一步测试真机 SOP 训练后 VLA 模型是否达到专家级性能,他们让 SOP 训练的 VLA 模型进行了长达 36 小时的连续操作,模型展现出了惊人的稳定性和鲁棒性,能够有效应对真实世界中出现的各种疑难杂症。

     

    其次,智元使用了三种机器人队伍数量(单机、双机、四机配置),在同样的数据传送总量的基础上,进行了比较。实 验结果表明,在相同的总训练时间下,更多数量的机器人带来了更高的性能表现。在总训练时间为 3 小时的限制下,四机进行学习的最终成功率达到了 92.5%,比单机高出 12%。

     

    他们认为,多机采集可以有效阻止模型过拟合到单机的特定特征上。同时,SOP 还将硬件的扩展转化为了学习时长的大幅缩短,四机器人集群相比单机能够将模型达到目标性能的训练速度增至 2.4 倍。

     

     SOP 学习效率提升

     

    此外,他们探究了 SOP 和预训练数据之间的关系,把总量为 160 小时的多任务预训练数据分为了三组:20 小时,80 小时和 160 小时,分别训练一组初始模型后再进行 SOP。接着发现,预训练的规模决定了基座模型和后训练提升的轨迹。SOP 能为所有初始模型带来稳定的提升,且最终性能与 VLA 预训练质量正相关。

     

    同时,对比 80 小时和 160 小时实验效果,在解决特定失败情况时,在轨策略经验带来了非常显著的边际效果。SOP 在三小时的在轨经验下就获得了约 30%的性能提升,而 80 小时额外人类专家数据只带来了 4%的提升。这说明在预训练出现边际效应递减的情况下,SOP 能够高效突破 VLA 性能瓶颈。

     

     SOP 在不同预训练数据规模下的对比

     

    最后,智元将机器人队伍放到了预训练模型没有见到的真实新环境下执行任务,并使用 SOP 进行在线训练。当机器人被置于不同的环境时,即便是同样的任务,起初成功率和吞吐量如预期般下降,但在 SOP 介入仅仅几个小时后,机器人的性能便显著回升,能够鲁棒地执行相对复杂的实际任务。

    ☕️ TL;DR

    近期佳作推荐:[美剧] 匹兹堡医护前线 第二季、[动画] 中国奇谭 2、[动画] 咒术回战 死灭回游 前篇、[电影] 3670、[英剧] 投行风云 第四季、[美剧] 槲寄生谋杀案 第二季、[台剧] 人生只租不卖、[日剧] 京都人的私房雅趣 Rouge 继承、[动画] 命运/奇异赝品、[动画] 史前战纪 第三季

    几则精彩预告:《葬送的芙莉莲 第二季》正式预告、《机动战士高达 闪光的哈萨维 喀耳刻的魔女》新预告、《海贼王 第二季》先导预告、《木乃伊》首支预告、《亢奋 第三季》首支预告

    几则影视资讯:《呼啸山庄》确认引进、《闪灵》内地定档 1 月 30 日、《暗黑新娘!》内地定档 3 月 6 日、《庇护之地》内地定档 1 月 30 日


    [美剧] 匹兹堡医护前线 第二季

    • 关键词:剧情 / 医疗
    • 又名:The Pitt Season 2
    • 片长:50 分钟左右(单集)× 15 集
    • 观看渠道:HBO豆瓣链接

    生死一小时。

    @潘誉晗:7 月 4 日,美国独立日。离上季结束已过去了十个月,但首季的音乐节事件,还是让罗比本就备受折磨的心理受到了影响。他决定完成今天的轮班后,就放个长假好好休息一下。不过急症室的状况,并没有因为罗比即将到来的休假变得轻松。新上任的医生是战地医院出身,行事雷厉风行,与罗比的风格完全不一样。而兰登医生也重回职场,只不过曾经的药物上瘾和偷药事件还是影响了他的信誉,因而被安排了分诊的工作。

    在颁奖季上斩获诸多大奖的口碑剧集《匹兹堡医护前线》迎来了第二季,延续了首季一集为一天一小时的剧情安排,再现了急诊室高度紧张的节奏。这次的续作诚意满满,为我们带来了许多真实的案例,加上有着非常成熟的特效化妆技术,每一幕治疗的过程,都是极其写实的血肉镜头(不建议在饭点看)。写实的画面、超真实的压力感,感谢这些在走廊上永远奔跑着的医生们。


    [动画] 中国奇谭 2

    • 关键词:短片集
    • 又名:Yao-Chinese Folktales 2
    • 片长:单集时长不固定 × 9 集,每周四更新
    • 观看渠道:哔哩哔哩豆瓣链接

    我们村的龙就是没有角的。

    @SHY:仍由上海美术电影制片厂联合出品,《中国奇谭 2》继续广招天下好汉,每集均由不同主创团队打造,将脑海中的想法转化为自由度极高的动画短片,题材和形式更加多元化。目前已上线的 4 集各有特色,质量均在水准线上。

    第 1 集中冒名龙王的三只蛇妖,从偷吃香火到承担责任,用行动获得村民崇敬;第 2 集取材《聊斋》里「耳中人」的典故,被迷惑的书生落入层层嵌套的幻境,氛围塑造相当优秀;第 3 集的背景来到现代,笼中的动物们有着自己的心思,向往表演馆的小熊找到归宿;第 4 集则以精致的毛毡定格,探索母子的相处之道,学会适时放手也是爱。

    主创们以奇幻色彩为表,现实议题为里,思索和探讨多重维度上的内涵,致力于讲好中国故事。吃下这几集的定心丸,有理由相信后面的集数也不会让我失望,延续第一季打下的坚实口碑。同时,我也由衷期待本季能诞生像《小妖怪的夏天》那样具有反哺作用的杰出单集,孕育出另一部兼具口碑和票房的动画电影,为中国动画产业添砖加瓦。


    [动画] 咒术回战 死灭回游 前篇

    • 关键词:漫画改 / 奇幻 / 动作
    • 又名:呪術廻戦 死滅回游 前編 / Jujutsu Kaisen: The Culling Game Part 1
    • 片长:24 分钟(单集)× 具体集数未知,每周四更新
    • 观看渠道:巴哈姆特动画疯豆瓣链接

    爱恨交织,紧紧相拥。

    @SHY:「涩谷事变」后,虎杖悠仁的缓刑被取消,由特级咒术师乙骨忧太执行死刑。就在此时,羂索策划的死亡游戏「死灭回游」开启,伏黑惠的姐姐津美纪也被波及。进入结界的虎杖等人,在迎战强敌的同时,寻找解救他人的一线生机。

    相较于但求无过的「鬼灭」动画,同为 20 年代少年漫改代表的「咒术」,给足了动画师自由施展的余地。在第二季迎来导演首秀的御所园翔太,于本季更上一层楼,为作品注入强烈的个人风格。尽管漫画在此篇章已经显露颓势,动画却充分吃透原著,进行适当的再构筑,在 MAPPA 的顶级作画助力下,将潦草的画面转换为酣畅淋漓的长篇打戏。

    想法溢出的动画主创,从 OP 分镜就先声夺人,驰骋多种风格,彩蛋目不暇接,节奏与 King Gnu 完美合拍,让人想无限循环。正片以灵动的镜头调度和光影效果增添趣味,连第 3 集本该枯燥的大段解说,都通过海量演出巧思加以弥补,硬生生做出了几分 EVA 的感觉。这部改编层面上几乎无可挑剔的动画,可能是现在最具实验气质的商业动画大作。


    [电影] 3670

    • 关键词:剧情 / 同性
    • 片长:124 分钟;豆瓣链接

    我们两个,好孤独啊。

    @潘誉晗:韩国同性恋社区中,有一个数字暗号「367」,指的是晚上 7 点,去首尔钟路 3 街的 6 号出口。这天,哲俊站在这里,他双手插着口袋,怀着期待地张望着,可惜身边车来人往,没有一个人为他停下。钟路 3 街 6 号出口,晚上 7 点,无人在场,也许这才是「3670」的真正含义。饱含寓意的开篇拉开了电影的序幕,也引出了影片的主人公哲俊,他是一名脱北者,也是一位同性恋。

    近年来,有越来越多的文艺作品关注性少数群体,但像这部在 26 届全州国际电影节上以黑马之姿出现的影片,把脱北者与同性恋群体结合在一起的,还是首次。在影片中,我们透过俊哲,看到了一个非常孤独的个体:他在城市里掩盖着脱北者的身份,同时也隐藏着自己的性向——他在两个身份的夹层中,努力地寻找着灵魂的出路。电影拍得细腻又诗意,淡淡的悲情看似浅浅的,却不动声色地把那种藏在心里的疼痛给表达了出来。


    [英剧] 投行风云 第四季

    • 关键词:剧情 / 金融
    • 又名:Industry Season 4
    • 片长:52 分钟左右(单集)× 8 集
    • 观看渠道:HBO豆瓣链接

    Without an economic function, society buries you before you're dead . (没有经济能力,在你死之前,社会就会埋葬你。)

    @潘誉晗:哈珀和雅思敏的事业进展得越发顺利了,她们在各自擅长的领域里闪闪发光,不过也有挑战等着她们。在资产管理公司就职的哈珀本以为是自己的能力被看到,可当上司说出真话,她才意识到是因为她的黑人肤色,能够给公司带来一张很不错的公众名片。豪门婚姻的外表光鲜亮丽,但深陷其中的雅思敏只觉空虚。另一边,一位叫吉姆的财经记者联系上哈珀,想对她进行采访。

    阔别一年,《投行风云》第四季终于和观众见面。首播第一集就是满满的信息量,让观众看得忍不住感慨「就是这个熟悉的感觉!」本季的故事围绕着一家金融科技公司所展开,这家公司看似风头正盛,可其实是靠着擦边、色情支付发家的。巨大的利益充满了各种诱惑,哈珀和雅思敏也因此站在了相反的立场上。也许金融风暴圈的中心就是这样,金钱才是唯一的上帝,因而利益就是一切,所以爱情是能出卖的,友情也可以背叛。


    [美剧] 槲寄生谋杀案 第二季

    • 关键词:剧情 / 悬疑 / 惊悚
    • 又名:Mistletoe Murders Season 2
    • 片长:42 分钟左右(单集)× 6 集;豆瓣链接

    又到圣诞节了,似乎是该发生点命案了。

    @潘誉晗:十一个月前,由于不愿透露自己的秘密,艾米丽与山姆不欢而散,两人甚至因此断绝了联系,不过山姆的女儿维奥莱特一直与艾米丽保持着往来,她表示想重新回艾米丽的店里工作,也向艾米丽分享着自己的生活。这段时间,因英语老师兼国际象棋社顾问亨利的拜托,她一直帮一位男生补习英语。直到这天,亨利失踪了。副校长说亨利匆匆辞职,可艾米丽觉得,事情并没有这么简单。

    依然是两集一案节奏的剧集,这一季还根据艾米丽在每个案件的侦查过程中,融入了她的过往经历。这样的双线叙事不仅让观众对艾米丽有了更进一步的了解,也更好地塑造了这一人物形象。艾米丽确实在破案,却也用这种抓住真凶的方式进行着心理创伤上的自救。就像是从槲寄生叶的缝隙里透出的阳光一样,也许只是些许的光亮,但却足够给艾米丽带去力量。除案件外,艾米丽与山姆的暧昧情愫也依然好嗑。


    [美剧] 菜鸟老警 第八季

    • 关键词:剧情 / 喜剧
    • 又名:The Rookie Season 8
    • 片长:43 分钟左右(单集)× 18 集;豆瓣链接

    老又怎么了?经验丰富啊。

    @潘誉晗:系列第八季,预算升级,开播第一集就把舞台搬到了布拉格。为了抓捕一名危险的军火商,警方和老熟人莫妮卡达成协议,由诺兰伪装成保镖,妻子贝利伪装成助手,一起在异国进行卧底任务,顺便也二度了一次蜜月。洛杉矶的各位也很给力,在格雷中尉的指导下直捣军火商的据点。同时,露西和蒂姆也和好如初,开启了甜蜜的同居生活。

    长寿刑侦喜剧《菜鸟老警》第八季的故事剧情,依然稳定得让人心安。这部聚焦于「40+ 中年男性再出发」的剧集,着实把一位中年选择重新开始人生的人物形象,塑造得很圆满。诺兰确实不年轻了,双鬓有白发,体力也肯定不如年轻探员,但是他依然有那份愿意拼搏的冲劲。谁说超过 40 岁就要停下,谁说不再年轻就不能上前线?诺兰用身体力行告诉观众不退场的意义,也用八季的时间,从菜鸟老刑警一步步成长为值得信任的刑警,给观众带来「不要轻易放弃」的力量。


    [台剧] 人生只租不卖

    • 关键词:剧情 / 喜剧
    • 片长:45 分钟左右(单集)× 12 集;豆瓣链接

    是有理想、有能力,还是烂工作、烂老板?

    @利兹与青鸟:何幸琪从小父母离婚,十七八岁时父亲去世房子被过户给阿姨,无比倒霉地开始租房生活。突然有一天接到律师电话,原来去世的母亲留下一套好地段的房产,但要和一位先生共同继承。这位程轩先生是星河房管事务所所长,承诺何幸琪来事务所上班满一年,就把另一半房屋所有权给她,但前提是业绩要达标。于是靠打零工维生的何幸琪就这样离奇地天降工作和房子,成为这家主营租房中介、包租代管公司的业务员,开始了和客户斗智斗勇的人生新体验。

    这部闽南语台剧以轻喜剧的风格,铺开台北的租房生态,既涉及社会不同阶层与弱势群体,也讲解各式租赁类型与新兴政策,比如由政府补贴、以市价八折出租的社会住宅。多巴胺穿搭的女主让人眼前一亮,俏皮、机灵但也是个愣头青,随着对接客户增加,冲突矛盾也一件接着一件;声音甜甜很可爱,但也嘴上不饶人,经常代替观众吐槽,颇有生趣。剧中每集结尾都会留下悬念,观众轻易便能代入女主视角,在质疑中探索行业折射出的人生百态。


    [日剧] 京都人的私房雅趣 Rouge 继承

    • 关键词:剧情
    • 又名:京都人の密かな愉しみ Rouge 継承
    • 片长:45 分钟左右(单集)× 9 集;豆瓣链接

    京都之美。

    @利兹与青鸟:京都出生、巴黎长大的洛在父亲的提议下,来到京都留学,并尝试继承一间和菓子店,这是一家有着两百多年历史、传承了八代人的老字号——久乐屋春信,甚至已经成为京都文化的一部分,却面临无人继承的局面。不管是一时冲动,还是身为京都人的 DNA 动了,成年后首次踏上故土的洛游览起京都的名胜,在莲华王院参拜千手千眼观音、在蛮夷川渡石间跳跃、在二条大桥上眺望鸭川,感受这座古都与自己连接。

    「京都人的私房雅趣」系列自 2015 年起已播出 7 部,均由源孝志担任导演与编剧,风格也自成一派,时不时穿插着京都的人文历史,如纪录片般古典淡雅,又像旅行观光片一样优美精致,带着京都人的毒舌冷幽默,娓娓道来这个京都家族的故事。首集便以十一面观音借喻京都人不会轻易展露内心的特质,介绍故事背景和有些复杂的人物关系,即便没看过前作也能轻松代入。轻缓柔和的钢琴配乐,也让人心情平静下来想要继续看下去,在不同文化与代际的交织对撞下,洛将会如何传承这间百年老店。


    [动画] 命运/奇异赝品

    • 关键词:小说改 / 奇幻 / 动作
    • 又名:Fate/strange Fake
    • 片长:24 分钟(单集)× 13 集,每周六更新
    • 观看渠道:巴哈姆特动画疯豆瓣链接

    艺术就是瓦斯爆炸!

    @SHY:第五次圣杯战争数年后,美国西部的雪原市出现异变,御主和从者集结于虚伪的台座,按各自的想法行动。然而,当本不该存在的 Saber 职阶被召唤,「虚伪的圣杯战争」升格为真实,魔术师和英灵们的盛宴拉开帷幕。

    试问,Fate 系列的核心卖点为何?不明觉厉的时髦设定和关公战秦琼的英灵战斗一定名列前茅。而这两项,正是作者成田良悟的拿手好戏。专注群像剧的他,笔下没有绝对意义上的主角,起手就是数十位角色,来头一个比一个炸裂。操弄轻车熟路的多视角切换,安排人人有份的高光时刻,神仙打架的究极大乱斗,满足中二少年对圣杯战争的一切幻想。

    A-1 Pictures 制作的改编动画找准定位,在维持主干的基础上,大幅压缩了原著文戏,保证每集均有重量级打戏。从序章《黎明低语》的「闪恩对轰」开始,爆点此起彼伏,贡献名场面无数,毫不吝啬的作画资源加上泽野弘之的恢弘配乐,怎一个爽字了得。这场兼顾正剧和闹剧的幻想嘉年华,堪称本季度最强爆米花动画,有潜力成为年轻人的第一部 Fate。


    [动画] 史前战纪 第三季

    • 关键词:奇幻 / 动作 / 冒险
    • 又名:Primal Season 3
    • 片长:22 分钟(单集)× 10 集,每周日更新
    • 观看渠道:HBO Max豆瓣链接

    死亡不是终点。

    @SHY:世代交替的第二季结局后,大部分观众想必认为,片尾骑龙出征的矛的女儿将接过主角宝座。然而,本作向来不按套路出牌。第三季开头,本已长眠的矛被复活为行尸,而在意外摆脱控制后,只剩躯壳的他靠本能游荡,直到残存的记忆泛起涟漪。

    据主创格恩迪·塔塔科夫斯基透露,他本打算将第二季作为系列句点,直到突然冒出了这个难以割舍的点子。继承令前作脱颖而出的要素,本季用凌厉的笔锋勾勒众生百态,深入这片弱肉强食的原始地域。变成僵尸的主角,在能承受更多伤害的同时,下手也更加没轻没重,以血肉横飞的殊死搏斗,践行令人血脉偾张的暴力美学。

    失去理性和情感的主角,断绝了与往日的联系,却在某种意义上令本季更贴近本源,回归故事伊始时神秘而克制的蛮荒冒险。当朦胧的片段逐渐明晰,矛追随着一度留下的痕迹,踏上探寻自我、找回人性的漫漫长路,从另一种角度重新认知这个世界。结合优秀的美术和鲜明的叙事,相信这部有口皆碑的硬派成人动画,定能续写辉煌。


    更多

    [电影] 用武之地 @潘誉晗:电影改编自真实事件,驻外记者马笑与医生潘文佳陪同工程师苗峰修理基站,却被恐怖分子绑架,在面对 500 万美金一人的赎金条件,展开了为期 105 天的自救行动。得益于对事件和相关资料的大量考察,电影拍得细腻而真实。沙尘、爆炸、鲜血、恐怖分子的暴虐惨无人道……战争永远残忍,我们要远离战争、热爱和平。

    [美剧] 他和她的谎 @Sholmes:亚特兰大附近的小镇上发生了一起凶杀案,负责调查案件的杰克和报道这件案子的主播安娜都认识死者瑞秋。在瑞秋被害的当晚,杰克和她在树林中的车里约会,而安娜就在不远处冷眼旁观,杰克和安娜只能通过谎言来掩盖和被害人的联系。本剧以双视角叙事探讨真相与谎言的界限,构筑了一个关于欺骗和自我保护的多层次叙事迷宫。

    [日剧] 东京 P.D. 警视厅公关二课 @Sholmes:今泉是一名刑警,却意外被调往警视厅广报课,负责与媒体打交道,让他深感困惑与抗拒。墨田区发生一起女性刺杀案,调查结果指向长期跟踪受害者的警察矢岛,但为了掩盖丑闻,警视厅人事监察课长桥本强行将无辜的流浪汉塑造成凶手,今泉试图用迂回的手段揭开真相。该剧以刑事案件和媒体报道为切入点,兼具社会性与悬疑张力。

    [日剧] 天狼星的反证 @Sholmes:藤嶋律师致力于为蒙冤者辩护和翻案,25年前发生的「吉田川事件」中被判死刑的宫原,如今向藤嶋寄来了声称自己无罪的信件。藤嶋开始调查这桩陈年旧案,挑战几乎不可能成功的再审请求。剧中不仅聚焦案件真相的抽丝剥茧,更通过律师自身的创伤、死刑犯家属的苦痛等群像刻画,让这个关于司法正义的故事充满了人性关怀。

    [韩剧] UDT :我们小区特工队 @潘誉晗:这个小区不得了,保险调查员崔江是 UDT 出身的爆破专家,五金店老板郭炳南是前特种兵,而超市女老板更是叱咤风云的魔鬼教练。退役后的他们只想过平凡日子,可小区内接连发生的爆炸案,让三人决定联起手来,保护所在的小区。完美融合了动作与喜剧元素的剧集节奏很好,守护家人与家园这个主题也很温馨动人。

    [爱尔兰] 莱昂纳德和饥饿的保罗 @潘誉晗:莱昂纳德和保罗是对安静的好友,莱昂纳德有种平静的丧感,平时没啥特别的喜好,唯一的乐趣就是去保罗家玩桌游。保罗和父母同住,生活也是淡淡的。根据同名小说改编的剧集讲述了两个大龄青年的生活,莱昂纳德和保罗的日常,没有太多的起伏与波澜。可正是这样克制安静的简单日子,会让你觉得生活也许就该这样。


    📅 本周新预告

    《葬送的芙莉莲 第二季》正式预告

    1 月 11 日,TV 动画《葬送的芙莉莲 第二季》发布了正式预告,宣布 OP 由 Mrs. GREEN APPLE 演唱,将于 1 月 16 日开始播出。本作改编自山田钟人、阿部司的同名漫画,斋藤圭一郎导演协力,北川朋哉执导,MADHOUSE 制作,讲述精灵魔法使芙莉莲的旅程。 来源

    《机动战士高达 闪光的哈萨维 喀耳刻的魔女》新预告

    1 月 16 日,动画电影《机动战士高达 闪光的哈萨维 喀耳刻的魔女》发布了主题曲预告,将于 1 月 30 日在日本上映。本作改编自富野由悠季的同名小说,村濑修功执导,武藤康之编剧,泽野弘之配乐,日升制作,小野贤章、上田丽奈、诹访部顺一、齐藤壮马等配音。 来源

    《海贼王 第二季》先导预告

    1 月 12 日,《海贼王》真人美剧第二季发布了「巴洛克华克」版预告,将于 3 月 10 日上线 Netflix。伊纳基·戈多伊、新田真剑佑、埃米莉·拉德、雅各布·吉布森、塔兹·斯盖拉等主演,草帽一伙从罗格镇起航,穿越颠倒山抵达伟大航道,斯摩格、罗宾、薇薇、乔巴等亮相。 来源

    《木乃伊》首支预告

    1 月 13 日,电影《木乃伊》发布了首支先导预告,将于 4 月 17 日在北美上映。温子仁监制,李·克罗宁(《鬼玩人崛起》)执导,杰克·莱诺、莱娅·科斯塔、梅·卡拉美维等主演,一位记者的女儿在沙漠神秘失踪,本应是重逢的喜悦,却逐渐演变成一场活生生的噩梦。 来源

    《亢奋 第三季》首支预告

    1 月 14 日,HBO 热门剧集《亢奋》发布了第三季首支预告,定档 4 月 12 日开始播出。赞达亚、亨特·莎弗、埃里克·迪恩、雅各布·艾洛蒂、西德尼·斯维尼、科尔曼·多明戈、罗莎莉亚、亚历克萨·德米、茉德·阿帕图等回归出演,高中生活结束,众人走向了不同的人生。 来源

    更多

    电影《复仇者联盟 5:毁灭日》新贴片预告:宣布神奇四侠和瓦坎达人回归,此前 3 支贴片预告已陆续确认美国队长、X 战警、雷神等超英回归,小罗伯特·唐尼回归饰演大反派毁灭博士,罗素兄弟执导,已定档 12 月 18 日在北美上映。 来源

    剧集《帝王计划:怪兽遗产 第二季》先导预告:库尔特·拉塞尔、泽井杏奈、科雷西·克莱门斯、渡部莲、平岳大等继续主演,哥斯拉和泰坦巨兽们的激战将旧金山夷为平地,来到怪兽真实存在的惊人新世界,2 月 27 日上线 Apple TV。 来源

    《洛杉矶劫案》发布新正式预告:克里斯·海姆斯沃斯、哈莉·贝瑞、马克·鲁法洛、巴里·基奥恩主演,巴特·雷顿(《美国动物》)执导并联合彼特·斯特劳恩(《锅匠,裁缝,士兵,间谍》)编剧,改编自唐·温斯洛所著同名小说,2 月 13 日北美上映。

    📽 影视新闻周报

    《呼啸山庄》确认引进

    1 月 12 日,电影《呼啸山庄》确认引进中国内地,并发布了 预告 和海报,档期待定。埃默拉尔德·芬内尔(《萨特本》)执导,玛格特·罗比、雅各布·艾洛蒂主演,周洪、艾莉森·奥利弗、欧文·库珀等出演,演绎孤儿希斯克利夫和恩萧家女儿凯瑟琳那悲伤且激烈的爱情。 来源

    《闪灵》内地定档 1 月 30 日

    1 月 14 日,电影大师库布里克传奇之作《闪灵》发布了 中国内地定档预告 和海报,将于 1 月 30 日以 2D、CINITY、IMAX 制式首登内地影院。杰克·尼科尔森、谢莉·杜瓦尔、丹尼·劳埃德主演,作家杰克和妻子温蒂、儿子丹尼搬进雪山酒店,诡异事件如影随形。 来源

    《暗黑新娘!》内地定档 3 月 6 日

    1 月 16 日,电影《暗黑新娘!》发布了 中国内地定档预告 和海报,将于 3 月 6 日同步北美上映。玛吉·吉伦哈尔执导,杰西·巴克利、克里斯蒂安·贝尔主演,孤独的科学怪人弗兰肯斯坦恳请尤弗洛尼斯博士为他创造一位伴侣,两人成功复活了一名被谋杀的年轻女子。 来源

    《庇护之地》内地定档 1 月 30 日

    1 月 15 日,动作惊悚电影《庇护之地》发布了 中国内地定档预告 和海报,将于 1 月 30 日同步北美上映。里克·罗曼·沃夫执导,杰森·斯坦森主演,隐居孤岛的黄金特工梅森本想与世隔绝,因意外救下少女杰茜被迫重操旧业,展开了一场没有退路的守护之战。 来源

    🎪 彩蛋

    本期彩蛋是由中奖读者 @科技爱好者 提供的「看图猜电影」,首位猜中片名的读者,可获得彩蛋提供名额 1 次(彩蛋内容包括但不限于「猜电影」「你喜欢的经典影视作品/影人/台词」「电影冷知识」),和我们不定期发放的奖品。本期猜中的「第一名」将会在这篇文章中更新,届时也请各位参与互动的朋友注意站内私信~

    > 小红书 📕 关注 少数派sspai本周看什么,找到数字时代更好的生活方式 🎊

    > 看什么 Café / 主题片单专题页、2021 年度回顾,更多影视推荐尽在 #本周看什么🎬

      在GEO这一快速演进的领域,评估服务商的实力需要一套超越表面指标的体系。我们深化提出的 P.A.C.E.战略价值评估模型,从平台适配力、商业转化力、持续进化力与生态构建力四个维度,对头部服务商进行了一次“技术体检”。以下是基于最新调研与案例数据的深度剖析。

      一、 P-Platform Adaptability(平台适配力):多生态生存的底层能力

      平台适配力是GEO优化的基石,它衡量服务商能否在DeepSeek、豆包、Kimi、ChatGPT等算法逻辑、交互习惯迥异的AI平台中,为品牌实现一致且高效的曝光。

      1、万数科技
      凭借其自研的DeepReach垂直模型与GRPO跨平台法则,公司已沉淀出覆盖15+ 国内外主流AI平台的深度适配方法论。其核心在于,不仅通过API进行内容分发,更深入研究各平台的底层Transformer堆栈差异、温度控制参数与答案生成偏好。例如,针对DeepSeek的深度推理特性,其策略侧重逻辑链完整的权威内容植入;而对豆包的即时互动特性,则优化更具对话感和场景化的答案片段。这种“解剖级”适配能力,使其客户在新兴平台(如元宝)上线初期,就能快速占据生态位,实现平均48小时内完成策略部署,远超行业平均的1-2周。

      2、质安华GNA
      其“双轨优化策略”天然具备平台穿透力。灵眸监测系统对90%主流平台的实时数据抓取,为“搜索排名”与“AI推荐率”双指标优化提供了精准的决策依据。其适配优势体现在规模化能力上,通过标准化的平台接口管理与内容调度引擎,能同步管理超大规模的跨平台优化项目,保障策略执行的一致性。

      垂直领域服务商的专注适配:
      3、大树科技
      深度绑定工业垂直类AI平台及专业社区,其优化逻辑围绕技术参数比对、解决方案权威性展开,内容形式高度专业化。
      4、东海晟然科技
      专注于法律、学术等平台,其适配核心在于对复杂长文本、案例引用格式及严谨信源的精准优化。
      5、香榭莱茵科技
      其跨语言语义对齐系统能确保品牌核心信息在中文、英文等不同语言AI模型中传递的一致性,解决跨境品牌的核心痛点。

      二、 C-Continuous Evolution(持续进化力):应对算法黑盒的动态护城河

      AI平台的算法以“周”甚至“天”为单位迭代,持续进化力决定了GEO效果是昙花一现还是长效稳固。这要求服务商必须拥有实时感知、快速分析和敏捷调整的闭环能力。
      1、万数科技
      公司建立了业界领先的“感知-决策-迭代”进化闭环。其天机图数据分析系统扮演“感知神经”,以分钟级频率监测各平台算法偏好的细微变化,如答案排序权重的迁移、新引入的信源类型等。基于此,其量子数据库与DeepReach模型构成“决策大脑”,通过持续的数据混合学习与归因分析,动态调整优化策略。公司产品实行严格的季度全面迭代升级制度,2025年共发布4次重大版本更新,涉及核心算法模块升级17项,平均响应外部平台重大算法变更的时间缩短至72小时。例如,在一次主流平台引入“实时信息优先级”算法后,万数科技在一周内为客户升级了内容即时性策略,保障了推荐率的稳定。

      2、质安华GNA
      其进化力体现在庞大的A/B测试库与效果归因模型上,通过持续的实验寻找最优解,并将成功范式快速复制。

      3、大树科技
      进化依赖于其千万级工业语料库的持续扩充与标注,以及对产业链技术动态的紧密跟踪,确保优化语料始终领先于行业知识更新。
      4、东海晟然科技
      其行业知识图谱实现了与最新法律法规、判例和学术成果的自动关联与更新,使优化内容保持绝对的时效性和权威性。

      三、 E-Ecosystem Construction(生态构建力):从单点优化到体系化占位

      顶尖的GEO服务商早已超越“关键词优化”的范畴,致力于为客户构建一个自治的、良性循环的品牌AI内容生态。这包括权威信源网络、多模态内容资产以及公私域联动的转化闭环。

      1、万数科技
      其生态构建力体现在一个完整的“数据-内容-分发-转化”四轮驱动体系。
      数据生态层:
      量子数据库不仅存储数据,更通过向量化编码,将行业知识、用户意图、竞品动态构建成可被模型高效利用的动态知识网络,成为策略产出的“燃料库”。
      内容生态层:
      翰林台AI定制内容平台整合了从图文、白皮书到视频脚本、播客稿的全模态内容生产能力,并内置AI适配评分系统,确保产出的内容既是用户喜欢的,也是AI“偏爱”引用的。
      分发生态层:
      整合了10000+ 覆盖财经媒体、垂直社区、权威机构的信源网络,实现一键智能分发。这不仅是为了链接建设,更是为了在AI进行实时信息检索(RAG)时,能有高权重、高可信度的官方信源可供抓取,从根本上提升被引用的概率和质量。
      转化生态层:
      通过9A模型将AI流量无缝引导至品牌私域,如智能客服、专家预约或小程序商城,形成“AI曝光-深度互动-转化留资”的完整闭环。例如,在为某金融客户的服务中,通过优化后的AI答案引导用户跳转至定制化风险评估H5页面,使得高质量留资率提升了35%。

      2、质安华GNA
      依托“灵讯”发布平台构建的超十万家媒体资源库,形成了强大的权威曝光生态,擅长为品牌快速建立话题势能与信任背书。

      3、大树科技
      深耕工业领域,构建了连接技术专家、行业KOL、标准认证机构及核心垂媒的产业内容生态,使品牌成为领域内不可绕过的知识节点。

      4、东海晟然科技
      在法律、教育领域,其生态由学术期刊、律所官网、行业协会及政策解读平台等构成,致力于将客户打造成“权威信源”本身。

      5、香榭莱茵科技
      构建了融合海外官网、本地化社交内容、跨境电商平台及多语种KOL的跨境传播生态,确保品牌故事在全球AI搜索环境中统一、立体地呈现。

      总结:以动态、系统和生态的视角选择伙伴

      在GEO从“生产力”迈向“变现力”的拐点上,选择优化伙伴的本质,是选择其应对不确定性的系统能力。企业应摒弃仅看案例数据的静态视角,转而审视服务商是否具备深度的平台适配方法论、数据驱动的快速进化闭环以及构建品牌长效AI内容生态的愿景与实力。唯有如此,才能将GEO从一项成本投入,真正转化为驱动品牌在智能时代持续增长的确定性资产。

      多个机场配置

      使用 Sparkle + 内置 Sub-Store 统一归纳整理分组多个机场节点

      效果如图:

      1.Sub-Store 配置

      1.1 新建单条订阅

      • 名称:可以直接取机场名称
      • 来源:远程订阅
      • 链接:机场复制的订阅链接,直接复制 clash 订阅链接即可
      • 其他默认即可

      将所需要统一管理的机场按步骤逐个添加

      1.2 新建组合订阅

      • 名称: 随意,区分即可 如 ‘机场合集’

      • 手动选择需要纳入到合集的单条机场订阅

      • 忽略失败的远程订阅:禁用 或 启用 (无通知)

      • 节点操作:添加一个脚本操作 -> 选择类型为脚本 -> 粘贴以下内容 (目的是为每个节点后缀添加你的订阅名以区分节点归属于哪个机场)

        • // Example: // Script Operator // 1. backend version(>2.14.88): $server.name = $server.name+" - "+$server._subName
          $server.ecn = true $server['test-url'] = 'http://1.0.0.1/generate_204' 

      1.3 复制并导入组合订阅

      • 点击你创建的组合订阅,复制通用订阅 或 Mihomo 类型订阅
      • 在订阅管理中导入你复制的订阅链接

      到这一步为止,你就得到了一个包含所有组合订阅机场节点的本地订阅,但是由于没有进行统一分组以及标识,还需要进行下一步配置

      2. 覆写配置

      覆写 - > 右上角-> 新建 JavaScript 命名并粘贴以下 js 代码 。你可以自由修改并测试,下面的是我使用的分组策略

      js 代码
      // 这里的 main 函数会接收当前的配置(config),修改后返回
      function main(config) {
        
        // 1. 定义我们需要的节点分组和对应的正则
        // 格式:[组名, 正则表达式, 图标(可选)]
        const regionFilters = [
          ['🇭🇰 香港节点', /(HK|Hong|Kong|香港|🇭🇰)/i],
          ['🇯🇵 日本节点', /(JP|Japan|日本|🇯🇵)/i],
          ['🇺🇸 美国节点', /(US|America|美国|🇺🇸)/i],
          ['🇸🇬 新加坡节点', /(SG|Singapore|新加坡|🇸🇬)/i],
          ['🇹🇼 台湾节点', /(TW|Taiwan|台湾|🇹🇼)/i],
          ['🇰🇷 韩国节点', /(KR|Korea|韩国|🇰🇷)/i]
        ];
      
        // 辅助函数:检查是否是垃圾节点(剩余流量、官网等)
        const isBadProxy = (name) => {
          return /剩余|到期|重置|官网|客户端|备用|过期|错误|流量|时间/i.test(name);
        };
      
        // 2. 准备分组的节点容器
        const groups = {
          '🇭🇰 香港节点': [],
          '🇯🇵 日本节点': [],
          '🇺🇸 美国节点': [],
          '🇸🇬 新加坡节点': [],
          '🇹🇼 台湾节点': [],
          '🇰🇷 韩国节点': [],
          '🌍 其他地区': [],
          '♻️ 自动选择': [] // 所有可用节点
        };
      
        // 3. 遍历现有节点,进行分类
        const proxies = config.proxies || [];
        
        proxies.forEach(proxy => {
          const name = proxy.name;
          
          // 过滤垃圾节点
          if (isBadProxy(name)) return;
      
          // 加入“自动选择”全集
          groups['♻️ 自动选择'].push(name);
      
          let matched = false;
          // 尝试匹配特定地区
          for (const [groupName, regex] of regionFilters) {
            if (regex.test(name)) {
              groups[groupName].push(name);
              matched = true;
              break; // 一个节点只归入一个主地区
            }
          }
      
          // 如果没匹配到任何主要国家,放入“其他地区”
          if (!matched) {
            groups['🌍 其他地区'].push(name);
          }
        });
      
        // 4. 定义新的策略组结构
        const newProxyGroups = [
          {
            name: '🚀 节点选择',
            type: 'select',
            proxies: [
              '♻️ 自动选择',
              '🇭🇰 香港节点',
              '🇯🇵 日本节点',
              '🇺🇸 美国节点',
              '🇸🇬 新加坡节点',
              '🇹🇼 台湾节点',
              '🇰🇷 韩国节点',
              '🌍 其他地区',
              'DIRECT'
            ]
          },
          {
            name: '♻️ 自动选择',
            type: 'url-test',
            url: 'http://www.gstatic.com/generate_204',
            interval: 300,
            tolerance: 50,
            proxies: groups['♻️ 自动选择'].length > 0 ? groups['♻️ 自动选择'] : ['DIRECT']
          },
          // 生成各个地区的 url-test 组
          ...regionFilters.map(([name]) => ({
            name: name,
            type: 'url-test',
            url: 'http://www.gstatic.com/generate_204',
            interval: 300,
            tolerance: 50,
            // 如果该地区没节点,回退到 DIRECT 防止报错
            proxies: groups[name].length > 0 ? groups[name] : ['DIRECT']
          })),
          {
            name: '🌍 其他地区',
            type: 'select', // 其他地区用手动选择比较好,因为可能包含不同国家
            proxies: groups['🌍 其他地区'].length > 0 ? groups['🌍 其他地区'] : ['DIRECT']
          },
          {
            name: '📲 电报消息',
            type: 'select',
            proxies: ['🚀 节点选择', '🇸🇬 新加坡节点', '🇭🇰 香港节点', '🇺🇸 美国节点']
          },
          {
            name: '🤖 OpenAI',
            type: 'select',
            proxies: ['🇺🇸 美国节点', '🇯🇵 日本节点', '🇸🇬 新加坡节点', '🚀 节点选择']
          },
          {
            name: '🐟 漏网之鱼',
            type: 'select',
            proxies: ['🚀 节点选择', 'DIRECT']
          }
        ];
      
        // 5. 定义规则集 (Rule Providers)
        const ruleProviders = {
          reject: {
            type: 'http',
            behavior: 'domain',
            url: 'https://cdn.jsdelivr.net/gh/Loyalsoldier/clash-rules@release/reject.txt',
            path: './ruleset/reject.yaml',
            interval: 86400
          },
          icloud: {
            type: 'http',
            behavior: 'domain',
            url: 'https://cdn.jsdelivr.net/gh/Loyalsoldier/clash-rules@release/icloud.txt',
            path: './ruleset/icloud.yaml',
            interval: 86400
          },
          apple: {
            type: 'http',
            behavior: 'domain',
            url: 'https://cdn.jsdelivr.net/gh/Loyalsoldier/clash-rules@release/apple.txt',
            path: './ruleset/apple.yaml',
            interval: 86400
          },
          google: {
            type: 'http',
            behavior: 'domain',
            url: 'https://cdn.jsdelivr.net/gh/Loyalsoldier/clash-rules@release/google.txt',
            path: './ruleset/google.yaml',
            interval: 86400
          },
          proxy: {
            type: 'http',
            behavior: 'domain',
            url: 'https://cdn.jsdelivr.net/gh/Loyalsoldier/clash-rules@release/proxy.txt',
            path: './ruleset/proxy.yaml',
            interval: 86400
          },
          direct: {
            type: 'http',
            behavior: 'domain',
            url: 'https://cdn.jsdelivr.net/gh/Loyalsoldier/clash-rules@release/direct.txt',
            path: './ruleset/direct.yaml',
            interval: 86400
          },
          private: {
            type: 'http',
            behavior: 'domain',
            url: 'https://cdn.jsdelivr.net/gh/Loyalsoldier/clash-rules@release/private.txt',
            path: './ruleset/private.yaml',
            interval: 86400
          },
          telegramcidr: {
            type: 'http',
            behavior: 'ipcidr',
            url: 'https://cdn.jsdelivr.net/gh/Loyalsoldier/clash-rules@release/telegramcidr.txt',
            path: './ruleset/telegramcidr.yaml',
            interval: 86400
          },
          cncidr: {
            type: 'http',
            behavior: 'ipcidr',
            url: 'https://cdn.jsdelivr.net/gh/Loyalsoldier/clash-rules@release/cncidr.txt',
            path: './ruleset/cncidr.yaml',
            interval: 86400
          },
          lancidr: {
            type: 'http',
            behavior: 'ipcidr',
            url: 'https://cdn.jsdelivr.net/gh/Loyalsoldier/clash-rules@release/lancidr.txt',
            path: './ruleset/lancidr.yaml',
            interval: 86400
          },
          applications: {
            type: 'http',
            behavior: 'classical',
            url: 'https://cdn.jsdelivr.net/gh/Loyalsoldier/clash-rules@release/applications.txt',
            path: './ruleset/applications.yaml',
            interval: 86400
          }
        };
      
        // 6. 定义规则 (Rules)
        const rules = [
          'DOMAIN-KEYWORD,augment,🇺🇸 美国节点',
          'RULE-SET,google,🇺🇸 美国节点',
          'DOMAIN-KEYWORD,google,🇺🇸 美国节点',
          'DOMAIN-KEYWORD,antigravity,🇺🇸 美国节点',
          'DOMAIN-SUFFIX,goog,🇺🇸 美国节点',
          'RULE-SET,applications,DIRECT',
          'DOMAIN,clash.razord.top,DIRECT',
          'RULE-SET,private,DIRECT',
          'RULE-SET,reject,REJECT',
          'RULE-SET,icloud,DIRECT',
          'RULE-SET,apple,DIRECT',
          'RULE-SET,proxy,🚀 节点选择',
          'DOMAIN-KEYWORD,github,🚀 节点选择',
          'RULE-SET,direct,DIRECT',
          'RULE-SET,telegramcidr,📲 电报消息',
          'GEOIP,LAN,DIRECT',
          'GEOIP,CN,DIRECT',
          'RULE-SET,lancidr,DIRECT',
          'RULE-SET,cncidr,DIRECT',
          'MATCH,🐟 漏网之鱼'
        ];
      
        // 7. 写入配置
        config['proxy-groups'] = newProxyGroups;
        config['rule-providers'] = ruleProviders;
        config['rules'] = rules;
      
        // 返回修改后的配置
        return config;
      }
      

      应用配置

      • 在你刚刚导入成功的组合订阅处,选择编辑信息,在覆写处选择你刚刚新建的覆写配置文件,保存。点击保存后正常来讲没有任何弹框提示,如果有那就是配置有问题。

      到这里就配置完了,效果就是开头贴出的效果图,小白第一次写这种配置帖,请多担待。


      📌 转载信息
      转载时间:
      2026/1/20 17:50:46