2026年2月

2026 年,智能体将在企业级应用中取得哪些实质性突破?点击下载《2026 年 AI 与数据发展预测》白皮书,获悉专家一手前瞻,抢先拥抱新的工作方式!

传统机器学习在当今人工智能领域依然至关重要,其作为预测洞察的核心驱动力,支撑着从供应链优化到实时欺诈检测等关键业务价值的实现。然而,从实验到生产部署的路径依然充满挑战:各生态系统工具碎片化,需要复杂的配置流程、多轮优化迭代以及持续的运维投入。Snowflake 始终致力于打造现代化的机器学习平台,该平台与您的数据深度集成,提供统一的安全保障,并通过可弹性扩展的工作流加速业务价值实现。 

我们很高兴地宣布,以下功能现已在 Snowflake ML 模型工作流中全面上线:

  • 通过基于 Jupyter 的 Snowflake Notebooks 环境(现已正式可用),使用自然语言提示即可自动开发功能完整的 ML 流水线(Cortex Code 功能即将在 Snowsight 中正式开放);

  • 利用原生集成的实验追踪系统(现已正式可用)高效部署最优模型,轻松实现训练过程中的顶级结果识别、共享与复现;

  • 通过在线 Snowflake 特征存储(现已正式可用)与在线 ML 推理服务(现已正式可用)提供毫秒级低延迟预测,为个性化推荐、欺诈检测等实时场景提供支撑;

  • 运行多模态模型推理任务(公开预览阶段),支持图像、音频等非结构化数据的大规模推理计算。

智能体模型开发

在 Snowflake,我们持续投资于现代化开发体验,以提升开发者效率。今日,我们以集成于全新 Snowflake Notebooks 集成开发环境(IDE)的智能体机器学习能力,重新定义生产级机器学习流程。

Cortex Code 机器学习管道功能

数据科学家常需耗费大量周期开发与排查机器学习工作流,导致运营瓶颈,并使更少模型能够成功部署至生产环境。现在,Snowflake 将智能体人工智能引入机器学习工作流——通过 Snowsight 中的 Cortex Code(即将全面上市),用户可在 Snowflake Notebooks 中仅凭简单自然语言指令,即可让智能体自主迭代、调整并生成完全可执行的机器学习管道。

图 1:Cortex Code 通过简易自然语言提示,实现机器学习工作流自动化

 

Cortex Code 将机器学习工作流中的各类问题拆解为独立步骤,包括数据分析、数据准备、特征工程与模型训练等。该工具融合多步推理、上下文理解与行动执行等先进技术,为用户提供经过验证的解决方案——即开即用的完整机器学习流水线,并可直接在 Snowflake Notebook 中执行。通过系统推荐的优化建议或用户提供的后续指令,Cortex Code 能够协助用户快速迭代至更优版本。借助此项自动化技术,数据科学团队得以从繁复的实验调试工作中解放,节省大量时间,从而更专注于高价值任务。

Snowflake Notebooks

Cortex 代码可直接通过 Snowflake Notebooks 进行集成,用于构建和迭代生产工作流。Snowflake Notebooks 的下一代开发功能现已在 Workspaces 全面开放。依托这些基于 Jupyter 的笔记本,您可以将现有笔记本、脚本和模型训练无缝迁移至 Snowflake 统一平台,同时保留您偏爱的库、Jupyter 运行时特性、熟悉的 IDE 特性以及 Workspaces 内基于文件的组织结构。

Screenshot of Snowflake Notebooks

 图 2:在 Snowflake Notebooks 中强化您的数据科学与高级模型开发工作流

 

此次全新开发体验包含以下增强功能:

托管的 Jupyter/IPython 内核:Notebook 现运行于 Snowflake 托管的 Jupyter/IPython 内核上,确保与各类魔术命令及现有 Notebook 的兼容性。支持 SQL、Python 和 Markdown 代码执行,并实现跨单元数据无缝流转。执行结果将展示于每个单元下方的结果浏览器中,提供数据表与可视化构建工具。

工作空间原生组织架构:现在可直接在工作空间内创建 Notebook,与 SQL 文件、dbt 项目、Python 工具集及其他 Snowflake 开发资产协同管理。您可将所有资源集中组织,使多文件工作流自然顺畅。支持将逻辑重构为辅助模块,将流程拆分为细粒度组件,并按需进行组合编排。全新的终端和变量浏览器进一步加速开发迭代,提升工作效率。

无缝 Git 协作支持:采用 Git 版本控制的工作空间现支持跨代码仓库无缝协作——您可直接在 Snowflake 平台进行分支管理、提交代码和差异比对。若 Git 非首选工作流,共享工作空间为团队提供替代方案:通过基于角色的访问控制机制,在具备内置版本管理与变更追踪的文件集合上进行协作。

支持 Snowflake 容器运行时(CPU 与 GPU):新开发环境专为 Snowflake 容器运行时打造,该预置环境专为数据科学与机器学习任务构建,直接运行于 Snowpark 容器服务之上。其提供多版本 Python 支持及主流机器学习框架,通过分布式计算资源加速训练与数据加载流程。开发阶段使用的运行时版本与后续调度部署版本完全一致,彻底杜绝“本地运行正常但部署失败”的典型问题。

全球领先的数据与人工智能咨询公司 Aimpoint Digital 等企业正在采用 Snowflake Notebooks 推动面向生产就绪的开发工作流。

 

Aimpoint Digital 公司 Snowflake 实践负责人 Christopher Marland 认为:“Snowflake Notebooks 的正式发布是开发者体验的革命性时刻。我们已能轻松为客户开发并投产从动态定价到基于图谱的用户行为预测等各类机器学习工作负载。在 Workspaces 中基于 Notebooks 进行开发,使我们既能集中管理通用代码,又能支持开发者在此基础上进行分布式构建。能够通过 Python 引用 SQL 单元、反之亦然,并对 Notebooks 实现参数化配置,这无疑是一次范式转变。传统调度存储过程的方式已成为过去,Notebooks 为机器学习、人工智能或工程领域的动态工作流提供了无与伦比的灵活性。”

 

若想开始使用 Snowflake Notebooks,可尝试此主题建模快速入门指南

实验追踪

在使用 Snowflake Notebooks 和 Cortex Code 完成模型构建与迭代后,您可通过原生集成的实验跟踪功能(现已正式发布),快速从初始假设推进到高性能模型。该功能使机器学习团队能够系统化地识别、共享并复现不同训练轮次中的最佳表现模型,从而简化协作流程、提升实验可复现性,并加速企业级模型迭代进程。最新发布的 Snowflake 实验跟踪功能支持无缝记录大规模训练过程中产生的数百万条指标,同时完整保存模型参数、产出文件及相关元数据。

Real-time feature and model serving enables low-latency predictions in milliseconds.

 图 3:通过原生集成的实验跟踪功能,可轻松识别最优模型,并对不同版本进行可视化比较

 

众多企业正在采用实验跟踪来存储、追踪和比较模型训练过程中的关键信息,能源科技企业 EnergyHub 便是其中之一——该公司致力于推动公用事业机构与其客户共同构建清洁、分布式的能源未来。

 

EnergyHub 首席机器学习科学家 Dr. Wiliam Franklin 认为:“作为 Snowflake 实验跟踪功能的早期使用者,我们发现该功能完全满足需求,同时免除了维护独立 MLFlow 服务器的繁琐工作。将机器学习实验跟踪整合至我们现有的 Snowflake 平台内,是重要的运维成果。此外,Snowflake 对用户反馈响应极为迅速,功能迭代速度令人印象深刻。”

实时模型服务

当您在 Snowflake 或其他外部平台完成模型训练后,可以轻松将其部署在 Snowflake 数据上进行推理,以生成预测结果。我们正在推出全面可用的新型生产级在线机器学习功能,以支持实时用例,例如个性化推荐与欺诈检测——无需额外的基础设施或复杂配置。通过将批处理与在线机器学习用例统一在单一平台上,开发者现可消除因将敏感数据导出至外部平台而产生的延迟、成本及安全风险。

Easily identify the best-performing model to visualize and compare model versions with natively integrated Experiment Tracking.

图 4:实时特征与模型服务可实现毫秒级低延迟预测

Snowflake 特征存储

我们很高兴地宣布,Snowflake 特征存储现已全面推出在线特征服务功能。Snowflake 特征存储是一套为数据科学家和机器学习工程师打造的集成化解决方案,用于创建、存储、管理与服务机器学习特征,以支持模型训练与推理。该平台提供 Python API 及 SQL 接口,用于特征定义、管理与检索,并配备用于特征元数据管理与持续特征处理的托管基础设施。凭借在线特征服务能力,Snowflake 特征存储可作为批处理与低延迟在线用例的统一解决方案,在 30 毫秒内完成特征服务。

Snowflake 特征存储与您的 Snowflake 数据、特征及模型无缝集成,使大规模机器学习流水线能够轻松高效地投入生产。这消除了特征流水线的冗余与重复,确保客户能够获得具备企业级安全与治理能力的一致、更新及时且准确的特征。Snowflake 用户界面 Snowsight 中集成的特征存储服务集中化管理界面,便于用户搜索与发现特征及模型,并通过数据血缘关系可视化数据流转过程。

您可以通过此快速入门指南,立即开始使用 Snowflake 特征存储的在线特征服务功能。

在线机器学习推理

在线机器学习推理现已全面开放,支持从 Snowflake 模型注册表调用模型进行实时推理,响应延迟低于 100 毫秒。

为满足生产环境的严苛要求,在线机器学习推理将智能自动扩缩容、低延迟性能与全景可观测性融合为一体化工作流。该系统以实现高性价比为首要目标:我们的自动扩缩容逻辑可即时处理海量流量峰值,并在需求下降时缩容至零,彻底消除了 GPU 资源过度配置带来的高昂成本。关键在于,当流量再次攀升时,系统设计可立即响应,确保模型快速扩容以维持低于 100 毫秒的性能表现。

部署机制同样具备强韧性,用户可通过自动滚动更新切换至新模型版本,保障应用流量持续不中断,并支持安全的版本回滚功能。团队还可利用影子模式,在独立于生产环境的并行系统中监控新模型性能,实现安全验证后再进行完整切换。Snowflake 还提供开箱即用的可观测能力,将延迟、吞吐量和错误率等指标直接记录至 Snowflake 数据表,便于深度调试与长期审计。

针对多模态模型的推理

随着 Snowflake 对开源多模态模型推理支持的推出,如今在 Hugging Face 等模型中心的大规模在线及批量推理已变得简单易行。针对非结构化数据的推理支持目前已进入公开预览阶段,涵盖图像、视频和音频等多种数据类型。这一能力无需复杂流程或数据迁移,即可在 Snowflake 平台上解锁目标检测、视觉问答、自动语音识别等人工智能用例。

Snowflake 同时满足实时与批量处理需求:用户可通过 REST API 将多模态模型部署为在线推理服务,也可将其注册至 Snowflake 模型库以支持即时批量调用。借助 Snowflake 分布式计算层,团队可在熟悉的环境中直接对海量数据集执行大规模推理任务。

快速入门

借助智能体、在线与多模态能力领域的最新创新,Snowflake ML 将进一步加速您的机器学习进程,助力实现从原型验证到生产部署的全流程一体化管理,全部在统一的数据平台上完成。

欢迎查阅我们的产品文档,并通过 30 天免费试用指南即刻开启 Snowflake ML 的体验之旅。

原文地址:https://www.snowflake.com/en/blog/production-ml-workflows/

点击链接立即报名注册:Ascent - Snowflake Platform Training - China更多 Snowflake 精彩活动请关注专区

2 月初,OpenAI 正式发布了其最新一代编程智能体GPT-5.3-Codex,这是目前 OpenAI 在 AI 编程领域的最新旗舰模型,标志着该公司在“智能体变成实际协作者”这条路线上的一次重要升级。官方发布中指出,GPT-5.3-Codex 在原有 GPT-5.2-Codex 能力基础上进行了全面提升,包括更强的推理能力、更高的效率和更广的工作流支持,同时提升了用户交互体验和长期任务处理能力,目标是让智能体像人类同事一样在整个开发流程中协作。

 

在权威评测上,新版本在多个行业相关 benchmark 上表现卓越,例如在软件工程综合评测 SWE-Bench Pro 和系统操作评测 Terminal-Bench2.0 上大幅领先前代,在 OSWorld 和其他能力指标上也表现显著,更重要的是整体推理速度提升约 25%。官方强调,这些改进不仅体现在代码生成能力,还包括调试、审查、架构设计等工程师真实需要的工作流环节。

 

在 Reddit、技术论坛等开发者社区中,GPT-5.3-Codex 的反馈呈现出明显的两极分化。一部分开发者分享了正面的经验,例如模型在 CLI 与 IDE 插件中带来的更流畅操作、新版计划模式提供的更清晰步骤反馈等,这与官方提出的“交互式协作和实时指导”方向一致。

 

但也有不小比例的用户发出了批评:有用户指出目前 GPT-5.3-Codex尚未通过 API 向所有开发者开放,部分平台(如通过 API key)无法直接调用最新模型,这让许多开发者难以在自定义环境中集成。

 

另一些用户反映新模型在某些编辑器里表现尚不成熟,例如在 Zed 编辑器中体验不佳,偶尔中断或无法按预期编辑文件,甚至有人因此重新回退使用老版本。

 

还有开发者表示,他们并不总是能获得“官方宣传的强大师任务表现”,尤其在 Web 生成等任务上出现停滞,并认为其它竞争模型(如某些 Claude 系列)在某些日常任务上体验更顺畅。

 

近日,OpenAI Codex 的产品负责人 Alexander Embiricos 做客了一档访谈节目,谈及了 Codex 的产品方向,目标并不只是“让 AI 写得更好”,而是将 AI 打造成一种贯穿软件工程全生命周期的主动型工程队友——能够理解任务、制定计划、执行实现、完成交付,甚至参与审查。

与许多模型负责人不同,Alexander 的视角明显更偏向“工作流”和“真实使用场景”。

 

在加入 OpenAI 之前,Alexander 曾联合创立协作工具公司 Multi 并成功退出,长期关注的不是技术极限,而是工具是否真的被人全天候使用、是否改变了人的工作方式。也正因为如此,这场对话没有围绕参数规模或基准测试展开,而是反复回到一个更具现实冲击力的问题:当工程师开始把完整任务交给 AI,软件工程这件事,正在发生什么变化?

 

在对话中,Alexander 明确否定了“AI 会减少工程师数量”的判断。他认为,未来五年工程师和创造者只会更多,而不是更少。原因并不复杂:历史上,“计算机”“程序员”这些词本身就被多次重定义,而“软件工程师”也正站在下一次重定义的门槛上。

 

真正发生变化的,是人才栈的压缩。在 Codex 团队内部,传统的前端、后端、基础设施等分工正在迅速模糊,每个人都被要求具备更强的全栈能力,甚至同时参与设计与产品判断。在这样的背景下,“工程师”不再只是执行者,而更像是问题定义者与结果把关者。Alexander 甚至半开玩笑地表示,某些情况下,产品经理这个角色是否仍然必要,都是一个值得重新讨论的问题。

 

他的判断很清晰:分工会被压缩,但人类作为创造者的地位不会被削弱。

 

如果说对未来的判断仍带有主观色彩,那么 Alexander 描述的OpenAI 内部变化,则更像是一种已经发生的事实。

 

他反复提到一个关键节点:GPT-5.2 Codex 的发布。在那之前,AI 更多扮演的是“辅助工具”的角色——自动补全、结对编程,人仍然需要坐在编辑器前,驱动整个过程。但从 GPT-5.2 Codex 开始,工作方式发生了本质变化:工程师不再“和 AI 一起写代码”,而是把整个任务直接委托给 AI

 

在 OpenAI 内部,许多工程师几乎不再打开传统 IDE,而是全天候运行Codex。会议期间如果没有让 Codex 同步处理任务,反而会被认为是在浪费时间。Alexander 没有给出一个精确比例,但他的判断非常明确:现在 OpenAI 内部,绝大多数代码都是由 AI 写出来的。这并不意味着工程师“无事可做”,而是他们的注意力,已经从实现细节,转移到任务拆解、计划评估和结果审查上。

 

在对话的最后,Alexander 回答了一位顶尖高校学生的提问:如何在未来五年成为 AI 生态中有价值的工程师?他的态度出人意料地乐观——这是一个前所未有适合做工程师的时代。工具极其强大,理解复杂系统和代码库的成本被大幅压缩。但正因为“构建变得容易”,真正稀缺的东西反而更加清晰:主动性、审美,以及对质量的执念

 

他的建议只有一句话:去构建高质量的东西。一个有思想、有完成度的项目,比任何标准化简历都更有说服力。

 

以下为完整对话内容,经 AI 前线编辑整理:

主持人:我的第一个问题可能有点奇怪,但我还是想问下。我对人们的动机特别着迷:你行动的动力更多是来自对失败的恐惧,还是对胜利的兴奋与渴望?

 

Alexander:我是个追求极致的人。比起害怕失败,胜利的渴望绝对更能驱动我。不过我得跟你坦白一件事:在加入 OpenAI 之前经营创业公司时,曾经历过至暗时刻——实际上那段日子黑暗时刻比比皆是——我突然意识到过去几个月自己一直在拼命避免失败。那一刻恍然大悟:天啊,原来这就是我如此痛苦的原因,很可能也是公司止步不前的根源。所以我得不断自我调整,重新聚焦于争取胜利的初心。但说到底,比成功欲望更强烈的,大概是我天生热爱创造,特别是为人们打造新事物。想到今年就无比振奋,因为将有无数尚未存在的精彩之作被创造出来,交付到众人手中。

 

主持人:马斯克曾预言编程会成为首批被大规模自动化的职业之一。基于你的职位和日常观察,你认同这个观点吗?

 

Alexander:我完全认同编程会是最早被大语言模型深度渗透的领域之一。不过说到“编程被自动化”这个说法,其实值得细品——这就像当年我们不再写汇编语言,转向高级语言编程时,能说编程被自动化了吗?并非如此。

 

我们只是得以用更高效率编写更多代码,结果反而是市场对代码的需求激增,需要更多软件工程师来创造价值。这种自动化更像是工具进化带来的职能转变,就像“计算机”这个词的起源:据说在布莱切利公园破译德国恩尼格玛密码时,需要专人打孔卡、操作机器、做大量表格运算——这些繁琐的机械操作后来被自动化了。甚至最早的电子表格软件,灵感就源于办公室里格子间工位排成矩阵,人们各自计算后将表格传给下个人的场景。这些具体操作确实被技术取代了,但每次这样的变革后,对最终成果的需求都会呈指数级增长,即便具体的工作形态已彻底改变,整个行业反而需要更多从业者参与其中。

 

主持人:所以你认为五年后工程师数量会增加而非减少,对吗?

 

Alexander:没错,其实我们也在不断重新定义术语的内涵——比如“计算机”这个词现在指代的东西早已不同,而如今我们又有了“软件工程师”这个头衔。所以我坚信未来会有更多创造者。

 

现在有个很有趣的观察:人才栈正在发生压缩现象。虽然当前我们仍然需要软件工程师、软件设计师,以及像我这样的产品经理——关于 PM 这个角色你们可以尽情调侃,说实话我也觉得未必需要——但或许当人们谈论“工程师”时,脑海中浮现的已经是比过去更全能的形态。倒退几年,绝大多数团队还严格区分后端工程师和前端工程师;而现在至少在 Codex 团队,这种界限已经非常模糊,每个人都更趋向全栈。因此我认为人才栈确实会持续压缩,但人类作为创造者的本质不会改变。

 

主持人:为什么你认为在这个世界里我们不需要产品经理?你这是在吊人胃口啊。

 

Alexander:首先我觉得产品经理这个角色本身就极难定义——它本质上就是个没有固定范式的岗位,目标就是灵活适配团队或业务的需求。比如当一群人正全力冲刺开发时,产品经理的价值在于后退几步,用前瞻性视野预判方向,协调各方资源推进市场落地,同时担任团队的头号啦啦队长和质量把关人。

 

但仔细想想,这些我描述的(可能也是我当前做的)所有工作,完全可以由一位兼具产品思维的资深技术负责人或设计师来完成。所以产品经理这个角色确实常常能发挥作用,但在团队规模真正变得庞大之前,可能并不需要配置太多这样的岗位

AGI 的瓶颈是什么?

 

主持人:过去几天我可没少狂扒你的“底裤”——把你的文章、推文、过往采访翻了个底朝天,这趟探索简直乐趣无穷。你曾在某处提到,人类验证工作的速度和输入效率才是制约 AGI 发展的关键瓶颈,而非模型算力或架构本身。然后这话就撂在那儿没下文了,快给我解解惑:为什么说人类打字速度和验证工作会成为核心瓶颈?你这句话到底藏着什么深意?

 

Alexander:确实如此。这个话题很有意思。我认为现在存在多个瓶颈,但这或许是最能吸引眼球的一个。如果不介意的话,我们不妨用苏格拉底式问答来探讨:你目前每天使用 AI 的频率大概是多少?

 

主持人:每天 30 多次吧。

 

Alexander:那假设你完全不需要耗费任何精力,你觉得 AI 每天能帮到你多少次?

 

主持人:我认为在所有事务中,AI 将会全天候覆盖每一件事。

 

Alexander:确实如此。现在无论是 OpenAI 内部还是外部的工程师都在告诉我:他们全天候开着 Codex,从不合上笔记本电脑。开会期间若没让它运行着,简直就是在浪费时间——必须确保 Codex 随时在为我处理工作。

 

这确实很酷也很令人兴奋,但反过来说,要管理这些智能体、确保它们持续运转本身也是个庞大的工作量。回到刚才说的每天 30 次使用频率,我们观察 Codex 用户的使用数据也大致在这个区间。但在我看来,AI 本应每天为我们提供上万次帮助——只要算力允许,这个目标终将实现。问题在于,即便像我这样专门研究这个领域的人,明知该用 AI 处理所有事务,但我实在太懒,懒得敲那么多提示词;也缺乏足够的创意去发掘 AI 能帮忙的所有场景。结果我的使用频率和你相差无几。

 

直到现在,当我用 AI 完成像准备这次对话这样有趣的任务时,还会暗自得意:“不错,又解锁了 AI 的新用法。”这对你我这样热衷此道的人倒无妨,但我们不能指望普通人为享受通用人工智能的红利而付出太多学习成本。

 

理想状态应该是:使用 AI 无需琢磨提示词技巧,它就该简单到不费吹灰之力;你甚至无需意识到需要 AI 帮助,它自会理解你的处境,适时给予贴心的协助。

 

主持人:这正是我认为 Claude 做得好的地方——他们针对法律、Excel 等场景推出了定制化版本,让用户能直接上手建立 DCF 模型(虽然我对模型不感冒,但不得不承认比过去的操作强多了)。那么你认为你的职责是否就是将提示词和人工操作产品化,从而消除这一瓶颈?

 

Alexander:没错,这正是我们要做的——既要确保模型具备卓越能力,最终更要让 AI 高度产品化,可能是神奇的对话框、语音输入,甚至直接加入群聊就能自动提供帮助。

 

不过中间阶段其实藏着更深的门道,我认为当前最大的价值恰恰就藏在这个过渡期。具体来说,你可以尝试针对特定市场将 AI 的某个功能产品化,虽然很多公司都在这么做,但真正找准有效形态并不容易。之前你播客有位嘉宾说得特别在理:企业没有付费门槛根本没法落地 AI。

 

主持人:对,就是 Invisible AI 的 Matt Fitzpatrick 提到的这个观点。

 

Alexander:确实,从财务角度看是这样,但我其实完全不同意企业级优先的自动化路径。

我认为当前最重要的是为真实用户打造工具。正如 Matt 在播客中提到的,通过全职员工构建自动化流程当然可行,但这会受制于自上而下的视角局限和人力配置的边界。

 

而我憧憬的 AI 未来,是让每个人都成为被 AI 赋能的超级个体。要实现这个愿景,我们需要打造面向个人用户、能让所有人轻松上手的工具。当前最有趣的阶段,恰恰是为那些热衷于探索 AI 应用场景的先行者构建工具。回想 Cognition 的 Code 工具初次发布时的精妙之处,正是提供了一个能在终端中无缝使用的开放工具,激发用户自发探索应用场景。这启示我们,在将 AI 拓展到编程之外的工作领域时,最重要的不是过度定制垂直场景工具,而是打造足够开放的创作平台,让用户能针对任何任务进行创造性应用

智能体开发的三个阶段

 

主持人:但这不就把责任和精力又推回给用户了吗?这恰恰回到了你之前说的“人类行动瓶颈”问题——如果连任务都不定义,等于把定义权完全交给了人类,而人类既缺乏这种定义能力,也缺少这样做的意愿。

 

Alexander:是的,我是这么认为的,这也是我觉得它是瓶颈所在的原因。

 

在我看来,整个过程基本分为三个阶段:首先,先让智能体在软件工程和编码领域做到足够出色,因为大语言模型本身就擅长这方面;其次,我们会意识到,要让智能体在更广泛的场景中发挥作用,让它能够操作计算机是非常有价值的,同时我们也会发现,所有智能体本质上其实都是编码智能体,因为编码是智能体使用计算机的最佳方式。

 

所以我们可以沿用这个极具灵活性的思路,把它开放给所有乐于探索和尝试的人,我们已经看到有人开始通过类似 Codex 这类应用这么做了,这类应用原本是为开发者设计的,但开发者们却用它来完成各种非编码类的任务;最后,等我们验证出有效的方案后,就进行你所说的产品化,打造出功能高度专一、用户能够开箱即用的产品。我认为我们会在未来几个月里快速走完这一整个过程。

 

主持人:你刚才提到的关于企业内全职员工部署和实施的问题,关键还在于数据安全敏感性、权限配置和访问条款——这些实际操作难如登天,而大多数人其实并没有我们想象的那么聪明和自信。尤其是在大型企业环境中更是如此。我认为确实需要全职员工深入介入,为各种横向解决方案进行定制化适配才能落地运行。我错了吗?

 

Alexander:我觉得你的判断是对的。如果你一开始就试图从零直接跳到一,脑子里又有一个宏大的愿景——比如构建一个覆盖所有流程的终极自动化系统——那确实会立刻撞上大量现实障碍。

 

我这里并不是贬义地说“宏大”,而是说这类项目不可避免地要处理安全、合规等问题,而这些问题都是真实存在的。你还需要打通各种数据系统、系统记录、执行系统等等。要完成这些,你基本上需要一个完整的、企业级的 IT 或数据基础设施团队来支撑。

 

但我们观察到,如果完全采用这种自上而下(top-down)的方式,结果往往是:严重低估、甚至浪费了 AI 在帮助企业中的潜力

 

相比之下,更好的方式可能是并行推进。一方面继续解决系统层面的难题,另一方面,把 AI 先交到真正干活的人手里——那些每天在一线工作的员工。

 

当员工开始实际使用 AI,他们会逐渐建立起一种“心理模型”,理解 AI 能帮自己做什么、不能做什么。然后,他们会自然地把 AI 拉进自己的工作流中。

 

我举个例子:假设你在做客服工作,公司开始用 AI 自动化你工作中一些重要环节,但你自己从来没用过 ChatGPT,甚至被禁止使用。那么在这种情况下,你对“AI 到底是什么”是没有直觉的。

 

但如果是在另一种世界里,你一边日常使用 ChatGPT 工作,一边看到 LLM 正在自动化你的一部分任务,那你对 AI 的理解会深刻得多。你会觉得自己是被“加速”的,是有控制权的,甚至能影响自动化往哪个方向发展,而不是被一个“从天而降的黑箱系统”所取代。后者其实是非常令人无力的。

 

所以回到你提的问题:你提到的数据控制问题确实存在,也非常现实。但归根结底,每一个工具、每一个功能、每一个工作流,最终都是服务于某个具体的人——某个员工。而这些员工,最终都是通过浏览器、文件系统等接口在使用工具。换句话说,一切最终都会收敛到一个“界面”,而这个界面是可以被运行在本地计算机上的智能体(agent)所操作的。这也是为什么 OpenAI 会去做一件在外界看来有点“反常”的事——我们在构建自己的浏览器(Atlas)

 

你可能会问为什么要这么做,原因有很多,但其中一个关键原因是:当我们从端到端严格控制浏览器时,就能为企业构建安全的、可控的智能体式浏览体验

 

这样,智能体就可以“代理式”地访问那些企业还没有通过 API 或 FD(功能部门)完全开放的系统和流程。

GPT-5.3 Codex 效率大幅提升,我们如何做到的?

 

主持人:你之前提到,有些工程师甚至不愿意合上电脑,因为他们不想中断用 Codex 构建的效率。你们和 Cerebras 建立了合作,而 Cerebras 目前被认为是推理速度最快的算力提供方之一。这是一次非常漂亮的合作。那么,推理速度对使用 Codex 的开发者到底有多重要?

 

Alexander:简单来说:非常重要。

 

主持人:那这会不会形成一种“推理能力的垄断”?比如你们现在有了,竞争对手没有。

 

Alexander:这只是我的个人看法,但我不认为最终会走向一种垄断式的格局。市场上的竞争压力非常大,未来一定会出现多种不同的解决方案。

 

不过我可以透露的是:关于这次合作,我们很快会有新消息公布,而且我对此非常兴奋。这些东西一旦上线,会非常棒。

 

即便不谈硬件合作,仅从模型本身来看,比如 GPT-5.3 Codex,相比之前的模型,在效率上已经有了显著提升。我们收到的反馈是:开发者明显感觉到它比以前快得多,而且是“有竞争力的快”。此外,你还可以在多个层面做优化:模型本身的效率以及推理方式的改进。

 

举个具体的例子:我们最近在 API 层面做了一次更新,相关模型的响应速度提升了大约40%;而在 Codex 产品里,速度也提升了大约25%。所以,速度真的很重要,我们基本是在硬件、推理方式、模型层三个方向同时推进。

 

主持人:你刚才提到把 AI 交到用户手里,这让我想到推理成本的问题。我有位朋友 Jason Lemkin(来自 SaaStr)提出一个观点:“推理就是新的销售和市场”。意思是说,与其养庞大的销售和市场团队,不如把钱花在推理上,让用户更快上手、看到价值,最终甚至不再需要传统的销售和市场团队。这有点像下一代的 PLG(产品驱动增长)。你怎么看?

 

Alexander:说实话,我对这个观点是有些保留的。在这样一个“人人都能构建产品、构建门槛越来越低”的世界里,真正困难的事情并没有消失什么是难的?是与客户建立真正良好的关系 并理解他们真正需要什么。

 

而且我认为,这些事情甚至比以前更难了,因为市场上的选择变得更多、软件数量爆炸式增长。

另外,构建“正确的东西”和“高质量的东西”依然非常难。

 

所以回到销售和市场这个问题,我并不认为它们会消失。相反,随着市场竞争加剧,它们的难度其实是在上升的,而不是下降。

在 OpenAI,很多人不再打开 IDE 了

 

主持人:能不能聊点更具体的?比如在 OpenAI 内部,现在有多少代码是由 Codex 生成的?我记得之前 Claude for Work 的负责人 Boris 说他们内部几乎 100% 都是 AI 写代码。

 

Alexander:我先说我个人的感受,再说团队整体情况。基本上,我认识的大多数人现在已经很少再打开传统代码编辑器了

 

这种变化是逐步发生的,但一个非常明显的“拐点”出现在GPT-5.2 Codex发布之后。那一代模型突然在以下几个方面变得非常强:

 

  • 能持续运行更长时间

  • 能端到端完成任务

  • 能管理上下文

  • 能更好地遵循指令

 

这也是我们后来决定做 Codex App 的重要原因之一。在 GPT-5.2 Codex 之前,我们更多是在用 AI 做自动补全 或者“结对编程”(pair programming)。 那时候,你仍然需要坐在电脑前,手放在键盘上,AI 可能帮你做一点点事情,但整体节奏还是你在“开车”。

 

而从 2024 年 12 月 GPT-5.2 Codex 开始,我们切换到了一种完全不同的工作方式:我不再和 AI 一起写代码,而是把整个任务直接委托给它。流程变成了一起制定计划、确认规格、然后我就“放手让它跑”

 

这是一次非常本质的转变。

 

这也是为什么我们在上周发布了 Codex App——我们想打造一种更适合“委托(delegation)”而不是“结对”的产品形态,让你可以同时把任务分配给多个智能体。

 

即便在 OpenAI 内部,这种变化也非常剧烈。我没有一个精确的百分比数据,但可以说:绝大多数代码现在都是由 AI 写的。很多人甚至不再打开 IDE。即便打开,更多也是为了设计模块之间的接口 或协助规划方案, 真正的代码实现,已经不再由人类直接完成了。

Codex App 为什么不是一个传统 IDE?

 

主持人:那你觉得 24 个月后,IDE 还会是开发栈的一部分吗?

 

Alexander:这要看你怎么定义 IDE。“集成开发环境”这个词本身就非常模糊,几乎什么都能算 IDE。如果按这个定义,那你甚至可以说 Codex App 也是 IDE。但我个人并不这么看。在我心里,IDE 是一个极其强大的编辑器。而我们在设计 Codex App 时,刻意没有加入文本编辑功能,就是为了让使用方式足够清晰。

 

Codex App 的核心能力在于:管理多个智能体、委托任务以及审查变更。它还有一个非常显眼的“Skills”系统,这是一个开放标准,能支持大量非编码任务,比如:任务分流和部署监控。但它没有文本编辑器,这是我们有意为之的设计选择。

 

主持人:如果大量代码都是由 Codex 生成的,那你们内部现在是怎么做代码审查的?AI 会参与内部的代码审查吗?

 

Alexander:这里其实有几个层面。首先,你想做什么这件事的“规格说明(spec)”或“计划(plan)”,变得前所未有地重要。你需要从架构层面去思考:这段代码应该如何工作。最近我们上线了一个非常重要的“计划模式(Plan Mode)”。它的工作方式和其他系统不太一样:智能体会先独立提出一个完整的执行方案,通常是一个相当长、相当详细的计划,然后再回来问你:

你是否同意这种实现方式? 是否希望对某些部分提出修改意见?

 

这其实非常像现实中的场景:假设你招了一个刚加入团队、对代码库还不熟的新工程师。在正式开始写代码之前,他需要先向团队提交一份类似 RFC(Request for Comments)的方案,征求大家的意见。所以,即便这还不是传统意义上的代码审查,但“对计划的审查”正在变得越来越重要。这是因为我们已经进入了一个更偏向“委托(delegation)”而不是“协作编写”的工作阶段。

 

这一点往往被低估了。接下来才是更传统意义上的代码审查。我听到的一个非常常见的问题,尤其是在开源社区,是所谓的“AI 垃圾代码(AI slop)”。很多人直接把 AI 生成的代码提交成 PR,这些 PR 质量很差,提交者可能根本没有测试过,甚至没有真正审过代码。这是一个真实存在的问题。

 

因此,在使用 Codex 时,一个非常常见的做法是:让 Codex 审查它自己生成的 PR 或代码改动。而 Codex 在这方面表现得非常好。我们是明确训练过模型去做代码审查的。训练目标包括:给出高信噪比的反馈、尽量减少“误报式批评”(false positives)。这意味着:当 Codex 提出修改意见时,你是可以高度信任它的。

 

所以在 OpenAI 内部,以及我们推荐给外部用户的做法是:主动让 Codex 做代码审查,甚至可以设置为自动审查。

 

事实上,在 OpenAI,几乎所有代码在推送到主仓库时,都会自动经过 Codex 的审查。一个挺有意思的现象是:有些人为了“测试模型有多强”,会让 Codex 去审查其他模型写的代码。结果往往是:“好吧,那我可能干脆直接用 Codex 写代码算了。”

 

主持人:你刚才提到,对于那些还没用过 Codex,或者很久没回来用的用户,你怎么看“留存”这件事?我记得 YC 合伙人 Tom Blomfield 之前发过一条推文,提到不同代码智能体之间的切换成本——不管是 Cursor、Claude Code 还是 Codex。在这种情况下,用户到底有多“黏”?你们是如何思考留存的?

 

Alexander:我们在 Codex 上采取了一种相当反直觉的策略把它做得尽可能开放。比如 Codex 的核心执行框架(harness)是开源的,我们一直在努力降低用户在不同工具之间切换的成本。举个例子:去年我们刚发布 Codex 时,做了一件很简单的事——我们只是“确立”了一个约定,而不是强推一个品牌化标准。这个约定叫agents.md。它是一个文件,你可以在里面写给智能体的指令。

 

我们刻意没有叫它codex.md,而是希望它成为一个所有智能体都能用的通用约定。现在,几乎所有智能体都在使用agents.md,这其实是一件很棒的事情。就在上周,我们还推动了另一件事:把Skills(技能)——也就是给智能体用的脚本和指令——放进一个中性的目录里,叫agents/,而不是放进codex/这样的私有命名空间。

 

同样,除了“那个熟悉的例外”,大家基本都跟进了。从开发者角度来说,这意味着:选择更多 并且试错成本更低。当然,目前来看,代码生成这类任务本身是高度“封闭”的(hermetic)。你可以把它理解成美剧里的“单元剧”:智能体读取一个通用的 agents 文件、使用通用的 skills、生成一个补丁、补丁提交进 Git。

 

从输入到输出,都是高度厂商中立的,所以切换成本很低。但未来会发生变化。当智能体不再只是写代码,而是开始接入 Sentry、操作 Google Docs 或连接企业内部系统,这时,“连接某个系统”本身就变成了一次高度粘性的决策。尤其在企业场景下,你必须信任:智能体能访问这些系统,同时又有足够严格的安全护栏、沙箱和权限控制。而这些事情,你是不愿意反复做很多次的

 

所以我们在构建 Codex 时,其实已经提前预判了这一阶段的到来。这也是为什么我们采用了极其保守的沙箱策略——本质上是操作系统级别的控制。我个人很喜欢一本书叫《Seven Powers》,讲的是企业构建长期价值和可持续性的七种方式,其中之一就是“留存与黏性”。但对我们来说,这件事的优先级其实有点不一样。

“赢”的决定性因素:算力优势 + 最好的模型

 

主持人:但如果从商业角度看,你们肯定还是会关心:如何让用户留在 Codex,而不是在 Cursor 或 Claude Code 出现更好模型时立刻切走?

 

Alexander:这是个很好的问题。当然,我们是在经营一家公司,但从根本上说,我们的使命是“安全地把 AGI 的收益带给全人类”。所以对很多人来说很反直觉的一点是:我们花了巨大的精力训练模型,然后把这些模型提供给竞争对手使用。我知道,从风险投资的视角来看,这几乎是难以理解的。

 

主持人:这在 VC 视角里确实非常反常。

 

Alexander:是的,但这正是 OpenAI 非常独特的地方。我们在玩一场极其长期的博弈。当竞争对手变强时,我们是能学到东西的,这反而对我们有帮助。如果他们是封闭的、黑箱式地进步,我们反而学不到。

 

举个例子:今天早上我还转推了 Warp 的一个新发布。我和他们没有任何商业关系,但他们在“云端 + 本地智能体协作”这件事上的一些设计思路,真的很有启发性。这个领域有意思的地方就在于:大家在不同公司、不同路径上,正在同时得出相似的结论,然后把它们实现出来。

 

当然,从现实角度讲,我们也并不是没有优势:ChatGPT 带来的巨大分发优势、自研模型与自有执行框架的深度耦合、对新模型的提前访问权。所以我们确实是在“为了赢而竞争”,而且我们有很多优势。但与此同时,我们也在坚持把模型服务提供给整个生态,同时推动开放标准。

 

主持人:如果一定要用投资语言来问一句:最终决定胜负的关键是什么?是 GTM?是品牌?是产品执行?还是算力和推理速度?

 

Alexander:如果从公司整体角度说——当然这已经远远超出我的职级了——我会说是:算力优势 + 最好的模型。

 

为了实现这一点,我们需要成功的商业模式来支撑持续投入。而 Codex 这种“研究 + 产品”高度融合的团队,其实会反过来倒逼模型进步得更快。但如果从产品层面来说,我认为最重要的一点只有一个:做出一个真正好用、让人愿意用的产品。我们一直强调先服务好个人,让人真正“熟练”地使用这些工具,再自然地把自动化引入工作流。这条路径看起来有点反直觉,但我认为它的长期影响力会更大。至于企业市场,GTM 非常重要。我学到的一个惨痛教训是:你不能只是对企业说一句“你们随便用吧”。

 

你需要做大量教育、支持复杂配置、和负责人(比如开发者体验负责人)一起设计工作方式,再把这种工作方式复制到整个组织中。

 

主持人:那你们内部衡量成功的核心指标是什么?是收入吗?

 

Alexander:不是。最核心的指标是活跃用户数。

 

主持人:具体是 DAU 还是 WAU?

 

Alexander:目前我们主要看 WAU(周活跃用户)。标准是:这个人是否真的在产品里完成过一次交互,比如发送过一个 prompt。

 

主持人:如果 Codex 是要替代 IDE 的,DAU 会不会更合理?

 

Alexander:我同意。DAU 很快会更合理。我们现在用 WAU,更多是历史原因。我理想中的状态是:任何一个任务,你的第一反应都是“让一个智能体来帮我”。

就像查信息打卡 Google,问问题打开 ChatGPT。

 

下一阶段是人们做任何事先打开一个输入框,然后智能体开始行动,哪怕它只帮你完成其中一小步。

 

主持人:你认为 Chat 会成为 AI 与人类交互的长期主界面吗?

 

Alexander:简短答案是:会。

 

但更准确地说,是“对话界面 + 专用界面”的组合。如果你看科幻电影,未来的 AI 往往是一个你可以用任何方式、聊任何事的存在。你不应该需要区分这是我的编程 AI 或者这是我的销售 AI。

你只是“跟一个东西说话”,它就会帮你。但对高阶用户来说,只靠聊天会很烦。就像你有一个助理,但你所有事情都必须通过“对话”才能完成,那是低效的。

 

所以最终形态会是 Chat / 语音作为通用入口,针对不同角色的专用 GUI。比如我:用聊天做播客准备,用 Codex App 深入看代码。而一个市场人员用聊天问产品问题,用专门的分析界面看广告数据。

 

构建高质量代码模型的数据是充足的

 

主持人:我在 LinkedIn 上提到过这档节目,有一位来自另一家公司的优秀投资人留言说——

他用了一个“哈利·波特”的比喻,说某家公司就像伏地魔,“那个不能被提及名字的人”。他说:“你应该问问他,代码数据的护城河到底怎么看?现在是不是 Anthropic 已经拿走了所有数据?”

 

Alexander:从我们目前看到的情况来看——当然,这一点我也会更多地参考我们研究团队的判断——我们认为用于构建高质量代码模型的数据是充足的。我反而觉得,现在更有意思、也更困难的数据来源,在于知识型工作(knowledge work)任务。这类数据在互联网上几乎不存在,比如战略分析、复杂决策、跨角色协作,实际业务判断过程。

 

所以你会开始产生一些很有意思的想法,比如:是否需要付费让人去“模拟完成任务”,从而学习这些完整的任务轨迹,是否应该收购一些已经倒闭、但沉淀了大量协作数据的公司,比如使用 Slack 的组织。总体来说,知识型工作的任务分布,比编码复杂得多,也稀缺得多

 

主持人:既然这些数据如此稀缺,那你们如何看待和数据服务商的关系?比如 McCor、Turing、Invisible、Scale 这类公司。你们会在这方面投入 10 倍资源,还是反而觉得“数据太贵了,不如自己做”?

 

Alexander:我们的判断标准其实只有一个:哪种方式能让我们跑得最快。在内部搭建完整的数据采集体系,时间成本和人力成本都非常高,而我们是一个相对精干的小团队。所以到目前为止,我的观察是:一旦我们需要大规模跑数据项目,通常会选择和这些公司合作,把精力集中在模型和产品本身。

Codex 会走向低端消费者市场吗?

 

主持人:在消费端,Codex 会不会和 Lovable、Replit 这类工具正面竞争?比如一年或两年后,是否会下沉到“任何人都能做一个 about me 页面或小企业网站”的层级?

 

Alexander:目前来看,我们并不觉得自己在和它们直接竞争。如果你看过我们的超级碗广告,口号是:“You can just build things.”(你可以直接开始构建)。通过这个应用,我们注意到:越来越多技术背景不强的人,也开始用 Codex 来做东西了。他们做的事情通常很“Hello World”级别,但确实在发生。而且我们最近有一个很大的变化:开始向免费 ChatGPT 用户和 Go 计划用户提供部分 Codex 功能。这在“可用性”层面是一次巨大的扩展。所以我确实预期,会有一些用户原本可能会去用专门的低代码工具,但现在因为 Codex 就在他们手边,于是直接用 Codex 做一些简单的构建。

 

主持人:如果让你说一件“最想做得不一样、但目前还没法做的事”,会是什么?

 

Alexander:这是个有意思的问题。老实说,最近这几周对我们来说非常好,我对当前发生的一切都挺兴奋的。

 

主持人:这种“风向变化”的感觉,团队内部能明显感受到吗?

 

Alexander:绝对能。我们对这种变化非常敏感。如果回看 Codex 的历史:去年我们第一个发布的产品,是一个听起来非常惊艳的想法——给每个智能体一台云端电脑,可以并行完成任务

 

坦白说,它并没有像我们后来发布的产品那样成功。从去年 8 月 GPT-5 之后,我们开始全力推进交互式编程,而这正是当下市场竞争最激烈的方向。公开数据上看从 8 月开始,我们大约增长了 20 倍,到年底,又几乎翻了一倍。但真正的变化发生在上周。我们一直认为自己拥有最智能的模型(Codex 5.3),但用户反馈是模型偏慢、不够“好玩” 、在工作过程中沟通感不强

我们正面解决了这些问题。

 

即便对比某个在我们之前 20 分钟发布、短暂“state-of-the-art”的竞品模型,我们也明显感觉到了变化。

 

同时,我们一直被诟病的一点是:IDE 插件体验很好,但 CLI(命令行)不够精致。而现在这个 App 的反馈几乎是一边倒的正向评价——简单、直觉,甚至“出乎意料地简单”。很多曾经的批评者也被转化成了用户。再加上超级碗广告、免费开放策略——所以回到你的问题,我现在最想做的两件事是:

 

第一,我想重新回到云端智能体(cloud agent)。去年我们从云端转向交互式编程,是一个非常理性的决策:如果用户还不能流畅地使用工具、还不能简单地让它跑起来,就贸然推进自动化工作流,那只会变成“只有极少数高级用户能用的空想”。

 

但现在不一样了。当用户每天都在用、每次使用都会配置得更好,那么让它独立在云端运行,就不再是一个巨大跨越。

 

第二,是关注真正的瓶颈。现在,写代码本身几乎已经变得“廉价”。真正难的是:如何做代码评审、如何判断质量以及如何确认方向是对的。这些问题仍然被严重低估、投入不足。

 

我的目标是:最终让一个你信任的智能体,可以端到端负责一个微服务或内部工具,完成完整的迭代闭环,甚至直接接收用户反馈,而不需要人类审查。这在智能、在安全、在控制层面,都是极其困难的问题。

市场终局:少数超级智能体,而不是十几个工具

 

主持人:你认为 Benchmark 和评测到底该占多大权重?

 

Alexander:这是个可能让你不太满意的答案:两者都重要。Benchmark 能很好地衡量“智能水平”,尤其是在评测还没被刷爆之前,进步非常有参考价值。但你必须把它和使用体验结合起来。而体验,本质上是“感觉(vibes)”。不管是内部同事还是客户,我总是惊讶于:人们对模型的评价有多么依赖感觉。人生本来就很“vibes based”。我对孩子说的教训是:人们更愿意和他们喜欢的人一起工作。

 

主持人:投资角度看,你如何判断这个市场的最终形态?

 

Alexander:我认为,最终会是更少的玩家,捕获更多的价值。我们现在处在一个“过渡期”:目前真正实现产品市场匹配的,几乎只有编码智能体。但这是暂时的。长期来看,智能体会变成什么都能帮你做的超级助手

 

在那样的世界里你不会希望公司里有 12 个不同的智能体,让员工自己去想“该和谁说话” 。那样他们就无法形成熟练度,也就无法真正把自动化融入工作。相反,如果你只有一个可以聊任何事情的智能体,员工的 onboarding 就是一句话:“有事就找它。” 它会成为工作的重力中心。

我以前在 Dropbox 工作。在 Slack 崛起之前,我们曾讨论过:人们是该在文档里评论,还是去 Slack 里讨论?文档内评论更高效,但现实是:Slack 成了沟通的中心引力场。哪怕效率更低,人们也更愿意在那里交流。我认为,未来的智能体,也会发生同样的事情。

SaaS 是否会被模型公司“吃掉”?

 

主持人:现在的人才争夺有多激烈?我常对公司说:与其在旧金山,不如在欧洲建团队,因为 SF 的人才又贵又难留。我错了吗?

 

Alexander:人才战争现在非常激烈。即便是在OpenAI,我们品牌很强,也依然要花大量精力去“赢下”心仪的候选人。没人是“免费送上门”的。

 

主持人:在股权定价下,最顶尖的人才还觉得有吸引力吗?

 

Alexander:目前没有人向我表达过相反的看法

 

主持人:你刚才提到,目前智能体真正大规模使用的场景,主要还是编码,少量扩展到比如客服。但从投资角度看,我今天在寻找那些能长期积累价值、为客户持续提供卓越产品的公司。

现在市场上有一种很强的观点:大型 SaaS 公司的收入耐久性接近于零,SaaS 已死,因为模型提供商(你们、Anthropic 等)会“来吃我们的午餐”。 你会如何建议?

 

Alexander:我的第一反应其实非常朴素:所有东西最终都是为人服务的,否则意义何在?

即便是 SaaS,本质上也是为人设计的。所以我会反问几个问题:这家公司是否真正拥有与“人”的关系? 或者,它是否掌握了一个极其关键的系统记录(system of record)

 

如果答案是“是”,那我并不认为这家公司会轻易消失。事实上,在 AI 时代,这两点——

人与系统的交互入口 + 核心记录系统,可能比以往任何时候都更重要。

 

反过来,如果一家 SaaS 公司只是一个“胶水层”:不直接面对人也不拥有系统级记录,那我会更谨慎。我不是这方面的终极专家,但这种公司让我更不安。

 

Alexander:如果基于这种逻辑再看市场,比如SalesforceServiceNow股价下跌 20%、30%、甚至 40%,我认为这种反应被严重夸大了

 

确实有一些公司处境艰难。坦率说,我认为Dropbox正面临非常困难的局面。

 

但像Monday.com这样的公司——对其主要用户群体(大量中小企业和消费者)来说:你能不能用 AI 临时“vibe coding”一个待办清单?可以。

但成本是否划算?并不划算

 

一个待办清单的需求本身非常稳定、简单:添加任务、完成任务、查看历史、分配成员。

并不值得反复用 AI 定制。所以现实是:大多数人会继续用现成工具。市场的恐慌情绪,更多是条件反射式的过度反应。

 

不过我确实认为:客服会成为被强烈冲击的领域。老实说,我不太愿意站在那个赛道上。

 

给下一代工程师的建议

 

主持人:最后,请您回答几个网友的提问。有位学生提问是这样的我是 CS 学生,在斯坦福 / 剑桥 / ETH。如果我想在未来 5 年成为 AI 生态中有价值的工程师,你会怎么建议?

 

Alexander:说实话,从未有过比现在更好的时代来当工程师。你拥有前所未有强大的工具能快速理解复杂代码库、能让 AI 帮你规划改动,甚至能把过去几天的研究压缩到几个小时。所以首先,你应该非常乐观

 

但问题变成:既然构建变得容易,什么变得稀缺?我给出的答案是:主动性(agency)、审美(taste)和质量(quality)

 

我的建议只有一句话:去构建东西,而且是高质量的东西。当有人带着有思想的项目来找我,那比一份标准简历有吸引力得多。

 

参考链接:

https://www.youtube.com/watch?v=S1rQngjpUdI

 

除了首页时间流和侧栏的精选展位,少数派 Matrix 社区还有很多优秀内容因条件所限无法得到有效曝光,因此我们决定重启 Matrix 周报,并在此基础上添加更多社区内容、作者投稿新玩意呈现给大家。


💬一派热议

在上期第 263 期一派讨论《又是一年:来分享你镜头里的归途》中,共有 76 名派友热情参与,十分感谢!

YuTaki(+26) 进入大学之后,一家人相聚在一起的时间越来越少了,今年母亲说要带全家去海南看看,许久没有聚到一起的一家人在这个假期来了一场说走就走的旅行。

我一直认为,家人在哪里,家就在哪里。

所以,不必一定要回到自己的家乡,说着客套的话,摆着尴尬的笑脸,一家人在任何时间任何地点相聚,就是最好的「相聚」。

  • 图 1 为一家人的合照
  • 图 2 为自驾到海南拍的第一张照片
  • 图 3 为自己感觉很出片的一张照片

SCHOENBERG(+18) 回国的飞机上看到了极光!还专门提醒了后排没拉开遮光板的乘客!

Er0Chang(+16) 去年回老家的时候了

Jin 丶 X(+9) 魔都 出租屋的春联

郭凌鹏(+8) 我们今年选择在深圳,没回老家过年。 所以家里打扫一下,随便买几束花。然后去前海湾,骑骑自行车。回家追追剧。 Anyway,太平年真的好看,生命树真的好看。那就在家追剧吧,这就是我的归途。

Ting(+5) 准备归途的福字

CCAnCeRr(+4) 回了老家,不是因为过年。

少数派_993358(+3) 滁州狗市

月大虾(+2)

少数派 99104195(+2) 汉江边的孔明灯

Jenkin(+2) 昨天从昆明飞,延误 3 小时,下机后末班地铁➕顺风车,费时又费钱😭

约斯特普通(+1) 奶奶坐在门口的小椅子上,那个位置也是爷爷在世的时候喜欢坐的地方。

农村的房子其实很少有特别整洁的,有点乱但乱中有序,似乎这些东西就自然而然在那个位置。

缝纫机动队(+1) 放烟火啦

莫失莫忘(+1) 过年咯 (๑ᵔ⌔ᵔ๑)ノ🧨

twety(+1)

Backing(+0) 终于可以分享啦

📢:下一期的一派讨论是派友们热烈期待的话题《二月买了什么好东西》,欢迎来聊。

🔥一周热评

假期期间常规投稿和征文投稿较多,我们将在本周内陆续审核完成,敬请期待。

来自文章 《我几乎不刷短视频,可我不幸福》

Uncertainty(+1) 很好的思考!

我也经历了类似的心路历程。看书看电影一点问题没有,它确实是好的。问题在于,长期的竞争文化和评价体系的内化导致我们将这种好用来与他人比较。想想看,我拿着一本书经过刷手机的众人的时候感到优越——这本质上不荒谬么?他们如何与我个人看书时候的进步何干?更何况,这种优越感反而让人偏离个人进步的初心,倒向了功利主义和孤芳自赏。

强迫自己阅读,强迫自己为了优越感拒绝即时满足的「幸福」,或许是走出算法、信息囚笼的一种过渡状态,但是真正的和解,只能源于自得,源于以自己的选择为乐,在收获之中找到属于自己的「幸福」。

来自文章 《AI 十字路口:当机器学会「思考」,我们应该知道什么?》

少数派90187261(+6) 信息革命中的稀缺资源:

1.高质量数据

2.廉价算力(背后的是权力和资源)

3.人类的判断

4.物理世界的真实体验

yyyyeah(+3) 写得真好!做任何事,先想想这件事 AI 能不能做,如何设计步骤,是否需要人为决策。如果这件事不能用 AI 做,那么想一下,这件事是否是你区别于 AI 的核心竞争力,如果不是,那一定有 AI 能做的方法。

来自文章 《Teable:这才是 AI 时代多维表格该有的样子》

连牙蓝上了(+0) 叮!你有 1000 免费算力到账。

Uom(+0) 「我最开始用多维表格的时候,有个很痛苦的点:字段怎么设计、类型怎么选、结构怎么搞、多表怎么关联,这些东西我这种乐于研究工具的人都觉得有挑战。教别人用?更难了。这种硬核的东西天然有很高的认知门槛。」太对了哥!我自己是比较喜欢鼓捣这些新兴玩意的,但是把它们推向我的工作伙伴是真的难,上手门槛太麻烦,有这功夫早用 Excel 搭完了。

来自文章 《从插混换到纯电,一年开2万公里后,我已不在意能耗且没有里程焦虑!》

Aleix_chen(+4) 我还是想等下一代电池技术比较完善了,再考虑纯电。毕竟节假日的充电,还是相当恼火的。

任大喵(+1) 我此前也在纠结油车还是电车,后面想通了,我有限的预算里面(8~10万),从我住的地方开车回我丈母娘家要 320 公里,按照高速打五六折算,我基本买不了啥电车。

Asturiasyuan(+1) 我感觉市面上 25w 左右的纯电 SUV 即使不用太考虑续航不够。基本上可以满足珠三角内大部分区域的往返。从珠三角不离开广东省的话单程的续航大概率是能够满足的。何况这个价格的大多数车型的补能效率够高,如果不是日常用车 80% 以上都是高速工况,续航应该并不会有啥大问题。

Chane(+1) 挺在理的,其实很多时候都是自己给自己制造焦虑创造需求,就像玩摄影的镜头会越买越多(纯玩器材另当别论)但是实际可能镜头数量和使用情况比例是 28 甚至 19,车子也是,多少是买了插混当纯电开的,就像作者七年就遇到一次问题,那是不是有必要为了避免这一次状况选择更折衷而非更成熟的方案,真的值得思考。当然,每个人的选择,存在既有其合理性。

另外,作者漏了一个选项,油混,作为一个迭代了十几二十年的成熟车型,相比较纯油车型来说,是很值得考虑的一个选择,用了六年,非常满意。

来自文章 《新玩意 236|少数派的编辑们最近买了啥?》

vevan(+12) 优衣库那个包物美价廉非常好用,只是有两个小问题,1 是没有提手不能拎着,2 是内部的两个小口袋没有拉链或魔术贴,里面的东西非常容易掉出来

少数派86715999(+2) 看到第一篇文章里面说到的局域网传输软件用的是 LANDrop,本来想下个试下好不好用,但是看评论反馈用一段时间后缓存很多只能通过卸载重装解决问题,甚至是 3 年前提出的建议到现在还没有解决。

我经常用 LocalSend 传文件,iOS、Android、PC 互传,苹果端常见的问题就是熄屏后需要重启软件,其他并没有什么问题,传输速率取决于设备。

李赫伯特(+2) 60Hz 换到 120Hz 感官应该还是有很大差别的,不信让他换回来试试。

来自文章 《春节玩什么 | 过年聚会担心冷场?不妨试试这 10 款多人游戏》

BlueFish(+0) 我这两天趁打折买了寂静岭 2,当年原版只玩了个开头,虽然看视频被剧透了但依旧津津有味,也没有想象的那么恐怖,我都是关窗子关灯,声音调大😂

另,生化危机到现在一部也没玩过……大姐姐现在也在打折

来自文章 《新年拒酒指南:除了头孢还有什么拒酒的好借口》

Lasagna(+22) 酒本身对神经有害,但带来的味觉审美愉悦,良性的社交和如果能够缓解精神的话,是好的。所以喝烂酒的酒局,不管是饭局白酒还是水啤吵闹酒吧摇骰子+二手烟,对我没有意义,我都直接说出来拒绝,烂酒真的别来。

茅台飞天,就是好,端一杯常温一点酒精味都没有,全是花香和精致的粮食香气。冻一下或者加冰威士忌式纯饮,活活打死一般鸡尾酒吧的大部分调酒/单品烈酒吧。

啤酒盒马找日系,就现在架上,麒麟的晴れ風,三得利的 Premium Malt、金麦,又便宜,香气又好,干干净净,工业大规模的超级精品。三个罐子的美术设计也是顶尖。

这些酒如果喝不出好来,味道不愉悦你的话,纯受罪的话,还是支持直接拒绝。不愿意就是不愿意。

Tuoxigun(+18) 写得很好的文章。但感觉我见过的劝酒从来没有善意的,善意的像家人和真正的朋友都是劝别喝、少喝。劝酒都只是一种「你给不给我面子」的地位关系,或者更直接一点地说,「我叫你喝你就得喝」「我想喝你就得陪我喝」。尤其是看到别人喝得难受还得毫不犹豫地举杯,劝酒的人这种时候最快活了

_东东_(+14) 起初我也扭扭捏捏地说自己酒精过敏,后来直接拒绝,说我不喝。事实证明,如果你不在意这些社交的话,直接拒绝是最有效的,几次之后人家也觉得没意思了。

身边其他几位同龄人本来也是不会喝酒的,但是没有明确拒绝,导致现在每次酒局都要被灌不少白酒。

Bur_ling(+7) 以前我也会找各种比较委婉的借口,现在厌烦了,直接:我不喝,你们喜欢多喝点

来自文章 《Kali LP-UNF|我心中的入门级桌面音箱最优解》

大王叫我来吃派(+6) 官方 MKT 应该买你的图版权

dieson(+1) 其实无源箱配个多功能解码功放一体机给电脑用也挺好,走线反而可能更简洁点,唯一的问题是无源箱普遍箱体比较大——不过我桌子更大,机箱老老实实滚地面去就更没问题了

DJJJJJJJJ(+0) 前几周支付宝惊喜市集可以蹲到1700的好价

评论图片

Plankton(+0) 我的第一款正儿八经的桌面音箱,以前都是用宝华韦健的齐柏林蓝牙连接电脑凑活用,那会儿 B 站云视听研究来研究去就相中了 Kali Lp-unf,确实很不错。

来自文章 《春节长途旅行,这 6 款耐玩小游戏先备好》

特伦(+2) 还有一个推荐…如果你本来就订阅了其他区的 Apple One,那么 Apple Arcade 里的不少游戏都能够完全离线游玩(除了需要在线对战那种)。坐飞机的朋友可以下载几个。

凝伫回首(+15) 强行推一下我 Vibe Coding 的一个,也许没法叫做游戏的,猜城市位置的小游戏(https://stoney239.github.io/cityGuessor/),每个城市还会有 AI 总结的 Wiki 简介,可以用来打发时间,还能长知识

潘誉晗(+4) 沒想到吧。我還在玩動森。並且買了第三台 Switch 開了一個新島。

Harun(+1) 其实这些游戏都属于「静」游戏,对于我这种喜欢「动」游戏的来说,有几个其他选择:我自备一台 Android 机,上面装了移植版的 CS 1.6(可以打 Bot 包,可以加 Mod 地图等等,完全离线,也可局域网联机),键位可以自定义,光是这个已经足够路上消磨时间,而且完全不会无聊,如果你下载了足够多的地图。另外就是 Switch,塞尔达、无人深空这种开放世界游戏,手游的话 Minecraft。另外如果不是坐飞机,还可以玩那种只需要登录验证的弱联机游戏,比如我玩的 Grid 传奇,Static Shift Racing 等等

来自文章 《如何用 Claude Code 把 Claude Code 变成个人助手》

云淡风轻近午天(+5) 其实,你这篇文章在工作流、驱动力、项目管理方面对我的价值更大,因为我现在就面临团队管理和项目规划的问题。

文章里将很多我之前模糊的想法都清晰条理的罗列出来,并有案例用于参考,这个其实是一个很优质的初级项目管理课程。

你说的没错,用 AI 来练手项目管理,是一个短时效、低成本、高回报的事情。

一只索狗(+3) Claude Code 真的就只吃亏在带了 Code 的名字,实际用下来真的太强了 🤣 我自己用下来跟 GPT 这一类在产品形态上的区别就是,基于聊天类的 AI 输出的结果大部分始终是输出在服务器的,都需要以某种方式「取回」(复制、保存……),但 Claude Code 一类的可以则直接把结果应用到本地。

推荐每个不想单纯只跟 AI 在对话框一直聊天的朋友都去试试!

来自文章 《从一台修不好的 Walkman 开始:飞傲的复古产品「补票」之路》

郭凌鹏(+2) 看了这篇文章,我打开了飞傲官网,浏览了飞傲全线产品。

这里面有一个非常吸引我的产品,黑胶唱机,漂亮啊,我对那个没有蓝牙的黑色标准版超级喜欢。

当然,我非常期待:CD 播放器是否可以定制,专门为 hiend 爱好者设定的纯转盘,单线同轴输出即可,不要解码,不要运放,有私服就好了,其他的就越时尚越好,这个小小的正方形,放在台面,立起来,能看到光盘在转动,就非常酷炫。(孟浪了)

来自文章 《派早报:索尼将停止蓝光录像机出货等》

↳ 💬 关于「AYANEO NEXT 2 开启众筹」的热议:

少数派84589616(+0) 我之前带了一个 111Wh 的充电宝(30000mAh)去高铁,被拦下了。我上交了(因为充电感觉发热,我也不敢用这种东西。那个安检员一脸惊讶地看着我。她以为我会辩解或者邮寄回家或者放弃高铁。没想到我直接递给她了。)

keleus(+0) 这个电池容量设计的很多人就不会买了,坐高铁如果查得严就坐不了(虽然一般不查游戏掌机和电脑的电池容量),飞机必须提前申报。

↳ 💬 关于「阿里巴巴发布 Qwen-Image-2.0 图像模型」的热议:

MasterJohn(+0) 图里画的是西湖醋鱼吗?

↳ 💬 关于「腾讯混元开源极小端侧模型 HY-1.8B-2Bit」的热议:

keleus(+0) 不要啊,小模型怕不是要塞进微信/QQ了(或者是塞进微信输入法)

🆕作者的新玩意

为了让作者的投稿尽快与广大读者见面,我们调整了《新玩意》栏目中作者投稿部分的呈现方式和周期,作者投稿的「新玩意」后续会迁移至本栏目。投稿渠道与奖励方式仍与以往完全一致,详情参见文末。我们相信新鲜火热出炉的分享更能赢得大家的喜爱,也欢迎广大读者朋友们踊跃投稿。

@Latte:vivo X300 Pro

这几年我一直是苹果 & 三星双持用户,看演唱会的时候往往随手掏出一个就拍,当时自我感觉良好。待演唱会结束一看小红书和抖音的粉丝出图,又觉得自己拍的不仅不够远,还糊。有时候在内场看演唱会也拍不出什么好的效果来。

去年下半年,跟着顽童的演唱会跑了很多所城市。在第一站深圳的时候就想着拍一些现场留作纪念,相机又是带不进去的。小红书冲浪半天,最终选择租一部三星 S23 Ultra 和 vivo X200 Ultra 看看效果。

上一部 vivo 手机还是 X70 Pro,多年未用。刚拿到 X200 Ultra 的时候还挺惊艳,相当扎实的做工和让人无法忽视的相机模组,已经跟我印象里的 vivo 大不一样了。再加上演唱会必选的增距镜,谁能想到如今的手机真进化成了要跟相机掰掰手腕的模样。

先说影像

X300 Pro 和 X200 Ultra 在镜头参数上网上已经有很多对比了。对于我这个普通用户而言,其实并不是特别区分得出来。但是增距镜的下放,让 Pro 机型也能体验到长焦利器的快乐,还是很满足了。因为还没有带着 X300 Pro 去演唱会体验,下文演唱会部分就以 X200 Ultra 体验叙述。

初次使用 X200 Ultra 就是去看顽童的演唱会。虽然位置在内场,但却抽到了更靠中后排、也靠近侧边的位置。试了试拿 iPhone 拍摄,确实难以拍到细节。使用 iPhone 放大,裁切和噪点让画面仅仅算是记录下来了,大概率后期也是不会翻出来再看的程度。不进行放大,舞台上的人物又小得没法看,画面中也充斥着大量前排举起的手机和 「Put your hands up」。

加上增距镜后,就大有不同了。我可以越过 「手山机海」 拍到台上的人物细节,4K 60 帧带来的是更多的细节和顺滑。现场感觉就是瘦子在我腿上唱歌,我在台上和大渊一起肥男帮(对不起,小春我还是怕你)。看图看图。

内场 25 排侧边位置,微信压缩效果

三星 S24 Ultra 屏幕素质依然优秀,系统我还是蛮喜欢的(主要喜欢 DeX),但影像能力在演唱会现场没有那么出彩,感觉涂抹感有点重,总是在手忙脚乱地调参数。

同一个位置,三星 S23 Ultra 直出效果

虽然加上增距镜后,作为手机真的不轻,拆下来也要很小心的收纳好,但带去演唱会,真的值!另外增距镜也不只可以拿来拍远,近景拍物也有很不错的体验。

1.5 米左右距离增距镜直拍

后边几场,我又尝试了另一款 「演唱会神器」 OPPO Find X9 Pro。

OPPO Find X9 Pro 这次也带来了增距镜,但吐槽一点:增距镜转接口会严严实实遮住其他镜头,如果中途想取下增距镜正常拍照,就只能使用长焦镜头了(vivo 这一点还是相当人性化)。而且 4K 60 帧模式录制时还出现了闪退,还好自动保存了录像内容,扣一分。不过有一说一,OPPO 的哈苏调教确实好看,人像和雨景真的都美。

内场 9 排,OPPO Find X9 Pro 增距镜效果

再说系统

使用 X200 Ultra 的时候几乎只顾着拍照了,没有深度体验系统。这次使用了几天 X300 Pro,让我对 vivo 的系统又有了新的改观。

很早以前使用 X70 Pro,我对 OriginOS 的感受仅限于配色鲜艳的主题和小有创新的原子组件,其他就没有太多记忆点了。这次使用 OriginOS 6,除了熟悉的元素以外,感触最多的是 OriginOS 真的更好用了。

现在无论是手机内存还是芯片,还是随着应用开发技术的成熟,Android、iOS 和 HarmonyOS 真的是在打很富裕的仗。硬件堆得足够多,系统迭代也积累了大量的经验,旗舰机型比的不再是谁更流畅、谁设计更高级,更多的是场景触达性的扩展。

常年使用苹果,虽说这几年灵动岛、小组件已经有了很多发展,但总觉得没有当初 AirDrop 和连续互通(Handoff)来的惊艳。更何况灵动岛和小组件常常存在延迟推送、刷新不及时甚至崩溃的情况,总让人发出 「好是好…… 就是……」 的感慨。

这次体验 OriginOS 6,我觉得它真的相当丝滑。常用应用基本全都上岛,小组件各有特色还适配系统风格,原子组件们也是稳定好用。侧键触发、边缘唤起工具箱这些常规的 Android 操作也熟悉好用,让我觉得虽然不是原生最新的 Android 系统,但这些定制系统已经不再是追着 iOS 跑的小弟了。

这次还有一个功能让我相当惊喜,那就是 vivo 办公套件!(尽管这名字实在太直白了)。

macOS 已经支持了一段时间的 iPhone 镜像了,我已经习惯于在工位直接用 iPhone 镜像去操作手机,不用翻找,也不会被抓到摸鱼。但在家反而 iPhone 镜像的问题出现了!我在家不会总把手机揣在身上,每当我用 iPhone 镜像连接手机的时候,它不是提醒我需要在手机上输入密码,就是告诉我不在身边。搞笑,我在家又不害怕摸鱼被抓,我带在身边还需要用你镜像?而且,仅仅是从相册拖照片到微信这一个操作,就可能触发各种 bug。

这次使用 vivo 办公套件,镜像的功能已经不再是 iPhone 独占了,甚至 vivo 做到了更多,比如可以用 vivo 手机反向操作 Mac。虽然是类似于向日葵的方案,但还是让人大呼一声 「倒反天罡」!更不用说体验流畅的文件传输,甚至与 Mac 之间的云同步,几乎做到了 iCloud 般的体验,上大分!

@胖鱼要进步:旅行防盗腰包

  • 购买渠道:拼多多
  • 购买价格:3.8 元

去年圣诞节假期,和朋友们一起去了英国,在伦敦和爱丁堡待了几天。在出发之前,我们其实已经反复讨论过一个问题,那就是众所周知的:在欧洲旅行,财产安全到底要重视到什么程度。甚至我们在伦敦亲眼看到了 「零元购」 现场就发生在你眼前。即使你没有真正遇到过被偷的情况,也很难完全忽视身边不断被提醒的风险:地铁、景点、人流密集的商业区,几乎每个攻略都会反复强调 「注意随身物品」。甚至在一些国外地铁站里,你会听到中文播报让你注意个人物品安全。

图片源自商品介绍

在出发前,朋友借给我一个她从国内带来的防盗腰包。说实话,一开始我对这个东西并没有太高期待,因为相比普通包,它看起来不够好装东西;相比贴身口袋,又显得多了一道步骤。但朋友强烈推荐,加上确实不想在旅途中承担不必要的风险,我还是决定试着用用看。

结果圣诞旅程过程中,我完全被种草,回来后第一时间找回国的同学从国内带了一个过来。于是在新年后的 10 天旅程中,防盗腰包就几乎没有再离开过我的身体。不管是坐飞机、地铁、步行、排队,还是在景点人多的地方,它都一直戴在身上。

先明确一点需求,那就是防盗腰包解决的从来不是收纳问题,而是风险问题。它本身非常轻薄,这也意味着它不适合装太多东西。你不能指望它像普通腰包那样,塞下手机、充电宝、杂物。

但它非常适合在旅行中装这些对个人「极其重要」的东西,比如护照、银行卡、酒店房卡和少量现金等。这些东西有一个共同点:体积不大,但一旦丢失,后果非常麻烦。我自己的使用方式,是把腰包穿戴在衣服里面。像冬天出行通常是穿戴在秋衣外,覆盖在其他厚重衣服下。这种佩戴方式也决定了,它不适合装得鼓鼓囊囊。一方面装得太多太重你自己会非常不舒服,另一方面从外观上看也会显得很奇怪。对我来说,这种「低存在感又不影响你整体衣服穿搭」 反而是它最大的优势。

仅用于展示容量,真实场景时不会放类似牙线盒这种物品

在真实使用之前,我其实担心,比如腰包平时戴着会不会走着走着松掉。实际体验下来,整个腰包的固定非常牢靠,松紧调节也很顺手。不管是长时间步行,还是频繁上下楼梯,它都很稳定。更重要的是,它并不会明显影响下蹲等动作。

我们出行的时间正好是冬天,欧洲整体都偏冷。而这个腰包,对我来说还有一个意外收获,那就是某种程度上成为了我的护腰起到了保暖效果。因为刚好贴在腰部,在长时间户外行走的过程中,我能明显感觉到腰是暖的,这是我在购买和使用之前完全没有预期到的。当然,在机场安检时,防盗腰包是需要单独取下来,这点和男士皮带差不多。

现在回头看,这个防盗腰包并不是一件「让人惊呼」的装备。但它能在你最需要的时候,减少一件必须操心的事情,持续提供安全感。对我来说,这是一次旅行结束后,非常值得留下来的小物件。


如果你也想分享「新玩意」🔉:

  • 获取 Matrix 社区写作权限并签署 Matrix 共创计划
  • 在少数派独家发布一篇文章,在标题中标注「新玩意」前缀;
  • 用至少 800 字介绍产品,并配上 2-3 张产品的实拍图片;
  • 在网站个人信息中补充支付宝账号。

成功入选本栏目还可以得到 108 元的「剁手红包」🧧。如果你有兴趣参与,就赶紧来稿吧!

> 下载少数派 客户端、关注 少数派公众号,了解更多的新玩意 🆒

> 特惠、好用的硬件产品,尽在 少数派 sspai 官方店铺🛒

    求推荐 windows 笔记本电脑

    需求如下:
    1 、CPU U 二代 7 以上或 amd 同样性能 cpu ,内存 32G ,硬盘 1TB ,屏幕 14 寸左右。
    2 、预算 9k 以内;
    3 、没有游戏需求,只求硬件稳定,少故障,可以稳定用很多久。被 2020 年联想小新低温锡伤透了心。

    目前关注机型:
    1 、ThinkPad T14p Ultra9 285H 32G 1TB 3K ,国补后 9444
    2 、惠普战 X 14 Ultra 7 255H 32G 1TB 2.5k ,国补后 7018

    求各位大佬推荐。

    6d734002e8a29f19c5e471bf22827524_640_wx_fmt=png&from=appmsg&tp=webp&wxfrom=5&wx_lazy=1#imgIndex=1.webp
    AI 智能体经济快速崛起,x402 支付协议、ERC-8004 智能体信任协议等基础组件日趋成熟,却始终缺少一个去中心化、高安全性的价值锚点与结算底层。比特币本应是核心,却受限于技术桎梏与伪 Bitcoin L2 方案,难以承载智能体高频、无中介的结算需求,两者融合存在明显断层。

    这一困局,正被 GOAT Network 彻底打破。2026年1月,GOAT 发布 BitVM2 测试网 V3,依托自研完整技术栈(Type-1 zkEVM、去中心化排序器、zkVM 证明引擎 Ziren),实现比特币主网作为最终裁决层,让用户无需第三方许可即可安全退出,真正解锁 BTC 可编程价值。

    图片

    GOAT 精准填补智能体经济缺口,不仅将 x402 支付、ERC8004、ZK 隐私技术与比特币安全结算深度融合,更推出自研 AI 员工 Eve 和 Light 作为实践标杆,直观展现 AI 应用在链上落地的可能,而这仅仅是开端。
    4630300502a152e56fad588ae540d805_640_wx_fmt=png&from=appmsg&tp=webp&wxfrom=5&wx_lazy=1#imgIndex=3.webp

    我们亟需更多开发者参与,基于 GOAT 技术底座,将 x402 支付能力与 AI 应用深度融合,丰富智能体经济的落地场景,践行「让比特币成为智能体经济信任基石与结算中心」的愿景。

    如今基础设施就绪,GOAT 联合 OpenBuild 正式发起「Agent Economy on Bitcoin」全球黑客松,面向全球开发者发出邀约。我们将开放 BitVM2 测试网 V3、x402 兼容 SDK 等全部资源,邀请开发者聚焦 x402+AI 核心,在 GOAT Network 上开发可落地的智能体相关应用。

    GOAT 已铺好变革赛道,诚邀你加入,以代码解锁 Agent × Bitcoin 无限可能,共同书写比特币可编程时代的全新篇章!

    一、为什么参加

    • 前沿赛道红利:聚焦 Agent Economy×Bitcoin L2 核心赛道,抢占行业风口,依托 GOAT BitVM2 技术,打造可落地的创新应用。
    • 全量资源支持:免费开放 BitVM2 测试网 V3、x402 兼容 SDK 等资源,配备技术导师,全程答疑指导,降低开发门槛。
    • 生态深度绑定:优秀项目可入驻生态活动和对接 GOAT 生态基金,获取孵化支持及潜在投资,快速融入比特币智能体经济生态。
    • 个人与团队成长:与全球顶尖开发者、行业专家交流,积累项目经验,提升技术实力,拓宽行业视野。

    二、关键时间线

    开放报名:2 月 14 日 - 3 月 15 日
    Build 阶段:2 月 14 日 - 3 月 15 日
    项目初审:3 月 15-16 日
    线上 Demo Day:3 月 18 日
    结果公布:3 月 20 日

    三、如何参与

    👇 点击报名入口,填写个人或团队信息完成注册,马上开启你的 GOAT 开发之旅。
    报名入口:https://forms.gle/sARuD71DYWKiFScj9

    四、奖金福利

    总奖金池约为 $3,500 (含 Mac Mini 价格)。福利丰厚,助力项目成长:

    • 一等奖(1名):1000 USDT + Mac mini 1台
    • 二等奖(1名):500 USDT + Mac mini 1台
    • 三等奖(2名):Mac mini 1台
    • 参与奖:生态合作方提供的 Token 福利包
    • 生态激励:获胜的项目将直接获得入驻 One Piece Season 5 的资格。Season 5 活动期间,所有使用该产品的用户将获得 GOATED 代币空投激励。

    除获奖项目外,未获奖但具备创新性、落地潜力的优质项目,也可对接 GOAT 生态 Grant 计划,获取专项生态支持,助力项目持续推进与落地。

    五、谁可以参加

    本次黑客松不设置赛道方向,只要你关注智能体经济与 BTC L2 融合,愿意基于 GOAT 技术底座探索创新,均可参与:

    • 技术从业者:熟悉区块链/AI 开发,具备创新实践能力
    • 跨界创作者:希望深耕 BTCFi、智能体融合赛道,寻求技术实践与生态对接
    • 生态爱好者:关注 GOAT 及 Web3+AI 赛道,愿意学习实践、参与共建
    • 初创团队/个人:有项目雏形,希望借助 GOAT 资源对接孵化、完善产品

    六、官方技术支持

    为助力开发者高效开发、顺利落地项目,GOAT 提供全方位技术支持及相关资源链接:

    七、写在最后

    图片

    GOAT 已正式发布 BitVM2 测试网 V3,依托自研技术栈实现比特币主网作为最终裁决层,持续完善 x402 支付协议 与 AI 智能体的链上适配,并推进开发者工具与生态支持体系建设。未来,GOAT 将继续深耕比特币可编程生态,推动智能体经济与 Bitcoin L2 深度融合,开放更多技术资源与 Grant 扶持,与全球开发者共同构建安全、开放的比特币应用底层。

    最后,再次诚邀全球每一位热爱创新、关注智能体经济与 Bitcoin L2 融合的开发者和创作者加入,以代码为桥,深耕 x402+AI 赛道,在 GOAT Network 上解锁无限可能,共筑比特币可编程时代的全新生态!

    关于主办方

    GOAT Network

    GOAT Network 是一个可持续的 BTC 收益链,由使用多币种 PoS 的去中心化序列器驱动。GOAT 的使命是将 BTC 和 DOGE 从被动持有转变为主动的、产生收益的资产,通过一种经济模式,将序列器收入代币化,释放 BTCFi 和 MemeFi 的全部潜力。

    OpenBuild

    OpenBuild 是一个倡导开放协作的开源社区,致力于帮助开发者成长为具备独立产品构建能力的超级个体。社区以开源精神为核心,专注 Web3 与 AI 等前沿技术,支持开发者从想法出发,完成从创意到可用产品的全链路实践。

    手机 b 站推荐偏向及其严重,已经刷不到好东西了,净推荐播放量小众的东西。
    以前用安卓应用,我记得有个 xposed 插件可以修改 b 站的推荐方式。现在换 iOS 了,春节回家几天懒得打开电脑,刷刷手机版,快被恶心到了。
    网页端 b 站推荐好很多,起码不是严重单分类+低播放视频,好歹也是一些精选视频,有点打开的欲望。而且能使用油猴脚本干掉一些官方逆天播放设置。
    貌似 iOS 端实现都是搓了一个 bilibili 端,尚不清楚安全性问题(不是指盗号风险)。参考网易云音乐,官方客户端( win )放歌时后台 cpu 占用像挖矿,没记错的话 24 年杀掉了一堆用第三方播放器的账户,永久封禁那种。我的号被提示修改密码了,算是被放过一马。
    --
    高强度刷抖音后,也会这样,但是可以歇一会再刷就有一些高质量的了,或者去使用抖音精选,那里内容我看还好一些。而手机端 b 站打开就是逆天广告+低质量视频+单分类视频,手机端推荐我彻底养不好了。
    问题严重的还是 b 站,实在是不想给阿姨送钱:
    非假期时间 24h 流量环境,高码率视频反而是负担,而低码率无法跟抖音比。
    不从 b 站看番,不想给版权付费。一些好看的创作者视频更需要额外充电/作者自行插入广告,只有 web 端可以大众标注并跳过。因此不想花将近 100cny/year 去支付高码率视频费用。

    image
    准备放弃一个 com 一个 cn,不算一个特殊域名,目前还得 600+

    之前活动什么的,续费都续到 26 年,大概是 22-23 年续费的,觉得 26 年还挺长,瞬间就到了。

    服务器控制在一年 1k 左右,域名尽量再少一点,控制到 500 左右,感觉是我可以接受的范围。

    一直以来,龙蜥社区在 RISC-V 生态建设中持续投入,并积极贡献上游社区。RISC-V International Data Center SIG 第七次会议内容见下:

    RISC-V IOMMU 的 G-Stage Dirty Log 硬件加速机制提案

    近期,RISC-V 基金会 Data Center SIG 月度会议于线上召开,本次会议邀请阿里巴巴达摩院郭任进行分享。会议由阿里巴巴宋卓主持。会议按惯例完成社区协作、反垄断与出口管制等合规提示后,进入本次核心议题:阿里巴巴达摩院郭任分享一项面向 RISC-V IOMMU 的 G-Stage Dirty Log 硬件加速机制提案,并与 RISC-V International 的 Rafael Sene 就后续以任务组(TG)方式推进达成初步共识。

    image.png

    从 CPU 到 IOMMU:Dirty Log 加速要做“系统级闭环”

    郭任介绍,Dirty Log 是云数据中心虚拟机 Live Migration(热迁移) 的基础能力之一,主要服务于迁移过程中的 pre-copy 阶段:在虚机仍运行于源端时,需要持续识别并传输“被写脏”的页,避免频繁陷入软件开销大的页故障处理,从而显著提升迁移效率。

    他指出,业界在 CPU 侧已有成熟的硬件加速路径(如部分架构提供的脏页记录能力),但在 Shared Guest Phyiscal Address(SGPA) 场景,虚机直通设备(pass-through DMA)可能复用 CPU 页表:即便 CPU 启用了 Dirty Log 加速,设备 DMA 产生的脏写也会让“仅 CPU 侧加速”变得不完整,导致系统层面仍无法正确/高效地收集脏页信息。

    因此,本次提案的关键结论是:要让 Dirty Log 真正在云上“跑起来”,必须引入 IOMMU Dirty Log,与 CPU 侧机制协同,实现面向设备 DMA 场景的 系统级 Dirty Log 硬件加速闭环。

    方案核心:基于 Ping-Pong Buffer 的“低成本不丢失”记录机制

    在实现路径上,郭任重点介绍了本提案区别于其他思路(例如 PRI 机制)的设计取舍:本方案采用 Ping-Pong Buffer 结构,目标是在硬件成本更可控的前提下,避免记录窗口切换时漏记脏页。

    • 双缓冲对(A/B):当 A 缓冲对写满后自动切换到 B 持续记录,软件侧再异步拷出并清空 A;随后反向切换,实现“你写我清、轮转不断档”。
    • 两类并行记录:每个缓冲对内部包含两类同步 buffer:

      • 记录被写脏的 GPA(Guest Physical Address);
      • 记录与该 GPA 对应的 IOHGATP(用于区分其所属 G-stage 地址空间/虚机上下文)。通过同一索引对齐,软件可恢复“哪个虚机/哪个上下文的哪个 GPA 被写脏”。

    与会嘉宾反馈 Ping-Pong Buffer 结构不够灵活,需要改进,作者接受建议,并会在新版本中改进。

    规范接口草案:能力位、控制/状态寄存器、缓冲区基址与中断事件

    郭任进一步给出面向 RISC-V IOMMU 的接口草案轮廓(当前为 v2):

    • 在 capability register 中增加能力位,标识支持 G-stage dirty log。
    • 引入 G-Stage Dirty Log Control Register(GDLCR):包含 enable、buffer size(按 entries 数量阶数配置)等字段。
    • 引入 G-Stage Dirty Log Status Register(GDLSR):提供当前活动缓冲对选择位(A/B)、A/B 满标志(并支持写 1 清除以便原子化处理)、以及当前活动缓冲 tail index 等。
    • 定义两组缓冲区基址寄存器:GPA buffer A/B 与 IOHGATP buffer A/B(均以 PPN 形式给出基址)。
    • 定义四类典型事件/中断:

      • A/B 缓冲对写满触发中断,提示软件拷出并清空;
      • 缓冲指针配置错误等异常;
      • 记录过程中的数据损坏类错误;
      • A、B 同时写满导致“脏页记录失效/丢失”,提示需要回退到全量扫描等恢复策略。

    推进方式讨论:不走 fast track,拟以新 TG 汇聚多项“共享队列”相关扩展

    RISC-V International 的 Rafael Sene 在会上询问该提案后续将以 fast track 还是 TG/TSC 推进。郭任明确表示更倾向成立 TG,并给出了更大的组织化规划:拟筹备一个名为 “Device Shared Work Queue” 的任务组,将多项相互关联的扩展放在同一 TG 生命周期内统筹讨论与推进,包括:

    • AIOE(用于共享硬件工作队列的基础入队能力)
    • IOMMU GIPC(用于共享队列虚拟化/隔离等配套能力)
    • IOMMU Dirty Log(用于共享队列与直通 DMA 场景下的 Live Migration 加速能力)

    郭任补充说明:相较 dedicated work queue,共享 work queue 在迁移与资源调度上更具优势,但也更依赖 IOMMU 与虚拟化能力协同,因此希望以“场景驱动”的 TG 方式打包推进。

    Rafael 对该思路表示认可,并指出一个重要信号:来自基金会董事会层面的方向中,2026 年的重点之一是云环境能力建设,而 Live Migration 是云的关键组成部分;因此该 TG 方向与组织目标高度一致,有望获得更积极的关注与推进动力。

    社区反馈:面向迁移的价值明确,期待继续在邮件列表推进

    字节跳动崔运辉在会上表示该方案“对迁移很有用”,总体认可提案方向。郭任也回应希望与字节跳动等社区伙伴进一步协作,结合双方在 CPU/IOMMU dirty log 方向的经验共同完善方案。

    会议最后,宋卓总结:后续讨论将继续在邮件列表推进;郭任将依据模板完善 TG 页面与 Proposal for Work,在准备就绪后择机提交 TSC 评审。会议在感谢 Rafael 支持后结束。

    Device Shared Work Queue TG 推进讨论

    RISC-V International Data Center SIG 召开线上双周例会。本次会议由郭任主要分享和成员共同评审并完善 Device Shared Work Queue(DSWQ)任务组(TG)Proposal for Work 文档,围绕“为何需要 TG、要做哪些规范工作、如何证明可行(PoC)以及如何组织生态协作”等关键点展开讨论。来自字节跳动、中兴通讯以及 RISC-V International 的多位代表参与交流,包括 Rafael Sene、Isaac Chute 等。

    image.png

    从“共享队列”出发:DSWQ 为什么成为数据中心未来技术方向?

    郭任在文档讲解中首先明确 TG 使命:为 RISC-V 构建支持 Device Shared Work Queue(设备共享工作队列)的规范体系,使其能够基于“可延迟写(deferable/deliverable write)事务”与 PASID/PID 等机制,实现面向异构设备的高密度 I/O 虚拟化与可迁移能力。

    他对比了两类主流队列范式:

    • DWQ(Dedicated Work Queue,专用队列):典型形态为 SQ/CQ 队列对,位于主机内存,由设备拉取/更新;在云环境中往往“一个队列服务一个地址空间”,当 VM/进程密度极高时,需要成百上千甚至更多队列对支撑,成本与复杂度迅速上升。
    • DSWQ(Device Shared Work Queue,设备共享队列):通过设备侧固定宽度 I/O 端口接收来自主机的“可延迟写”命令提交,可在设计上覆盖海量地址空间(文档提到可扩展到百万级),更契合云数据中心的多租户与高密度 I/O 虚拟化需求。

    郭任强调,DSWQ 已在多种互连标准与主流架构中形成趋势:包括 PCIe/CXL 等互连语义演进(会议中将其与 PCIe 的 DMWR 等术语类比)以及 x86/Arm 等体系结构已有对应指令/机制。基于此,他认为“RISC-V 没有理由不跟进该方向”,应尽快通过 TG 形成系统化规范与配套生态。

    “现有扩展为何不够”:ISA 与 IOMMU 两侧缺口同时存在

    在“Why existing extensions are insufficient”章节中,郭任给出两类主要缺口:

    • ISA(架构指令层)缺口
      RISC-V 当前缺少“向 DSWQ 入队命令”的标准化机制。对标业界,x86 有类似 ENQCMD 的能力、Arm 也有相应指令形态;同时还涉及 PASID/PID 的使用与映射/陷入处理机制(虚拟 PASID 到真实 PASID 的管理)。
    • Non-ISA(以 IOMMU/虚拟化为核心)缺口
      现有 IOMMU 机制在 G-stage/进程上下文等方面仍不足以支撑“跨 VM 共享队列”的关键诉求(会议中以 PACID/PASID/PID 相关能力衔接为背景进行说明)。
      进一步地,为提升云上热迁移效率,IOMMU 侧还需要与系统级能力协同(例如前序会议已讨论过的 IOMMU Dirty Log 方向),否则 DSWQ 在 Live Migration 场景下的优势无法充分释放。

    TG 目标拆解:三项扩展 + 一揽子生态/PoC 与测试计划

    在“Objectives”章节中,郭任将 TG 的拟交付内容拆解为三条主线(并强调它们相互依赖、应在同一 TG 内整体推进):

    • AIOE(Atomic I/O Enqueue):面向 DSWQ 的基础能力,定义指令与 CSR 等机制,解决“如何把命令可靠入队到设备共享队列”的问题。
    • IOMMU GIPC(将 I/O 相关 G-stage 机制下沉到 Process Context):用于更好地支撑 AIOE/DSWQ 在虚拟化与隔离场景中的落地。
    • RISC-V IOMMU Dirty Log:面向 Live Migration,提升共享队列相关 I/O 路径下的迁移效率,并与 CPU 侧能力形成协同。

    同时,郭任也在文档中加入“软件生态”视角的内容,用于保障规范不是“纸面设计”,而是可实现、可验证、可被社区复用,包括:VFIO/IOMMU(host/guest)、Linux PASID/IOASID 相关支撑、Linux DSWQ 基础设施、测试基础设施,以及迁移/加速器实例 demo 等。

    社区关键建议:PoC 需要明确写入提案,测试与发行版合作要可落地

    会议讨论中,RISC-V International 的 Rafael Sene 与 Isaac Chute 提出了两点直接影响 TSC 评审质量的建议:

    • Rafael:提案中需要明确 PoC(Proof of Concept)路径
      Rafael 指出,TSC 在评审 TG Proposal 及后续 ratification 计划时,一定会追问“如何证明规范可行且可复现”。因此建议在文档中补充一句或一段,明确 PoC 作为软件生态的一部分:TG 将在需要时推动 PoC 落地,用以展示规范“能工作、可复制、可验证”。
    • Isaac:能否明确与主流发行版/生态伙伴的协作方式
      Isaac 关心当 PoC 与 Linux 相关工作推进时,是否需要考虑聚焦哪些发行版(如 Debian 等),以及如何 leverage RISC-V International 生态中“主流发行版成员”的资源参与验证与推广。

    字节跳动崔运辉:DSWQ 相关软件开发进展与 Linux 内核侧具体需要做哪些工作?郭任回应:TG 的主目标是规范制定,但软件生态与 PoC/开源推进会作为重要配套来验证规范方向与可实现性,团队也在投入资源并计划逐步开源,与社区协作完善。

    后续计划

    • 郭任将根据本次反馈继续完善 DSWQ TG Proposal:补充 PoC 描述、细化生态协作方式。
    • Data Center SIG 将继续在邮件列表跟进讨论,推动提案进入 TSC 评审流程。

    会议在感谢各方参与后结束。此次讨论标志着 Data Center SIG 正在把“共享队列 + 虚拟化 + 热迁移”这一云关键路径能力,从点状提案推进到任务组化、规范化与可验证的工程路线图阶段。

    —— 完 ——

    默认不开启,可以到设置-浏览设置中打开。

    另外一些小修改:

    • 优化金币池配色统一为橙色,与打赏分开,且现在位于打赏右边显示。因为移动端可能会出现挤压且样式不统一。
    • 修复链接带有中文时识别的百分号前显示空格问题
    • 修复点击链接后弹窗的取消和访问按钮无法点击问题
    • 修复兑换码无法手动挨个输入问题

    忘记修改移动端编辑器相关了,写这个的时候才想起来。😅

    1. 需要员工通过企业微信端侧边栏 H5 应用发送订单,推送小程序付款卡片链接给客户,客户点击小程序补充学员信息进行支付后,同步订单学员信息至简道云(有对应的 API 接口)。
    2. 可以在简道云对该订单支付信息发起退款,退款原路返回给客户。
    3. 侧边栏能同步简道云对应该客户/学员的各种信息(如:开班,学情,订单)。

    其实可以用自建应用,H5 ,小程序实现都可以。企业微信其实有一个对外收款的,那个 API 可以同步至简道云,但是对外付款没有退款的 API 接口,但小程序,H5 应该是支持退款的。

    现在有这样的需求,可以付费,有大佬有类似的经验的不。

    11.jpg

    MemOS 累积调用量正式突破 2,600 万,并保持持续高速增长态势。

    自 2025 年 11 月正式上线以来,MemOS 在开发者社区与企业应用场景中实现了快速落地,在 2026 年 1 月突破累计调用量 2,000 万后,规模持续攀升,并于 2026 年 2 月 18 日创下单日调用量 30 万次的新高,这也进一步标志着 AI 记忆基础设施正加速迈入规模化应用阶段。

    MemOS 为 AI 构建统一的记忆管理操作系统,让 AI 如大脑般拥有灵活、可迁移、可共享的长期记忆和即时记忆。作为记忆张量推出的核心产品,MemOS 首创“三层记忆调度”架构,我们希望通过 MemOS 全面重构模型记忆资源的生命周期管理,为 AI 提供高效且灵活的记忆管理能力。

    调用规模持续增长:长期记忆需求释放

    MemOS 调用规模的持续增长,源于市场对长期记忆能力需求的快速释放,以及 MemOS 在 AI Agent 与多 Agent 系统中的基础设施定位不断强化。随着越来越多应用从“对话式 AI”走向“长期智能体”,记忆能力正在成为系统性能与用户体验的关键分水岭。

    作为独立的 OS 级记忆层,MemOS 正在成为开发者构建 AI、应用时可复用、可扩展、可治理的关键组件。

    全球用户与企业生态加速扩展,Cloud 服务进入规模增长期

    在商业化落地方面,MemOS 已形成覆盖开发者与企业客户的多层级产品体系,并持续扩大生态合作规模。

    MemOS Cloud 自上线以来,已累计服务包括腾讯、联想、海尔、广和通、大唐软件、三星、影石、中国电信、安克、镭萌科技、涂鸦智能等行业头部企业。当前,入门版、专业版及商业合作方案已获得全球超过 500 家企业客户采用,覆盖金融科技、金融服务、游戏、教育、电商、智能家居等多个行业领域,重点落地方向包括情感陪伴类应用与智能硬件场景等。

    MemOS 在开发者社区的关注度则一直在显著提升中,2026 年 1 月 MemOS GitHub Star 单月增长接近 1,400+。同时,MemOS 全球开发者覆盖数量已突破 11,000+,开发者生态持续扩大的同时,越来越多开发者也开始基于 MemOS 探索长期记忆、多 Agent 共享记忆等场景。

    22.jpg

    随着 Cloud 服务能力持续完善,MemOS 正在帮助开发者显著降低长期记忆系统的研发门槛,让原本复杂的记忆管理、检索优化与调度等能力以标准化服务形态快速接入,从而加速 AI 应用的产品化与商业化落地。

    开源 + Cloud + 插件生态协同演进,MemOS 产品体系全面升级

    在产品层面,MemOS 已形成完整的三层产品结构:

    • MemOS 开源版本: 面向开发者与研究社区,提供可扩展的记忆架构与调度能力,支持私有化部署与深度定制,开源半年以来,Star 数持续快速增长并已超 5.7k。
    • MemOS Cloud: 提供托管式记忆服务,帮助企业快速接入生产级记忆能力。
    • MindDock 生态: 支持在多平台 AI 应用中实时注入记忆与技能能力,进一步降低集成与运维成本。

    依托这一产品体系,MemOS 已在多个成熟场景中实现落地应用,包括:

    • AI 陪伴软硬件: 构建长期关系记忆,让交互体验更具真实感与持续性,硬件退货率降低 7 倍。
    • 游戏开发: 为游戏 AI 提供“人格一致性 + 情境自适应”的记忆底座,让 NPC 在跨对话、跨任务、跨章节中保持同一个“人”,并能根据玩家行为持续演化,用户平均对话轮数提升 15%+。
    • 金融投顾: 沉淀长期用户行为与偏好记忆,实现更稳定的个性化决策支持,投顾经理服务半径提升 30%+。
    • 智能客服: 增强跨会话理解能力,显著提升服务连续性与效率。一教就会,对比无记忆产品准确率 +10%。
    • 工业运维: 将专家经验沉淀为企业级运维记忆资产,实现运维决策更快、更稳、更一致,平均诊断周期缩短 30%。

    33.png

    与此同时,MemOS 近期上线的多视角记忆能力进一步拓展了记忆系统的应用边界。该能力通过为不同 AI 角色构建独立记忆空间,助力 AI 游戏在多角色交互场景中形成差异化认知与行为逻辑,目前已在开源的多视角 AI 游戏 Demo 中完成实践验证,为游戏、虚拟世界与多 Agent 协作场景提供了新的技术路径。

    面向智能体时代,MemOS 持续构建 AI 记忆基础设施

    随着 AI 技术从单轮交互走向长期智能体阶段,记忆能力正在成为智能系统的重要基础设施。MemOS 通过结构化记忆架构与预测式调度机制,推动 AI 从“即时推理”向“持续学习与演化”升级。

    站在调用规模突破的新起点,MemOS 将继续深化开源生态建设,完善 MemOS Cloud 服务能力,并携手产业伙伴共同推动 AI 记忆技术在更多行业场景中的规模化落地,持续释放长期智能体的应用价值,推动人工智能迈向新的发展阶段。

    关于记忆张量 MemTensor

    记忆张量(上海)科技有限公司(以下简称“记忆张量”)是由上海算法创新研究院孵化,并由中国科学院院士担任首席顾问的新一代大模型企业。公司以“低幻觉、个性化、自我学习进化”为核心,致力于探索符合中国国情的大模型发展新路径,推动人工智能技术的规模化落地与产业应用。2025 年 4 月,公司完成近亿元人民币天使轮融资,由孚腾资本、算丰信息、中金资本等机构联合投资。

    2024 年 7 月,记忆张量在世界人工智能大会(WAIC)期间发布业内首个记忆分层架构大模型——忆立方。2025 年 7 月,于 WAIC 2025 正式推出业内首个记忆操作系统 MemOS,并启动 OpenMem 开源社区。核心产品 MemOS 已成为当前业内性能领先的开源 AI 记忆管理操作系统,项目开源后迅速获得开发者社区关注,成为 GitHub 上增长速度最快的 AI 记忆增强开源项目。

    同时,记忆张量已与阿里云、天翼云等重要合作伙伴建立深度协同关系,形成“技术 + 场景 + 渠道”的生态合作模式,并在 25 年实现数千万元规模的商业化签约,业务覆盖游戏、端侧智能硬件、金融及工业等多个重点行业领域。

    44.png

    越来越多 CIO 开始意识到,真正成熟的 IT 服务管理,不应只关注“恢复速度”, 而应关注系统在不确定环境下的持续运行能力与自我修复能力——也就是 IT 韧性。ManageEngine卓豪将介绍全新的ITSM运行体系!

    一、为什么“响应型 ITSM”正在失效

    传统 ITSM 模型假设:故障是偶发的、可快速定位的、影响范围有限的。 但现实情况恰恰相反——

    l 云与微服务架构放大了故障传播速度

    l 跨部门流程让问题边界变得模糊

    l 外部依赖(SaaS、API、第三方)不可控

    二、IT 韧性导向的 ITSM 是什么

    IT 韧性并不等同于“零故障”,而是指组织在面对不可避免的中断时, 能够快速吸收冲击、限制影响、并从中学习。

    在 ITSM 体系中,这意味着服务管理的目标需要发生根本性转变:

    l 从“事件是否解决”转向“事件是否可预测”

    l 从“单点恢复”转向“系统级稳定性”

    l 从“人工经验”转向“数据驱动决策”

    三、构建 IT 韧性的三层 ITSM 能力模型

    第一层:可观测的运行数据
    没有高质量数据,就不存在韧性。事件、变更、资产、配置项与用户行为, 必须在统一平台中形成可分析的数据基础。

    第二层:跨流程关联分析
    事件不应被孤立处理,而应与近期变更、资产状态、历史问题记录形成上下文关联。

    第三层:持续反馈与自我修正
    通过问题管理、变更评估与知识沉淀,让系统在每一次中断后变得更稳定。

    当组织开始从“响应”走向“韧性”, ServiceDesk Plus 可以作为统一枢纽,将事件、问题、变更、资产与知识沉淀在同一平台中。

    通过流程关联、自动化规则、报表分析与跨系统集成, IT 团队能够持续降低中断风险,而非反复处理相同问题。

    1. IT 韧性是否意味着更高成本?
    恰恰相反。通过减少重复事件与失败变更,长期可显著降低运维成本。

    2. 中小企业是否需要关注 IT 韧性?
    规模越小,单次中断的业务冲击往往越大,越需要体系化管理。
    **

    1. 是否必须引入复杂工具才能实现?**
      关键在于流程与数据整合,而非工具数量。

    在数字化转型浪潮中,企业客户关系管理系统的选择直接影响着营销效率与业务增长。当前,越来越多的企业开始关注国产CRM服务商,寻求更适配中国业务场景的解决方案。相较于国际 CRM 产品,以珍客AI CRM为代表的国产AI CRM 凭借对中国本土业务场景的深度适配、技术架构的创新迭代,正逐渐成为 B2B 企业的优选,也为行业破解长期存在的客户管理难题提供了全新思路。

    B2B企业面临的客户关系管理困境

    对于B2B企业而言,客户关系管理的复杂性远超想象。获客难度持续增加,转化效率却始终徘徊在低位,这是多数企业面临的首要痛点。传统CRM系统往往局限于被动记录功能,难以主动预判客户需求变化,导致商机流失。

    更为棘手的是数据孤岛问题。营销部门获取的线索、销售团队跟进的商机、服务团队收集的客户反馈,这些数据往往分散在不同系统中,无法形成统一视图。部门间的协同障碍不仅降低了运营效率,也让企业难以构建完整的客户画像。

    在B2B大客户模式下,客户决策链复杂且周期漫长。从初次接触到最终成交,可能需要经历多个部门、多位决策者的评估。如何有效追踪这些隐性需求,如何在长周期销售中保持精准跟进,成为考验CRM系统价值的关键。

    AI原生架构带来的质变

    迈富时·珍客AI CRM

    面对这些行业共性难题,国产 AI CRM 的核心突破点,在于实现了从底层架构的 AI 原生化改造,彻底改变了传统 CRM “被动记录” 的核心逻辑,转向 “主动预判、智能运营” 的全新模式,这也是其能够适配 B2B 企业复杂需求的关键。比如珍客AI CRM作为深耕国产 AI CRM 领域的产品,就凭借 AI 原生架构的设计,在多个核心业务环节形成了针对性的解决方案。

    在营销获客与线索管理环节,国产 AI CRM 能够整合公域广告、搜索引擎、社交媒体、私域企微等多渠道资源,实现多维度客户数据的统一归集,借助 AI 算法构建 360° 统一客户视图和精准客户画像,打造全渠道智能获客模式,这一能力对于有全球化布局需求的 B2B 企业尤为适配。同时,“找客 + 谈客” 的一体化机制,能实现多渠道线索的自动清洗、智能评分与精准分发,从线索获取到销售跟进,再到市场 ROI 分析,形成全流程的精细化管理,最大程度挖掘线索价值,提升转化效率。

    破解大客户销售的关键能力

    针对B2B大客户模式的复杂性,国产AI CRM的商机管理功能通过标准化销售流程和商机作战地图,将成功销售实践固化进系统。更具价值的是联系人关系图谱功能,它以可视化方式呈现客户内部决策链,帮助销售人员精准对接关键联系人。

    这种深度的客户洞察能力延伸到整个客户生命周期。系统通过客户分级与全生命周期跟进管理,结合客户健康度分析,对高流失风险客户自动推送专属服务方案。这种主动式服务机制,有效盘活了存量客户资源。

    在合同与订单管理环节,AI风控校验与智能起草功能显著缩短了签约周期。配合电子签章与履约收款追踪,实现合同全流程留痕且合规运作,加速了资金回笼速度。

    全价值链协同的系统优势

    同时,优质的国产 AI CRM 能够打通"市场-销售-技术-交付-服务-成功"全价值链,覆盖从线索获取、商机跟进、销售管理到订单回款等企业全业务场景。这种一体化设计避免了数据孤岛,实现了营销获客、销售跟进、售后服务的闭环协同。

    在服务管理层面,多渠道服务受理与工单自动分派能力确保服务请求快速响应。现场服务、配件管理、设备维保与巡检、服务评价、服务数据分析等功能的数字化管理,为客户提供了专业服务体验。平均响应时间缩短至4小时内的能力,体现了系统对服务效率的提升作用。

    协同管理功能深度集成企业微信生态,融合即时沟通、办公审批、日程、任务、网盘、企业邮箱、考勤打卡、工作圈等功能。这种一站式企业办公入口设计,打破了地域空间限制,支持随时随地办公。

    国产化替代的综合价值

    对于追求数据安全与合规性的企业,CRM有公有云、私有云、混合云等灵活部署方式。私有云或本地化部署模式将整套系统部署在企业自有服务器,数据完全自主掌控,符合ISO27001认证标准,满足金融、医疗等对数据安全要求较高的行业需求。

    低代码PaaS平台的集成能力,为企业提供了高效率、低成本的数字化业务定制方案。丰富的可视化设计器支持快速响应业务需求变化,应对开发过程不敏捷、应用可扩展性差等挑战。

    数据驱动的科学决策

    数据分析功能深度融合营销、销售、服务、渠道多种CRM场景数据,无缝集成PaaS平台数据结构与数据权限。企业可以随时随地洞察数据,基于数据制定科学决策,实时关注数据变化趋势,洞悉决策执行效果,形成PDCA管理闭环。

    行业深耕与成熟实践

    目前,国产 AI CRM 已经在制造业、零售业、金融业、医疗健康、IT 与软件服务等 20 多个垂直行业积累了成熟的应用案例,珍客CRM凭借多年的技术积淀与市场实践,在国产CRM 替代进程中占据了重要位置,其连续 7 年蝉联中国 AI SaaS 影响力企业第一名的成绩,也从侧面印证了其国产AI CRM的技术实力与市场认可度。

    在选择CRM系统服务商时,企业需要综合考量产品的技术架构、场景适配能力、数据安全性、成本效益以及服务响应能力。国产AI CRM通过AI原生化设计、全链路场景覆盖、灵活部署模式和本土化服务优势,正在为越来越多的中国企业提供切实有效的客户关系管理解决方案,助力企业在数字化转型中实现营销效率与客户价值的双重提升。

    今天,AI 不再只是“帮你更快分单”的辅助能力, 而正在重塑 IT 服务管理的底层运行逻辑—— 从被动响应系统,走向具备自我感知、自主决策与持续学习能力的自治服务系统。

    许多组织已经在 ITSM 中引入了 AI 能力: 智能分类、自动分派、虚拟客服、知识推荐…… 但现实中,这些能力往往只是在加速旧流程。

    问题并不在于 AI 技术本身,而在于 ITSM 架构仍停留在 “规则优先、人类兜底” 的设计思路中。ManageEngine卓豪将介绍自治服务系统进化新路径!

    典型局限表现

    l AI 只能在预设规则范围内行动

    l 无法理解跨流程、跨系统的业务上下文

    l 一旦超出场景,立即回退人工处理

    AI 原生 ITSM,并非简单叠加 AI 功能, 而是从设计之初就将 AI 视为运行主体之一。
    **
    在这种模型中:**

    l AI 能理解服务目标,而非只执行指令

    l AI 能基于上下文做出判断,而非只匹配规则

    l AI 能在授权范围内采取行动,并从结果中学习

    对于大多数企业而言,AI 原生化并非“一步到位”, 而是一个渐进式演进过程。

    统一数据与流程基础(事件、资产、CMDB)
    引入 AI 辅助能力(分类、聚类、摘要)
    在低风险场景中授权 AI 自主执行
    通过反馈与审计机制持续优化模型
    在这一过程中, ServiceDesk Plus 提供了统一的数据模型、流程引擎与 AI 能力承载平台, 使组织能够在不破坏既有 ITSM 体系的前提下, 逐步向 AI 原生架构演进。

    AI 原生 ITSM 是否意味着完全自动化?
    不是。AI 原生 ITSM 强调的是“自治能力”,而非完全无人干预。 关键在于人机协同与可控授权。

    现有 ITSM 是否可以升级为 AI 原生?
    可以。只要具备统一数据模型与可扩展流程引擎, 就可以逐步引入 AI 原生能力。

    AI 原生 ITSM 如何保障安全与合规?
    通过权限控制、审计日志与人工审批机制, 确保 AI 的每一次行动可追溯、可回滚。

    ManageEngine卓豪将介绍什么是“真正的 IT 服务治理”!

    真正的 IT 服务治理,并不等同于“流程多”“审批严”,而体现在以下几个维度:

    l 每一次服务交付是否可追溯

    l 每一个决策是否有数据依据

    l 每一项变更是否可审计、可回滚

    l 整体运行是否可预测、可优化

    一、没有治理能力的 ITSM,会走向什么结局?

    在大量企业中,ITSM 系统确实已经上线多年,但其运行状态往往呈现出一种“表面有序、内部失控”的状态:

    l 工单数量持续增长,但问题根因反复出现

    l 审批流程存在,但绕流程成为常态

    l 变更记录齐全,却无法回答“为什么这么改”

    从表面上看,系统似乎在“跑流程”;但从治理角度看,组织并不能清楚回答一个关键问题:

    “如果现在发生重大问题,我们是否能在事后完整还原发生了什么?”

    二、审计视角下的 IT 服务管理缺口

    在接受内控、合规或外部审计时,IT 团队往往会遇到一些高度重复的问题:

    该变更是否经过授权?
    是否存在未经审批的紧急操作?
    问题处理是否符合既定流程?

    三、治理能力必须“系统内生”,而非事后补救

    高成熟度组织的共同特征在于:治理能力并不是附加在 ITSM 之上的,而是内嵌在系统运行逻辑中。

    这意味着:

    l 系统自动记录每一次关键操作

    l 审批、执行、验证形成闭环

    l 规则约束替代人工记忆

    四、从“流程合规”到“运行可预测”的治理跃迁

    大多数企业在 ITSM 建设初期,关注点集中在“流程是否合规”:是否有工单、是否走审批、是否能导出报表。

    但当组织规模扩大、系统数量上升后,真正困难的问题变成了:

    下个月工单量是否会激增?

    哪些系统最有可能成为风险源?

    哪些变更模式正在积累隐患?

    这意味着,治理目标已经从“合不合规”,演进为“能不能提前预判”。

    在治理型 ITSM 场景中,ServiceDesk Plus 并不只是一个工单工具,而是承载治理能力的运行平台。

    通过将事件、问题、变更、资产、知识与自动化规则统一在同一数据体系中,治理不再依赖事后解释,而是实时发生。

    Q1:治理型 ITSM 是否会降低响应效率?

    恰恰相反。通过减少返工、误操作与重复事件,治理型 ITSM 往往能显著提升整体响应效率。

    Q2:中型企业是否需要这么“重”的治理体系?

    治理并不等于复杂。关键在于是否具备“随规模增长而不失控”的能力。

    Q3:治理是否意味着更多审批?

    成熟治理强调规则自动化,而非人为审批。

    Q4:治理能力多久能见效?

    通常在 2–3 个运行周期内即可观察到重复问题和风险暴露的显著下降。